Archiv verlassen und diese Seite im Standarddesign anzeigen : DX9 Shaders - FX vs. R300
nagus
2003-01-30, 17:39:44
Quelle: HardOCP
unglaublich...
MegaManX4
2003-01-30, 18:16:29
Originally posted by nagus
Quelle: HardOCP
unglaublich...
Also ehrlich, das kann doch schon fast nicht mehr wahr sein??? Ich hoffe für den Markt inständig, das es sich hier "nur" um Treiberprobleme handelt. Selbst diese brauchen ihre Zeit um einigermaßen ausgereift zu sein.
Unregistered
2003-01-30, 18:21:55
wie haben die PS2.0 shader getestet mit der gfx wenn der treiber nur dx8.1 kann ??
Exxtreme
2003-01-30, 18:24:13
Originally posted by Unregistered
wie haben die PS2.0 shader getestet mit der gfx wenn der treiber nur dx8.1 kann ??
Ein neuer Treiber kann AFAIK auch PS2.0 auf der GFFX.
VoodooJack
2003-01-30, 18:36:32
Nagus, ist das der ShaderMark 1.5 von tommti?
Den hab ich doch auch getestet. Siehe unser Benchmarking-Forum. Wenn ja, dann könnte ich meine Werte gut vergleichen.
Wie sollen wir das jetzt verstehen - der NV30 kann mehr, das aber langsamer als der R300 ??? *NV-Flame verkneif*
VoodooJack
2003-01-30, 18:57:13
Das ist er. 27 Tests.
Ja, nur in den Fixed Functions ist die FX schneller. Ansonsten würde ich mich deinem knappen Kommentar anschließen und durch zwei Worte ergänzen: Unglaublich, aber wahr!
ShaderMark v1.5 - DX9 2.0 Pixel Shader Benchmark - ToMMTi-Systems (http://www.tommti-systems.com)
video mode / device info
(1024x768), X8R8G8B8 (D24X8)
HAL (pure hw vp): RADEON 9700/9500 SERIES
benchmark info
DX9 mip filter reflections: on
mip filter reflections: on
shaders:
Fixed Function - Gouraud Shading
Fixed Function - Gouraud Shading
403.73 fps
shaders:
Fixed Function - Diffuse Texture Mapping
Fixed Function - Diffuse Texture Mapping
468.63 fps
shaders:
Fixed Function - Diffuse Bump Mapping
Fixed Function - Diffuse Bump Mapping
267.26 fps
shaders:
PS 2.0 - Diffuse Bump Mapping
PS 2.0 - Diffuse Bump Mapping
235.54 fps
shaders:
PS 2.0 - Diffuse Bump Mapping
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
220.87 fps
shaders:
PS 2.0 - Bumped Diffuse + Specular
PS 2.0 - Diffuse Bump Mapping
249.51 fps
shaders:
PS 2.0 - Bumped Diffuse + Specular
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
247.98 fps
shaders:
PS 2.0 - Bumped Diffuse and Specular Lighting with per pixel Specular Exponent
PS 2.0 - Diffuse Bump Mapping
269.06 fps
shaders:
PS 2.0 - Bumped Diffuse and Specular Lighting with per pixel Specular Exponent
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
261.71 fps
shaders:
PS 2.0 - Per Pixel Anisotropic Lighting
PS 2.0 - Diffuse Bump Mapping
298.44 fps
shaders:
PS 2.0 - Per Pixel Anisotropic Lighting
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
292.21 fps
shaders:
PS 2.0 - Per Pixel Bumped Anisotropic Lighting plus Diffuse
PS 2.0 - Diffuse Bump Mapping
253.81 fps
shaders:
PS 2.0 - Per Pixel Bumped Anisotropic Lighting plus Diffuse
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
241.56 fps
shaders:
PS 2.0 - Cubic Environment Bumped Reflections
PS 2.0 - Diffuse Bump Mapping
176.54 fps
shaders:
PS 2.0 - Cubic Environment Bumped Reflections
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
168.34 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Diffuse Bump Mapping
152.88 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
148.72 fps
shaders:
PS 2.0 - Ghost Shader
PS 2.0 - Diffuse Bump Mapping
181.03 fps
shaders:
PS 2.0 - Ghost Shader
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
186.53 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Tinted Reflections with per pixel Fresnel Term
PS 2.0 - Diffuse Bump Mapping
210.05 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Tinted Reflections with per pixel Fresnel Term
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
210.29 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Diffuse Bump Mapping
212.96 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
206.47 fps
shaders:
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
120.73 fps
shaders:
PS 2.0 - 2 Spot Lights
PS 2.0 - 2 Spot Lights
93.06 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
113.90 fps
shaders:
PS 2.0 - Cubic Environment Diffuse Light and Tinted Refractions
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
126.90 fps
egdusp
2003-01-30, 20:43:43
Das könnte ne Erklärung sein, aus dem neusten .plan von John Carmack:
The NV30 runs the ARB2 path MUCH slower than the NV30 path. Half the speed at the moment.
This is unfortunate, because when you do an exact, apples-to-apples comparison using exactly the same API, the R300 looks twice as fast, but when you use the vendor-specific paths, the NV30 wins.
The reason for this is that ATI does everything at high precision all the time, while Nvidia internally supports three different precisions with different performances.
To make it even more complicated, the exact precision that ATI uses is in between the floating point precisions offered by Nvidia, [b]so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some ustification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.[b]
Es scheint also so zu sein, dass NV30 immer mit voller Präzision fährt, d.h. 128 bit gegen 96 beim Radeon. Aufgrund der geringeren Speicherbandbreite kann es dann zu diesen geringen Leistungen kommen. Mal abwarten ob der NV30 im 64 bit Modus immer noch Speicherbandbreiten limitiert ist.
mfg
egdusp
Unregistered
2003-01-30, 20:49:20
Originally posted by VoodooJack
Das ist er. 27 Tests.
Ja, nur in den Fixed Functions ist die FX schneller. Ansonsten würde ich mich deinem knappen Kommentar anschließen und durch zwei Worte ergänzen: Unglaublich, aber wahr!
ShaderMark v1.5 - DX9 2.0 Pixel Shader Benchmark - ToMMTi-Systems (http://www.tommti-systems.com)
in dem diagramm oben wurde der shadermark 1.6 genommen, könnteste dann auch den nehmen und nochmal neu benchen?
Razor
2003-01-30, 21:06:18
Originally posted by egdusp
Das könnte ne Erklärung sein, aus dem neusten .plan von John Carmack:
The NV30 runs the ARB2 path MUCH slower than the NV30 path. Half the speed at the moment.
This is unfortunate, because when you do an exact, apples-to-apples comparison using exactly the same API, the R300 looks twice as fast, but when you use the vendor-specific paths, the NV30 wins.
The reason for this is that ATI does everything at high precision all the time, while Nvidia internally supports three different precisions with different performances.
To make it even more complicated, the exact precision that ATI uses is in between the floating point precisions offered by Nvidia, so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some ustification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.
Es scheint also so zu sein, dass NV30 immer mit voller Präzision fährt, d.h. 128 bit gegen 96 beim Radeon. Aufgrund der geringeren Speicherbandbreite kann es dann zu diesen geringen Leistungen kommen. Mal abwarten ob der NV30 im 64 bit Modus immer noch Speicherbandbreiten limitiert ist.
mfg
egdusp
Und auch noch ein netter Quozte aus dem Statement:
At the moment, the NV30 is slightly faster on most scenes in Doom than the R300, but I can still find some scenes where the R300 pulls a little bitahead. The issue is complicated because of the different ways the cards can choose to run the game.
I am using an NV30 in my primary work system now, largely so I can test more of the rendering paths on one system, and because I feel Nvidia still has somewhat better driver quality (ATI continues to improve, though). For a typical consumer, I don't think the decision is at all clear cut at the moment.
For developers doing forward looking work, there is a different tradeoff -- the NV30 runs fragment programs much slower, but it has a huge maximum instruction count. I have bumped into program limits on the R300 already.
As always, better cards are coming soon.
Tja, ich kann Demirug mittlerer Weile gut verstehen, warum er trotz allem auf eine gffx setzen will...
Ihr auch ?
:D
Razor
Originally posted by Razor
Tja, ich kann Demirug mittlerer Weile gut verstehen, warum er trotz allem auf eine gffx setzen will...
Warum sollte Demirugs Entscheidung schwer zu verstehen sein? Er ist schließlich Developer und scharf auf die erweiterten Shader-Fähigkeiten des NV30.
Originally posted by Ikon
Warum sollte Demirugs Entscheidung schwer zu verstehen sein? Er ist schließlich Developer und scharf auf die erweiterten Shader-Fähigkeiten des NV30.
Die werden doch aber noch ewig nicht von vielen genutzt werden können??? Als Developer sollte er doch nicht für eine Minderheit entwickeln. Er wird hoffentlich die kleine FX nehmen sonst sorge ich mich um sein Gehör:)
Warum eigentlich kein R300?
Crazytype
2003-01-30, 21:22:05
naja es kommt ja auch balt die r350 ;) also wäre die gf fx ne fehlinvestition da ATI bestimmt nette Sachen einbauen wird.
Originally posted by Pirx
Die werden doch aber noch ewig nicht von vielen genutzt werden können??? Als Developer sollte er doch nicht für eine Minderheit entwickeln. Er wird hoffentlich die kleine FX nehmen sonst sorge ich mich um sein Gehör:)
Warum eigentlich kein R300?
Genau das hat er in diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=51561) begründet, aber Vorsicht -> der Thread ist ewig lang :(
Unregistered
2003-01-30, 21:25:40
Originally posted by Ikon
Genau das hat er in diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=51561) begründet, aber Vorsicht -> der Thread ist ewig lang :(
Speicher es dir am besten gut weg. Es wird bestimmt deine neue Bibel.
Anonym_001
2003-01-30, 21:28:46
Originally posted by Pirx
Warum eigentlich kein R300?
Die Diskusion habe ich mit ihm schon gehabt.
Er hat gesagt das sie zum testen eine 9500 nonpro gekauft haben.
Wenn man so etwas als Antwort bekommt braucht man sich nicht zu wundern wenn Games Probleme machen.
NV -- das neuste (egal wie schlecht)
ATI -- abgespechter R300
Originally posted by Anonym_001
Die Diskusion habe ich mit ihm schon gehabt.
Er hat gesagt das sie zum testen eine 9500 nonpro gekauft haben.
Wenn man so etwas als Antwort bekommt braucht man sich nicht zu wundern wenn Games Probleme machen.
NV -- das neuste (egal wie schlecht)
ATI -- abgespechter R300
das zahlt doch sowieso die firma , oder?
ich glaube kaum das ein developer eine grafikkarte aus seinem eigenen sack zahlen muss , ausser er kauft sie sich für zuhause
Demirug
2003-01-30, 21:39:01
Originally posted by Pirx
Die werden doch aber noch ewig nicht von vielen genutzt werden können??? Als Developer sollte er doch nicht für eine Minderheit entwickeln. Er wird hoffentlich die kleine FX nehmen sonst sorge ich mich um sein Gehör:)
Warum eigentlich kein R300?
Die Beweggründe sind einfach.
Man beachte als erstes die lange Zeit welche heute für eine Spieleentwicklung gebraucht werden. Kauft man etwas zur Halbzeit der Endwicklung eine Higendkarte ist diese beim Release schon ins Mittelfeld abgerutscht. Ein VS und PS 2.0+ (nach NVIDIA) wird früher oder später auch auf einem Higendchip von ATI laufen (IMO R400) weil die 3.0 Shaderspec alles was 2.0+ kann mit einschliesst.
Und keine Sorge: "normale" 2.0 Shader werden von mir nicht ignoriert (die laufen ja auch auf einem NV30).
Die Highendsettings bei spielen sind immer für Minderheiten entwickelt. Du darfst gerne mal schätzen wie viele Käufer von Computerspielen eine GF4 haben.
Ja, im Moment tendiere ich wegen dem Fön eher zu einer kleinen NV30 Karte.
Zum R300: Wir haben uns eine 9500 besorgt (mehr war im Buget gerade leider nicht drin. Geld ist halt immer knapp).
LovesuckZ
2003-01-30, 21:39:12
Originally posted by Anonym_001
NV -- das neuste (egal wie schlecht)
ATI -- abgespechter R300
Wenn ich Demirug richtig verstanden habe, will er sich die FX kaufen, weil er mit ihr auch gleichzeitig die Faehigkeiten der r300 abdenken und dabei die Erweiterungen des NV30 nutzen koenne.
Somit hat doch jeder was davon!
Originally posted by Unregistered
Speicher es dir am besten gut weg. Es wird bestimmt deine neue Bibel.
???
Anonym_001
2003-01-30, 21:46:31
Originally posted by LovesuckZ
Wenn ich Demirug richtig verstanden habe, will er sich die FX kaufen, weil er mit ihr auch gleichzeitig die Faehigkeiten der r300 abdenken und dabei die Erweiterungen des NV30 nutzen koenne.
Somit hat doch jeder was davon!
Da hat ja auch keiner was dagegen.
Nur warum haben sie vor einem halben Jahr keine 9700pro genommen.
Wenn die FX erst im Mai/Juni gekommen wäre, hätte er Trotzdem gewartet. Oder meinst du im ernst er hätte dann statt der 9500 eine 9700pro genommen.
Eusti
2003-01-30, 21:55:14
Originally posted by Demirug
Zum R300: Wir haben uns eine 9500 besorgt (mehr war im Buget gerade leider nicht drin. Geld ist halt immer knapp). Vielleicht hat euer Chef auch nur drauf geachtet, das Ihr eine Main-Stream-fähige Karte bekommt, damit Ihr euch beim programmieren auf spielbare Framraten konzentriert und nicht irgend welchen High-Tech-Krams zusammenproggt und dann auf der 9700PRO testet und sagt: "Toll, läuft ja".
Demirug
2003-01-30, 21:59:21
Anonym_001,
der Grund ist Geld. Davon haben wir leider nicht so viel das ich es mit vollen Händen für Hardware rauswerfen kann.
Ich hätte mir schon gerne eine 9700 Pro gekauft nur muss ich sowas begründen. Und wenn ich dann gesagt bekomme "nur eine Higend-Karte pro Zyklus" habe ich natürlich ein Problem.
Für die Finalen Tests kann ich dann nochmal einkaufen gehen und dann steht auch eine 9700 auf der Liste.
Die 9500 reicht zum begleitenden testen auch vollkommen aus weil es dabei weniger um den Speed (mit dem ganzen Prüfcode in der Software ist es sowieso nicht so schnell) sondern um die richtige Darstellung geht.
Demirug
2003-01-30, 22:02:04
Originally posted by Eusti
Vielleicht hat euer Chef auch nur drauf geachtet, das Ihr eine Main-Stream-fähige Karte bekommt, damit Ihr euch beim programmieren auf spielbare Framraten konzentriert und nicht irgend welchen High-Tech-Krams zusammenproggt und dann auf der 9700PRO testet und sagt: "Toll, läuft ja".
Ich habe hier noch eine GF1 auf dem Schreibtisch liegen und hoffe jeden Tag das ich sie endlich ins hauseigne Computermuseum bringen darf. Aber bisher bekomme ich immer gesagt: "Lass mal liegen vielleicht brauchst du sie noch" :(
Wenns aber um Geld geht, verstehe ich nicht ganz die Entscheidung zur Geforce
Razor
2003-01-30, 22:19:31
Originally posted by Pirx
Wenns aber um Geld geht, verstehe ich nicht ganz die Entscheidung zur Geforce
Eine High-End-Karte pro Zyklus...
;-)
Razor
Razor
2003-01-30, 22:20:55
Originally posted by Demirug
Ja, im Moment tendiere ich wegen dem Fön eher zu einer kleinen NV30 Karte.
Gainward hätte da vielleicht was für Dich !
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=51561&perpage=20&pagenumber=14
:D
Razor
Demirug
2003-01-30, 22:23:06
Originally posted by Pirx
Wenns aber um Geld geht, verstehe ich nicht ganz die Entscheidung zur Geforce
Wie gesagt ich bekomme höchsten eine Highendkarte pro Zyklus. Das heist 9700 Pro oder eine 5800 (Ultra). Die Geforce ist wesentlich teurer (was mir schon weh tut) aber da sie eine bessere Abdekung der DX9 Features hat ist sie, für meine Zwege, die bessere Wahl.
Hätte ich mir eine 9700 Pro geholt hatte ich zwar Geld gespart aber wohl auch bis zum nächsten Zyklus warten müssen bis ich mit den 2.0+ Shader arbeiten kann. Der Refrast den ich im Moment benutze ist da nicht so toll.
Demirug
2003-01-30, 22:24:45
Razor, danke ich habe das auch schon gesehen, aber ich kann es nicht wirklich glauben.
nagus
2003-01-30, 22:25:05
Originally posted by Razor
Gainward hätte da vielleicht was für Dich !
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=51561&perpage=20&pagenumber=14
:D
Razor
die karte kommt sicher sehr bald wenn am kühlsystem noch gearbeitet wird ....so ca. in 2 monaten würde ich mal grob schätzen :bäh:
Razor
2003-01-30, 22:29:56
Originally posted by Demirug
Razor, danke ich habe das auch schon gesehen, aber ich kann es nicht wirklich glauben.
So richtig glauben tue ich das auch nicht...
Aber ich laß mich da einfach mal überraschen !
Und ganz ehrlich, diese Kühlung 'FX flow' ist der eindeutig größte Schwachpunkt der gffx.
Schon interessant, dass einem die Leistung gar nicht mal sooo wichtig ist, wenn es etwas anderes gibt, was wesentlich störender wirkt. Vielleicht ist das ja der große Trick von nVidia: Die Leutz erst einmal mit der Lüftung schocken. Und weil die Leutz dann alle erleichtert sind, dass es so etwas dann doch nicht bei den finalen Karten geben wird, kaufen sie schon aus Dankbarkeit...
:D
Bis denne
Razor
P.S.: Ich hoffe inständig, dass das stimmt !
Crushinator
2003-01-30, 22:40:31
Originally posted by Demirug Die 9500 reicht zum begleitenden testen auch vollkommen aus weil es dabei weniger um den Speed (mit dem ganzen Prüfcode in der Software ist es sowieso nicht so schnell) sondern um die richtige Darstellung geht. Etwas OT: Aber wenn irgendwelche Betatests z.B. auf der 9700Pro gemacht werden soll(t)en, wäre ich zu jeder Schandtat bereit und kann auch meinen Mund dabei ganz gut halten. Wobei ich finde, Du solltest uns (hier im Forum) generell öfters mal als Tester mißbrauchen. :)
Razor
2003-01-30, 22:53:55
Originally posted by crushinator
Etwas OT: Aber wenn irgendwelche Betatests z.B. auf der 9700Pro gemacht werden soll(t)en, wäre ich zu jeder Schandtat bereit und kann auch meinen Mund dabei ganz gut halten. Wobei ich finde, Du solltest uns (hier im Forum) generell öfters mal als Tester mißbrauchen. :)
Meinst Du, dass die Optik auf Deiner 9700 besser ist, als auf einer 9500 ?
???
Razor
Quasar
2003-01-30, 23:08:25
Klar, ist doch schließlich das High-End Model von ATi. Denn merke: Wenn Beta-Tests immer nur auf den kleinen 9500 non-pro durchgeführt werden....usw. usf.
;) <<-- Das ist ein Smiley, für alle denen Ironie ein Fremdwort sein sollte.
LovesuckZ
2003-01-30, 23:10:34
Ich hoffe, dass sich Demirug ne 9500 mit 128MB gekauft hat. Wer weiß, wann ATI die supi Speicherverwaltung in den Griff bekommt.
egdusp
2003-01-30, 23:11:30
Originally posted by Razor
Meinst Du, dass die Optik auf Deiner 9700 besser ist, als auf einer 9500 ?
???
Razor
Meinst du, dass er wirklich selbstlos helfen will?
???
mfg
egdusp
edit: ihn zum Mann gemacht (es => er)
Crushinator
2003-01-30, 23:32:51
Originally posted by egdusp Meinst du, dass er wirklich selbstlos helfen will?
@alle
Smilies hin oder her, ich hätte da genau so R100, FireGL oder Parhelia hinschreiben können, an dem Sinn meines ernstgemeinten Beitrags würde es nichts ändern, denn der ist im letzten Satz "versteckt". :jedifire:
Desti
2003-01-31, 00:05:51
Originally posted by Ikon
Warum sollte Demirugs Entscheidung schwer zu verstehen sein? Er ist schließlich Developer und scharf auf die erweiterten Shader-Fähigkeiten des NV30.
Wenn Developer immer sooo scharf auf die vielen tollen neuen Sachen sind, wieso zum Teufel kommt dann davon nie etwas beim Kunden an?
mapel110
2003-01-31, 00:06:21
Originally posted by crushinator
@alle
Smilies hin oder her, ich hätte da genau so R100, FireGL oder Parhelia hinschreiben können, an dem Sinn meines ernstgemeinten Beitrags würde es nichts ändern, denn der ist im letzten Satz "versteckt". :jedifire:
beta tests machen imo erst sinn, wenn das game auf den entwickler-systemen stabil und zufriedenstellend läuft und sich vor allem dem ende der entwicklung nähert. davon ist aber afaik demirug noch recht weit entfernt.
mapel110
2003-01-31, 00:09:11
Originally posted by Desti
Wenn Developer immer sooo scharf auf die vielen tollen neuen Sachen sind, wieso zum Teufel kommt dann davon nie etwas beim Kunden an?
tja, entweder, diese features haben keine marktdurchdringung und sie sind schwierig zu handhaben.
Salvee
2003-01-31, 00:12:52
Originally posted by Desti
Wenn Developer immer sooo scharf auf die vielen tollen neuen Sachen sind, wieso zum Teufel kommt dann davon nie etwas beim Kunden an?
Ich verstehe was du meinst, aber das 'nie' stimmt so nicht. Erst in frühestens einem Jahr sehen wir, was die Developer heute scharf macht :)
Crushinator
2003-01-31, 00:16:05
Originally posted by mapel110 beta tests machen imo erst sinn, wenn das game auf den entwickler-systemen stabil und zufriedenstellend läuft und sich vor allem dem ende der entwicklung nähert. davon ist aber afaik demirug noch recht weit entfernt. Klar, deshalb auch "soll(t)en" in meinem Posting, gell? ;)
VoodooJack
2003-01-31, 00:34:28
Info an Unreg. Ich hab gerade ShaderMark 1.6 gezogen. Test folgt in Kürze.
cu
Crushinator
2003-01-31, 00:53:23
Originally posted by Desti Wenn Developer immer sooo scharf auf die vielen tollen neuen Sachen sind, wieso zum Teufel kommt dann davon nie etwas beim Kunden an? AFAIK weil Dev-Wünsche nicht immer bezahlbar bzw. nicht in dem Zeitrahmen realisierbar sind, in dem sich die GPU-Generationen abwechseln/überholen. Man merke: Man kann erst dann anfangen die Features auszuprobieren/zu implementieren wenn auch die Hardware dazu da ist. Wenn man sich aber gerade damit angefreundet hat, kommt eigentlich schon das nächste Feature-Monster. Ich würde aus diesem Grund immer dazu tendieren, den kleinsten gemeinsamen Nenner aktuellster HighEnd-Hardware auszureizen. Zur Fertigstellung des Produkts würde die damals gewählte GPU hoffentlich nur 2 mal überholt worden sein. :D
VoodooJack
2003-01-31, 01:26:15
ShaderMark v1.6a - DX9 2.0 Pixel Shader Benchmark - ToMMTi-Systems (http://www.tommti-systems.com)
video mode / device info
(1024x768), X8R8G8B8 (D24X8)
HAL (pure hw vp): RADEON 9700/9500 SERIES
benchmark info
mip filter reflections: DX9
shaders:
Fixed Function - Gouraud Shading
Fixed Function - Gouraud Shading
476.57 fps
shaders:
Fixed Function - Diffuse Texture Mapping
Fixed Function - Diffuse Texture Mapping
433.44 fps
shaders:
Fixed Function - Diffuse Bump Mapping
Fixed Function - Diffuse Bump Mapping
238.56 fps
shaders:
PS 2.0 - Diffuse Bump Mapping
PS 2.0 - Diffuse Bump Mapping
216.25 fps
shaders:
PS 2.0 - Diffuse Bump Mapping
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
202.25 fps
shaders:
PS 2.0 - Bumped Diffuse + Specular
PS 2.0 - Diffuse Bump Mapping
234.74 fps
shaders:
PS 2.0 - Bumped Diffuse + Specular
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
225.66 fps
shaders:
PS 2.0 - Bumped Diffuse and Specular Lighting with per pixel Specular Exponent
PS 2.0 - Diffuse Bump Mapping
248.79 fps
shaders:
PS 2.0 - Bumped Diffuse and Specular Lighting with per pixel Specular Exponent
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
237.26 fps
shaders:
PS 2.0 - Per Pixel Anisotropic Lighting
PS 2.0 - Diffuse Bump Mapping
275.59 fps
shaders:
PS 2.0 - Per Pixel Anisotropic Lighting
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
262.07 fps
shaders:
PS 2.0 - Per Pixel Bumped Anisotropic Lighting plus Diffuse
PS 2.0 - Diffuse Bump Mapping
229.59 fps
shaders:
PS 2.0 - Per Pixel Bumped Anisotropic Lighting plus Diffuse
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
220.34 fps
shaders:
PS 2.0 - Cubic Environment Bumped Reflections
PS 2.0 - Diffuse Bump Mapping
186.79 fps
shaders:
PS 2.0 - Cubic Environment Bumped Reflections
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
184.50 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Diffuse Bump Mapping
122.89 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
119.44 fps
shaders:
PS 2.0 - Ghost Shader
PS 2.0 - Diffuse Bump Mapping
182.00 fps
shaders:
PS 2.0 - Ghost Shader
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
173.19 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Tinted Reflections with per pixel Fresnel Term
PS 2.0 - Diffuse Bump Mapping
194.64 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Tinted Reflections with per pixel Fresnel Term
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
189.80 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Diffuse Bump Mapping
184.45 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
178.37 fps
shaders:
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
107.12 fps
shaders:
PS 2.0 - 2 Spot Lights
PS 2.0 - 2 Spot Lights
85.62 fps
shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
105.54 fps
shaders:
PS 2.0 - Cubic Environment Diffuse Light and Tinted Refractions
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
113.75 fps
Originally posted by Desti
Wenn Developer immer sooo scharf auf die vielen tollen neuen Sachen sind, wieso zum Teufel kommt dann davon nie etwas beim Kunden an? Sie kommen doch an, siehe Unreal Tournament 2003.
Desti
2003-01-31, 12:34:31
Originally posted by crushinator
AFAIK weil Dev-Wünsche nicht immer bezahlbar bzw. nicht in dem Zeitrahmen realisierbar sind, in dem sich die GPU-Generationen abwechseln/überholen. Man merke: Man kann erst dann anfangen die Features auszuprobieren/zu implementieren wenn auch die Hardware dazu da ist. Wenn man sich aber gerade damit angefreundet hat, kommt eigentlich schon das nächste Feature-Monster. Ich würde aus diesem Grund immer dazu tendieren, den kleinsten gemeinsamen Nenner aktuellster HighEnd-Hardware auszureizen. Zur Fertigstellung des Produkts würde die damals gewählte GPU hoffentlich nur 2 mal überholt worden sein. :D
Aber selbst so Billigfunktionen wie Bumpmapping, was es schon seit Jahren gibt und jede 50€ Karte kann wird kaum benutzt, obwohl es an vielen Stellen sehr gut aussehen würde (selbst die einfachste Form davon)
Demirug
2003-01-31, 12:48:19
Originally posted by Desti
Aber selbst so Billigfunktionen wie Bumpmapping, was es schon seit Jahren gibt und jede 50€ Karte kann wird kaum benutzt, obwohl es an vielen Stellen sehr gut aussehen würde (selbst die einfachste Form davon)
Mit dem Einbauen von Bumpmap-Support ist ja nicht getan. Die Designer müssen auch Bumpmaps für alles erstellen. Im Nachhinein kann man das vergessen. Zudem erfordern Bumpmaps echtes Realtime per Pixel Light ala DOOM III und wie dabei die Karten in die Knie gehen ist ja bekannt. Leider wird ein Feature dadruch das es vorhanden ist auch nicht wirklich gleich nutzbar.
Desti
2003-01-31, 12:57:16
Originally posted by Demirug
Mit dem Einbauen von Bumpmap-Support ist ja nicht getan. Die Designer müssen auch Bumpmaps für alles erstellen. Im Nachhinein kann man das vergessen. Zudem erfordern Bumpmaps echtes Realtime per Pixel Light ala DOOM III und wie dabei die Karten in die Knie gehen ist ja bekannt. Leider wird ein Feature dadruch das es vorhanden ist auch nicht wirklich gleich nutzbar.
Huch, wie kommt es dann das es bereits 1999/2000 einzelne Games mit Bumpmapping gab?
Demirug
2003-01-31, 13:05:41
Originally posted by Desti
Huch, wie kommt es dann das es bereits 1999/2000 einzelne Games mit Bumpmapping gab?
Oh, ich glaube wir meinen verschiedene Arten von Bumpmapping. Ich sprach von dem richtig schönen DOT3 Bumpmapping. Wenn ich mich recht entsinne handelte es sich bei den 1999/2000 Spielen im wesentlichen um ein Emboss verfahren oder die Matroxvariante. Zudem muss man auch ein bischen das Genre berücksichtigen. Es gibt Bereiche wo man ein bischen verschwenderischer mit der Grafikpower umgehen darf. In der Regel kann man inzwischen davon ausgehen das ein neues Feature minimum 2 Jahre braucht bis es wirklich Anwendung findet.
Exxtreme
2003-01-31, 13:07:38
Originally posted by Demirug
Oh, ich glaube wir meinen verschiedene Arten von Bumpmapping. Ich sprach von dem richtig schönen DOT3 Bumpmapping.
Naja, also bei Giants war es AFAIK schon DOT3-BM, was da angewendet wurde. Und das Spiel lief mit meiner Radeon 64 flüssig.
Originally posted by Demirug
Oh, ich glaube wir meinen verschiedene Arten von Bumpmapping. Ich sprach von dem richtig schönen DOT3 Bumpmapping.
??? War nicht immer EMBM die Königsdisziplin und DOT3 die Billigvariante ???
Unregistered
2003-01-31, 13:13:56
Originally posted by Ikon
??? War nicht immer EMBM die Königsdisziplin und DOT3 die Billigvariante ???
Nein, es sind 2 völlig unterschiedliche Verfahren und haben nichts gemeinsam.
Demirug
2003-01-31, 13:17:54
Originally posted by Exxtreme
Naja, also bei Giants war es AFAIK schon DOT3-BM, was da angewendet wurde. Und das Spiel lief mit meiner Radeon 64 flüssig.
Evolva war das erste Spiel mit DOT3-BM. Giants dann das zweite.
Wenn ich mich recht erinnere war aber nicht alles gebumpmapped, oder?
Demirug
2003-01-31, 13:20:03
Originally posted by Ikon
??? War nicht immer EMBM die Königsdisziplin und DOT3 die Billigvariante ???
Die DOT3 Variante erlaubt mehr Möglichkeiten. EMBM dagegen ist recht genau festgelegt. Läuft in etwa auf den Vergeleich VS gegen Fixed HT&L hinaus.
Na sieh' mal einer guck, ich dachte immer, es verhielte sich genau anders herum. Danke, Demirug :)
Desti
2003-01-31, 13:27:20
Originally posted by Demirug
Evolva war das erste Spiel mit DOT3-BM. Giants dann das zweite.
Wenn ich mich recht erinnere war aber nicht alles gebumpmapped, oder?
Nur ein Teil, aber das reichte vollkommen aus um die Gesammtoptik deutlich zu verbessern und das ist IMHO deutlich sinnvoller als einen Titel mit allen nur erdenklichen Funktionen vollzustopfen, wo dann 90% der Käufer eh 60% abschalten müssen damit es überhaupt flüssig läuft.
BlackBirdSR
2003-01-31, 13:28:46
Originally posted by Desti
Nur ein Teil, aber das reichte vollkommen aus um die Gesammtoptik deutlich zu verbessern und das ist IMHO deutlich sinnvoller als einen Titel mit allen nur erdenklichen Funktionen vollzustopfen, wo dann 90% der Käufer eh 60% abschalten müssen damit es überhaupt flüssig läuft.
meinst du?...
bei Giants oder Sacrifice war nie das Bumpmapping das Problem sondern die CPU :)
Unregistered
2003-01-31, 15:33:44
Originally posted by Demirug
Wie gesagt ich bekomme höchsten eine Highendkarte pro Zyklus. Das heist 9700 Pro oder eine 5800 (Ultra). Die Geforce ist wesentlich teurer (was mir schon weh tut) aber da sie eine bessere Abdekung der DX9 Features hat ist sie, für meine Zwege, die bessere Wahl.
Hätte ich mir eine 9700 Pro geholt hatte ich zwar Geld gespart aber wohl auch bis zum nächsten Zyklus warten müssen bis ich mit den 2.0+ Shader arbeiten kann. Der Refrast den ich im Moment benutze ist da nicht so toll.
Hmmm...
Schaut so aus, als ob du die falsche Wahl getroffen hast.
Du hast also 6 Monate auf die GFFx gewartet und damit 6 Monate Verzögerung bei der DX9 Entwicklung verursacht! Jetzt kaufst du dir dann eine Karte, die PS2+ und VS2+ schafft ( also kurzfristig etwas besser ist als die R300 ), aber dafür verschläfst du wieder die R400 die IMHO zumindest mit VS 3.0 und PS 3.0 aufwarten wird (Schließlich sagst du selbst du darfst nur alle Jahre wieder eine neue Karte kaufen).
Durch deine Wahl, auf die GFFX zu warten bist du also immer min. 6 Monate hinten dran, und nicht vorneweg, wie du es darstellst.
Ich hoffe du wartest wenigstens so lange, bis die R350 vorgestellt wird, da diese vielleicht (IMHO nein, aber bei ATi weiß man momentan ja nie) die gleichen PS und VS unterstützt wie die GFFX, aber um einiges schneller ist.
Demirug
2003-01-31, 15:58:17
Originally posted by Unregistered
Hmmm...
Schaut so aus, als ob du die falsche Wahl getroffen hast.
Du hast also 6 Monate auf die GFFx gewartet und damit 6 Monate Verzögerung bei der DX9 Entwicklung verursacht! Jetzt kaufst du dir dann eine Karte, die PS2+ und VS2+ schafft ( also kurzfristig etwas besser ist als die R300 ), aber dafür verschläfst du wieder die R400 die IMHO zumindest mit VS 3.0 und PS 3.0 aufwarten wird (Schließlich sagst du selbst du darfst nur alle Jahre wieder eine neue Karte kaufen).
Durch deine Wahl, auf die GFFX zu warten bist du also immer min. 6 Monate hinten dran, und nicht vorneweg, wie du es darstellst.
Ich hoffe du wartest wenigstens so lange, bis die R350 vorgestellt wird, da diese vielleicht (IMHO nein, aber bei ATi weiß man momentan ja nie) die gleichen PS und VS unterstützt wie die GFFX, aber um einiges schneller ist.
Ich habe keine 6 Monate verloren weil DX9 ja erst seit ca 1 Monat final ist. Mit Beta Versionen mache ich grundsätzlich nur Fingerübungen. Zudem konnte ich schon mit dem umstellen auf DX9 anfangen da man dafür ja nicht zwangsläufig eine DX9 Karte braucht. Ich möchte halt nur irgendwann die 2.0+ DX9-Shader auch mal auf einer Karte testen. Für die 2.0 hätte ich eine R9500 zur Verfügung. Und Speed ist mir wie gesagt echt egal solange es noch FPS und nicht Sekunden Pro Frame sind.
ice cool69
2003-01-31, 16:14:36
@ demirug
sorry aber bisher siehts nicht so aus als ob die gffx ein riesiger erfolg werden könnte. wieso dann jetzt schon auf 2.0+ aufsetzen?
hättet ihr euch seit erscheinen der r300 auf dx9 konzentriert wärs wohl viel gescheiter geworden. ich meine 2.0+ wird zu 3.0 zeiten genauso zu wenig sein wie 2.0
und andere spieleprogrammierer setzen auch nicht immer aufs neueste, eigentlich tut das fast gar keiner (unreal2 ist dx7), ich verstehe einfach nicht wieso dann unbedingt ne gffx her muss wenn die ein halbes jahr nach der r300 kommt, nur wegen dem +???????
Radeonator
2003-01-31, 16:19:22
Also Shader V2.0+ werden IMO dieselbe Unterstützung wie PS1.4 finden, darum finde ich Demirugs Entscheidung sehr , hmmm, komisch? Wozu sollte ein Developer seine Energie mit Nonsens verschwenden? Vielleicht willst du ja auch noch ein bissi glide Optimierungen vornehmen...;)
@Razor: Bis jetzt wird die Karte immer noch in jedem Review zersägt, also halt den Ball mal flach :P
ice cool69
2003-01-31, 16:24:12
ich würde demirugs entscheidung ja nachvollziehen können wenn die gffx zeitgleich erschienen wäre, aber ein halbes jahr warten wegen einem + hnter den PS/VS? also ihr scheint ja nicht gerade meister der zeitplanung zu sein...
Crushinator
2003-01-31, 16:32:13
@ice cool69, Radeonator
Es ist völlig Wurscht, ob sich PS 2.0+ durchsetzt oder nicht. Wichtig ist nur, daß a) nur Geld für eine HighEnd-Karte da war b) daß Demirug bereits eine (wenn auch kleine) R300 hat und die Funktionalität darauf sicherstellen kann....und zu guter letzt c) er für "finale" Performance-Tests auch die große Variante herangezogen würde...wann auch immer.
Von mir käme noch d) Ich kann mir - nachdem was ich bisher erfahren habe - nicht vorstellen, daß das Produkt vor der R400 fertig ist. Die widerum wird mit an Sicherheit grenzender Wahrscheinlichkeit die PS/VS-Fähigkeiten des NV30 übertreffen und hoffentlich auch mit NV35 mind. gleichziehen.
Für mich als ATi-Fan reichen b) und c) vollkommen aus -> siehe auch Carmack-Kommentar. =)
ice cool69
2003-01-31, 16:35:13
aber die r300 ist doch schon ewig zu haben...
und überhaupt wennd ie geschwindigkeit so wurscht ist, warum zieht demirug dann ne ULTRA in betracht? beim r300 hat doch auch die kleinste version gereicht.
Crushinator
2003-01-31, 16:46:02
Originally posted by ice cool69 ...und überhaupt wennd ie geschwindigkeit so wurscht ist, warum zieht demirug dann ne ULTRA in betracht? Guckst Du in Postings zuvor: Er holt sich schon die "Kleine", weil er beim Proggen keinen Kopfhörer tragen möchte. ;)
Demirug
2003-01-31, 17:27:07
wie oft denn noch :)
Ich brauche keine schnelle Karte sonder nur eine Karte mit dem Chip welcher die grösste abdeckung von DX9 in Hardware hat. Nach allem was derzeit auf dem Tisch liegt ist das nun mal eine Karte mit einem NV30. Die kleinste reicht aber für meine Zwege vollkommen aus.
Ich weis gar nicht was hier leute gegen die 2.0+ Shader haben. Es ist davon auszugehen das ATI beim R300 auf die 3.0 Versionen setzen wird. Diese Karten werden ohne Probleme mit den 2.0+ Shadern klarkommen. Wenn also jetzt angefangen wird auch 2.0+ Effekte einzubauen profitiert doch jeder davon. Ihr beschwert euch doch sonst ständig das es solange dauert bis die Features auch genutzt werden. Ich habe Informationen das mindestens 3 Firmen bereits an 3.0 Chips arbeiten ATI und NVIDIA dürften da ja klar sein. Ich tippe mal auf PowerVR als Nummer 3 und da es mindestens heist wird es wohl noch ein paar geben.
Da hier immer wieder gerne die PS 1.4 zum vergleich mit den 2.0+ Shadern herangezogen werden kann ich nur sagen das dieser Vergleich hinkt.
Für einen PS 1.4 Shader kann nicht ein PS 1.1-1.3 als Basis genommen und erweitert werden. -> Neuschreiben
Ein 2.0+ Shader kann einen 2.0 Shader als Basis benutzten da alle 2.0 Operationen auch in 2.0+ verfügbar sind.
Ein PS 1.4 Shader läst sich nicht 1:1 sofort in einen 2.0 Shader umwandeln. Der Code muss etwas modifiziert werden.
Ein 2.0+ Shader ist 100% kompatibel mit 3.0.
ice cool69
2003-01-31, 18:00:27
wann hast du die r9500 gekauft?
Demirug
2003-01-31, 18:03:19
Originally posted by ice cool69
wann hast du die r9500 gekauft?
Die 9500 haben wir im Dezember gekauft.
Rampage 2
2003-01-31, 23:00:33
Originally posted by Demirug
Oh, ich glaube wir meinen verschiedene Arten von Bumpmapping. Ich sprach von dem richtig schönen DOT3 Bumpmapping. Wenn ich mich recht
EMBM von Matrox oder (dynamisches!) Cubic Environment Bump Mapping
sieht doch auch geil aus!???
Razor
2003-02-01, 11:19:29
Originally posted by Radeonator
@Razor: Bis jetzt wird die Karte immer noch in jedem Review zersägt, also halt den Ball mal flach :P
Meinst Du die Reviews, die das FSAA falsch interpretiert/bewertet haben ?
Die Reviews, die noch mit Beta-Treibern agierten ?
Die Reviews, welche trotzdem die Leistungskrone an nVidia zurück gaben ?
Die Reviews, die die noch nicht finale Kühlung bewerteten ?
Also, wenn man nun diese massiven Informationen der gewaltigen Menge von 5 Reviews mit Alpha-Karten und Beta-Treibern zusammen fasst, dann haben wir... nichts !^
Und was bitte meinst Du mit 'zersägen' ?
???
Razor
@Razor
Ist es so schwer, auf einen billigen Flame, nicht wieder mit einem Flame zu antworten? Natürlich könnte auch ich jetzt anfangen, deine Punkte einzeln zu zerpflücken, aber wir sind hier nicht auf der Spielwiese. Es gibt genug Threads, wo du deine Meinung zur GFFX wesentlich angemessener plaziert ist, als hier.
edit: Friede, Freude, Eierkuchen ;)
Razor
2003-02-01, 11:37:55
Originally posted by Ikon
@Razor
Ist es so schwer, auf einen billigen Flame, nicht mit einem ebenso billigen zu antworten? Natürlich könnte auch ich jetzt anfangen, deine Punkte einzeln zu zerpflücken, aber wir sind hier nicht auf der Spielwiese. Es gibt genug Threads, wo du deine Meinung zur GFFX wesentlich angemessener plaziert ist, als hier.
edit: Friede, Freude, Eierkuchen ;)
Tja Ikon, habe geschrieben, dass die gffx 'besser' ist ?
Oder sonst irgend etwas, was als 'flame' gedeutet werden kann ?
Ich schrieb lediglich, dass wir aufgrund der derzeit bekannten Reviews schlicht noch gar nichts wissen.
Wir wissen:
- dass die Alpha-Kühlung Schrott ist
- dass die Beta-Treiber 'unausgereift' sind (gelinde ausgedrückt)
- die Features dieser Karte sogar falsch bewertet wurden (dies somit noch aussteht)
Was ist daran Deiner Meinung nach falsch ?
???
Razor
Meine Meinung dazu ist irrelevant, ich wollte nur pflichtbewusst auf das Thema dieses Threads zurückführen :)
P.S.: du hast recht, Flame war, auf dein oberes Posting bezogen, übertrieben *sorry*
ollix
2003-02-01, 12:45:22
Originally posted by Razor
Meinst Du, dass die Optik auf Deiner 9700 besser ist, als auf einer 9500 ?
???
Also HierachicalZ ist wohl auf der 9500er noch nicht richtig in den Treibern realisiert, erst mit der 9700er funktioniert es wohl Fehlerfrei. Bei der 9500er bekommeich Bildfehler..
Unregistered
2003-02-01, 12:50:06
Originally posted by ollix
Also HierachicalZ ist wohl auf der 9500er noch nicht richtig in den Treibern realisiert, erst mit der 9700er funktioniert es wohl Fehlerfrei. Bei der 9500er bekommeich Bildfehler..
Ja, wenn ma es mit einem Tweaker einschaltet. Es ist standardmaessig auf einer 9500 nonPro deaktiviert.
Pechschwarz_zqwe43
2003-02-01, 20:12:11
Originally posted by Demirug
Wie gesagt ich bekomme höchsten eine Highendkarte pro Zyklus. Das heist 9700 Pro oder eine 5800 (Ultra). Die Geforce ist wesentlich teurer (was mir schon weh tut) aber da sie eine bessere Abdekung der DX9 Features hat ist sie, für meine Zwege, die bessere Wahl.
Die NV30 hat nicht die ''bessere Abdeckung'' von DX9, nur etwas bessere Shader. Der Karte fehlen sehr interessante Features wie MRT, HOS und DX9 Displacement Mapping.
Demirug
2003-02-01, 20:42:05
Originally posted by Pechschwarz_zqwe43
Die NV30 hat nicht die ''bessere Abdeckung'' von DX9, nur etwas bessere Shader. Der Karte fehlen sehr interessante Features wie MRT, HOS und DX9 Displacement Mapping.
-Das Displacement Mapping der R300 Chips kann man vergessen. Es handelt sich dabei nur um die einfache Variante und hat mit dem "richtigen" Displacement Mapping wie es Matrox vorgestellt hat nicht viel zu tun.
-Die HOS Technik im R300 ist derzeit ein reines Treiber Feature. Bei dieser Art von HOS Support ist es besser HOS-Technik in der 3D-Engine zu verankern. Dann hat jeder was davon und schneller ist es auch weil die Engine viel besser weiss wie oft man das Model durch Tesselation neu and die Gegebenheiten anpassen muss.
-MRT ist eine durchaus interesante Sache. Das Problem dabei ist nur das es sich derzeit nur für Techdemos eignet. Es gibt keinerlei Planungssicherheit welche Chips in Zukumpft wie viele Targets unterstützen werden. Deshalb derzeit Finger weg.
Bei Shader der NV30 hat man allerdings die Sicherheit das jede Karte welche 3.0 Shader unterstützt diese ohne Probleme ausführen können wird. Da die Shader inzwischen das Hauptgerüst von DX bilden kann man absolute sicher sein das früher oder später jeder Hersteller einen entsprechenden Chip im Angebot haben wird. Nach meinen Informationen sind derzeit mindestens 3 Firmen mit der Entwicklung solcher chip beschäftigt. Die Investition in NV30 Shader Technologie ist also eine sichere Sache für das was da noch kommen wird.
Aus diesen Gründen sprach ich von einer "besseren Abdeckung" was im Zusammenhang natürlich als bessere Abdeckung von für die Entwicklung wichtigen Features zu verstehen war.
ice cool69
2003-02-03, 01:19:33
und was bringen diese erweiterten shader jetzt genau? können damit mehr effekte oder die effekte schneller berechnet werden oder wie jetzt?
Razor
2003-02-03, 01:36:53
Originally posted by ice cool69
und was bringen diese erweiterten shader jetzt genau? können damit mehr effekte oder die effekte schneller berechnet werden oder wie jetzt?
Schneller vermutlich nicht, wohl aber können die Shader wesentlich komplexer sein...
Wie schrieb es JC noch in seinem .plan-Update ?
Bei der R300 ist er schon an Grenzen gestoßen, bei der gffx noch lange nicht...
Allerdings fand auch er die Lüftung 'annoying' !
;D
Razor
Originally posted by Razor
Schneller vermutlich nicht ...
Schneller im Sinne von "mehr/Pass" schon -> größere Parallelität
Demirug
2003-02-03, 07:42:03
Originally posted by ice cool69
und was bringen diese erweiterten shader jetzt genau? können damit mehr effekte oder die effekte schneller berechnet werden oder wie jetzt?
Beides.
Man kann zwar strenggenommen nur von schneller berechnen sprechen aber das ist ja die Aufgabe eines 3D Beschleunigers. Und durch das schnellere Berechnen rücken eben wieder ein paar Effekte in den Bereich "Vernüpftig machbar" vor.
Eusti
2003-02-03, 07:50:55
Originally posted by Demirug
Man kann zwar strenggenommen nur von schneller berechnen sprechen aber das ist ja die Aufgabe eines 3D Beschleunigers. Und durch das schnellere Berechnen rücken eben wieder ein paar Effekte in den Bereich "Vernüpftig machbar" vor. Die Frage ging (denke ich) eher in die Richtung, ob es mit den Shadern der GFFX bereits heute möglich ist, Standard-DX9-Effekte schneller zu berechnen, als auf dem R300.
Also, hat der GFFX durch seine Kompläxität Vorteile (z.B. weniger Loops) gegenüber einem R300 in einem 08/15 DX9 Game, was dann zu mehr fps (nix anderes ist für mich Geschwindigkeit) führt? Das der GFFX bessere nie da gewesene Efekkte erzeugen kann als ein R300 ist klar, aber ist er bei ganz normalem DX9 bereits schneller?
Byteschlumpf
2003-02-03, 09:23:10
Bisherige DX9 Benches bescheinigen der 9700Pro deutlich mehr Performance, als dem FX Ultra!
Über Dinge, die es noch nicht gibt, kann man auch keine klaren Aussagen treffen - ist, wäre, wenn - reine Spekulation!!!
Byteschlumpf
LovesuckZ
2003-02-03, 10:16:17
Originally posted by ollix
Also HierachicalZ ist wohl auf der 9500er noch nicht richtig in den Treibern realisiert, erst mit der 9700er funktioniert es wohl Fehlerfrei. Bei der 9500er bekommeich Bildfehler..
Es ist ein Hardwarefehler und ATI sieht es nicht fuer noetig ihn zu beheben!
Wo hast du das denn wieder her ???
LovesuckZ
2003-02-03, 10:20:38
Originally posted by Ikon
Wo hast du das denn wieder her ???
Weil das Thema schon besprochen bewurde:D
Irgendwie hier muss noch dr Thread rumliegen.
Unregistered
2003-02-03, 10:23:58
Originally posted by LovesuckZ
Es ist ein Hardwarefehler und ATI sieht es nicht fuer noetig ihn zu beheben!
Warum sollten Sie?
Die R9500-Karten verwenden u.a. Chips, die Fehler haben und deshalb nicht als R9500Pro / R9700 /Pro verwendet werden können. Anscheinend ist auch das HyperZ II bei einigen Chips defekt, und deshalb ist es bei allen R9500 deaktiviert.
LovesuckZ
2003-02-03, 10:31:34
Originally posted by Unregistered
Warum sollten Sie?
Die R9500-Karten verwenden u.a. Chips, die Fehler haben und deshalb nicht als R9500Pro / R9700 /Pro verwendet werden können. Anscheinend ist auch das HyperZ II bei einigen Chips defekt, und deshalb ist es bei allen R9500 deaktiviert.
Ich hab kein Bock, dass nochmal durch zu kaufen. Deswegen die Kurzfassung:
A) ATI sagt ihren Partner nicht, was an den 9500 kaputt ist
b) Dem Kunden werden auf der Verpackung verpsrechen gemacht
c) Man erfaehrt dass HierZ nicht funktioniert, doch auf der Verpackung es angeprießen wird
d) Im Rage3d Forum kommt heraus, dass HierZ putt ist und ATI es wusste
So, da das Thema offtopic ist, hoere ich damit jetzt auf. Schaue einfach in den dazugehoerigen Thread.
Unregistered
2003-02-03, 10:58:34
Originally posted by LovesuckZ
Ich hab kein Bock, dass nochmal durch zu kaufen. Deswegen die Kurzfassung:
A) ATI sagt ihren Partner nicht, was an den 9500 kaputt ist
b) Dem Kunden werden auf der Verpackung verpsrechen gemacht
c) Man erfaehrt dass HierZ nicht funktioniert, doch auf der Verpackung es angeprießen wird
d) Im Rage3d Forum kommt heraus, dass HierZ putt ist und ATI es wusste
So, da das Thema offtopic ist, hoere ich damit jetzt auf. Schaue einfach in den dazugehoerigen Thread.
Es ist doch aber total blödsinnig zu behaupten, auf der R9500 sei ein Feature defekt und deshalb bekommt man Bildfehler.
Dieses Feature gibt es einfach nicht auf der R9500. Wer meint, besser zu wissen was der Chip kann und es mit Hilfe eines Tweakers aktiviert, braucht sich nicht wundern.
Mit der Aussage "Auf R9500 nonPro gibt es trotz Packungsaufdruck bei Supergrace kein HirarchialZ" hab ich kein Problem, wohl aber mit dem Dummschwätz, den du hier ablaesst.
:nono:
Hö, Hö, schön ruhig bleiben, ich bezweifle ebenso, dass es sich um einen Hardware-Fehler handelt, aber das ist nunmal völlig OT hier. In den entspechenden Threads ist deine Meinung dazu jederzeit willkommen.
LovesuckZ
2003-02-03, 11:17:11
Originally posted by Ikon
ich bezweifle ebenso, dass es sich um einen Hardware-Fehler handelt,
Hierarchical Z cannot work in a 4 pipe design, as it stands now. HiZ is spread accross all 8 pipes and cannot work in a 4p right now.
EoT!
Cool ... woher stammt das Zitat?
Thx@LovesuckZ
StefanV
2003-02-03, 11:35:34
Originally posted by Ikon
Cool ... woher stammt das Zitat?
Thx@LovesuckZ
Rage3D Forum
LovesuckZ
2003-02-03, 11:39:00
Originally posted by Stefan Payne
Rage3D Forum
jap (http://66.224.5.66/board/showthread.php?s=&postid=1331684744#post1331684744)
Originally posted by Unregistered
Es ist doch aber total blödsinnig zu behaupten, auf der R9500 sei ein Feature defekt und deshalb bekommt man Bildfehler.
Was ist daran blödsinnig??
Es wird nur eine Sorte von R300 Chips produziert, sie sind alle transistorgleich.
Also könnten ja defekte Chips auf die 9500 wandern, wenn ein Feature da nicht funktioniert (könnte natürlich aber auch ein Treiberproblem sein, dass es auf 4-pipes nicht geht)
BlackBirdSR
2003-02-03, 11:58:12
Originally posted by LovesuckZ
jap (http://66.224.5.66/board/showthread.php?s=&postid=1331684744#post1331684744)
steht auf den Packungen zur 9500Pro was von Hierarchical Z?
Oder steht da nur HyperZ??
Dann ist es voellig ok, und deine ganze Argumentation sinnlos.
Unregistered
2003-02-03, 12:03:35
Originally posted by BlackBirdSR
steht auf den Packungen zur 9500Pro was von Hierarchical Z?
Oder steht da nur HyperZ??
Dann ist es voellig ok, und deine ganze Argumentation sinnlos.
Es geht leider nicht um die 9500Pro sondern um die 9500 nonPro (4Pipes).
Unregistered
2003-02-03, 12:05:48
Originally posted by ow
Was ist daran blödsinnig??
Es wird nur eine Sorte von R300 Chips produziert, sie sind alle transistorgleich.
Also könnten ja defekte Chips auf die 9500 wandern, wenn ein Feature da nicht funktioniert (könnte natürlich aber auch ein Treiberproblem sein, dass es auf 4-pipes nicht geht)
Keine Lust das nochmal aufzurollen. Bildfehler gibt es keine, solange man nicht an den Treiber rumtweakt.
Unregistered
2003-02-03, 12:09:01
Originally posted by Unregistered
Keine Lust das nochmal aufzurollen. Bildfehler gibt es keine, solange man nicht an den Treiber rumtweakt.
wie witzig. bei radeons muss man manchmal sogar tweaker bemühen, um bildfehler abzustellen.:D
Unregistered
2003-02-03, 12:13:04
Originally posted by Unregistered
wie witzig. bei radeons muss man manchmal sogar tweaker bemühen, um bildfehler abzustellen.:D
Die Rührereien am LOD-BIAS auf GeForce-Kaerten kommen auch nicht von ungefähr.:D
Unregistered
2003-02-03, 12:16:44
Überhaupt ein gutes Beispiel, wie man einen Thread mit einen unangenehmen Thema zerflamed. Immer wieder schoen zu beobachten, wer sich dafuer hergibt.
LovesuckZ
2003-02-03, 12:19:05
Originally posted by Unregistered
Überhaupt ein gutes Beispiel, wie man einen Thread mit einen unangenehmen Thema zerflamed. Immer wieder schoen zu beobachten, wer sich dafuer hergibt.
Sind doch eigentlich nur die unreg's :D
@ Mods: Bitte den Teil mit den HierZ in den dafuer zustaendigen Thread verschieben. Danke.
StefanV
2003-02-03, 13:16:06
Originally posted by ow
Was ist daran blödsinnig??
Es wird nur eine Sorte von R300 Chips produziert, sie sind alle transistorgleich.
Also könnten ja defekte Chips auf die 9500 wandern, wenn ein Feature da nicht funktioniert (könnte natürlich aber auch ein Treiberproblem sein, dass es auf 4-pipes nicht geht)
Und solange man nicht am Treiber tweakt und irgendwas verstellt, dann funzt die Karte auch (mehr oder minder).
Originally posted by Stefan Payne
Und solange man nicht am Treiber tweakt und irgendwas verstellt, dann funzt die Karte auch (mehr oder minder).
Und für SP auch nocheinmel:
HierZ funzt auf der 9500 nicht, da defekt (was auch immer)
Quasar
2003-02-03, 15:11:23
Payne hat aber recht. Die Karte funzt, HierZ gehört nicht zum Installationsumfang beim Treiber-Installieren, auch wenn frevelhafterweise einige Kartenhersteller und evtl. auch ATi (hab' jetzt nicht nachgeschaut) den ahnungslosen Endkunden mit vorsätzlichen Lügen täuschen und ihm das wohlverdiente Geld aus der Tasche ziehen wollen.
Hoffentlich machen solche Beispiele nicht Schule.
(Achtung, Ironie!!!)
[LOG]Skar
2003-02-03, 15:41:37
Also solange die keine Werbung damit machen dass eine 9500 H-Z kann, ist es doch kein Problem.Es ist doch ganz normal das eine Karte die
weniger kostet auch weniger kann.
Bildfehler kommen NUR wenn man tweakt, sonnst funzt alles.
Aber zurück zum Thema:
1)Also die R300 kann weniger Operationen pro Shaderprogramm?
2)Dafür ist sie schneller wenn die Programme sich an DX9 Shader halten?
3)Wird ein ShaderProg in einem Taktausgeführt?
Radeonator
2003-02-03, 15:43:59
Originally posted by Razor
Meinst Du die Reviews, die das FSAA falsch interpretiert/bewertet haben ?
Die Reviews, die noch mit Beta-Treibern agierten ?
Die Reviews, welche trotzdem die Leistungskrone an nVidia zurück gaben ?
Die Reviews, die die noch nicht finale Kühlung bewerteten ?
Also, wenn man nun diese massiven Informationen der gewaltigen Menge von 5 Reviews mit Alpha-Karten und Beta-Treibern zusammen fasst, dann haben wir... nichts !^
Und was bitte meinst Du mit 'zersägen' ?
???
Razor
1.Nein, die wo zu langsam = zu langsam ist
2.Nein
3.:lol: Das eine THG Fanboy Review...
4. Axo, was kommt denn als Finale Kühlung ??? Wenn NV diese Karten als Ref Karten für Reviews zur Verfügung stellt, darf man mit Finalem Layout rechnen. Das wird(leider) auch von Terratec bestätigt...
Zersägen = Nicht den Erwartungen entsprechend!
Ich persönlich hätte mir weitaus mehr von der GF FX versprochen, dann wäre es meine Karte in ca. einem halben Jahr geworden (die kleine)
Kann ja sein das sich da noch derbe was ändert, dann wirds sie´s so oder so!
Razor
2003-02-03, 15:55:16
@Radeonator
Also gut... dann weiter !
:D
"1.Nein, die wo zu langsam = zu langsam ist"
Ich habe die Quali angesprochen, aber die Geschwindigkeit könnte von finalen Treibern natürlich auch profitieren
"2.Nein"
Nicht ?
"3.:lol: Das eine THG Fanboy Review..."
Eins ?
Kannst Du mir ein Review nennen, bei dem die meisten max-Ergbnisse an die R9700pro gingen ?
???
"4. Axo, was kommt denn als Finale Kühlung ??? Wenn NV diese Karten als Ref Karten für Reviews zur Verfügung stellt, darf man mit Finalem Layout rechnen. Das wird(leider) auch von Terratec bestätigt..."
Terratec hat wohl eingesehen, dass sie nicht viel an der Karte verdient hätten, würde diese 'Eigenschaft' weiter in dieser Form beworben werden...
"Zersägen = Nicht den Erwartungen entsprechend! "
Was ja nun kein Wunder war...
Meine Erwartungen wurden auch nicht zu 100% erfüllt.
"Ich persönlich hätte mir weitaus mehr von der GF FX versprochen..."
Ob weitaus mehr kann ich bei mir nicht einmal genau sagen...
Klar, der Unterschied hätte deutlicher sein müssen und über die AA-Quali brauchen wir nicht (nochmal ;-) zu reden.
Aber da's ja noch BETA-Treiber sind, warte ich jetzt erst einmal finale Produkte (die Dinger, die man im Laden kaufen kann ;-) und vor allem auf finale Treiber (die es dann auch offizell von nVidia oder eben den GraKa-Herstellern zu beziehen gibt), um überhaupt eine vernünftige Grundlage zur Meinungsbildung zu haben. Das, was da bisher bekannt wurde (5 Karten bei 5 Pre-/Reviewern), ist mir eindeutig zu wenig...
Bis denne
Razor
Dr. Greenthumb
2003-02-03, 16:06:08
@ Razor: Der einsame Streiter für Gerechtigkeit und Verteidigung zu allem, was zum Thema GF FX gehört ;D Respekt (und das ist nicht ironisch gemeint)
Aber bei dem jetzt zu erwartenden Absatz oder vielmehr Nichtabsatz von FX Karten ist IMHO unwahrscheinlich, daß sich viele Entwickler auf die 2.0+ Shader stürzen, ausser bei OpenGL wos AFAIK einfacher ist. Die werden sich die Specs aller DX9 Karten ansehen, wie fast bei jeder DX Version den kleinsten gemeinsamen Nenner bilden, den alle Karten die eine gewisse Stückzahl erreichen erfüllen, und so die Spiele ausstatten.
Also kann man im Nachhinein sagen, das nVidia beim Designen des FX seine zukünftige Marktmacht zu hoch eingeschätz hat und glaubten sie könnten diese Specs bei den Entwicklern durchdrücken. Das hätte zu einem Quasi-Monopol geführt, weil ja ausser nV niemand diese Spiele mit gleicher BQ hätte darstellen können. Aber is halt nix draus geworden.
Originally posted by [LOG]Skar
Aber zurück zum Thema:
1)Also die R300 kann weniger Operationen pro Shaderprogramm?
2)Dafür ist sie schneller wenn die Programme sich an DX9 Shader halten?
3)Wird ein ShaderProg in einem Taktausgeführt?
...?!
gruß.
Dr. Greenthumb
2003-02-03, 17:25:36
Originally posted by [LOG]Skar
1)Also die R300 kann weniger Operationen pro Shaderprogramm?
2)Dafür ist sie schneller wenn die Programme sich an DX9 Shader halten?
3)Wird ein ShaderProg in einem Taktausgeführt?
1) Wenn du den Vergleich zur FX ziehst, JA
2) Wird man sehen, ein Benchmark macht noch keinen Sommer (Tommti); auf die Spiele kommts an, aber IMHO ist`s ohnehin uninteressant da die Karten wohl keine Verwendung mehr finden wenns DX9 Spiele gibt
3) Du meinst wohl eher ne Shaderoperation, ein ganzes Programm kann ich mir nicht vorstellen. Aber dazu sollten unsere Moderatoren doch was zu sagen haben?!
Demirug
2003-02-03, 17:39:25
Originally posted by Dr. Greenthumb
3) Du meinst wohl eher ne Shaderoperation, ein ganzes Programm kann ich mir nicht vorstellen. Aber dazu sollten unsere Moderatoren doch was zu sagen haben?!
Die Länge des Programms hat natürlich auswirkungen auf die Anzahl von Takten die zur Ausführung gebraucht werden. Da aber jeder Chip anders ist kann man nicht sagen das ein Shader auf allen Chips gleich viele Takte braucht. Das kommt daher das der Shader vom Treiber nocheinmal optimiert und umgewandelt werden kann um in auf den Chip anzupassen. Die Spec definiert nur das der gleiche Shader auf allen Chips zum gleichen ergebniss führen muss. Wie diese Ergebniss nun genau erreicht wird ist Sache der Hersteller.
Dr. Greenthumb
2003-02-03, 17:47:50
Originally posted by Demirug
Wie diese Ergebniss nun genau erreicht wird ist Sache der Hersteller.
Schanke dön für die prompte Antwort,
also aus deinen Ausführungen schliesse ich; nix genaues weiss man nicht und die Hersteller lassen die Hose in der Hinsicht wohl kaum runter. Aber ein Programm mit mehreren Operationen braucht "wohl" uns "wahrscheinlich" mehr als einen Takt, oder? Aber wenn ich an einen "normalen" Prozessor wie den P4 mit seinen µOps denke wird die Antwort doch mehr ein Blick in die Kristallkugel, gell?
Demirug
2003-02-03, 18:01:46
Originally posted by Dr. Greenthumb
Schanke dön für die prompte Antwort,
also aus deinen Ausführungen schliesse ich; nix genaues weiss man nicht und die Hersteller lassen die Hose in der Hinsicht wohl kaum runter. Aber ein Programm mit mehreren Operationen braucht "wohl" uns "wahrscheinlich" mehr als einen Takt, oder? Aber wenn ich an einen "normalen" Prozessor wie den P4 mit seinen µOps denke wird die Antwort doch mehr ein Blick in die Kristallkugel, gell?
Auch Grafikchips arbeiten intern mit µOps. NVIDIA hat gegenüber den Entwicklern beim NV25 mal einiges aufgedeckt.
Vertexshader: Pro Instruction Slot (machen VS-Anweisungen sind Makros und brauchen mehr als ein Slot) einen virtuellen Takt. In wirklichkeit sind es natürliche mehrer Takte da sich aber auch die Daten von mehrern Verticen auf einmal in einem VS befinden gleicht sich das wieder aus.
Pixelshader: Pro Takt und Pipe werden zwei Coloroperationen ausgeführt. Die Texturoperationen laufen parralel dazu ab. Die Anzahl der Takte für die Texturen hängt von den Textur-Filtern ab. Hier hat NVIDIA aber nur verraten das tr doppelt soviele Takte wie bi und pointsampling braucht. AF ist noch aufwendiger aber dazu wurden keine Details mehr genannt. Die Anzahl der Takte für den gesamten Pixelshader hängt nun davon ab was mehr Takte braucht. Texturen oder Colorops.
Ich gehe mal davon aus das die Entwickler früher oder später aus für den NV30 ein entsprechendes Papier bekommen werden.
Von ATI habe ich bisher leider kein Details erhalten. Ich habe aber auch noch nicht wirklich darum gebettelt. Bei NVIDIA aber auch nicht die haben das freiwillig rausgerückt.
Unregistered
2003-02-03, 18:04:54
Originally posted by Razor
@Radeonator
Also gut... dann weiter !
:D
"1.Nein, die wo zu langsam = zu langsam ist"
Ich habe die Quali angesprochen, aber die Geschwindigkeit könnte von finalen Treibern natürlich auch profitieren
"2.Nein"
Nicht ?
"3.:lol: Das eine THG Fanboy Review..."
Eins ?
Kannst Du mir ein Review nennen, bei dem die meisten max-Ergbnisse an die R9700pro gingen ?
???
"4. Axo, was kommt denn als Finale Kühlung ??? Wenn NV diese Karten als Ref Karten für Reviews zur Verfügung stellt, darf man mit Finalem Layout rechnen. Das wird(leider) auch von Terratec bestätigt..."
Terratec hat wohl eingesehen, dass sie nicht viel an der Karte verdient hätten, würde diese 'Eigenschaft' weiter in dieser Form beworben werden...
"Zersägen = Nicht den Erwartungen entsprechend! "
Was ja nun kein Wunder war...
Meine Erwartungen wurden auch nicht zu 100% erfüllt.
"Ich persönlich hätte mir weitaus mehr von der GF FX versprochen..."
Ob weitaus mehr kann ich bei mir nicht einmal genau sagen...
Klar, der Unterschied hätte deutlicher sein müssen und über die AA-Quali brauchen wir nicht (nochmal ;-) zu reden.
Aber da's ja noch BETA-Treiber sind, warte ich jetzt erst einmal finale Produkte (die Dinger, die man im Laden kaufen kann ;-) und vor allem auf finale Treiber (die es dann auch offizell von nVidia oder eben den GraKa-Herstellern zu beziehen gibt), um überhaupt eine vernünftige Grundlage zur Meinungsbildung zu haben. Das, was da bisher bekannt wurde (5 Karten bei 5 Pre-/Reviewern), ist mir eindeutig zu wenig...
Bis denne
Razor
Sag mal Razor, wenn weder die Hardware noch die Treiber der FX entsprechen, muß man denn nicht sagen, daß die FX bis jetzt nur Vapo Ware, oder wie das heißt, ist?
Dr. Greenthumb
2003-02-03, 18:11:22
Originally posted by Demirug
Von ATI habe ich bisher leider kein Details erhalten. Ich habe aber auch noch nicht wirklich darum gebettelt. Bei NVIDIA aber auch nicht die haben das freiwillig rausgerückt.
Aber die Infos reichen doch wohl nicht aus die Hardware "direkt" anzusprechen, oder??
Will nicht indiskret werden :D, aber bei grade bei DX9 gibts doch die Shaderhochsprachen (HSL oder so ähnlich von MS und Cg von nV; hat eigentlich ATi was rausgebracht??).
Fußt das nur auf reinem technischen Interesse, willst und kannst du für die Hardware dann effizienter programmieren oder willst du einen anderen Weg gehen als Programmierer, als die Hochsprachen zu verwenden. Übrigens deine Ausführungen waren hoch interessant und wurden gleich mal gespeichert. Hab mich bisher nur mit Aufbau von Athlnos u P4 beschäftigt, meine primitive Programmiertechnik kann die Dinger aber leider nicht grade ausnutzen :heul:
Dr. Greenthumb
2003-02-03, 18:14:55
Originally posted by Unregistered
Sag mal Razor, wenn weder die Hardware noch die Treiber der FX entsprechen, muß man denn nicht sagen, daß die FX bis jetzt nur Vapo Ware, oder wie das heißt, ist?
NEE, Vapor heisst nur wenns überhaupt nirgends zu sehen ist oder war ausser beim Hersteller. Da müssen wir für den armen Razor wohl einen neuen Begriff einführen "Review-Beta-(Hard)ware" die aber scheinbar gleichzeitig "First Release-Beta-(Hard)ware" ist *eg*
EDIT: PS: ATi war mit der 9500Pro aber mal so dämlich unfertige Hardware (PCB war noch von der 9700) bei ANANDTECH abzuliefern die sehr schlechte Benchmarkwerte produzierte, die weit unter den späteren Werten der echten 9500Pro lagen. Das war IMHO nicht der integelligenteste Schachzug!!
Demirug
2003-02-03, 18:27:34
Originally posted by Dr. Greenthumb
Aber die Infos reichen doch wohl nicht aus die Hardware "direkt" anzusprechen, oder??
Will nicht indiskret werden :D, aber bei grade bei DX9 gibts doch die Shaderhochsprachen (HSL oder so ähnlich von MS und Cg von nV; hat eigentlich ATi was rausgebracht??).
Fußt das nur auf reinem technischen Interesse oder willst du einen anderen Weg gehen als Programmierer, als die Hochsprachen zu verwenden. Übrigens deine Ausführungen waren hoch interessant und wurden gleich mal gespeichert. Hab mich bisher nur mit Aufbau von Athlnos u P4 beschäftigt, meine primitive Programmiertechnik kann die Dinger aber leider nicht grade ausnutzen :heul:
Das mit dem direkt auf die Hardware gehen ist beim PC schon lange vorbei. Die letzten Karten bei denen noch genau die Hardwareschnitstelle vorgebene war waren vga Karten. Wobei auch noch heutige Karten diese Schnittstelle enthalten. Man will ja kompatibel bleiben.
Schon bei den SuperVGA Karten kochte jeder Hersteller sein eigenes Süppchen. Da das den Programmieren nicht geschmeckt hat war die unterstützung der SuperVGA Modies natürlich nur sehr mässig. Da ohne Software kein Mensch die Karten kauft mussten sich die Hersteller was einfallen lassen. Und so wurde die erste Herstellerübergreifende API für Grafikkarten geboren. VESA
Bei den meisten Karten wurde VESA ins Bios eingebaut und beim Start des PCs automatisch geladen. Für ältere SuperVGA karten gab es dann Softwaretreiber zum nachladen.
Im Prinzip hat sich seit den SuperVGA Zeiten gar nicht mal so viel geändert. Der einzige Unterschied ist das die Treiber nicht mehr im Bios leigen sonder grundsätzlich als Software vorliegen.
Primär gibt es bei DX9 immer noch die Assemblerlike Shadersprache. HLSL von MS und Cg von NVIDIA machen nun nichts anderes als die Hochsprache in diese Assemblersprache zu übersetzten. HLSL und Cg sind eigentlich kompatibel. Cg enthält allerdings ein paar zusätzliche Möglichkeiten um die 2.0+ Shader des NV30 besser ausnutzen zu können. ATI hat keine Sprache oder Compiler entwickelt sonder verläst sich da voll auf MS.
Das Wissen über solche Internas ist wichtig wenn man Flaschenhälse in einer Anwendung sucht die irgendwo in der Grafikkarte liegen.
Dr. Greenthumb
2003-02-03, 18:39:08
Originally posted by Demirug
Das Wissen über solche Internas ist wichtig wenn man Flaschenhälse in einer Anwendung sucht die irgendwo in der Grafikkarte liegen.
Ich bin zwar in meiner Arbeit als EDV-und Mathe-Lehrer ziemlich eingespannt, aber deine Postings und einiges andere im Forum machen einem doch den Mund wässrig an so was selbst mal dranzugehen, vieleicht einfach um mitreden zu können.
Jaja der Mann, der immer noch ne Frage hat: Wenn du bei einer Karte den Flaschenhals im Code entfernst, ist es nicht schon mal passiert ihn bei einer anderen Karte wieder auftauchen zu sehen. Oder optimierst du nur für eine Karte?
Vor allem würd mich noch interessieren, welche Anwendungen du schreibst?
Dann ist auch gut und die Fragestunde ist für heute vorbei!! :rofl:
Unregistered
2003-02-03, 18:52:19
Originally posted by Quasar
Payne hat aber recht. Die Karte funzt, HierZ gehört nicht zum Installationsumfang beim Treiber-Installieren, auch wenn frevelhafterweise einige Kartenhersteller und evtl. auch ATi (hab' jetzt nicht nachgeschaut) den ahnungslosen Endkunden mit vorsätzlichen Lügen täuschen und ihm das wohlverdiente Geld aus der Tasche ziehen wollen.
Hoffentlich machen solche Beispiele nicht Schule.
(Achtung, Ironie!!!)
[SIZE=4](Achtung, Ironie!!!)
Na toll, damit wurde den nicht alles wissenden Board-Usern wiklich geholfen.
Was von der oben geschriebenen Scheisse ist denn Ironie! ! ! ???
SP?
Demirug
2003-02-03, 19:01:38
Originally posted by Dr. Greenthumb
Ich bin zwar in meiner Arbeit als EDV-Lehrer ziemlich eingespannt, aber deine Postings und einiges andere im Forum machen einem doch den Mund wässrig an so was selbst mal dranzugehen, vieleicht einfach um mitreden zu können.
Jaja der Mann, der immer noch ne Frage hat: Wenn du bei einer Karte den Flaschenhals im Code entfernst, ist es nicht schon mal passiert ihn bei einer anderen Karte wieder auftauchen zu sehen. Oder optimierst du nur für eine Karte?
Vor allem würd mich noch interessieren, welche Anwendungen du schreibst?
Dann ist auch gut und die Fragestunde ist für heute vorbei!! :rofl:
Man kann Flaschenhälse bei Grafikkarten leidern nicht wirklich entfernen sondern bestenfalls verschieben. Es kann also durchaus vorkommen das der gleiche Effekte auf unterschiedlichen Karten auch einen unterschiedliche Flaschenhals hat. Wobei man bei moderen Karten im Moment meistens an der Fillrate hängt. Deswegen fängt man mit dem suchen von Flaschenhälsen in der Grafikkarte auch erst dann an wenn man sich sonst nicht mehr zu helfen weiss. Da die Engines aber immer flexibler werden ist es inzwischen kein so grosses Problem für unterschiedliche Karte den gleichen Effekt auf unterschiedlichen Wegen zu erreichen.
Die Anwendung die ich schreibe ist eine 3D-Engine.
Dr. Greenthumb
2003-02-03, 19:11:23
Originally posted by Demirug
Die Anwendung die ich schreibe ist eine 3D-Engine.
Kein Wunder das du dann eine FX haben willst!! Für einen Programmierer sind die erweiterten Shader mit Sicherheit interessant.
Also ich muss schon sagen wir haben hier echt ein nobles Forum, wie ich jetzt auch so langsam bemerke. 3D-Engine-Programmierer, Hardwareredakteure (Thilo) und so weiter. Da siehts in anderen Foren ja eher traurig aus.
In diesem Sinne: Weiter So!
Crushinator
2003-02-03, 19:21:51
Originally posted by Dr. Greenthumb
Also ich muss schon sagen wir haben hier echt ein nobles Forum, wie ich jetzt auch so langsam bemerke. 3D-Engine-Programmierer, Hardwareredakteure (Thilo) und so weiter. Mensch, lob' die doch nicht soooooo! Nachher bilden sie sich noch was ein. ;)
Dr. Greenthumb
2003-02-03, 19:50:17
Originally posted by crushinator
Mensch, lob' die doch nicht soooooo! Nachher bilden sie sich noch was ein. ;)
Ich meinte doch nicht nur die Mods, sondern grade was im allgemeinen hier im Forum abgeht. Die Moderatoren sind nur die Sahnehäubchen auf dem Zuckerguss :lol:
Aber manchmal gehts auch auf den Nerv; nach ein paar Off-Topics wird der Thread sofort gesplittet. Aber naja wer ist schon perfekt?!
@Demirug: aber bei dem ganzen erweiterten-Shadergeprogge bitte immer auch noch an die R300-User wie mich;) denken (wobei bei mir der nächste pvr fest eingeplant ist)
Dr. Greenthumb
2003-02-03, 20:20:47
Originally posted by Pirx
@Demirug: aber bei dem ganzen erweiterten-Shadergeprogge bitte immer auch noch an die R300-User wie mich;) denken (wobei bei mir der nächste pvr fest eingeplant ist)
Erhat doch schon geschrieben das in den neuen (und damit wohl mit absoluter Sicherheit auch seiner eigenen) 3D-Engines mehrere Möglichkeiten für die unterschiedlichen Karten bestehen sodass auch dir R300 bestimmt voll bedient wird Shadertechnisch.
Also wenn bekannt wird das Demirug seine Engine (kA wo eingesetzt)nur auf FX perfekt läuft und auf der R300 nicht, dann kann der doch in keinen Thread mehr ohne zugeflamed zu werden ;D. Also keine Angst wird schon nicht passieren
Demirug
2003-02-03, 20:29:46
Originally posted by Pirx
@Demirug: aber bei dem ganzen erweiterten-Shadergeprogge bitte immer auch noch an die R300-User wie mich;) denken (wobei bei mir der nächste pvr fest eingeplant ist)
Keine Sorge ich arbeite nicht bei BioWare.
LovesuckZ
2003-02-03, 20:34:36
Originally posted by Demirug
Keine Sorge ich arbeite nicht bei BioWare.
Arbeitest du bei crytek? Oder bei Massive? Oder bei Blue byte (könntest ja die neue Siedler Engine proggen:D).
Demirug
2003-02-03, 20:39:56
Originally posted by LovesuckZ
Arbeitest du bei crytek? Oder bei Massive? Oder bei Blue byte (könntest ja die neue Siedler Engine proggen:D).
Nein, und weiteres raten ist sinnloss.
Dr. Greenthumb
2003-02-03, 20:47:25
Originally posted by Demirug
Nein, und weiteres raten ist sinnloss.
Oh Mann, was hab ich dir nur angetan :D. Kaum stellt man ein paar Fragen die, entfernt an persönliches erinnern und schon wollen einige deine Lebensgeschichte hören.
Aber wo wir grade dabei sind: Was für eine Engine programmierst du denn: FluSi, Ego, Strategie.... *eg*
Wenn du keinen Bock reagier einfach nicht, wir sind nur alle neidisch!!!
Labberlippe
2003-02-03, 20:48:26
Originally posted by LovesuckZ
Arbeitest du bei crytek? Oder bei Massive? Oder bei Blue byte (könntest ja die neue Siedler Engine proggen:D).
Ich hoffe nicht das er die Siedler Engine proggt....
..... die könnte dann sogar noch funktionieren.
Der Ruf von der Firma wäre hinüber. :D
Gruss Labberlippe
Pitchfork
2003-02-03, 21:07:39
Ubi/BlueByte hat RenderWare für das nächste Siedler lizensiert.
Eusti
2003-02-03, 21:26:43
Originally posted by Dr. Greenthumb
Also ich muss schon sagen wir haben hier echt ein nobles Forum, wie ich jetzt auch so langsam bemerke. 3D-Engine-Programmierer,...Vorsicht Vorsicht, nur keine Vorschusslorbeeren vergeben (haben wir gerade bei der GFFX gesehen, wohin das führen kann). Wollen wir erst mal abwarten, was denn für eine Engine da rauskommt, und welche Qualität die dann hat...
Ficus
2003-02-03, 21:40:27
Vom 31.Jan.2003 12:00
Originally posted by Unregistered ...
BTW: Ich habe in einem anderem Forum gelesen, dass Demirug Entwickler ist. Was entwickelt er denn?
Grüße
Gaestle
---
Rock and Roll aint noise pollution...
Originally posted by Ficus
Das frag ich mich auch. Muss aber was im 3D-Bereich sein (Games ???).
Also ich arbeite bei einer Bremer Maschienenbau Firma...und du?
edit: ups :D
Razor
2003-02-03, 21:42:11
Originally posted by Unregistered
Sag mal Razor, wenn weder die Hardware noch die Treiber der FX entsprechen, muß man denn nicht sagen, daß die FX bis jetzt nur Vapo Ware, oder wie das heißt, ist?
Vapo-Ware wäre vielleicht etwas zu hart...
:-)
Aber es ist wie damals zur Präsentation der gf3 oder wenn man ATI nehmen möchte, die Vorstellung der R8500.
Insbesondere das Release der R8500 wurde von ATI auch völlig verpatzt (Alpha-Hardware, unvollständige, instabile Treiber).
Letzlich hat sich aber doch heraus gestellt, dass diese Karte nicht ganz so unbrauchbar ist, wie sie erschien...
Und zu guter letzt sogar schneller als 'ne gf3 war !
:D
Warten wir also einfach ab, bis wir Reviews sehen dürfen, die auf tatsächlich zu kaufender Hardware basieren.
Wundert es hier eigentlich niemanden, dass ganze 5 Karten für den europäischen Raum reichen mussten und... was ich viel wichtiger finde... wieso gibt es nicht mehr Reviews, müssten die Karten doch mittlerer Weile weiter gegeben worden sein.
Wie gesagt, das was da bisher passierte ist absolut nicht schlüssig.
Und auch wenn sich unser Lehrer (greets an Dr. Greenthumb ;-) einbildet der Logik verfallen zu sein, müsste auch ihm eigentlich auffallen, dass hier so einiges nicht stimmt.
Aber das mit der Theorie und Praxis hatten wir einfach schon zu oft.
Einige Leute hier sind einfach unverbesserlich...
(ich zähle wohl auch dazu ;-)
Bis denne
Razor
Ficus
2003-02-03, 21:47:17
Originally posted by Razor
Wie gesagt, das was da bisher passierte ist absolut nicht schlüssig.
Bis denne
Razor
Nicht "schlüssig"mit was ?
...mit dem von nV versprochenem,
oder
...mit dem das die FX theoretisch leisten müsste?
Razor
2003-02-03, 21:53:58
Originally posted by Ficus
Nicht "schlüssig"mit was ?
...mit dem von nV versprochenem,
oder
...mit dem das die FX theoretisch leisten müsste?
Denk doch mal nach...
Nur 5 Karten (und 5 Reviewer) ?
Fehlerhafte Treiber ?
Unerwartet niedrige Leistung ?
Fehlende Features ?
Das alles hatten wir doch schon mal mit der R8500 bei ATI !
Übrigens auch fast 6 Monate 'zu spät'...
Oder das Ding mit der gf3.
Ebenfalls viel zu spät (sollte auch Weihnachten 2000 da sein, kam aber erst April 2001)...
Und ebenfalls zuerst unzureichende Leistung.
-
Also nicht nur, dass einem das ganze 'merkwürdig' vorkommt (mir zumindest ;-), nein, wir haben sogar Beispiele aus gerade der letzten Generation an GraKa's, bei denen das ganz genauso war.
Aber ist vielleicht ein bischen zuviel verlangt, vergangene Ereignisse auf die jetzigen zu projezieren...
Und da fragen wir uns, warum die Menschen nicht aus ihren Fehlern lernen ?
:D
Bis denne
Razor
zeckensack
2003-02-03, 22:18:29
Razor,
vielleicht haben einige einfach keine Lust mehr, noch länger zu warten. Ich zB habe genug gesehen. Seit August dürfen wir uns täglich anhören, daß man sich keine neue High-End-Graka kaufen soll, bevor man nicht die NV30 begutachtet hat. Und jetzt wo sie da ist, sollen wir wieder warten. Ich sage nö, genug gewartet, Chance vorbei, bis zum nächsten Mal dann.
Um mich mal selbst zu zitieren (grob):
Da wird man monatelang heiß gemacht, darf aber nicht zugreifen. Kein Mann lässt sich sowas ewig gefallen. Da gehe ich lieber ins Kino. Und zwar alleine.
Ficus
2003-02-03, 22:26:54
Originally posted by Razor
Das alles hatten wir doch schon mal mit der R8500 bei ATI !
Übrigens auch fast 6 Monate 'zu spät'...
Oder das Ding mit der gf3.
Ebenfalls viel zu spät (sollte auch Weihnachten 2000 da sein, kam aber erst April 2001)...
Und ebenfalls zuerst unzureichende Leistung.
Bis denne
Razor
Ich glaube zu Zeiten der GF3 war für nV "konkurrenz" noch ein Fremdwort
Man...da hätte man sich ewig Zeit lassen können.
Seit längerem sind für nV andere Zeiten angebrochen...
...man muss nicht nur die meissten FPS haben sondern dazu auch noch nen schickes Bild aufn Monitor zaubern *uff*.
Jetzt wo der HighEnd-Graka-Markt so dich zusammen gerückt ist, darf man keine (oder nur wenig) Schwäche zeigen.
Die FX ist eine Schwäche von nV!
Gehen wir mal 9 Monate weiter:
Der nv30 wurde optimiert und ist durch die Bank 20% schneller als der R300
Der R350 ist zu kaufen und fast um das gleiche schneller als der nv30
nV kündigt den nv35 an und zu gleichen Zeit ATI den R400 (imo Leistungsvorsprung bei dem R400)
edit:
Was ich sagen will ist, nVidia muss ein wenig mehr ihre Hausaufgaben machen und zwar mehr als denn je, auf die Wünsche/Vorstellungen ihrer Kunden eingehen (AA/AS/FPS etc.).
IMO ist das Jahr 2003 für nVidia gelaufen...warum versucht man jetzt der FX eine Darseinsberechtigung zu geben wo IMO keine ist?
Razor
2003-02-03, 22:38:52
Originally posted by Ficus
Was ich sagen will ist, nVidia muss ein wenig mehr ihre Hausaufgaben machen und zwar mehr als denn je, auf die Wünsche/Vorstellungen ihrer Kunden eingehen (AA/AS/FPS etc.).
IMO ist das Jahr 2003 für nVidia gelaufen...warum versucht man jetzt der FX eine Darseinsberechtigung zu geben wo IMO keine ist?
Wenn das nicht gekommen wär, hätte ich mich ernsthaft gefragt, was Du nun damit sagen wolltest...
;-)
Du scheinst aber ganz zu vergessen, dass nVidia noch ein bissel mehr im Portfolio hat, als 'nur' Desktop-GraKa's. Sicher ist dies eines Ihrer Standbeine, aber wenn man so hört, dass 20% der Kapazität alleine für die XBox drauf geht und ca. 35% für den nForce2 (fragt mich nicht, wo ich das gelesen hab'), dann noch ein bissel Software, die Mobil-Chips und natürlich die Desktop-GraKa's dazu kommen, dann kann man schon vermuten, dass dies zur Zeit ein bissel viel für nVidia war und so die Desktop-GraKa's (und nur die !) gelitten haben...
Aber das werden die schon hinbekommen. Schließlich ist der Hammer-nForce nur noch ein Abklatsch und die Mobil-Varianten sind dann auch erst mal raus. So kann sich nVidia nun voll auf die GraKa's stürzen... was sie jetzt vermutlich auch machen werden...
Schaun' wir mal !
;-)
Razor
Dr. Greenthumb
2003-02-03, 22:50:45
@Razor
Damit ich deine "Kritik" an meiner "Logik" (in meiner Funktion als Lehrer hätte ich dir wohl ein schönes rotes Bezug! an den Rand gekritzelt :rofl: ) auch verstehe:
Aus welchen Post meinerseits hast bitte sehr reagiert ???!!!!
Dann könnte ich dir meine unfehlbare ;D Logik ja noch mal darlegen, falls es dich interessiert. Ich dachte ich hätt hier mit Demirug ein nettes Schwätzchen gehalten und einer anderer Bezichtigt mich der Unlogik, also sowas
PS: Lebe lang und in Wohlstand!!!
Razor
2003-02-03, 23:36:20
Neee, Dr.G.,
war eigentlich auf folgenden Post bezogen und sollte sicher nicht Dein Schwätzchen mit Demirug miskreditieren...
Originally posted by Dr. Greenthumb
@ Razor: Der einsame Streiter für Gerechtigkeit und Verteidigung zu allem, was zum Thema GF FX gehört ;D Respekt (und das ist nicht ironisch gemeint)
Aber bei dem jetzt zu erwartenden Absatz oder vielmehr Nichtabsatz von FX Karten ist IMHO unwahrscheinlich, daß sich viele Entwickler auf die 2.0+ Shader stürzen, ausser bei OpenGL wos AFAIK einfacher ist. Die werden sich die Specs aller DX9 Karten ansehen, wie fast bei jeder DX Version den kleinsten gemeinsamen Nenner bilden, den alle Karten die eine gewisse Stückzahl erreichen erfüllen, und so die Spiele ausstatten.
Also kann man im Nachhinein sagen, das nVidia beim Designen des FX seine zukünftige Marktmacht zu hoch eingeschätz hat und glaubten sie könnten diese Specs bei den Entwicklern durchdrücken. Das hätte zu einem Quasi-Monopol geführt, weil ja ausser nV niemand diese Spiele mit gleicher BQ hätte darstellen können. Aber is halt nix draus geworden.
Du verurteilst hier ein Produkt, ohne das es den Markt überhaupt erreicht hat.
Mehr möchte ich dazu nicht sagen, weil ich einfach schon zuviel dazu gesagt habe...
(und nu' hab' ich keine Lust mehr... oder doch ? ;-)
Und das mit dem Rotstift kannst Du Dir übrigens schenken.
Diese Zeiten sind schon etwas länger her...
:D
"PS: Lebe lang und in Wohlstand!!!"
Ich bin älter, als Du vermutlich denkst, arbeite in der IT-Branche und <...weg gesnippt, weil überflüssig...> (muss dafür aber leider auch heftigst viel arbeiten :-( ), was hier aber nichts zur Sache tut. Ich wollte keinesfalls den Lehrerstand herunter ziehen, denn ich bin der Meinung, dass dieser Berufstand für uns alle und vor allem für unsere (irgendwann auch bei mir eintrudelnden ;-) Kinder sehr wichtig ist.
Bis denne und nichts für ungut
Razor
Dr. Greenthumb
2003-02-03, 23:57:07
Originally posted by Razor
Bis denne und nichts für ungut
Razor
Ich hoffe inständig das das nicht entgültige Wort (bzw Karte) von NVidia gewesen ist, bin in der Hinsicht aber extrem "skeptisch" wie du siehst. Auch wenns nicht zum Absturz der Firma führen wird ist es wohl nicht der Bringer, ich hab meinem Schwager ja auch ein nForce2-System zusammengebaut, hier zeigt nV seine alte Stärke.
Das "Problem" zwischen uns, wenn mans so nennen will, das ich einfach nicht glaube, das die Karte noch modifizert wird und dem entsprechend auch ein paar Kommentare über über die IMHO finale Karte loslasse und du eben anderer Meinung bist, so ist halt das Leben und anders wärs auch langweilig und das Forum könnte dicht machen.
Dein Prob kenn ich aber aus alten 3DFX-Zeiten, hab fast alle besessen (Voodoo 1-5 ausser 4 die war Mist :D) und musste mich am bitteren Ende der Postings von nV-Sympathisanten erwehren. Ich hab immer gepredigt das die V5 für den damaligen Moment das beste (AA) ist und man hat mich nur ausgelacht und auf die Größe der Karte, ihren Stromhunger und so weiter verwiesen (kommt dir da was bekannt vor??); ja so böse waren die :D.
Ich hoffe du verzeihst es mir wenn ich mal "zurückschlage" und ein paar spitze Kommentare loslasse, die ja nu nicht beleidigend sind. Denk dran, es geht nur um Grakas...
Ach ja ich unterrichte keine Kinder sondern Erwachsene (Weiterbildung, Firmenschulung) ist aber auch ganz befriedigend.
PS: Den Thread sollte man in: "Wer bin ich" umbenennen :rofl:
Hier kann man ja einiges über die Leute erfahren. Vor allem das wir uns in einem ähnlichen, schon etwas "gesetzterem", Alter befinden!!
egdusp
2003-02-03, 23:57:14
Mal etwas OT (sind wir das nicht schon lange?):
Laut Mercury Research (irgendwo von www.nwnews.net verlinkt) haben sich die Marktanteile im 4. Quartal (Kalenderjahr) nicht groß verändert.
Außerdem noch ein nettes Zitat vom NV CEO (der mit dem Namen, den sich keiner merken kann), sinngemäß: wenn ATI glaubt mit dem R400 schneller zu sein als wir mit dem entsprechenden Konkurrenzprodukt, dann haben die was geraucht. :)
mfg
egdusp
Originally posted by Dr. Greenthumb
Das "Problem" zwischen uns, wenn mans so nennen will, das ich einfach nicht glaube, das die Karte noch modifizert wird und dem entsprechend auch ein paar Kommentare über über die IMHO finale Karte loslasse ...
Kein Angst, Dr.Gee, dieser Meinung ist so ziemlich das ganze Forum, außer Razor. Aber wo wären wir denn, wenn hier keiner mehr Phantasie hätte ...
Dr. Greenthumb
2003-02-04, 00:08:34
Originally posted by Ikon
Kein Angst, Dr.Gee, dieser Meinung ist so ziemlich das ganze Forum, außer Razor. Aber wo wären wir denn, wenn hier keiner mehr Phantasie hätte ...
Wenn ich Angst hätte wer ich doch kein Forumsmitglied geworden!!!!
Aber man kann aber auch keinen absolut sicheren Gegenbeweis (nein ich bin kein Hobbyanwalt) führen also respektiere ich seine Meinung, hab ich auch irgendwo vorher gespostet.
Aber soviele Fürsprecher zu haben tut natürlich gut ;D
VoodooJack
2003-02-04, 00:26:02
Originally posted by Dr. Greenthumb
@Razor
Damit ich deine "Kritik" an meiner "Logik" (in meiner Funktion als Lehrer hätte ich dir wohl ein schönes rotes Bezug! an den Rand gekritzelt :rofl: ) auch verstehe:
Aus welchen Post meinerseits hast bitte sehr reagiert ???!!!!
Dann könnte ich dir meine unfehlbare ;D Logik ja noch mal darlegen, falls es dich interessiert. Ich dachte ich hätt hier mit Demirug ein nettes Schwätzchen gehalten und einer anderer Bezichtigt mich der Unlogik, also sowas
PS: Lebe lang und in Wohlstand!!!
Da du dich als Lehrer geoutet hast, bedenke, dass von jetzt an deine Rechtschreibung besonders kritisch beäugt wird. Mir ist der eine oder andere Fehler schon aufgefallen. Kein Mensch ist perfekt, aber von einem Lehrer wird in Sachen Rechtschreibung so eine Art Vorbildfunktion erwartet.
Oder wie siehst du das?
Jasch
2003-02-04, 00:35:43
Originally posted by egdusp
Außerdem noch ein nettes Zitat vom NV CEO (der mit dem Namen, den sich keiner merken kann), sinngemäß: wenn ATI glaubt mit dem R400 schneller zu sein als wir mit dem entsprechenden Konkurrenzprodukt, dann haben die was geraucht. :)
mfg
egdusp
;D kleine anmerkung, und wenn die denken das jemand ihren NV30 kauft so wie der ist, oder der nachfolger noch "besser" (größer und wärmer)
wird dann haben die nicht nur was geraucht bei NV.:D
Originally posted by Razor
Ich bin älter, als Du vermutlich denkst, arbeite in der IT-BrancheWas sagt das darüber aus, wieviel Ahnung man von Grafikkarten und 3D-Technik hat?
Originally posted by VoodooJack
Da du dich als Lehrer geoutet hast, bedenke, dass von jetzt an deine Rechtschreibung besonders kritisch beäugt wird. Mir ist der eine oder andere Fehler schon aufgefallen. Kein Mensch ist perfekt, aber von einem Lehrer wird in Sachen Rechtschreibung so eine Art Vorbildfunktion erwartet.
Oder wie siehst du das?
Dr.Gee hat nicht gesagt, dass er Deutschlehrer ist -> wenn ich daran denke, was mein Mathe- und Physikprof da manchmal für einen Schrieb abliefern ... nobody is perfect.
Crushinator
2003-02-04, 02:30:04
Originally posted by Ficus ...IMO ist das Jahr 2003 für nVidia gelaufen...warum versucht man jetzt der FX eine Darseinsberechtigung zu geben wo IMO keine ist? Wenn die Karte (Ultra) so wie getestet auf'n Markt kommt, ist sie ein Schuß in den Ofen. Es gibt Einige hier, die meinen man müsse abwarten, ob sie auch wirklich so auf den Markt käme. Nun, nehmen wir doch an, sie kommt in "leiser" Form daher und ist bis zu 30% schneller als die große R300 und das ohne AA/AF. Ich denke sie wird ihre Käufer finden, wenn auch nicht zu dem angepeilten Preis. Sie wird die meisten Käufer aber wahrscheinlich nicht interessieren, was bisher fast alle (außer Razor ;) und mind. noch jemand) hier im Forum bestätigt haben. Die "kleine" Version scheint jedoch interessant zu sein, wenn auch teurer und langsamer als die R97Pro. Nach meiner Logik sollten bei NV schon alle Alarmglocken angehen, was mit Sicherheit auch bereits geschehen ist. Ich persönlich genieße diese Situation gerade so sehr, weil ich mich schon auf den harten Konkurrenzkampf (leider nur zwischen ATi und NV) freue, welcher uns Verbrauchern eigentlich nur recht sein sollte....und das ist IMHO auch die einzige Daseinsberechtigung des jetzigen NV30. *eg*
@Razor
Ich hoffe, daß die Jungs bei NV noch das Letzte aus ihre Trickkiste rausholen bevor sie die Karten in den Handel bringen, ansonsten stehst Du mit Deiner Meinung völlig allein da. ;)
Crushinator
2003-02-04, 02:39:14
Originally posted by egdusp Außerdem noch ein nettes Zitat vom NV CEO (der mit dem Namen, den sich keiner merken kann), sinngemäß: wenn ATI glaubt mit dem R400 schneller zu sein als wir mit dem entsprechenden Konkurrenzprodukt, dann haben die was geraucht. :) Man sieht ja, wohin dieser vorlaute Ton bisher geführt hat. -> Dustbuster Rulez !!! ;D
Dr. Greenthumb
2003-02-04, 16:21:25
Originally posted by VoodooJack
Da du dich als Lehrer geoutet hast, bedenke, dass von jetzt an deine Rechtschreibung besonders kritisch beäugt wird. Mir ist der eine oder andere Fehler schon aufgefallen. Kein Mensch ist perfekt, aber von einem Lehrer wird in Sachen Rechtschreibung so eine Art Vorbildfunktion erwartet.
Oder wie siehst du das?
Ja das mit dem Outen war wohl eine Art Hordentrieb; siehe Demirug und Razor. ;D
Ich schreibe ziemlich schnell bei meinen Posts (und bin leider kein 10-Finger-Tipper)und kontrolliere nicht immer ob mir ein Rechtschreibfehler unterlaufen ist. Hauptsache der Sinn kommt rüber!!
Mit den Mathe- und Physik-Professoren geb ich dir recht. Mein erster Mathematik-Prof brachte noch nicht einmal einen halbwegs runden Kreis zustande.
Razor, du arbeitest nicht zufällig in der nVidia PR Abteilung, oder? :D
Richthofen
2003-02-04, 17:01:05
@crushinator
Obs dir nun gefällt oder nicht aber um wieviel Graka A schneller ist als B interessiert keine SAU.
Schneller ist schneller und wenn die FX im Markt zu haben ist, ist ATI zumindest mal bis zum R350 "nur" noch Zweiter.
Nvidia muss und will auch gar nicht viele von den NV30 Teilen verkaufen.
Die haben mit dem Teil massiv Probleme gehabt und werden froh sein das es raus ist und es gerreicht hat.
20% sind 20%. Und wenn es nur 1% ist, dann ist das eben auch ein Vorsprung.
Der Preis spielt eh keine Rolle, weil den Preis der Markt macht oder wenn Nvidia die Verkäufe klein halten will eben nvidia selber hoch ansetzt.
Gekauft werden soll in erster Linie das was es auf der Cebit gibt also wunderschöne 4*1 0.13 Low Cost Teile. Wie immer verhältnismäßig günstig für den Hersteller und teuer verglichen zur gebotenen Leistung für den Kunden. Also ein Geschäftsmodell genau nach meinem Geschmack :)
Dr. Greenthumb
2003-02-04, 17:08:25
Originally posted by Richthofen
Schneller ist schneller und wenn die FX im Markt zu haben ist, ist ATI zumindest mal bis zum R350 "nur" noch Zweiter.
Nvidia muss und will auch gar nicht viele von den NV30 Teilen verkaufen.
Die haben mit dem Teil massiv Probleme gehabt und werden froh sein das es raus ist und es gerreicht hat.
Ist der Imagegewinn größer "Schnellster" zu sein (interessiert versierte und relativ objektive Käufer von High-End-Grakas wohl nur im Zusammenhang mit BQ), oder der Imageverlust wegen einer nicht zu bestreitend lächerlichen und lächerlich lauten Kühlung??
Also wenn man sich das Feedback aller I-Net Seiten, Foren und so weiter mal ansieht, überwiegt eindeutig der 2. Punkt!!!
Das willst doch wohl nicht ernsthaft bestreiten, oder???
Originally posted by Richthofen
@crushinator
Obs dir nun gefällt oder nicht aber um wieviel Graka A schneller ist als B interessiert keine SAU.
Schneller ist schneller und wenn die FX im Markt zu haben ist, ist ATI zumindest mal bis zum R350 "nur" noch Zweiter.
Nvidia muss und will auch gar nicht viele von den NV30 Teilen verkaufen.
Die haben mit dem Teil massiv Probleme gehabt und werden froh sein das es raus ist und es gerreicht hat.
20% sind 20%. Und wenn es nur 1% ist, dann ist das eben auch ein Vorsprung.
Der Preis spielt eh keine Rolle, weil den Preis der Markt macht oder wenn Nvidia die Verkäufe klein halten will eben nvidia selber hoch ansetzt.
Gekauft werden soll in erster Linie das was es auf der Cebit gibt also wunderschöne 4*1 0.13 Low Cost Teile. Wie immer verhältnismäßig günstig für den Hersteller und teuer verglichen zur gebotenen Leistung für den Kunden. Also ein Geschäftsmodell genau nach meinem Geschmack :)
Richthofen, die Zeiten, in denen diese Aussage zutraf sind vorbei. Spätestens seit AMD Performance Rating beim Athlon XP werden in der Branche einfach mehr Fragen gestellt. Man sieht ja ein Beispiel (wenn auch ein extremes) an diesem Forum hier. Oder auch in vielen anderen Foren (sogar im Gamestar Forum ;)) Was NV mit dem NV30 für ein schlechtes Image erielt. Das Teil will sich keiner kaufen.
Der NV30 macht den Eindruck, dass der Name Geforce mittlerweile einfach "verbraucht" ist, ich finde, das kommt sehrt deutlich rüber.
Als Wirtschaftler denkt man immer daran: Was kostet das Teil? Was leistet was zu welchem Preis?
Die Computerleute fragen: Wie schnell ist es wobei? Wie ist die (Bild-)Qualität? Welche Funktionen berherrscht es?
NVidias Marketing hat in dieser Hinsicht einfach kläglich versagt (um ersten Mal in NVs Firmengeschichte).
Sie haben das Teil gehypt bis um umkippen und das Blaue vom Himmel versprochen, dabei hat es die Erwartungen einfach nicht erfüllt. Jetzt offenbart sich hier eine gewaltige Schwäche von NVs Produktpolitik, die ATI nicht hat: NV hat zum ersten Mal ein schwächeres Produkt auf den Markt gebracht und das Marketing wusste offensichtlich nichts damit anzufangen. Erschwerend hinzu kam dann auchnoch die gewaltige Verögerung (schon 1/4 Jahr ist in diesem Business eine gewaltige Verzögerung).
Originally posted by Richthofen
Gekauft werden soll in erster Linie das was es auf der Cebit gibt also wunderschöne 4*1 0.13 Low Cost Teile. Wie immer verhältnismäßig günstig für den Hersteller und teuer verglichen zur gebotenen Leistung für den Kunden. Also ein Geschäftsmodell genau nach meinem Geschmack :)
Wie sollen wir das nun verstehen? Du bist offenbar stolz darauf, vom Hersteller über den Tisch gezogen zu werden.
P.S: Sprichst du vom NV31? Wird das nicht ein bisschen knapp bis zur Cebit?
Unregistered
2003-02-04, 18:00:37
Originally posted by Ikon
P.S: Sprichst du vom NV31? Wird das nicht ein bisschen knapp bis zur Cebit?
Er meint die Cebit 2004.
StefanV
2003-02-04, 18:08:19
Originally posted by Richthofen
@crushinator
Obs dir nun gefällt oder nicht aber um wieviel Graka A schneller ist als B interessiert keine SAU.
Schneller ist schneller und wenn die FX im Markt zu haben ist, ist ATI zumindest mal bis zum R350 "nur" noch Zweiter.
Nvidia muss und will auch gar nicht viele von den NV30 Teilen verkaufen.
Die haben mit dem Teil massiv Probleme gehabt und werden froh sein das es raus ist und es gerreicht hat.
20% sind 20%. Und wenn es nur 1% ist, dann ist das eben auch ein Vorsprung.
Der Preis spielt eh keine Rolle, weil den Preis der Markt macht oder wenn Nvidia die Verkäufe klein halten will eben nvidia selber hoch ansetzt.
Gekauft werden soll in erster Linie das was es auf der Cebit gibt also wunderschöne 4*1 0.13 Low Cost Teile. Wie immer verhältnismäßig günstig für den Hersteller und teuer verglichen zur gebotenen Leistung für den Kunden. Also ein Geschäftsmodell genau nach meinem Geschmack :)
Richthofen, hast du dir schonmal über das Negativ Image des Turbinenartigen Lüftern gedanken gemacht ??
Hast du dir auch alle Benches angeschaut ??
Die GF FX ist ja nicht immer schneller !!
Dazu noch das absolut bescheidenste PReis/Leistungs Verhältnis, das zur GF4 nicht veränderte FSAA, das im Vergleich zur R9700 ein WItz ist, von der Qualität bei mehr als 2x...
Dr. Greenthumb
2003-02-04, 18:12:25
Originally posted by Ikon
Wie sollen wir das nun verstehen? Du bist offenbar stolz darauf, vom Hersteller über den Tisch gezogen zu werden.
P.S: Sprichst du vom NV31? Wird das nicht ein bisschen knapp bis zur Cebit?
Deutet auf ein leicht gestörtes Verhältnis zu diesen verschiedenfarbigen Karten mit Anschlüssen hin, die das Bild im Computer erzeugen.
Wenn ATi, so wie jede Firma bisher im Graka-Geschäft auch, Mist auf den Markt schmeisst, kann man doch nicht so fanATIsch sein und das dann noch in dem Himmel heben. Oder Abzocke von seitens seines Lieblings-Herstellers auch noch gut finden.
Fanatismus ist das Wörtchen was mir dazu einfällt!!
Crushinator
2003-02-04, 18:36:13
Originally posted by Richthofen Gekauft werden soll in erster Linie das was es auf der Cebit gibt also wunderschöne 4*1 0.13 Low Cost Teile. Wie immer verhältnismäßig günstig für den Hersteller und teuer verglichen zur gebotenen Leistung für den Kunden. Also ein Geschäftsmodell genau nach meinem Geschmack :) Dem ist selbstverständlich nichts hinzuzufügen. Ich werde den verhärteten Eindruck aber trotzdem nicht los, daß sich die HighEnd-Modelle von ATi in letzter Zeit besser verkaufen als die Low-Cost Modelle von NV. Wenn ich bei nüchternem Kopf zu rechnen beginne, stelle ich auch fest, daß 350,- EUR (R97) ungefähr 3 x so teuer als die Low-End NV-Teile sind und die Karten in der Herstellung wahrscheinlich gerade mal das Doppelte kosten. Ich glaube auch zu wissen, warum die Leute nicht mehr so auf Low-Cost abfahren: Man lese als Computer-Blöd-Leser, daß GeForce Rulezz, bei der eigenen MX-Karte jedoch stellt man fest, daß man in Schei**e getreten ist. Dann macht man sich mehr oder weniger (un)freiwillig schlau und stellt fest, daß man verarscht worden ist. Es ist jedenfalls davon auszugehen, daß solche Leute den selben Fehler nicht noch einmal machen würden.
Kurz gesagt: NV hat's diesmal wirklich schwerer die Kundschaft nur wegen dem Namen an sich zu binden. Erst recht dann, wenn ATi bald noch einen Praktikanten in der Treiberentwicklung beschäftigt. ;)
Piffan
2003-02-04, 18:41:47
Ati macht das auch nicht gerade anders: Wie viele Leute hören, dass die Radeon 9undnochwas die G4 4600 abledert und kaufen sich eine R9000..... Also bitte tut nicht immer so, als ob Ati der Saubermann der Branche ist...
Crushinator
2003-02-04, 18:41:52
Originally posted by Ikon Wie sollen wir das nun verstehen? Du bist offenbar stolz darauf, vom Hersteller über den Tisch gezogen zu werden. Zu seiner Verteidigung: Er hat einiges in NV-Aktien investiert und erwartet aufgrund von Analysten-Informationen usw. daß es genau so kommt, wie er sich das vorstellt. :)
Crushinator
2003-02-04, 18:44:54
Originally posted by Piffan Ati macht das auch nicht gerade anders: Wie viele Leute hören, dass die Radeon 9undnochwas die G4 4600 abledert und kaufen sich eine R9000..... Also bitte tut nicht immer so, als ob Ati der Saubermann der Branche ist... Erstens: Selbst die R9000 kann mehr als die GF4MX und zweitens habe ich von HighEnd-Modellen gesprochen. ;) Es soll mir recht sein, wenn die Leute keine R9000 kaufen bzw. sich diese Verar***ungen nicht mehr gefallen lassen.
Originally posted by Piffan
Wie viele Leute hören, dass die Radeon 9undnochwas die G4 4600 abledert und kaufen sich eine R9000.....
Die komplette, aktuelle Radeon-Produktpalette hat eine 9 am Anfang der Bezeichnung. Radeon 9XXX ist als Bezeichnung ungefähr so genau wie Geforce X.
Piffan
2003-02-04, 19:35:55
Nun stellt euch doch bitte nicht künstlich doof an! Danke ;)
Ihr solltet mich langsam kennen und wissen, was ich meine......
Aber damit kein Raum mehr bleibt, führe ich es gerne aus: Nv machte sich einen Namen mit dem Highend- Produkt, verwirrte die DAUS mit den Produktbezeichnungen der "kleinen" Karten, so dass diese glaubten, dass die Gf4 MX besser als die Gf3 sei, und billiger oben drein *eg*
Exakt die gleiche Nummer schiebt gerade Ati mit der R300 und dem Aufguss der R200.....Kein Unterschied, exakt die gleiche Geschäftspraxis...Der Dau hört "Radeon 9xxxx, und dann so billig? Klasse, sofort mitnehmen
Ich sage ja auch nur, dass man diesbezüglich nicht nur NV anprangern darf.....
zeckensack
2003-02-04, 20:04:50
Originally posted by Piffan
Nun stellt euch doch bitte nicht künstlich doof an! Danke ;)
Ihr solltet mich langsam kennen und wissen, was ich meine......
Aber damit kein Raum mehr bleibt, führe ich es gerne aus: Nv machte sich einen Namen mit dem Highend- Produkt, verwirrte die DAUS mit den Produktbezeichnungen der "kleinen" Karten, so dass diese glaubten, dass die Gf4 MX besser als die Gf3 sei, und billiger oben drein *eg*
Exakt die gleiche Nummer schiebt gerade Ati mit der R300 und dem Aufguss der R200.....Kein Unterschied, exakt die gleiche Geschäftspraxis...Der Dau hört "Radeon 9xxxx, und dann so billig? Klasse, sofort mitnehmen
Ich sage ja auch nur, dass man diesbezüglich nicht nur NV anprangern darf..... Gaynau!!
@Piffan
Jo, das sehe ich auch so. Über die diversen Marketing-Taktiken der Hersteller braucht man sich mittlerweile eh nicht mehr wundern ...
Exxtreme
2003-02-04, 20:31:35
Originally posted by Richthofen
@crushinator
Obs dir nun gefällt oder nicht aber um wieviel Graka A schneller ist als B interessiert keine SAU.
Schneller ist schneller und wenn die FX im Markt zu haben ist, ist ATI zumindest mal bis zum R350 "nur" noch Zweiter.
Err, das Teil ist nur unter den Low-Quality-Einstellungen schneller... also doch nur unter bestimmten Bedingungen. ATis 4x AA ist von der Qualität her nur noch mit 8xS erreichbar und welche GraKa unter diesen Einstellungen schneller ist, das brauchen wir gar nicht zu fragen.
Piffan
2003-02-04, 21:06:33
Originally posted by Exxtreme
Err, das Teil ist nur unter den Low-Quality-Einstellungen schneller... also doch nur unter bestimmten Bedingungen. ATis 4x AA ist von der Qualität her nur noch mit 8xS erreichbar und welche GraKa unter diesen Einstellungen schneller ist, das brauchen wir gar nicht zu fragen.
Mal unter uns: Wer von den vielen Zockern da draußen weiß denn solche unbedeutenden Details zu schätzen? *eg*
Aber die Zeiten änderns sich, sogar die PcGames verliert erste kritische Stimmen gegenüber der FX, die empfehlen unverschämterweise jetzt offen die Radeon 9700....
Exxtreme
2003-02-04, 21:23:38
Originally posted by Piffan
Mal unter uns: Wer von den vielen Zockern da draußen weiß denn solche unbedeutenden Details zu schätzen? *eg*
Also wenn du das unbedeutend nennst, dann ist die GFFX vielleicht doch das Richtige für dich. *eg*
Hey, lass doch das AA gleich weg. *eg*
Originally posted by Piffan
Aber die Zeiten änderns sich, sogar die PcGames verliert erste kritische Stimmen gegenüber der FX, die empfehlen unverschämterweise jetzt offen die Radeon 9700....
Tja, es gibt Leute, die wissen was gut ist. *eg*
Razor
2003-02-04, 21:41:33
Originally posted by Dr. Greenthumb
Ich hoffe du verzeihst es mir wenn ich mal "zurückschlage" und ein paar spitze Kommentare loslasse, die ja nu nicht beleidigend sind. Denk dran, es geht nur um Grakas...
Klar...
Mit dem Hintergrund 'verzeihe' ich Dir !
:D
Originally posted by Dr. Greenthumb
Ach ja ich unterrichte keine Kinder sondern Erwachsene (Weiterbildung, Firmenschulung) ist aber auch ganz befriedigend.
Ah ja...
So einer bist Du also.
Dann nehm ich alles zurück !
(nicht wirklich ;-)
Ich habe allerdings die Erfahrung gemacht, dass Erwachsene oft begriffsstuziger (ist mit Sicherheit falsch geschrieben ;-), als Jugendliche sind... kostet also mehr Arbeit, ist aber meist dankbarer...
Und danke für Deine Offenheit !
Bis denne
Razor
LovesuckZ
2003-02-04, 21:41:40
Zur 8500 Ärea war Bildqualitaet nen subjektiveas Empfinden (Bezug auf AF). Nun wollen davon die ATI leute nichts mehr wissen - nicht alle gemeint- ?:D
Razor
2003-02-04, 21:43:53
Originally posted by egdusp
nVidia CEO:
"wenn ATI glaubt mit dem R400 schneller zu sein als wir mit dem entsprechenden Konkurrenzprodukt, dann haben die was geraucht. :)"
:rofl:
Und das mit den Marktanteilen habe ich mir fast gedacht...
Das zum Thema: "nVidia wird unter gehen !"
;-)
Razor
Razor
2003-02-04, 21:48:09
Originally posted by aths
Was sagt das darüber aus, wieviel Ahnung man von Grafikkarten und 3D-Technik hat?
Rein gar nichts !
Und Du hast nun das gemacht, was Du selber (und auch viele andere) so hassen...
Aus dem Zusammenhang heraus gerissen...
Hier mal der korrekte Quote:
Ich bin älter, als Du vermutlich denkst, arbeite in der IT-Branche und <...weg gesnippt, weil überflüssig...> (muss dafür aber leider auch heftigst viel arbeiten ), was hier aber nichts zur Sache tut.
Hast Du das überlesen, oder wolltest Du das absichtlich nicht mit quoten ?
???
Und vielleicht hast Du ja auch mitbekommen, dass das nun rein gar nichts mit 3DHardware oder ähnlichem zu tun hat. Eines kann ich Dir gerne noch zusätzlich versichern: Im Beruf habe ich sicher nichts mit der Entwicklung von Hardware am Hut !
War das jetzt eindeutig ?
(obwohl das auch vorher jeden klar gewesen sein sollte ;-)
Razor
Razor
2003-02-04, 21:54:19
Originally posted by HOT
Razor, du arbeitest nicht zufällig in der nVidia PR Abteilung, oder? :D
Auch das nicht...
;D
Aber wenn die mir eingutes Angebot machen...
Allerdings würde ich ihren Ruf dann wohl endgültig versauen !
:D
Bis denne
Razor
Wenn es nichts zur Sache tut, warum erwähnst du es dann?
Razor
2003-02-04, 21:58:00
Originally posted by Dr. Greenthumb
Ist der Imagegewinn größer "Schnellster" zu sein (interessiert versierte und relativ objektive Käufer von High-End-Grakas wohl nur im Zusammenhang mit BQ), oder der Imageverlust wegen einer nicht zu bestreitend lächerlichen und lächerlich lauten Kühlung??
Also wenn man sich das Feedback aller I-Net Seiten, Foren und so weiter mal ansieht, überwiegt eindeutig der 2. Punkt!!!
Das willst doch wohl nicht ernsthaft bestreiten, oder???
Was die bisherige gesehene ('getestete') Lüftung angeht, gebe ich Dir sogar vollkommen recht. Nur ist schon jetzt bekannt geworden, dass diese Lüftung - so - gar nicht auf den Markt kommt...
Das zu Thema 'endgültige' Hardware (und Treiber) !
(siehe auch Lüfter-Thread)
Bis denne
Razor
Razor
2003-02-04, 21:59:45
Originally posted by Ikon
Wie sollen wir das nun verstehen? Du bist offenbar stolz darauf, vom Hersteller über den Tisch gezogen zu werden.
P.S: Sprichst du vom NV31? Wird das nicht ein bisschen knapp bis zur Cebit?
Über den Tisch gezogen wird nur der der, der so ein Ding ohen Hintergrundinformationen kauft... erst recht bei einer 500€-Karte... und der ist definitiv selber schuld.
Oder wer soll sich Deiner Meinung nach sonst betrogen fühlen ?
???
Razor
Razor
2003-02-04, 22:01:50
Originally posted by crushinator
Zu seiner Verteidigung: Er hat einiges in NV-Aktien investiert und erwartet aufgrund von Analysten-Informationen usw. daß es genau so kommt, wie er sich das vorstellt. :)
Er hat schon lange keine nVidia-Aktien mehr...
Wusstest Du das nicht ?
;-)
Razor
Razor
2003-02-04, 22:08:08
Originally posted by Ikon
Wenn es nichts zur Sache tut, warum erwähnst du es dann?
Kannst Du oder willst Du nicht verstehen ?
???
Razor
StefanV
2003-02-04, 22:10:13
Originally posted by LovesuckZ
Zur 8500 Ärea war Bildqualitaet nen subjektiveas Empfinden (Bezug auf AF). Nun wollen davon die ATI leute nichts mehr wissen - nicht alle gemeint- ?:D
Das AF der Radeon 8500 war wenigstens schnell, verglichen mit der Radeon 9700 kann die Geforce FX nix schöner oder schneller...
Razor
2003-02-04, 22:13:12
Originally posted by Stefan Payne
Das AF der Radeon 8500 war wenigstens schnell, verglichen mit der Radeon 9700 kann die Geforce FX nix schöner oder schneller...
Ach ja ?
Du weißt wieder etwas, was kein anderer weiß ?
;-)
Dann zeig mit doch mal, wo das AF der fx
a) langsamer und
b) häßlicher
als das der R300 ist !
Beim AA gibt's (zur Zeit !) keine 2 Meinungen...
Razor
Mehrpack
2003-02-04, 22:14:35
Originally posted by Razor
:rofl:
Und das mit den Marktanteilen habe ich mir fast gedacht...
Das zum Thema: "nVidia wird unter gehen !"
;-)
Razor
hi,
was hätte Nv sonst sagen solln?
naja der R400 wird uns gefährlich und wir bibbern vor uns hin???
ok ich mein ist jetzt etwas weit hergeholt, aber NV kann es sich nach nach dem debakel mit der "turbo ich wer schwerhörig" ;)- kühlung net noch sagen das der r400 ne bedrohnung für sie darstellt, da würden die aktionäre nen infarkt wohl bekommen :D.
aber ich glaub auch net das NV-pleite macht aber ich sag es mal so ich finde es gut das NV mal eins auf den deckel bekommen hat, das bringt schwung rein, obwohl ich mich frage wie es dann mit den flamewars nv vs ati in zukunft weiter gehn wird (schreckliche vision hab;)).
Mehrpack
Razor
2003-02-04, 22:19:27
Originally posted by Mehrpack
...obwohl ich mich frage wie es dann mit den flamewars nv vs ati in zukunft weiter gehn wird (schreckliche vision hab;)).
Nun mal gaaaanz locker bleiben...
Sooo schrecklich wird das nicht.
Dafür werden wir schon sorgen !
;D
Razor
P.S.: Viel interessanter ist doch, dass sich die Marktanteile bisher (also bis Ende Januar = 4. Quartal) nicht verändert haben, also nVidia noch immer ungebrochen stark und ATI die verlorenen Anteile trotz R300 nicht zurück holen konnte...
Originally posted by Razor
Kannst Du oder willst Du nicht verstehen ?
???
Soll das eine Antwort sein? Kannst du oder willst du nicht antworten?
Mehrpack
2003-02-04, 22:20:12
Originally posted by Razor
Nun mal gaaaanz locker bleiben...
Sooo schrecklich wird das nicht.
Dafür werden wir schon sorgen !
;D
Razor
hi,
also wenn ich das aus deinem mund höre dann surf ich ab jetzt lieber aus dem atombombensichernbunker durch netz ;).
Mehrpack
LovesuckZ
2003-02-04, 22:20:41
Originally posted by Stefan Payne
Das AF der Radeon 8500 war wenigstens schnell, verglichen mit der Radeon 9700 kann die Geforce FX nix schöner oder schneller...
bezieht sich Teil2 auf das AF? Dann muss ich dich enttaeuschen.
balanced sieht a) gleich gut aus wie ATI's Qualitaet version und b) das normale erfahren der NV20 Reihe wird immer noch angeboten. Somit hat jeder die freie Wahl, zwischen Geschwindigkeit und Qualitaet zu endscheiden.
Unregistered
2003-02-04, 22:22:27
Schlechteste Hardware des Jahres 2003?
Ganz klar die mit FX von Nvidianix :D
LovesuckZ
2003-02-04, 22:25:13
Originally posted by Unregistered
Schlechteste Hardware des Jahres 2003?
Ganz klar die mit FX von Nvidianix :D
Ne, die 9500 mit 64MB. Dagegen erscheint die FX wien nen Meisterwerk:D
Razor
2003-02-04, 22:28:43
Originally posted by Ikon
Soll das eine Antwort sein? Kannst du oder willst du nicht antworten?
1) Ja
2) ich habe schon geantwortet
<...snipped...>
;-)
Razor
Originally posted by Razor
Rein gar nichts !
Und Du hast nun das gemacht, was Du selber (und auch viele andere) so hassen...
Aus dem Zusammenhang heraus gerissen...
Hier mal der korrekte Quote:
Hast Du das überlesen, oder wolltest Du das absichtlich nicht mit quoten ?
???
Und vielleicht hast Du ja auch mitbekommen, dass das nun rein gar nichts mit 3DHardware oder ähnlichem zu tun hat. Eines kann ich Dir gerne noch zusätzlich versichern: Im Beruf habe ich sicher nichts mit der Entwicklung von Hardware am Hut !
War das jetzt eindeutig ?
(obwohl das auch vorher jeden klar gewesen sein sollte ;-) Dein Posting empfand ich als, hm, mehrdeutig formuliert, daher meine klare Nachfrage.
Originally posted by LovesuckZ
bezieht sich Teil2 auf das AF? Dann muss ich dich enttaeuschen.
balanced sieht a) gleich gut aus wie ATI's Qualitaet version und b) das normale erfahren der NV20 Reihe wird immer noch angeboten. Somit hat jeder die freie Wahl, zwischen Geschwindigkeit und Qualitaet zu endscheiden. Ich würde das AF vom R300 dem "balanced" von der FX vorziehen. Aber andersherum gilt auch, hätte der NV30 kein un"optimiertes" AF mehr, würde ich aus der NV30-Serie nichts kaufen.
AlfredENeumann
2003-02-05, 00:18:09
Originally posted by egdusp
Außerdem noch ein nettes Zitat vom NV CEO (der mit dem Namen, den sich keiner merken kann), sinngemäß: wenn ATI glaubt mit dem R400 schneller zu sein als wir mit dem entsprechenden Konkurrenzprodukt, dann haben die was geraucht. :)
mfg
egdusp
Hab ich auch gehört, das der NV50 leicht schneller sein soll als der R400.
LovesuckZ
2003-02-05, 01:18:15
Originally posted by aths
Ich würde das AF vom R300 dem "balanced" von der FX vorziehen. Aber andersherum gilt auch, hätte der NV30 kein un"optimiertes" AF mehr, würde ich aus der NV30-Serie nichts kaufen.
Nach dem Qualitaetsvergleichen, sehe ich kein Unterschied zwischen balanced und Qualitaet...
Unregistered
2003-02-05, 01:25:23
Originally posted by Razor P.S.: Viel interessanter ist doch, dass sich die Marktanteile bisher (also bis Ende Januar = 4. Quartal) nicht verändert haben, also nVidia noch immer ungebrochen stark und ATI die verlorenen Anteile trotz R300 nicht zurück holen konnte... Dann frage ich mich im ernst, wer all diese R300 kauft? ;) Wahrscheinlich werden sie alle auf den Mond exportiert und damit zählen sie nicht zum hier ansässigen Markt. Razor, ich find's lächerlich! :D
BTW: Informier' Dich lieber beim Großhandel, nicht bei der Marketingsabteilung von nVidia. ;)
Unregistered
2003-02-05, 01:28:33
Originally posted by LovesuckZ Ne, die 9500 mit 64MB. Dagegen erscheint die FX wien nen Meisterwerk:D Nanana, halt den Ball flach ja! ;) die 9500 ist immerhin baujahr 2002. *eg*
Crushinator
2003-02-05, 01:29:55
^^ Der Unreg war ich. (schei** Kekse :bonk: )
Originally posted by LovesuckZ
Nach dem Qualitaetsvergleichen, sehe ich kein Unterschied zwischen balanced und Qualitaet...
Ich sollte jetzt wohl fragen: Tomaten auf den Augen?
http://www.3dconcept.ch/news/vergleich.png
*sorry an alle Modem-User*
Unregistered
2003-02-05, 01:54:52
Originally posted by Razor
Er hat schon lange keine nVidia-Aktien mehr...
Wusstest Du das nicht ?
;-)
Razor
Gott sei Dank, ich wollte schon anbieten, ihm ab und zu ein warmes Essen unter die Brücke zu bringen ;>
Originally posted by LovesuckZ
Nach dem Qualitaetsvergleichen, sehe ich kein Unterschied zwischen balanced und Qualitaet... In der ersten MIP-Stufe sollten die Unterschiede gut sichtbar sein.
Virtual
2003-02-05, 08:45:51
Hallo Leute,
ich will euch den Spaß nicht nehmen, aber ich glaube, daß die Diskussion um AF und AA spätestens Ende April vorbei sein wird. ;)
Warum?:
- GFFX Treiber vom Funktionsumpfang spätestens hier final und damit auch AA und AF Fähigkeiten bei Qualität und Geschwindigkeit.
- Wir sehen, was genau der NV31 vom großen Bruder gelernt hat.
- Wir sehen was der R(V)350 in Bezug auf AA und AF dazu gelernt hat.
Ende April ist die Diskussion vorbei ;)
G.
V.
Unregistered
2003-02-05, 09:22:32
Originally posted by Virtual
Hallo Leute,
ich will euch den Spaß nicht nehmen, aber ich glaube, daß die Diskussion um AF und AA spätestens Ende April vorbei sein wird. ;)
Warum?:
- GFFX Treiber vom Funktionsumpfang spätestens hier final und damit auch AA und AF Fähigkeiten bei Qualität und Geschwindigkeit.
- Wir sehen, was genau der NV31 vom großen Bruder gelernt hat.
- Wir sehen was der R(V)350 in Bezug auf AA und AF dazu gelernt hat.
Ende April ist die Diskussion vorbei ;)
G.
V.
Dein neuer Account? Warum das denn? Ein treuer Mitkämpfer:lol:.
LovesuckZ
2003-02-05, 10:06:14
Originally posted by Ikon
Ich sollte jetzt wohl fragen: Tomaten auf den Augen?
Dann muesste ja ATI's Qualitaetsmodus ja scheiße aussehen? Tut's aber nicht in Spielen:D
Schau dir die Bilder auf Hardocp an. Winziger Vorteil fuer die Radeon, die aber wohl in bewegung kaum auffallfen werden.
Radeonator
2003-02-05, 10:10:11
Es ist so geil, wie die Nvidioten weiterhin tapfer an "I have a dream" festhalten und ihre Enttäuschung schönreden wollen. Wie kommt es nur, das wirklich alles was ihr an ATi&Co bemängelt hat, vollkommen legitim ist, sobald es von NV kommt :rofl:
Hiermal des NVidiots Argumente gegen alles nicht built by NVidia
Vor der FX :
R200 hat mit den ersten Treibern bei Q3 gecheatet und war dadurch der "Badboy", zudem wurde die Karte vor dem erscheinen nieder geredet und aufgrund der Treibermängel am Anfang gemckert,gemeckert,gemeckert...
AF R200 "In Winkel XYZ ungelöst wird nicht voll 16x AF gefahren, Skandal;)" , " Das AF ist nicht ´schön´ genug"
Externer Zusatzanschluss(V6xxx/R300) auf der Graka, wieviel Verlustleistung hat die denn. Voll das Strommonster unbrauchbar blah blah...
Was für ein riesen Kühler, viel zu laut (R300)
Das PCB wird ja sogar warm, viel zu heiss (R300)
Kann man ja fast gar nicht OCen (Voodoo 5), das Teil ist ja ab Werk schon OCet
PixelShader 1.4 , sind vollkommener Quatsch werden eh nie gebraucht, nur PR kram sowas...
Nach der FX sind überflüssige Features, schlechtere BQ, Cheattreiber, Abstürze, höchste Stromfresser und Verlustleistung, riesen Hitzeentwicklung, Externer Stromanschluss, Super Laute Kühlung, Schlechte Treiber etc. völlig i.O. und man hat auch immer die passende Ausrede parat...
Ihr seit echt niedlich :lol:
p.s.: Ich bin natürlich auf die Final + Final Treiber gespannt und denke auch das da noch einiges geht (20-30% mehr Leistung vielleicht sogar) Also, abwarten und Tee rauchen ;)
LovesuckZ
2003-02-05, 10:10:18
Originally posted by aths
In der ersten MIP-Stufe sollten die Unterschiede gut sichtbar sein.
Im Beyond3d.com review wurde auch die Qualitaet von Performance und Qualitaet von ATI vergleicht und man sah, trotz dem Mip-Stufen, kaum einen Unterschied auf den Bildern.
Unregistered
2003-02-05, 10:33:12
Originally posted by LovesuckZ
Im Beyond3d.com review wurde auch die Qualitaet von Performance und Qualitaet von ATI vergleicht und man sah, trotz dem Mip-Stufen, kaum einen Unterschied auf den Bildern.
Das schoene ist, das man die Mipmapstufen auch in Bewegung nicht/kaum wahrnimmt.
Byteschlumpf
2003-02-05, 11:15:14
Wer weiß, in wievielen Systemen der FX überhaupt stabil laufen wird - wenn der PC damit überhaupt angeht!
Wenn es ihn dann endlich zu kaufen gibt, wird es im nVidia-Forum sicherlich massenweise Hilferufe von nVidia-Fanatikern geben, die sich den FX wider bessern Wissens doch geholt haben!
Byteschlumpf
Katrin
2003-02-05, 13:37:48
Originally posted by Byteschlumpf
Wer weiß, in wievielen Systemen der FX überhaupt stabil laufen wird - wenn der PC damit überhaupt angeht!
Wenn es ihn dann endlich zu kaufen gibt, wird es im nVidia-Forum sicherlich massenweise Hilferufe von nVidia-Fanatikern geben, die sich den FX wider bessern Wissens doch geholt haben!
Byteschlumpf
glaub ich net. Sowas macht doch nur Ati. Die NV Treiber werden keine Konflikte bei Games verursachen. Und warte ja nicht drauf, dass mal eine FX auf einem Board nicht läuft. Das gibt es bei NV nicht
StefanV
2003-02-05, 13:40:17
Originally posted by LovesuckZ
Im Beyond3d.com review wurde auch die Qualitaet von Performance und Qualitaet von ATI vergleicht und man sah, trotz dem Mip-Stufen, kaum einen Unterschied auf den Bildern.
Hm, seltsam, daß einige das bescheidene AF der GF FX bis aufs äußerste verteitigen im Gegenzug allerdings auf dem AF der Radeon 8500 oder sogar R300 rumhacken...
Teilweise frage ich mich echt, ob einige nicht 'ne Neongelbe nVidia Brille auf haben...
StefanV
2003-02-05, 13:43:26
Originally posted by Katrin
glaub ich net. Sowas macht doch nur Ati. Die NV Treiber werden keine Konflikte bei Games verursachen. Und warte ja nicht drauf, dass mal eine FX auf einem Board nicht läuft. Das gibt es bei NV nicht
öhm, und wie schauts mit den Netzteilen in diversen Systemen aus, denen die Puste ausgeht ?? ;)
Katrin
2003-02-05, 13:47:27
Originally posted by Stefan Payne
öhm, und wie schauts mit den Netzteilen in diversen Systemen aus, denen die Puste ausgeht ?? ;)
NV wird da bestimmt noch ne Lösung finden. Aber wer glaubt, das die die FX Karten vielleicht irgendwelche Probleme verursachen könnten, ist auf dem Holzweg. Schliesslich waren die Karten bei den Reviews nur Prototypen und NV wird die Karte nochmal komplett überarbeiten. Und es kommt auch noch ein schönerer AA Modus dazu + 40% Leisungssteigerung. schliesslich handelt es sich hier um nVidia und nicht um die komischen Typen aus Kanada;)
Originally posted by Katrin
NV wird da bestimmt noch ne Lösung finden. Aber wer glaubt, das die die FX Karten vielleicht irgendwelche Probleme verursachen könnten, ist auf dem Holzweg. Schliesslich waren die Karten bei den Reviews nur Prototypen und NV wird die Karte nochmal komplett überarbeiten. Und es kommt auch noch ein schönerer AA Modus dazu + 40% Leisungssteigerung. schliesslich handelt es sich hier um nVidia und nicht um die komischen Typen aus Kanada;)
Ich bete, dass dieses Smiley am Schluss bedeutet, dass du das alles ironisch meinst. Mach mich nicht unglücklich, Baby :-(
StefanV
2003-02-05, 13:52:36
Originally posted by Ikon
Ich bete, dass dieses Smiley am Schluss bedeutet, dass du das alles ironisch meinst.
Natürlich, was denn sonst ?? :naughty:
Originally posted by LovesuckZ
Im Beyond3d.com review wurde auch die Qualitaet von Performance und Qualitaet von ATI vergleicht und man sah, trotz dem Mip-Stufen, kaum einen Unterschied auf den Bildern.
Meinst du diesen Vergleich (http://www.beyond3d.com/reviews/ati/radeon9700pro/index.php?page=page16.inc) hier? Wenn man dem kursiven Absatz glauben schenken darf, dann gab' es mit den sehr jungen R300-Treibern (Artikel ist vom 19.August 02) noch kleinere Unstimmigkeiten bezüglich P-AF/Q-AF.
Katrin
2003-02-05, 14:17:10
Originally posted by Ikon
Ich bete, dass dieses Smiley am Schluss bedeutet, dass du das alles ironisch meinst. Mach mich nicht unglücklich, Baby :-(
nene, das ist schon mein ernst :-) Razor hat mich voll und ganz von der FX überzeugt ;D
katrin
P.S. lese mir gerade den Bericht von PCGH über die FX durch. Da ist die FX ja noch schlechter, als sonst überall :D
Originally posted by Katrin
NV wird da bestimmt noch ne Lösung finden. Aber wer glaubt, das die die FX Karten vielleicht irgendwelche Probleme verursachen könnten, ist auf dem Holzweg. Schliesslich waren die Karten bei den Reviews nur Prototypen und NV wird die Karte nochmal komplett überarbeiten. Und es kommt auch noch ein schönerer AA Modus dazu + 40% Leisungssteigerung. schliesslich handelt es sich hier um nVidia und nicht um die komischen Typen aus Kanada;)
:rofl: Echt zu Komisch :D :lol: mich weg :D
Originally posted by Katrin
nene, das ist schon mein ernst :-) Razor hat mich voll und ganz von der FX überzeugt ;D
katrin
P.S. lese mir gerade den Bericht von PCGH über die FX durch. Da ist die FX ja noch schlechter, als sonst überall :D
Jo
In diesem Sinne....
HOT
;D ;)
Unregistered
2003-02-05, 14:51:03
Originally posted by Stefan Payne
öhm, und wie schauts mit den Netzteilen in diversen Systemen aus, denen die Puste ausgeht ?? ;)
jo, ATi hätte besser zur R300 noch ein PC-Netzteil dabeigelegt, dann gaebe es da weniger Probleme.
StefanV
2003-02-05, 15:10:02
Originally posted by Unregistered
jo, ATi hätte besser zur R300 noch ein PC-Netzteil dabeigelegt, dann gaebe es da weniger Probleme.
:rofl:
Und was soll NV bei der GF FX machen ??
Gleich ein externes Netzteil beilegen*eg*
BTW: ATI hat recht leistungsfähige Karten, die recht genügsams ind, z.B. die Radeon 8500 :naughty:
Unregistered
2003-02-05, 15:42:38
Originally posted by Stefan Payne
:rofl:
Und was soll NV bei der GF FX machen ??
Gleich ein externes Netzteil beilegen*eg*
BTW: ATI hat recht leistungsfähige Karten, die recht genügsams ind, z.B. die Radeon 8500 :naughty:
BTW. leistungsschwächere Karten brauchen weniger Strom, daher die 'Genügsamkeit' der ATi-Karten.
Originally posted by Stefan Payne
Und was soll NV bei der GF FX machen ??
Gleich ein externes Netzteil beilegen*eg*
PowerFX ;D
Da könnte NV in Grenzbereiche des eigenen
Produktportfolios vordringen ...
LovesuckZ
2003-02-05, 19:45:51
Originally posted by Stefan Payne
BTW: ATI hat recht leistungsfähige Karten, die recht genügsams ind, z.B. die Radeon 8500 :naughty:
Wobei auch ne 9500 nur mit Storm aus dem Netzteil (also Stecker in die Karte) anspringt...
Originally posted by Ikon
PowerFX ;D
Da könnte NV in Grenzbereiche des eigenen
Produktportfolios vordringen ...
FXVolts;D
Das wäre schon ziemliche Ironie des Schicksals:lol: (und ist es eigentlich auch schon ganz schön)
StefanV
2003-02-05, 19:57:04
Originally posted by Unregistered
BTW. leistungsschwächere Karten brauchen weniger Strom, daher die 'Genügsamkeit' der ATi-Karten.
Das eine hat mit dem anderen ÜBERHAUPTNIX zu tun !!
Das hängt wohl eher mit den Tools, die man benutzt zusammen und noch 1000 anderen Dingen...
Mehr Leistung -> Mehr Abwärme ist einfach schwachsinn !!
Das beste Beispiel ist wohl der Athlon XP vs Athlon (TBird).
Welcher von beiden ist Leistungsfähiger??
Und welche von beiden ist 'hungriger' ??
StefanV
2003-02-05, 20:05:40
Originally posted by LovesuckZ
Wobei auch ne 9500 nur mit Storm aus dem Netzteil (also Stecker in die Karte) anspringt...
ATI hätte die R300 Karte auch so desigenen können, daß sie auch ohne Floppy Stecker auskommen würden.
Aber wozu ein unnötiges Risiko eingehen und instabilitäten mit 'diversen' Boards provozieren, wenn das Layout einen FLoppystecker eh vorsieht ??
LovesuckZ
2003-02-05, 20:22:57
Originally posted by Stefan Payne
ATI hätte die R300 Karte auch so desigenen können, daß sie auch ohne Floppy Stecker auskommen würden.
Haetten sie dies gekonnt, waeren sie nicht mit dem Steckeranschluss gekommen.
warum nicht? der Anschluss macht die Karte kleiner und spart ne menge Bauteile.
LovesuckZ
2003-02-05, 20:50:21
Originally posted by HOT
warum nicht? der Anschluss macht die Karte kleiner und spart ne menge Bauteile.
Bedeutet das, dass die rv350 ohne Anschluss groeßer wird?
zeckensack
2003-02-05, 20:55:33
Originally posted by LovesuckZ
Bedeutet das, dass die rv350 ohne Anschluss groeßer wird? Zähl mal die Bauteile auf 'ner Radeon9700Pro und 'ner Ti4200 und denk dir den Rest ;)
edit: shiiiiiceeee! Ich meinte 4200, ich meinte 4200, nicht hauen :sulkoff:
LovesuckZ
2003-02-05, 21:00:57
Originally posted by zeckensack
Zähl mal die Bauteile auf 'ner Radeon9700Pro und 'ner Ti4200 und denk dir den Rest ;)
Eine 9500 koennte mit einem anderen Design auch ohne Stromanschluss auskommen.
Stefan hat aber gesagt, dass ATI den r300 so Design hätte koennen, dass man den Stormanschluss nicht gebrauchen wuerde. Warum haben sie es dann nicht gemacht?
Dr. Greenthumb
2003-02-05, 21:09:23
Originally posted by LovesuckZ
Bedeutet das, dass die rv350 ohne Anschluss groeßer wird?
Eigentlich hat die Anzahl und Größe der Bauteile, die mit der Regelung und Stabilisierung der Betriebsspannung zu tun haben auf einer Graka, genau genommen mit der Stromversorgung (ob nun AGP-Slot oder NT-Stecker)nur entfernt zu tun. Zum Beispiel: Je größer der Leistungshunger, desto mehr und größere Kondensatoren zur Spannungsstabilisierung.
Guck dir doch nur mal ein Pentium I Motherboard im Vergleich zu einem modernen Athlon Motherboard an. Die Mickerteilchen von Elektolytkondensatoren auf dem PI Board sind winzig im Vergleich zu den Türmchen auf einen Athlon Board. Nicht zu vergessen die Regulatoren (1 Transistor-Bauteil zu 6 Transistor-Bauteilen, von deren Leistung und Aufbau mal ganz abgesehen).
Also wird der RV350 nicht nur ohne Steckerlein auskommen, sondern aufgrund des geringeren Leistungshungers auch weniger Bauteile besitzen. Es sei denn ATi glaubt, dann erkennt man ihre Grakas nicht mehr (so von wegen "wie kein NT-Schluss: Gefälscht!! ;D).
Dr. Greenthumb
2003-02-05, 21:16:00
Originally posted by LovesuckZ
Eine 9500 koennte mit einem anderen Design auch ohne Stromanschluss auskommen.
Stefan hat aber gesagt, dass ATI den r300 so Design hätte koennen, dass man den Stormanschluss nicht gebrauchen wuerde. Warum haben sie es dann nicht gemacht?
Weil die spezifizierte Leistungsabgabe des AGP (non-Pro) Steckplatzes entweder nur knapp für die Karte ausreicht und bei extremen Situationen zu Problemen führt oder weil die Karte mehr frisst als die Specs erlauben (was ich persönlich eher glaube, kenn leider den Max-Output des AGP-Ports nicht).
IMHO leigt Stefan diesmal falsch, den R300 hätte es ohne Anschluss wohl nicht gegeben, zumindest nicht die 9700 und 9700Pro!!
Demirug
2003-02-05, 21:18:51
Da man die RV350 Chips sicherlich auch als OEM ware absetzen will wird ATI alles daran setzen ohne den zusätzlichen Spannungsanschluss auszukommen.
Jedes zusätzliche Kabel das angeschlossen werden muss mögen die OEMs überhaupt nicht:
-Mehr Aufwand
-zusätzliche Fehlerquelle
Das ganze hängt natürlich auch davon ab ob NVIDIA bei der OEM ware einen zusätlichen Anschluss braucht. Falls ja ist es egal aber wenn NVIDIA ohne auskommt hat ATI einen gewissen Nachteil.
Originally posted by Demirug
Das ganze hängt natürlich auch davon ab ob NVIDIA bei der OEM ware einen zusätlichen Anschluss braucht. Falls ja ist es egal aber wenn NVIDIA ohne auskommt hat ATI einen gewissen Nachteil.
Sprichst du von der GFFX als OEM-Graka? Und ohne zusätzl. Stromanschluss? Klingt für mich beides nur schwer vorstellbar.
Dr. Greenthumb
2003-02-05, 21:40:19
Originally posted by Ikon
Sprichst du von der GFFX als OEM-Graka? Und ohne zusätzl. Stromanschluss? Klingt für mich beides nur schwer vorstellbar.
Er meint wohl den direkten Gegenspieler des RV350, den nV31. Die FX (vor allem die Ultra) ist als OEM Karte ungeeignet. Obwohl... ungeeignet ist wohl eine ziemliche Untertreibung *eg*
Ah, das ist wohl die 4Pipe-Version des NV30 ... sollte bei entsprechendem Takt durchaus möglich sein.
P.S.: Ich doof hab' mal wieder das "V" bei RV350 großzügig übersehen.
zeckensack
2003-02-05, 22:00:00
Originally posted by LovesuckZ
Eine 9500 koennte mit einem anderen Design auch ohne Stromanschluss auskommen.
Stefan hat aber gesagt, dass ATI den r300 so Design hätte koennen, dass man den Stormanschluss nicht gebrauchen wuerde. Warum haben sie es dann nicht gemacht? Zur Erinnerung:
Der Saft, den eine Karte aus dem AGP-Port ziehen darf setzt sich aus drei Spannungsschienen zusammen 3,3 Volt, maximal 6 Ampere => 20 Watt
5 Volt, maximal 3 Ampere => 15 Watt
12 Volt, maximal 0,5 Ampere => 6 Watt
Macht in der Summe bequeme 41 Watt, die die Karte verblasen darf. Aber dazu muß die Kartenversorgung aus allen drei Schienen zusammenmischen, und das ganze muß zwischen den Schienen vernünftig ausbalanciert sein.
Zum Vergleich dürfen über jeden Pin eines Molex-Steckers 5 Ampere gezogen werden.
Anstatt also drei Schaltregler zusammenzukleben, kann man einfach einen einzelnen bauen, den man dann aus der 'dicken' 12V-Leitung versorgt. So kann man mit einer relativ simplen Schaltung 60 Watt umpumpen, ohne Spezifikationen zu verletzen. Das ist in diesen Leistungsregionen dann die billigste Lösung.
Daß der Regler auf der FX Ultra so kompliziert ausgefallen ist, deutet für mich auch darauf hin, daß man die 5V-Leitung dazunehmen und wieder 'zusammenmixen' mußte.
Die non-Ultra, sofern sie ein eigenes PCB bekommt, wird sicher mit einem einfacheren Regler ausgestattet werden.
Versorgung nur aus dem AGP-Port ist nur dann billiger, wenn die Karte höchstens 20 Watt verbraucht, weil ich dann auch wieder mit einer einzelnen Schiene arbeiten kann.
Dr. Greenthumb
2003-02-05, 22:18:34
Originally posted by zeckensack
So kann man mit einer relativ simplen Schaltung 60 Watt umpumpen, ohne Spezifikationen zu verletzen. Das ist in diesen Leistungsregionen dann die billigste Lösung.
Daß der Regler auf der FX Ultra so kompliziert ausgefallen ist, deutet für mich auch darauf hin, daß man die 5V-Leitung dazunehmen und wieder 'zusammenmixen' mußte.
Relativ einfach zu erklären (und danke für die AGP-Specs!!). Die Karte zieht, wenn man Messungen unabhängiger Tester heranzieht, 70Watt unter Last. Also ists klar das die 12v Leitung mit ihren max 60W nicht ausreicht und eine andere Leitung hinzugenommen werden muss.
PS Jetzt versteh ich auch, das bei Boards die die 5V Schiene übermäßig belasten, schlampig oder nur auf geringe Kosten (Bauteile)konstruiert wurden (siehe Epox)
StefanV
2003-02-05, 23:33:58
Originally posted by LovesuckZ
Eine 9500 koennte mit einem anderen Design auch ohne Stromanschluss auskommen.
Stefan hat aber gesagt, dass ATI den r300 so Design hätte koennen, dass man den Stormanschluss nicht gebrauchen wuerde. Warum haben sie es dann nicht gemacht?
Zecke hat es ja schon gesagt, es wäre möglich, das würde aber:
a) die Platine deutlich vergrößern, siehe Geforce 4 TI4400/4600
b) man bräuchte mehr Bauteile für die Spannungsregelung, da man den 'Saft' nicht aus einer Leitung ziehen kann, somit muß man mehrere Stränge 'zusammenmixen', dazu noch eine gescheite Verteilung für die einzelnen Stränge...
c) man müsste das PCB von Grund auf neu designen...
@ZBag
Danke für die aufschlussreiche Erklärung ... man lernt immer dazu :)
Razor
2003-02-06, 06:27:34
Originally posted by aths
Dein Posting empfand ich als, hm, mehrdeutig formuliert, daher meine klare Nachfrage.
Und es war an Dr.G. formuliert...
Deswegen wunderte mich Deine Nachfrage.
;-)
Razor
Razor
2003-02-06, 06:32:23
Originally posted by Unregistered
Dann frage ich mich im ernst, wer all diese R300 kauft? ;) Wahrscheinlich werden sie alle auf den Mond exportiert und damit zählen sie nicht zum hier ansässigen Markt. Razor, ich find's lächerlich! :D
BTW: Informier' Dich lieber beim Großhandel, nicht bei der Marketingsabteilung von nVidia. ;)
Wenn Du Dich beim Großhandel informiert hättest, dann wüsstest Du, dass a) gar nicht so viel R300 verfügbar sind und b) auch gar nicht so viel geordert werden. Meine Kontakte sind da eigentlich recht präzise...
DER Renner sind noch immer die Ti4200-Karten. Gehen weg wie warme Semmeln, sind aber auch reichlich verfügbar. Irgendwie scheint die Öffentlichkeit nur recht zögerlich auf das Angebot von ATI zu reagieren und das trotz des Preises... schon merkwürdig.
Und eines noch:
Fühlst Du Dich als Unreg. wohl ?
Solche Leute find' ich reichlich lächerlich, die unter dem Deckmantel der Nicht-Wiedererkennung solchen Mist verzapfen !
Razor
Razor
2003-02-06, 06:40:55
Originally posted by Ikon
Sprichst du von der GFFX als OEM-Graka? Und ohne zusätzl. Stromanschluss? Klingt für mich beides nur schwer vorstellbar.
Wieso ?
Das haben zumindest die Reviews gezeigt (nur eines, wenn ich recht entsinne ;-), dass die GraKa auch ohne externen Stromanschluss läuft... nur eben nicht bei voller Leistung !
Wahrscheinlich nicht mal in 3D...
;D
Bis denne
Razor
Crushinator
2003-02-06, 18:32:11
Originally posted by Razor Wenn Du Dich beim Großhandel informiert hättest, dann wüsstest Du, dass a) gar nicht so viel R300 verfügbar sind und b) auch gar nicht so viel geordert werden. Meine Kontakte sind da eigentlich recht präzise... Es ist zwar nur meine persönliche Meinung, aber dennoch: Du kannst keinen Großhändler kennen. ;) Mir haben viele bestätigt, "daß sie viel R300 verkaufen würden, wenn sie genügend auf Lager hätten. Besonders die 9500Pro scheint sehr beliebt zu sein. Nur bekommt man sie selbst als Großhandel nicht in ausreichender Menge. Da sollten die AIBs bzw. ATi selbst bitte nachbessern."
Irgendwie scheint die Öffentlichkeit nur recht zögerlich auf das Angebot von ATI zu reagieren und das trotz des Preises... schon merkwürdig. Die öffentlichkeit würde gerne kaufen, das Angebot ist wie gesagt nicht überall vorhanden bzw. ist ausverkauft. Manche haben auch auf die FX (die Kleine) gewartet und wollen bei dem Preisunterschied natürlich die 9500Pro haben, was aber....usw. ;)
Fühlst Du Dich als Unreg. wohl ? Solche Leute find' ich reichlich lächerlich, die unter dem Deckmantel der Nicht-Wiedererkennung solchen Mist verzapfen !
1. Ich stehe nicht auf persönliche Beleidigungen ohne Smilies.
2. Ich war der Unreg. (Cookie weg)
3. Ich habe mich danach zu meinen Postings bekannt.
4. Denk' bitte nochmal darüber nach, wer hier wie oft was verzapft.
*grrr*
Razor
2003-02-08, 11:56:51
Originally posted by crushinator
Es ist zwar nur meine persönliche Meinung, aber dennoch: Du kannst keinen Großhändler kennen. ;) Mir haben viele bestätigt, "daß sie viel R300 verkaufen würden, wenn sie genügend auf Lager hätten. Besonders die 9500Pro scheint sehr beliebt zu sein. Nur bekommt man sie selbst als Großhandel nicht in ausreichender Menge. Da sollten die AIBs bzw. ATi selbst bitte nachbessern."
Oh doch, Großhändler und auch so einige Zwischenhändler sind mir sehr wohl bekannt...
Und das die Verfügbarkeit nicht gegeben ist, hast Du ja zumindest bestätigt.
Die Nachfrage von gf4ti4200 zu R9500pro steht derzeit allerdings in etwa im Verhältnis 5:1 !
(was schon sehr gut für ATI-Karten ist)
Wenn Du ebenfalls solcherart Kontakte pflegst, informiere Dich diesbezüglich bitte noch mal...
Und klar, würden ATI oder AIB's mehr davon liefern, würden sie auch mehr verkaufen.
Ist allerdings eher 'ne Binsenweisheit, oder ?
:D
Originally posted by crushinator
Die öffentlichkeit würde gerne kaufen, das Angebot ist wie gesagt nicht überall vorhanden bzw. ist ausverkauft. Manche haben auch auf die FX (die Kleine) gewartet und wollen bei dem Preisunterschied natürlich die 9500Pro haben, was aber....usw. ;)
Würde sie nicht... oder besser nicht in dem von Dir beschriebenen Umfang.
(siehe oben)
Originally posted by crushinator
1. Ich stehe nicht auf persönliche Beleidigungen ohne Smilies.
2. Ich war der Unreg. (Cookie weg)
3. Ich habe mich danach zu meinen Postings bekannt.
4. Denk' bitte nochmal darüber nach, wer hier wie oft was verzapft.
*grrr*
Zumindest stehst Du zu dem Mist, den Du da verzapft hast !
:D
Bis denne
Razor
Salvee
2003-02-08, 12:05:39
Originally posted by Razor
Die Nachfrage von gf4ti4200 zu R9500pro steht derzeit allerdings in etwa im Verhältnis 5:1 !
(was schon sehr gut für ATI-Karten ist)
Ich weiss zwar nicht, wo du deine Infos her hast bzw. ob sie stimmen, bei Preistrend ist allerdings schon seit ein paar Monaten kaum eine GF4 in den Top5 der meistgesuchten Produkte enthalten.
Sagt natürlich nicht 100prozentig über die tatsächliche Kaufentscheidung aus, das Interesse liegt aber imo ganz klar bei ATi.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.