PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Grafikkartenleistung in Doom3!


Seiten : [1] 2

LovesuckZ
2002-11-26, 09:06:09
Auf ixbt.com (http://www.ixbt.com/video2/sapphire-r9500-128.shtml) wurde die R9500 getestet - auch unter Doom3 Version: 0.02 (;D ). Schonmal nen erster Anhaltspunkt, wie hardwarehungrig Doom3 sein wird.

http://www.bigsmedia.de/d.gif

Unregistered
2002-11-26, 09:18:05
Ziemlich dämlich, einen Grafikkartentest unter 800x600 zu fahren, das erinnert mich an die gute GS:D.

Unregistered
2002-11-26, 09:23:06
:bonk:

Unregistered
2002-11-26, 11:20:03
Ich denke nicht, dass 800x600 eine übermäßig unrealistische Auflösung bei DooM 3 darstellt, da viele eher die Res runterschrauben werden als die Details ... und wenn man sich die FPS anguckt kann man froh sein, wenn es in der Auflösung noch durchgehend flüssig läuft.


MfG
Kami :D

tEd
2002-11-26, 11:28:16
Originally posted by Unregistered
Ziemlich dämlich, einen Grafikkartentest unter 800x600 zu fahren, das erinnert mich an die gute GS:D.

vielleicht schaust du dir die grafik nochmal genau an und antwortest nochmal

Unregistered
2002-11-26, 11:59:08
Dass die Ergebnisse differieren heisst nicht, dass andere Einflussgrössen entsprechend veringert/ausgeschaltet wurden. Ich kann auch eine GF3 gegen eine TNT2 bei 640x480 benchen und boah, die Ergebnisse unterscheiden sich ja, die GF3 ist volle 20% schneller. Aber diese dämliche Diskussion hatten wir ja schon mal mit den ersten Benchmarks der R9k7P.

Wenn ihr meint, das ist eine ordentliche Auflösung für Doom3 viel Spaß, ich zocke das bestimmt nicht in Blöckchengraphik.:P

LovesuckZ
2002-11-26, 12:01:47
Originally posted by Unregistered
Dass die Ergebnisse differieren heisst nicht, dass andere Einflussgrössen entsprechend veringert/ausgeschaltet wurden. Ich kann auch eine GF3 gegen eine TNT2 bei 640x480 benchen und boah, die Ergebnisse unterscheiden sich ja, die GF3 ist volle 20% schneller. Aber diese dämliche Diskussion hatten wir ja schon mal mit den ersten Benchmarks der R9k7P.


Ach du meinst der CPU bremst. Wie kann man sich dann aber erklaeren, dass die R9700 pro gegenueber der normalen 9700 an Geschwindigkeit zulegt - und das nicht unerheblich?

ow
2002-11-26, 12:02:03
Originally posted by Unregistered


Wenn ihr meint, das ist eine ordentliche Auflösung für Doom3 viel Spaß, ich zocke das bestimmt nicht in Blöckchengraphik.:P

Dafuer dann aber als Slideshow.:P

Unregistered
2002-11-26, 12:07:05
Originally posted by ow


Dafuer dann aber als Slideshow.:P

Denkste.:P

zeckensack
2002-11-26, 12:16:38
Mein PC ist größer als deiner :|



Jedenfalls unübersehbar ist die R9700 in dieser 'schnulli-Auflösung' bereits voll ausgelastet.

Die Leistung der Pro steigt gegenüber der non-Pro um 14%, der Coretaktzuwachs liegt bei 18,2%, Bandbreitenzuwachs bei 14,8%. Da muß man doch nun wirklich nur 2 und 17 zusammenzählen um zu erkennen was da los ist :|

ow
2002-11-26, 12:20:34
Originally posted by zeckensack
Da muß man doch nun wirklich nur 2 und 17 zusammenzählen um zu erkennen was da los ist :|


Das scheint jenem Unreg leider nicht zu gelingen.

Vielleicht sollte man ihm die fps fuer alle hoeheren Aufloesungen mal ausrechnen, weil benchen braucht man da nix.

Unregistered
2002-11-26, 12:22:46
Soll das etwa heissen, die Bandbreite der 9700 ist hier limitierend? Das wäre ganz schön krass.

Unregistered
2002-11-26, 12:24:04
Originally posted by ow



Das scheint jenem Unreg leider nicht zu gelingen.

Vielleicht sollte man ihm die fps fuer alle hoeheren Aufloesungen mal ausrechnen, weil benchen braucht man da nix.

:lol: :lol: :lol:

Wo ist der Smilie?

Eusti
2002-11-26, 12:36:07
Originally posted by Unregistered
Soll das etwa heissen, die Bandbreite der 9700 ist hier limitierend? Das wäre ganz schön krass. Es ist wahrscheinlich, das in dieser Demo die Speicherbandbreite Limitiert. Guck dir z.B. die GF4Ti Karten an. Die 64MB-Version gewinnt gegen die 128MB-Version.

Obwohl Doom3 eigendlich Texturspreicher ohne Ende gebrauchen sollte und DAS Zukunftsspiel sein sollte, sind die Leute mit den 128MB-Karten die gelackmeierten. Die haben mehr für die Karte bezahlt und die langsamere Karte in allen Spielen (denn wirklich wichtig ist auch in den Zukunftsgames nur die Speicherbandbreite).

ow
2002-11-26, 12:38:32
Originally posted by Unregistered
Soll das etwa heissen, die Bandbreite der 9700 ist hier limitierend? Das wäre ganz schön krass.


yeah, das gibt 99 Punkte;)


In obigem Bench limitieren ALLE Grafikkarten, deshalb so schoen die Abstaende zwischen 9700 Pro, 9700 und ti4600.
Es ist aber eher die Fillrate die limitiert als die Bandbreite.

ow
2002-11-26, 12:40:08
Originally posted by Eusti
Es ist wahrscheinlich, das in dieser Demo die Speicherbandbreite Limitiert. Guck dir z.B. die GF4Ti Karten an. Die 64MB-Version gewinnt gegen die 128MB-Version.


??

32,9 die 128MB zu 32,2 fuer die 64MB.

zeckensack
2002-11-26, 12:41:34
Originally posted by Unregistered


:lol: :lol: :lol:

Wo ist der Smilie? Wozu ein Smilie? Das kann man wirklich ausrechnen, ohne große Fehler zu machen.

zeckensack
2002-11-26, 12:44:23
Originally posted by ow


??

32,9 die 128MB zu 32,2 fuer die 64MB. Bei gleichem Takt. Der Standardtakt für die Ti4200 128MB ist geringer, im Diagramm liegt sie bei 30,3 fps.

ow
2002-11-26, 12:57:15
Originally posted by zeckensack
Bei gleichem Takt. Der Standardtakt für die Ti4200 128MB ist geringer, im Diagramm liegt sie bei 30,3 fps.


Ja ich hab das gesehen.

Aber warum soll ich unterschiedlich bestueckte UND getakte Karten miteinander vergleichen?

Die GF4 skaliert auch mit dem Speichertakt (auch in DOOM3 wohl), das ist nichts neues.

Pirx
2002-11-26, 12:59:51
Die älteren Radeons schlagen sich ja nicht grade meisterlich, woran liegt das eigentlich? ogl-Treiber, Benachteiligung bei den Standardeinstellungen,...???

Unregistered
2002-11-26, 13:05:54
Originally posted by ow



yeah, das gibt 99 Punkte;)


In obigem Bench limitieren ALLE Grafikkarten, deshalb so schoen die Abstaende zwischen 9700 Pro, 9700 und ti4600.
Es ist aber eher die Fillrate die limitiert als die Bandbreite.

Hä? Na was denn nu, ja oder nein?!

ow
2002-11-26, 13:13:48
Originally posted by Pirx
Die älteren Radeons schlagen sich ja nicht grade meisterlich, woran liegt das eigentlich? ogl-Treiber, Benachteiligung bei den Standardeinstellungen,...???


Evtl. die Treiber. Oder die Chips selbst haben Probleme mit der Funktionsweise von D3.

Die R9700 und 9000/8500 nutzen alle denselben OGL Treiber und sollten auch denselben Renderpfad (R200 path) nutzen.

ow
2002-11-26, 13:16:39
Originally posted by Unregistered


Hä? Na was denn nu, ja oder nein?!

Beides;)

Es limitieren die Grafikkarten und nicht die CPU.

Die Limiten der Grafikkarten sind a) Fillrate, b) Bandbreite.
Ob jetzt a) oder b) eher limitieren ist schwer zu sagen und zudem kartenabhaengig.

Eusti
2002-11-26, 14:04:46
Originally posted by ow
Ja ich hab das gesehen.

Aber warum soll ich unterschiedlich bestueckte UND getakte Karten miteinander vergleichen?Weil 90% der verkauften 4200er Karten diese Settings besitzen. Nur auf ein paar Ausnahmekarten von Markenherstellern ist auf den 128MB-Karten schnellerer Speicher verbaut.

Die normale 128MB-4200er hat nur 222MHZ Speicher und verliert somit jeden Benchmark gegenüber der normalen 64MB-4200er mit 250MHZ. Das dieses auch bei zukünftigen Spielen noch so sein wird, sit für die heutigen käufer ein gewichtiger Grund, sich die kleinere aber dafür schnellere Karte zu kaufen.

ice cool69
2002-11-26, 22:38:08
@ ow

wenn du zeckensacks posting genau gelesen hättest hättest du gemerkt dass der unterschied zw. r9700 und r9700pro bei 14% liegt. der füllratenunterschied liegt aber bei 19%, der bandbreitenunterschied bei 14%.
jetzt darfste 3mal raten ob bandbreite oder füllrate limitiert!!!!

angesichts dieser tatsache hoffe ich dass die bandbreitenschonenden techniken der gffx wirklich so gut sind, ansonsten gibts kein stich gegen die radeons bei doom3-engines.

Xmas
2002-11-27, 01:15:21
Originally posted by ice cool69
@ ow

wenn du zeckensacks posting genau gelesen hättest hättest du gemerkt dass der unterschied zw. r9700 und r9700pro bei 14% liegt. der füllratenunterschied liegt aber bei 19%, der bandbreitenunterschied bei 14%.
jetzt darfste 3mal raten ob bandbreite oder füllrate limitiert!!!!
Sorry, aber das sagt gar nichts aus, weil fast nie ein einziger Faktor 100%ig limitiert.
Beim Stencil/Z-Pass von D3 kann man z.B. davon ausgehen dass die Füllrate limitiert, weil der kaum Bandbreite braucht. Bei den texturierten Passes sieht es dann schon ganz anders aus.

ice cool69
2002-11-27, 01:51:22
wie wärs mit nem test? jemand taktet den speicher seiner r9700pro auf r9700-niveau runter und lässt d3-demo laufen und das selbe dann mit dem chiptakt. daraus sollten wir erkennen welcher der beiden faktoren bei 800x600 der bremsendere faktor ist.

ich wette bei 640x480 ist die gffx sehr deutlich vor der radeon. ob das bei höheren auflösungen auch so ist hängt dann wohl von der tatsächlichen effektiven bandbreite ab.

ich persönlich würde d3 gerne in 1024x768 flüssig zocken mit max detail. die kohle reicht aber wohl nur für ne radeon9700 ohne pro. hoffentlich wird das game nochn bischen optimiert bis zum erscheinen sonst kann ich das vergessen...

Crushinator
2002-11-27, 02:34:30
Originally posted by ice cool69
ich persönlich würde d3 gerne in 1024x768 flüssig zocken mit max detail. die kohle reicht aber wohl nur für ne radeon9700 ohne pro. hoffentlich wird das game nochn bischen optimiert bis zum erscheinen sonst kann ich das vergessen...
Ich hoffe, daß diese 0.2er Version eine völlig Unbaruchbare
ist, und daß das Endrelease um einiges besser sein wird. Warum?
Irgendjemand hat mir am WoE diese Version zum Live-Benchen auf
der 9700 Pro aufgedrückt. Ich war schockiert als ich feststellte,
daß es von 640x480 bis in 1280x1024 fast immer die selben Raten
gab, nämlich lächerliche 31 bis 35 FPS ohne AA/AF und nichts
außer der Auflösung (mode "3" bis "7/8") verändert. Ich empfand
es nicht als gut spielbar.

Mit anderen Worten: Mein XP2000+ mit PC2100 (2,1 GB/s) war
dabei das Limitiernde und nicht die Grafikkarte. :-(

Falls es jemanden interessiert: ein Duron 1,3 GHz mit GF4Ti4200
und ein PIII 700 mit GF4MX440 hatten beide die selben Raten nämlich
krampfhaft anzuschauende 3 bis 14 FPS (auch ohne AA/AF nur bis
1024x768 getestet) Woran das lag: Beide Rechner haben SDRAM der
Sorte PC100 und praktisch dieselbe RAM-Bandbreite.

Das einzige, was hier mit Sicherheit gesagt werden kann ist,
daß D3 am liebsten auf Dual-Channel RAMBUS bzw. DDR400 laufen
möchte. Achja, die Grafikkarte sollte natürlich mind. eine
R300 oder lieber noch viel schneller sein. ;-)

Gruß, Crushinator

P.S.: Es ist natürlich schwachsinnig mit dieser pre Alpha
sich viel über die Endfassung zu reimen, deshalb flog sie
wieder von der Platte. Ich lasse mich von der Endfassung
überraschen und vermutlich haben wir alle bis dahin ganz
andere Hardware.

i_Land
2002-11-27, 04:32:54
Irgend etwas stimmt da nicht
Ne Radeon 8500 langsamer als Ne Gf4 MX und als die R9000pro ???

Die Radeon 8500 müsste eigentlich in der Nachbarschaft von Ti500 sein.

Endorphine
2002-11-27, 12:49:32
Originally posted by i_Land
Irgend etwas stimmt da nicht
Ne Radeon 8500 langsamer als Ne Gf4 MX und als die R9000pro ???

Die Radeon 8500 müsste eigentlich in der Nachbarschaft von Ti500 sein.

JC sagte ja mal, dass in keinen Renderingpfad so viel Optimierungsarbeit gesteckt wurde wie in den NV2x-Pfad. Das sollte einer GF3 in D3 schon einen Vorsprung gegenüber dem R200 geben...

Trotzdem seltsam, dass der Unterschied so extrem ausfällt, dass selbst die GF4MX die 8500er schlägt... Die hohe CPU-Belastung durch ATI's Treiber kanns bei nem P4 2533/RDRAM jedenfalls IMO nicht sein. Welche Ursachen könnte das noch haben? Vielleicht wurde am R200-Pfad in der Alpha noch gar keine Optimierungsarbeit geleistet, sondern vorerst nur Bug-Workaround?

ow
2002-11-27, 12:59:39
@Endorphine

Wie erklaerst du denn die Leistung der R9700, die denselben Renderpfad wie die R8500 nutzt?

Demirug
2002-11-27, 13:07:49
Warum rumraten wenn man eine Aussage von JC zu dem Thema hat:

Initial performance testing was interesting. I set up three extreme cases to exercise different characteristics:

A test of the non-textured stencil shadow speed showed a GF3 about 20% faster than the 8500. I believe that Nvidia has a slightly higher performance memory architecture.

A test of light interaction speed initially had the 8500 significantly slower than the GF3, which was shocking due to the difference in pass count. ATI identified some driver issues, and the speed came around so that the 8500 was faster in all combinations of texture attributes, in some cases 30+% more. This was about what I expected, given the large savings in memory traffic by doing everything in a single pass.

A high polygon count scene that was more representative of real game graphics under heavy load gave a surprising result. I was expecting ATI to clobber Nvidia here due to the much lower triangle count and MUCH lower state change functional overhead from the single pass interaction rendering, but they came out slower. ATI has identified an issue that is likely causing the unexpected performance, but it may not be something that can be worked around on current hardware.

ice cool69
2002-11-27, 13:20:07
naja wer von uns spielt denn noch wirklich doom3 mit ner graka ala gf3/r8,5k?
also unter einer gf4ti würde ich es nicht einmal wagen dieses spiel zu installieren!!!
und für meinen AXP1600+ dürfte D3 wohl auch schwer verdaulich sein. zum glück hab ich ein KT333-board, da klappts dann auch mit dem nachrüsten :D

Salvee
2002-11-27, 14:06:53
Originally posted by Demirug
Warum rumraten wenn man eine Aussage von JC zu dem Thema hat:



JC spricht an einer Stelle von einem Vorteil der GF3 von 20%, an nächster Stelle durch Optimierungen seitens ATi von 30% pro Radeon, am Ende erwähnt er das ominöse 'but it may not be something that can be worked around on current hardware', dass ja seinerzeit Grundlage vieler anregender Diskussionen war.
Die meisten gingen ja davon aus, dass es sich hierbei um den sog. 'High-Polygon Bug' handelte (vergl. GLXS-Mark), der ja gottlob gefixed wurde.
Allem anschein nach wurde aber in Bezug auf Doom3 gar nichts gefixed, da eine ausgewachsene R8500 mit 128MB satte 50% (!!!) langsamer als eine GF3Ti500 ist, und dass bei höherer Pixel/Texelfüllrate, höherer Speicherbandbreite, höherer T&L/VS-Performance etc.
Was ist an Doom3 so 'anders', da mir auf anhieb kein anderes Game einfällt mit einem ähnlich krassen Unterschied zw. GF3 und R8500?
Oder liegt es am sicherlich betagten 0.02 Build der Engine (aber siehe ow, warum schneidet dann die R300 bei gleichem Renderpfad relativ gut ab) ?

ice cool69
2002-11-27, 21:13:07
ich kann mich noch an eine aussage von jc erinnern in der er meinte er könnte doom3 so programmieren dass es viel besser auf ner radeon läuft als auch so dass es viel besser auf ner geforce läuft. anscheinend hat er sich für zweiteres entschieden der alte arsch...

Piffan
2002-11-27, 21:38:17
Originally posted by Eusti
Weil 90% der verkauften 4200er Karten diese Settings besitzen. Nur auf ein paar Ausnahmekarten von Markenherstellern ist auf den 128MB-Karten schnellerer Speicher verbaut.

Die normale 128MB-4200er hat nur 222MHZ Speicher und verliert somit jeden Benchmark gegenüber der normalen 64MB-4200er mit 250MHZ. Das dieses auch bei zukünftigen Spielen noch so sein wird, sit für die heutigen käufer ein gewichtiger Grund, sich die kleinere aber dafür schnellere Karte zu kaufen.

Was macht dich so sicher? Als ich mir die Prolink (Pixelview) mit 128 Mb gekauft habe, da habe ich im Laden vorher aufs Ram gesehen und festgestellt, dass es 4ns- Ram von Samsung ist. Anhand der Spannungen hat Prolink wohl noch ein bisschen gekitzelt, so komme ich ohne Stress auf 580 Mhz....

Per Bios habe ich die bei 280/560 fixiert.....sieht so hübsch aus mit dem synchronen Takt.... zum Prollen kann ich auch auf 295/590 gehen, allerdings sieht es nicht mehr so astrein aus ;)

Mag ja sein, dass die Karten mit 128 mb nur 444 MHZ haben sollten, aber nach dem was ich im NV- Forum gelesen habe, hält sich da kein Hersteller dran...Wäre vielleicht auch ungesund, weil viele doch erst mal im Net nachfragen, wie diese oder jene Karte lüpt...So ist die sagenumwobene Albatron in einer Version unterwegs, von der man besser die Finger lassen sollte.....

Demirug
2002-11-27, 21:43:38
Originally posted by ice cool69
ich kann mich noch an eine aussage von jc erinnern in der er meinte er könnte doom3 so programmieren dass es viel besser auf ner radeon läuft als auch so dass es viel besser auf ner geforce läuft. anscheinend hat er sich für zweiteres entschieden der alte arsch...

Ich denke mal du spielts darauf an:

I can set up scenes and parameters where either card can win, but I think that current Nvidia cards are still a somewhat safer bet for consistent performance and quality.

Ich sehe JC auch nicht als den Gott für den in einige halten aber als "alten arsch" würde ich in nicht bezeichnen.

Demirug
2002-11-27, 21:55:52
Originally posted by Salvee
JC spricht an einer Stelle von einem Vorteil der GF3 von 20%, an nächster Stelle durch Optimierungen seitens ATi von 30% pro Radeon, am Ende erwähnt er das ominöse 'but it may not be something that can be worked around on current hardware', dass ja seinerzeit Grundlage vieler anregender Diskussionen war.
Die meisten gingen ja davon aus, dass es sich hierbei um den sog. 'High-Polygon Bug' handelte (vergl. GLXS-Mark), der ja gottlob gefixed wurde.

Möglicherweise gibt es mehr als einen "High-Polygon Bug". Eine Idee die ich da noch hätte wäre das JC beim Rendern oft zwischen der fixed T&L und der Vertex Shader Pipeline wechselt. Laut einem neuen Dokument von ATI mögen die sowas gar nicht gerne. Wenn es daran liegt könnte man das Problem lösen in dem man nur noch den Vertexshader benutzt. Ist aber für den Programmierer etwas unangenehm.

Allem anschein nach wurde aber in Bezug auf Doom3 gar nichts gefixed, da eine ausgewachsene R8500 mit 128MB satte 50% (!!!) langsamer als eine GF3Ti500 ist, und dass bei höherer Pixel/Texelfüllrate, höherer Speicherbandbreite, höherer T&L/VS-Performance etc.
Was ist an Doom3 so 'anders', da mir auf anhieb kein anderes Game einfällt mit einem ähnlich krassen Unterschied zw. GF3 und R8500?
Oder liegt es am sicherlich betagten 0.02 Build der Engine (aber siehe ow, warum schneidet dann die R300 bei gleichem Renderpfad relativ gut ab) ?

Als primäre unterschiede würde ich mal den sehr massiven einsatz von Stencilbuffer (inkl mehrmaligen löschen pro Frame), "Pixelshader" mit vielen Texturzugriffen und Alphablending sehen. Der Stencilbuffer und das Alphablending sowie die Texturzugriffe fordern das Memoryinterface (inkl. Caches) sehr stark. In wie fern sich die Leistung der Pixelshader einheiten unterscheidet ist ohne kentnisse der genauen Shader schwer zu sagen.

Piffan
2002-11-27, 21:56:53
Originally posted by Demirug


Ich denke mal du spielts darauf an:



Ich sehe JC auch nicht als den Gott für den in einige halten aber als "alten arsch" würde ich in nicht bezeichnen.

Nein, er ist nicht alt....:D

Eusti
2002-11-27, 21:58:56
Originally posted by Demirug
Ich sehe JC auch nicht als den Gott für den in einige halten aber als "alten arsch" würde ich in nicht bezeichnen. Als Gott nicht, aber als extrem gewichtig sollte man Ihn schon ansehen. Er steht als führender Programierer hinter einer Gruppe von Engine´s, welche jeweils in einer Vielzahl von (zu Ihrer Zeit super) Produkten vertreten war. JC hat mit dem wie er programiert und seine Prioritäten setzt einen starken Einfluss auf die Entwicklung in der gesamten Industrie.

Eusti
2002-11-27, 22:06:56
Originally posted by Piffan
Was macht dich so sicher? Als ich mir die Prolink (Pixelview) mit 128 Mb gekauft habe, da habe ich im Laden vorher aufs Ram gesehen und festgestellt, dass es 4ns- Ram von Samsung ist.Dann bist du warscheinlich einer der 10% die sich eine Markengrafikkarte geholt haben (und dann dafür auch einen entsprechenden Aufpreis gezahlt haben). Die meisten Käufer einer 4200 mit 128MB werden die Frage nach dem Ram aber gar nicht erst stellen wollen oder können (die ALDI Verkäufer haben den zehntausenden Kunden sicher nicht helfen können).

Aber wenn du auf die 10% anspielt. Ich weiss nicht, welcher Anteil mit erhöhrem Chiptakt geliefert wird (vermutlich Albatron & Co.) und welcher Anteil mit vergegebenen Chiptakt geliefert wird (vermutlich Aldi & Co.). Die 10% waren eine reine Vermutung meinerseits.

Piffan
2002-11-27, 22:20:34
Vielleicht hast du da recht, was OEM angeht....in Komplettrechnern wird ja meist das billigster verwurstet....

Meine Prolink gabs bei Comtech für 189 €, habe sie allerdings schon viele Wochen und habe sie eigentlich nur wegen des Vivo geholt......

ice cool69
2002-11-28, 01:57:59
ich habs ja nicht so gemeint :D
hey jc war nurn späßchen ;)

aber mal ernsthaft, ich kanns nicht leiden wenn eine bestimmte marke bevorzugt wird. das schwächt den konkurrenzkampf :(

Unregistered
2002-11-28, 10:08:28
Warum eigentlich so´n Kopfzerbrechen? Bis D3 rauskommt sind sogar die R9k7 "nur" noch Mid-End. Finds lustig wenn leute schreiben sie holen sich JETZT ne 9k7 um irgendwann mal D3 zu zocken.........

ow
2002-11-28, 10:13:42
Originally posted by ice cool69
ich habs ja nicht so gemeint :D
hey jc war nurn späßchen ;)

aber mal ernsthaft, ich kanns nicht leiden wenn eine bestimmte marke bevorzugt wird. das schwächt den konkurrenzkampf :(


Und wenn die Entwickler eines nicht leiden koennen ist es mieser Hersteller-Support.
Also frage man sich, woran dass denn evtl. liegt, wenn mehr auf/fuer NV entwickelt wird.

ow
2002-11-28, 10:14:41
Originally posted by Unregistered
Warum eigentlich so´n Kopfzerbrechen? Bis D3 rauskommt sind sogar die R9k7 "nur" noch Mid-End. Finds lustig wenn leute schreiben sie holen sich JETZT ne 9k7 um irgendwann mal D3 zu zocken.........


*Zustimmung*

Endorphine
2002-11-28, 11:00:55
Leistung auf Vorrat zu kaufen ist bei Grafikkarten sowieso der grösste Geldrauswurf, den man sich nur denken kann. Nichts veraltet schneller, nichts verliert schneller an Wert als die aktuellen Top 3D-Spielebeschleuniger.

@9700/Pro-owner: nicht persönlich nehmen!

Begründet wird die Entscheidung dann meist mit FSAA-Leistung bei aktuellen Spielen. Irgendwie fallen mir da Parallelen auf zu den ganzen unnötigen CPU-Aufrüstungen bis hinein in den 3GHz-Bereich. Die werden eigenartigerweise auch erstaunlich oft mit "Video-Bearbeitung" begründet.

Mal ne ganz andere Frage: wieso wird eigentlich eine Kaufentscheidung überhaupt an einer Spekulation zur Leistungsanforderung EINES zukünftigen Spieles festgemacht? Mit Verlaub, sind denn wirklich alle scharf auf diesen "Splatter-Mist"? Oder geht es wie bei Hi-Fi Fetischisten, die nur noch Testschallplatten hören, einzig und allein um den Selbstzweck?

Vorher aufrüsten, um sich dann sicher zu sein, dass höchstwahrscheinlich ein einziges spezielles Spiel in der Finalversion mit der Hardware gut läuft? Irgendwie absurd in meinen Augen.

Piffan
2002-11-28, 13:02:11
Originally posted by Endorphine
Leistung auf Vorrat zu kaufen ist bei Grafikkarten sowieso der grösste Geldrauswurf, den man sich nur denken kann. Nichts veraltet schneller, nichts verliert schneller an Wert als die aktuellen Top 3D-Spielebeschleuniger.

@9700/Pro-owner: nicht persönlich nehmen!

Begründet wird die Entscheidung dann meist mit FSAA-Leistung bei aktuellen Spielen. Irgendwie fallen mir da Parallelen auf zu den ganzen unnötigen CPU-Aufrüstungen bis hinein in den 3GHz-Bereich. Die werden eigenartigerweise auch erstaunlich oft mit "Video-Bearbeitung" begründet.

Mal ne ganz andere Frage: wieso wird eigentlich eine Kaufentscheidung überhaupt an einer Spekulation zur Leistungsanforderung EINES zukünftigen Spieles festgemacht? Mit Verlaub, sind denn wirklich alle scharf auf diesen "Splatter-Mist"? Oder geht es wie bei Hi-Fi Fetischisten, die nur noch Testschallplatten hören, einzig und allein um den Selbstzweck?

Vorher aufrüsten, um sich dann sicher zu sein, dass höchstwahrscheinlich ein einziges spezielles Spiel in der Finalversion mit der Hardware gut läuft? Irgendwie absurd in meinen Augen.

So langsam schieße ich mich auf Dich ein, werter Endorphine!

Erstens: FSAA und AF sind DIE Bringer! Leider war es in der Vergangenheit nur ein Traum, die Hadware war zu schwach dafür. Einziger Lichtblick war die Voodoo5, aber leider war 3dfx schon zu fertig, um besseres Marketing zu betreiben... imho war der Untergang eh vermeidbar.

Zweitens: Gerade für Videoediting oder Capturing in feinster Qualität kann man nie genug Dampf haben, imho würde man sogar 10 GigaHertz noch locker nutzen können...Wenn ich mir meine Fernsehmitschnitte mit DivX ansehe und mit dem MPG2- Müll vergleiche, weiß ich genau, wofür ich einen starken Proz brauchen kann...

Drittens ist es falsch, seine eigenen Befürfnisse auf andere zu übertragen und zu sagen, alles was ich selbst nicht schätze, ist Selbstzweck...

Deine Polemik ist zwar kein Selbstzweck, aber doch recht schnell zu durchschauen. ;)

Wer jetzt und gleich die stärkste Hardware sucht, nimmt halt ne R300. Ich persönlich würde es allerdings nicht machen, weil ich der Kompatibilität absoluten Vorrang vor der Leistung einräume. Egal was die Ati- Fans sagen, faktisch wird NV besser berücksichtig bei den Spielemachern... Es ist halt der Lohn dafür, dass sich NV nie auf die faule Pelle legen konnte und von Anfang an erkannt hat, wie wichtig der Dialog mit den Spielemachern ist... Ati ist zu spät aufgewacht, um das Defizit bis heute auszugleiche.... Die Situation ist wohl erheblich besser als noch zu Zeiten der Radeon 7500, aber noch lange nicht gut.

Unregistered
2002-11-28, 13:07:59
Originally posted by Endorphine
Leistung auf Vorrat zu kaufen ist bei Grafikkarten sowieso der grösste Geldrauswurf, den man sich nur denken kann. Nichts veraltet schneller, nichts verliert schneller an Wert als die aktuellen Top 3D-Spielebeschleuniger.

@9700/Pro-owner: nicht persönlich nehmen!

Begründet wird die Entscheidung dann meist mit FSAA-Leistung bei aktuellen Spielen. Irgendwie fallen mir da Parallelen auf zu den ganzen unnötigen CPU-Aufrüstungen bis hinein in den 3GHz-Bereich. Die werden eigenartigerweise auch erstaunlich oft mit "Video-Bearbeitung" begründet.

Mal ne ganz andere Frage: wieso wird eigentlich eine Kaufentscheidung überhaupt an einer Spekulation zur Leistungsanforderung EINES zukünftigen Spieles festgemacht? Mit Verlaub, sind denn wirklich alle scharf auf diesen "Splatter-Mist"? Oder geht es wie bei Hi-Fi Fetischisten, die nur noch Testschallplatten hören, einzig und allein um den Selbstzweck?

Vorher aufrüsten, um sich dann sicher zu sein, dass höchstwahrscheinlich ein einziges spezielles Spiel in der Finalversion mit der Hardware gut läuft? Irgendwie absurd in meinen Augen.

Genau das war mein Punkt, ich kann mich immer noch entscheiden was ich mit kaufe wenn D3 draussen ist, wer weiss wo wir dann MHZ mäßig bei Prozessoren/Grakas stehen? Ich werde mir dann die benches ansehen und entscheiden. Und das mit dem Splatter-Mist ist auchn guter Punkt. Nehmen wir mal UT2k3, wow klasse Grafik--> denk man die erste Woche,danach hatt man sich dran gewöhnt und dann zählt (für mich) nur noch ob mich das Game von der spielerischen Seite motiviert halten kann. Genauso wirds mit D3 laufen,klasse grafik, schneller gewöhnungseffekt lohnt sich das noch was danach bleibt? besonders die kohle fürs aufrüsten? Auch mal hinter die Optik/Fassade sehen, innovatieves findet man leider viel zu selten.

Piffan
2002-11-28, 13:22:41
Originally posted by Unregistered


Genau das war mein Punkt, ich kann mich immer noch entscheiden was ich mit kaufe wenn D3 draussen ist, wer weiss wo wir dann MHZ mäßig bei Prozessoren/Grakas stehen? Ich werde mir dann die benches ansehen und entscheiden. Und das mit dem Splatter-Mist ist auchn guter Punkt. Nehmen wir mal UT2k3, wow klasse Grafik--> denk man die erste Woche,danach hatt man sich dran gewöhnt und dann zählt (für mich) nur noch ob mich das Game von der spielerischen Seite motiviert halten kann. Genauso wirds mit D3 laufen,klasse grafik, schneller gewöhnungseffekt lohnt sich das noch was danach bleibt? besonders die kohle fürs aufrüsten? Auch mal hinter die Optik/Fassade sehen, innovatieves findet man leider viel zu selten.

Bei Doom ist es nur ein Solomodus, also ein spielerisches Quickie! :D

Da muss ich auch sagen, dass ich den Kult um dieses Machwerk absolut beknackt finde. Imho wird es brilliant aussehen, aber die Hardware so fordern, dass wir eher wieder am Anfang der 3d- Spieleentwicklung ankommen ;)
Will damit sagen, dass wahrscheinlich erstmal nur kleine Bereiche/Räumlichkeiten mit annehmbarer Performance laufen...

Bei der UT- Engine hat man eine fließende Evolution: Die Welten werden immer größer, die Objekte detailierter.... Weil man noch die Beleuchtung "herkömmlich" macht, ist kein Performance-Knick wie bei Doom zu befürchten, der unsere Hardware schlagartig älter macht....

Ziemlich offtopic, aber es kam mir gerade so :D

Unregistered
2002-11-28, 14:11:02
kein problem, lass kommen ;)

aths
2002-11-28, 14:23:19
Originally posted by Piffan
Egal was die Ati- Fans sagen, faktisch wird NV besser berücksichtig bei den Spielemachern...Also die Radeon9000 die ich zum Spaß gerade drin habe, ist bislang nicht mehr oder weniger kompatibel als die GeForce4.

Andre
2002-11-28, 14:33:38
Originally posted by aths
Also die Radeon9000 die ich zum Spaß gerade drin habe, ist bislang nicht mehr oder weniger kompatibel als die GeForce4.

Zwischen kompatibel und schnell-kompatibel ist aber ein Unterschied :)

Endorphine
2002-11-28, 15:10:03
Originally posted by Andre


Zwischen kompatibel und schnell-kompatibel ist aber ein Unterschied :)

Die Frage ist jetzt, wie konstant die Radeon 9500 Pro ihre Leistung in der Praxis ausspielen kann. Oder ob wir uns wieder an einem Bugfixgewitter bei jedem neuen Spiel erfreuen dürfen. Auch wäre es mal interessant, wo die Leistung durch den neuen Treiber herkommt. Normalerweise wird das ja sehr oft mit schlechterer Bildqualität erkauft... Die Zeit wird es zeigen :)

Zum Glück habe ich für die Entscheidung 9500 Pro vs. 9700 ohne Pro vs. GF4 Ti4600/Ti4800 noch etwas Zeit :)

Eusti
2002-11-28, 16:03:14
Originally posted by Piffan
Da muss ich auch sagen, dass ich den Kult um dieses Machwerk absolut beknackt finde.Immer noch besser wie der Rummel um den 3DMark. Doom wird zumindest eine Grafikdemo, in der man auch mitspielen darf (wenn man es denn technisch kann).

Wuzel
2002-11-28, 17:09:15
Originally posted by Eusti
Immer noch besser wie der Rummel um den 3DMark. Doom wird zumindest eine Grafikdemo, in der man auch mitspielen darf (wenn man es denn technisch kann).

;D ;D

Dunkeltier
2002-11-28, 17:50:29
Originally posted by Endorphine
Leistung auf Vorrat zu kaufen ist bei Grafikkarten sowieso der grösste Geldrauswurf, den man sich nur denken kann. Nichts veraltet schneller, nichts verliert schneller an Wert als die aktuellen Top 3D-Spielebeschleuniger.

@9700/Pro-owner: nicht persönlich nehmen!

Begründet wird die Entscheidung dann meist mit FSAA-Leistung bei aktuellen Spielen. Irgendwie fallen mir da Parallelen auf zu den ganzen unnötigen CPU-Aufrüstungen bis hinein in den 3GHz-Bereich. Die werden eigenartigerweise auch erstaunlich oft mit "Video-Bearbeitung" begründet.

Mal ne ganz andere Frage: wieso wird eigentlich eine Kaufentscheidung überhaupt an einer Spekulation zur Leistungsanforderung EINES zukünftigen Spieles festgemacht? Mit Verlaub, sind denn wirklich alle scharf auf diesen "Splatter-Mist"? Oder geht es wie bei Hi-Fi Fetischisten, die nur noch Testschallplatten hören, einzig und allein um den Selbstzweck?

Vorher aufrüsten, um sich dann sicher zu sein, dass höchstwahrscheinlich ein einziges spezielles Spiel in der Finalversion mit der Hardware gut läuft? Irgendwie absurd in meinen Augen.

Der Kauf meiner Radeon basiert weder auf Doom III noch auf DX9, nein...ich will nur all meine 320 Spiele mit maximalen Eye Candy™ spielen. Nicht morgen oder in 5 Monaten, sofort. Die Geforce 4 generation war mir noch zu langsam, habe sie deshalb ausgelassen.

ice cool69
2002-11-28, 18:29:08
@ piffan

du und ow könnt ja nen club gründen:"ich red am liebsten über dinge die ich keine ahnung habe-club" wäre doch ein geiler clubname.

ich will ja nicht behaupten dass ich mich in sachen treiber, kompatibilität und bugs perfekt auskenne, aber ich weiß dass ihr keine neuen ati-karten ab r8500 besitzt und euch immer herzlich drüber auslasst und sowas ist wirklich nur blablabla...

Piffan
2002-11-28, 21:24:24
Originally posted by ice cool69
@ piffan

du und ow könnt ja nen club gründen:"ich red am liebsten über dinge die ich keine ahnung habe-club" wäre doch ein geiler clubname.

ich will ja nicht behaupten dass ich mich in sachen treiber, kompatibilität und bugs perfekt auskenne, aber ich weiß dass ihr keine neuen ati-karten ab r8500 besitzt und euch immer herzlich drüber auslasst und sowas ist wirklich nur blablabla...


Alter Schwerde! Es ist einfach so, dass es mit Ati- karten schon immer irgendwelche Probs/DArstellungsfehler gab und auch noch gibt. Hier auf den Seiten muß man nur lesen, da braucht man die Karten nicht für kaufen!
Nenne mir bitte ein Spiel, wo Nv- karten Mucken bereiten!

zeckensack
2002-11-28, 22:28:18
@ice cool69

wäre schön wenn du etwas an deinem Ton arbeiten könntest. Das war ja wohl nicht wirklich notwendig, oder?

Lightning
2002-11-28, 22:35:08
Originally posted by Piffan

Nenne mir bitte ein Spiel, wo Nv- karten Mucken bereiten!

War da nicht irgendwas mit Diablo II? Achja, in LotR gibts angeblich auch Fehler...
Ansonsten ist es natürlich klar das es mit NV Karten insgesamt weniger Probleme gibt (nicht keine!), und zwar aus nicht nur einem Grund.

Birdman
2002-11-28, 22:51:57
Originally posted by zeckensack
@ice cool69
wäre schön wenn du etwas an deinem Ton arbeiten könntest. Das war ja wohl nicht wirklich notwendig, oder?
ab liebsten wäre mir C - Dur :D

Unregistered
2002-11-28, 22:55:57
Originally posted by Piffan



Alter Schwerde! Es ist einfach so, dass es mit Ati- karten schon immer irgendwelche Probs/DArstellungsfehler gab und auch noch gibt. Hier auf den Seiten muß man nur lesen, da braucht man die Karten nicht für kaufen!
Nenne mir bitte ein Spiel, wo Nv- karten Mucken bereiten!

Schau einfach mal ins Nv-Forum

z.B. hier
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=42242

zeckensack
2002-11-28, 22:59:58
Originally posted by Birdman

ab liebsten wäre mir C - Dur :D Sehr witzig :|

Ich spreche von der Arbeit am Ton (http://www.corbino.ch/Topfern/topfern.html) :P

StefanV
2002-11-28, 23:00:53
Originally posted by Lightning


War da nicht irgendwas mit Diablo II? Achja, in LotR gibts angeblich auch Fehler...
Ansonsten ist es natürlich klar das es mit NV Karten insgesamt weniger Probleme gibt (nicht keine!), und zwar aus nicht nur einem Grund.

Ein Spiel??

Gut:

Final Fantasy 7!!
Läuft ohne Patch erst garnicht (naja, tuts bei vielen Karten nicht)

Allerdings gibts da auch mit Patch noch ein 'hübsches' Tile Muster.

Und Final Fantasy 8, such mal im NV FOrum, lief bei mir auf der GF1 DDR NUR mit den 6.31 Treibern.

Also die NV Treiber sind alles andere als Perfekt (aber jetzt wirds sicher auf die extrem Voodoo Optimierte FF Engine geschoben)...

Achja, Midtown Madness war auch noch so ein Kandidat, der nicht wirklich gut auf NV Hardware läuft, warum auch immer...

zeckensack
2002-11-28, 23:03:07
Die FF-Engine ist der letzte Käse, und funktioniert ohne Patch sowieso nur auf Voodoo-Karten :|

(und Matrox G200 AFAIK)

;)

StefanV
2002-11-28, 23:04:20
Originally posted by zeckensack
Die FF-Engine ist der letzte Käse, und funktioniert ohne Patch sowieso nur auf Voodoo-Karten :|

(und Matrox G200 AFAIK)

;)

...und G400 :P
Bei ATI hab ichs leider nie versucht :bawling:

Hab aber auch nur noch eine Rage PRO...

Lightning
2002-11-28, 23:06:26
Originally posted by Stefan Payne


Ein Spiel??

Gut:

Final Fantasy 7!!
Läuft ohne Patch erst garnicht (naja, tuts bei vielen Karten nicht)

Allerdings gibts da auch mit Patch noch ein 'hübsches' Tile Muster.

Und Final Fantasy 8, such mal im NV FOrum, lief bei mir auf der GF1 DDR NUR mit den 6.31 Treibern.

Also die NV Treiber sind alles andere als Perfekt (aber jetzt wirds sicher auf die extrem Voodoo Optimierte FF Engine geschoben)...

Achja, Midtown Madness war auch noch so ein Kandidat, der nicht wirklich gut auf NV Hardware läuft, warum auch immer...

Ich hab letztin mal zum Spaß die FF8 Demo probiert (hab das Spiel nur für PS, wollte sehn wies auf PC aussieht). Es lief problemlos.

Birdman
2002-11-28, 23:15:16
Originally posted by zeckensack
Sehr witzig :|

Ich spreche von der Arbeit am Ton (http://www.corbino.ch/Topfern/topfern.html) :P
ach soo....weil zuerst dachte ich dass du diesen meinst http://www.lidomarkt.ch/shop/de-ch/dept_272.html , dann fiel mir aber ein dass du normalerweise ja keine Schreibfehler machst... :bäh:

Piffan
2002-11-28, 23:32:15
Originally posted by Unregistered


Schau einfach mal ins Nv-Forum

z.B. hier
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=42242

Das ist alles irrelevant, weils da nicht um konkrete Spiele geht, die mit NV nicht können, sondern um den letzten, nicht offiziellen Deto... Falls es interessiert: Ich nutze meine detos recht konservativ, wechsle nie ohne Not. Mit dem 30er- Deto gibts bei mir null Stress!

Besonders viele Spiele sind übrigens nicht zusammengekommen, bei denen eine NV zickt!

Die meisten wechseln ihre Detos übrigens nicht, weil sie unzufrieden mit der Funktion sind, sondern weil sie sich mehr Leistungs erhoffen... Ich bin überzeugt, dass niemand über Probs in Spielen klagen würde, wenn er immer noch die Treiber nutzen würde, die mit der Karte mitgeliefert werden....

Ich sage ja nicht, dass die NV- Treiber pures Gold sind. Aber weil die Entwickler nun mal NV als Referenz nehmen aufgrund der Verbreitung und der guten Unterstützung von NV, ist die Chance für Sorgenfreiheit für den Spieler höher....

Piffan
2002-11-28, 23:33:17
Originally posted by Birdman

ach soo....weil zuerst dachte ich dass du diesen meinst http://www.lidomarkt.ch/shop/de-ch/dept_272.html , dann fiel mir aber ein dass du normalerweise ja keine Schreibfehler machst... :bäh:

Ihr seid wohl eifrige Google- Nutzer? Oder wie findet man passende Links so auf die Schnelle? ;)

ice cool69
2002-11-29, 00:21:15
einfach nur gscheiter als du :D

Mr. Lolman
2002-11-29, 03:16:23
Also GTAIII sah doch auch ziemlich versaut aus, als es ein Freund von mir das erste mal mit einer Nvidia Karte startete.. ;)

...gut, auf Voodookarten liefs lange Zeit überhaupt nicht,und mit ATi ruckelte es, aber man sieht, dass es um diese vielbeschworene hohe Spielekompatibilität mit Nvidiakarten auch nichjt weit her ist .


Warum ich mir eine Radeon 9700pro demnächst zulegen werde.

1. Ich bekomme sie recht günstig, da aus den USA und ichn die alte gleich weiterverkaufe.

2. Sie ist im Moment die absolut schnellste.

3. DOOMIII läuft einfach nur endgeil damit.

4. Geforce FX wird nur 30-40% schneller sein, und um zumindest knapp 30% hat so mancher seine R300 schon übertaktet.

5. Nvidia Promotion Benchmarks müssen nicht unbedingt stimmen. (Da war doch eine gewisse Geforce 3 bis zu 7x schneller als die 2er)

6. Geforce FX kommt erst relativ spät...

7. ...und ist dann auch noch ziemlich teuer.

8. Klaut nvidia Patente, und kauft mit dem daraus erlangtem Gewinn gleich den Pionier der 3d Beschleunigung.

9. Kann ich mit nvidias agressivem Marketing nicht viel anfangen.


_______________________

Nicht übel nehmen, aber im Moment hasse ich nvidia wieder ganz gewaltig... :madman:

...ist aber bis morgen wahrscheinlich wieder größtenteils vorbei ;)

Crushinator
2002-11-29, 03:16:26
Originally posted by Piffan
Ich sage ja nicht, dass die NV- Treiber pures Gold sind. Aber weil die Entwickler nun mal NV als Referenz nehmen aufgrund der Verbreitung und der guten Unterstützung von NV, ist die Chance für Sorgenfreiheit für den Spieler höher....
Mein reden. Das hat aber auch zwangsläufig den Nachteil, daß
alle Nicht-nVidia-Karten dabei zu kurz kommen. Denn nicht alle
GPUs arbeiten gleich. Ich finde, daß sich beide Seiten annäheren
sollten: Sowohl die Game-Entwickler als auch die Grafik-
kartenhersteller (in diesem Falle ATI) sollten sich bei der
Entwicklung mehr Mühe geben.

Crushinator
2002-11-29, 03:28:43
Originally posted by Mr. Lolman
...
8. Klaut nvidia Patente, und kauft mit dem daraus erlangtem Gewinn gleich den Pionier der 3d Beschleunigung.
...

Ich hatte zwar nie eine Voodoo und war auch nicht mit den 2D-
Qualitäten der Voodoos glücklich, aber eins muß ich wirklich
sagen: Ich war zu tiefst traurig, daß es sie auf einmal nicht
mehr gab. Ich finde nämlich, daß der Markt damals die Konkurrenz
seitens 3dfx wunderbar gebrauchen konnte, so wie übrigens jetzt.

Ich kann nur hoffen, daß Matrox es wenigstens überlebt und den
Anderen bald mal wieder kräftig einheizt.

In diesem Sinne und ab ins Bett ;-)

Eusti
2002-11-29, 09:35:22
Originally posted by Mr. Lolman
4. Geforce FX wird nur 30-40% schneller sein, und um zumindest knapp 30% hat so mancher seine R300 schon übertaktet.Auf dieses Argument reagiere ich immer wieder allergisch. Man kann auch die Vergleichskarte Übrtakten. Wenn du eine 9700 von 300 auf 400 MHZ übertakten kannst, dann ist die Wahrscheinlichkeit genau so groß, eine GFFX von 500 auf 650 MHZ zu übertakten. Die Hersteller haben bisher immer Luft nach oben gelassen, um die Karten auch in heißen Innengehäußen, bei schlechten Chips ohne Fehler laufen zu lassen.

skampi
2002-11-29, 10:19:51
Originally posted by Eusti
Auf dieses Argument reagiere ich immer wieder allergisch. Man kann auch die Vergleichskarte Übrtakten. Wenn du eine 9700 von 300 auf 400 MHZ übertakten kannst, dann ist die Wahrscheinlichkeit genau so groß, eine GFFX von 500 auf 650 MHZ zu übertakten. Die Hersteller haben bisher immer Luft nach oben gelassen, um die Karten auch in heißen Innengehäußen, bei schlechten Chips ohne Fehler laufen zu lassen.


Immer? So wie bei der Ti4600, der Ti500 oder GF2Ultra bzw. R8500/R100? Bei denen war allesamt nicht viel mit übertakten.

Quasar
2002-11-29, 10:32:26
Doch, bei manchen schon. Bei manchen eben auch nicht, deswegen ist es ja so unsinnig, von zwei oder drei Erfolgsmeldungen von wahnsinnig hohen OCs auf die Gesamtheit der Chips zu schliessen.
Ein Freund von mir hat eine GF3 (mit ein wenig extra-Kühlung, nur Luftk., und ohne vMod) auf 275MHz zum Laufen bekommen. Ich hatte mal eine R8500LE, die problemlos 300MHz Core-Takt mitmachte, stock-cooling.
Wie gesagt, Einzelfälle =! Gesamtproduktion!

nggalai
2002-11-29, 10:47:40
Originally posted by Quasar
Doch, bei manchen schon. Bei manchen eben auch nicht, deswegen ist es ja so unsinnig, von zwei oder drei Erfolgsmeldungen von wahnsinnig hohen OCs auf die Gesamtheit der Chips zu schliessen.
Ein Freund von mir hat eine GF3 (mit ein wenig extra-Kühlung, nur Luftk., und ohne vMod) auf 275MHz zum Laufen bekommen. Ich hatte mal eine R8500LE, die problemlos 300MHz Core-Takt mitmachte, stock-cooling.
Wie gesagt, Einzelfälle =! Gesamtproduktion! Genau. Meine alte GF3 lief auch problemlos auf 250MHz core Takt, sogar ohne Extra-Kühlung. Einfach nicht zu lange. ;D Aber 240MHz liefen stabil.

Und die GFFX scheint sich zumindest selektiv auch übertakten zu lassen--jedenfalls spricht (aus zweiter Hand) Ben6 von 550MHz Testsamples (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=42512) ;) .

ta,
.rb

Mrs. Lolman
2002-11-29, 13:08:03
Mr. Lolman writes:

Ja aber ich bin der Meinung, dass bei ATi einfach mehr Potential nach oben vorhanden ist. Nvidia wird wohl kaum so eine starke Kühlung benötigen, um damit ein hohes Übertaktungspotential zu garantieren.
Das Ding dürfte einfach ziemlich heiss werden, und von wegen 550 MHz Testsamples, das sind 10% mehr Taktung. 10% schaffte bis jetzt noch jede meiner Grafikkarten. Das ist IMHO einfach ein Spielraum der freigelassen wird, um einen absolut sicheren Betrieb bei den Grakas zu garantieren.

Mir ist klar dass ich bei vielen Leuten als FanATIker dastehe, aber es müssen auch NV Fans, zugeben, dass der NV30 Launch, in Anbetracht der zu erwartenden Leistung, des Preises und der Verfügbarkeit eher enttäuschend war? oder??

x-dragon
2002-11-29, 13:23:19
Originally posted by Mrs Lolman
...

Mir ist klar dass ich bei vielen Leuten als FanATIker dastehe, aber es müssen auch NV Fans, zugeben, dass der NV30 Launch, in Anbetracht der zu erwartenden Leistung, des Preises und der Verfügbarkeit eher enttäuschend war? oder?? Warum denn diese Vorverurteilung bei der Leistung? Bisher hat noch keiner eine echte fertige GeforceFX in der Hand gehalten, geschweige denn vernünftig mit nachvollziebaren Benchmarks getestet. Denn Doom3(Alpha-Version) oder Quake mit 2048er-Auflösung kann man ja nicht wirklich als sinnvolle Benchmarks bezeichnen. Bei dem Rest muss ich natürlich zustimmen, da hat man auf jeden Fall mehr von Nvidia erwartet.

Meine Grafikkarten waren bisher von S3, 3Dfx und aktuell hab ich eine Geforce2MX im Rechner und demnächst wahrscheinlich eine Radeon9xxx. Bin also für alles offen, je nachdem welche mir das beste Preis-Leistungsverhältnis bietet(und gerade für mich bezahlbar ist) :).

nggalai
2002-11-29, 13:26:55
@all,

Spekus zum GFFX / Hochtakt gehen hier weiter:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=42512

ta,
-Sascha.rb

Pussycat
2002-11-29, 20:33:08
Originally posted by Piffan
Nenne mir bitte ein Spiel, wo Nv- karten Mucken bereiten!




Besonders viele Spiele sind übrigens nicht zusammengekommen, bei denen eine NV zickt!


Aber doch deutlich mehr als das eine von dir geforderte, oder?

McEric
2002-12-01, 19:00:16
Meiner Meinung sollte man erst mal abwarten bis d3 raus ist. dann wird man ja sehen, mit welchen karten das game gut und schlecht läuft.
ich glaube dass es nur taktik ist, nvidia im moment bei dem spiel besser dastehen zu lassen. am ende wird es trotzdem auf den meisten gut laufen, da bin ich mir sicher.
und mit meiner r9000pro wirds auch laufen.. :)

cu eric

morfeus
2002-12-01, 19:27:10
Habe Doom III mit Fraps die Leisung meines PC getestet.
Obwohl es die 0.2 Version ist glaube ich dass es ein Richtungsweiser ist. Die Auflösung geht von 480-640 zu 1024-768. Die Hartwareanforderungen beim Endspiel werden wahrscheinlich zugunsten von schwächeren Systemen ausfallen jedoch mit der Qualität der Einstellungen ( AA+AS aufl. bis 1600-1200 ) vergleichbar mit der jeztiger Demo sein. 2.2 Ghz mit ATi 9700 Pro im Intro 1024-768 30fps.
Kollegen von mir mit Ti4600 1Ghz unter 20fps.
Doom III wird für die nächsten 3 Jahre massgebend für Spiele sein.
(zB. Quake III Engine ist Jahrelang für andere Spiele benützt worden)

ice cool69
2002-12-02, 16:34:02
aber das wird die unreal2-engine auch sein welche in meinen augen auch fantastische resultate bringt (siehe splinter cell,unreal2).

ich habe vor mir ne radeon9700(ohne pro) zu holen und wann die karte bei allen details nicht für 1024x768 reicht bin ich von der engine enttäuscht (gegen ein bischen AA und AF hätt ich auch nichts :D) denn so genial siehts auch nicht aus dass das teil dermaßen viel power verschlingen "darf".

mapel110
2002-12-16, 19:29:07
Originally posted by ice cool69
denn so genial siehts auch nicht aus dass das teil dermaßen viel power verschlingen "darf".

doch :P

[LOG]Skar
2002-12-18, 00:29:26
Doom3 macht endlich den schritt zu Fotorealistischen Grafik!
Echte Schatten und jedes Poly ist gleichberechtigt, da freut sich
die Demokratie;-) Und genau das ist es was die Engine auszeichnet.
Außerdem soll sie ja super interaktionsmöglichkeiten bieten. Bis
hin zur kompletten zerstörung des Levels, wenn es die HW mitmacht.

UT2k3 sieht gut aus keine Frage, aber eben wie ein Game oder Comic.
Selbst in High Detail ist es irgendwie immer quitsche bunt. Die Engine
mag schneller sein und mehr Polys zeigen ist aber nicht innovativ.
Mal abgesehen davon frage ich mich wie ein Bot der 100Mhz frißt so doof sein kann? (ICh hoffe mal sie sind für Unreal2 und können noch mehr) Ich meine man kann ihre wege eigentlich nach 10min zoggen
voraussagen.

Endorphine
2002-12-18, 09:57:48
Originally posted by [LOG]Skar
Doom3 macht endlich den schritt zu Fotorealistischen Grafik!
Echte Schatten und jedes Poly ist gleichberechtigt, da freut sich
die Demokratie;-) Und genau das ist es was die Engine auszeichnet.
Außerdem soll sie ja super interaktionsmöglichkeiten bieten. Bis
hin zur kompletten zerstörung des Levels, wenn es die HW mitmacht.

UT2k3 sieht gut aus keine Frage, aber eben wie ein Game oder Comic.
Selbst in High Detail ist es irgendwie immer quitsche bunt. Die Engine
mag schneller sein und mehr Polys zeigen ist aber nicht innovativ.
Mal abgesehen davon frage ich mich wie ein Bot der 100Mhz frißt so doof sein kann? (ICh hoffe mal sie sind für Unreal2 und können noch mehr) Ich meine man kann ihre wege eigentlich nach 10min zoggen
voraussagen.

UT2003 wollte gar nicht jetzt schon den nächsten Hardwareschritt gehen. Das war überhaupt nicht das Ziel des Spiels. Du siehst ja (oder auch nicht), wie klein die Maps in Doom3 sind, wie wenig Möglichkeiten die Leveldesigner scheinbar haben, die Grafikpracht in Level umzusetzen.

Probier' doch mal, mit der Doom3 Engine ein auf einer durchschnittlichen GF4Ti lauffähiges Level von der Grösse und Komplexität von CTF_Face3 (aus UT2k3) zu erstellen. Und dann soll das ganze bitte mit mehr als 1,2 fps laufen und eben D3-Effekte nutzen.

UT2k3 geht derzeit noch den anderen Weg, es holt aus der "Quake3"-Generation der Egoshooter-Engines das maximale heraus und bietet dafür fantastische nie dagewesene Spielerlebnisse wie Bombing Run auf den Hochhausspitzen.

In Doom3 wirst du nicht viel mehr erleben als ein paar dunkle Gänge und Toilettenräume und wackelnde hardwarebeschleunigte Lampen. Dafür ist es eben schon der nächsten Generation zugehörig.

Bitte nicht Äpfel mit Birnen vergleichen.

Eusti
2002-12-18, 11:23:46
Originally posted by Endorphine
UT2003 wollte gar nicht jetzt schon den nächsten Hardwareschritt gehen. Das war überhaupt nicht das Ziel des Spiels. Du siehst ja, wie klein die Maps in Doom3 sind, wie wenig Möglichkeiten die Leveldesigner scheinbar haben, die Grafikpracht in Level umzusetzen.Wo kann man sich denn die Größe der Levels bei Doom3 ansehen? Ich hab bisher nur die Technologiedemo mit der Versionsbezeichnung 0.02 gesehen.

Das was ich aber bereits in der Version 0.02 gesehen habe (die Alpha kommt glaub ich noch von Beginn des Jahres), war extrem cool. Die Engine war von der Qualität her allem überlegen, was ich bisher gesehen habe.

Ich hatte das ganze bei mir nur in 1024x768 mit 5fps am laufen. Aber wenn man danach z.B. Mafia wieder anschmeisst, ist man verdutzt, wie Scheisse Mafia doch eigendlich aussieht. Wenn die die Grafik von Doom in 1280x1024 mit 4xAA 16XAF und mit 80-90fps läuft, wird das Mega-Genial aussehen.

Das diese Engine auf der aktuellen Grafikkarten-Generation (R300, GFFX) nicht mehr vernünftig läuft, ist klar. Aber das ist auch überhaupt kein Problem. Schon Ende 2003 werden diese beiden Grafikkatzen Low-Cost sein und neue, erheblich bessere Modelle den Markt bestimmen. Auf diesen Karten wird U2 dann wie ein schlechter Scvherz wirken (verglichen mit Doom3).

Aber wie du bereits richtig erwähntest, ist der Vergleich unfair. Gegeneinander vergleichen darf man eigendlich nur Engines, welche die gleiche Hardware benötigen.

ow
2002-12-18, 11:26:51
Originally posted by Eusti
Gegeneinander vergleichen darf man eigendlich nur Engines, welche die gleiche Hardware benötigen.

??
Wo ist da das Problem?
D3 0.02 läuft derzeit auf meiner Gf2MX und die stellt sicherlich alles dar, was D3 darstellen kann. Allzu performant ist es allerdings nicht;)

Eusti
2002-12-18, 11:37:29
Originally posted by ow
Wo ist da das Problem? D3 0.02 läuft derzeit auf meiner Gf2MX und die stellt sicherlich alles dar, was D3 darstellen kann. Allzu performant ist es allerdings nicht;) Da hab ich mich falsch ausgedrückt. Ich meine, man soll Engines vergleichen, die auf gleicher (und aktueller -> nicht GF2MX) Hardware, die gleichen fps liefern.

Die Engine, die dann besser aussieht, würde ich als die bessere/effektivere deklarieren.

Unregistered
2002-12-18, 12:49:58
Originally posted by Piffan



Alter Schwerde! Es ist einfach so, dass es mit Ati- karten schon immer irgendwelche Probs/DArstellungsfehler gab und auch noch gibt. Hier auf den Seiten muß man nur lesen, da braucht man die Karten nicht für kaufen!
Nenne mir bitte ein Spiel, wo Nv- karten Mucken bereiten!

Mercedes Benz Truck Racing

[LOG]Skar
2002-12-18, 14:14:54
weiß nicht ob nur an mir lag aber comanche 4 wurde auf meiner GF2MX
mit der zeit immer Violetter
bei Descent 3 hatte ich auch meine probs das kann aber das Game sein

Doch mal zu den Engines:
Darüber geht ja auich der Thread.
Zur perfomce der Engine kann man wohl recht wenig sagen! Die Pre Alpha
sollte man mal außen vor lassen. Gehen wir doch einfach von den
Aussagen aus. Da meinte JC es wird auf der HArdware, welche es zum
erscheinen gibt laufen. Ich gehe einfach mal davon aus das es Stimmt,
wenn auch vielleicht nur in 800*600 wobei ich auch das beszweifele.
Und was die Engine mit der HW leistet ist krass, geht man von den Videos aus.
Mit den Außenlandschaften wirst du recht haben, es sei denn draußen
wird halt an den effekten runter geschraubt.
Mein einziger Kritikpunkt ist an der UT2k- Engine ja auch nur der
Comic-Look. Die Performance ist genial, besser als UT.
Ich denke nicht dass ich Äpfel mit Birnen Vergleiche. Ich habe 2 Game
Engines verglichen, die einzige Sache ist eben: Die eine gibts, die
andere ist (nahe) Zukunft. Das gebe ich zu ist schon nicht ganz fair.
Aber dass ich eine Engine nach Zielsetzung sortieren muss...
Ich denke man kann Effekte und PErformance gut vergleichen.
naja da kann man sich aber eh tot diskutieren
also greets Endorphine
und denn rest auch

Dunkeltier
2002-12-18, 16:34:26
Originally posted by Piffan



Alter Schwerde! Es ist einfach so, dass es mit Ati- karten schon immer irgendwelche Probs/DArstellungsfehler gab und auch noch gibt. Hier auf den Seiten muß man nur lesen, da braucht man die Karten nicht für kaufen!
Nenne mir bitte ein Spiel, wo Nv- karten Mucken bereiten!


Midtown Madness. Und noch das ein oder andere ältere Schätzchen. IMHO ist NVidia weder besser noch schlechter als Ati, und letztlich technologisch am hinterhinken (Speed- & Featuremäßig).

Eusti
2002-12-18, 17:00:15
Originally posted by Dunkeltier
Midtown Madness. Und noch das ein oder andere ältere Schätzchen. IMHO ist NVidia weder besser noch schlechter als Ati, und letztlich technologisch am hinterhinken (Speed- & Featuremäßig). Technologisch hinkt NVidia hinterher, das kann man als Tatsache ansehen. Aber wer glaubt ATI könnte mit den Treibern bei NVidia mithalten, der glaubt wahrscheinlich auch noch an den Weihnachtsmann (passt irgendwie zur Zeit).

ow
2002-12-18, 17:07:05
???

Wo hängt denn NV technologisch hinterher?

Wer hat denn die Entwicklung im Graka-Sektor in den letzten Jahren vorangetrieben?

StefanV
2002-12-18, 17:31:00
Originally posted by ow
???

Wo hängt denn NV technologisch hinterher?

Wer hat denn die Entwicklung im Graka-Sektor in den letzten Jahren vorangetrieben?

1. also eine R200 ist Technologisch fortschrittlicher als eine GF4...
ATI hat mit der R300 fast ein halbes Jahr vorsprung vorm NV30...

2. ATI und PowerVR, NV war in den letzten Jahren eher 'ne Bremse...
Und auch 3DFX hat im letzten Atemzug eine sehr wichtige Innovation gebracht (FSAA)...

Unregistered
2002-12-18, 17:32:30
und ihr glaubt allen ernstes das die GeforceFX treiber jetzt so gut werden wie es die aktuellen treiber für die GF2/3/4 sind? denke mal da werden jetzt auch erstmal nen paar monate ins land gehen. Von daher dürfte ATI jetzt sogar den Vorteil der ausgereifteren trieber haben(für 9k7usw).

Eusti
2002-12-18, 17:33:45
Originally posted by ow
???

Wo hängt denn NV technologisch hinterher?

Wer hat denn die Entwicklung im Graka-Sektor in den letzten Jahren vorangetrieben? 1) Im Bereich von DX9 featuremäßig. In allen anderen Bereichen Performancemäßig (R300 ist zu kaufen).
2) NVidia hat die Entwicklung ganz maßgeblich vorangetrieben. Das hat aber auf die heuteige Performance keinen Einfluss. Das ist Vergangenheit.

StefanV
2002-12-18, 17:34:21
Originally posted by Eusti
Technologisch hinkt NVidia hinterher, das kann man als Tatsache ansehen. Aber wer glaubt ATI könnte mit den Treibern bei NVidia mithalten, der glaubt wahrscheinlich auch noch an den Weihnachtsmann (passt irgendwie zur Zeit).

1. gut, da stimm ich dir zu, daß NV hinterherhinkt...

2. Um welchen Teil des Treibers gehts denn?
Der 3D Teil??
Gut, da magst du eventuell recht haben, das liegt aber hauptsächlich daran, daß die Entwickler auf NV Hardware testen und zusehen, daß es auf NV läuft...

Den 2D Teil??

Mitnichten!
Da hinkt NV 'Jahrzehnte' hinter ATI und vorallendingen Matrox hinterher...

StefanV
2002-12-18, 17:35:14
Originally posted by Unregistered
und ihr glaubt allen ernstes das die GeforceFX treiber jetzt so gut werden wie es die aktuellen treiber für die GF2/3/4 sind? denke mal da werden jetzt auch erstmal nen paar monate ins land gehen. Von daher dürfte ATI jetzt sogar den Vorteil der ausgereifteren trieber haben(für 9k7usw).

Ganz genau so sehe ich das auch...

Alle kochen nur mit Wasser...

ow
2002-12-18, 17:47:58
Originally posted by Stefan Payne


1. also eine R200 ist Technologisch fortschrittlicher als eine GF4...
ATI hat mit der R300 fast ein halbes Jahr vorsprung vorm NV30...

2. ATI und PowerVR, NV war in den letzten Jahren eher 'ne Bremse...
Und auch 3DFX hat im letzten Atemzug eine sehr wichtige Innovation gebracht (FSAA)...

1. Ein R200 ist ja auch ein halbes Jahr jünger als die GF4-Technik.

Dass NV Probleme mit dem 0.13 Prozess hat ist ja wohl kein Problem technischen Rückstandes. Ganz im Gegenteil: Der NV30 ist fortschrittlicher, WEIL in 0.13!

2: :lol::lol::lol:

ow
2002-12-18, 17:50:08
Originally posted by Unregistered
und ihr glaubt allen ernstes das die GeforceFX treiber jetzt so gut werden wie es die aktuellen treiber für die GF2/3/4 sind?


Davon gehe ich aus. Genug Reifezeit hatten die Treiber ja.

[SIZE=1]
denke mal da werden jetzt auch erstmal nen paar monate ins land gehen. Von daher dürfte ATI jetzt sogar den Vorteil der ausgereifteren trieber haben(für 9k7usw).

Im Leben nicht:D
Ausgereifte Treiber von ATi will ich erst mal sehen.

ow
2002-12-18, 17:52:02
Originally posted by Eusti
1) Im Bereich von DX9 featuremäßig. In allen anderen Bereichen Performancemäßig (R300 ist zu kaufen).
2) NVidia hat die Entwicklung ganz maßgeblich vorangetrieben. Das hat aber auf die heuteige Performance keinen Einfluss. Das ist Vergangenheit.

1. ?? Die Features des NV30 gehen doch weit über die des R300 hinaus.
Und Performance ist nicht mit Technologie gleichzusetzen.

Unregistered
2002-12-18, 18:20:35
kam der r200 nicht ein halbes jahr nach der Geforce 3?aber noch vor
der Geforce 4?
Ich glaube das man den 0.13 Mikron Prozess nicht Nvidia zu gut halten
kann. Das ist wohl eher dem TMC(oder so änlich) Werk zuzuschreiben.
Da ist es eher bewundernswert, dass der R300 auch mit 400Mhz läuft.
Zwar in ausnahmefällen, aber das spricht für die Architektur!
Mal ganz abgesehen davon habe ich mich jetzt ein Jhr damit gequählt
das TvTool nutzen zu müssen (vom Geld mal abgesehen). Bei ATI muss
ich zwar in der Registry fummeln aber mehr nett. Jetzt schmeisst er
jedes Overlay gleich auf TV genial!
Sonst haben die Treiber zwar macken aber zur Zeit läuft alles bei mir
bis auf Nfs6 und comanche 4 die stottern ein bissle.

aber ich bin happy mit dem Treiber Support wie er jetzt ist.

StefanV
2002-12-18, 20:36:25
Originally posted by Unregistered
kam der r200 nicht ein halbes jahr nach der Geforce 3?aber noch vor
der Geforce 4?

Jep, genau so wars...

Die 8500 kam vor der GF4 auf den Markt aber nach der GF3...

Letztes Jahr um diese Zeit gabs schon R8500 Karten, nicht aber GF4 Karten, die kamen erst im Frühling dieses Jahres...

Eusti
2002-12-18, 23:41:20
Originally posted by ow
1. ?? Die Features des NV30 gehen doch weit über die des R300 hinaus.
Und Performance ist nicht mit Technologie gleichzusetzen. Die des NV30 werden wohl über DX9 hinausgehen. Aber was haben wir davon? Müssten wir nicht auch die zukünftigen Chips von Matrox (Parhelia2), ATI (R350), PowerVR (PVR5), und den Bitboys (Namenlos³) in einen Vergleich mit reinnehmen, wenn wir schon den zukünftigen NVidia-Chip mit vergleichen? Ich denke, Vergleiche sollten sich auf aktuelle Hardware beziehen. Und da ist ATI in etwa doppelt so schnell wie NVidia.

betasilie
2002-12-18, 23:59:32
Ich wusste garnicht, dass Moderaten zum flamen hier sind. Da wird Moderation ja zur Totur für die Leser.

Weiter so ow. Du hast ja scheinbar Spaß dabei. *kopfschüttel*

Crushinator
2002-12-19, 00:01:13
Originally posted by ow Die Features des NV30 gehen doch weit über die des R300 hinaus.
Und Performance ist nicht mit Technologie gleichzusetzen. Ja, sowohl als auch. Zu letzterem fällt mir ein, daß selbst die R200 schon dem mehrere Monate jüngeren GF4 technologisch (PS 1.4, TruForm) überlegen war.

Fakt ist einfach, daß die GFFX noch nicht existiert. Von daher macht es genau so viel (Un)Sinn, wenn ich jetzt behaupte, daß der NV30 gegen eine R400 eine Feststellbremse sein wird, eine Technlogiebremse noch dazu.

Das Einzige was zählt ist, daß ATI jetzt seit 3 Monaten 2 (oder doch 3?) Karten auf dem Markt hat, welche das Flaggschiff von NV je nach belieben in Grund und Boden stampfen. Auch wenn es Deine schöne NV-Welt zerstört. :D

Dunkeltier
2002-12-19, 00:02:11
ow, deinen Flames in allen Ehren, aber langsam keimt in mir wirklich der Verdacht auf das du entweder NVidia Jünger bist oder auf deren Gehaltsliste ziemlich weit oben stehst.

Dunkeltier
2002-12-19, 00:03:15
Originally posted by ow


1. ?? Die Features des NV30 gehen doch weit über die des R300 hinaus.
Und Performance ist nicht mit Technologie gleichzusetzen.

a) NV30 gibts nicht zu kaufen.
b) Wenn du wirklich so argumentieren willst, ist der R350 & R400 dem NV30/35 noch weiter vorraus.

Crushinator
2002-12-19, 00:31:58
Originally posted by ow Wer hat denn die Entwicklung im Graka-Sektor in den letzten Jahren vorangetrieben? Ich fange mit den Geometriebeschleunigern an:

1. GF256 (DX7)
2. GF2, NV15 (DX7)
3. Radeon (DX7, HZ I)
4. GF3 (DX8, LMA I)
5. R8500 (DX8.1, HZ II, TF, PS 1.4)
6. GF4, NV25(DX8.1, LMA II)
7. Perhalia (DX8.1 + DM etc.)
8. R9500 - 9700 (DX9, HZ III)

Bis auf daß ATI zwischen 1 u. 2. gepennt hat, kann ich nur erkennen, daß die sich ab dann immer abgewechselt haben und z.Z. ATI nicht nur technologisch sondern auch in Sachen Performance führt, und demnächst wieder abgelöst wird.

ow
2002-12-19, 08:05:59
Originally posted by Eusti
Ich denke, Vergleiche sollten sich auf aktuelle Hardware beziehen. Und da ist ATI in etwa doppelt so schnell wie NVidia.


Es gibt noch keine 'aktuelle' HW von NV. Also ist da derzeit auch nix zu vergleichen. Die 9700 mit der GF4 zu messen ist ja wohl lachhaft.

ow
2002-12-19, 08:08:48
Originally posted by crushinator
Ich fange mit den Geometriebeschleunigern an:

1. GF256 (DX7)
2. GF2, NV15 (DX7)
3. Radeon (DX7, HZ I)
4. GF3 (DX8, LMA I)
5. R8500 (DX8.1, HZ II, TF, PS 1.4)
6. GF4, NV25(DX8.1, LMA II)
7. Perhalia (DX8.1 + DM etc.)
8. R9500 - 9700 (DX9, HZ III)

Bis auf daß ATI zwischen 1 u. 2. gepennt hat, kann ich nur erkennen, daß die sich ab dann immer abgewechselt haben und z.Z. ATI nicht nur technologisch sondern auch in Sachen Performance führt, und demnächst wieder abgelöst wird.


ATi hat die ganzen letzten Jahre gepennt und ist mit der R9700 das erste Mal vor NV mit einer neuen Chipgeneration auf dem Markt. Mehr nicht.

Radeonator
2002-12-19, 08:49:37
PLEAZE STOP THIS NVIDIOTIK SHIT TALK OW and the rest...danke !

Ich habe bis jetzt ein Problem mit den ATi Treibern festgestellt (Radeon32+Cat2.4+UT2k3 mit OGL). Wer sein Sys so wie du mit 3-4 verschiedenen Treibern vollmüllt, immer nur drüber installiert etc.pp muss sich nicht wundern wenn Sachen nicht vernünftig funtzen.

Es reicht langsam, ihr macht euch doch nur lächerlich mit dem ewigen "Oh ATi macht so sh1c3 Treiber" geschreibsel, weil das einfach nicht mehr Stimmt!!! (In meinen Augen stimmt das seit Ewigkeiten nicht mehr, aber ihr habt wohl Angst euer einziges "Null Argument" zu verlieren)

Ach so ein kleinerer Fertigungsprozess ist plötzlich riesen Fortschritt...komisch wenn NoName Firmen solch Fortschritt ankündigen, machen gerade die ForenNvidiots sich lustig darüber...

Wie schonmal geschrieben: Wenn nicht NV macht, ist das negativ gebrabel gross und wenns NV macht ist sogar schon der Fertigungsprozess ein "Killer Feature" :bonk: ihr seit echt einfach nur lächerliche Kindsköpfe...

Andre
2002-12-19, 09:59:25
Wisst ihr, wenn ich das so lese, dann habe ich das Gefühl, dass ich zu alt für den Kram geworden bin.

ATI und NV sind 2 Firmen, die Kohle machen und sich gegenseitig Marktanteile abjagen wollen.

ATI hat es dieses Jahr geschafft, sich technologisch und speedmäßig vor NV zu positionieren. Das tut dem Markt gut, heißt aber nicht das NV pleite geht.

Was die Treiber angeht, kann ich nur persönlich sagen, dass ich mit den Deto´s nie Probleme hatte. Wenn anderen Leute mit ATI-Treibern keine Probleme haben, solls mir doch recht sein.
Was mir nur aufgefallen ist, ist das recht viele Mags/internetseiten relativ schlecht über die ATI-Treiber berichten - das macht hellhörig.
Und denen permanent zu unterstellen, dass sie Lügen, von NV bezahlt werden, naja.

Nur eins solltet ihr euch mal alle merken:
Gleich Maßstäbe anzusetzen, zumindest versuchen halbwegs objektiv bei der Sache zu bleiben.
Was hier in letzter Zeit an Threads und widersprüchlichen Ausagen gepostet wurde, ist schon auffallend und so bescheuert zugleich.

My 2 Cents.

Frank
2002-12-19, 10:28:13
Originally posted by ow



Es gibt noch keine 'aktuelle' HW von NV. Also ist da derzeit auch nix zu vergleichen. Die 9700 mit der GF4 zu messen ist ja wohl lachhaft.
durchaus verständlich. Genausoverständlich für mich wie damals GF4TI4600 gg. ATI8500, wo allerdings auch bergründet wurde: TopProdukt gg Topprodukt. :(

Quasar
2002-12-19, 10:43:34
Originally posted by crushinator
1. GF256 (DX7)
2. GF2, NV15 (DX7)
3. Radeon (DX7, HZ I)
4. GF3 (DX8, LMA I)
5. R8500 (DX8.1, HZ II, TF, PS 1.4)
6. GF4, NV25(DX8.1, LMA II)
7. Perhalia (DX8.1 + DM etc.)
8. R9500 - 9700 (DX9, HZ III)

IMO sollte man "Features" nicht mit "Mitteln zum Zweck in einen Topf werfen, sonst kannst du auch anfangen, SiS (oder Gayward??) als Technologieführer hinzustellen, weil sie zuerst 128MB-Karten rausgebracht haben, oder nV wegen des Multisamplings.

DX8.1 war nichts als ein Marketing-Schachzug (und ein sehr gute dazu) von ATi, bei denen sich MS wohl ein wenig entschuldigen wollte für das Spiel, dass man ATi die DX8-Specs vor der Nase heraufgesetzt hat, so dass der R6 diese nicht erfüllte.

Die erste Innovation danach sind IMO die Geometrie-Einheiten (nicht nur Vertexshader, gell aths? ;)) der Parhelia, wegen DX9-compliance und bis dato (auf dem Papier) offenbar einziger "vernünftiger" DM-Unterstützung.

Darauf folgten DX9-Pixelshader beim R300, darüberhinaus zum ersten Mal verknüpft mit ebenso DX9-komplianten Vertexshadern, so dass ATi hier IMO zum ersten Mal wirklich vorlegen konnte.

Quasar
2002-12-19, 10:46:02
Originally posted by Frank
durchaus verständlich. Genausoverständlich für mich wie damals GF4TI4600 gg. ATI8500, wo allerdings auch bergründet wurde: TopProdukt gg Topprodukt. :(

Ist IMO auch korrekt so. Was konnte damals nVidia und heute ATi dafür, dass die jeweils andere Firma nicht zeitnah mit einem als Konkurrenz gedachten Produkt auf dem Markt war.

Exxtreme
2002-12-19, 10:47:16
Originally posted by ow



Es gibt noch keine 'aktuelle' HW von NV. Also ist da derzeit auch nix zu vergleichen. Die 9700 mit der GF4 zu messen ist ja wohl lachhaft.
Naja, Die Leute haben aber die GF4Ti mit der R8500 verglichen. Das war auch mehr oder weniger lachhaft da die R8500 auch nicht mehr 'aktuell' war.

Radeonator
2002-12-19, 11:25:59
Originally posted by Andre
Wisst ihr, wenn ich das so lese, dann habe ich das Gefühl, dass ich zu alt für den Kram geworden bin.

ATI und NV sind 2 Firmen, die Kohle machen und sich gegenseitig Marktanteile abjagen wollen.

ATI hat es dieses Jahr geschafft, sich technologisch und speedmäßig vor NV zu positionieren. Das tut dem Markt gut, heißt aber nicht das NV pleite geht.

Was die Treiber angeht, kann ich nur persönlich sagen, dass ich mit den Deto´s nie Probleme hatte. Wenn anderen Leute mit ATI-Treibern keine Probleme haben, solls mir doch recht sein.
Was mir nur aufgefallen ist, ist das recht viele Mags/internetseiten relativ schlecht über die ATI-Treiber berichten - das macht hellhörig.
Und denen permanent zu unterstellen, dass sie Lügen, von NV bezahlt werden, naja.

Nur eins solltet ihr euch mal alle merken:
Gleich Maßstäbe anzusetzen, zumindest versuchen halbwegs objektiv bei der Sache zu bleiben.
Was hier in letzter Zeit an Threads und widersprüchlichen Ausagen gepostet wurde, ist schon auffallend und so bescheuert zugleich.

My 2 Cents.

FULL ACK!!! auch an Exxtremes letzteres Posting

Zum Topic :Abwarten und Tee rauchen, wie schonma geschrieben war UT2k3 beta auch sau langsam und hat jetzt ein avarage Spieltempo auch auf kleineren Systemen erreicht!

ow
2002-12-19, 11:34:43
Originally posted by Exxtreme

Naja, Die Leute haben aber die GF4Ti mit der R8500 verglichen. Das war auch mehr oder weniger lachhaft da die R8500 auch nicht mehr 'aktuell' war.

Es war aber wohl klar, dass ATi die 8500er nicht mehr aufbohrt so wie NV das mit der GF3 ->GF4 gemacht hat. Insofern ist der Vergleich zwischen diesen beiden auf gleichem technischen Stand stehenden Chips schon gerechtfertigt.

Radeonator
2002-12-19, 12:25:07
Originally posted by ow


Es war aber wohl klar, dass ATi die 8500er nicht mehr aufbohrt so wie NV das mit der GF3 ->GF4 gemacht hat. Insofern ist der Vergleich zwischen diesen beiden auf gleichem technischen Stand stehenden Chips schon gerechtfertigt.

Quatsch...es handelt sich um verschiedene Graka Generationen (jedenfalls auf dem Papier!).
Das ist ein bissi sehr gefällig , dann kann ich auch die R300 und die GF4 vergleichen :bonk:

Unregistered
2002-12-19, 12:34:30
Man kann ja die Alpha Version nicht fürn Vergleich nehmen: Der Quellcode ist doch noch gar nicht optimiert! Der wird erst am Schluss so optimiert, dass er auf den Systemen mit GF4 und R9500/9700 läuft (jedefalls laut GameStar).
Naja, mich interessiert DOOM3 eh nicht (Unreal 2 auch nicht)....

Eusti
2002-12-19, 12:51:02
Originally posted by ow
Es gibt noch keine 'aktuelle' HW von NV...Womit du dann direkt bestätigst, das NV technologisch hinterherhinkt.

ow
2002-12-19, 12:52:35
Originally posted by Eusti
Womit du dann direkt bestätigst, das NV technologisch hinterherhinkt.

??
Die Technik existiert doch bereits und das vermutlich schon länger.

Endorphine
2002-12-19, 12:53:06
Dieser ganze Rummel um Doom3 ist doch sowieso IMO fürn Popo. Das Spiel wird dann wieder als bessere Grafikdemo herhalten, damit die ganzen B4sh0r wieder Munition zum flamen haben. Spielen wird es eh nur ein ganz kleiner Bruchteil. Ich glaube kaum, das so viele Menschen auf so anspruchslosen Singleplayer-Splatter Mist stehen.

Doom1/2 hat mich damals gefesselt, weil es das erste Spiel seiner Art war, welches man im LAN spielen konnte. Gegen andere Menschen also, nicht allein mit/gegen die Maschine/"KI". Wo bleibt der Anreiz, Doom3 längere Zeit zu spielen, wenn es ein Spiel mit einem ausdrücklichen SP-Schwerpunkt bleibt? Und wer auf diese Splattereffekte ernsthaft abfährt, sollte mal einen Psychologen besuchen...

Doom3 ist wieder mal extrem gehyped.

betasilie
2002-12-19, 13:37:23
Originally posted by ow


Es war aber wohl klar, dass ATi die 8500er nicht mehr aufbohrt so wie NV das mit der GF3 ->GF4 gemacht hat. Insofern ist der Vergleich zwischen diesen beiden auf gleichem technischen Stand stehenden Chips schon gerechtfertigt.
Klar ow.
Nur weil NV beim Generationswechsel von GF3 zu GF4 keine Innovation bringt sondern nur moderate Performancesteigerung, heißt das noch lange nicht, dass man diese Karten fair vergleichen kann.

Aber auf Fairniss kommt es bei dem Geschäft nicht an. Es werden halt die Topmodelle der 2 Konkurenten verglichen oder soll jeder Redaktuer schreiben: "Der Vergleich zwischen NV und ATI darf erst in 7 Monaten stattfinden, da NV keine Karte hat die Leistungsfähig genug ist." ??? ?

Die Verleichstests zwischen GF4600 und R9700 sind völlig gerechtfertigt. ATI kann doch nix dafür, dass NV pennt.
Die Technik existiert doch bereits und das vermutlich schon länger.
Und ATI hat noch keine Pläne zum R400 oder wie? Der R400 ist dem NV30 um längen überlegen. Auf dem Papier gibts viel zu zeigen. Es kommt auf verfügbare Technologie an und nicht auf Marketingschrott, denn wie effektiv die NV Technik ist wirst Du noch sehen. Der R400 ist auf jeden Fall genau so real wie der NV30.


...Den Sprung auf 0.13µ NV anzurechenen ist ja wohl Quatsch. Da kann man nur tmscv gratulieren. NV dies bzgl. als innovativ darzustellen ist in diesem Fall wohl äußerst schwachsinnning. :smash: :zzz: :smash:

Im Gegenteil. NVidia war blöd auf den absolut unreifen 0.13µ-Prozeß eines taiwanesischen Chiphersteller zu setzen. :D Das war wohl etwas riskant und zu forsch, denn die Konkurenz schläft nicht, wie am Beispiel von ATI sehen kann.

Endorphine
2002-12-19, 14:20:58
Bravo, "betareverse". Viel geschrieben, aber nichts gesagt und nur diesen sinnlosen Flame weiter am Leben gehalten...

Crushinator
2002-12-19, 14:41:08
Originally posted by ow ATi hat die ganzen letzten Jahre gepennt und ist mit der R9700 das erste Mal vor NV mit einer neuen Chipgeneration auf dem Markt. Mehr nicht. Setzen, Sechs! ;)

Das 2. mal, überleg bitte nochmal. (/edit. technologisch)

ow
2002-12-19, 15:29:50
Originally posted by Endorphine
Bravo, "betareverse". Viel geschrieben, aber nichts gesagt und nur diesen sinnlosen Flame weiter am Leben gehalten...


Jo:) Full ack.

ow
2002-12-19, 15:30:46
Originally posted by crushinator
Setzen, Sechs! ;)

Das 2. mal, überleg bitte nochmal. (/edit. technologisch)

Na, Flaminator, kannst du auch argumentieren? Dann leg mal los.

zeckensack
2002-12-19, 17:11:56
ATI und NV haben eben noch keinen Vertrag abgeschlossen, immer gleichzeitig ihre nächste Chip-Generation herauszubringen.

Wofür auch? Nur damit hier einige besser vergleichen können, was man längst vergleichen kann*?

Wenn man einseitig auf einen Hersteller wartet, bis man einen Vergleich anstellt, büßt man seine Objektivität ein.

Soll heißen:
Gf3Ti contra Radeon 8500 ging in Ordnung
Gf4Ti contra Radeon 8500 ging in Ordnung
Gf4Ti contra Radeon 9700 ging in Ordnung
bitte beliebig fortführen

*aktuell verfügbare Karten

LovesuckZ
2002-12-19, 17:31:08
Originally posted by crushinator
Das 2. mal, überleg bitte nochmal. (/edit. technologisch)

GTS vor Radeon
GF3 vor Radeon
Radeon vor GFFX

Wo hatta da unrecht?

MeLLe
2002-12-19, 18:03:16
Originally posted by LovesuckZ
GTS vor Radeon
GF3 vor Radeon
Radeon vor GFFX

Wo hatta da unrecht?
Wüsst ich auch nur zugern... :|

StefanV
2002-12-19, 19:01:41
Originally posted by LovesuckZ


GTS vor Radeon
GF3 vor Radeon
Radeon vor GFFX

Wo hatta da unrecht?

Naja, in 32bit Farbtiefe sah Punkt 1 schon anders aus ;)

Da war die Radeon in der Nähe der GTS bzw konnte die teilweise sogar schlagen (um 1-2%, wenn ich mich nicht irre).

Bei der GF3 war die Radeon zuerst langsamer, die hat aber recht viel zugelegt und war 'irgendwann' teilweise vor der GF3 (KEINE TI!!)

Die 128MB Radeon war sogar nicht selten in etwa so schnell wie eine GF4 TI4200...

MeLLe
2002-12-19, 19:11:42
Originally posted by Stefan Payne
Naja, in 32bit Farbtiefe sah Punkt 1 schon anders aus ;)
Da war die Radeon in der Nähe der GTS bzw konnte die teilweise sogar schlagen (um 1-2%, wenn ich mich nicht irre).
Stefan, können wir uns drauf einigen, "1-2%" nicht als "schlagen", sondern als "Messtoleranz" zu bezeichnen?

LovesuckZ
2002-12-19, 19:21:43
Originally posted by Stefan Payne
... [gekuerzt]

Ich beziehe mich auf den 2. Teil des von crushinator zitierten Textes:
ATi hat die ganzen letzten Jahre gepennt und ist mit der R9700 das erste Mal vor NV mit einer neuen Chipgeneration auf dem Markt. Mehr nicht.

StefanV
2002-12-19, 19:25:31
Originally posted by MeLLe
Stefan, können wir uns drauf einigen, "1-2%" nicht als "schlagen", sondern als "Messtoleranz" zu bezeichnen?

Jo, sehe ich genauso...

betasilie
2002-12-19, 19:27:55
Originally posted by ow


Na, Flaminator, kannst du auch argumentieren? Dann leg mal los.
Das sagt der Flamegott schlechthin. Pack dir mal an die eigene Nase. Beim Argumentieren hast gerade Du scheinbar Nachholbedarf.

Außer den NV Marketingschrott nachzubeten und zu flamen hast Du schein z.Zt. auch nix drauf.

mapel110
2002-12-19, 19:35:39
Originally posted by Endorphine
Doom3 ist wieder mal extrem gehyped.

es werden viele spiele gehypt, aber dieses zurecht. es gibt dann endlich wieder eine neue qualitativ hochwertige engine.
bei so ziemlich allen anderen spielen(vorzugsweise egoshooter), die heute auf den markt kommen, sind die engines übernommen(quake3 engine) oder bescheiden (sniper/nolf2/hitman2/new world order) und bieten sehr wenig neues.

es wird jedenfalls der grösste grafische fortschritt der letzten jahre sein im egoshooterbereich.
zwischen wolfenstein3D und doom1+2 lagen auch welten. im gleichen massstab wird das diesmal imo zwischen quake3 und doom3 aussehen.

Endorphine
2002-12-19, 20:49:38
Originally posted by mapel110


es werden viele spiele gehypt, aber dieses zurecht. es gibt dann endlich wieder eine neue qualitativ hochwertige engine.
bei so ziemlich allen anderen spielen(vorzugsweise egoshooter), die heute auf den markt kommen, sind die engines übernommen(quake3 engine) oder bescheiden (sniper/nolf2/hitman2/new world order) und bieten sehr wenig neues.

es wird jedenfalls der grösste grafische fortschritt der letzten jahre sein im egoshooterbereich.
zwischen wolfenstein3D und doom1+2 lagen auch welten. im gleichen massstab wird das diesmal imo zwischen quake3 und doom3 aussehen.

Naja, das sehe ich etwas anders. Der Sprung von Wolfenstein3D zu Doom1 war so gigantisch, das wird es wohl nie wieder geben. Meinst du wirklich, dass die paar wackelnden hardwarebeschleunigten Echtzeitlampen wirklich eine bahnbrechende Revolution sind?

Finde ich ganz und gar nicht. Von dem, was ich über Doom3 weiss, scheint festzustehen, dass die vielen Effekte mit kleinen winzigen Levelgängen "bezahlt" werden. Die wirkliche Revolution wird sich IMO erst viel später abspielen. Nämlich dann, wenn die Hardware so weit ist, dass ein UT2003 mit der Effektpracht von Doom3 möglich wird.

Sooooo ein grosser Sprung in der Grafikqualität ist es meiner Meinung nach überhaupt nicht. Bumpmapping und Echzeitbeleuchtung schön und gut, aber ein Kinnlade-Runterklappeffekt konnte mir das bis jetzt verfügbare D3-Material nicht entlocken.

Quasar
2002-12-19, 21:11:10
Der größte Sprung war IMO der von einem beliebigen Game auf Quake-I, weil dieses AFAIK als erstes "echte" dreidimensionale Level einsetzte.

mapel110
2002-12-19, 21:18:13
naja, man muss doom3 dann auch als ganzes sehen. die objekte in den levels werden sehr interaktiv sein. das ist schonmal ein riesiger fortschritt.

Dunkeltier
2002-12-19, 21:26:17
Originally posted by ow


Na, Flaminator, kannst du auch argumentieren? Dann leg mal los.

Du scheinst wohl einfach nicht die Schmach ertragen zu können, das NVidia momentan (!) die Nummer 2 ist. Und evtl. mit der R350* ganz schnell wieder werden kann.

*kauf ich mir im Februar 2004

Quasar
2002-12-19, 21:29:51
Originally posted by mapel110
naja, man muss doom3 dann auch als ganzes sehen. die objekte in den levels werden sehr interaktiv sein. das ist schonmal ein riesiger fortschritt.
Gab's schon bei Trespasser meinem alten Lieblingsgame... ;)

Exxtreme
2002-12-19, 21:31:38
Originally posted by Quasar

Gab's schon bei Trespasser meinem alten Lieblingsgame... ;)
Trespasser? Das doch das Game mit'm Gummiarm... oder nit? ;)

Dunkeltier
2002-12-19, 21:37:42
Originally posted by Exxtreme

Trespasser? Das doch das Game mit'm Gummiarm... oder nit? ;)


Ja. :D Einmal vor die Wand gerannt, ist die Knarre runtergeplumpst. Der Arm ließ sich so unrealitsisch steuern.

mapel110
2002-12-19, 21:38:35
Originally posted by Quasar

Gab's schon bei Trespasser meinem alten Lieblingsgame... ;)

kenn ich gar nicht. da hab ich wohl ne bildungslücke :) haste vielleicht link bzw online material ?

Dunkeltier
2002-12-19, 21:43:35
Ist ein 3D Shooter mit Dinos auf 'ner Insel. War damals groß und interaktiv (die ganze Insel "ein" Level), nur war die Physik zum kotzen und auf den meisten Rechnern ruckelte das Game.

Eusti
2002-12-19, 21:58:16
Originally posted by Dunkeltier
Du scheinst wohl einfach nicht die Schmach ertragen zu können, das NVidia momentan (!) die Nummer 2 ist. Und evtl. mit der R350* ganz schnell wieder werden kann.

*kauf ich mir im Februar 2004 Tschuldigung, aber du scheinst auch ein bisschen verblendet zu sein, wenn du Monate bevor es eine Grafikkarte gibt (es gibt ja noch nicht einmal die Specs) beschliesst, diese Grafikkarte zu kaufen.

Leute wie Ihr beide zieht die ganzen Disskussionen herunter.

Dunkeltier
2002-12-19, 22:07:17
Originally posted by Eusti
Tschuldigung, aber du scheinst auch ein bisschen verblendet zu sein, wenn du Monate bevor es eine Grafikkarte gibt (es gibt ja noch nicht einmal die Specs) beschliesst, diese Grafikkarte zu kaufen.

Leute wie Ihr beide zieht die ganzen Disskussionen herunter.

Ich habe schon damals beschlossen, als es noch nicht die Radeon 8500 gab, mir eben diese zu kaufen. Und es geschah. Das gleiche auch mit der Radeon 9700 Pro, bevor es sie gab habe ich verkündet sie mir zu kaufen. Und ich tat es. So wird es auch mit der R350 sein. Ich wüßte nicht, wieso das die Diskussion runterziehen sollte (imho ein sehr schwachsinninges Argument). Meine Kaufabsichten haben eh nur für mich und niemanden anders zu gelten.

StefanV
2002-12-19, 22:55:07
Hat Trespasser nicht irgendwas mit Jurassic Park zu tun??

Gabs das auch mal für Konsolen (SNES/N64??)

LovesuckZ
2002-12-20, 08:41:48
Originally posted by Stefan Payne
Hat Trespasser nicht irgendwas mit Jurassic Park zu tun??

Ja, die Tussi sollte auf ner anderen Insel der Inselgruppe gelandet sein. Mit vielen Dinos und so.

Anárion
2002-12-20, 11:05:07
Originally posted by betareverse

Das sagt der Flamegott schlechthin. Pack dir mal an die eigene Nase. Beim Argumentieren hast gerade Du scheinbar Nachholbedarf.

Außer den NV Marketingschrott nachzubeten und zu flamen hast Du schein z.Zt. auch nix drauf.

Die Sache mit den "an die eigene Nase fassen" solltest du dir mal vielleicht genauer überlegen bevor du es anderen empfiehlst. Dein Posting ist nicht grad fördernd für die Diskussion, geschweige denn passend zu dem Musterverhalten was du dir von anderen wünschst(eben nicht zu flamen/trollen was auch immer). Halte dich genauso dran, dann ist es gut. Daß ow sich gegen Schlachtrufe wie diesen hier wehren muß, halte ich für eine vollkommen normale Einstellung und Reaktion, aber auch als Gefahr zum weiteren Ausarten (OT werden) des Threads. Und genau das provoziert ihr hiermit bzw. lasst es dazu kommen (ob gewollt oder ungewollt).

Quasar@work
2002-12-20, 15:43:06
OT Trespasser:
Aaalso, bevor ihr hier das innovativste und mutigste Game seit Ultima Underworld I runtermacht, noch ein paar Worte:

1)Ja, die Steuerung des Armes (Er war nicht aus Gummi, damals sahen Texturen einfach nicht besser aus, es musste ja auch auf Voodoo I laufen) war nicht sehr einfach, aber wie zum Geier will man einen kompletten Arm mit all seinen Funktionen mit den begrenzten Möglichkeiten von Tastatur und Maus simulieren???

2)Die Physik war nicht "kacke", sondern im Gegensatz zu fast allen anderen Games wenigstens im Ansatz vorhanden und wurde nicht nur für korrektes den_Hang_herunterrollen_abgetrennter_Körperteile wie in UT2003, sondern wurde ins Gameplay integriert. Sicher war nicht alles perfekt, aber es war ein Anfang...

ice cool69
2002-12-20, 20:07:12
trespasser hatte vielleicht gute technische ansätze, aber als spiel wars einfach grottenschlecht. da kanns noch so viele innovationen haben...

turok war das bessere spiel (hatte jedenfalls auch dinos als gegner)...

Quasar
2002-12-20, 20:55:33
Und genau deswegen (weil's viele Leute mit "deinem Geschmack" gibt), tun sich innovative Ideen so schwer und es gibt statt guten _neuen_ Games lieber ein Titt-Raider V oder Command&Kreuzquer 3.

ice cool69
2002-12-20, 21:10:22
gerade tr und c&c sind zwei serien die lange nicht fortgeführt wurden und jetzt absolut generalüberholt herauskommen.

aber du hast recht ich steh auf eine bestimmte art von spiele und zocke sie zum spaß und nicht um als spaß-betatester für den markt zu fungieren.

games wie tresspasser sind schon zurecht untergegangen, es gibt nur ein paar wenige ausnahmen die mehr verdient hätten wie zB BATTLEZONE 1 und 2.

mr
2002-12-21, 15:44:32
Hallo Leute,

Ich lurke schon länger auf 3DCenter und habe erst heute den Entschluss gefasst mich zu registrieren.

Zum OriginalTopic:

Ich bin selbst sehr gespannt wie die Performance des finalen Doom3 auf den verschiedenen Karten/Generationen ausfällt. Was Ich bis jetzt von der 0.02 Beta an Performance gesehen habe, ist für mich aber nicht als Endbewertung aussagekräftig. Spekulationen über die Leistung verschiedener Karten auf Grundlage eines so frühen Build kann interessant und spannend sein (ansonsten wäre so ein Forum wahrscheinlich ziemlich öde), aber sollte IMO auf keinen Fall jetzt schon als Kauf-Grund/Bremse für einen jetzt anstehenden Kartenkauf verwendet werden.
AFAIK gibt es noch keinen offiziellen Erscheinungstermin für Doom3 und wie schon in diesem Thread angesprochen, gibt es kaum Hardware die so schnell altert (und billiger wird) als HighEnd-3d Karten.

Für mich persönlich heisst das:
Die Doom3 Karte (60fps im Großteil des Spieles mit FSAA+AF in annehmbarer Auflösung) wird dann gekauft wenn das Spiel fertig ist und die Benchmarks in ausreichender Anzahl und Qualität verfügbar sind. (Ich finde es übrigens in Ordnung sich für 1 Spiel eine neue GraKa zu leisten)

Zum Vergleich ATI/NVIDIA respektive deren Karten/Generationen:

Ich kann mich hier nur Zeckensack (toller Name ;) ) anschliessen.
Für einen Performance Vergleich müssen die für einen potentiellen Käufer aktuell verfügbaren Karten verwendet werden. Eine nicht verfügbare Karte kann nicht getestet werden. Egal ob Sie von ATI oder von NVIDIA nicht verfügbar ist.

Natürlich ist eine GeforceFX (offiziell vorgestllt, laufende Samples, Bekanntgabe technischer Daten) sehr viel realer als eine R400 (AFAIK keine offizielle Ankündigung etc.) aber leider sind beide noch nicht verfügbar.


Ich habe selbst schon etliche 3D-Karten verschiedenster Hersteller in meinen Rechnern in den letzten 6 Jahren erleben dürfen, und es ist jedesmal spannend wenn eine neue Karte/Generation vor der Tür steht.
Man sollte aber trotz aller Aufregung versuchen an alle Hersteller die selben Masstäbe und Bewertungskriterien anzulegen.

MfG
mr

FZR
2002-12-21, 16:09:18
ist schon jemandem aufgefallen das die nicht DX8 konforme GF4-mx440 8x schneller ist als eine Radeon8500 welche schon DX8 konform ist.

Ist finds komisch!

Pussycat
2002-12-22, 15:24:25
Ich finde es komisch, dass mann diskutiert über die Leistungen von Chips in einem Spiel in der Version 0.02.

-X-
2002-12-22, 15:35:36
wieso nich,man kann über alles diskutieren(unfertige gebäude,flugzeuge,games).nur sollte man dann nich das gleiche(wie im unfertigen status) für das endprodukt annehmen,denn da kann wieder alles anders sein;)

[LOG]Skar
2002-12-23, 14:34:03
was ein Thread! Hier herscht noch echtes Chaos, wie in meinem Zimmer.

Also bei dem was ich so von D3 gesehen habe muss ich sagen die Qulität
kommt an Rendervideos rann. Und wenn man über die Spielbarkeit redet
meine ich:
Dann wenn es rauskommt wird es flüssig laufen, auf Top Hardware wird
es allerdings besser außehen. Und etwas später werden dann die outdoor
Gamer sehen wie schön Doom3 ist. So viel zu Engine.
Das Game selber ist halt nicht Mainstream. Das wird der erste echte
Horrorschocker als Game sein! Wobei bei Alien versus Predator1 als
Mensch ging auch die Post. Nicht jeder mag richtigen splatter Horror,
der Rest schaut halt Scream und Düstere legenden.
Ich selber bin auch eher der Fan von Spannung und der Engine ,also
der Splatter muss nicht sein.

Greetz @ all

ice cool69
2002-12-23, 17:53:13
jau die anscheinende vernachlässigung der r8500 finde ich geradezu eine frechheit. ich hoffe dass das nur in der alpha so ist sonst kann mir JC mal kräftig den...hm...buckel runterrutschen :D

Demirug
2002-12-23, 18:19:58
Originally posted by ice cool69
jau die anscheinende vernachlässigung der r8500 finde ich geradezu eine frechheit. ich hoffe dass das nur in der alpha so ist sonst kann mir JC mal kräftig den...hm...buckel runterrutschen :D

Ich darf mal wieder das Zitat zu diesem Thema bringen:

Initial performance testing was interesting. I set up three extreme cases to exercise different characteristics:

A test of the non-textured stencil shadow speed showed a GF3 about 20% faster than the 8500. I believe that Nvidia has a slightly higher performance memory architecture.

A test of light interaction speed initially had the 8500 significantly slower than the GF3, which was shocking due to the difference in pass count. ATI identified some driver issues, and the speed came around so that the 8500 was faster in all combinations of texture attributes, in some cases 30+% more. This was about what I expected, given the large savings in memory traffic by doing everything in a single pass.

A high polygon count scene that was more representative of real game graphics under heavy load gave a surprising result. I was expecting ATI to clobber Nvidia here due to the much lower triangle count and MUCH lower state change functional overhead from the single pass interaction rendering, but they came out slower. ATI has identified an issue that is likely causing the unexpected performance, but it may not be something that can be worked around on current hardware.

I can set up scenes and parameters where either card can win, but I think that current Nvidia cards are still a somewhat safer bet for consistent performance and quality.

JC February 11, 2002

Das sieht für mich eher so aus als ob der schwarze Peter bei ATI ist.

ice cool69
2002-12-24, 16:06:00
sorry aber spiele die gescheit auf die r8500 angepasst wurden sind auf dieser auch schneller als auf der gf3.

ich kann mich auch an eine aussage erinnern in der JC gesagt hat er könne DOOM3 so programmieren dass es auf ner r8500 schneller ist und so dass es auf ner gf3 schneller ist.
für was er sich entschieden hat sieht mahn ja.

dazu meine frage: warum nicht so programmiert dass es auf beiden ähnlich schnell ist? JC ist doch so genial das dürfte doch kein problem für ihn sein.

ZilD
2002-12-24, 16:08:17
naja auf nem 21" moni in 800x600 spielen -> :(

mind 1280x1024 ; optimal 1600x1200 ... aber welche graka macht das schon mit?
vielleicht gforce FX ultra ?

denke das doom3 wenn es wirklich soooo hardwarefordernd ist , nicht zu einem erfolg wird.

Demirug
2002-12-24, 16:32:36
Originally posted by ice cool69
sorry aber spiele die gescheit auf die r8500 angepasst wurden sind auf dieser auch schneller als auf der gf3.

Zeig mir bitte ein Spiel das massiv auf Stencilbuffer Performances angewiessen ist. Zudem scheint ATI ja nach wie vor Probleme beim Vertexdurchsatz zu haben.

ich kann mich auch an eine aussage erinnern in der JC gesagt hat er könne DOOM3 so programmieren dass es auf ner r8500 schneller ist und so dass es auf ner gf3 schneller ist.
für was er sich entschieden hat sieht mahn ja.

Habe ich doch mitzitiert:

I can set up scenes and parameters where either card can win, but I think that current Nvidia cards are still a somewhat safer bet for consistent performance and quality.

Es ging darum das man ein Level auch durchaus so gestalten kann das es einer 8500 besser bekommt. Aber in der Mehrzahl der möglichen Variationen seiner Meinung nach die NVIDIA Karten besser abschneiden.

dazu meine frage: warum nicht so programmiert dass es auf beiden ähnlich schnell ist? JC ist doch so genial das dürfte doch kein problem für ihn sein.

Weil es wohl scheinbar nicht geht. Oder welchen Grund sollte er bitte haben DOOM III auf einer ATI Karte schlecht aussehen zu lassen? Das ganze grenzt für mich schon irgendwie an Verfolgungswahn das man immer wieder glaubt das Spiele absichtlich so programmiert werden das sie auf ATI Karten schlecht laufen.

Keiner verbietet ATI einen genauso guten Dev-Support zu bieten wie NVIDIA. Aber bis vor ein paar Wochen gab es von ATI ja nicht einmal ein Papier zum Thema Performances. Wenn wundert es da das sich die Entwickler an die einzigen Quellen die es dafür gibt halten. Und das sind nun mal Microsoft und NVIDIA. Wobei die MS Angaben zu diesem Thema im wesentlichen nur Dinge enthalten die sich auf die reine DX Runtime beziehen. Ergo war die einzige Quelle im Vorfeld Informationen über das Performances Verhalten von DX Karten zu bekommen natürlich NVIDIA. Und gerade diese Angaben sind am Anfang wenn man eine Engine plant sehr wichtig und haben Entwicklungen zur Folge die sich am ende nicht mehr so leicht ändern lassen.

Ich weiss natürlich das DOOM III ein OpenGL spiel ist aber dort haben wir die gleiche Situation von NVIDIA gibt es massenhaft Papers und von ATI ist kaum was zu bekommen.

SKYNET
2002-12-24, 19:23:11
mhhhh, habe mal ansatzweise hier nen bissl rumgelesen ;) ich denke das ich auf 1024*768*32 mit meiner ti4200 albatron flüssig zocken kann läuft ja stabil bei 332/710 ! mehr core geht net weil der schieberegler net weitergeht :( speicher macht bei 715 mucken :( wenn sie gemoddet ist wird sie auch die 370/750 packen ! soll heißen: DOOM 3 ich komme ;)

ice cool69
2002-12-24, 22:20:21
und wieso ist dann die r9700pro schon so schnell? zufall? oder ist die r8500 ne technische missbildung?

Quasar
2002-12-24, 22:32:56
Vielleicht weil sie allein den Stencil-Pass 2,36x so schnell (+136%) absolvieren könnte?

Demirug
2002-12-24, 22:41:38
Originally posted by Quasar
Vielleicht weil sie allein den Stencil-Pass 2,36x so schnell (+136%) absolvieren könnte?

ja beim Stencil Pass wirken sich die 8 Pipelines sehr positive aus. Dabei geht es fast nur um die reine Pixelfillrate und davon hat die 9700Pro ja massig. Und bei den Stencilops hat der R200 Chip ja erhebliche Einbrüche sogar im vergleich zur GF3.

Der zweite Punkt an dem der R300 Chip sehr gut boden gewinnt ist das Early-Z welches bis zu 64 Pixel pro Takt verwerfen kann. In Verbindung mit dem aufwendigen Pixelshading und dem Init Z-Pass gibt das einen weiteren Performances Gewinn. Unser kleiner Overdrawtest den wir vor kurzem durchgeführt haben sprach da ja Bände.

Und nicht zuletzt dürften die 4 Vertexshader auch nicht schaden.

Also zu einem nicht unerheblichen Teil entsteht die gute Leistung durch Brute-Force.

zeckensack
2002-12-24, 22:58:13
... und da der R300 two-sided-stencil kann, wird das sicherlich der absolute Brüller für Doom3 werden (die Unterstützung dafür ist AFAIK in der geleakten Version noch nicht drin).

IMO (Obacht, ich bin ein ATI-User) wird die GeforceFX dem R300 aber in Doom3 trotzdem die Hosen ausziehen. Füllrate ohne Ende, und daß die Bandbreite dafür eigentlich zu gering ist, macht bei Stencil/Z-Passes überhaupt nichts aus.

zeckensack
2002-12-24, 22:59:08
Originally posted by mr
<...> Zeckensack (toller Name ;) <...>Besten Dank :D

Und herzlich willkommen im Irrenhaus ;)

ice cool69
2002-12-25, 01:59:27
ja mir scheint auch so als sei die doom3 engine wieder einmal wie für die geforce-fx gemacht.

man kann sagen was man will aber die bevorzugung JCs von ATI kann man nicht mehr von der hand weisen (r8500feindliche engine, gf-fxfreundliche engine), das sieht mir sehr nach einer kleinen finanziellen motivationsspritze aus.

na wie kann sich JC auch sonst seine ferraris leisten...

ich kann nur hoffen dass die r350 bei der bruteforce wieder mit der gf-fx gleichziehen kann, sonst hats nvidia nochmal gerettet.
denn wenn die doom3engine auf der gf-fx am schnellsten läuft preist ihn nvidia einfach als den zukunftschip an.

im übrigen als ich schrieb ich bin eher für neue techniken als für reine brute force dann meinte ich mit brute-force in erster linie mehr MHz. den 256bit speicherbus reihe ich da nicht ein.
auch das AA und (jedenfalls von der idee her) das AF habe ich damit gemeint, sowie die ganzen bandbreitenschonenden techniken.

das alles ist aber wiederum nichts gegen die technik in meiner kyro2, wenn ich weiß dass mein chip trotz sdram schneller arbeitet als so mancher chip mit ddrsdram und doppelter bandbreite dann wird mir ganz warm ums herz.

in meinen kopf hat sich folgendes bild eingeprägt

1. nvidia-eher konservativ, vergleichsweise innovationsarm, sehr viel rohpower
2. ati-viel innovationen wobei ein großer teil davon leider mangels unterstützung untergeht. viel rohpower in verbindung mit sparsamen techniken.
3. kyro2-genial innovativ, ein traum die rendertechnik. sehr wenig bruteforce dafür unverglichene ausnutzung der vorhandenen hardware.

die gf-fx ist für mich wieder einmal ein gutes beispiel: massenhaft MHz und bruteforce, wahrscheinlich gute bandbreitensparende techniken, "konservatives" AA und AF welche viel rohleistung verschlingen (außer AF-performancemode!), besonders AA eine enttäuschung.
absolut positiv ist die leicht erweiterte programmierbarkeit des nv30 wobei dieser in meinen augen in die selbe akte gelegt werden dürfte wie atis PS1.4, trotzdem ein absolut positiver ansatz und eher untypisch für nvidia.

Quasar
2002-12-25, 02:10:22
Originally posted by ice cool69
ja mir scheint auch so als sei die doom3 engine wieder einmal wie für die geforce-fx gemacht.
Meinst du jetzt wegen des Stencil-Passes, oder was veranlasst dich zu dieser Schlussfolgerung?
Denn nach deinem letzten Posting habe ich hier keine pro-Argumente für deine These mehr gefunden.

Deine Meinung in allen Ehren (jeder sollte eine haben), aber irgendwie scheint mir das Ganze nicht recht schlüssig zu sein.

OhneZ
2002-12-25, 04:02:07
Diese Alpha release wurde rausgegeben nur !!! an die Graka-chip-Hersteller. Diese sollten ihre Chips damit testen und ihre Ergebnisse mit in die Entwicklung des Spiels einließen lassen.
Welcher Hersteller letztendlich die "Demo" mal ins Netz gestellt hat
ist eigentlich völlig egal.
Diese Demo hat leider überhaupt keine Aussagekraft in Richtung welcher Graka-Chip besser geeignet ist.Die ist eine Development Demo mehr nicht.
Angenommen nVidia hatte die Demo als erstes und hat sie ins Netz gestellt, na dann hat ATI doch die besten Chancen ..hier den "Sieg" davon zutragen. Anders rum dann halt nVidia.

Abwarten und Tee bis das Fertige Doom draussen ist. und dann benschen was das Zeug hält
:D

tEd
2002-12-25, 05:26:42
Originally posted by ice cool69
man kann sagen was man will aber die bevorzugung JCs von ATI kann man nicht mehr von der hand weisen (r8500feindliche engine, gf-fxfreundliche engine)


das musst du mal genauer erklären.

nggalai
2002-12-25, 10:01:53
Einen schönen guten Morgen allerseits,

Originally posted by ice cool69
ja mir scheint auch so als sei die doom3 engine wieder einmal wie für die geforce-fx gemacht.

man kann sagen was man will aber die bevorzugung JCs von ATI kann man nicht mehr von der hand weisen (r8500feindliche engine, gf-fxfreundliche engine), das sieht mir sehr nach einer kleinen finanziellen motivationsspritze aus.Hmm. Ich weiss nicht. Carmack hat die längste Zeit GF2 Ultras als Entwicklungsplattform verwendet, später dann GF3 für einen Grossteil der Engine-Arbeiten. Ich sehe nicht, wie er schon vor Jahren die DooM3 engine schön "GFFX-freundlich" gestalten konnte.

Originally posted by OhneZ
Diese Alpha release wurde rausgegeben nur !!! an die Graka-chip-Hersteller. Diese sollten ihre Chips damit testen und ihre Ergebnisse mit in die Entwicklung des Spiels einließen lassen.
Welcher Hersteller letztendlich die "Demo" mal ins Netz gestellt hat
ist eigentlich völlig egal.Jein--die Alpha ging auch an den Publisher (Activision). ;)

Ansonsten gebe ich dir und deinem Posting vollkommen recht.

So, weiter-verdauen . . . *Magentee-schlürf*

ta,
-Sascha.rb

LovesuckZ
2002-12-25, 10:11:46
Originally posted by ice cool69
1. nvidia-eher konservativ, vergleichsweise innovationsarm, sehr viel rohpower


;D <-- Meine GF3 ist innovationsarm?

MeLLe
2002-12-25, 10:57:26
Originally posted by ice cool69
ja mir scheint auch so als sei die doom3 engine wieder einmal wie für die geforce-fx gemacht.
Beweise, Kollege. Beweise.

Originally posted by ice cool69
man kann sagen was man will aber die bevorzugung JCs von ATI kann man nicht mehr von der hand weisen (r8500feindliche engine, gf-fxfreundliche engine),
Hä? :|

Originally posted by ice cool69
das sieht mir sehr nach einer kleinen finanziellen motivationsspritze aus.
na wie kann sich JC auch sonst seine ferraris leisten...
Ich glaub kaum, dass JC es nötig hat, sich von irgendwem schmieren zu lassen. Das kann er sich schon deswegen nicht erlauben, weil die Engine an andere Firmen lizensiert und in den Games der nächsten Jahre eingesetzt werden soll.
Die Ferraris und was auch immer gehen Dich grundsätzlich erstmal nix an, nur ein Tipp: Doom3 ist nicht das erste Spiel/die erste Engine, die er baut. Erleichternd kommt hinzu, dass seine Werke bisher kaum richtig gefloppt sind. Da bleiben auch schon ein paar Dollar$ beim Chief Programmer hängen.

Originally posted by ice cool69
ich kann nur hoffen dass die r350 bei der bruteforce wieder mit der gf-fx gleichziehen kann, sonst hats nvidia nochmal gerettet.
Genau. Dann ist ATI mit Bruteforce wieder schneller. Und dann ist Bruteforce geil. :|

Originally posted by ice cool69
denn wenn die doom3engine auf der gf-fx am schnellsten läuft preist ihn nvidia einfach als den zukunftschip an.
Würde ATI nieeeeeeeeee einfallen, ein Spiel, was auf einem ATI-Chip richtig abgeht, werbewirksam auszuschlachten... :|

Originally posted by ice cool69
im übrigen als ich schrieb ich bin eher für neue techniken als für reine brute force dann meinte ich mit brute-force in erster linie mehr MHz. den 256bit speicherbus reihe ich da nicht ein.
Ok. Dann erkläre mir, wozu Du das 256bit-Memory-Interface dann zählst? Unter "Bandbreitenschonende Techniken"? Oder unter "Innovation".
Es gibt mehrere Wege, die Speicherbandbreite (und damit die Rohpower) zu erhöhen. Weg 1: Erhöhung der Taktraten der beteiligten Komponenten. Weg 2: Verbreiterung der Speicherinterfaces. Es läuft am Ende auf ein Ziel hinaus - Rohpower. Brute Force eben.

Originally posted by ice cool69
auch das AA und (jedenfalls von der idee her) das AF habe ich damit gemeint, sowie die ganzen bandbreitenschonenden techniken.
Gibts aber net nur bei ATI, sowas. :|

Originally posted by ice cool69
das alles ist aber wiederum nichts gegen die technik in meiner kyro2, wenn ich weiß dass mein chip trotz sdram schneller arbeitet als so mancher chip mit ddrsdram und doppelter bandbreite dann wird mir ganz warm ums herz.
Aha. ATIs Powermaschine ist das größte, aber bei einer Kyro wird Dir warm ums Herz?
Ok.
Ich sag nix. :naughty:

Originally posted by ice cool69
in meinen kopf hat sich folgendes bild eingeprägt
1. nvidia-eher konservativ, vergleichsweise innovationsarm, sehr viel rohpower
2. ati-viel innovationen wobei ein großer teil davon leider mangels unterstützung untergeht. viel rohpower in verbindung mit sparsamen techniken.
3. kyro2-genial innovativ, ein traum die rendertechnik. sehr wenig bruteforce dafür unverglichene ausnutzung der vorhandenen hardware.
zu
1. Techniken zur optimaleren Ausnutzung der vorhandenen Ressourcen verwendet auch nVidia.
2. Eine Innovation ist erst dann innovativ, wenn der Markt daraus Nutzen zieht.
3. Sag ich nix.

Originally posted by ice cool69
die gf-fx ist für mich wieder einmal ein gutes beispiel: massenhaft MHz und bruteforce, wahrscheinlich gute bandbreitensparende techniken, "konservatives" AA und AF welche viel rohleistung verschlingen (außer AF-performancemode!), besonders AA eine enttäuschung.
Kannst Du mir den Link zu der Seite mit den AA/AF-Tests geben?

Originally posted by ice cool69
absolut positiv ist die leicht erweiterte programmierbarkeit des nv30 wobei dieser in meinen augen in die selbe akte gelegt werden dürfte wie atis PS1.4, trotzdem ein absolut positiver ansatz und eher untypisch für nvidia.
"leicht erweitert" ist IMHO leicht untertrieben. Aber es wird sich zeigen, was der NV30 kann. Ich denke es ist ein typischer nVidia-Chip. Leider. Trotzdem hat er auch viel positives anzubieten.

Amen.

ice cool69
2002-12-26, 18:38:02
argh auf mein posting hat man sich ja jetzt so richtig eingeschossen :D
ich gebe ja zu es war etwas übertrieben die einschätzung von JC aber da er der master programmierer ist hängt nunmal viel von der engine von ihm ab und eine person ist nie sonderlich objektiv.

ich war halt irgendwie sauer über die schlechten werte der radeon8500 und konnte mir beim besten willen nicht vorstellen warum die meisten es schaffen diese gut auszunutzen sodass sie mit den geforce absolut mithalten kann und gerade bei mr. engine persönlich wird eine so große gruppe praktisch ausgeschlossen...

zu dem was ich zu ati vs nvidia vs pvr gesagt habe:

bei der kyro2 finde ich es einfach ein total geiles gefühl wenn sie mit sdram soviel power hat wie andere mit ddrsdram. das tile based rendering beeindruckt mich halt irrsinnig.
bei ati hab ich einfach das gefühl dass sie versuchen mehr features reinzupacken und verfahren komplett zu überarbeiten (bsp AA bei r9700pro).

nvidia benutzt natürlich genauso solche techniken aber insgesamt hab ich doch das gefühl dass geforce sehr auf MHz getrimmt sind (das neue AA ist nen softwareupdate, beim AF hat sich auch nichts geändert, wie gesagt nur der performancemodus ist wirklich interessant) genauso wie intel.

ati zieht nicht die MHz-schraube immer fester sondern verbreitert den speicherbus, fixt den bug mit dem tri-AF, entwickelt ein genial schnelles und gutes AA., führt trueform ein, die r8500 war im vergleich zu gf3 auch deutlich innovativer etc etc.

bei nvidia kommt mir das meistens immer etwas halbherziger vor, wobei ich einräumen muss dass das auch ein sehr subjektiver eindruck ist.

abgesehn mal davon hab ich das gefühl dass ich bei einer ati mehr für mein geld bekomme (besseres preis/leistungsverhältnis).
die gf4ti4200 war da natürlich eine absolut positive ausnahme und ich hoffe sowas wirds auch bei der geforce-fx geben...

aths
2002-12-26, 19:24:02
Originally posted by LovesuckZ
;D <-- Meine GF3 ist innovationsarm? Sie ist weniger innovativ als landläufig angenommen. Mehr in 1-2 Monaten :D bei 3dcenter.

aths
2002-12-26, 19:27:31
Originally posted by MeLLe
1. Techniken zur optimaleren Ausnutzung der vorhandenen Ressourcen verwendet auch nVidia."optimaler" geht es nicht. Alle bisherigen Techniken sind suboptimal. nV und ATI nutzen die Ressourcen besser, aber nicht optimal, also kann sie auch nicht "optimaler" genutzt werden, "optimalere" Ausnutzung ist ein Widerspruch in sich.http://www.handykult.de/plaudersmilies.de/person/znaika.gif

LovesuckZ
2002-12-26, 19:28:20
Originally posted by aths
Sie ist weniger innovativ als landläufig angenommen. Mehr in 1-2 Monaten :D bei 3dcenter.

Puh, dann hab ich sie nicht mehr:D

aths
2002-12-26, 19:34:00
Originally posted by ice cool69
nvidia benutzt natürlich genauso solche techniken aber insgesamt hab ich doch das gefühl dass geforce sehr auf MHz getrimmt sind (das neue AA ist nen softwareupdate, beim AF hat sich auch nichts geändert, wie gesagt nur der performancemodus ist wirklich interessant) genauso wie intel.Um mit GeForce3 mitzuhalten, musste ATI die Radeon 8500 LE auf 250 takten.
Originally posted by ice cool69
ati zieht nicht die MHz-schraube immer fester sondern verbreitert den speicherbus... was mehr Kosten bedeutet. nVidia nutzt 128 vorhandene Bits besser. Ist das nicht letztlich innovativer? Verbreitern kann nV immer noch.
Originally posted by ice cool69
fixt den bug mit dem tri-AFDas war kein Bug, sondern eine Design-Entscheidung.
Originally posted by ice cool69
entwickelt ein genial schnelles und gutes AA... während nVidia mit der GF FX im Prinzip nur GeForce3-AA vorzuweisen hat, ja.
Originally posted by ice cool69
führt trueform ein, die r8500 war im vergleich zu gf3 auch deutlich innovativer etc etc.Solange ATI nicht genügend Marktmacht hat, nehmen die Developer von der Technik wenig bis keine Notiz. Dass das so ist, ist nicht unbedingt "gut", aber was nützt z.B. TruForm, wenn vernünftige Anwendung dieses Features mit viel Aufwand verbunden ist, dem aber nur eine vergleichsweise schmale Hardware-Basis gegenüber steht?
Originally posted by ice cool69
abgesehn mal davon hab ich das gefühl dass ich bei einer ati mehr für mein geld bekomme (besseres preis/leistungsverhältnis). Ob es nun "gut" ist, oder nicht - der Marktführer kann sich seinen Namen besser bezahlen lassen als Nummer zwei.

ice cool69
2002-12-26, 19:43:59
@ aths

1. die r8500 ist gegen die ti500 angetreten, die le-version gegen die ti200

2. was heißt nvidia nutzt 128bit besser? die gf-fx kommt deutlich nach der r9700pro raus, bei gleichzeitigem erscheinen hätte man das vergleichen müssen

3. ok das stimmt

4. sag ich ja :D

5. das ist korrekt aber darum gings mir nicht. ati grabt nvidia immer mehr marktanteil ab, das dürfte sich also ändern

6. auch darum geht es mir nicht. es geht darum dass user die sich auskennen wie die meisten hier wohl eher zum besseren preisleistungsverhältnis greifen SOLLTEN (also gf4ti4200, gf3ti200, R9500pro, r8500le)

dass es optimaler nicht gibt ist mir klar, besser wäre das bessere wort gewesen ;)

LovesuckZ
2002-12-26, 19:46:41
Originally posted by ice cool69
1. die r8500 ist gegen die ti500 angetreten, die le-version gegen die ti200


Was wohl fuer die GF3 Reihe spricht. Und dann muesste man ATI hier vorwerfen, dass sie nur durch 'rohe' Kraft gleich auf mit der GF3 lagen. Irgendwie widerspruechlich zu deinen anderen Aussagen.

aths
2002-12-26, 19:57:53
Originally posted by ice cool69
@ aths

1. die r8500 ist gegen die ti500 angetreten, die le-version gegen die ti200Dann also 275 MHz gegen 240, und 250 MHz gegen 175.
Originally posted by ice cool69
2. was heißt nvidia nutzt 128bit besser? die gf-fx kommt deutlich nach der r9700pro raus, bei gleichzeitigem erscheinen hätte man das vergleichen müssenMan kauft doch Leistung. Da kann einem egal sein, wie diese erreicht wird. Ob nun weniger MHz und 256 Bit, oder mehr MHz und 128 Bit, nimmt sich für den Käufer doch nichts. Der will für möglichst viele und "schöne" fps möglichst wenig bezahlen.
Originally posted by ice cool69
5. das ist korrekt aber darum gings mir nicht. ati grabt nvidia immer mehr marktanteil ab, das dürfte sich also ändernSchön wäre es, wenn dann noch ein dritter Anbieter auf gleicher Augenhöhe wäre, dann gäbe es richtigen Konkurrenzkampf. Im Moment muss man ja nur den jeweils anderen überbieten - aber nicht mehr.
Originally posted by ice cool69
6. auch darum geht es mir nicht. es geht darum dass user die sich auskennen wie die meisten hier wohl eher zum besseren preisleistungsverhältnis greifen SOLLTEN (also gf4ti4200, gf3ti200, R9500pro, r8500le)Ich selbst griff das letzte mal nur zur Leistung, und löhnte einen unerhörten Preis dafür. Hat sich das gelohnt? Schwer zu sagen. Die Leistung befriedigt noch heute, aber das ausgegebene Geld ist natürlich weg.
Originally posted by ice cool69
dass es optimaler nicht gibt ist mir klar, besser wäre das bessere wort gewesen ;) Ich hatte MeLLe zitiert, nicht dich :)

Demirug
2002-12-26, 20:04:42
Was den Sinn und die Zukunft von Truform angeht: http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=45941

Razor
2002-12-26, 20:19:02
Originally posted by ice cool69
5. das ist korrekt aber darum gings mir nicht. ati grabt nvidia immer mehr marktanteil ab, das dürfte sich also ändern
Zahlen ?

Alles, was ich bisher darüber gehört habe, spricht eher vom Gegenteil !
Sprich: Auch mit R9700pro hat ATI Marktanteile verloren...

Razor

Unregistered
2002-12-26, 21:00:52
ok razor dann belege das auch mit zahlen :)

was du von andern forderst solltest du auch serlber umsetzen.

Razor
2002-12-26, 21:15:05
Originally posted by Unregistered
ok razor dann belege das auch mit zahlen :)

was du von andern forderst solltest du auch serlber umsetzen.
http://zdnet.com.com/2110-1103-964770.html
http://news.com.com/2100-1040-964780.html?tag=lh

Und ansonsten empfehle ich www.google.de und die Suchwörter "market share nvidia"...

Razor

ice cool69
2002-12-26, 21:35:31
du schaust auf eine zu kurze zeitspanne. ati hat auf jeden fall einen aufwärtstrend zu verzeichnen. vom know how her wirds auch immer mehr.

von generation zu generation kann ati mit nvidia besser mithalten
wer war ati noch vor 2 jahren?
die radeon sah noch sehr blass aus im vergleich zur geforce2.
die r8500 hat schon viel mehr zeigen können und die r9700pro verhilft ati zum ersten mal zu einem deutlichen performancetron.

und genauso siehts wohl auch mit den verkaufszahlen aus...

alles weitere ist absolute spekulation und hat weniger mit großartigen wirtschaftsexperten zu tun. auch wenn hier der eine oder andere glaubt ein solcher zu sein...

Unregistered
2002-12-26, 21:52:04
Originally posted by Razor

http://zdnet.com.com/2110-1103-964770.html
http://news.com.com/2100-1040-964780.html?tag=lh

Und ansonsten empfehle ich www.google.de und die Suchwörter "market share nvidia"...

Razor

es geht dcoh danke ;)

Aquaschaf
2002-12-30, 12:19:51
Originally posted by Eusti
Auf dieses Argument reagiere ich immer wieder allergisch. Man kann auch die Vergleichskarte Übrtakten. Wenn du eine 9700 von 300 auf 400 MHZ übertakten kannst, dann ist die Wahrscheinlichkeit genau so groß, eine GFFX von 500 auf 650 MHZ zu übertakten. Die Hersteller haben bisher immer Luft nach oben gelassen, um die Karten auch in heißen Innengehäußen, bei schlechten Chips ohne Fehler laufen zu lassen.
Hast du den Lüfter der Geforce FX nicht gesehen ?
Gerüchten zufolge sollte die mit 400MHZ erscheinen , war dann aber noch zu langsam ... also die ist höchstwahrscheinlich schon übertaktet .

LovesuckZ
2002-12-30, 12:22:51
Originally posted by Aquaschaf
Hast du den Lüfter der Geforce FX nicht gesehen ?
Gerüchten zufolge sollte die mit 400MHZ erscheinen , war dann aber noch zu langsam ... also die ist höchstwahrscheinlich schon übertaktet .

;D

Unregistered
2002-12-30, 13:04:38
"
du schaust auf eine zu kurze zeitspanne. ati hat auf jeden fall einen aufwärtstrend zu verzeichnen. vom know how her wirds auch immer mehr.

von generation zu generation kann ati mit nvidia besser mithalten
wer war ati noch vor 2 jahren?
die radeon sah noch sehr blass aus im vergleich zur geforce2.
die r8500 hat schon viel mehr zeigen können und die r9700pro verhilft ati zum ersten mal zu einem deutlichen performancetron.

und genauso siehts wohl auch mit den verkaufszahlen aus...

alles weitere ist absolute spekulation und hat weniger mit großartigen wirtschaftsexperten zu tun. auch wenn hier der eine oder andere glaubt ein solcher zu sein...
"

Du redest um den heissen Brei herum.

Deine Auassage zuvor war
"
5. das ist korrekt aber darum gings mir nicht. ati grabt nvidia immer mehr marktanteil ab, das dürfte sich also ändern
"
Und die ist schlichtweg total falsch.
ATI hat seid dem Radeon8500 Marktanteile gewonnen. Das ist wohl war.
Besonders viel wars aber denoch nicht und zu deiner Enttäuschung gingen diese Marktanteile überhaupt nicht zu Lasten von Nvidia sondern anderen Konkurenten.
Dazu gibt es eine schöne Analyse von Mercury Research.
Seid Intels integriertem P4 Chipsatz hat ATI aber wieder eingebüsst.
Und auch das Fehlen konkurenzfähiger Lösungen im mittleren Bereich hat sich nachteilig ausgewirkt.
Die Radeon9700pro gab es zwar schon aber das hat ATI nicht davor gerettet im Desktop Grafikkartenbereich 3% an Nvidia zu verlieren.
Zahlen und die entsprechenden Berichte dazu findet man bei Znet, J.P.Morgan, Merryl Lynch usw..

Bis jetzt hat ATI nur den Umsatz um 32% gesteigert und 5 Mio Gewinn eingerfahren.
Von grossen Marktanteilsgewinnen ist nirgends die Rede.
Dies lässt sich erst feststellen, wenn die entsprechenden Reports von Forrester, Mercury oder Dataquest kommen und ich vermute mal das sich Gewinne bei den Marktanteilen erst deutlich bemerkbar machen, wenn die 9500 und pro flächendeckend in Massen verfügbar ist.
Die Radeon9000 hat es nicht geschafft. Das hätte ATI gern gehabt aber zu ihrem Leidwesen haben die meissten dann doch lieber die GF4MX genommen.

Razor
2002-12-30, 13:54:24
Originally posted by ice cool69
du schaust auf eine zu kurze zeitspanne. ati hat auf jeden fall einen aufwärtstrend zu verzeichnen. vom know how her wirds auch immer mehr.

von generation zu generation kann ati mit nvidia besser mithalten
wer war ati noch vor 2 jahren?

<snip>

alles weitere ist absolute spekulation und hat weniger mit großartigen wirtschaftsexperten zu tun. auch wenn hier der eine oder andere glaubt ein solcher zu sein...
Wie lange gibt es ATI schon ?
Und wie lange dann nVidia ?

Erst nVidia hat ATI dazu gezwungen, endlich mal auf den Markt einzugehen und nicht einfach nur abzukassieren, denn schließlich darf man ATI mit Intel und nVidia mit AMD gleichsetzen, nur das sich nVidia gegen ATI durchsetzen konnte, AMD wohl aber nicht gegen Intel. Und man bedenke, dass ATI vorher unangefochtener (Gesamt-)Marktführer war... mit all seinen Nachteilen (schlechter Service, hoher Preis).

So wird ein Schuh draus und nicht anders !

Wo ich Dir recht gebe, ist, dass sich langsam etwas zu tun scheint. So ist z.Bsp. der Treiber-Support wesentlich besser geworden. Jetzt muss ATI nur noch rentabel arbeiten und die Sache geht vielleicht gut und sie können ein Teil des Marktes zurück erobern. Zur Zeit sieht es allerdings nicht so aus...

Bis denne

Razor

ice cool69
2002-12-30, 15:16:22
gerade zur zeit sieht es für ati nicht schlecht aus dank der zur zeit deutlich überlegenen r300-serie.

ist der vergleich ati-intel ein bischen an den haaren herbeigezogen.

ati hat vor der radeonserie noch nie im retailmarkt mitgemischt sondern sich auf normale bürografikkarten beschränkt.
erst mit der radeon sind sie in den retailmarkt vorgedrungen als die geforce alles beherrscht hat.

ich sehe die situation momentan anders:
intel und nvidia auf der einen und amd und ati auf der anderen seite.

Quasar
2002-12-30, 15:31:28
"Momentan" sicherlich. Aber wenn du dir mal die Geschichte ansiehst, wirst du sehr viel mehr Ähnlichkeiten zwischen Intel und ATi feststellen.
Beide Firmen gibt es deutlich länger als ihre Rivalen, beide Firmen haben über Jahre hinweg mit nahezu beliebigen Preisen den Consumermarkt dominiert und beide Firmen sind Ende der Neunziger durch einen vormals schwächlichen Emporkömmling ernsthaft herausgefordert worden.
Intel hatte lange nicht viel gegen AMD auszurichten, erst mit dem Northwood konnten sie sich vorerst wieder absetzen, ebenso konnte ATi lange Zeit nicht mit nVidias Produkten mithalten, erst der R300 konnte ihnen hier wieder Luft verschaffen.

ice cool69
2002-12-30, 15:41:13
das stimmt aber anstatt sich in der vergangenheit zu welzen sollte man die aktuelle situation ansehen und da hat sich nunmal das blatt gewendet.
heutzutage sehe ich viel mehr parallelen zwischen nvidia und intel als zwischen ati und intel.

es ist nunmal leider so dass solange es einen eindeutigen marktführer gibt wir eine für den endkunden schlechte situation haben. genau aus diesem grund bin ich in erster linie für die nr2 am markt, egal welche firma das ist.

du wirst überrascht sein aber als 3dfx noch retail-marktführer war hab ich auf nvidia gesetzt weil diese deutlich innovativer waren.

jetzt wo nvidia oben ist bin ich für ati und sollte ati wieder oben sein werde ich nvidia unterstützen oder wer auch immer dann nr2 sein sollte.

natürlich hängt das auch vom preis/leistungsverhältnis ab, aber meistens ist es auch so dass die nr2 am markt deutlich attraktivere angebote hat als die nr1.
eine absolut positive ausnahme ist die gf4ti4200, aber ausnahmen bestätigen nunmal leider die regel.

MeLLe
2002-12-30, 16:38:31
Wenn Du nVidia mit Intel gleichsetzt, dann müsste aber auch nVidia die schnellste Karte am Markt haben. :naughty:

Was Innovationen angeht, was nVidia zu 3dfx-Zeiten nicht wirklich innovativ. Zu den Zeiten, zu denen Features wie HW-T&L bzw 32bit-Rendering in HW von nVidia eingeführt wurden, gab es kaum Nutzen dafür. 3dfx hat da innovativ gearbeitet, so z.B. mit dem RAMDAC-Postfilter den 16bit-Modus qualitativ verbessert (V3), oder anwendungsunabhängiges RGSS-FSAA eingeführt (VSA100).
Bis jetzt war nVidia nicht innovativ, sondern einfach nur evolutionär. Der nV30 ist IMHO der erste Chip einer neuen Generation, mit zarten Einflüssen aus aufgekaufter 3dfx-IP. Für nV35/40 erwarte ich richtige Innovation.

Razor
2002-12-30, 19:31:21
Originally posted by ice cool69
gerade zur zeit sieht es für ati nicht schlecht aus dank der zur zeit deutlich überlegenen r300-serie.

ist der vergleich ati-intel ein bischen an den haaren herbeigezogen.

ati hat vor der radeonserie noch nie im retailmarkt mitgemischt sondern sich auf normale bürografikkarten beschränkt.
erst mit der radeon sind sie in den retailmarkt vorgedrungen als die geforce alles beherrscht hat.

ich sehe die situation momentan anders:
intel und nvidia auf der einen und amd und ati auf der anderen seite.
Ob ATI was aus der jetzigen Situation macht und am Ball bleibt, ist abzuwarten...
Für den Consumer-Markt wäre das sicherlich gut.
Und der ATI/Intel-Vergleich paßt scho' !
;-)

Der Retail-Markt ist lediglich ein Prestige-Markt für die großen Hersteller, mehr auch nicht. Das Geld wird im OEM-Bereich gemacht und das ist das Feld, auf dem ATI 'ne Menge an Boden verloren hat. Sei's drum, sie haben ja jetzt evtl. die Möglichkeit, wieder Boden wett zu machen.

Bis denne

Razor

Unregistered
2002-12-31, 14:43:48
naja, ich hatte mit meiner ati rage128 ca 3 jahre spass, und kann echt nich sagen das ich grosse probleme hatte! rage tweaker druff und die neusten beta treiber , und wenn was war rageunderground forum, da gabs kein stress! musste man evlt nur bissle fummeln...
und mit meiner riva 128 hatte ich NUR stress, nur!! opengl.dll von da nach da kopieren, hier wadd einstellen da wadd einstellen, auf nen neuen beta opengl warte etc...ich denk das ati mit nvidia bald gleichziehn wird , egal ob obtreiber oder what ever

Unregistered
2003-01-06, 02:21:28
innovation erkennt man daran wie sie alles spätere prägen und da hinkt nvidia auf jedenfall hinterher

beispiele:

multimonitorsupport: matrox
displacemantmapping (n-patch tesselation (truform) hat sehr viel ähnlichkeit damit): matrox (ati)
environmental bumpmaping: matrox
dot3 bumpmaping: 3dfx
einsparungstechniken á la HyperZ: ati
programmierbare shader: 3dfx (1.0er shader des rampage, darum sind die der GF3 auch 1.1er)
FSAA: 3dfx
unschärfe (tiefen-, bewegungs- etc.): 3dfx
HSR: powerVR
T&L: sgi (in gewisser weise)
texturkompression: S3

was hat nvidia da gegenzuhalten? curved surfaces? 32bit rendering?

sollte ich mich wo vertan haben bitte um berichtigung ;)

tEd
2003-01-06, 06:53:45
innovation erkennt man daran wie sie alles spätere prägen und da hinkt nvidia auf jedenfall hinterher

beispiele:

multimonitorsupport: matrox
displacemantmapping (n-patch tesselation (truform) hat sehr viel ähnlichkeit damit): matrox (ati)
environmental bumpmaping: matrox bitboys pyramid3d
dot3 bumpmaping: 3dfx nvidia(gf1)3dfx hatte nie dot3
einsparungstechniken á la HyperZ: ati
programmierbare shader: 3dfx (1.0er shader des rampage, darum sind die der GF3 auch 1.1er) bitboys pyramid3d,Nvidia (register combiner)
FSAA: 3dfx
unschärfe (tiefen-, bewegungs- etc.): 3dfx
HSR: powerVR
T&L: sgi (in gewisser weise) nvidia(gf1),bitboys pyramid3d(VS)
texturkompression: S3 powervr VQTC
cube environment mapping -> nvidia(gf1)
stencil buffer bitboys pyramid3d(1bit)

was hat nvidia da gegenzuhalten? curved surfaces? 32bit rendering?

sollte ich mich wo vertan haben bitte um berichtigung ;)

Unregistered
2003-01-06, 14:11:51
sry aber ich meinte das klassische bumpmaping und das kommt von der voodoo2


ausserdem: haben deine ergänzungen das wirklich gleichzeitig (bzw. als erste) entwickelt? zB EMBM mytrox & bitboys? - soviel ich weiß is das eine reine matroxentwicklung

Quasar
2003-01-06, 14:15:01
Wenn du so willst, haben die das alle nicht entwickelt, sondern einfach nur mathematisch seit Jahrzehnte bekannt Formeln in Hardware ermöglicht.

EMBM ist von den Bitboys entwickelt und von Matrox dann unter Lizenz in die G400 integriert worden.

Das "normale" Bump Mapping, wie du's nennst, ist nix, was man entwickeln musste, sondern ein relativ simpler Multi-Texturing Trick.

edit:
Programmierbare Microcode Ausführung gab's schon im Rendition Verité, also nix mit 3dfx, zumal der Rampage nie das Licht der Welt (im Händler-Regal!) erblick hat. Was die Jungs so hinter verschlossenen Türen entwickeln und nicht patentieren lassen, ist keine "Erfindung" in dem Sinne, sondern eine Machbarkeitsstudie.

Salvee
2003-01-06, 14:18:56
Originally posted by Unregistered
sry aber ich meinte das klassische bumpmaping und das kommt von der voodoo2


Das Emboss-Bumpmapping war wohl im Consumer-Bereich erstmalig auf dem 3dfx-Donut zu sehen, darstellen kann es,
wie Quasar schon schrieb, jede Graka mit Multitexturing.

Demirug
2003-01-06, 14:34:04
Originally posted by Salvee


Das Emboss-Bumpmapping war wohl im Consumer-Bereich erstmalig auf dem 3dfx-Donut zu sehen, darstellen kann es,
wie Quasar schon schrieb, jede Graka mit Multitexturing.

Emboss-Bumpmapping erfordert keine spezielle Vorkehrungen das geht mit jeder 3d Karte die Alpha-Blending kann.

aths
2003-01-06, 16:07:38
Originally posted by Unregistered
dot3 bumpmaping: 3dfxnVidia
Originally posted by Unregistered
programmierbare shader: 3dfx
T&L: sgi (in gewisser weise)Bzw. Bitboys (mit Pyramid3D) hatten afaik bereits sowas in der Art wie PixelShader und programmierbare T&L anzubieten. Leider fand sich kein Partner.

nVidia war und ist innovativ. Allerdings haben sie halt ihre eigene Schiene, und übernehmen "Fremd-Features" nur zögerlich. Imo achtet nV zuwenig auf das "Drumherum", auf mich persönlich wirkten z.B. die Voodoos immer "runder", bzw. ausgeglichener.

ice cool69
2003-01-06, 17:01:02
@ unreg

wo soll ati denn noch gleich zeihen? ich weiß keine eigenschaft von nvidia-grakas die ati mit den radeons nicht besser macht.

jetzt wo die produkte die nr1 sind ist marktanteile-wegreißen angesagt :D

aber bitte nur bis ati/nvidia sich die waage halten, danach is mir wurscht wer die bessere/günstigere grafikkarte anbieten kann. sind beides gute marken außerdem rulet sowieso powerVR :D

ow
2003-01-06, 17:26:30
Originally posted by aths
nVidia


:nono:

DOT3 kann schon er 3dLabs Permedia3 (aka Glint R3), der erschien (leider stark verspätet) etwa zeitgleich mit dem TNT2.

tEd
2003-01-07, 10:42:42
Originally posted by ow


:nono:

DOT3 kann schon er 3dLabs Permedia3 (aka Glint R3), der erschien (leider stark verspätet) etwa zeitgleich mit dem TNT2.

ja stimmt. Warum hatte dieser chip nochmal keinen erfolg? Es scheint das dieser zu seiner Zeit allen voraus war. Der erste chip der alle bumb-mapping arten unterstützte(dot3,EnvBM,EmbBM).

3dlabs schafft es immer wieder mich zu überraschen.

StefanV
2003-01-07, 14:11:54
Originally posted by tEd
ja stimmt. Warum hatte dieser chip nochmal keinen erfolg? Es scheint das dieser zu seiner Zeit allen voraus war. Der erste chip der alle bumb-mapping arten unterstützte(dot3,EnvBM,EmbBM).

3dlabs schafft es immer wieder mich zu überraschen.

1. weil ein anderer Chip gnadenlos gehypt wurde :eyes:
2. AFAIK lief die Permedia damals noch nicht soo 'rund'.
3. er war AFAIR langsamer als die anderen...

Aquaschaf
2003-01-07, 15:34:24
Originally posted by tEd
innovation erkennt man daran wie sie alles spätere prägen und da hinkt nvidia auf jedenfall hinterher

beispiele:

multimonitorsupport: matrox
displacemantmapping (n-patch tesselation (truform) hat sehr viel ähnlichkeit damit): matrox (ati)
environmental bumpmaping: matrox bitboys pyramid3d
dot3 bumpmaping: 3dfx nvidia(gf1)3dfx hatte nie dot3
einsparungstechniken á la HyperZ: ati
programmierbare shader: 3dfx (1.0er shader des rampage, darum sind die der GF3 auch 1.1er) bitboys pyramid3d,Nvidia (register combiner)
FSAA: 3dfx
unschärfe (tiefen-, bewegungs- etc.): 3dfx
HSR: powerVR
T&L: sgi (in gewisser weise) nvidia(gf1),bitboys pyramid3d(VS)
texturkompression: S3 powervr VQTC
cube environment mapping -> nvidia(gf1)
stencil buffer bitboys pyramid3d(1bit)

was hat nvidia da gegenzuhalten? curved surfaces? 32bit rendering?

sollte ich mich wo vertan haben bitte um berichtigung ;)
der Shader der Geforce 3 heißt doch nicht 1.1 weil auf der Rampage einer mit der Versionsnummer 1.0 sein sollte .
T&L war nicht unbedingt ein großer fortschritt .
Bump-Mapping , Displacement Mapping und Unschärfeeffekte in Computergrafik sind keine Erfindungen von Grafikkartenherstellern . Wo besteht eine Ähnlichkeit zwischen True-Form und Displacement-Mapping ????

Xmas
2003-01-07, 17:30:20
Originally posted by Aquaschaf
der Shader der Geforce 3 heißt doch nicht 1.1 weil auf der Rampage einer mit der Versionsnummer 1.0 sein sollte .

Der heißt deswegen 1.1 weil NVidia und 3dfx ihre Vorschläge bei Microsoft vorlegten, man sah dass GF3 ein bisschen mehr als Rampage kann und man diese Funktionalität zugänglich machen wollte.
Jedenfalls sagt das nicht, dass 3dfx zeitlich irgendwie vor NVidia war.

Wo besteht eine Ähnlichkeit zwischen True-Form und Displacement-Mapping ????
Tessellation, Verformung von Geometrie. Bei TruForm wird die Verformung errechnet, bei DM aus einer Textur ausgelesen.

ow
2003-01-07, 17:37:06
Originally posted by tEd


ja stimmt. Warum hatte dieser chip nochmal keinen erfolg? Es scheint das dieser zu seiner Zeit allen voraus war. Der erste chip der alle bumb-mapping arten unterstützte(dot3,EnvBM,EmbBM).

3dlabs schafft es immer wieder mich zu überraschen.



Steht bereits dabei;) Der Chip war AFAIk fast 9 Monate verspätet. In Games bringt er durchweg die Leistung einer TNT, eher schneller (insbesondere 32Bit), in professionellen OGL-Apps (Geometrieleistung) liegt er gar auf und über TNT2-Niveau.

Durch die Verspätung war es aber aus mit 3DLabs auf dem Gamersegment. Während der Vorgänger Permidia2 von praktisch ALLEN Kartenherstellern verbaut wurde, gab es in Europa schon keine Permedia3 Boards mehr.
Der Glint R3 Rasterizer wurde auf der VX1 undd GVX1/210 verbaut. Die GVX1 hatte noch einen T&L Prozesser an Board.
Die GVX210 kam mit 2 T&L & 2R3 Chips.

Seit dem verspäteten Permedia3 wurde von 3dlabs bis heute nichts mehr auf dem Gamersegment gesehen. Leider.

ow
2003-01-07, 17:42:44
Originally posted by Stefan Payne


1. weil ein anderer Chip gnadenlos gehypt wurde :eyes:
2. AFAIK lief die Permedia damals noch nicht soo 'rund'.
3. er war AFAIR langsamer als die anderen...


1. Quatsch!! S. mein Posting oben. VERSPÄTUNG!!

2. ??? Im Rahmen dessen, was der Permedia2 an Funtionen beherrschte, lief er sehr rund. Die 3dlabs Treiber sind von wirklich guter Qualität (obwohl OGL da naturgemäss etwas besser dasteht:D)

3. Jo SP, s. 1. Im übrigen hat kein Kartenhersteller den Permedia3 verbaut. Den gibt´s nur auf original 3Dlabs Karten. Und die Preise sind da auch nicht billig.

StefanV
2003-01-07, 18:52:25
Originally posted by ow



1. Quatsch!! S. mein Posting oben. VERSPÄTUNG!!

2. ??? Im Rahmen dessen, was der Permedia2 an Funtionen beherrschte, lief er sehr rund. Die 3dlabs Treiber sind von wirklich guter Qualität (obwohl OGL da naturgemäss etwas besser dasteht:D)

3. Jo SP, s. 1. Im übrigen hat kein Kartenhersteller den Permedia3 verbaut. Den gibt´s nur auf original 3Dlabs Karten. Und die Preise sind da auch nicht billig.

1. oder so..

2. *hust*
gibts überhaupt Treiber für Windows 2k/XP, damit man die Permedia 2 zu mehr als 4 bit Farbtiefe überreden kann ??
War echt überrascht, daß selbst der VESA Treiber von XP nicht funzt...

3. wollte auch noch den Preis dazu schreiben, war mir aber nicht soo ganz sicher ;)

Mag zwar sein, daß der Permedia brauchbar ist, dennoch würd ich persönlich einer Rage PRO immer den Vorzug geben...

Rampage 2
2003-01-07, 20:42:01
Originally posted by LovesuckZ
Auf ixbt.com (http://www.ixbt.com/video2/sapphire-r9500-128.shtml) wurde die R9500 getestet - auch unter Doom3 Version: 0.02 (;D ). Schonmal nen erster Anhaltspunkt, wie hardwarehungrig Doom3 sein wird.

http://www.bigsmedia.de/d.gif

id-Software halt;D - denen ist es egal ob die Hardware am verrecken
ist - war das in Quake3 nicht genauso gewesen??? - LOL - ich das konnte
Spiel grad mal mit 20fps @ 640x480x16Bit (medium quality) auf meiner früheren Riva128
zocken;D.
Aber ich finde, id wählt den richtigen Weg - lieber sofortige Inno-
vation, als ständig die selbe Klugscheisser-Grafik.

Fatality
2003-01-13, 15:34:17
ihr müsst auch bedenken das das spiel noch im design ist und später nochmal für alle gängigen grakas optimiert wird.
Carmack sprach von sogenannten Backends, also man wird mit einer radeon9700 pro locker über 60fps in 1024x768x32 mit allen details kommen (mit cpu +2ghz).

schon allein mit einer ALPHA-version zu testen ist der hirnriss pur *lol*

mapel110
2003-01-13, 15:55:43
Originally posted by Fatality
ihr müsst auch bedenken das das spiel noch im design ist und später nochmal für alle gängigen grakas optimiert wird.
Carmack sprach von sogenannten Backends, also man wird mit einer radeon9700 pro locker über 60fps in 1024x768x32 mit allen details kommen (mit cpu +2ghz).

schon allein mit einer ALPHA-version zu testen ist der hirnriss pur *lol*

diese backends sind schon in dieser version enthalten !

inwiefern das noch zu optimieren ist, ist schwer zu sagen. ich denke, da können mehr die treiber-programmierer der graka-hersteller leisten, als ID.

Korak
2003-01-13, 21:34:18
yeah
ich würd auf ca. 3 Farmes kommen. Nagut eher so 1,5-2 ;D

edit: gibts ne Möglichkeit das auf fpm oder so umzustellen??? :D

mapel110
2003-01-13, 22:39:39
Originally posted by Korak
yeah
ich würd auf ca. 3 Farmes kommen. Nagut eher so 1,5-2 ;D

edit: gibts ne Möglichkeit das auf fpm oder so umzustellen??? :D

die engine wird wohl ähnlich der quake3 engine stark skalierbar sein. also bekommst genug optionen, wo du dran drehen kannst, um auf spielbare 10-15 fps zu kommen :D

Unregistered
2003-01-14, 18:47:44
Wenn ich mir anschau, wie meine UT Alpha sich einen abgeruckelt hat, mach ich mir über D3 überhaupt keine Gedanken.

Die UT Alpha hatte 5-10 Frames und im fertigen Spiel warens 40.
Da läuft D3 ja richtig flüssig dagegen.

Ich denke, dass ich mit meiner kl. 9700er

1024*768 4AA 16AF - natürlich mit allen Details

zocke.

Warten kann so grausam sein...

Unregistered
2003-01-14, 18:53:37
das mit dem 4xAA bezog sich aber nicht auf DOOM, oder??

Unregistered
2003-01-15, 19:55:16
Natürlich bezieht sich das auf DOOM!

Lethargica
2003-01-15, 20:22:49
Originally posted by Unregistered
Wenn ich mir anschau, wie meine UT Alpha sich einen abgeruckelt hat, mach ich mir über D3 überhaupt keine Gedanken.

Die UT Alpha hatte 5-10 Frames und im fertigen Spiel warens 40.
Da läuft D3 ja richtig flüssig dagegen.

Ich denke, dass ich mit meiner kl. 9700er

1024*768 4AA 16AF - natürlich mit allen Details

zocke.

Warten kann so grausam sein...

das mit dem 4xAA wird meiner Meinung nach bei Max details nichs werden...

Fatality
2003-01-15, 20:32:36
Originally posted by Unregistered
Natürlich bezieht sich das auf DOOM!

in deiner welt *g*
aa aus, dann könnte es was werden.
und auch dann nur wenn du auf PRO übertaktest *g*

nggalai
2003-01-15, 20:42:49
"max Details" beinhaltet bei DooM3 bereits anisotropes Filtering, muss man also aufpassen bei Vergleichen.

Ansonsten liegt der unreg mit seiner Einschätzung nichtmal sooo daneben--kommt natürlich auch drauf an, wie man noch "spielbar" definiert. 60fps liegen damit auf der Radeon9700 Pro definitiv meist nicht mehr drin.

ta,
-Sascha.rb

Unregistered
2003-01-15, 21:38:33
Spielbar sind > 35 fps, resp ich merke dann keinen grossen Unterschied mehr, sprich dem Auge realisiert eh nicht mehr Wdh/sek.

Andre
2003-01-15, 21:42:50
Originally posted by Unregistered
Spielbar sind > 35 fps, resp ich merke dann keinen grossen Unterschied mehr, sprich dem Auge realisiert eh nicht mehr Wdh/sek.

Ohoh, dass riecht nach FPS-Diskussion =)

Eusti
2003-01-15, 21:51:20
Originally posted by Andre
Ohoh, dass riech nacht FPS-Diskussion =) Ab 35fps keinen Unterschied mehr. So ein Blödsinn. Der Zuschauer kann vielleicht nicht mehr viel Unterschied erkennen. Für den Spieler macht es aber einen deutlichen Unetrschied, on ein Game mit 35fps läuft, oder mit 100fps. Bei 100fps fühlt sich das Spiel viel geschmeidiger an. Man hat einfach das Gefühl, das man das Spiel besser kontrollieren kann.

Ich sehe zwar den Unterschied nicht mehr sehr deutlich, aber ich kann Ihn fühlen!

mapel110
2003-01-15, 21:52:40
Originally posted by Unregistered
Spielbar sind > 35 fps, resp ich merke dann keinen grossen Unterschied mehr, sprich dem Auge realisiert eh nicht mehr Wdh/sek.

für doom3 sollten 35 fps ausreichen, da man dem mariner ja nen lam0r mode verpasst hat :D
bin gespannt, ob der "speed" von ihm noch weiter abnimmt bei verletzungen.

Eusti
2003-01-15, 22:19:53
Originally posted by mapel110
für doom3 sollten 35 fps ausreichen, da man dem mariner ja nen lam0r mode verpasst hat :D
bin gespannt, ob der "speed" von ihm noch weiter abnimmt bei verletzungen. Die 35fps reichen aus, ja. Aber das "Feeling mit 100fps" ist doch noch nee Ecke besser.

Nach Schulnoten wür dich sagen:
35fps = ausreichend
100fps = gut

Ich hab auch Mafia mit 35fps gezockt (und da sind die fps noch unwichtiger). Aber mit 100fps hätte es doch noch nee kleine Ecke mehr Fun gemacht. Dann wäre z.B. das steuern der Autos einfacher, und das minimale ruckeln verschwindet dan auch.

Fatality
2003-01-15, 22:20:28
also egal welches game, für mich ist es ab 60fps angenehm und bestens spielbar. klar reichen auch 35-40, aber mit 60 ist es wie schon gesagt auch vom gefühl her anders und man kann voll eintauchen :D

Rampage 2
2003-01-16, 11:09:08
Originally posted by Unregistered
Wenn ich mir anschau, wie meine UT Alpha sich einen abgeruckelt hat, mach ich mir über D3 überhaupt keine Gedanken.

Die UT Alpha hatte 5-10 Frames und im fertigen Spiel warens 40.
Da läuft D3 ja richtig flüssig dagegen.

Ich denke, dass ich mit meiner kl. 9700er

1024*768 4AA 16AF - natürlich mit allen Details

zocke.

Warten kann so grausam sein...

:bonk: :bonk: :bonk:

Na dann Waidmanns Heil, Superman. Wenn du D3 bei der Auflösung und
den Einstellungen noch flüssig spielen kannst, scheiße ich mir in
Hose!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Unregistered
2003-01-16, 20:25:40
Lieg ich so daneben???

Gibts schon Erkenntnisse warum man mit 4AA u. 16 AF mit ner 9700er nicht zocken kann!

Ist die DOOM-Engine um so viel leistungshungriger (Graka) als die UT2-Engine.

Also 35 fps find ich auch ein bisserl wenig!!!

Liquaron
2003-01-16, 20:29:45
Originally posted by Rampage 2


:bonk: :bonk: :bonk:

Na dann Waidmanns Heil, Superman. Wenn du D3 bei der Auflösung und
den Einstellungen noch flüssig spielen kannst, scheiße ich mir in
Hose!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Mhh so unrecht könnte der Unreg. vielleicht gar nicht mal haben. Bis jetzt wurden immer wahnsinnige Hardwareanforderungen vorausgesagt. Das bei fast jedem Spiel. Jedoch konnte man sie immer recht gut zocken auch mit älteren systemen. Also 4AA und 16AF sind vielleicht wirklich ein wenig viel. Aber knapp darunter dürfte das meines erachtens schon ok sein. Denn welcher Spieleenwickler enwickelt auch ein Spiel nur für Monster Pc´s ?

Unregistered
2003-01-16, 20:50:47
Denn welcher Spieleenwickler enwickelt auch ein Spiel nur für Monster Pc´s ?

Mmmmh.

Erinnert sich noch einer an zB WingCommander????

Eusti
2003-01-16, 20:58:08
Originally posted by Unregistered
Erinnert sich noch einer an zB WingCommander???? Oder jemand an Outcast?

StefanV
2003-01-16, 21:01:23
Originally posted by Unregistered
Erinnert sich noch einer an zB WingCommander????

*meld*

Ich kenn Wing Commander !!

War eine geile Serie mit noch höheren Hardware Anforderungen...


WC3 war schon ein ziehmlicher HW Fresser gewesen, damals...

Pirx
2003-01-16, 21:03:41
Originally posted by Unregistered
Erinnert sich noch einer an zB WingCommander????

Spielte ich auf meinem 286-16 1MB RAM (oberen Speicher als EMS):)

Unregistered
2003-01-16, 22:47:52
Originally posted by Eusti
Oder jemand an Outcast? Das läuft sogar auf einem Athlon 1300 mit 512 MB noch nicht richtig flüssig, was mehr als die doppelte Leistung ist als die, die der bei Veröffentlichung von Outcast schnellste PC brachte, IIRC ein Athlon 600; mehr als 128 MB war damals noch nicht so üblich.
Allerdings spiele ich es jetzt bei 640x480, damals ging es nur bis 512x384. Und es sieht selbst für heutige Maßstäbe nicht schlecht aus mit Anti-Aliasing in Software.
Und damit zurück zu Doom3.

FLH2002
2003-01-16, 23:33:06
---------------

-X-
2003-01-16, 23:35:54
und mafia auf meinem 1.1ghz athlon b,kein spaß mit 15-20 fps durch die gegend zu gurken:D ...
@flh2002:lies mal die regeln dieses boards durch,außerdem isses keine demo;):asshole: