PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Es geht los... der GeForce4 MX wahn...


Gohan
2002-02-14, 15:42:24
Die Power Mac G4 Modelle mit einem 933MHz bzw. mit zwei 1GHz Prozessoren werden mit dem phänomenalen NVIDIA GeForce4 MX Grafikprozessor mit 64MB DDR-Speicher auf dem Prozessormodul geliefert. Der NVIDIA GeForce4 MX Prozessor arbeitet mit über 1 Milliarde strukturierter Pixel pro Sekunde — eine Leistung, die bislang nur auf spezialisierten High-End-Workstations für Wissenschaftler und Ingenieure verfügbar war. Mit Hardwareunterstützung für Transformation und Beleuchtung (T&L, Transform & Lighting), pixelweiser Schattierung und packenden 3D-Effekten bei höchsten Auflösungen öffnet der NVIDIA GeForce4 MX Grafikprozessor neue Dimensionen für Spiele und 3D-Grafiken. Er übernimmt die Berechnungsfunktionen für Transformation und Beleuchtung von der CPU Ihres Computers. Hierdurch werden eine stabilere Kollisionserkennung, bessere Algorithmen zur Pfadberechnung und realistischere physische Formen möglich. Kurven werden korrekter dargestellt, die Spielfiguren sehen natürlicher aus und die Gesamtdarstellung des Spiels ist detailreicher, schärfer und schneller.

Das ist fies... ok ist nur ein Mac, aber trotzdem... hoffen wir das das auch nicht andere Hersteller so darstellen werden.

Leonidas
2002-02-14, 16:06:57
Keine Sorge, andere Hersteller werden dies auch so darstellen.

Major
2002-02-14, 16:10:21
argh müssen die diese **** MX auch noch so belobigen?

ow
2002-02-14, 16:18:26
Originally posted by Major
argh müssen die diese **** MX auch noch so belobigen?



Welcher Hersteller redet seine Produkte denn schlecht?
Nenn doch mal Beispiele dafuer.

Exxtreme
2002-02-14, 16:46:49
Tja, eins werde ich sicherlich nicht tun - und zwar mich über die Unwissenheit anderer Leute aufregen. Wer sich die GF4MX kauft und damit glücklich wird -> schön für ihn. Wer nicht glücklich wird -> selbst schuld. Man hätte sich vorher informieren sollen. So sehe ich das.

Gruß
Alex

nggalai
2002-02-14, 17:04:26
[...] pixelweiser Schattierung und packenden 3D-Effekten [...] Die ist sehr geschickt gewählt, diese Featurebezeichnung. Sie ist zutreffend (die GF4MX kann DOT3), aber auch nahe genug am Buzz-Word "Pixel Shader" gewählt, dass einige wohl darauf reinfallen werden.

Nicht schlecht. Nicht schön, aber auch nicht schlecht.

ta,
.rb

Xmas
2002-02-14, 17:19:20
Dabei sollte man aber auch beachten, dass NVidia beim GeForce2 schon "per-pixel shading" bewarb, noch bevor es überhaupt Pixel Shader gab.

Piffan
2002-02-14, 18:34:41
Ich weiß gar nicht, was das Gemosere soll. Die Karte ist ok und gut is. Vor allem ist es noch gar nicht lange her, da war eine TNT64 in Verbindung mit Gigaprozis noch Standard. Die Karte hat doch alles, was der Gamer braucht.

Die Marketingsprüche sind natürlich heftig, keine Frage, was aber der Brauchbarkeit der Karte null Abbruch tut. Oder habe ich etwas verpennt und es gibt schon gute Spiele mit Shadereffekten, die auf DX7 Hardware nicht ordentlich laufen? (Aquanox läuft übrigens bestens auf ner G2, ist allerdings für mich kein Referenzspiel, es ist eine Nervensäge "g").

Die neueste Grakatechnologie ist bisher nur in Demos zu bestaunen und darum nur was für echte Enthusiasten (auch ein netter Marketingspruch "g").

Was mich an dem Marketinggebrumm wirklich ärgert ist nur folgendes: Da wird dem unbedarften Newbie suggeriert, daß allein durch die Nutzung dieser Superduperkarte die Spiele ein besseres Design erreichen....

Wenn die G4MX mit DDR tatsächlich der neue Standard in Komplett- Pcs wird, dann kann man doch wohl nicht meckern. Genau genommen nicht mal ein Rückschritt im Vergleich zum letzten Aldi: Die neue wird sicher besser performen, und die fehlenden Features jucken doch jetzt und in nächster Zeit niemanden....

Razor
2002-02-14, 19:56:56
"Was mich an dem Marketinggebrumm wirklich ärgert ist nur folgendes: Da wird dem unbedarften Newbie suggeriert, daß allein durch die Nutzung dieser Superduperkarte die Spiele ein besseres Design erreichen...."

Das haben duch nun wirklich alle Hersteller bei fast allen Releases von sich gegeben...
Wer's glaubt, ist selber schuld !
;-)

Razor

Doomtrain
2002-02-14, 20:03:13
Originally posted by nggalai
Word "Pixel Shader" gewählt, dass einige wohl darauf reinfallen werden.


Um nicht zu sagen tausende!!!

Gohan
2002-02-14, 20:03:50
Naja, so spielt nVidia leider den Technologiestopper...

GloomY
2002-02-14, 21:01:34
Originally posted by Gohan
werden [...] bessere Algorithmen zur Pfadberechnung [...] möglich.Wie zum Teufel kommen die darauf?
Ein besserer Algorithmus hat ein besseres Laufzeitverhalten und das hat ja nun mal gar nichts mit der verwendeten Hardware zu tun. Den besseren Algorithmus (so es ihn doch gäbe) kann ich auch so implementieren, auch ohne eine GF4MX...

ow
2002-02-15, 10:01:47
Originally posted by Gohan
Naja, so spielt nVidia leider den Technologiestopper...


Inwiefern?

Du kannst mir glauben, dass MAC User auf DX8.x was schei....
Gibt's dort naemlich nicht.


/edit: mich als Linux user interessiert DX auch nicht im Geringsten

[Bi]n ein Hoeness
2002-02-15, 12:06:01
mir geht dieses gf4mx gemeckere echt aufn nerv
solange sie bei aktuellen spielen gute leistung bringt ist doch echt egal was die jetzt für shader hat und welche nicht
ich würd mich freuen, wenn ich statt ner gf2mx ne gf4mx hätte
und die performance der gf4mx ist wahrlich nicht schlecht wenn man aktuelle spiele in betracht zieht
ob man jetzt doom3 damit spielen kann oder nicht ist zur zeit doch echt noch ne lächerliche frage weil kein aas weiss wann des denn überhaupt mal erscheinen wird

Der Herrscher
2002-02-15, 13:18:01
von der gf4mx würd ich die finger von lassen, meiner meinung nach ist das einfach ne höher getaktete gforce 2mx mit ein paar mehr funktionen, ich würde lieber die gf4 ti4400 oder 4200 nehmen wenn es ein paar spiele gibt die 128mx schon unterstützen

Piffan
2002-02-15, 13:24:48
Originally posted by GloomY
Wie zum Teufel kommen die darauf?
Ein besserer Algorithmus hat ein besseres Laufzeitverhalten und das hat ja nun mal gar nichts mit der verwendeten Hardware zu tun. Den besseren Algorithmus (so es ihn doch gäbe) kann ich auch so implementieren, auch ohne eine GF4MX...

Hier irrt Goethe aber gründlich! Wenn die Hardware dem Prozessor Last abnimmt (z.B. durch HardwareTl oder auch durch bessere Audioprozessoren), dann bleibt von der Rechenkapazität mehr über und kann in diverse Verbesserungen gesteckt werden, z.b. auch bessere Pfadberechnung ---> Die Einheiten verkeilen sich nicht so schnell oder entwirren schneller.

Bei Emperor liegt ja die Haupttaktik darin, den Gegner mit Tankrush plattzumachen (ok, geht auch mit Hirn, macht aber weniger Bock "g"). Wenn dann da ein Konvoi mit drei Minotauren und vielleicht 5 Mungos und 30 Männekens sich auf den Weg zum Gegner macht, da kann man schon manchesmal vor Wut kotzen, wenn sich Konvoi aufsplittet oder gar an einer Felsspalte hängenbleibt.....Nutzt man dann den "Joint" - Shortcut, merkt man plötzlich, was die Kiste rödelt um solche Pannen zu verhindern... Da sieht man, wofür ein starker Rechner noch gut ist außer zur Grafikdarstellung ;-)

GloomY
2002-02-16, 13:34:58
Originally posted by Piffan


Hier irrt Goethe aber gründlich! Wenn die Hardware dem Prozessor Last abnimmt (z.B. durch HardwareTl oder auch durch bessere Audioprozessoren), dann bleibt von der Rechenkapazität mehr über und kann in diverse Verbesserungen gesteckt werden, z.b. auch bessere Pfadberechnung ---> Die Einheiten verkeilen sich nicht so schnell oder entwirren schneller.

Bei Emperor liegt ja die Haupttaktik darin, den Gegner mit Tankrush plattzumachen (ok, geht auch mit Hirn, macht aber weniger Bock "g"). Wenn dann da ein Konvoi mit drei Minotauren und vielleicht 5 Mungos und 30 Männekens sich auf den Weg zum Gegner macht, da kann man schon manchesmal vor Wut kotzen, wenn sich Konvoi aufsplittet oder gar an einer Felsspalte hängenbleibt.....Nutzt man dann den "Joint" - Shortcut, merkt man plötzlich, was die Kiste rödelt um solche Pannen zu verhindern... Da sieht man, wofür ein starker Rechner noch gut ist außer zur Grafikdarstellung ;-)
Piffan,

mir ist schon klar, daß man mit mehr Rechenpower eine höhere KI hinbekommt (edit: hinbekommen kann ;) ) . Aber ein besserer Algorithmus und Entlastung des Prozzies für mehr Rechenpower sind zwei paar Schuhe.

Ein Algorithmus ist eine (schrittweise) Anordnung zum Lösen eines Problems. Wenn ich einen "besseren" Algorithmus gefunden habe, dann findet er eine bessere Lösung oder findet die gleiche Lösung in weniger Schritten.

Beispiel Sortierungsalgorithmen: Bubble-Sort vs. Bottom-Up Heap Sort
Beide Verfahren führen letztendlich zum gleichen Ergebnis (ein sortiertes Feld), unterscheiden sich aber in ihrem Laufzeitverhalten erheblich voneinander:
Bei n zu sortiernden Feldern hat Bubble-Sort den Aufwand O(n)=n². Heap-Sort hat dagegen nur O(n)=n*log(n)

Und zu behaupten, daß durch den Gebrauch der GF4 MX man einen besseren Algorithmus einsetzen kann, ist schlichtweg falsch und hat rein gar nichts mit der verwendeten Hardware zu tun.
Wenn es einen besseren Algorithmus gibt, dann kann ich ihn auch ohne die GF4 einsetzten...

Gohan
2002-02-16, 13:44:02
Desshalb habe ich damals immer in Battelzone gegen meinen Bruder verlorgen, der hatte 500 Mhz, ich nur 133 :D Sobald wir die Rechner tauschten, gewann ich immer ;)

Mark
2005-02-18, 15:37:32
ach, das waren damals noch zeiten :)

Blackbird23
2005-02-18, 17:07:44
ach, das waren damals noch zeiten :)
Held... Findest witzi die alten Threads rauszuholen?

ggggasd
2005-02-18, 17:58:50
jo mei da kommen hald die errinnerungen wieder

Raff
2005-02-18, 18:17:46
Erinnerungen hin oder her -- Sinn macht's nicht, einen derart alten Thread wieder auszugraben. Wenn Bedarf besteht über alte Zeiten zu diskutieren, dann erstellt einfach einen Thread, der sich mit genau diesem Thema befasst.

R.I.P.

=> *closed*

MfG,
Raff