PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wird es Matrox schaffen ???


Seiten : [1] 2

Rampage
2002-05-07, 23:02:20
hmm, je mehr ich über die neue matrox karte lese, desto mehr glaube ich es könnte schief gehen, und matrox wird sich die performencekrone (wenn überhaupt) nur kurz unter den nagel reißen können.

Denn außer der neuen speichergeometrie bringt matrox ja nicht wircklich viel neues. Und das Bandbreite allein nicht alles ist, wissen wir ja seit der Voodoo 5.

Und wenn ich lese das die Karte vielleicht gar nicht komplett die directx 9 spezifikationen erfüllt, komme ich irgendwie ins grübeln.
Ich denke mir zwar das es nicht wircklich nötig ist, allerdings kann nvidia und ati, dann richtig sprüche klopfen und das wirkt sich nicht gut auf den verkauf aus.

Außerdem wird sie auch nicht gerade billig mit einem 256bit ddr-bus und 256mb ram

Ich will die karte jetztnicht unötig in den dreck ziehen, aber wenn die auslieferung so lange dauert wie bei der g450 (kam fast ein jahr nach der vorstellung), stehen dir gf5 und die r300 schon in den startlöchern, und die sollen ja beide bekanntlich revolutionäre karten sein.

NOCHMAL: ich will matrox nicht schlecht machen ohne die genauen fakten zu kennen, sondern nur einmal diskutieren ob sie wirklich ein solcher hammerchip wird wie alle (naja die meisten) behaupten.
Ich bin FEST davon überzeugt das sie sehr schnell sein wird, nur für wie lange

Doomtrain
2002-05-07, 23:04:57
Matrox hat im Endeffekt gar nicht die Ambitionen ganz oben zu sein. Der Parhelia wird dennoch eine Revolution. Die neue Karte soll ja min. 18-20GB Speicherbandbreite haben. Ich denke aber das reicht für die Krone!!

Treiber: Optimal denke ich
2D: Indiskutabel
Speed: Min. 2x so schnell wie eine GeForce4 TI4600

Auch wenn die Karte DX9 nicht vollständig unterstützt, wäre mir das egal.

Ach, warten wirs ab!!

Rampage
2002-05-07, 23:08:11
Schon allerdings werden sich die nächsten karten von 3dlabs, nvidia und ati wohl auch in diesen bandbreiten-größen bewegen (256bit sei dank). und wie gesagt die frage ist wie schnell die karte im handel liegt

Doomtrain
2002-05-07, 23:13:40
Originally posted by Rampage
Schon allerdings werden sich die nächsten karten von 3dlabs, nvidia und ati wohl auch in diesen bandbreiten-größen bewegen (256bit sei dank). und wie gesagt die frage ist wie schnell die karte im handel liegt

Die Leute bei Matrox sind nicht blöd! Die werden es diesmal richtig machen. Warum sollten sie sich denn soooooo viel Zeit nehmen. Wenn die Karte fertig ist, kommt sie, auch VOR DX9.

jedi
2002-05-07, 23:15:17
Originally posted by Rampage
hmm, je mehr ich über die neue matrox karte lese, desto mehr glaube ich es könnte schief gehen, und matrox wird sich die performencekrone (wenn überhaupt) nur kurz unter den nagel reißen können.

Da könnte was dran sein, falls sie überhaupt vor dem nächsten nVidia-Chip herauskommen sollte.

Damals war das beim G200 genau so: wurde super gehypt, war auch sehr fortschrittlich, war 1-2 Monate spitze (und teuer), aber dann kam der TNT auf den Markt und hat den G200 alt aussehen lassen. Und Matrox' OpenGL-Treiber waren zuerst gar nicht vorhanden, kamen zu spät und wurden nie richtig gut.

jedi
2002-05-07, 23:16:46
Originally posted by Doomtrain

Wenn die Karte fertig ist, kommt sie, auch VOR DX9.

Wozu? Die entsprechenden Spiele kommen sowieso erst Jahre später.

Doomtrain
2002-05-07, 23:19:21
Originally posted by jedi


Da könnte was dran sein, falls sie überhaupt vor dem nächsten nVidia-Chip herauskommen sollte.

Damals war das beim G200 genau so: wurde super gehypt, war auch sehr fortschrittlich, war 1-2 Monate spitze (und teuer), aber dann kam der TNT auf den Markt und hat den G200 alt aussehen lassen. Und Matrox' OpenGL-Treiber waren zuerst gar nicht vorhanden, kamen zu spät und wurden nie richtig gut.

Die GL Treiber werden diesmal jedenfalls perfekt werden. Und wenn es halt nicht der schnellste Chip wird, egal. Leute, das Teil kommt von Matrox!!! Das würde mir für einen Kauf schon reichen. Wie gesagt min. 2x so schnell wie eine GeForce4 Ti4600.

Doomtrain
2002-05-07, 23:21:02
Originally posted by jedi


Wozu? Die entsprechenden Spiele kommen sowieso erst Jahre später.
Dann läuft wie halt solange im "Dx8 Modus" bis DX9 kommt!

Rampage
2002-05-07, 23:21:16
Originally posted by jedi


Wozu? Die entsprechenden Spiele kommen sowieso erst Jahre später.

Sag ich ja das ist gar nicht so wichtig, hauptsache deplacement mapping, das wird sicher geil aussehen (haben das eigentlich alle dx9 karten oder nur die matrox ??? )

Allerdings haben nvidia und ati, dann wieder einen vorteil beim marketing, denn uninformierte käufer greifen dann lieber zu den vollwertigen dx9 karten.

Aber wer weiß ob das überhaupt stimmt, ich meine wieso sollten sie nicht dx9 komplett unterstützen ???

Ceiser Söze
2002-05-07, 23:22:47
FSAA-Liebhaber werden am Parhelia eine reine Freude haben ;)

jedi
2002-05-07, 23:22:56
Originally posted by Doomtrain


Die GL Treiber werden diesmal jedenfalls perfekt werden

Warum? Weil die Vorgänger so schlecht waren? ;)

Doomtrain
2002-05-07, 23:23:56
Originally posted by Rampage


Haben das eigentlich alle dx9 karten oder nur die matrox ???

Aber wer weiß ob das überhaupt stimmt, ich meine wieso sollten sie nicht dx9 komplett unterstützen ???

Displacement Mapping haben wohl alle DX9 Karten.
Ich denke mal, das die Spezifikationen von DX9 schon lange feststehen. Also ist eine Implementation auch kein Problem.

Rampage
2002-05-07, 23:25:12
Originally posted by Ceiser Söze
FSAA-Liebhaber werden am Parhelia eine reine Freude haben ;)

Das stimmt, daran hab ich gar nicht gedacht, das wird ein fest der bildqualität, in 2d sowieso und in fsaa bestimmt auch *freu*

Doomtrain
2002-05-07, 23:25:46
Originally posted by jedi


Warum? Weil die Vorgänger so schlecht waren? ;)

:asshole: Naja, sagen wir mal sie waren nicht perfekt;)

Rampage
2002-05-07, 23:26:32
Originally posted by Doomtrain


Displacement Mapping haben wohl alle DX9 Karten.
Ich denke mal, das die Spezifikationen von DX9 schon lange feststehen. Also ist eine Implementation auch kein Problem.

ich dache displacement mapping *richtigschreibhoff* sei eine entwicklung von matrox ???

StefanV
2002-05-07, 23:28:56
Originally posted by jedi
Und Matrox' OpenGL-Treiber waren zuerst gar nicht vorhanden, kamen zu spät und wurden nie richtig gut.

Damals war ein ICD NICHT standard, im gegensatz zu heute/G400 Zeiten!!

Du mußt auch den Zeitpunkt berücksichtigt, zu dem der Chip releast werden...

Damals gabs ein oder 2 OGL Games (GLQuake und Quake2)...

Doomtrain
2002-05-07, 23:29:49
Originally posted by Rampage


ich dache displacement mapping *richtigschreibhoff* sei eine entwicklung von matrox ???

Ja. Die Funktionen werden von M§ lizenziert und dann in DX eingebaut.
Aber M§ bestimmt alleine welche Funktionen aufgenommen werden.

ernesto.che
2002-05-07, 23:29:49
Originally posted by Rampage


ich dache displacement mapping *richtigschreibhoff* sei eine entwicklung von matrox ??? Es ist. Deswegen wird es auch (zumindest in der nächsten Generation) nur Matrox verbaut haben.

Doomtrain
2002-05-07, 23:31:15
Originally posted by ernesto.che
Es ist. Deswegen wird es auch (zumindest in der nächsten Generation) nur Matrox verbaut haben.

Unsinn, es ist ein Teil von DX9. Ich meine sogar es ist zwingend erforderlich zur Erfüllung der Spezifikationen von DX9.

jedi
2002-05-07, 23:31:47
Originally posted by Doomtrain

Dann läuft wie halt solange im "Dx8 Modus" bis DX9 kommt!

Ohne DX9-Spiele kaufe ich keine überteuerte DX9-Hardware. Du möchtest Geld zum Fenster hinaus werfen? Ich maile Dir gern meine Kontonummer. ;)

Rampage
2002-05-07, 23:32:11
Originally posted by ernesto.che
Es ist. Deswegen wird es auch (zumindest in der nächsten Generation) nur Matrox verbaut haben.

wi jetzt entweder es ist dx9 standart oder ein matrox unikat, wenn es nur matrox mit an board hätte und es dx9 standart ist, wären alle anderen karten ja keine vollwertigen dx9 karten *verwirrt*

Doomtrain
2002-05-07, 23:33:06
Originally posted by jedi


Ohne DX9-Spiele kaufe ich keine überteuerte DX9-Hardware. Du möchtest Geld zum Fenster hinaus werfen? Ich maile Dir gern meine Kontonummer. ;)

Wenn ich es mir leisten könnte, würde ich allen hier eine schenken!

StefanV
2002-05-07, 23:33:22
Originally posted by jedi


Ohne DX9-Spiele kaufe ich keine überteuerte DX9-Hardware. Du möchtest Geld zum Fenster hinaus werfen? Ich maile Dir gern meine Kontonummer. ;)

MGA wird dafür sorgen, daß es ein oder 2 Games gibt, die Displacement Mapping nutzen *eg*

Doomtrain
2002-05-07, 23:34:46
Originally posted by Rampage


wi jetzt entweder es ist dx9 standart oder ein matrox unikat, wenn es nur matrox mit an board hätte und es dx9 standart ist, wären alle anderen karten ja keine vollwertigen dx9 karten *verwirrt*

Was soll denn Matrox mit einem Feature-unikat? Dann benutzt es keiner!

Rampage
2002-05-07, 23:35:00
Originally posted by Stefan Payne


MGA wird dafür sorgen, daß es ein oder 2 Games gibt, die Displacement Mapping nutzen *eg*

angeblich sind sie ja an dem game "new world order beteiligt", vielleicht bekommen wir da ja schon was zu sehen

jedi
2002-05-07, 23:36:05
Originally posted by Stefan Payne


MGA wird dafür sorgen, daß es ein oder 2 Games gibt, die Displacement Mapping nutzen *eg*

Eine Techdemo und ein lausiges Expendable II? ;)

Doomtrain
2002-05-07, 23:36:06
Originally posted by Stefan Payne


MGA wird dafür sorgen, daß es ein oder 2 Games gibt, die Displacement Mapping nutzen *eg*

Stefan, alle DX9 Karten sollten Displacementmapping unterstützen.

AlfredENeumann
2002-05-07, 23:40:08
Alleine die Ankündigung reicht doch um Nvidia/ATI potenzielle Kunden vorzuenthalten. Wenn jemand bisher vorhatte ne GF4 oder Radeon 8500 128MB zu kaufen wird er ja vielleicht davon abgehalten da ja eine "Superkarte" bald rauskommt.

Doomtrain
2002-05-07, 23:41:24
Originally posted by AlfredENeumann
Alleine die Ankündigung reicht doch um Nvidia/ATI potenzielle Kunden vorzuenthalten. Wenn jemand bisher vorhatte ne GF4 oder Radeon 8500 128MB zu kaufen wird er ja vielleicht davon abgehalten da ja eine "Superkarte" bald rauskommt.

Ich z.B. wurde abgehalten eine GeForce4 TI4600 zu kaufen.

ernesto.che
2002-05-07, 23:43:06
Originally posted by Rampage


wi jetzt entweder es ist dx9 standart oder ein matrox unikat, wenn es nur matrox mit an board hätte und es dx9 standart ist, wären alle anderen karten ja keine vollwertigen dx9 karten *verwirrt*

DX 9 ist doch überhaupt noch nicht veröffentlicht! Also hübsch ruhig bleiben ;)

Rampage
2002-05-07, 23:43:21
Originally posted by AlfredENeumann
Alleine die Ankündigung reicht doch um Nvidia/ATI potenzielle Kunden vorzuenthalten. Wenn jemand bisher vorhatte ne GF4 oder Radeon 8500 128MB zu kaufen wird er ja vielleicht davon abgehalten da ja eine "Superkarte" bald rauskommt.


Schon, dann müsste sich matrox aber ranhalten, denn wer weiß wie lange die kunden warten wollen und ob nv die preise dann vielleicht senken wird.

Ich selber warte ja auch auf die matrox ;)

Doomtrain
2002-05-07, 23:46:57
Originally posted by Rampage



Ich selber warte ja auch auf die matrox ;)

Das hörte sich aber eben noch anders an. Also ich kann noch min 3Monate warten. Schwer, aber es wird schon gehen.

Rampage
2002-05-07, 23:50:13
Wieso hörte es sich anders an, nur weil ich nicht sicher bin wie lange es matrox als schnellste karte ausshält, ich persönlich setzte aber mehr auf bildqualität ala 3dfx und da hat matrox einiges zu bieten, im gegensatz zu der erbärmlichen BQ bei nvidia karten

Doomtrain
2002-05-07, 23:55:13
Originally posted by Rampage
Wieso hörte es sich anders an, nur weil ich nicht sicher bin wie lange es matrox als schnellste karte ausshält, ich persönlich setzte aber mehr auf bildqualität ala 3dfx und da hat matrox einiges zu bieten, im gegensatz zu der erbärmlichen BQ bei nvidia karten

Ok, ist ja gut. BQ ist mir auch wichtig. Sagen wir doch einfach das Teil wird schnell und schön genug!

Rampage
2002-05-07, 23:58:53
Oh ja, wenn sie sich nicht zu viel zeit lassen wird es eine sehr schnelle und schöne karte ;)

Unreal Soldier
2002-05-08, 00:00:22
Hi Leute,
meiner Meinung nach wird Matrox eine super augezeichnete Karte in Sachen Performance 2d-und3D-Qualität bringen. Ob die Karte nur ein paar DX9 Features draufhat ist ok, denn richtige DX9-Spiele werden erst ab 2004(schätz ich mal) rauskommen. Also ich würde mir solch eine Karte holen, wenn sie nicht so teuer wäre, denn es ist doch eine feine Sache alle Spiele mit 4x4FSAA und Aniso ohne Ruckler zu Spielen.
Diese Karte errirnert mich an der Voodoo5 5500.

MFG
Unreal Soldier

jedi
2002-05-08, 00:02:27
Originally posted by Doomtrain

Ich z.B. wurde abgehalten eine GeForce4 TI4600 zu kaufen.

Du lässt Dich von Vaporware, die noch nicht mal angekündigt ist, vom Kauf einer real existierenden Grafikkarte abhalten?

Dann jammer aber nicht an Weihnachten rum, wenn das Ding dann immer noch nicht da ist, was Du in der Zwischenzeit alles hättest geniessen können... ;)

Doomtrain
2002-05-08, 00:05:47
Originally posted by jedi


Du lässt Dich von Vaporware, die noch nicht mal angekündigt ist, vom Kauf einer real existierenden Grafikkarte abhalten?

Dann jammer aber nicht an Weihnachten rum, wenn das Ding dann immer noch nicht da ist, was Du in der Zwischenzeit alles hättest geniessen können... ;)

Übertreib mal nicht. Mit meiner GF3 komm ich noch so eben aus.

Und wenn, ich kann ja immer noch was anderes kaufen. Ganz nebenbei wird die Parhelia am 14. angekündigt. Also nix Vaporware;)

Rampage
2002-05-08, 00:07:07
Originally posted by Doomtrain


Übertreib mal nicht. Mit meiner GF3 komm ich noch so eben aus.

Und wenn, ich kann ja immer noch was anderes kaufen. Ganz nebenbei wird die Parhelia am 14. angekündigt. Also nix Vaporware;)

Ja aber bis du sie kaufen kannst, kann es noch etwas länger dauern,
aber warte trotzdem ;)

AlfredENeumann
2002-05-08, 00:09:29
Originally posted by Ceiser Söze
FSAA-Liebhaber werden am Parhelia eine reine Freude haben ;)

ohoh, aths. hast du jetzt vielleicht deine karte zu früh gekauft ?

AlfredENeumann
2002-05-08, 00:13:00
Originally posted by jedi


Du lässt Dich von Vaporware, die noch nicht mal angekündigt ist, vom Kauf einer real existierenden Grafikkarte abhalten?

Dann jammer aber nicht an Weihnachten rum, wenn das Ding dann immer noch nicht da ist, was Du in der Zwischenzeit alles hättest geniessen können... ;)

du hast ja vielleicht geld zuviel, es gibt aber genung leute die sich dann lieber zweimal überlegen wo sie 400-600€ investieren.

Doomtrain
2002-05-08, 00:17:33
Originally posted by AlfredENeumann


du hast ja vielleicht geld zuviel, es gibt aber genung leute die sich dann lieber zweimal überlegen wo sie 400-600€ investieren.

Das überleg ich mir nicht 2 mal, sondern 3 mal!!!
Sagt mal, seit ihr alle Krösus?

Quasar
2002-05-08, 00:21:05
Da selbst Mitarbeiter von Matrox inoffiziell bereits gesagt haben, die Karte würde TEUER werden, und Matrox noch nie Billig-Karten hergestellt hat, würde ich mal schätzen, daß man mit €600 für eine Parhelia der höchsten Ausbaustufe nicht auskommt...

Dunkeltier
2002-05-08, 00:33:00
Originally posted by Doomtrain


Das überleg ich mir nicht 2 mal, sondern 3 mal!!!
Sagt mal, seit ihr alle Krösus?

Bin zwar nicht Krösus, kacke aber Gold. :D Ne, etwas da und hier gespart und ich kann mir alle paar Monate eine neue Karte zulegen. ;) Wöchentlich wäre es mir auch zuviel. Ich merke schon, wie ich die ganze Zeit mit einer Geforce 4 Ti 4200 liebäugele. :( Die Versuchung ist groß, und die Gehirnwäschekraft von diversen tabellarischen FPS-Benchmarks ist verherrend fatal.

Mal sehen wie lange ich es aushalte, wird sich spätestens entscheiden wenn ich Unreal 2 Alpha mit der Radeon gezockt habe. :)

Matrox, hm... Die haben noch mehr Businessstyle als ATI, sprich die erscheinen mir zu bieder und konserativ. Wieso sollten die gerade jetzt für den Consumer Markt eine Gamerkarte rausbringen, hat die doch früher auch nie richtig interessiert?!


P.S.: Wie starte ich Unreal 2 (Alpha)? :P

Doomtrain
2002-05-08, 00:42:25
Ja, das stimmt, diese Tabellen haben eine Kraft...

Doomtrain
2002-05-08, 00:44:26
Originally posted by Quasar
Da selbst Mitarbeiter von Matrox inoffiziell bereits gesagt haben, die Karte würde TEUER werden, und Matrox noch nie Billig-Karten hergestellt hat, würde ich mal schätzen, daß man mit €600 für eine Parhelia der höchsten Ausbaustufe nicht auskommt...

Egal, eine GF4 von Asus kosten nicht viel weniger und trotzdem wird sie gekauft. 500€ wäre ich unter Umständen ja noch bereit anzulegen.

Unregistered
2002-05-08, 09:05:27
Originally posted by Black Cow
P.S.: Wie starte ich Unreal 2 (Alpha)? :P

Soll das heißen du hast die Alphaversion von Unreal 2 ??? *lechz*

Rampage
2002-05-08, 09:06:03
Originally posted by Unregistered


Soll das heißen du hast die Alphaversion von Unreal 2 ??? *lechz*


Scheiß Cookies das war ich

ow
2002-05-08, 09:14:30
Originally posted by Doomtrain


Wie gesagt min. 2x so schnell wie eine GeForce4 Ti4600.



ich tippe auf einfache GF4ti4400/4600 Geschwindigkeit.


/edit: desweiteren finde ich es schon bemerkenswert, wie hier ein Produkt gehypt wird, von dem nur die Ankuendigung der Ankuendigung existiert.
Es werden evtl. viele von euch hier sehr enttaeuscht sein, wenn das Teil doch nicht so der Hammer sein sollte. Also warten wir's in Ruhe ab. Ich setze meine Erwartungen immer recht niedrig an, so bleiben mir Enttaeuschungen erspart und alles was ueber meine Erwartungen hinausgeht kann mich dann richtig erfreuen.

Rampage
2002-05-08, 09:28:16
Originally posted by ow

desweiteren finde ich es schon bemerkenswert, wie hier ein Produkt gehypt wird, von dem nur die Ankuendigung der Ankuendigung existiert.
Es werden evtl. viele von euch hier sehr enttaeuscht sein, wenn das Teil doch nicht so der Hammer sein sollte. Also warten wir's in Ruhe ab. Ich setze meine Erwartungen immer recht niedrig an, so bleiben mir Enttaeuschungen erspart und alles was ueber meine Erwartungen hinausgeht kann mich dann richtig erfreuen.


Meine Rede, denn so originell ist die Karte auch wieder nicht, das Sie schneller ist als eine gf4 ti 4600, davon gehe ich aus, sie ist technisch einfach überlegen ;)

Andre
2002-05-08, 09:29:54
Originally posted by ow
/edit: desweiteren finde ich es schon bemerkenswert, wie hier ein Produkt gehypt wird, von dem nur die Ankuendigung der Ankuendigung existiert.
Es werden evtl. viele von euch hier sehr enttaeuscht sein, wenn das Teil doch nicht so der Hammer sein sollte. Also warten wir's in Ruhe ab. Ich setze meine Erwartungen immer recht niedrig an, so bleiben mir Enttaeuschungen erspart und alles was ueber meine Erwartungen hinausgeht kann mich dann richtig erfreuen.

*nickt*

Aber das kennen wir ja schon von der letzten Matrox-Karte.
Da hat hier Stefan Payne im Forum 2 oder 3 Wochen nur rumgehypt, was draus geworden ist, wissen wir alle.
Warum kann eigentlich keiner mal abwarten, bis was offizielles da ist?
Bringt doch so nix und ich glaube, es werden hier einige sehr antäuscht sein.

Rampage
2002-05-08, 09:39:10
Naja enttäuscht denke ich nicht, da sie es mit einer gf4 allemal aufnehemen kann, wenn sie nur nicht zu spät kommt

HOT
2002-05-08, 10:51:29
Das Ding wird schon gut, da hab ich keine Zweifel. Schaun mer mal :)

Tomp
2002-05-08, 10:57:49
Originally posted by ow




ich tippe auf einfache GF4ti4400/4600 Geschwindigkeit.


/edit: desweiteren finde ich es schon bemerkenswert, wie hier ein Produkt gehypt wird, von dem nur die Ankuendigung der Ankuendigung existiert.
Es werden evtl. viele von euch hier sehr enttaeuscht sein, wenn das Teil doch nicht so der Hammer sein sollte. Also warten wir's in Ruhe ab. Ich setze meine Erwartungen immer recht niedrig an, so bleiben mir Enttaeuschungen erspart und alles was ueber meine Erwartungen hinausgeht kann mich dann richtig erfreuen.



An der Stelle möchte ich mal daran erinnern, was eine gewisse andere Person in einem anderen Thread dieses Forums gesagt hat. Demnach ist der Parhelia bei 8xAA so schnell wie eine Geforce4 Ti4600 bei 2xAA. Und von Vapourware, wie manche behauptet haben, kann man auch nicht sprechen, weil diese Informationen von Leuten stammen, die bereits eine Beta Karte haben...

Also seit mal nicht so pessimistisch.

Unregistered
2002-05-08, 11:42:23
Originally posted by Tomp
An der Stelle möchte ich mal daran erinnern, was eine gewisse andere Person in einem anderen Thread dieses Forums gesagt hat. Demnach ist der Parhelia bei 8xAA so schnell wie eine Geforce4 Ti4600 bei 2xAA.Mag ja sein, dass die Parhelia hohes AA mit weniger Performanceverlust hinkriegt als eine GF4. Das heißt aber nicht, dass die Parhelia viel schneller ist als eine GF4, außer eben im Spezialfall AA. Dann ist auch noch die Frage, welche Qualität das Parhelia-AA erreicht. Und von AF reden wir hier mal gar nicht.
Ich glaube auch, dass die "Rohleistung" (ohne AA und AF) der Parhelia nicht weit über der der GF4 liegen wird. Und nun nehmen wir mal aktuelle Spiele wie Morrowind - da geht selbst eine GF4 absolut in die Knie, an AA oder AF ist da gar nicht zu denken. Da braucht es mehr Rohleistung, und daran wird wahrscheinlich auch die Parhelia scheitern.
Ich würde mich in diesem Fall freuen, wenn meine Vermutungen falsch wären, weil ich selber auf die passende Karte für Morrowind (und Ultima 9) warte, aber ich traue Matrox einfach nicht zu, dass sie genügend Ahnung von schnellem 3D haben.

Hucke
2002-05-08, 11:47:00
Only time will tell.

Wird bestimmt ein lustiger Herbst. Weinende Kyro Jünger, fluchende ATI Jünger, suizidgefährdete nVidia Jünger, ... :D

Rampage
2002-05-08, 11:54:30
Originally posted by Tomp


Also seit mal nicht so pessimistisch.

Sind wir ja nicht, das der Chip schneller wird als jede gf4 steht ausser frage, allerdings ist der Chip auch nicht mehr als technisch überlegen und so keine revolutionäre karte wie manch einer behauptet.

Das ist die 3dlabs karte.

Trotzdem denke ich die matrox wird sehr gut, sehr schnlell, hat eine 1a bildqualität und wird sehr teuer ;)

StefanV
2002-05-08, 12:14:25
Originally posted by Doomtrain
Stefan, alle DX9 Karten sollten Displacementmapping unterstützen.

abwarten ;)

Noch ist ungewiss, ob es ein 'must be' DX9 Feature ist oder ein 'kann sein' Feature, wie EMBM, das schon in DX6 drin war aber selbst bei DX7 noch nicht pflicht war...

StefanV
2002-05-08, 12:18:55
@ow und Andre

Auf welcher Karte wurde letztens eigentlich Displacement Mapping demonstriert??

Auf 'gemoddeten' G550??

Auch stand daneben Displacement Mapping HARDWARE nicht SOFTWARE!!

Auch war das Demo 'etwas' flüssig für eine G550, meint ihr nicht??

StefanV
2002-05-08, 12:39:59
Originally posted by jedi
Eine Techdemo und ein lausiges Expendable II? ;)

Nein, ein komplett neues Game ;)

Bei der G200 lag z.B. Incoming bei (32bit *eg*)

Tomp
2002-05-08, 12:50:26
Originally posted by Unregistered
Mag ja sein, dass die Parhelia hohes AA mit weniger Performanceverlust hinkriegt als eine GF4. Das heißt aber nicht, dass die Parhelia viel schneller ist als eine GF4, außer eben im Spezialfall AA. Dann ist auch noch die Frage, welche Qualität das Parhelia-AA erreicht. Und von AF reden wir hier mal gar nicht.
Ich glaube auch, dass die "Rohleistung" (ohne AA und AF) der Parhelia nicht weit über der der GF4 liegen wird. Und nun nehmen wir mal aktuelle Spiele wie Morrowind - da geht selbst eine GF4 absolut in die Knie, an AA oder AF ist da gar nicht zu denken. Da braucht es mehr Rohleistung, und daran wird wahrscheinlich auch die Parhelia scheitern.
Ich würde mich in diesem Fall freuen, wenn meine Vermutungen falsch wären, weil ich selber auf die passende Karte für Morrowind (und Ultima 9) warte, aber ich traue Matrox einfach nicht zu, dass sie genügend Ahnung von schnellem 3D haben.


Also AA in der Geschwindigkeit ist ohne sehr viel Rohleistung nicht möglich. Es geht übrigens um Multisampling und nicht um Quinsuxx oder so was. Du solltest mal bedenken, dass bei 8xAA 4 mal mehr Pixel rendern muss, als bei 2xAA. Der Parhelia soll irgendsoein Komprimierungsverfahren für AA haben, aber damit allein kann man nicht die 4-Fache Leistung erreichen.

Ultima 9 ist übrigens sehr CPU lastig, und bei manchen Grafikkarten ist es schlimmer bei anderen weniger schlimm. Das hat aber nichts mit der Rohleistung, sondern hängt fast ausschließlich mit dem Treiber zusammen. Rohleistung bringt bei Ultima 9 also so gut wie goa nix. Morrowind ist glaub ich auch sehr CPU limitiert, und GERADE da lohnt es sich AA und AF einzuschalten. Eventuell hast du dann mit einem Parhelia (warum krieg ich eigentlich immer Hunger, wenn ich an den Namen denke? ;) ) sogar praktisch die selben Frameraten, wenn du 4xAA aktivierst.

ow
2002-05-08, 12:52:18
Originally posted by Rampage


Sind wir ja nicht, das der Chip schneller wird als jede gf4 steht ausser frage....



Fuer mich steht das nicht ausser Frage. Erst wenn die Karte offiziell zu kaufen ist, dann WISSEN wir was sie leistet.

Wenn die KArte demnaechst kommt, wird sie nicht viel ueber GF4ti Niveau liegen falls ueberhaupt. Wenn sie erst zum Jahresende kommt.... bis dahin tut sich noch viel...

Rampage
2002-05-08, 13:29:11
Originally posted by ow

Fuer mich steht das nicht ausser Frage. Erst wenn die Karte offiziell zu kaufen ist, dann WISSEN wir was sie leistet.

Wenn die KArte demnaechst kommt, wird sie nicht viel ueber GF4ti Niveau liegen falls ueberhaupt. Wenn sie erst zum Jahresende kommt.... bis dahin tut sich noch viel...

Also bitte, um mit den angegebnen Daten nicht schneller zu sein als eine gf4 ti ist schon schwierig, ich sage nur: 256bit, 128 bis 256mb-ram, 19gb bandbreite....

StefanV
2002-05-08, 13:42:23
Originally posted by Tomp
Ultima 9 ist übrigens sehr CPU lastig, und bei manchen Grafikkarten ist es schlimmer bei anderen weniger schlimm. Das hat aber nichts mit der Rohleistung, sondern hängt fast ausschließlich mit dem Treiber zusammen. Rohleistung bringt bei Ultima 9 also so gut wie goa nix. Morrowind ist glaub ich auch sehr CPU limitiert, und GERADE da lohnt es sich AA und AF einzuschalten. Eventuell hast du dann mit einem Parhelia (warum krieg ich eigentlich immer Hunger, wenn ich an den Namen denke? ;) ) sogar praktisch die selben Frameraten, wenn du 4xAA aktivierst.

zu U9:

U9 hat da eine 'besondere' Art und Weise, wie es sich unter D3D verhält.

Bei Voodoos gibts mit dieser Art keine Probleme, nur mit anderen Karten!

Weshalb sich einige Hersteller dazu entschlossen haben, im Treiber eine Routine zu integrieren, die U9 erkennt und sich entsprechend verhält.

Deswegen kann auch eine Radeon 32SDR in U9 eine GF4 TI4600 'verspeisen', weil NV diesen 'Tweak' nicht im Treiber integriert hat...

StefanV
2002-05-08, 13:50:28
Originally posted by ow
Fuer mich steht das nicht ausser Frage. Erst wenn die Karte offiziell zu kaufen ist, dann WISSEN wir was sie leistet.

Wenn die KArte demnaechst kommt, wird sie nicht viel ueber GF4ti Niveau liegen falls ueberhaupt. Wenn sie erst zum Jahresende kommt.... bis dahin tut sich noch viel...

Ach ja, ist ja keine nVidia Karte *eg*

Matrox Karten sind ja zu Anfang auch niemals schnell, sie laufen aber (auch mit meinem geliebten Final Fantasy 7 und 8)*eg*

ow
2002-05-08, 14:18:06
Originally posted by Rampage


Also bitte, um mit den angegebnen Daten nicht schneller zu sein als eine gf4 ti ist schon schwierig, ich sage nur: 256bit, 128 bis 256mb-ram, 19gb bandbreite....


Link zu den offiziellen Specs?

ow
2002-05-08, 14:20:40
Originally posted by Stefan Payne


Deswegen kann auch eine Radeon 32SDR in U9 eine GF4 TI4600 'verspeisen', weil NV diesen 'Tweak' nicht im Treiber integriert hat...


Na Gottseidank!

Das ist eben der Unterschied:
NV murkst nicht in den Treibern run, wenn irgendein bugggy Spiel nicht laeuft. NUR SO IST DAS RICHTIG!!
Ansonsten koennte man alle APIs gleich in die Tonne treten.

Rampage
2002-05-08, 14:25:11
Originally posted by ow



Link zu den offiziellen Specs?


NEin natürlich nicht, allerdings sind die Specs auch sowas wie ein offenes Geheimnis

StefanV
2002-05-08, 14:27:22
Originally posted by ow
Na Gottseidank!

Das ist eben der Unterschied:
NV murkst nicht in den Treibern run, wenn irgendein bugggy Spiel nicht laeuft. NUR SO IST DAS RICHTIG!!
Ansonsten koennte man alle APIs gleich in die Tonne treten.

:rofl:

Und die U9 Spieler werden sich bedanken...

Sag mal, wie ist das noch mir Aquanox??
DAS Spiel ist auch äußerst Buggy, soll ATI am Treiber 'rumpfuschen', damit so ein bescheidenes und fehlerhaftes Game läuft??
Als Gamer ist es einem scheißegal warum ein Game auf einer Karte nicht läuft!!
Man sieht nur, daß es auf anderen besser läuft und das reicht, um darauf zu schließen, daß die Karte, auf der es beschißen läuft, für dieses Game scheiße ist.
Bei ATI kann man davon ausgehen, daß die Fehler, die jetzt noch auftreten gefixt werden, bei U9 und NV geht man nicht mehr davon aus.

Spätestens, wenn man seine Kiste mit den alten DX3-5 Games rauskramt wird man feststellen, daß NVidia scheiße ist, denn damals hatte fast jedes Game ihre eigenen Optimirungen...

ERGO:

U9 läuft nicht gut auf NV Karten->NV Karten scheiße für U9.

U9 läuft auf anderen Karten doppelt so schnell, wie auf NV-> Fehler bei NV.

Rampage
2002-05-08, 14:29:37
Originally posted by Stefan Payne


U9 läuft nicht gut auf NV Karten->NV Karten scheiße für U9.

U9 läuft auf anderen Karten doppelt so schnell, wie auf NV-> Fehler bei NV.

:rofl: ;)

Rampage
2002-05-08, 14:32:21
Originally posted by ow



Link zu den offiziellen Specs?

http://www.computerbase.de/news.php?id=3179

sollte reichen :rofl:

ow
2002-05-08, 14:42:54
Originally posted by Rampage



NEin natürlich nicht, allerdings sind die Specs auch sowas wie ein offenes Geheimnis


Nein, es gibt keine Specs, das sind alles nur Vermutungen und Wunschtraeume, was im Inet kursiert.


Ich tippe auf 4pipes mit je 2TMUs bei Takten ab 300MHz (max. 370) und 128Bit DDR-RAM.

Rampage
2002-05-08, 14:44:14
Originally posted by ow



Nein, es gibt keine Specs, das sind alles nur Vermutungen und Wunschtraeume, was im Inet kursiert.


Ich tippe auf 4pipes mit je 2TMUs bei Takten ab 300MHz (max. 370) und 128Bit DDR-RAM.

Ein Post drüber :lol:

ow
2002-05-08, 14:45:24
Originally posted by Rampage


http://www.computerbase.de/news.php?id=3179

sollte reichen :rofl:


:rofl:



Über die Details des neuen Grafikwunders schweigt sich die Flash-Animation zwar noch aus, da sich jedoch der Starttermin mit den jüngsten Gerüchten deckt, scheinen auch die letzten bekannten Spezifikationen in ihrer Aussage bekräftigt.




Derart logisch denken wollte ich auch schon immer.

:lol::rofl:


/edit: @Rampage: Hab's gerade kommentiert.;)

Rampage
2002-05-08, 14:47:20
???

Tomp
2002-05-08, 14:57:32
Würden die 4 TMUs eigentlich was bei anisotropischem Filtering bringen?

ow
2002-05-08, 15:01:40
Haengt davon ab, was jede TMU fuer sich alleine leisten kann.
Kann man also nicht pauschal mit JA oder NEIN beantworten.

StefanV
2002-05-08, 15:01:55
Originally posted by ow
Ich tippe auf 4pipes mit je 2TMUs bei Takten ab 300MHz (max. 370) und 128Bit DDR-RAM.

:rofl:

WARUM sollte MGA dann den Chip releasen??
Wenn er nicht schneller ist als eine GF4 TI, dann bringt MGA der Chip nicht viel!!

Er MUSS schneller als die GF4 sein, sonst 'fühlt sich MGA nicht wohl'.
Die G200 war auch bei ankündigung die schnellste Karte!
Die G400 war eine spizen D3D Karte, dabei auch meist schneller als eine TNT.

WARUM sollte MGA einen Chip releasen, der kaum/garnicht schneller als das jetzige TOP Produkt ist??

Merk dir eins:

MGA kommt mit einem Knaller oder garnicht!!!
Sonst wären sie schon vor einiger Zeit wieder im Gamer Geschäft...
Nur schmeißt Matrox lieber alles hin und fängt nochmal neu an, bevor man sich vor aller Welt blamiert und doch nur Mittelklasse ist!!!

Rampage
2002-05-08, 15:06:11
Originally posted by Stefan Payne


MGA kommt mit einem Knaller oder garnicht!!!


Wollen wir es hoffen ;)

Unregistered
2002-05-08, 15:28:17
Originally posted by ow



Nein, es gibt keine Specs, das sind alles nur Vermutungen und Wunschtraeume, was im Inet kursiert.


Ich tippe auf 4pipes mit je 2TMUs bei Takten ab 300MHz (max. 370) und 128Bit DDR-RAM.

Na bei den Specs würde es sich ja richtig lohnen eMails zu verschicken, in denen "The biggest launch since the “Millennium”" angekündigt wird. Was war den die Millennium damals? 4 Piplines mit je 4 TMUs, VS 2.0 und 20 GB Bandbreite sehe ich als sicher an.

Gruss,
ZerOz

Rampage
2002-05-08, 15:32:48
Originally posted by Unregistered


Na bei den Specs würde es sich ja richtig lohnen eMails zu verschicken, in denen "The biggest launch since the “Millennium”" angekündigt wird. Was war den die Millennium damals? 4 Piplines mit je 4 TMUs, VS 2.0 und 20 GB Bandbreite sehe ich als sicher an.

Gruss,
ZerOz

Genau, und damit ist sie auf jeden fall schneller als ne gf4

Andre
2002-05-08, 15:34:52
Originally posted by Stefan Payne

WARUM sollte MGA einen Chip releasen, der kaum/garnicht schneller als das jetzige TOP Produkt ist??

Merk dir eins:

MGA kommt mit einem Knaller oder garnicht!!!
Sonst wären sie schon vor einiger Zeit wieder im Gamer Geschäft...
Nur schmeißt Matrox lieber alles hin und fängt nochmal neu an, bevor man sich vor aller Welt blamiert und doch nur Mittelklasse ist!!!

Wie war das mit der G550?

Rampage
2002-05-08, 15:36:55
Originally posted by Andre


Wie war das mit der G550?

Ja den haben Sie aber auch nicht so angekündigt, sondern die User haben sich da in was reingesteigert

ow
2002-05-08, 15:59:31
Originally posted by Rampage


Ja den haben Sie aber auch nicht so angekündigt, sondern die User haben sich da in was reingesteigert

Na bitte, also dasselbe wie hier.

Es wurde noch nichts angekuendigt (ausser einer Ankuendigung) und die User hypen drauf los, was das Zeug haelt. *LOL* sag ich da nur.

ow
2002-05-08, 16:01:48
Originally posted by Unregistered


4 Piplines mit je 4 TMUs, VS 2.0 und 20 GB Bandbreite sehe ich als sicher an.

Gruss,
ZerOz


Und ich sehe als sicher an, dass diese Specs Unsinn sind.

Rampage
2002-05-08, 16:09:33
Originally posted by ow



Und ich sehe als sicher an, dass diese Specs Unsinn sind.

Naja, mit gewissheit kann man gar nix sagen, aber bei der parhelia ist es doch ein bischen sicherer als beim g550, da der hype von seiten matrox etwas größer ist, aber ein bischen wahrheit steckt scho drin ;)

Andre
2002-05-08, 16:10:03
Originally posted by Rampage
Ja den haben Sie aber auch nicht so angekündigt, sondern die User haben sich da in was reingesteigert

Sind denn schon Specs angekündigt?
Ich meine von Matrox.
Also, immer dasselbe Spiel und dann geht das Geheule wieder los.
Mal sehen, was sich Matrox dieses Mal als "Büro-Feature" so einfallen lässt.

Rampage
2002-05-08, 16:17:47
Ich glaube nicht das sich matrox mit ner Bürokarte bei der e3 blicken lässt, und wozu braucht ne Bürokarte displacement mapping ???

Aber stimmt schon wir sollten den 14ten abwarten und dann heulen das es doch nur ne Bürokarte geworden ist :rofl:

Doomtrain
2002-05-08, 16:45:07
Originally posted by ow




ich tippe auf einfache GF4ti4400/4600 Geschwindigkeit.





Von wegen!!! Huhu, 18GB Bandbreite!!!

Doomtrain
2002-05-08, 16:50:20
Originally posted by Stefan Payne


Merk dir eins:

MGA kommt mit einem Knaller oder garnicht!!!
Sonst wären sie schon vor einiger Zeit wieder im Gamer Geschäft...
Nur schmeißt Matrox lieber alles hin und fängt nochmal neu an, bevor man sich vor aller Welt blamiert und doch nur Mittelklasse ist!!!

Das ist halt Matrox! Das Ding wird der Hammer, davon bin ich überzeugt.;)

Andre
2002-05-08, 16:59:32
Originally posted by Doomtrain


Von wegen!!! Huhu, 18GB Bandbreite!!!

Link?

Andre
2002-05-08, 16:59:58
Originally posted by Doomtrain


Das ist halt Matrox! Das Ding wird der Hammer, davon bin ich überzeugt.;)

Paradebeispiel G550.

StefanV
2002-05-08, 17:13:31
Originally posted by Andre
Wie war das mit der G550?

Hab ich doch oben geschrieben.

Entweder richtig oder garnicht!!

Die G550 war MGA nicht gut genug, ergo:

GARNICHT.

Doomtrain
2002-05-08, 17:19:05
Originally posted by Andre


Paradebeispiel G550.

Das Ding ist halt eine Bürokarte, mehr nicht. Ich hoffe, das alle Skepsis sich am 14. verflüchtigt.

StefanV
2002-05-08, 17:20:25
Originally posted by Andre
Paradebeispiel G550.

Du sagst es.

Mit einem 128bit RAM Interface und entsprechenden Treibern wäre die Karte höchstens auf Radeon Niveau, was MGA sicher nicht gepasst hat.

Selbst mit 4 Pipelines wäre die Karte nur auf GF2 GTS Niveau, auch zu niedrig.

WARUM soll man dann soeinen Chip releasen??

Da hat MGA halt drauf verzichtet und ihn 'umdesignt'.

Was daraus geworden ist, weißt du ja...

Frank
2002-05-08, 17:21:33
bei all den aktuellen evtl glaubwürdigen Vermutungen/Annahmen... bzgl der Specs sollte man doch einfach mal abwarten was pssiert. Warum in den nächsten Tagen noch den Mund fusslig reden über zur Zeit irgendwas imaginäres. Einfach mal schaun was in 6 Tagen passiert.

ps.
was soll das nebenbei abfällige Geäußere über die G550 als wärs ne Gurkekarte. ts ts - Für gewisse Einsatzzwecke genau richtig. Ich find die Karte jedenfalls iO.

Gohan
2002-05-08, 17:22:23
Da scheint entweder jemand Matrox nicht zu mögen oder ist ein passimist :eyes:

Ne aber für eine Bürokarte würde man nicht so ein.. hm ... cooles Flashlogo machen ;)

Frank
2002-05-08, 17:25:43
Originally posted by Stefan Payne


Du sagst es.

Mit einem 128bit RAM Interface und entsprechenden Treibern wäre die Karte höchstens auf Radeon Niveau, was MGA sicher nicht gepasst hat.

Selbst mit 4 Pipelines wäre die Karte nur auf GF2 GTS Niveau, auch zu niedrig.

WARUM soll man dann soeinen Chip releasen??

Da hat MGA halt drauf verzichtet und ihn 'umdesignt'.

Was daraus geworden ist, weißt du ja...
:lol:
warum einen schnelleren Chip releasen... ??
um evtl Geld zu verdienen? um ein besseres Produkt zu haben?

Auch in 2D geht den Karten mit 2Schirmbetrieb schon mal schneller die Puste aus

Doomtrain
2002-05-08, 17:35:07
Originally posted by Frank


Auch in 2D geht den Karten mit 2Schirmbetrieb schon mal schneller die Puste aus

Der G550 wohl kaum. Für meinen Internetrechner wollte ich mir schon mal eine dieser Karten kaufen. Das mache ich auch wenn der Parhelia da ist. Dann bestelle ich gleich 2 Karten, die G550 und die neue Karte, wie immer sie auch heißen mag *eg*

StefanV
2002-05-08, 17:39:17
Originally posted by Frank
:lol:
warum einen schnelleren Chip releasen... ??
um evtl Geld zu verdienen? um ein besseres Produkt zu haben?

Auch in 2D geht den Karten mit 2Schirmbetrieb schon mal schneller die Puste aus

Schon, dann wäre die G550 wieder schnell genug für eine Gamer Karte.

Und WENN MGA in den Gamer Markt will, dann mit einem richtigen Knall ;)

Ich denke mal, daß sie eine ziehmliche Wut im Bauch haben und jetz mal etwas 'aufräumen' wollen ;)

Und mit einer halbherzigen Gamer Karte hätte MGA einpacken können ;)

Die leute, die bei MGA das Sagen haben, sind extrem clever ;)

Frank
2002-05-08, 17:59:06
Selbst als Arbeitspferd braucht es wohl etwas mehr Dampf als eine jetzige Matrox bietet Stefan.

Gohan
2002-05-08, 18:00:20
Seit wann gibt es auf Matrox.com eine 3D Gamer Sektion? Ist mir noch nie aufgefallen :eyes:

Frank
2002-05-08, 18:07:38
gibts seit der G400

wurde anfänglich zum auflisten der Spiele mit EMBM genutzt

Gohan
2002-05-08, 18:09:21
Warum ist mir das nie aufgefallen? Hätte ich wunderbar mit meiner G400 benutzen können :(

StefanV
2002-05-08, 18:22:09
Originally posted by Frank
Selbst als Arbeitspferd braucht es wohl etwas mehr Dampf als eine jetzige Matrox bietet Stefan.

Ja, da magst du nicht ganz unrecht haben.

Allerdings würde dann von 'einigen' Berichtet werden, daß MGA eine neue Gamer Karte rausgebracht hat.

Selbst ein 128bit MEM Interface hätte schon gereicht, um die Karte in die nähe der Radeon zu hiefen, was Matrox sicher verhindern wollte.

Aber wie hoch ist die G550 eigentlich getaktet??

Immer noch 125/166MHz??

StefanV
2002-05-08, 18:23:29
Originally posted by Gohan
Warum ist mir das nie aufgefallen? Hätte ich wunderbar mit meiner G400 benutzen können :(

Weil du den 'Matrox Game Newsletter' auch nicht kennst *eg*

Wenn MGA kein interesse an Gamern hat, warum dann einen 'Game Newsletter'???

Doomtrain
2002-05-08, 18:49:33
Originally posted by Stefan Payne


Selbst ein 128bit MEM Interface hätte schon gereicht, um die Karte in die nähe der Radeon zu hiefen, was Matrox sicher verhindern wollte.



Klar, die wollten ihren Ruf nicht zerstören, indem sie eine Karte auf den Markt geworfen hätten, die nur Mittelmaß gewesen wäre.

HOT
2002-05-08, 20:13:33
Matrox hat sich bei der G550 SEHR zurückgehalten. Jetzt allerdings hauen sie voll auf die Kacke. Das kann eigentlich nur bedeuten, dass sie einen Hammer bringen. Diese Specs halte ich für keineswegs unrealistisch. Allerdings sagen auch die relativ wenig über die Leistungsfähigkeit der Hardware aus. Wer weiss, was Matrox da alles reingebastelt hat.
Das das Teil für Spieler ist, ist selbstredent. Für ne Büro- bzw. Profikarte braucht man einfach kein Displacementmapping, keine hauptsächliche Beteiligung an DX9 und grosspurige Angündigungen, geschweige denn solche Flash-Intros :D :D :D

Doomtrain
2002-05-08, 20:39:03
Originally posted by HOT
Allerdings sagen auch die relativ wenig über die Leistungsfähigkeit der Hardware aus. Wer weiss, was Matrox da alles reingebastelt hat.


Mein reden!

Also nochmal: 2x so schnell wie eine GeForce4 Ti4600*eg*

Rampage
2002-05-08, 20:49:45
Originally posted by Doomtrain


Mein reden!

Also nochmal: 2x so schnell wie eine GeForce4 Ti4600*eg*

*freu* :rofl: :rofl: :rofl: :rofl:

Dunkeltier
2002-05-08, 21:05:14
Maximal anderthalb mal so schnell. :D *mitschätz*

Rampage
2002-05-08, 21:07:22
Originally posted by Black Cow
Maximal anderthalb mal so schnell. :D *mitschätz*

Hauptsache schneller, bei der Bildqualität kann die Geforce eh nicht mitreden ;)

Unregistered
2002-05-08, 21:10:39
Originally posted by HOT
Das das Teil für Spieler ist, ist selbstredent. Für ne Büro- bzw. Profikarte braucht man einfach kein Displacementmapping, keine hauptsächliche Beteiligung an DX9 und grosspurige Angündigungen, geschweige denn solche Flash-Intros :D :D :D Doch: Jetzt gibt es endlich zu den Talking Heads die passenden Hintergrundlandschaften.
Zugrundeliegende Idee: Das Holographie-"Telefonat" von Dr. Zachary Smith (gespielt von Gary Oldman) in "Lost in Space".

Rampage
2002-05-08, 21:12:12
:D :D :D

ow
2002-05-08, 21:25:41
Originally posted by Doomtrain


Klar, die wollten ihren Ruf nicht zerstören, indem sie eine Karte auf den Markt geworfen hätten, die nur Mittelmaß gewesen wäre.

Achja, deshalb kam sicher der G550. Um den guten Ruf zu wahren. :lol:

StefanV
2002-05-08, 21:32:09
Originally posted by ow
Achja, deshalb kam sicher der G550. Um den guten Ruf zu wahren. :lol:

NEIN!!

Deshalb kam die G550 mit einem 64bit DDR interface!!

Rampage
2002-05-08, 21:36:06
Originally posted by ow


Achja, deshalb kam sicher der G550. Um den guten Ruf zu wahren. :lol:

Natürchlich, denn sie ist ja absolut nicht für gamer, sonder fürs büro gedacht, so wird sie erst gar nicht verglichen und nicht schlecht gemacht.

Hätte sie ein paar 3d features käme vielleicht doch ein schlechter vergleich, deshlb haben sie die gleich ganz weggelassen

HOT
2002-05-08, 21:47:17
Was willst du eigentlich, ow. Die G550 ist mit Abstand die beste Lösung fürs Büro die man sich vorstellen kann! Beste Bildqualität und noch einige Features dazu. Ob man das braucht ist wohl eher irrelevan, man bezahlt die Zusatzfeatures nicht wirklich mit!

zeckensack
2002-05-08, 21:54:49
@Alle Matrox-Fans hier:

Also, sehe ich das richtig?
Matrox verkauft jahrelang eine billig zu produzierende, lahmarschige Karte mit marginalen Vorteilen in der 2D-Qualität zu unverschämten Preisen. Ihr rechnet ihnen das hoch an, da sie ja damit ihren Büro-Ruf gewahrt haben?
Schnellere Karte wäre schlecht für's Geschäft gewesen?

Verschtonn isch net ???

Die G550 ist doch selbst für den reinen Desktopbetrieb völlig untermotorisiert!
Gerade im gepriesenen Zweischirmbetrieb bei >=1024x768x32 ...

Und jetzt hofft ihr, daß so eine Firma Marktführer wird, ts ts ts ...

Also nicht falsch verstehen! Die sollen mitspielen! Konkurrenz belebt das Geschäft. Aber eure Loyalität zu einer Firma mit chronisch überzogener Preispolitik ist doch reichlich übertrieben

ow
2002-05-08, 22:08:31
Full Ack @ Zeckensack

Und seien wir nur froh, dass nicht Matrox die 3D Entwicklung 'vorangetrieben' hat, sonst wären wir HEUTE immer noch auf G400 Niveau.
Über die Matrox Preise braucht man nicht viel Worte zu verlieren. Dagegen ist selbst NV ein Supersonderangebot.

Unregistered
2002-05-08, 22:24:33
Originally posted by ow
Über die Matrox Preise braucht man nicht viel Worte zu verlieren. Dagegen ist selbst NV ein Supersonderangebot.

Ist das wahr, dass die 256Mbyte Parhelia/Parhelion - Karte fast 800€ kosten soll ??? (Gerücht??) ?

Andre
2002-05-08, 22:44:42
Originally posted by Unregistered
Ist das wahr, dass die 256Mbyte Parhelia/Parhelion - Karte fast 800€ kosten soll ??? (Gerücht??) ?

Na dann geht sie ja weg wie warme Semmeln.
Da ist der Untergang von NV schon vorprogrammiert.

Frank
2002-05-08, 22:47:32
Originally posted by zeckensack

Die G550 ist doch selbst für den reinen Desktopbetrieb völlig untermotorisiert!
Gerade im gepriesenen Zweischirmbetrieb bei >=1024x768x32 ...

Hab ich in anderen Thread auch schon geschrieben. Aber untermotorisiert würd ich das nicht nennen. Ihr fehlen bloß in Extremsituationen die Reserven - aber nicht in der von dir genannten Spielzeugauflösung.

wulfman
2002-05-08, 22:52:36
das ist dann angeblich auch die (semi-)profesionelle karte für 3d-entwickler und nicht für gamer.

kann uU auch noch teurer werden, 1000$ gerüchte wurden schon gesehen.

und an zeckensack & ow:

wie immer gilt: ihr müsst die karte nicht kaufen, ihr müßt matrox nicht mögen.

für den preis, den matrox verlangt hat, bekam man auch immer etwas geboten - seien es die 5-jahre-garantie (die ohne jede probleme in anspruch genommen werden kann, so lange auf der karte nicht großartig herumgepfuscht wurde), der sehr gute support, spezielle features (DVDmax, schon mal probiert?) oder andere qualitäten abseits der 3d-games.

dual-head war damals einzigartig und ist bisher auch unerreicht ;), daher kosten die karten mehr. die single-head-variante war damals auch billiger erhältlich.

auf dem markt gibt es für jeden die optimale karte, für die einen NV, für die anderen matrox - und jetzt dann vielleicht für noch mehr leute (gamer) matrox....

mfg
wulfman

Unregistered
2002-05-08, 22:53:26
Originally posted by Andre
Na dann geht sie ja weg wie warme Semmeln.
Da ist der Untergang von NV schon vorprogrammiert.

Jo :D .
Alle schreien sie "Niemand braucht eine GF4 4600. Scheissgerät.". Da frage ich mich, wieso man dann plötzlich eine(n) Parhelia/Parhelion "braucht" :rofl: .

(Anm.: Ich habe kein nV-Karte.)

Frank
2002-05-08, 22:57:50
Also bis jetzt kam von Matrox eigentlich NICHTS, bis auf ein kleines FlashIntro vor kurzem, und ein paar nichtssagende Comments in irgendwelchen Matroxforen.

Aber das was hier in den letzten Tagen abgeht ist irgendwie total obersinnlos. Da gibts 6 Threads oder mehr zum selben Thema. Kann man nich mal einfach warten und sich zusammenreißen. Weil da vergeht einen fast die Vorfreude, wenn sich hier alle mit irgendwelchen imaginären Specs beweihräucheln.

Dunkeltier
2002-05-08, 22:59:57
Dieses Dual-head ist doch nichts anderes als das NView oder das Dual Monitoring bei ATI..., oder?

Quasar
2002-05-08, 23:01:37
Weil in Wirklichkeit doch jeder eine Ti4600 gebraucht hätte, man aber zu stolz war, auch mal was vom bösen, 50%-Leistungssteigerer/MX-Verarscher/Kundeschröpfer/Innovationsbremser/Kyro-Paper-Veröffentlicher/Konkurrenz-Niederhalter/Geldverdiener/Miese-2D-Qualität-Bieter/Kartenhersteller-Erpresser/3dfx-Aufkäufer/TnL-Hyper/undsonstnochwas nVidia zu kaufen.

Nun gibbet das von Matrox und alle schreien auf: Hoorah! Endlich mal eine zukunftssichere, ihren Preis werte, völlig unbekannte Karte. Aber egal, genommen wird, was kommt, hauptsache es ist nicht von nV.

Ist ja dasselbe bei ATi. Wer hat die auch nur mit Säurehandschuhen angefasst, als sie die RagePro-Serie draussen hatten?

wulfman
2002-05-08, 23:08:39
@ Black Cow: mit dem unterschied, dass es teilweise mehr funktionen bietet.

stimmt, langsam könnte man die threads etwas eindämmen, die spekulationen nehmen etwas überhand...

haben eigentlich auch alle vor dem gf3 TI / GF 4 / R200 so fleißig gepostet? und was wird vor dem R300-launch passieren?

mfg
wulfman

Dunkeltier
2002-05-08, 23:16:27
Originally posted by Quasar
Weil in Wirklichkeit doch jeder eine Ti4600 gebraucht hätte, man aber zu stolz war, auch mal was vom bösen, 50%-Leistungssteigerer/MX-Verarscher/Kundeschröpfer/Innovationsbremser/Kyro-Paper-Veröffentlicher/Konkurrenz-Niederhalter/Geldverdiener/Miese-2D-Qualität-Bieter/Kartenhersteller-Erpresser/3dfx-Aufkäufer/TnL-Hyper/undsonstnochwas nVidia zu kaufen.

Nun gibbet das von Matrox und alle schreien auf: Hoorah! Endlich mal eine zukunftssichere, ihren Preis werte, völlig unbekannte Karte. Aber egal, genommen wird, was kommt, hauptsache es ist nicht von nV.

Ist ja dasselbe bei ATi. Wer hat die auch nur mit Säurehandschuhen angefasst, als sie die RagePro-Serie draussen hatten?

Ja, dran ist was. Hätte auch nie gedacht, jemals eine ATI Karte mir zuzulegen. Passiert ist es trotz Gummi.

Sicherlich mag NVidia dieses böse Image aufgrund der NVidia User haben. Mit ihren alles überflügelnden Karten wird sich mal ebend über die PowerVR/ATI/Matrox Fraktion lustig gemacht und ebend diese User stänkern zurück. Und das schaukelt sich auf.

Hm, ich glaube NVidia braucht ´nen Image Berater. Damit sie nicht mehr das Dark Imperium sind... :lol: Oder aber, die sind zu brav und routiniert. ??? Irgendwas muß man doch anflamen können.

Unregistered
2002-05-08, 23:59:02
Jo, ich werde dem Geschehen entspannt zusehen, Reviews & Tests von Magazinen und Meinungen der User hier im Forum abwarten, lesen, abwägen, etc. .
Dann, irgendwann im Frühjahr anno 2003 (eher noch später), entscheide ich mir für den Nachfolger meiner jetzigen GraKa.

Immer die Ruhe bewahren, keine Hektik aufkommen lassen und (Baldrian-) Tee trinken !

Doomtrain
2002-05-09, 00:43:52
Originally posted by Black Cow
Maximal anderthalb mal so schnell. :D *mitschätz*

Würde mir ja auch reichen!!!

Doomtrain
2002-05-09, 00:47:33
Originally posted by Quasar


Nun gibbet das von Matrox und alle schreien auf: Hoorah! Endlich mal eine zukunftssichere, ihren Preis werte, völlig unbekannte Karte. Aber egal, genommen wird, was kommt, hauptsache es ist nicht von nV.

Ist ja dasselbe bei ATi. Wer hat die auch nur mit Säurehandschuhen angefasst, als sie die RagePro-Serie draussen hatten?

Quasar, du sprichst mir wie immer aus der Seele. Ich hatte einen Rage Pro, und der war übel!!!

Hauptsache nicht von Nvidia, das ist mein neuer Wahlspruch!!!
Kommt in meine Sig.

StefanV
2002-05-09, 01:00:06
Originally posted by Black Cow
Dieses Dual-head ist doch nichts anderes als das NView oder das Dual Monitoring bei ATI..., oder?

Nur besser, viel besser *eg*

Insbesondere, da DH auch unter 2k werkelt...

@GF4 User

Habt ihr in Windows XP 2 UNABHÄNGIGE Monitore??

Oder geht Dual Monitoring nur, in dem die Auflösung 'vergrößert' wird??

Unregistered
2002-05-09, 01:46:58
Originally posted by Stefan Payne

@GF4 User
Habt ihr in Windows XP 2 UNABHÄNGIGE Monitore??
Oder geht Dual Monitoring nur, in dem die Auflösung 'vergrößert' wird??

Öhm, ich habe nur einen Monitor, aber danke der Nachfrage.
Ich nutze die GF zum Spielen, was soll man mit Dual-Monitor Betrieb ??? ?

StefanV
2002-05-09, 01:53:24
Originally posted by Unregistered
Öhm, ich habe nur einen Monitor, aber danke der Nachfrage.
Ich nutze die GF zum Spielen, was soll man mit Dual-Monitor Betrieb ??? ?

1. wenns richtig eingestellt ist, dann sollten unter Windows XP 2 Monitore sein.

2. Ist ein Feature der Karte, wenn das nicht richtig geht, dann hat NV scheiße gebaut und das Feature ist nicht sonderlich nutzbar...

Exxtreme
2002-05-09, 08:26:46
Originally posted by Quasar
Weil in Wirklichkeit doch jeder eine Ti4600 gebraucht hätte, man aber zu stolz war, auch mal was vom bösen, 50%-Leistungssteigerer/MX-Verarscher/
Kundeschröpfer/Innovationsbremser/
Kyro-Paper-Veröffentlicher/
Konkurrenz-Niederhalter/Geldverdiener/
Miese-2D-Qualität-Bieter/
Kartenhersteller-Erpresser/
3dfx-Aufkäufer/TnL-Hyper/undsonstnochwas nVidia zu kaufen.
Und dann gibt es noch Leute (wie mich), die mit nVidia-Karten einfach schlechte Erfahrungen gemacht haben.

Rampage
2002-05-09, 12:23:00
Originally posted by Exxtreme

Und dann gibt es noch Leute (wie mich), die mit nVidia-Karten einfach schlechte Erfahrungen gemacht haben.
[/B]


Und Leute wie mich die noch NIE eine Nvidia Karte hatten und immer flüssig spielen konnten ;)

*selberaufdieschulterklopf*

Scose
2002-05-09, 16:31:09
Ich denke wenn MATROX, das wohl stillschweigenste Unternehmen des Grafikkarten Business, dermassen auf die Pauke schlägt müssen sie sich ihrer Sache ziemlich sicher sein.

Gohan
2002-05-09, 16:36:40
Originally posted by Rampage



Und Leute wie mich die noch NIE eine Nvidia Karte hatten und immer flüssig spielen konnten ;)

*selberaufdieschulterklopf*

Und dann gibt es noch Leute wie mich, die ihre geForce3 Ti500 verscherbeln nur um das Geld für eine Voodoo 5 5500 zu bekommen ;D

Frank
2002-05-09, 16:39:33
Originally posted by Snivilist
Ich denke wenn MATROX, das wohl stillschweigenste Unternehmen des Grafikkarten Business, dermassen auf die Pauke schlägt müssen sie sich ihrer Sache ziemlich sicher sein.
bis auf ein einziges Flashintro kam bis jetzt nix direkt von Matrox in den letzten 10 Monaten. Wenn das auf die Pauke hauen ist, was machen da die anderen Firmen?

Gohan
2002-05-09, 16:43:07
Originally posted by Frank

bis auf ein einziges Flashintro kam bis jetzt nix direkt von Matrox in den letzten 10 Monaten. Wenn das auf die Pauke hauen ist, was machen da die anderen Firmen?

Das ÜBERHAUPT ein Flashlogo kommt will schon was heißen ;)

Rampage
2002-05-09, 17:41:06
Originally posted by Gohan


Und dann gibt es noch Leute wie mich, die ihre geForce3 Ti500 verscherbeln nur um das Geld für eine Voodoo 5 5500 zu bekommen ;D

LOB !!!!

Scose
2002-05-09, 18:13:02
da stand was vom grössten produktelaunch seit der millennium....
das will was heissen

Gohan
2002-05-09, 19:13:22
Originally posted by Snivilist
da stand was vom grössten produktelaunch seit der millennium....
das will was heissen

Was heißt "da" ? Auf Matrox.de/com ist nichts zu lesen.

AtTheDriveIn
2002-05-09, 19:22:24
stand im Newsletter

Gohan
2002-05-09, 19:24:48
Hm... sollte ich mal Abonieren :eyes:

Unregistered
2002-05-09, 19:33:04
Ich fänd wirklich gut, wenn Matrox so eine richtige "fette" ;) Karte rausbringt! Da weiss ich ja, welche Karte ich mir in etwa in einem Jahr kaufen werde ;) .
Einmal nVidia und zurück, bitte :D .

Doomtrain
2002-05-09, 20:26:47
Originally posted by Unregistered
Ich fänd wirklich gut, wenn Matrox so eine richtige "fette" ;) Karte rausbringt!


Verlaß dich drauf!! Das Teil wird FAT! *eg*

Rampage
2002-05-09, 20:54:45
Die Frage ist aber immernoch, wann die Karte rauskommt, sollte es sich bis in den Sommer verzögern, könnten Ati und nVidia sehr gefährlich werden

Gohan
2002-05-09, 21:01:54
Originally posted by Rampage
Die Frage ist aber immernoch, wann die Karte rauskommt, sollte es sich bis in den Sommer verzögern, könnten Ati und nVidia sehr gefährlich werden

Wie? Ne... du glaubst doch nicht ERNSTHAFT das nVidia seine GeForce4 Ti nur einstampft weil Matrox mit was besserem daher kommt. Was meinst du würden die Leute machen die sich erst für viel Geld sich eine Ti4600 holen nur um zu erfahren das dies von nVidia schon wieder als Alteisen gesehen wird...
ATI KÖNNTE einen neuen Chip rausbringen. Aber wirklich nur KÖNNTE.
Für nVidia besteht keine Chance da es viel zu früh wäre um die GeForce4 schon wieder fallen zu lassen. Das würde wirklich Kunden kosten. Denn diese glauben ein Produkt zu kaufen das allen Erwartungen entspricht. Und wenn dann wieder was neues kommt steckt das geld schon in der GeForce4 und es ist kein Geld für den NV30 da ;)

Matrox wird ne weile an der Spitze der Performance bleiben :)

Argo Zero
2002-05-09, 21:05:49
Der Nachfolger zur GF4 ist im Juli geplant.
Mal sehen was fürn scheiss die wieder raus bringen *eg*

ernesto.che
2002-05-09, 21:10:29
Originally posted by FreakinTweaker
Der Nachfolger zur GF4 ist im Juli geplant.
Mal sehen was fürn scheiss die wieder raus bringen *eg*
Laut Nvidia einen Meilenstein. Das kann nur bedeuten, das sehr viel 3dfx Technik integriert worden ist.

Gohan
2002-05-09, 21:14:42
JULIE?! Nenene da gibbet einen Schuss nach hinten, egal wie modern die Karte seien wird ;) Nach nur 4 Monaten ein Produkt wieder abzuschreiben, das wird den Käufern nicht gefallen.

Argo Zero
2002-05-09, 21:16:07
Wie wars denn mit der GF3 TI 500 ?
Die war auch zimlich lang aufm Markt oder.
Und hast soviel Geld hin geprangt wie für ne Ti4600 *eg*
NVIDIA => Hier werden sie betrogen :P

StefanV
2002-05-09, 22:35:07
Originally posted by FreakinTweaker
NVIDIA => Hier werden sie betrogen :P

Tja, und das merken langsam immer mehr Leute, daß sie von NV 'betrogen' werden...

NV schaufelt ihr eigenes Grab (auch durch den bescheidenen TV Out)...

ernesto.che
2002-05-09, 23:12:10
Originally posted by Stefan Payne


Tja, und das merken langsam immer mehr Leute, daß sie von NV 'betrogen' werden...

NV schaufelt ihr eigenes Grab (auch durch den bescheidenen TV Out)...

Der Overscan Modus soll aber im nächsten oder übernächsten Detonator kommen, sagt zumindest David Kirk.
Hätte Nvidia neue 3dfx Treiber veöffentlicht, würde ich sie nicht so abgrundtief hassen wie jetzt.

StefanV
2002-05-09, 23:30:48
Originally posted by ernesto.che
Der Overscan Modus soll aber im nächsten oder übernächsten Detonator kommen, sagt zumindest David Kirk.
Hätte Nvidia neue 3dfx Treiber veöffentlicht, würde ich sie nicht so abgrundtief hassen wie jetzt.

1. die K2 kann Overscan, dennoch ist der TV Out Müll, und zum Tweaken hab ich keinen Bock...
Overscan ist also nicht alles...


2. Dadurch, daß NV keine 3DFX Treiber entwickelt/entwickeln lassen hat, dadurch haben sie viele potenzielle Kunden vergrault, nämlich die 'Hardcore' 3DFXler...

ernesto.che
2002-05-09, 23:42:02
Originally posted by Stefan Payne


1. die K2 kann Overscan, dennoch ist der TV Out Müll, und zum Tweaken hab ich keinen Bock...
Overscan ist also nicht alles...


2. Dadurch, daß NV keine 3DFX Treiber entwickelt/entwickeln lassen hat, dadurch haben sie viele potenzielle Kunden vergrault, nämlich die 'Hardcore' 3DFXler...
Aber immerhin besser als diese Mario Paint Optik eines Nvidia Tv-Out

Rampage
2002-05-10, 10:45:28
Originally posted by ernesto.che

Aber immerhin besser als diese Mario Paint Optik eines Nvidia Tv-Out

Trotzdem selbst wenn sich viele Leute die neue Matroxkarte holen, ist nvdia immernoch nicht pleite, die haben soviele oem-kunden und unerfahrene User kaufen fast nur "geforce" weil sie denken das ist das absolut beste. (siehe intel und amd, da hat es auch etwas gebraucht).

Außerdem denke ich nicht das es den parhelia von drittherstellern geben wird.

HOT
2002-05-10, 10:52:35
Originally posted by FreakinTweaker
Der Nachfolger zur GF4 ist im Juli geplant.
Mal sehen was fürn scheiss die wieder raus bringen *eg*

Wo steht das? NV will den NV30 als Konkurrenz für die R300 auf den Markt bringen und das wäre frühestens Herbst. Ich würde sogar sagen, dass NV diesmal noch später dran ist als ATI & co. An die Implementation von 3Dfx Technologie glaube ich weiterhin nicht (es sei denn Gigapixel), da NV mittlerweile besseres selbst entwickelt haben dürfte. NV war technologiasch schon damals besser dran als 3Dfx. Der 3Dfx Kauf war lediglich das Einstampfen eines gefährlichen Konkurrenten, nicht mehr und nicht weniger. Man sollte nicht ausser Acht lassen, dass VIA damals mit im Rennen war! Ich stimme dem voll zu, was einige Leute hier sagen, wenn NV jetzt einen neuen Chip launchen würde, würden sie ihren Ti Kunden in den Allerwertesten treten und viele dieser Leute verlieren.

Rampage
2002-05-10, 10:56:48
Also ich denke nvidia lässt schon ein paar 3dfx technologien mit einfließen, aber zumindest entwickeln ein paar 3dfx leute mit am neuen chip, und deshalp wird sich wahrscheinlich einiges in bildqualität tun.

Mindestens ;)

StefanV
2002-05-10, 11:25:12
Originally posted by ernesto.che
Aber immerhin besser als diese Mario Paint Optik eines Nvidia Tv-Out

Richtig gut sind nur die von Matrox und 3DFX.

ATI ist aber sicher auch brauchbar *eg*

Unregistered
2002-05-10, 11:52:04
Hi

Also ich mag ja kein pessimist sein aber wenn ich bedenke was Matrox bis jetzt für Preise gehabt hat dann sehe ich schwarz.

Das Teil muss so derat pervers abrocken damit es jemand kauft.
Seien wir mal ehrlich nur eine Handvoll können sich eine Ti 4600 Leisten.
Wenn gerade mal 2-3% ´500€ Karten ausmachen womit will dann Matrox die Marktposition stärken. ???

Nene die Jungs müssen auch günstige Karten im 200er Bereich bringen.
Ansonsten kaufen die nur eine Handvoll und das wäre nicht gut.

Mal abwarten was und wie Matrox was vorstellt.

Aber immer wieder nett zu sehen das die Anti-nVIDIA Fraktion sich auf alle Chips stürzt.

Übrigens ich räume SIS mit den Xabre mehr Chancen ein als Matrox mit einen Top HighEnd Produkt welches angeblich sogar 800€ kostet. (Was ich bezweifel das die Karte so teuer wird)

Gruss Labberlippe

TBird
2002-05-10, 11:52:07
Originally posted by Andre


Sind denn schon Specs angekündigt?
Ich meine von Matrox.
Also, immer dasselbe Spiel und dann geht das Geheule wieder los.
Mal sehen, was sich Matrox dieses Mal als "Büro-Feature" so einfallen lässt.

:lol:
Sorry kam mir nur so spontan über die Lippen. ;)

Andre
2002-05-10, 11:54:01
Originally posted by TBird


:lol:
Sorry kam mir nur so spontan über die Lippen. ;)

???

TBird
2002-05-10, 12:04:39
Originally posted by Andre


???

Wegen dem "Büro-Feature" Andre. ;)

Allgemein finde ich es hier schon lustig wie im luftleeren Raum spekuliert wird.

Haltet Ihr die 4 Tage nicht mehr aus ???
Lehnt Euch zurück, entspannt Euch und lasst Euch überraschen. ;)

wulfman
2002-05-10, 12:49:27
ich sorge jetzt einmal wieder für die spassigsten gerüchte, sorry, dass ich nicht im spekulationsforum bleibe.

wie immer von Haig, Matrox Support Leiter:

BTW, anyone hear that the NV30 won't have a 256 bit wide bus?
None. We're only announcing the chip spec.

So you want us to have more than 1 method of somekind of AA or just edge detect AA?

Can't comment on that but we will have a TV out. I didn't know ati and nvidia had triple head.

Yes, our Mill was built like a tank and it still out lasts most modern cards with todays standards. This new one should be having the same quality standard regarding parts.


http://forum.matrox.com/mgaforum/Forum8/HTML/001109-3.html

und bitte ignoriert alle specs, bei denen g1000 (oder G1600) dabeisteht.

mfg
wulfman

Sebuste
2002-05-10, 12:53:45
Originally posted by HOT


Wo steht das? NV will den NV30 als Konkurrenz für die R300 auf den Markt bringen und das wäre frühestens Herbst. Ich würde sogar sagen, dass NV diesmal noch später dran ist als ATI & co. An die Implementation von 3Dfx Technologie glaube ich weiterhin nicht (es sei denn Gigapixel), da NV mittlerweile besseres selbst entwickelt haben dürfte. NV war technologiasch schon damals besser dran als 3Dfx. Der 3Dfx Kauf war lediglich das Einstampfen eines gefährlichen Konkurrenten, nicht mehr und nicht weniger. Man sollte nicht ausser Acht lassen, dass VIA damals mit im Rennen war! Ich stimme dem voll zu, was einige Leute hier sagen, wenn NV jetzt einen neuen Chip launchen würde, würden sie ihren Ti Kunden in den Allerwertesten treten und viele dieser Leute verlieren.

was haben sie selber entwickelt ?
HSR der geforce3 kommt von der voodoo.
multisampling der geforce karten sahen erst ab der geforce 4 vernuenftig aus.
alles was sie entwickelt haben ikst keine glanzleistung, eine dx8 oder 9 einheit zu implementieren sollte nicht so schwer sein.
was haben sie gebracht an revolotionärem ?

HOT
2002-05-10, 12:57:44
So ein Blödsinn. KEINE Voodoo hatte bisher eine Art Z-Clear oder Techniken in der Art. Das wurde von NV entwickelt und hatte nix mit Gigapixel etc. zu tun.
Desweiteren arbeitet der VSA100 mit Supersampling, nicht mit Multisampling. Auch Multisampling ist eine Eigenentwicklung von NV und kommt wie T&L aus der Profibranche.

Sebuste
2002-05-10, 12:59:19
Originally posted by HOT
So ein Blödsinn. KEINE Voodoo hatte bisher eine Art Z-Clear oder Techniken in der Art. Das wurde von NV entwickelt und hatte nix mit Gigapixel etc. zu tun.

woher willst du wissen was in der grauen kiste von damals drin war ? reingeschaut hast du bestimmt nicht.

HOT
2002-05-10, 13:07:33
Es ist allgemein bekannt das Voodoos keine HSR Techniken besassen. Das war auch absolut nicht nötig bei 16Bit und 2 Pipes. Auch der VSA100 hat kein HSR. HSR sollte bei 3Dfx gleich mit Tile Based deferred Rendering einhergehen.
Bis dahin hat man eben Multichiplösugen gebaut, sodass Z-Clear etc. sowieso nicht Nötig war. Die Voodoos haben nie Bandbreitenprobs gehabt!

TBird
2002-05-10, 13:13:51
@wulfman

Auja Gerüchte !!!
Ich leg noch einen bzw. zwei ;) drauf:


I caught a couple of NV30 specs for you. First the RAM will be running at 900Mhz. Secondly, they are claiming at this point 200 million polys per second.



I've also recently been chatting to one of the persons at ATi. He got his first R300 about 3 and a half weeks ago. He won't give me any performance numbers (yet). He's claiming that based on the performance he's been getting, it's going to destroy everything else that's coming out.


http://www.3dchipset.com/news.shtml#newsitem1020969880,11223,

wulfman
2002-05-10, 13:16:43
Originally posted by TBird
@wulfman

Auja Gerüchte !!!
Ich leg noch einen bzw. zwei ;) drauf:

http://www.3dchipset.com/news.shtml#newsitem1020969880,11223,

da fehlt mir aber die "echte" quellenangabe.

mfg
wulfman

Sebuste
2002-05-10, 13:17:43
Originally posted by wulfman


da fehlt mir aber die "echte" quellenangabe.

mfg
wulfman

geruecht

wulfman
2002-05-10, 14:06:30
mann, Tbird: hast du die news schon gelesen?

within3D berichten davon, daß sich nVidia-Chefentwickler David Kirk deutlich zurückhaltend bezüglich eines 256bittigen Speicherinterface geäußert hat - dies wäre im Moment "Overkill". Falls dieses "im Moment" auch noch für den angeblich schon im August vorzustellenden NV30-Chip seitens nVidia zutreffen sollte, wird dieser wohl über kein 256bittiges Speicherinterface verfügen (sondern das bisherigen 128bittige) - und es damit gegen Chips mit einem 256bittigen Speicherinterface wie von 3Dlabs und möglicherweise von Matrox zumindestens aus Performance-Sicht sehr schwer haben ...

quote nr.1 wurde gerade von einer zweiten quelle "bestätigt"... :)

mfg
wulfman

TBird
2002-05-10, 14:21:10
@wulfman

News ???
Wohl eher Spekulation. ;)

wulfman
2002-05-10, 14:32:37
@Tbird: noch ;)

leo hat schon recht...

mfg
wulfman

StefanV
2002-05-10, 15:06:46
Originally posted by wulfman
@Tbird: noch ;)

leo hat schon recht...

mfg
wulfman

Er weiß wohl mehr, als er sagen darf *eg*

TBird
2002-05-10, 15:15:48
Na ob der Preis stimmt ???

http://www.tecnation.co.uk/picture.php?url=newspics/matrox.jpg

;)

Gohan
2002-05-10, 15:20:15
Originally posted by TBird
Na ob der Preis stimmt ???

http://www.tecnation.co.uk/picture.php?url=newspics/matrox.jpg

;)

Dieses Bild ist jetzt schon zum dritten mal in diesem Thread un es ist immer noch ein Fake! ;D

Rampage
2002-05-10, 15:23:41
Originally posted by TBird
Na ob der Preis stimmt ???

http://www.tecnation.co.uk/picture.php?url=newspics/matrox.jpg

;)

Naja eher ob da überhaupt was stimmt, ich sage nur 105Mil. Transistoren

TBird
2002-05-10, 15:27:28
Originally posted by Rampage


Naja eher ob da überhaupt was stimmt, ich sage nur 105Mil. Transistoren

Warum nicht ???
Wenn NVidia schon 63Mil. schafft...

Gohan
2002-05-10, 15:33:34
Originally posted by TBird


Warum nicht ???
Wenn NVidia schon 63Mil. schafft...

FAKE! FAKE! FAKE, Verdammt! Das Bild kennt jeder ;)

StefanV
2002-05-10, 15:39:02
Originally posted by TBird


Warum nicht ???
Wenn NVidia schon 63Mil. schafft...

Weils 80-90 MIO Transistoren werden...

Auch der Rest stimmt nicht!!

TBird
2002-05-10, 15:49:40
@Stefan Payne

Quelle ???

StefanV
2002-05-10, 16:12:21
Originally posted by TBird
@Stefan Payne

Quelle ???

Kritischer Reactor :P

TBird
2002-05-10, 16:27:18
Originally posted by Stefan Payne


Kritischer Reactor :P

:lol: Stefan !!! :rofl:

jedi
2002-05-10, 16:58:26
Inzwischen rudert sogar die Matrox-Fansite http://www.matroxusers.com/ den Matrox-Hype zurück:


Calm Down, Calm Down

Well it seems everybody is working themselves up into a real Parhelia frenzy after the recent update to the Matrox site. Don't get too excited they could just be launching a new range of sunglasses.

Many people are jumping on the G1000 hoax and apparently even some hardware suppliers are sending it out as actual specs for an upcoming Matrox product. Anything labelled G1000 is a hoax, there is no G1000, just look at the specs there is one slight giveaway, Millennium is misspelt as Millenium!!

TBird
2002-05-10, 17:10:55
Das ist doch immer so bei einem HYPE jedi !!!
Ein Schritt vor, zwei Schritte zurück. ;)

jedi
2002-05-10, 17:23:18
Am lächerlichsten finde ich ja, dass hier gleich ein paar Kiddies das Matrox-Werbelogo in ihre Sig oder ihren Avatar kopieren. Naja, in einem gewissen Pubertätsalter zählt Markennamen-Hype eben mehr als Fakten. ;)

wulfman
2002-05-10, 17:26:00
rein interessehalber: wofür steht das blaue auge? ;)

mfg
wulfman

Rampage
2002-05-10, 17:26:45
Originally posted by jedi
Am lächerlichsten finde ich ja, dass hier gleich ein paar Kiddies das Matrox-Werbelogo in ihre Sig oder ihren Avatar kopieren. Naja, in einem gewissen Pubertätsalter zählt Markennamen-Hype eben mehr als Fakten. ;)

Wahrscheinlich wollte er nur deutlich machen das der Chip am 14. mai rauskommt, und er den Hype deswegen für lächerlich empfindet.

Stimmts ;)

jedi
2002-05-10, 17:30:24
Originally posted by wulfman
rein interessehalber: wofür steht das blaue auge? ;)


Getroffene Hunde bellen am schnellsten, gell Wölfchen? ;)

jedi
2002-05-10, 17:38:21
Inzwischen rudert sogar die Matrox-Fansite http://www.matroxusers.com/ den Matrox-Hype zurück:

Calm Down, Calm Down

Well it seems everybody is working themselves up into a real Parhelia frenzy after the recent update to the Matrox site. Don't get too excited they could just be launching a new range of sunglasses.

Das könnte übersetzt übrigens auch heissen:

"Freut Euch nicht zu früh, wenn der gehypte Matrox-Chip noch nicht mal alle DirectX9-Features hat und später auf den Markt kommt als nVidias vollwertiger DX9-Chip im Herbst." :sulkoff:

*eg*

wulfman
2002-05-10, 17:44:02
getroffen? es gibt (soweit ich das bis jetzt gesehen habe) 2 members mit einem parhelia-logo als avatar, ergo fühle ich mich angesprochen - oder hast du jemand anderen gemeint?

ein avatar ist so gut wie jeder andere - ob man jetzt ein seltsames blaues katzenauge, ein politisches statement ;) oder etwas werbung bevorzugt.

außerdem - welcher hype? wir wissen doch noch gar nichts, oder?
wer hat eigentlich behauptet, dass Parhelia DX9 konform ist? momentan wird leider auf grund eines aprilscherzes gehypt, imho.

mich interessiert es aber trotzdem, woher stammt das blaue äuglein?

mfg
wulfman

Dr.Doom
2002-05-10, 17:53:40
Originally posted by wulfman
mich interessiert es aber trotzdem, woher stammt das blaue äuglein?


Bestimmt von einer Packung, wo eine Kyro3 Karte drin ist.
*mal wieder von einer guten GraKa sprech*
:D

Gohan
2002-05-10, 18:21:07
Originally posted by jedi
Am lächerlichsten finde ich ja, dass hier gleich ein paar Kiddies das Matrox-Werbelogo in ihre Sig oder ihren Avatar kopieren. Naja, in einem gewissen Pubertätsalter zählt Markennamen-Hype eben mehr als Fakten. ;)

Ich weiß was ich tue ;)

TBird
2002-05-10, 18:52:08
Originally posted by jedi
Am lächerlichsten finde ich ja, dass hier gleich ein paar Kiddies das Matrox-Werbelogo in ihre Sig oder ihren Avatar kopieren. Naja, in einem gewissen Pubertätsalter zählt Markennamen-Hype eben mehr als Fakten. ;)

Nanu jedi, woher kannst Du meine Gedanken lesen ???
;)

Leonidas
2002-05-10, 19:09:26
Bloss mal die Stimme von jemanden, der es wissen muß: Vorgelinktes Pic bzw. die dort zu sehenden Daten sind falsch. Schlicht ersponnen. Sicher trifft einiges zu, aber das war dann nur gut geraten.


Die paar Tage bis zum 14. haltet Ihr auch noch aus ... Mitternacht vom Montag zum Dienstag erfahrt Ihr die Fakten.

Leonidas
2002-05-10, 19:12:56
Originally posted by Snivilist
Ich denke wenn MATROX, das wohl stillschweigenste Unternehmen des Grafikkarten Business, dermassen auf die Pauke schlägt müssen sie sich ihrer Sache ziemlich sicher sein.


Da hat jemand den Durchblick.

wulfman
2002-05-10, 19:14:06
achja, wer sich über bisherige "fälschungen" rund um Parhelia informieren will: http://soontm.com/ ;)

mfg
wulfman

Leonidas
2002-05-10, 19:17:05
Originally posted by HOT
Matrox hat sich bei der G550 SEHR zurückgehalten. Jetzt allerdings hauen sie voll auf die Kacke. Das kann eigentlich nur bedeuten, dass sie einen Hammer bringen. Diese Specs halte ich für keineswegs unrealistisch. Allerdings sagen auch die relativ wenig über die Leistungsfähigkeit der Hardware aus. Wer weiss, was Matrox da alles reingebastelt hat.
Das das Teil für Spieler ist, ist selbstredent. Für ne Büro- bzw. Profikarte braucht man einfach kein Displacementmapping, keine hauptsächliche Beteiligung an DX9 und grosspurige Angündigungen, geschweige denn solche Flash-Intros :D :D :D



Noch einer mit dem Durchblick :-).

Rampage
2002-05-10, 19:38:37
Originally posted by Leonidas




Noch einer mit dem Durchblick :-).

Noch einer mit dem Durchblick :).

ow
2002-05-10, 20:56:45
Originally posted by HOT
So ein Blödsinn. KEINE Voodoo hatte bisher eine Art Z-Clear oder Techniken in der Art. Das wurde von NV entwickelt und hatte nix mit Gigapixel etc. zu tun.
Desweiteren arbeitet der VSA100 mit Supersampling, nicht mit Multisampling. Auch Multisampling ist eine Eigenentwicklung von NV und kommt wie T&L aus der Profibranche.



FSAA jedweder Art wurde weder von NV noch 3dfx entwickelt. Diese 'Features' beherrschen alle Grafikkarten. Von Anbeginn der 3D Ära an.

ernesto.che
2002-05-10, 21:12:55
Originally posted by ow



FSAA jedweder Art wurde weder von NV noch 3dfx entwickelt. Diese 'Features' beherrschen alle Grafikkarten. Von Anbeginn der 3D Ära an.
FSAA nicht hardwareseitig. Edge AntiAliasing meinst du wohl.

StefanV
2002-05-10, 21:36:51
Originally posted by ow
FSAA jedweder Art wurde weder von NV noch 3dfx entwickelt. Diese 'Features' beherrschen alle Grafikkarten. Von Anbeginn der 3D Ära an.

Und warum konnte man das nicht in den Treiberoptionen erzwingen??

Daß jede Karte Edge FSAA konnte, dürfte wohl JEDEM Klar sein, nur FSAA (FULL SCENE) wurde bei Consumer Karten erst mit der Voodoo5 eingeführt...

Also ist es 3DFX zu verdanken, daß ich jetzt FSAA nutzen kann!!!

Xmas
2002-05-10, 22:08:52
Originally posted by Stefan Payne
Daß jede Karte Edge FSAA konnte, dürfte wohl JEDEM Klar sein, nur FSAA (FULL SCENE) wurde bei Consumer Karten erst mit der Voodoo5 eingeführt...

Also ist es 3DFX zu verdanken, daß ich jetzt FSAA nutzen kann!!!
Falsch. NVidia hatte FSAA im Treiber bevor die V5 erschien. Aber irgendwie glaube ich kaum dass du deswegen NVidia dankbar bist, dass du jetzt FSAA nutzen kannst... ;)

StefanV
2002-05-10, 22:20:43
Originally posted by Xmas

Falsch. NVidia hatte FSAA im Treiber bevor die V5 erschien. Aber irgendwie glaube ich kaum dass du deswegen NVidia dankbar bist, dass du jetzt FSAA nutzen kannst... ;)

1. Schön, aber bei meiner Riva128 brachte das irgendwie nix, auch bei der TNT konnte ich das bei den 3ern das nicht wählen...

2. Nicht wirklich :eyes:

Xmas
2002-05-10, 22:32:00
Originally posted by Stefan Payne
1. Schön, aber bei meiner Riva128 brachte das irgendwie nix, auch bei der TNT konnte ich das bei den 3ern das nicht wählen...

2. Nicht wirklich :eyes:
1. Na und? Bei Voodoo 1-3 brachte es auch nix, dass die V5 FSAA kann. GeForce-Karten konnten FSAA schon vor der V5.

2. Dacht ichs mir doch. Bei 3dfx ist das natürlich was ganz anderes...

StefanV
2002-05-10, 23:08:04
Originally posted by Xmas

1. Na und? Bei Voodoo 1-3 brachte es auch nix, dass die V5 FSAA kann. GeForce-Karten konnten FSAA schon vor der V5.

2. Dacht ichs mir doch. Bei 3dfx ist das natürlich was ganz anderes...

1. aber erst mit Treibern, die NACH der V5 nachgereicht wurden.
ERGO:
Software FSAA *eg*

Nur war die V5 bei FSAA 'geringfügig' schneller als die GFs und sah auch 'etwas' besser aus'

2. no comment
3DFX ist in Sachen FSAA Qualität immer noch ungeschlagen...
erst MGA hat die Möglichkeit 3DFX zu übertrumfen, alle anderen sind einfach nur schlechter...

jedi
2002-05-10, 23:08:28
Originally posted by wulfman
ein avatar ist so gut wie jeder andere - ob man jetzt ein seltsames blaues katzenauge, ein politisches statement ;) oder etwas werbung bevorzugt.

außerdem - welcher hype? wir wissen doch noch gar nichts, oder?

Eben. ;) Werbung für irgendwas, was wir nicht wissen, finde ich eben lächerlich, und in Signaturen und Avataren erst recht pubertär. :biggrin:


mich interessiert es aber trotzdem, woher stammt das blaue äuglein?

Dass es eine Katze ist, hast Du gut erkannt. Es ist eine blauäugige Siamkatze: http://www.pbase.com/soupane/cats_and_children

Xmas
2002-05-10, 23:12:55
Originally posted by Stefan Payne
1. aber erst mit Treibern, die NACH der V5 nachgereicht wurden.
ERGO:
Software FSAA *eg*
:bonk:

1. GeForce-Karten konnten FSAA mit Treibern, die vor der Voodoo5 erhältlich waren.
2. Ergo ist keine Abkürzung, das darfst du gerne klein schreiben.
3. Keine Karte macht Software-FSAA (was auch immer das sein soll)

wulfman
2002-05-10, 23:16:04
Originally posted by jedi

Eben. ;) Werbung für irgendwas, was wir nicht wissen, finde ich eben lächerlich, und in Signaturen und Avataren erst recht pubertär. :biggrin:


du hast den sinn von werbung verstanden - man bringt der breiten masse etwas näher, von dem sie noch nichts weiß. genau so funktioniert werbung - man erregt aufmerksamkeit.

was ich nicht verstehe ist, warum dich das stört. in spätestens 4 tagen weiß sowieso jeder genug darüber.

mfg
wulfman

Sebuste
2002-05-10, 23:18:44
Originally posted by Xmas

:bonk:

1. GeForce-Karten konnten FSAA mit Treibern, die vor der Voodoo5 erhältlich waren.
2. Ergo ist keine Abkürzung, das darfst du gerne klein schreiben.
3. Keine Karte macht Software-FSAA (was auch immer das sein soll)

hardware fsaa = bei 2fachem fsaa weiden 2 fast identische bilder gerender und uebereinander gelegt.
software, das bild wird hochgerechnet zb.: 2 fsaa = 800 * 2 = 1600 und 600 * 2 = 1200 , bei 2fachen fsaa wird das bild in 1600 * 1200 hochgerechnet und wieder zum schluß gepresst auf den moni geworfen.

also wird schon klar das das hochrechnen ne menge power verschlingt und somit die v5 besserdasteht und ich nv bestimmt nicht danke.
danke

danke

Sebuste
2002-05-10, 23:23:44
Originally posted by Xmas

Falsch. NVidia hatte FSAA im Treiber bevor die V5 erschien. Aber irgendwie glaube ich kaum dass du deswegen NVidia dankbar bist, dass du jetzt FSAA nutzen kannst... ;)
habt ihr auch mal an die geschwindigkeit gedacht ? die voodoo konnte mehr rausholen als ne geforce karte und deshalb waren die spiele auch flüssiger. was bringt 4faches aa wens ruckelt ???

Xmas
2002-05-10, 23:25:55
Originally posted by Sebuste
hardware fsaa = bei 2fachem fsaa weiden 2 fast identische bilder gerender und uebereinander gelegt.
software, das bild wird hochgerechnet zb.: 2 fsaa = 800 * 2 = 1600 und 600 * 2 = 1200 , bei 2fachen fsaa wird das bildin 1600 * 1200 hochgerechnet und wieder zum schluß gepresst auf den moni geworfen.

danke
Bitte.

Erst mal wäre es bei 1600x1200 2x2 oder 4x FSAA, nicht 2x FSAA. Und zweitens gibt es zwischen diesen Methoden keinen prinzipiellen Unterschied. Einzig die Berechnung der Speicheradresse, an die ein fertig gerenderter Pixel geschrieben wird, ist anders.
Was soll denn bei der zweiten Methode "Software" sein?

Sebuste
2002-05-10, 23:28:47
Originally posted by Xmas

Bitte.

Erst mal wäre es bei 1600x1200 2x2 oder 4x FSAA, nicht 2x FSAA. Und zweitens gibt es zwischen diesen Methoden keinen prinzipiellen Unterschied. Einzig die Berechnung der Speicheradresse, an die ein fertig gerenderter Pixel geschrieben wird, ist anders.
Was soll denn bei der zweiten Methode "Software" sein?

hast du das nicht verstanden ? bei software aa wird das bild hoch gerechnet !!!! ALSO 1600* 1200 im normalen game bei 800*600, darausfolgt es koennte geruckelt haben ( damals mit der geforce)
es ist für die karte leichter 2 bilder zu berechnen und uenbereinander zulegen das entscheidente das die bilder werden im ramdac gemischt.

ist das soschwer ?
wer fehler findet, ich bin angetrunken.

jedi
2002-05-10, 23:30:06
Originally posted by wulfman
du hast den sinn von werbung verstanden - man bringt der breiten masse etwas näher, von dem sie noch nichts weiß. genau so funktioniert werbung - man erregt aufmerksamkeit.

was ich nicht verstehe ist, warum dich das stört.

Ich habe nie behauptet, dass mich das stört. Es doch eher belustigend anzusehen, wenn sich manche zum Affen machen und sich vom Hype einer Firma instrumentalisieren lassen. *eg*

Xmas
2002-05-10, 23:30:11
Originally posted by Sebuste
habt ihr auch mal an die geschwindigkeit gedacht ? die voodoo konnte mehr rausholen als ne geforce karte und deshalb waren die spiele auch flüssiger. was bringt 4faches aa wens ruckelt ???
Sicher, aber die Geschwindigkeit stand gar nicht zur Debatte. Da muss sowieso jeder subjektiv entscheiden, ob die Framerate ausreichend ist oder nicht.

Sebuste
2002-05-10, 23:32:11
Originally posted by Xmas

Sicher, aber die Geschwindigkeit stand gar nicht zur Debatte. Da muss sowieso jeder subjektiv entscheiden, ob die Framerate ausreichend ist oder nicht.
sobald die fps unter 30 rutscht wird es ruckelt egal was ist
( zum beispiel und rein hypotetisch)!
mit der voodoo ist das nicht so krass.

Sebuste
2002-05-10, 23:33:47
Originally posted by Xmas

Bitte.

Erst mal wäre es bei 1600x1200 2x2 oder 4x FSAA, nicht 2x FSAA. Und zweitens gibt es zwischen diesen Methoden keinen prinzipiellen Unterschied. Einzig die Berechnung der Speicheradresse, an die ein fertig gerenderter Pixel geschrieben wird, ist anders.
Was soll denn bei der zweiten Methode "Software" sein?
wenn du ein spiel hast ne geforce und ne voodoo5, mit fsaa liegt die voodoo forne, das ist hw ich schreibe dir das morgen mal auf wem ich schreiben wieder kann.

jedi
2002-05-10, 23:40:12
Originally posted by Snivilist
MATROX, das wohl stillschweigenste Unternehmen des Grafikkarten Business

Wo ist der Ironie-Smiley? Matrox haut selbst bei völlig unbedeutenden Produkten auf den Marketing-Putz, dass es kracht. Beispiel: die G450 war damals mit den beiden Dualhead-Girls monatelang auf dem teuersten Anzeigeplatz fast aller Spiele(!)- und Computerzeitschriften, nämlich auf dem ganzseitigen Rückseiten-Cover. Und das, obwohl sie für Gamer kaum geeignet war und fast ein Jahr (von der CeBit bis zum Weihnachtsgeschäft) trotz der Anzeigen nicht erhältlich war. Trotz der Unbedeutung und der Nichtverfügbarkeit war das ein extremer Marketing-PR-Aufwand ohnegleichen.

Xmas
2002-05-10, 23:43:34
Originally posted by Sebuste
hast du das nicht verstanden?
Doch, ich habe sehr wohl verstanden wie FSAA funktioniert. Da wirst du mir sicher nichts neues erzählen.

bei software aa wird das bild hoch gerechnet !!!! ALSO 1600* 1200 im normalen game bei 800*600, darausfolgt es koennte geruckelt haben ( damals mit der geforce)
Nochmal: Was ist hier "Software"?
Nochmal: Das ist 2x2-FSAA (=4x FSAA), nicht 2x FSAA
Bei einer V5 könnte es genauso ruckeln...
es ist für die karte leichter 2 bilder zu berechnen und uenbereinander zulegen
Ist es nicht. Nochmal: Der einzige Unterschied ist die Speicheradresse, an die die Subsamples geschrieben werden. Je nach Speicherarchitektur kann das eine oder das andere effektiver sein.

das entscheidente das die bilder werden im ramdac gemischt.
Wenn das wirklich der Unterschied zwischen Software- und Hardware-FSAA sein soll, dann gäbe es zwei Chips, die Hardware-FSAA können: VSA-100 und GeForce4.
Ob der RAMDAC oder ein anderer Teil des Chips mischt, es ist Hardware.

Quasar
2002-05-10, 23:59:13
Aus ziemlich verlässlicher Quelle weiß ich, daß es nicht im RAMDAC gemischt wird...bei den GF4.

Exxtreme
2002-05-11, 00:04:34
@ sebuste
Xmas hat schon recht. Das FSAA erledigt im Endeffekt immer die Hardware. Beim 'Standard'-FSAA wird das Bild intern mit einer höheren Auflösung berechnet und dann auf die Wunschauflösung runtergerechnet. Der Vorteil ist, daß es auf praktisch jedem Grafikchip machbar ist. Der Nachteil ist allerdings, daß AFAIK nur OGSS möglich ist. Die Voodoo5 bedient sich eines MultiSample-Buffers. Da wird das Bild mehfach und jeweils leicht verschoben gerendert. Dann werden die einzelnen Bilder quasi übereinandergelegt und ausgegeben. Die Vorteile dieser Methode sind, daß man eine höhere Framerate erreichen kann wenn die Hardware dafür ausgelegt ist und man die Samplepositionen quasi frei bestimmen kann. Somit wird auch RGSS möglich.

Gruß
Alex

ow
2002-05-11, 00:05:12
Originally posted by ernesto.che

FSAA nicht hardwareseitig. Edge AntiAliasing meinst du wohl.


Nein meine ich nicht. FSAA meine ich.

ow
2002-05-11, 00:08:13
Originally posted by Stefan Payne


Und warum konnte man das nicht in den Treiberoptionen erzwingen??

Daß jede Karte Edge FSAA konnte, dürfte wohl JEDEM Klar sein, nur FSAA (FULL SCENE) wurde bei Consumer Karten erst mit der Voodoo5 eingeführt...

Also ist es 3DFX zu verdanken, daß ich jetzt FSAA nutzen kann!!!


Hier ein Shot mit/ohne FSAA auf meinem Permedia2, DX5 Treiber, Quali ist leider schlecht durch jpg.

ow
2002-05-11, 00:10:13
Originally posted by Xmas

Falsch. NVidia hatte FSAA im Treiber bevor die V5 erschien. Aber irgendwie glaube ich kaum dass du deswegen NVidia dankbar bist, dass du jetzt FSAA nutzen kannst... ;)


FSAA lief schon auf der TNT in einigen der 2er Detos.

Mein Permedia2 kann´s auch, siehe oben.

wulfman
2002-05-11, 00:10:42
weil sich hier gerade ein paar theoretiker austoben:

was könnte haig (der albekannte support-leiter) hiermit meinen:

If you get our card AND if we do have hardware DM, try it with your current XP system as is and see what happens.

http://forum.matrox.com/mgaforum/Forum8/HTML/001109-5.html

es geht darum, welchen nutzen displacement mapping im moment hat.

mfg
wulfman

Quasar
2002-05-11, 00:31:47
Falls er mit "XP" das OS meint, könnten das 3D-Effekte aufm Desktop sein...

Doomtrain
2002-05-11, 00:46:00
Originally posted by ow



Hier ein Shot mit/ohne FSAA auf meinem Permedia2, DX5 Treiber, Quali ist leider schlecht durch jpg.

Sorry, Nur wenn man gaaaanz genau hinschaut sieht man einen Unterschied.
Du hast noch einen Permidia2? Respekt! *eg*

ow
2002-05-11, 01:02:14
Originally posted by Doomtrain


Sorry, Nur wenn man gaaaanz genau hinschaut sieht man einen Unterschied.
Du hast noch einen Permidia2? Respekt! *eg*


Ist leider mit jpg nicht viel besser zu machen.:(

Der Permedia2 macht 'klassisches' 2x2 Supersampling FSAA.
Da die max. Renderauflösung der 8MB Karte bei 1280x1024x16Bit liegt, funzt es halt nur bis max. 640x480x16. Darüber hinaus geht aufgrund des limitierten Grak.RAM kein Supersampling FSAA mehr.

Hier noch ein (nur unwesentlich besserer) Shot (synthetische Test, 3D Winbench 2k)

/edit: hab gestern in der alte-HW-Kiste gekramt und meinen Permedia2 mal wieder eingebaut. In nicht fillrate-lastigen Szenen geht das Teil auf dem XP1700 richig gut ab. Im Viewperf-OGl Bench steht er dem RivaTNT kaum nach. Und das bei nur 40Mpix fillrate, 1Mio. tri/s und 64Bit RAM bei 90MHz. RESPEKT!!

aths
2002-05-11, 01:29:35
Originally posted by Xmas

Falsch. NVidia hatte FSAA im Treiber bevor die V5 erschien. Aber irgendwie glaube ich kaum dass du deswegen NVidia dankbar bist, dass du jetzt FSAA nutzen kannst... ;)

Xmas, sie hatten sie im Treiber bevor die V5 erschien... aber nach 3dfx' großspuriger Ankündigung :)

aths
2002-05-11, 01:32:42
Originally posted by Quasar
Aus ziemlich verlässlicher Quelle weiß ich, daß es nicht im RAMDAC gemischt wird...bei den GF4.

Geht's auch ein wenig genauer? Zumindest beim 2x-Modus gehe ich von einer Mischung in der RAMDAC-Logik aus.

Quasar
2002-05-11, 01:37:57
Nein, es geht nicht genauer. Sorry.

Xmas
2002-05-11, 02:55:41
Originally posted by Quasar
Nein, es geht nicht genauer. Sorry.
Hm, schade. Dabei macht RAMDAC-Mischung bei 2x Sinn (-> entsprechende fps) und spart auch noch den einen RAM-Zugriff, den NVidia beim Accuview-Marketing erwähnte, wäre also eine sinnvolle Erklärung. Eine dedizierte Filter-Einheit muss es aber sein, sonst wäre Quincunx nicht ebenso schnell wie 2x.

Quasar
2002-05-11, 03:03:57
Ich weiß leider auch nicht mehr, nur eben, daß es wohl nicht im RAMDAC geschieht und das Verfahren zum Patent angemeldet ist, weswegen noch keine Details bekanntgegeben werden....

Mit der RAMDAC-Methode hatte ich mich ja auch schon angefreundet...

ow
2002-05-11, 11:21:24
Ich hätte da mal eine Frage:


Wenn´s denn die RAMDAC-Methode wäre, kann das AA dann auch in Fensterdarstellung funktionieren?

Sebuste
2002-05-11, 12:16:08
Originally posted by ow
Ich hätte da mal eine Frage:


Wenn´s denn die RAMDAC-Methode wäre, kann das AA dann auch in Fensterdarstellung funktionieren?

denke mir das dies sehr wahrscheinlich ist, nur hab ich an meiner v5 noch keinen tv-out drangelötet.
schade eigentlich. :)

Quasar
2002-05-11, 12:21:32
Fenster != Fernseher ;)

Sebuste
2002-05-11, 12:28:20
oder so ... :)

Xmas
2002-05-11, 18:27:42
Originally posted by ow
Wenn´s denn die RAMDAC-Methode wäre, kann das AA dann auch in Fensterdarstellung funktionieren?
Sollte problemlos funktionieren, wenn der RAMDAC dafür ausgelegt ist.

Quasar
2002-05-11, 19:18:04
Es funktioniert auf jeden Fall :)

WO auch immer nun das Zusammenmischen stattfindet.

aths
2002-05-11, 19:18:21
Soweit ich informiert bin, nutzt GeForce4 für den Fenster-Modus keine RAMDAC-Filterung.

ow
2002-05-11, 19:31:28
Originally posted by Xmas

Sollte problemlos funktionieren, wenn der RAMDAC dafür ausgelegt ist.


Wofür ausgelegt?

Die Desktop-Pixel einfach zu lesen und das Fenster aus mehrere Buffern zusammenzusetzen?
Hört sich für mich nach recht hohem technischen Aufwand an.

Unregistered
2002-05-11, 19:31:48
Aus CHina soll es angeblich ein paar Bilder zur Parhelia und Specs geben.
Als wenn das stimmt bin ich echt überrauscht den ich dachte das Triplehead echt nur ein falsches Gerücht ist. Aber naja wer freut sich nicht auf Surround Gaming aber woher kriege ich jetzt noch zwei zusätzliche 19 Zoll Monitore wenn mein Geld schon für die Graka drauf geht.
Da freue ich mich halt über 3 mal so hohe Fps...

Check this out:
http://www.warp2search.net/article.php?sid=4483&mode=thread&order=0

Rampage
2002-05-11, 20:22:36
Originally posted by Unregistered
Aus CHina soll es angeblich ein paar Bilder zur Parhelia und Specs
http://www.warp2search.net/article.php?sid=4483&mode=thread&order=0

Sieht im Vergleich zu anderen angeblichen "Specs" gar nicht so verwegen aus.

wulfman
2002-05-11, 20:24:46
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=19068&pagenumber=2

mfg
wulfman

Rampage
2002-05-11, 20:32:35
Originally posted by wulfman
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=19068&pagenumber=2

mfg
wulfman

Und was soll mir dieser thread sagen ??