PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Parhelia Review


Seiten : 1 [2]

Demirug
2002-06-27, 20:04:20
Originally posted by Exxtreme

Heisst das im Klartext, daß wenn man "ein bischen mutig ist" und das von dir o. g. ausnutzt, begibt man sich eigentlich auf ziemlich dünnes Eis was Kompatibilität angeht? Es könnte dann mit einer GraKa funtzen, mit einer anderen aber nicht mehr?


Genau das könnte passieren. Aber deshalb gibt es eine Funktion zum testen ob der Treiber damit klar kommt. Falls das nicht der Fall ist geht man auf eine einfachere (bzw. Multipass) Lösung zurück. Genau diese Suchen nach den besten Lösungen für jede Karte ist die Hauptarbeit bei der Optimierung für DX7 Karten.


Edit:
Was machen diese Renderstates eigentlich?

Im Moment reden wir von Blendstates und nicht von Renderstates.

Renderstates: Alle einstellungen die einen Einfluss auf das Rendern der Objekte haben (Stencilops, Alphatest, Material, Licht, usw.)

Blendstates: Alle einstellungen die Bestimmen wie sich der Farbwert eines Fragments beim Texturien zusammen setzt (Texturen, Farben aus dem lightprocess, Bumpmapping). Im Prinzip ist das der vorgänger für die pixelshader.

BTW. Ist das nicht schon wieder etwas arg offtopic???

StefanV
2002-06-27, 21:54:47
Originally posted by ow
Nein Doomtrain. Unter D3D geht das nicht.

Ausserdem sind die Faehigkeiten und Architektur der Chips gar nicht genau bekannt, also waere da auch gar nichts auszunuttzen.

Dann optimier unter D3D mal brutal auf Voodoos...

Na, auf welchen Chips läufts jetzt noch??
Garkeinen??

Man kann immer auf einen Chip hin optimieren, so, daß andere Chips deutlich im Nachteil sind!

Dein 'Flickwerk ATI-Treiber' Argument ist insofern nicht haltbar...

Torian.cc
2002-06-27, 22:28:16
Nochmal ´ne Frage zum AF, was die Parhelia ja leider momentan (?) nur 2fach darstellen kann.
Ist das eine Treiber-Macke und es wird später vielleicht auch 8fach möglich sein, oder war die Parhelia nur bis 2fach ausgelegt?

Ich habe im Artikel die entsprechende Stelle net mehr gefunden...

Und nochwas zu einem Artikel im MATROX-Forum;
Wenn Haig eine bis zu 10%ige Leistungssteigerung durch Treiberoptimierung prophezeit, ist das dann von Ihm nur sicherheitshalber so niedrig angesetzt, um Enttäuschungen zu vermeiden, für den Fall, daß es wirklich nicht viel mehr wird, oder ist zu erwarten, daß tatsächlich nicht mehr aus dem Parhelia-Chip herauszuholen sein wird?

Als ich Deine (Leo´s) Kommentare zu den jetzigen Treibern gelesen habe, in Bezug auf Fehler, Stabilität und Performance, und Du geschrieben hast, daß man auch an Performance noch einiges verbessern kann, hatte ich eigentlich gehoffe, daß es sich um ein bissl mehr handelt...
Bei z.B. 50 Frames eine Verbesserung auf 55 Frames..., das hört sich ja überragend an!
Da brauchen wir ja eigentlich nur darauf zu warten, daß die Fehler der Treiber ausgemerzt werden!
Ich hatte bei Treiberoptimierung eigentlich auch eher auf ca. 30%-50% (von mir aus auch mehr...) Leistungssteigerung gehofft.
Sollte DAS nach ein paar überarbeiteten Treibern tatsächlich möglich sein, dann wird die Parhelia auch ihr Geld wert sein!

MfG
Tori
__________

MATROX RULEZ


MfG
Tori
__________

MATROX RULEZ

aths
2002-06-27, 22:53:23
Originally posted by Torian.cc
Nochmal ´ne Frage zum AF, was die Parhelia ja leider momentan (?) nur 2fach darstellen kann.
Ist das eine Treiber-Macke und es wird später vielleicht auch 8fach möglich sein, oder war die Parhelia nur bis 2fach ausgelegt?Da der Treiber im Moment nur 2x AF anbietet muss man seriöserweise den worst case vermuten, dass Parhelia nicht mehr kann. Ich denke allerdings, dass mindestens 4x trilineares AF drin ist.
Originally posted by Torian.cc
Ich hatte bei Treiberoptimierung eigentlich auch eher auf ca. 30%-50% (von mir aus auch mehr...) Leistungssteigerung gehofft.50% halte ich für viel zu hoch gegriffen. Wenn im Laufe der Zeit (also stückchenweise) 20-30% mehr Leistung kommt, wäre das schon ok.

Exxtreme
2002-06-27, 23:40:58
Originally posted by Torian.cc
Sollte DAS nach ein paar überarbeiteten Treibern tatsächlich möglich sein, dann wird die Parhelia auch ihr Geld wert sein!

MfG
Tori
__________

MATROX RULEZ

An deiner Stelle würde ich erstmal 3 - 4 Treiberrevisionen abwarten bevor du dir die GraKa holst. Dann sollte sich herausstellen ob die Treiber besser geworden sind. Ausserdem wird dann die Konkurrenz mit eigenen Produkten am Start sein und der Parhelia dürfte dann billiger werden. Und wenn die Konkurrenz deutlich besser sein sollte, dann holst du dir die Karte der Konkurrenz...
;)

Gruß
Alex

Unregistered
2002-06-28, 01:29:23
Originally posted by aths
50% halte ich für viel zu hoch gegriffen. Wenn im Laufe der Zeit (also stückchenweise) 20-30% mehr Leistung kommt, wäre das schon ok.

50%--Sowas schafft doch nur nvidia *hrhr* ;) (sich dunkel an dummes gelaber von denen bei detoXP erinnert )

Axel
2002-06-28, 06:25:06
Den größten Nachholbedarf sehe ich bei den Pixelshadern.
Diese sind bei der Parhelia 4-fach ausgelegt und können bis zu 5 Op. bearbeiten. Bei diesen Werten sollte man dann auch eine deutliche Outperformance der Geforce 4600 erwarten. Bislang erreicht die Matroxkarte gerade einmal 50% der Geforcewerte.
Insgesamt sollte die Parhelia gegenüber der Geforce 4600 so performen wie es der Dungeon Siege-Test von Leo gezeigt hat, obwohl die Werte auch noch etwas höher sein könnten.

Gruß Axel

Ikon
2002-06-28, 08:51:36
Originally posted by Unregistered


50%--Sowas schafft doch nur nvidia *hrhr* ;) (sich dunkel an dummes gelaber von denen bei detoXP erinnert )

*sich an dieses dumme Gelaber bei JEDER neuen Deto-Version erinner*

Zum AF der Parhelia:
Wäre schade, wenn Matrox auf 2x AF beschränkt hätte, aber zumindest hier darf man auf Besserung mit einem neuen Treiber hoffen.

Stand in Leonidas' Artikel nicht etwas von 16x bilinear-AF / 8x trilinear-AF bei den Parhelia-Specs?
*nachkuck* Tatsächlich! Handelt es sich dabei auch um eine bestätigte Angabe?

Demirug
2002-06-28, 09:28:43
Aus den Matrox Unterlagen:


8-sample anisotropic and trilinear filtering on 4 dual-textured pixels/clock
16-sample anisotropic filtering on 4 single-textured pixels/clock


Bezieht sich allerdings auf den Chip und nicht auf die Karte.

Ikon
2002-06-28, 09:32:18
Worin liegt der Unterschied? Das Kartenlayout hat darauf doch keinen Einfluss ...

nggalai
2002-06-28, 09:32:41
Tech-Reports Matrox-Kontakt sagte, dass die höheren AF-Stufen aus Performancegründen deaktiviert wurden und event. freigeschaltet werden. Leos Matrox-Kontakt (Matrox Deutschland?) meinte, dass es sich dabei um einen Bug handeln würde.

Bug impliziert, dass das behoben wird.

ta,
-Sascha.rb

Demirug
2002-06-28, 09:52:09
Originally posted by Ikon
Worin liegt der Unterschied? Das Kartenlayout hat darauf doch keinen Einfluss ...

Der Unterschied liegt darin das es immer mal wieder Features gibt die ein Chip zwar kann die dann aber für eine Karte nicht (sofort)freigeschaltet werden.

@nggalai:

Performance gründe halte ich für durchaus möglich. Wenn es ein Bug ist stellt sich die Frage: "Hardware oder Software?"

aths
2002-06-28, 10:00:01
Originally posted by nggalai
Tech-Reports Matrox-Kontakt sagte, dass die höheren AF-Stufen aus Performancegründen deaktiviert wurden und event. freigeschaltet werden. Leos Matrox-Kontakt (Matrox Deutschland?) meinte, dass es sich dabei um einen Bug handeln würde.

Bug impliziert, dass das behoben wird.Es gibt auch Gerüchte, nachdem Parhelia nicht mehr als 2x trilinear AF beherrscht. Ich meine allerdings, dass er mindestens 4x trilineares AF kann. (Da offenbar mindestens 2x Pipelinecombining zu den Fähigkeiten des Chips gehört.) (Ob "Bug" oder "Absicht" kann man beim GF4-D3D-AF-"Bug" auch nicht zweifelsfrei feststellen.)

Xmas
2002-06-28, 11:49:39
8-sample anisotropic and trilinear filtering on 4 dual-textured pixels/clock
16-sample anisotropic filtering on 4 single-textured pixels/clock

Hm, hier wird lediglich etwas über die Füllrate gesagt, nicht über den maximalen Grad der Anisotropie.
"16-sample anisotropic" ist auch nur 2x trilinear oder 4x bilinear.

Torian.cc
2002-06-28, 21:55:14
Also mir persönlich wäre ein vernünftiges AF bei der Parhelia lieber, als das momentane 16xAA (auch wenn´s 1A funktionieren würde!).

Denn bei einem schnellen Spiel (z.B. Ego-Shooter) bemerkt man wohl eher sauber gefilterte Texturen, als geglättete Kanten!

Meinungen gehen (zum Glück ;) ) auseinander..., aber ich fand AA eigentlich schon immer ziemlich *peng*!
Wenn ich ´ne superschnelle z.B. GeForce4 habe, dann schalte ich eben auf 1280x1024 oder noch höher und dann sieht man eh kaum noch Kanten...

Aber die optische Verbesserung von trilinearem Filtern auf anisotropischem Filtern finde ich total cool!
Das sollte jede neue Graka zufriedenstellend darstellen können, mit ausreichend Frames!

MfG
Tori
__________

MATROX RULEZ

P.S.: Mal was Anderes...!!

Ich habe im nVidia-Forum was gepostet, worauf ich immer noch auf ´ne Antwort warte, deshalb probiere ich es einfach mal hier...

Meine Win. Desktop-Auflösung : IMMER 1280x1024

Die GeForce4 TI4200 von ASUS gibt es mit 64MB und 128MB. Stimmtes, daß die 64MB-Version etwas schneller getaktet ist?
Und
1. ist die SQ der ASUS TI4200 gut?
2. kann man mit der ASUS TI4200 in 1280x1024 noch AFx8 ausreichend schnell darstellen (AA ausgeschaltet!!)?

Wäre nett, wenn jemand mal aushelfen könnte, außerdem suche ich im Net nach ASUS TI4200 Reviews..., bin selber leider nicht fündig geworden! Wer weiss Links???

Danke ;)

Ikon
2002-06-28, 22:15:56
@Torian.cc
Wenn du auf AF statt AA stehst, denn bist du mit einer GF4Ti falsch beraten (v.a. wenn man die neusten Infos zum GF4-AF-Bug bedenkt). 8x AF wird bei selbigem Chip mit über 50% Leistungsverlust zu Buche schlagen. Die absolut einzige Karte, die zurzeit höhere AF-Stufen bei geringen Leistungseinbußen liefern kann, ist immernoch die Radeon8500 (schafft 16x AF bei ca. 5% Leistungsverlust -> allerdings nur bilinear-AF).

Birdman
2002-06-28, 22:24:16
Originally posted by Torian.cc
Wenn ich ´ne superschnelle z.B. GeForce4 habe, dann schalte ich eben auf 1280x1024 oder noch höher und dann sieht man eh kaum noch Kanten...

Du solltest dêine meinung über AA erst festlegen, wenn du ne karte hast die das vernünftig kann ;)
Jetzt sagen dass du es ned brauchst, nur weil du es nicht hast, ist doch ziemlich blauäugig.
Btw. es gibt sehr viele gründe, weshalb ne niedrige auflösung+FSAA als ne höhere Auflösung ohne FSAA...gerade bei der GF4.

- Aniso saugt bei der Gf4 brutal leistung, gerade bei hohen auflösung...zugeschaltetes FSAA macht aber fast nix aus.
- bei vielen games kann man die schrift nimmer lesen bei hohen auflösungen, weil zu klein geschrieben.
- eine Auflösung mit 2xFSAA ist meist schneller als die nächst höhere ohne FSAA, wobei erstere deutlich besser aussieht.
- Refreshraten unter 100Hz sucken imho, daher lieber ne tiefere auflösung als flimmerkiste vor den augen.

tja, es gibt noch mehr gründe für FSAA, aber die muss halt jeder ein wenig für sich selber finden, aber wer keine Karte hat die FSAA vernünftig darstellen kann (Speed+Quality) der sollte nicht vorurteilen.

Birdman
2002-06-28, 22:27:00
Originally posted by Ikon
@Torian.cc
Wenn du auf AF statt AA stehst, denn bist du mit einer GF4Ti falsch beraten (v.a. wenn man die neusten Infos zum GF4-AF-Bug bedenkt). 8x AF wird bei selbigem Chip mit über 50% Leistungsverlust zu Buche schlagen. Die absolut einzige Karte, die zurzeit höhere AF-Stufen bei geringen Leistungseinbußen liefern kann, ist immernoch die Radeon8500 (schafft 16x AF bei ca. 5% Leistungsverlust -> allerdings nur bilinear-AF).
Ui, mit welchem Spiel hast du denn die 5% gemessen?
Meine eigenen Erfahrungen zeigen da deutlich andere Bilder, und bei modernen Spielen (SeSam) frisst 16x schnell mal 15-25%, jedenfalls bei auflösungen grösser als 800x600.
Das ist zwar immer noch deutlich weniger als ein Frosch verbrät aber auch schon spürbar.

Ikon
2002-06-28, 22:34:58
Originally posted by Birdman

Ui, mit welchem Spiel hast du denn die 5% gemessen?
Meine eigenen Erfahrungen zeigen da deutlich andere Bilder, und bei modernen Spielen (SeSam) frisst 16x schnell mal 15-25%, jedenfalls bei auflösungen grösser als 800x600.
Das ist zwar immer noch deutlich weniger als ein Frosch verbrät aber auch schon spürbar.

OK, OK, ich hab diese Zahl auch nur aus einigen Reviews, schließlich hab ich noch keine Radeon8500 (aber bald - hab mir gerade eine brandneue LE für 122,- Euro ersteigert).

aths
2002-06-28, 22:40:19
Originally posted by Birdman
- eine Auflösung mit 2xFSAA ist meist schneller als die nächst höhere ohne FSAA, wobei erstere deutlich besser aussieht.
- Refreshraten unter 100Hz sucken imho, daher lieber ne tiefere auflösung als flimmerkiste vor den augen.Hehe, das sind auch meine beiden (Haupt-) Argumente für FSAA, wobei statt "100" durchaus "85" genommen werden kann, wenn der zu Überzeugende einen 17-Zöller hat.
Originally posted by Birdman
tja, es gibt noch mehr gründe für FSAA, aber die muss halt jeder ein wenig für sich selber finden, aber wer keine Karte hat die FSAA vernünftig darstellen kann (Speed+Quality) der sollte nicht vorurteilen. Eben. Die Kantenglättung mit nur 2x RG ist schon derart auffällig, dass man nicht mehr ohne will, wenn man es erstmal so kennt.

Torian.cc
2002-06-28, 23:07:35
Originally posted by Birdman

Du solltest dêine meinung über AA erst festlegen, wenn du ne karte hast die das vernünftig kann ;)
Jetzt sagen dass du es ned brauchst, nur weil du es nicht hast, ist doch ziemlich blauäugig.
Btw. es gibt sehr viele gründe, weshalb ne niedrige auflösung+FSAA als ne höhere Auflösung ohne FSAA...gerade bei der GF4.




Hast ja Recht....*schmoll*, ich bin eben nur gerade dabei, Prioritäten zu setzen, was mir beim Kauf der nächsten Graka denn nun WIRKLICH am wichtigsten ist!
Dabei habe ich AA UND AF noch nicht mal in Aktion gesehen...
Aber ich vermute, daß AF am ehesten meinen Ansprüchen entspricht (kann genausogut falsch sein)!

Ob Du´s glaubst, oder nicht..., ich habe die letzten 2 Tage 3mal meine Meinung geändert!
Zuerst, als sich herausstellte, daß die Parhelia nun doch nicht der Mega-Kracher ist, dachte ich an die ASUS TI4600; einen Tag später, ich hätte die TI4600 schon fast bestellt, dachte ich mir, "nee, die nächste Graka soll ja eigentlich nur sowas wie ´ne Übergangslösung sein, denn vielleicht bringt MATROX die nächsten 6-12 Monate noch einen DIE-Shrink der Parhelia, oder die Treiber knallen auf einmal doch voll rein!". Also etwas billiger; da war die ASUS TI4200 genau richtig. Also wieder ´ne Nacht drüber gepennt, von der Arbeit gekommen, und ich wollte gerade das Teil bestellen, dann wusste ich aber nicht, ob 64MB oder 128MB *birnequalm*!

Tja, und jetzt gucke ich eben auf die MATROX-Site und da sind heute schon neue Treiber für die Parhelia erschienen.
Und dann dachte ich, erstmal abwarten, vielleicht ist Leo ja gerade fleißig am benchen!
Ich hoffe, daß man bald sieht, was MATROX in so kurzer Zeit zu verbessern imstande ist...

Oki, meine kleine "Geschichte" wird Dich wohl kaum interessieren, aber so fühle ich mich momentan!
Ich habe jetzt schon so lange auf ´ne Graka gewartet, daß es mir jetzt reicht, und ich schon fast zwanghaft nach einer Alternative suche!

MfG
Tori
__________

MATROX RULEZ

Birdman
2002-06-28, 23:52:18
Originally posted by aths
Eben. Die Kantenglättung mit nur 2x RG ist schon derart auffällig, dass man nicht mehr ohne will, wenn man es erstmal so kennt.
Full Akk.
Wer längere Zeit mit FSAA unterwegs ist, kann kaum mehr zurück, so schlecht <definition>schlecht == flimmern-wabern-ruckeln</definition> dünkt einem die Grafik ohne AA.
Hab sogar mit dem quaken aufgehört, seine meine GF4 in reperatur ist, weil ich mit der GF2 die grafix nicht mehr ertragen kann. :D

Iss halt mit allem so, wenn man von "weniger auf mehr kommt" dann findet man den Unterschied ned berauschend, aber zurückkrebsen ist jeweils voll brutal.

Piffan
2002-06-28, 23:54:14
"Das Bessere ist des Guten Feind!"

Piffan
2002-06-29, 00:03:07
Da fällt mir ein: Ich zocke gerade Unreal "Operation Na Pali"... Mit dem oldskool mod und dem guten S3TC- Renderer von Daniel Vogel lüpt es unter OpenGl mit 2x FSAA und 8xAF so flott, dass man sogar hin und wieder detailed texures aktivieren kann... Wenn ich auf etwas verzichten sollte, dann auf detailed textures, aber auf keinen Fall mehr auf Aniso und FSAA....Es ist so sauber und ruhig, als wäre es Real...;)

Und wie war es früher? Da fand ich die Grafik schon voll krass mit der Voodoo 2. Da störten mich nicht die Dithering- Artefakte, nicht die Sägezähne bei 800x600 und auch nicht das völlige Verschwimmen der Bodentexturen in geringer Entfernung, fand das Verschwimmen zusammen mit dem linearen Mipmap sogar voll geil weil nix flimmerte...:D

Torian.cc
2002-06-29, 01:33:55
UUAAAAAHHHH!!!

jetzt ist´s soweit!! Jetzt gibt´s kein Zurück mehr ;)

Hab` eben die ASUS 8440 GeForce4 TI4400 bestellt.
Ich hoffe, sie wird mir vielvielviel Freude bereiten!

Naja, die MATROX G400MAX bleibt ja in der Familie (bekommt Papa)!

Die ASUS werde ich jetzt so lange behalten, bis MATROX eine Parhelia2 herausbringt oder die normale Parhelia durch ´nen DIE-Shrink auf 0.13 bringt, damit um einiges höhere Taktraten möglich sind, und noch Platz auf´m Chip ist, für ein paar wichtige Sachen... ;)

Hoffentlich war das kein Fehler *bibber*

MfG
Tori
__________

MATROX RULEZ *undnvidiaaucheinbissl*

StefanV
2002-06-29, 01:38:38
Originally posted by Torian.cc
UUAAAAAHHHH!!!

jetzt ist´s soweit!! Jetzt gibt´s kein Zurück mehr ;)

Hab` eben die ASUS 8440 GeForce4 TI4400 bestellt.
Ich hoffe, sie wird mir vielvielviel Freude bereiten!

Naja, die MATROX G400MAX bleibt ja in der Familie (bekommt Papa)!

Die ASUS werde ich jetzt so lange behalten, bis MATROX eine Parhelia2 herausbringt oder die normale Parhelia durch ´nen DIE-Shrink auf 0.13 bringt, damit um einiges höhere Taktraten möglich sind, und noch Platz auf´m Chip ist, für ein paar wichtige Sachen... ;)

Hoffentlich war das kein Fehler *bibber*

MfG
Tori
__________

MATROX RULEZ *undnvidiaaucheinbissl*

Seit kurzem gibts auch 'nen neuen Treiber für die Parhelia *eg*

Birdman
2002-06-29, 01:59:05
Originally posted by Stefan Payne
Seit kurzem gibts auch 'nen neuen Treiber für die Parhelia *eg*
Weiss man schon ob der was gebracht hat, ausser ner höheren Versionsnummer? ;)

Torian.cc
2002-06-29, 07:09:46
Originally posted by Stefan Payne


Seit kurzem gibts auch 'nen neuen Treiber für die Parhelia *eg*


Wenn Du die Revision 1.00.01.226 meinst, dann weiss das SOGAR ICH schon ;), ich habe aber einfach keine Lust mehr gehabt, zu warten...

Wie schon erwähnt, soll die TI4400 nur das Warten auf eine Parhelia2 oder ´nen DIE-Shrink der Parhelia auf 0.13 etwas versüssen ;)

Ich weiss..., als "Übergangsgraka" ist die TI4400 nicht gerdae billig, aber es dauert sicherlich auch noch etwas, bis MATROX ´ne neue Hardware veröffentlicht!

Außerdem kann ich mir bei der TI4400 jetzt schon sicher sein, daß sie rockt! *wieeinverräterfühl*

MfG
Tori
__________

MATROX RULEZ

InsaneDruid
2002-06-29, 11:18:37
Hehe, willkommen im Club der Verräter, Torian! :)

Nachdem ich es noch bis vor kurzem mit meiner V5 "ausgehalten" hab und eigentlich mal geschworen hatte NIE einen NV Chip im System zu haben, hab ich dann gestern doch ne Ti4400 bestellt - obwohl oder WEIL ich auch noch ne Radeon8500 128MB LE "rumliegen" hab.

Gründe dafür waren die IMHO schlechte FSAA Leistung der Radeon und auch das qualitativ schwache anisotrophe Filtern, letzteres ist dank Mip-Banding für meinen Begriff unbrauchbar (mich störts halt zu doll, Geschmackssache) auch wenns wirklich mehr oder weniger "for free" angeboten wird.

Klingt zwar wie ein Widerspruch (bei FSAA ist ein etwas "schlechteres" FSAA besser und bei AA ein langsameres "schöneres" - aber FSAA bringt auch mit niedrigerer Qualität nur eine Gesamtverbesserung, während ein schlechtes (bilineares) AF durch Banding fast schon schlechter ist als normales Trilinear.

Ausserdem bin ich es leid dauernd auf irgendwelche Treiber oder sonstwas zu warten- und wird dann Morrowind gefixt ist IL2 im LSD-Farbenrausch etc, das nervt bei ATI. (Ja, NV kocht auch nur mit Wasser aber im Endeffekt gibts weniger Probs, ich sehs an nem Kumpel seinem Sys mit GF3Ti200 -Karte rein, Treiber drauf, 2XFSAA an und läuft und läuft..)

Dennoch hoff ich für ATI und bin gespannt auf den R300 - starke Konkurrenz für NV kann nur gut sein für uns.

aths
2002-06-29, 13:21:50
Originally posted by Torian.cc
Außerdem kann ich mir bei der TI4400 jetzt schon sicher sein, daß sie rockt! Allerdings.

Torian.cc
2002-06-29, 21:49:01
Ich bin schon gespannt auf meine erste Reaktion einer GeForce4 Graka...
Das ist meine erste, und ich hoffe, daß Gebrabbel (sorry) bezüglich der miesen Bildqualität/Signalqualität ist mehr oder weniger Panikmache gewesen!

Wenn man sich den SQ-Graka-Test von Tecchannel.de mal reintut, dann kommt man zur Erkenntnis, daß eigentlich ALLE Grakas ´ne miese BQ/SQ haben müssen..., ausser natürlich MATROX G550!
Aber die rockt nun wirklich NICHT! ;)

Die ASUS TI8440 hat aber leider mit die schlechteste Bewertung in der SQ bekommen *ohgraus*...
Da stand : '...Trauerränder bei DVD-Filmen....' oder so ähnlich!
Da ich eigentlich auch ´ne Menge mit avi´s, mpeg´s und DVD-Filmen am PC mache, hoffe ich natürlich, daß das Unterschiede in der SQ sind, die nur ein SQ-Messgerät (zum größten Teil) erkennen kann.

Denn Angaben wie SignalAmlitude, SignalAnstiegszeit oder SignalAbfallzeit sagen mir recht wenig...
Und da erziehlt die TI8440 leider überaus schlechte Ergebnisse, bei denen ich nicht weiss, ob diese "optischen Macken" nur mit einem solchen Digitaloszilloskop nachzuweisen sind, oder ob man die auch mit dem blossen Auge erkennen kann!?!

Da ich bisher immer nur einwandfreie SQ/BQ geniessen durfte, hoffe ich, daß die Umgewöhnung nicht ganz so arg ist.

Naja, am Dienstag ist sie spätestens da, und ich bin schon ganz gibberig ;)
Ich bin eigentlich kein Freund von Benchmarks (ausser wenn sie schnuckelige Grafik und Mucke haben, nur zum angucken), aber ich denke mal, daß ich jetzt gleich einige Benches mit meiner G400MAX mache und wenn die TI8440 da ist, das selbe noch mal mit ihr!

MfG
Tori
__________

MATROX RULEZ TROTZDEM NOCH ;)

Doomtrain
2002-06-29, 22:00:20
TORIAN, KOMM DOCH MAL INS ICQ!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

Leonidas
2002-06-29, 22:04:49
Originally posted by nggalai
Tech-Reports Matrox-Kontakt sagte, dass die höheren AF-Stufen aus Performancegründen deaktiviert wurden und event. freigeschaltet werden. Leos Matrox-Kontakt (Matrox Deutschland?) meinte, dass es sich dabei um einen Bug handeln würde.

Bug impliziert, dass das behoben wird.

ta,
-Sascha.rb



Genau SO wurde es mir gesagt: Ein Bug, der noch behoben wird.

Abitor
2002-06-30, 02:04:39
Ich habe mir die Postings zwar nicht durchgelesen(es sind ein bishen zuviele und es ist spät),aber ich werde mir den Parhelia warscheinlich auch den den ersten nicht ganz positiven "Tests" kaufen und zwar weil...

-ich nicht unbediengt 100fps brauche und schon mit sagen wir mal 70fps zufrieden bin

-der Preis wird fallen und bei Mindfactory
kostet die Retail Versin schon jetzt weniger als der offizieller Verkaufspreis von Matrox

-ich erwarte mir von dem Parhelia eine sehr gute Bildqualität

-die Treiber werden besser werden und die Performance wird durch bessere Treiber ganz bestimmt nicht schlechter

-durchs übertackten wird der Parhelia wohl noch "ein bishen" zulegen können

aths
2002-06-30, 19:21:52
Originally posted by Abitor
Ich habe mir die Postings zwar nicht durchgelesen(es sind ein bishen zuviele und es ist spät),aber ich werde mir den Parhelia warscheinlich auch den den ersten nicht ganz positiven "Tests" kaufen und zwar weil...

-ich nicht unbediengt 100fps brauche und schon mit sagen wir mal 70fps zufrieden binDas ist ja so ohne weiteres nicht ein Grund pro Parhelia, da könntest du auch einfach eine andere langsamere Graka nehmen. Ich denke der Hauptvorteil für Gamer liegt beim FAA.
Originally posted by Abitor
-der Preis wird fallen und bei Mindfactory
kostet die Retail Versin schon jetzt weniger als der offizieller Verkaufspreis von MatroxMatrox belässt den Händlern offenbar von vornherein eine kleine Spanne, so dass sie unter dem empfohlenen Preis anbieten können. (Das ist kein ungeschickter Schachzug für eine Firma, die nicht nur für Chips sondern gleich das ganze Board verantwortlich ist.)
Originally posted by Abitor -die Treiber werden besser werden und die Performance wird durch bessere Treiber ganz bestimmt nicht schlechter

-durchs übertackten wird der Parhelia wohl noch "ein bishen" zulegen können Na inwieweit sich Parhelia übertakten lässt, wird sich noch zeigen müssen. Bei den Treibern erwarte ich früher oder später die von anderen Firmen hinlänglich bekannte 3DMark-Optimierung.

Schnitzl
2002-06-30, 22:33:40
Originally posted by aths
(...)
Na inwieweit sich Parhelia übertakten lässt, wird sich noch zeigen müssen. Bei den Treibern erwarte ich früher oder später die von anderen Firmen hinlänglich bekannte 3DMark-Optimierung.
Laut Haig sind 20 Mhz auf jeden Fall drin, was ja schon mal fast 10% wären.
Ebenso will Matrox keine 3DQuark-Optimierung machen, was ich auch ganz gut finde :)
Zitat Haig:
"Sure, we can benchmark the static jpegs and lower our precision so that the poly's don't meet and get as high benchmarks as anyone else, but we won't."

MfG

P.S.: vielleicht verstehst du ja den ersten Teil des Satzes :D

Abitor
2002-06-30, 23:35:33
Also rein teoretisch müsste sich der Ram des Parhelia tatsählich um ca.20Mhz übertakten lassen.Probleme macht mir im Moment "nur" der Preis.Aber ich werde mir die Grafikkarte wohl sowieso erst in December kaufen können und bis dahin dürfte der Preis etwas fallen und die Treiber wird Matrox bis dahin wohl auch verbessert haben.Dabei kann ich auf 3dMark optimierte Treiber getrosst verzichten,wenn die Performance gesteigert und etweige Probleme mit Spielen behoben werden.

Unregistered
2002-07-01, 06:54:08
Den RAM kannst du getrost mit 300 MHz takten, denn dafür ist er ausgelegt. Die 20 MHz beziehen sich auf die CPU. Die soll auch bis 250 MHz gehen, braucht dann aber einen größeren/besseren Kühlkörper.

Das Matrox Speicher bis 300 MHz verwendet, läßt mich vermuten, daß sie die Karte auch insgesamt höher takten wollten. Es gibt doch sicher auch Speicher der bis 275 MHz ausgelegt ist. Es kann natürlich auch sein, daß sie es diesmal mit der Stabilität übertrieben haben.

Ich persönlich warte auch noch ab. Ich will erst sehen, daß die Qualitätsperformance tatsächlich die beste ist. Außerdem kommt noch eine 64MB-Version und gute W98-Treiber sind Grundvoraussetzung. Und das wichtigste: teurer wird die Karte nicht mehr werden. :)

Gruß Axel

Axel
2002-07-01, 06:56:35
Wieder nicht eingeloggt. Irgendwann lerne ich das auch noch.

StefanV
2002-07-01, 10:11:36
Originally posted by Unregistered
Den RAM kannst du getrost mit 300 MHz takten, denn dafür ist er ausgelegt.(...)

Das Matrox Speicher bis 300 MHz verwendet, läßt mich vermuten, daß sie die Karte auch insgesamt höher takten wollten. Es gibt doch sicher auch Speicher der bis 275 MHz ausgelegt ist. Es kann natürlich auch sein, daß sie es diesmal mit der Stabilität übertrieben haben.


1. Einspruch ;)
3,3ns bedeutet nicht unbedingt, daß sich das RAM auf 300MHz übertakten lässt.
Siehe 128MB Radeon LE Modelle, die nutzen auch 3,3ns RAM aber kaum eine Karte lässt sich zu 300MHz RAM überreden.
Gleiches übrigens auch bei den LE Karten, viele haben 3,6ns RAM, lassen sich aber nicht zu 275MHz überreden.
Grund: auch die Spannung und das Timing ist wichtig ;)

2. Tja, das ist die Frage...
Gibts überhaupt BGA RAM, daß weniger als 3,3ns RAM hat??
Vermutlich nicht, denn sonst würde das auf den 128MB 8500ern und auf der MGA Karte drauf sein ;)

Wie du siehst kommt es nicht nur darauf an, was auf dem RAM stehts, sondern auch auf die Spannung, die das RAM bekommt und das Timing...

Demirug
2002-07-01, 10:32:39
@Stefan Payne & Axel:
Und der Memorycontroller im Chip muss das übertakten auch mitmachen.

StefanV
2002-07-01, 11:13:18
Originally posted by Demirug
@Stefan Payne & Axel:
Und der Memorycontroller im Chip muss das übertakten auch mitmachen.


Jep, das auch.

Um das ganze auf die Spize zu treiben:

Das Platinen Design muß es auch erlauben...

Quasar
2002-07-01, 11:35:10
Originally posted by Stefan Payne
2. Tja, das ist die Frage...
Gibts überhaupt BGA RAM, daß weniger als 3,3ns RAM hat??
Vermutlich nicht, denn sonst würde das auf den 128MB 8500ern und auf der MGA Karte drauf sein ;)

Wo lebst du eigentlich? Jede Ti4600 hat 128MB 2,8ns-BGA RAM.....das sollte dir als nV-Ablehner doch bekannt sein.

StefanV
2002-07-01, 11:41:50
Originally posted by Quasar

Wo lebst du eigentlich? Jede Ti4600 hat 128MB 2,8ns-BGA RAM.....das sollte dir als nV-Ablehner doch bekannt sein.

*argh*

Ich meinte natürlich mit mehr als 3,3ns..

Daß es schnellere Chips gibt, weiß ich, aber langsamere?

Axel
2002-07-01, 18:29:36
@Stefan und Demirug

Ich hatte irgendwo gelesen, daß die Speicherchips bis 300MHz spezifiziert sind und angenommen, daß diese auch möglich sind. Es stimmt natürlich das auch andere Faktoren eine Rolle spielen. Ich bin halt durch meine G400 vorbelastet, die sich sehr gut im Chip- und Speichertakt übertakten läßt.

Gruß Axel

Demirug
2002-07-01, 18:36:30
Originally posted by Stefan Payne


*argh*

Ich meinte natürlich mit mehr als 3,3ns..

Daß es schnellere Chips gibt, weiß ich, aber langsamere?

Natürlich. Samsung spezifiziert bis 10ns und verkauft derzeit bis 6.0ns

StefanV
2002-07-01, 20:54:01
Originally posted by Demirug


Natürlich. Samsung spezifiziert bis 10ns und verkauft derzeit bis 6.0ns

in BGA Bauform??

Demirug
2002-07-01, 21:04:36
Hier:

http://www.samsungelectronics.com/semiconductors/Graphics_Memory/DDR_SDRAM/64M_bit/K4D623238B/k4d623238b-g(q)c.htm