Archiv verlassen und diese Seite im Standarddesign anzeigen : Parhelia Review
Unregistered
2002-06-24, 21:08:58
http://www.de.tomshardware.com/graphic/02q2/020625/index.html
lest selbst
Unreal Soldier
2002-06-24, 21:13:30
Wie immer Tomshardware, die untergraben immer alle Karten, welche nicht von NV kommen.
MFG
Unreal Soldier
Unregistered
2002-06-24, 21:24:33
"Um diesem Ansatz von Matrox gerecht zu werden, haben wir die Benchmark-Tests in zwei Durchgänge aufgeteilt. Im ersten betrachten wir die reine Performance im Standardbetrieb, also mit trilinearer Filterung und ohne FSAA, denn viele Anwender schauen nach wie vor in erster Linie auf die maximal mögliche Framerate."
Und dann nur Q3 und mit MaxPayne getestet mit 16FAA und Ansitropic getestet..... Obwohl ja laut Matrox das nun gerade nicht die Spiele sind für die der Parhelia ausgelegt (wegen fps vergleich) ist und die Performance von Sourround Gaming wird gar nicht berücksichtigt laut matroxusers soll ja Q3 selbst auf 3 montioren mit 16FAA und ANsitropic sehr gut spielbar sein... naja Tom'sHardware halt was erwartet man da
Guter Test, enttäuschender Parhelia.
Mal abwarten, was sich da noch tut.
Exxtreme
2002-06-24, 21:37:08
Und schon wieder ein typisches THG-Review. Mit Max Payne, AquaNox und C4 wieder Benches ausgewählt, die auf (laut den Entwicklern) NV-HW ausgelegt sind und die Zwiebelmurks[TM]-Ergebnisse zelebriert bis zum Gehtnichtmehr. Naja, was will man von THG auch anderes erwarten. Fehlt noch ein "Sponsored by nVidia[TM]" am Ende.
Gruß
Alex
Unregistered
2002-06-24, 21:38:51
HA was soollen sie dann testen >> Beleidigungen gelöscht, Exxtreme <<? das sind allet DX8 games man was hast du bei der niedrige chip freunz gedacht
Exxtreme
2002-06-24, 21:43:25
@ unreg
Lies dir die Forumsregeln nochmal richtig durch. Dann wirst du feststellen, daß das Beleidigen von Forumsmitgliedern nicht gestattet ist.
Gruß
Alex
Unregistered
2002-06-24, 21:44:41
Jo es isnd alles DX8 games und da ist die performance vollkommen ausreichend, außerde wär mal ein UT2003 Bench ergebnis ganz nett(müssen wir wohl bis morgen warten). Intressant wird die Performance auch dann wann mal Displacement Mapping getestet wird( wird das überhaupt erwähnt?) und minimale fps (was eigentlich der wichtigste wert ist und wo matrox immer gut war wird überhaupt nicht erwähnt. Naja sie wollen ja noch auf die features im 2d bereich eingehen ;)
Originally posted by Exxtreme
Und schon wieder ein typisches THG-Review. Mit Max Payne, AquaNox und C4 wieder Benches ausgewählt, die auf (laut den Entwicklern) NV-HW ausgelegt sind und die Zwiebelmurks[TM]-Ergebnisse zelebriert bis zum Gehtnichtmehr. Naja, was will man von THG auch anderes erwarten. Fehlt noch ein "Sponsored by nVidia[TM]" am Ende.
Gruß
Alex
Nun, welche Tests hättest du denn gerne?
Vielleicht gar keine?
Dass die Parhelia-Leistung zum derzeit recht mässig lässt sich wohl kaum abstreiten.
Bleibt zu hoffen, dass da noch eine erhebliche Steigerung drin ist.
Quasar
2002-06-24, 22:06:19
Exxtreme musste sowas sagen, sonst wären ja alle Postings der letzten paar Wochen ad absurdum geführt worden....
KillerSmurf
2002-06-24, 22:07:45
wie wärs mal mit anderen Benchmarks
der zwiebelmurks is ja wohl echt fürn arsch
und die games sind ja auch nich grad das gelbe vom ei
Exxtreme
2002-06-24, 22:09:20
Originally posted by ow
Nun, welche Tests hättest du denn gerne?
Anstatt jedes einzelne Zwiebelmurks[TM]-Ergebnis vielleicht mal was mit der UT-Engine? Und wieso 2 Games mit der Q3A-Engine (Q3A & RtCW). Beim R7500 vs. GF2Ti-Review wurde stark bemängelt, daß Giants getestet wurde. Hier ist es anscheinend wieder OK.
Gruß
Alex
Unregistered
2002-06-24, 22:10:19
HAH UT ein CPU begrnztest game lächerlich
egdusp
2002-06-24, 22:11:03
Scheint offline zu sein. Hat nicht irgendwer eine Kopie, die er linken kann. Auf einem russichen Server oder SO ;-)
mfg
egdusp
zeckensack
2002-06-24, 22:12:45
Originally posted by Unregistered
HAH UT ein CPU begrnztest game ... das auf einigen Rechnern mittlerweile mit 250fps läuft.
Unregistered
2002-06-24, 22:14:15
Man leute mal erhrlich was habt ihr den von 220MHZ CHIPtakt erwartet
das konnte doch nur in die hose gehen
Andre
2002-06-24, 22:17:17
Auch wenn ich momentan nicht auf die Seite komme, wiedermal mein unbequemer Senf dazu:
"Anstatt jedes einzelne Zwiebelmurks[TM]-Ergebnis vielleicht mal was mit der UT-Engine?"
UT-Engine = CPU-limitiert wie die Hölle.
In manchen Szenen ist die Geforce 4 nicht schneller als eine Geforce 2 MX.
Riesenidee, bringt mit Sicherheit tolle Ergebnisse.
Oder meinst du UT 2003?
"Und wieso 2 Games mit der Q3A-Engine (Q3A & RtCW)."
Exxtreme, bitte.
Die Games benutzen zwar die gleiche Engine, aber RTCW hat die Q3-Engine dermaßen modifiziert, dass da nur ein kleine Basis ist.
Q3A heutzutage Graka-limitiert, RTCW ganz klar CPU-limitiert, wegen der Außenareale.
"Beim R7500 vs. GF2Ti-Review wurde stark bemängelt, daß Giants getestet wurde.
Hier ist es anscheinend wieder OK."
Richtig.
Ich habe das bemängelt und bemängele es auch hier - ich bleibe meiner Argumentation länger als 2 Tage treu, im Gegensatz zu anderen.
zeckensack
2002-06-24, 22:17:44
Originally posted by egdusp
Scheint offline zu sein. Hat nicht irgendwer eine Kopie, die er linken kann. Auf einem russichen Server oder SO ;-)
mfg
egdusp Stand nicht viel drin. Murks-Polycount mit 8 Lichtern etwas langsamer als Geforce4 Ti4600, Multitexturing-Fillrate etwas höher, sonst durchweg deutlich langsamer. In den 'Problemspielen' der ATI R200 (C4, Auanox, Max Payne) ungefähr genausoschnell wie diese. In Dungeon Siege wieder gleichauf mit der Radeon8500 (btw, 128MB-Version), und ca 20% hinter der Gf4.
16xFAA + Aniso (Treiber erlauben nur eine Stufe) durchweg genauso schnell wie Quincunx + 8xAniso oder 4xAA + 2xAniso auf der Geforce.
Andre
2002-06-24, 22:18:46
Originally posted by zeckensack
... das auf einigen Rechnern mittlerweile mit 250fps läuft.
zecki,
Peak ja, aber nicht im Durchschnitt.
UT eignet sich nicht wirklich als Graka-Bench - für das gesamte System mit CPU/RAM vielleicht, aber nicht als Graka-Bench.
Exxtreme
2002-06-24, 22:27:28
Hmm, THG hat den Test anscheinend wieder vom Netz genommen. Scheint sich wohl doch jemand an die 3 Buchstaben errinert zu haben.
Gruß
Alex
Andre
2002-06-24, 22:29:05
Originally posted by Exxtreme
Hmm, THG hat den Test anscheinend wieder vom Netz genommen. Scheint sich wohl doch jemand an die 3 Buchstaben errinert zu haben.
Gruß
Alex
Für einen Ersteindruck scheints ja trotzdem gereicht zu haben.
Quasar
2002-06-24, 22:32:55
Originally posted by Exxtreme
Hmm, THG hat den Test anscheinend wieder vom Netz genommen. Scheint sich wohl doch jemand an die 3 Buchstaben errinert zu haben.
Gruß
Alex
Ich fürchte, bis morgen werden die Resultate leider auch nicht viel rosiger aussehen. Schade, ich hatte mich schon einigermaßen auf einen heißen Sommer gefreut.
Exxtreme
2002-06-24, 22:34:09
Im Beyond3D-Forum geht's schon ab. :lol:
Gruß
Alex
Andre
2002-06-24, 22:35:51
Originally posted by Exxtreme
Im Beyond3D-Forum geht's schon ab. :lol:
Gruß
Alex
Alex,
ich wäre mit deinem Hohn etwas vorsichtig - wer hoch fliegt kann tief fallen.
Exxtreme
2002-06-24, 22:37:30
Originally posted by Quasar
Ich fürchte, bis morgen werden die Resultate leider auch nicht viel rosiger aussehen.
Auf THG sicherlich nicht.
;)
Ich glaube, daß der Parhelia schon viel schneller sein wird wenn die Treiber erstmal besser sind. Dieses Treiberproblem hat _jede_ neue Architektur.
Gruß
Alex
Exxtreme
2002-06-24, 22:39:49
Originally posted by Andre
Alex,
ich wäre mit deinem Hohn etwas vorsichtig - wer hoch fliegt kann tief fallen.
Err, wieder was in den falschen Hals bekommen? War auf jeden Fall nicht höhnisch gemeint.
Gruß
Alex
Andre
2002-06-24, 22:44:04
Originally posted by Exxtreme
Im Beyond3D-Forum geht's schon ab. :lol:
Gruß
Alex
Err, ja?
Ich sehe da nix, könntest du mir einen Link geben?
Andre
2002-06-24, 22:45:01
Originally posted by Exxtreme
Err, wieder was in den falschen Hals bekommen? War auf jeden Fall nicht höhnisch gemeint.
Gruß
Alex
Nein, ich denke nicht.
Ich denke, dass ich das schon richtig verstanden habe.
Exxtreme
2002-06-24, 22:47:06
Originally posted by Andre
Err, ja?
Ich sehe da nix, könntest du mir einen Link geben?
Bitte sehr:
http://www.beyond3d.com/forum/viewtopic.php?t=1365
Gruß
Alex
Andre
2002-06-24, 22:50:24
Is anyone really surprised by they scores? Seriously? From everything I have heard and read about the card, its preforms just about exactly what I thought it would. Maybe a little slower, but it will get a little faster with drivers, but not that much I would expect.
Da hats jemand im B3D-Forum genau getroffen.
Andre
2002-06-24, 22:50:28
*doppelt*
zeckensack
2002-06-24, 22:57:47
Well Lars from Rivastation wrote the review... Ist ja nichts weiter schlimmes. Trotzdem interessiert mich, was Leo zu schreiben hat (falls er denn einen Test macht ??? :D), da ist einfach eine größere Auswahl an Spielen dabei.
Richtig gut informiert fühle ich mich sowieso erst nach drei bis vier Reviews, am besten
1)Von einer absoluten Fan-Seite
2)Von einer absoluten Haß-Seite
3)Von Digit-Life
4)Von irgendwem dazwischen ...
zeckensack
2002-06-24, 23:01:54
Ging um UT
Originally posted by zeckensack
CPU-limitiertes Spiel ... das auf einigen Rechnern mittlerweile mit 250fps läuft. Nehme ich hiermit zurück und behaupte das Gegenteil.
Auflösung komplett egal, Unterschied zwischen 640x480 und 1280x960 sind auf meinem 1.13er Duron prächtige 5%.
Unreal Soldier
2002-06-24, 23:03:14
Originally posted by zeckensack
Richtig gut informiert fühle ich mich sowieso erst nach drei bis vier Reviews, am besten
1)Von einer absoluten Fan-Seite
2)Von einer absoluten Haß-Seite
3)Von Digit-Life
4)Von irgendwem dazwischen ...
*zustimm
MFG
Unreal Soldier
Birdman
2002-06-24, 23:07:59
Originally posted by zeckensack
Ging um UT
Nehme ich hiermit zurück und behaupte das Gegenteil.
Auflösung komplett egal, Unterschied zwischen 640x480 und 1280x960 sind auf meinem 1.13er Duron prächtige 5%.
gut so ;)
SOnst hätt ich drum eingeworfen, dass mein 2266er "nur" ~115fps avg macht in 800x600x32 (na ja auch noch fast in 1600x1200x32 :) ) und das ganze ich noch ohne dynamic lighting etc. gebencht.....250fps habe ich nur im absoluten max.
Exxtreme
2002-06-24, 23:22:00
Ich denke man sollte andere Treiber abwarten. Die jetzigen dürften erstmal auf Kompatibilität und Stabilität getrimmt sein. Was dem Matroxchip fehlt ist HSR und andere Füllraten/Bandbreitenschonende Massnahmen. Auch scheint der Chip keinen CBMC zu haben. Deswegen glaube ich nicht, daß der Parhelia gegen die R300 oder den NV30 ankommen wird auch wenn diese 'nur' ein 128-Bit Speicherinterface haben sollten.
Gruß
Alex
nggalai
2002-06-24, 23:26:38
Originally posted by zeckensack
Ist ja nichts weiter schlimmes. Trotzdem interessiert mich, was Leo zu schreiben hat (falls er denn einen Test macht ??? :D), da ist einfach eine größere Auswahl an Spielen dabei.Nicht sonderlich schlimm per se, aber das ist derselbe Autor, der das hier von sich gab:
Laut ATI´s Treiberdokumentation beherrscht die R8500 nur 16tap Anisotr. Filterung. NVIDIA´s Ti500 kann dagegen wie bereits erwähnt auch die höheren Stufen 32tap & 64tap. Der Qualitätsvergleich überrascht. ATI´s 16tap ist nahezu gleichwertig mit NVIDIA´s 64tap.;)
Richtig gut informiert fühle ich mich sowieso erst nach drei bis vier Reviews, am besten
1)Von einer absoluten Fan-Seite
2)Von einer absoluten Haß-Seite
3)Von Digit-Life
4)Von irgendwem dazwischen ... Mache ich genau so. *zustimm*
ta,
-Sascha.rb
askibo
2002-06-24, 23:30:00
Die Parhelia wird ganz sicher schneller sein als die GF4.
Spätestens dann wenn der neue 3dmurks erscheint. ;)
Exxtreme
2002-06-24, 23:33:09
Originally posted by nggalai
Nicht sonderlich schlimm per se, aber das ist derselbe Autor, der das hier von sich gab:
Laut ATI´s Treiberdokumentation beherrscht die R8500 nur 16tap Anisotr. Filterung. NVIDIA´s Ti500 kann dagegen wie bereits erwähnt auch die höheren Stufen 32tap & 64tap. Der Qualitätsvergleich überrascht. ATI´s 16tap ist nahezu gleichwertig mit NVIDIA´s 64tap
;)
Das kommt davon, wenn man stur die Marketing-Whitepapers der Hersteller abschreibt und nicht fähig ist selbst nachzudenken. Der Borsti hat sich schon einige lustige Sachen erlaubt. Auch die Aussage, daß MSAA Texturen unscharf macht, ist gut.
;)
Gruß
Alex
P.S. aths hat hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=24173) IMHO einen Thread gestartet, der das Problem treffend beschreibt.
StefanV
2002-06-24, 23:34:26
Originally posted by Exxtreme
Auf THG sicherlich nicht.
;)
Ich glaube, daß der Parhelia schon viel schneller sein wird wenn die Treiber erstmal besser sind. Dieses Treiberproblem hat _jede_ neue Architektur.
Gruß
Alex
Zumal es bei Matrox ähnliche Gebote gibt, wie bei 3DLabs:
Erst stabilität, dann Performance...
Zu Borsti:
Seit mir aufgefallen ist, daß er die Bewertung der GraKas so durchführt, wie er gerade lustig ist (und wie NV besser da steht), ist er bei mir völlig unten durch.
Noch dazu hat er überhaupt keine Peilung (was ja eigentlich nicht soo schlimm ist), aber was Borsti teilweise von sich gibt, schlägt manchem Faß den Boden aus...
anm: ich empfehle jeden sich die Fazits vom GF2 vs GF3 und GF3 vs R8k5 anzutun, danach seid ihr wohl auch meiner Meinung ;)
bei beiden hätte die Gewichtung der Benches gleich sein müssen, beim 1. Review wird aber die GF3 schön geredet (mit damaligen Treibern war sie kaum schneller als 'ne GF2), im 2. wieder (bzw die Radeon schlecht gemacht)...
Quasar
2002-06-24, 23:45:32
*gähn*
Ich hab's zwar schon im anderen Thread gepostet, wo Stefan Payne diese Aussage gemacht hat, aber davon, daß ihr jetzt hier über Borsti herzieht, werden die Ergebnisse auch nicht anders. Und benchen sollte man ihm schon zutrauen.
Aber morgen haben wir ja eine Riesenflut von Reviews zu erwarten, da werden wir dann sehen, wer sich was hat einfallen lassen, um die Parhelia in welches Licht zu rücken.
Birdman
2002-06-24, 23:49:06
Originally posted by Stefan Payne
anm: ich empfehle jeden sich die Fazits vom GF2 vs GF3 und GF3 vs R8k5 anzutun, danach seid ihr wohl auch meiner Meinung ;)
bei beiden hätte die Gewichtung der Benches gleich sein müssen, beim 1. Review wird aber die GF3 schön geredet (mit damaligen Treibern war sie kaum schneller als 'ne GF2), im 2. wieder (bzw die Radeon schlecht gemacht)...
Manchmal (eher meistens) verstehe ich deine Probleme echt nicht...
Die fazits sind wirklich in ordnung: die Gf3's waren in dem test deutlich schneller unter 32bit. (und nur 32bit zählt, das erwähnst du selber oft genug)
Klar, unter 16bit gewinnt die gf3 keinen bench, aber das hat wie gesagt keinen belang.
Zum ati8k5 test kann ich nur sagen dass dort einer der ersten treiber zum zug kam, der wirklich grottenschlecht war, daher kann man das fazit verstehen...die ti500 war damals einfach noch deutlich schneller.
btw. (mit damaligen Treibern war sie kaum schneller als 'ne GF2)
genau das selbe gilt für den einen zeile später erwähnten test, doch da ist es für dich auf einmal nicht mehr von belang......
Meiner Meinung nach hapert es einfach noch an den Treibern. Die Hardware WIRD mehr liefern können als eine Geforce4.
Es sieht so aus, als würden hier noch einige spezielle CPU Optimierungen fehlen.
Exxtreme
2002-06-25, 00:00:59
Jetzt haben wir den 25.06.2002. Wo bleibt denn der 3DC-Artikel?
;)
Gruß
Alex
BlackBirdSR
2002-06-25, 00:04:16
Originally posted by HOT
Meiner Meinung nach hapert es einfach noch an den Treibern. Die Hardware WIRD mehr liefern können als eine Geforce4.
Es sieht so aus, als würden hier noch einige spezielle CPU Optimierungen fehlen.
HOT:
ich glaube da gibt es eher ein andere Proble.
eines mit dem auch ATI kämpfen muss.
man dreht nicht für 3 Jahre däumchen und schmeisst dann ne SuperHardware auf den Markt.
ATI hat das mit der ersten Radeon und auch mit dem r200 erleben müssen aber man macht sich.
trotzdem kann die Radeon8500 nicht ihr volles Potenzial ausspielen.
Ich denke Carmack hat es gut ausgedrückt.. einige der Low Level Implementierungen sind einfach deren von Nvidia weit unterlegen.
Und nun soll Matrox plötzlich komplett ohne Erfahrung Alles besser machen?
nicht wirklich.
StefanV
2002-06-25, 00:11:15
Originally posted by Birdman
Manchmal (eher meistens) verstehe ich deine Probleme echt nicht...
Die fazits sind wirklich in ordnung: die Gf3's waren in dem test deutlich schneller unter 32bit. (und nur 32bit zählt, das erwähnst du selber oft genug)
Klar, unter 16bit gewinnt die gf3 keinen bench, aber das hat wie gesagt keinen belang.
Zum ati8k5 test kann ich nur sagen dass dort einer der ersten treiber zum zug kam, der wirklich grottenschlecht war, daher kann man das fazit verstehen...die ti500 war damals einfach noch deutlich schneller.
1. nein, die Fazits gehen NICHT in Odnung!!
Er hätte bei beiden gleich Priorisieren müssen und nicht bei der GF3 DX8 in den Vordergrund stellen und bei der Radeon wieder DX7.
2. ja, die GF3 war mit damaligen Treibern in der Tat schneller als die Radeon, dennoch geht das Fazit aufgrund des GF2 vs GF3 Fazits nicht in Ordnung ;)
3. sag ich ja, die Ergebnisse gehen in Ordnung, das Fazit nicht ;-)
Ich such aber nochmal die entsprechenden Passagen raus, see next Posting from me ;)
Birdman
2002-06-25, 00:15:55
Originally posted by Stefan Payne
Ich such aber nochmal die entsprechenden Passagen raus, see next Posting from me ;)
Aber bitte nicht aus dem Zusammenhang reissen um es "passend" zu machen ;)
Leonidas
2002-06-25, 00:34:47
Originally posted by Exxtreme
Jetzt haben wir den 25.06.2002. Wo bleibt denn der 3DC-Artikel?
;)
Gruß
Alex
Also offiziell ist das NDA auf heute 9 Uhr verschoben. Für die Forumsteilnehmer könnte ich mich eventuell erweichen lassen, früher einen Link rauszugeben - aber ich arbeite noch ein wenig dran momentan.
Unreal Soldier
2002-06-25, 00:41:50
@LEo
THX
MFG
Unreal Soldier
Hamster
2002-06-25, 00:45:52
das wäre super klasse und der abend für heute gerettet @leo
StefanV
2002-06-25, 00:50:29
Originally posted by Leonidas
Also offiziell ist das NDA auf heute 9 Uhr verschoben. Für die Forumsteilnehmer könnte ich mich eventuell erweichen lassen, früher einen Link rauszugeben - aber ich arbeite noch ein wenig dran momentan.
Brauchst du nicht, vor 9Uhr steh ich eh nicht auf *eg*
Außer für Final Fantasy X vielleicht :naughty:
nocturne
2002-06-25, 01:17:56
Originally posted by HOT
Meiner Meinung nach hapert es einfach noch an den Treibern.
Ah, die ersten Voraus-Ausreden fangen schon an... *eg*
Doomtrain
2002-06-25, 01:33:29
Originally posted by nocturne
Ah, die ersten Voraus-Ausreden fangen schon an... *eg*
Der schlimmste Spammer hier bist immer noch du. Was willst eigentlich. Wenn der Parhelia scheiße ist, dann ist er eben scheiße. Du hast noch fast nix von der Karte gesehen, aber immer wieder in dieselbe Kerbe!! Ist echt ekelhaft.....
Torian.cc
2002-06-25, 01:37:26
`n Abend Leutz`....
naja, was soll man da noch sagen...!
Ich hatte eigentlich gehofft, daß die "Benchmark-Schnippsel" von THG nur von irgend ´nem Witzbold ins Net gelegt wurden, um uns MATROX-Fans zu erschrecken...
Mir würde es ja eigentlich schon reichen, wenn die Parhelia "um einiges" schneller ist als die G400MAX und wenigstens die Power hat, aktuelle und zukünftige Spiele-Hits (Doom3, Unreal2, etc.) genügend schnell auf den Monitor zu bringen!
Ich bin NICHT darauf scharf, daß die Parhelia sämtliche Benchmarks gewinnen kann, sondern in 32bit, 1280x1024 und mit allen Details soll eigentlich nur JEDES Spiel laufen...
Aber wenn die Parhelia sich tatsächlich als der absolute Flopp entpuppt (verdammt, WIEDER monatelang umsonst gewartet!!), werde ich mich zusammenraffen und demnächst die ASUS GeForce4 8460 Deluxe (hieß das Teil so?) kaufen!
Denn wie schon erwähnt (oben irgendwo)..., auch durch verdammt gute Treiber-Optimierung kann man eine Graka nicht um 200% schneller machen!!
Schade, ich hätte nicht damit gerechnet und sicherlich ist erstmal das Warten auf ein paar andere Reviews angesagt, aber meine Euphorie ist erstmal stark gebremst... *schluchz*
MfG
Tori
__________
matrox rulez (?)
Doomtrain
2002-06-25, 01:40:32
Originally posted by Torian.cc
Aber wenn die Parhelia sich tatsächlich als der absolute Flopp entpuppt (verdammt, WIEDER monatelang umsonst gewartet!!), werde ich mich zusammenraffen und demnächst die ASUS GeForce4 8460 Deluxe(hieß das Teil so?) kaufen!
Ist nicht dein Ernst, oder??????
Torian.cc
2002-06-25, 01:41:09
Originally posted by Doomtrain
Der schlimmste Spammer hier bist immer noch du. Was willst eigentlich. Wenn der Parhelia scheiße ist, dann ist er eben scheiße. Du hast noch fast nix von der Karte gesehen, aber immer wieder in dieselbe Kerbe!! Ist echt ekelhaft.....
Ach Doom...,
lass ihn doch einfach!
Leute wie nocturne und jedi können eben net anders als ständig nur mosern und miesmachen.
Das ist eher bedauernswert!
MfG
Tori
__________
matrox rulez (?)
P.S.: N8 Doom, ich schau mir die Reviews erst morgen an.., es ist Zeit zum pennen ;)
Doomtrain
2002-06-25, 01:43:26
Originally posted by Torian.cc
Leute wie nocturne und jedi können eben net anders als ständig nur mosern und miesmachen.
Das ist eher bedauernswert!
Hast recht, bei manchen Leuten ist es echt zwecklos... OK, dann gute N8.
Torian.cc
2002-06-25, 01:44:14
Originally posted by Doomtrain
Ist nicht dein Ernst, oder??????
Naja, was soll ich sagen...
Ich werde natürlich erstmal ´ne Zeit abwarten und schauen, wie sich das ganze entwickelt!
Aber Du hast gut reden. Wenn ich wenigstens eine GeForce3 TI200 hätte, würde mir das Warten auch nicht sooooo schwer fallen ;)
Aber momentan bin ich, was das Zocken angeht, doch etwas aufgeschmissen :(
Ich habe heute mal SoF2 ausprobiert, und hurra....., bei 640x480 lief es sogar einigermaßen flüssig....*grmbl*
MfG
Tori
__________
matrox rulez (?)
Doomtrain
2002-06-25, 01:50:46
Originally posted by Torian.cc
Ich werde natürlich erstmal ´ne Zeit abwarten und schauen, wie sich das ganze entwickelt!
Aber Du hast gut reden. Wenn ich wenigstens eine GeForce3 TI200 hätte, würde mir das Warten auch nicht sooooo schwer fallen ;)
Aber momentan bin ich, was das Zocken angeht, doch etwas aufgeschmissen :(
Sei doch nicht gleich entäuscht!!! Warte ab, alles wird gut werden!
PS: OK, das mit dem zocken stimmt schon *mmm-tja* Du willst deinem 22er doch keine GeForce antun? Ich hab ja schon ein scheiß Bild.
lepra
2002-06-25, 01:52:56
hast ja wenigstens noch ne max nuss mich mit g400 ergeben
naja hab da noch ne radi 85 zwischen geschoben habs halt nicht mehr ausgehalten
gut nacht
oder morgen
Torian.cc
2002-06-25, 01:57:22
LEUTE, ALLES RAUS HIER!!!!!!!!!!!!!!
AUF CHIP.DE GIBT ES DEN ERSTEN 12 SEITEN LANGEN MATROX PARHELIA BERICHT!!!!
UND DA HAT DAS TEIL EINE FANTASTISCHE BEWERTUNG BEKOMMEN : 1.0!!
BESSER GEHTS NICHT!
MfG
Tori
__________
MATROX RULEZ *uff* ;)
Schnitzl
2002-06-25, 02:04:25
lol, Tori, ganz ruhig bleiben :)
Aber die scheinen ja echt abzugehn bei chip.de :biggrin:
/Edit: Cool, genauso wie vorrausgesagt: prinzipiell langsamer, aber bei AA usw schneller
krasskrass ...
Unregistered
2002-06-25, 02:20:04
Ziemlich schwach finde ich die neue 512er Parhelia...
Nvidia wird nun wieder einen neuen Detonator nachschieben der die Matrox Karte wieder deklassieren wird.
Ich hoffe mal das ATI mit der R300 da mehr zu bieten hat.
Ich hab gerade das Chip-Review der Parhelia gelesen und kann dazu nur sagen: erschreckend! Das einzige was der Parhelia hier beweist ist eine bisher noch nie dagewesen schlechte Ausnutzung der doch recht beachtlichtlen Bandbreite. Das Ding sollte eine GF4-Ti4600 theoretisch in Grund und Boden rendern -> absolut enttäuschend. Ich bete nur, das Matrox nur unfähig war zum Release "brauchbare" Treiber zu liefern. Das AA mit Fragment-Buffer ist das einzig positive Fazit des Tests -> AHA-Effekt (geht schon in Richtung AA for free).
Bitte versteht diesen Post nicht als Geflame, ich bin nur einfach schockiert und auch enttäuscht über das relativ schwache Abschneiden der Parhelia. Trotzdem freu ich mich schon auf Leonidas' Artikel zu dem Teil.
Leonidas
2002-06-25, 05:33:23
Ich glaube, Ihr bekommt von mir einen ehrlicheren Test als von Chip.
PS: Aber erst nach Ablauf des NDAs um 9 Uhr.
Was ich an Benchmark bisher gesehen habe, entspricht eigentlich dem was ich erwartet habe. Entäuscht bin ich von der geringen 3D-Grundleistung. Damit ist die Basis schon sehr niedrig. Der Einbruch von nur rund 35% mit AA UND AF ist bewerkenswert, wird aber durch die geringe Grundleistung relativiert.
Die verwendeten Benchmarks scheinen aber auch keinerlei Nutzen der 4x4 Architektur des Parhelia zu ziehen. Ebenso sind die PS völlig untergegangen.
Gruß Axel
BlackBirdSR
2002-06-25, 07:17:40
Ich seh das mal so.. und nehme dabei Aquanxo als Referenz, da es wohl in die richtung derneueren DirectX8 Games gehen wird was Anforderung angeht.
Bei einer Geforce kann ich 2x AA nutzen..
aber die Parhelia mit nur einer Stufe von FAA und dann nur 30fps?
ich könnte wetten das in nem halben Jahr das FAA der Parhelia nicht mehr nutzbar ist wiel die Spiele unter 30fps fallen.
und dann?
mit nem 19" Monitor auf 800x600 Spielen?
FAA und Aniso weglassen?
und dafür dann den AUfpreis gezahlt haben? ..
schade drum :(
TBird
2002-06-25, 07:22:42
Originally posted by Exxtreme
P.S. aths hat hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=24173) IMHO einen Thread gestartet, der das Problem treffend beschreibt.
:lol:
Einfach Klasse. Das unverstandene "Genie" räumt auf.
:rofl:
Weiter so und man kann sich das morgendliche Studium der Bild-Zeitung endgültig sparen.
Eben, das ist das Problem. Wenn die Graka nämlich mal zu langsam wird sind AA und AF oft das erste auf das man verzichten kann - und dann? Dann ist die GF4Ti mit "nur" 128Bit Speicheranbindung und einer erheblich älteren Architektur (bezugnehmend auf den hohen Anteil von GF3-Technik bei der GF4Ti) whrscheinlich wieder schneller / könnte sogar eine höhere Lebensdauer haben als die Parhelia (trotz fehlendem Displacement-Mapping). Aber bevor ich nun groß weiter spekuliere, warte ich lieber den 3DC-Artikel ab.
Unregistered
2002-06-25, 08:09:09
Zu den beiden Reviews die ich bisher gesehen hab fällz mir was ein. Im Murc Forum(matrox-users) wird immer wieder von den MODs betont das gerade die min-frameraten beim Parhelia besser sein sollen als beim Gfurz4.
Von daher würde mich mal nen shoot von Vulpine´s GLMark interessieren mit dem Frameverlauf bei beiden Ships. Ist glaube ich der einzige Benchmark der das so schön Grafisch über den gesamten Benchverlauf darstellt.
Quasar
2002-06-25, 08:10:55
Originally posted by Leonidas
Ich glaube, Ihr bekommt von mir einen ehrlicheren Test als von Chip.
PS: Aber erst nach Ablauf des NDAs um 9 Uhr.
Danke, Leo. Ich glaube, Chip macht das, was im Vorfeld den "Hofberichterstattern" Tom und Anand in Bezug auf nV vorgeworfen wurde....
Sie benchen NUR mit FSAA, aber ohne Aniso, kein Wunder also, wenn die Parhelia nicht einbricht...
Sorry, aber da fand ich momentan noch Toms Test "ehrlicher"....
thommenk
2002-06-25, 08:24:29
Auf heise.de ist ein Kurzreview. Fazit: schlechter als GF4 in den meisten Benches...
Kaspar
Exxtreme
2002-06-25, 08:28:50
Originally posted by Torian.cc
Aber wenn die Parhelia sich tatsächlich als der absolute Flopp entpuppt (verdammt, WIEDER monatelang umsonst gewartet!!), werde ich mich zusammenraffen und demnächst die ASUS GeForce4 8460 Deluxe (hieß das Teil so?) kaufen!
Denn wie schon erwähnt (oben irgendwo)..., auch durch verdammt gute Treiber-Optimierung kann man eine Graka nicht um 200% schneller machen!!
Schade, ich hätte nicht damit gerechnet und sicherlich ist erstmal das Warten auf ein paar andere Reviews angesagt, aber meine Euphorie ist erstmal stark gebremst... *schluchz*
MfG
Tori
__________
matrox rulez (?)
Ein Tipp von mir, lass den Kopf nicht hängen. :)
Die "mittelmässigen" Leistungen des Parhelia liegen IMHO in erster Linie am frühen, unoptimierten Treiber. Aber Matrox ist nicht die einzige Firma, die das Problem hat. nVidia hat auch ca. 6 Monate gebraucht um die GF3 richtig auszureizen. Davor war die GF3 kaum schneller als eine GF2U. Das gleiche war mit der R8500. Mit den ersten Treibern war sie etwa so schnell wie eine GF3Ti200, mit den jetzigen Treibern lässt sie die die GF3Ti500 in den meisten Games weit hinter sich und kratzt an der GF4Ti4200. Und 25 fps im Nature-Test? Das Prob hatte ausser der GF4Ti4x00 ausnahmslos jede DX8-fähige GraKa. Erst neuere Treiber lösten das Problem. Ich habe langsam den Verdacht, daß der Zwiebelmurks[TM] eine Sonderbehandlung im Treiber braucht. Deswegen würde ich sagen, daß man sich die Leistungen des Parhelia sich in 6 Monaten nochmal anschaut und neu bewertet.
Gruß
Alex
Quasar
2002-06-25, 08:30:47
Originally posted by Exxtreme
Deswegen würde ich sagen, daß man sich die Leistungen des Parhelia sich in 6 Monaten nochmal anschaut und neu bewertet.
Gute Idee, dann sind nämlich wohl auch die Next-Gen Chips von ATi und wohl auch nV draussen.....dann sieht man, was die Parhelia wirklich wert ist (und auch, was sie im Vergleich dazu noch kostet..)
Leonidas
2002-06-25, 08:33:18
Originally posted by Quasar
Danke, Leo. Ich glaube, Chip macht das, was im Vorfeld den "Hofberichterstattern" Tom und Anand in Bezug auf nV vorgeworfen wurde....
Sie benchen NUR mit FSAA, aber ohne Aniso, kein Wunder also, wenn die Parhelia nicht einbricht...
Sorry, aber da fand ich momentan noch Toms Test "ehrlicher"....
Ich benche auch kein AF. Aber ich begründe es. Und Tom´s AF-Test ist ein Extrem-Lacher, da 2xAF die niedrigste aller AF-Stufen ist - der Effekt ist fast 0.
Exxtreme
2002-06-25, 08:33:29
Originally posted by Quasar
Gute Idee, dann sind nämlich wohl auch die Next-Gen Chips von ATi und wohl auch nV draussen.....dann sieht man, was die Parhelia wirklich wert ist (und auch, was sie im Vergleich dazu noch kostet..)
Hihi, und diese werden auch erst 6 Monate später zeigen können, wie leistungsfähig sie sind.
;)
Gruß
Alex
Exxtreme
2002-06-25, 08:38:14
Originally posted by Leonidas
PS: Aber erst nach Ablauf des NDAs um 9 Uhr.
Hihi, hoffentlich verkraftet Puretec den 3DC-DDoS....
*eg* ;)
Gruß
Alex
Andre
2002-06-25, 08:52:59
Originally posted by Exxtreme
Die "mittelmässigen" Leistungen des Parhelia liegen IMHO in erster Linie am frühen, unoptimierten Treiber.
Alex, bei allem Respekt, aber warum werde ich das Gefühl nicht los, dass du jetzt ebenfalls (wie auch andere) anfängst zu trollen?
Du verwechselst das was:
Die NV-Treiber z.B. waren sicherlich nicht am Optimum beim Erscheinen der GF3, aber sie brachten einen gewissen Grundspeed mit.
So massiv, wie die Parhelia hintenliegt, wird kaum durch Treiber ausgegelichen werden können - und als ob ich es gewusst hätte:
Viel zu frühe Preview-Boards mit miesen Treibern - ich kenne viele, die sich jetzt lieber eine NV kaufen, weils Matrox wieder versaut hat.
AlfredENeumann
2002-06-25, 08:54:43
Originally posted by Leonidas
Ich glaube, Ihr bekommt von mir einen ehrlicheren Test als von Chip.
PS: Aber erst nach Ablauf des NDAs um 9 Uhr.
Hab ihn gelesen und muß sagen, Chip hat erkannt worum es Matrox beim Parhelia ging. Schöne Bilder bei 16x FSAA und dabei besseren Frameraten als der TI4600.
askibo
2002-06-25, 09:01:10
Artikel ist da
http://www.3dcenter.de/artikel/parhelia_firstlook/
thx, leonidas
Richthofen
2002-06-25, 09:02:29
Also ich hab jetzt nicht viel Zeit zu schreiben da ich in die FH muss und dann wird Fussball geguggt nach Englisch :)
Also ich denke schon das mit Treibern noch einiges drinn ist aber trozdem muss auch ich sagen das mich die Werte enttäuschen.
NIcht die normalen FPS Werte in 32 Bit sondern auch die mit AA vor allem in den DX8 Games.
Gestehen wir dem AA mal zu, das es besser ist optisch. Ich finde trozdem die FPS Werte sind zu niedrig.
Das Teil hat Speicherbandbreite wie heu. Man muss nur mal umdenken und sich überlegen, wie eine GF4Ti abgeht mit der Speicherbandbreite.
Es hapert hier ganz klar am Chip. Ich gebe der Karte nicht viel Chancen.
Das 3D Surroundgaming ist bestimmt prima aber das nutzt wenn überhaupt ein so elend kleiner Teil.
Die meissten werden warten bis ATI und NV die Hosen runtergelassen haben und ich glaube dann wird der Matrox Chip deutlich eingehen im Vergleich. Irgendwie find ich es bissl schade.
Das Teil soll um die 500 Euro kosten und ist nicht in der Lage momentan eine GF4Ti auch in den Bandbreitenintensiven Settings deutlich wegzufegen.
Naja und schließlich kennen wir die Tester.
70% von denen benchen um AA und AF herum und da sieht der Matrox Chip dann richtig schlecht aus.
Ist eigentlich kein Problem aber die Massen die das kaufen werden sich danach richten und damit wird NV mit der Ti4600 noch ziemlich gut dastehen für ne Weile bis evtl es ATI besser macht.
Denn nicht vergessen die GF4Ti4600 gibts für knapp 100 bia 150 Euro wohl billiger.
Naja anyway ich warte noch auf paar mehr Reviews vor allem Digit-Life und dann schaun mer mal.
Exxtreme
2002-06-25, 09:02:41
@ Andre
Ich glaube nicht, daß es Matrox darum ging möglichst hohe Frameraten in Standard-Auflösungen zu liefern. Ich glaube eher, daß der Parhelia schöne Pixel, bei spielbaren Frameraten zeichnen sollte und das ist Matrox IMHO gelungen. Und das versteht der typische Zwiebelmurks[TM]-Kiddy nicht.
Gruß
Alex
Leonidas
2002-06-25, 09:03:48
Originally posted by AlfredENeumann
Hab ihn gelesen und muß sagen, Chip hat erkannt worum es Matrox beim Parhelia ging. Schöne Bilder bei 16x FSAA und dabei besseren Frameraten als der TI4600.
Mit dem einzigen Problem: Chip hat nie probiert, ob es wirklich schönee Bilder sind. Und: Meine Benchmarks sagen was anderes.
Originally posted by thommenk
Auf heise.de ist ein Kurzreview. Fazit: schlechter als GF4 in den meisten Benches...
Kaspar
....schlechter als eine GF4ti4200 sollte man dazusagen.
Originally posted by Exxtreme
Hihi, und diese werden auch erst 6 Monate später zeigen können, wie leistungsfähig sie sind.
;)
Gruß
Alex
Das glaube ich nicht.
Einen derart schwachen Start haben weder NV noch ATi je hingekriegt.
Andre
2002-06-25, 09:06:55
Originally posted by Exxtreme
@ Andre
Ich glaube nicht, daß es Matrox darum ging möglichst hohe Frameraten in Standard-Auflösungen zu liefern. Ich glaube eher, daß der Parhelia schöne Pixel, bei spielbaren Frameraten zeichnen sollte und das ist Matrox IMHO gelungen. Und das versteht der typische Zwiebelmurks[TM]-Kiddy nicht.
Gruß
Alex
Also doch trollen?
Sieht leider so aus.
Du kannst dich drehen und wenden wie du willst - aber der Parhelia ist eine Entäuschung.
Leonidas
2002-06-25, 09:10:18
Bin gespannt, ob ich der einzige bin, der die Bildqualität auch wirklich selber nachgeprüft hat ... und sich nicht auf TechDemos oder den Review Guide verlassen hat.
Birdman
2002-06-25, 09:12:22
Originally posted by AlfredENeumann
Hab ihn gelesen und muß sagen, Chip hat erkannt worum es Matrox beim Parhelia ging. Schöne Bilder bei 16x FSAA und dabei besseren Frameraten als der TI4600.
hab mal schnell das review bei Chip gelesen...
IMHO ist die Karte untauglich zur Zeit. Die Parphelia ist er mit Settings schneller, welche Framerate unterhalb des Spielbaren produzieren....
Für 2 fetischisten sicher nur gute Karte, aber für tuts auch noch ne G400 zum halben preis. Und für gamer iss sie eh nix da viieel zu langsam. (btw. ich habe bei CHip keine Aniso benches gesehen....is das absicht oder ned?)
Andre
2002-06-25, 09:17:13
Soviel zum tollen Treiber, der ja laut Exxtreme und aths garantiert sein soll:
http://www.3dcenter.de/artikel/parhelia_firstlook/index2_kompatibilitaet.php
Wenn ich mir die Probleme durchlese, bin ich mehr und mehr überzeugt, dass Matrox wieder einmal die Gamer außen vor lässt.
Soviele Probleme hatte bisher wohl keiner der großen Hersteller, und Matrox ist ja wohl laut aths und Payne kein Anfänger mehr.
aths sagte mal so treffend:
Matrox wird nicht einen derart guten Chip bauen und dann die Treiber vergessen - aths schau doch jetzt mal genau hin.
nggalai
2002-06-25, 09:17:17
Hi there,
ich war so frei und habe den Thread hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=24302) geöffnet. Nicht hauen, Leo, bitte. ;)
Also: Diskussionen zum 3DC-Review bitte da weitermachen.
ta,
-Sascha.rb
Leonidas
2002-06-25, 09:20:20
Originally posted by nggalai
ich war so frei und habe den Thread hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=24302) geöffnet. Nicht hauen, Leo, bitte. ;)
Völlig richtig! Das hab ich nämlich vergessen ...
Exxtreme
2002-06-25, 09:30:35
Originally posted by Andre
Also doch trollen?
Sieht leider so aus.
Du kannst dich drehen und wenden wie du willst - aber der Parhelia ist eine Entäuschung.
Ich habe das Review von Leo gelesen. Rein von den Leistungen ist der Parhelia nicht so der Hit. Da dürfte selbst meine R8500 ohne AA schneller sein. Naja, da der Parhelia nur Edge-AA halbwegs schnell genug kann, wird meine nächste GraKa wohl doch wieder 'ne ATi.
Gruß
Alex
Eine weise Entscheidung, Exxtreme.
Mal abwarten, was sich bei Matrox noch tut, aber der erste Eindruck ist auf jeden Fall mal erschreckend. Und das ist gar nicht gut fuer die weitere Akzeptanz des Parhelia.
Haarmann
2002-06-25, 11:03:58
Parhelia bestellt und basta - das Teil rult meiner Meinung nach. Ich hab nen 1280*1024 TFT und in dieser Auflösung schlägt die Parhelia inkl nem FAA, welches angeblich besser ist als det FSAA von 3dfx, jegliche zZ angebotene Graka. Was soll nun daran schlecht sein? Naja... ok - viele können mit ner Parhelia nicht mehr sich mit ihren (Fuchs)schwänzen messen ähm Zwiebeln schälen meinte ich.
P.S. Es ist schon witzig... einerseits schreien alle nach schnellem FSAA, wenn man ne Radeon 8500 als Vergleich nimmt, andererseits schreines nach viel FPS ohne F(S)AA, wenns gegen ne Matrox geht.
InsaneDruid
2002-06-25, 11:22:29
naja für mich zeigen die Benches nicht dieses Bild, teilweise liegt sie auch mit FAA hinten und machmal ist der Vorsprung 2,3 FPS.
Ausserdem sollte man nicht vergessen, Die Gefarces bieten ja auch noch 2X und Quincunx FSAA, was zwar nicht super toll (2X) bzw blurry (Quincunx) is, aber wesentlich schneller. Das zusammen mit der doch wesentlich höheren "Grundspeed" sollte man nicht verdrängen. 50 FPS mit nem bissl blurry FSAA ist mir jedenfalls lieber als 25 fps mit nem super FAA.
Für mich ist die Parhelia so wie sie sich einem jetzt presentiert ne Enttäuschung. Ja ok, die Treiber, das leidige Thema, aber einerseits *so* viel reissen Treiber auch nich raus (evtl n paar 3dmurks Punkte), andererseits müssen ja offenbar auch erstmal n Haufen Bugs beseitigt werden, und schlussendlich ist die Frage zu stellen inwieweit Matrox überhaupt willens ist hochoptimierte Game Treiber zu basteln. Immerhin positionieren sie den Parhelia doch auch in die non Game Ecke, zumindest nicht als "reine Gamerkarte"
Desweiteren, in 6 Monaten dürfte der R300 am Markt sein, der NV30, und ob da die Parhelia noch wirklich besser is wird sich zeigen. Zumindest jetzt ist sie sicher keine *so* tolle Wahl, IMHO. Leider. Hatte eigentlich vor mir eine zu holen, aber bei der Leistung, mit den Probs, nich für den Preis. :(
Matrox spielt wieder mit, soviel steht fest, aber der angekündigte Überflieger isses IMHO nich.
Exxtreme
2002-06-25, 11:27:01
Originally posted by InsaneDruid
Für mich ist die Parhelia so wie sie sich einem jetzt presentiert ne Enttäuschung. Ja ok, die Treiber, das leidige Thema, aber einerseits *so* viel reissen Treiber auch nich raus (evtl n paar 3dmurks Punkte),
Treiber können verdammt viel reissen. Da ich eine R8500 seit dem Erscheinen dieser habe, kannst du es mir ruhig glauben. Mit den ersten Treibern war die R8500 in den meisten Games ca. genauso schnell wie eine GF3Ti200. Jetzt hat sie die GF3Ti500 weit hinter sich gelassen und erreicht beinahe Gf4Ti4200-Speed.
Gruß
Alex
Originally posted by Andre
Alex, bei allem Respekt, aber warum werde ich das Gefühl nicht los, dass du jetzt ebenfalls (wie auch andere) anfängst zu trollen?Andre, "trollen" ist etwas anderes.
Originally posted by Andre
Die NV-Treiber z.B. waren sicherlich nicht am Optimum beim Erscheinen der GF3, aber sie brachten einen gewissen Grundspeed mit.Ist das bei Parhelia nicht der Fall?
Originally posted by Andre
So massiv, wie die Parhelia hintenliegt, wird kaum durch Treiber ausgegelichen werden könnenAngesichts der Leistung auf dem Papier ist noch eine Menge zu holen - sofern die Matrox Treiberprogrammierer das hinkriegen.
InsaneDruid
2002-06-25, 11:43:33
Hm und wieviel FPS macht das aus? Und vor allem, wie lange hats gedauert?
*Welten* liegen ja auch nich zwischen ner GF3Ti200 und ner Ti500.
Es ist schon zum Haareraufen seit 3dfx tot ist, ich will nen Rampage/Sage. :)
Modulor
2002-06-25, 11:46:10
Und ich will jetzt auch mal das review lesen: ! error 404 !
Die Seite ist down ???
Exxtreme
2002-06-25, 11:53:45
Originally posted by InsaneDruid
*Welten* liegen ja auch nich zwischen ner GF3Ti200 und ner Ti500.
Je nach Game ca. 10-25%. Die R8500 hat durch die Treiberentwicklung diese Quote schon locker überschritten. Bei dem Parhelia sehe ich aber noch viel mehr "Luft" nach oben.
Gruß
Alex
Originally posted by aths
Andre, "trollen" ist etwas anderes.
Nein, genau das ist "trollen"
Angesichts der Leistung auf dem Papier ist noch eine Menge zu holen - sofern die Matrox Treiberprogrammierer das hinkriegen.
sofern???
Vor 2 Tagen warst du noch absolut ueberzeugt davon und viele andere auch. Ich muss ja wohl nicht auf die entsprechenden Threads hinweisen.
skampi
2002-06-25, 12:07:07
Originally posted by ow
Nein, genau das ist "trollen"
Find ich nicht im Duden.
Wo ist das Review?
Unregistered
2002-06-25, 12:44:56
Originally posted by ow
....schlechter als eine GF4ti4200 sollte man dazusagen.
Tatsächlich, die Parhelia performt echt katastrophal:
http://www.heise.de/newsticker/data/anw-24.06.02-006/
Die Parhelia kommt in der c't also noch nicht mal an die Leistung der preiswertesten GF4, also die Ti4200 heran, und dabei kostet die Parhelia dreimal so viel. Ich habe ja nicht viel von der Parhelia erwartet, aber dass sie sooo schlecht sein würde...
Unreal Soldier
2002-06-25, 13:07:23
Warum Funktioniert die Seite (3DCenter) heute nicht. Es kommt immer ERROR404 vor und ich will den Perhelia-Review lesn.
MFG
Unreal Soldier
zeckensack
2002-06-25, 13:22:30
Originally posted by Unreal Soldier
Warum Funktioniert die Seite (3DCenter) heute nicht. Es kommt immer ERROR404 vor und ich will den Perhelia-Review lesn.
MFG
Unreal Soldier Möglicherweise weil die halbe Welt das Review lesen wollte, und das ein wenig zuviel für den armen Server (respektive den Hosting-Laden) war? :|
nagus
2002-06-25, 13:31:00
meine meinugn zur neuen von matrox: hände weg von dem ding! für weniger als die hälfte bekomm ich eine 8500er oder 4200er ( erstere sogar mit PS1.4 support ) 128MB ram und "halbwegs" ausgereiften treibern...
naja... im vergleich zu den matrox treibern sind auch die xabre-treiber ausgereifter ;) nix für ungut, aber die ersten test sind ziehhhhhhhmlich lächerlich! was für eine blamage für matrox!
für gamer ist das teil jedenfalls nicht wirklich die erste wahl
Wenn ich die Kohle im Moment entbehren könnte, würde ichs wie Haarmann machen. Ich denke, dass Matrox mit besseren Treibern noch sehr viel aus der Karte rausholen können wird und bis das (hoffentlich) passiert, reicht der speed erstmal.
AlfredENeumann
2002-06-25, 15:36:32
auszug vom tecchannel
Die von Matrox hochgelobte Signalqualität der Parhelia-512-Karte erreicht bei unseren Messungen nur eine insgesamt befriedigende Note. An die gute Bewertung des Vorgängers Matrox G550 kommt sie nicht heran. Für die Karte spricht die sehr gute Signalamplitude von 703 mV, dass entspricht nahezu der VGA-Norm von 700 mV. Darüber hinaus sind wie vorgeschrieben die einzelnen RGB-Signale zueinander deckungsgleich, somit sind Farbverfälschungen nicht zu erwarten. Punktabzüge gibt es für die Flankenanstiegs- und abfallzeiten von 2,64 und 2,75 ns. In dieser Disziplin erreicht die Matrox G550 mit 1,72 und 2,06 ns bessere Werte. Zusätzlich verhindert die Signalform eine bessere Beurteilung, da sie nicht idealtypisch einem Rechteck entspricht, sondern zum Sinus tendiert.
Originally posted by ow
Nein, genau das ist "trollen"Eine Meinung die man begründen kann zu wiederholen, ist nicht trollen. Trollen bedeutet, absichtlich Unsinn zu reden, um Streit zu erzeugen, oder absichtlich provozieren um Streit zu erzeugen.
Originally posted by ow
sofern???
Vor 2 Tagen warst du noch absolut ueberzeugt davon und viele andere auch. Ich muss ja wohl nicht auf die entsprechenden Threads hinweisen. Ich bin davon überzeugt. Die Frage ist nur, wann. Ehe Matrox leistungsmäßig optimiert, sollten sie erstmal die ganzen Bugs entfernen.
Andre
2002-06-25, 16:45:53
Originally posted by AlfredENeumann
auszug vom tecchannel
Die von Matrox hochgelobte Signalqualität der Parhelia-512-Karte erreicht bei unseren Messungen nur eine insgesamt befriedigende Note. An die gute Bewertung des Vorgängers Matrox G550 kommt sie nicht heran. Für die Karte spricht die sehr gute Signalamplitude von 703 mV, dass entspricht nahezu der VGA-Norm von 700 mV. Darüber hinaus sind wie vorgeschrieben die einzelnen RGB-Signale zueinander deckungsgleich, somit sind Farbverfälschungen nicht zu erwarten. Punktabzüge gibt es für die Flankenanstiegs- und abfallzeiten von 2,64 und 2,75 ns. In dieser Disziplin erreicht die Matrox G550 mit 1,72 und 2,06 ns bessere Werte. Zusätzlich verhindert die Signalform eine bessere Beurteilung, da sie nicht idealtypisch einem Rechteck entspricht, sondern zum Sinus tendiert.
Noch ein Parade-Argument der Matrox-Verfechter weniger.
Mal sehen, wie sie sich jetzt wieder drehen und wenden.
Wenn ich mir hier die Argumentationen mancher durchlese, dann zweifel ich doch an der Ernsthaftigkeit und Logik.
aths,
trollen ist für mich auch, wenn man alle 2 Posts lang seine Meinung/Argumentation/Prioritäten ändert.
Und das scheint mittlerweile hier Usus zu werden.
"Ich bin davon überzeugt. Die Frage ist nur, wann. Ehe Matrox leistungsmäßig optimiert, sollten sie erstmal die ganzen Bugs entfernen."
Naja, glaub an was du willst - manche lernens eben nicht.
Vorher hast du behauptet, dass sie zum Launch (der in den USA am 30.06 ist) vernünftige Treiber bringen = Nullnummer.
Jetzt glaubst du, dass sie es hinbekommen und erwartest
1. Bug-Fixing, was bei den ganzen Bugs verdammt lange dauern wird.
2. Tuning, wobei bis zu 100 % Performance in manchen Bereichen geholt werden müssen, um überhaupt in die Näher Geforce 4/ATI 8500 zu kommen.
Viel Spaß beim warten.
Originally posted by aths
Eine Meinung die man begründen kann zu wiederholen, ist nicht trollen. Trollen bedeutet, absichtlich Unsinn zu reden, um Streit zu erzeugen, oder absichtlich provozieren um Streit zu erzeugen.
Nun, dann sind ja alle Vorraussetzungen des Trollens erfuellt.
Ich zitiere nochmal:
Ich glaube nicht, daß es Matrox darum ging möglichst hohe Frameraten in Standard-Auflösungen zu liefern. Ich glaube eher, daß der Parhelia schöne Pixel, bei spielbaren Frameraten zeichnen sollte und das ist Matrox IMHO gelungen. Und das versteht der typische Zwiebelmurks[TM]-Kiddy nicht.
a) ist es Unsinn und b) Zwiebelmurks Kiddies ist eine Beleidigung und Provokation.
Ich bin davon überzeugt. Die Frage ist nur, wann. Ehe Matrox leistungsmäßig optimiert, sollten sie erstmal die ganzen Bugs entfernen.
Da gebe ich dir mal voll recht. Mit DEN ganzen Bugs macht Leistungsoptimierung keinen Sinn.
Exxtreme
2002-06-25, 17:02:30
Originally posted by ow
b) Zwiebelmurks Kiddies ist eine Beleidigung und Provokation.
Wem habe ich denn beleidigt?
Gruß
Alex
nggalai
2002-06-25, 17:45:42
UT2003-Benches auf Parhelia:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=24327
ta,
-Sascha.rb
Originally posted by Exxtreme
Wem habe ich denn beleidigt?
Gruß
Alex
Alle 3DMark Bencher;) Und das sind nicht wenige.
So schlecht wie hier manchmal behauptet wird ist der 3DMark nämlich gar nicht.
StefanV
2002-06-25, 18:51:21
Originally posted by ow
Alle 3DMark Bencher;) Und das sind nicht wenige.
So schlecht wie hier manchmal behauptet wird ist der 3DMark nämlich gar nicht.
1. wohl eher die, die hauptsächlich auf den 3DM 'vertrauen'...
2. nein, er ist noch schlechter...
Modulor
2002-06-25, 18:53:02
Originally posted by ow
...So schlecht wie hier manchmal behauptet wird ist der 3DMark nämlich gar nicht.
Genau - wenn man sich statt des gemittelten "3DMarks" die Einzelwerte näher ansieht.
Exxtreme
2002-06-25, 19:03:37
Originally posted by ow
Alle 3DMark Bencher;) Und das sind nicht wenige.
Und du hast trotzdem verstanden, wie es gemeint war.
;)
Originally posted by ow
So schlecht wie hier manchmal behauptet wird ist der 3DMark nämlich gar nicht.
Richtig. Für Overclocker ist das Teil ein Segen. Es gibt kaum Besseres zum Testen der Stabilität eines Systems als den Zwiebelnurks[TM].
Gruß
Alex
Originally posted by Exxtreme
Richtig. Für Overclocker ist das Teil ein Segen. Es gibt kaum Besseres zum Testen der Stabilität eines Systems als den Zwiebelnurks[TM].
Gruß
Alex
Das auch.:D
Aber genausowenig ist irgendein beliebiges Spiel representativ für die Leistung einer Karte, man muss schon sehr viele 3D Szenen benchen, um einen Eindruck über die Leistung einer Karte zu bekommen.
Und da kann ruhig der 3DMark dabei sein. Ruhig auch ältere Versionen (Im 99er Mark dürfte eine Kyro von einem anderen Chip kaum zu schlagen sein:D).
Aber wie Modulor schon sagte, sind vor allem die Einzelbenche der 3DMarks interessant. Eine errechnete Punktzahl ist ja 'beliebig' je nach Gewichtung der einzelnen Ergebnisse.
Andre
2002-06-25, 19:12:34
Alex,
"Und du hast trotzdem verstanden, wie es gemeint war.
;)"
Es geht nicht darum, dass ow das schon versteht. Es soll hier User geben, die diese Art der Formulierung sicherlich falsch verstehen.
Da kann man ab und zu mal Rücksicht nehmen.
"Richtig. Für Overclocker ist das Teil ein Segen. Es gibt kaum Besseres zum Testen der Stabilität eines Systems als den Zwiebelnurks[TM]."
Ironie?
Originally posted by Unregistered
Tatsächlich, die Parhelia performt echt katastrophal:
http://www.heise.de/newsticker/data/anw-24.06.02-006/
Die Parhelia kommt in der c't also noch nicht mal an die Leistung der preiswertesten GF4, also die Ti4200 heran, und dabei kostet die Parhelia dreimal so viel. Ich habe ja nicht viel von der Parhelia erwartet, aber dass sie sooo schlecht sein würde...
So hoch (GF4) brauchst Du noch nicht mal zu greifen. In dem Testbericht bei http://www.hartware.de kommt die Parhelia oft noch nicht mal an eine alte GF3-Ti200 für 120,- EUR heran.
Exxtreme
2002-06-25, 19:39:20
Originally posted by Andre
"Richtig. Für Overclocker ist das Teil ein Segen. Es gibt kaum Besseres zum Testen der Stabilität eines Systems als den Zwiebelnurks[TM]."
Ironie?
Nee, das mit der Stabilität stimmt schon. Wenn Zwiebelmark immer gut und sauber durchläuft, dann kann man davon ausgehen, daß das System stabil ist. Der Bench belastet das System ziemlich stark.
Gruß
Alex
Originally posted by Andre
Vorher hast du behauptet, dass sie zum Launch (der in den USA am 30.06 ist) vernünftige Treiber bringen = Nullnummer.Entschuldigung, bitte: Wo habe ich behauptet, dass sie zum Launch vernünftige Treiber bringen?
Andre
2002-06-25, 20:33:24
Originally posted by aths
Entschuldigung, bitte: Wo habe ich behauptet, dass sie zum Launch vernünftige Treiber bringen?
Hehe.
Muss ich dir lassen, geschickt formuliert, wenn man nochmal drüberliest.
So, jetzt geb ich mal meinen Senf dazu...
also erwartet hätt ich mir mehr von der Parhelia, von den Daten her mit der Bandbreite müsste sie nie G4 locker schlagen, tut sie aber nicht, ob es nur an den Treibern liegt glaub ich jetzt auch nicht. Bandbreitenschonende Maßnahmen fehlen, Chiptakt ist zu niedrig ergo zu wenig Füllrate und dann sicher auch die Treiber, dass die nicht ausgereift sind sieht man an den Bugs.
Ich glaub kaufen wird sich ein normal denkender Gamer erst mal nicht. Ich wollte sie mir kaufen, aber jetzt wart ich erst mal noch auf Ati, um zu sehen was die bringen. Und ob die Treiber von Matrox noch besser werden... Hoffe sehr auf die Win98 Treiber... Meine neue Graka werd ich mir also im Herbst oder zu Weihnachten kaufen...
Gleich zu sagen, die Karte is mies oder alles wird gut, halt ich für schwachsinnig. Man muss abwarten und ihre Vorteile hat die Karte sicher, aber eben nicht für jeden.
Also, ich sag mal, zermartert euch nicht das Hirn und wartet mal ein wenig um zu sehen was die Konkurenz bringt und was an den Treibern noch geht.
Zu 3DMarks möcht ich nur sagen, dass das Zeugs mir langsam gestohlen bleiben kann. Is ne schöne Show und die Füllraten Tests find ich gut, alles andere... nö
Als Benchmark find ich es absoluten Blödsinn.
1.) nicht realitätsnah, hat mit Games nichts am Hut
2.) Sachen wie Treiberoptimierungen der GrakaHersteller auf dieses Prog machen es zum Benchen abolut schlecht
3.) ~Bugs~ wie den Splashscreen Fehler find ich zum Kotzen und lässt mal aufzeigen wie gut es is.
4.) Leute die meinen, hey ich hab ne tolle Kiste weil ich in 3DMark über 10000 Punkte hab sollten mal was Sinvolleres tun, zB Bücher lesen und was richtiges spielen, für das is die Graka ja schließlich da.
5.) 3DMark macht es den Testern einfach zu leicht, die schreiben nur die Punkte ab und das wars, ej voll fürn Eimer...
6.) is ne tolle Show, viel mehr isses net
Gruß Euer Meta
Originally posted by ow
a) ist es Unsinn und b) Zwiebelmurks Kiddies ist eine Beleidigung und Provokation.ow, ich möchte dir nicht zu nahe treten, doch dass gerade zu "Zwiebelmurks Kiddies" als "Beleidigung und Provokation" brandmarken willst, kann ich dir schlecht abkaufen, (wo du auch nicht schlecht holzen kannst.)
Zu a) Matrox hat tatsächlich immer wieder gepredigt, besonders schöne Grafik zu bringen (was ihnen mit den aktuellen Treibern noch nicht gelungen ist) und keine neuen Geschwindigkeitsrekorte aufstellen wollen. Unsinn ist Exxtremes Meinung nach meinem Dafürhalten nicht.
Originally posted by Meta
also erwartet hätt ich mir mehr von der Parhelia, von den Daten her mit der Bandbreite müsste sie nie G4 locker schlagen, tut sie aber nicht, ob es nur an den Treibern liegt glaub ich jetzt auch nicht.Also seitdem der Chip-Takt bekannt war, war eigentlich schon klar, dass eine GF4 Ti bei herkömmlichen Spielen nicht geschlagen werden kann. Wenn massiv PixelShader zum Einsatz kommen, könnte sich das Blatt wenden, doch bis dahin ist ja noch viel Zeit. Die hohe Bandbreite deutet an, dass es FSAA für wenig Leistungsverlust geben sollte - tatsächlich haut 16x (!) AA mit nur ca. 20-30% rein.
Originally posted by Meta
Bandbreitenschonende Maßnahmen fehlen, Chiptakt ist zu niedrig ergo zu wenig Füllrate und dann sicher auch die Treiber, dass die nicht ausgereift sind sieht man an den Bugs.Bandbreitenschonende Maßnahmen sind vorhanden: Etliche Caches, Logiken die möglichst viele Burst Writes / Block Reads bewerkstelligen sollen, und natürlich das gesplittete Memorycontroller-Interface. Occlusion-Techniken allerdings fehlen komplett, die Effizienz einer Radeon8500 oder GeForce3 wird offenbar nicht erreicht.
Bei "Chiptakt ist zu niedrig" möchte ich aber noch mal nachhaken. Zu niedrig wofür? Um eine GF4 Ti zu schlagen? Wenn man etwas langsamer als auf GeForce4 Ti spielen muss, die Grafik dabei aber viel schöner ist (was mit den aktuellen Treibern noch nicht realisiert wurde), halte ich das durchaus für vertretbar. Schmerzlich, dass derzeit nur 2x AF freigeschaltet wurde. Höchst angenehm die 10 (bzw. 11-) Bit pro Farbkanal: Colorbanding, auf meiner Ti4600 auch in 32 Bit ein Problem, ist mit Parhelia erst mal nicht zu erwarten.
Naja, der Chiptakt is schon etwas niedrig um hohe Füllraten erreichen zu können, denn dann hätte sie auch ohne Faa mehr Chancen gegen die G4.
Von den Daten, damit meinte ich vor allem der Speicherbandbreite müsste sie die G4 schon schlagen, da ich Bandbreite für wichtiger halte als Füllrate...
Ja du hast recht Bandbreitenschonende Techniken hat sie schon, hatte die G400 auch schon, aber an die Effizienz einer G4 oder Radeon kommt sie halt doch nicht ran... es ist einfach zu wenig, die horrende Bandbreite wird wohl so auch wieder zu nichte gemacht.
Ne G4 mit der der Bandbreite wäre superschnell...
Vielleicht kommt noch eine Parhelia MAX...
Dein Meta
Schöne Bildquali is sicher mehr Kaufgrund als Performanceunterschied von 10-20 %, aber trotzdem hätt ich gern gesehen wie ne G4 geschlagen wird...von der Performance her und ja, dafür hatt sie unter anderem auch zu wenig Chiptakt... aber wie gesagt, vielleicht ne MAX in 0,13.
Originally posted by jedi
So hoch (GF4) brauchst Du noch nicht mal zu greifen. In dem Testbericht bei http://www.hartware.de kommt die Parhelia oft noch nicht mal an eine alte GF3-Ti200 für 120,- EUR heran. Das gilt aber nicht, wenn man mit Anti-Aliasing spielen will. Wer sich Parhelia kauft wohl kaum, um mit ungeglätteten Kanten zu leben.
Meta,
ich erlaube mir, einiges auseinander zu klamüstern.
Bandbreite ist wichtig für Dinge, die Bandbreite erfordern. Einer ausgewogenen Karte einfach nur mehr Bandbreite zu geben erhöht die Geschwindigkeit praktisch nicht. Man braucht Bandbreite vor allem für (heutzutage elementare) Dinge wie z.B. Anti-Aliasing. Eine GeForce4 mit solcher Bandbreite wäre bei 2x2 OGMS deutlich schneller als sie jetzt ist. Aber 2x RGMS liefert bekanntlich eine vergleichbar gute Qualität (es gibt Ausnahmen) und lässt die Framerate deutlich geringer einbrechen. Einer GF4 Ti würde (noch) mehr Bandbreite nur wenig nützen.
Matrox bringt endlich mal ne Karte die Faa for free (fast) kann, das find ich gut, hoffe da werden andere nachziehen...
@ aths
ich geb dir recht, wer ne Matrox kauft schaltet Faa sicher nimmer aus...
Naja, da kann ich dir noch teilweise recht geben.
Wenn du ne G4 ocen tust, dann bringt der Ramtakt schon einiges, ich denk mal fast mehr als den Chiptakt mehr anzuheben. Also mehr Bandbreite tut der G4 schon auch gut....
Piffan
2002-06-25, 21:11:04
Originally posted by Meta
Naja, der Chiptakt is schon etwas niedrig um hohe Füllraten erreichen zu können, denn dann hätte sie auch ohne Faa mehr Chancen gegen die G4.
Von den Daten, damit meinte ich vor allem der Speicherbandbreite müsste sie die G4 schon schlagen, da ich Bandbreite für wichtiger halte als Füllrate...
Ja du hast recht Bandbreitenschonende Techniken hat sie schon, hatte die G400 auch schon, aber an die Effizienz einer G4 oder Radeon kommt sie halt doch nicht ran... es ist einfach zu wenig, die horrende Bandbreite wird wohl so auch wieder zu nichte gemacht.
Ne G4 mit der der Bandbreite wäre superschnell...
Vielleicht kommt noch eine Parhelia MAX...
Dein Meta
Ich habe ein Problem: Weil sie keine Bandbreite spart, soll sie schlechter sein... Sorry, aber bei der Bandbreite, die sie hat, könnte sie ruhig verschwenderisch damit umgehen und sollte immer noch ein Polster gegenüber der G4 haben....
Dann ist es keineswegs so, daß Bandbreite wichtiger ist als Füllrate. Imho muß beides aufeinander abgestimmt sein.... Bandbreite ohne Füllrate ist Überfluss ohne Nutzen, Füllrate ohne Bandbreite ist absolut fatal.... War ja das eigentliche Problem des Geforce SDR und des GTS... Imho sind diese Zeiten aber vorbei, der G3/4 ist recht ausgewogen....
Falls ich Unfug schreibe, bitte ich mir mein Laientum zugute zu halten und um Berichtigung :D
edit: Huch, war ich so lahm/aths so schnell oder habe ich etwas überlesen? Damit ist mein Post für die Katz.....
Haste schon recht, aber eben weil die Parhelia mit der Bandbreite relativ schlecht umgeht nützt es ihr nicht viel und kommt deshalb (geraten) so an das G4 Niveau ran, von der Bandbreite her. Ich glaub das Polster is da nimmer so groß...
Stimmt, die Karte muss ausbalanciert sein und ne G4 isses. Eigentlich bin ich Matrox Fan aber ich muss schon sagen, dass die Matrox nicht den Eindruck macht gut ausbalanciert zu sein, eben weil zu wenig Füllrate... aber wie ich sage, das alles ist sicherlich nicht allein der Grund, warum ne G4 ohne faa schneller ist.
Originally posted by Meta
Also mehr Bandbreite tut der G4 schon auch gut.... Ja, Bandbreite war auch das Kriterium an dem ich dann die Ti4600 auswählte :D - ich takte die Karte mit 300/"715". 2x AF ist fast gar nicht, 8x AF ziemlich bandbreitenabhängig. Aber sagen wir mal so: Mit 50% mehr Bandbreite könnte man mit der Ti kaum deutlich bessere Grafik erzeugen. Wenn 4x MSAA dann auch schneller sein mag, oder 8x AF statt 4x AF drin ist - beides wirkt sich auf die 'sichtbare' Qualität nur wenig aus.
Wenn sich die Treiber bessern, und Parhelia mit 16x AA eine GF4Ti4600 die mit 4x AA läuft knapp nicht schlagen - wen interessiert das bei den deutlich glätteren Kanten?
Wie ich schon sagte, wer ne Parhelia kauft schaltet Faa nimmer aus. Und dem jenigen sind die paar FPS Unterschied zur G4 auch egal, der schaut sicher auf die Quali.
NUR, in einem Jahr schau ich nicht mehr nur auf die Quali, sondern auch ob ich noch alles spielen kann und dann bietet die G4 "leider" mehr... oder? Ich kann mir halt leider net immer ne neue Graka kaufen...und so isses auch ein Kaufargument.
Dein Meta
PS: *dichumdeineGrakabeneid*
Haarmann
2002-06-25, 21:44:56
Bei Leonidas neustem Bench Game, Z2, schlägt die Parhelia inkl FAA sogar bei 1600*1200 ne 1280*960 laufende GF4 Ti (vergleichbare Settings). Die OpenGL "Klassiker" nutzen bestimmt keine Parhelia Extensions (Und die gibts) und somit ist diese Karte voll im Nachteil gegenüber jeder ATI oder NV. Auch das sollte man zZ noch mit erwägen. Auch waren viele der Tests bei Leonidas nicht ganz identisch, da die Matrox fast immer 7% mehr Fläche bei 1280 rendern musste. Auch das macht dann eben am Ende 7% aus - sprich 7% Mehrleistung, die in den Framezahlen untergeht. Da sieht man dann bereits wieviel Bandbreite die Matrox eben mehr hat (OGL zähle ich eben nur so halb - Grund siehe weiter oben). Auch fehlen noch Benches mit Anisotropem Filter und FAA. Ich finde es schon gut, dass die Karte inkl Vorserientreibern überhaupt ne GF4 Ti so konstant in höheren FAA Auflösungen schlagen kann. Da zeigt sich nämlich entweder, das der Parhelia doch nen paar Bandbreiten Tricks auf Lager hat, oder dass LMA2 ned wirklich effektiv arbeitet... Einfach mal nur die D3D Ergebnisse angucken.
P.S. Leonidas, wenn die Parhelia doch Mühe mit UT OGL hat, kriegste das ev auf D3D zu laufen?
Demirug
2002-06-25, 21:47:15
Also Bandbreite kann man im Prinzip nie genung habe. Im zweifelsfall bläst man sie beim AA raus. Oder, aths???
Die Karte hat IMO aber einen unnötigen Designfehler. Die 4 * 4 ist bei momentanen Spielen schlecht ausgelastet und in Zukunft ist sie wohl auch nur suppotimal. Eine 6 * 2 (mit loopback) Pipeline wäre bei dem Chiptakt wohl sinnvoller gewssen.
Originally posted by Meta
NUR, in einem Jahr schau ich nicht mehr nur auf die Quali, sondern auch ob ich noch alles spielen kann und dann bietet die G4 "leider" mehr... oder? Ich kann mir halt leider net immer ne neue Graka kaufen...und so isses auch ein Kaufargument.Das bleibt abzuwarten. In einem Jahr könnte langsam Displacement Mapping eingesetzt werden, die um Faktor 4 höhere Farbkanal-Rechengenauigkeit des Parhelia sich bemerkbar machen, vielleicht ist dann auch die vierfache VertexShader-Auslegung von Nutzen, oder die 5 PixelShader-Stages pro Pipeline (GF4 hat 2 pro Pipeline.)
Es kann natürlich auch sein, dass die Treiber erschreckend mies bleiben, und GF4 trotz Nachteile auf dem Papier in der Praxis besser performt (wie z.B. in Doom3 gegen Radeon8500.) Ich wage jedoch die Einschätzung, dass Parhelia für die Zukunft besser gerüstet ist als Ti4600; (und sei es nur wegen der Rendergenauigkeit.)
Originally posted by Meta
PS: *dichumdeineGrakabeneid* ... die hoffentlich auch in einem Jahr noch gut ist :naughty:
Originally posted by Demirug
Also Bandbreite kann man im Prinzip nie genung habe. Im zweifelsfall bläst man sie beim AA raus. Oder, aths???Wenn die GF4 denn was besseres hätte, als nur 2x2 OGAA (z.B. 3x3 OGAA) - dann ja.
Originally posted by Demirug
Die Karte hat IMO aber einen unnötigen Designfehler. Die 4 * 4 ist bei momentanen Spielen schlecht ausgelastet und in Zukunft ist sie wohl auch nur suppotimal. Eine 6 * 2 (mit loopback) Pipeline wäre bei dem Chiptakt wohl sinnvoller gewssen. Ich weiss nicht, ob ein Design mit 6 Pipelines nicht gewisse Probleme erzeugt, bislang wurden ja nur 2-er Potenzen verwendet. Eine 6-er Architektur wäre bei vielen kleinen Dreiecken benachteiligt. Einfach nur in die Breite zu gehen, bringt es auch nicht.
edit: Geht man davon aus dass ein durchschnittlicher Shader (bis 1.3) z.B. 3 Texturen und 5 Befehle nutzt, so ist dieser auf Parhelia in einem Takt abgearbeitet, während GeForce4 Ti hierfür 3 Takte benötigt.
Demirug
2002-06-25, 22:05:25
Originally posted by aths
Ich weiss nicht, ob ein Design mit 6 Pipelines nicht gewisse Probleme erzeugt, bislang wurden ja nur 2-er Potenzen verwendet. Eine 6-er Architektur wäre bei vielen kleinen Dreiecken benachteiligt. Einfach nur in die Breite zu gehen, bringt es auch nicht.
Ich hätte ja 8*2 geschrieben hätte den DIE aber noch gröper gemacht. Eine 3*2 Matrix sollte aber anehmbar sein. Notfalls muss man sich dort mal etwas neues einfallen lassen da man an der Taktschraube der Chips auch nicht ewig drehen kann.
edit: Geht man davon aus dass ein durchschnittlicher Shader (bis 1.3) z.B. 3 Texturen und 5 Befehle nutzt, so ist dieser auf Parhelia in einem Takt abgearbeitet, während GeForce4 Ti hierfür 3 Takte benötigt.
Nur verwirft die Geforce ja schon vor dem Shader eine nicht unbedeutende Menge dank Early Z wodurch die 3 Takte nicht anfallen und bei der DOOM III Engine wird das wahrscheinlich noch extremer.
Originally posted by Demirug
Nur verwirft die Geforce ja schon vor dem Shader eine nicht unbedeutende Menge dank Early Z wodurch die 3 Takte nicht anfallen und bei der DOOM III Engine wird das wahrscheinlich noch extremer.Jupp, der Verzicht auf Early Z Occlusion bleibt unverständlich.
Thowe
2002-06-25, 22:20:44
Originally posted by Exxtreme
Hihi, hoffentlich verkraftet Puretec den 3DC-DDoS....
*eg* ;)
Gruß
Alex
Hah, erwischt, er hat den Teufel an die Wand gemalt :D
Originally posted by Andre
Also doch trollen?
Nö, das wäre eher flamen.
Originally posted by aths
Eine Meinung die man begründen kann zu wiederholen, ist nicht trollen. Trollen bedeutet, absichtlich Unsinn zu reden, um Streit zu erzeugen, oder absichtlich provozieren um Streit zu erzeugen.
Nur die halbe Wahrheit. Das geht meist noch etwas tiefer.
Originally posted by ow
Alle 3DMark Bencher;) Und das sind nicht wenige.
So schlecht wie hier manchmal behauptet wird ist der 3DMark nämlich gar nicht.
Aber auch nur dann, wenn man weis was und wie man interpretieren muss. Die Gesamtwertung als einzigen Faktor zu sehen ist eher eine kindliche Art der Interpretation. Ok Ok, ich lass es, wurde ja auch schon näher drauf eingegangen.
Originally posted by aths
Das gilt aber nicht, wenn man mit Anti-Aliasing spielen will. Wer sich Parhelia kauft wohl kaum, um mit ungeglätteten Kanten zu leben.
Yep, jeder der einen anständigen TFT hat weis was der Unterschied zwischen FSAA und non FSAA ist. Das viele diesen nicht sehen, liegt auch häufig daran das der billige 17" Monitor eh ein Blur4free liefert. Deshalb kann ich die Argumentation einiger verstehen die meinen das FSAA nichts bringt oder Quincunx völlig i.O. ist.
Originally posted by Piffan
edit: Huch, war ich so lahm/aths so schnell oder habe ich etwas überlesen? Damit ist mein Post für die Katz.....
aths tippt so schnell die S.., da komme selbst ich mit meinen 320cps nicht mit.
Originally posted by Haarmann
Bei Leonidas neustem Bench Game, Z2, schlägt die Parhelia inkl FAA sogar bei 1600*1200 ne 1280*960 laufende GF4 Ti (vergleichbare Settings).
Für mich als TFT Nutzer das Kriterium, ich will einfach nicht mehr ohne FSAA spielen, deshalb ist die GF4TI4400 im Rechner, da diese z.Z. die 1280x1024 Auflösung mit FSAA recht gut hinbekommt.
Ok, gebe es zu, das Posting ist genau so unsinnig wie viele andere hier :)
Originally posted by Thowe
das Posting ist genau so unsinnig wie viele andere hier :) Ich finde jedes Posting sinnvoll, wenn auf die Vorteile von Anti-Aliasing hingewiesen wird :)
StefanV
2002-06-25, 22:55:44
Originally posted by aths
Ich finde jedes Posting sinnvoll, wenn auf die Vorteile von Anti-Aliasing hingewiesen wird :)
Ich find jedes Posting sinnvoll, das eine Meinung begründet.
Auch eine Meinung find ich Sinnvoll.
Aber das ist wohl nur meine Ansicht ;)
Quasar
2002-06-25, 23:23:26
Originally posted by Leonidas
Ich benche auch kein AF. Aber ich begründe es. Und Tom´s AF-Test ist ein Extrem-Lacher, da 2xAF die niedrigste aller AF-Stufen ist - der Effekt ist fast 0.
Da widerspreche ich dir. IMHO sieht man bei 0x -> 2x den stärksten Unterschied....
Klar sieht 8x besser aus, aber es gilt das von aths postulierte Gesetz des abnehmenden Ertrages....
http://home.arcor.de/quasat/SSSE+extrQ+104x7x3+4xFSAA+0xAF+OGL.JPG
http://home.arcor.de/quasat/SSSE+extrQ+104x7x3+4xFSAA+2xAF+OGL.JPG
Originally posted by aths
ow, ich möchte dir nicht zu nahe treten, doch dass gerade zu "Zwiebelmurks Kiddies" als "Beleidigung und Provokation" brandmarken willst, kann ich dir schlecht abkaufen, (wo du auch nicht schlecht holzen kannst.)
Zu a) Matrox hat tatsächlich immer wieder gepredigt, besonders schöne Grafik zu bringen (was ihnen mit den aktuellen Treibern noch nicht gelungen ist) und keine neuen Geschwindigkeitsrekorte aufstellen wollen. Unsinn ist Exxtremes Meinung nach meinem Dafürhalten nicht.
Ich zitiere es nochmal fuer dich:
Ich glaube eher, daß der Parhelia schöne Pixel, bei spielbaren Frameraten zeichnen sollte und das ist Matrox IMHO gelungen
Und ich sage: Garnichts ist Matrox bisher gelungen, also ist diese Aussage Unsinn.
Originally posted by aths
Die hohe Bandbreite deutet an, dass es FSAA für wenig Leistungsverlust geben sollte - tatsächlich haut 16x (!) AA mit nur ca. 20-30% rein.
Lachhaft!
Du weisst doch ganz genau, dass der Parhelia nur 2-3% der Pixel glaettet und daher ueberhaupt kein erhoehter Bandbreitenbedarf besteht.
Wieviel die hohe Bandbreite bringt sieht man ja , wenn der Parhelia 4xAA Supersampling macht. Naemlich garnichts.
Originally posted by aths
Das gilt aber nicht, wenn man mit Anti-Aliasing spielen will. Wer sich Parhelia kauft wohl kaum, um mit ungeglätteten Kanten zu leben.
Wer sich Parhelia kauft tut das wohl kaum um unspielbare Framerate in allen Situationen zu haben ob mit oder ohne AA.
Leonidas
2002-06-26, 09:25:59
Originally posted by Haarmann
P.S. Leonidas, wenn die Parhelia doch Mühe mit UT OGL hat, kriegste das ev auf D3D zu laufen?
Hab doch D3D verwendet, da schneller. Aber ich hab natürlich OpenGL auch angetestet.
Leonidas
2002-06-26, 09:31:42
Originally posted by Quasar
Da widerspreche ich dir. IMHO sieht man bei 0x -> 2x den stärksten Unterschied....
Klar sieht 8x besser aus, aber es gilt das von aths postulierte Gesetz des abnehmenden Ertrages....
Bezüglich der Parhelia: Überzeugt. Aber der GF4 Besitzer: Wird der wirklich die niedrigste Stufe nehmen, wenn er 2x, 4x und 8x zu Auswahl hat?
Originally posted by Leonidas
Bezüglich der Parhelia: Überzeugt. Aber der GF4 Besitzer: Wird der wirklich die niedrigste Stufe nehmen, wenn er 2x, 4x und 8x zu Auswahl hat? Hängt davon ab. AF frisst auf GF grundsätzlich 50% Füllrate, so dass 2x AF nicht bandbreitenlimitiert ist. Kommt Bandbreitenlimitierung durch MSAA, wird man sich angesichts der Frameraten eine höhere Stufe als 2x AF zweimal überlegen. 4x AF sieht etwas besser aus, aber um noch mal einen richtigen Sprung zu erleben müsste es schon 8x AF sein - und hier sind herbe Einbußen der Framerate inkauf zu nehmen. (Soweit ich weiß 40-60%.)
Originally posted by ow
Wer sich Parhelia kauft tut das wohl kaum um unspielbare Framerate in allen Situationen zu haben ob mit oder ohne AA. Öhm, als "unspielbar" würde ich die Frameraten wahrlich nicht bezeichnen.
Ja aber fakt ist doch das die Karte bei DX7 und DX8 Spielen etwa die Preformance der Letzten Generation von NV hat also GF3Ti500.
Und die wirklichen Hammer in Sachen DX7 sin noch garnicht drausne zB UT2003
Da wird die Karte 'verkacken'
Wobei man natürlich auch sagen muss, dass der Potentielle Parhelia käufer wirklich nciht der Spiele-Freak ist.
Ist wohl eher der, der Multi Monitor Support will und generell einen Hang zu Extravaganten hat.
Und das ist mir zu teuer. Bis die Karte bezahlbar wird steht shcon GF6 und co. in den Startlöchern und dann wird grad die GF5 bezahlbar und die ist sicher um längen schneller als die Parhelia.
Ich bin kein NV-Fan aber ich bin ein Fan von guter Preformance zu günstigem Preis und auf schnick schnack kann ich verzeichten also Bleibt nur NV oder ne Abgespeckte ATI
Originally posted by ow
Lachhaft!
Du weisst doch ganz genau, dass der Parhelia nur 2-3% der Pixel glaettet und daher ueberhaupt kein erhoehter Bandbreitenbedarf besteht.
Wieviel die hohe Bandbreite bringt sieht man ja , wenn der Parhelia 4xAA Supersampling macht. Naemlich garnichts. ow, Supersampling kostet kaum mehr zusätzliche Bandbreite als zusätzliche Füllrate. Parhelia ist bei 2x2 SS total füllratenlimitiert, daher die entsprechende Leistung (ist bei GeForce1/2 und Radeon nicht anders.)
Bei FAA besteht erhöhter Bandbreitenbedarf. Zum einen fallen pro Pixel letztlich doch noch Kontrollinformationen an, zum anderen fallen pro geglättetem Pixel gleich 16x soviel Daten an, die geschrieben und wieder gelesen werden müssen.
Kellwolf
2002-06-26, 10:49:03
Hmm, wenn ich egoshooter zocke kann ich persönlich auf FAA oder AA
geglätete Kanten nicht achten sonst ist wieder ein virtuelles Leben ausgehaucht....Also wie machtihr das das ihr unbedingt 16 X AA oder was auch immer an kantenlättung braucht um glücklich zu sein auch seht....also bei mittlerweile von den Grakas erzeugten 40 - 150 FPS
(vom Game abhängig) kann ich nicht auf Treppenstufen, Häuserwände,Tragflächen usw nicht achten, und um Standbilder anzuschauen kaufe ich mir keine Graka für 500 €....
Wozu is also ausser zum ICH MACHE 8xAA in jedem spiel (glaube kaum
das jeder seine geglätteten kanten sieht) da....mir sind gute Lichteffekte , Texturen und Performance wichtiger als AA...
Ich spiele auch in 1024 x 768 min. aufloesung habe aber auser Anti- oder Tril. Filterung nix an. WOZU KANTENGLÄTTUNG BEI EGOSHOOTERN...
MFG
Kellwolf
Originally posted by ow
Und ich sage: Garnichts ist Matrox bisher gelungen, also ist diese Aussage Unsinn. Ich meine, Matrox hat ein 16x FAA gebracht. Das ist zwar noch nicht gelungen zu nennen, aber das meiste wird bereits geglättet.
Außerdem rendert Matrox auch insofern schönere Pixel, da infolge der erhöhten Rechengenauigkeit weniger Colorbanding anfällt, womit ich auf der GF4 bereits zu kämpfen habe!
Originally posted by Kellwolf
WOZU KANTENGLÄTTUNG BEI EGOSHOOTERN...Damit die Kanten glatter sind. (Ich spiele jedenfalls *alles* mit Anti-Aliasing.)
Birdman
2002-06-26, 11:03:10
Originally posted by Kellwolf
WOZU KANTENGLÄTTUNG BEI EGOSHOOTERN...
MFG
Kellwolf
Q3 @1024 mit 2xFSAA ein traum und erstmals möglich mit Gf4.
Sorry, aber wer mal so gespielt hat will nie mehr anders...das ganze kombiniert mit 85-120Hz vsync on ermöglicht ein absolut smoothes gamefeeling.
da meine Gf4 putt iss, muss ich zur zeit mit GTS2 vorlieb nehmen. da habe ich nu 800x600 ohne FSAA und muss fast kotzen vor kantenflimmern und "ruckeleien"....aber wer natürlich niemals das "bessere" gesehen hat, ist mit seinem "schlechteren" auch zufrieden.
Richthofen
2002-06-26, 11:12:28
ich spiele auch mit AA.
Trozdem überzeugt der Parhelia nicht.
AA läuft nit überall gescheit. Der große Vorteil zum 4x der GF ist für mich bisher nicht richtig ersichtlich.
Mal ist es besser mal nicht.
Denoch ist die Bandbreite überdimmensioniert. Das AA Verfahren spaart einiges an Bandbreite und dafür braucht man ganz sicher nicht 16 GB/s.
Entwicklungsressourcen auf Chip verteilt wäre besser gewesen.
Dazu kommt, das ich AA alleine grundsätzlich sowieso nicht gelten lassen.
Wenn dann gehört beides angeschalten. Rosinen rauspicken ist nicht.
Also AA + AF naja und da siehts ja ziemlich mau aus bis jetzt und da denke ich wirds wegen der geringen Füllrate mau bleiben oder wieso ist nur 2x AF freigeschalten?
Frameraten ohne diese Settings messen muss auch sein ist aber sicher nicht der Kaufgrund da stimme ich überein.
Allerdings kostet die Karte zwischen 400 und 500 Euro und da sollte sie einiges an Potential für die Zukuntf haben.
Umso erschreckender die Ergebnisse in Comanche4, Aquanox und UT2003 PFT. Dazu die Aussage von J.C das die Parhelia auf der Doom3 Engine ATI und NVs Ti4600 nicht erreicht. Alter diese Engine wird weit verbreitet sein und da abkacken ist fatal.
Da ist das Grundniveau teilweise so niedrig, da schaltet doch keiner mehr das FAA bzw AF an.
Von daher kann die Karte bis jetzt überhaupt nicht überzeugen. Absolut verfrühter Start und vor allem zu viel Tamm Tamm vorher um ehrlich gesagt "nicht viel".
Ich glaube man verpasst nix wenn man ne GF3Ti200, GF4Ti4200 oder ne Radeon8500 + LE nimmt statt ner Parhelia.
Ti4400 und 4600 sind momentan nicht erreicht und mit jedem Monate den die Treiberentwicklung braucht siehts schlechter aus.
Gegen R300 und NV30 wird der Parhelia eingehen wie ein Sack Kartoffeln das ist bereits jetzt nach der geringen Vorlage abzusehen.
Das witzige dabei ist, dass Leute, die schon fast professionell Q3, UT oder sonstwas zocken nicht am Pahelia vorbeikommen - denn man hat mit Surroundgaming eine wesentlich grösseren Sichtbereich und wesentlich bessere Übersicht im Spiel. Das ist ein ungemeiner Vorteil, der nicht zu unterschätzen ist.
Ich könnte mir Vorstellen, das dies auch in Onlinerollenspielen interessant ist. In allen Spielen mit PvP eben.
Haarmann
2002-06-26, 12:12:46
Ist schon witzig... alle argumentieren hier mit den 0815 Benches, wo wohl jeder Hersteller seine Treiber drauf "optimiert". Wer in Q3 schnell ist, muss noch lange nicht in RTCW oder MoHAA resp Jedi schnell sein. Alles die gleiche Engine und doch...
RTCW
http://www.ixbt.com/video/itogi-video/diag0502/overall-ath-xp-1024-w.png
Q3
http://www.ixbt.com/video/itogi-video/diag0502/overall-ath-xp-1024-qq.png
Matrox Treiber sind wohl noch nicht auf Benches optimiert - ergo langsamer. Mal abwarten, welche Treiber man am Ende mitgeliefert bekommt. Alleine die gute Leistung bei Z2 spricht Bände, da hier wohl kein Hersteller ne Optimierung für drinnen hat. Und ists wirklich sooo wichtig, bei Q3 maximal 400 fps zu haben?
P.S. Wenn Doom3 mal draussen ist, sieht man ja dann, wer wie schnell dort ist... vorher ist alles absolute Spekulation.
Piffan
2002-06-26, 12:12:55
Originally posted by HOT
Das witzige dabei ist, dass Leute, die schon fast professionell Q3, UT oder sonstwas zocken nicht am Pahelia vorbeikommen - denn man hat mit Surroundgaming eine wesentlich grösseren Sichtbereich und wesentlich bessere Übersicht im Spiel. Das ist ein ungemeiner Vorteil, der nicht zu unterschätzen ist.
Ich könnte mir Vorstellen, das dies auch in Onlinerollenspielen interessant ist. In allen Spielen mit PvP eben.
Wenn das Surroundgaming echt helfen soll, muß ja von dem System mehr dargestellt werden, also dreifache Last für Graka und dreifache Last für den Prozi/Speicher...... Wer ernsthaft annimmt, daß die Parhelia diese hohe Bürde tragen kann, ist blind oder will die Realität einfach nicht wahrhaben....Ich würde gerne mal sehen, wie UT aussieht, wenn das System dreifache Last bekommt...
Für den Allroundgamer ist der Parhelia bisher eine einzige Enttäuschung. Wahrscheinlich ist erst der nächste von Ati oder NV ein Grund, von meiner G3Ti200 umzusteigen. Bisher verpasse ich gar nix, kann auch alles mit FSAA und AF zocken....
Demirug
2002-06-26, 12:30:03
Originally posted by HOT
Das witzige dabei ist, dass Leute, die schon fast professionell Q3, UT oder sonstwas zocken nicht am Pahelia vorbeikommen - denn man hat mit Surroundgaming eine wesentlich grösseren Sichtbereich und wesentlich bessere Übersicht im Spiel. Das ist ein ungemeiner Vorteil, der nicht zu unterschätzen ist.
Ich könnte mir Vorstellen, das dies auch in Onlinerollenspielen interessant ist. In allen Spielen mit PvP eben.
Bei den professionellen und deshalb wohl auch bei den semiprofis wird ja schon Dualmonitor als cheat angesehen. Wenn die Spiele aber nicht extra darauf verbereitet werden finden ich Surroundgaming nicht so toll. Wenn das HUD sich über alle 3 Monitore verteilt wird mir das zu blöd.
LovesuckZ
2002-06-26, 12:33:41
Originally posted by Demirug
Wenn das HUD sich über alle 3 Monitore verteilt wird mir das zu blöd.
Ausserdem, wie soll man sich bei 3 Monitore denn richtig Konzentrieren? Vorallen bei leuten, die noch mit Texteinblendungen spielen, ist ein Moni von wertvollen Vorteil!
nocturne
2002-06-26, 12:35:25
Originally posted by Haarmann
Ist schon witzig... alle argumentieren hier mit den 0815 Benches, wo wohl jeder Hersteller seine Treiber drauf "optimiert". Wer in Q3 schnell ist, muss noch lange nicht in RTCW oder MoHAA resp Jedi schnell sein.
Der Parhelia ist aber in allen diesen Spielen gleich schlecht. ;)
Entsprechende Benchmarks zu Jedi Knight II gibt's z.B. bei http://www.tomshardware.de/ und http://www.sharkyextreme.com/
http://www.de.tomshardware.com/graphic/02q2/020625/images/image068.gif
http://www.sharkyextreme.com/img/2002/06/parhelia/jedi2_hq.jpg
Wenn man sieht, dass der Parhelia noch nicht mal an den alten GF3-Ti200 herankommt, ist das schon bitter.
Zumal der Parhelia fünfmal so viel kostet.
:tgv:
Unregistered
2002-06-26, 12:46:47
Matrox hat wieder mal ein Projekt in den Sand gesetzt. Die Parhelia-Graka sollte Matrox Wiedereinstieg in den 3D-Spiele-Performance-Grafikmarkt sein. Sicherlich wird noch durch Treiberoptimierung einiges möglich sein, nur:
Für die Verkaufschancen einer Graka ist die Qualität des Produkt (d.h. Geschwindigkeit und Bildqualität) bei Einführung in den Markt wichtig.
Da hat Matrox ganz klar versagt. Sie liegt derzeit weitestgehend mit der ATI Radeon 8500 gleichauf. Das zum doppelten Preis. Von der Vergleichskarte NVidia Geforce 4 wird sie in allen relevanten Benchmarks inkl. FSAA in Grund und Boden gerannt.
- Ich verstehe die Leute bei Matrox nicht. Wollen die 3dfx nachahmen? Bei NVidia haben sich sicherlich alle Mitarbeiter im größten zur Verfügung stehenden Raum getroffen, um sich gemeinsam von Lachkrämpfen geschüttelt auf dem Boden zu wälzen.
Wie kann man nur so geschäftlich dämlich sein. Unfertige Treiber (inkl. DOS-VESA-Bug) und gemessen am Aufwand bescheidene Leistung. Geschäfts-Harakiri.
Roberts
Doomtrain
2002-06-26, 12:49:58
Originally posted by Unregistered
Wie kann man nur so geschäftlich dämlich sein. Unfertige Treiber (inkl. DOS-VESA-Bug) und gemessen am Aufwand bescheidene Leistung. Geschäfts-Harakiri.
Matrox verdient seit 25 Jahren Geld, viel Geld. Und sie werden auch weiterhin viel Geld verdienen.....
Originally posted by Piffan
Wenn das Surroundgaming echt helfen soll, muß ja von dem System mehr dargestellt werden, also dreifache Last für Graka und dreifache Last für den Prozi/Speicher...... Wer ernsthaft annimmt, daß die Parhelia diese hohe Bürde tragen kann, ist blind oder will die Realität einfach nicht wahrhaben....Ich würde gerne mal sehen, wie UT aussieht, wenn das System dreifache Last bekommt...Die Last verdreifacht sich in der Praxis nicht. Außerdem kann man auch Geometrie- und Texturdetails runterschrauben und hat vermutlich immer noch ein "besseres" Erlebnis als mit nur einem Bildschirm. Die Anforderungen an Surround Gaming bleiben natürlich beträchtlich, so dass keine Spitzenframeraten zu erwarten sind. (Doch Engines wie die von UT2003 skalieren ja ziemlich gut, wenn man auf Details verzichtet sollte Surroundgaming zu machen sein.)
Letztlich wird es wegen der geringen Verbreitung ein Gag á la TruForm werden.
Originally posted by Piffan
Für den Allroundgamer ist der Parhelia bisher eine einzige Enttäuschung. Wahrscheinlich ist erst der nächste von Ati oder NV ein Grund, von meiner G3Ti200 umzusteigen. Bisher verpasse ich gar nix, kann auch alles mit FSAA und AF zocken.... Aber dein FSAA löst die Achsen jeweils nur doppelt und nicht vierfach so fein auf... (Dafür kannst du schon jetzt 4x oder 8x AF nutzen, was auf Parhelia noch nicht freigeschaltet ist.)
InsaneDruid
2002-06-26, 13:35:19
warum in aller welt sollte man sich auf 3 Monitoren gleichzeitig low Details ansehen wollen? :)
Surround Gaming wär cool, alledings eher für Flugsims etc, wo mehr Sicht mehr Feel für die Situation ergibt, für FPS brauchts so dringend kein Surround Gaming, imho, zumindest nicht wenns dabei noch grottigere Frameraten gibt.
Weiterhin sollte man bedenken, für Surround Gaming brauch es ne Parhelia und 3 Monitore, und für dieses Geld is die gebotene Leistung nie und nimmer auch nur ansatzweise angemessen.
Darum geht es nicht. Mit Sorround Gaming hast du schlichtweg einen Vorteil gegenüber denen, die das nicht haben. Gut, man muss die Monitore weiter weg stellen, um sich nicht pausenlos hin und herdrehen zu müssen. Das FAA passt auch dazu, da es sehr wenig Leistung frisst. Der Pahelia ist auf konstante Framerates ausgelegt bis in höchste Auflösungen hinein. Das Ding ergibt schon insgesamt einen Sinn.
Matrox versucht in erster Linie Profis und Profispieler damit anzusprechen, das sieht man deutlich am Preis.
nocturne
2002-06-26, 13:54:57
Originally posted by InsaneDruid
warum in aller welt sollte man sich auf 3 Monitoren gleichzeitig low Details ansehen wollen? :)
Weil es die PR-Abteilung und aths so wollen. ;)
Also IMHO ist das FAA des Parhelia momentan unbrauchbar. Da können 95% der Kanten butterweich geglättet sein, umso mehr springen die nicht geglätteten Kanten sofort ins Auge. Zumal auf ein paar Screenshots richtige Kantenfehler zu sehen sind.
Originally posted by Doomtrain
Matrox verdient seit 25 Jahren Geld, viel Geld. Und sie werden auch weiterhin viel Geld verdienen.....
Sagt wer? WO gibt's denn offizielle Zahlen dazu, was Matrox verdient?
Mit dem Parhelia ist ganz sicher nichts zu verdienen.
Originally posted by Xmas
Also IMHO ist das FAA des Parhelia momentan unbrauchbar. Da können 95% der Kanten butterweich geglättet sein, umso mehr springen die nicht geglätteten Kanten sofort ins Auge. Zumal auf ein paar Screenshots richtige Kantenfehler zu sehen sind.
Jep. Selbiges hab ich in ein paar Postings auch schon geschrieben.
Es braucht also keiner hier mit "super Performance bei 16xAA" zu kommen, solange das FAA so schrottig ist.
Doomtrain
2002-06-26, 14:52:19
Originally posted by ow
Sagt wer? WO gibt's denn offizielle Zahlen dazu, was Matrox verdient?
Mit dem Parhelia ist ganz sicher nichts zu verdienen.
Ha, meinst du eine Graka kostet in der Herstellung mehr als 150€? Die machen saftigen Gewinn an allem was sie herstellen. Dazu brauchst du keine Beweise, sondern nur die Tatsache, das diese Firma schon länger als alles andere (NV, 3dfx...) besteht. Oder glaubst du etwa die G550 war ein Flop? Ein Verkaufsschlager war diese lahme Ding (Bei Profis und für BüroPCs)...Ohne Einahmen könnte sich Matrox wohl kaum die Entwicklung einer solchen Graka (P512) leisten!!!
Der Parhelia ist viel zu teuer in der Herstellung und wird nur wenige Abnehmer finden, Matrox kann froh sein, wenn sie die Entwicklungskosten wieder reinholen.
btw. dass Matrox Karten schon immer ueberteuert waren duerfte kein Geheimnis sein.
Doomtrain
2002-06-26, 15:10:15
Originally posted by ow
Der Parhelia ist viel zu teuer in der Herstellung und wird nur wenige Abnehmer finden, Matrox kann froh sein, wenn sie die Entwicklungskosten wieder reinholen.
btw. dass Matrox Karten schon immer ueberteuert waren duerfte kein Geheimnis sein.
Wenige Abnehmer ist mir zu relativ. Die haben schon ihren Markt.
ATI und NV den Maintream und die Zocker, MGA und 3DLabs den Rest.(Ein großer Rest)
PS: Ein billiger Mercedes ist auch überteuert und bringt schlechte Fahrleistungen.
Originally posted by ow
Es braucht also keiner hier mit "super Performance bei 16xAA" zu kommen, solange das FAA so schrottig ist.
Völlig richtig.
StefanV
2002-06-26, 15:50:04
Originally posted by ow
Sagt wer? WO gibt's denn offizielle Zahlen dazu, was Matrox verdient?
Mit dem Parhelia ist ganz sicher nichts zu verdienen.
1. es gibt keine Offiziellen Zahlen von MGA!!
2. Ach, woher willst du das wissen??
Weißt du denn, wieviel die Herstellung kostet??
Leonidas
2002-06-26, 17:15:22
Originally posted by Piffan
Wenn das Surroundgaming echt helfen soll, muß ja von dem System mehr dargestellt werden, also dreifache Last für Graka und dreifache Last für den Prozi/Speicher...... Wer ernsthaft annimmt, daß die Parhelia diese hohe Bürde tragen kann, ist blind oder will die Realität einfach nicht wahrhaben....Ich würde gerne mal sehen, wie UT aussieht, wenn das System dreifache Last bekommt...
Widerspruch. 3x 800x600 ist eine kleinere Last als 1600x1200 ...
Leonidas
2002-06-26, 17:16:44
Originally posted by Demirug
Bei den professionellen und deshalb wohl auch bei den semiprofis wird ja schon Dualmonitor als cheat angesehen. Wenn die Spiele aber nicht extra darauf verbereitet werden finden ich Surroundgaming nicht so toll. Wenn das HUD sich über alle 3 Monitore verteilt wird mir das zu blöd.
Deshalb habe ich das auch nicht propagandiert: Sollte sich das durchsetzen, werden die großen Ligen das für Tunierspiele verbieten, da es einen enormen Mehrnutzen bedeutet.
Originally posted by Doomtrain
ATI und NV den Maintream und die Zocker, MGA und 3DLabs den Rest.(Ein großer Rest)
Und welcher Rest soll das sein? Für Matrox bleibt eigentlich nur der "Profi-2D-Markt" übrig, und groß kann der bei weitem nicht mehr sein. Der Parhelia ist/war für Matrox die Chance mal (wieder) in ein größeres Marktsegment einzusteigen und diesen Schritt werden die nicht ohne Grund zu gehen beabsichtigen.
Ausserdem denke ich sehr wohl dass der Parhelia astronomisch hohe Kosten (im Vergleich zur Konkurrenz) für Matrox bedeutet, dafür sprechen folgende Gründe:
- 80Mio. Transistoren (bei 150nm-Prozess)
- 256Bit-Speicherinterface
- sehr hohe Fixkosten (die Entwicklungskosten dürften auch überdurchschnittlich hoch gewesen sein, da der Parhelia eine KOMPLETTE Neuentwicklung sein muss und nicht wie bei der Konkurrenz eine Weiterentwicklung bestehender Technik sein kann)
Demirug
2002-06-26, 17:38:36
Und der Profi 2d markt hat noch eine Tücke. Es ist eines der letzten großen Kampfgebieten zwischen PC und MAC. Hat Natrox eine MAC Karte geplant?
Originally posted by Leonidas
Widerspruch. 3x 800x600 ist eine kleinere Last als 1600x1200 ... 3x 800x600 ist eine (etwas) größere Last als 1600x1200. Unterstellt man allerdings, dass der Hauptteil der Action auf dem Center-Monitor dargestellt wird, hast du letztlich recht.
Originally posted by Ikon
(die Entwicklungskosten dürften auch überdurchschnittlich hoch gewesen sein, da der Parhelia eine KOMPLETTE Neuentwicklung sein muss und nicht wie bei der Konkurrenz eine Weiterentwicklung bestehender Technik sein kann) Nun, sie werden vielleicht Teile des G800 wiederverwertet haben, sofern sich die nicht geheadhunteten Ingenieure noch an ihn erinnerten.
Doomtrain
2002-06-26, 19:08:01
Originally posted by aths
Nun, sie werden vielleicht Teile des G800 wiederverwertet haben, sofern sich die nicht geheadhunteten Ingenieure noch an ihn erinnerten.
Ich behaupte mal, der Parhelia ist praktisch aus dem G800 entstanden. *geheadhuntet* Cooles Wort!
zeckensack
2002-06-26, 19:12:27
Originally posted by aths
3x 800x600 ist eine (etwas) größere Last als 1600x1200. Unterstellt man allerdings, dass der Hauptteil der Action auf dem Center-Monitor dargestellt wird, hast du letztlich recht. ???
3x800x600 macht 1,44Mio Pixel.
1600x1200 macht 1,92Mio Pixel.
Natürlich kann bei Surround-Gaming weniger Geometrie vor der Darstellung durch Culling verworfen werden. Ich würde es ein Unentschieden nennen :)
Möglich, aber gab es überhaupt jemals offizielle Informationen oder zumindest eine Bestätigung der Existenz G800-Projektes von Matrox?
Demirug
2002-06-26, 19:19:50
Originally posted by zeckensack
???
3x800x600 macht 1,44Mio Pixel.
1600x1200 macht 1,92Mio Pixel.
Natürlich kann bei Surround-Gaming weniger Geometrie vor der Darstellung durch Culling verworfen werden. Ich würde es ein Unentschieden nennen :)
Das Teil hat 4 Vertexshader bei 220Mhz == 1.4 fache Leistung der GF4. Wegen der geometrie würde ich mir da mal keine sorgen machen.
Piffan
2002-06-26, 19:36:53
Originally posted by aths
3x 800x600 ist eine (etwas) größere Last als 1600x1200. Unterstellt man allerdings, dass der Hauptteil der Action auf dem Center-Monitor dargestellt wird, hast du letztlich recht.
Ich sprach von der dreifachen Last für das ganze System: Proz- Mehrlast, mehr Betrieb auf dem AGP, mehr Speicherumsatz usw..... Es ist ja nicht einfach mal damit getan, die Pixelzahlen zu verrechnen... Nehmen wir mal eine Luftkampfsim: Da ist es wohl eher nicht entscheident, in welche Richtung ich sehe, da wird wohl überall was zu berechnen sein...Oder bei Aquanox (doofes Spiel, aber zur Illustration wohl geeignet, ist auch überall Action!)
Wer zum Teufel will eigentlich in 800x600 zoggen, dafür dann aber drei (!) Monitore um sich herum aufbauen? Selbst wenn mir die Knete egal wäre, wäre ich nicht bereit, solch einen Larry zu Hause haben zu wollen. Und schon gar nicht, wenn ich auf eine Lan gehe...Aber für etliche Lacher würde es schon sorgen, also wäre das Geld nicht völlig sinnlos verpulvert ;)
zeckensack
2002-06-26, 19:37:26
Originally posted by Demirug
Das Teil hat 4 Vertexshader bei 220Mhz == 1.4 fache Leistung der GF4. Wegen der geometrie würde ich mir da mal keine sorgen machen. Ich mache mir nur Sorgen, wie man einen 170° x 60° Blickbereich noch ordentlich cullen will. Jedenfalls dann, wenn man keinen Bock hat, mit Ellipsoid verformten Kegeln zu rechnen ...
Ein Spatz auf meinem Dach hat mir erzählt, daß die gängige 'moderne' Methode für's culling auf einem Kreiskegel beruht. Da kriegt man nicht mehr viel weg, wenn man den Sichtbereich beinahe auf 180° hochdreht ...
Demirug
2002-06-26, 19:50:07
Originally posted by zeckensack
Ich mache mir nur Sorgen, wie man einen 170° x 60° Blickbereich noch ordentlich cullen will. Jedenfalls dann, wenn man keinen Bock hat, mit Ellipsoid verformten Kegeln zu rechnen ...
Ein Spatz auf meinem Dach hat mir erzählt, daß die gängige 'moderne' Methode für's culling auf einem Kreiskegel beruht. Da kriegt man nicht mehr viel weg, wenn man den Sichtbereich beinahe auf 180° hochdreht ...
Das mit den Kreiskegeln hab ich mir ganz schnell abgewöhnt. Das bleit auch beim "normalen" Sichtbereich zuviel unnötiges übrig.
Im Moment benutze ich 6 Ebenen im Raum die den Sichtbereich bschränken. Nun wird einfach noch das Umgebungsvolumen der Objekte(Kugeln gehen am schnellsten) gegen jede Ebene gebrüft. Schneidet das Volumen eine Ebene oder liegt das Volumen immer hinter der ebene muss es gerendert werden. Ist ziemlich gut und schnell und man bekommt auch noch gleich einen LOD Wert.
zeckensack
2002-06-26, 20:04:03
Originally posted by Demirug
Im Moment benutze ich 6 Ebenen im Raum die den Sichtbereich bschränken. Nun wird einfach noch das Umgebungsvolumen der Objekte(Kugeln gehen am schnellsten) gegen jede Ebene gebrüft. Schneidet das Volumen eine Ebene oder liegt das Volumen immer hinter der ebene muss es gerendert werden. Ist ziemlich gut und schnell und man bekommt auch noch gleich einen LOD Wert. Das ist sicherlich eine gute Methode und vor allem hat sie keine Probleme mit assymetrischen Blickfeldern.
Trotzdem behaupte ich, wenn das Blickfeld weitgehend symmetrisch ist (4:3 ist ok) und sehr viel Software-Culling betrieben wird (ein paar zigtausend Tests pro Frame), dann ist der Kreiskegel besser. Auf Spiele trifft das natürlich idR nicht zu, nur so als Gedanke.
Wird langsam etwas OT, aber wir haben ja jetzt ein Progger-Forum =)
StefanV
2002-06-26, 20:30:39
Originally posted by aths
Nun, sie werden vielleicht Teile des G800 wiederverwertet haben, sofern sich die nicht geheadhunteten Ingenieure noch an ihn erinnerten.
Nein, das denke ich weniger.
Das, was von der G800 übrig geblieben ist, ist die G550.
AFAIK war die G800 ein Chip, der auf dem G400 Core basierte, was der Parhelia ja definitiv nicht ist.
Quasar
2002-06-26, 20:46:06
Originally posted by Leonidas
Bezüglich der Parhelia: Überzeugt. Aber der GF4 Besitzer: Wird der wirklich die niedrigste Stufe nehmen, wenn er 2x, 4x und 8x zu Auswahl hat?
Also, wenn ich ehrlich bin, benutze ich meistens 2xAF, dafür aber 'ne höhere Initialauflösung und manchmal ein wenig FSAA.
4x und 8x verwende ich nur in sehr CPU-Limitierten Games.
Quasar
2002-06-26, 20:48:44
Was Surround-Gaming angeht, so habe ich vorerst noch meine Zweifel. Das gab's diese SCreenies irgendwo in nem Forum, von Q3/UT/JK" oder wasweissich. Das Sichtfeld war deutlich größer und bot mit Sicherheit auch spielerisch einen Vorteil, aber der linke und rechte Monitor zeigte die Geometrie, und insbesondere den Boden stark verzerrt an.
Das wird aber wohl noch gefixt mit neuen Treibern oder zumindest mit neuen Games.
zeckensack
2002-06-26, 21:18:15
Originally posted by Quasar
Was Surround-Gaming angeht, so habe ich vorerst noch meine Zweifel. Das gab's diese SCreenies irgendwo in nem Forum, von Q3/UT/JK" oder wasweissich. Das Sichtfeld war deutlich größer und bot mit Sicherheit auch spielerisch einen Vorteil, aber der linke und rechte Monitor zeigte die Geometrie, und insbesondere den Boden stark verzerrt an.
Das wird aber wohl noch gefixt mit neuen Treibern oder zumindest mit neuen Games. Ich denke, das liegt daran, daß die drei Monitore ums Eck stehen sollen. Dann ist's wieder richtig.
Surround Gaming (nettes Marketing-Wort) scheint nicht dafür gedacht zu sein, einen flachen 3xxx*768 Moni anzusteuern. Man soll ja gerade Dinge sehen, die auch neben der Kamera passieren, sonst wär's kein Surround (den Spieler umgebend), sondern Widescreen.
nggalai
2002-06-26, 21:31:58
*Zeckensack-zustimm*
Die Verzerrungen sind gewollt und machen auch Sinn--die beiden Seiten-Monitore beim Surround Gaming sollen den Blickwinkel aus den Augenwinkeln simulieren.
Und soll angeblich hervorragend funktionieren, nach kurzer Eingewöhnungsphase. Ich kann mir das nicht so richtig vorstellen, aber, eh. We'll see.
ta,
-Sascha.rb
Demirug
2002-06-26, 21:48:17
Originally posted by nggalai
*Zeckensack-zustimm*
Die Verzerrungen sind gewollt und machen auch Sinn--die beiden Seiten-Monitore beim Surround Gaming sollen den Blickwinkel aus den Augenwinkeln simulieren.
Und soll angeblich hervorragend funktionieren, nach kurzer Eingewöhnungsphase. Ich kann mir das nicht so richtig vorstellen, aber, eh. We'll see.
ta,
-Sascha.rb
Mit einem Flugsim sieht es nicht schlecht aus. Der von MS ist aber extra dafür ausgelegt und erzeugt 3 Bilder die jeweils einen eigene Kamera haben. Wenn du aber mal richtiges Surround Gaming haben willst must du mal in einen Handfeuerwaffentrainingsraum der Bundeswehr.
Leonidas
2002-06-26, 21:49:48
Originally posted by aths
3x 800x600 ist eine (etwas) größere Last als 1600x1200. Unterstellt man allerdings, dass der Hauptteil der Action auf dem Center-Monitor dargestellt wird, hast du letztlich recht.
???
1600x1200 = 1.92 Mill
3 x 800x600 = 2400x600 = 1.44 Mill.
Leonidas
2002-06-26, 21:52:20
Fürn Profispieler ist SG genial: Fov auf 120 hoch und schon hat man einen 360-Grad-Rundumblick und niemand greift mehr von hinten an ...
turboschlumpf
2002-06-26, 22:33:23
ui, das hat gedauert bis ich diesen thread durchgelesen hatte.
sind wir mal ALLE ehrlich.
parhelia ist (leider?) ein flopp.
vorher wurde er als gf4 oder sogar nv30 killer gehypet,
jetzt ist er gerade mal auf gf3 ti500 niveau, höchstens.
und da können neue treiber auch nichtmehr viel dran ändern.
10%, 20% vielleicht, aber keine 100+ % mehrleistung.
wie die theoretischen specs ausgenutzt werden ist geradezu lächerlich.
und auch wenn das aa und af praktisch for free ist bringt mir das nix wenn die leistung ohne diese features schon unter aller sau ist.
wie das mit den höheren af modi gelöst wird muss man noch sehen.
aber auch das faa ist imho schrott.
selbst wenn es 128x aa wäre bringt es nix wenn auch nur eine einzige kante nicht geglättet wurde.
und dafür dass nur ein paar prozent des bildes überhaupt geglättet werden ist der performance verlust zu hoch.
ausserdem finde ich es ziemlich lustig wie manche leute ihren parhelia nun mit allen mitteln verteidigen und die schlechten leistungen mit irgend welchen an der haaren herbeigezogenen argumenten rechtfertigen wollen.
Haarmann
2002-06-26, 22:48:20
Die Parhelia kann das, wofür sie gebaut wurde, und nicht das, wozu sie viele Leute machen wollen ...
Ich werd Spass an der Karte haben, weil ihre Features Spass machen.
P.S. Ich geb 100 mal mehr auf Surround Gaming, denn auf nen 1 mio Score bei 3dmark ;)
Originally posted by Leonidas
Fürn Profispieler ist SG genial: Fov auf 120 hoch und schon hat man einen 360-Grad-Rundumblick und niemand greift mehr von hinten an ...
Da muss ich dich leider enttäuschen, das funktioniert so nicht.
Es wird ja weiterhin nur eine Ansicht gerendert die über drei Schirme gestretcht wird. Und bei einer Ansicht ist das maximale FOV < 180°, weil man ja eine Projektionsebene hat und nur Objekte berücksichtigen kann die hinter dieser Ebene liegen.
Man könnte theoretisch auch drei Ansichten rendern, aber das würde deutlich mehr Performance fressen und je nach Bildschirmanordnung etwas "seltsam" aussehen (bzw. man müsste einiges berücksichtigen, damit es "richtig" aussieht.
InsaneDruid
2002-06-26, 23:00:23
Nur mal wegen den "Profi" Gamern für die eine Parhelia angeblich so ideal sein soll: Schonmal den Satz "Framerate is Life" gehört? Und damit sind sicher NICHT 30-40 FPS gemeint, sondern 100-200.
Ich finde die "Grundleistung" der Karte ist einfach viel zu schwach. Was nützt ein FAA das "nur wenige Prozent" Einbuße mit sich bringt wenn der Ausgangswert so niedrig ist?
turboschlumpf
2002-06-26, 23:49:25
Originally posted by Haarmann
Die Parhelia kann das, wofür sie gebaut wurde, und nicht das, wozu sie viele Leute machen wollen ...
nur wollten fast alle die karte zum ultimativen gf4 killer machen.
und wofür wurde sie denn gebaut??
dass die frameraten beim hinzuschalten von aa und af KONSTANT auf einem VIEL ZU NIEDRIGEN niveau bleiben??
naja, und die bild- bzw signalqualität sowie die guten treiber wurden auch angepriesen, denn wenn matrox draufsteht kann es ja nur hammergeil sein.
naja, pustekuchen sag ich nur :lol:
Richthofen
2002-06-27, 00:16:59
sagen wir mal so:
Matrox hat gesagt das sie kein GF4Ti4600 Killer wird aber sie haben in ihren PR Papers auch fett losgelegt und davon ziemlich wenig gehalten.
Tolle BQ?? Naja ich würde sagen jede GF3/4Ti und R200 Karte ist da momentan eindeutig besser.
Surroundgaming naja.. also für nen Flightsim ist das sicher ne feine Sache.
Für 3D Shooter eher nicht.
1. Brauch ich bei 3DShootern meine 100fps oder mehr je nach Engine - zumindest als Profispieler
2. Sehe ich sowas als Cheat an und gehe davon aus, das es auf sämtlichen wichtigen Geldtunieren auf LANs verboten wird.
Kann man das eigetlich Serverseitig abstellen per Variable?
Wenn nicht, muss man sich in den Onlineligen was einfallen lassen.
Jedenfalls gehört es da nicht rein. Denke schon das viele Ligen was machen werden dagegen.
Also hast Surroundgaming nur für deinen Spass daheim evtl mit paar Flusis oder Autosims.
Naja aber auch die Leute wollen neue Spiele zocken können und das was Comanche4, Aquanox, UT2003 und J.C. sagen, sieht es da bitter aus.
Glaube kaum das da viel zu machen ist. Auch 30% Steigerung werden nicht helfen. Immer im Hinterkopf halten das sowohl ATI als auch NV ihre DX8er beschleunigen werden nochmal und NV immer noch 33% AF Performance in Direct3D in Reserve hat.
Gegen die DX9 Karten NV30 und R300 wird der Parhelia abkacken - no Chance.
Da die Performance Vorlage jetzt schon so schlecht ist werden die meissten eh auf NV30/R300 warten oder die die nicht warten können irgendeine billige GF3Ti200, Ti500, GF3 normal, GF4Ti4200 oder 4400er kaufen oder eben R200 Derivate.
Ich würde sagen die Zukunft des Parhelia ist mehr als dunkel.
Radeonator
2002-06-27, 00:19:29
Egal was ihr macht, durch schönreden wird die Parhelia auch nicht das, als was sie vollmundig angekündigt wurde, ein Gamers Card.Ich hätte mich für Matrox gefreut, wenn Sie es geschaft hätten, aber es ist wohl leider so wie TS und andere in ihren Postings gesagt haben , ein FLOPP!!
Es muss schon ein mittleres bis großes Wunder geschehen, um diese lahmende Karte zu einer Highend zu machen.Auch die 3d-Bildquali ist net halb so gut wie angekündigt.
Also für den Preis eine solch mittelklassige Karte, ne, das lasse mer lieber :P
p.s.: Ehm, ein Banbreiten schonendes Features bei einer 256Bit speicher Anbindung...hallo?gehts sonst noch???
Leonidas
2002-06-27, 00:26:40
Originally posted by Xmas
Da muss ich dich leider enttäuschen, das funktioniert so nicht.
Es wird ja weiterhin nur eine Ansicht gerendert die über drei Schirme gestretcht wird. Und bei einer Ansicht ist das maximale FOV < 180°, weil man ja eine Projektionsebene hat und nur Objekte berücksichtigen kann die hinter dieser Ebene liegen.
Gut. Dann eben Fov=360. Q3A unterstützt meines Wissens nach auch dieses.
Originally posted by Leonidas
Gut. Dann eben Fov=360. Q3A unterstützt meines Wissens nach auch dieses.
Wenn OpenGL das nicht unterstützt (was auch keinen Sinn machen würde), kann es Quake3 natürlich auch nicht unterstützen...
Die Geometrie wird auf eine Ebene (Bildschirm) projeziert, mathematisch kommt bei einem FOV von >= 180° auch nichts sinnvolles raus.
Doomtrain
2002-06-27, 01:13:27
Originally posted by Radeonator
Egal was ihr macht, durch schönreden wird die Parhelia auch nicht das, als was sie vollmundig angekündigt wurde, ein Gamers Card.
Es muss schon ein mittleres bis großes Wunder geschehen, um diese lahmende Karte zu einer Highend zu machen.Auch die 3d-Bildquali ist net halb so gut wie angekündigt.
p.s.: Ehm, ein Banbreiten schonendes Features bei einer 256Bit speicher Anbindung...hallo?gehts sonst noch???
Es stellt sich immer noch die Frage, warum der Parhelia so lahmt!
1) Treiber, OK, das hatten wir schon.
2) Brandneue Architektur, klar, wenn ich ein Spiel extra für den Parhelia machen würde (oder einen Benchmark) dann würde JEDE andere Karte sterben. Ich will die mittelmäßige Leistung ja echt nicht schönreden, aber alle Spiele werden zur Zeit für GeForce und Radeon gemacht.
3) Die Parhelia sollte echt nicht Bandbreitenlimitiert sein, auch ohne LMA oder HyperZ.
Die Zeit wirds zeigen, wie immer.
N8
Unregistered
2002-06-27, 04:01:59
Hier gibts nen interessantes Review: www.icrontic.com.
Besonders die Triple-Head Werte find ich interessant.
Auch sieht man mal wie vernünftige Treiber aussehen (ja ich weiss haben noch viele bugs, aber wenn ich da an das gekrampfe mit twin-view bei nvidia denke......)
Die Karte liegt also so um die Werte von ner Radeon 8K5. Ich find das ok. Da werden im laufe der Zeit noch nen paar Frames durch a: bessere Treiber und B: Engine anpassungen rüberkommen. Denn was machen viele Engines/Demos die nicht speziel angepasst sind/bzw den Chip noch nicht kennen? Schalten bei einigen Sachen zurück. Wie z.B. Singlepass/Multipass rendering usw.
Viele dieser 3DMark-Kieddies hier sollten mal daran denken das es noch was anderes gibts als Gamen am PC.
Alle Leute die sich mit Cad/Cam/Modelling usw beschäftigen werden sich freuen. Und auch für die die mal Videobearbeitung machen, wie ich, ist diese Karte echt geil. 2*Hardwareoverlays + 1*Software. Wer bietet mehr?
Und fürn spielchen zwischendurch reichts immer noch dicke.
@Unreg
Das von dir angegebene Review zeigt nur einmal mehr: der Parhelia kann nicht mal mit einer Radeon8500/128MB mithalten (ausgenommen AA). Bessere Treiber kommen sicher noch - kein Thema, aber ich denke (wirkliche) Engine-Optimierungen kann man mit der Parhelia ziemlich abschreiben, sofern kein ordentlicher Anteil der User selbige nutzen wird (wonach es nicht gerade aussieht). Und Anpassungen in Spielen und Benchmarks sollte man hier ebenfalls nicht einrechnen, da auch die andere Konkurrenz wie z.B. ATI dmit leben kann/muss (da müssen eher die Treiber an die jeweilige Software angepasst sein). Die 2D-Features der Parhelia kannst du übrigens größtenteils auch mit einer G400/G550 haben (und auch eine wesentlich bessere Signalqualität wenn wir schon von 2D reden). Es ist schön, wenn dir die 3D-Leistung einer Radeon8500 beim Parhelia reicht (und du bereit bist 450 Euro dafür hinzulegen). Das Problem ist mehr, dass die Parhelia (eher) eine Gamer-Karte werden sollte und auf dem Papier einer GF4-Ti4600 mehr als deutlich überlegen sein müsste, aber in der Praxis diese absolut nicht zu erreichen vermag.
Haarmann
2002-06-27, 08:49:54
Ikon
Dir Parhelia ist aufm Papier eben keiner Ti4600 gewachsen.... 300 vs 220 MHz - da gewinnen nunmal die 300 - erst wenn die Matrox ihre 4 Textureinheiten ins Spiel bringt, wird da was gehen, dann stehts quasi 440 zu 300 und bei 3 nur 330 zu 300 für Matrox. Wer also bei den bisherigen 2 Textur Spielen schon Wunder erwartet, der war ist einfach naiv.
Interessant wirds erst, wenn die Games komplexer werden. Dann zeigt sich, ob noch spielbar oder eben ob man Details raus nehmen muss. Bis jetzt reicht die Leistung zum Gamen - in nem Jahr sehen wirs dann, wie gut die Karte mit den neuen Games läuft.
Originally posted by Doomtrain
Es stellt sich immer noch die Frage, warum der Parhelia so lahmt!
1) Treiber, OK, das hatten wir schon.
2) Brandneue Architektur, klar, wenn ich ein Spiel extra für den Parhelia machen würde (oder einen Benchmark) dann würde JEDE andere Karte sterben. Ich will die mittelmäßige Leistung ja echt nicht schönreden, aber alle Spiele werden zur Zeit für GeForce und Radeon gemacht.
3) Die Parhelia sollte echt nicht Bandbreitenlimitiert sein, auch ohne LMA oder HyperZ.
Die Zeit wirds zeigen, wie immer.
N8
1) ja.
2) Spiele werden fuer DX oder OGL programmiert aber nicht fuer Grafikchips (wobei OGL mit den Extension da eine kleine Ausnahme macht).
3) Wenn das RAM Interface ineffizient arbeitet, dann bleibt von den theoretischen Specs nicht mehr viel an nutzbarer Bandbreite uebrig.
Unregistered
2002-06-27, 10:13:21
Originally posted by ow
2) Spiele werden fuer DX oder OGL programmiert aber nicht fuer Grafikchips (wobei OGL mit den Extension da eine kleine Ausnahme macht).
Löle. ow, stell Dich doch nicht immer dümmer als Du bist...
@doomtrain
Matrox hätte das beim Design halt bedenken sollen.
Originally posted by Leonidas
???
1600x1200 = 1.92 Mill
3 x 800x600 = 2400x600 = 1.44 Mill. :D Ich hab mich beim Rechnen böse vertan, hast natürlich recht.
Demirug
2002-06-27, 10:22:18
Also durchgängig können die Treiber gar nicht so schlecht sein (Abstürze und sowas mal unberücksichtig)
Beim 3dMark Fillratetest (Single) erreicht er immerhin 85% Leistung (NVidia 89%, ATi 70%). Was allerdings verwundert ist das er sich beim Multitexturing nicht steigern kann er verliert sogar. (Matrox 70%, NVidia 96%, ATi 84%). Das deutet auf ein ernsthaftes Problem mit dem Texturespeicher hin da ja scheinbar Latenzen entstehen. Unter umständenden wurde der Chipinterne Texturecache zu klein ausgelegt und die TMUs hängen deshalb zu stark am Speicherbus. Läst sich das mit dem Treiber gerade biegen?
Das ist schwer zu sagen da Matrox ja keine Informationen über den Memorycontroller und Cachegrössen preisgibt. NVidia kann durch geschickten Einsatz der XBar den datenfluss zum Chip optimieren. Inwieweit aber der Controller von Matrox sowas zuläst ist unbekannt.
nggalai
2002-06-27, 10:32:14
Hi zusammen,Originally posted by Demirug
Also durchgängig können die Treiber gar nicht so schlecht sein (Abstürze und sowas mal unberücksichtig)Die Sache mit den Abstürzen, die Leo hatte, und anderer Hänger/Bildfehler lässt mir echt keine Ruhe. In anderen Reviews war das echt nie so schlimm (oder wurde unter den Teppich gekehrt?). ein Unreg hat im OpenGL-Treiber-Thread ein paar der Aussagen der Testseiten zusammengefasst:Also erstmal Anandtech
"The majority of today's games worked just fine, and Unreal Tournament 2003 actually ran with fewer bugs than the Radeon 8500 with the latest CATALYST drivers."
Tom's Hardware
"In den Tests lief der Treiber bis auf zwei nicht reproduzierbare Bluescreens erfreulich stabil. Lediglich im Spiel Aquanox waren Bildfehler zu erkennen, die bei der Darstellung der Wasserpflanzen auftraten. ATIs Radeon 8500 litt auch längere Zeit an diesem Problem."
Hartware
"Kleinere Bildfehler konnten nur im Spiel AquaNox beobachtet werden. Ansonsten scheint der Treiber gut und umfassend auf Kompatibilität mit aktuellen Spielen getestet worden zu sein."
Auch bei Matroxusers wurden die Treiber als stabil und für den Anfang als sehr gut bezeichnet. Auch Die FAA Qualität ist nicht so katostrophal das man deswegen vom Kauf abraten müsste. Und wenn man ds Matrox Support kennt weiß man das die sehr gewissenhaft auf bugs einghen und diese auch beheben (selbst bei der G400 und bei aktuellen Spielen noch). Für High End gamer ist die Karte sicherlich eine Enttäuschung da werden die 10% mehr Leistung die noch kommen sollen (laut Tech Support) auch nicht viel dran ändern. Aber Trotzdem wird der Parhlia seine Käufer finden vor allen Nutzer die TripleHead nicht nur zum Spielen brauchen. Zur Signalqualität muss man ja sagen dass die in der Zeit von LCD's eh nicht mehr so wichtig
ist.Vielleicht doch Montagskarten?
Naja, bald liegt das Teil ja beim Händler. Dann werden wir wohl von einer breiteren Schicht Bugreports zu hören kriegen. ;)
ta,
-Sascha.rb
Leonidas
2002-06-27, 10:33:54
Originally posted by Haarmann
Ikon
Dir Parhelia ist aufm Papier eben keiner Ti4600 gewachsen.... 300 vs 220 MHz - da gewinnen nunmal die 300 - erst wenn die Matrox ihre 4 Textureinheiten ins Spiel bringt, wird da was gehen, dann stehts quasi 440 zu 300 und bei 3 nur 330 zu 300 für Matrox. Wer also bei den bisherigen 2 Textur Spielen schon Wunder erwartet, der war ist einfach naiv.
Die 4 Textureneinheiten werden gebraucht, um trilinear filtern zu können. Ansonsten wird das alles wiedr nur bilinear.
Unterstützt das Teil überhaupt S3TC?
Leonidas
2002-06-27, 10:36:32
Originally posted by KiBa
Wenn OpenGL das nicht unterstützt (was auch keinen Sinn machen würde), kann es Quake3 natürlich auch nicht unterstützen...
Die Geometrie wird auf eine Ebene (Bildschirm) projeziert, mathematisch kommt bei einem FOV von >= 180° auch nichts sinnvolles raus.
SG sind doch aber schon mindestens 270 Grad, oder?
Leonidas
2002-06-27, 10:38:22
Originally posted by Unregistered
Hier gibts nen interessantes Review: www.icrontic.com.
Besonders die Triple-Head Werte find ich interessant.
Auch sieht man mal wie vernünftige Treiber aussehen (ja ich weiss haben noch viele bugs, aber wenn ich da an das gekrampfe mit twin-view bei nvidia denke......)
Wo ist dort auch nur eine einzige Zahl?
Unregistered
2002-06-27, 10:44:25
Originally posted by Leonidas
Wo ist dort auch nur eine einzige Zahl?
Auf der Seite sind 2 Reviews: Einmal vom Chip unter Articels und einmal unter Hardware Reviews der is mit Zahlen. Brille=Fielmann *g*, ne mußte auch 2mal hinsehen :D
Richthofen
2002-06-27, 11:29:00
@Leonidas
Genau das ist der Punkt.
Kommt Trillinear ins Spiel siehts schlecht aus beim Parhelia.
Und Trillinear halte ich ja nun wirklich für nix besonderes mehr. Das ist Standard.
Wie ich bereits sagte - klassische Fehlentscheidung.
Besserer Chip und dafür kein 256 Bit Interface wären besser gewesen.
Am Besten wäre, besserer Chip + wahlweise 256 Bit oder 128 Bit Interface mit diversen verschiedenen RAM Speeds.
Hätte man den Chip etwas anders aufgebaut wäre er auch mit 210 MHZ prima dabei.
Ein R300 bzw NV30 in diesem Takt wird wahrscheinlich ne Füllrate um fast den Faktor 2 höher haben.
Chiptakt um 10 bis 20% nach oben reist beim Parhelia nicht mehr wirklich viel.
Traurig aber war.
Originally posted by Richthofen
@Leonidas
Genau das ist der Punkt.
Kommt Trillinear ins Spiel siehts schlecht aus beim Parhelia.Mit 4 bilinearen TMUs ist man flexibler als mit 2 trilinearen TMUs. Die "trilineare Füllrate" von GF4 Ti-Karten wird zwar nicht erreicht, aber bei kaum einem Spiel mangelt es heute an Füllrate. Schlimmer ist bei Parhelia schon (hat Demirug mehrfach erwähnt) dass der Matrox-Karte das early Z occlusion fehlt.
Leonidas
2002-06-27, 12:51:21
Originally posted by Unregistered
Auf der Seite sind 2 Reviews: Einmal vom Chip unter Articels und einmal unter Hardware Reviews der is mit Zahlen. Brille=Fielmann *g*, ne mußte auch 2mal hinsehen :D
Ja, aber wo sind SG-Benchmarks?
Update: Stop, gesehen:
http://www.icrontic.com/mm/Reviews/Hardware/Video/parheliareview/benchmarks/quakehghquality.jpg
Die einzigen SG-Benchmarks bisher!
1 = 640x480 bzw. 1920x480 (0,3/0,9)
2 = 800x600 bzw. 2400x600 (0,5/1,4)
3 = 1024x768 bzw. 3072x768 (0,8/2,4)
4 = 1280x1024 bzw. 3840x1024 (1,3/3,9)
5 = 1600x1200 (1,9)
oliht
2002-06-27, 13:23:10
Irgendwie versteh ich die SG Werte nicht ganz wie schafft es die Karte bei 3840x1024 nix zu verlieren gegenüber 1280x1024( abweichung liegt in der Messtoleranz) bricht aber zu 1600x1200 trotz weniger Pixel ein... Irgendwie ist die Karte ein Rätsel oder die Treiber sind totaler mist
Radeonator
2002-06-27, 13:30:13
Es bleiben noch zwei Möglichkeiten : Bios Update und Treiber Optimierung
Was die Aussage "die GF4 hat 300, die Matrox hat nur 220" betrifft, so kann ich dem net zustimmen. Ein AthlonXP hat z.B. eine Taktrate von 1466 schlägt aber zu ca.80% einen PIV1,7GHz. Es kommt also eher auf intelligentes Design und sinvolle Features an, denn auf BruteForce.
Auch die P10 wird vorraussichtlich die User erstmal wieder auf den Teppich holen. z.B. die Vertexeinheiten einer P10 sollen nicht so effektiv (performance) Arbeite können, wie bei ATI/Nvidia. Das liegt aber wohl eher an den Ramen bedingungen. Leute die jetzt auf zukunftige Spiele warten, damit eine Unterstützung der Features warten, denken meiner Meinung nach nicht ganz logisch. DX9/OGL2.0 kommen (vermutlich) Ende diesen Jahres.Also wird aller frühestens mitte nächsten Jahres ein DX9 Game auf den Markt kommen (so round about halt). In dieser Zeit wird der Anspruch an Hardware aber auch um einiges ansteigen, so das diese Karten veraltet und wenig Performant im vergleich zu ATI´s und Nvidias neuen Generationen sein werden!!! :(
Hätte Matrox wirklich mitreden wollen, hätten sie eine reinrassige DX8.1 Karte mit voller unterstüzung nutzbarer DX/OGL Features herausgebracht und hier und da Matrox IQ mässige ideen einfliessen lassen.
nggalai
2002-06-27, 13:35:39
Originally posted by Radeonator
Auch die P10 wird vorraussichtlich die User erstmal wieder auf den Teppich holen. z.B. die Vertexeinheiten einer P10 sollen nicht so effektiv (performance) Arbeite können, wie bei ATI/Nvidia. Das liegt aber wohl eher an den Ramen bedingungen.Diskussion zur ersten P10-Karte läuft hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=24205
sieht schon sehr gut aus, und der Preis geht IMO auch in Ordnung.
ta,
-Sascha.rb
Demirug
2002-06-27, 13:49:37
Originally posted by Radeonator
Was die Aussage "die GF4 hat 300, die Matrox hat nur 220" betrifft, so kann ich dem net zustimmen. Ein AthlonXP hat z.B. eine Taktrate von 1466 schlägt aber zu ca.80% einen PIV1,7GHz. Es kommt also eher auf intelligentes Design und sinvolle Features an, denn auf BruteForce.
Einspruch: Egal wie du eine Grafikkarte designst pro takt kann aus einer Pipe nur maximal ein Fragment rauskommen. Matrox kann zwar auch Fragmente in einem Takt erzeugen für die NVidia 2 braucht. Dafür kann die GF einen Teil dieser Fragmente über Early Z in einem Takt verwerfen. Aufgrund des Mischmengengerüsts und des Taktes gewinnt die GF. Hätten beide den gleichen Takt wäre Matrox schneller.
Doomtrain
2002-06-27, 13:50:11
Originally posted by ow
Spiele werden fuer DX oder OGL programmiert aber nicht fuer Grafikchips (wobei OGL mit den Extension da eine kleine Ausnahme macht).
Stimmt natürlich, aber man kann trotzdem auf einen bestimmten Chip optimieren, d.h. seine Fähigkeiten und Architektur ausnutzen, ganz klar!
Nein Doomtrain. Unter D3D geht das nicht.
Ausserdem sind die Faehigkeiten und Architektur der Chips gar nicht genau bekannt, also waere da auch gar nichts auszunuttzen.
Demirug
2002-06-27, 14:06:29
Originally posted by ow
Nein Doomtrain. Unter D3D geht das nicht.
Ausserdem sind die Faehigkeiten und Architektur der Chips gar nicht genau bekannt, also waere da auch gar nichts auszunuttzen.
Das ist nur teilweise richtig. Jede Karte hat so gewisse Vorlieben innerhalb des Standards. Einfaches Beispiel 6 Texturen sollen ausgegeben werden.
Dafür gibt es folgenden möglichkeiten:
2+2+2
3+3
4+2
2+4
Für jede Karte sollte man dann die richtige wählen.
Und bei den DX7 Blendstates gibt es noch mehr witzige Dinge.
Doomtrain
2002-06-27, 14:12:20
Originally posted by ow
Nein Doomtrain. Unter D3D geht das nicht.
Doch ow, das geht. Ich weiß schon, wie DU das vestanden hast.
Sagen wir mal, auch unter D3D kann man so programmieren das gewisse Chips besser funzen als andere.
z.B. Ein Spiel läuft auf Karte A perfekt, auf Karte B aber mit leichten Grafikfehlern. Dann muß der Fehler deiner Meinung nach auf jeden Fall bei Karte B liegen und nicht beim Spiel, richtig?
Man kann auch unter D3D scheiße machen bzw. nicht zu 100% nach Spezifikation schreiben, das sollte dir aber bekannt sein.
Haarmann
2002-06-27, 15:13:51
ow
Naja nehmen wir Leonidas R7500 vs GF2 Review...
Z2 is doch D3D - wieso entsorgt da die 7500 die GF2 so brutal, wogegen sonst die GF2 gut über/mithalten kann? Ist doch alles D3D ;)
@demirug -> volles Ack. (als ob er nicht immer recht hätte ;) )
@Haarman
Ist doch klar, dass jede GPÙ so ihre Stärken und Schwächen hat. Und ansonsten muss ich auf die leider immernoch "schlechten" ATI-Treiber hinweisen (ich kann mich dabei nicht mal auf einen bestimmten Chip beziehen, denn da scheints überall nicht so ganz hinzuhauen mit den Treibern)
AlfredENeumann
2002-06-27, 16:16:40
Originally posted by Ikon
Und ansonsten muss ich auf die leider immernoch "schlechten" ATI-Treiber hinweisen (ich kann mich dabei nicht mal auf einen bestimmten Chip beziehen, denn da scheints überall nicht so ganz hinzuhauen mit den Treibern)
Also ich kann mich über meine Treiber nich beklagen. Die von meiner vorherigen Rage Fury Maxx hatte auch alles geschluckt.
Originally posted by Demirug
Das ist nur teilweise richtig. Jede Karte hat so gewisse Vorlieben innerhalb des Standards. Einfaches Beispiel 6 Texturen sollen ausgegeben werden.
Dafür gibt es folgenden möglichkeiten:
2+2+2
3+3
4+2
2+4
Für jede Karte sollte man dann die richtige wählen.
Und bei den DX7 Blendstates gibt es noch mehr witzige Dinge.
Ja ok, das Multitexturing macht da natuerlich eine Ausnahme.
Aber ob 2+4 oder 4+2 sollte doch IMO egal sein???
Originally posted by Doomtrain
Doch ow, das geht. Ich weiß schon, wie DU das vestanden hast.
Sagen wir mal, auch unter D3D kann man so programmieren das gewisse Chips besser funzen als andere.
z.B. Ein Spiel läuft auf Karte A perfekt, auf Karte B aber mit leichten Grafikfehlern. Dann muß der Fehler deiner Meinung nach auf jeden Fall bei Karte B liegen und nicht beim Spiel, richtig?
Man kann auch unter D3D scheiße machen bzw. nicht zu 100% nach Spezifikation schreiben, das sollte dir aber bekannt sein.
Doomtrain: Von fehlerhafter Darstellung rede ich erst gar nicht. Ich setzte voraus, dass die Applikation dem D3D Standard entspricht. Hier ging's ja schliesslich um eine Performance Frage ('Optimierung')oder nicht?
Originally posted by Haarmann
ow
Naja nehmen wir Leonidas R7500 vs GF2 Review...
Z2 is doch D3D - wieso entsorgt da die 7500 die GF2 so brutal, wogegen sonst die GF2 gut über/mithalten kann? Ist doch alles D3D ;)
Vermutlich, weil die ATi Treiber ein riesen Haufen Flickwerk sind und sich nicht um D3D Standards scheren. Deshalb sind die Treiber ja auch so schlecht.
/edit: aber was hat deine Aussage mit dem Thema 'Optimierung' zu tun?
IMO nichts. Jeder Chip kann gewisse Funktionen schneller oder auch langsamer ausfuehren als ein anderer Chip. Da haben die Game-Progger aber ueberhaupt keinen Einfluss drauf.-> keine Moeglichkeit der Optimierung auf einen bestimmten Chip.
Originally posted by AlfredENeumann
Also ich kann mich über meine Treiber nich beklagen. Die von meiner vorherigen Rage Fury Maxx hatte auch alles geschluckt.
Alles?? :lol::lol:
Demirug
2002-06-27, 17:04:00
Originally posted by ow
Ja ok, das Multitexturing macht da natuerlich eine Ausnahme.
Aber ob 2+4 oder 4+2 sollte doch IMO egal sein???
Die Blendstates bei DX7 sind noch besser. Was das 4+2 vs 2+4 angeht so sollte es wirklich immer egal sein aber man weis nie.
Was hat es denn mit den Blendstates unter Dx7 auf sich?
Und sind die anderes als unter DX6?
Demirug
2002-06-27, 17:38:52
Originally posted by ow
Was hat es denn mit den Blendstates unter Dx7 auf sich?
Und sind die anderes als unter DX6?
Es gibt zu DX 6 kleine Änderungen die sind aber in diesem Zusammenhang egal.
Der Witz mit den Blendstates ist das DirectX dort überhaupt nichts garantiert und die Angaben aus den Caps darum auch eher als "Versuchs halt mal" zu verstehen sind.
Solange man sich da eher Konservative verhält merkt man davon in der Regel nichts. Manchmal muss man zwar auf die Reihenfolge aufpassen aber da gibt es eigentlich auch immer eine die überall funktioniert.
Wenn man aber jetzt ein bischen mutig ist findet man Blendstates die in einem Pass gerendert werden können obwohl das eigentlich nicht gehen dürfte. Gerade in den NVidia Treibern sind da einige dieser Dinge versteckt. So kann die GF1/2 eigentlich nur 3 States es gibt aber einige 4 und 5 State Settings die trotzdem gehen und NVidia baut gerne noch ein paar in die Treiber ein.
Wenn man sowas nun ausnutzt kann man sich ein paar Renderdurchläufe sparen.
AlfredENeumann
2002-06-27, 18:04:47
Originally posted by ow
Alles?? :lol::lol:
Das was ich bisher so ausprobiert habe ja (3Gig´s Scenedemos)
Hier und da einige Spiele, aber nicht die Welt.
Es waren wirklich nur ne Handvoll sachen dabei, die Darstellungsfehler hatten (je nach Einstellung!) (z.B. ein paar PVR-Demo´s aus deinem Radeon-Treibertest). Aber ansonsten Stabil, keine Freezes und nicht zu beanstanden.
Originally posted by Demirug
Es gibt zu DX 6 kleine Änderungen die sind aber in diesem Zusammenhang egal.
Der Witz mit den Blendstates ist das DirectX dort überhaupt nichts garantiert und die Angaben aus den Caps darum auch eher als "Versuchs halt mal" zu verstehen sind.
Solange man sich da eher Konservative verhält merkt man davon in der Regel nichts. Manchmal muss man zwar auf die Reihenfolge aufpassen aber da gibt es eigentlich auch immer eine die überall funktioniert.
Wenn man aber jetzt ein bischen mutig ist findet man Blendstates die in einem Pass gerendert werden können obwohl das eigentlich nicht gehen dürfte. Gerade in den NVidia Treibern sind da einige dieser Dinge versteckt. So kann die GF1/2 eigentlich nur 3 States es gibt aber einige 4 und 5 State Settings die trotzdem gehen und NVidia baut gerne noch ein paar in die Treiber ein.
Wenn man sowas nun ausnutzt kann man sich ein paar Renderdurchläufe sparen.
Also nur eine Beschränkung durch D3D? Denn eigentlich kann es ja nicht schlecht sein, durch höhere Flexibiltät bei den Blending-States Renderdurchläufe einzusparen?
Ist das unter OGL auch so?
Exxtreme
2002-06-27, 19:49:40
Originally posted by Demirug
Wenn man aber jetzt ein bischen mutig ist findet man Blendstates die in einem Pass gerendert werden können obwohl das eigentlich nicht gehen dürfte. Gerade in den NVidia Treibern sind da einige dieser Dinge versteckt. So kann die GF1/2 eigentlich nur 3 States es gibt aber einige 4 und 5 State Settings die trotzdem gehen und NVidia baut gerne noch ein paar in die Treiber ein.
Heisst das im Klartext, daß wenn man "ein bischen mutig ist" und das von dir o. g. ausnutzt, begibt man sich eigentlich auf ziemlich dünnes Eis was Kompatibilität angeht? Es könnte dann mit einer GraKa funtzen, mit einer anderen aber nicht mehr?
Gruß
Alex
Edit:
Was machen diese Renderstates eigentlich?
Demirug
2002-06-27, 19:55:02
Originally posted by ow
Also nur eine Beschränkung durch D3D? Denn eigentlich kann es ja nicht schlecht sein, durch höhere Flexibiltät bei den Blending-States Renderdurchläufe einzusparen?
Ist das unter OGL auch so?
Stell dir einfach folgendes Blending vor.
Tex1 * Tex2 + Diffuse + Specular (4 Stufen)
Normalerweise unterstützt TwinTexel Hardware aber nur 3 Stufen.
Man müsste es also aufteilen
Tex1*Tex2
+Diffuse+Secular
Wenn aber jetzt der Chip/Treiber das trotzdem auf einmal Render kann spart man einen Pass. D3D hat extra eine Function zum Prüfen ob ein State in einem Pass durchgeht. Dabei spielt aber dann teilweise auch die rheienfolge eine Rolle ob der Treiber es aktzeptiert oder nicht.
Bei der GF ist das möglich da die Blendzellen in der Hardware mehr können als D3D fordert und diese zusatzfunktionalität wird vom Treiber ausgenutzt um nach möglichkeit zusätzliche Stufen zur verfügung zu stellen.
Bei OpenGL steht dir die komplette Funktionalität der Blendzellen zur verfügung wenn man die Extensions nutzt. Diese sind dann aber bei jeder Karte anders. Was das "normale" OpenGL multitexturing angeht musst du zeckensak fragen da bin ich nicht ganz auf dem laufenden.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.