Archiv verlassen und diese Seite im Standarddesign anzeigen : THG: Uns steht ein heisser Sommer bevor...
Tss...
Wieviel Trilinear-Anteil hat den hier Quality-AF? 2% oder sind es gar 5% ???
Soll man das jetzt als Bilinear-AF mit leichten Verbesserungen werten, und entsprechend mit anderen Bi-AF Werten anderer Karten vergleichen, oder ist die Qualität doch so hoch wie bei Tri-AF (was ich aber kaum glaube).
<Rant>
Da sollten aber jetzt am besten alle Nvidioten, wie Razor zB. kein Wort mehr über das Tri-AF der R300 verlieren, da das fast immer ein wesentlich besseres AF bietet als dieses vermurkste Bi-AF mit 2-5% Tri-AF-Anteil, das zudem für jedes Spiel neu programmiert werden muss.
<Rant off>
Quasar
2003-07-10, 09:33:49
Original geschrieben von Gast
Tss...
Wieviel Trilinear-Anteil hat den hier Quality-AF? 2% oder sind es gar 5% ???
Soll man das jetzt als Bilinear-AF mit leichten Verbesserungen werten, und entsprechend mit anderen Bi-AF Werten anderer Karten vergleichen, oder ist die Qualität doch so hoch wie bei Tri-AF (was ich aber kaum glaube).
Ich würde mal sagen, so in etwa 5%-7,5% =)
Und gegen welches "TriAF" willst du es denn stellen? Das der alten Detonator-Treiber? OK.
Original geschrieben von Gast
<Rant>
Da sollten aber jetzt am besten alle Nvidioten, wie Razor zB. kein Wort mehr über das Tri-AF der R300 verlieren, da das fast immer ein wesentlich besseres AF bietet als dieses vermurkste Bi-AF mit 2-5% Tri-AF-Anteil, das zudem für jedes Spiel neu programmiert werden muss.
<Rant off>
Oh-oooh.... das würde in der Schlussfolgerung nur zutreffen, wenn du gleichzeitig forderst, daß NUR noch mit rTool-AF verglichen wird (auch in der dann mäßigen Performance).
Und wer würde dann am lautesten schreien?
Original geschrieben von Gast
Tss...
Wieviel Trilinear-Anteil hat den hier Quality-AF? 2% oder sind es gar 5% ???
Soll man das jetzt als Bilinear-AF mit leichten Verbesserungen werten, und entsprechend mit anderen Bi-AF Werten anderer Karten vergleichen, oder ist die Qualität doch so hoch wie bei Tri-AF (was ich aber kaum glaube).
<Rant>
Da sollten aber jetzt am besten alle Nvidioten, wie Razor zB. kein Wort mehr über das Tri-AF der R300 verlieren, da das fast immer ein wesentlich besseres AF bietet als dieses vermurkste Bi-AF mit 2-5% Tri-AF-Anteil, das zudem für jedes Spiel neu programmiert werden muss.
<Rant off>
Razor/Lovesucks ist das garantiert noch nicht mal aufgefallen, die sind so in ihrer Schiene drin.
PS: Hier gibt es auch einen schönen BQ-Vergleich.
http://www.forum-3dcenter.de/vbulletin/showthread.php?threadid=81354&perpage=20&pagenumber=1
LovesuckZ
2003-07-10, 09:46:06
Original geschrieben von Gast
Razor/Lovesucks ist das garantiert noch nicht mal aufgefallen, die sind so in ihrer Schiene drin.
Stimmt. Wer hat bloß oben die Bilder hier reingestellt. Mir faellt der Name nicht ein, helf mir mal bitte... :schlag:
Original geschrieben von Quasar
Oh-oooh.... das würde in der Schlussfolgerung nur zutreffen, wenn du gleichzeitig forderst, daß NUR noch mit rTool-AF verglichen wird (auch in der dann mäßigen Performance).
Und wer würde dann am lautesten schreien?
Du hast das scheinbar was nicht mitbekommen. Er erregt sich darüber, dass z.B. Razor den ganzen tag von nichts anderem reden/schreiben, obwohl es auf dem eigenen Bildschirm noch schlechter bestellt ist.
"Wer im Glashaus sitzt... usw."
Oder wolltest du das gar nicht verstehen?! Normalerweise bist du bei sowas ganz fix. Aber wenn es DEM Zwecke dient... Halt dich lieber mal an dein Bias-o-meter.:D
Quasar
2003-07-10, 10:16:30
Original geschrieben von Gast
Du hast das scheinbar was nicht mitbekommen. Er erregt sich darüber, dass z.B. Razor den ganzen tag von nichts anderem reden/schreiben, obwohl es auf dem eigenen Bildschirm noch schlechter bestellt ist.
"Wer im Glashaus sitzt... usw."
Oder wolltest du das gar nicht verstehen?! Normalerweise bist du bei sowas ganz fix. Aber wenn es DEM Zwecke dient... Halt dich lieber mal an dein Bias-o-meter.:D
Auf deine billige Anmache aus der dunklen Ecke der Anonymität gehe ich mal nicht näher ein, ich spring ja auch nicht aus dem Bus aus, nur weil ein kleines Kind einen Schneeball an die Scheibe wirft, und renn' dem hinterher.
Und IMHO ist ein wenig trilinear immer noch besser als KEIN trilinear + winkelabhängigkeit.
Mr. Lolman
2003-07-10, 10:18:29
Original geschrieben von Quasar
Auf deine billige Anmache aus der dunklen Ecke der Anonymität gehe ich mal nicht näher ein, ich spring ja auch nicht aus dem Bus aus, nur weil ein kleines Kind einen Schneeball an die Scheibe wirft, und renn' dem hinterher.
Und IMHO ist ein wenig trilinear immer noch besser als KEIN trilinear + winkelabhängigkeit.
Du meinst kein Trilinear ist schlechter als als ein wenig + Winkelabhängigkeit.
Quasar
2003-07-10, 10:24:03
Original geschrieben von Mr. Lolman
Du meinst kein Trilinear ist schlechter als als ein wenig + Winkelabhängigkeit.
"Ein wenig trilinear immer noch besser als KEIN trilinear + winkelabhängigkeit" Das meine ich.
Mr. Lolman
2003-07-10, 10:27:30
Original geschrieben von Quasar
"Ein wenig trilinear immer noch besser als KEIN trilinear + winkelabhängigkeit" Das meine ich.
Also Applikation AF ist immernoch besser als Balanced AF...
(Wenn du wirklich ATi BQ mit NV BQ vergleichen willst, dann schau dire den schon oben verlinkten BF1942 Thread (http://www.forum-3dcenter.de/vbulletin/showthread.php?threadid=81354&perpage=20&pagenumber=1) an. (2xAA,4xqAF vs. 4xAA,8xpAF))
@ Lovesucks:
Danke für die Bilder... Leider hat sich meine Theorie nicht bestätigen können. (Ich werde ggf. was ins Technikforum posten)
LovesuckZ
2003-07-10, 10:31:35
Original geschrieben von Mr. Lolman
(Wenn du wirklich ATi BQ mit NV BQ vergleichen willst, dann schau dire den schon oben verlinkten BF1942 Thread (http://www.forum-3dcenter.de/vbulletin/showthread.php?threadid=81354&perpage=20&pagenumber=1) an. (2xAA,4xqAF vs. 4xAA,8xpAF))
Ich sehe in battlefield auch keine Unterschiede zwischen 4QAF und 8QAF. Was sagt uns denn nun?
Quasar
2003-07-10, 10:48:09
Bissel konfus, wer das mit welchen Einstellungen und mit welchem Treiber gepostet hat. Wenn sie die IQ so darstellt, wie ich in meinem dortigen Post nachgefragt habe, dann sehe ich dort auch das altbekannte Bild: ATis Kanten sind glatter und nVs Texturen sind schärfer (obwohl letzteres dank des großen Anteils an rechten Winkeln nur wenig ausmacht).
Razor
2003-07-11, 06:39:48
Original geschrieben von Gast
Razor/Lovesucks ist das garantiert noch nicht mal aufgefallen, die sind so in ihrer Schiene drin.
PS: Hier gibt es auch einen schönen BQ-Vergleich.
http://www.forum-3dcenter.de/vbulletin/showthread.php?threadid=81354&perpage=20&pagenumber=1
Ich hoffe, dass Du den Thread zuende gelesen hast...
So scheint es wohl so, dass bei BF das 'highPerf' AF schärfer zu wirken, als das 'quality' AF von ATI.
Und mit fällt so etwas sofort auf.
Die BQ von ATI und nVidia ist unter UT2003 in etwa identisch (ATI 'quality' und nVdia 'performance'), natürlich mal AA ausgeschlossen...
:D
Razor
Razor
2003-07-11, 06:47:04
Original geschrieben von Mr. Lolman
(Wenn du wirklich ATi BQ mit NV BQ vergleichen willst, dann schau dire den schon oben verlinkten BF1942 Thread (http://www.forum-3dcenter.de/vbulletin/showthread.php?threadid=81354&perpage=20&pagenumber=1) an. (2xAA,4xqAF vs. 4xAA,8xpAF))
Wollen wir das Thema jetzt wirklich nochmal durchkauen ?
???
Wenn Du willst, gerne !
:D
Razor
P.S.: AA ist bei ATI besser, AF bei nVidia. AA nur bis 2xRGMS vergleichbar (kleiner Vorteil für ATI), AF nur mit ATI 'quality' und nVidia 'perofrmance' (kleiner Vorteil für nVidia).
Soll ich weiter machen ?
*eg*
Radeonator@work
2003-07-11, 08:29:21
Da ich ja so ziemlich alles an ATi und NV in meinem Rechner hatte, kann ich mit fug und recht behaupten, das die grundsätzliche BQ der FX Karte von Asus besser ist als die bei ATi (ja sogar unter 2d!!!)
Vergleich zwischen Radeon9500Pro (Connect3D) und meiner jetzigen Asus V9900 . Werde nächste Woche mal zwie vergleichs Screenshots OHNE FSAA aber mit AF (16x ATi und schlappe 4x bei der NV) und ich glaube dann werden einige hier vielleicht etwas ruhiger ;)
p.s.: Wenn ihr die beiden Karten nicht in der Praxis testen könnt/wollt dann lasst das kindische gebashe bitte, ja ???
ShadowXX
2003-07-11, 10:46:59
Original von Radeonator@work:
Da ich ja so ziemlich alles an ATi und NV in meinem Rechner hatte, kann ich mit fug und recht behaupten, das die grundsätzliche BQ der FX Karte von Asus besser ist als die bei ATi (ja sogar unter 2d!!!)
Vergleich zwischen Radeon9500Pro (Connect3D) und meiner jetzigen Asus V9900 . Werde nächste Woche mal zwie vergleichs Screenshots OHNE FSAA aber mit AF (16x ATi und schlappe 4x bei der NV) und ich glaube dann werden einige hier vielleicht etwas ruhiger
p.s.: Wenn ihr die beiden Karten nicht in der Praxis testen könnt/wollt dann lasst das kindische gebashe bitte, ja
Ich habe auch beide Karten und ich finde wiederum das es bei der ATI besser aussieht....
Damit will ich aber nicht sagen, dass die BQ wirklich besser ist...ich empfinde dieses so...
Das ist auch was ich grundsätzlich zum Thema ATI vs. NV sagen will:
Bei der BQ der beiden 'Flagships' von ATI/NV spielt auch sehr viel eigenes Empfinden (jeder Mensch sieht anders und hat auch andere vorstellungen, wie etwas aussehen 'sollte') und bestimmt auch der Hersteller der GraKa (speziell beim 2D-Teil, Signalqualität) ein Rolle....
Die erste 5200'er die ich mal zu Testzwecken gekauft hatte, hatte zum Beispiel eine unglaublich schlechte BQ -> lag aber nicht am nv31, sondern am Hersteller der GraKa bzw. an meiner speziellen Karte, die Signalqualität war einfach mies...
J.S.Shadow
Razor
2003-07-11, 20:39:12
Original geschrieben von ShadowXX
Die erste 5200'er die ich mal zu Testzwecken gekauft hatte, hatte zum Beispiel eine unglaublich schlechte BQ -> lag aber nicht am nv31, sondern am Hersteller der GraKa bzw. an meiner speziellen Karte, die Signalqualität war einfach mies...
Tja, und ich musste staunend fest stellen, dass die FX5200 von Club3D (Albatron FX5200P) hinsichtlich SQ und TV-Out-Quali schlicht alles in Grund und Boden stampfte, was ich bsiher erblicken durfte. Und damit meine ich explizit nVidia, ATI (inkl. R300) und Matrox (bis zum G550) !
Mag sein, dass da andere Hersteller nicht ganz so gut abschneiden, aber eine besser BQ (bis 1600@85Hz) und einen besseren TV-Out habe ich schlicht noch nie gesehen... hoffentlich wird das bei der nächsten Karte (vermutlich FX5900/u) genauso sein...
Razor
StefanV
2003-07-11, 21:50:31
Original geschrieben von Razor
Tja, und ich musste staunend fest stellen, dass die FX5200 von Club3D (Albatron FX5200P) hinsichtlich SQ und TV-Out-Quali schlicht alles in Grund und Boden stampfte, was ich bsiher erblicken durfte. Und damit meine ich explizit nVidia, ATI (inkl. R300) und Matrox (bis zum G550) !
Mag sein, dass da andere Hersteller nicht ganz so gut abschneiden, aber eine besser BQ (bis 1600@85Hz) und einen besseren TV-Out habe ich schlicht noch nie gesehen... hoffentlich wird das bei der nächsten Karte (vermutlich FX5900/u) genauso sein...
Razor
Klar, nichtmal die G550 :schlag:...
Original geschrieben von Razor
Tja, und ich musste staunend fest stellen, dass die FX5200 von Club3D (Albatron FX5200P) hinsichtlich SQ und TV-Out-Quali schlicht alles in Grund und Boden stampfte, was ich bsiher erblicken durfte. Und damit meine ich explizit nVidia, ATI (inkl. R300) und Matrox (bis zum G550) !
Mag sein, dass da andere Hersteller nicht ganz so gut abschneiden, aber eine besser BQ (bis 1600@85Hz) und einen besseren TV-Out habe ich schlicht noch nie gesehen... hoffentlich wird das bei der nächsten Karte (vermutlich FX5900/u) genauso sein...
Razor
Ich würde dir das ja gerne glauben, wenn du uns nicht bei der GF3 diesbezüglich so angelogen hättest. Da hast du ohne Vergleichsmöglichkeit 1000 Eide geschworen und deine Aussagen jetzt so langsam revidiert.
Also schäm dich.:D
Razor
2003-07-12, 07:30:28
Original geschrieben von Stefan Payne
Klar, nichtmal die G550...
Selber schon mal probiert und 'live' gesehen ?
Nicht ? Dann halt' Dich einfach raus.
Razor
Razor
2003-07-12, 07:41:22
Original geschrieben von Gast
Ich würde dir das ja gerne glauben, wenn du uns nicht bei der GF3 diesbezüglich so angelogen hättest. Da hast du ohne Vergleichsmöglichkeit 1000 Eide geschworen und deine Aussagen jetzt so langsam revidiert.
Der TV-Out war 'gut', im Vergleich zu den Kontrahenten. Der TV-Out der R300 gefiel mir insofern ein bissel besser, als das die zugehörige Software besser zu benutzen war, als die nVidia-Steuerung für den BT868. Die Quali war in etwa vergleichbar...
Auch schrieb ich in meinem 'Erfahrungsbericht', dass ich bis zur FX5200 der Meinung war mit kleinen Defiziten bei der Ausgabe auf dem TV leben zu müssen (schließt ATI und Matrox mit ein !), was sich aber bei Sichtung der FX5200 geändert hat.
Meine diesbezüglichen Ansprüche liegen nun ein ganzes Stück höher und an diesen müssen sich jetzt alle zukünftigen Karten messen.
-
Die Unterschiede in der SQ muss man wirklich mit der Lupe suchen und fallen eigentlich nicht ins Gewicht. Sowohl die der ELSA gf3, wie auch der R300 und der G550 waren OK. Im Multi-Moni-Breeich bin ich der Meinung, dass die FX5200 da einen Tick besser ist. Nicht nur, was die SQ angeht, sondern auch die Funktionlität der Treiber (nView)... kann aber auch Geschmackssache sein (nicht auf die SQ bezogen, sondern auf die Treiber ;-).
-
War das jetzt ausführlich genug, dass auch Du das jetzt verstanden hast ?
Und dann sag' mir bitte, wo ich 'gelogen' oder gar irgendetwas 'geschworen' haben soll. Wenn Du das nicht kannst, dann würde ich Dich doch bitten, solch ein unbelegtes Gelabere aus der Unreg-Welt zu unterlassen.
Also langsam wäre ich wirklich dafür, hier eine Reg-Pflicht einzuführen...
Razor
Hm. Also ist die neue nVidia-Karte in ALLEN Bereichen besser als JEDES Konkurrenzprodukt? Wieso bin ich nicht überrascht, Razor?
Razor
2003-07-12, 10:35:57
Original geschrieben von Ikon
Hm. Also ist die neue nVidia-Karte in ALLEN Bereichen besser als JEDES Konkurrenzprodukt? Wieso bin ich nicht überrascht, Razor?
Nicht in Punkto Leistung...
:D
Und offenbar hast Du Dir meinen sehr ausführlichen Erfahrungsbericht nicht zu gemüte geführt (was mich ebenfalls nicht überrascht hat ;-). Aber was red' ich... hast Du Dir wenigstens mal die SQ oder den TV-Out auch nur irgend einer FX5200 angeschaut ?
???
In dieser Hinsicht empfehlen kann ich definitiv Club3D (Albatron) FX5200 mit 128MB !
:up:
Nur hoffe ich inständig, dass dies bei anderen (insbesondere bei den von mir ins Visir genommenen FX5900'er ;-) ebenso ist.
Und warum Du nicht überrascht bist, kannst Du Dir wohl nur selber beantworten. Auch würde ich Dich bitten, genau zu lesen: Ich habe gesagt, dass die Club3D/Albatron FX5200-128 in Punkto SQ (Multi-Moni) und TV-Out das beste ist, was ICH jemals in Augenschein nehmen durfte. Und ja, das waren so einige Karten von nVidia, diverseste von ATI (bis zur R9500 im Referenz-Design) und so einige von Matrox (inkl. G400/550).
Noch was unklar ?
Razor
Endorphine
2003-07-12, 11:22:02
Ne FX5200 ist IMHO nur deshalb interessant, weil sie praktisch alle aktuellen Features zu einem niedrigen Preis verbunden mit passiver Kühlung bietet. Die 3D-Leistung reisst niemanden vom Hocker, so toll ist die Karte nun auch wieder nicht, Razor.
Razor
2003-07-12, 11:30:23
Original geschrieben von Endorphine
Ne FX5200 ist IMHO nur deshalb interessant, weil sie praktisch alle aktuellen Features zu einem niedrigen Preis verbunden mit passiver Kühlung bietet. Die 3D-Leistung reisst niemanden vom Hocker, so toll ist die Karte nun auch wieder nicht, Razor.
Wo bitte soll ich geschrieben haben, dass 3D-Leistung nun ein Merkmal der FX5200 ist ?
???
Selber habe ich lediglich festgestellt, dass sie in der Rohleistung nicht an meine gf3 heran reicht, diese aber in der Quali-Leistung glatt hinter sich läßt. Und das war's auch schon...
Und ich persönlich finde es absolut erstaunlich, dass man für nicht mal 100€ heute eine topaktuelle Karte bekommt (ohne mal jetzt auf die Leistung einzugehen ;-), die zudem noch eine sehr gute SQ und einen 'perfekten' TV-Out besitzt. Dass sie anspruchslos ist und auch noch passiv gekühlt daher kommt sind noch ein paar zusätzliche Schmankerl...
Was ist daran auszusetzen ?
Razor
Endorphine
2003-07-12, 11:35:18
Original geschrieben von Razor
[...]
Was ist daran auszusetzen ?
Razor Nichts. Nur sollte man die Karte IMHO nicht so in den Himmel loben. Klar, das Preis-/Leistungsverhältnis für passive Kühlung mit den gebotenen Features ist toll, aber das bekommt man auch schon fast mit einer R9000.
Demirug
2003-07-12, 11:53:23
Original geschrieben von Endorphine
Nichts. Nur sollte man die Karte IMHO nicht so in den Himmel loben. Klar, das Preis-/Leistungsverhältnis für passive Kühlung mit den gebotenen Features ist toll, aber das bekommt man auch schon fast mit einer R9000.
Auf einer R9000 kann sich unser technikgeiler Razor aber keine Dawn, Dusk, Chimp, Car-Paint, ... Demos mit fps anschauen. :D ;)
LovesuckZ
2003-07-12, 11:54:34
Original geschrieben von Endorphine
Nichts. Nur sollte man die Karte IMHO nicht so in den Himmel loben. Klar, das Preis-/Leistungsverhältnis für passive Kühlung mit den gebotenen Features ist toll, aber das bekommt man auch schon fast mit einer R9000.
Oder mit einer MX440. Somit waeren wir nun die letzten 3 Techlevel durchgegangen...
Original geschrieben von Stefan Payne
Klar, nichtmal die G550 :schlag:... tja Matrox ist nicht das was sie mal waren übrigens verbrauchen die nv karten am wenigsten KHz um ein 100 Hz bild auf den monitor zu zaubern
G550 Samsung Monitor 110 KHz
1280*1024@100Hz bei 109,5 KHz
Radeon 9500 pro Samsung Monitor 110 KHz
1280*1024@100Hz bei 109 KHz
FX 5600 Ultra Samsung Monitor 110 KHz
1280*1024@100Hz bei 106 KHz
Exxtreme
2003-07-12, 12:07:11
Original geschrieben von Gast
tja Matrox ist nicht das was sie mal waren übrigens verbrauchen die nv karten am wenigsten KHz um ein 100 Hz bild auf den monitor zu zaubern
G550 Samsung Monitor 110 KHz
1280*1024@100Hz bei 109,5 KHz
Radeon 9500 pro Samsung Monitor 110 KHz
1280*1024@100Hz bei 109 KHz
FX 5600 Ultra Samsung Monitor 110 KHz
1280*1024@100Hz bei 106 KHz
Öhhhm... jaaaa.... und? ???
Aquaschaf
2003-07-12, 12:09:13
@gast
wen interessiert das nun?
Und in Signalqualität, Multimonitorfähigkeit und TV-Out ist Matrox meinen Erfahrungen zufolge nach wie vor die Nummer 1.
Ne nicht Mehr die ramdacs sind nicht mehr die besten bzw seit quali programmen werden Sehr gute signalfilter verbaut das macht nen fetten unterschied!
Und ich beurteile das mal anhand von dem was mir meine augen auf dem monitor zeigen bzw was ich sehe!
und wie du sehen konntest verbraucht die matrox am meisten
StefanV
2003-07-12, 12:18:40
Original geschrieben von Razor
Selber schon mal probiert und 'live' gesehen ?
Nicht ? Dann halt' Dich einfach raus.
Razor
1. ~3Mhz < ~4MHz, jetzt rate mal, was was ist.
2. ich könnte mir durchaus 'ne FX5200 locker leisten, ja sogar eine FX5800 (ULTRA) könnte ich mir leisten, nur was sollte ich damit machen??
AUßerdem gibts keine Low Profile FX5200 in D, ist schon schwer genug 'ne 8500/9100 bzw 9200 zu bekommen...
3. naja, den Satz, den ich hier schreiben wollte, hab ich mir verkniffen, da er beleidigend wäre...
Original geschrieben von Stefan Payne
1. ~3Mhz < ~4MHz, jetzt rate mal, was was ist.
2. ich könnte mir durchaus 'ne FX5200 locker leisten, ja sogar eine FX5800 (ULTRA) könnte ich mir leisten, nur was sollte ich damit machen??
AUßerdem gibts keine Low Profile FX5200 in D, ist schon schwer genug 'ne 8500/9100 bzw 9200 zu bekommen...
3. naja, den Satz, den ich hier schreiben wollte, hab ich mir verkniffen, da er beleidigend wäre... Ahhmmm!!!
Wenn du auf die KHz eingayhen wolltest, dann sag ich dir Jetzt und Hier! "wenn du keine ahnung hast sei still"
KHz Sind mit Nichten MHz Klar!
Muss wohl ein denkfehler von dir sein, aber zeigt auch das du hier nichts geblickt hast!
Also nochmal nachdenken ok?
StefanV
2003-07-12, 12:25:59
Original geschrieben von Gast
tja Matrox ist nicht das was sie mal waren übrigens verbrauchen die nv karten am wenigsten KHz um ein 100 Hz bild auf den monitor zu zaubern
G550 Samsung Monitor 110 KHz
1280*1024@100Hz bei 109,5 KHz
Radeon 9500 pro Samsung Monitor 110 KHz
1280*1024@100Hz bei 109 KHz
FX 5600 Ultra Samsung Monitor 110 KHz
1280*1024@100Hz bei 106 KHz
:schlag: DER Joke schlechthin!!!
sag mal, hast du dir die MGA Optionen mal genau angeschaut??
Denn da kannst du auch 75Hz bei 1024x768 auf 'nen 58kHz 17" Monitor 'Zaubern'.
Nur da du diese Option zum Feintuning des Monitors nicht kennst...
Wenn ich mal bock hab, dann kann ich das mal just 4 fun extra für dich bei meiner G550 und meinem Iiyama A901HT benutzen, wetten, daß ich unter 105kHz komme??
Nur für dich:
Die Karten stellen NICHT 1280x1024 auf einem Monitor dar sondern etwas mehr, je nach Karte mal mehr, mal weniger...
Matrox setzt diese TOLERANZ halt etwas höher an, als die Konkurenz, was gerade bei schlechten (oder gerade bei guten??) Monitoren VORTEILE hat.
Wenn du dich mit dem Panel der G550 beschäftigen würdest, dann wüsstest du auch warum...
StefanV
2003-07-12, 12:28:03
Original geschrieben von Gast
Ahhmmm!!!
Wenn du auf die KHz eingayhen wolltest, dann sag ich dir Jetzt und Hier! "wenn du keine ahnung hast sei still"
KHz Sind mit Nichten MHz Klar!
Muss wohl ein denkfehler von dir sein, aber zeigt auch das du hier nichts geblickt hast!
Also nochmal nachdenken ok?
1. Lesen, verstehen, nachdenken, posten!!!
2. du hast mein Posting weder verstanden, noch drüber nachgedacht.
3. war mein Posting an RAZOR gerichtet und nicht an dich, wofür ich mir extra ein ganzes Posting genommen hab, welches über diesem zu finden ist.
4. mit gleichem Dank zurück.
5. man könnte einen Satz aus deinem obigen Posting auch gegen dich verwenden, siehe 1.
6. und wie du schon richtig bemerkt hast, sind kHz nicht MHz, was den Verdacht nahe legt, daß ich was anderes meinte als du, meinst du nicht??
Original geschrieben von Stefan Payne
:schlag: DER Joke schlechthin!!!
sag mal, hast du dir die MGA Optionen mal genau angeschaut??
Denn da kannst du auch 75Hz bei 1024x768 auf 'nen 58kHz 17" Monitor 'Zaubern'.
Nur da du diese Option zum Feintuning des Monitors nicht kennst...
Wenn ich mal bock hab, dann kann ich das mal just 4 fun extra für dich bei meiner G550 und meinem Iiyama A901HT benutzen, wetten, daß ich unter 105kHz komme??
Nur für dich:
Die Karten stellen NICHT 1280x1024 auf einem Monitor dar sondern etwas mehr, je nach Karte mal mehr, mal weniger...
Matrox setzt diese TOLERANZ halt etwas höher an, als die Konkurenz, was gerade bei schlechten (oder gerade bei guten??) Monitoren VORTEILE hat.
Wenn du dich mit dem Panel der G550 beschäftigen würdest, dann wüsstest du auch warum...
Ja LOL
Und das von dem der sagt mein monitor könnte zwar 100Hz aber dann läuft er am limit und man sollte 10% reserve berücksichtigen!
eigentor mein lieber und ob du nen Iiyama dann auch wohl mal mit ner raedon und fx testen musst!
Aber die Antwort gebe ich die nun schon selber monitor selbes sys nur karten tauschen und die atis und nvs schneiden da auch wieder besser ab!
Original geschrieben von Stefan Payne
1. Lesen, verstehen, nachdenken, posten!!!
2. du hast mein Posting weder verstanden, noch drüber nachgedacht.
3. war mein Posting an RAZOR gerichtet und nicht an dich, wofür ich mir extra ein ganzes Posting genommen hab, welches über diesem zu finden ist.
4. mit gleichem Dank zurück.
5. man könnte einen Satz aus deinem obigen Posting auch gegen dich verwenden, siehe 1.
6. und wie du schon richtig bemerkt hast, sind kHz nicht MHz, was den Verdacht nahe legt, daß ich was anderes meinte als du, meinst du nicht?? Ne du hast meins nicht gelesen
Ahhmmm!!!
Wenn du auf die KHz eingayhen wolltest, dann sag ich dir Jetzt und Hier! "wenn du keine ahnung hast sei still"
KHz Sind mit Nichten MHz Klar!
es ist eindeutig gefragt worden wenn und wenn ja dann!
nichts anderes und spammer solltest dich damit doch auskennen! :)
Deutsch sein schweres sprache :)
Ich hoffe die smilies machen es DIR einfacher!
[
Wenn ich mal bock hab, dann kann ich das mal just 4 fun extra für dich bei meiner G550 und meinem Iiyama A901HT benutzen, wetten, daß ich unter 105kHz komme??
jajajaja du mit 16 farben lol
StefanV
2003-07-12, 12:43:15
Original geschrieben von Gast
tja Matrox ist nicht das was sie mal waren übrigens verbrauchen die nv karten am wenigsten KHz um ein 100 Hz bild auf den monitor zu zaubern
G550 Samsung Monitor 110 KHz
1280*1024@100Hz bei 109,5 KHz
Radeon 9500 pro Samsung Monitor 110 KHz
1280*1024@100Hz bei 109 KHz
FX 5600 Ultra Samsung Monitor 110 KHz
1280*1024@100Hz bei 106 KHz
Was hier über die G550 gesagt wurde ist völliger Schwachsinn!!
Laut MGA Panel bin ich bei 107kHz, laut OSD bei 106kHz, bei meiner Radeon 32SDR bin ich auch 'nur' bei 108kHz...
€dit:
Uppsa, man schafft ja auch 110kHz, genau wie man auch 106kHz schafft.
Ergo: obiges Posting des Gastes ist hinfällig, da alle 3 Karten ähnliche Horizontalfrequenzen 'schaffen', wenn man denn weiß, wie man die Karten zu handhaben hat ;)
Original geschrieben von Stefan Payne
Was hier über die G550 gesagt wurde ist völliger Schwachsinn!!
Laut MGA Panel bin ich bei 107kHz, laut OSD bei 106kHz, bei meiner Radeon 32SDR bin ich auch 'nur' bei 108kHz...
Was du hier machst ist unter aller sau jetzt nimmst du aber sofort ne 9500 pro und ne 5600 ultra die kosten zusammen nicht mal soviel wie die 5800 Ultra!
2. ich könnte mir durchaus 'ne FX5200 locker leisten, ja sogar eine FX5800 (ULTRA) könnte ich mir leisten, nur was sollte ich damit machen??
Was du damit machen sollst meine behauptung nachprüfen aber deine test art ist fürn arsch!
das ust ganz toll das du die radeon sdr nimmst und sogar nen unterschied bemerkst da du nen anderen monitor hast kannst du auch nicht erwarten das du die selben ergebnisse bekommst wie ich also kauf dir die 2 karten und teste es mit denen dann wirst du sehen ab r300 und gf fx ist matrox nicht mehr so gut Bei der pharelia weis ich es nicht und die postings solltest du zurückgeben!
StefanV
2003-07-12, 13:39:30
hier ein Screenshot...
@Gast
Warum flamst du andere Leute an bzw machst sie dumm an, nur weil sie anderer Ansicht sind??
Original geschrieben von Stefan Payne
hier ein Screenshot...
@Gast
Warum flamst du andere Leute an bzw machst sie dumm an, nur weil sie anderer Ansicht sind?? Wie bitte
Was hier über die G550 gesagt wurde ist völliger Schwachsinn!!
WEIST DU WAS DU SCHREIBST?
Warum flamst du andere Leute an bzw machst sie dumm an, nur weil sie anderer Ansicht sind??
In selber Freundlichkeit halt wie sie mir begenen und du bist dann wohl derjenige der hier den bweis nun durch sein aussagen erbringen sollte da du aber nicht bereit bisst einen ehrlichen test zu sehen und mit deine bildzeitungs tes methodik kommst im prinzip habe ich gesagt mach es unter selbigen vorraussetzungen dan ist deine aussage nicht haltbar und es ging nunmal um die neuen karten also was soll das warum kommst du mit nem r100 oder sogar r200 wär huflatich KLARO
StefanV
2003-07-12, 14:03:09
Original geschrieben von Gast
Ne nicht Mehr die ramdacs sind nicht mehr die besten bzw seit quali programmen werden Sehr gute signalfilter verbaut das macht nen fetten unterschied!
Und ich beurteile das mal anhand von dem was mir meine augen auf dem monitor zeigen bzw was ich sehe!
und wie du sehen konntest verbraucht die matrox am meisten
1. wie, wo, was??
Am RAMDAC sollte es am wenigsten liegen...
Ein unscharfes Bild kann nur von schlechten RF Filtern kommen, am RAMDAC liegen meist recht gute Signale an...
2. ??? ???
3. siehe mein letztes Posting...
Da die MGAs bei den Monitoreinstellungen am meisten Freiraum lassen, kanns auch ein Userfehler sein, da meine 'gemessenen Werte' deutlich unter deinen liegen...
€dit:
bei der Radeon liegt definitiv ein Userfehler vor!!
Wenn man weiß, wo man anklicken muss, dann findet man ihn auch recht schnell...
Ich hab bei 1280x1024@100Hz auch 110kHz 'hinbekommen', jetzt aber 'normale' 106kHz.
Es kommt halt ganz darauf an, welche GRÖSSE man im ATI Panel einstellt...
Das gleiche dürfte auch auf alle anderen zutreffen...
Wenn man das bild GRÖSSER macht, dann wird die Horizontalfrequenz geringer...
Sorry im vorraus du Rallst es nicht oder DU bist wirklich so engstirnig im eigndenken! Hast einen anderen monitor und andere karten benutzt KLAR!
so Deine moni behäslt du KLAR!
Jetzt nimmst du anstatt der sdr ne 9500 pro dann ne gainward 5600 ultra du wirst sehen das du spinnst!
und warum machst du mich an und dann wiederlege ich dir das mit der anmache und du kommst nicht auf die idee das mal klarzustellen ne du quottest sachen die da schon länger stehen gayst du immer so in ein diskusion?
Bye the Way das betriebssystem (weil anderer Treiber aber selbe versionsnummer) hat da auch noch mitzureden
StefanV
2003-07-12, 14:20:06
Original geschrieben von Gast
Sorry im vorraus du Rallst es nicht ...
Doch, ich habs gerallt, JETZT hab ichs...
Mich hat halt interessiert, WARUM es so ist, daß die ATI 108kHz liefert, die MGA aber nur 106kHz, also bin ich der Sache mal nachgegangen und zu dem Schluss gekommen, daß es einfach nur eine Einstellungssache ist, welche sowohl bei der G550 als auch den Radeons möglich ist!!!
Da die Radeon nicht allzuviele Einstellungen bezüglich des Monitors zulässt, ist es auch relativ einfach gewesen, die entsprechende Option zu finden, womit ich dein obiges Posting 'außer Kraft gesetzt' hab und das GEGENTEIL von dem, was du gesagt hast, bewiesen hab.
Kurzfassung:
Wenn ich das Monitorbild in den Treiberoptionen der GraKa _KLEINER_ mache (oben/unten), dann ERHÖHE ich die Horizontalfrequenz, mache ich das kleiner, dann verringere ich sie...
Warum das so ist -> k/a, aber es ist so.
Gohan konnte diesen Umstand übrigens mit seinem Rechner (G400) nachvollziehen...
Original geschrieben von Stefan Payne
Doch, ich habs gerallt, JETZT hab ichs...
Mich hat halt interessiert, WARUM es so ist, daß die ATI 108kHz liefert, die MGA aber nur 106kHz, also bin ich der Sache mal nachgegangen und zu dem Schluss gekommen, daß es einfach nur eine Einstellungssache ist, welche sowohl bei der G550 als auch den Radeons möglich ist!!!
Da die Radeon nicht allzuviele Einstellungen bezüglich des Monitors zulässt, ist es auch relativ einfach gewesen, die entsprechende Option zu finden, womit ich dein obiges Posting 'außer Kraft gesetzt' hab und das GEGENTEIL von dem, was du gesagt hast, bewiesen hab.
Kurzfassung:
Wenn ich das Monitorbild in den Treiberoptionen der GraKa _KLEINER_ mache (oben/unten), dann ERHÖHE ich die Horizontalfrequenz, mache ich das kleiner, dann verringere ich sie...
Warum das so ist -> k/a, aber es ist so.
Gohan konnte diesen Umstand übrigens mit seinem Rechner (G400) nachvollziehen... Alles gut und schön aber lass mal die rumstellerein und dann tust mir noch den gefallen und nimmst ein identisches system Gleichgroose monitorausschinitte und nimmst dein g550 dann tauscht du sie gegen ein radeon 9500 pro dannach nimmst du ne 5600 ultra und testest dasselbe mit ihr!
Soetwas nennt sich test unter gleichen bedingungen!
Immer dasselbe OS benutzen und ne neuinstalation damit wirklich kein treiber schmu sein kann!
Ist dir aufgefallen das Du Ihr Weil du Gohan erwänst immer etwas anderes eingestellt habt also ganzlicher schwachfug da mann halt exat gleich bedingungen nehmen j´kann hier geht es doch nicht darum das die chips unterschiedlich aufgebaut sind sondern auf das bild was aufm monitor erscheint und wenn sie exatk gleich gross sind habe ich wieder recht also mach das mal korrekt!
ich erwarte natürlich nicht das du dir die karten kaufen kannst wirst
aber ich habe deinen monitor geordert der ist monntag hier!
Original geschrieben von Stefan Payne
Doch, ich habs gerallt, JETZT hab ichs...
Mich hat halt interessiert, WARUM es so ist, daß die ATI 108kHz liefert, die MGA aber nur 106kHz, also bin ich der Sache mal nachgegangen und zu dem Schluss gekommen, daß es einfach nur eine Einstellungssache ist, welche sowohl bei der G550 als auch den Radeons möglich ist!!!
Da die Radeon nicht allzuviele Einstellungen bezüglich des Monitors zulässt, ist es auch relativ einfach gewesen, die entsprechende Option zu finden, womit ich dein obiges Posting 'außer Kraft gesetzt' hab und das GEGENTEIL von dem, was du gesagt hast, bewiesen hab.
Kurzfassung:
Wenn ich das Monitorbild in den Treiberoptionen der GraKa _KLEINER_ mache (oben/unten), dann ERHÖHE ich die Horizontalfrequenz, mache ich das kleiner, dann verringere ich sie...
Warum das so ist -> k/a, aber es ist so.
Gohan konnte diesen Umstand übrigens mit seinem Rechner (G400) nachvollziehen... obiges post hatte nen fehler
Nebenbei wenn ich verlange das alle karten FP32 rendern dan werden sie doch glatt lansammer na hint verstanden
StefanV
2003-07-12, 15:24:10
Original geschrieben von Gast
Alles gut und schön aber lass mal die rumstellerein und dann tust mir noch den gefallen und nimmst ein identisches system Gleichgroose monitorausschinitte und nimmst dein g550 dann tauscht du sie gegen ein radeon 9500 pro dannach nimmst du ne 5600 ultra und testest dasselbe mit ihr!
Soetwas nennt sich test unter gleichen bedingungen!
Immer dasselbe OS benutzen und ne neuinstalation damit wirklich kein treiber schmu sein kann!
Ist dir aufgefallen das Du Ihr Weil du Gohan erwänst immer etwas anderes eingestellt habt also ganzlicher schwachfug da mann halt exat gleich bedingungen nehmen j´kann hier geht es doch nicht darum das die chips unterschiedlich aufgebaut sind sondern auf das bild was aufm monitor erscheint und wenn sie exatk gleich gross sind habe ich wieder recht also mach das mal korrekt!
ich erwarte natürlich nicht das du dir die karten kaufen kannst wirst
aber ich habe deinen monitor geordert der ist monntag hier!
Oh mann...
1. Alle Karten liefern unter gleichen Bedingungen die gleichen Auflösungen.
2. wenn man in den Monitoroptionen der GraKa Treiber die Bildgröße ändert, ändert sich die Horizontalfrequenz.
SCHLUSSFOLGERUNG:
Der Treiber erhöht die Auflösung zwischen Monitor und GraKa!!!
Angenommen ich hab 1280x1024 und verkleiner das Bild um 10%, dann erhöhtder GraKa Treiber die Auflösung um 10%, was dazu führt, daß die Horizontalfrequenz ebenfalls um 10% erhöht wird.
Außerdem:
ein paar Satzzeichen wären auch nicht verkehrt...
StefanV
2003-07-12, 15:36:25
Nochwas:
Diese Einstellung gibts NICHT bei nV Karten!!!
Wohl aber bei Matrox und ATI Karten, wie es bei den anderen ausschaut -> k/a
Razor
2003-07-12, 18:24:18
Original geschrieben von Demirug
Auf einer R9000 kann sich unser technikgeiler Razor aber keine Dawn, Dusk, Chimp, Car-Paint, ... Demos mit fps anschauen. :D ;)
Wohl wahr... die fpm der gf3 unter DX9 gingen mir schon gehörig auf die Nerven !
:D
Razor
Razor
2003-07-12, 18:26:05
Original geschrieben von Aquaschaf
@gast
wen interessiert das nun?
Und in Signalqualität, Multimonitorfähigkeit und TV-Out ist Matrox meinen Erfahrungen zufolge nach wie vor die Nummer 1.
Das dachte ich auch einmal...
:D
Razor
P.S.: solltest Dir vielleicht auch mal so ein FX'chen zulegen, um Deine Erfahrungen diesbezüglich zu bereichern.
;-)
Razor
2003-07-12, 18:31:29
Original geschrieben von Stefan Payne
2. ich könnte mir durchaus 'ne FX5200 locker leisten, ja sogar eine FX5800 (ULTRA) könnte ich mir leisten, nur was sollte ich damit machen??
AUßerdem gibts keine Low Profile FX5200 in D, ist schon schwer genug 'ne 8500/9100 bzw 9200 zu bekommen...
Sehr schade für Dich... den so werden Dir bestimmte (durchaus angenehme) Erfahrungen verwehrt bleiben. Habe Dir ja schon mal gesagt, dass ich mir niemals ein (primär) Gehäuse anschaffen würde, dass mich dermaßen in meiner Produktfindung einschränkt.
Ich rate Dir dringlichst, Dir mal die FX5200 (bitte die Club3D/Albatron mit 128MB) vis a vis einer G550 gegenüber zu stellen. Und schau Dir insbesondere die Multi-Mon-Quali der Bildschirme an (war ein netter Testaufbei in der Firma mit gleich 4 Bildschirmen ;-).
Razor
Original geschrieben von Razor
Ich rate Dir dringlichst, Dir mal die FX5200 (bitte die Club3D/Albatron mit 128MB) vis a vis einer G550 gegenüber zu stellen. Und schau Dir insbesondere die Multi-Mon-Quali der Bildschirme an (war ein netter Testaufbei in der Firma mit gleich 4 Bildschirmen ;-).
Mal im Ernst: hast du mal die Möglichkeit bedacht, dass du einfach ein gutes Exemplar erwischt hast? Nicht das ich/wir dir nicht glaube(n) würde(n), aber bei einer LowestEnd-Karte klingt sowas einfach unglaubwürdig.
zeckensack
2003-07-12, 21:59:50
Bei Razor wundert mich ehrlich gesagt garnichts mehr. Er fand ja sogar die ELSA Geforce 3 empfehlenswert, und nun, wie soll ich sagen, das ist sie nicht.
StefanV
2003-07-12, 22:07:56
Original geschrieben von zeckensack
Bei Razor wundert mich ehrlich gesagt garnichts mehr. Er fand ja sogar die ELSA Geforce 3 empfehlenswert, und nun, wie soll ich sagen, das ist sie nicht.
...ach nee, hab ich das nicht schon vor Jahren gesagt?? :|
Achja, damals hatte ich 'meine erste' 721, wie 'meine' 2. 721 ist, das dürftest du ja schmerzlich erfahren haben...
Razor
2003-07-12, 22:28:41
Original geschrieben von Ikon
Mal im Ernst: hast du mal die Möglichkeit bedacht, dass du einfach ein gutes Exemplar erwischt hast? Nicht das ich/wir dir nicht glaube(n) würde(n), aber bei einer LowestEnd-Karte klingt sowas einfach unglaubwürdig.
Nicht wenn man die Marktpositionierung bedenkt... schließlich ist LowEnd auch gleich Office. Und ich vermute mal, dass nVidia sich hier einfach einen Namen machen will...
Auch sollte man bedenken, dass nVidia hier seinen Ruf wieder zurecht rücken musste, nach den teilweise sehr schlechten Beurteilungen der gf4-Reihe.
Wie dem auch sei, auch andere scheinen schon sehr gute Erfahrungen mit der SQ und auch dem TV-Out der FX-Reihe gemacht zu haben, insofern bin ich sicher nicht der einzige, der den Kärtchen eine gute Empfehlung gibt. Und immer bedenken, ich verweise IMMER auf meine eigenen persönlichen Erfahrungen und nenne sogar Hersteller und Typ der Karte.
Wenn das nicht reicht, dann weiß ich's auch nicht...
Razor
Razor
2003-07-12, 22:37:27
Original geschrieben von zeckensack
Bei Razor wundert mich ehrlich gesagt garnichts mehr. Er fand ja sogar die ELSA Geforce 3 empfehlenswert, und nun, wie soll ich sagen, das ist sie nicht.
Dann würde mich mal wirklich interessieren, wo Du das her hast.
Ich habe so einige im Bekanntenkreis, die sich damals ebenfalls die ELSA Gladiac 920 (i.e. ur-gf3) gezogen haben und zum gleichen Fazit gekommen sind: Sehr gute SQ, nicht unbedingt besser als die von Matrox, aber durchaus gut bis sehr gut. Auch der TV-Out war gut und durchaus mit der Lösung von ATI oder Matrox zu vergleichen (was ich grundsätzlich so formuliert habe !).
Die FX5200 jetzt (wichtig: Club3D/Albatron mit 128MB) schlägt sie aber alle (wieder wichtig: ATI bis R9500, Matrox bis G550) und der TV-Out ist Beipsiellos.
Wer das nicht gleuben mag, gebe die paar Euro aus und überprüfe das selber. SP, der hier nur rumlabert, aber offensichtlich nicht in der Lage ist, selber Erfahrungen zu machen, obwohl er ja kürzlich zu Reichtum gekommen zu sein scheint (wahrscheinlich geht er nur seinem ersten Job nach ;-), behauptet das Gegenteil, ohne jede Grundlage...
Nun würde mich bei Dir natürlich interessieren, woher Du Deine Behauptung nimmst. Besitzt Du also die oben beschriebene gf3 und hast andere Erfahrungen gemacht ? Und wenn dem so ist, warum teilst Du uns diese nicht einfach mal mit, als Dich hier so vage auszudrücken.
Sorry für den Tonfall, aber da macht man sich die Mühe (in erster Linie natürlich nur für mich selbst ;-), sich mal unterschiedlichste Hardware anzuschauen und versucht dies interessierten Mitmenschen mitzuteilen und dann kommt so ein... mit verlaub... flaches Gelaber.
Also irgendwie...
Razor
StefanV
2003-07-12, 22:49:09
Original geschrieben von Razor
Ich habe so einige im Bekanntenkreis, die sich damals ebenfalls die ELSA Gladiac 920 (i.e. ur-gf3) gezogen haben und zum gleichen Fazit gekommen sind: Sehr gute SQ, nicht unbedingt besser als die von Matrox, aber durchaus gut bis sehr gut. Auch der TV-Out war gut und durchaus mit der Lösung von ATI oder Matrox zu vergleichen (was ich grundsätzlich so formuliert habe !).
Razor, dein Artikel, der auf Seijin.de veröffentlicht wurde, beweist das genaue Gegenteil von dem, was du hier gesagt hast.
Das Matschbild eines BT869 Chips ist absolut NICHT vergleichbar mit dem Klaren und wirklich sehr guten Signals einer Matrox Karte, die sogar den einen oder anderen Standalone DVD Player schlägt...
Gleiches gilt natürlich auch für alle ATI GraKas mit ImpacTV Encoder, wenn auch ATI Karten eine leichte Neigung zu Rot haben, der Rage Theatre ist aber auch immer noch recht gut...
Original geschrieben von Razor
Sorry für den Tonfall, aber da macht man sich die Mühe (in erster Linie natürlich nur für mich selbst ;-), sich mal unetrschiedlichste Hardware anzuschauen und versucht dies interessierten Mitmenschen mitzuteilen und dann kommt so ein... mit verlaub... flaches gelaber.
Ein Problem ist auch, dass man von einem NVidianer keine halbwegs objektive Bewertung von nV-Hardware erwarten kann. Genauso könnte ich meine Kaufentscheidung aufgrund eines Radeon-Reviews von Rage3D fällen, oder noch besser aufgrund einer Empfehlung von z.B. nagus, Tarkin, Richthofen oder LovesuckZ (ist nicht persöhnlich gemeint).
-> Wer einmal flamt, dem glaubt man nicht.
zeckensack
2003-07-12, 22:59:23
Original geschrieben von Razor
Dann würde mich mal wirklich interessieren, wo Du das her hast.
Ich habe so einige im Bekanntenkreis, die sich damals ebenfalls die ELSA Gladiac 920 (i.e. ur-gf3) gezogen haben und zum gleichen Fazit gekommen sind: Sehr gute SQ, nicht unbedingt besser als die von Matrox, aber durchaus gut bis sehr gut. Auch der TV-Out war gut und durchaus mit der Lösung von ATI oder Matrox zu vergleichen (was ich grundsätzlich so formuliert habe !).Ich behaupte, daß ELSA zumindest eine Zeit lang eine völlig indiskutable bis nicht vorhandene Qualitätssicherung hatte. Das wirft kein gutes Licht auf die Firma. Grundlage folgt weiter unten.
Wenn du eine schnieke Karte hattest, dann hat ELSA sie wohl hergestellt, bevor sie bescheuert wurden (vgl: Creative Labs nach der SB AWE32). Oder du/ihr hattest/hattet einfach mehr Glück als ich. Die Firma grundsätzlich zu empfehlen, ist dann aber nicht mehr angebracht, und ich weiß daß du das getan hast.
Die FX5200 jetzt (wichtig: Club3D/Albatron mit 128MB) schlägt sie aber alle (wieder wichtig: ATI bis R9500, Matrox bis G550) und der TV-Out ist Beipsiellos.Welche 9500, bzw welcher Hersteller?
[/teufel's advokat]
Nun würde mich bei Dir natürlich interessieren, woher Du Deine Behauptung nimmst. Besitzt Du also die oben beschriebene gf3 und hast andere Erfahrungen gemacht ? Und wenn dem so ist, warum teilst Du uns diese nicht einfach mal mit, als Dich hier so vage auszudrücken.Wahrscheinlich hast du das hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1010737#post1010737) nie gesehen.
Sorry für den Tonfall, aber da macht man sich die Mühe (in erster Linie natürlich nur für mich selbst ;-), sich mal unterschiedlichste Hardware anzuschauen und versucht dies interessierten Mitmenschen mitzuteilen und dann kommt so ein... mit verlaub... flaches Gelaber.Ja, du gibst dir wirklich Mühe. Mühe möglichst viel zu schreiben und möglichst weite Teile der Welt mit deinem Grinsen zu erfreuen. Ich würde mich freuen, wenn du die Threads an denen du teilnimmst auch mal aufmerksam verfolgst und das gesagte im Hinterkopf behältst, statt einfach alles wieder zu vergessen, was dir nicht schmeckt.
"flaches Gelaber" ... hmmm ...
Ich weiß daß du detailliert und korrekt vorgehen kannst, wenn du willst, und das du dich in gewissen Unterforen sehr engagiert und konstruktiv verhältst. Daumen hoch. Aber hier, im Forum "Diskussion: Grafikkarten", kann ich das ja wohl nur als schlechten Scherz deinerseits auffassen.
Ob SP schlimmer ist als du, dazu äußere ich mich hier und jetzt nicht, es steht auch nicht zur Debatte. Nur so viel: SP mußte von der Modschaft schon deutlich mehr Ermahnungen und Erziehungsmaßnahmen über sich ergehen lassen als du.
Razor
2003-07-13, 07:15:41
Original geschrieben von Stefan Payne
Razor, dein Artikel, der auf Seijin.de veröffentlicht wurde, beweist das genaue Gegenteil von dem, was du hier gesagt hast.
Zwar sitzt auf meiner Galdiac 920 ein BT868 (wenn ich recht entsinne... muss mal nachschaun') und Du wirst mir sicher zustimmen, dass da noch ein bissel mehr zugehört, als nur der Chip, oder ?
Trotzdem würde mich der Artikel auf Sejin interssieren... hast Du mal einen konkreten Link zu diesem ?
Razor
Ist ein BT869-Chip... ;-)
Razor
2003-07-13, 07:36:17
Original geschrieben von zeckensack
Ich behaupte, daß ELSA zumindest eine Zeit lang eine völlig indiskutable bis nicht vorhandene Qualitätssicherung hatte. Das wirft kein gutes Licht auf die Firma. Grundlage folgt weiter unten.
Wenn du eine schnieke Karte hattest, dann hat ELSA sie wohl hergestellt, bevor sie bescheuert wurden (vgl: Creative Labs nach der SB AWE32). Oder du/ihr hattest/hattet einfach mehr Glück als ich. Die Firma grundsätzlich zu empfehlen, ist dann aber nicht mehr angebracht, und ich weiß daß du das getan hast.
Stimmt, das habe ich mal getan... bis ELSA anfing, ein schwarzes PCB fertigen zu lassen und dort wohl auch die Quali-Sicherung nicht mehr selbst gemacht hat.
Original geschrieben von zeckensack
Welche 9500, bzw welcher Hersteller?
[/teufel's advokat]
Connect3D R9500 mit 128MB, 256Bit-Referenz-Design (rotes PCB) mit ATI-Sticker/-Seriennnummer...
Original geschrieben von zeckensack
Wahrscheinlich hast du das hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1010737#post1010737) nie gesehen.
Nein habe ich tatsächlich nicht...
Aber wenn ich das richtig sehe, dann hast Du also keine ELSA Gladiac 920 (ist die ur-gf3), sondern eine ti200... ich habe damals ELSA als Firma empfohlen, das ist richtig, nicht mehr allerdings, als sich dieses Debakel mit der nicht mehr vorhandenen Quali-Sicherung einstellte und es sich bei den so vertriebenen Produkten dann mit der sonst wirklich guten ELSA-Quali erledigt hatte.
Original geschrieben von zeckensack
Ja, du gibst dir wirklich Mühe. Mühe möglichst viel zu schreiben und möglichst weite Teile der Welt mit deinem Grinsen zu erfreuen. Ich würde mich freuen, wenn du die Threads an denen du teilnimmst auch mal aufmerksam verfolgst und das gesagte im Hinterkopf behältst, statt einfach alles wieder zu vergessen, was dir nicht schmeckt.
Und wo soll das bitte der Fall gewesen sein ?
Original geschrieben von zeckensack
"flaches Gelaber" ... hmmm ...
Ich weiß daß du detailliert und korrekt vorgehen kannst, wenn du willst, und das du dich in gewissen Unterforen sehr engagiert und konstruktiv verhältst. Daumen hoch. Aber hier, im Forum "Diskussion: Grafikkarten", kann ich das ja wohl nur als schlechten Scherz deinerseits auffassen.
Natürlich darfst Du auffassen, was immer Du willst, auch wenn ich dem vehement wiedersprechen möchte. Jetzt hast Du ja angefangen eine 'vernünftige' Argumentation zu führen und nicht so 'flach' zu reagieren, wie Du es zuvor getan hast.
Wie heißt es so schön ?
"Wie Du kommst gegangen, so wirst Du empfangen."
Will heißen, wenn auf der einen Seite 'vernünftig' argumentiert wird, dann tut ich das auf der anderen auch.
Original geschrieben von zeckensack
Ob SP schlimmer ist als du, dazu äußere ich mich hier und jetzt nicht, es steht auch nicht zur Debatte. Nur so viel: SP mußte von der Modschaft schon deutlich mehr Ermahnungen und Erziehungsmaßnahmen über sich ergehen lassen als du.
Nun ja, ich kann micht nicht entsinnen, jemals 'erzogen' worden zu sein.
aths versucht das ab und an mal, was bei mir aber schlicht 'abtropft'...
;-)
-
Ich empfehle grundsätzlich nur Produkte. So nenne ich meist (vielleicht nicht immer) die genaue Produktbezeichnung, wie auch hier die Gladiac 920 und lobe diese, wenn sie mir lobenswert erscheinen. Dies entspringt dann meinen persönlichen Erfahrungen und nicht irgendwelchem Hörensagen.
So tut es mir natürlich leid, dass Du so schlechte Erfahrungen mit Deiner gf3ti200 gemacht hast, nur tust Du jetzt das Gleiche, wie ich es damals vor dem ELSA-Debakel tat. Du verurteilst eine ganze Firma (in diesem Post zumindest etwas differenzierter, wenn auch nur indirekt), obwohl es durch aus gute Erfahrungen damit gibt. Zumal es ja noch andere Indikatoren für eine gute Firma gibt, wie z.Bsp. Gewährleistung und Response, die bei ELSA eigentlich IMMER ausgesprochen gut war (zumindest was meine Erfahrungen und die anderer aus meiem 'Dunstkreis' angeht ;-).
Wie dem auch sei, ich denke, wenn wir uns alle ein wenig präziser ausdrücken und aufhören, Dinge stark zu verallgemeinern, dann kommen wir vielleicht auch auf einen Konsenz.
(da schließe ich mich in beiden Punkten selbstverständlich mit ein !)
Razor
Razor
2003-07-13, 07:48:48
Original geschrieben von Ikon
-> Wer einmal flamt, dem glaubt man nicht.
Das ist Deine Sache...
Nur solltest Du allgemeines Gelabere (gerade in Streitsituationen) von Themenbezogenen Diskussionen trennen (mache ich auch so ;-). Wenn ich sage, dass die Multi-Moni-SQ und der TV-Out eines Produktes besser ist, als die der Konkurrenz, dann heißt das doch im Umkehrschluss nicht, dass dort nur Schrott produziert wird. Wenn Du so denkst, dann wundern mich bestimmte Reaktionen Deinerseits nicht im geringsten...
;-)
- 'besser' bedeutet im Gegenzug nicht ein 'schlecht'
- 'perfekter TV-Out' meint genau das, was es sagt
Razor
@Razor
Es ist schön, wenn du mit deiner 5200 so zufrieden bist. Aber da du eine ausgesprochene Vorliebe zu nvidia-Produkten hast, muss man deine Aussagen mit Vorsicht betrachten. Insbesondere, wenn du ein Produkt über alle anderen stellst, ohne die Konkurrenz begutachtet zu haben.
Du vergleichst die 5200 mit einer Radeon9500 und einer 2Jahre alten Matrox-Karte. Das ist doch keine Grundlage für eine solche Einschätzung.
Razor
2003-07-13, 08:23:17
Original geschrieben von Axel
@Razor
Es ist schön, wenn du mit deiner 5200 so zufrieden bist. Aber da du eine ausgesprochene Vorliebe zu nvidia-Produkten hast, muss man deine Aussagen mit Vorsicht betrachten. Insbesondere, wenn du ein Produkt über alle anderen stellst, ohne die Konkurrenz begutachtet zu haben.
Du vergleichst die 5200 mit einer Radeon9500 und einer 2Jahre alten Matrox-Karte. Das ist doch keine Grundlage für eine solche Einschätzung.
Hmmm...
Mit was hätte ich denn die 5200 sonst vergleichen sollen ?
Die G550 ist hinsichtlich der SQ/TV-Out Qualität von Matrox ja nun nicht gerade unaktuell und auch die R9500 im ATI-Referenz-Design ist ebenfalls aktuell. Auch habe ich alle hier erwähnten Karten selbst in Augenschein nehmen dürfen (die G550 findet sich übrigens noch immer in einem meiner Firmenrechner ;-).
Insofern kann ich Deinen Post inhaltlich nicht im geringsten nachvollziehen !
Razor
Original geschrieben von Razor
Hmmm...
Mit was hätte ich denn die 5200 sonst vergleichen sollen ?
Die G550 ist hinsichtlich der SQ/TV-Out Qualität von Matrox ja nun nicht gerade unaktuell und auch die R9500 im ATI-Referenz-Design ist ebenfalls aktuell. Auch habe ich alle hier erwähnten Karten selbst in Augenschein nehmen dürfen (die G550 findet sich übrigens noch immer in einem meiner Firmenrechner ;-).
Insofern kann ich Deinen Post inhaltlich nicht im geringsten nachvollziehen !
Razor
Wenn du nur 3 Karten kennst, solltest du auch nur diese 3 miteinander vergleichen, aber du nimmst diesen Minivergleich um die 5200 als non plus ultra darzustellen. Damit lehnst du dich sehr weit aus dem Fenster. Bei deiner Beurteilung fehlen dabei völlig konkrete Aussagen was die 5200 (bzw. deren Treiber) besser kann als die Konkurrenz.
Wenn du eine sinnvolle Aussage treffen willst, dann sind die 5200 von nv, die 9600 von ATi und die P650 von Matrox zu vergleichen.
Razor
2003-07-13, 09:12:33
Original geschrieben von Axel
Wenn du nur 3 Karten kennst, solltest du auch nur diese 3 miteinander vergleichen, aber du nimmst diesen Minivergleich um die 5200 als non plus ultra darzustellen. Damit lehnst du dich sehr weit aus dem Fenster. Bei deiner Beurteilung fehlen dabei völlig konkrete Aussagen was die 5200 (bzw. deren Treiber) besser kann als die Konkurrenz.
Wenn du eine sinnvolle Aussage treffen willst, dann sind die 5200 von nv, die 9600 von ATi und die P650 von Matrox zu vergleichen.
Red' nicht so einen Schnurz, sorry...
Die genannten Karten sind lediglich die letzten Ihrer Familie, die ich intesivst im eigenen Gebrauch hatte.
Da waren schon ein bissel mehr in den letzten Jahrenden...
:D
Du willst also sagen, dass die SQ bzw. der TV-Out einer R9600 besser ist, als bei der R9500 ? Und bei Matrox ebenso ? Und das, obwohl die G550 diesbezüglich (zu Recht !) in den höchsten Tönen gelobt wurde ?
Sorry nochmals, aber irgendwie...
Das was Du da verlangst, geht weit über die Möglichkeiten eines Hobby's hinaus !
(man will ja auch ein bissel Geld in Auto, Urlaub und sonstige Dinge stecken ;-)
Razor
Das ein solcher umfassender Marktüberblick für jeden mit diesem Thema als Hobby nicht möglich ist, sehe ja genauso. Deshalb verstehe ich auch nicht wie du zu deinem Urteil der 5200 kommen kannst.
Die Qualität vonm Radeon9600 und P650 kann ich nicht beurteilen, da ich die Karten nicht gesehen habe. Ich erwarte auch keinen großen Unterschied zwischen 9500 und 9600. Das habe ich auch nicht behauptet. Bei der P650 sind viel zu wenig Informationen verfügbar, um diese Karte in den genannten Punkten zu beurteilen. Auf der anderen Seiten sagst du, daß die SQ und die TV-out-Eigenschaften der 5200 besser als bei der G550 sind. Vielleicht ist die P650 auch besser als die G550 und der 5200 überlegen.
Komisch hatte auch Ne Elsa Gf3 die sehr gut wahr, der TV Chip hat aber trotzdem nichts mit dem Monitor Bild zu tun.
Ja Zeckensack wie razor es sagte schwarzes pcp! Na wer war wohl der Hersteller?
Kommt aus amiland die waren nach der Ur gforce3!
Diese karte braucht übrigens am selben Monitor nur 105,6 kHz!
Die 5200 ist in der tat als Office karte mit longhorn Support gedacht, die Integration des TV Chips bringt es (das nur für TV-IN ein separater Chip gebraucht wird ) das Qualitäts Programm läuft also!
Jeder Hersteller der diesen Button von nv verkleben möchte Mus minimal die von nv vorgeschriebenen Signal wandler, pcbs usw. verwenden!
PS. Ihr sagt der 5200 wäre ein Einzelfall, gut die 5600 auch und die 4 connect3d 9500 pro natürlich alles sonderware von ati und nv, das ist mir gerade auch erst bewußt geworden ???
(mal darüber nachgedacht das es bei matrox mal so sein könnte das selbst deren bestes Kauf Argument von den Big playern weggenommen wird die haben halt Ne Krise)
Ja payne was du nicht alles sagst: „ich kann nichts dafür das ich mit 12 angefangen habe ct zu lesen“!
Verstehen und lesen sind 2 paar Schuhe, ich als seltener ct Leser kenne da einen sq Test der ist ca. 3-4 Jahre alt, und ca. vor 1 nem Jahr war da noch Mals was na was war es?
upps weis ich sogar glatt ausm Kopf muß wohl höchst wichtig gewesen sein!
Und du hast es nicht gerafft!
Noch nicht ganz, aber kann ja noch kommen.
Connect3D R9500 mit 128MB, 256Bit-Referenz-Design (rotes PCB) mit ATI-Sticker/-Seriennnummer..
Ja genau die allerdings sind die rams nicht im l Format, aber das latich die Seriennummer wäre kein prob aber die frage kann ja nie nicht Ernst sein.
Ein Problem ist auch, das man von einem NVidianer keine halbwegs objektive Bewertung von nV-Hardware erwarten kann. Genauso könnte ich meine Kaufentscheidung aufgrund eines Radeon-Reviews von Rage3D fällen, oder noch besser aufgrund einer Empfehlung von z.B. nagus, Tarkin, Richthofen oder LovesuckZ (ist nicht persöhnlich gemeint).
Nun das heißt Tarkus :)
Aber ich z.B. habe da sehr ähnlich Erfahrungen wie razor. Und habe extra nv soweit wie möglich nach hinten gesetzt dann Ati noch mit in den Vergleich gebracht!
Es wurde darauf verzichtet, (was sehr selten bei so einem Thema ist) die 3d Qual zu Forcen. Oder den anderen spam und Flame kacke, es ist nur von der Signal Qual die rede! Hier ist kein normales ati VS nv nein ATI&NV VS Matrox ,damit ist deine aussage nicht haltbar in diesem Thread.
Razor, dein Artikel, der auf Seijin.de veröffentlicht wurde, beweist das genaue Gegenteil von dem, was du hier gesagt hast.
Das Matschbild eines BT869 Chips ist absolut NICHT vergleichbar mit dem Klaren und wirklich sehr guten Signals einer Matrox Karte, die sogar den einen oder anderen Standalone DVD Player schlägt...
Gleiches gilt natürlich auch für alle ATI GraKas mit ImpacTV Encoder, wenn auch ATI Karten eine leichte Neigung zu Rot haben, der Rage Theatre ist aber auch immer noch recht gut...
Nja das ist richtig der Chip ist nicht der beste aber das ist latich, da die dvd Wiedergabe Einheit ON die ist und auf 3 MHz erhöht wurde ATI 2,2 oder 2,5 matrox keine Angabe! Also auch egal Fang mal an zu denken und dann zu schreiben, den tipp wolltest du mir geben aber halt dich mal selbst dran!
Original geschrieben von Aquaschaf
@Gast
Wen interessiert das nun?
Und in Signalqualität, Multimonitorfähigkeit und TV-Out ist Matrox meinen Erfahrungen zufolge nach wie vor die Nummer 1.
Tja es war einmal und damit ist nun vorbei, denn seit der r300 reihe und den fxsen ist es damit vorbei, könnte wohl daran liegen das da jemand mit höherer interne Präzision arbeitet! (hint: es gab da mal nenn Bericht zu den kyros die renderten intern besser und hatten somit ein sehr gute na was)
Nochwas:
Diese Einstellung gibt’s NICHT bei nV Karten!!!
Wohl aber bei Matrox und ATI Karten, wie es bei den anderen ausschaut -> k/a
Tja dann!
Wenn du es bei nv nicht kannst las doch alles wie es vom Hersteller vorgesehen war! Ja durch rummurkserei bekomme ich auch jeden wert den ich möchte, da kannst du mal sehen was du für Ne kacke testest.
zeckensack
2003-07-13, 12:17:57
Original geschrieben von Razor
Und wo soll das bitte der Fall gewesen sein ?PS 1.4?
Du hast bei dieser Debatte, die wir speziell deinetwegen nicht einmal, sondern dreimal führen mußten, schön gezeigt, daß du Information (!=Meinung, die sei dir gegönnt) gerne schonmal 'vergisst'. Das macht es zum Teil ziemlich frustrierend, sich mit dir auseinanderzusetzen :|
zeckensack
2003-07-13, 12:24:37
Original geschrieben von Gast
<...>
Diese karte braucht übrigens am selben Monitor nur 105,6 kHz!
<...>Jetzt mal im Ernst:
Wen zur Hölle interessiert das denn ernsthaft?
"Verbrauchen" ist ja irgendwie witzig, aber sollte doch einleuchten, daß wenn man die Karten so einstellt, daß sie das gleiche Signal erzeugen, auch die Horizontalfrequenz gleich ist ... oder etwa nicht?
Dann hat halt der RAMDAC x bei Default-Einstellung von Treiber y 1,749% mehr Backporch, uuuuiiiiii :eyes:
Mein Monitor wird deswegen sicher explodieren :eyes:
Original geschrieben von zeckensack
Jetzt mal im Ernst:
Wen zur Hölle interessiert das denn ernsthaft?
"Verbrauchen" ist ja irgendwie witzig, aber sollte doch einleuchten, daß wenn man die Karten so einstellt, daß sie das gleiche Signal erzeugen, auch die Horizontalfrequenz gleich ist ... oder etwa nicht?
Dann hat halt der RAMDAC x bei Default-Einstellung von Treiber y 1,749% mehr Backporch, uuuuiiiiii :eyes:
Mein Monitor wird deswegen sicher explodieren :eyes: nenenene
so en nonsens ja und ich habe nicht mehr verlangt als unter gleichen vorraussetzungen und dann? Ja häng dich mal daran auf und den rest ignorieren wir wie panne ja ne so nicht!
Und stell dir vor die dacs sind eh von verschiedenen herstellern!
Nur so ich schrieb es extra da ich die elsa besitze und die karte hat na was hat die wohl aufm pcb für bauteile?
zeckensack
2003-07-13, 12:41:15
Original geschrieben von Gast
nenenene
so en nonsens ja und ich habe nicht mehr verlangt als unter gleichen vorraussetzungen und dann? Ja häng dich mal daran auf und den rest ignorieren wir wie panne ja ne so nicht!
Und stell dir vor die dacs sind eh von verschiedenen herstellern!
Nur so ich schrieb es extra da ich die elsa besitze und die karte hat na was hat die wohl aufm pcb für bauteile? Was ändert das denn? Die Performance sicher nicht. Die Signalqualität? Sag's mir! =)
StefanV
2003-07-13, 12:45:24
@Gast
Versuch doch solangsam zu verstehen, daß das eine TREIBER Sache ist!!
Ich kann z.B. die Radeon so einstellen, daß sie mir bei 1280x1024@100Hz 110kHz liefert, ich kann sie aber auch so einstellen, daß sie 106kHz liefern.
Was DU ansprichst sind unterschiedliche Treiberdefaults...
Daß du dich so aufregst ist in etwa vergleichbar damit, als wenn ATI jetzt auf einmal 2xFSAA und 4°AF als Default einstellen würde...
Nochmal für dich zum Mitschreiben:
Bei gleicher Einstellung liefern alle 3 Karten (Radeon 32SDR, Matrox G550 und Leadtek TI200 TDH) exakt die gleiche Horizontalfrequenz!!!
Außerdem:
Verantwortlich für die unterschiedliche Horizontalfrequenz ist die Einstellung für die Monitor Bildgröße welche bei nVidia nicht Vorhanden ist.
Original geschrieben von zeckensack
Was ändert das denn? Die Performance sicher nicht. Die Signalqualität? Sag's mir! =) Wer redet von performence hier hat aber jemand nen dicken quirl in form von zuviel alkehol im kopf
ps ja du hast mehr frames wenn du mit 85Hz arbeitest als mit 100 wenn du vsync ausschaltest aber was zum teufel hat das jetzt hier zu suchen OH MAN
ja echt treiber sache man es ist bei den nvs übrigens ein und der selbe treiber ohh schareck selber treiber und pro chip generation auch noch unterschiede im verbrauch huihui wie kann es sein aber ne da hat der quirl wohl wieder zugeschlagen
Original geschrieben von Stefan Payne
@Gast
Versuch doch solangsam zu verstehen, daß das eine TREIBER Sache ist!!
Ich kann z.B. die Radeon so einstellen, daß sie mir bei 1280x1024@100Hz 110kHz liefert, ich kann sie aber auch so einstellen, daß sie 106kHz liefern.
Was DU ansprichst sind unterschiedliche Treiberdefaults...
Daß du dich so aufregst ist in etwa vergleichbar damit, als wenn ATI jetzt auf einmal 2xFSAA und 4°AF als Default einstellen würde...
Nochmal für dich zum Mitschreiben:
Bei gleicher Einstellung liefern alle 3 Karten (Radeon 32SDR, Matrox G550 und Leadtek TI200 TDH) exakt die gleiche Horizontalfrequenz!!!
Außerdem:
Verantwortlich für die unterschiedliche Horizontalfrequenz ist die Einstellung für die Monitor Bildgröße welche bei nVidia nicht Vorhanden ist. nicht vorhanden pa kauf dir ne gainward da haste sogar nen gama regler wenn du die treiber von gainward nimmst.
zeckensack
2003-07-13, 13:26:08
Original geschrieben von Gast
Wer redet von performence hier hat aber jemand nen dicken quirl in form von zuviel alkehol im kopf
ps ja du hast mehr frames wenn du mit 85Hz arbeitest als mit 100 wenn du vsync ausschaltest aber was zum teufel hat das jetzt hier zu suchen OH MANGute Frage. Die habe ich auch schon gestellt :bäh:
Also nochmal: was hat das für Auswirkungen, warum sollte mich das interessieren, wieviel kHz Horizontalfrequenz von welcher Graka 'verbraucht' werden? Über eine sinnvolle Antwort würde ich mich unglaublich freuen =)
StefanV
2003-07-13, 13:30:22
Original geschrieben von Gast
nicht vorhanden pa kauf dir ne gainward da haste sogar nen gama regler wenn du die treiber von gainward nimmst.
1. ich hab aber keine Gainward und kann somit deren Treiber nicht nutzen.
2. warum sollte ich den Gainward Treiber nutzen??
3. dein Posting ist :spam:
StefanV
2003-07-13, 13:31:43
Original geschrieben von zeckensack
Gute Frage. Die habe ich auch schon gestellt :bäh:
Also nochmal: was hat das für Auswirkungen, warum sollte mich das interessieren, wieviel kHz Horizontalfrequenz von welcher Graka 'verbraucht' werden? Über eine sinnvolle Antwort würde ich mich unglaublich freuen =)
wie ich oben schrieb:
bei gleicher EInstellungen ist das bei allen 3 GraKas identisch, wenn man die Bildhöhe im Treiber ändert, dann ändert sich auch die Widerholrate...
Weil vermutlich die Auflösung zwischen RAMDAC und Monitor erhöht wird, damit das Bild kleiner wird...
Mr. Lolman
2003-07-13, 13:33:24
gelöscht
(Z-Bags und SPs Antworten waren nicht ganz so zynisch und helfem einem vernünftigen Verlauf der Diskussion weiter, als die meinige)
StefanV
2003-07-13, 13:33:55
Original geschrieben von Gast
ja echt treiber sache man es ist bei den nvs übrigens ein und der selbe treiber ohh schareck selber treiber und pro chip generation auch noch unterschiede im verbrauch huihui wie kann es sein aber ne da hat der quirl wohl wieder zugeschlagen
Ja und??
Bei ATI und MGA ists ja mehr oder minder ähnlich...
Bei ATI hab ich auch einen Treiber für alle Radeons, bei allen Radeons wird auch nur der Teil des Treibers verwendet, den man braucht und bei allen Radeons sind die meisten Einstellungen gleich...
Was ich oben geschrieben hab, lässt sich also auch Problemlos auf eine Radeon VE übertragen, genauso wie es sich auf eine Radeon 9700 übertragen lässt, welche ich für dich bestimmt NICHT einbaue...
nggalai
2003-07-13, 13:46:20
Jungs, langsam haben wir's gesehen. Was wir allerdings nicht mehr sehen ist auch nur der geringste Bezug zum Topic dieses Threads (einfach nochmals Quasars Posting aus Seite 1 lesen), ergo:
dicht.
93,
-Sascha.rb
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.