Archiv verlassen und diese Seite im Standarddesign anzeigen : Neuer Rivatuner 2.0RC15.2 rockt alles weg: 70-80% Erfolgsquote beim Freischalten
Findest Du den Thread vielleicht wieder und kannst Ihn hier verlinken?
Das Thema Speicherbedarf ist ja nunmal immer interessant...
Ansonsten sag ich nur "full ack" :D
Nochmal um etwas klarzustellen:
Jeder Benchmark der auch nur geringste Vorteile für 256MB zeigt bedeutet folgendes:
Im Spiel kommen Situationen vor in denen eine 128MB Karte anfängt auszulagern, z. B. in Doom3 im High Modus. Das MUSS aber nicht IMMER auch durch irgendeinen einzelnen Benchmark Durchlauf erkennbar sein (weil es eben nicht immer auftritt, sondern nur in bestimmten Situationen). Benchmark Ergebnisse sind eben meist nur Durchschnittswerte die viel zu wenig Aussagekraft haben!
Doch wenn ausgelagert wird, bricht die Framerate auf 50% ein -> Speed ist dann katastrophal! Schließlich stellt man für gewöhnlich die Darstellungsqualität so ein, dass man auch ein bischen AA uns AF hat, antelle immer mit 500fps zu zocken. Zockt man also z. B. Doom3 mit z. B. 40fps ist es sicher nicht mehr Witzig, wenn man dann ab und an nur noch 20fps hat!
Man kann meiner Meinung nach bei jedem aktuellen Toptitel davon ausgehen, dass solche Situationen entstehen - und das nicht erst bei 1600x1200 mit 4x AA sondern im Falle von Doom3 schon bei 1024x768 NOAA NOAF im High Modus (der für 256er Karten konzipiert ist und der einzige Modus ohne deutlichen Qualitätsverlust darstellt). Ich wette meinen A.... drauf, dass das bei HL2 und Stalker ähnlich aussieht.
Ich denke es ist alles andere als witzig eine ca. 250 Euro Karte zu kaufen, die ab und zu "Schluckauf" bekommt :-)
Und nochwas:
Stellt euch das mit der Speicherlimitierung so ähnlich vor, wie der erste Durchlauf der Doom3 Timedemo!
Läuft absolut beschissen, ist aber vom Durschnittswert nur ein wenig geringer als der zweite Durchlauf wenn nichts mehr nachgeladen werden muss!
SeW2k2
2004-10-10, 11:16:22
Hallo bei meiner CLUB 3D Funtzt zwar das einschalten aber ich hab Grafikfehler !! Egal ob ich nun auf 16x6 stellle oder 12x6 oder 16x5 bei 12x5 keine fehler sind woll die pipes im arsch oder"!?? Was ist mit Sideband Adressing an oder aus !! Liegt das vieleichtan irgendwelchen anderen einstellungen!!
Mumins
2004-10-10, 11:46:49
Ja wenn Fehler kommen geht nichts. Club3D gehen anscheinend selten freizuschalten.
1024x768 NOAA NOAF im High Modus
Es läuft bis 1280x960 high quality ohne jeden Ruckler, bei mir zumindest. Mit 4AA gibt es ab und an kurze Ruckler, habe es gerade ausprobiert. Da ich in ein paar Monaten so oder so aufrüste juckt mich das nicht.
welche 6800 von welcher firma lassen sich den nun zu fast 100% freischalten? :(
Es läuft bis 1280x960 high quality ohne jeden Ruckler, bei mir zumindest. Mit 4AA gibt es ab und an kurze Ruckler, habe es gerade ausprobiert. Da ich in ein paar Monaten so oder so aufrüste juckt mich das nicht.[/QUOTE]
Du bekommst auch keine Ruckler sondern eher "längerfristige" Slowdowns, in bestimmten Abschnitten Szenen oder Situationen.
Kann man sicher gut gegentesten wenn man dann auf Medium schaltet.
Mumins
2004-10-10, 12:44:05
Das kann man nicht sagen.
Eine Übersicht gibts in Unwinders Forum.
http://forums.guru3d.com/showthread.php?s=&threadid=108905&perpage=10&pagenumber=1
Spasstiger
2004-10-10, 12:45:29
Nochmal um etwas klarzustellen:
Jeder Benchmark der auch nur geringste Vorteile für 256MB zeigt bedeutet folgendes:
Im Spiel kommen Situationen vor in denen eine 128MB Karte anfängt auszulagern, z. B. in Doom3 im High Modus. Das MUSS aber nicht IMMER auch durch irgendeinen einzelnen Benchmark Durchlauf erkennbar sein (weil es eben nicht immer auftritt, sondern nur in bestimmten Situationen). Benchmark Ergebnisse sind eben meist nur Durchschnittswerte die viel zu wenig Aussagekraft haben!
Doch wenn ausgelagert wird, bricht die Framerate auf 50% ein -> Speed ist dann katastrophal! Schließlich stellt man für gewöhnlich die Darstellungsqualität so ein, dass man auch ein bischen AA uns AF hat, antelle immer mit 500fps zu zocken. Zockt man also z. B. Doom3 mit z. B. 40fps ist es sicher nicht mehr Witzig, wenn man dann ab und an nur noch 20fps hat!
Man kann meiner Meinung nach bei jedem aktuellen Toptitel davon ausgehen, dass solche Situationen entstehen - und das nicht erst bei 1600x1200 mit 4x AA sondern im Falle von Doom3 schon bei 1024x768 NOAA NOAF im High Modus (der für 256er Karten konzipiert ist und der einzige Modus ohne deutlichen Qualitätsverlust darstellt). Ich wette meinen A.... drauf, dass das bei HL2 und Stalker ähnlich aussieht.
Ich denke es ist alles andere als witzig eine ca. 250 Euro Karte zu kaufen, die ab und zu "Schluckauf" bekommt :-)
Das mit dem Schluckauf ist totaler Unsinn. Doom 3 läuft hier in 1280x1024 und 4-fach AA konstant mit über 30 fps, es gibt nur ein paar minimale Ruckler, wenn man einen neuen Raum betritt, die aber auf die nur 512 MB Ram zurückzuführen sind. Wenn ich so von Radeon 9800 XT Usern lese (eine 256 MB Karte im selben Preisbereich), dann haben die viel häufiger mit Rucklern zu kämpfen. Spielt doch mal Doom 3 in 1280 mit 4-fach AntiAliasing mit einer Radeonh 9800 XT und dann Vergleich dazu mit einer GeForce 6800. Mit der 6800er läufts rundum besser. In Farcry konnte ich trotz höchsten Details auch keine Nachladeruckler erkennen.
Die GeForce 6800 GT hat einfach nur durch ihren höheren Speichertakt einen Vorteil.
Vor Unreal Engine 3 Spielen wird kein Game eine 256 MB Karte benötigen. Und bis Unreal Engine 3 Spiele raus sind, möchte man eh nicht mehr mit einer Karte aus der 6800 Generation zocken.
Hört sich plausibel an Spasstiger. Wann kann man denn mit Unreal3-Engines rechnen?
Was dann natürlich ein Problem sein könnte ist, dass man dann für 128MB-Karten keinen guten Verkaufswert mehr erhält. Ist aber die Frage, ob dieser größere Verlust ggü. der GT nicht durch den Kaufpreis mehr als wettgemacht wird...
Doomoner
2004-10-10, 14:06:23
hi
Glaubst Du das wenn die U3 Engine kommt noch jemand eine GF 6800nu/GT/ULtra kauft?
Glaubst Du das die aktuellen karten die Engine noch flüssig darstellen können, wenn Sie teilweise schon Grenzen im 3D05 stoßen?
Und ich glaube auch nicht das es mom oder in 1nem Jahr ein Spiel gibt was nur richtig gut läuft auf 256 MB Karten.
Die Grafik der U3 Engine wird wohl eh das neuste fordern. GF 8800? oder so.
Die Engine ist eh erst 2006 angekündigt!
Spasstiger
2004-10-10, 15:52:29
hi
Glaubst Du das wenn die U3 Engine kommt noch jemand eine GF 6800nu/GT/ULtra kauft?
Glaubst Du das die aktuellen karten die Engine noch flüssig darstellen können, wenn Sie teilweise schon Grenzen im 3D05 stoßen?
Und ich glaube auch nicht das es mom oder in 1nem Jahr ein Spiel gibt was nur richtig gut läuft auf 256 MB Karten.
Die Grafik der U3 Engine wird wohl eh das neuste fordern. GF 8800? oder so.
Die Engine ist eh erst 2006 angekündigt!
Genau darauf wollte ich hinaus. 256 MB Karten können in aktuellen Games Vorteile haben, wenn man absichtlich die Speicherauslastung bis an die Grenzen treibt (z.B. durch Verwendung von utopisch hohen Auflösungen + AntiAliasing + AF). Aber im Endeffekt spielen doch die meisten eh nur mit Auflösungen zwischen 1024x768 und 1280x1024. Das wird auch in zwei Jahren noch so sein. Und rein von den Texturen her überfordert noch kein Spiel eine 128 MB Karte. Schließlich gibts ja Features wie Texturkompression. Demzufolge werden erst 2006 Spiele die 256 MB Grafikspeicher tatsächlich benötigen. Nur reicht dann die Shaderpower nicht mehr aus, um mit solchen Texturen tatsächlich rechnen zu können.
Ich find es nicht abwegig, sich eine GeForce 6800 mit 128 MB zu holen. Klar hat eine 256 MB immer einen höheren Wiederverkaufswert und ist in höheren Qualitätseinstellungen im Vorteil. Aber ich denke nicht, dass Unreal Engine 3 Spiele auf einer GeForce 6800 GT mit 256 MB viel besser laufen werden als auf einer GeForce 6800 mit 16 Pipes und 128 MB. Hohe Qualitätseinstellungen sind ja bis dahin eh nicht mehr drin und damit beschränkt sich das ganze wieder nur noch auf die Shaderpower. Und die ist bei allen 16 Pipe Karten ja recht ähnlich (Abweichungen nur duch die Taktfrequenz).
@gast
http://www.3dcenter.de/artikel/ati_nvidia_aa_performance/index10.php
Diesen Artikel meinte ich.
Kladderadatsch
2004-10-10, 18:10:40
hi
Glaubst Du das wenn die U3 Engine kommt noch jemand eine GF 6800nu/GT/ULtra kauft?
Glaubst Du das die aktuellen karten die Engine noch flüssig darstellen können, wenn Sie teilweise schon Grenzen im 3D05 stoßen?
Und ich glaube auch nicht das es mom oder in 1nem Jahr ein Spiel gibt was nur richtig gut läuft auf 256 MB Karten.
Die Grafik der U3 Engine wird wohl eh das neuste fordern. GF 8800? oder so.
Die Engine ist eh erst 2006 angekündigt!
natürlich läuft das nächste unrealengine3-game noch auf einer 6800nu mit passablen einstellungen. man muss die ganze geschichte doch auch einmal mit der vergangenheit vergleichen- far cry und doom3 laufen noch mit einer ti4600 in maximalen details bei 1024x768! bis 2006 ist der nv40 warhscheinlich genau an der stelle, wo der nv25 heute steht- 2 generationen zurück.
man kann dies noch weiter untermauern, indem man z.b. argumentiert, dass ati und nvidia die entwicklung jetzt erst einmal ruhig angehen werden. die weiterentwicklung der kommenden generation von ati, als auch die des nv40 müssen dermaßen viel geld gekostet haben; warum wohl wollten sich ati und nvidia zu einem gemäßigten entwicklungstempo einigen- ich weiß, wild spekuliert, aber plausibel.
Doomoner
2004-10-10, 18:36:47
Glaub ich nicht.
Als Beispiel führe ich mal Doom 3 an:
Eine Geforce 3 sollte laut ID damals die einzige Karte sein die Doom 3 mit allen Details darstellen kann. Und nun schau Dir mal die Realität an.
Doom 3 möchte ich nicht auf einer GF 3 Spielen. Soviel dazu.
Und bis 2006 haben wir die 3te wenn nicht 4te Karten Generation
Aller halben bis dreiviertel Jahre eine Neue.
Die GF3 war damals aber nicht so viel schneller als die GF2U wie es die heutigen Nexgenkarten im Vergleich zur vorherigen Generationen sind. Kurz: Der Abstand zwischen GF2U und GF3 ist nicht so gross wie der zwischen nv35 und nv40 bzw r300 und r420. Die Leistungssprünge sind durch die Konkurrenz einfach grösser als früher.
Doomoner
2004-10-10, 19:23:12
Gut dann anders
Sieh DIr den 3DMurks 05 an läuft der auf den NX Karten?
Nein! Und da hoffst Du das die U3 Engine drauf läuft? :wink:
Die U3 Engine stellt um viel mehr Polygone dar etc.
Da wird selbst ne 6800U überfordert sein.
Aber Du kannst ja hoffen das es geht! Tu ich auch, den ich habe auch ne 6800
Kladderadatsch
2004-10-10, 19:42:53
die argumentation hier ist, schuldigung, absolut sinnfrei.
bis games rauskommen, für die die 6800 nu zu langsam ist, reist die ultra auch nichts mehr raus; bis dahin sind 512 mb ram auch standard und 256 mb so vermeintlich wenig wie 128 mb heute...da wird es bei den heutigen karten einfach an leistung fehlen, bzw. 2 gig ram auch nichts bringen...
daher sehe ich auch keinen sinn darin, sich eine gt oder ultra zu kaufen. den "fehler" habe ich damals mit meiner ti4600 gemacht...
als enthusiast ist das natürlich etwas völlig anderes; mit etwas mehr geld wäre ich das auch wieder. es ist wirklich ein verdammt gutes gefühl zu sehen, wie diese benchmarks abgehen, währenddessen sie auf den meisten rechner vor sich hin stottern. "mit etwas mehr geld ware ich das auch wieder"- und wie damals mit der gainward für 420 euro würde ich mein schlechtes gewissen mit der greifenden ausrede ""zukunftssicherheit"" befriedigen...
Doomoner
2004-10-10, 19:48:41
Ich meine nur das ich schon wieder steife Ohren bekommen, wenn die programmer der U3 Engine sagen, das die nur optimal auf GF 6800 läuft.
Hab das glaube in einer Newsmeldung gelesen.
Das erinnert mich an irgendwas.
Aber was nur? :|
Man kann auch Details runterstellen ohne dass es gleich richtig schlecht aussieht.Das kann man beim 3DMark nicht. Far Cry kann man auf einer GF3 auch mit runtergestellten details gut spielen und das obwohl die Karte im damaligen 3DMark nur ca 6000pts erreicht hat. Beim Naturetest hat man damals auch gedacht, das die Grafik für Spiele zu Langsam ist. FC sieht auch mit runtergestellten Details imo besser aus als der Naturetest. Und was D3 angeht, D3 ist sicher kein Musterbeispiel dafür wie man recourcen effizient ausnutzt.
Habe es nun mit Powerstrip geschafft zu übertakten. Lustigerweise wenn ich auf 325/700 raufstelle zeigt es 3dmark auch so an, wenn ich 335/750, dann zeigt 3dmark 300/750 an....aber powerstrip 335/750, also weiß ich nicht, welcher Wert tatsächlich stimmt, bzw mit welchem Takt 3dmark denn testet..
12/6 325/700:
3dmark03:9061
3dmark05:3244
12/6 335/750:
3dmark03:9376
3dmark05:3322
zum Verglich:
8/4 Standartakt 300/700
3dmark03:6821
3dmark05:2505
Leadek Winfast A400LE
A64 3.000
2x256 DDR PC3200
Man kann auch Details runterstellen ohne dass es gleich richtig schlecht aussieht.Das kann man beim 3DMark nicht. Far Cry kann man auf einer GF3 auch mit runtergestellten details gut spielen und das obwohl die Karte im damaligen 3DMark nur ca 6000pts erreicht hat. Beim Naturetest hat man damals auch gedacht, das die Grafik für Spiele zu Langsam ist. FC sieht auch mit runtergestellten Details imo besser aus als der Naturetest. Und was D3 angeht, D3 ist sicher kein Musterbeispiel dafür wie man recourcen effizient ausnutzt.
FarCry kann man weder it einer GF3 noch mit einer GF4 sinvoll spielen, ich habe beides in der Praxis getestet! Auf der GF3 werden gar nicht mehr alle Details dargestellt bzw. zugelassen. Die GF4 bricht auf 10er FPS Werte ein, wenn man mal in Höhlen mit Taschenlampe rumläuft - nein Danke! Die GF4 macht vielleicht noch in 640x480 brauchbare Frameraten. Von dem Mouselag das der unerfahrene Spieler dann zudem zu erwarten hat, will ich gar nicht erst anfangen hihi.
NV Karten sucken sowieso wenn es um Zukunftskompatibilität geht. Ich lach mich schon über alle 5900er Käufer kaputt (hallo Aths) die HL2 ruckelig und mit nur DX 8.1 zocken dürfen :-) Hab ich mich amüsiert als ich die 3dm05 Werte der FXen gesehen habe :D :D :D
NVIDIA - It's build to play Doom 3 (but nothing else) :D (c) pervert
AMD Sepp
2004-10-11, 14:23:45
FarCry kann man weder it einer GF3 noch mit einer GF4 sinvoll spielen, ich habe beides in der Praxis getestet! Auf der GF3 werden gar nicht mehr alle Details dargestellt bzw. zugelassen. Die GF4 bricht auf 10er FPS Werte ein, wenn man mal in Höhlen mit Taschenlampe rumläuft - nein Danke! Die GF4 macht vielleicht noch in 640x480 brauchbare Frameraten. Von dem Mouselag das der unerfahrene Spieler dann zudem zu erwarten hat, will ich gar nicht erst anfangen hihi.
NV Karten sucken sowieso wenn es um Zukunftskompatibilität geht. Ich lach mich schon über alle 5900er Käufer kaputt (hallo Aths) die HL2 ruckelig und mit nur DX 8.1 zocken dürfen :-) Hab ich mich amüsiert als ich die 3dm05 Werte der FXen gesehen habe :D :D :D
NVIDIA - It's build to play Doom 3 (but nothing else) :D (c) pervert
Naja, wenn es um "Zukunftssicherheit und -Kompatiblität" geht, dann schaut momentan ATI dumm aus! Ausserdem ist die Grafik von HL2 nicht gerade überwältigend, sodass man es noch sehr gut auf den 5900er spielen kann. Und ich hab auch eine GF3 @TI 500 und ich kann sagen, dass es wirklich nicht gerade in atemberaubender Grafik läuft, aber ich kanns zumindest so spielen, sodass es nicht ruckelt, und trotzdem noch "einigermaßen" gut ausschaut.
Wo schaut denn ATI schlecht aus? Sind im 3dm05 mit einer aufgebohrten alten technik z.zt. deutlich schneller als nvdias nextgen. lächerlich! (und das natürlich nicht nur im 3dm). von den treibertricks NVs a shaderreplacemnt in doom3/ogl wollen wir aber bitte nicht anfangen... Anders als durch "cheaten" kann NV doch gar nicht mehr überzeugen. Schalten man alle "optmierungen" total aus siehts düster aus mit der performance.
AMD Sepp
2004-10-11, 14:54:57
Ha, lustig!!!!! :biggrin: :rolleyes:
Meinst was ATI tut? Ach, es cheatet ja nur Nvidia! :rolleyes:
Naja, zuerst sahs ja eigentlich nicht so gut für ATI aus im 3DM 05, doch dann kam der "neue" Treiber, "frei von Optimierungen"! Ich glaub, da verwechselst du was, wenn man die Optimierungen bei ATI ausschalten würde, dann würds da ganz düster ausschauen! Da hast du was verwechselt! :wink: Es ist klar, dass beide Hersteller Optimierungen verwenden, und ich will da keinen in Schutz nehmen, aber du kannst nicht einfach rumerzählen, dass Nvidia nur so gut ist, weil sie nur cheaten. Da hat schon ATI bei dieser Grafikkartengeneration mehr optimiert, damits zu solcher Leistung überhaupt kommt!
*Lachondra*
2004-10-11, 14:58:37
Hallo erstmal!
So Ich will mir aufgrund weil man Sie modden kann eine 6800 kaufen.
Leider weiß ich nicht welche ich wieviel modden kann.
Also eine 6800LE die 8Pipel.hat und 4 Vertexs. kann ich maximal nur auf 12 Pipelines und 6 Vertexs. modden?
Und eine normale 6800 die 12Pipel. hat und? Vertexs. kann ich auf 16 Pipelines modden?
Hab ich das alles so richtig verstaden?
Mumins
2004-10-11, 15:05:43
lso eine 6800LE die 8Pipel.hat und 4 Vertexs. kann ich maximal nur auf 12 Pipelines und 6 Vertexs. modden?
Nein, mit Glück gehen ebenso 16P/6VP
*Lachondra*
2004-10-11, 15:12:51
Acha. thx!
Aber bei einer normalen 6800 mit 12 Pipes wäre es wahrscheinlicher das ich auf 16 komm oder?
Und nochwas.
Wenns bei mir garnicht geht zb. Kann ich dann zurückmodden?
So das man nichts merkt das das ich die mal gemoddet hab oder bleiben da schäden ?
Spasstiger
2004-10-11, 15:15:27
Acha. thx!
Aber bei einer normalen 6800 mit 12 Pipes wäre es wahrscheinlicher das ich auf 16 komm oder?
Und nochwas.
Wenns bei mir garnicht geht zb. Kann ich dann zurückmodden?
So das man nichts merkt das das ich die mal gemoddet hab oder bleiben da schäden ?
Da können normal keine Schäden bleiben und da es sich um einen Software-Mod handelt, kann man ihn restlos rückgängig machen. Einfach im RivaTuner im NVStrap Menü auf "uninstall" klicken.
Mumins
2004-10-11, 15:17:54
Aber bei einer normalen 6800 mit 12 Pipes wäre es wahrscheinlicher das ich auf 16 komm oder?
Ja ich denke schon. Die Asus 9999TD kostet 256€ und ist somit nicht viel teurer als ne LE
*Lachondra*
2004-10-11, 16:25:41
http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&category=47559&item=5130169969&rd=1
Mit der könnt das doch auch klappen oder?
*Lachondra*
2004-10-11, 21:45:27
Hallo?
Könnt man die hier modden?
http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&category=47559&item=5129704930&rd=1
Ha, lustig!!!!! :biggrin: :rolleyes:
Meinst was ATI tut? Ach, es cheatet ja nur Nvidia! :rolleyes:
Naja, zuerst sahs ja eigentlich nicht so gut für ATI aus im 3DM 05, doch dann kam der "neue" Treiber, "frei von Optimierungen"! Ich glaub, da verwechselst du was, wenn man die Optimierungen bei ATI ausschalten würde, dann würds da ganz düster ausschauen! Da hast du was verwechselt! :wink: Es ist klar, dass beide Hersteller Optimierungen verwenden, und ich will da keinen in Schutz nehmen, aber du kannst nicht einfach rumerzählen, dass Nvidia nur so gut ist, weil sie nur cheaten. Da hat schon ATI bei dieser Grafikkartengeneration mehr optimiert, damits zu solcher Leistung überhaupt kommt!
Informier dich lieber erstmal ein bischen. Aber das ist eigentlich offtopic, wir sollten das beenden.
Nur soviel, den schnellen ATI Treiber gab es bevor/zeitgleich der 3dmark05 rauskam, bzw. da war keine zeit für anpassungen/cheaten. Und noch ne winzige Kleinigkeit :D :DER SCHNELLE ATI TREIBER IST VON FUTUREMARK APPROVED!!!!!!!!!! Hier wird also NICHT gecheatet!!!!!!!!!!!!!!!!!
NV betreibt ganz klar die agressiveren optimierungen. sie tauschen sogar den shadercode von einzelnen spielen aus, nur um irgendwie vorne zu liegen (aus gutmütigkeit machen die das wohl kaum). das geht einfach zu weit!! außerdem ist bekannt, wenn man diese karten auf hq stellt, so dass wirklich alle sichtbaren und unischtbaren optimierungen abgeschaltet werden, sie besonders stark an performance verlieren. so schlimm isses bei ati nicht. da bleibt die optimiererei überschaubar - auch für den anwender der den treiber konfigurieren will. bei nv blickt man ja kaum noch durch, was wie abzuschalten wäre und dann wieviel verlust bringt :( Schließlich will man eigentlich spielen damit und nicht nur testen, wie man jetzt den treiber bei welchem spiel einstellen sollte.... :(
Okay, zurück zum Thema...
Kann das jemand mittlerweile überschauen, wie hoch die Erfolgsquote bei einer 6800LE ist, sogar alle Pipes zu reaktivieren?
[QUOTE=Gast]Informier dich lieber erstmal ein bischen. Aber das ist eigentlich offtopic, wir sollten das beenden.
Nur soviel, den schnellen ATI Treiber gab es bevor/zeitgleich der 3dmark05 rauskam, bzw. da war keine zeit für anpassungen/cheaten. Und noch ne winzige Kleinigkeit :D :DER SCHNELLE ATI TREIBER IST VON FUTUREMARK APPROVED!!!!!!!!!! Hier wird also NICHT gecheatet!!!!!!!!!!!!!!!!!
NV betreibt ganz klar die agressiveren optimierungen. sie tauschen sogar den shadercode von einzelnen spielen aus, nur um irgendwie vorne zu liegen (aus gutmütigkeit machen die das wohl kaum). das geht einfach zu weit!! außerdem ist bekannt, wenn man diese karten auf hq stellt, so dass wirklich alle sichtbaren und unischtbaren optimierungen abgeschaltet werden, sie besonders stark an performance verlieren. so schlimm isses bei ati nicht. da bleibt die optimiererei überschaubar - auch für den anwender der den treiber konfigurieren will. bei nv blickt man ja kaum noch durch, was wie abzuschalten wäre und dann wieviel verlust bringt :( Schließlich will man eigentlich spielen damit und nicht nur testen, wie man jetzt den treiber bei welchem spiel einstellen sollte.... :(
QUOTE]
WARUM WIRD SON QUATSCH NICHT GELÖSCHT ?
Weil es völlig korrekt ist!
AMD Sepp
2004-10-12, 13:38:07
Naja, so ein Mist gehört wirklich gelöscht! :rolleyes:
http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&category=47559&item=5129909733&rd=1
kann man die vielleicht modden?
kann man die vielleicht modden?
"Vielleicht" modden kann man vieles - "sicher" modden aber nichts.
Mumins
2004-10-12, 15:49:19
Nur soviel, den schnellen ATI Treiber gab es bevor/zeitgleich der 3dmark05 rauskam, bzw. da war keine zeit für anpassungen/cheaten. Und noch ne winzige Kleinigkeit ER SCHNELLE ATI TREIBER IST VON FUTUREMARK APPROVED!!!!!!!!!! Hier wird also NICHT gecheatet!!!!!!!!!!!!!!!!!
Und? Wie siehts bei ATI aus, da lassen sich nicht mal alle Optimierungen abschalten. Mal wieder eine schöne Fanboy Antwort.
Holundermann
2004-10-12, 15:50:26
jo, vielleicht schon, schau halt das die karte nicht über 220€ geht, dann rentiert sichs nihma... hat auf jedenfall non ultra takt.
außerdem ist bekannt, wenn man diese karten auf hq stellt, so dass wirklich alle sichtbaren und unischtbaren optimierungen abgeschaltet werden, sie besonders stark an performance verlieren. so schlimm isses bei ati nicht. da bleibt die optimiererei überschaubar - auch für den anwender der den treiber konfigurieren will. bei nv blickt man ja kaum noch durch, was wie abzuschalten wäre und dann wieviel verlust bringt Schließlich will man eigentlich spielen damit und nicht nur testen, wie man jetzt den treiber bei welchem spiel einstellen sollte....
schau schau, sachlich fundiertes fachwissen. :|
AMD Sepp
2004-10-12, 16:23:23
Ja warscheinlich vom ATI Fan Forum kopiert! :wink:
Nö. Ist einfach nur die Realität.
Bei ATI kann man abschalten, was abgeschaltet werden muss. Alles wäre schöner, aber wie es ist, kann man mit leben.
Aber es hat keine Sinn mit euch, auch wenn ich das stundenlang weiterdiskutieren würde, lasst uns das Thread-Topic beachten!
AMD Sepp
2004-10-12, 18:02:08
Nö. Ist einfach nur die Realität.
Bei ATI kann man abschalten, was abgeschaltet werden muss. Alles wäre schöner, aber wie es ist, kann man mit leben.
Aber es hat keine Sinn mit euch, auch wenn ich das stundenlang weiterdiskutieren würde, lasst uns das Thread-Topic beachten!
Jaja, und ich heiss Georg W. Bush! :D
Kane02
2004-10-13, 18:27:33
Leadtek A400TDH (6800nu), 128MB @16PP, 6VS :D
Danny007
2004-10-13, 18:47:09
http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&category=47559&item=5130169969&rd=1
Mit der könnt das doch auch klappen oder?
Ich glaube wir haben nu genug eBay Links ;)
Das kann dir keiner genau sagen, das muss man testen. Entweder du kannst alles oder einiges freischalten und es läuft, oder es klappt halt nicht.
Hallo an alle von diesem Forum. :)
Erst mal ein dickes DANKE an euch zu diesem Thread. Ich hab mir eine Leadtek 6800LE gekauft die heute morgen eingetroffen ist. Dank euch konnte ich ohne Probleme mit eurer Anleitung alle Pipelines freischalten und die Karte geht ab wie Schmitz Katze. ;)
Hab mit original Clock im 3DMark03 : 8400Pkt
Nun aber zu meiner Frage. Ich hab Windows neu Installiert (XP Prof. SP1), den aktuellen GeForce Treiber drauf (61.77), DirectX 9c und VIA 4in1 4.51.
Aber das seltsame ist im Benchmark 2001SE hab ich nur 13000 PKT. :( Weiß einer an was das hängen kann. Hab den 3DMark auch schon neu gezogen mit diesem Patch drin (330). Aber bleibt alles gleich.
Mein System:
XP2800+ 333MHZ FSB
MSI KT6-FSR MB mit VIA 600
1GB RAM CL2.5 333MHZ
Leadtek A400LE / 6800LE (Original Core/Ram Taktraten)
Ich weiß mir nicht zu helfen. In allen Benchmark's geht die Karte ab ohne Ende. Bei CS:Source im Stress Test hab ich 89,87FPS.
Was kann das sein? weiß wer ne Antwort? Dieses Ergebnis hatte ich sonst mit meiner Radeon 9600XT im 2001SE :(
Wenn wer helfen könnte wäre super, da ich am heulen bin.
Grüße an alle die helfen können und an die anderen auch :)
ENDLESS
Kann man wirklich soviel Pech haben?
Hatte mir zusammen mit nem Kollegen ne 6800 nu geholt (eine der ersten "fehlerhaften") und konnte dort nicht alle Pipes freischalten, hatten sie dann getauscht mit der Begründung das sie ein falsches BIOS drauf haben, was auch so war.
Jetzt haben wir beide ein richtig konfigurierte Karte wieder mit "defekten" Pipes.
Also 4 von 4 nicht modable!!!!!
Kann es vielleicht sein das die Pipes doch ganz sind und die Grafikfehler auf was anderes zurückzuführen sind?
Hi!
Habe eine ASUS V9999GE (die mit 256 MB) und habe auch mal die Pixel-Pipelines freigeschaltet.
Folge: In Test 2 und 3 leichte Pixelfehler (rote Punkte flimmern auf Texturen) unter 3DMark03. Also defekt.
ABER: 3DMark01 fehlerfrei (DirectX-8?). Auch der Pixelshader-Test.
Den Test beim Overclocking unter Rivatuner besteht die Karte nach dem Freischalten ebenfalls.
Ich habe den Verdacht, dass die Pixelfehler bei mir auch abhängig davon sind, welche DirectX-Version die Software voraussetzt bzw. nutzt. So verlangt bspw. DeusEx 2 DirectX-9...und erzeugt Pixelfehler (bei weitem nicht so auffällig wie bei Mark03)!
Andere Software (Il-2 Sturmovik Aces, RTCW, MoH, etc.) funktioniert absolut pixelfehlerfrei (was ich so erkenne)!
Ich nehme daher an, dass ich bei FarCry und Doom3 wieder schöne Pixelfehler haben würde, bei "älterer" Software, die maximal DirectX-8 erfordert aber keine.
Inwieweit die "alte" Software von der Freischaltung profitiert, weiss ich nicht.
Während unter Mark03 die Leistung um 800 Punkte stieg, waren es unter Mark01 nur 400...
DirectX-9-Software fordert die GraKa wohl wesentlich stärker und befördert damit die Defekte an die Oberfläche ;)
flatbrain
2004-10-15, 10:38:38
Hi!
Habe eine ASUS V9999GE (die mit 256 MB) und habe auch mal die Pixel-Pipelines freigeschaltet.
Folge: In Test 2 und 3 leichte Pixelfehler (rote Punkte flimmern auf Texturen) unter 3DMark03. Also defekt.
ABER: 3DMark01 fehlerfrei (DirectX-8?). Auch der Pixelshader-Test.
Den Test beim Overclocking unter Rivatuner besteht die Karte nach dem Freischalten ebenfalls.
Ich habe den Verdacht, dass die Pixelfehler bei mir auch abhängig davon sind, welche DirectX-Version die Software voraussetzt bzw. nutzt. So verlangt bspw. DeusEx 2 DirectX-9...und erzeugt Pixelfehler (bei weitem nicht so auffällig wie bei Mark03)!
Andere Software (Il-2 Sturmovik Aces, RTCW, MoH, etc.) funktioniert absolut pixelfehlerfrei (was ich so erkenne)!
Ich nehme daher an, dass ich bei FarCry und Doom3 wieder schöne Pixelfehler haben würde, bei "älterer" Software, die maximal DirectX-8 erfordert aber keine.
Inwieweit die "alte" Software von der Freischaltung profitiert, weiss ich nicht.
Während unter Mark03 die Leistung um 800 Punkte stieg, waren es unter Mark01 nur 400...
DirectX-9-Software fordert die GraKa wohl wesentlich stärker und befördert damit die Defekte an die Oberfläche ;)
Gleiches bei mir... original die gleichen Symptome! Aber die A9999 GE ist ja auch so schon einiges schneller als "normale" nonGT/Ultra ;) !
cu flatbrain
Gleiches bei mir... original die gleichen Symptome! Aber die A9999 GE ist ja auch so schon einiges schneller als "normale" nonGT/Ultra ;) !
cu flatbrain
Immerhin funzt der 6. Vertexshader problemlos. Nur wer braucht den schon? ;)
Schon komisch, dass wir die gleichen Symptome haben. Zufall? Oder Folge der Hardwaremaskierung durch ASUS?
flatbrain
2004-10-15, 14:09:10
Immerhin funzt der 6. Vertexshader problemlos. Nur wer braucht den schon? ;)
Schon komisch, dass wir die gleichen Symptome haben. Zufall? Oder Folge der Hardwaremaskierung durch ASUS?
Habs noch nicht getetestet, ob der 6. VS funzt, war mir nicht wichtig ;) - kannn ich aber gelegentlich mal machen. Davon abgesehen kenne ich imo keinen, der seine A V9999 GE full modden konnte...!
cu flatbrain
Zikonov
2004-10-16, 00:13:14
Gainward 6800 LE
12 pipes gehen
6 Vertex Shader
bei der letzten PU kommen die übelsten fehler :(
Naja egal, trotzdem schnell genug
Zik.
Habe gestern eine Chaintec Apogee AA6800 (Turbo-Edition) erhalten. Es handelt sich um eine 6800 nU die bereits Herstellerseitig um 10% übertaktet ist (358/770). Die Karte läuft ohne Probleme - absolut stabil. Nun mein Problem:
ich kann mit dem Riva-Tuner (15.2) die Karte überhaupt nicht anders Takten, da "Enable low-level hardware overclocking" ausgegraut ist und nicht aktiviert werden kann.
OS: XP PRo; Forceware-Treiber 66.81; 61.77 und 60.85 getestet - Problem bleibt.
Um ein Software-Defekt auszuschließen, wurde die HDD partitioniert und formatiert und nur folgendes installiert: XP Pro -> Chipset(865PE) -> nV66.81 -> Riva Tuner = Problem besteht weiterhin.
Hat jemand von euch einen Plan?
[QUOTE=Gast]Habe gestern eine Chaintec Apogee AA6800 (Turbo-Edition) erhalten. Es handelt sich um eine 6800 nU die bereits Herstellerseitig um 10% übertaktet ist (358/770). Die Karte läuft ohne Probleme - absolut stabil. Nun mein Problem:
ich kann mit dem Riva-Tuner (15.2) die Karte überhaupt nicht anders Takten, da "Enable low-level hardware overclocking" ausgegraut ist und nicht aktiviert werden kann.
QUOTE]
Probier doch die Software-Overclockingversion bei den Forceware-Einstellungen unter RivaTuner... ;)
mb2000
2004-10-19, 23:07:05
Hi zusammen,
habe ne Aopen Aeolus 6800LE 128 MB Karte seit heute.
Läuft mit 16 / 5 ohne Probleme und mit 380/850 Takt.
3d2003 - 10200Punkte
3d2005 - 2950Punkte
Sys: XP-M @ 2.2 Ghz / 512 MB Ram
Finde den 3d2005 Wert sehr niedrig, aber der 2003 Wert scheint ja ok zusein... ???
HAbe noch die Möglichkeit die Karte umzutauschen, soll ich es machen ?
Kann für 15€ mehr eine Sparkle GeForce 6800 nonU, SP-AG40-DT bekommen.
Was meint ihr ???
Die 6800LE behalten oder die 6800 nonU nehmen, die evtl. mehr OC Potential hat und die 6te Vertex Pipe funzt?
Thx for help.
Gruß
Mumins
2004-10-20, 08:49:08
Behalte die LE, die 6te VP ist nicht sehr wichtig. Der schlechte Score im 05er liegt am Treiber, da brauchste nen 66er.
mb2000
2004-10-20, 09:11:44
Stimmt, mit Treiber 66.81 habe ich nun 3900 Punkte.
Hab mir jetzt mal die 6800nu geordert und werde die bessere der beiden karten behalten. Da di 6800nu mich nur 10€ mehr kosten würde isses ein versuche wert.
Gibt es zwischen LE und NU nicht auch nen Unterschied bzgl. des Rams? Evtl. geht die NU höher zu clocken .... da sie von defautl schon besseren/schnelleren Ram drauf hat ?
Ich werds mal testen und berichten...
Greetz der Markus
Was für die 6800nu spricht ist die Tatsache, dass Du nicht auf den Rivatuner angewiesen bist...15€ sind ja net allzu viel.
mb2000
2004-10-20, 12:30:24
Warum bin ich dann nicht auf den RT angewiesen??? Kann man das per Bios-Mod machen?
PS: Bingt eigentlich der V-Mod etwas für den GPU Takt ?
Das Auge
2004-10-20, 12:51:21
Davon abgesehen kenne ich imo keinen, der seine A V9999 GE full modden konnte...!
*meld* bei mir hats funktioniert, das hab ich aber auch hier Thread geschrieben. Bei etlichen anderen GE-Besitzern aus diesem und anderen Foren übrigens auch, sonst hätte ich mir das Teil nicht geholt. Such also erstmal, bevor du wild spekulierst, du scheinst halt einfach Pech gehabt zu haben mit deiner GE.
btw.: Ich bin immer noch der Meinung das die Quote bei der GE besser ist als der Durchschnitt, das mit Zahlen zu belegen wird natürlich schwer, vielleicht könnte man ja mal einen Poll mit allen 6800 nU´s und LE´s einrichten, damit hier nicht zum 1000. Mal die Frage auftaucht "wie gut läßt sich Karte xy freischalten"
mb2000
2004-10-20, 13:19:33
Warum bin ich dann nicht auf den RT angewiesen??? Kann man das per Bios-Mod machen?
PS: Bingt eigentlich der V-Mod etwas für den GPU Takt ?
flatbrain
2004-10-20, 13:23:57
*meld* bei mir hats funktioniert, das hab ich aber auch hier Thread geschrieben. Bei etlichen anderen GE-Besitzern aus diesem und anderen Foren übrigens auch, sonst hätte ich mir das Teil nicht geholt. Such also erstmal, bevor du wild spekulierst, du scheinst halt einfach Pech gehabt zu haben mit deiner GE.
btw.: Ich bin immer noch der Meinung das die Quote bei der GE besser ist als der Durchschnitt, das mit Zahlen zu belegen wird natürlich schwer, vielleicht könnte man ja mal einen Poll mit allen 6800 nU´s und LE´s einrichten, damit hier nicht zum 1000. Mal die Frage auftaucht "wie gut läßt sich Karte xy freischalten"
Machmal halblang, erstens habe ich gesucht und bin nicht fündig geworden, zweitens hab ich nicht alle Beiträge hier gelesen, drittens steht da ganz deutlich imo und viertens kenne ich dich nicht :P !
Und letztens, wenn ich ne Ultra oder ne GT hätte haben wollen, hätte ich mir eine gekauft, also mit Pech hat das garnichts zu tun...
Achja, mal so eine Frage, wenn Asus Karten im Ultra-Design herstellt, diese alle Anforderungen einer Ultra erfüllt, warum sollten sie diese dann nicht als Ultra verkaufen :confused: ?
BlackZed
2004-10-20, 13:46:19
Machmal halblang, erstens habe ich gesucht und bin nicht fündig geworden, zweitens hab ich nicht alle Beiträge hier gelesen, drittens steht da ganz deutlich imo und viertens kenne ich dich nicht :P !
Und letztens, wenn ich ne Ultra oder ne GT hätte haben wollen, hätte ich mir eine gekauft, also mit Pech hat das garnichts zu tun...
Achja, mal so eine Frage, wenn Asus Karten im Ultra-Design herstellt, diese alle Anforderungen einer Ultra erfüllt, warum sollten sie diese dann nicht als Ultra verkaufen :confused: ?
Habe auch `ne GE und es hat auch nicht geklappt - Pixelpipeline defekt. Diesen Defekt findet man aber nicht immer gleich auf Anhieb: Software, die nur DirectX7 oder 8 einsetzt macht gar keine Fehler (kleine rote Punkte auf Texturen), DirectX9-Software schon!
Ich glaube auch nicht die ganzen Erfolgsstorys im Internet - dafür ist die Quote zu hoch in der kurzen Bauzeit des NV40! :rolleyes:
Und das an der mangelnden Verfügbarkeit der Ultra der Speicher schuld sein soll ist wohl auch Blödsinn - ASUS verbaut den DDR3-Speicher ja auf der GE und hat keine Lieferschwierigkeiten.... :|
Ich kenne bisher nur 10 Leute über I-Net mit einer GE. Und davon hat es nur bei einem funktioniert laut seiner Aussage. Magere Ausbeute.... ;D
flatbrain
2004-10-20, 13:53:22
Habe auch `ne GE und es hat auch nicht geklappt - Pixelpipeline defekt. Diesen Defekt findet man aber nicht immer gleich auf Anhieb: Software, die nur DirectX7 oder 8 einsetzt macht gar keine Fehler (kleine rote Punkte auf Texturen), DirectX9-Software schon!
Ich glaube auch nicht die ganzen Erfolgsstorys im Internet - dafür ist die Quote zu hoch in der kurzen Bauzeit des NV40! :rolleyes:
Und das an der mangelnden Verfügbarkeit der Ultra der Speicher schuld sein soll ist wohl auch Blödsinn - ASUS verbaut den DDR3-Speicher ja auf der GE und hat keine Lieferschwierigkeiten.... :|
Ich kenne bisher nur 10 Leute über I-Net mit einer GE. Und davon hat es nur bei einem funktioniert laut seiner Aussage. Magere Ausbeute.... ;D
Mein Reden...!
cu flatbrain
mb2000
2004-10-20, 19:42:53
So, habe jetzt zum testen neben der Aopen 6800LE noch ne Sparkle 6800 non-U hier.
Bei der Sparkle lassen sich die 16 / 6 freischalten ohne Probs.
//EDIT
der 6te Vertex geht nicht, sobald der an ist dann gibt es ganz leichte Artefakte.
//EDIT
Leider tritt mit der Sparkle das beschrieben OC Problem auf. Auch wenn ich nur 1 Mhz erhöhe failed der Test.
Die war mit der Aopen nicht so, dort konnte ich nach freischalten ocen wie ich wollte ...
Naja habe jetz erstmal die Sparkle OC`t und dann wieder auf 16/6 gestellt... Sollte so auch gehn.
//EDIT2
Das OC klappt nun auch wenn Pipes schon frei sind, einfach über das nvidia panel mittels coolbits=3.
//EDIT3
Mich würden noch 3dMuks 2005 bzw. 2003 von euch interessieren.
ATM:
Aopen 6800 LE (Default= 8PP / 4 VS / 300 Chip / 700 Mem)
16 PP / 5 VS / 380 Chip / 850 Mem => 3901 Punkte
Sparkle 6800 non-Ultra (Default= 12PP / 5 VS / 325 Chip / 700 Mem)
16 PP / 5 VS / 350 Chip / 850 Mem => 3856 Punkte
Greetz Markus
flatbrain
2004-10-20, 21:29:46
4600 mit dem Sys aus der Sig, Link folgt, komme grade nicht an den Comparelink ran:
V9999 GE @ 425/1100MHz @ 12x1/5, XP3200+
Standard waren ca 3800Points!
Hi, muss hier unbedingt mal meinen Erfolg melden ;-)
Hab seit vorgestern en Gainward 6800 LE und gestern hab ich ALLE Pipes und Vertex Shader freigeschaltet ! Yippiie. Ohen irgendwelche Pixelfehler. Hab 3d Mark 03 und 05 bestimmt 10 mal laufen lassen :-)
Hab jetzt mit 16 Pixelpipelines und 6 Vertexshadern bei 350 GPU und 800 Speicher 9110 3D Marks in ´03 .
Is doch OK für nen XP 2400+ @ 2600+ mit 768 MB Infineon DDR 266 CL2, oder ???
3D Mark 05 hatte ich nur mit Standard Takt laufen lassen, also 300/700. Dort hab ich 2600 Punkte.
Hi, hab mal ne frage:
Ich besitze eine Leadtek A400LE @ 16Pipes, und will nun ein Bios Update machen auf GT. Weiß irgend jemand wo man ein passendes Bios herbekommt? Bei Leadtek's Homepage wird man nach Taiwan weiter geleitet und dort bekommt man zwar das passende Bios, aber leides als NTSC Bios und kein PAL.
Woher bekomm ich ein A400GT PAL Bios?
Grüße
ProXi
Wieso willst Du noch ein Bios-Update machen ??????? Ziemlich sinnlos, oder ? Wenn doch alles läuft mit 16 Pipes.
Es geht darum das ich einen höheren Standart takt haben und nicht immer manuell den takt einstellen muss.
BlackZed
2004-10-22, 08:46:58
Es geht darum das ich einen höheren Standart takt haben und nicht immer manuell den takt einstellen muss.
Das machen Programme wie der RivaTuner bei jedem Systemstart. Wozu also ein "neues" Bios?
bounCk
2004-10-22, 10:03:53
Hi, hab mal ne frage:
Ich besitze eine Leadtek A400LE @ 16Pipes, und will nun ein Bios Update machen auf GT. Weiß irgend jemand wo man ein passendes Bios herbekommt? Bei Leadtek's Homepage wird man nach Taiwan weiter geleitet und dort bekommt man zwar das passende Bios, aber leides als NTSC Bios und kein PAL.
Woher bekomm ich ein A400GT PAL Bios?
Grüße
ProXi
sei zufrieden wie es jetzt läuft und lass die scheisse mit dem Bios !
Radeonator
2004-10-22, 21:16:57
Wow, hab mir heute ne LE geleistet.
3dMurks03
8/4 = 5923 Murks
12/6 = 7098 Murks Rockstable ohne Fehler!
16/6 = 7514 Murks -> Teilweise bei Vertex Tests ganz leichte Pixel Fehler
Takt 300/700, also nicht oced!
Ailuros
2004-10-23, 08:03:12
Wow, hab mir heute ne LE geleistet.
3dMurks03
8/4 = 5923 Murks
12/6 = 7098 Murks Rockstable ohne Fehler!
16/6 = 7514 Murks -> Teilweise bei Vertex Tests ganz leichte Pixel Fehler
Takt 300/700, also nicht oced!
Ein bisschen Uebertaktung braucht man schon wenn Einheiten freischaltet. Wenn Du auf 12/6 bleiben solltest, dann sollte 325MHz problemlos moeglich sein fuer den core (wirklich konservativste Uebertaktung).
Ich habe jetzt auch eine 680er von Asus aber wie geht das jetzt mit dem Freischalten ich habe jetzt den RivaTuner Istalliert was muss ich ich jetzt machen bidde Help ThX
Radeonator
2004-10-23, 22:35:16
Ich habe jetzt auch eine 680er von Asus aber wie geht das jetzt mit dem Freischalten ich habe jetzt den RivaTuner Istalliert was muss ich ich jetzt machen bidde Help ThX
Du gest auf den "Main" Dateireiter. Dort findest du oben "customize..." und durch anklicken ein DropDown Menü. In dem Menü wählst du das Grafikkarten Symbol ( low-Level-System-Tweaks) an.
http://img100.exs.cx/img100/6763/SNAG-0003.png
In dem neuen Fenster dann auf "NVStrap" gehen und wie auf der Abbildung einstellen
http://img100.exs.cx/img100/4377/SNAG-0019.png
Nun auf Customize gehen. Im neuen Fenster wählst du die Pipes/Vertexes an, die auf disabled stehen. Dann wird oben jeweils der endsprechende Binärwert angezeigt. Du stellst einfach durch Doppelklick von 0 auf 1 (siehe Bild) und bestätigst alles mit ok. Reboot und Testen ob es Fehler gibt. Wenn ja, die Quads(4 Quads=16Pipes, jedes "pipes" auf dem Bild ist ein Quad") durchtesten, vielleicht ist nur eine kaputt.
http://img100.exs.cx/img100/3408/SNAG-0021.png
Fruli-Tier
2004-10-24, 13:16:49
Ich scheine mich auch als einer der Glücklichen bezeichnen zu können, bei denen ein Full-Mod funktioniert hat.
Bisher habe ich Dungeon Siege, Mafia, dieses hdr Dingsda und den 3D Mark 2003 gespielt/durchlaufen lassen, keine Bildfehler oder ähnliches. Der 3D Mark macht ca 1000 Punkte mehr als vorher 96xx. Das ganze ohne OC und mit allen, bei mir, Standardmässig Autostartenden Programmen (Mouseware, Norton I-Net, Traffic Monitor, Sound CPL, AVM Fritz, nV CPL und was weiss ich noch alles).
Dafür, dass es eine der ersten Karten war... *HAPPY*
Hi habe mir heute Nacht mal alles hier durchgelesen und dann im Net nach ner günstigen 6800er geguckt und habe dort bei Alternat ne 6800GT/TD 128 (16P)für 294,- gefunden. bei Eine Leadtek 6800 TD 128 (12P) kostet woanders schon 290,- da ist ja die GT schon ein Schnäppchen und ich habe sie mir bestellt da weiß ich dann wenigstens das alles funzt.
http://www1.alternate.de/html/shop/productDetails.html?&partner=geizhals&main=%2Fhtml%2Fshop%2FproductDetails.html&artno=J9GV39&
flatbrain
2004-10-25, 12:57:59
Hi habe mir heute Nacht mal alles hier durchgelesen und dann im Net nach ner günstigen 6800er geguckt und habe dort bei Alternat ne 6800GT/TD 128 (16P)für 294,- gefunden. bei Eine Leadtek 6800 TD 128 (12P) kostet woanders schon 290,- da ist ja die GT schon ein Schnäppchen und ich habe sie mir bestellt da weiß ich dann wenigstens das alles funzt.
http://www1.alternate.de/html/shop/productDetails.html?&partner=geizhals&main=%2Fhtml%2Fshop%2FproductDetails.html&artno=J9GV39&
Die Asus hat allerdings nur 128MB GDDR2-Ram, welcher nur mit effektiv 700(reell 350) MHz getaktet wird, diesem bist durch dir hoffentlich bewusst!
IC-Burn
2004-10-25, 14:28:40
Yeah mein Vater hat sich Heute auch ne 6800er von Leadtek gekauft, habe alles frei bekommen ohne Probs :cool: Un der Takt is au Super 400/900 Leuft au Ohne Porbs mal sehn vielleicht geht noch was.
3DMark03 = 11200 P.
3DMark05 = 4095 P.
CrazyHorse
2004-10-25, 15:19:30
Ich habe heute eine MSI NX6800 erhalten. Leider läßt sich das vierte Pixel-Pipeline Squad überhaupt nicht zur Zusammenarbeit überreden. Wenn ich es aktiviere, dann komme ich gar nicht erst in Windows rein. Ich komme nur bis zum blauen XP-Startbildschirm. Dieser ist voller Grafikfehler ... dann wird noch ein paar mal das Bild gesynct und dann friert der Rechner ein.
Ist das "normal"? Grafikfehler okay, aber dass mir gleich die Kiste freezt? Dann heißt's wieder abgesicherter Modus und Treiber und Rivatuner deinstallieren. Nervig. Was außerdem noch Kacke ist, ist dass meine MSI gar nicht den schönen Kühler/Lüfter von der MSI Homepage trägt, sondern kleiner und schwarz ist. *grummelgrummel*
Ich bin immer noch nicht zufrieden . Bisher hatte ich eine Leadtek und eine Galaxy 6800, jetzt die MSi und habe immernoch nicht die "richtige" Karte gefunden.
Die Asus hat allerdings nur 128MB GDDR2-Ram, welcher nur mit effektiv 700(reell 350) MHz getaktet wird, diesem bist durch dir hoffentlich bewusst!
wie kommste auf ddr2 ram?
ne 5800 & U hatte mal ddr2 ram, aber zu heiss/teuer gewesen ist.
flatbrain
2004-10-25, 16:10:38
wie kommste auf ddr2 ram?
ne 5800 & U hatte mal ddr2 ram, aber zu heiss/teuer gewesen ist.
Fehler meinerseits, ich wollte nur daraufhinweisen, dass kein hochwertiger GDDR3-Ram verbaut wurde ;) !
Fruli-Tier
2004-10-25, 16:59:34
Ich habe heute eine MSI NX6800 erhalten. Leider läßt sich das vierte Pixel-Pipeline Squad überhaupt nicht zur Zusammenarbeit überreden. Wenn ich es aktiviere, dann komme ich gar nicht erst in Windows rein. Ich komme nur bis zum blauen XP-Startbildschirm. Dieser ist voller Grafikfehler ... dann wird noch ein paar mal das Bild gesynct und dann friert der Rechner ein.
Ist das "normal"? Grafikfehler okay, aber dass mir gleich die Kiste freezt? Dann heißt's wieder abgesicherter Modus und Treiber und Rivatuner deinstallieren. Nervig. Was außerdem noch Kacke ist, ist dass meine MSI gar nicht den schönen Kühler/Lüfter von der MSI Homepage trägt, sondern kleiner und schwarz ist. *grummelgrummel*
Ich bin immer noch nicht zufrieden . Bisher hatte ich eine Leadtek und eine Galaxy 6800, jetzt die MSi und habe immernoch nicht die "richtige" Karte gefunden.
Wechselst du jetzt so lange die Karten, bis du eine findest, bei der sich die Pipes aktivieren lassen? :|
Das mit den Freezes kommt schon hin. Womöglich ist das deaktivierte Quad so derbst im Eimer, dass gar nix mehr geht. Ich hatte mal ne Leadtek, frisch als die 6800er kamen und die war von Haus aus defekt. Genau das gleiche Phänomen! Treiber installiert, Neustart, Grafikfehler. erneuter Neustart, in der Hoffnung dann is alles Weg, PC startet nicht mehr :S
Naja, etz geht alles :biggrin:
CrazyHorse
2004-10-25, 17:49:38
Wechselst du jetzt so lange die Karten, bis du eine findest, bei der sich die Pipes aktivieren lassen? :|
Nein! Die Galaxy ist nach 4 Tagen kaputtgegangen und die Leadtek war nach meinem CPU-Lüfter-Umbau doch nen Tick zu laut, was ich vorher beim AMD Boxed-Kühler/Lüfter nicht so wahrgenommen hatte.
Und das mit der "richtigen Karte" bezieht sich nicht auf die vier Pixel-Pipes, sondern auf den Gesamteindruck, so dass man denkt "hach was habe ich nur für eine geile Grafikkarte ... sehr schnell, fast unhörbar und nicht zu heiß". Ich dachte eigentlich, dass eine dieser Karten das Zeug hat sich in sie "zu verlieben" ;) so wie in die MSI 4200ti damals.
Aber versuchen kann man es ja mal...
Fruli-Tier
2004-10-25, 18:26:02
Stimmt, die Ti 4200 von MSI war wirklich ein feines Stück Hardware!
Ganz im Gegensatz zu meiner Sparkle jetzt; da war nich mal ne Treiber CD dabei :mad:
Aber wenigstens die Pipes gehen :biggrin:
Ich habe auch noch einmal durchgetestet.
Im 3D Mark 2003 hatte ich mit:
12 Pipes 5 Vertex: 8171
16 Pipes 6 Vertex 9781
Treibereinstellung auf Anwendungsgesteuert, bzw VSync forced OFF
Bildqualität auf: Qualität
Soundtest hat der Murks nich gemacht, ist wohl doch nur für Audigys...
Zudem habe ich den hdr Dingsda eine Weile nebenher laufen lassen. Alles ohne Fehler! Die Karte wird dabei aber verdammt warm! 75° C hat die sonst nie
Ailuros
2004-10-26, 03:24:52
75C? :eek: Selbst nach den grausamsten Stresstests geht bei mir die Temperatur nicht ueber die ~62C und das uebertaktet auf 350/870MHz und ~24C Zimmertemperatur.
Ich muss wohl nochmal das "HDR-Dingsda" installieren....
toll soone mods ... gibts wieder die ganzen PENNER die ihre karten zurücksenden weils net funzt! KOPF AB!
sirwuffi
2004-10-26, 11:46:55
@ flatbrain
es scheint doch einige mit der Asus GE zugeben, bei denen alles pipes heil sind. im computerbase.de forum gibs glaub ich zwei und bei guru3d, dort wo der rivatuner herkommt, waren es mindestens ein halbes duzend in den ersten 3 tagen nach dem release.
ich bin auch ein bißchen enttäuscht, dass es bei meiner GE nich geklappt hat die letzten 4 pipes freizuschalten. der letzte vertex shader hat bei mir 100 punkte im 3dmark03 gebracht....... .
was mich nur einbißchen wurmt ist, dass ein kumpel sich ne LE gekauft hat und alle pipes und alle bis auf einen vertex shader freischalten konnte und somit für etwa 100€ weniger etwa die gleiche leistung hat wie ich mit meiner GE.
Aber was solls. dafür sieht meine schöner aus ;)
gruß
sirwuffi
q w/o keks
2004-10-28, 08:42:55
Ich habe bisher von 3 Gigabyte GV-N68128DH gehört - alle waren komplett freischaltbar ohne Probleme!
make that 4, für's erste... ;)
lacampista
2004-10-29, 15:25:00
Tach!
Hab seit gestern auch ne 6800LE, die von gainward (2100LE) zuvor hatte ich ne 5900XT...
hab sie auch freigeschaltet auf 12x1,6vp, mehr geht nicht, da pixelfehler
in 3dmark 03 hab ich ~7800 Punkte
und komischer weiße in 3dmark 2001 fast genau so viele punkte wie mit meiner 5900XT, ~14700 Punkte
in allen spielen hab ich auch steigerungen in sachen FPS
doom³ von 42 auf 70 FPS (1024x768 High detail)
was mich aber nachdenklich macht sind die punkte im 2001er 3dmark
was kann das sein?? ist doch bestimmt nicht normal
sonst bin ich mit der karte zufrieden
Mein Sys:
Gigabyte GA7VAXP-Ultra (VIA KT400)
Gainward 6800LE
AMD Athlon XP 3000+ (Barton)
1GB Ram 333MHZ PC2700
3x Excelstore 80GB 7200/min
kann es sein das mein Mainboard mich ausbremst ?
was wäre ne bessere wahl
nVorce oder VIA KT800?
Gruß und danke für hilfe
^Hi
Weil bei 3dmark 2001 dein FSB&CPU limiterit sind.Darum kannst du den als Benchmark vergessen.
Mfg Gast
das liegt daran, das bei der 2001er die cpu mehr arbeitet.
vergleiche die ergenisse lieber vom 03er und 05er
lacampista
2004-10-30, 12:35:33
Danke für die antworten :)
was ich jetzt auch komisch finde ist das ich plötzlich im 03 3dmark 9018 punkte habe und nichts weitergetan habe als nochmal meine alte graka rein, nochmal zum testen, da ich diese verkaufe.
jo dann wieder die 6800le rein und da warens auf einmal 9018 punkte
scheint sich dann doch gelohnt zu haben der kauf
*Lachondra*
2004-10-30, 17:22:24
Haber meine 6800LE heute bekommen.
Es lassen sich nur die Vertex dinger da freischalten.
also 8x1.6 :frown: sonst FETTE PIXELFEHLER.
(Obwohl bei 12 Pipelines es noch geht da ist der Boden nur so bissl Kastriert.
Aber bei 16 Dingern nööööööööööö du)
Schade Schade Schade.
*Lachondra*
2004-10-30, 17:38:52
Komisch.
Wenn ich die Pipelines alle einzelnt freischlte(Also nur 4 Pipelines) dann gehen Sie alle.
Sobalt ich 12 freischalte dann tauchen Bildfehler auf.
hmmmmmmmm wieso gehen Die wenn man die Einzelt betreibt aber nicht zusammen?
Meint ihr vielleicht es würd funktionieren wenn ich ein anderes BIOS drauf machen würd?
Dunkeltier
2004-10-30, 17:51:59
Haber meine 6800LE heute bekommen.
Es lassen sich nur die Vertex dinger da freischalten.
also 8x1.6 :frown: sonst FETTE PIXELFEHLER.
(Obwohl bei 12 Pipelines es noch geht da ist der Boden nur so bissl Kastriert.
Aber bei 16 Dingern nööööööööööö du)
Schade Schade Schade.
Werde Sie jetzt umtauschen lassen.
1) Sowas kotzt mich an!
2) Glaubst du etwa, alles anderen Karten wären eventuell keine Rückläufer bei denen die Modifikation ebenfalls nicht geklappt hat? Blauäugig. Behalte die Karte, und gut ist.
*Lachondra*
2004-10-30, 17:58:18
ehm nö.
Achja nochwas.
Übertakten kann ich auch nicht mit Rivatuner.
Campi31
2004-10-30, 18:05:45
Tja...genau die leute beschweren sich dann wenn sie rückläufer als neuware bekommen..aber selber die Karte zurückgeben obwohl sie in ordnung ist...verboten gehört sowas!
*Lachondra*
2004-10-30, 18:09:17
:redface:
Dunkeltier
2004-10-30, 18:16:16
Ja wieso?
Die Karte ist doch 100% in ordnung und der nächste der Sie bekommt hat halt ne 6800LE weil er eine 6800LE bestellt hat.
Und nun beantwortet bitte mein Fragen.
Und rate mal, wer gleich eine neue Karte bestellen wird? Und damit auch nur eine Geforce 6800 LE bekommt, weil er eben jene bestellt hat.
:ulol3:
Wie schmerzfrei muß man sein?
*Stevo*
2004-10-30, 18:21:12
Da könnt ich kotzen bei sowas.
Würdest du dich freuen, wenn du eine bereits geöffnete Graka bekommst?
Aber Leuten wie dir ist ja eh alles egal. :down:
Sorry für OT.
*Lachondra*
2004-10-30, 18:21:57
Es kaufen sich ja nicht alle ne 6800LE um sie zu flashen!
Dunkeltier
2004-10-30, 18:23:32
Fresse oder was?
[...]
Wie meinste denn das? Denk mal lieber an die Netiquette, bevor du ausfallend wirst.
Campi31
2004-10-30, 18:34:35
@lachondra
klar kaufen nicht alle um zu flashen...aber toll ist es für denjenigen der Deine Karte bekommt die ja schon mal eingebaut war und die versucht wurde zu flaschen und zu übertakten
oder denkst du jeder shop kann Rückläufer einfach wegschmeisen oder was..mann oh mann
wegen so Leuten wie Dir gehen shops kaputt! du affe
*Lachondra*
2004-10-30, 18:37:24
:redface:
Mumins
2004-10-30, 18:40:18
Demnächst hört das eh auf, da ein neues Gesetz für Versandkäufe verabschiedet wurde. Die Versandkosten müssen bei Rücksendung oder Nichtannahme immer vom Käufer getragen werden. Wenn man da drei vier Karten zurückgehen lässt kann man gleich ne 6800NU holen.
*Lachondra*
2004-10-30, 18:42:10
süss :rolleyes:
Campi31
2004-10-30, 18:43:04
Komisch.
Wenn ich die Pipelines alle einzelnt freischlte(Also nur 4 Pipelines) dann gehen Sie alle.
Sobalt ich 12 freischalte dann tauchen Bildfehler auf.
hmmmmmmmm wieso gehen Die wenn man die Einzelt betreibt aber nicht zusammen?
Meint ihr vielleicht es würd funktionieren wenn ich ein anderes BIOS drauf machen würd?
ok..dann eben net Bios flash aber versucht freizuschalten..mann ..du hast echt was an der waffel...hoffentlich bekommste in Zukunft nur noch Retourware geschickt wenn du was bestellst
flatbrain
2004-10-30, 18:44:12
deine abay ist ein Affe!
1Hab ich net geflasht.
2Auch net übertaktet (noch net)
3FRESSE
und beatwortet meine FRAGEN!
Öhm, du erwartest bei diesem Ton antworten - die werden hoffnetlich von geeigneter Stelle folgen ;) !
Campi31
2004-10-30, 18:53:06
dem ist net mehr zu helfen..hoffentlich fackelt die Karte noch ab weil er ja sogar zu doof ist den Riva Tuner zu bedienen ;D
*Lachondra*
2004-10-30, 19:24:06
OKAY AN ALLE:
Es tut mir leid! Okay!
Ich werde die Karte behalten! Ist wirklich scheiße wenn ich Sie abgebe.
Und ich entschuldige mich für meine Ausdrucksweiße.
PEACE
OKAY AN ALLE:
Es tut mir leid! Okay!
Ich werde die Karte behalten! Ist wirklich scheiße wenn ich Sie abgebe.
Und ich entschuldige mich für meine Ausdrucksweiße.
PEACE
OK, Entschuldigung angenommen. Einen schlechten Tag stehe ich jedem zu.
Editierst du dann bitte noch einen Teil deiner Postings dahingehend, daß andere sich nicht mehr daran stoßen?
saddevil
2004-10-31, 10:45:04
nicht ganz OT aber vieleicht interressant
der riva kann ja freischalten...
hab mal gesucht und was gefunden...
der RT setzt im ROM einige werte um ...
7A 40 15 00 00 diese zeile wird ergänzt bzw umgeschrieben
diese habe ich bis jetzt in JEDEM BIOS des NV40 gefunden..
also theoretisch könnte man dann das BIOS modden und flashen..
wenn man weiß das die karte 100% funktioniert
um raus zu bekommen welche parameter gesetzt werden müssen brauch man sich nur mal im RT verzeichniss "umsehen"
gruntzmaker
2004-10-31, 19:54:14
Wie sieht das mit ner Leadtek 68nu aus?
Hat man da eher gute Ergebnisse oder schlechte, wenn man den RT 2.0 benutzt, um Pipes freiszuschalten?
Um Missverständnissen vorzubeugen, ich will die Karte meinem Bruder kaufen, der momentan keine hat und eigentlich wollte der bloß eine 9800 Pro haben, aber für 200€ halte ich die vergleichsweise teuer.
Ne 68nu von Leadtek kriegt man für knapp 50-60 mehr und die leistet im Rohzustand schon bedeutend mehr (daher würde ein erfolgreiches Tunen nett, aber nicht zwingend sein, sprich ich würde sie nicht wieder umtauschen, wenn es denn jetzt nicht klappen sollte)
Zweiter Grund ist ne geplante Lan, auf der natürlich CS Source und DOD Source gezockt werden soll und nicht zuletzt das hardwarefressende RTS von EA (dieses Herr der Ringe Teil eben...).
Ich hoffe mir glaubt man das jetzt auch, ich bin ne ehrliche Haut und niemand der jetzt nur billigst möglich an ne ultra rankommen will.
Nachtrag: hab jetzt gesehen, dass die Asus noch günstiger ist (v9999/TD), wie siehts denn mit der aus?
So long Gruntz
Mumins
2004-10-31, 19:58:21
Man kann es nicht genau sagen, da jede Karte anders ist. Grob geschätzt würde ich sagen, dass ca. 60% der Karten sich freischalten lassen. Der Hersteller ist dabei egal.
gruntzmaker
2004-10-31, 20:19:33
Gut danke, wie gesagt ich brauch nur ne Einschätzung mehr nicht.
Auf den Erfolg kommt es nicht zwingend an.
@saddevil
So wie ich das sehe ist die Zeile 7A 40 15 00 00 nur für die Softwaresperrung da. Aber irgendwo in den Hexwerten davor ist die Hardwareabfrage, nur wo weiß ich noch nicht so genau.
also habe eine Gainward 6800nu Golden Sample und das Freischalten hat geklappt ! Tests ergeben zumindest keine sichtbaren Grafikfehler.
Und die Performance hat z.b unter 3DMurks03 um circa 11% zugelegt.
mfg gast ;)
Sk_Antilles
2004-11-26, 01:26:23
So, habe meine ASUS TD 6800 auch komplett freischalten (16p, 6v) können. Keine Bildfehler oder sonstiges zu sehen! :D
*froi*
Sk_Antilles
Hatstick
2004-11-26, 12:59:38
Ich habe mir ne MSI 6800LE bulk zugelegt und habe sie auf 12Pipes,6VS freigeschaltet bekommen.
Absolut keine Pixelfehler,auch beim OC auf 350/800MHz.
Bei 16 Pipes sind allerdings leichte Bildfehler sichtbar.
Bin für 215Euro trotzdem sehr zufrieden mit der Karte.
majoho
2004-11-26, 16:32:10
Erst mal - sorry for my bad German, I hope you understand.
Hab ein Leadtek 6800LE gekauft und ich glaube kaum wie gut es ist.
Ich habe schon ein Radeon X800PRO und hab nur der 6800LE gekauft weil ich langeweilt war :D
Ok, ich kann nur 12p/6v freistellen aber es laüft nun gleich schnell wie mein X800PRO :eek:
Ich hab mit Rivatuner ein batch datei gemach um die pipes im BIOS freizustellen und ich hab dann mit NiBiTor einige werte geändert - clocks: 350/800 und 1.5V für 3D mode.
Dann hab ich die BIOS geflasht und jetz sind die pipes auch ohne Rivatuner freigestellt.
Zuvor ich die BIOS geflasht hatte könnte ich nur auf max 370 core gehen, jetzt bin ich an 430 und es geht immer noch ohne pixelfehler - ich traue mich aber nicht höher zu gehen... (I expect the thing to blow up soon).
Ok again, my German is really bad sorry.
If anyone need instructions on how to do the BIOS mod let me know, I can explain in English. (I learned about the modding from the Rivatuner forum, I think it's mentioned in this thread as well).
Btw. my scores:
X800PRO 6800LE
3DMark01 23.346 20.487
3DMark03 11.627 11.124
3DMark05 4.231 4.104
Doom3 1024H4AA 49,1 63,4
Doom3 1600H4AA 25,8 27,0
X800PRO clocked at 547/1066
6800LE clocked at 428/800
Msi 6800 Owner
2004-11-29, 13:03:28
Offensichtlich hat Nvidia die Notbremse gezogen.
Die neuen 6800er lassen sich mit dem Rivatuner 15.2 nicht mehr freischalten.
Das gilt jedenfalls für meine Karte. Ich bin aber nicht allein.
vgl. hierzu im rivatuner forum den sticky "softmod doesn't stick" oder so ähnlich.
Unwinder, Autor des Rivatuners, findet ja vielleicht ein Workaround.
Da aber bei mir eh die CPU jetzt den Flaschenhals bildet, bin ich nicht sooo enttäuscht.
Jedenfalls muss man aber jetzt warnen:
Die bei ebay angebotenen "gebrauchten" Karten sind wahrscheinlich nicht freischaltbar, weil defekt.
Die neuen sind es nicht, weil Nvidia reagiert hat.l
Gaestle
2004-11-29, 16:33:40
Oder der NV41 ist im Markt eingetroffen. Da sind dann "nur" noch 12 Pipes physikalisch vorhanden. Wegen Poduktions-Kosten senken und so...
Grüße
Msi 6800 Owner
2004-11-29, 20:46:59
Oder der NV41 ist im Markt eingetroffen. Da sind dann "nur" noch 12 Pipes physikalisch vorhanden. Wegen Poduktions-Kosten senken und so...
Nö
Meine Karte ist ne AGP. NV41 betrifft nur PCI-E Varianten, wie ich meine.
Außerdem zeigt mir der Rivatuner an, dass das noch 4 pipes sind, die deaktiviert sind und sich auch nicht zu anderem überreden lassen.
Nvidia hat sich wohl auch für die AGP Variante was einfallen lassen, um zu verhindern, dass den GT und Ultra Varianten das Wasser abgegraben wird.
Ohhhh man, wenn endlich meine Asus 9999TD kommt dann wird auch erstma RT draufgeklatscht und ausprobiert.
Wobei ich aber in solchen Sachen nie Glück hatte :/
Zu der Zeit als man die Radeon 9500er Karten modden konnte hab ichs auch 2x probiert und zweimal hats nich geklappt :/
Bevor alle (berechtigterweise) losstänkern 2x deswegen, weil bei der ersten Karten nach 2 Wochen der Lüfter defekt ging. Und wie das Schicksal so will gings natürlich bei der Ersatzkarte auch nich ^^
Wenn ich da an mein Bruder denk =/
Der hat seine eingebaut, Omega Treiber draufgehauen und gefreut wien Schneekönig weils 99% ging (2x 4x4 Pixelgrüppchen im unteren teil des Bildes sind defekt) :/
Drückt mir die Daumen xD
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.