PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GigaByte GF6800nu (GV-N68128DH)


Quasar
2004-10-29, 12:56:13
Ja, hier kommen meine Erfahrungen rein, Stück für Stück.
Da das Ding ja eher selten ist, erstmal die



Vorgeschichte:

Mein Rechner ist ja eh nicht mehr der dollste, aber das meiste läuft schon noch so, daß ich noch keinen zwingenden Grund sehe, mir ein komplettes, neues System zu kaufen. Meine alte Karte war ja ein Schnuckelchen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=90965), aber soff mir dann doch zuviel Strom für die gebotene Leistung. Was ich allerdings extrem liebgewonnen hatte, war die absolute Ruhe beim Arbeiten (ja, der Fön hatte auch seine guten Seiten). Da ich in der Vergangenheit in der glücklichen Lage war, das ein oder andere Stück Grafikhardware näher zu begutachten, probierte ich auch so einiges davon aus, ob es mir für den Privatgebrauch zusagen würde.
Meinen Ansprüchen insgesamt am gerechtesten wäre wohl eine Radeon 9600 Ultimate Edition geworden - das Modell, welches ich kurzzeitig probieren konnte, wollte allerdings nicht mit meinem GBT-6OXET-Mainboard zusammen laufen - lt. Saphhire allerdings ein Einzelfall.
Ich wollte allerdings diesbezüglich kein Risiko eingehen und da man so einiges hört von Versandhäusern und deren Gebahren, wenn mal eine mysteriöse Inkompatibilität auftritt, oder die mitunter doch beträchtliche Dauer, bis man seine Kohle aus dem FAG zurückerhält, nahm ich Abstand von einem R9600-Modell zumal auch gewisse Eigenheiten der Texturfilterung damals nicht so ganz meinem Gusto entsprach.
Ich wechselte durch meine Sammlung kreuz und quer, aber die ollen Gurken, wie G400 oder Rage128 oder GF2 MX konnten meinen Spieltrieb nicht befriedigend, so daß schließlich doch wieder die 5800u im Rechner landete.
Der Preis waren allerdings gute 25W mehr Stromaufnahme im Windows-Desktop-Betrieb als mit den anderen Karten, mit denen ich aber wiederum nicht spielen konnte.
Dilemma.

Als dann GigaByte eine GeForce 6800 mit passiver Kühlung (http://www.gigabyte.de/VGA/Products/Products_GV-N68128DH.htm) vorstellte und ich wußte, daß 6800nu-Modell bei mir laufen würden, war ich kaum zu bremsen - meinem Kontostand allerdings erging es eher andersrum, so daß ich erst Anfang Oktober wieder ernsthaft eine solche Anschaffung in Betracht ziehen konnte und die erste lieferbare Welle der Karten glorreich verpasste. Dumm nur, daß die nächsten Karten gleich mal 25 EUR teurer waren und zudem nicht lieferbar. Trotz dieser Widrigkeiten folgte am 16.10.2004:



Die Bestellung:

Auf einmal war der Lieferstatus bei der Online-Apotheke Alternate (http://www1.alternate.de/html/index.html) auf 'grün' und trotz eines deftigen Preises von 309 EUR zzgl. Abzocke...err.. Versandkosten schlug ich zu. Am Montag rief ich an und fragte, wann ich denn mit dem Eintreffen rechnen könne: Die Charge sei schon komplett aus dem Hause und leider konnte meine Bestellung nicht mehr mitbearbeitet werden, da zuviele Vorbesteller befriedigt werden wollten. FRUST.
Ob die Karten überhaupt noch im Oktober reinkommen sollten oder wann die nächste Lieferung erwartet werden würde, dazu konnten mir die freundlichen Telefonsklaven von Alternate keine Auskunft erteilen. Ich wartete. :(
Diesen Montag rief ich noch einmal an und nicht bass verblüfft, daß man mir dieselbe vertröstende Antwort gab, wie eine Woche zuvor.
Am Dienstag hatte ich frei und nichts zu tun und als ich so meinen manuellen Spamfilter anwarf hätte ich beinahe eine Mail von Alternate gelöscht, die am Abend zuvor angekommen war. Was sollte dort wohl drinstehen, außer, daß die Produktion der Karte eingestellt worden war und man meine Bestellung storniert hatte?
Ein kleines bißchen habe ich mich schon gefreut, mich hier geirrt zu haben. Das muss ich mal zugeben - denn die Mail enthielt neben einem langen Text, der wohl der juristischen Absicherung der Auftragsbestätigung dienen sollte, den Hinweis, daß MEINE KARTE, MEIN SSCHATZZZZZSSSSS am Abend zuvor das Lager verlassen hätte.
Am Mittwoch war es dann soweit und auf der Arbeit klingelte der Postbote und verlangte von mir die Frechheit von 320,95EUR. In einem riesigen Paket mit Unmengen an nützlichem Packpapier und einer ziemlich großen, bunten Schachtel mit Plastiktragegriff kam die Karte bei mir an.
Zu meckern hatte ich trotz allem etwas an:



Der Lieferung:

Dummerweise war der Karton weder eingeschweisst, noch machten die Pappklappen den Eindruck, ich würde gleich der erste sein, der dieses Schmuckstück in Händen halten würde. Die Antistatikfolie unterstützte diesen Eindruck und war weder versiegelt, noch halbwegs knitterfrei noch in der Größe angemessen. Die Karte roch auch nicht nach den Rückständen der Produktion - ich hatte also einen Rückläufer erwischt. TOLL :(
Ein klein wenig angesäuert, beschloß ich, nichtsdestotrotz, das Teil erstmal auszuprobieren und zu behalten, wenn sie im Rahmen ihrer Spezifikation funktionieren sollte. Übertakten oder Modden wollte ich das Teil eh nicht - eher im normalen Betrieb untertakten oder noch ein Quad abschalten.



Das Gelieferte:

Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2397.JPG) für Packung.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2398.JPG) für Bundle.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2399.JPG) für Karte, Vorderseite.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2400.JPG) für Karte, Rückseite.
Klick (http://home.arcor.de/quasat/3DC-Pics/DSCN2401.JPG) für Heatpipe, Nahansicht.



Der Einbau:

Da war sie nun und musst in meinen wie folgt konfigurierten Rechner passen:
Gehäuse: Midi-Servertower, grau, auf Rollen
Netzteil: ASTec SA147-3520
Mainboard: GBT 6OXET (So370)
CPU: Pentium3-S 1,4GHz (auf 1,08v)
RAM: 2*256MB PC133-SDR-SDRAM (2-2-2-5)
HDD: Samsung SV1604N (verpackt in einem CoolerMaster CD-03 ohne Lüfter)
CD-R: Yamaha CRW3200E
DVD: Pioneer Slot-in 105 (oder so...)
Steckkarten:
- [Graka]
-
- 3Com Etherlink XL 10/100-PCI NIC
- Creative Audigy II ZS
- Hauppauge WinTV Theater

Korrektur: Alle Watt-Angaben beziehen sich natürlich auf das Gesamtsystem - nicht, daß da eine ungenaue Formulierung einen falschen Eindruck entstehen läßt!

Summa Summarum machte das primärseitig am meinem ELV Energie Monitor EM600 eine Last von ~73W mit meiner (Chaintech) GF4 MX460 oder ~90W mit meiner (PNY) FX5800u bei ruhendem Windows-Desktop und entweder eine ziemliche Ruckelei in Far Cry oder niedrige(re) Qualitätseinstellungen in Sachen Grafik. Spielbar bekam ich es auch mit der GF4MX noch ohne Probleme in 1024....
Eingebaut belegt die Karte trotz ihrer Dimensionen nicht mehr als nur den AGP-Slot, auch wenn es rückseitig im Bereich der Speichersockel sehr knapp zugeht. Aber hier ist das Kühlkörperdesign durchdacht und weist an der Stelle, wo es kritisch werden kann, keine Lamellen mehr auf, sondern nur noch die Kühlplatte.
Zwei andere Punkte wirken, ohne das jetzt mathematisch oder physikalisch exakt zu begründen, weniger durchdachte:
Erstens wäre da die Vorderseite und der 'Einschluss' der Heatpipes in eine Hitzefalle - ein Konstrukt, prädestiniert dazu, die höchsten Aussentemperaturen am Kühler zu erzeugen.
Und Zweitens sind da die RAM-Bausteine in µBGA-Bauform. An sich nicht problematisch, handelt es sich bei diesen um DDR1-Speicher, der noch etwas mehr Leistung benötigt, als der aktuelle GDDR3-RAM. Dumm nur, daß der Kühlkörper etwa 0,5mm über den einzelnen Bausteinen schwebt und durch die Hitze aus den Heatpipes anstatt hier zu kühlen oder sich wenigstens neutral zu verhalten, eher noch zu erhöhten RAM-Temperaturen beiträgt. :(
Wir werden sehen (denn wir sind ja nicht blind).

Nun noch der erste Kritikpunkt am Lieferumfang (ich vermute letztere...): Im Lieferumfang befand sich kein Y-Kabel, um einem eventuell ausgelasteten System zur Aufnahme der Karte zu verhelfen - glücklicherweise kein besonders schwerwiegendes Problem in meinem Falle.

Fertig zusammengesteckt, war ich natürlich skeptisch, ob die beiden Heatpipes des Kühlers auch mit der vermutet enormen Abwärme eines 222M-Transistor-Monsters fertig würden, deshalb:



Erste Messungen:

Bewaffnet mit o.e. Wattmeter und einem Multimeter mit Temperaturfühler bootete ich mein System und installierte direkt mal die neuesten BETA-Treiber. :devil:
Zu meiner großen Enttäuschung genehmigte sich das Teil im Windows-Idle nach dem allfälligen Neustart genau so viel, wie meine 5800u, etwa 90W. Nun gut, dafür sollte die Leistung in nahezu allen Fällen besser sein und beim Starten einer 3D-Application würde nicht wieder der Fön anspringen.
Ich fühlte nach ein wenig surfen, Musikhören und Videoschauen manuell am rückwärtigen Kühler nach und konnte nur mit Mühe und einiger Willenskraft die Hand an Ort und Stelle belassen - ziemlich warm, das Ding.
Das Multimeter musste ran und maß prompt 56°C an der Rückseite. Die weiter oben beschriebene, vermutlich kritischere Stelle stellte ich mit dem HDR-Shader aus dem nVidia-SDK auf die Probe und der Kühlkörper erwärmte sich hier nach ca. einer Stunde Laufzeit auf 80°C - es gab allerdings keine Bildfehler oder dergleichen zu bestaunen. Um zu sehen, ob sich das Ding nicht heimlich runtertaktete, lief die ganze Zeit der RT 15.2 im Hintergrund mit - alas! To no avail! ;)

Nach ein bißchen probieren mit theoretischen Testprogrammen und dem BIOS-Editor stellte ich freudig fest, daß sowohl die aktuelle BIOS-Version bereits aufgespielt war, als auch, daß die Karte ordnungsgemäß mit 12 Pixelpipes (3 Quads) und 5 Vertexeinheiten lief. Es soll da ja Fehllieferungen seitens GBT gegeben haben.

Angestachelt einerseits durch Neugier, andererseits durch externe Einflüsse ( greetings @ robbitop) und sowieso vorhandenem RivaTuner in passender Version, versuchte ich auch, was ich eigentlich nicht tun wollte: Freischalten der deaktivierten Pixel- und Vertexeinheiten. Kh'Pla! (read: Es scheint geklappt zu haben, vorbehaltlich neuer Programme, die doch noch Fehler zutage fördern).
Sogar der Stromhunger vergrößerte sich nur unwesentlich und unter voller (von mir erreichter) Last sog das System nunmehr gut 128W aus dem Stromnetz - im 3DMark eher so um 110-115W ;)). Win-Idle blieb bei rund 90W.
Es folgt:



Das Kuriosum:

Neben dem Freischalten, welches ja kaum höhere Leistungsaufnahme und somit ebenfalls auch kaum höhere Leistungsabgabe mit sich brachte, versuchte ich nach einer Reihe weiterer, positiv verlaufener Stabilitätstests ei wenig Overclocking.
Der RivaTuner bietet seit den Zeiten der FX-Reihe separate Einstellungen für 2D und 3D an. Ich versuchte zunächste einmal, nur die 3D-Leistung durch erhöhten Takt zu steigern - mit dem Erfolg, daß dieser Ausblieb. Folgend habe ich dann auch den 2D-Takt auf denselben Wert gesetzt (Testweise 350MHz) und damit kam auch der Erfolg - auf zweierlei Weise.
Einerseits natürlich eine "Beinahe"-GT mit 16 Pipes und 350MHz-GPU-Takt und andererseits, wie ich später erstaunt feststellte, eine um 15W auf rund 75W gesunkene Leistungsaufnahme im Idle-Modus, die sich nach einigem Probieren bei einer GPU-Taktrate von genau 350MHz einstellte (349MHz benötigten noch ~90W idle).
Höchst mysteriös....aber gut zu wissen, wie ich finde.



Grauer Alltag:

Einigen Unstimmigkeiten nervten, wie z.B. die Uneinigkeit zwischen Verpackung, Webseite und Treiber, ob die Karte nun HW-Monitoring unterstütze. Der RivaTuner war zunächst der Meinung, er könne auch keine Temperatur meiner Karte erkennen und so musste ich mich auf mein externes Multimeter verlassen. Doch, oh wunder, das GBT-eigene Tool V-Tuner2plus vermag es auf das famoseste, zumindest die GPU-Kerntemperatur auszulesen. Gut, daß ich über meinen Schatten sprang und herstellerspezifische Tools installierte...
Nach ein paar weiteren Versuchen ergab sich ein GPU-Temperaturmaximum von etwa 95°C - IMO unbedenklich für jemanden, der eine nV30 bei 500MHz gewohnt ist. Allerdings sollte man dem Teil aufgrund des Kühlprinzips etwas Luft zum Atmen lassen - ich habe es zwar noch nicht probiert, aber den ersten PCI-Slot zu blockieren, könnte zu thermischen Probleme führen...

Das nächste Kapitel, das ich vorhabe, unter die Lupe zu nehmen, ist der Videoprozessor und die Funktion, die man ihm noch entlocken kann.



Videoprozessor, oder wie verschwende ich ~20M Transistoren:

Auf meinem Rechner laufen verständlicherweise kaum WMV9-HD-Videos wirklich flüssig - selbst das Simpel-Exempel 'Robotica' tut es nur in der 720er Auflösung noch. Auch die NASA-Patriotensamples mit startenden Space-Shuttles, händeschüttelnden Präsidenten, senkrechtstartenden Harriern und Formation fliegenden Kunstflugstaffeln ruckeln eher lustlos vor sich hin, obwohl im MPEG-Format. Die Filmtrailer 'Ray' und 'Shark Tale' von der DivX-Seite hingegen laufen problemlos.
Da habe ich mir natürlich eine Linderung durch den VP erhofft.
Bisher, vorbehaltlich der neuen Treiber, die ja in der Gerüchteküche zubereitet werden, scheint das jedoch ein Griff ins Klo zu sein.
Für DVD, xVid, DivX und sonstiges Zeugs ist mein Rechner schnell genug - da ist mir der VP egal.

Dummerweise muss man für den nVidia DVD-Decoder einen WMP9 auf seinem System zulassen, wozu ich mich bisher nicht entschliessen konnte. Also ein Alternativ-Windows auf eine alte Platte geklatscht, M$ einmal komplett alles durchschnüffeln lassen und das Teil installiert (wo krieg ich eigentlich meine Kohle wieder?? Kreditkartenabbuchung stornieren lassen?).
Fehlanzeige - 'Step into Liquid' in 720 immer noch durchgehend bei 100% CPU-Auslastung, stockendem Ton und nach einigen Sekunden, versetzter Bild und Ton-Wiedergabe.

Warten auf den 'Wundertreiber' err.... :|
Eigentlich, wenn man sich das Diagramm so anschaut, hätte nV lieber die TMUs des Vertexshaders mit bilinearen Filterkerneln ausstatten sollen oder tri-TMUs einbauen, oder einfach ein fünftes Pixelquad....

Update:
Die neueren Treiber (so ab dem 66.93er IIRC) bringen zumindest eine gute und hübsche Beschleunigung von HD-MPEG2-Videos. HD-DivX und -WMV9 sind noch problematisch.


Performanzen:

Viele Benchmarks wird's nicht geben,außer ihr habt irgendwelche speziellen Wünsche, die ich irgendwie erfüllen kann.
mapel110s Vorschlag, die Men-of-Valor- und MOH:PA-Demos zu probieren waren nicht so erfolgreich. Beide liefen zwar, aber die Performance war auch in 640x480 mit sehr wenigen Details noch ähnlich unerfreulich wie in hoher Auflösung mit mehr Details - wie gesagt, schiebe ich das vorerst mal auf die CPU (<20fps sollten nicht unbedingt an der Graka liegen, denke ich).

FlatOut läuft auch in 1600x1200 mit allen Details in der Demo prima, Doom3 wurde zwar nicht schneller als vorher (~33-34fps in der Demo), aber dafür nun auch in 1600x1200 etc.. Ein richtiger Schub kam dagegen bei Far Cry, welches, inzwischen auf Version 1.3 geupdated, auch mit HDR-Rendering in 1024 problemlos spielbar bleibt. Sobald jedoch die Auflösung auf 1152 erhöht wird, geht irgendwas in meinem System stark in die Knie - ich vermute, die VRAM-Größe reicht langsam nicht mehr aus.
Im Plain-Vanilla-Modus sind auch 1600x1200 nicht verkehrt, ebenso bei UT2004 und UT2003 - letzteres ist bei gemäßigterer Auflösung sogar mit recht hohen AA-Modi noch erträglich. 4xS, 8xS oder 2x2 Supersampling, aTuner sei Dank, erfreut das Auge nun auch bei etlichen älteren Games, ohne das die Framerate untragbar darunter leidet.

3DMurkse sind auch gelaufen und insgesamt habe ich so ca. 22.000 Punkte - 10,5k im 01er, 8,7k im 03er und 3,2k im 05er - WAYNE.



Fortsetzung folgt...
ksrythx. ;(

Update 04.02.2005:
Wie sich jetzt herausstellte, scheint wohl doch ein subtiler Fehler im ab Werk deaktivierten Pixelquad vorhanden zu sein. Erstmals sichtbar im Raytracer-Shader, der 293 Instruktionen lang ist.

Quasar
2004-11-01, 22:31:34
*bump*
(Update)

Heimatsuchender
2004-11-01, 23:00:35
*bump*
(Update)


:confused:
karte tot?

tobife

Quasar
2004-11-02, 22:22:30
Nein, wie kommst du darauf?
Hab' lediglich den Text um die letzten fünf Punkte ergänzt...

Heimatsuchender
2004-11-02, 23:17:32
Nein, wie kommst du darauf?
Hab' lediglich den Text um die letzten fünf Punkte ergänzt...

in meinem rechner (ist schon etwas her, war ein älterer) machte es mal "bump" (genau so). als ergebnis war mein netzteil tot und hat falls alles mitgenommen. da wurde es zeit für was neues.

tobife

mapel110
2004-11-04, 01:23:01
Warum so kompliziert mit der temp? wieso keine coolbits?

Wenn du Lust zu testen hast, kannst du mal die Performance mit Men of Valor demo und Medal of honor: pacific assault demo testen und sagen, ob du zufrieden bist.
(Ich bins nicht)

robbitop
2004-11-04, 10:29:12
@Quasar
ich hätte gern @4Quads einen gaaaaannz kleinen Skallierungstest:

4xS 16xAF ein Spiel deiner Wahl Auflösung 1280x1024

300MHz Chiptakt
350MHz Chiptakt

Speichertakt bitte gleich lassen.
(Du kannst auch andere Chiptakte wählen, der Abstand sollte jedoch nicht zu klein sein).

Wäre super wenn du das mal testen könntest, wenn du mal zeit finden würdest.

Kladderadatsch
2004-11-04, 17:39:16
...eine um 15W auf rund 75W gesunkene Leistungsaufnahme im Idle-Modus, die sich nach einigem Probieren bei einer GPU-Taktrate von genau 350MHz einstellte (349MHz benötigten noch ~90W idle).
Höchst mysteriös....aber gut zu wissen, wie ich finde.


das ist mir auch schon aufgefallen. meine karte läuft seitdem immer übertaktet, um 3-5° kühler zu bleiben:biggrin::confused:

runter taktet sie sich laut rt nicht; vielleicht dreht der lüfter mit ein paar mhz mehr ein wenig schneller- aber deine ist ja passiv gekühlt :|


@robbitop
falls quasar keine zeit findet und du dich mit einer msi begnügen kannst, könnte ich das am sonntag machen. (falls ja, schick mir samstag oder sonntag bitte eine pm; habe zur zeit so viel um die ohren, dass ich das bis dahin bestimmt vergessen würde)

Quasar
2004-11-04, 19:01:38
Warum so kompliziert mit der temp? wieso keine coolbits?

Wenn du Lust zu testen hast, kannst du mal die Performance mit Men of Valor demo und Medal of honor: pacific assault demo testen und sagen, ob du zufrieden bist.
(Ich bins nicht)

Kann ich morgen bestimmt mal versuchen, aber ich prophezeihe jetzt schon, daß ich wie eine tote Fliege am CPU-Limit kleben werde - in Far Cry tue ich's jedenfalls, so daß ich den HDR mit nur 10-20% Einbußen in 1024 spielen kann.

Quasar
2004-11-04, 19:03:50
@Quasar
ich hätte gern @4Quads einen gaaaaannz kleinen Skallierungstest:

4xS 16xAF ein Spiel deiner Wahl Auflösung 1280x1024

300MHz Chiptakt
350MHz Chiptakt

Klar, kann ich machen - 4xS-AA und immer auf 4 Quads?
Wenn es nur um das Bandbreiten-Limit geht: UT2003 irgendein FlyBy?

edit:
Inferno-FlyBy
300MHz: ~33fps
370MHz: ~38fps
(mit Quality-fff)

300MHz: ~40fps
370MHz: ~45fps
(mit Quality-ttt)

Quasar
2004-11-04, 19:05:28
das ist mir auch schon aufgefallen. meine karte läuft seitdem immer übertaktet, um 3-5° kühler zu bleiben:biggrin::confused:

runter taktet sie sich laut rt nicht; vielleicht dreht der lüfter mit ein paar mhz mehr ein wenig schneller- aber deine ist ja passiv gekühlt :|

Nicht nur Kühler - das habe ich da noch gar nicht kontrolliert (momentan idlet sie bei 54-55°C herum) - sondern vor allem auch sparsamer.

Scheint fast so, als ob irgendein dynamisches Gating erst ab einer bestimmten Frequenz (hier: 350MHz, ist bei dir die Grenze genau dieselbe?) anspringt.

robbitop
2004-11-04, 20:21:11
@insaneinthemembrane
danke für das nette Angebot, aber Quasar hat schon gebencht :)

@Quasar
scheinbar bringt bei enormer Füllratenlast Chip OC sogar bei 4Quads und zuwenig Bandbreite lineare Leistungssteigerung...

T86
2004-11-04, 22:49:19
netter überblick :)

aber mal ne ganz doofe frage du hast n P III und gibst über 320,- für ne Graka aus :|

ich hätte lieber die Radeon 9600 behalten bzw die fx 5800 und dafür
cpu + bord + ram gekauft

aber naja da du ja auch auf leistungsaufnahme und sowas achtest wirst du wohl andere prioritäten haben

Quasar
2004-11-06, 12:14:42
*bump*
(Update)

robbitop
2004-11-06, 14:11:35
wie kommst du auf 20Mio Transistoren für den VP?
eine 10 Stufige Decoderpipeline inkl ALU sollte nicht annähernd daran kommen.
Kann mich natürlich auch irren. Wüsste halt nur gern wo du die 20Mio her hast.

Quasar
2004-11-06, 15:01:34
Ich war der Meinung das irgendwo mal aufgeschnappt zu haben, daß der VP allein mehr Transistoren hätte, als eine komplette GF2-GPU.

Allerdings sind das laut Blockdiagramm auch ein paar mehr Einheiten, als die, die du aufzählst.

Gast
2004-11-24, 11:11:54
hmm, ich wunder mich wieso du, quasar, nicht einen kleinen Dothan Pentium-M kaufst und den dann auf coole 2ghz+ ocst?

Weil was ich so von deinem Anforderungsprofil mitbekommen habe willst du ja keinen Strom verbrauchen und absolut silent sein. Dothan wäre DIE cpu für dich, findest nicht?

Zusammen mit der aufgebohrten nv40 solltest dann auch cpu limitierte games voll flüssig gamen können.

k@w
2004-11-24, 12:15:01
hmm, ich wunder mich wieso du, quasar, nicht einen kleinen Dothan Pentium-M kaufst und den dann auf coole 2ghz+ ocst?

Weil was ich so von deinem Anforderungsprofil mitbekommen habe willst du ja keinen Strom verbrauchen und absolut silent sein. Dothan wäre DIE cpu für dich, findest nicht?

Zusammen mit der aufgebohrten nv40 solltest dann auch cpu limitierte games voll flüssig gamen können.

Ich weiss ehrlich gesagt nicht ob sich das preislich lohnen würde. Preise laut Alternate für das Board zwischen 230 und 280€, der Pentium M geht bei 200€ los (1500Mhz). Ein Celeron M wäre hier wohl günstiger, aber liegt immer noch bei 100€.

Da würde ich wohl eher zu einem A64 System greifen wo CnQ vernünftig funktioniert und das gespaarte Geld die nächsten Jahre in die Stromrechnung investieren, wenn der Rechner unter Last etwas mehr Strom zieht.

Quasar
2004-11-25, 21:31:11
Wenn schon, dann eher einen Banias - den gibt's aber leider nur mehr gebraucht.
Allerdings ist mir das ganze dann doch ein bissel zu teuer, insbesondere, wenn ich mir den Thread zu den ersten Desktoperfahrungen zu den Dothan-Boards durchlese. Für 600EUR+ noch den Betatester spielen - dazu habe ich keine Lust.

Vielleicht nächstes Jahr.

Gaestle
2004-12-08, 12:57:26
Hallo,

anbei mein Wunschzettel:

Da der Karte ja Thief: DS beiliegt, würden mich Benches davon interessieren. Wenn man BLOOM ausschaltet, soll sogar AF und AA möglich sein. Die Auflösung meines Interesses ist die 1280er, ansonsten bitte mal mit BLOOM und mal ohne BLOOM, dafür aber mit AA und AF.

Und am besten auch gleich mit Minimal-Angaben.
Und mit runtergetaktetem Chip und Speicher (so alá GF6600GT- bzw. Non-GT-Simulation was Bandbreite und Füllrate angeht).

Wär ä Draum.

Danke für die kleine Aufmerksamkeit.

Grüße

Quasar
2004-12-08, 14:28:49
Ja, kann ich machen - leider wird das wohl erst am Wochenende was - meine Freizeit ist per jetzt erstmal erschöpft und ich habe das hier wohl zu spät gesehen.

Quasar
2004-12-09, 19:58:24
Thief:DS scheint ein LowFPS-Game zu sein. Da meine CPU von aktuellen High-End Modellen knapp geschlagen wird *keuch*, habe ich mal auf opulente Soundeffekte verzichtet.
Auflösung war, wie gewünscht, 1280x1024 und die Grafikdetails waren auf Maximum (inkl. Bloom).
ForceWare 67.02 ist installiert und auf HQ eingestellt, die Karte auf 16-6 Pipelines freigeschaltet und auf 350/400 getaktet.

Gebencht habe ich einen kurzen Durchlauf der Trainingsmission mit FRAPS.


[siehe unten]

Das Spiel war ungepatcht und frisch installiert (im Gegensatz zu meinem Win2k).


(Später/am WE mache ich nochmal einen Durchlauf mit weniger Quads)

Quasar
2004-12-11, 21:02:22
Diesemal die Karte auf 12-5 Pipelines geschaltet und auf 333/250 getaktet - das sollte ziemlich dicht an die Leistung einer 6600GT herankommen.

[siehe unten]


Brauchst du wirklich noch die Werte einer 6600 Plain Vanilla?

Quasar
2004-12-11, 21:34:06
2Quads, 3VS, 300MHz GPU und 175MHz Memory - dichter komme ich nicht an eine 6600.

[siehe unten]

P.S.:
Muss für die obigen Werte mit mehr Quads/Takt nochmal Kontroletti machen - ich glaube, ich hab da Mist gebaut.

edit:
Hier nun die korrigierten Werte - ich hatte die Einstellungen im Game irgendwie vermurkst, sry!

16-6, 350-400:
Min/Avg des Default Durchlaufes: 20/29,1fps
Ohne Bloom: 20/33,4fps
Ohne Bloom, mit 4xAA/16xAF: 10/30,4fps

12-5, 333-250:
Min/Avg des Default Durchlaufes: 19/28,6fps
Ohne Bloom: 20/31,4fps
Ohne Bloom, mit 4xAA/16xAF: 8/21,3fps

8-3, 300-175:
Min/Avg des Default Durchlaufes: 10/23,0fps
[mit 143MHz FSB = 1500MHz CPU: 11/27,5fps]
Ohne Bloom: 10/26,2fps
Ohne Bloom, mit 4xAA/16xAF: 5/14,7fps

Gaestle
2004-12-13, 12:02:03
Besten Dank!!!!

Die Benches sollten eigentlich Kaufentscheidung zwischen 6600GT und 6800nu sein, die 6600 nu war so als Art "mal sehen, was damirt noch geht" gedacht. aber letztlich hat mir die Verfügbarkeit die Entscheidung abgenommen.

Das sieht ja ein bißchen nach CPU-Limitierung aus - obwohl, andererseits...
Welches Level hast Du gebencht?

Mal sehen, vielleicht komme ich demnächst in den Genuss eines A64 2800+ 1GB RAM und 6800nu. Da kann ich das auch nochmal testen.

Grüße

q@w
2004-12-13, 15:20:02
Gebencht habe ich einen kurzen Durchlauf der Trainingsmission mit FRAPS.


Bitte sehr.
Und ja, mit einem P3 ist man ab und an mal CPU-Limitiert. ;)

Gast
2004-12-17, 00:22:00
Hm... Q, wie ist das eigentlich? Ich bin ja nun nicht direkt ein CPU-Spezi - erst recht, wenn es um non-AMDs geht.
Was unterscheidet denn einen P3 so stark vom P-M? Wars "nur" der größere Cache? (Und wie war das eigentlich da? 512kB beim P3 und 1, bzw 2MB beim P-M?)

Aber andererseits sollte ein P3 ähnliche Taktleistung, wie ein (Ur-So7)-Athlon haben ... und da bietet ein 1,4er vielleicht so doch nur rund 50 - 60% meines Schnuckies?

MadManniMan
2004-12-17, 00:23:08
Hm... Q, wie ist das eigentlich? Ich bin ja nun nicht direkt ein CPU-Spezi - erst recht, wenn es um non-AMDs geht.
Was unterscheidet denn einen P3 so stark vom P-M? Wars "nur" der größere Cache? (Und wie war das eigentlich da? 512kB beim P3 und 1, bzw 2MB beim P-M?)

Aber andererseits sollte ein P3 ähnliche Taktleistung, wie ein (Ur-So7)-Athlon haben ... und da bietet ein 1,4er vielleicht so doch nur rund 50 - 60% meines Schnuckies?

Kekse?

... :|

Keeeeksääääää!

robbitop
2004-12-17, 00:51:58
ein Pentium M hat einen doppelt so großen L1 Cache, verfügt über aufgebohrte Ausführungseinheiten, Quad Bumped FSB, minimal längere Pipelines und m-Ops Fusion. Der Dothan verfügt über 2 MiB L2 Cache, der P3-S nur über 512 kiB.
All zuviel hat der Pentium-M nicht mehr mit dem P3 gemein. Pro Takt sollte ein Dothan schon um die 40-50% schneller als ein P3 sein. Je nach Anwendung.

MadManniMan
2004-12-17, 04:19:47
Moment Moment! Die 2MB L2-Cache - war das nicht beim Banias und der Dothan hat "nur" 1MB?

Aber wie dem auch sei - schöne Auflistung der Änderungen! Nur was sind fusionierte m-Ops?

Quasar
2004-12-17, 20:33:48
Hm... Q, wie ist das eigentlich? Ich bin ja nun nicht direkt ein CPU-Spezi - erst recht, wenn es um non-AMDs geht.
Was unterscheidet denn einen P3 so stark vom P-M? Wars "nur" der größere Cache? (Und wie war das eigentlich da? 512kB beim P3 und 1, bzw 2MB beim P-M?)

Aber andererseits sollte ein P3 ähnliche Taktleistung, wie ein (Ur-So7)-Athlon haben ... und da bietet ein 1,4er vielleicht so doch nur rund 50 - 60% meines Schnuckies?
Tjaa, so CPU-Lastig bin ich auch nicht...
Der P-M soll angeblich recht viel vom P3 beinhalten aber über das P4-Protokoll mit seinem Umfeld kommunizieren (von den Stromspardinges mal ganz abgesehen). Ansonsten macht der größere Cache und die breitere Anbindung des Speichers natürlich viel aus.

Der normale P3 hatte 256kB L2-Cache, der P3-S (Server-Tualatin) (damals) satte 512kB - die haben auch seiner /MHz-Leistung ganz gut getan, die etwas (nichts Weltbewegendes) höher als die vergleichbarer Athleten gelegen haben dürfte.

Insgesamt, im Vergleich zu modernen AthlonXPs samt schnellem FSB und DC-DDR-DRAM sollten die AMDs hier aber mittlerweile auch in Front liegen.

robbitop
2004-12-18, 01:47:57
Moment Moment! Die 2MB L2-Cache - war das nicht beim Banias und der Dothan hat "nur" 1MB?

Aber wie dem auch sei - schöne Auflistung der Änderungen! Nur was sind fusionierte m-Ops?

mehrere kleine Operationen werden zu einer großen fusioniert und durch die Decoderpipeline geschickt. Das steigert die Effizienz.

Man munkelt immer der P-M sei ein aufgebohrter P3, dem ist nicht so. Das Grundprinzip ist ähnlich. Vieles hingegen ist komplett neu.

Gast
2004-12-18, 19:04:18
Hm, der PM als P3/P4-Hybrid ... zumindest in kleinen Zügen ;)
Wohl aber doch eine "simple" Evolution des P3(S) - mir gefällt das Teil trotzdem, danke für eure Erläuterungen!

Und Q - warte ruhig noch mit dem Umrüsteln, kann dich da voll und ganz verstehen.
Bei mir werkelt ja ein Quasi-2.800+, hier im Rechner bei meinen Eltern zu Haus ists ein 1,7er Duron - und selbst der schafft HL² noch wunderprächtig, zumal die FX5800 im FP16-DX9 Modus ordentlich rockt ;)

MadManniMan
2004-12-18, 19:04:54
Hm, der PM als P3/P4-Hybrid ... zumindest in kleinen Zügen ;)
Wohl aber doch eine "simple" Evolution des P3(S) - mir gefällt das Teil trotzdem, danke für eure Erläuterungen!

Und Q - warte ruhig noch mit dem Umrüsteln, kann dich da voll und ganz verstehen.
Bei mir werkelt ja ein Quasi-2.800+, hier im Rechner bei meinen Eltern zu Haus ists ein 1,7er Duron - und selbst der schafft HL² noch wunderprächtig, zumal die FX5800 im FP16-DX9 Modus ordentlich rockt ;)

Bwah. Kekstime.

robbitop
2004-12-18, 19:30:17
naja hybrid oder weiterentwicklung treffen IMO nicht zu

MadManniMan
2004-12-18, 19:45:53
naja hybrid oder weiterentwicklung treffen IMO nicht zu

Bwah. Besserwisser. Wasn dann?

robbitop
2004-12-18, 19:49:48
AFAIK ist der Pentium M ein komplett eigenständiges Design, entwickelt von einem eigenen Team in Israel. Sicher hat man bei der Konzeption dieses Designs sich auf gewisse Grundkonzepte vom P6 Design gestützt. Aber man hat nie das P3 Design genommen und dieses bearbeitet...das stellen sich die meisten vor...ist jedoch obsolet.

Gaestle
2004-12-22, 12:46:09
So, hab' jetzt fast die nötige Ausrüstung um mal mit A64 2800+ gegenzubenchen, allerdings fehlt mir noch ein 1280-tauglicher Monitor....

Ist überhaupt Interesse dafür da?

Grüße

robbitop
2004-12-22, 12:49:41
So, hab' jetzt fast die nötige Ausrüstung um mal mit A64 2800+ gegenzubenchen, allerdings fehlt mir noch ein 1280-tauglicher Monitor....

Ist überhaupt Interesse dafür da?

Grüße

bei mir auf jeden Fall.
Ich hatte diese WE eine ähnliche Ausrüstung zur Verfügung (Athlon 2800+ @2160MHz und eine Leadtek 6800LE @NU).


@Quasar
muss 2D immer synchron zu 3D getaktet zu sein, damit die Leistungsaufnahme gering bleibt? Das habe ich noch nicht so recht verstanden.
Aber mehr Leistung in Spielen bekommt man doch auch bei asynchronen 2D zu 3D betrieb oder?

MechWOLLIer
2004-12-22, 17:48:59
@Quasar
muss 2D immer synchron zu 3D getaktet zu sein, damit die Leistungsaufnahme gering bleibt? Das habe ich noch nicht so recht verstanden.
Aber mehr Leistung in Spielen bekommt man doch auch bei asynchronen 2D zu 3D betrieb oder?
Ich bin zwar nicht Quasar, aber imo muss nur der 2D Takt gleich mit 350Mhz getaktet werden und nicht der 3D Takt. Somit sollte die Leistungsaufnahme auch gering bleiben.
Also ab 350Mhz im 2D Modus wird die Karte deulich kühler, da wohl erst bei 350Mhz wirklich alle Stromsparmechanismen in Kraft treten. Der dabei eingestellte 3D Takt ist egal.

Diue Leistung in Spielen wird dabei nicht beeinflusst.

Quasar
2004-12-22, 19:51:22
Ich lasse immer synchron takten - irgendwie scheint entweder der RT, meine Karte oder der Treiber das nicht so recht geregelt zu bekommen mit asynchroner Taktung. Sprich, manchmal wird für 3D nicht hochgetaktet, manchmal nach 3D nicht wieder herunter etc.pp.. Da mir das zu nervig war, bin ich auf "synchron" umgestiegen, was IMO auch den Vorteil hat, daß die Hänger, die es wohl mal durch nicht korrekt applizierte Umschaltphase gegeben hat/gibt, per se nicht auftreten können.

Your mileage may vary.

Heimatsuchender
2004-12-23, 22:09:41
@ Quasar,

bist du subjektiv betrachtet zufrieden mit der karte. vor allem was die lautstärke angeht? ich hab ein sehr leises system und hab mir die karte bestellt. das lauteste bei mir ist momentan der lüfter der grafikkarte.

tobife

dildo4u
2004-12-23, 22:15:35
@ Quasar,

bist du subjektiv betrachtet zufrieden mit der karte. vor allem was die lautstärke angeht? ich hab ein sehr leises system und hab mir die karte bestellt. das lauteste bei mir ist momentan der lüfter der grafikkarte.

tobife

welche lautstärke?

Quasar
2004-12-23, 22:20:16
Also von der Lautstärke her bin ich zufrieden - die Karte ist passiv gekühlt und Spulenfiepen oder so kann ich nicht wahrnehmen.

Ansonsten bin ich auch zufrieden, aber ich wußte ja vorher, was ich erwarten kann und was nicht - für jemanden, der vielleicht eine High-End Karte erwartet, könnten sich die nur 128MB vielleicht früher als gedacht zum Hindernis erweisen und High-FPS-Gamer greifen vielleicht sowieso lieber zur Radeon X800.

Ansonsten bin ich mit den gebotenen Optionen, auch und gerade den undokumentierten AA-Modi, sehr zufrieden.

Heimatsuchender
2004-12-24, 00:02:25
Also von der Lautstärke her bin ich zufrieden - die Karte ist passiv gekühlt und Spulenfiepen oder so kann ich nicht wahrnehmen.

Ansonsten bin ich auch zufrieden, aber ich wußte ja vorher, was ich erwarten kann und was nicht - für jemanden, der vielleicht eine High-End Karte erwartet, könnten sich die nur 128MB vielleicht früher als gedacht zum Hindernis erweisen und High-FPS-Gamer greifen vielleicht sowieso lieber zur Radeon X800.

Ansonsten bin ich mit den gebotenen Optionen, auch und gerade den undokumentierten AA-Modi, sehr zufrieden.


die anforderungen bei mir sind nicht sehr hoch. auflösung monitorbedingt 1280x1024, aa + af stelle ich auch nicht sehr hoch ein. von daher müsste die karte reichen.

tobife

Quasar
2005-01-05, 12:00:19
Heute habe ich, nachdem bislang keine größeren Probleme, bis auf die Video-Merkwürdigkeit (http://www.forum-3dcenter.de/vbulletin/showthread.php?t=196038) aufgetreten sind, mal ein wenig am BIOS herumgespielt.

Mit NiBiTor v1.9b, nVFlash v5.12 und dem RivaTuner 15.3 habe ich das BIOS ausgelesen, default-Taktraten auf die mittlerweile als stabil eingestuften 350/350MHz eingestellt (vornehmlich wegen der gesenkten Leistungsaufnahme [s.o.]) und die Spannung auf 1,1v gesenkt. Dazu habe ich als BIOS-default jetzt alle vorhandenen Pipelines aktiviert.

Die Mesh-Instancing-Demo, Vertex-Texturing-Demo und die HDR-Demo aus dem nV-SDK laufen fehlerfrei durch, ich denke, die werden schon die meisten Möglichkeiten des Chips ausnutzen und somit einen brauchbaren Indikator darstellen.


Lohn der Mühen sind bisher eine um gut 10°C geringere Maximaltemperatur sowie ein Absinken der Leistungsspitzen (primär) von teils knapp 130W auf nunmehr <110W. :D

Heimatsuchender
2005-01-06, 23:13:19
so, dann wollen wir mal sehen. die karte kommt jetzt gleich in meinen rechenknecht. :)
@Quasar
ich hab auch kein stromkabel. scheint bei der kartenreihe generell so zu sein. ;(

tobife

Species-ELVIS
2005-01-06, 23:21:12
echt ist deine da???
wann hast du bestellt ????
was hast du gezahlt?????

warte auf meien immer noch
hoffe sehr das meine auch ein freischaltungs potenzial hat so wie eure

Species-ELVIS
2005-01-06, 23:24:14
wie genau geht das frei schalten eigentlich gibt es da zu eine anleitung?????
mus man da was flashen oder geht das auch nur mit software?????
wen ja wie ????
ich wies kann nerven aber bin so auf geregt sie kommmt bald hoffe ich .
will wieder zocken zocken zocken

Quasar
2005-01-07, 08:28:39
Das geht auch per Software:
http://www.forum-3dcenter.de/vbulletin/showthread.php?t=196386
Punkt 4 wäre relevant für dich. Das Patch-Script brauchst du nur ausführen, wenn du dauerhaft ein BIOS verändern willst, das kannst du also bleiben lassen.

r@w
2005-01-07, 09:45:17
WOW, genialer Erfahrungsbericht!
:up:

Allerdings wären mir die Idle-Temps ein wenig zu hoch...
Oder habe ich da die ca. 55° idle Umgebungstemp mißinterpretiert?
(erinnert mich irgendwie an die passive FX5200 ;-)

Wie verhält sich das dann eigentlich unter Last?
Und sorry, falls Du die Frage schon beantwortet haben solltest: wie ist Dein Gehäse belüftet?

Mit der Leadtek LE@nU komme ich gerade mal auf 28° ambient (allerdings nur, wenn ich sie unter 2D mit mind. 350MHz takte ;-), was nach eigenen Messungen auch durchaus hin kommt (die Leadtek hat den Standard-Moni-Chip). Dafür gibt's natürlich ein leises Flüstern des Retail-Kühlers, welches sich ein wenig verstärkt, wenn die Karte dann in den 3D-Modus wechselt.

Interessant fand' ich auch Deine Feststellung ob der erhöhten Leistungsaufnahme bei der Freischaltung einer zusätzlichen Pipe. Insofern dürfte ja wohl geklärt sein, dass deaktivierte Einheiten eben nicht 'mitlaufen', sondern gänzlich un-/unterversorgt bleiben.

Die nicht-Aufrüst-Willigkeit Deinerseits kann ich sehr gut nachvollziehen, weil ich hier ähnlich denke. Zwar ist mein Rechner mit 'nem XP-M 2500+ @ 3800+ durchaus noch aktuell... aber leider auch nicht mehr wirklich leise (der CPU-Lüfter dreht trotz SLK800 nunmehr bei 3000U/min), die Gehäuselüfter (3 an der Zahl) fallen hier nicht wirklich ins Gewicht, da ca. @ 12dba. Vielleicht werde ich mich doch noch mal nach 'ner Wasserkühlung umschaun'...

Na dann mal noch viel Spaß mit Deinem Kärtchen!

Und auch wenn es ein Rückläufer gewesen sein sollte, hatte das ja offenbar keine Auswirkungen auf die Freischaltbarkeit der Einheiten gehabt. War dann vermutlich nur ein Rückläufer wegen 'Inkompatibilität'.

Razor

Benedikt
2005-01-07, 12:56:05
Ist vielleicht in einem 6800LE-Thread ein wenig OT, aber ich hab' mir die NU-Ausführung der Leadtek WinFast A400 gegönnt - und mir ist da einiges nicht ganz klar, was Taktung im 2D/3D-Modus betrifft:

Wie ist das mit "Erhöhung" der Lüfterdrehzahl im 3D-Modus (Razor schreibt da was drüber), das kommt bei mir nicht vor!? Die Karte ist immerzu gleich leise...
Sind die Standardausführungen der 6800er auch unterschiedlich getaktet in 2D/3D, mir kommt's jedenfalls so vor, als würde meine Karte immer mit 350/350MHz laufen, wie kann ich das überprüfen? Wie sind denn die Standard-Takte der Leadtek 6800er, wird hier überhaupt zwischen 2D und 3D unterschieden?
Fragen über Fragen... :)

Quasar
2005-01-07, 21:52:11
WOW, genialer Erfahrungsbericht!
:up:
Danke. :)
Allerdings wären mir die Idle-Temps ein wenig zu hoch...
Oder habe ich da die ca. 55° idle Umgebungstemp mißinterpretiert?
(erinnert mich irgendwie an die passive FX5200 ;-)
Das war vor dem Übertakten auf 350MHz - da wurde sie tatsächlich reichlich warm - etwa 65°C auch im Idle.

Wie verhält sich das dann eigentlich unter Last?
Da wurde sie maximal 95°-98°C warm laut GBT-Tool.
Jetzt komm ich grade mal auf 86°C mit 1,13v.

Und sorry, falls Du die Frage schon beantwortet haben solltest: wie ist Dein Gehäse belüftet?
Eigentlich gar nicht. Aber da dort eh kein hörbares Geräusch rauskommt, macht es kaum einen Unterschied, ob ich es nun offen lasse oder den Deckel drauf mache.
Im Sommer könnte das jedoch noch etwas wärmer werden...

Mit der Leadtek LE@nU komme ich gerade mal auf 28° ambient (allerdings nur, wenn ich sie unter 2D mit mind. 350MHz takte ;-), was nach eigenen Messungen auch durchaus hin kommt (die Leadtek hat den Standard-Moni-Chip). Dafür gibt's natürlich ein leises Flüstern des Retail-Kühlers, welches sich ein wenig verstärkt, wenn die Karte dann in den 3D-Modus wechselt.
Ja klar. Ein Lüfter macht, auch wenn er seehr langsam dreht, einen himmelweiten Unterschied.


Interessant fand' ich auch Deine Feststellung ob der erhöhten Leistungsaufnahme bei der Freischaltung einer zusätzlichen Pipe. Insofern dürfte ja wohl geklärt sein, dass deaktivierte Einheiten eben nicht 'mitlaufen', sondern gänzlich un-/unterversorgt bleiben.
Naja, ganz komplett abschalten werden die sicher nicht. Optimalerweise vielleicht auch unter 3D (der Restkarte) im 2D-Idle verharren.


Die nicht-Aufrüst-Willigkeit Deinerseits kann ich sehr gut nachvollziehen, weil ich hier ähnlich denke. Zwar ist mein Rechner mit 'nem XP-M 2500+ @ 3800+ durchaus noch aktuell... aber leider auch nicht mehr wirklich leise (der CPU-Lüfter dreht trotz SLK800 nunmehr bei 3000U/min), die Gehäuselüfter (3 an der Zahl) fallen hier nicht wirklich ins Gewicht, da ca. @ 12dba. Vielleicht werde ich mich doch noch mal nach 'ner Wasserkühlung umschaun'...

Na dann mal noch viel Spaß mit Deinem Kärtchen!

Und auch wenn es ein Rückläufer gewesen sein sollte, hatte das ja offenbar keine Auswirkungen auf die Freischaltbarkeit der Einheiten gehabt. War dann vermutlich nur ein Rückläufer wegen 'Inkompatibilität'.

Razor
Thx, bin auch recht zufrieden momentan.

Quasar
2005-01-07, 21:56:32
Ist vielleicht in einem 6800LE-Thread ein wenig OT, aber ich hab' mir die NU-Ausführung der Leadtek WinFast A400 gegönnt - und mir ist da einiges nicht ganz klar, was Taktung im 2D/3D-Modus betrifft:

Wie ist das mit "Erhöhung" der Lüfterdrehzahl im 3D-Modus (Razor schreibt da was drüber), das kommt bei mir nicht vor!? Die Karte ist immerzu gleich leise...
Sind die Standardausführungen der 6800er auch unterschiedlich getaktet in 2D/3D, mir kommt's jedenfalls so vor, als würde meine Karte immer mit 350/350MHz laufen, wie kann ich das überprüfen? Wie sind denn die Standard-Takte der Leadtek 6800er, wird hier überhaupt zwischen 2D und 3D unterschieden?
Fragen über Fragen... :)
Mit der NU bist du hier goldrichtig :)

ad1) Das hängt vom jeweiligen Hersteller ab, ob er eine Lüftersteuerung eingebaut hat. Aber mangels Lüfter kann ich dir da nicht viel weiterhelfen. ;)

ad2) Ja, mit unterschiedlichen 2D/3D-Takten liefen nur einige FX-Karten und laut Internettest auch die 6600GT. Die 6800er laufen AFAIK mit konstanten Taktraten.

Mark
2005-01-23, 10:21:19
sag mal, bremst dein system die karte nicht etwas aus?

Quasar
2005-01-23, 11:28:52
Ja.

Quasar
2005-02-04, 22:09:40
*update*

(siehe ersters Posting)

renaldo
2005-02-17, 00:09:58
Update 04.02.2005:
Wie sich jetzt herausstellte, scheint wohl doch ein subtiler Fehler im ab Werk deaktivierten Pixelquad vorhanden zu sein. Erstmals sichtbar im Raytracer-Shader, der 293 Instruktionen lang ist.


Mit "Raytracer-Shader" kann ich nix anfangen (google ist heut auch nicht mein Freund) ,wie äussert sich das Problem bei Games ?

PS. würdest Du die Karte nochmal ordern ,wenn Du vor der Wahl ständest ?

Pss.Danke für den Test

mfg renaldo

Quasar
2005-02-18, 16:50:07
In Games hat es sich bisher nirgends bemerkbar gemacht (auch nicht in SM3-aktivierten Games wie Far Cry v1.3+ oder Splinter Cell: Chaos Theory SP Demo). Daß die GPU mit Freischaltung trotzdem nicht fehlerfrei läuft, muss man aber wohl trotzdem attestieren.

Ja, ich denke, ich würde sie wieder kaufen (zumal sie ja jetzt ~40EUR billiger geworden ist). Die X700p von GBT (passiv) wäre dank ihrer 256MB eine Alternative, ebenso die 6600 von GBT (ebenfalls passiv), da diese doch erheblich günstiger wäre, wenn es die beiden denn in der AGP-Version geben würde.

renaldo
2005-02-18, 17:23:58
Hi Quasar,

ich konnte nicht anders und habe die Karte seit vorhin auch ... netterweise auch "erfolgreich" freigeschaltet und keine Fehler in 3DMark03 & 3DMark05 "freu"

jetzt kommt Dein Posting zum tragen :

Wie kann ich denn diesen "Raytracer-Shader" simulieren bzw erleben ?

mfg renaldo

Quasar
2005-02-19, 23:36:46
Dafür musst du dir das Tool "FX Composer" von der nVidia-Developer Homepage developer.nvidia.com herunterladen. Dort kann der Shader geöffnet und mit Rechtsklick-Contextmenü in die Vorschau übertragen werden.
Dort zeigen sich bei mir Bildfehler.

renaldo
2005-02-19, 23:45:30
Gut zu wissen ,vorläufig werde ich aber erstmal nur nach Bildfehlern in Games suchen ....

Kannst Du erkennen welches Bios die Karte hat ?

http://img83.exs.cx/img83/7927/gigabios2nn.th.jpg (http://img83.exs.cx/my.php?loc=img83&image=gigabios2nn.jpg)

mfg renaldo

Quasar
2005-02-19, 23:52:30
5.40.02.26
Das BIOS hat meine Karte auch.

renaldo
2005-02-20, 01:33:18
Jip aber bedeutet 2.26 Bios F2 ? weil inzwischen gibbed ja schon F4 ... ???

Werde mich wohl nochmal etwas belesen müssen ,weil ich habe auch Schwierigkeiten mit NFSU2.... (periodische 3sec Ruckler)
mfg renaldo

Mark
2005-02-20, 08:51:48
Jip aber bedeutet 2.26 Bios F2 ? weil inzwischen gibbed ja schon F4 ... ???

Werde mich wohl nochmal etwas belesen müssen ,weil ich habe auch Schwierigkeiten mit NFSU2.... (periodische 3sec Ruckler)
mfg renaldo


hat damit nix zu tun, hab auch 2.26 drinstehn und hab das f4 bios drauf

renaldo
2005-02-20, 08:58:56
hast Recht,das Gigabyte Tool zeigt es ja auch sehr schön :)

http://img221.exs.cx/img221/65/biosgraka8nl.th.jpg (http://img221.exs.cx/my.php?loc=img221&image=biosgraka8nl.jpg)

Problem mit dem Game habe ich übrigens vorhin aus versehen doch noch gelöst :D

NFSU2 mag meine feste 3072 MB Auslagerungsdatei nicht.... ..da muss man erstmal draufkommen :|

mfg renaldo

renaldo
2005-02-21, 16:32:11
Tja Leute ,ich grüble und grüble unnd brauche Eure Meinung.

Fact ist,ich konnte die Karte problemlos & ohne Pixelfehler freischalten aber meiner Meinung nach bringt das fast überhaupt nix ....

Hier ist die Karte 12/5 auf 350/700
http://img97.exs.cx/img97/6692/3d03125neugestartet9tt.th.jpg (http://img97.exs.cx/my.php?loc=img97ℑ=3d03125neugestartet9tt.jpg)

Hier 16/6 350/700
http://img97.exs.cx/img97/2323/3d03166neugestartet7sf.th.jpg (http://img97.exs.cx/my.php?loc=img97ℑ=3d03166neugestartet7sf.jpg)


Also etwa 700 mehr Punkte mit allen Leitungen ? Wozu dann der Hype ????

Hier wieder 12/5 350/700
http://img97.exs.cx/img97/4613/aquamark1254dm.th.jpg (http://img97.exs.cx/my.php?loc=img97ℑ=aquamark1254dm.jpg)

Und hier 16/6
http://img97.exs.cx/img97/4408/aquamark1666jd.th.jpg (http://img97.exs.cx/my.php?loc=img97ℑ=aquamark1666jd.jpg)

Hier ist es ja noch krasser bzw. Wurst ob 12/5 oder 16/6

Fur jeden Bech habe ich das System neu gestartet also gleiche Vorraussetzungen jeweils.Treiber ist 71.81

Kann es sein das die Karte auf die erfolgreichen Pipefreischaltung im Endeffekt garnicht reagiert ? Wozu dann der Hype ? Oder hat Gigabyte mich clever ausgetrickst :D ?? ... ala "du kannst soviel freischalten wie Du willst ,Haupsache der Rivatuner sieht perfekt aus und Du schickst die Karte wegen "freimachen geht net" nicht wieder zurück aber im Endeffekt bestimmen wir was die Karte für diesen Preis leisten kann..."

Oder wird der Junge der Rivatuner gebastelt hat von Nvida gesponsort ? :D

Oder haluziniere ich ,weil ich mit meiner guten alten Ti4200 128 MB bislang fast alles super zocken konnte und mich ernsthaft frage,was ich für ca. 500 DM Investition jetzt definitiv mehr habe als vorige Woche ?

Bin echt ratlos :(

mfg renaldo

robbitop
2005-02-21, 16:42:01
naja für 16 Pipes ist eben dank niedrigen Speichertaktes zuwenig Bandbreite da. Bei viel AF und hoher Auflösung oder bei Supersampling oder bei shaderlastigen Games solltest du dann die 33% Mehrleistung bekommen.
Ansonsten versuche einfach mal, deinen RAM höher zu takten um den Pipes etwas "Luft" zu verschaffen ;)

Quasar
2005-02-21, 17:19:59
Deine Bildlinks gehen bei mir irgendwie nicht - ich komme jedesmal nur zur Startseite von Imageshack.

Könntest du die erreichten Werte, sowie dein restliches System etwas genauer beschreiben?

renaldo
2005-02-21, 17:51:49
Solch grosse Pics wollte ich Euch eigentlich ersparen :D Mit Opera & IE6 gibts oben aber keine Probs... :)

Reihenfolge ist wie im Thread von vorhin.
Mein System habe ich in der Sig mal eingetragen.

Edit : Ich kann die Signatur nicht sehen deswegen hier nochmal... AMD64 3200 NC,ACSilencer 64,AsRock K8S8X,2*512MB DDRRAM MDT PC400 CL2,5,GeForce 6800 Gigabyte GV-N68128DH (16/6 349/700),Seagate 200GB & 160GB,Nutech DVD-Brenner,Sound Blaster Audigy 2 ZS,LC Power 420 Watt ,Yeong Yang YY-5601

http://img202.exs.cx/img202/3112/3d03125neugestartet7ro.jpg (http://www.imageshack.us)

http://img202.exs.cx/img202/8416/3d03166neugestartet2ih.jpg (http://www.imageshack.us)


http://img202.exs.cx/img202/5717/aquamark1256my.jpg (http://www.imageshack.us)

http://img202.exs.cx/img202/479/aquamark1665er.jpg (http://www.imageshack.us)


@robbitop

Ich habe jetzt mal spasshalber von 350/700 auf 350/800 getaktet und habe bei der Timedemo von Doom 3 mit diesen Einstellungen Meine MSI NX6600GT-TD128E, GeForce 6600 GT, 128MB GDDR3, DVI, TV-out, PCIe (MS-8983-010)
Doom3
TimeDemo1, 1024, High Details, alle Details an, Vsync aus, 2x AntiAliasing, kein AF: 60 FPS


auf meiner Kiste 96,6 FPS .

Wenn ich wieder auf 350/700 zurückstelle sind es aber immernoch 94,5 ! FPS

Das heist ,die zusätzlichen 100 Mhz bringen in diesem Game ca 2 Frames :D das kann ich mir also klemmen (bin eh ne ängstliche Natur was takten angeht :))

Ok der Junge hat mit seiner 6600GT nur 60 FPS und ich mit 16/6 ca.95 aber ich vermute mal ,das es mit 12/5 nicht wesentlich weniger sein werden.....


Vielleicht erwarte ich auch einfach nur zuviel :D

mfg renaldo

robbitop
2005-02-21, 17:57:37
Ok der Junge hat mit seiner 6600GT nur 60 FPS und ich mit 16/6 ca.95 aber ich vermute mal ,das es mit 12/5 nicht wesentlich weniger sein werden.....


Vielleicht erwarte ich auch einfach nur zuviel :D

mfg renaldo
Das denke ich nicht. Probiers aus.

Quasar
2005-02-21, 18:40:10
renaldo, kannst du in der Free-Version des 3DMark03 auch die Füllraten-Tests (single-texturing und multi-texturing) durchlaufen lassen?
Wenn ja, tu das bitte mal und schau, ob du im Multi-Texturing über 5000MTexel/s kommst. Sollten ca. 5200-5500 sein, wenn 16 Pipes und 350MHz anliegen.

P.S.:
In Doom3 Timedemo1 bekomme ich nur knapp unter 40fps - P3 sei Dank. ;)

renaldo
2005-02-21, 21:35:34
@robbitop

schau selbst ;(

@Quasar


Jo ich glaube es kommt hin wie Du schreibst mit den 5300 ... aber hilft mir das jetzt wirklich ? schau bitte ;(

http://img8.exs.cx/img8/9465/fillrate4rg.jpg


Habe jetzt nochmal intensiv die Timedemo gequält :D und finde das Resultat äusserst merkwürdig ...


Korrektur :D

Die 95 Frames oben sind ohne AA gewesen ,sorry .
Ich hatte es im 71.81 testweise deaktiviert und dachte tatsächlich das die Aktivierung in doom3 reicht :) ... das war ein Fehler :D


Hier also die korrekten Frames bei 350/700 MHz:

1024*768 12/5 2*AA =83 FPS
1024*768 16/6 2*AA =86 FPS
1024*768 16/6 2*AA 350/800 = 89 FPS

1280*1024 12/5 2*AA = 63 FPS
1280*1024 16/6 2*AA = 66 FPS

1024*768 12/5 4*AA = 64,5 FPS
1024*768 16/6 4*AA = 66 FPS

1200*1024 16/6 4*AA= 45 FPS
1200*1024 16/6,4* AA 350/800 =50 FPS

Zehntel habe ich geweils gerundet.

Hier sehe doch ganz deutlich ,das sich bis auf die letzten beiden Zeilen alles relevante um 3 Frames dreht.

Ich weiss echt nicht was ich davon halten soll :confused:

mfg renaldo

Quasar
2005-02-22, 19:21:58
Naja, du weißt zumindest mal, daß deine Grafikkarte prinzipiell die Leistung liefert, die sie liefern sollte.

Zu Doom3:
http://www.computerbase.de/artikel/hardware/prozessoren/2005/intels_pentium_4-prozessoren/21/#abschnitt_doom_3
Scheint so, als ob du da mit deinem A64 3200+ am CPU-Limit angekommen wärst. Auch "echte" 6800GT schaffen da nur ~90fps mit deiner CPU.

Auch der 3DMark passt. Ich habe noch einen Screenshot von meinen OC-Versuchen gefunden und die Einzeltests, die nicht von der CPU eingebremst werden (bei mir!), kommen mit den deinigen etwa hin.

renaldo
2005-02-22, 23:42:57
Hallo Quasar,

just heute Vormittag habe ich dort noch einen konkreten Timedemo Test mit vergleichbarer Hardware (bis auf die Graka :D ) gefunden und seit dem meine innerliche Ruhe wieder erlangt :)

In fast allen Tests liege ich mit meinen ehrlichen Einstellungen deutlich über den Frames der dort abgebilderten Geforce 6800.

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/leadtek_winfast_px6600_px6600gt/12/#doom_3

Zu meiner innerlichen Ruhe trägt allerdings auch ein heutiger Test einer Geforce 6600 GT (Galaxy 525/1025) in meinem Rechner bei :D

Die beiden Karten unterscheiden sich doch deutlich in der Leistung und ich behalte auf jeden Fall die 6800.

Ein klizekleines Problem bereitet mir noch Sorgen....

http://img116.exs.cx/img116/4521/temperatur5wb.jpg (http://www.imageshack.us)

Was will das Gigabyte Tool von mir ? Temp ist doch halberwegs in Ordnung - Idle...

Danke Quasar :up:

mfg renaldo

Quasar
2005-02-23, 16:01:59
Sorry, aber da bin ich überfragt - die Meldung stammt vom GBT-Tool, nicht vom im Hintergrund sichtbaren Everest (?)?

Ich habe davon bisher noch keine Fehlermeldung bekommen, nutze allerdings auch immer noch die alte Version, die mit meiner Karte ausgeliefert wurde.

renaldo
2005-02-23, 18:54:16
ich habe das Gigabyte Tool gestern mal geupdatet und werde schauen ob das was bringt :D

PS.Diese Meldung kam definitiv vom Giga Tool...

mfg renaldo

renaldo
2005-02-25, 19:15:46
bin ja super zufrieden mit der Karte aber diese Meldung macht mir echt Sorgen....bislang helfen keinerlei Updates ... hat wer DEN entscheidenden Tip ?

http://img232.exs.cx/img232/987/temperaturgigafehlermeldung8fm.jpg

mfg renaldo

Quasar
2005-02-25, 20:27:54
Hast du GBT schon gemailt?

renaldo
2005-02-26, 06:16:11
Hast du GBT schon gemailt?

Jip :D habe es mit meinem vor langer Zeit erworbenen Schulenglisch versucht ,allerdings seit vier Tagen noch nicht mal eine "Empfangsbestätigung" .... geschweige Antwort erhalten....

Jüngere ,mit besserer Grammatik bekommen allerdings wohl auch erst nach ca. 9 Tagen (wenn überhaupt) eine "Standard Mail"

Das genügt mir aber bei 510 DM (sorry :D ) nicht ,bzw ist mir etwas zu heiss (im wörtlichen Sinn) :D

Mir tut einfach mein Online Händler leid ,denn der kann ja nun absolut nix dafür ,falls ich FAG'e .....

mfg renaldo

Viprex
2005-02-26, 19:13:32
Dafür musst du dir das Tool "FX Composer" von der nVidia-Developer Homepage developer.nvidia.com herunterladen. Dort kann der Shader geöffnet und mit Rechtsklick-Contextmenü in die Vorschau übertragen werden.
Dort zeigen sich bei mir Bildfehler.
Hallo Quasar,

habe nen kleinen Shuttle SN95G5 und auch die Gigabyte Grafikkarte 6800, passiv gekühlt.
Nun schreibst du, man kann die Shader nochmal extra überprüfen, mit dem FX Composer Programm. Dieses habe ich mir runtergeladen und probiert, den Raytracer Shader zu finden.

Weiter hast du geschrieben:
Die Mesh-Instancing-Demo, Vertex-Texturing-Demo und die HDR-Demo aus dem nV-SDK laufen fehlerfrei durch, ich denke, die werden schon die meisten Möglichkeiten des Chips ausnutzen und somit einen brauchbaren Indikator darstellen.
Muss ich nun den Raytracer Shader im Verzeichnis des FX Composers suchen (vll. die Datei mit dem Namen raytrace.fxproj), öffnen und dann die Demos laufen lassen?
Wo finde ich denn die Demos? Google sagt mir zu Raytracer-Shader nicht wirklich viel (habe vll. auf eine Download Möglichkeit gehofft), und auch nichts zu den Demos.

Kannst du mir eine Hilfestellung dazu geben, denn ich würde meine Karte auch sehr gerne zusätzlich damit überprüfen.

Vielen vielen Dank für deine Hilfe.


Edit: Ich habe nochmal mit dem FX Composer rumgespielt und habe schon dort PixelArtefakte (siehe Bild (http://www.viprex.de/bilder/pc/shader_fxcomposer.jpg)). Heisst das nun, dass meine Pipes lieber deaktiviert bleiben sollten?
Bild link (http://www.viprex.de/bilder/pc/shader_fxcomposer.jpg)

Quasar
2005-02-26, 21:53:34
Oha! Da stimmt irgendwas ganz und gar nicht mit deiner Karte. Den richtigen Shader hast du ja bereits gefunden, aber die Bildfehler sollten eigentlich nur unten rechts in der Scene-Preview auftauchen, nicht überall.

Hast du irgendwie deinen Speicher stark übertaktet?

Viprex
2005-02-27, 13:54:20
Ich habe nur den Core auf 349Mhz übertaktet. Den Speicher habe ich nicht angerührt.

Was meinst du könnte das denn noch sein? Ich stelle mal alles auf Standard zurück, mal schauen, wie das dann aussieht.

Edit:

Die Bildfehler scheinen an den freigeschalteten Pipes zu liegen, habe die jetzt wieder auf 12/5 gestellt und die Fehler treten nicht mehr auf. Zusätzlich habe ich den Core Takt auf 349Mhz gestellt (wie ich ihn immer habe) und den Speicher auf 375 Mhz. Und auch da treten keine Fehler auf.

Dann kann ich mal davon ausgehen, dass die Pipes defekt sind? Gibt ja schlimmeres, solange die Karte halt normal richtig läuft (und das tut sie zumindest mir NFSU2).


Ausserdem ist mir aufgefallen, dass die Bildfehler bei 16/6 bei jedem Programm im FX Composer auftreten (immer die beiden Bilder links - unten rechts dann nicht). Was hat das denn zu bedeuten? Hat meine Karte vll. einen Defekt (ausser einem defkten Quad und Vertex Shader)?

renaldo
2005-02-27, 20:26:32
jetzt werd ich aber doch etwas neugierig :D


http://img177.exs.cx/img177/829/222222gu.jpg
http://img222.exs.cx/img222/7006/333333331xs.th.jpg (http://img222.exs.cx/my.php?loc=img222&image=333333331xs.jpg)


Die Murmel kullert friedlich vor sich hin :D was muss ich bitte tun um eventuelle Pixelfehler zu erkennen ?

mfg renaldo

Viprex
2005-02-28, 10:29:41
Wenn ich das nun richtig verstanden habe, dann hast du 4 funktionierende Quads und 6 Vertex Shader Einheiten. Denn bei dir sieht man keine Bildfehler.

q@h
2005-02-28, 11:30:44
Ja, schaut fast so aus. Das heisst allerdings nicht zu 100%, daß es nicht doch irgendwo einen Test gibt, der nicht doch das eine oder andere fehlerhafte Pixel zu Tage fördert.

renaldo
2005-02-28, 11:38:53
Jo ,Danke für die Info Leute :)

mfg renaldo

Species-ELVIS
2005-04-24, 01:17:10
hallo Meine Lieben Freunde
bin ja auch im besitz der karte und bekomme auch
immer eine Fehler meldeun kommt auf jeden fall vom GBTOOL.

denke nur leider das meine karte geschossen ist nach nicht mal 3monaten.
der rechner zeigt mir kein bild mehr.
kurz vorm versagen stand was Beim GBtoll von einer 78 Temperatur .
hatte Brother in ARMS gezogt und wurde von der fehler meldung ins windows
katapultiert.
auf Vtuner geschuat 78gesehn und bup war er weg.
was für auflösungen habt ihr bei eurer karte oder und Rechner ?????

Enius
2005-04-24, 23:35:49
bei mir kommt regelmäßig ne fehlermeldung mit VTuner und ich glaube den temps nicht (61-63 grad) !

unter graka treiber kann ich nix sehen und unter rivatuner auch nicht (braucht man bei riva. ein plugin vielleicht ?) !?

hat die GV-N68128DH überhaupt nen temp sensor ?

thx