PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7900 (G71) Reviews


Seiten : 1 [2]

Gast
2006-03-12, 00:01:20
4x4 SSAA? Wie denn?


Q

SKYNET
2006-03-12, 00:07:13
ne meinte damit, das es SS anteile nur bei CF gibbet...

Godmode
2006-03-12, 02:00:18
Ich finde den Lüfter, wie auch den der 7600 GT und X1800 bsw., störend laut.


Q

Ich hatte jetzt eine 6800 GT von Point of View, also Referenzkühlung. Ist die 7900 GT noch lauter, oder in etwa gleich?

Ailuros
2006-03-12, 04:43:51
~20W, und? Der Unterschied zwischen einer X1800XL und einer X1600XT liegt nur bei 12W.

Der Leistungsunterschied zwischen einer X1800 und X1600 ist auch ziemlich gross.

Was ist hier so schwer zu verstehen genau? Dass eine 7900GT nur 20W mehr als eine 7600GT verbrutzelt, aber die Leistung einer 7800GTX liefert die aber 46W mehr verbraucht als die 7900GT?

Das Leistungsverhaeltnis pro Watt auf der 7600GT ist nichts besonderes; gleiches gilt aber nicht fuer high end GPUs @90nm.


Die X1800GTO hat einen R520-Core. Natürlich ist ein Quad deaktiviert, dadurch fließt allerdings trotzdem Strom. Eine X1800XL verbraucht nicht mehr als die X1800GTO, und ist dabei deutlich schneller als eine 7600GT.

232W fuer die GTO und 233W fuer die 7900GT. So und jetzt zeig mir mal den Leistungsunterschied.

Dass die GTO einen R520-core hat weiss ich schon seit langem; die Chipkomplexitaet und Stromverbrauch bei R580 ist auch nicht unbedingt kleiner, ganz im Gegenteil.

Insgesamt steht nV natürlich besser da, was den Stromverbrauch betrifft. Allerdings gilt das auch nur für den Lastbetrieb, im Idle-Mode ist es beinahe egal, welche Karte man hat.

Und man kauft sich high end GPU damit sie dumm rumhocken oder was?

Außerdem sind das Messungen des Gesamtsystems, bei welchen man immer vorsichtig sein sollte, da man diese nicht direkt untereinander vergleichen kann. Denn eine schnellere Grafikkarte belastet das gesamte System eben auch wesentlich mehr als eine verhältnismäßig langsame Karte.

Ich hab schon bessere Entschuldigen gehoert als diese. Es gibt keinen einzelnen Zweifel dass R580 um einiges mehr Strom verbrauchen als G71 und diesen Vorteil kann und wird NVIDIA im notebook Markt voll ausspielen bis zum Grad des moeglichen was natuerlich nur fuer den high end Markt gilt.

Schon ein monstroes grosses SLi laptop gesehen bis jetzt? 19" LCD und ein normales laptop sieht wie ein Zwerg aus im Vergleich zu dem Ding.

Ailuros
2006-03-12, 04:45:51
Ich hatte jetzt eine 6800 GT von Point of View, also Referenzkühlung. Ist die 7900 GT noch lauter, oder in etwa gleich?

Schon die 7800GT war um einiges leiser als die 6800GT. 7900GT liegt in etwa auf gleichem Nivaeu mit ihrem Vorgaender.

Godmode
2006-03-12, 09:47:30
Schon die 7800GT war um einiges leiser als die 6800GT. 7900GT liegt in etwa auf gleichem Nivaeu mit ihrem Vorgaender.

Ok, dann bin ich ja beruhigt.

Ronny145
2006-03-12, 09:49:25
Schon die 7800GT war um einiges leiser als die 6800GT. 7900GT liegt in etwa auf gleichem Nivaeu mit ihrem Vorgaender.


Bei vielen Karten aber nicht. Bei sehr vielen 7800 GT Karten läuft die Lüftersteuerung nur bei 100%. Das ist dann sehr laut.

Mumins
2006-03-12, 10:36:32
Wenn die 7900Gt auf Niveau der 7800GT ist, dann ist das unerträglich. Meine Gt wurde erst mit 25% erträglich leise.

Nvidia5
2006-03-12, 10:46:44
ist der flimmerefekt bei den G71 jetzt behoben?

reunion
2006-03-12, 10:54:25
Der Leistungsunterschied zwischen einer X1800 und X1600 ist auch ziemlich gross.


Eben, und der Leitungsaufnahmeunterschied ist verdammt klein.


232W fuer die GTO und 233W fuer die 7900GT. So und jetzt zeig mir mal den Leistungsunterschied.


Was willst du mit der GTO? Wie schon gesagt, dass ist ein R520, eine XL verbraucht kein Watt mehr. Wenn du schon vergleichen willst, dann bitte mit vollständigen Cores.


Und man kauft sich high end GPU damit sie dumm rumhocken oder was?


Nein, aber man wird die Karte trotzdem den großteil der Zeit nicht voll auslasten.


Ich hab schon bessere Entschuldigen gehoert als diese. Es gibt keinen einzelnen Zweifel dass R580 um einiges mehr Strom verbrauchen als G71 und diesen Vorteil kann und wird NVIDIA im notebook Markt voll ausspielen bis zum Grad des moeglichen was natuerlich nur fuer den high end Markt gilt.


Das war keine Entschuldigung, das habe ich nur angemerkt, da mir die enormen Unterschiede ins Auge gesprungen sind. Und das nV diesen zweifellos vorhandenen Vorteil natürlich ausspielen wird, steht auch außer Frage.

Stefan20032004
2006-03-12, 10:55:40
wenn ich IMMER in 1280x1024 4xaa 8xaf zocke, ist dann die X1800XT 512 besser geeignet für mich, als die 7900GT? Ja oda?

mapel110
2006-03-12, 10:57:57
wenn ich IMMER in 1280x1024 4xaa 8xaf zocke, ist dann die X1800XT 512 besser geeignet für mich, als die 7900GT? Ja oda?
Ja. da sollte sie fast immer schneller sein.

Odal
2006-03-12, 11:17:59
ist der flimmerefekt bei den G71 jetzt behoben?

du meinst ob sich im Vergleich zu einem G70 dahingehend was geändert hat? Nein.

Gast
2006-03-12, 12:33:02
ist der flimmerefekt bei den G71 jetzt behoben?

der ist auch beim G70 seit irgendeinem 78er treiber behoben, ob sich beim G71 was geändert hat weiß ich nicht, kann ich mir aber nicht vorstellen.

Musicman
2006-03-12, 13:11:28
Bitte nicht Steinigen, falls es schon mal gefragt wurde: Kommt die 7900xx auch als AGP?

Doomi
2006-03-12, 13:20:35
Bitte nicht Steinigen, falls es schon mal gefragt wurde: Kommt die 7900xx auch als AGP?

.. steinwerf .. :)

Coda
2006-03-12, 13:27:43
Bisher ist nix durchgesickert aber wenn dann sicher keine GTX.

Gast
2006-03-12, 14:17:28
Bitte nicht Steinigen, falls es schon mal gefragt wurde: Kommt die 7900xx auch als AGP?

es wäre denkbar dass für die 7800GS-karten still und heimlich in zukunft G71-chips verbaut werden.

ansonsten musst du bei den kartenherstellern anfragen, da es mittlerweile ein fertiges PCB-design gibt ist der anreiz für die hersteller vielleicht etwas größer, auch wenn es unwahrscheinlich ist dass noch etwas neues nachkommt, vor allem wenn ATI auf AGP auch keinen druck mehr ausübt.

dildo4u
2006-03-13, 22:25:19
Galaxy scheint eine 7900GT zu bringen mit Zalman Kühler also man hat seine Ruhe und Trotzdem Garantie :up:

http://www.guru3d.com/admin/imageview.php?image=7005


http://www.guru3d.com/article/article/328/6/

aths
2006-03-15, 17:27:41
Wie sieht es denn am Rand von anderen Texturen aus - das Problem müsste doch das selbe sein. Das, was da genommen wird, kann man ja analog auf eine "erweiiterte", NP2-Textur übertragen.


QDie Randbehandlung bei Texturen kann man einstellen, sozusagen Crop, Repeat, Mirror, ...

Für NPOT-Texturen (mit MIP-Mapping) muss die Adressierung-Unit ausgelegt werden. Bei der Beschränkung auf POT kommt man ja mit bissel Bitschieberei und Additionen aus.

aths
2006-03-15, 17:32:41
Aus Spielersicht kann ich deine Begeisterung nicht ganz nachvollziehen.
ATI bietet zur Zeit die beste Graka an. Hier geht es viel ums Prestige.
ATI hat diese Runde ganz klar gewonnen.
Ob Nvidia billiger produzieren kann, interessiert auch keinen Spieler. Was zählt ist die Performance (Speed + BQ). Und hier hat NV zur Zeit das Nachsehen.Das sehe ich ganz ähnlich. Im Mittelklasse-Bereich sehe ich NV vorne, sofern man dort auf gutes AF verzichten kann. Der, der auf Top-Grafikqualität achtet (und das entsprechende Geld hat) kommt um ATI derzeit nicht herum.

Aber den Spieler sollte nicht interessieren, welches Logo auf der Karte pappt. In unterschiedlichen Segmenten gibt es derzeit unterschiedliche Stärken und Schwächen – das bietet dem Kunden mehr Auswahl.

dildo4u
2006-03-17, 21:02:39
BFG GeForce 7900 GTX/GeForce 7900 GT OC Review

http://www.firingsquad.com/hardware/bfg_geforce_7900_gtx_oc_7900_gt_oc_review/

blade04
2006-03-18, 18:10:41
habe grade das hier gesehen http://www.geizhals.at/deutschland/a185196.html

7800 Gt mit 512mb. meint ihr es wird auch ne 7900Gt mit 512mb geben?

Wär ja echt cool, denn dann gäb es wirklich keinen grunde mehr ne X 1800 Xt 512 zu kaufen

Gast
2006-03-18, 18:58:44
Wär ja echt cool, denn dann gäb es wirklich keinen grunde mehr ne X 1800 Xt 512 zu kaufen

doch, besseres AF, wenn man es denn haben will ;)

Gast
2006-03-19, 11:55:00
Neues Review.
http://www.trustedreviews.com/article.aspx?head=15&page=5962
http://www.trustedreviews.com/images/article/inline/2589-06.gif

Gast
2006-03-19, 12:49:41
Geh mall ins Forum die haben schon heftig kritik einstecken müssen weil die Balken nicht stimmen...

chrisihamm
2006-03-19, 13:02:42
Man sollte mal die X1900XTX auf 700/850Mhz übertakten und dann gegen die 7900GTX OC testen,dann sieht das Kräfteverhältnis nämlich schon wieder ganz anders aus.


mfg

BvB123
2006-03-19, 13:14:35
Hmm, warum sollte man dies tuen? ;)

Die 7900GTX kriegste vom Hersteller garantiert mit diesen Taktraten. Also eigentlich als Standardtakt.

Gruß

dildo4u
2006-03-20, 17:37:41
7900 GTX, GT und 7600 GT im Test auf Hardwareluxx.de

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=342

Gast
2006-03-20, 17:43:04
Hmm, warum sollte man dies tuen? ;)

Die 7900GTX kriegste vom Hersteller garantiert mit diesen Taktraten. Also eigentlich als Standardtakt.

Gruß
Wenn man ein bestimmtes Produkt testet (konkreter Hersteller, Karte, usw...), dann hast du recht.
Wenn man in der Überschrift aber 7900GTX hinschreibt und nicht z.B. XFX MegoOC, dann muss man auch mit den von NV vorgegebenen Takten benchen, sonst hat das keinen Sinn.

knallebumm
2006-03-20, 17:51:16
7900 GTX, GT und 7600 GT im Test auf Hardwareluxx.de

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=342

Ich find den Test wiedermal fürchterlich unübersichtlich.

Je nach game gibts 7900gt oder 7900gt sli benches. Teilweise 7600gt sli, teilweise nicht,keine 7600gt nonsli benches, manchmal 7800gt, usw...
Weiß nicht, obs anderen auch so geht, aber mir vergeht da die Lust am lesen, weil man die Leistung einer bestimmten Karte über mehere games hinweg schlecht abschätzen kann.

The_Invisible
2006-03-20, 19:40:52
Man sollte mal die X1900XTX auf 700/850Mhz übertakten und dann gegen die 7900GTX OC testen,dann sieht das Kräfteverhältnis nämlich schon wieder ganz anders aus.


mfg

hätte man bei der 6800er vs x850er generation auch sagen können zugunsten von nvidia... aber hat ja keinen interessiert, also warum hier

mfg

Gast
2006-03-20, 21:07:59
http://www.forumdeluxx.de/gallery/data/500/1weiter.gif

So kann man sich alle Benchmarks bei Hardwareluxx angucken, wurde gestern schon ein paar Mal dort gefragt.

sklave_gottes
2006-03-20, 21:10:30
Ja aber der test ist trotzdem sehr schlecht.
Die haben Nvidia qualiti gegen ati ai off gebenscht.

daraufhin habe ich einen thread eröffnet und die haben ihn jetzt geschlossen.

http://www.forumdeluxx.de/forum/showthread.php?t=216550

MikBach
2006-03-20, 21:16:29
hätte man bei der 6800er vs x850er generation auch sagen können zugunsten von nvidia... aber hat ja keinen interessiert, also warum hier

mfg
Wo wurden da übertaktete Karten gebencht? :eek:

edit: oder meinst du die 6800 Ultra Extreme, die nie offiziell von NV angeboten wurde?

MikBach
2006-03-20, 21:20:59
Ja aber der test ist trotzdem sehr schlecht.
Die haben Nvidia qualiti gegen ati ai off gebenscht.

daraufhin habe ich einen thread eröffnet und die haben ihn jetzt geschlossen.

http://www.forumdeluxx.de/forum/showthread.php?t=216550
LOL, dann kann man den Test wohl locker in die Tonne treten...

Das Beste ist, dass der Mod einfach schliesst und noch nichtmal ein Statement abgibt, warum das so gemacht wurde.
Er könnte zumindest einen Thread verlinken, wo ein Statement drin steht (wie das im 3dCenter-Forum üblich ist).
Aber das macht er nicht, warum auch immer.

So scheint der Test noch unglaubwürdiger...

The_Invisible
2006-03-20, 21:36:15
Wo wurden da übertaktete Karten gebencht? :eek:

edit: oder meinst du die 6800 Ultra Extreme, die nie offiziell von NV angeboten wurde?

nö, ich meine damit einfach nur den chiptaktunterschied zwischen 6800u(e) und x800xt(pe)... hätte man da auch mit gleichen taktraten testen müssen oder wie? hat damals auch keinen interessiert das die NV4x effizienter waren...

die übertakteten 7900er varianten kann man kaufen und hat auch garantie, wenn ATI sowas nicht anbietet bzw deren reseller sind sie wohl selber schuld, aber man braucht sich dann nicht aufregen was gewesen wäre wenn sie mit gleichen takt verglichen worden wären... und es sind offizielle karten und nicht sowas wie das ultra-extreme gespenst

mfg

MikBach
2006-03-20, 21:49:01
nö, ich meine damit einfach nur den chiptaktunterschied zwischen 6800u(e) und x800xt(pe)... hätte man da auch mit gleichen taktraten testen müssen oder wie? hat damals auch keinen interessiert das die NV4x effizienter waren...
Ähm, wir reden hier aber übers Übertakten, nicht über die Effizienz der Architektur (siehe P4 vs A64).

die übertakteten 7900er varianten kann man kaufen und hat auch garantie, wenn ATI sowas nicht anbietet bzw deren reseller sind sie wohl selber schuld,
Das macht ATI auch. Z.B. die Fireblade-Editionen bei Sapphire.
Von Asus gibt es die X1800XT Top (oder so...)
Darum geht es aber nicht...
Wenn es ein allgemeiner Test über die 7900GTX ist, muss man die Default-Taktraten nehmen. Ist es ein Produkttest einer bestimmten Karte, sollte man natürlich das Produkt als Ganzes testen.

aber man braucht sich dann nicht aufregen was gewesen wäre wenn sie mit gleichen takt verglichen worden wären... und es sind offizielle karten und nicht sowas wie das ultra-extreme gespenst

mfg
Nein, es sind keine offizellen Karten (zumindest nicht von NV), oder wo kann ich die (höheren) Taktraten auf der NV-Seite nachprüfen? ;)
Die Spezifikationen macht NV. Wenn ein Hersteller mehr daraus macht, gut.
Das macht ATI auch. Bei einem offiziellem Review zu einer 7900GTX oder X1900XT sollten auch die Default-Taktraten getestet werden.

edit: Rechtschreibung

Gast
2006-03-21, 01:34:51
http://www.forumdeluxx.de/forum/showthread.php?t=216912

sehr lustiges Review auf Hardwareluxx
Gleich mal einen Thread dort eröffnet.

Gast
2006-03-21, 02:11:19
http://www.forumdeluxx.de/forum/showthread.php?t=216912

sehr lustiges Review auf Hardwareluxx
Gleich mal einen Thread dort eröffnet.Sorry, aber dein Thread ist ein wenig...nunja...nicht gerade konstruktiv verfasst.

Deiner Meinung nach soll man ATI also dafür belohnen, dass sie Bugfixes mit den bösen Optimierungen in einen Topf schmeißen? Sehe ich anders. Die "Optimierungen" sollten auf beiden Seiten abgeschaltet werden. Das heißt korrekt aktiviertes HQ bei NV und AI-off bei ATI. Da hat ATI leider Pech gehabt, dass sich ihr bri-Filter nicht anders abschalten lässt.

Und mit "warum testet ihr nur Spiele, die NV gut liegen" (sinngemäß) hast du wirklich den Vogel abgeschossen. Das ist doch eine ganz normale Auswahl an Spielen, ich erkenne da keine Bevorzugung. Einzig Fear hätte ich noch dazugenommen und dafür den Aquamark weggelassen.

Dein dortiger Thread liest sich wie die Worte eines beleidigten ATI-Fanboys, der überall eine Verschwörung gegen seine geliebte Firma wittert. Da wunder ich mich nicht, dass du darauf noch keine Antwort bekommen hast.

mapel110
2006-03-21, 02:17:41
Sicherlich stimmt da einiges nicht von den Kritikpunkten, aber HWL war schon immer eher Richtung NV, auch bei älteren Reviews. Es wird kaum auf die Bildqualität eingegangen und eben die fps-Balken verglichen. Mehr bieten sie halt nicht.

Gast
2006-03-21, 09:39:16
Sorry, aber dein Thread ist ein wenig...nunja...nicht gerade konstruktiv verfasst.

Deiner Meinung nach soll man ATI also dafür belohnen, dass sie Bugfixes mit den bösen Optimierungen in einen Topf schmeißen? Sehe ich anders. Die "Optimierungen" sollten auf beiden Seiten abgeschaltet werden. Das heißt korrekt aktiviertes HQ bei NV und AI-off bei ATI. Da hat ATI leider Pech gehabt, dass sich ihr bri-Filter nicht anders abschalten lässt.

Nein, man sollte mit gleichwertiger Bildqualität benchen. Wenn diese nur durch Herabsetzen der Bildqualität bei ATI erreicht werden kann, da NVidia hardwarebedingt keine bessere Bildqualität liefern kann, muß das so sein.

Natürlich wär es schön wenn man die Bugfixes unabhängig vom Rest steuern kann. Aber stellt man beim NVidia Treiber 8xSAA ein nur um die bestmögliche Bildqualität zu erreichen? Nein.

Das Review auf Hardwareluxx ist sowas von schlecht. Ich bin gewiss kein "beleidigter ATI Fanboy" da ich selbst noch NVidia Karten besitze und bessessen habe, aber schau dir die Moderatoren und Admins bei Hardwareluxx doch mal an: Alle NVidia SLI Systeme. Man könnte meinen sie werden gesponsort ;) .

Das Hardwareluxx Review suggeriert das eine 7900GTX deutlich performanter als eine X1900XTX ist. Das stimmt aber nicht. Jeder objektive Mensch sieht das beide ähnlich schnell bzw. die X1900XTX etwas schneller ist. Die einzigen Fürssprecher für die 7900GTX sind Stromaufnahme, Wärmeentwicklung und somit auch leiser zu kühlen und noch der Linuxsupport. Sonst gibt es nichts.

Die hunderte offensichtliche Fehler wie zb. hier http://www.hardwareluxx.de/cms/artikel.php?action=show&id=342&seite=9 wo eine 7800GT dicht gefolgt von einer 6600GT (ja ihr lest richtig) bei Counterstrikesource die Benchmarkliste anführt vor SLI Systemen oder X1900XTX. Was ist das denn? Saufen die bei Hardwareluxx? Solche gravierenden Fehler dürfen nicht passieren wenn man ernstgenommen werden will. Und berichtigt wird dort auch nichts. Gut das 3DCenter nicht solche Fehler machen.

Gast
2006-03-21, 09:43:00
Falls Du diesen Benchmark meinst, solltest Du mal genauer hinsehen:
http://www.hardwareluxx.de/jens/benchpcix2/graka_iframe.php?bid=89&gid=47

Das ist ein Quotient aus AA- und AF-Performance, der zeigt, wie schnell die Karte AF/AA beherrscht und hat nichts mit der tatsächlichen Kartenperformance zu tun.

Gast
2006-03-21, 10:09:55
So der Thread ist gleich mal im Archiv verschwunden ;) (sprich gelöscht)
Wenigstens hat mir ein Admin ein paar Dinge per PN erläutert. Ich hoffe die etwas kritische Sichtweise führt in Zukunft zu etwas Verbesserung.

Gast
2006-03-21, 17:49:00
aber schau dir die Moderatoren und Admins bei Hardwareluxx doch mal an: Alle NVidia SLI Systeme. Man könnte meinen sie werden gesponsort ;) . Wenn ich mir aussuchen könnte, von wem ich Multi-GPU-Systeme gesponsort bekomme, wäre das sicherlich auch Nvidia. Sind die IHVs geizig und wollen nur eine Karte rausrücken, wärs eine x1900xtx. :D

Nein, man sollte mit gleichwertiger Bildqualität benchen. Trilinear gegen ATIs Bri-Filter ist garantiert nicht vergleichbar.

Aber stellt man beim NVidia Treiber 8xSAA ein nur um die bestmögliche Bildqualität zu erreichen? Nein. Es geht nicht darum die bestmögliche Bildqualität zu erreichen, sondern darum, dass man vergleichbare Einstellungen hat. Und diese gibt es nicht, wenn eine der beiden Karten nur bri filtert.

Die einzigen Fürssprecher für die 7900GTX sind Stromaufnahme, Wärmeentwicklung und somit auch leiser zu kühlen und noch der Linuxsupport. Sonst gibt es nichts.Nein, da gibt es durchaus noch mehr. Die Multi-GPU-Technik ist bei NV deutlich besser, Crossfire ist dagegen Crap. Dann gibt es die Hybridmodi wie 8xS und 16xS, die die Bildqualität enorm verbessern, vor allem in älteren Spielen. Das Transparenz-AA funktioniert im Gegensatz zu ATI auch unter OpenGL und macht bei weitem nicht so viele Probleme wie AAA. Dann gibt es viel öfter neue Treiber und nicht nur einmal im Monat wie bei ATI (vielleicht nicht für jeden ein Vorteil, für mich ist es das aber).

Das Hardwareluxx Review suggeriert das eine 7900GTX deutlich performanter als eine X1900XTX ist. Das stimmt aber nicht. Joar, das stimmt wirklich nicht. Die Karten sind wie immer auf einer Augenhöhe, mal die eine, mal die andere schneller.

sklave_gottes
2006-03-21, 18:54:47
@post #296

Dir ist schon aufgfallen das sie NV qualiti gegen ATI AI off gebenscht haben ?

Die haben nur fehler im Test z.b verbraucht bei ihnen eine x1800xt im 2D modus viel mehr als eine x1900xtx oder die x1800xt asus top ----> das zeigt eindeutig das sie ergäbnisse von alten tagen eingefrimmelt haben.

der test ist wirklich schrott dazu auch noch total unübersichtlich.
Meine meinung dazu haben sie übringens auch verschoben und gespert:
http://www.forumdeluxx.de/forum/showthread.php?t=216550

alein das zeigt doch das sie sich selber was bewust sind....

PHuV
2006-03-21, 19:11:41
Jetzt aber mal eine so blöde Frage, ist der Unterschied der Filter und AAs zwischen ATI und Nvidia im Spielgeschehen sooo stark sichtbar?

mapel110
2006-03-21, 19:23:11
Jetzt aber mal eine so blöde Frage, ist der Unterschied der Filter und AAs zwischen ATI und Nvidia im Spielgeschehen sooo stark sichtbar?
Das Flimmern von nvidia speziell mit der Aniso Sample opt (u.a. bei Quality-default-Einstellung aktiv) seh ich mittlerweile immer, egal welches Game. Die Tri Opt dagegen hab ich noch nicht erkennen können. Reines Bilinear seh ich aber widerrum.

Aber das ist alles recht subjektiv.

Es hat ja auch einige Wochen gedauert, bis das G70 Flimmern (mit derzeitiger Quality-default-Treibereinstellung vergleichbar) überhaupt entdeckt wurde. So wirklich auffällig, so dass es jeder sofort sieht, ist es also nicht.

PHuV
2006-03-21, 19:30:59
Das Flimmern von nvidia speziell mit der Aniso Sample opt (u.a. bei Quality-default-Einstellung aktiv) seh ich mittlerweile immer, egal welches Game. Die Tri Opt dagegen hab ich noch nicht erkennen können. Reines Bilinear seh ich aber widerrum.

Aber das ist alles recht subjektiv.

Es hat ja auch einige Wochen gedauert, bis das G70 Flimmern (mit derzeitiger Quality-default-Treibereinstellung vergleichbar) überhaupt entdeckt wurde. So wirklich auffällig, so dass es jeder sofort sieht, ist es also nicht.

Hm, dann kann ich mir wirklich vorstellen, warum Leute, wenn sie es sehen, dagegen wettern.

Aber wäre es dann nicht ein leichtes, es in den Treibern zu fixen, oder ist das dann ein generelles Problem der GPU-Architektur?

LordDeath
2006-03-21, 19:34:46
Das Flimmern von nvidia speziell mit der Aniso Sample opt (u.a. bei Quality-default-Einstellung aktiv) seh ich mittlerweile immer, egal welches Game. Die Tri Opt dagegen hab ich noch nicht erkennen können. Reines Bilinear seh ich aber widerrum.

Aber das ist alles recht subjektiv.

Es hat ja auch einige Wochen gedauert, bis das G70 Flimmern (mit derzeitiger Quality-default-Treibereinstellung vergleichbar) überhaupt entdeckt wurde. So wirklich auffällig, so dass es jeder sofort sieht, ist es also nicht.

das sehe ich ähnlich. bei quality und allen optimierungen hab ich bisher nur bei riddick richtig unbrauchbares geflimmere bemerkt. und zwischen quality nur mit trilinearer optimierung und high quality sehe ich erst recht keinen unterschied.

mapel110
2006-03-21, 19:37:30
Hm, dann kann ich mir wirklich vorstellen, warum Leute, wenn sie es sehen, dagegen wettern.

Aber wäre es dann nicht ein leichtes, es in den Treibern zu fixen, oder ist das dann ein generelles Problem der GPU-Architektur?
Im High Quality Modus ists ja gefixt, seit Forceware 78.03 iirc. Aber das kostet halt Leistung.

Gast
2006-03-21, 20:06:05
Jetzt aber mal eine so blöde Frage, ist der Unterschied der Filter und AAs zwischen ATI und Nvidia im Spielgeschehen sooo stark sichtbar?

FSAA ist, was multisampling mit gleicher sampleanzahl angeht weitgehend identisch (nur gespiegelte muster).

beim AF ohne AreaAF gibt es auch nicht wirklich nennenswerte unterschiede, ob NVs AF flimmert hängt sehr stark vom content ab. in vielen fällen gibt es zwischen Q und HQ kaum einen unterschied, hin und wieder fällt es aber doch deutlich auf, wenn man die sample-optimierung deaktiviert hilft es oft schon sehr stark.

unter OGL ist es mit den defaulteinstellungen meistens schlimmer, da dort die sample-optimierung auf allen stages wirkt (in D3D nur auf stages >0).

mit deaktivierter sample-optimierung ist NVs AF aber in vielen (NICHT ALLEN) fällen durchaus mit ATIs ai-on vergleichbar.

dennoch wäre ich dafür zumindest im high-end-bereich nur HQ vs. AI-off zu benchen, ich sehe wirklich nicht ein warum man bei derart starken karten kompromisse in der filterqualität eingehen sollte.


mit Area-AF ist ATI vor allem in außenlevels mit vielen verschiedenen winkeln weit im voraus. in innenlevels mit großteil rechteckigen strukturen ist der unterschied nicht so groß.

Ronny145
2006-03-21, 21:03:53
Meine meinung dazu haben sie übringens auch verschoben und gespert:
http://www.forumdeluxx.de/forum/showthread.php?t=216550

alein das zeigt doch das sie sich selber was bewust sind....



Und nun ist er sogar gelöscht. Berechtigte Kritik scheint dort nicht gut anzukommen.

Gast
2006-03-21, 21:33:16
@post #296

Dir ist schon aufgfallen das sie NV qualiti gegen ATI AI off gebenscht haben ?Oh, das ist natürlich was anderes und imho völliger Humbug. Man sollte die Optimierungen schon auf beiden Seiten abschalten und das geht eben nur mit HQ vs. AI-off.

sklave_gottes
2006-03-22, 00:08:55
Und nun ist er sogar gelöscht. Berechtigte Kritik scheint dort nicht gut anzukommen.

Ja die MODs scheinen in dem Forum sowieso überfordert zu sein!
ich kann darüber nur noch lachen...

deekey777
2006-03-22, 00:16:52
Thinness rules! 0.09 Calibre, a Volley from California: NVIDIA GeForce 7900 GTX/GT (G71), GeForce 7600 GT (G73), Part 5: H.264 Support (http://www.digit-life.com/articles2/video/g71-part5.html)

Oder warum die 7600GT weiterhin die Soluschn ist.



Our preliminary conclusions on GeForce 7600 GT have turned into final ones: it's a good product from all angles. Yep, the 256-bit X1800 GTO card is impending over it. We shall analyze this battle in the $250 market segment in a separate article.
Wobei der MSRP der 7600GT gesenkt wurde.

PHuV
2006-03-22, 00:35:59
Thinness rules! 0.09 Calibre, a Volley from California: NVIDIA GeForce 7900 GTX/GT (G71), GeForce 7600 GT (G73), Part 5: H.264 Support (http://www.digit-life.com/articles2/video/g71-part5.html)

Oder warum die 7600GT weiterhin die Soluschn ist.


Braucht man dafür wieder diese kostenpflichtigen Decoder von Nvidia?

deekey777
2006-03-22, 00:41:46
Braucht man dafür wieder diese kostenpflichtigen Decoder von Nvidia?
Bin jetzt überfragt.
Aus dem Review:
Theoretically, all the latest models support H.264 decoding. You can see a more detailed list of GPUs that can process video here.

Of course, along with GPU support, sterling operation of the above mentioned components also requires software support (drivers and applications). All drivers, starting from Version 83.70, support H.264 for the processors, listed in the above table.

But that's not enough, you also need a decoder to work with various multimedia players. NVIDIA developed its own PureVideo Decoder for players without their own decoders (now it works not only with MPEG2, but also with other formats). It's a shareware product with 30-day trial, after which you should buy the decoder on the NVIDIA web site.

Das ist genau wie bei ATi. Man braucht den passenden Treiber und einen Player, der den nötigen Decoder mit sich bringt, dieser Decoder wiederum muss die H.264-Beschleunigung in Hardware unterstürzen. In diesem Fall ist es PureVideo Decoder.

Armaq
2006-03-22, 01:43:35
Bei NV braucht man ihren eigenen Player dafür - BAD.

Coda
2006-03-22, 01:52:34
Braucht man nicht. Das PureVideo-Dingens installiert auch einen Codec.

deekey777
2006-03-22, 01:57:43
Bei NV braucht man ihren eigenen Player dafür - BAD.

Nein, nur den PureVideo-Decoder, aber nur für den Fall, wenn der benutzte Player keinen H.264-Decoder hat, der den Videoprozessor der Grafikkarte benutzt. Beispiel: Wenn morgen ein Update für PDVD erscheint, das den benötigten Decoder mitbringt, dann bracht PDVD den PureVideo-Decoder für H.264 nicht, sondern nutzt seinen eigenen.

up¦²
2006-03-22, 02:45:07
Es ist und bleibt verwirrend ...
http://www.cyberlink.com/oem/nVidia/0602/enu/index.jsp

dildo4u
2006-03-28, 20:43:03
Und nun hats endlich auch Computerbase geschafft hier wird auf Nvidia Karten mit HQAF gebencht!


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/

erwingage
2006-03-28, 20:50:06
Und nun hats endlich auch Computerbase geschafft hier wird mit HQAF gebencht!


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/

wird nicht :wink:

Treibereinstellungen: ATi-Grafikkarten

* Catalyst A.I.: Standard
* Mipmap Detail Level: High Quality
* Wait for vertical refresh: Always off
* Adaptive Anit-Aliasing: Off
* High Quality AF: Off
* Truform: Always Off

Gast
2006-03-28, 22:01:12
Und nun hats endlich auch Computerbase geschafft hier wird auf Nvidia Karten mit HQAF gebencht!


http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/

ja toll, bei nv auf HQ stellen, und dafür bei ATI AI anlassen, das ist genauso doof wie treiberdefault gegeneinander zu testen.

Black-Scorpion
2006-03-28, 22:08:18
ja toll, bei nv auf HQ stellen, und dafür bei ATI AI anlassen, das ist genauso doof wie treiberdefault gegeneinander zu testen.
Ja toll, kein Thread wo nicht der selbe Spruch kommt.
Beschwer dich bei denen die gebencht haben.
Achso, da muß man sich ja regiestrieren und kann nicht anonym seinen Spruch überall abladen.

Gast
2006-03-29, 01:02:09
Naja man hätte schon HQ AF Benchmarks mal machen sollen, im Fazit wird gesagt, das ATI die bessere Bildqualität bieten kann, aber es wird nicht aufgezeigt was das an Leistung frist, find ich nicht gut, bzw. merkwürdig.

Zitat: "Zudem überzeugt die R580-GPU mit einer besseren anisotropen Filterung, die auch Texturen in einem ungünstigen Winkel filtert, die von der nVidia-Karte (um Geschwindigkeit einzusparen) ignoriert werden."

Ja sie habens nicht gebencht, auserdem ist der Satz verkehrt, ihr habt nicht! ,um Geschwindigkeit zu sparen, mit HQ AF bei der ATI gebencht.

Entweder man bietet der X1900XTX 2 Benchmarkbalken oder man bietet den HQ AF Balken und schreibt ein Sätzlein dazu, aber nur den "schnellsten" zu zeigen finde ich nicht OK und dann im nachhinein zu sagen, sieht aufer ATI besser aus, aber gebencht hammers nicht... Da gibts keine Ausrede ^^

deekey777
2006-03-29, 01:12:13
Ist ATis HQ AF auch nicht anpassungsfähig?

The_Invisible
2006-03-29, 08:26:57
ja toll, bei nv auf HQ stellen, und dafür bei ATI AI anlassen, das ist genauso doof wie treiberdefault gegeneinander zu testen.

och, lassts doch sein, sonst regen sich die ATI Jünger eh wieder auf :D

mfg

Coda
2006-03-29, 13:35:30
Ist ATis HQ AF auch nicht anpassungsfähig?
Wie meinst du das? Das es bei flacheren Winkeln nicht den vollen AF-Grad nimmt ist natürlich klar.

Da hatte die GeForce 4 ja das Problem selbst bei minimaler Verzerrung schon 2xAF zu applizieren, was natürlich idiotisch ist.

MechWOLLIer
2006-03-29, 15:33:57
ja toll, bei nv auf HQ stellen, und dafür bei ATI AI anlassen, das ist genauso doof wie treiberdefault gegeneinander zu testen.
Eine Frage: Hast du jemals gleichzeitig das AF auf einer X1000 und einer 7800 bewundern können?

erwingage
2006-03-29, 15:48:33
ja toll, bei nv auf HQ stellen, und dafür bei ATI AI anlassen, das ist genauso doof wie treiberdefault gegeneinander zu testen.

man hat nur die bildqualität auf gleiche level angehoben :wink:
deswegen bei NVauf HQ :cool:

mapel110
2006-03-29, 15:54:46
Eine Frage: Hast du jemals gleichzeitig das AF auf einer X1000 und einer 7800 bewundern können?
Etwas, das ich dich schon immer fragen wollte. Siehst du die TriOpt Optimierung? Mir ist die bislang nur mal unter Opengl aufgefallen, allerdings war es da aufgrund von Bugs gar nur gänzlich BiAF und nicht BriAF.

MechWOLLIer
2006-03-29, 16:08:20
In Quake 4 kann man die ziemlich gut sehen, wobei das auch OpenGL ist.
Serious Sam 2 reagiert auch recht empfindlich auf die Trilineare Optimierung, ebenso Battlefield 2. Aber generell ist das wohl zweifellos die "harmloseste" Optimierung von nVidia.

The_Invisible
2006-03-29, 16:47:40
Etwas, das ich dich schon immer fragen wollte. Siehst du die TriOpt Optimierung? Mir ist die bislang nur mal unter Opengl aufgefallen, allerdings war es da aufgrund von Bugs gar nur gänzlich BiAF und nicht BriAF.

hab ich ja schon gesagt, ohne standbilder bzw genau gleichzeitiger betrachtung sieht man keinen unterschied, das ist erbsenzählerei

aber die lautstärke und der stromverbrauch ist ja egal :ugly:

mfg

deekey777
2006-03-29, 16:52:14
Wie meinst du das? Dass es bei flacheren Winkeln nicht den vollen AF-Grad nimmt, ist natürlich klar.


Das und den Einwand des Gastes mit AI auf Standard.

Mipmaps einzufärben, bringt da nichts. ;) :D

aths
2006-03-29, 17:32:27
Da hatte die GeForce 4 ja das Problem selbst bei minimaler Verzerrung schon 2xAF zu applizieren, was natürlich idiotisch ist.Das ist nicht idiotisch, sondern korrekt.

paul.muad.dib
2006-03-29, 21:08:17
Das ist nicht idiotisch, sondern korrekt.

Irgendwie war mir klar, dass du das sagen würdest. Ist dann natürlich nicht Lehrbuchquali, aber was bringt es den doppelten Aufwand für eine minimale Verbesserung einzusetzen?

aths
2006-03-30, 09:06:22
Irgendwie war mir klar, dass du das sagen würdest. Ist dann natürlich nicht Lehrbuchquali, aber was bringt es den doppelten Aufwand für eine minimale Verbesserung einzusetzen?Bessere Texturqualität. Ansonsten hättest du gleich wieder Unschärfe.

Das ist ja die Crux beim isotropen Filter: Richtig passend ist er praktisch nie. Eigentlich müsste man in der Praxis fast überall AF nutzen. Wenn man AF erst bei einem Verzerrungsgrad von sagen wir 1,1 anspringen lässt, gewinnt man nur wenige Bereiche wo man auf AF verzichten kann. Nehmen wir als Schwellwert sagen wir 1,25, wird der AF-lose Bereich etwas größer, dafür hat man dann aber auch schon vergleichsweise unscharfe Texturstellen.

Es ist eine Diskussion vergleichbar mit dem Problem der trilinearen Filterung. Leichte Brilinearität würde zwar kaum auffallen, aber bringt auch sogut wie keinen fps-Gewinn. Damit man wirklich einen spürbaren Geschwindigkeitsvorteil hat, muss man die bilineare Zone so weit verbreitern, dass es auffallen kann.

paul.muad.dib
2006-03-30, 11:27:33
Am besten wäre es imo natürlich, wenn man diese Optimierung im Treiber einstellen könnte. Damit wäre dann die Möglichleit gegeben, in füllratenlimitierten Spielen trotzdem noch AF zu nutzen, denn wenig Schärfung ist immer noch besser als gar keine, und bei älteren Titeln die volle Filterung einzustellen.

Das würde aber wahrscheinlich wieder Transistoren kosten.


//edit: Wenn sowieso alle Texturen gefiltert werden, könnte man doch gleich SSAA benutzen oder nicht?

Coda
2006-03-30, 11:33:09
Bessere Texturqualität. Ansonsten hättest du gleich wieder Unschärfe.
Bei einer Verzerrung von 1:1.1 sicher nicht. Das siehst du nichtmal dass da AF appliziert wurde. Da kann man ruhig etwas aggressiver vorgehen anstatt gleich für alle Polygone das doppelte an Füllrate zu brauchen (das macht jede GPU von ATI und nVIDIA heute so).

Gast
2006-03-30, 13:36:22
//edit: Wenn sowieso alle Texturen gefiltert werden, könnte man doch gleich SSAA benutzen oder nicht?

nein, um den effekt von 2xAF zu bekommen brauchst du schon 4xSSAA, bzw. für "4xAF" schon 16xSSAA.

der aufwand nimmt also quadratisch zu, gegenüber ordentlichem AF.

paul.muad.dib
2006-03-30, 14:16:41
Da komme ich jetzt nicht mit. Ich dachte, bei beiden Verfahren werden zwei Farbwerte berechnet und der endgültige Farbwert als Zwischenwert aus diesen interpoliert. Wobei das eben SSAA für alle Texturen macht und AF nur für perpektivisch verzerrte abhängig vom Grad der Verzerrung.

aths
2006-03-30, 15:16:31
Bei einer Verzerrung von 1:1.1 sicher nicht. Das siehst du nichtmal dass da AF appliziert wurde. Da kann man ruhig etwas aggressiver vorgehen anstatt gleich für alle Polygone das doppelte an Füllrate zu brauchen (das macht jede GPU von ATI und nVIDIA heute so).Bei den richtigen Texturen kann man das auch schon bei 1:1,1 sehen. Und ein 1,1-Schwellwert bringt eben nur wenig zusätzliche fps. Die meisten Texturen die man sieht, sind deutlich stärker verzerrt, da braucht man dann eh AF. Texelfüllrate ist aber nicht mehr so das Problem.

Da komme ich jetzt nicht mit. Ich dachte, bei beiden Verfahren werden zwei Farbwerte berechnet und der endgültige Farbwert als Zwischenwert aus diesen interpoliert. Wobei das eben SSAA für alle Texturen macht und AF nur für perpektivisch verzerrte abhängig vom Grad der Verzerrung.Egal ob die Texturen perspektivisch oder sonstwie verzerrt sind, AF setzt bei Verzerrungen an. AF berechnet zusätzliche Samples "in der richtigen Richtung", SSAA berechnet zusätzliche Samples in alle Richtungen. Da SSAA nicht weiß, in welche Richtung die Texturverbesserung erforderlich ist.

Allerdings bringt 4x SSAA auch andere Vorteile. 2x OGSSAA liefert bessere Texturen als 2x AF. Nur kostet das bereits mindestens doppelte Füllrate.

Gast
2006-03-30, 15:51:27
Da komme ich jetzt nicht mit. Ich dachte, bei beiden Verfahren werden zwei Farbwerte berechnet und der endgültige Farbwert als Zwischenwert aus diesen interpoliert. Wobei das eben SSAA für alle Texturen macht und AF nur für perpektivisch verzerrte abhängig vom Grad der Verzerrung.

AF erhöht die sampleanzahl dynamisch in richtung der verzerrung bis zum eingestellten maximalgrad (bzw. auch weniger je nach karte)

wenn du FSSSAA verwendest musst du immer in alle richtungen (du weist ja vorher noch nicht wie die texturen im raum liegen) entsprechend mehr samples nehmen um den gleichen effekt zu erreichen.

wenn du "4xAF" über FSSSAA erreichen willst brauchst du in x- und y-richtung 4 samples, und 4x4 macht eben insgesamt 16samples/pixel.

richtiges AF hat den vorteil nur soviele samples zu nehmen wie benötigt werden (also je nach verzerrungsgrad), und muss zusätzlich nur in richtung der verzerrten achse mehr samples nehmen.

paul.muad.dib
2006-03-30, 17:56:38
Danke euch für die Erklärungen.

mapel110
2006-03-30, 23:30:19
Warum ist die 7900er (GT und GTX) eigentlich so schlecht verfügbar? :confused:
(hab da noch nix mitbekommen)

deekey777
2006-03-30, 23:33:57
Warum ist die 7900er (GT und GTX) eigentlich so schlecht verfügbar? :confused:
(hab da noch nix mitbekommen)

Weil die Europäer wieder die Dummen sind? Es wurde zum Launch oder kurz danach darüber gemutmaßt, dass die Europäer nach dem Launch auf die zweite Lieferung warten werden.

mapel110
2006-03-30, 23:39:58
Weil die Europäer wieder die Dummen sind? Es wurde zum Launch oder kurz danach darüber gemutmaßt, dass die Europäer nach dem Launch auf die zweite Lieferung warten werden.
Zweite Lieferung? Der Launch ist über 3 Wochen her. WTF?

deekey777
2006-03-30, 23:43:58
Zweite Lieferung? Der Launch ist über 3 Wochen her. WTF?
Dann ist es halt die dritte Lieferung. So oder so: Nordamerika und Asien werden wieder bevorzugt.

mapel110
2006-04-06, 01:42:52
http://www.xbitlabs.com/articles/video/display/geforce7900gtx.html

Sieht dort ganz gut aus für ATI im 2D-Bereich.

Gast
2006-04-06, 10:45:16
http://www.xbitlabs.com/articles/video/display/geforce7900gtx.html

Sieht dort ganz gut aus für ATI im 2D-Bereich.

wahnsinn wie sparsam eine 7900GT ist, das ist ja gerade mal 6600GT-niveau.

up¦²
2006-04-06, 15:47:43
Nanu: was ist denn hier los?
http://www.xbitlabs.com/images/video/geforce7900gtx/cod_4x.gif
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_11.html

... :eek:

Coda
2006-04-06, 16:00:34
Evtl. läuft nVIDIA auf SFR und ATI auf AFR aus irgend nem Grund.

LordDeath
2006-04-06, 17:34:01
wie soll das gehen, dass zwei XTs mehr als doppelt so schnell sind als eine XTX?
das theoretische maximum wär doch 100% zusatzleistung im vergleich zu einer XT und selbst das würde in keinem spiel vorkommen...

Frank1974
2006-04-06, 19:06:28
wie soll das gehen, dass zwei XTs mehr als doppelt so schnell sind als eine XTX?
das theoretische maximum wär doch 100% zusatzleistung im vergleich zu einer XT und selbst das würde in keinem spiel vorkommen...

Vielleicht wird die einzelne Karte per Treiber schlechter unterstützt alles Crossfire selber, bei dem Game :smile:.
Oder ist das so undenkbar :confused:
Naja, vielleicht haben die auch falsch gebencht, mich wundert aber gar nix mehr bei NV und ATi.

MFG
Frank

Gast
2006-04-06, 20:12:59
http://www.xbitlabs.com/articles/video/display/geforce7900gtx.html

Sieht dort ganz gut aus für ATI im 2D-Bereich.

Wie kann eine X1800 XT fast doppelt so viel wie eine X1800 XL verbrauchen? Abgesehen vom Takt sind die Karten 100%-ig identisch. Die paar MHz-Chip- und Speichertakt können doch niemals so viel ausmachen. :-o

Gast
2006-04-06, 22:13:18
Wie kann eine X1800 XT fast doppelt so viel wie eine X1800 XL verbrauchen? Abgesehen vom Takt sind die Karten 100%-ig identisch. Die paar MHz-Chip- und Speichertakt können doch niemals so viel ausmachen. :-oAber die höhere Spannung um diese Taktraten zu erreichen schon.

Coda
2006-04-06, 22:18:52
Oder ist das so undenkbar :confused:
Eigentlich schon. Da stimmt irgendwas nicht :|

deekey777
2006-04-06, 22:35:21
Hat CoD2 nicht so eine "SLI-Optimierung"? Auch mit einer Grafikkarte soll man von dieser Optimierung profitieren.

mapel110
2006-04-08, 16:51:10
Hat CoD2 nicht so eine "SLI-Optimierung"? Auch mit einer Grafikkarte soll man von dieser Optimierung profitieren.
Also ich hab von der nicht profitiert, obendrein hat sie sich bei mir immer wieder zurückgesetzt auf "off".

Gast
2006-05-14, 18:34:09
*Threadrauskram*

HT4U kommt etwas verspätet mit einem lesenswerten Artikel zur GF7900GTX, GF7900GT und Radeon X1900XTX bei dem Catalyst A.I. deaktiviert wurde mit ausführlicher Begründung.

http://www.hardtecs4u.com/reviews/2006/x1900_7900/

Außerdem beschreibt man dort, dass Transparenz AA weder bei ATI noch bei NVIDIA funktionierte, was hier im Forum ja auch schon mit verschiedenen Meinungen diskutiert wurde.

Gast
2006-05-14, 19:21:53
Gast[/POST]']
Außerdem beschreibt man dort, dass Transparenz AA weder bei ATI noch bei NVIDIA funktionierte, was hier im Forum ja auch schon mit verschiedenen Meinungen diskutiert wurde.

Unter OpenGL funktionierts nicht, unter D3D immer.

Gast
2006-05-14, 20:27:53
Gast[/POST]']Unter OpenGL funktionierts nicht, unter D3D immer.

Ähm, jap. Da fehlte natürlich noch ein "funktinierte nicht unter OpenGl" in meiner obigen Nachricht - sorry.

dildo4u
2006-06-06, 18:19:38
MSI mit passiv gekühlter GeForce 7900 GT

http://pics.computerbase.de/1/4/7/2/8/1.jpg


"Diese Grafikkarte verzichtet auf sämtliche Lüfter und kommt mit einer passiven Kühlung daher, weswegen die Karte auch in einem Silent-PC absolut problemlos eingesetzt werden kann. MSI belässt es bei den Taktraten bei den Vorgaben von nVidia, weswegen der Chip mit 450 MHz und der 256 MB große GDDR3-Speicher mit 660 MHz arbeitet. Wie wir aus erster Hand erfahren haben, wird die Grafikkarte morgen offiziell vorgestellt und die Kosten sollen sich an denen der aktiv gekühlten Karte halten – demzufolge wird sich der Preis bei etwa 270 bis 280 Euro einpendeln. Ab nächsten Monat sollen erste Exemplare erhältlich sein."

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2006/juni/msi_geforce_7900_gt/