PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

Gast
2010-04-02, 00:23:27
Bei Anandtech gibt es ja sogar mal einen richtigen Worstcase:
http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22179.png
... nur seltsam der geringe Unterschied zwischen 470 und 480.


Das liegt eher am Spiel als an NV. Die Engine macht zuweilen eigenartige Kapriolen.

derguru
2010-04-02, 00:29:06
tn der ist keine 5 Mark wert.<>die inneren :D
ok tn ist natürlich mist gerade wenn das display gebogen ist aber für 5 mark würd ich das teil nehmen:wink:

Spasstiger
2010-04-02, 00:33:59
Das gebogene Display arbeitet mit DLP-Rückprojektion, nicht mit LCD.

derguru
2010-04-02, 00:58:21
ja dann,ich finds nice.die bessere alternative als 3 displays.

ChaosTM
2010-04-02, 01:11:00
ja dann,ich finds nice.die bessere alternative als 3 displays.

Der beste Weg ist immer noch ein halbwegs anständiger Projektor.
Es geht nix über Uncharted2, MW2 oder Crysis auf 3m Diagonale!

Gast
2010-04-02, 02:02:37
man beachte die Abwärme-Fläche der 480,
im Konrast zur 5870 schon krass

http://img12.abload.de/img/loadimvo.jpg

dildo4u
2010-04-02, 02:13:18
Hydro Copper FTW Waterblock


GTX 470
Load Heatsink: 83c
Load Waterblock: 38c

GTX 480
Load Heatsink: 95c
Load Waterblock: 49c


http://www.evga.com/forums/tm.aspx?m=271190

http://www.evga.com/articles/00539/

tombman
2010-04-02, 02:22:49
Leider verlangen die dafür einen abartigen Aufpreis- da geht sich bei 2 480er schon fast ne 3. aus :lol:

Gast
2010-04-02, 02:23:04
@dildo4u

die wenigsten haben Bock ihren Rechner für ne Graka unter Wasser zu setzen, das macht man mal nicht "so eben", vom Kostenaufwand ganz zu schweigen

WaKü ist geil, keine Frage
Aber zwingend für eine Graka? hmm...

Marodeur
2010-04-02, 05:45:14
Hydro Copper FTW Waterblock


Öhm, welchen Radi nutzen die für das Ergebnis? Steht das irgendwo? Ich wurd grad ned fündig.

Nightspider
2010-04-02, 06:42:39
Leider verlangen die dafür einen abartigen Aufpreis- da geht sich bei 2 480er schon fast ne 3. aus :lol:

Wie teuer sind denn die Wasserkühler von EVGA ?

tombman
2010-04-02, 06:51:45
man beachte die Abwärme-Fläche der 480,
im Konrast zur 5870 schon krass

http://img12.abload.de/img/loadimvo.jpg
Quelle? :rolleyes:

Gast
2010-04-02, 07:57:16
Ich glaube, die Ursache ist die gleiche, wie bei der ständig verringerden Spielzeit: es ist eben viel aufwändiger ein modernes Spiel zu erschaffen, als eins aus den 90ern. Damit man es trotzdem tun kann (und der Preis bei €50 fix bleibt) muss man eben an vielen Ecken und Enden sparen. So wird auch der "Fall-Back-Modus" bei der Grafik ein Opfer des roten Stiftes.


Selten so einen blödsinn gelesen. Als ob es für die Programmierer soviel Aufwand wäre einfach neben den PhysX Rauch, noch einen standart Rauch zu integrieren. Das ist wenn man einmal den Editor entwickelt hat, ein Arbeitsaufwand von paar klicks.

In Batman gibt es ohne PhysX keinen Rauch, weil Nvidia dafür Geld bezahlt hat, dass es ihn nicht zu sehen gibt.

Gast
2010-04-02, 08:11:06
Im nächsten Multiplayer-shooter kann man dann nur noch Schusswaffen nutzen, wenn man eine PhysX-karte hat.
Alle anderen dürfen dann nur noch mit Messern rumlaufen und haben einen über's ganze Spielfeld hin sichtbaren roten Pfeil über dem Char.

Gast
2010-04-02, 08:43:44
TWIMTBC . . . the way it's meant to be crippled

Ich frage mich wieviel die NV-Bestechungstrupps hinblättern müssen, um die Codefragmente zum Abschalten von Content in Spielen Graka-ID-abhängig einfügen zu können und ihr Logo zu plazieren.


Bryan Marshall: Technical Director at Codemasters

Bryan Marshall: The water tech is very visually obvious, forms wakes, and affects the drag on the car. ........
The driver is physically driven (rather than animation driven) and you can see him realistically react in the car to rough tracks and the steering wheel bouncing around. The physics system is all part of the proprietary EGO physics system and we don't use physics middleware such as PhysX in DiRT2.

Blackbird23
2010-04-02, 08:44:32
Öhm, welchen Radi nutzen die für das Ergebnis? Steht das irgendwo? Ich wurd grad ned fündig.
Bisschen runterscrollen in dem verlinkten Thread:


1. Are the above numbers for a single card in a loop all their own or did they share the loop with another component?
2. Were traditional PC water cooling radiators being used & how many fans? (what type/brand)
3. How many radiators were used? (for example, a single dual 120mm, or a single triple 120mm radiator)
4. Was this test performed in an open-air bench configuration, or inside a closed computer case?
5. What was the ambient temperature of the room?



1. It was shared with a CPU.
2. Yes, it was a 3x120mm radiator with low RPM fans
3. Answered above.
4. In a closed PC.
5. Not sure on this one, sorry, it can be considered "room temperature"

Gast
2010-04-02, 09:20:50
Öhm, welchen Radi nutzen die für das Ergebnis? Steht das irgendwo? Ich wurd grad ned fündig.

49°C halte ich durchaus für erreichbar.
Meine 2-PCB-GTX295 läuft mit 670mhz GPU, die heißere der beiden wird bei Games maximal 52° warm, und das bei 33°C Wassertemperatur. (Ich habs gern leise)

Gast
2010-04-02, 09:26:27
Was ne Midrange 470 schon beim spielen so verballert ist schon beachtenswert.
Da braucht man sich irgendwie nicht wundern was da an Hitze und Lärm entsteht.

Der Schrecken kommt dann unter Last. Da erreicht die Leistungsaufnahme des Gesamtsystems fast das Niveau mit der Radeon HD 5970, die aber ja mit zwei Grafikchips ausgestattet ist.

http://www.hartware.net/review_1079_17.html

Gast
2010-04-02, 09:30:56
BTW, es gibt Renderings und nen geplanten Preis der Aquacomputer Wasserkühler.
http://forum.aquacomputer.de/wasserk-hlung/p1313333-kommen-die-gtx-480-k-hler-p-nktlich-zum-launch/#post1313333

Mr. Lolman
2010-04-02, 09:54:43
Die Luxx-Typen wollten das Ei braten? Warum nehmen die dann Heaven 2.0 dazu und nicht den Furmark? Hätt das ein Noob gemacht, hätts mich ja nicht gewundert, aber die sollten doch wissen, wie man die Karte zum glühen bringt.


Während des gesamten Tests durchlief die NVIDIA GeForce GTX 480 zahlreiche Benchmarks und wurde dabei bis zu 87 °C warm. Nach mehr als 45 Minuten Dauertest, gab man allerdings auch schon auf. Zwar wurde das Eiweiß an manchen Stellen tatsächlich weiß, aber mit einem genüsslichen Spiegelei hatte das nichts gemein. Auf einer GF100-Karte lässt sich wohl doch kein Ei braten, wie manch böse Zungen behaupten.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/14980-kann-man-mit-einer-nvidia-geforce-gtx-480-eier-kochen.html

fizzo
2010-04-02, 09:55:14
Quelle? :rolleyes:

http://www.hardware.fr/articles/787-5/dossier-nvidia-geforce-gtx-480-470.html

Hauwech
2010-04-02, 10:03:06
Wenn schon ein auf die Vorderseite blasender Lüfter die Drehzahl von dem Radiallüfter merklich verringert, wäre eine durchgehende Backplate für die Rückseite nicht verkehrt gewesen. Vielleicht liefert ein Karten- oder Kühlerhersteller sowas ja nach.

Blackbird23
2010-04-02, 10:15:01
Die Luxx-Typen wollten das Ei braten? Warum nehmen die dann Heaven 2.0 dazu und nicht den Furmark? Hätt das ein Noob gemacht, hätts mich ja nicht gewundert, aber die sollten doch wissen, wie man die Karte zum glühen bringt.



http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/14980-kann-man-mit-einer-nvidia-geforce-gtx-480-eier-kochen.html
Nochmal lesen! Das Ei-Braten wollten die Leute von "Legit Reviews"... nicht die Luxxer! Und ja ich weiß auch nicht warum die nicht Furmark dafür genommen haben, damit hätte es schneller klappen können...

AnarchX
2010-04-02, 10:18:09
Wenn schon ein auf die Vorderseite blasender Lüfter die Drehzahl von dem Radiallüfter merklich verringert, wäre eine durchgehende Backplate für die Rückseite nicht verkehrt gewesen. Vielleicht liefert ein Karten- oder Kühlerhersteller sowas ja nach.
Colorful hat eine GTX 470 mit Backplate und 2 Lüftern darauf:
http://vga.zol.com.cn/172/1722936.html

Hier final:
http://img256.imageshack.us/img256/8716/4150864.jpg
http://product.it168.com/detail/html/picture/0206/406989/4150864.shtml

Gast
2010-04-02, 10:22:15
Colorful hat ein GTX 470 mit Backplate und 2 Lüftern darauf:
http://vga.zol.com.cn/172/1722936.html

Hier final:
http://img256.imageshack.us/img256/8716/4150864.jpg
http://product.it168.com/detail/html/picture/0206/406989/4150864.shtml

Wie schwer soll denn das Ding sein? 1kg?

numb
2010-04-02, 10:32:51
man beachte die Abwärme-Fläche der 480,
im Konrast zur 5870 schon krass

http://img12.abload.de/img/loadimvo.jpg


Das sieht ja schon fast nach nem Flächenbrand bei der GTX 480 aus.
Bin echt mal auf die defektrate von nicht-wassergekühlten 480ern im Sommer gespannt...

Don Vito
2010-04-02, 10:33:07
und Bauhöhe 3 Slot?

_DrillSarge]I[
2010-04-02, 10:37:01
colorful? nie gehört :biggrin:. sind die neu?

Don Vito
2010-04-02, 10:38:13
Coloful gibts schon ewig.

Gast
2010-04-02, 10:57:52
und Bauhöhe 3 Slot?

Klar das sind 3 Slots und auf den Aufpreis kann man auch gespannt sein. Wenn ich das richtig sehe kommen dann ja nochmal 2 Lüfter dazu die potenzielle Lärmquellen seien können, aber eigentlich müssten die mit sehr niedrigeren RPMs laufen.

Botcruscher
2010-04-02, 11:01:04
Warum nicht mal ein paar hübsche Lüftergitter? Die Dinger machen den Luftstrom doch total zum Arsch.

PS: Und schöne Molex Stecker. Schade das jeder NT Hersteller alles mit hässlichem SATA zu spachteln muss und die Dinger absolute Mangelware sind.

Hauwech
2010-04-02, 11:04:25
Colorful hat ein GTX 470 mit Backplate und 2 Lüftern darauf:
http://vga.zol.com.cn/172/1722936.html

Hier final:
http://img256.imageshack.us/img256/8716/4150864.jpg
http://product.it168.com/detail/html/picture/0206/406989/4150864.shtml

Ok, die Lüftergitter würde ich schon mal sofort entfernen.... :D

Sieht interessant aus. Ich hoffe, die wird auch mal getestet wobei es mit den Lüftern durchaus bei einigen Boards Platzprobleme geben könnte.

Exxtreme
2010-04-02, 11:07:00
Colorful hat eine GTX 470 mit Backplate und 2 Lüftern darauf:
http://vga.zol.com.cn/172/1722936.html

Hier final:
http://img256.imageshack.us/img256/8716/4150864.jpg
http://product.it168.com/detail/html/picture/0206/406989/4150864.shtml
Und da ist das Messer von McGyver dabei!!!! ;D


Ansonsten ... ähhh, ja ... massive Konstruktion.

Don Vito
2010-04-02, 11:14:37
So einn Messr hab ich auch. nur nicht mit dem tollen roten Aufdruck.
Kostete mir 1 Euro bei in irgendeinem Baumarkt.

Dr. Lloyd
2010-04-02, 11:22:16
Ansonsten ... ähhh, ja ... massive Konstruktion.
Ja, und das bei der 470er. Da bin ich mal auf deren 480er-Variante gespannt. Da kommt dann wahrscheinlich noch ein zusätzlicher Lüfter unten an die offen liegenden Kühlrippen. ;D

AYAlf_2
2010-04-02, 11:37:21
Und da ist das Messer von McGyver dabei!!!! ;D


Ansonsten ... ähhh, ja ... massive Konstruktion.
das mit dem messer ist doch aber klar .. wenn du irgendwo in kanada dein pc anmachst und das roehren der luefter durch die umwelt schallt .. kannst du dich mit dem messer gegen nahende elche wehren.... :redface:

Schlammsau
2010-04-02, 11:49:01
Hier noch ein interessantes Fazit von Leo aus der Main:
Denn daß die GeForce GTX 480 in DirectX11-Titeln einen höheren Abstand zur Radeon HD 5870 hinlegt, ist zwar eine gewisse Tendenz, aber keinesfalls eine eindeutige und überall auftretende Erscheinung. Ganz gut läßt sich dies mit den Werten der ComputerBase belegen, welche ein Performancerating sowohl für alle Benchmarks als auch nur für DirectX11 unterstützende Titel erstellt haben: Unter 1920x1200 liegt die GeForce GTX 480 bei allen Benchmarks um 15 Prozent vor der Radeon HD 5870 – rein bei den DirectX11-Titeln sind es dagegen 19,6 Prozent. Dies ist bemerkbar mehr, aber es ist weit von diesen 60 Prozent entfernt, welche nVidia unter Metro 2033 benötigt, um auf das bessere Verhältnis Performance/Stromverbrauch (laut nVidia) zu kommen. Und rechnet man auf dieser Basis die Daten nach, bleibt es weiterhin beim deutlich schlechteren Verhältnis Performance/Stromverbrauch der GeForce GTX 480 auch unter den DirectX11-Titeln:

Die beispielshaft ausgerechneten 0,21 fps/W bei der GeForce GTX 480 unter DirectX11 sind immer noch deutlich schlechter als die 0,27 fps/W der Radeon HD 5870 – man sollte sich hier von den absoluten Zahlen nicht täuschen lassen, dies ist eine Differenz von runden 30 Prozent. Und selbst unter nVidias Beispiel mit Metro 2033 kommt letztlich bei unserer Nachrechnung nur dasselbe Verhältnis Performance/Stromverbrauch zwischen ATI und nVidia heraus – und kein (beachtbarer) Vorteil zugunsten der GeForce GTX 470/480 Karten. Aus der Falle des zu hohen Stromverbrauchs kann sich nVidia mit dieser Argumentation also unserer Meinung nach nicht befreien. Zudem liegt das größere Problem je sowieso in den absoluten Stromverbrauchs-Werten, die bei nVidia einfach augenscheinlich zu groß sind: Die Radeon HD 5870 ist eine 150-Watt-Karte, was an der oberen Grenze dessen liegt, was für eine SingleChip-Lösung gangbar ist. Die GeForce GTX 480 ist dagegen eine 230-Watt-Karte, was für eine SingleChip-Lösung unabhängig deren Performance jenseits von gut und böse liegt.

Oder zumindest ist die Performance der GeForce GTX 480 nicht überzeugend weit genug weg von der Radeon HD 5870, um über diesen erheblichen Nachteil beim Stromverbrauch einfach hinwegsehen zu können. Nur wenn man die Angelegenheit unter dem absoluten HighEnd-Gedanken ansieht – Performance über alles – ist dieser Punkt irgendwie ignorierbar. Doch dies dürfte nur auf einen gewissen Teil der potentiellen Käuferschaft zutreffen, bei vielen potentiellen Käufern dürfte dagegen der hohe Stromverbrauch ein deutliches Gegenargument zur GeForce GTX 480 sein. Bei der GeForce GTX 470 ist dies nicht ganz so schlimm: Das Verhältnis Performance/Stromverbrauch ist zwar genauso schlecht wie bei der GeForce GTX 480 und es wird noch nicht einmal eine bessere Performance als bei der Radeon HD 5870 geboten – aber die 180 Watt Spiele-Verbrauch der GeForce GTX 470 sind wenigstens nicht so deutlich entfernt von den 150 Watt Spiele-Verbrauch der Radeon HD 5870 wie die 230 Watt Spiele-Verbrauch der GeForce GTX 480.

Ich bleibe dabei....eine auf den Stromverbrauch der GTX480 gepimpte 5870, wurde einer 480 mindestens gleichziehen.

boxleitnerb
2010-04-02, 12:00:06
In Einzelfällen sicherlich. Irgendwo kommst du aber in einen Bereich, wo du für mehr Takt (deutlich) mehr Spannung geben musst und das vernichtet den fps/W Vorsprung der Radeon. Abnehmender Ertrag und so. Bei der Radeon kanns nur schlechter werden, das würd ich nicht aufs Spiel setzen.
Ich finde es so gut wie es ist. AMD muss doch nicht auf Teufel komm raus die Leistungskrone im SGPU Bereich haben, da schätze ich eine vernünftig designte und effiziente GPU mehr als ein aufgeblähtes Monster.

Gast
2010-04-02, 12:01:40
Echt süß wie plötzlich die halben Forumsmember nach Performance/Watt gieren. :lol:

Schlammsau
2010-04-02, 12:04:17
In Einzelfällen sicherlich. Irgendwo kommst du aber in einen Bereich, wo du für mehr Takt (deutlich) mehr Spannung geben musst und das vernichtet den fps/W Vorsprung der Radeon. Abnehmender Ertrag und so. Gerade in DX11 wo fps/W bei beiden praktisch gleich ist. Bei der Radeon kanns nur schlechter werden.
Ich finde es so gut wie es ist. AMD muss doch nicht auf Teufel komm raus die Leistungskrone im SGPU Bereich haben, da schätze ich eine vernünftig designte und effiziente GPU mehr als ein aufgeblähtes Monster.

Natürlich müssen sie das nicht, und sie werden es nicht machen.

Mir ging es nur um die das theorietisch machbare.

Wenn den die ersten die GTX480 im Rechner haben, freu ich mich auf Vergleiche mit übertakteten 5870er.

Undertaker
2010-04-02, 12:06:13
Wer sich eine GTX480 kauft, pfeift vermutlich eh auf den Stromverbrauch und wird die Karte vorzugsweise mit Wakü ebenfalls noch weiter übertakten - OC vs. non OC Vergleiche waren noch nie sinnvoll. ;)

Gast
2010-04-02, 12:08:20
AMD muss doch nicht auf Teufel komm raus die Leistungskrone im SGPU Bereich haben, da schätze ich eine vernünftig designte und effiziente GPU mehr als ein aufgeblähtes Monster.
Für AMD ist die SGPU Krone bedeutungslos.

Sie haben für die Krone das MGPU Monstrum mit zu kleinem VRAM. Das wird und muss reichen.


Ich hoffe ja immer noch, das man eines Tages das vergleicht, was vergleicht gehört. Also 470 mit 5870.
Die 470 hat ganz klar ihre Nachteile, aber sie ist im Vergleich kein unmögliches Produkt.

Gast
2010-04-02, 12:10:07
Wer sich eine GTX480 kauft, pfeift vermutlich eh auf den Stromverbrauch und wird die Karte vorzugsweise mit Wakü ebenfalls noch weiter übertakten - OC vs. non OC Vergleiche waren noch nie sinnvoll. ;)
Mal davon abgesehen, eine 300W 5870 mit lediglich 1GiB VRAM ist auch keine Wonne.
Der Kühler wird sehr schwer zu ackern haben, einige tun ja so als ob AMD bessere Kühler kaufen kann, die 300W in Wohlgefallen auflösen.

Soundwave1983
2010-04-02, 12:11:47
Ich finde die Gangart einiger Stores zum Thema ziemlich fragwürdig.
Bei Alternate wird groß rumgetönt, dass das Warten en Ende hätte.
Dummerweise ist keine der Karten lieferbar, wie wir alle wissen wird das vor dem 12. April auch nix werden und selbst dann gibts keine Garantie, das die eintreffende Lieferung überhaupt alle Besteller berücksichtigen kann.

Ein Freund von mir hat seine 260 sofort verscherbelt und Blind ne 470 vorbestellt.
Nachdem ich ihm den Thread hier gezeigt hab isser aus allen Wolken gefallen und mit etwas "Glück" hat er 355 Euro versemmelt und sitzt mindestens nen Monat, wenn nicht noch länger mit onboard VGA da. ;D

Ne ne, da wird mir meine 285 gleich noch viel sympathischer.

Gast
2010-04-02, 12:20:54
Nvidia-Statement zum Stromverbrauch und Hitzeentwicklung der Geforce GTX 470/480
Die Geforce GTX 480 sei der beste Kompromiss aus Leistung und Wärmeentwicklung gewesen und die GTX 470 biete ein gutes Preis-Leistungs-Verhältnis. (Mario Riemann, 02.04.2010)

Geforce GTX 480 im Referenz-Design [Quelle: siehe Bildergalerie]
Seit dem offiziellem Fall der NDA und der Vorstellung von Nvidias neuer Grafikkartengeneration sind in vielen Tests und Diskussionen vor allem die Hitzeentwicklung und der Stromverbrauch der GF100-Karten in Kritik geraten. Ein Beitrag des Nvidia Blogs äußerte man sich nun erstmals über das Thema.

In diesem berichtet der General-Manager der Geforce-Serie Drew Henry über die Technik der GPUs - PC Games Hardware berichtete bereits in dem ausführlichen Artikel Geforce GTX 470 und GTX 480: Test von Nvidias GF100-Generation. Und er ging auch auf den Verbrauch ein. Man habe sich für einen Kompromiss entscheiden müssen: Leistung gegen Hitzeentwicklung/Stromverbrauch. Henry findet, das ihnen dieser gut gelungen sei. Die neue Architektur sei großartig. Die Geforce GTX 480 würde das Maximum an Leistung für ambitionierte Spieler bereit stellen, während die GTX 470 ein gutes Preis-Leistungs-Verhältnis bietet.

http://www.pcgameshardware.de/aid,744190/Nvidia-Statement-zum-Stromverbrauch-und-Hitzeentwicklung-der-Geforce-GTX-470/480/Grafikkarte/News/

boxleitnerb
2010-04-02, 12:40:18
Was soll man auch sonst sagen? "Wir haben uns verschätzt, wir haben einen Fehler gemacht?" Solche Statements sind total wertlos.

derguru
2010-04-02, 12:43:03
Mal davon abgesehen, eine 300W 5870 mit lediglich 1GiB VRAM ist auch keine Wonne.
Der Kühler wird sehr schwer zu ackern haben, einige tun ja so als ob AMD bessere Kühler kaufen kann, die 300W in Wohlgefallen auflösen.
amd hats nicht nötig eine 5870 auf 300w zu jagen weil es dafür die 5970 gibt,nv hat das auf teufel komm raus gemacht um der 5970 paroli zubieten weil es zur zeit nicht möglich ist 2 gpus auf eine karte zuverpflanzen.(allgemein ist es auch voll kommen wurscht ob unter der karte 1 oder 2 gpu stecken,da zählt nur die grafikkarte im gesamten)

Eggcake
2010-04-02, 12:53:15
man beachte die Abwärme-Fläche der 480,
im Konrast zur 5870 schon krass

http://img12.abload.de/img/loadimvo.jpg

Die Darstellung finde ich etwas sehr unglücklich. Rund 80°C als Maximum wenn's bis etwa 97°C geht...?

Zumindest sieht man, dass die GTX480 praktisch auf dem ganzen PCB > 80°C erreicht, währenddem die 5870 im 60er-70er Bereich ist, mehr auch nicht.

Gast
2010-04-02, 12:56:38
Also Für 6 Monate mehr Entwicklungszeit und nach den großartigen Ankündigungen hatten wohl viele mit einer Bombe ähnlich dem G80 gerechnet. Gekommen ist aber eine Stromvernichtende Brüllende Heizbirne. Die in etwa auf der Höhe der Konkurrenz liegt. Und dabei ca 50% mehr Strom verballert. Aber auch . ATI ist nicht viel besser die können heute noch nicht vernünftig liefern und die Preise steigen und steigen.
Für den Kunden ist beides ein ärgernis so seh ich das.

Spasstiger
2010-04-02, 13:01:30
amd hats nicht nötig eine 5870 auf 300w zu jagen weil es dafür die 5970 gibt
Jopp. Manche sehen nicht, dass Dual-GPU gemeinhin keinen schlechten Ruf genießt. Für einen Laien, der einen Blick auf Reviews wirft, ist die Radeon HD 5970 eine einzelne Grafikkarte und zwar die momentan schnellste am Markt.
Probleme wie Mikroruckler werden von den Reviews nicht hinreichend vermittelt. Solange die Balken für Dual-GPU-Karten am Längsten ausschlagen, werden auch die IHVs auch keine Veranlassung sehen, schnellere Single-GPU-Karten zu bringen. Gerade bei AMD sind Dual-GPU-Karten das Mittel der Wahl, um im Enthusiast-Segment mitzumischen.

mboeller
2010-04-02, 13:05:38
Und da ist das Messer von McGyver dabei!!!! ;D



Was? Ich dachte das hier ist das Messer von McGyver (http://www.amazon.de/Wenger-Schweizer-Offiziersmesser-Messer-Schatulle/dp/B000R0JDSI/ref=sr_1_9/279-5990527-6441129?ie=UTF8&s=sports&qid=1270140320&sr=8-9) :freak:

mboeller
2010-04-02, 13:11:12
Zumindest sieht man, dass die GTX480 praktisch auf dem ganzen PCB > 80°C erreicht, währenddem die 5870 im 60er-70er Bereich ist, mehr auch nicht.


Das PCB hält das schon aus. Da der Bereich mit viel Abwärme aber sehr groß ist, hätte ich Angst um einige Stecker und Kabelverkleidungen. Bei >70°C können da einige Anschlüsse schon weich werden und sich verformen. Jeder der die GTX480 ohne Wakü einsetzt wird also IMHO aufpassen müssen, das er sich keine Folgeschäden am PC holt.

mapel110
2010-04-02, 13:21:32
http://www.hardocp.com/article/2010/04/01/geforce_gtx_480_real_world_temperatures_sound
Noch ein Test zur Lautstärke und Temp.

Matrix316
2010-04-02, 13:32:24
Jopp. Manche sehen nicht, dass Dual-GPU gemeinhin keinen schlechten Ruf genießt. Für einen Laien, der einen Blick auf Reviews wirft, ist die Radeon HD 5970 eine einzelne Grafikkarte und zwar die momentan schnellste am Markt.
Probleme wie Mikroruckler werden von den Reviews nicht hinreichend vermittelt. Solange die Balken für Dual-GPU-Karten am Längsten ausschlagen, werden auch die IHVs auch keine Veranlassung sehen, schnellere Single-GPU-Karten zu bringen. Gerade bei AMD sind Dual-GPU-Karten das Mittel der Wahl, um im Enthusiast-Segment mitzumischen.

Vor allem weil die, die über Multigpu Karten lästern dann oft die sind, welche Crossfire oder SLI betreiben...

AYAlf_2
2010-04-02, 13:40:01
Vor allem weil die, die über Multigpu Karten lästern dann oft die sind, welche Crossfire oder SLI betreiben...
als ob die sogenannten enthusiasten mitbekommen ob es ruckelt oder nicht .. sie sind zu sehr damit beschaeftigt die lautstaerke ihrer karten zu ignorieren. :tongue:

Gast
2010-04-02, 15:01:43
als ob die sogenannten enthusiasten mitbekommen ob es ruckelt oder nicht .. sie sind zu sehr damit beschaeftigt die lautstaerke ihrer karten zu ignorieren. :tongue:
Keine Ahnung was du unter "Enthusiast" verstehst, aber aus meiner Sicht ist eine Wakü das mindeste, um sich "Enthusiast zu nennen.

Nazar
2010-04-02, 15:03:31
An Red Faction 3 kommt physikalisch eh nix ran, aber so ne engine muß man erstmal haben :)

Tatsache ist, daß man ohne Phys-X nix sieht in vielen Titeln, und ich will das sehen :)
Und nein, ich werde jetzt KEINE TROTZREAKTION tätigen und NV absichtlich nicht kaufen oder gewisse Spiele NICHT spielen, nur um "Denkzettel" zu verteilen.

Ich bin gamer, kein Revoluzzer...

Was Du aber vergisst ist, dass es diese Effekte geben könnte, wenn nV dies "zuslassen" würde. Egal ob Physik Effekte oder AA, überall sorgt nV dafür, dass Spieler, die nicht nV benutzen, von diesen Effekten ausgeschlossen werden.
Dass das so ist, ist nun mehrfach bewiesen worden.

Mit Sicherheit bist Du Gamer und auch kein REvoluzzer und dann hört es schon auf und das ist das schlimme an Deiner Aussage.
Als Gamer sollte man das Gesamtpaket sehen und ein wenig an die Zukunft denken.
Bei anderen Projekten (MW2 etc.) bist Du doch auch nicht so blind!

Gast
2010-04-02, 15:09:59
GTX 480 3 Way SLI
http://www.ngohq.com/news/17574-nvidia-geforce-gtx-480-3-way-sli-review.html

N0Thing
2010-04-02, 15:12:45
Was Du aber vergisst ist, dass es diese Effekte geben könnte, wenn nV dies "zuslassen" würde. Egal ob Physik Effekte oder AA, überall sorgt nV dafür, dass Spieler, die nicht nV benutzen, von diesen Effekten ausgeschlossen werden.
Dass das so ist, ist nun mehrfach bewiesen worden.


Man könnte die Effekte sicherlich auch ohne PhysX möglich machen, aber warum sollte das ein Entwicklerstudio für einen Port machen?
Wenn Nvidia nachträglich dafür sorgt, daß Spiele zusätzliche Effekte durch PhysX bekommen, ist das vollkommen in Ordnung. Es ist ein Bonus und Mehrwert, egal ob man die zusätzlichen Effekte mag, oder nicht. Auch NV-Nutzer sind ja nicht gezwungen die zusätzlichen Effekte zu aktivieren.
Der einzige Punkt, wo Nvidia Nutzer ausschließt, ist bei der Nutzung einer NV-Karte für PhysX und einer Karte eines anderen Herstellers für die Grafik. Finde ich nicht nett, ist kein Service am Kunden, bringt keine Sympathiepunkte, aber meiner Meinung nach das gute Recht von Nvidia.

Das gehört aber alles eher in den PhysX-Thread und nicht in den GTX4x-Review-Thread.

Botcruscher
2010-04-02, 15:58:59
Ich hab gelacht.:biggrin:

Kommentare sind lustig.

Squall would argue that that only happened because the chip is so advanced that when you combined 3 together it gained self awareness and a hunger to destroy Intel/AMD.

Der Therminator.

Gast
2010-04-02, 15:59:56
Jopp. Manche sehen nicht, dass Dual-GPU gemeinhin keinen schlechten Ruf genießt. Für einen Laien, der einen Blick auf Reviews wirft, ist die Radeon HD 5970 eine einzelne Grafikkarte und zwar die momentan schnellste am Markt.

Solange die Kunden zufrieden sind, dann ist es ja egal. Viele können die Ruckler wohl nicht wahrnehmen oder sie haben sich daran gewöhnt.
Von Inputlag ganz zu schweigen.
Bei den Karten bzw. Multi-GPU geht es eh mehr um Psychologie. Gutes Gewissen das Schnellste zu haben, viele Punkte und Fraps zeigt hohe Framerates. Das beruhigt und macht glücklich.
Oder man stellt die Settings so ein, dass immer 60 fps da sind. Dann sind Mikroruckler weitgehend egal, aber dann hätte es auch eine Single-GPU getan. Aber das ist egal. Jedem das Seine.

N0Thing
2010-04-02, 16:08:08
Galaxy hat nun auch eine Beta des Xtreme Tuner HD zum übertakten von Fermi veröffentlicht:

http://www.galaxytech.com/en/downloadview.aspx?id=188

Gast
2010-04-02, 16:35:45
Keine Ahnung was du unter "Enthusiast" verstehst, aber aus meiner Sicht ist eine Wakü das mindeste, um sich "Enthusiast zu nennen.


Was ist das für eine Logik? *Backpfeife links rechts*

wie erklärst du dir dann all die "Enthusiasten" die zwar ne WaKü im Rechner haben, dafür aber die Hardware alles andere als "High-End" ist.
Habe ich nämlich schon oft gesehen, wahrscheinlich reicht dann die Kohle nicht
mehr für gescheite Hardware..

Iruwen
2010-04-02, 17:00:43
Warum nicht mal ein paar hübsche Lüftergitter? Die Dinger machen den Luftstrom doch total zum Arsch.

Die werden doch eh abgeschraubt. Gitter sind für für Pussies.

Iruwen
2010-04-02, 17:03:41
Natürlich müssen sie das nicht, und sie werden es nicht machen.

Nein nein... (http://www.abload.de/img/asus-ares.dual-hd5870-buli.jpg) :rolleyes:

HatesuckZ
2010-04-02, 17:12:09
Nein nein... (http://www.abload.de/img/asus-ares.dual-hd5870-buli.jpg) :rolleyes:

Als ob das eine Reaktion auf die 480 wäre :rolleyes:

corvus
2010-04-02, 17:17:59
Galaxy hat nun auch eine Beta des Xtreme Tuner HD zum übertakten von Fermi veröffentlicht:

http://www.galaxytech.com/en/downloadview.aspx?id=188
fehlen nur noch die Karten..

corvus
2010-04-02, 17:18:21
Als ob das eine Reaktion auf die 480 wäre :rolleyes:

Genau so ein Schwachsinn..

corvus
2010-04-02, 17:18:54
Was ist das für eine Logik? *Backpfeife links rechts*

wie erklärst du dir dann all die "Enthusiasten" die zwar ne WaKü im Rechner haben, dafür aber die Hardware alles andere als "High-End" ist.
Habe ich nämlich schon oft gesehen, wahrscheinlich reicht dann die Kohle nicht
mehr für gescheite Hardware..
Weist du was andauernd neue Kühler kosten :D

olegfch
2010-04-02, 17:39:00
Wakü ist nicht gleich Wakü, da gibt es große Unterschiede in Preis und auch in Leistung.

Soundwave1983
2010-04-02, 17:54:31
fehlen nur noch die Karten..

Die kommen ja am 6. April, ach nee am 12....ach nee auch nur ein paar Stück, aber im Mai, über nen Monat nach Paper-Launch, ja im Mai gibts dann Fermi für alle, naja fast alle. ;D

Solche Tools etc. zu veröffentlichen, knapp 2 Wochen bevor die ersten paar Stück überhaupt in den Handel kommen ist schon ziemlich eigenartig.
Soll so die Moral der Vorbesteller gestärkt werden?

nVs Igor Stanek hat mir via Twitter gesteckt, das vor dem 12. April nix passieren wird.
Man kann nur hoffen das die wenigen die eine Karte bekommen werden, diese bei Shops geordert haben, die selbige sobald sie eintreffen auch verticken.
Aber da hat nV wohl schon vorgesorgt und legt den Herstellern die Daumenschrauben an, vor dem 9. April wird da wohl keine Karte das Lager verlassen.

Warum genau werden die Karten eigentlich erst am 12. April in den Handel kommen?
Müssen die sich erst akklimatisieren oder von den Testläufen abkühlen? :D

tombman
2010-04-02, 18:45:15
http://www.hardware.fr/articles/787-5/dossier-nvidia-geforce-gtx-480-470.html
Aua, aua, aua, 111°C :eek:
Naja, Wasser muß es richten :biggrin:
Ich hab gelacht.:biggrin:
Kommentare sind lustig.
Der Therminator.
Jo, der Spruch mit dem "self aware" war der Hammer, hab auch lachen müssen :)
Solange die Kunden zufrieden sind, dann ist es ja egal. Viele können die Ruckler wohl nicht wahrnehmen oder sie haben sich daran gewöhnt.
Von Inputlag ganz zu schweigen.
Bei den Karten bzw. Multi-GPU geht es eh mehr um Psychologie. Gutes Gewissen das Schnellste zu haben, viele Punkte und Fraps zeigt hohe Framerates. Das beruhigt und macht glücklich.
Oder man stellt die Settings so ein, dass immer 60 fps da sind. Dann sind Mikroruckler weitgehend egal, aber dann hätte es auch eine Single-GPU getan. Aber das ist egal. Jedem das Seine.
Bzgl Input-Ansprechverhalten ist MGpu oft sogar besser, weil die hohen fps die Schwammigkeit herausnehmen, weil die engine
schneller reagieren kann- habe ich schon oft erlebt.
Es spiel sich mit SLI einfach besser, man hat mehr Möglichkeiten. Wenn die Gesamterfahrung mit SLI nicht besser als mit einer
Einzelgpu wäre, hätte zb ich kein SLI.
Viele Einzelgpu-user MÜSSEN sich aber zwanghaft einreden, daß MGpu Schrott ist, weil sie es sich nicht leisten können, oder, noch viel
wichtiger: sich nicht leisten WOLLEN.
Sie wollen eben beides: kein MGpu kaufen und sich trotzdem gut dabei fühlen ;) Das spielts aber bei vielen einfach nicht. Also müssen
sie MGpu mehrfach schlechtreden, denn was schlecht ist, muß man ja nicht haben wollen ;)

Die, die sich mit SingleGpu wirklich wohlfühlen, haben es nicht nötig MGpu ständig anzugreifen :cool:

Raff
2010-04-02, 18:48:46
Das ist unlogisch. Viele Fps kann ich auch mit nur einer GPU darstellen lassen (dann eben mit weniger Eye-Candy). Und das Resultat ist auch da besser verteilt als mit mehreren GPUs.

Die, die sich mit SingleGpu wirklich wohlfühlen, haben es nicht nötig MGpu ständig anzugreifen :cool:

Dazu direkt: Ich hätte als Supersampling-liebender 30-Zoll-Nutzer längst zwei GPUs im Rechner, wenn die nicht so eine Scheißvorstellung ablieferten. Praktischerweise ließ sich Ati endlich dazu "herab", eine sauschnelle Single-GPU mit dem ultimativen AA zu kombinieren. Das Resultat ist nur selten zu langsam.

MfG,
Raff

Spasstiger
2010-04-02, 18:53:14
@Raff: Du kannst doch Crossfire-SGSSAA nutzen, das sollte weder einen Input-Lag noch Mikroruckler aufweisen.

Raff
2010-04-02, 18:55:05
Das ist geradezu hoch-inkompatibel. ;) Außerdem funktioniert damit kein CFAA, ergo schaut dieses 16x schlechter als aus 8x SGSSAA + ED- oder NT-Downfilter. Noch dazu ist 16x unfassbar schnarchlahm. Nee, nee, so nicht.

MfG,
Raff

ZÜNDELholz
2010-04-02, 18:59:57
Wakü ist nicht gleich Wakü, da gibt es große Unterschiede in Preis und auch in Leistung.

Meine Bigwater 745 müste doch für SLi reichen :eek: ;D

Cubitus
2010-04-02, 19:00:25
@Raff: Du kannst doch Crossfire-SGSSAA nutzen, das sollte weder einen Input-Lag noch Mikroruckler aufweisen.

Mit SLI-AA geht das genauso :wink:
wobei das bis jetzt nur unter DX9 wirklich rund läuft.

Die Qualität was mit SLI-AA erreicht wird, ist zufriedenstellend.

derguru
2010-04-02, 19:06:38
Das ist geradezu hoch-inkompatibel. ;) Außerdem funktioniert damit kein CFAA.

16xsgssaa mit wide tent sollte funzen,das geht ja im cf bis 32AA.ok dann ist sogar ein uralt game zu langsam.

tombman
2010-04-02, 19:12:15
(dann eben mit weniger Eye-Candy).
"Hohecker, sie sind raus" :biggrin:

Dazu direkt: Ich hätte als Supersampling-liebender 30-Zoll-Nutzer längst zwei GPUs im Rechner, wenn die nicht so eine Scheißvorstellung ablieferten. Praktischerweise ließ sich Ati endlich dazu "herab", eine sauschnelle Single-GPU mit dem ultimativen AA zu kombinieren. Das Resultat ist nur selten zu langsam.

CF würde ich auch nicht wollen :)

Raff
2010-04-02, 19:12:19
16xsgssaa mit wide tent sollte funzen,das geht ja im cf bis 32AA.ok dann ist sogar ein uralt game zu langsam.

Ja, sorry. Ich meinte oben Bitch-Detect (ED-CFAA). =)

CF würde ich auch nicht wollen :)

Nvidia tut viel dafür, dass man SLI als BQ-Enthusiast nicht kauft.

- Kein SGSSAA
- Hybriden sind inoffiziell und matschen fast jedes neue Spiel zu Brei
- SLI-AA-Modi kosten viel Leistung und verfügen über eine minderwertige Sample-Platzierung

Ergo, liebe Kalifornier: Kupfert bei Ati ab und liefert SGSSAA – aber 3dfx-Style, wo jede GPU für jeden SSAA-Modus ihre Sample-Hälfte beisteuert. Oder macht die Hybriden offiziell und kompatibler. Und programmiert für Furby-SLI endlich gescheites SLI-AA. Am besten alles. Dann reden wir nochmal über den Sinn von SLI. ;)

MfG,
Raff

dildo4u
2010-04-02, 19:17:38
ATI schummelt beim Crysis AF ansonsten würde sich whol das selbe Bild wie in 90% der anderen Games einstellen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7946986&postcount=68

Wurde das schon gepostet?

Gast
2010-04-02, 19:23:31
ATI schummelt beim Crysis AF ansonsten würde sich whol das selbe Bild wie in 90% der anderen Games einstellen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7946986&postcount=68

Wurde das schon gepostet?

Glaubst du es gibt nicht auch Fälle wo das AMD AF besser aussieht als Q bei der GTX480? Aber dieses Rosinen Picken ist natürlich der einzige Ausweg für die Fans von Nvdia.

derguru
2010-04-02, 19:24:32
CF würde ich auch nicht wollen :)

hör auf immer mit deinem cf ist bullshit,hast in deinem leben noch nie von innen gesehen und schwafelst dir einen zurecht.bis 2karten ist es die selbe wurst wie sli,ein spiel funzt mit sli besser ein anderes mit cf.

dann schick doch mal dem Spasstiger (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7946870#post7946870)deine frametimes,komisch das sich da noch keiner mit sli verirrt hat.

Raff
2010-04-02, 19:25:48
Glaubst du es gibt nicht auch Fälle wo das AMD AF besser aussieht als Q bei der GTX480? Aber dieses Rosinen Picken ist natürlich der einzige Ausweg für die Fans von Nvdia.

Bevor es weitere nette Postings hagelt, die von einem Nichtzuendelesen herrühren, zitiere ich mal den letzten Absatz der verlinkten PCGH-Seite:

Doch dies ist nur ein unrühmlicher Extremfall, in den meisten Spielen nehmen sich die Treiber-Standards von AMD und Nvidia wie erwähnt nicht viel. (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=3)

MfG,
Raff

Iruwen
2010-04-02, 19:25:50
ATI schummelt beim Crysis AF ansonsten würde sich whol das selbe Bild wie in 90% der anderen Games einstellen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7946986&postcount=68

Wurde das schon gepostet?

DAFÜR KANN ATI ABER SGSSAA !!!1 :freak:

/e ist ja klar dass die im meistgebenchten Spiel nicht verkacken wollen. Denn Crysis > Metro wie wir alle wissen, viel besserer BQ Indikator :rolleyes:

Gast
2010-04-02, 19:28:03
Nvidia tut viel dafür, dass man SLI als BQ-Enthusiast nicht kauft.

- Kein SGSSAA
- Hybriden sind inoffiziell und matschen fast jedes neue Spiel zu Brei
- SLI-AA-Modi kosten viel Leistung und verfügen über eine minderwertige Sample-Platzierung

Ergo, liebe Kalifornier: Kupfert bei Ati ab und liefert SGSSAA – aber 3dfx-Style, wo jede GPU für jeden SSAA-Modus ihre Sample-Hälfte beisteuert. Oder macht die Hybriden offiziell und kompatibler. Und programmiert für Furby-SLI endlich gescheites SLI-AA. Am besten alles. Dann reden wir nochmal über den Sinn von SLI. ;)

MfG,
Raff

Außerdem fehlt ein vernünftiger Downsamplingfilter. Mit 4xSGAA plus Narrow-Tent kann ich fast jedes Spiel auf einer 5870 flüssig spielen und diese Qualität erreicht keine NV-Karte auch nicht mit hundert Samples und beschissenen Downsamplingfilter. Oft geht sogar 8xSGSSAA plus Tent-Filter.

tombman
2010-04-02, 19:28:47
Aber gerade bei Crysis schummeln ist echt bezeichnend...einem der wichtigsten Indikatorgames :upicard:

Black-Scorpion
2010-04-02, 19:30:53
Wie wäre es mal mit einem sinnvollen Beitrag?
Die letzten waren jedenfalls nur Seitenhiebe und Provokation.
Wer hat eigentlich mit den ganzen Cheats angefangen? ;)

Blaire
2010-04-02, 19:31:12
hör auf immer mit deinem cf ist bullshit,hast in deinem leben noch nie von innen gesehen und schwafelst dir einen zurecht.bis 2karten ist es die selbe wurst wie sli,ein spiel funzt mit sli besser ein anderes mit cf.


Die Frametimes sind das eine, das andere dieses Lag lässt sich nicht mit FRAPS messen. Es ist ein Zusammenspiel aus beiden, zumindest mit TriCrossfire.

tombman
2010-04-02, 19:33:35
hör auf immer mit deinem cf ist bullshit,hast in deinem leben noch nie von innen gesehen und schwafelst dir einen zurecht.bis 2karten ist es die selbe wurst wie sli,ein spiel funzt mit sli besser ein anderes mit cf.

dann schick doch mal dem Spasstiger (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7946870#post7946870)deine frametimes,komisch das sich da noch keiner mit sli verirrt hat.
Falsch, habe ich sehr wohl, ich hatte CF kurzzeitig mit der HD4 Serie. Und ich habe Berichte von Leuten, denen ich vertraue, über CF
der HD5 Serie...

p.s. danke, Blaire ;)

Spasstiger
2010-04-02, 19:33:46
Das ist geradezu hoch-inkompatibel. ;) Außerdem funktioniert damit kein CFAA, ergo schaut dieses 16x schlechter als aus 8x SGSSAA + ED- oder NT-Downfilter. Noch dazu ist 16x unfassbar schnarchlahm. Nee, nee, so nicht.

MfG,
Raff
Gibts kein 4xCrossfire-SGSSAA? Zwei Samples pro Karte.

Tesseract
2010-04-02, 19:37:10
diese Qualität erreicht keine NV-Karte auch nicht mit hundert Samples und beschissenen Downsamplingfilter.

dieser "beschissene" downsamplingfilter ist trotzdem deutlich schärfer und ruhig ist das bild ab 4xSG sowieso schon weitgehend.
mit dieser aussage lehnst du dich weit aus dem fenster. ;)

tombman
2010-04-02, 19:39:21
Fermi will gutes Case:

The same card has 97 Celsius at FurMark 1.6.5 at 2560 × 1600 in Cosmos S case while in much cheaper Cooler Master Centurion 534 the same card gets all the way to 105 Celsius.
http://www.fudzilla.com/content/view/18329/1/

Dann sollte mein Plan also klappen :)

lilgefo~
2010-04-02, 19:39:51
Wie wäre es mal mit einem sinnvollen Beitrag?
Die letzten waren jedenfalls nur Seitenhiebe und Provokation.
Wer hat eigentlich mit den ganzen Cheats angefangen? ;)

ATi :(

Nur hats damals keinen interessiert weil die r100 und r200er noch ganz andere Probleme hatten. Ati hat ja noch nie ohne IQ Verschlechterungen gearbeitet. Das hat nvidia dann wohl als Grund gereicht es auch zu tun. :<

Shaft
2010-04-02, 19:40:37
Was Du aber vergisst ist, dass es diese Effekte geben könnte, wenn nV dies "zuslassen" würde. Egal ob Physik Effekte oder AA, überall sorgt nV dafür, dass Spieler, die nicht nV benutzen, von diesen Effekten ausgeschlossen werden.
Dass das so ist, ist nun mehrfach bewiesen worden.



Das ist nicht Nvidias verschulden, Nvidia leistet guten Entwicklersupport.

Ich habe oft gelesen, das wohl auch AA mit AMD Karten in diversen Spielen möglich gewesen sei, aber hier AMD beim Support geschlafen hat.

Und warum sollte Nvidia ihr teuer Erkauftes, Lizensiertes PhysX für andere Hersteller öffnen?

Das wäre als wenn ich Ageia die schuld geben würde, das ich keine Physik bekomme, weil ich nicht ihre Hardware erworben hatte.

Was dann die Entwickler daraus machen, ist deren Suppe, man könnte Physik weitgehends auch über CPU ermöglichen, mit Einschränkungen.

Black-Scorpion
2010-04-02, 19:43:33
Man könnte fast meinen Nvidia hat extra Verträge mit den anderen Herstellern abgeschlossen um sich Gegenseitig Umsatz zu generieren. :rolleyes:
Neues NT, neues Gehäuse und Wakü.
So ist allen geholfen und kurbelt die Wirtschaft an. ;)

derguru
2010-04-02, 19:44:40
Die Frametimes sind das eine, das andere dieses Lag lässt sich nicht mit FRAPS messen. Es ist ein Zusammenspiel aus beiden, zumindest mit TriCrossfire.
diese lags sind klassiker unter einem triple cf,hab aber auch nie von triple cf geschrieben.
Falsch, habe ich sehr wohl, ich hatte CF kurzzeitig mit der HD4 Serie. Und ich habe Berichte von Leuten, denen ich vertraue, über CF
der HD5 Serie...

p.s. danke, Blaire ;)

ja weiß ich ca.2 tage ,nicht wahr:rolleyes:

Gast
2010-04-02, 19:45:44
Das ist nicht Nvidias verschulden, Nvidia leistet guten Entwicklersupport.

Ich habe oft gelesen, das wohl auch AA mit AMD Karten in diversen Spielen möglich gewesen sei, aber hier AMD beim Support geschlafen hat.

Und warum sollte Nvidia ihr teuer Erkauftes, Lizensiertes PhysX für andere Hersteller öffnen?

Das wäre als wenn ich Ageia die schuld geben würde, das ich keine Physik bekomme, weil ich nicht ihre Hardware erworben hatte.

Was dann die Entwickler daraus machen, ist deren Suppe, man könnte Physik weitgehends auch über CPU ermöglichen, mit Einschränkungen.

Und wenn mir das als Käufer nicht gefällt, kauf ich bei der Konkurrenz.
Wo ist das Problem?

tombman
2010-04-02, 19:45:55
Man könnte fast meinen Nvidia hat extra Verträge mit den anderen Herstellern abgeschlossen um sich Gegenseitig Umsatz zu generieren. :rolleyes:
Neues NT, neues Gehäuse und Wakü.
So ist allen geholfen und kurbelt die Wirtschaft an. ;)
Ich geh sogar noch weiter und sage: NV und AMD achten darauf, nicht zuviel Abstand zu haben ;)

tombman
2010-04-02, 19:47:21
ja weiß ich ca.2 tage ,nicht wahr:rolleyes:
Nein, länger, aber lang genug ;)

ZÜNDELholz
2010-04-02, 19:52:38
diese lags sind klassiker unter einem triple cf,hab aber auch nie von triple cf geschrieben.


ja weiß ich ca.2 tage ,nicht wahr:rolleyes:

Hatte keine Lags mit 4870er Tripple

Ja, Doch , Lags begannen z.B. bei Grid, wenn ich von 8xMsaa auf 24 Edge umstellte. (in 2560x1600)

;)

Gast
2010-04-02, 19:56:39
dieser "beschissene" downsamplingfilter ist trotzdem deutlich schärfer und ruhig ist das bild ab 4xSG sowieso schon weitgehend.
mit dieser aussage lehnst du dich weit aus dem fenster. ;)

Dann muss dir ja auch das AMD AF gefallen, das ist auch deutlich schärfer. Damit lehne ich mich kein bisschen aus dem Fenster, ausgenommen bei UT3-Games wo die Tent-Filter wirklich zu einer deutlichen Unschärfe führt ist das für mich ein Quantensprung. Denn damit und nur damit hat man wirklich glatte und ruhige Kanten. Das schafft kein 16xSGSSAA und mit Sicherheit auch kein 256xSGSSAA, der Box-Filter ist da einfach überfordert.

Shaft
2010-04-02, 19:56:49
Und wenn mir das als Käufer nicht gefällt, kauf ich bei der Konkurrenz.
Wo ist das Problem?


Das Problem sind die meckerer und noch Schuldige suchen.

Ich bekomme das wofür ich zahle, Punkt.

Wenn jeman sich eine AMD Karte kauft und meckert er bekommt kein PhsyX ist der selbst schuld.

Aber den meisten ATI Käufer scheint anderseits wieder PhysiX wurscht zu sein, oh Wunder.

Gast
2010-04-02, 19:59:08
Hatte keine Lags mit 4870er Tripple

Ja, Doch , Lags begannen z.B. bei Grid, wenn ich von 8xMsaa auf 24 Edge umstellte. (in 2560x1600)

;)

Ich habe hier eine 4870X2 sowie eine GTX280.
Selbst in Crysis WH, das gemeinhin als gut auf MGPU gilt, ist die Spielbarkeit auf der 4870X2 deutlich schlechter (Inputlag und Ruckler in Frameregionen, in denen es keine geben dürfte), obwohl bei Ihr deutlich mehr FPS angezeigt werden.

Black-Scorpion
2010-04-02, 20:02:36
Es geht nicht um Physx, sondern darum das andere Karten (nicht nur ATI) von Sachen ausgeschlossen werden die damit nichts zu tun haben.

Tesseract
2010-04-02, 20:06:54
Dann muss dir ja auch das AMD AF gefallen, das ist auch deutlich schärfer.

nein ist es nicht, es unterfiltert, das ist keine schärfe.

Gast
2010-04-02, 20:20:34
ATI schummelt beim Crysis AF ansonsten würde sich whol das selbe Bild wie in 90% der anderen Games einstellen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7946986&postcount=68

Wurde das schon gepostet?

Ach ja, ein Zitat von PCGH ;) - Ich hatte bis vor kurzem noch eine GTX280@285. Und nu, da Lärmi anhand des hier mehrfach durchgekautem keine Option für mich darstellt - da habe ich mir - oh Graus - eine HD5850 gekauft. Und ich konnte, bis auf dass die Performance sich drastisch verbessert hat, BQ-technisch keinen Unterschied feststellen - in Crysis wohlgemerkt. Ein weiteres Kriterium für meine Auswahl war die Option auf SGSSAA.

Zu PhysX: Hat mir in Batman sehr gut gefallen, allerdings gibt es für ATI-User unter Win7 die Möglichkeit z.B. eine 9600GT explizit für PhysX in den Rechner zu stecken.

ZÜNDELholz
2010-04-02, 20:35:03
Ich habe hier eine 4870X2 sowie eine GTX280.
Selbst in Crysis WH, das gemeinhin als gut auf MGPU gilt, ist die Spielbarkeit auf der 4870X2 deutlich schlechter (Inputlag und Ruckler in Frameregionen, in denen es keine geben dürfte), obwohl bei Ihr deutlich mehr FPS angezeigt werden.

HP 3065-Grundlatenz

CWH-Welche Auflösung??
wenn ich mich recht zurückerinnere, ist mit der 4870x2 in 1600x1200 ein NoGo

tombman
2010-04-02, 20:48:54
Zu PhysX: Hat mir in Batman sehr gut gefallen, allerdings gibt es für ATI-User unter Win7 die Möglichkeit z.B. eine 9600GT explizit für PhysX in den Rechner zu stecken.
1.) inoffiziell
2.) mit gehacktem Treiber
3.) NOCH möglich- kann sich ganz schnell ändern

Schlammsau
2010-04-02, 20:55:00
1.) inoffiziell
2.) mit gehacktem Treiber
3.) NOCH möglich- kann sich ganz schnell ändern

Die Hybriden und SSAA ist auch bei nVidia höchst innoffiziell und funzen gerade bei neueren Games schlechter als ATi´s SGSSAA. :P
Wer weiss wie lange die noch angeboten werden.

Vor der HD5000er Serie war das das Totschlagargument schlechthin für nvidianer. Jetzt wo ATi augenscheinlich besser als nVidia ist, sinds halt andere an den Haaren herbeigezogene Argumente um ATi schlechtzureden.

Exxtreme
2010-04-02, 20:55:17
Es geht nicht um Physx, sondern darum das andere Karten (nicht nur ATI) von Sachen ausgeschlossen werden die damit nichts zu tun haben.
Ausgeschlossen wird man ja als AMD-Nutzer ja nicht.

Gast
2010-04-02, 21:04:24
1.) inoffiziell
2.) mit gehacktem Treiber
3.) NOCH möglich- kann sich ganz schnell ändern

...aber noch möglich! Sry4OT, aber kann es überhaupt sein, dass eine CPU PhysX-Effekte ähnlich performant, bzw. spieletauglich darstellt, wie eine GPU oder ein dedizierte Einheit? Afaik war es bei mir so, dass in 1920x1080 in Batman die min-Framerate auf 27fps eingebrochen ist.

Gast
2010-04-02, 21:06:34
Vor der HD5000er Serie war das das Totschlagargument schlechthin für nvidianer. Jetzt wo ATi augenscheinlich besser als nVidia ist, sinds halt andere an den Haaren herbeigezogene Argumente um ATi schlechtzureden.

Beim AF liegt eine Geforce nach wie vor Vorne in der Bildqualität, wüsste nicht was sich an dieser Argumentation ändern wird. HQ versägt eben alles, auch dein Ego.

Cubitus
2010-04-02, 21:06:42
Es geht nicht um Physx, sondern darum das andere Karten (nicht nur ATI) von Sachen ausgeschlossen werden die damit nichts zu tun haben.

Zudem ist Phsyx ein Nvidia Feature, warum sollte Nvidia volle Kompatibilität zu ATI Karten ermöglichen ?
Bzw. Ati könnte sich auch mal anschicken solch ein Feature zu forcieren,
dazu gehört auch das ATI mal anfangen sollte enger mit diversen Spielentwickler zusammen zu arbeiten.



Die Hybriden und SSAA ist auch bei nVidia höchst innoffiziell und funzen gerade bei neueren Games schlechter als ATi´s SGSSAA.
Wer weiss wie lange die noch angeboten werden

Nvidia wird dieses Feature sicher nicht streichen ;)
Zudem ist SLI-AA, das zum teil auch auf SSAA setzt nicht inoffiziell..

Gast
2010-04-02, 21:06:46
1.) inoffiziell
2.) mit gehacktem Treiber
3.) NOCH möglich- kann sich ganz schnell ändern

1) und?
2) und?
3) na und?

Das juckt mich nicht die Bohne und du kannst doch deinen Spaß mit dieser höchst ineffizienten Elektroheizung namens Fermi haben.

Gast
2010-04-02, 21:12:23
Die Hybriden und SSAA ist auch bei nVidia höchst innoffiziell und funzen gerade bei neueren Games schlechter als ATi´s SGSSAA. :PGerade neuere, du meinst gerade dort wo die Leistung für 8xSGSSAA nicht reicht?
2x oder 4x glättet zu mies das hast du uns lange Zeit erklärt mit dem rumreiten auf 8xMSAA.
Die Hybriden greifen genau dort.


Wer weiss wie lange die noch angeboten werden.Mindestens so lange wie sie bereits angeboten werden. Viele Jahre.

Gast
2010-04-02, 21:14:15
Und trotzdem spielt die Mehrheit mit Q und sieht keinen Unterschied.
Aber Hauptsache dummschwalen.
AMD cheated trotz 80TMUs.
Will man das gutheißen?
AMD cheated in dem Vorzeigebenchtitel Crysis nochmehr.
Will man das gutheißen?

Wie auch immer, einerseits auf SG rumreiten, andererseits behaupten die Leute würden 1x/treiberdefault AF nutzen. Recht wiedersprüchlich.

AYAlf_2
2010-04-02, 21:17:15
AMD cheated trotz 80TMUs.
Will man das gutheißen?
AMD cheated in dem Vorzeigebenchtitel Crysis nochmehr.
Will man das gutheißen?

Wie auch immer, einerseits auf SG rumreiten, andererseits behaupten die Leute würden 1x/treiberdefault AF nutzen. Recht wiedersprüchlich.

als gast haette ich mich auch getraut sowas zu schreiben ... :freak: alles falsch! aber egal.

uweskw
2010-04-02, 21:23:35
Das Problem sind die meckerer und noch Schuldige suchen.

Ich bekomme das wofür ich zahle, Punkt.

Wenn jeman sich eine AMD Karte kauft und meckert er bekommt kein PhsyX ist der selbst schuld.

Aber den meisten ATI Käufer scheint anderseits wieder PhysiX wurscht zu sein, oh Wunder.

Nochmal, das Problem ist nicht dass AMD Karten kein PhysX können. Sie dürfen es nicht nutzen! Weil NV das so will.
Jetzt stell dir mal vor AMD macht den gleichen Mist.
NOLF3, MaxPayne3, und Crysis3 nur auf AMD mit allen Details geniesbar, Doom4, UT4, Metro2 nur für NV Besitzer wirklich schön.....

Was meinst du, wenn die eh wirtschaftlich nicht soooo interessante PC Spieler Gemeinschaft aufgespalten wird, wie lange es sich dann überhaupt noch lohnt qualitativ Hochwertiges für den PC zu produzieren?

greetz
U.S.

Cubitus
2010-04-02, 21:29:31
Nochmal, das Problem ist nicht dass AMD Karten kein PhysX können. Sie dürfen es nicht nutzen! Weil NV das so will.
Jetzt stell dir mal vor AMD macht den gleichen Mist.
NOLF3, MaxPayne3, und Crysis3 nur auf AMD mit allen Details geniesbar, Doom4, UT4, Metro2 nur für NV Besitzer wirklich schön.....

Was meinst du, wenn die eh wirtschaftlich nicht soooo interessante PC Spieler Gemeinschaft aufgespalten wird, wie lange es sich dann überhaupt noch lohnt qualitativ Hochwertiges für den PC zu produzieren?

greetz
U.S.

Wer diese Features will soll sich eben ne Nvidia Karte kaufen :rolleyes:

Nvidia leistet bei vielen "exclusiv" Titeln eben die bessere Arbeit!

Und was heißt das ??
Es gibt also doch noch andere wesentliche Punkte
und nicht nur Stromverbrauch/Lautstärke/PL, auf welche ein leidenschaftlicher PC Spieler beim Grafikarten Kauf achten sollte :wink:

mapel110
2010-04-02, 21:32:23
uweskw, das halte ich für ein Gerücht, dass die Plattform PC durch etwas wie PhysX leidet. Ich würde eher sagen, dass sie sie belebt. Es bietet mehr gegenüber den Konsolen. DAS ist das Ziel von GPU-PhysX. Dass ATI ausgesperrt wird, ist nur ein netter Nebeneffekt für nvidia, den sie logischerweise gerne mitnehmen.

uweskw
2010-04-02, 21:36:36
Wer diese Features will soll sich eben ne Nvidia Karte kaufen :rolleyes:

Nvidia leistet bei vielen "exclusiv" Titeln eben die bessere Arbeit!

Und was heißt das ??
Es gibt also doch noch andere wesentliche Punkte
und nicht nur Stromverbrauch/Lautstärke/PL, auf welche ein leidenschaftlicher PC Spieler beim Grafikarten Kauf achten sollte :wink:


Manche kapieren es nie!
Ist doch nicht wirklich schwer.
Lies mein Posting nochmal.

Greetz
U.S.

Schlammsau
2010-04-02, 21:38:10
Gerade neuere, du meinst gerade dort wo die Leistung für 8xSGSSAA nicht reicht?
2x oder 4x glättet zu mies das hast du uns lange Zeit erklärt mit dem rumreiten auf 8xMSAA.
Die Hybriden greifen genau dort.

Mindestens so lange wie sie bereits angeboten werden. Viele Jahre.


4xSGSSAA glättet überhaupt nicht mies!

Cubitus
2010-04-02, 21:39:42
Manche kapieren es nie!
Ist doch nicht wirklich schwer.
Lies mein Posting nochmal.

Greetz
U.S.

und ich sags nochmal,
soll doch ATI auch was in der Richtung auf den Markt werfen

Crossfire vs SLI.... Crossfire ist immer noch nicht so ausgereift wie SLI. Die "verschlüsselten" XML Dateien sind ja zumindest mal ein Anfang, dennoch bleibt CF für ATI lediglich ein stiefmütterliches Prestige Projekt.

3D-Vision vs ???, hat da ATI überhaupt was Vergleichbares

Cuda intergration inklusive Physx in aktuellen Spielen vs.. Stream

Von AMD/ATI sieht man im Spielsektor gar nichts von ...

AYAlf_2
2010-04-02, 21:40:17
wir haben fast 160 seiten .. und wir drehen uns immer wieder im kreis ... toll ist auch, dass wir immer wieder auf das voellig nutzlose physx zu sprechen kommen. dafuer gibt es einen eignen thread ...

und flamet mich jetzt bitte nicht fuer das wort nutzlos .. fuer mich ist dieses feature nutzlos ...
und ja .. ich habe physx schon in aktion gesehen und ja ich kaufe auch nvidia grafikkarten... (wenn sie mal wieder gut sind).

AYAlf_2
2010-04-02, 21:41:32
und ich sags nochmal,
soll doch ATI auch was in der Richtung auf den Markt werfen

Crossfire vs SLI.... Crossfire ist immer noch nicht so ausgereift wie SLI. Die "verschlüsselten" XML Dateien sind ja zumindest mal ein Anfang, dennoch bleibt CF für ATI lediglich ein stiefmütterliches Prestige Projekt.

3D-Vision vs ???, hat da ATI überhaupt was Vergleichbares

Cuda intergration inklusive Physx in aktuellen Spielen vs.. Stream

Von AMD/ATI sieht man im Spielsektor gar nichts von ...

http://www.pcper.com/article.php?aid=890

Cubitus
2010-04-02, 21:43:25
http://www.pcper.com/article.php?aid=890

;( leider für den Heim Gebrauch total ungeeignet..

typisches ATI Prestige Projekt

soll ich fies sein und mal vorrechnen was so viele Monitore an Strom ziehen ? ;D

uweskw
2010-04-02, 21:43:49
...... Es bietet mehr gegenüber den Konsolen. DAS ist das Ziel von GPU-PhysX. Dass ATI ausgesperrt wird, ist nur ein netter Nebeneffekt für nvidia, den sie logischerweise gerne mitnehmen.

Der PC Spieler Markt ist im Vergleich zu den Konsolen eh schon klein. Den nochmal aufzuspalten ist wie am Ast zu sägen auf dem man sitzt.
Aber es sieht ja eh so aus als wolle sich NV aus dem Spielemarkt ohnehin verabschieden. Lukrativere Geschäftsfelder haben sie ja schon besetzt.

Greetz
U.S.

AYAlf_2
2010-04-02, 21:46:45
;( leider für den Heim Gebrauch total ungeeignet..

typisches ATI Prestige Projekt

soll ich fies sein und mal vorrechnen was so viele Monitore an Strom ziehen ? ;D
waere ja bei nvidia schon froh 3 monitore zu nutzen ohne sli ;(

uweskw
2010-04-02, 21:48:02
und ich sags nochmal,
soll doch ATI auch was in der Richtung auf den Markt werfen

Crossfire vs SLI.... Crossfire ist immer noch nicht so ausgereift wie SLI. Die "verschlüsselten" XML Dateien sind ja zumindest mal ein Anfang, dennoch bleibt CF für ATI lediglich ein stiefmütterliches Prestige Projekt.

3D-Vision vs ???, hat da ATI überhaupt was Vergleichbares

Cuda intergration inklusive Physx in aktuellen Spielen vs.. Stream

Von AMD/ATI sieht man im Spielsektor gar nichts von ...

Manche kapieren es nie!
Ist doch nicht wirklich schwer.
Lies mein Posting nochmal.

SLI/Crossfire schliesst den jeweils anderen nicht aus.

Greetz
U.S.

Shaft
2010-04-02, 21:50:35
@uweskw

Du verstehst es nicht!


Nvidia hat Kohle dafür gelassen und Ageia übernommen, Physix gehört seit 2-3 Jahren nur Nvidia.

Cubitus hats glaub ich schon erwähnt und ich weiß nicht warum es nochmal wiederholt werden muss.

Es wäre wie Patentklau, Copyrightverletzung, ATI darf es nicht nutzen, es ist ein Nvidia Feature, Punkt.


uweskw, das halte ich für ein Gerücht, dass die Plattform PC durch etwas wie PhysX leidet. Ich würde eher sagen, dass sie sie belebt. Es bietet mehr gegenüber den Konsolen. DAS ist das Ziel von GPU-PhysX. Dass ATI ausgesperrt wird, ist nur ein netter Nebeneffekt für nvidia, den sie logischerweise gerne mitnehmen.


Sag ich auch. Zudem gab es früher auch, vlt. häufiger als heute, das Grafikhersteller mit eigenen Features glänzten.

Aus meiner Sicht, Features die besonder herausstechen:
ATI=SGSSAA, P/L (obwohl mittlerweile die Preise hochgezogen worden) :rolleyes:
Nvidia=PhysX, Tesselation Performance, CUDA

Findet sich sicherlich mehr, habe jetzt aber kein Bock alles raus zu suchen.

AYAlf_2
2010-04-02, 21:52:28
Manche kapieren es nie!
Ist doch nicht wirklich schwer.
Lies mein Posting nochmal.

SLI/Crossfire schliesst den jeweils anderen nicht aus.

Greetz
U.S.
ist vergeblich .. hab ich schon vor ein paar hundert seiten gesagt .. hilft alles nix. als ob sie wollen, dass sich der markt aufspaltet und wir dann zustaende wie bei den konsolen haben "xbox vs ps3". fuer jedes spiel eine andere graka... das macht dann aber der pc user nicht mehr mit ..

IVN
2010-04-02, 22:01:01
ist vergeblich .. hab ich schon vor ein paar hundert seiten gesagt .. hilft alles nix. als ob sie wollen, dass sich der markt aufspaltet und wir dann zustaende wie bei den konsolen haben "xbox vs ps3". fuer jedes spiel eine andere graka... das macht dann aber der pc user nicht mehr mit ..
Keine Angst, dazu wird es nicht kommen. PhysX bleibt bestehen, und ATI tut, wie üblich, nichts.

Cubitus
2010-04-02, 22:03:16
Manche kapieren es nie!
Ist doch nicht wirklich schwer.
Lies mein Posting nochmal.

SLI/Crossfire schliesst den jeweils anderen nicht aus.

Greetz
U.S.

Und ich wollte dir nur zeigen wo imo Nvidia besser als ATI ist.
Denn ich bin eben ein Spieler der nicht wegen dem guten P/L Verhältnis eine Karte kauft und sich dann aufregt das seine Karte nicht die Features der Konkurrenz beherrscht :|

Warum soll Nvidia schuld an der Spaltung des Spielemarktes sein ? :rolleyes: Das kapiere ich wirklich nicht!

Man könnte die Spiele auch parallel auslegen, das wäre an sich doch kein Problem. Nur muss ATI mal damit anfangen bestimmte Dinge so wie Nvidia bei den Spiele-Devs durchzusetzen, Roh-Power ist ja genügend vorhanden. Ich denke mal den jeweiligen Publishern wäre das ganze sogar mehr als recht wenn beide Parteien das Spiel zu 100% unterstützen würden.

uweskw
2010-04-02, 22:06:51
@Shaft
juristisch bin ich ganz gut bewandert...
Glaubt nur nicht dass bei NV die strategischen Entscheidungen von Blödeln getroffen werden. Die wissen ganz genau warum sie was machen. Wenn der Markt gespalten wird, wird er dadurch geschwächt.

Greetz
U.S.

Shaft
2010-04-02, 22:07:49
ist vergeblich .. hab ich schon vor ein paar hundert seiten gesagt .. hilft alles nix. als ob sie wollen, dass sich der markt aufspaltet und wir dann zustaende wie bei den konsolen haben "xbox vs ps3". fuer jedes spiel eine andere graka... das macht dann aber der pc user nicht mehr mit ..

Äpfel Birnenvergleich :rolleyes:

Erstens wird sich nüscht spalten und hats bisher noch nie gegeben.

Bei den Konsolen gehts nur um Spiele Exklusivität, zudem geschlossene Systeme, was du beim PC nicht hast.

Cubitus
2010-04-02, 22:10:25
@Shaft
juristisch bin ich ganz gut bewandert...
Glaubt nur nicht dass bei NV die strategischen Entscheidungen von Blödeln getroffen werden. Die wissen ganz genau warum sie was machen. Wenn der Markt gespalten wird, wird er dadurch geschwächt.

Greetz
U.S.

Und warum sollte ein Hersteller von High End Gamer Karten den Spielmarkt schwächen wollen ? :freak:

Nee, die versuchen halt nur auch in anderen Bereichen fernab der Penis-Länge besser als ATI zu sein.

AYAlf_2
2010-04-02, 22:10:34
Keine Angst, dazu wird es nicht kommen. PhysX bleibt bestehen, und ATI tut, wie üblich, nichts.

auch wenn du es 10000 mal sagst .. wird es dadurch nicht richtiger.

AYAlf_2
2010-04-02, 22:12:19
Und warum sollte ein Hersteller von High End Gamer Karten den Spielmarkt schwächen wollen ? :freak:

Nee die Versuchen halt nur auch in anderen Bereichen, fernab der Penis-Länge besser als ATI zu sein.
frag mal nvidia .. die wissen warum sie genau das vorhaben.

corvus
2010-04-02, 22:15:24
Ja, sorry. Ich meinte oben Bitch-Detect (ED-CFAA). =)



Nvidia tut viel dafür, dass man SLI als BQ-Enthusiast nicht kauft.

- Kein SGSSAA
- Hybriden sind inoffiziell und matschen fast jedes neue Spiel zu Brei
- SLI-AA-Modi kosten viel Leistung und verfügen über eine minderwertige Sample-Platzierung

Ergo, liebe Kalifornier: Kupfert bei Ati ab und liefert SGSSAA – aber 3dfx-Style, wo jede GPU für jeden SSAA-Modus ihre Sample-Hälfte beisteuert. Oder macht die Hybriden offiziell und kompatibler. Und programmiert für Furby-SLI endlich gescheites SLI-AA. Am besten alles. Dann reden wir nochmal über den Sinn von SLI. ;)

MfG,
Raff

hihi sogar Du wirst hier nicht wahrgenommen..... schon sehr bezeichnent...eigendlich.

Was ich aber im Grunde nicht verstehe ist wieso angeblich erwachsene so Blind sein können wenn sie dann nur wollen...

etwas Ironie, die großen Buben werdens verstehen.....oder auch nicht...wie dem auch sei ich freu mich auf die ersten 2 oder 3x480er in einem Rechner...und dann hoffendlcih auf ehrliche Aussagen...allerdings habe ich dahin so meine Befürchtungen...wenn ich das so lese....

Spasstiger
2010-04-02, 22:15:31
Keine Angst, dazu wird es nicht kommen. PhysX bleibt bestehen, und ATI tut, wie üblich, nichts.
http://www.amd.com/us/press-releases/Pages/amd_demonstrates_optimized-2009mar26.aspx
AMD fördert plattformunabhängige GPU-Physikbeschleunigung während NV auf einer proprietären Lösung herumreitet.

AYAlf_2
2010-04-02, 22:17:34
Äpfel Birnenvergleich :rolleyes:

Erstens wird sich nüscht spalten und hats bisher noch nie gegeben.

Bei den Konsolen gehts nur um Spiele Exklusivität, zudem geschlossene Systeme, was du beim PC nicht hast.

ach nein? du hast nicht feature x exclusiv fuer spiel y? bloedsinn!

sobald ati auch mit dem scheiss anfaengt .. bin ich raus.

corvus
2010-04-02, 22:19:25
könnten sie denn wenn sie wollten?

Hier auch wie dem auch sei...in Mafiosi2 gehts um Cuda und nicht um die PHx Gülle..den die juckt im Grunde noch nichtmal die größten grünen Fanboys.

Gast
2010-04-02, 22:20:02
http://www.amd.com/us/press-releases/Pages/amd_demonstrates_optimized-2009mar26.aspx
AMD fördert plattformunabhängige GPU-Physikbeschleunigung während NV auf einer proprietären Lösung herumreitet.


Das wäre allerdings ein deutlicher Fortschritt gegenüber Physx:
"...
"Havok’s awesome toolset has allowed us to deliver astonishing physics interactions in our games, including detailed real-time destruction and complex ragdoll models, and we are excited about using ATI Stream technology to pursue more astounding in-game accomplishments,” said Andrey Iones, chief operating officer of Saber Interactive. “We are excited that AMD and Havok are working together and leveraging an open standard like OpenCL.”
..."

Cubitus
2010-04-02, 22:20:39
auch wenn du es 10000 mal sagst .. wird es dadurch nicht richtiger.

Wo bleiben die ATI "exklusiven" Titel ?
Bis auf die DX11 Erweiterung und Dirt 2 hat sich doch kaum was getan.

frag mal nvidia .. die wissen warum sie genau das vorhaben.

Die wollen ihre Produkte eben optimal vertreiben,
deswegen auch die ganzen Techniken drum herum

Ich weiß nicht was es da nicht zu verstehen gibt,
Ich würde ja eine ATI Karte kaufen wenn dieses Drum herum + CF Nvidia ebenbürtig wäre. Aber das ist atm noch leider nicht so.

Aber ich klinke mich hier aus, ich schau jetzt Star Trek DS9 in 3D weiter :P

http://www.amd.com/us/press-releases/Pages/amd_demonstrates_optimized-2009mar26.aspx
AMD fördert plattformunabhängige GPU-Physikbeschleunigung während NV auf einer proprietären Lösung herumreitet.

In Publikationen und auf bunten Folien tut AMD immer sehr Viel, nur kommt anscheinend nichts davon bei den Spielern an..

IVN
2010-04-02, 22:23:04
http://www.amd.com/us/press-releases/Pages/amd_demonstrates_optimized-2009mar26.aspx
AMD fördert plattformunabhängige GPU-Physikbeschleunigung während NV auf einer proprietären Lösung herumreitet.
Zeig Früchte!

Shaft
2010-04-02, 22:30:35
Mit Havok hats sich wohl nicht viel getan, es sei mir ist was entgangen. Außerdem wie lange ist das schon im Gespräch, da hört man nichts mehr.

Außer ein Paar Kisten zerstören hat sich nicht viel getan, da bleibt HL2 das einzige Vorzeigespiel, vorerst.

Spasstiger
2010-04-02, 22:33:09
Havok-Spiele zeigen auch ohne GPU-Beschleunigung tolle Physik-Effekte (man schaue sich nur mal an, was in Garry's Mod alles bei guter Performance möglich ist). AMD hat eben ein Interesse daran, auch ein vernünftiges Software-Physik-Rendering hinzubekommen und darauf liegt auch der Schwerpunkt der Kooperation. Havok mit GPU-Beschleunigung wird noch früh genug auch in Spielen implementiert. Und das dann sowohl für AMD/ATI- als auch für NV-Hardware.
Wenn ich mir PhysX in UT3 anschaue, dann frage ich mich, warum das selbst auf den GPUs mit ihrer hochgezüchteten Rechenleistung so bescheiden läuft. Was optisch geboten wird, schlägt Garry's Mod (Source Engine, Havok) um ein Vielfaches, ganz ohne GPU-Beschleunigung der Physikberechnungen. Das Einzige, was mich an PhysX bislang beeindruckt, sind die Rauchsimulationen. Das hab ich so in Software noch nicht gesehen.

/EDIT: Beispiele für die Software-Physik in Garry's Mod:
- http://www.youtube.com/watch?v=LZe2fEK9Z7I
- http://www.youtube.com/watch?v=82SVpORfKDE
- http://www.youtube.com/watch?v=S-Yq_tfKsJE
Zugegebenermaßen, ein Core i7 @ 4 GHz darf es dafür schon sein.

Gast
2010-04-02, 22:35:28
Zeig Früchte!


Sollange Ihr hier weiter die grüne Propaganda Armee spielt und NVs Liedchen singt ist es für plattform-unabhängige Technologien doppelt schwer sich am Markt durchzusetzen. Aber das ist wohl auch gewollt so...

tombman
2010-04-02, 22:36:49
Zeig Früchte!
:lol: :up:

AMD= P/L-User
NV= Enthusiasten

Gast
2010-04-02, 22:46:18
Was für ein Gezanke um nichts.
Fakt:
Batman ohne Physx ist scheisse
Mafia 2 ohne Phsyx wird scheisse

Ob Physx sich durchsetzt oder wie Glide stirbt ... wayne!
Ich will JETZT Spiele in maximalen Details spielen und nicht in 3 Jahren.

AYAlf_2
2010-04-02, 22:47:51
:lol: :up:

AMD= P/L-User
NV= Enthusiasten

AMD = Bildqualitaet
NV = PhysX

:rolleyes:

Gast
2010-04-02, 22:50:27
als gast haette ich mich auch getraut sowas zu schreiben ... :freak: alles falsch! aber egal.
Ach du streitest ab das AMD an der Filterung spart?
Dann streitest du PCGHs Entdeckung des speziellen Crysissparmoduses ab?

Sehr gut, dann weiß ich woran ich bei dir bin. Objektivität brauche ich bei dir nicht erwarten, wenn du schon die Wahrheit mit einem schlichten "stimmt nicht" abblockst.

4xSGSSAA glättet überhaupt nicht mies!So mies wie 4xMSAA.
8x ist doch Pflicht. Nach deiner Auffassung.

Tatsächlich kostet selbst 4x oder 2x nicht unerheblich. 2x glättet wirklich zu mies, ein Hybrid wäre das Rchtige, wobei die auch bei größeren Modi sehr nützlich wären.

Shaft
2010-04-02, 22:50:29
Was für ein Gezanke um nichts.
Fakt:
Batman ohne Physx ist scheisse
Mafia 2 ohne Phsyx wird scheisse

Ob Physx sich durchsetzt oder wie Glide stirbt ... wayne!
Ich will JETZT Spiele in maximalen Details spielen und nicht in 3 Jahren.


Das ist doch mal ein Wort. :up:

So ist es, es ist schön es jetzt zu haben, absolutes Maximum an Grafik und ohne Phsyk ist Mist. Wer darauf verzichten will bitte.


@Spasstiger

Für mich ist nur Relevant was ich in Spiele zu sehen bekomme. Testmaps, Demos sind nur Spielerei.

So zeigt Crytek das Optimum an Grafik und Physik. Nur miss ich Cloth Animation, Partikeleffekte wie herumwehendes Laub, Putz der von Wänden bröselt bei Beschuss und korrekt Abhänge runter rollt sowie Rauch. Dies samt Physik wie Havok oder der CryEngine wäre der absolute perfekte Augenschmaus.

Coda
2010-04-02, 22:50:42
AMD = Bildqualitaet
Darüber kann man trefflich streiten.

Gast
2010-04-02, 22:51:28
AMD = Bildqualitaet
NV = PhysX

:rolleyes:Schwachsinn, BQ bot die X1900, aber seit G80 und R600 muss man einen Bogen um AMDs AF machen.

Spasstiger
2010-04-02, 22:57:02
Die einzigen GPU-PhysX-Spiele, die ich bislang intensiv gezockt habe, waren übrigens Mirror's Edge und UT3. 2 Stunden GPU-PhysX in UT3 haben gereicht, ein Mehrwert gegenüber der Standardversion ist nicht vorhanden. Und Mirror's Edge hat mich auch ohne die albernen Effekte amüsiert, die man mit einer vernünftigen Middleware auch auf der CPU flüssig hätte rendern können (zerspringende Scheiben und zerfetzende Stofffahnen).
Tolle Physik gabs neben der Source Engine auch in Crysis und GTA IV. Interessanterweise ganz in Software berechnet. PhysX ist imo nicht mehr als ein Nice to Have. So wie Edge-Detect-AA auf einer Radeon HD.

Schwachsinn, BQ bot die X1900, aber seit G80 und R600 muss man einen Bogen um AMDs AF machen.
Das AF hat sich seit dem R580 nicht verschlechtert. NV hat vom G71 zum G80 lediglich den größeren Sprung gemacht.

IVN
2010-04-02, 22:59:19
Havok-Spiele zeigen auch ohne GPU-Beschleunigung tolle Physik-Effekte (man schaue sich nur mal an, was in Garry's Mod alles bei guter Performance möglich ist). AMD hat eben ein Interesse daran, auch ein vernünftiges Software-Physik-Rendering hinzubekommen und darauf liegt auch der Schwerpunkt der Kooperation. Havok mit GPU-Beschleunigung wird noch früh genug auch in Spielen implementiert. Und das dann sowohl für AMD/ATI- als auch für NV-Hardware.
Wenn ich mir PhysX in UT3 anschaue, dann frage ich mich, warum das selbst auf den GPUs mit ihrer hochgezüchteten Rechenleistung so bescheiden läuft. Was optisch geboten wird, schlägt Garry's Mod (Source Engine, Havok) um ein Vielfaches, ganz ohne GPU-Beschleunigung der Physikberechnungen. Das Einzige, was mich an PhysX bislang beeindruckt, sind die Rauchsimulationen. Das hab ich so in Software noch nicht gesehen.

/EDIT: Beispiele für die Software-Physik in Garry's Mod:
- http://www.youtube.com/watch?v=LZe2fEK9Z7I
- http://www.youtube.com/watch?v=82SVpORfKDE
- http://www.youtube.com/watch?v=S-Yq_tfKsJE
Zugegebenermaßen, ein Core i7 @ 4 GHz darf es dafür schon sein.
Das sind nackte Levels, ohne richtige Texturen, ohne AI, ohne Scripts. Klar das es dann auf der CPU einigermassen gut läuft.

Spasstiger
2010-04-02, 23:01:21
Du kannst diese ganzen Spielereien auch in den Single-Player-Maps von HL2/EP1/EP2 nutzen, wenn du Garry's Mod installiert hast. Macht von der Performance her keinen Unterschied. Ich hab mit Garry's Mod auf jeden Fall mehr Zeit verschwendet als die PhyX-Fans mit Batman. ;)

INDEX75
2010-04-02, 23:02:40
Ich verstehe nicht ganz weshalb hier ständig über PhysX geschrieben und gestritten wird. Ist es nicht so das AF und vor allem AA die eigentlich ausschlaggebenden Punkte sein sollten?

Wie Spasstiger schon passend schrieb: "PhysX ist imo nicht mehr als ein Nice to Have."

tombman
2010-04-02, 23:23:29
AMD = Bildqualitaet

Jo, wenn BUGWELLEN BQ für dich sind ;)

Bzgl meiner Aussage:

Steam März 2010:

http://www.abload.de/img/steam032010trbe.png (http://www.abload.de/image.php?img=steam032010trbe.png)

MGpu = Enthusiast -> NV wins :cool:

derguru
2010-04-02, 23:30:46
lol steam,kein wunder mit sli kommt man erst auf den speed einer einzigen ati karte.das sind bestimmt die csler mit ihren 8800gt im sli. :lol:

Nazar
2010-04-02, 23:30:56
@uweskw

Du verstehst es nicht!


Nvidia hat Kohle dafür gelassen und Ageia übernommen, Physix gehört seit 2-3 Jahren nur Nvidia.

Cubitus hats glaub ich schon erwähnt und ich weiß nicht warum es nochmal wiederholt werden muss.

Es wäre wie Patentklau, Copyrightverletzung, ATI darf es nicht nutzen, es ist ein Nvidia Feature, Punkt.

Sag ich auch. Zudem gab es früher auch, vlt. häufiger als heute, das Grafikhersteller mit eigenen Features glänzten.

Aus meiner Sicht, Features die besonder herausstechen:
ATI=SGSSAA, P/L (obwohl mittlerweile die Preise hochgezogen worden) :rolleyes:
Nvidia=PhysX, Tesselation Performance, CUDA

Findet sich sicherlich mehr, habe jetzt aber kein Bock alles raus zu suchen.

Du und viele andere kapieren einfach nicht, dass sie "nur" Spieler sind, und keine Anteilseigener bei nV.
Wenn nV solche Soloprojekte durchdrückt geht das IMMER auf kosten der Spieler.
Wir können zur Zeit froh sein, dass es noch AMD und nV gibt. Wer sich noch an die Mondpreise zu G80 Zeiten erinnern kann, weil AMD dem nichts entgegen zu setzen hatte, wird mir zustimmen oder ist einfach nur blind.
Mit PhysX will nV NICHT dem Spieler etwas gutes tun (dafür sind die Effekte auch zu nebensächlich), sondern Ihre Marktanteile stärken.
Als Spieler sollte man solche Vorhaben immer kritisch betrachten.
EIN MONOPOL WAR NOCH NIE GUT!
Es Werden durch nV Spiele in der Entwicklung so manipuliert, dass Spieler mit anderen Grafikkarten, nicht mehr in den Genuss von Standards kommen
(Batmangate).
Wer seine Augen davor verschliesst, darf sich nicht wundern, wenn vielleicht mal 1000€ für seinen GPU Beschleuniger zahlen darf.

Spielbeeinflussenden Techniken sollten IMMER allen SPIELERN (egal von welchen Hersteller seine GPU kommt) zur Verfügung stehen!
PhysX geht aber in genau eine andere Richtung und die Agressivität mit welcher nV am Markt agiert, ist beisspiellos.

Es geht um die Spieler, nicht um die Aktionäre von nV.

Gast
2010-04-02, 23:31:07
http://www.abload.de/img/steam032010trbe.png (http://www.abload.de/image.php?img=steam032010trbe.png)

MGpu = Enthusiast -> NV wins :cool:
Noch schlimmer, AMD bedient mit MGPU sogar noch den Markt, den Nvidia mit SGPU bedient. ;)

Gast
2010-04-02, 23:35:15
Es Werden durch nV Spiele in der Entwicklung so manipuliert, dass Spieler mit anderen Grafikkarten, nicht mehr in den Genuss von Standards kommen
(Batmangate).

Versuchs mal bei der Heilsarmee die suchen immer Leute

tombman
2010-04-02, 23:37:18
kein wunder mit sli kommt man erst auf den speed einer einzigen ati karte.
Hmm, Reality-Check:

HD5970: 2 Gpus
GTX480: 1 Gpu

"Your shipment of fail has arrived" ;)

Gast
2010-04-02, 23:38:40
Es geht um die Spieler, nicht um die Aktionäre von nV.
Schwachsinn.
Schau dir die sogenannten Testberichte mal an. 8xMSAA ohne TAA. Jaja es geht um die Spieler. Glaubst du doch wohl selbst nicht.

Wer seine Augen davor verschliesst, darf sich nicht wundern, wenn vielleicht mal 1000€ für seinen GPU Beschleuniger zahlen darf.
Asburd.
Nichtmal Intel kann soviel für seine CPUs verlangen. AMD hin oder her.
Mal nebenbei bemerkt, Nvidia ist nicht AMDs Untergang. AMD hat mit seiner CPU Sparte einen imensen Vorteil, ich sehe keinen Grund AMD mit Samthandschuhen anzufassen.

Wir können zur Zeit froh sein, dass es noch AMD und nV gibt. Wer sich noch an die Mondpreise zu G80 Zeiten erinnern kann, weil AMD dem nichts entgegen zu setzen hatte, wird mir zustimmen oder ist einfach nur blind.
Was war das? Um die 500€, Richtung R600 Start Richtung 400€.
Erheblich billiger als eine 5970 heute oder zum Launch und zuedem echtes High-End.
Es sei denn du rechnest die ungeschminkte (nicht die zugegebene) Inflation bereits rein, dann hast du vollkommen Recht.

derguru
2010-04-02, 23:39:59
Hmm, Reality-Check:

HD5970: 2 Gpus
GTX480: 1 Gpu

"Your shipment of fail has arrived" ;)

die sind nicht dabei in der märz auflistung jedenfalls nicht die 480gtx:rolleyes:
die 480 ist sozusagen eine multigpu.;D

wart mal ab wie die steamauflistung in paar monaten aussieht und damit meine ich nicht mal sli vs cf. sondern allgemein:eek:

du kannst nv wins schreiben wie oft du willst.
wenn nv so weiter machen gibt es für den gamer markt bald nichts mehr in hardware sondern nur noch in software aller physX.;D

tombman
2010-04-02, 23:44:12
die 480 ist sozusagen eine multigpu.;D
Davon träumst du höchstens ;)

Tatsache ist, daß enthusiastische Multi-Gpu-User SLI massiv CF vorziehen...

Ach ja, hast du dein CF Sys noch?

Exxtreme
2010-04-02, 23:46:22
Tatsache ist, daß enthusiastische Multi-Gpu-User SLI massiv CF vorziehen...

Liegt nicht unbedingt daran. Es gab etliche Midrange-MGPU-Karten, die in Fertig-PCs verbaut waren. Steam wertet das leider nicht aus.

corvus
2010-04-02, 23:55:51
möcht wissen um was ihr euch überhaupt streitet :D

Fermi geht nur mit Wasser 2 oder 3 Karten sowieso...

Verbrauch...naja da oben in dem Bereich isses wohl eh wurscht....

Metro hab ich schon gezockt in DX11 mit allem Brimborium wenn auch in einer kleineren :D Auflösung....und etwas stockend....vom Hocker gehauen hats mich nett..weder gameplay noch DX11 und PHx Gedöhns (240GT)

Ehe ihr in den Genuß kommt :D juckt das Spielchen kein AAS mehr...

Und wenn dann kauf ich mir ne Woche später den Nachfolger :P

Coda
2010-04-02, 23:56:02
Das AF hat sich seit dem R580 nicht verschlechtert.
Aber sicher hat es das. R600-RV770 filtern sichtbar schlechter als R5xx.

RV870 zumindest mit A.I. off auch. R5xx war damit lupenrein bei der Abtastung, nur die Gradientenrechnung war etwas grausig.

uweskw
2010-04-02, 23:58:03
Was für ein Gezanke um nichts.
Fakt:
Batman ohne Physx ist scheisse
Mafia 2 ohne Phsyx wird scheisse

Ob Physx sich durchsetzt oder wie Glide stirbt ... wayne!
Ich will JETZT Spiele in maximalen Details spielen und nicht in 3 Jahren.

Wichtiges hergeben für einen kleinen, momentanen Vorteil.
Bestechlich und doof....
Wieso muss ich da nur an Indianer und Glasperlen denken?

greetz
U.S.

Megamember
2010-04-03, 00:01:56
Fermi geht nur mit Wasser 2 oder 3 Karten sowieso...
P

Solange man nicht Furmark spielt und evt. noch einen Zusatzlüfter von unten an die Karte blasend lässt isses absolut auszuhalten mit Lüfter sogar leiser als die 5870.
Und im HArdocp Test gingen die Karten selbst im SLI nie über 93 Grad.

corvus
2010-04-03, 00:02:00
Davon träumst du höchstens ;)

Tatsache ist, daß enthusiastische Multi-Gpu-User SLI massiv CF vorziehen...

Ach ja, hast du dein CF Sys noch?


Da gehts aber um die Profile <> nHancer und AI und nicht um Rot oder Grün, X² hat ich auch mal aber sowas ohne nhancer und dafür AI hält kein Mensch aus :D

corvus
2010-04-03, 00:03:17
Solange man nicht Furmark spielt und evt. noch einen Zusatzlüfter von unten an die Karte blasend lässt isses absolut auszuhalten mit Lüfter sogar leiser als die 5870.
Und im HArdocp Test gingen die Karten selbst im SLI nie über 93 Grad.

Jo :lol: mit offenem Gehäuse und Balkontür bei 8 Grad Zimmertemp von was träumst du Nachts?
Und mit nem Lüfter mehr auch noch leiser....ohman...normal sollt man garnicht antworten...

Megamember
2010-04-03, 00:05:09
Jo :lol: mit offenem Gehäuse und Balkontür bei 8 Grad Zimmertemp von was träumst du Nachts?


Nee das hab ich nicht geträumt ATI-Fanboychen, tschuldige das ich jetzt dein Weltbild zerstöre:

http://www.hardocp.com/article/2010/04/01/geforce_gtx_480_real_world_temperatures_sound

Und das mit dem Zusatzlüfter stimmt wirklich, den Test such ich jetzt aber nichtmehr extra für dich.

Spasstiger
2010-04-03, 00:05:12
RV870 zumindest mit A.I. off auch. R5xx war damit lupenrein bei der Abtastung, nur die Gradientenrechnung war etwas grausig.
Nach dem G80-Release wurde der R580 doch für sein Flimmer-AF abgestraft. Siehe z.B. hier:
Auf dem R580 werden beinahe alle Winkel behandelt, allerdings flimmert es sichtbar munter vor sich hin – der G71 ist in der High-Quality-Einstellung gar noch empfindlicher. Anders dagegen der G80, der nicht ganz kritiklos rendert, aber um Einiges ruhiger als alle derzeit auf dem Markt erhältlichen Grafikkarten seine Arbeit verrichtet.
http://www.computerbase.de/artikel/grafikkarten/2006/test_nvidia_geforce_8800_gtx/7/#abschnitt_af_kontrolliert
Ich dachte, der R600 und seine Nachfolger hätten diesbezüglich keine weiteren Verschlechterungen gebracht.

/EDIT: Laut dem 2900-XT-Artikel von Computerbase wurde das AF beim R600 in jeder Hinsicht gegenüber dem R580 verbessert: http://www.computerbase.de/artikel/grafikkarten/2007/test_ati_radeon_hd_2900_xt/7/#abschnitt_af_kontrolliert.
Bei default-Einstellung sind die Vorteile sowieso klar (Bugwellen durch biAF weniger sichtbar, geringere Blickwinkelabhängigkeit), aber auch bei maximal einstellbarer Qualität soll sich das AF verbessert haben (geringere Flimmeranfälligkeit).
So wie ich das sehe, wurde das AF bei ATI sukkzessive verbessert, von der Radeon 8500 bis zur Radeon HD5K.

uweskw
2010-04-03, 00:12:17
Mal grundsätzlich.
Gibts schon Berichte ob NV mit Fermi die MR endgültig beseitigt hat?
Das wäre mal ein wirklicher Kaufgrund für mich.

Greetz
U.S.

Coda
2010-04-03, 00:14:34
Nach dem G80-Release wurde der R580 doch für sein Flimmer-AF abgestraft.
R600 flimmert noch schlimmer.

/EDIT: Laut dem 2900-XT-Artikel von Computerbase wurde das AF beim R600 in jeder Hinsicht gegenüber dem R580 verbessert:
Dann reden sie Stuss. Glaub's oder nicht.

So wie ich das sehe, wurde das AF bei ATI sukkzessive verbessert, von der Radeon 8500 bis zur Radeon HD5K.
Nein haben sie nicht. R5xx filtert ohne A.I. bis auf die Gradienten so gut wie NVIDIA HQ.

Das kann keiner der ATI-Chips in der Reihe R600-RV870.

tombman
2010-04-03, 00:23:58
Jetzt stimmts:

http://www.abload.de/img/fermi2612sx4w9.jpg (http://www.abload.de/image.php?img=fermi2612sx4w9.jpg)

Z'blöd zum Überleben ;)

derguru
2010-04-03, 00:28:04
Nee das hab ich nicht geträumt ATI-Fanboychen, tschuldige das ich jetzt dein Weltbild zerstöre:

http://www.hardocp.com/article/2010/04/01/geforce_gtx_480_real_world_temperatures_sound

Und das mit dem Zusatzlüfter stimmt wirklich, den Test such ich jetzt aber nichtmehr extra für dich.

der lüfter läuft bei metro2033 auf 76% und wenn ich das mit der lautstärke vom pcgh video vergleiche wo es nur bei 10% mehr lag dann gute nacht und hält die karte bei ca.93°C.
so eine karte dürfte nie in serie gehen aber 2,3 leute werden sich finden.

XFX war clever genug erstmal bye,bye zu sagen.

Spasstiger
2010-04-03, 00:30:46
R5xx filtert ohne A.I. bis auf die Gradienten so gut wie NVIDIA HQ.
Wieso flimmert dann ein G80 nachweislich weniger als ein R580? Die unterschiedliche Gradientenberechnung hat ja eigentlich keinen Einfluss auf das Texturflimmern.

Bioshock
2010-04-03, 00:32:31
Nen paar mehr wern es bestimmt :) ATi hat doch ihre crap chips auch verkaufen können obwohl sie die schlechtere BQ,lahme und mehr strom verbrauchten ;)
dazu gibts halt uns fanboys.

mfg

Megamember
2010-04-03, 00:34:25
der lüfter läuft bei metro2033 auf 76% und wenn ich das mit der lautstärke vom pcgh video vergleiche wo es nur bei 10% mehr lag dann gute nacht und hält die karte bei ca.93°C.
so eine karte dürfte nie in serie gehen aber 2,3 leute werden sich finden.

XFX war clever genug erstmal bye,bye zu sagen.

Aus dem Hardocp Fazit:
Once the fan RPM breaks the 70% mark as told by MSI's Afterburner program, the fan on the card gets fairly loud, but it does not have that annoying "dustbuster" whine that the FX5800 had. Of course you can make the GTX 480 fan obnoxiously loud and annoying, but you have to get it hot and spun up into the 85%+ range. Doing that is going to require a chassis with terrible airflow or an ambient air temp that is very toasty.

"The GTX 480 single card is a much different animal than the SLI configuration. I spent a full day gaming on it, and quite frankly it did not leave me with a bad taste in my mouth...or an earache. Again, you can hear the card's fan spinning at all times, but it was not annoying. With a well ventilated case and an ambient temperature of less than 80F in your house, you should be OK with the GTX 480 sound profile. And again, you WILL hear the GTX 480 any time you use it, but it is not an abusive sound. I have to listen for my Radeon 5970, and if I do while it is under load I can hear it, but honestly I never heard it till I listened for it. If the GTX 480 is under load, you just hear it without focusing on it."

Coda
2010-04-03, 00:36:51
Wieso flimmert dann ein G80 nachweislich weniger als ein R580.
Weil R580 mit A.I. on mehr flimmert, aber nicht mit off.

Spasstiger
2010-04-03, 00:40:36
Weil R580 mit A.I. on mehr flimmert, aber nicht mit off.
Wenn ich mich recht erinnere, hat man Anfang 2007 das Texturflimmern des R580 in allen Settings in den Foren bemängelt, nachdem man auf dem G80 gesehen hat, wie gut AF aussehen kann.
Und CB schreibt auch, dass selbst bei maximaler Qualität das R580-AF deutlich mehr flimmert als das G80-AF:
Und auch hier kann der G80 sich nicht nur von der Konkurrenz weit absetzen, er triumphiert regelrecht über den G71 und den R580. Während auf den letztgenannte GPUs selbst bei maximal möglicher Texturfilterung das Bild munter vor sich her flimmert, zeigt der G80 schon in der Default-Einstellung ein ruhiges Bild.

Coda
2010-04-03, 00:42:40
Wenn ich mich recht erinnere, hat man Anfang 2007 das Texturflimmern des R580 in allen Settings in den Foren bemängelt, nachdem man auf dem G80 gesehen hat, wie gut AF aussehen kann.
Dann erinnerst du dich falsch.

Es gibt viel Verklärung in dieser Hinsicht. RV770 filtert definitiv schlechter als R5xx damals.

Und CB schreibt auch, dass selbst bei maximaler Qualität das R580-AF deutlich mehr flimmert als das G80-AF:
G71 hat extrem beschissen geflimmert. Viel schlimmer als R5xx. Der Satz ergibt nur Sinn, wenn sie G71 HQ damit meinen und nicht R580 A.I. off.

Ich hab damals auf meiner X1800 XT UT2004 mit A.I. off gespielt und es war glatt wie ein Babypopo. Wenn du mir das nicht glauben willst, dann sei es so, aber für mich ist hier EOD.

Gast
2010-04-03, 00:48:42
Mal grundsätzlich.
Gibts schon Berichte ob NV mit Fermi die MR endgültig beseitigt hat?
Das wäre mal ein wirklicher Kaufgrund für mich.

Greetz
U.S.

wenn ja, hätte nv das schon längst die ganze welt erfahren lassen...

corvus
2010-04-03, 00:55:02
Aus dem Hardocp Fazit:
Once the fan RPM breaks the 70% mark as told by MSI's Afterburner program, the fan on the card gets fairly loud, but it does not have that annoying "dustbuster" whine that the FX5800 had. Of course you can make the GTX 480 fan obnoxiously loud and annoying, but you have to get it hot and spun up into the 85%+ range. Doing that is going to require a chassis with terrible airflow or an ambient air temp that is very toasty.

"The GTX 480 single card is a much different animal than the SLI configuration. I spent a full day gaming on it, and quite frankly it did not leave me with a bad taste in my mouth...or an earache. Again, you can hear the card's fan spinning at all times, but it was not annoying. With a well ventilated case and an ambient temperature of less than 80F in your house, you should be OK with the GTX 480 sound profile. And again, you WILL hear the GTX 480 any time you use it, but it is not an abusive sound. I have to listen for my Radeon 5970, and if I do while it is under load I can hear it, but honestly I never heard it till I listened for it. If the GTX 480 is under load, you just hear it without focusing on it."

was willste eigendlich erzählen?
Das bei 23 Grad und offenem Gehäuse und eigendlich 0 in Worten NULL Last lt. Riva der Kram 80 Grad kalt bleibt und mit einem Lüfter zusätzlich auch noch leiser wird...oder versteh ich dich gerade irgendwie nicht?

Gast
2010-04-03, 00:57:22
Wenn man ein ordentliches Gehäuse nimmt, gibts keine Probleme auch nicht mit SLI TschiTeeIx 480

Spasstiger
2010-04-03, 00:59:35
Ich hab damals auf meiner X1800 XT UT2004 mit A.I. off gespielt und es war glatt wie ein Babypopo. Wenn du mir das nicht glauben willst, dann sei es so, aber für mich ist hier EOD.
Das ist eine extrem subjektive Aussage. Ich wette mit dir, dass ich Stellen in UT 2004 finde, die auch auf einer GTX 260 @ HQ flimmern. Aber generell hat UT 2004 keine besonders starke Flimmerneigung. Ohne geschulten Blick sieht das auf allen Karten mit 16:1 AF und 8xMSAA + Transparenz-AA aalglatt aus.
Ich habs gerade mit max. möglicher Qualität auf meiner HD 4850 angeworfen und einige flimmernde Texturen gefunden. Bei Gelegenheit werde ich mir dieselben Stellen auf einer GTX 260 anschauen. Ich vermute, dass sie dort genauso flimmern (böser Content). Wobei Flimmern fast übertrieben ist, es handelt sich um wandernde Moire-Muster, die Jemanden, der nicht so "Spiele mit der Lupe anschau"-geschädigt ist wie ich, gar nicht auffallen würde. ;) Ich schaffe es ja nichtmal, den Leuten Tearing zu erklären, wenn ich es ihnen vorführe. Die sehen da einfach nix, was sie stören würde.

P.S.: Du behauptest indirekt, dass Computerbase nicht in der Lage ist, Treibereinstellungen richtig vorzunehmen und Tools zu verwenden.

/EDIT: Hier die Stelle in UT 2004, die Map sollte Jeder kennen, der das Spiel hat:
http://www.abload.de/thumb/moire1r5qc.png (http://www.abload.de/image.php?img=moire1r5qc.png) http://www.abload.de/thumb/moire2j50x.png (http://www.abload.de/image.php?img=moire2j50x.png)
Die Flimmerstelle ist links vom Fadenkreuz. Das Bild zeigt einen RV770 mit 16:1 AF und Catalyst A.I. @ off. Ein GT200 mit 16:1 HQ-AF zum Vergleich wäre interessant.

corvus
2010-04-03, 01:03:22
Wenn man ein ordentliches Gehäuse nimmt, gibts keine Probleme auch nicht mit SLI TschiTeeIx 480
Jo nen Kühlschrank... N8 zusammen

Megamember
2010-04-03, 01:08:02
was willste eigendlich erzählen?
Das bei 23 Grad und offenem Gehäuse und eigendlich 0 in Worten NULL Last lt. Riva der Kram 80 Grad kalt bleibt und mit einem Lüfter zusätzlich auch noch leiser wird...oder versteh ich dich gerade irgendwie nicht?

Nee, hat zwar nix mit der ANtwort oben zu tun aber die 480 war mit einem 120er Lüfter zusammen der unterhalb auf den Kühler geblasen hat leiser als die 5870 unter Last weil ihr Lüfter dadurch nichtmehr so hochdrehen musste.
Aber das ist scheinbar zu hoch für dich.

Coda
2010-04-03, 01:11:19
P.S.: Du behauptest indirekt, dass Computerbase nicht in der Lage ist, Treibereinstellungen richtig vorzunehmen und Tools zu verwenden.
Ja, das behaupte ich. Oder das sie im Text dann etwas durcheinandergebracht haben. Wie gesagt ergibt schon allein das Zitat von dir keinen Sinn. G71 war das schlimmste was die Erde jemals erblickt hat was das AF angeht - selbst mit HQ. Das sie sich darauf beziehen ist doch offensichtlich.

Und nein, das ist nicht subjektiv. Ich kann sowas durchaus beurteilen. Und RV770 flimmert immer. R580 nicht.

Spasstiger
2010-04-03, 01:14:57
@Coda: Ein RV770 flimmert nicht immer, es hängt vom Content ab. Ein RV770 flimmert manchmal.

Coda
2010-04-03, 01:17:51
Hör auf mit dieser Korinthenkackerei.

RV770 flimmert EGAL ob mit A.I. off oder on SCHLIMMER als R580. Wenn du mir dieses Statement nicht abnimmst, ist das NICHT mein Problem.

Ich habe mich viel zu lange mit der ATI-Cheaterei beschäftigt um die Verhältnisse nicht exakt im Kopf zu haben.

Das Statement, dass ATI das AF immer verbessert haben STIMMT NICHT. R600 war ein Rückschritt und diesen haben sie bis RV770 beibehalten. R600 war nur eh schon so scheiße, dass das völlig unter dem Radar verschwand.

_DrillSarge]I[
2010-04-03, 01:19:43
@Coda: Ein RV770 flimmert nicht immer, es hängt vom Content ab. Ein RV770 flimmert manchmal.
zwischen den mip-übergängen flimmert es (dank komische "bri"-optimierung) eigentlich immer.

corvus
2010-04-03, 01:20:47
Nee, hat zwar nix mit der ANtwort oben zu tun aber die 480 war mit einem 120er Lüfter zusammen der unterhalb auf den Kühler geblasen hat leiser als die 5870 unter Last weil ihr Lüfter dadurch nichtmehr so hochdrehen musste.
Aber das ist scheinbar zu hoch für dich.

:lol:
schon klar und wenn ich den unter die ATI schnalle was ist dann... zu hoch ist wohl einiges für dich.....

Dimon
2010-04-03, 01:30:18
:lol:
schon klar und wenn ich den unter die ATI schnalle was ist dann... zu hoch ist wohl einiges für dich.....

Wird nicht funzen, da das Graka Gehäuse vollverschalt ist und dort keine Frischluft eindringen würde :biggrin:

http://media.onlinekosten.de/old/bilder/2009/09/radeon_hd_5870.jpg

Übrigens würde es auch mit einer GTX470 nicht funktionieren...

Sonyfreak
2010-04-03, 01:56:38
Ein GT200 mit 16:1 HQ-AF zum Vergleich wäre interessant.Büddeschön (http://www.bilderkiste.org/show/original/a55c9f8ae20f85a5d5909688fdb21132/UT2004_2010-04-03_01-51-56-82.png) :)

mfg.

Sonyfreak

Gast
2010-04-03, 02:00:40
Büddeschön (http://www.bilderkiste.org/show/original/a55c9f8ae20f85a5d5909688fdb21132/UT2004_2010-04-03_01-51-56-82.png) :)



Schaut sauber aus, kein Moire.

Gast
2010-04-03, 03:22:06
Hör auf mit dieser Korinthenkackerei.

RV770 flimmert EGAL ob mit A.I. off oder on SCHLIMMER als R580. Wenn du mir dieses Statement nicht abnimmst, ist das NICHT mein Problem.

Ich habe mich viel zu lange mit der ATI-Cheaterei beschäftigt um die Verhältnisse nicht exakt im Kopf zu haben.

Das Statement, dass ATI das AF immer verbessert haben STIMMT NICHT. R600 war ein Rückschritt und diesen haben sie bis RV770 beibehalten. R600 war nur eh schon so scheiße, dass das völlig unter dem Radar verschwand.

Wie ist das AF vom RV870 verglichen mit R580 / R600 / RV770? Sowohl mit A.I. off als auch A.I. standard?

Gast
2010-04-03, 04:59:51
Die Hybriden und SSAA ist auch bei nVidia höchst innoffiziell und funzen gerade bei neueren Games schlechter als ATi´s SGSSAA. :P
Wer weiss wie lange die noch angeboten werden.Wie lange? Die Frage ist recht eindeutig zu beantworten: So lange die Enthusiasten sie haben wollen.
Zum G80-Start waren sie kurzzeitig nicht verfügbar, NV wollte sie fallen lassen. Das ist überhaupt nicht gut angekommen und nach einigen Protesten waren sie wieder da. IMHO wohl der größte Unterschied zwischen ATI und NV ist die Reaktion auf Kundenwünsche. Bei ATI gibt es nur das "Friss oder stirb!"-Menü, was zugegebenermaßen einige sehr schmackhafte Gänge aufbieten kann. Bei NV müssen nur genug Leute etwas nachdrücklich fordern und es wird umgesetzt.
Wenn unsere SGSSAA-Fans also ihr Anliegen etwas deutlicher an sie herantragen würden... :idea:
Und bitte dann auch kräftig für alternative Downfilter werben. 32xS mit SGSSAA-Anteil statt SGMSAA und dann noch WT, ED oder Gauss als Downfilter :O

Exxtreme
2010-04-03, 09:06:43
Bei NV müssen nur genug Leute etwas nachdrücklich fordern und es wird umgesetzt.
Wenn unsere SGSSAA-Fans also ihr Anliegen etwas deutlicher an sie herantragen würden... :idea:
Sehe ich nicht so. Ich vermute, dass Nvidia es nicht unbedingt will, dass man mit Supersampling Benchmarks fährt. Also bieten sie es offiziell nicht an.

IMHO hört AMD eher auf die Kundschaft. Früher haben sie kein SSAA angeboten, jetzt bieten sie es an. Haben sich auch viele Leute gewünscht. Und wenn etwas offiziell angeboten wird dann wiegt es IMHO schwerer als wenn etwas nur über Registry-Hacks oder Third-Party-Tools verfügbar ist.

Schlammsau
2010-04-03, 09:09:21
Jo, wenn BUGWELLEN BQ für dich sind ;)

Bzgl meiner Aussage:

Steam März 2010:

http://www.abload.de/img/steam032010trbe.png (http://www.abload.de/image.php?img=steam032010trbe.png)

MGpu = Enthusiast -> NV wins :cool:

Sorry aber bevor nicht eindeutig geklärt ist ob die 4850X2, 4870X2 und 5970 auch wirklich als Crossfire erkannt werden von STEAM, ist dieses Diagramm wertlos.

tombman
2010-04-03, 09:11:57
Sorry aber bevor nicht eindeutig geklärt ist ob die 4850X2, 4870X2 und 5970 auch wirklich als Crossfire erkannt werden von STEAM, ist dieses Diagramm wertlos.
Wieso sollte es nicht erkannt worden sein?

Spasstiger
2010-04-03, 09:20:22
Büddeschön (http://www.bilderkiste.org/show/original/a55c9f8ae20f85a5d5909688fdb21132/UT2004_2010-04-03_01-51-56-82.png) :)

mfg.
SonyfreakUi, das ist echt mal ein Kaufargument für eine NV-Karte. :eek: Jetzt bräuchte ich noch einen Vergleichsscreen von einem R580.

Schlammsau
2010-04-03, 09:24:24
Wieso sollte es nicht erkannt worden sein?

Ich weiss es eben nicht, aber ich habe das Gefühl, diese Karten werden oder wurden nicht als MGPU Lösungen erkannt und sind somit nicht in der Statistik. Kann mich aber auch täuschen.....SLi wird aber trotzdem vor Crossfire sein.

Grestorn
2010-04-03, 09:24:27
AMD = Bildqualitaet

Wie amüsant, dass BQ auf einmal so wichtig ist, wo sie doch jahrelang keine Rolle spielen durfte, als ATI weder SSAA noch perfektes AF anbot.

Kaum hat ATI in einer der beiden Disziplinen ohne Frage die Konkurenz überholt, schon wird BQ auf einmal das Mantra.

Ich finde diese Diskussion mehr als lächerlich. Vorallem, dass die ATI Fans nicht müde werden, den nVidia Fans vorzuwerfen, sie würden für ihren Hersteller Propaganda machen.

Dabei scheinen sie wohl erst dann zufrieden zu sein, wenn der letzte der Schreiber in diesem Thread ATI zu Füßen liegt und nVidia verteufelt.

Warum ist es so schwer zu akzeptieren, dass es Menschen gibt, denen ATI mehr zusagt, und anderen, denen nVidia mehr zusagt? Muss man sich deswegen in seiner Männlichkeit oder Intelligenz beleidigt fühlen?!

Gast
2010-04-03, 09:34:22
Wie amüsant, dass BQ auf einmal so wichtig ist, wo sie doch jahrelang keine Rolle spielen durfte, als ATI weder SSAA noch perfektes AF anbot.

Kaum hat ATI in einer der beiden Disziplinen ohne Frage die Konkurenz überholt, schon wird BQ auf einmal das Mantra.

Ich finde diese Diskussion mehr als lächerlich. Vorallem, dass die ATI Fans nicht müde werden, den nVidia Fans vorzuwerfen, sie würden für ihren Hersteller Propaganda machen.

Dabei scheinen sie wohl erst dann zufrieden zu sein, wenn der letzte der Schreiber in diesem Thread ATI zu Füßen liegt und nVidia verteufelt.

Warum ist es so schwer zu akzeptieren, dass es Menschen gibt, denen ATI mehr zusagt, und anderen, denen nVidia mehr zusagt? Muss man sich deswegen in seiner Männlichkeit oder Intelligenz beleidigt fühlen?!


Als ob sich da irgend eine Seite was nehmen würde. Du ergreifst doch auch nur durchgehend Partei für eine Seite und machst der anderen Vorwürfe. Machst also nichts anderes als das, was du anderen Vorwirfst.

Genau haben die NV-ANhänger jahrelang SSAA als das non-plus-ultra gefeiert, und jetzt wo es AMD auch hat und das sogar in einem besseren Modus ist es auf einmal nicht mehr so wichtig.

Gast
2010-04-03, 09:35:04
Sehe ich nicht so. Ich vermute, dass Nvidia es nicht unbedingt will, dass man mit Supersampling Benchmarks fährt. Also bieten sie es offiziell nicht an.Was bei den Erfahrungen, die sie in den Zeiten der offiziellen Verfügbarkeit gemacht haben, wohl mehr als verständlich ist. Ob offiziell oder inoffiziell kann ja egal sein, wenn es denn so oder so vorhanden ist.
Wobei das recht naheliegende 16xS vs 8xSGSSAA (beides 8x8 EER + ähnliche effektive LOD-Verschiebung) ATI wohl kaum schmecken dürfte :udevil:
IMHO hört AMD eher auf die Kundschaft. Früher haben sie kein SSAA angeboten, jetzt bieten sie es an. Haben sich auch viele Leute gewünscht. Und wenn etwas offiziell angeboten wird dann wiegt es IMHO schwerer als wenn etwas nur über Registry-Hacks oder Third-Party-Tools verfügbar ist.Wie viele Jahre hat das gedauert, in denen du und viele andere (darunter unter anderem auch meine Wenigkeit) immer und immer wieder danach verlangten? Und für welche HW wurde es freigegeben? Für jede, die damit beworben wurde? Zumindest mir wäre es neu, dass SGSSAA bis hinunter zur R300 verfügbar wäre. Anders NV: Jeder neue Modus war von Anfang an für jede HW verfügbar, welche die technischen Voraussetzungen bietet. Der eine oder andere mochte nur für manche HW offiziell verfügbar sein, inoffiziell hingegen liefen und laufen sie überall. Dass nur NV jemals auf Kritik an der Texturfilterung mit Verbesserungen per SW reagiert hat sollten wir auch nicht vergessen.
Deine Meinung sei dir natürlich unbenommen, nur kann ich das Ausräumen diverse Jahre anhaltender Defizite nicht unbedingt als gleichwertig ansehen im Vergleich zur Reaktion auf Forderungen der Kundschaft innerhalb weniger Wochen. Klar, perfekt ist auch NV nicht, man bedenke nur, wie lange sich das Trauerspiel mit der Auflösungsskalierung schon dahinschleppt...

Schlammsau
2010-04-03, 09:35:56
Wie amüsant, dass BQ auf einmal so wichtig ist, wo sie doch jahrelang keine Rolle spielen durfte, als ATI weder SSAA noch perfektes AF anbot.

Kaum hat ATI in einer der beiden Disziplinen ohne Frage die Konkurenz überholt, schon wird BQ auf einmal das Mantra.

Ich finde diese Diskussion mehr als lächerlich. Vorallem, dass die ATI Fans nicht müde werden, den nVidia Fans vorzuwerfen, sie würden für ihren Hersteller Propaganda machen.

Dabei scheinen sie wohl erst dann zufrieden zu sein, wenn der letzte der Schreiber in diesem Thread ATI zu Füßen liegt und nVidia verteufelt.

Warum ist es so schwer zu akzeptieren, dass es Menschen gibt, denen ATI mehr zusagt, und anderen, denen nVidia mehr zusagt? Muss man sich deswegen in seiner Männlichkeit oder Intelligenz beleidigt fühlen?!

So ist es nicht.....jetzt wo ATi seit nem halben Jahr perfektes SGSSAA und ein leicht verbessertes AF bietet, mir persönlich nicht soooo wichtig aber nice 2 have, gelten die alten nVidia Fanboy Argumente nicht mehr. Aber trotzdem ist ATi prinzipiell scheisse. Was einfach nicht stimmt!
Gerade die HD5000er Serie ist einfach sehr gut geworden und zeigt das ATi auch was für High End Kunden macht. Eyefinity 6 ist nichts für mich, aber trotzdem eine sehr beeindruckende Demonstration des technisch machbaren.
nVidia kann das nicht, nach wie vor gehen nur 2 Monitore mit einer Karte. Aber dieses Feature was klar an Enthusiasten gerichtet ist, wird kleingeredet. Von Praxisfremd oder nicht Alltagstauglich wird hier gesprochen. Als ob alles von nVidia Alltagstauglich wäre.

Ich meine ATi zieht momentan sehr gut nach und überhohlt auch teilweise die Konkurrenz, dass muss man anerkennen.

Lotzi
2010-04-03, 09:39:00
http://extreme.pcgameshardware.de/user-news/95699-xfx-will-keine-gtx470-und-gtx480-verkaufen.html

corvus
2010-04-03, 09:40:00
Ui, das ist echt mal ein Kaufargument für eine NV-Karte. :eek: Jetzt bräuchte ich noch einen Vergleichsscreen von einem R580.

Mit UT kann ich nicht dienen, event hilft das>AI standard

http://www.abload.de/thumb/masseffect22010-04-030udxs.png (http://www.abload.de/image.php?img=masseffect22010-04-030udxs.png)

Grestorn
2010-04-03, 10:07:13
Als ob sich da irgend eine Seite was nehmen würde. Du ergreifst doch auch nur durchgehend Partei für eine Seite und machst der anderen Vorwürfe. Wo denn bitte? Mich nervt nur das Gebashe. Und, ja, ich gebe zu, mich nervt vorallem das Gebashe der ATI Fraktion, weil ich es für unsachlicher halte. Mehr Parteilichkeit kann man mir aber eigentlich kaum vorwerfen.

Genau haben die NV-ANhänger jahrelang SSAA als das non-plus-ultra gefeiert, und jetzt wo es AMD auch hat und das sogar in einem besseren Modus ist es auf einmal nicht mehr so wichtig.

Wer, von den nVidia Anhängern, hat denn jemals gesagt, dass es nicht mehr wichtig sei? Habt ihr alle eine Leseschwäche? Oder eine selektive Wahrnehmung? SSAA ist für mich genauso wichtig wie immer, und ATI's Lösung ist sehr gut, m.E. deutlich besser als die aktuelle nVidia Lösung.

Ein echter Pluspunkt für ATI, wie ich ja schon schrieb. Aber muss deswegen jeder, der sich trotzdem keine ATI kauft, weil die anderen Faktoren eben auch eine Rolle spielen, sich gefallen lassen müssen, zugeflamet zu werden?

Grestorn
2010-04-03, 10:11:42
So ist es nicht.....jetzt wo ATi seit nem halben Jahr perfektes SGSSAA und ein leicht verbessertes AF bietet, mir persönlich nicht soooo wichtig aber nice 2 have, gelten die alten nVidia Fanboy Argumente nicht mehr. Aber trotzdem ist ATi prinzipiell scheisse. Was einfach nicht stimmt!

Ich sehe die BQ nicht als Fanboy-Argument. Es muss nur jeder für sich entscheiden, wie wichtig das ist. Dass nVidia kein SGSSAA kann, ist für mich ehrlich schmerzhaft.

Das AF von ATI hat sich aber für mich keinen Deut gebessert. Allerdings wäre das für mich, alleine für sich genommen, auch kein Grund von ATI abzusehen, es ist die Summe der Dinge, nicht das AF alleine. Zumal das SGSSAA die AF Schwäche für mich mehr als aufwiegt.

Gerade die HD5000er Serie ist einfach sehr gut geworden und zeigt das ATi auch was für High End Kunden macht. Eyefinity 6 ist nichts für mich, aber trotzdem eine sehr beeindruckende Demonstration des technisch machbaren. Auch bei Eyefinity muss jeder für sich entscheiden, wie wichtig ihm das ist. Für mich ist die Antwort klar: Derzeit gar nicht.

Ich meine ATi zieht momentan sehr gut nach und überhohlt auch teilweise die Konkurrenz, dass muss man anerkennen.

Korrekt. Und das ist gut so. Keiner will das ATI nehmen. Wäre schön, wenn man dennoch nVidia kaufen dürfte, ohne blöd angemacht zu werden.

Schlammsau
2010-04-03, 10:20:11
Ich sehe die BQ nicht als Fanboy-Argument. Es muss nur jeder für sich entscheiden, wie wichtig das ist. Dass nVidia kein SGSSAA kann, ist für mich ehrlich schmerzhaft.

Das AF von ATI hat sich aber für mich keinen Deut gebessert. Allerdings wäre das für mich, alleine für sich genommen, auch kein Grund von ATI abzusehen, es ist die Summe der Dinge, nicht das AF alleine. Zumal das SGSSAA die AF Schwäche für mich mehr als aufwiegt.

Auch bei Eyefinity muss jeder für sich entscheiden, wie wichtig ihm das ist. Für mich ist die Antwort klar: Derzeit gar nicht.



Korrekt. Und das ist gut so. Keiner will das ATI nehmen. Wäre schön, wenn man dennoch nVidia kaufen dürfte, ohne blöd angemacht zu werden.

Dann probier doch einfach mal eine oder Zwei Radeons über einen gewissen Zeitraum aus und schreibe deine Meinung dazu.
Die allermeisten, die hier was von Crab oder ATi ist nichts für Enthusisten schreiben, hatten eine Radeon vor 5 Jahren das letzte mal in ihrem Rechner.
Und genau gegen diese wehre ich mich wehement. Die alten Kriterien sind nicht mehr wirksam!

corvus
2010-04-03, 10:20:56
Langeweile? :D
wer hier wen "blöd anmacht" kannste auf den letzten Seiten lesen....und ATI AF, ich finds ok..

Und mit dir zu Diskutieren war schon immer das selbe als ob mans mit einer Gebetsmühle versucht.....

Chris2CB
2010-04-03, 10:25:35
....... mich nervt vorallem das Gebashe der ATI Fraktion, weil ich es für unsachlicher halte. Mehr Parteilichkeit kann man mir aber eigentlich kaum vorwerfen.


zugeflamet zu werden?


Mal abgesehen davon das es stark beschränkt ist sich mit anderen in eine Diskussion einzulassen, in der es um ein Massenmarkt Produkt geht das man kaufen muss.

Wenn man den Thread etwas verfolgt, sieht man das sich das "gebashe" gegen gewisse Personen richtet und der Nutzer "Tombman von den Grünen" scheint ein guter Kandidat zu sein.

Allgemein erscheinen folgende Wörter zu oft: für mich, ich finde.....das eigene Ego wird höher gesetzt womit die Grundlage einer Diskussion entzogen wird. Eine Zumutung was ihr den Moderatoren hier an Arbeit hinterlässt, wie kleinen Kindern muss man euch alles hinterher räumen.

Grestorn
2010-04-03, 10:29:08
Allgemein erscheinen folgende Wörter zu oft: für mich, ich finde.....das eigene Ego wird höher gesetzt womit die Grundlage einer Diskussion entzogen wird. Eine Zumutung was ihr den Moderatoren hier an Arbeit hinterlässt, wie kleinen Kindern muss man euch alles hinterher räumen.

So lange es um Meinungen und nicht um Fakten geht, muss man immer mit "für mich" und "ich finde" arbeiten. Man sollte seine eigene Meinung nie als allgemeingültige Tatsache hinstellen, denn jeder hat für sich selbst andere Maßstäbe für das was wichtig ist und was nicht.

Ich wäre deswegen froh, wenn die Leute viel mehr "ich finde" schreiben würden, um klarzumachen, dass es nur eine Meinung und keine Behauptung ist. Das hat gar nichts mit Ego zu tun.

Grestorn
2010-04-03, 10:30:20
wer hier wen "blöd anmacht" kannste auf den letzten Seiten lesen....und ATI AF, ich finds ok..Wer von der ATI Fraktion wurde denn von wem blöd angemacht? Hier im nVidia Thread wird niemanden über einen ATI Fan herziehen, weil er sich ATI kauft. Dafür kann man seitenweise lesen, wie dumm es die ATI Fans finden, dass man es überhaupt in Erwägung zieht, diesen heißen, lauten, teuren Fermi zu kaufen. Und das einzige, was ich hier von den nVidianern lesen kann, sind Argumente um die eigene Entscheidung zu rechtfertigen und dabei natürlich auch notwendigerweise entsprechend (oft ebenso aggresiv) vorgetragene Gegenargumente.

Und mit dir zu Diskutieren war schon immer das selbe als ob mans mit einer Gebetsmühle versucht.....Wenn Du meinst...

Mr. Lolman
2010-04-03, 10:34:08
Ui, das ist echt mal ein Kaufargument für eine NV-Karte. :eek: Jetzt bräuchte ich noch einen Vergleichsscreen von einem R580.

UT2004 verwendet standardmäßig ein negatives TexturLOD (iirc 0.5). Beim NV-TReiber ist standardmäßig LOD-Clamp aktiv. Alles klar?

Grestorn
2010-04-03, 10:35:16
Dann probier doch einfach mal eine oder Zwei Radeons über einen gewissen Zeitraum aus und schreibe deine Meinung dazu.Es ist ne Weile her, dass ich eine ATI Karte hatte, das stimmt (es war eine x800).

Die allermeisten, die hier was von Crab oder ATi ist nichts für Enthusisten schreiben, hatten eine Radeon vor 5 Jahren das letzte mal in ihrem Rechner.
Und genau gegen diese wehre ich mich wehement. Die alten Kriterien sind nicht mehr wirksam!

Keiner schreibt doch, ATI wäre Crap, wenn dann nur als die Reaktion auf Euch, die den Fermi um jeden Preis schlecht machen müssen. Bitte nicht Ursache und Wirkung vertauschen!

Grestorn
2010-04-03, 10:36:50
UT2004 verwendet standardmässig ein negatives TexturLOD (iirc 0.5). Beim NV-TReiber ist standardmässig LOD-Clamp aktiv. Alles klar?

Und das spricht nicht für nVidia? Der LOD Clamp ist zugegebenermaßen ein Hack und falls UT04 wirklich einen LOD von -,5 einsetzt, ist das mehr als doof, aber ein Nachteil ist der Clamp hier sicher nicht.

Gast
2010-04-03, 10:47:32
UT2004 verwendet standardmässig ein negatives TexturLOD (iirc 0.5). Beim NV-TReiber ist standardmässig LOD-Clamp aktiv. Alles klar?

und nvidia ist nun schuld dass ut auf atis flimmert, oder wie soll man deinen typischen lolman post verstehen?

Gast
2010-04-03, 10:50:05
und nvidia ist nun schuld dass ut auf atis flimmert, oder wie soll man deinen typischen lolman post verstehen?

AMD stellt es so dar wie von den Entwicklern vorgesehen, NVs Clamp verhindert das negative LoD. Wer kein negatives LoD will braucht es auch bei AMD nur einzustellen, aber es wird nicht default-mäßig verhindert.

Gast
2010-04-03, 10:52:21
AMD stellt es so dar wie von den Entwicklern vorgesehen, NVs Clamp verhindert das negative LoD. Wer kein negatives LoD will braucht es auch bei AMD nur einzustellen, aber es wird nicht default-mäßig verhindert.

d.h. als endkunde muss man rumfrickeln um ein schönes bild zu erhalten. treiberfixes für games implementiert ati also nicht.

Gast
2010-04-03, 10:54:04
d.h. als endkunde muss man rumfrickeln um ein schönes bild zu erhalten. treiberfixes für games implementiert ati also nicht.

Treiberfixes? Ist klar. Auf dem Niveau zu diskutieren ist mir zu blöd.

Grestorn
2010-04-03, 10:54:09
AMD stellt es so dar wie von den Entwicklern vorgesehen, NVs Clamp verhindert das negative LoD. Wer kein negatives LoD will braucht es auch bei AMD nur einzustellen, aber es wird nicht default-mäßig verhindert.

Ohne Profil ist das verstellen des LODs für ein einzelnes Spiel aber extrem fricklig.

corvus
2010-04-03, 10:55:37
ATI Treiber stellen neuerding ein - Lod auto ein.......seid vorigem jahr schon glaube ich :D hier scheint wirklich keiner mehr zu spielen.....es wird nur geredet über Dinge die wohl 90% derer die das hier schreiben eh nicht sehen inGame...schon traurig....

Gast
2010-04-03, 10:55:39
Wer kein negatives LoD will braucht es auch bei AMD nur einzustellen, aber es wird nicht default-mäßig verhindert.Bei ATI gibt es Clamp leider nicht und der LOD-Bias lässt sich nur in ganzen Schritten ändern, läge in diesem speziellen Fall dann also bei +0,5. Auch nicht so ganz optimal. Merke: Zusätzliche optionale Funktionalität ist immer gut. So wie z.B. ATIs wählbare Downfilter. Hätte ich bei NV auch gerne.

Thunder99
2010-04-03, 11:00:54
Nach 162 Seiten geblubber und viel Spam,

kann man nun behaupten, dass man die GTX470 kaufen kann, ohne das die Nachteile überwiegen?

Pro:

schnell@ DX 11
super BQ
kühl und leise durch custom design


Contra:

DX9/10 mittelmäßig
Stromhungrig
heiß


Was mir auffällt, dass ziemlich übel gegen die GTX4xx Reihe geschossen wird. Nimmt man aber das Beispiel der HD5870, mit der Leistung der GTX480, würde der Stromverbrauch der ATI auch net soooo rosig aussehen ;) (geschätzte Werte laut Angaben hier aus dem Forum...)

Gast
2010-04-03, 11:11:24
und nvidia ist nun schuld dass ut auf atis flimmert, oder wie soll man deinen typischen lolman post verstehen?

Nein, allerdings bringt es in UT2004 eben nur Clamp. Imo sollten ATI-User mal probieren mit ATT das LOD zu verschieben - ich habe dafür leider keine Gelegenheit, da ich kein UT2004-Game besitze.

Sehr gut fand ich Grest. Aussage, dass BEIDE Hersteller brauchbares abliefern, also weder Lärmi noch Cypress einen Fail darstellen. Um wieder BTT zu kommen: Für mich ist Fermi zu laut und braucht definitiv angesichts der Leistung zu viel Saft aus der Steckdose. Sehr gut ist sicherlich das HQ-AF, sowie die Leistung unter Q (habe keine Reviews gefunden, welche explizit mit HQ getestet haben) und wie bereits erwähnt, PhysX. Die Leistung welche vielleicht mal unter DX11 zum tragen kommt ist für mich noch nicht relevant, da es dann bereits imo den B2-Fermi sowie R900 zu kaufen gibt und somit die jetzige Generation bereits wieder performancewise und P/Watt total überholt ist. Daher gab es für mich nur eine vernüftige Alternative, nämlich die HD5850. Imo ist die Performance dieser Karte, insbesondere wenn es Fps-mäßig eng wird, der GTX285 deutlich überlegen. Zudem knallt SGSSAA einem tatsächlich eine grandiose BQ auf den Bildschirm. Schade das dies nur bis DX9 einsetzbar ist.

numb
2010-04-03, 11:16:03
Was einfach nicht stimmt!
Gerade die HD5000er Serie ist einfach sehr gut geworden und zeigt das ATi auch was für High End Kunden macht. Eyefinity 6 ist nichts für mich, aber trotzdem eine sehr beeindruckende Demonstration des technisch machbaren.
nVidia kann das nicht, nach wie vor gehen nur 2 Monitore mit einer Karte. Aber dieses Feature was klar an Enthusiasten gerichtet ist, wird kleingeredet.

Sehe ich auch so.
Wenn es Fermi gewesen wär, der Eyfinity 3 oder 6 gehabt hätte, hätten (dafür lege ich meine Hand ins Feuer) gewisse Personen schon längst zugeschlagen haben und alle "Zocklösungen" unter 3 Bildschirmen als Kindergarten betitelt :)

Ich warte, trotz leichter ATi-Präferenz, erstmal noch auf den GF104 - bei ATi fehlen mir im Treiber immer noch automatisch übernommene Spieleprofile

Gast
2010-04-03, 11:23:33
Ich meine ATi zieht momentan sehr gut nach und überhohlt auch teilweise die Konkurrenz, dass muss man anerkennen.
Und du meinst ernsthaft, das man deshalb den GTX 400 Launchfred zuspamen muss und die GTX 400 kleinreden muss?
Die GTX 400 hat ihre Berechtigung, ja oh schreck genauso wie die HD5 oder HD5970.

So ist es nicht.....jetzt wo ATi seit nem halben Jahr perfektes SGSSAA und ein leicht verbessertes AF bietet, mir persönlich nicht soooo wichtig aber nice 2 have, gelten die alten nVidia Fanboy Argumente nicht mehr.Fanboyargumente? Oh Mann, geh mal an die frische Luft.

AMD bietet 2x, 4x und 8xSGSSAA. Ja das ist verdammt schön. Aber die Hybriden bietet AMD immer noch nicht.
Das heisst, du warst immer ein treuer 8xMSAA ohne AAA Verfechter, d.h. 8xSGSSAA muss sein, alles darunter glättet zu mies.
Du weisst selbst, wie heftig SSAA an der Performance zieht, mit Hybriden wärs weitaus lässiger die 8x Samples für die Polygone zusammenzubekommen.

"Verbessertes AF", nunja das ist lächerlich es überhaupt zu erwähnen. Davon wirds auch nicht besser, es ist unterm Strich das selbe wie zu R600-RV790 Zeiten.

Gast
2010-04-03, 11:35:32
AMD bietet 2x, 4x und 8xSGSSAA. Ja das ist verdammt schön. Aber die Hybriden bietet AMD immer noch nicht.
Das heisst, du warst immer ein treuer 8xMSAA ohne AAA Verfechter, d.h. 8xSGSSAA muss sein, alles darunter glättet zu mies.
Du weisst selbst, wie heftig SSAA an der Performance zieht, mit Hybriden wärs weitaus lässiger die 8x Samples für die Polygone zusammenzubekommen.Besonders dumm ist natürlich, dass es bei ATI lange möglich war, bei AAA nur einen Teiler der MSAA-Samples auf SSAA aufzuwerten. Da ihr aktuelles SGSSAA auch auf AAA basiert müsste es doch möglich sein, auch dort Hybriden zu ermöglichen, z.B. von 8 Samples nur 2 oder 4 als SGSSAA-Samples zu nutzen und die restlichen bei MSAA zu belassen. Mit GF100 bietet NV jetzt an, für TSAA nur einen Teil der Samples auf SSAA aufzuwerten, dafür gibts kein Vollbild-SGSSAA :usad:
Manchmal wünsch ich mir einen GPU-Mixer. Ne GF und ne Radeon samt Treiberdisks rein, gut purieren, fertigbacken und man hat das beste aus beiden Welten :freak:

AYAlf_2
2010-04-03, 11:37:32
Wie amüsant, dass BQ auf einmal so wichtig ist, wo sie doch jahrelang keine Rolle spielen durfte, als ATI weder SSAA noch perfektes AF anbot.

Kaum hat ATI in einer der beiden Disziplinen ohne Frage die Konkurenz überholt, schon wird BQ auf einmal das Mantra.

Ich finde diese Diskussion mehr als lächerlich. Vorallem, dass die ATI Fans nicht müde werden, den nVidia Fans vorzuwerfen, sie würden für ihren Hersteller Propaganda machen.

Dabei scheinen sie wohl erst dann zufrieden zu sein, wenn der letzte der Schreiber in diesem Thread ATI zu Füßen liegt und nVidia verteufelt.

Warum ist es so schwer zu akzeptieren, dass es Menschen gibt, denen ATI mehr zusagt, und anderen, denen nVidia mehr zusagt? Muss man sich deswegen in seiner Männlichkeit oder Intelligenz beleidigt fühlen?!

muss sich ati vor dir rechtfertigen, dass sie jetzt die weitaus besser bildqualitaet haben? leiser, kuehlere, sehr viel weniger verbrauchen und trotzdem ganz oben mitspielt was die fps angeht? nicht zu vergessen ein unschlagbares preis-leistungsangebot.

ich bin sehr zufrieden mit meiner ati. obwohl ich vorher auch schon sehr oft nvidia karten in meinen systemen hatte. (weitaus mehr als ati)

vor 3 jahren haette jeder noch auf nvidia geschworen, da sie die bessere qualitaet hatten. jetzt ist das nicht mehr so. ati ist mindestens gleichgezogen und verbessert sich stetig. in meinem bekanntenkreis hat keiner mehr eine nvidia karte, als maingraka. die leute haben erkannt, dass es auch guenstiger geht mit mindestens der gleichen qualitaet.

dabei geht es nicht um fanboy-geschichten. hier geht es einfach um preis-leistung .. und die bietet nvidia nur noch fuer enthusiasten weil denen egal ist wieviel sie fuer ihr hobby ausgeben.

Mr. Lolman
2010-04-03, 11:39:23
Und das spricht nicht für nVidia? Der LOD Clamp ist zugegebenermaßen ein Hack und falls UT04 wirklich einen LOD von -,5 einsetzt, ist das mehr als doof, aber ein Nachteil ist der Clamp hier sicher nicht.

Man kann das LOD auch in der .ini auf 0.0 setzen. Hätte man auch damals (als es noch gebencht wurde) machen sollen, da durch negatives LOD Cachemisses entstehen, die auf die fps drücken.

und nvidia ist nun schuld dass ut auf atis flimmert, oder wie soll man deinen typischen lolman post verstehen?

Hä? Bist ein bisschen paranoid? ow? ;)


EDIT: DefaultTexMipBias heißt der Eitrag in der UT2004.ini

mapel110
2010-04-03, 11:44:46
muss sich ati vor dir rechtfertigen, dass sie jetzt die weitaus besser bildqualitaet haben?

Nur unter DX9. Unter DX10/DX11 hat nvidia dafür die Nase klar vorn.

leiser, kuehlere, sehr viel weniger verbrauchen und trotzdem ganz oben mitspielt was die fps angeht?

leiser, kühler, sparsamer ist EIN Argument, weil es eben nur EINE Ursache hat. Leistungsaufnahme.

nicht zu vergessen ein unschlagbares preis-leistungsangebot.

Für DICH und die Features, die DU benötigst. Für MICH nicht. Es gibt immer noch genug, was ATI nicht bietet und nvidia aber dafür um so mehr.

Sonyfreak
2010-04-03, 11:45:34
Jetzt bräuchte ich noch einen Vergleichsscreen von einem R580.Wenn sich sonst niemand findet, der ohnehin eine solche Karte im Rechner hat, kann ich heute Nachmittag meine X1800XT wieder mal in Betrieb setzen. Zwischen R520 und R580 sollte es ja keine BQ-Unterschiede geben.

mfg.

Sonyfreak

Malabolge
2010-04-03, 11:46:05
Es ist ne Weile her, dass ich eine ATI Karte hatte, das stimmt (es war eine x800).

Keiner schreibt doch, ATI wäre Crap, wenn dann nur als die Reaktion auf Euch, die den Fermi um jeden Preis schlecht machen müssen. Bitte nicht Ursache und Wirkung vertauschen!


Tu mir einen gefallen. benutz die Suchfunktion und such dir die Post zum Thema "tessalation" und DX11 vor ca einem halbem Jahr heraus.
Da war Tesselation noch "unwichtig" , ein "nice to Have Feature" ....

Und nun nachdam Nvidia in 1 (einem !) Benchmark vorgelegt hat , wird es zum "Must Have"

Sehr schön auch die Aussage zu DX11 , nachdem sich abzeichnet das Nvidia hier ein wenig schneller ist
"ECHTES DX11" !!! - ein Brüller !




Wo waren die Begeisterungsstürme der Entusiasten, Im Oktober - November
als ATI vorgelegt hat mit den Features (DX121,Tesselation, Multimonitor Gaming auf einer Karte, um die 20W Idle )
(zu dem Zeitpunkt (leider) ATI Only) ?
Nada - stattdessen von den üblichen "Verdächtigen ( Keyer Soze ?) , ein abwarten Nvidia wird viel viel besser.


Das ist selektive Wahrnehmung. Wie ich schon mal schrieb :
ATI könnte eine "Eierlegende Wollmichsau" herausbringen , aber Nvidia wird mit der nächsten generation ja besser sein
(Nvidia hinter den sieben Bergen ist Tausendmal .....)


Fermi um jeden Preis schlecht machen ?
Entschuldige aber das hat Nvidia leider selbst erledigt. Trotzdem wird er hier von einigen zur "Wunderkarte" erkoren.



PS: du solltest dir mal einen aktuelle HD5800 Kartte ansehen. Aber halt auch mal unvoreingenommen.
ATI anhand einer alten Generation jetzt noch zu kritisieren , halte ich doch ein wenig vermessen

Mr. Lolman
2010-04-03, 11:46:22
Mir reicht SGSSAA und die möglichkeit direkt über die reg das Texturlod zu verstellen. ;)

Wenn sich sonst niemand findet, der ohnehin eine solche Karte im Rechner hat, kann ich heute Nachmittag meine X1800XT wieder mal in Betrieb setzen. Zwischen R520 und R580 sollte es ja keine BQ-Unterschiede geben.

mfg.

Sonyfreak

Wie heiß die Map? Dann mach ich mal einen Screen mit der HD5870 und LOD0.0

pXe
2010-04-03, 11:52:17
Gibt es irgendwo noch Videos mit einem AF Vergleich?
Kenne bisher nur die AF Tester Videos, und das ATI HL2 Video.


pXe

Sonyfreak
2010-04-03, 11:58:37
Wie heiß die Map? Dann mach ich mal einen Screen mit der HD5870 und LOD0.0Es ist die zweite Karte in der DM-Liste von oben, irgendwas mit 1on1. Mit dem Vorschaubild erkennt mans aber eh sofort.

Gibt es irgendwo noch Videos mit einem AF Vergleich?
Kenne bisher nur die AF Tester Videos, und das ATI HL2 Video.Jap, sollte es noch geben. Ich hab mal selbst einen Vergleich zwischen G80 und RV630 angestrengt, und die Vergleichsvideos hier ins Forum gestellt.

mfg.

Sonyfreak

Grestorn
2010-04-03, 12:09:23
Tu mir einen gefallen. benutz die Suchfunktion und such dir die Post zum Thema "tessalation" und DX11 vor ca einem halbem Jahr heraus.
Da war Tesselation noch "unwichtig" , ein "nice to Have Feature" ....

Nun, da es damals nicht im Standard war und deswegen von niemandem genutzt wurde, war es in der Tat ein Papierfeature. Wenn ATI das damals so gepusht hätte, wie nVidia das heute mit PhysX macht (was ja auch kein Standard ist) hätte es mehr werden können. Das hat ATI versäumt, die Chance sich mit einem echten Vorteil abzusetzen damit verspielt.

Sehr schön auch die Aussage zu DX11 , nachdem sich abzeichnet das Nvidia hier ein wenig schneller ist
"ECHTES DX11" !!! - ein Brüller !Da scheint Dein Ego ja einen echten Knacks bekommen zu haben. Meinst Du, es macht uns Spaß uns ständig die Vorhaltungen von Wegen "Lärmi", Energieverschwender etc. usw. lesen zu müssen? Etwas weniger Aggressivität wäre echt nicht schlecht. Und da wir hier im Fermi Thread sind, würde es vorallem den ATI Fans wirklich etwas zu Gesicht stehen, nicht so laut herumzubrüllen und sich anschließend zu beschweren, wenn ein entsprechendes Echo kommt.

Wo waren die Begeisterungsstürme der Entusiasten, Im Oktober - November als ATI vorgelegt hat mit den Features (DX121,Tesselation, Multimonitor Gaming auf einer Karte, um die 20W Idle ) (zu dem Zeitpunkt (leider) ATI Only) ?Damals sind nicht wenig Enthusiasten auf ATI umgestiegen. Und das vollkommen zurecht.

Das ist selektive Wahrnehmung. Wie ich schon mal schrieb : Ich glaube, gerade DIR steht es nicht an, Dich über selektive Wahrnehmung zu beschweren!

Fermi um jeden Preis schlecht machen ?
Entschuldige aber das hat Nvidia leider selbst erledigt. Trotzdem wird er hier von einigen zur "Wunderkarte" erkoren.Danke für den Beweis. Warum treibst Du Dich in diesem Thread denn rum, wenn es Dir nicht darum geht, die andere Seite niederzumachen? Welch anderen Vorteil versprichst Du Dir davon? Deine Entscheidung zu rechtfertigen? Dein Ego aufzubessern? Sag es mir!


PS: du solltest dir mal einen aktuelle HD5800 Kartte ansehen. Aber halt auch mal unvoreingenommen.
ATI anhand einer alten Generation jetzt noch zu kritisieren , halte ich doch ein wenig vermessenFalls Du es noch nicht bemerkt haben solltest: Ich kritisiere ATI doch nirgendwo, im Gegenteil, ich habe sie eben mehrfach gelobt. Dass ich mir keine ATI kaufe (ich war knapp davor) hat diverse Gründe, von denen die meisten sicher von niemand sonst von Belang sind. Bitte akzeptiere es auch, dass es trotz alle unbestrittenen Vorteile von ATI auch einige Vorteile von nVidia gibt, und dass es Menschen gibt, denen diese Vorteile so wichtig sind, dass sie Nachteile an anderer Stelle akzeptieren.

Gast
2010-04-03, 12:50:47
Tu mir einen gefallen...

Schau mal nach, was im letzten halben Jahr über 3D TV und 3D Gaming geschrieben wurde, NIX na niete. Dann kam Avatar heraus und wie Welle ging los, damit hat keiner gerechnet das das so einschlägt. Plötzlich kommt jeder LCD Hersteller mit 3D Nativ Panels noch dieses! Jahr auf den Markt.
Warum kann das nicht bei Spielen auch so werden, viele Konsolen Ports bekommen auf dem PC einen DX10-11 Modus spendiert, weil die Konsolen nunmal Effekte bekommen die in DX9 teils garnicht performant machbar sind.

AMD sitzt nun ebenfalls wie nV in der TSMC Falle, vor Q3 gibts keine guten Yields, die nächste AMD Generation gibts nicht vor Weihnachten, es kommt für beide darauf an wie TSMC die Produktion entwickelt und ob kleinere komplexe GPUs (aka GF104) einen ganz anderen Yield liefern als die "Monster". Back-to-School Bestellungen stehen bald an, danach die X-Mas Bestellung, da wird Geld gemacht, nicht mit den popel VKZ Zahlen der Highend GPUs bei unter 50% Yield...

Gast
2010-04-03, 13:03:59
Schau mal nach, was im letzten halben Jahr über 3D TV und 3D Gaming geschrieben wurde, NIX na niete. Dann kam Avatar heraus und wie Welle ging los, damit hat keiner gerechnet das das so einschlägt. Plötzlich kommt jeder LCD Hersteller mit 3D Nativ Panels noch dieses! Jahr auf den Markt.
Warum kann das nicht bei Spielen auch so werden, viele Konsolen Ports bekommen auf dem PC einen DX10-11 Modus spendiert, weil die Konsolen nunmal Effekte bekommen die in DX9 teils garnicht performant machbar sind.

AMD sitzt nun ebenfalls wie nV in der TSMC Falle, vor Q3 gibts keine guten Yields, die nächste AMD Generation gibts nicht vor Weihnachten, es kommt für beide darauf an wie TSMC die Produktion entwickelt und ob kleinere komplexe GPUs (aka GF104) einen ganz anderen Yield liefern als die "Monster". Back-to-School Bestellungen stehen bald an, danach die X-Mas Bestellung, da wird Geld gemacht, nicht mit den popel VKZ Zahlen der Highend GPUs bei unter 50% Yield...

Der GF104 ist doch nicht viel kleiner als rv870.
Und was ist an Featurehype toll?

Gast
2010-04-03, 13:10:45
G71 hat extrem beschissen geflimmert. Viel schlimmer als R5xx. Der Satz ergibt nur Sinn, wenn sie G71 HQ damit meinen und nicht R580 A.I. off.

Beim berühmten Half-Life 2 und CS Source zeigt der G71 auf HQ mit den neueren Treibern, die die beim Release auftretende Flimmerproblematik entschärften, ein optisch gleichwertiges, flimmerfreies AF wie R580 @ AI off, ausgenommen die Winkelabhängigkeit.

Gast
2010-04-03, 13:18:58
Sehe gerade, dass bei UT2004 auf der Map DM-GAEL der R870 bei der Bodentextur mit dem Rautenmuster den Vogel abschießt. Miesestes AF vom Feinsten, Pfui Teifel.