PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13

Gast
2009-09-25, 00:06:13
Übrigens denke ich das DX11 die Computerwelt schon revolutionieren wird. Deswegen will ich so ne Karte.

Gast
2009-09-25, 00:06:26
@ Gast

DS + SGSSAA ist optisch sicher sehr geil, ich sehs ja schon, wenn ich 19x12er-Shots samt 8x SGSSAA runterrechne:

http://www.abload.de/thumb/blubb8to8.jpg (http://www.abload.de/image.php?img=blubb8to8.jpg)
jaja geht nur mit ner ATI nett

Gast
2009-09-25, 00:08:43
Ahhhh ist das schon raus das die neue ATI das net kann? Nvidia kann kein DX11 das ist bis dato Fakt;)

Gast
2009-09-25, 00:11:46
Es wäre also alles andere als verwunderlich wenn im Geschlossenen Gehäuse über das Slotblech Luft ANGESAUGT wird, und zwar von den starken Gehäuse- und Netzteillüftern gegen die der schwache GraKa-Lüfter nichts entgegenzusetzen hat.

da wird nicht gesaugt, da wird geblasen

Gast
2009-09-25, 00:15:01
Joah saugen oder blasen, das ist jetzt die Frage. Bevor ich hier zu versaut werde will ich die Frage euch rüberblasen:)

LovesuckZ
2009-09-25, 00:25:24
Was glaubst du warum Nvidia schon im Vorfeld DX11 als "nicht so wichtig" usw. betitelt hat und nochmal gezielt auf ihre Schnittstellen eingegangen ist? ;)

Das musst du Xbitlabs fragen, warum sie denken, dass D3D11 für nVidia "nicht so wichtig" wäre.

Gast
2009-09-25, 00:29:34
DX11 ist verdammt wichtig. Vorteile überall erklärt. Hier, Gamestar, (OK, wird halt gut erklärt) englische Hardwaresides. DX11 wird ein Kracher.

Ihm
2009-09-25, 02:01:32
Sofern du von PPU- und GPU-beschleunigtem PhysX redest - joa. Sprichst du aber von CPU-PhysX - epic fail.

PhysX als Engine für die CPU !HÄTTE! keine Bindung. Diesen Spass hat man aber nur bei den Konsolen.

Schau mal nach, ob CPU's aus dem PC-Bereich noch unterstützt werden. :freak:
http://www.nvidia.de/object/physx_9.09.0814_de.html

Trotzdem spreche ich weiterhin nur von der CUDA-Lösung für PC's, da die alten PPU- und CPU-Versionen nicht mehr aktuell sind.
Haste gehofft, dass Nvidia PhysX als Engine auch für CPU's freigegeben hat und du einen QuadCore damit schön füttern kannst? Fehlanzeige.
Aber glücklicherweise wird Nvidia das sowieso tun müssen, wenn die Konkurrenz mit ihren GPGPU-Ablegern ankommt.
Dann können die ihre Kohle mit PhysX auch im PC-Bereich weiterhin noch über Lizenzen reinholen. Funktioniert bei den Konsolen doch auch.



Das ist auch so, dazu muss man kein Analytiker sein. 299€ sind aber ein guter Preis für die baldige Mittelklasse und ein segen für fps und Punktejäger.

Gibt es aktuell bessere 1xGPU-Lösungen von ATI als die 5870?
Nein. Von welcher Mittelklasse sprichst du also?
Erst wenn Dual, Triple und Quad-Lösungen keine Probleme mehr aufweisen und damit kein Unterschied mehr zu Single-Chip Lösungen besteht, können wir diese gerne mit in den Vergleich aufnehmen.
Bis dahin bin ich für eine strikte Trennung von Single und CF/SLI.

Die 5870 bleibt als Produkt aber weiterhin High-End, weil das Kaskadieren von selben Bauelementen keine neue Produktgruppe schafft.
Ansonsten wäre der Intel Xeon DP W5590 auch kein High-End mehr, weil ich davon ja auch zwei auf ein Board packen kann... über die Opterons brauchen wir dann gar nicht erst zu reden. :freak:


Die natürliche Kundschaft von Nvidia ist kein Preisjäger, und das weiss Nvidia. Kritikpunkte auf der HD5870 sind wenig vorhanden, aber elementar. DIe RV870 wird früher oder später den Hammer aufm Schädel kriegen. Wenn auch über die BQ...sei es drum. Diese Option hat der ATi Käufer nichtmal wenn er draufzahlt.

Nvidia ist nicht Apple. Da können die von träumen. Wenn du glaubst, dass die "natürliche" Spielekundschaft von Nvidia nicht auf den Preis achtet und mit ATI-Karten vergleicht, dann bist du da wohl auf dem Holzweg.


Wer glaubt das Nvidia untergeht? :freak:

Also ich nicht. Nvidia wird es als Namen wohl noch länger geben. Wer die in z.B. 3-4 Jahren eventuell aufgekauft hat und führt ist wieder eine ganz andere Sache.


5870 ist Performance, kein High-End.

Es wirkt nur so, weil AMD die X2 und die 2GiB Karten erst später launcht. Das war früher auch nicht üblich.

Es kann auch mehr als ein Produkt in einem High-End-Sortiment vorhanden sein. Der Leistungsunterschied zwischen 1GB und 2GB ergibt keine Korrektur in der Segmentierung. Eine Kaskadierung ändert nicht die Segmentierung eines einzelnen Bauelements. Schon gar nicht, wenn die Kaskadierung technische Probleme mit sich bringt.
Eigentlich müsste man dies auch im Prozessorsegment einführen. Denn ein Quad mit 2GHz ist bei non-multithreaded Anwendungen langsamer, als ein Dual mit 2.5GHz, welcher wiederum langsamer wäre als ein Single mit 3GHz der gleichen Architektur. Was ist hier dann also High-End, wenn die Situation dies bestimmt?
Mittlerweile ist es wahrlich schwer eine Umgebung zu finden, welche nicht zumindest von einem zusätzlichen Kern profitiert, okay. Danach wird es aber schon schwieriger und man müsste besser differenzieren. Alles andere ist Augenwischerei.

Demnach würde es für den Desktopbereich z.B. so aussehen:

ATI Single-GPU High-End:
Radeon 5870 HD 1GB
Radeon 5870 HD 2GB
usw.

ATI Dual-GPU High-End:
Radeon 5870 X2 HD 2GB
Radeon 5870 X2 HD 4GB
usw.

AMD DualCore High-End:
AMD Phenom II X2 550 Black Edition 2x3.10GHz
usw.

AMD TripleCore High-End:
AMD Phenom II X3 720 Black Edition 3x2.80GHz
usw.

AMD QuadCore High-End:
AMD Phenom II X4 965 Black Edition 4x3.40GHz
usw.

Intel DualCore High-End:
Intel Core 2 Duo E8600 2x3.33GHz
usw.

Intel QuadCore High-End:
Intel Core i7-975 Extreme Edition 4x 3.33GHz
usw.

Ich erwarte das nicht von den Herstellern, sondern von denen, die in diesem Gebiet journalistisch tätig sind.


Hast du auch gelesen was ich geschrieben habe?
PhysX fähige Karten sind weit verbreitet. Kein Wort über Spiele. Nur über Hardware. Hardware seit 2006.

Ich glaube wir reden aneinander vorbei. Die Nutzung von PhysX per CUDA (besser y33H@?) liegt nicht in der Hand der Grafikkartenbesitzer, sondern in der der Entwickler.
Wenn die keinen Bock darauf haben, dann ist das ungefähr genauso wertvoll wie Truform damals bei der Radeon 8500.
PhysX per CUDA ist ein in der Masse ungenutztes Feature.
Und es scheint nicht so, als würde sich das verbessern. Eher das Gegenteil wird da wohl der Fall sein.


Physik wird es hoffentlich weiterhin geben, sonst spiele ich wieder HL2, was solls.

Physik in Spielen wird in der Zukunft eventuell sogar einen grösseren Stellenwert in Bezug auf den Spielablauf einnehmen.
Es gibt wirklich sehr viele Szenarien, die mit einer authentischen und performanten Physikberechnung besser inszeniert werden könnten.

Wie das letztendlich auf den Monitor kommt, kann dem Nutzer doch nun wirklich egal sein, oder? Hauptsache er muss dafür nicht noch zusätzlich irgendwas kaufen, wenn seine vorhandene Hardware das auch locker nebenbei bewältigen könnte.


Nvidia ist zur selben Ansicht wie AMD gekommen, D3D11 alleine reicht nicht.

AMD bietet Eyefinity an, und irgendwelche Soundanschlüsse an, schon gemerkt?

Sorry, aber der Vergleich ist Schwachfug.
DX11 bietet auf DX-Seite erstmals eine annehmbare Schnittstelle für GPGPU und damit die theoretische Möglichkeit Physikberechnungen direkt auf der Karte auszuführen. Nicht mehr und nicht weniger.

Eyefinity etc. sind Features, die auf den Spieleinhalt keine Auswirkungen haben. Eyefinity wird wohl nur eine stark verbesserte Variante der Matrox-Lösung. Es wird aber keine Spiele geben, die von Eyefinity abhängig sein werden. :freak:


Du irrst gewaltig. GPU PhysX ist seit August 2008 auf allen Geforces ab Geforce 8 verfügbar, nachträglich.

Wenn dir die Daten soooooo wichtig sind:
Übernahme Februar 2008. Erste Version für den Endkunden im Juni 2008.
Das SDK gibt es ja schon länger.


Mich wundert warum du der Ansicht bist D3D11 ermögliche Physik.
Physikenignes sind weiterhin notwenig, ob du es glaubst oder nicht.

Viele häufig eingesetze Physikengines gibts nicht, PhysX und Havok sind die Berühmtesten.

Hat das irgendjemand bestritten. Siehe oben.


Na sicher, 1000€ für eine CPU ohne Spannungsversorgung, ohne RAM ist gerechtfertigt.

Und auch dieser Vergleich hinkt gewaltig.
Du kannst eine halb so teure CPU ohne ersichtliche Nachteile auf das Niveau einer doppelt so kostspieligen Variante bringen.
Denn die relevanten Unterschiede sind hier meist nur noch in der Taktfrequenz zu finden.
Bei GPUs gibt es Unterschiede wie die Breite des SI, die Anzahl der Recheneinheiten, die Art des verbauten Speichers, die Taktfrequenz von GPU und Speicher usw. Mit einer einfachen Taktanhebung wie bei CPUs ist es da nicht getan.

Gast
2009-09-25, 02:28:37
Zu dem Geschreibsel sag ich nur warte mal ab wie PhysX trotz! DX11 supported und laufen wird. Ich denke PhysX ist verdammt wichtig, und es wird weiter entwickelt. Lass die Entwickler mal keine Angst vor Fortschritt haben. ATI blockt hier klar. ATI supportetd nicht und kommt mit Stream...fragwürdig.

Gast
2009-09-25, 02:32:16
Und ich hab nix gegen die neue Topkarte von ATI, nur sie hat kein PhysX. Und das ist jetzt aktuell (Sacred, Batman, Mirrors Edge). Wenn ich ne Topkarte kaufe will ich alles. (Versuche meine Nvidia dann als PhysX laufen zu lassen, was aber dank Nvidia schwer wird).

StefanV
2009-09-25, 02:36:50
Physik ist wichtig, ja, aber PhysX nicht, vorallen wenn es nur von einem Hersteller unterstützt wird...

Und genau das ist das Problem: entweder nVidia wird das auf D3D11 CS oder Open CL portieren oder aber es wird von 'was anderem' verdrängt werden, zum Beispiel AMDs Bullet, das zum einen auf OpenCL aufbaut und zum anderen frei und offen sein soll.
Beides ist, für nVidia gehsehen, ziemlich doof.

Gast
2009-09-25, 02:46:42
Wollen wir es hoffen. Und hoffen das ATI mal sauber supported!:)

tombman
2009-09-25, 04:27:41
http://www.abload.de/img/ojemineeeeprd.jpg (http://www.abload.de/image.php?img=ojemineeeeprd.jpg)

Gast
2009-09-25, 05:54:40
Jaja, die Computerbase... übrigens sagen sie selber, das ihr aktueller Testparcour überarbeitet werden muss. ;) Man muss ganz klar anmerken, das ein Durchschnittsrating allein durch ein schlechtes Ergebniss heruntergezogen werden kann, was noch lange nicht heißt, das die anderen 385746 Spiele auch davon betroffen sind.

Das hier find ich eigentlich viel interessanter:
http://666kb.com/i/bcomzl5wjiz8418g5.png
http://666kb.com/i/bcon0tfz4zty1sf7p.png

Da sehen die so tollen High End Geschosse sehr alt aus. :tongue:

DrFreaK666
2009-09-25, 06:29:15
Ach Tombi...

Schau doch mal genauer hin. Und ich will kein Geheule hören wegen 8xMSAA. Nur weil du es nutzt heisst es nicht, dass es nicht genutzt wird. Du bist kein Maßstab.
Ich hab 8xMSAA oft und gerne genutzt. Eben dort wo es ging.

http://www.abload.de/thumb/14ple.jpg (http://www.abload.de/image.php?img=14ple.jpg)

http://www.abload.de/thumb/2m1lv.jpg (http://www.abload.de/image.php?img=2m1lv.jpg)

http://www.abload.de/thumb/3833d.jpg (http://www.abload.de/image.php?img=3833d.jpg)

http://www.abload.de/thumb/4q2uc.jpg (http://www.abload.de/image.php?img=4q2uc.jpg)

http://www.abload.de/thumb/551pb.jpg (http://www.abload.de/image.php?img=551pb.jpg)

http://www.abload.de/thumb/6s5m1.jpg (http://www.abload.de/image.php?img=6s5m1.jpg)

tombman
2009-09-25, 06:50:20
Ach Tombi...

Schau doch mal genauer hin. Und ich will kein Geheule hören wegen 8xMSAA. Nur weil du es nutzt heisst es nicht, dass es nicht genutzt wird. Du bist kein Maßstab.
Ich hab 8xMSAA oft und gerne genutzt. Eben dort wo es ging.

Du bist aber auch kein Maßstab. Mehr Leute nutzen 4xAA als 8xAA. Da wird lieber die Auflösung erhöht bevor 8xAA genutzt wird.
Höhere Auflösung + 4xAA macht mehr Sinn als niedrige Auflösung und 8xAA.

1920x1200, 4xAA, 16xAF ist IMO die "beste" Kombination- und die Wichtigste ;)

Gast
2009-09-25, 07:09:29
1920x1200, 4xAA, 16xAF ist IMO die "beste" Kombination- und die Wichtigste ;)

Ich bin ja schon erstaunt, wie viel Zeit und subjektive Hervorhebungen einzelner Messergebnisse notwendig sind um die ATI ja nicht zu gut dastehen zu lassen.

Vorgehensweise:
- Mängel, die die Karte hat, als eigentlich das wichtigste einer Grafikkarte zu benennen (wobei die Mängel der Karten der andere Marke zu übersehen);
- Vorteile und Alleinstellungsmerkmale, die die ATI-Karte hat zu negieren bzw. als unwichtig zu erachten;
- Stundenlang irgendwelche Balkendiagramme suchen, in dem einmal die ATI nur etwas vorne liegt und nicht deutlich.

Arbeiten manche für die jeweiligen GraKa-Hersteller?

Diese Versuche sind nett anzuschauen, aber inhaltlich so schlecht gemacht, wie die momentane Argumentationen der Parteien zur Wahl.

tombman
2009-09-25, 07:15:53
Ich bin ja schon erstaunt, wie viel Zeit und subjektive Hervorhebungen einzelner Messergebnisse notwendig sind um die ATI ja nicht zu gut dastehen zu lassen.
Vorgehensweise:
- Mängel, die die Karte hat, als eigentlich das wichtigste einer Grafikkarte zu benennen (wobei die Mängel der Karten der andere Marke zu übersehen);
- Vorteile und Alleinstellungsmerkmale, die die ATI-Karte hat zu negieren bzw. als unwichtig zu erachten;
- Stundenlang irgendwelche Balkendiagramme suchen, in dem einmal die ATI nur etwas vorne liegt und nicht deutlich.
Arbeiten manche für die jeweiligen GraKa-Hersteller?
Diese Versuche sind nett anzuschauen, aber inhaltlich so schlecht gemacht, wie die momentane Argumentationen der Parteien zur Wahl.
Hast du dein Gegenargument jetzt absichtlich versteckt, oder hattest du schlicht keines?

Und NATÜRLICH sucht man die SCHWÄCHEN einer GPU, wenn sie als der neue Spitzenreiter angekündigt wird.
Die STÄRKEN braucht man ja nicht suchen, die sind ja offensichtlich.

Bei jeder neuen Hardware stelle ich die Frage: "Wo ist der Haken?" :cool:

DAMMIT hat eben diese Blenderphilosophie: "Wir haben Haken, ansonsten wäre der Preis nicht zu halten, die findet aber die Masse nicht- also kommen wir damit durch :ugly:"- und das kotzt mich an.

Nvidia hat SLI- ok, wir machen CF. Profile egal, Kompatibilität halbherzig, egal, wir kommen damit durch.
AF-Blume schaut nicht gut aus? -> egal, wir machen sie rund.
Filterqualität? -> who cares, sieht man auf Screenshots nicht, und Videos clickt keiner an.
Karten kacken in furmark ab, da zu geizige Spawas? -> Throtteln wir die Karten per .exe-cheat, merkt die Masse nicht, damit kommen wir durch.

usw usf.

Gast
2009-09-25, 07:23:15
Warum sollte er irgendwelche Gegenargumente bringen? Das ist angesichts fehlender Argumente deinerseits in den letzten geschätzen 100 Posts nicht einmal notwendig.

Das einzige was du hier tust und das schon mehrere Seiten lang ist, eine Marke schlecht zu machen und über einen nvidia chip zu faseln den es noch nichtmal gibt. Bloß hat das überhaupt nichts mit dem Thema zu tun. Wenn du dir deine aktuelle Hardware schönreden willst, versuchs doch mal in der Lounge oder im /trash Channel.
Es interessiert schlichtweg kein Sau und ich habe große Mühe, darüber hinwegzulesen als Besucher. Hier wäre die Moderation gefragt.

Außerdem finde ich es absolut unangebracht von dir, das du anderen vorschreiben magst, welche Auflösung sie zu nutzen haben. Es gibt da draußen auch noch User die keinen fetten TFT haben oder auch niedrigere Auflösung mit höherem AA fahren. Aber das magst du ja nicht berücksichtigen, weil es nicht zu deinen Behauptungen passt.. Menschen passen nunmal nicht in ein einziges Schema, da kannst du die Wand hoch und runter rennen.

reunion
2009-09-25, 07:23:32
http://www.abload.de/img/ojemineeeeprd.jpg (http://www.abload.de/image.php?img=ojemineeeeprd.jpg)

Würde schon dutzende male erwähnt, auch wenn du es noch zehnmal postest. Bei CB ziehen zwei Ergebnisse den Vorsprung der HD5870 um ca. 15% runter. Nämlich der eine PhysX Test und der AF Bug in HAWK.

Gast
2009-09-25, 07:28:33
Jaja, die Computerbase... übrigens sagen sie selber, das ihr aktueller Testparcour überarbeitet werden muss. ;) Man muss ganz klar anmerken, das ein Durchschnittsrating allein durch ein schlechtes Ergebniss heruntergezogen werden kann, was noch lange nicht heißt, das die anderen 385746 Spiele auch davon betroffen sind.

Das hier find ich eigentlich viel interessanter:
http://666kb.com/i/bcomzl5wjiz8418g5.png
http://666kb.com/i/bcon0tfz4zty1sf7p.png

Da sehen die so tollen High End Geschosse sehr alt aus. :tongue:

Was soll sowas? Da listest du 2 Games auf und es gibt auch games wo Nvidia besser aussieht. Schwachsinn sowas. Zeig doch mal Batman, Mirrors Edge Sacred. TSTSTSTS

reunion
2009-09-25, 07:29:44
Bei CB gibt es ein Performance-Preview zur 5850:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_performance-preview_ati_radeon_hd_5850/

Gast
2009-09-25, 07:30:22
Und dann auch noch Left for dead so ein (sorry) Schrottspiel. Geh, aber geh mit Gott...

Gast
2009-09-25, 07:32:09
Und ja, die Ati ist nicht schlecht, aber warten wir jetzt mal ab wie Nvidia kontert. Ich erwarte da schon einen brecher.

Gast
2009-09-25, 07:38:04
Was soll sowas? Da listest du 2 Games auf und es gibt auch games wo Nvidia besser aussieht. Schwachsinn sowas. Zeig doch mal Batman, Mirrors Edge Sacred. TSTSTSTS

Schon ins erste Posting geschaut? Dutzende Testartikel mit dutzenden Games. Ist bestimmt was dabei für dich.

Übrigens habe ich rein zufällig diese Diagramme genommen, es gibt sicher noch bessere aus Ati Sicht. Sie zeigen vorallem eines: Durchschnitt hat wenig mit Realleistung zu tun.
Wenn ich 10 Games nehme, wovon die Hälfte verbuggt ist, ist die performance natürlich im Keller. Generell ist so ein Schema völliger mumpitz, so lang da nicht mindestens 500 Games berücksichtigt werden, ist ein Performanceschema nicht praxisrelevant
ich besitze nicht einmal eine einzige dieser Anwendungen, toll, oder?

Übrigens, laut Performanceschema der Computerbase macht es keinen Unterschied ob du einen Core i7 oder einen 2,33 GHz Core 2 hast. Wer's glaubt. ;)
Siehe hier: http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_intel_core_i5-750_core_i7-860_core_i7-870/22/#abschnitt_crysis

Praktisch, oder? Man braucht doch kein Geld in neue Hardware investieren, die alte tuts doch genauso gut... jedenfalls laut CB. ;)

Gast
2009-09-25, 07:38:30
Und die Frames im hunderter Bereich. Keine Minimum Frames quasi nixsagend. Ab in die Tonne.

Gast
2009-09-25, 07:41:58
Versteh mich nicht falsch, die Ati ist nett, aber ich warte jetzt doch mal auf den Gegenschlag.

Gast
2009-09-25, 07:45:50
Die xbitlabs haben auch min-fps im angebot, die sind ebenfalls besser. Hättest nur dort vorbeischauen müssen.

frames im hunderter Bereich sind auch nicht schlecht, schließlich bedeutet es, das du überschüssige Leistung hast, die du in Bildqualität umwandeln kannst. Wäre ja unsinnig, ständig bei 40fps rumzugurken, spätestens beim Bildschirm Upgrade wäre das dann wieder zu wenig.

Gast
2009-09-25, 07:49:50
Ich hab einen TFT und da bringen mir Counterstrike-Frames nothing. Wie siehts mit der BQ aus? Any Infos?

Gast
2009-09-25, 07:52:13
Speziell jetzt AF. Wie siehts da aus?

Gast
2009-09-25, 07:56:33
CS? Also ich sehe jetzt nicht, das hier darüber diskutiert wurde. Wenn dich das nicht interessiert, such dir Anwendungen, die dich betreffen. Einfache Lösung. ;)

das damalige CS lief sogar auf einer Voodoo flüssig, das wäre etwas Overkill deswegen aufzurüsten.

Gast
2009-09-25, 07:59:11
Mir gehts darum. Ich schaue auf die Minimum-Frames. BQ unheimlich wichtig. Mein TFT schaft halt nur 60 Hertz und es muss VSync rein. Weisst du worauf ich hinaus will?

AnarchX
2009-09-25, 08:01:20
Bei CB gibt es ein Performance-Preview zur 5850:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_performance-preview_ati_radeon_hd_5850/

Dort hat man aber leider nicht wie bei TPU 2 SIMDs deaktiviert, sondern auf 655MHz heruntergetaktet, damit ist die Karte bis zu 10% langsamer als eine echte 5850.

Gast
2009-09-25, 08:04:43
Hoffentlich kommt mal ein AF-Test. Sonst kommt das Ding nicht in meinen Rechner.

(Übrigens geile zufällige Fragen)

Gast
2009-09-25, 08:07:56
Ich schaue auf die Minimum-Frames. BQ unheimlich wichtig. Mein TFT schaft halt nur 60 Hertz und es muss VSync rein.

Das dein TFT auf 60 Hz begrenzt ist, heißt noch lange nicht, das es nicht sinnvoll wäre, mehr Power zu haben. Denn wie schon gesagt, lässt sich für überschüssige Leistung immer eine Lösung finden, wie man sie wieder "vernichtet" und dadurch die BQ verbessert.

Zudem solltest du bedenken, das min fps zum Teil irreführend sind. Wenn das game 200h gespielt wird, kann es sein, das vielleicht für eine millisekunde die fps auf unter 10 eingebrochen sind. Relevant ist das aber nicht, weil man das wahrscheinlich nicht mal merkt, da viel zu kurzer Zeitraum.
Stell dir mal vor, deine Festplatte rattert mal länger als geplant und deshalb gibts nen Ruckler. Ist zwar ärgerlich, wertet aber die Performance nicht ab..

Gast
2009-09-25, 08:13:28
Haben die Kollegen denn mal die BQ speziell AF getestet? Bei ATI ist man vorgewarnt. Einige Leute bekommen Kopfschmerzen beim Dauerzocken. Wo ist dieser Test? Der juckt mich mehr!

Grestorn
2009-09-25, 08:13:32
Meines wissens greifen die Berater von Nvidia ab und zu Grestorn bei Fragen unter die Arme. Bei Ray Adams ist das nicht der Fall.

Ich spreche hier Grestorn mal einen Dank aus! Hab mich bisher nicht wirklich bedankt.

Danke Dir Senti, aber ich will hier nicht Meriten für etwas einheimsen, das anderen gebührt... :)

Die Exe-Erkennung bei nVidia macht alleine der Treiber, damit hat nHancer nichts zu tun. Bedank Dich also bei nVidia, dass die auch "so schlau" sind, etwas anderes als ".exe" zu erkennen. Das müssen sie aber auch, sonst würde SLI bei keinem dieser "nicht-Exe" Spiele funktionieren.

Der entscheidende Unterschied ist ja nicht die Erkennung der Spiele - die gibt es bei ATI sicher auch, sonst würde Crossfire nicht laufen und es gäbe auch keine spieleabhängigen Anpassungen der Shader. Der Unterschied ist, dass bei ATI diese Profile unveränderlich im Treiber hinterlegt sind, während man bei nVidia die Möglichkeit hat, viele Aspekte (SLI, AA Kompatibilität, andere Kompatibilitätseinstellungen usw.) zu modifizieren.

nHancer selbst nutzt diese Flexibilität des nVidia Treibers und fügt ne nette Oberfläche dazu, die dem erfahrenen Anwender eben deutlich mehr Möglichkeiten bietet als die nVidia-Eigenen Tools. Nicht mehr und nicht weniger.

Ray Adams kann dagegen mit seiner selbstentwickelten Spieleerkennung (die technisch recht aufwändig zu implementieren ist) nur die Einstellungen ändern, die der Treiber von außen als Optionen zulässt, also im großen und ganzen das, was man auch im CCC einstellen kann. Deswegen kann man im ATT keine Crossfire und AA- oder andere Kompatibilitätsflags setzen.

Ich habe viel Respekt vor Ray Adams' Arbeit, und ich fürchte, dass er genauso wenig Informationen (nämlich gar keine) von den GPU Herstellern bekommt, wie ich. Ich habe zwar eine Quelle, die aber auch nur sehr lose Informationen bekommt und von der ich im besten Falle einmal alle 12 Monate etwas höre. Meine Anfragen an nVidia bleiben unbeantwortet und ganz offensichtlich ist man dort nicht ernsthaft an nHancer interessiert.

Gast
2009-09-25, 08:22:56
Danke für die Aufklärung. Nhancer ist wirklich ein nettes Tool. Mich stört bei vielen Tests siehe oben. Ich bin dafür die BQ mehr zu bewerten als den Maximumframe. Jetzt warten wir mal ab wie das "Imperium" zurückschlägt. Man darf gespannt sein!

tombman
2009-09-25, 08:52:49
Wäre ich Nvidia, hätte ich Grestorn schon längst engagiert. Im CP ein nettes "PRO" panel wär doch was feines ;)

Gast
2009-09-25, 09:00:14
Speziell jetzt AF. Wie siehts da aus?
Sagt mal (an die AF-Frager), sied ihr irgendwie blind oder was?
Im ersten Beitrag sind die Reviews zu neuen 5800er verlinkt, bei den meisten wird auch auf das AF eingegangen.

Aber falls ihr zu faul seid...
Kurzfassung:
Das AF ist besser geworden und sollte für >95% der Nutzer zufriedenstellend sein.
Für Härtefälle wie HL2, Oblivion und The Witcher gibt es RGSSAA.
Dafür haben die neuen Karten genug Perfoemance.
Ergo dürften 99% der User zufrieden sein.

PS falls ihr EXTREM auf BQ steht, empfehle ich die PCGH.
Marc Sauter und Raffael Vötter sind im Bereich BQ SEHR anspruchsvoll und zählen wohl zu den 1% der Gamer, die nicht vollends zufrieden sind. :)

Cyphermaster
2009-09-25, 09:01:42
Und ja, die Ati ist nicht schlecht, aber warten wir jetzt mal ab wie Nvidia kontert. Ich erwarte da schon einen brecher.Viele "erwarten". Einer der wichtigsten Punkte für die ungeduldige Gamer-Gemeinde wird aber sein, daß die ATI-Karten schlicht deutlich schneller verfügbar sind. Eine Karte, die es nicht gibt, mit einer zu vergleichen, die schon im Rechner sitzt - da ist das Endergebnis klar. Und viele Leute haben genug "Leidensdruck", um in absehbarer Zeit zu kaufen. Gegenüber dem Idealzustand ist die HD5 sicher noch ein gutes Stück weg - aber im Vergleich steht sie wesentlich besser da als die HD4, die bisheriger Maßstab bei ATI ist.

Wer erwartet, daß immer die nächste Karte die "ultimative" ist, der wird enttäuscht. Schon immer hat man sich in der Leistung und den Features nur so weit nach vorne geschoben, wie man es ökonomisch für notwendig hielt. Ausnahmen waren die paar Fälle, wo man einen technischen Glücksgriff getan hatte (R300, G200), was man durch dauerhaft höhere Preise nutzte.

Wer also von G300 größere Wunder erwartet, wird wohl genauso enttäuscht sein, wie die, die von den HD5 Optimalst-AF, Super-AA, eine neue Treiberoberfläche und Stromverbrauch <100W erwartet haben.

@tombman: Jap, Grestorn wäre für nV wirklich ein guter Fang. Genau wie man umgekehrt AMD ans Herz legen sollte, Ray Adams zu engagieren. Die versierten User würden es ihnen danken!

Mr. Lolman
2009-09-25, 09:08:24
Die xbitlabs haben auch min-fps im angebot, die sind ebenfalls besser. Hättest nur dort vorbeischauen müssen.

frames im hunderter Bereich sind auch nicht schlecht, schließlich bedeutet es, das du überschüssige Leistung hast, die du in Bildqualität umwandeln kannst. Wäre ja unsinnig, ständig bei 40fps rumzugurken, spätestens beim Bildschirm Upgrade wäre das dann wieder zu wenig.

ACK. Und wenn man sich die AA-Skalierung von Anandtech ansieht, spricht eigentlich nix dagegen 4xSGSSAA da zu aktivieren, wo man mit ner GTX280 vorher 4xSGMSAA aktiv gehabt hat: http://images.anandtech.com/reviews/video/ati/5870/AA.jpg

Gast
2009-09-25, 09:15:20
Sagt mal (an die AF-Frager), sied ihr irgendwie blind oder was?
Im ersten Beitrag sind die Reviews zu neuen 5800er verlinkt, bei den meisten wird auch auf das AF eingegangen.
Nur ht4u ist auf die AF Qualität eingegangen.
Wer nicht sieht das es weiterhin meilen hinter der Geforce herhinkt, bzw der Unterschied zum R600-RV790 kaum vorhanden ist, der ist blind.

http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php

tombman
2009-09-25, 09:19:30
ACK. Und wenn man sich die AA-Skalierung von Anandtech ansieht, spricht eigentlich nix dagegen 4xSGSSAA da zu aktivieren, wo man mit ner GTX280 vorher 4xSGMSAA aktiv gehabt hat: http://images.anandtech.com/reviews/video/ati/5870/AA.jpg
Da reicht die Leistung nicht, da bräuchtest mindestens Hemlock...

puntarenas
2009-09-25, 09:21:10
Jap, Grestorn wäre für nV wirklich ein guter Fang. Genau wie man umgekehrt AMD ans Herz legen sollte, Ray Adams zu engagieren. Die versierten User würden es ihnen danken!
Man sollte AMD viel mehr ans Herz legen, eine vernünftige Profilverwaltung (Spieleinstellungen, Kompatibilitätspfade) von außen zugänglich zu machen. Ich bin sicher, nHancer wäre schnell herstellerunabhängig nutzbar und Ray Adams hätte bestimmt auch nichts dagegen, alle Spieler würden profitieren und die überforderten Idioten (Lesart AMD) müssten ja weder Fremdtools noch Expertenmodus im CCC nutzen.

Ich verstehe auch nicht, warum du krampfhaft versuchst, die Entscheidung gegen einen HQ-Modus als ökonomisch vernünftig zu verteidigen. Das ist in erster Line eine Entscheidung gegen die Kunden, dafür mag es Argumente geben, aber die Haltung dahinter spricht Bände. AMD ist eine aus Sicht der enthusiastischen PC-Gamer eine Schande. Ganz mieses Kalkül und das schlimme ist, dass ihnen dieses Gehabe nicht einmal von der Fachpresse um die Ohren gehauen wird, sonst wäre dieser peinliche Habitus ganz schnell auch ökonomisch ein Desaster und wir hätten unseren Expertenmodus mit anständiger Filterung.

Stattdessen Anadtech und HardOCP, wachsweiche PCGH und in einem Enthusiastenforum Diskussionen über Treiberstandard Nvidia Q und 8xMSAA unter völliger Ignoranz von Transparenz-Anti-Aliasing. ;(

Gast
2009-09-25, 09:23:37
Nur ht4u ist auf die AF Qualität eingegangen.
Wer nicht sieht das es weiterhin meilen hinter der Geforce herhinkt, bzw der Unterschied zum R600-RV790 kaum vorhanden ist, der ist blind.

Meilen hinter Geforce?
Was für eine extreme Wahrnehmung hast du denn?
Das GF-AF ist besser, ja. Aber schlecht ist das ATI-AF nicht.
Wäre das GF-AF wirklich um Meilen besser, wie du es darstellst, würde kaum jemand eine ATI kaufen, was nicht der Fall ist.
Die meisten werden wohl eh kaum einen Unterschied sehen.

Also bleibt mal auf dem Teppich Leute.
Ihr stellt es so dar als ob das ATI-AF katastrophal wäre, was nicht der Fall ist.
Es ist zwar nicht perfekt (die Winkelunabhängigkeit schon), aber sehr gut ist es schon.
Wie gesagt, für die meisten absolut ausreichend. :)
Die paar Prozent, für die es nicht ausreichend ist, können sich ja eine Geforce holen. Ich sehe da kein Problem.
Jedem das Seine :)

Gast
2009-09-25, 09:29:24
Meilen hinter Geforce?
Was für eine extreme Wahrnehmung hast du denn?
Das GF-AF ist besser, ja. Aber schlecht ist das ATI-AF nicht.
Schau dir die Videos an, dann reden wir weiter.
R600-RV790 flimmern fast identisch, eine Besserung kann ich nicht wahrnehmen.
G80-GT200 flimmert fast gar nicht, also wie das Original.

Wäre das GF-AF wirklich um Meilen besser, wie du es darstellst, würde kaum jemand eine ATI kaufen, was nicht der Fall ist.
Weil es keiner weiß.

Die meisten werden wohl eh kaum einen Unterschied sehen.Mangels Vergleich.


Ihr stellt es so dar als ob das ATI-AF katastrophal wäre, was nicht der Fall ist.
Es ist zwar nicht perfekt (die Winkelunabhängigkeit schon), aber sehr gut ist es schon.
Es reicht um die Kaufentscheidung nochmal gründlich zu überdenken.
Im Endeffekt muss das Komplettpaket überzeugen, es muss einen Grund für den Umstieg geben.
Von Geforce zu Geforce ist es relativ leicht, Mehrleistung zum angemessenen Preis reichen.
Von Geforce zu Radeon ist es anders, die Radeon bietet Mehrleistung aber dafür auch so eine Schlappe wie beim AF.

robbitop
2009-09-25, 09:29:59
Die GTX285 hat ihr EOL längst erreicht.
Spielt keine Rolle. Sie ist der einzige derzeit verfügbare Konkurrent.


Zu klein? Im Vergleich zu allem anderen was momentan von AMD oder Nv angeboten wird sind die Margen gigantisch.
Mit den derzeitigen gammeligen Margen sollte man sich lieber nicht messen. Zur Erinnerung: RV870 wurde gerade erst gelauncht. ;)


Das Angebot ist momentan nicht vorhanden, da nützt es auch nicht viel zu verlangen. Und Marktanteile sind eben alles andere als unwichtig, Marktanteile bedeuten Einfluss. Zudem kann man die Kunden nicht beliebig verarschen. Man hat ja den Aufstand gesehen als NV die Preise der GTX280/260 kurz nach dem Launch massiv gesenkt hatte.

Das Angebot wird in den nächsten Wochen sicher kommen. Senken kann man die Preise immer noch (GT300 Launch oder schlechter Umsatz). Aber Erhöhen kommt gar nicht gut.


Ach kommt schon. Was glaub ihr, wie groß das Geflame wär, wenn ATi ihre Karten bisher gleich teuer wie NV verkauft hätte. Schon jetzt gibts (zumindest hier) genügend User die gerne bereit sind einen fast 20 prozentigen Aufpreis für HQ-AF und Hybridmodi hinzulegen.

Neue Grakas waren schon immer teuer. Besonders wenn sie konkurrenzlos waren. Sollten die Verkäufe ausbleiben kann man immernoch reduzieren. Letztenendes sind die paar Forenuser eh nicht aussagekräftig für die Gesamtanzahl der Verkäufe.
Wenn man mit einem so niedrigen Startpreis anfängt, kommt man ganz schnell wieder in die gleiche Situation wie beim nächsten Mal. Verschleudern ist schon das richtige Wort für das was AMD seit einer ganzen Weile tut.


Das kann sich für AMD massiv lohnen die Karten für 300 statt für 400 zu verkaufen.

Sagen wir mal für 300 Euro macht man 100 Euro Gewinn pro Karte, bei 400 Euro 200 Euro pro Karte,dann würde man zwar das doppelte an Gewinn für 400 Euro machen pro Karte, nur dürfte man wahrscheinlich das 4 oder 5 fache an Karten verkaufen können,wenn sie nur 300 Euro kostet.

400 Euro geben sehr wenige für eine Grafikkarte aus, 300 schon deutlich mehr Leute. Wenn das P/L dann noch so dermassen gut ist,was es für 400 Euro ja nicht mehr wäre, dann ist die Preisentscheidung von AMD das mit Abstand Beste was sie machen können

Abwarten. Zunächst wäre das Angebot ja gar nicht so hoch und es ist eben die beste Karte am Markt. Sollten die Verkäufe doch nicht so laufen, kann man immer noch reduzieren. Angebot und Nachfrage. Aber offenbar will man das gar nicht optimal abschöpfen.



Quatsch. Die Hersteller sind nicht flexibel genug um die Bewegung auf dem Markt abzufangen. Die ganzen Konsolenportis versauen das Geschäft und genau da muss man mal so langsam ansetzen.
Die Ursachen stimmen schon. Aber so viel mehr machen können die IHVs da nicht. IMO ist eine zweite Ursache aber auch, dass das Verhältnis Nachfrage/Angebot beim Launch in letzter Zeit nicht abgeschöpft wurde. Dann betrieb ATI mit NV Dumping und schon war man in einer Spirale aus der man nicht rauskam und die beiden sehr wehtat.


500€ wird Nvidia wieder verlangen. Das Featureset wird man neu definieren und ATi muss sich wieder anpassen. Ist eben ein Kreislauf. Die RV870 wird Nvidia nicht die Wurst vom Teller nehmen.

GT300 ist aber Monate später dran als RV870. In der Zeit ist man konkurrenzlos und man könnte abräumen.
GT300 wird auch nicht um Größenordnungen schneller sein als RV870, aber sie wird wohl etwas schneller sein. Und dann kann man die Preise auch anpassen.
Was Features angeht, glaube ich nicht, dass beide sich viel nehmen werden. Es geht eben um die jetzige Situation und nicht um Januar 2010 (wenn GT300 in den Regalen steht). Das sind noch Monate hin.

Gast
2009-09-25, 09:32:28
Die paar Prozent, für die es nicht ausreichend ist, können sich ja eine Geforce holen. Ich sehe da kein Problem.
Ich schon. SGSSAA hätte ich gerne, aber bitte mit allen Geforce BQ Vorteilen die man bekommen kann.

Außerdem ist eine Herstellerbindung ungut.

Wozu wird überhaupt 16xLQAF, 8xMSAA und kein AAA getestet? Wenn die Qualität eh keinen interessiert?
Wenns keinen interessiert, dann interessiert der Unterschied zwischen 5850 und 5870 auch nicht, also kann man gleich bei der GTX 280 bleiben.

Gast
2009-09-25, 09:45:44
Weil es keiner weiß.

Mangels Vergleich.
Nein, eben nicht.
Ich habe schon vor Jahren Vergleiche mit Bekannten angestellt, ob sie AF-Flimmern wahrnehmen und ob es sie stört.
Die meisten haben es gar nicht erst wahrgenommen!
Erst als ich mehrmals mit dem Finger auf die flimmernden Stellen gezeigt habe, ging bei einigen (bei weitem nicht allen) ein Licht auf.


Es reicht um die Kaufentscheidung nochmal gründlich zu überdenken.
Im Endeffekt muss das Komplettpaket überzeugen, es muss einen Grund für den Umstieg geben.
Von Geforce zu Geforce ist es relativ leicht, Mehrleistung zum angemessenen Preis reichen.
Von Geforce zu Radeon ist es anders, die Radeon bietet Mehrleistung aber dafür auch so eine Schlappe wie beim AF.
Wenn mann das AF-Flimmern nicht wahrnimmt, dann zählt die Leistung.
Und so wird es bei den meisten sein.

Hängt euch doch nicht so beim AF auf.
Shader können manchmal fieser flimmern als das AF.
Und hier hat selbst der DAU die Möglichkeit SSAA einzustellen.
Nvidia bietet SSAA gar nicht offiziell im Treiber an.
Warum wird denn das nicht kritisiert?

Grestorn
2009-09-25, 09:53:28
Nvidia bietet SSAA gar nicht offiziell im Treiber an.
Warum wird denn das nicht kritisiert?Wird es doch.

Auch wenn flimmerndes AF vielleicht nicht jeden stört, ist das ein Grund es totzuschweigen?

Ich verstehe Eure Argumentation einfach nicht. Es ist ein Kritikpunkt, genau wie das fehlende SGSSAA bei nVidia. Wie wichtig die Kritikpunkte für den einzelnen sind, kann nur jeder für sich selbst beantworten.

Und es bringt auch gar nichs, über den anderen zu spotten oder den Stab zu brechen, weil er vielleicht eine andere Priorität hat.

Nur sich selbst zu betrügen, in dem man auf Teufel komm raus alles so bewertet, dass ein Hersteller besser dasteht als der andere, ist einfach albern. Und ich finde, das ist bei einigen hier recht offensichtlich.

Raff
2009-09-25, 09:56:46
Nvidia bietet SSAA gar nicht offiziell im Treiber an.
Warum wird denn das nicht kritisiert?

Weil das versierten Nutzern (jene, welche SSAA nutzen) völlig schnurz ist. Tool installieren, Fummeln und gut. Dasselbe gilt für LOD-Spielchen beim Radeon-SSAA.

MfG,
Raff

Gast
2009-09-25, 10:04:51
http://www.abload.de/img/ojemineeeeprd.jpg (http://www.abload.de/image.php?img=ojemineeeeprd.jpg)


wo du doch immer auf deiner cry-engine rumreitest:
http://www.abload.de/thumb/lol3alo.png (http://www.abload.de/image.php?img=lol3alo.png)

Gast
2009-09-25, 10:09:54
Auch wenn flimmerndes AF vielleicht nicht jeden stört, ist das ein Grund es totzuschweigen?
Nein Grestorn, sicherlich nicht. Sollte man in einem Review auf jeden Fall erwähnen. :)
Wenn ich hier aber einige Beträge lese, wird das machmal so dargestellt, als ob das AF von ATI absolut unbrauchbar wäre, was es sicherlich nicht ist.
Selbst für mich (und ich achte schon sehr auf die BQ) ist das ATI-AF, von ein paar krassen Ausnahmen abgesehen, noch ganz ok.

Ich verstehe Eure Argumentation einfach nicht. Es ist ein Kritikpunkt, genau wie das fehlende SGSSAA bei nVidia. Wie wichtig die Kritikpunkte für den einzelnen sind, kann nur jeder für sich selbst beantworten.

Und es bringt auch gar nichs, über den anderen zu spotten oder den Stab zu brechen, weil er vielleicht eine andere Priorität hat.

Nur sich selbst zu betrügen, in dem man auf Teufel komm raus alles so bewertet, dass ein Hersteller besser dasteht als der andere, ist einfach albern. Und ich finde, das ist bei einigen hier recht offensichtlich.
Da gebe ich dir auch vollkommen recht, keine Frage.

Ich streite nicht ab, dass das NV-AF noch etwas besser ist.
Nur kommen hier teilweise Aussagen über das ATI-AF (wie z.B. das einem durch das ATI-AF schlecht wird), die einfach maßlos überzogen sind und nicht der Wahrheit entprechen.

Und darum geht es mir. :)
Kritik ist ok, nur sollte man bei der Wortwahl realistisch bleiben und nicht solche Ausdrücke wählen, dass das ATI-AF meilenweit hinter Nvidia´s AF ist.
Denn diese Behauptung ist schlichtweg eine Lüge.

kruemelmonster
2009-09-25, 10:11:18
Hängt euch doch nicht so beim AF auf.

Doch. Gute Filterung muss nicht viel kosten, das hat G80 bewiesen. Es ist nicht verständlich warum ATI keinen HQ-Schalter einbaut und es ist nicht verständlich warum der Großteil der ATI-Käufer dieser Forderung so ablehnend gegenüber steht.
Solange das ALDI-AF schöngeredet wird (ist ja ausreichend) und gleichzeitig 8xMSAA ohne AAA gehyped wird (muss sein, 4x reicht ja lange nicht) wird diese Diskussion weitergehen.

/edit:

Kritik ist ok, nur sollte man bei der Wortwahl realistisch bleiben und nicht solche Ausdrücke wählen, dass das ATI-AF meilenweit hinter Nvidia´s AF ist.
Denn diese Behauptung ist schlichtweg eine Lüge.

Die Videos von HT4U vermitteln mir aber genau diesen Eindruck. Das rote AF ist schlichtweg nicht konkurrenzfähig.

reunion
2009-09-25, 10:15:32
Spielt keine Rolle. Sie ist der einzige derzeit verfügbare Konkurrent.

Es spielt sehr wohl eine Rolle für deine vorherige Aussage, weil sie nur deshalb so teuer ist.


Mit den derzeitigen gammeligen Margen sollte man sich lieber nicht messen. Zur Erinnerung: RV870 wurde gerade erst gelauncht. ;)

Und es ist ein Performancechip der um $379 verkauft wird. Das ist für derartige Chips nicht wenig. Die X2 wird bestimmt >$500 landen.


Abwarten. Zunächst wäre das Angebot ja gar nicht so hoch und es ist eben die beste Karte am Markt. Sollten die Verkäufe doch nicht so laufen, kann man immer noch reduzieren. Angebot und Nachfrage. Aber offenbar will man das gar nicht optimal abschöpfen.

Man hat nicht ewig Zeit bis NV kommt, und bis dahin will man auch ein paar Karten verkaufen.


Die Ursachen stimmen schon. Aber so viel mehr machen können die IHVs da nicht. IMO ist eine zweite Ursache aber auch, dass das Verhältnis Nachfrage/Angebot beim Launch in letzter Zeit nicht abgeschöpft wurde. Dann betrieb ATI mit NV Dumping und schon war man in einer Spirale aus der man nicht rauskam und die beiden sehr wehtat.

NV hat oft genug selbst die Preise aggresiv gesenkt, und ansonsten zwingt NV oder ATI niemand mit der Konkurrenz mitzuziehen. Seien wir froh das es einen solchen Konkurrenzkampf gibt, denn es kommt letztendlich uns Kunden zu gute.



GT300 ist aber Monate später dran als RV870. In der Zeit ist man konkurrenzlos und man könnte abräumen.


Das macht man auch. Die Karten starten deutlich teurer als noch RV770. Aber alles muss irgendwo auch Maß und Ziel haben. Wer kauft schon eine 5870 um 500€ wenn man um 150€ eine 4890 bekommt?

Gast
2009-09-25, 10:16:18
Nvidia bietet SSAA gar nicht offiziell im Treiber an.
Warum wird denn das nicht kritisiert?
Siehe Raff.
Würde AMD eine gescheite Filterung per Fremdtool ermögliche, wäre ich in dem Punkt vollkommen zufrieden.

reunion
2009-09-25, 10:17:01
Doch. Gute Filterung muss nicht viel kosten, das hat G80 bewiesen. Es ist nicht verständlich warum ATI keinen HQ-Schalter einbaut und es ist nicht verständlich warum der Großteil der ATI-Käufer dieser Forderung so ablehnend gegenüber steht.
Solange das ALDI-AF schöngeredet wird (ist ja ausreichend) und gleichzeitig 8xMSAA ohne AAA gehyped wird (muss sein, 4x reicht ja lange nicht) wird diese Diskussion weitergehen.

ALDi-AF, LOL. Jede Wette das mindestens 90% der User welche hier so tun als ob das AF der ATi-Karten der letzte Rotz ist den Unterschied nicht mal bemerkt hätten wenn sie es hier nicht lesen würden.

Cyphermaster
2009-09-25, 10:20:34
Ich verstehe auch nicht, warum du krampfhaft versuchst, die Entscheidung gegen einen HQ-Modus als ökonomisch vernünftig zu verteidigen. Das ist in erster Line eine Entscheidung gegen die Kunden, dafür mag es Argumente geben, aber die Haltung dahinter spricht Bände."Verteidigen" (= gutheißen) tu ich das mit Sicherheit nicht! Wie du sagst: Es gibt Gründe dafür, und daher sollte man sich nicht der Illusion hingeben, man müßte sich irgendwas nur stark genug wünschen, dann würden die Hersteller das auch alle ganz brav genau dieses liefern. Die werden weiterhin nur das davon (und auch nur genau so viel davon, wie nötig) umsetzen, was aus ihrer Sicht wirtschaftlich interessant erscheint.
AMD ist eine aus Sicht der enthusiastischen PC-Gamer eine Schande.Aus der Sicht eines BQ-Fetischisten, ja. Leider wird es nicht so viel bringen, das "anzuprangern", solange nicht die Masse der User auch BQ-sensitiver wird. Stichwort: Einsamer Rufer in der Wüste...(...)und das schlimme ist, dass ihnen dieses Gehabe nicht einmal von der Fachpresse um die Ohren gehauen wird, sonst wäre dieser peinliche Habitus ganz schnell auch ökonomisch ein Desaster und wir hätten unseren Expertenmodus mit anständiger Filterung.Genau das halte ich für unwahrscheinlich. Oder haben sich die GF7 mit ihrem Flimmern als kompletter, unverkäuflicher Flop herausgestellt, weil es (wirklich!) massive Kritik gab? Die Masse der Leute -und auf die werden und die Produkte hin entwickelt- ist eben nicht so BQ- sondern mehr Balken-sensitiv. Die sind eher froh, daß ein ganz neues Spiel auf ihrer nicht-mehr-so-neuen Gurke überhaupt läuft, als daß sie sich drüber ärgern, daß das Spiel auf "ultrahigh"+reingepatchten Zusatztexturen mit 16xAF auf 1920x1080 immer noch Flimmerneigung hat. Auf einem 22"-Monitor sähe man bei 1920x1080 davon eh kaum was, könnte man diese Settings überhaupt fahren - anders sieht es natürlich aus, wenn man ein durchschnittliches 3DC-Gamer-System mit mindestens 24"-TFT mitsamt davor sitzendem BQ-Fetischisten und mitlaufendem AF-Tester als Basis nimmt, bei dessen Quadcore sich dabei eh mindestens zwei Kerne im Hintergrund langweilen. In diesem Segment versucht man schlicht, nicht mehr als ein Murren über Verbrauch, Lärm und BQ hervorzurufen, während man sich den "Siegespreis" des längsten Balken holt. Das reicht, alles andere ist nur "nice-to-have" und damit unter Kostenvorbehalt. Erst, wenn die breite Masse der User (und damit Käufer) sensibler wird, was die Filterung angeht, ist genügend Druck da, um auf kurze Zeit viel zu erreichen. Beispiel: GF6 -> GF7 gegenüber GF7->GF8. Bei den GF6 gab es auch schon Murren über die BQ, aber erst bei den GF7 war es dann so weitverbreitet und laut, daß nV reagierte.
Stattdessen Anadtech und HardOCP, wachsweiche PCGH und in einem Enthusiastenforum Diskussionen über Treiberstandard Nvidia Q und 8xMSAA unter völliger Ignoranz von Transparenz-Anti-Aliasing. ;(Ja, das ist schon etwas arg "weichgespült". Nix mehr "Hard".

Schnitzl
2009-09-25, 10:21:25
Auch wenn flimmerndes AF vielleicht nicht jeden stört, ist das ein Grund es totzuschweigen?nein. Aber vielleicht auch nicht auf jeder der inzwischen über 50 Seiten mind. 10 Mal erwähnen wie scheisse es doch ist???

Ich hab inzwischen ne 260 aber deshalb hack ich doch nicht ständig auf den ATI-Zeugs rum. *kopfschüttel*

/EDIT:

Die Videos von HT4U vermitteln mir aber genau diesen Eindruck. Das rote AF ist schlichtweg nicht konkurrenzfähig.Ich musste mir das mehrmals ansehen, um überhaupt einen Unterschied festzustellen...

kruemelmonster
2009-09-25, 10:21:49
ALDi-AF, LOL. Jede Wette das mindestens 90% der User welche hier so tun als ob das AF der ATi-Karten der letzte Rotz ist den Unterschied nicht mal bemerkt hätten wenn sie es hier nicht lesen würden.

Deine 90% kannst du behalten, Zahlen kann sich jeder aus der Nase ziehen.

Der Punkt ist doch der fehlende HQ-Schalter im CCC. Tut keinem weh, frisst kein Brot, trotzdem wird so getan als hätte sich der Teufel himself gute Filterung ausgedacht.

/edit:


/EDIT:Ich musste mir das mehrmals ansehen, um überhaupt einen Unterschied festzustellen...

So unterscheiden sich wohl die Wahrnehmungen...mir ist es sofort ins Auge gesprungen.

Ihm
2009-09-25, 10:22:16
ALDi-AF, LOL. Jede Wette das mindestens 90% der User welche hier so tun als ob das AF der ATi-Karten der letzte Rotz ist den Unterschied nicht mal bemerkt hätten wenn sie es hier nicht lesen würden.

Der Wette schliesse ich mich an. Sehe ich genau so.
Don't feed the Fanboy-Trolls!


Deine 90% kannst du behalten, Zahlen kann sich jeder aus der Nase ziehen.

Der Punkt ist doch der fehlende HQ-Schalter im CCC. Tut keinem weh, frisst kein Brot, trotzdem wird so getan als hätte sich der Teufel himself gute Filterung ausgedacht.

Natürlich wäre diese Option sehr begrüssenswert. Nur stellt das Fehlen dieser Option nicht gleich die ganze Sache in Frage. Got it?
Sicherlich gibt es auch Dinge, die man bei Nvidia verbessern kann. Das ändert aber nichts daran, dass die Produkte kein Schrott sind.
Es gibt rein produkttechnisch nunmal selten eine eierlegende Wollmilchsau.

Gast
2009-09-25, 10:23:18
Doch. Gute Filterung muss nicht viel kosten, das hat G80 bewiesen. Es ist nicht verständlich warum ATI keinen HQ-Schalter einbaut und es ist nicht verständlich warum der Großteil der ATI-Käufer dieser Forderung so ablehnend gegenüber steht.
Was meinst du damit, dass es nicht verständlich ist?
Ich denke eher dass es eine Limitierung der Hardware ist und ein HQ-Schalter keine Wirkung hätte.

Solange das ALDI-AF schöngeredet wird (ist ja ausreichend) und gleichzeitig 8xMSAA ohne AAA gehyped wird (muss sein, 4x reicht ja lange nicht) wird diese Diskussion weitergehen.
Hier hast du sicherlich recht. Doppelmoral.
8xMSAA hypen und auf AAA verzichten ist sicherlich verwerflich.
Transparenz-AA sollte meiner Meinung nach mittlerweile Standard sein. (auch bei Benchmark)
Ist bei mir immer an. :)

Gast
2009-09-25, 10:26:34
wo du doch immer auf deiner cry-engine rumreitest:
http://www.abload.de/thumb/lol3alo.png (http://www.abload.de/image.php?img=lol3alo.png)


Hier sieht man überigens imo sehr gut, dass die hd5870 zu wenig Bandbreite zur Verfügung steht.
Der Unterschied zw. ATI und Nvidea wird bei zunehmender Auflösung eher kleiner, wenn man zw. 4aa und 8aa vergleicht. Obwohl dies seit dem rv670 nicht so war.

Unterschied zw. HD5870 und GTX285:

1650er 4aa, 16af: +41%
1650er 8aa, 16af: +56% 15%-Punkte; Unterschied: 37%

1920er 4aa, 16af: +46%
1920er 8aa, 16af: +54% 8%-Punkte; Unterschied: 18%

Ich hoffe, man sieht was ich meine.

puntarenas
2009-09-25, 10:27:00
Uunwahrscheinlich. Oder haben sich die GF7 mit ihrem Flimmern als kompletter, unverkäuflicher Flop herausgestellt, weil es (wirklich!) massive Kritik gab?
Der "Treiber-Bug" wurde gefixt und GF7@HQ galt seitdem als durchaus respektabel, vor allem aber hat Nvidia den Kritikpunkt mit G80 eindrucksvoll beseitigt und nicht nur anhand der Filterblume.

reunion
2009-09-25, 10:29:18
Deine 90% kannst du behalten, Zahlen kann sich jeder aus der Nase ziehen.

Der Punkt ist doch der fehlende HQ-Schalter im CCC. Tut keinem weh, frisst kein Brot, trotzdem wird so getan als hätte sich der Teufel himself gute Filterung ausgedacht.

Es hat mehrere Jahre gedauert bis überhaupt jemand bemerkt hat dass das NV40 AF auf Q stark flimmerte. Sehr lange wurde es als gleichwertig oder sogar besser als bei R4xx angesehen und fleissig damit gebencht. Aber jetzt auf einmal bekommt natürlich jeder Augenkrebs beim deutlich besseren AMD-AF. Das ich nicht lache.

Gast
2009-09-25, 10:31:24
ALDi-AF, LOL. Jede Wette das mindestens 90% der User welche hier so tun als ob das AF der ATi-Karten der letzte Rotz ist den Unterschied nicht mal bemerkt hätten wenn sie es hier nicht lesen würden.
So schlimm wie bei dir ist es nicht, der die Blume lobt obwohl er den Unterschied nicht erkennt.
Die die meckern sehen eindeutig das flimmern in den Videos, ohne aufwändiges suchen sticht es sofort ins Auge.

Gast
2009-09-25, 10:32:57
Der "Treiber-Bug" wurde gefixt und GF7@HQ galt seitdem als durchaus respektabel, vor allem aber hat Nvidia den Kritikpunkt mit G80 eindrucksvoll beseitigt und nicht nur anhand der Filterblume.
Die Geizhals Links und Artikel wurden dem nie angepasst.

Durchaus beachtenswert, das AMD mit der 4. Generation immer noch ungeschoren davon kommt.

LovesuckZ
2009-09-25, 10:34:14
Es hat mehrere Jahre gedauert bis überhaupt jemand bemerkt hat dass das NV40 AF auf Q stark flimmerte. Sehr lange wurde es als gleichwertig oder sogar besser als bei R4xx angesehen und fleissig damit gebencht. Aber jetzt auf einmal bekommt natürlich jeder Augenkrebs beim deutlich besseren AMD-AF. Das ich nicht lache.

Ach, du meinst die r4xx Filterung, die von AMD als das Nonplusultra verschrieben wurde und sich dann herausgestellt hat, dass sie jeden angelogen haben? ;D
Aber es ist immer wieder erstaunlich, wie einige ihre Lieblingsfirma mit allen Mitteln verteidigen. Der NV40 ist so 2004. Komm in die Zukunft, dort wo man lebt.

kruemelmonster
2009-09-25, 10:34:48
Was meinst du damit, dass es nicht verständlich ist?
Ich denke eher dass es eine Limitierung der Hardware ist und ein HQ-Schalter keine Wirkung hätte.

Kommt aufs Gleiche hinaus. Falls es eine Limitierung der HW ist, wäre ein Schalter sinnlos, klare Sache. Aber falls es eine Limitierung der HW ist, dann ist sie mit Absicht da und nicht durch Zufall. Hätte ATI eine wirklich bessere Filterung bieten wollen und nicht nur eine rundere Blume, dann hätten sie die HW anpassen können und mittels Schalter im CCC HQ-Filterung ermöglichen können. Wollen sie aber nicht, und das ist das für mich unverständliche.

/edit:

Eigentlich ist es schon verständlich, aus der Marketingsicht heraus: Flimmern bekämpft man mit der neuen SSAA-Keule, macht +1 auf der Featurelist. Und man muß nicht zugeben dass das Radeon-AF Kacke ist. Das ist natürlich toll fürs Marketing, als Kunde fühl ich mich aber verarscht. 2 Milliarden Transistoren welche mir nicht HQ-Filterung bieten können. Tolle Wurst.

PCGH_Raffael
2009-09-25, 10:34:52
Ja, das ist schon etwas arg "weichgespült". Nix mehr "Hard".

HD 4000/3000/2000 gegen HD 5000:

- das AF flimmert weniger und ist winkelunabhängig
- flimmert es doch, jagt man SSAA drüber

Punkt zwei wirkt effektiv gegen Restflimmern. Ohne die Option auf (SG)SSAA hätten wir die HD 5870 nicht so gut wegkommen lassen, denn das AF ist wirklich nur minimal besser als bei älteren Radeon-Karten. Da Ati aber endlich eine Waffe gegen Flimmern integrierte, die Leistung immer für mindestens 2x SSAA reicht und dies die Texturen schon wunderbar beruhigt, ist das Flimmer-AF kein unbesiegbarer Feind mehr (wie bei der HD 4000).

MfG,
Raff

Cyphermaster
2009-09-25, 10:36:09
Deine 90% kannst du behalten, Zahlen kann sich jeder aus der Nase ziehen.Nichts desto trotz hat er wahrscheinlich recht. Alleine wenn ich meinen Bruder ansehe, der wirklich heftiger Gamer war (angefangen von Liga-WoW, also wirklich LAAANGE vor dem Bildschirm sitzend), sich für BQ-sensitiv hielt - und dem dann nicht mal aufgefallen ist, als mal sein Profil nicht griff und wochenlang weder AA noch AF aktiv waren... :rolleyes:
Der Punkt ist doch der fehlende HQ-Schalter im CCC. Tut keinem weh, frisst kein Brot, trotzdem wird so getan als hätte sich der Teufel himself gute Filterung ausgedacht.Da irrst du:
- Tut weh (ich gehe von deutlich schlechterer Performance gegenüber nV aus)
- Frisst Brot (ich gehe gleichfalls davon aus, daß bereits die Hardware auf dieses Konzept passend runtergespart wurde, alles andere wäre Verschwendung! D.h., Treiberkonzept komplett überarbeiten)
=> AMD muß sich darauf verlegen, die eigene Filterung als "absolut ausreichend" zu vertreten, auch wider besseres Wissen der Techniker.

Ein Konzeptwechsel ist aufwendig, und schluckt bei notwendiger Hardware-Konzeptentwicklung auch massig Ressourcen. Ich schätze, das will man sich für den G300-Konter aufheben, und jetzt nochmal mit einem simplen "HD4000-Refresh" = HD5000 schnell vorher noch etwas Geld machen, ohne viel zu investieren.

LovesuckZ
2009-09-25, 10:36:36
HD 4000/3000/2000 gegen HD 5000:

- das AF flimmert weniger und ist winkelunabhängig
- flimmert es doch, jagt man SSAA drüber

Punkt zwei wirkt effektiv gegen Restflimmern. Ohne die Option auf (SG)SSAA hätten wir die HD 5870 nicht so gut wegkommen lassen, denn das AF ist wirklich nur minimal besser als bei älteren Radeon-Karten. Da Ati aber endlich eine Waffe gegen Flimmern integrierte, die Leistung immer für mindestens 2x SSAA reicht und dies die Texturen schon wunderbar beruhigt, ist das Flimmer-AF eben kein unbesiegbarer Feind (wie bei der HD 4000).

MfG,
Raff

Oh und was macht man in Anwendungen, die kein SSAA ermöglichen? :rolleyes:
SSAA ist kein Flimmerkiller. Genauso wie z.B. 16xCSAA kein 8xMSAA Killer ist.

Gast
2009-09-25, 10:39:46
Ist bei dem AF Tester eigentlich bei dem Nvideas HQ aktiviert? Dann sollte es klar sein, dass es besser aussieht. Die meisten Reviews habe ja default vergliechen und die IQ bei eben default für vergleichbar empfunden. Das war ja der Kritikpunkt von den meisten, dass keine vergleichbarkeit gegen war, weil Nvideas default besser filterte wie ATIs. Deshalb forderten doch die meisten mit Ai OFF zu testen. Jetzt wo die Vergleichbarkeit gegenben ist, hört man von den Kritikern aber nichts mehr von der jetzt gegebenen Vergleichbarkeit.

Jetzt geht es nur noch um den HQ-Schalter. Und ja das ist natürlich ein Vorteil für eine Nvidea!

Genauso wie es früher hieß, dass zw. Q und HQ kein großer Unterschied wäre. Jetzt liegen auf einem Welter dazwischen und Q ist "Aldi-Filter"? denn Q=AI bei den rv870!

PCGH_Raffael
2009-09-25, 10:41:09
Oh und was macht man in Anwendungen, die kein SSAA ermöglichen? :rolleyes:
SSAA ist kein Flimmerkiller. Genauso wie z.B. 16xCSAA kein 8xMSAA Killer ist.

Nenn mir doch mal 10 Spiele, bei denen kein AA (jeglicher Form) geht.

In unseren Tests funktionierte das Ati-SSAA überall dort, wo auch MSAA unter Direct3D9 funktioniert. Ergo: theoretisch in 99,999999991337 Prozent aller Spiele da draußen. D3D10 (und damit auch 11) ist bisher ein No-go für SSAA.

MfG,
Raff

Gast
2009-09-25, 10:46:18
Ist bei dem AF Tester eigentlich bei dem Nvideas HQ aktiviert?
Ja sieht man doch

puntarenas
2009-09-25, 10:47:18
Nenn mir doch mal 10 Spiele, bei denen kein AA (jeglicher Form) geht.

Spiele, bei denen SSAA-(Hybrid-)Modi (un)scharf sind
(http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443275)

Nur Nvidia, aber das Blur-Problem scheint AMD ja ebenfalls zu treffen. Außerdem ist da immer noch der Performance-Hit, wobei SuperSampling jetzt ein schönes Argument für Crossfire sein könnte.

Cyphermaster
2009-09-25, 10:50:01
Punkt zwei wirkt effektiv gegen Restflimmern. Ohne die Option auf (SG)SSAA hätten wir die HD 5870 nicht so gut wegkommen lassen, denn das AF ist wirklich nur minimal besser als bei älteren Radeon-Karten. Da Ati aber endlich eine Waffe gegen Flimmern integrierte, die Leistung immer für mindestens 2x SSAA reicht und dies die Texturen schon wunderbar beruhigt, ist das Flimmer-AF kein unbesiegbarer Feind mehr (wie bei der HD 4000).Ich rede sicherlich die Verbesserungen nicht schlecht. Aber es ist nun mal weder besonders gut, wenn man zugunsten längerer Balken eingeführte Spar-Filter hinterher mit einer Performance-Fresser-Option, die noch nicht mal überall greift, noch völlig problemfrei ist, wieder ausgleichen muß - und das kann nun mal nicht die Waffe gegen Flimmern sein.
Das ist, als ob man (wieder) ein Auto mit schier unglaublichem Lärmpegel baut, und als neue "Lösung" ein Oropax-Abo mitliefert! Scheiß Filterung bleibt scheiß Filterung, ob nun mit einem "Workaround" teilweise behebbar oder nicht.

Die Meßlatte ist nicht die HD4, sondern die jeweils aktuelle Konkurrenz - und die hat seit dem G80 diesbezüglich eben im Bereich HQ die besseren Karten (im doppelten Wortsinn). Damit muß AMD leben, und das sollte sich imho dementsprechend auch in den Reviews finden. Am Ende muß eh der User entscheiden, wie gut/schlecht er die neuen HD5 findet, und ob ihm "Q" genug ist.

Gast
2009-09-25, 10:51:47
also ich hab mir jetzt das hier auch mal angesschaut:

http://ht4u.net/reviews/2009/amd_ati...870/index7.php

Vorerst: Ich glaube denjenigen, die sagen, dass die gtx275 dort besser filtert, auch sichtbar.

Aber ich habe mir die Videos angeschaut und sehe keinen Unterschied?! Ich mach da wohl was falsch. Weiß aber nicht was.

kruemelmonster
2009-09-25, 10:53:49
Da irrst du:
- Tut weh (ich gehe von deutlich schlechterer Performance gegenüber nV aus)
- Frisst Brot (ich gehe gleichfalls davon aus, daß bereits die Hardware auf dieses Konzept passend runtergespart wurde, alles andere wäre Verschwendung! D.h., Treiberkonzept komplett überarbeiten)
=> AMD muß sich darauf verlegen, die eigene Filterung als "absolut ausreichend" zu vertreten, auch wider besseres Wissen der Techniker.


Jein. Umsonst wird HQ wohl nicht sein können, wieviel % fps es kosten würde kann außer ATI aber wohl keiner sagen. Bei NV kostet es jedesfalls so gut wie nix.

Aber: selbst wenn der Schalter 50% fps fressen würde...Na und? Mit extremen AA darf man sich die fps ja auch killen, warum nicht auch mit AF?

Ein Konzeptwechsel ist aufwendig, und schluckt bei notwendiger Hardware-Konzeptentwicklung auch massig Ressourcen. Ich schätze, das will man sich für den G300-Konter aufheben, und jetzt nochmal mit einem simplen "HD4000-Refresh" = HD5000 schnell vorher noch etwas Geld machen, ohne viel zu investieren.

Es wäre zu hoffen dass es so kommt, ein weiterer Aufguss der R600 Architektur wird wohl nicht mehr kommen.

Gouvernator
2009-09-25, 10:54:43
Das ist ja fast unerträglich von irgendwelchen Leuten seitenlang über schlechtes AF zu lesen. Die diesen Hersteller überhaupt nicht im Rechner haben bzw. wollen ihn grundsätzlich nicht haben. Die stellen sich wie die grössten Opfer dar.

Für mich ist die Karte OK. Ein bisschen überteuert aber OK. Wie der AF bei NV aussieht weiss ich, aber ich will weder NV noch den AF von denen, einfach weil sie für mich zu teuer sind.

reunion
2009-09-25, 11:00:03
Ach, du meinst die r4xx Filterung, die von AMD als das Nonplusultra verschrieben wurde und sich dann herausgestellt hat, dass sie jeden angelogen haben? ;D
Aber es ist immer wieder erstaunlich, wie einige ihre Lieblingsfirma mit allen Mitteln verteidigen. Der NV40 ist so 2004. Komm in die Zukunft, dort wo man lebt.

Erstaunlich ist höchstens das du anderen vorwirfst ihre Lieblingsfirma zu verteidigen und selbst der ärgste von allen bist. Ansonsten wie üblich keine Argumente, sondern wie immer nur leere Phrasen. Aber das kennt man ja von dir. Es war ganz einfach so das es damals verdammt lange kein Schwein gemerkt hat. Das ist Fakt. Und keine Ahnung was du mit dem ersten Satz meinst, aber da verwechselt du wohl eher R4xx mit NV4x.

Pirx
2009-09-25, 11:00:49
Scheint ne Top-Karte zu sein, alle Kritikpunkte wurden angegangen und verbessert.
Natürlich ist es kritikwürdig, daß das AF nicht auf nv-HQ-Niveau ist, aber bleibt doch mal auf dem Teppich, Leute*kopfschüttel* es gibt auch noch ein paar viele andere Aspekte.

PCGH_Raffael
2009-09-25, 11:01:36
Spiele, bei denen SSAA-(Hybrid-)Modi (un)scharf sind
(http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443275)
Nur Nvidia, aber das Blur-Problem scheint AMD ja ebenfalls zu treffen. Außerdem ist da immer noch der Performance-Hit, wobei SuperSampling jetzt ein schönes Argument für Crossfire sein könnte.

Ich rede sicherlich die Verbesserungen nicht schlecht. Aber es ist nun mal weder besonders gut, wenn man zugunsten längerer Balken eingeführte Spar-Filter hinterher mit einer Performance-Fresser-Option, die noch nicht mal überall greift, noch völlig problemfrei ist, wieder ausgleichen muß - und das kann nun mal nicht die Waffe gegen Flimmern sein.
Das ist, als ob man (wieder) ein Auto mit schier unglaublichem Lärmpegel baut, und als neue "Lösung" ein Oropax-Abo mitliefert! Scheiß Filterung bleibt scheiß Filterung, ob nun mit einem "Workaround" teilweise behebbar oder nicht.

Die Meßlatte ist nicht die HD4, sondern die jeweils aktuelle Konkurrenz - und die hat seit dem G80 diesbezüglich eben im Bereich HQ die besseren Karten (im doppelten Wortsinn). Damit muß AMD leben, und das sollte sich imho dementsprechend auch in den Reviews finden. Am Ende muß eh der User entscheiden, wie gut/schlecht er die neuen HD5 findet, und ob ihm "Q" genug ist.

Versteht mich nicht falsch: Ich sehe das AF natürlich auch noch als kritisch an. Aber das hat bei den HD-4800-Karten komischerweise weniger Leute gestört als jetzt, wo etwas bessere Qualität auf den Schirm kommt. Kompatibilitätsprobleme hin oder her: Die mit Abstand meisten Spiele lassen sich mit einer HD 5800 dank SSAA flimmerfrei spielen, während die Vorgänger versagen.

MfG,
Raff

Gast
2009-09-25, 11:04:26
Interessant...
Erstmals ist HW wohl eher in NL als in D: kommen die Container jetzt erst nach Rotterdam, anstatt nach Hamburg???
http://www.alternate.nl/html/categoryListing.html?cat1=9&cat2=474&cat3=0&bfbox=1&&tn=HARDWARE&l1=Grafische+kaarten&l2=PCIe+kaarten+ATI&l3=Radeon+HD5000&
Club3d, XFX, Sapphire: 5870 sofort lieferbar!
Vonwegen Paperlaunch...

Cyphermaster
2009-09-25, 11:05:26
Aber: selbst wenn der Schalter 50% fps fressen würde...Na und? Mit extremen AA darf man sich die fps ja auch killen, warum nicht auch mit AF?Dir wäre es egal, aber AMD wird sich wohl kaum größeres Bashing in form kurzer Balken in irgendwelchen Reviews einhandeln wollen. Wenn ein AMD-HQ da ist, wird es gegen nV-HQ gebencht werden...
Das ist ja fast unerträglich von irgendwelchen Leuten seitenlang über schlechtes AF zu lesen. Die diesen Hersteller überhaupt nicht im Rechner haben (...)Ich habe ATI in einem meiner Rechner, und wußte vorher von deren AF. Das macht das AF aber deswegen nicht besser, also darf man prinzipiell auch drüber reden, oder? Solange man die Karten nicht alleine darauf reduziert, ist es doch in Ordnung, die Schwächen des Designs zu erörtern.
Wie der AF bei NV aussieht weiss ich, aber ich will weder NV noch den AF von denen, einfach weil sie für mich zu teuer sind.Ist doch auch ok als Meinung. Allerdings beißt es sich mit dem Satz davor von wegen "überteuert"... ;)

y33H@
2009-09-25, 11:06:21
Für mich ist die Karte OK. Ein bisschen überteuert aber OK. Überteuert? Nur weil AMD und NV den Markt in den letzten Monaten mit Dumping-Preisen geschreddert haben ...

Gouvernator
2009-09-25, 11:10:15
Interessant...
Erstmals ist HW wohl eher in NL als in D: kommen die Container jetzt erst nach Rotterdam, anstatt nach Hamburg???
http://www.alternate.nl/html/categoryListing.html?cat1=9&cat2=474&cat3=0&bfbox=1&&tn=HARDWARE&l1=Grafische+kaarten&l2=PCIe+kaarten+ATI&l3=Radeon+HD5000&
Club3d, XFX, Sapphire: 5870 sofort lieferbar!
Vonwegen Paperlaunch...
Du willst doch nicht im Ernst solche Deppensteuer an Alternate bezahlen?:freak:
Im Grunde könnte ich jetzt sofort nach Alternate D fahren und dort fragen ob sie was haben. Meistens haben sie immer bei Paperlanch Karten auf Lager die nicht im Online Shop sichtbar sind. Aber wenn ich so sehe wie die Preise bereits jetzt purzeln, muss man doch keine extra 50€ Alternate schenken...

Gast
2009-09-25, 11:13:39
geh zum augenarzt!

Gast
2009-09-25, 11:14:21
Du willst doch nicht im Ernst solche Deppensteuer an Alternate bezahlen?:freak:
Im Grunde könnte ich jetzt sofort nach Alternate D fahren und dort fragen ob sie was haben. Meistens haben sie immer bei Paperlanch Karten auf Lager die nicht im Online Shop sichtbar sind. Aber wenn ich so sehe wie die Preise bereits jetzt purzeln, muss man doch keine extra 50€ Alternate schenken...

Die Preise ziehen schon wieder an...

kruemelmonster
2009-09-25, 11:15:04
Dir wäre es egal, aber AMD wird sich wohl kaum größeres Bashing in form kurzer Balken in irgendwelchen Reviews einhandeln wollen. Wenn ein AMD-HQ da ist, wird es gegen nV-HQ gebencht werden...


...und genau da wollen wir doch hin. HQ von beiden IHVs. Wenn AMD dann den kürzeren zieht, haben sie vllt endlich die Motivation mit dem 3 Jahren alten G80 gleichziehen zu wollen/müssen.

Ihm
2009-09-25, 11:15:53
Überteuert? Nur weil AMD und NV den Markt in den letzten Monaten mit Dumping-Preisen geschreddert haben ...

Und woher weisst du, dass es Dumpingpreise sind/waren?
Weil du als Maßstab die vorherigen Preise nimmst?
Könnten denn genau eben diese Preise nicht schon überteuert gewesen sein?

Alles immer eine Sache der Perspektive.

Gast
2009-09-25, 11:17:35
Nenn mir doch mal 10 Spiele, bei denen kein AA (jeglicher Form) geht.

In unseren Tests funktionierte das Ati-SSAA überall dort, wo auch MSAA unter Direct3D9 funktioniert. Ergo: theoretisch in 99,999999991337 Prozent aller Spiele da draußen. D3D10 (und damit auch 11) ist bisher ein No-go für SSAA.

MfG,
Raff
Du beantwortest dir selbst die Frage.

1. SSAA verbirgt nur in D3D9 das Schummel-AF.
Schummel-AF in Verbindung mit MSAA und AAA unter D3D10 macht weiterhin wenig Spass.
2. Dank Schummel AF kann SSAA nicht sein volles Potential entfalten, um das Flimmern zu bekämpfen kann nicht ganz so heftig am LOD Regler gespielt werden.

Gouvernator
2009-09-25, 11:17:39
Überteuert? Nur weil AMD und NV den Markt in den letzten Monaten mit Dumping-Preisen geschreddert haben ...
Ja das erwarte ich von heutiger Hardware auch. Deswegen auch das "überteuert". Du willst doch nicht etwa sagen, das mir als Konsumenten die niedrigen Preise nicht gefallen haben? :tongue: So sollte es in meinen Augen weiter gehen.

2B-Maverick
2009-09-25, 11:21:07
Bzgl. des AF:
Ich habe selber eine 4850er und sehe da nur höchst selten ein Flimmern. Spiele aber auch meistens nur Flugsimulatoren.

In den Videos von HT4u sieht man das Flimmern ja sehr deutlich. Dit GTX275 is dort ja wirklich wesentlich ruhiger.

Ist das in einigen Spielen tatsächlich so auffällig? Oder ist das nur ein Test-Scenario, was so in dieser Art nur höchst selten auftritt?
Ist evtl. das Shader-Flimmern heutzutage das größere Übel, wogegen auch NV nix machen kann?

Der_Korken
2009-09-25, 11:23:28
Seh ich das eigentlich richtig, dass die 5870 nur etwa so viel schneller als die 5850, wie sie Taktvorteil hat? Bei den Reviews auf der ersten Seite habe ich jedenfalls diesen Eindruck. Der RV870 nutzt also seine 20 SIMDs nicht annähernd aus. Kann man da über den Treiber noch was rausholen, oder hat man da irgendwo im Chip gespart? Und wäre HQ-AF - würde ATI es anbieten - dadurch nicht sowieso extrem billig, da ja sowieso sehr viel Rechenleistung brachliegt?

w0mbat
2009-09-25, 11:24:10
Komisch. Es wurde bei den HD4000er zwar darüber geredet, aber seit das AF wirklich besser geworden ist, hetzten die NV-Fanboys noch mehr. Man hat fast den Eindruck es hätte sich verschlechtert.

Gouvernator
2009-09-25, 11:26:21
Bei mir sehe ich das Flimmern wenn ich mit viel AA +eventuell Downsamling zocke. Dann, wenn alles wie Kanten, Gras, Shader ect. beruhigt wurde kommen flimmernde Texturen. In Oblivion bei 2560x1600@12xEdgeAA+ASBT sehe ich flimmernde Texturen die einfach nur perfekte Bildqualität stören. Bei kleineren BQ Einstellungen gibt es weit mehr störende Quellen als Texturen.

Gast
2009-09-25, 11:27:08
Du beantwortest dir selbst die Frage.

1. SSAA verbirgt nur in D3D9 das Schummel-AF.
"Nur"?
Ist das jetzt ein Witz oder wie?
Wir haben DEUTLICH mehr D3D9-Spiele als DX10.

Schummel-AF in Verbindung mit MSAA und AAA unter D3D10 macht weiterhin wenig Spass.
Ich zocke zur Zeit The Witcher, wo das ATI-AF grenzwertig ist, Spass habe ich trotzdem jede Menge =)

Und was meinst du mit Schummel-AF?
Ich würde es eher als "Spar"-AF bezeichen, wenn man denn unbedingt EXTREM abwertend sein möchte.
Da die AF-Qualli aber etwas verbessert wurde, halte ich solche Kraftausdrücke für unangebracht.

Ihr müsst mal die Wortwahl der Realität anpassen.

Cyphermaster
2009-09-25, 11:27:10
...und genau da wollen wir doch hin. HQ von beiden IHVs. Wenn AMD dann den kürzeren zieht, haben sie vllt endlich die Motivation mit dem 3 Jahren alten G80 gleichziehen zu wollen/müssen.Nur: Auch wenn wir jetzt schon genug Druck ausüben würden -warum sollten sie das JETZT tun? Sowas macht sich besser, nachdem der G300 draußen ist, mit HD6000, oder? Für eine "Bridging"-Karte sind die HD5000 nicht übel im Grundsatz. Als High-End-HD58xx mit Anspruch auf die Grafik-Krone haben sie sicher nur eine recht kurze Halbwertszeit, aber an nicht-hardcore-Gamer, die in einiger Zeit eine günstige & flotte Karte haben wollen, kann man so einen Chip sicher gut los werden.

Gibts eigentlich schon neuere Infos dazu, wie die "kleineren" HD5-Serien aussehen werden/sollen?

Matrix316
2009-09-25, 11:32:08
Und ich behaupte mal 99% der Leute außerhalb dieses Forums nutzen eh nur das standard AF - bei ATI UND Nvidia. Die setzen, wenn überhaupt, höchstens im Spiel AA (je nach dem) und AF so hoch wie es geht und fertig.

Ich meine, es gibt Leute die nutzen auf einem 19" TFT 1024x768 als Auflösung, weil ihnen 1280x1024 zu klein ist. (von den Icons und Texten her) Und da glaubt ihr, die interessieren sich für AF? ;)

kruemelmonster
2009-09-25, 11:35:27
Nur: Auch wenn wir jetzt schon genug Druck ausüben würden -warum sollten sie das JETZT tun? Sowas macht sich besser, nachdem der G300 draußen ist, mit HD6000, oder? Für eine "Bridging"-Karte sind die HD5000 nicht übel im Grundsatz. Als High-End-HD58xx mit Anspruch auf die Grafik-Krone haben sie sicher nur eine recht kurze Halbwertszeit, aber an nicht-hardcore-Gamer, die in einiger Zeit eine günstige & flotte Karte haben wollen, kann man so einen Chip sicher gut los werden.


Für die aktuelle Generation ist der Drops gelutscht, da wird nichts mehr kommen. Aber wenn jetzt kein Druck seitens der großen Publikationen gemacht wird, wird HD6k auch nicht besser filtern können als HD2/3/4/5k.
Ohne Geizhals Links bei den Radeons wird sich nichts ändern...und danach sieht es momentan absolut nicht aus nachdem ja alle ganz entzückt ATI die BQ-Krone aufgesetzt haben. Wofür eigentlich nochmal?

/edit:

Komisch. Es wurde bei den HD4000er zwar darüber geredet, aber seit das AF wirklich besser geworden ist, hetzten die NV-Fanboys noch mehr. Man hat fast den Eindruck es hätte sich verschlechtert.

Ich sehe hier (http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php) keine wirkliche Besserung. Da brauchst du auch gar nicht mit der NV-Fanboy-Keule kommen. Vernünftige AF ist bei der fetten HW doch wohl nicht zuviel verlangt. Darum gehts und nicht darum ATI in den Dreck zu ziehen.

puntarenas
2009-09-25, 11:35:48
Nur: Auch wenn wir jetzt schon genug Druck ausüben würden -warum sollten sie das JETZT tun? Sowas macht sich besser, nachdem der G300 draußen ist, mit HD6000, oder?
Nachdem AMD jetzt eine Marketing-Abteilung zu haben scheint, wäre es sehr einleuchtend, sich noch mal eine Verbesserungsstufe offen zu lassen. Irgendwann wird man schließlich die R600-Pfade verlassen, kann dann die Hardware entsprechend aufmöbeln und ohne an der Filterleistung zu krepieren anständige Bilder malen. So man denn möchte, die Vergangenheit spricht nicht dafür, aber wenn wir optimistisch sein wollen ist der "trend our friend".

Ironie des Schicksals wäre ja, wenn sich Nvidia beim G80-Design verzettelt hätte und die TEX-Anforderungen der Spiele sich erheblich moderater entwickelt hätten als projeziert. Das hätte uns dann den HQ-Modus mehr zufällig als gewollt beschert, aber dieser Fehler lässt sich in einem grundlegend neuen Folgedesign ja korrigieren, vielleicht schon mit GT300?

Wir, denen Bildqualität egal ist... !

Gast
2009-09-25, 11:40:23
"Nur"?
Ist das jetzt ein Witz oder wie?
Wir haben DEUTLICH mehr D3D9-Spiele als DX10.
Schade, gerade hast du Argument "Vorsorglich D3D11 zu haben ist toll" verspielt. ;)

Gast
2009-09-25, 11:42:16
Und was meinst du mit Schummel-AF?
Ich würde es eher als "Spar"-AF bezeichen, wenn man denn unbedingt EXTREM abwertend sein möchte.
Da die AF-Qualli aber etwas verbessert wurde, halte ich solche Kraftausdrücke für unangebracht.

Schummel, weil sich der FPS Balken erschummelt wird.
Nötig wärs nicht, die 5870 hat 80 TMUs bei einen recht hohen Takt.

Gast
2009-09-25, 11:42:24
echt zum Totlachen!
90% der NV Fanboys wissen doch noch nichtmal das es einen HQ Einstellung gibt, ich muß mir doch nur hier im Forum die Bildchen anschauen was die an AA verkaufen, sowas lächerliches.

Das Kärtchen ist einfach klasse und PUNKT.
Das ist ne Single Karte auf locker X2 Standard und wer mal Multi oder SLi/CF hatte weiß was das heißt.

Und mit eurem AF geflame ändert ihr das auch nicht.
Es reicht vollkommen aus und Ende, und wenn die extrem BQ Fanatiker das nicht wahr haben wollen, auch gut, dann sollen sie weiter NV kaufen und gut ist.

für ~320 Ocken was will man (n) mehr.

Gast
2009-09-25, 11:44:12
wenns den G300 für 320€ gibt werd ich auch mal schwach, oder man wartet dann doch besser auf den refresh vom refresh....mich verarschen die Halsabschneider nicht mehr.

Cyphermaster
2009-09-25, 11:52:49
Ironie des Schicksals wäre ja, wenn sich Nvidia beim G80-Design verzettelt hätte und die TEX-Anforderungen der Spiele sich erheblich moderater entwickelt hätten als projeziert.Sowas passiert doch durchaus, daß man sich mal etwas verplant - siehe die HD2000. Könntest du ausschließen, daß es so war? ;)

robbitop
2009-09-25, 12:04:22
Da Ati aber endlich eine Waffe gegen Flimmern integrierte, die Leistung immer für mindestens 2x SSAA reicht und dies die Texturen schon wunderbar beruhigt, ist das Flimmer-AF kein unbesiegbarer Feind mehr (wie bei der HD 4000).

Und was ist mit aktuellen Spielen (> DX10)? Dort greift das Verfahren nicht oder produziert Matsch. Und selbst wenn nicht, kostet es halt doch FPS so dass 2xSGSS vieleicht auch nicht immer drin sind.
Anständiges AF ist wesentlich billiger und man sollte das eine mit dem anderen nicht vergleichen. IMO unabhängig vom SSAA (toll!) ein wirklicher Malus.
Aber ehrlich gesagt finde ich subjektiv viel(!!) schlimmer, dass SGSSAA von der Kompatibilität nicht berauschend ist. :(

robbitop
2009-09-25, 12:09:20
Seh ich das eigentlich richtig, dass die 5870 nur etwa so viel schneller als die 5850, wie sie Taktvorteil hat? Bei den Reviews auf der ersten Seite habe ich jedenfalls diesen Eindruck. Der RV870 nutzt also seine 20 SIMDs nicht annähernd aus. Kann man da über den Treiber noch was rausholen, oder hat man da irgendwo im Chip gespart? Und wäre HQ-AF - würde ATI es anbieten - dadurch nicht sowieso extrem billig, da ja sowieso sehr viel Rechenleistung brachliegt?
Ich vermute, dass da beim Treiber noch einiges im Argen liegt. Ob das taktischer (bzgl der GT300 Einführung?) oder zeitlicher Natur ist, weiß ich nicht. Ich denke jedoch, dass wir zum GT300 Launch vermutlich einen neuen Treiber sehen werden, der RV8xx noch ein Stück nach vor bringt.
G80 war zum Launch bspw. auch nur 1,6 - 1,8x so schnell wie R580. Heute vermutlich ein Stückchen mehr.

puntarenas
2009-09-25, 12:14:44
Ob das taktischer (bzgl der GT300 Einführung?) oder zeitlicher Natur ist, weiß ich nicht. Ich denke jedoch, dass wir zum GT300 Launch vermutlich einen neuen Treiber sehen werden, der RV8xx noch ein Stück nach vor bringt.
Naja, an taktische Zurückhaltung mag ich nicht so recht glauben, aber dass Launchtreiber noch nicht ausoptimiert sind, ist nur natürlich. Zukunftshoffnung macht ja auch das CoputeShader-Beispiel mit BattleForge, auf Sicht könnte die brachiale theoretische Rechenleistung einer HD5870 schon noch etwas greifbarer werden. Andererseits, bis entsprechende Spiele weit verbreitet sind, wird es die Karte vermutlich nicht einmal mehr zu kaufen geben.

Gast
2009-09-25, 12:40:12
Ich hoffe bei der ganzen Filterdiskussion ist euch klar, dass
1) das Flimmern in Extremsituationen auftritt und nicht Standard ist
2) es sehr viele Spiele gibt, bei der die schlechtere Filterung keinen Unterschied macht wie zB Strategietitel?

Wer ständig FPS spielt und auch noch solche wo es öfter flimmert muss dann halt zu Nvidia greifen, aber es gibt genug Leute die eben Spiele spielen wo sie nur selten auf Flimmern stoßen. Warum sollte sich so jemand eine teurere Nvidia kaufen damit es in 0,01% der Zeit nicht flimmert?

Spasstiger
2009-09-25, 12:40:35
Der RV870/Cypress scheint echt einen Flachenhals bei der Setup-Engine zu haben. Man vergleiche die HD-5850-Benchmarks bei Computerbase und techPowerUp:
- http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/1.html
- http://www.computerbase.de/artikel/hardware/grafikkarten/2009/vorschau_ati_radeon_hd_5850/#abschnitt_einleitung

Bei Computerbase wird die HD 5850 nur durch Untertakten simuliert. Damit arbeitet die Setup-Engine 10% langsamer als bei einer echten HD 5850. Bei techPowerUp hat man Einheiten deaktiviert und simuliert somit fast eine echte HD 5850 (Unterschiede beim Ramtiming könnten vorhanden sein).
Bei techPowerUp ist die HD 5870 in 1920x1200 mit 4xAA (wenn möglich) im Schnitt um 15% schneller als die HD 5850, der maximale Vorteil in Einzelbenchmarks liegt bei 21%. Bei Computerbase ist die HD 5870 bei gleichen Einstellungen im Schnitt um 27% schneller, bei Einzelbenchmarks sogar bis zu 28%.
Im Schnitt ist die simulierte HD 5850 bei Computerbase also fast 10% langsamer als die HD 5850 bei techPowerUp. Zufälligerweise entspricht das gerade dem Chiptaktunterschied und somit dem Performanceunterschied der Setup-Engine (und der ROPs, aber die dürften ausreichend dimensioniert sein).

Der_Korken
2009-09-25, 12:53:51
Beim RV770 ist mir auch schon aufgefallen, dass das Setup oder generell etwas, das vom RV670 nicht entsprechend erweitert wurde, limitiert hat. 10 SIMDs waren nur etwa doppelt so schnell wie 4 SIMDs. Und nun sind 20 SIMDs nur 60% schneller als 10 SIMDs. Vielleicht hätte ATI es bei 16 SIMDs belassen sollen und sich lieber um das Setup kümmern sollen.

Advanced
2009-09-25, 12:55:06
Darf ich als Laie fragen, was ich mir unter "Setup-Engine" vorzustellen habe? :)
Woran haperts jetzt genau beim RV870?

cipoint
2009-09-25, 12:56:17
Beim RV770 ist mir auch schon aufgefallen, dass das Setup oder generell etwas, das vom RV670 nicht entsprechend erweitert wurde, limitiert hat. 10 SIMDs waren nur etwa doppelt so schnell wie 4 SIMDs. Und nun sind 20 SIMDs nur 60% schneller als 10 SIMDs. Vielleicht hätte ATI es bei 16 SIMDs belassen sollen und sich lieber um das Setup kümmern sollen.

Ist das Bandbreitenproblem jetz vom Tisch? Es gibt ja immer noch keine genaueren Untersuchungen zur Skalierung der Leistung mit der Bandbreite.

PCGH_Raffael
2009-09-25, 12:57:40
Es existieren sehr viele Fälle, wo eine HD 4870 rund 2,5 Mal so schnell ist wie eine HD 3870 – gerade mit aktivem CFAA. Das gilt immer dann, wenn absolute Grafiklimitierung herrscht und der VRAM ausreicht. Das sieht man in den aktuellen Benchmarks ab hier: http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=8

MfG,
Raff

cipoint
2009-09-25, 13:01:21
Darf ich als Laie fragen, was ich mir unter "Setup-Engine" vorzustellen habe? :)
Woran haperts jetzt genau beim RV870?

Ich denke, die meinen die ROPs, die nicht mit den Shadern deaktiviertn wurden.

Gast
2009-09-25, 13:10:50
http://www.fudzilla.com/content/view/15692/1/

falls es wen interessiert

Gast
2009-09-25, 13:11:59
Ich denke, die meinen die ROPs, die nicht mit den Shadern deaktiviertn wurden.
Nein es ist/sind der/die Rasterizer gemeint.

Wieviele Dreiecke haut ein RV870 raus?

Spasstiger
2009-09-25, 13:13:27
Ich denke, die meinen die ROPs, die nicht mit den Shadern deaktiviertn wurden.
Nein. Die HD 5850 hat 32 ROPs genauso wie die HD 5870 und die Setup-Engine hat nichts mit den ROPs zu tun. Während die ROPs die letzte Stufe der Renderpipeline darstellen und die finalen Pixel in den Framebuffer schreiben, steht die Setup-Engine fast ganz am Anfang und ermittelt wichtige Parameter/Koordinaten für das weitere Rendering.

Der_Korken
2009-09-25, 13:17:22
Es existieren sehr viele Fälle, wo eine HD 4870 rund 2,5 Mal so schnell ist wie eine HD 3870 – gerade mit aktivem CFAA. Das gilt immer dann, wenn absolute Grafiklimitierung herrscht und der VRAM ausreicht.

Oh, dann hatte ich das falsch in Erinnerung. Ich hatte mir seit dem Launch der 4870 keine Vergleiche mehr zur 3870 angeguckt und da war 4870 ~ 2*3870.

Ich denke, die meinen die ROPs, die nicht mit den Shadern deaktiviertn wurden.

Ich bin selbst im Grunde nur Laie, aber ich mit den ROPs hat es trotzdem nichts zu tun. Unter Setup stelle ich mir eher den Teil des Chips vor, der überhaupt erst die Rechenarbeit für die ALUs generiert. Ist das Setup zu langsam kriegen die ALUs auch nicht genug Futter. Das äußert sich dann darin, dass der Chip mit 18 und 20 SIMDs fast identische Leistung hat. Das Setup ist vom Chiptakt abhängig und kann nicht teildeaktiviert werden. (sorry an die Experten, wenn das total daneben ist, ich habe mich damit nie gesonder befasst, nur in allen möglichen 3dc-Threads mitgelesen)

Edit: OK, es hat sowieso jemand vor mir geantwortet ^^

Ihm
2009-09-25, 13:25:04
Ich sehe hier (http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index7.php) keine wirkliche Besserung. Da brauchst du auch gar nicht mit der NV-Fanboy-Keule kommen. Vernünftige AF ist bei der fetten HW doch wohl nicht zuviel verlangt. Darum gehts und nicht darum ATI in den Dreck zu ziehen.


Also du scheinst schon sehr resistent zu sein:

1. AMD/ATI muss erstmal garnichts. Weder einen Schalter einbauen, noch was an der Hardware ändern etc. Dafür musst du es aber auch:

2. NICHT kaufen! Denn:

3. AMD/ATI ist nicht die GEZ, wo du zu Produktgebühren gezwungen wirst, auch wenn du das Produkt nicht nutzt. Deshalb hast du die freie Wahl und kannst dir auch:

4. eine Nvidia-Grafikkarte kaufen, die deinen !persönlichen! Bedürfnissen gerecht wird.

5. Angemessene, ich wiederhole es gerne noch einmal, angemessene Kritik ist jederzeit willkommen. Das heisst: Wortwahl und Realitätswahrnehmung sollten schon stimmen.

An Alle, die sich zu Recht angesprochen fühlen:

6. Trolls, Kiddies und Fanboys dürfen hier gerne mitlesen. Aber lasst bitte eure sinnlosen körpereigenen Überträger von Hirnfurzen von der Tastatur.
Es ist grausam!

Undertaker
2009-09-25, 13:52:12
Nenn mir doch mal 10 Spiele, bei denen kein AA (jeglicher Form) geht.

In unseren Tests funktionierte das Ati-SSAA überall dort, wo auch MSAA unter Direct3D9 funktioniert. Ergo: theoretisch in 99,999999991337 Prozent aller Spiele da draußen. D3D10 (und damit auch 11) ist bisher ein No-go für SSAA.

MfG,
Raff

D3D9 ist aber leider heutzutage schon eine recht große Einschränkung - gerade weil die Leistung wohl auch in vielen D3D10-Spielen zumindest für 2xSSAA ausreichen würde. Dafür kann selbstverständlich ATI nichts, für den Nutzer ist es aber ärgerlich.
Ebenso der Punkt LoD-Verschiebung: Warum zum Teufel muss ich das per Hand machen? Es sollte doch für ATI ein leichtes sein, zumindest sinnvolle Standardwerte für die Verschiebung bei 2x/4x/8xSSAA zu definieren. Und dann bitte auch noch einen 2xSSAA + 4xMSAA Hybridmodi a'la 16xS und ich bin komplett befriedigt. =)

derguru
2009-09-25, 14:09:00
hier hat einer warhead mit der 5870 gebencht inkl.seiner alten 275.
die werte sind doch sehr gut,mit 4aa kommt es fast zu einer verdopplung(ein bissel oc und dann haut es hin).not bad.
http://www.hardwareluxx.de/community/showpost.php?p=12946625&postcount=871

Undertaker
2009-09-25, 14:16:17
64% sind es, um genau zu sein. ;) Ohne AA, was immernoch viel zu niedrige fps liefert, noch 41%. Was hier viel interessanter wäre, sind Messungen in einem fps-Bereich von 40-50.

tombman
2009-09-25, 14:26:39
Eben, sag ich ja. Man braucht immer noch 2 Karten für Crysis und STCS...

derguru
2009-09-25, 14:52:09
Eben, sag ich ja. Man braucht immer noch 2 Karten für Crysis und STCS...
meinst du das wird sich mit einer gt300 ändern?crysis eventuell mit 40fps aber stcs kannst du vergessen.

tombman
2009-09-25, 14:56:23
meinst du das wird sich mit einer gt300 ändern?crysis eventuell mit 40fps aber stcs kannst du vergessen.
Ich rechne ja mit 2 Karten für mein Sys, aber dazu muß eine GT300 schnell genug sein. Also schneller als mein jetziges Quad SLi, aber mit nur 2 Gpus - das ist mein Ziel ;)
Deswegen ist RV870 ja zu langsam für mich- ich bräuchte schon 3 Stück. Aber CF mit 3 Gpus und 6 Slots? NEVER ;)

Hemlock wird die Taktraten senken müssen, also braucht man 2 Hemlocks mit 4 Chips- aber CF mit 4 Gpus? NEVER² :)

Ich bekomme derzeit nicht was ich will...2x GT300 muß es richten :)
(wenns ganz hart kommt sogar 3x GT300)

Gast
2009-09-25, 15:04:27
wie kann man das einordnen?
http://www.abload.de/thumb/xrengine2009-09-2514-57qwb.png (http://www.abload.de/image.php?img=xrengine2009-09-2514-57qwb.png)
http://www.abload.de/thumb/crysis2009-09-2515-01-qrs2.png (http://www.abload.de/image.php?img=crysis2009-09-2515-01-qrs2.png)

derguru
2009-09-25, 15:07:45
Ich rechne ja mit 2 Karten für mein Sys, aber dazu muß eine GT300 schnell genug sein. Also schneller als mein jetziges Quad SLi, aber mit nur 2 Gpus - das ist mein Ziel ;)
Deswegen ist RV870 ja zu langsam für mich- ich bräuchte schon 3 Stück. Aber CF mit 3 Gpus und 6 Slots? NEVER ;)

Hemlock wird die Taktraten senken müssen, also braucht man 2 Hemlocks mit 4 Chips- aber CF mit 4 Gpus? NEVER² :)

Ich bekomme derzeit nicht was ich will...2x GT300 muß es richten :)
(wenns ganz hart kommt sogar 3x GT300)
schneller als dein quad sli wird sicherlich auch eine 5870cf sein.allein durch den skalierungsverlust der 4 gpus sollte es kein problem darstellen.

aber da du ja ein noch größeren performanceschub haben willst bleibt dir nichts anderes übrig als zu warten.
wie kann man das einordnen?
http://www.abload.de/thumb/xrengine2009-09-2514-57qwb.png (http://www.abload.de/image.php?img=xrengine2009-09-2514-57qwb.png)
http://www.abload.de/thumb/crysis2009-09-2515-01-qrs2.png (http://www.abload.de/image.php?img=crysis2009-09-2515-01-qrs2.png)
wie soll man das denn einorden,super screenshot und?

Spasstiger
2009-09-25, 15:07:59
Zwei HD 5870 sind doch schneller als Quad-SLI mit zwei GTX 295, wenn man hohe Auflösungen mit (Transparenz-)AA auffährt. Die Mikroruckler- und Input-Lag-Problematik dürfte auch deutlich weniger ausgeprägt sein.
Und Strom und Abwärme spart man sich auch.

Ok, gegenüber dem GT300 könnte eine GTX 295 wirklich alt aussehen.

Gast
2009-09-25, 15:10:28
schneller als dein quad sli wird sicherlich auch eine 5870cf sein.allein durch den skalierungsverlust der 4 gpus sollte es kein problem darstellen.

aber da du ja ein noch größeren performanceschub haben willst bleibt dir nichts anderes übrig als zu warten.

wie soll man das denn einorden,super screenshot und?

FPS? Ist das ok

boxleitnerb
2009-09-25, 15:14:17
Ohne Quelle, Settings+Hardware und Vergleichswerte kann man sich die Screens in den Popo schieben :)

Spasstiger
2009-09-25, 15:14:31
FPS? Ist das ok
Also wenn das von einer HD 5870 ist, würde ich bei Crysis DX9 mit Mster-Config und 4xSupersampling-AA vorziehen. Läuft fast gleich schnell, sieht aber wesentlich besser aus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7550356&postcount=259

Gast
2009-09-25, 15:16:48
ich dachte eigendlich Spezialißt Tompmän antwortet..das ist ne 4870......
nix für ungut..
Die 5870 reicht locker für die mißtigen Games.

cipoint
2009-09-25, 15:23:28
Hemlock wird die Taktraten senken müssen ...
Denke ich nicht.

Lawmachine79
2009-09-25, 15:26:27
Ebenso der Punkt LoD-Verschiebung: Warum zum Teufel muss ich das per Hand machen? Es sollte doch für ATI ein leichtes sein, zumindest sinnvolle Standardwerte für die Verschiebung bei 2x/4x/8xSSAA zu definieren. Und dann bitte auch noch einen 2xSSAA + 4xMSAA Hybridmodi a'la 16xS und ich bin komplett befriedigt. =)
Das ist wieder sowas, was ich nicht verstehe. Das kostet die Treiberentwicklung doch höchstens 5 Minuten das einzubauen.
aber mit nur 2 Gpus - das ist mein Ziel ;)

Also ein HTPC :D ?

Gast
2009-09-25, 15:29:26
Denke ich nicht.
Die 5870 zeiht deutlich mehr als eine 4870.

Eine 4870 X2 sprengt bereits alle Rekorde, sie liegt im Extremfall mit 400W weit jenseits der 300W.

Weder Kühltechnsich noch versorgungstechnisch ist auch nur ein W mehr drin, eine 5870 X2 bräuchte mehr als nur ein paar W mehr.
Ich tippe daher auf eine X2, die mit gesenktem Takt und vor allem gesenkter Spannung aufkreuzt. 2x2GiB müssten es auch sein.

Gast
2009-09-25, 15:30:06
Also wenn das von einer HD 5870 ist, würde ich bei Crysis DX9 mit Mster-Config und 4xSupersampling-AA vorziehen. Läuft fast gleich schnell, sieht aber wesentlich besser aus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7550356&postcount=259

das ist WH mit Rygel........

Tesseract
2009-09-25, 15:33:08
Das ist wieder sowas, was ich nicht verstehe. Das kostet die Treiberentwicklung doch höchstens 5 Minuten das einzubauen.

vermutlich damit der subjektive eindruck im bereich flimmerunterdrückung deutlicher ist. oder ist ist einfach ein bug.

cipoint
2009-09-25, 15:59:14
Die 5870 zeiht deutlich mehr als eine 4870.

Eine 4870 X2 sprengt bereits alle Rekorde, sie liegt im Extremfall mit 400W weit jenseits der 300W.

Weder Kühltechnsich noch versorgungstechnisch ist auch nur ein W mehr drin, eine 5870 X2 bräuchte mehr als nur ein paar W mehr.
Ich tippe daher auf eine X2, die mit gesenktem Takt und vor allem gesenkter Spannung aufkreuzt. 2x2GiB müssten es auch sein.

Die HD5870 ist beim Vebrauch etwa auf dem Niveau einer HD4890:
http://www.3dcenter.org/artikel/zum-launch-von-radeon-hd-5850-5870
Eine HD4890x2 hatte ATI in der Schublade ... Machbar ist es schon, wenn es unbedingt nötig ist.

Gast
2009-09-25, 16:02:06
Die 5870 zeiht deutlich mehr als eine 4870.

Eine 4870 X2 sprengt bereits alle Rekorde, sie liegt im Extremfall mit 400W weit jenseits der 300W.

Weder Kühltechnsich noch versorgungstechnisch ist auch nur ein W mehr drin, eine 5870 X2 bräuchte mehr als nur ein paar W mehr.

???
http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=3

Die 5870 liegt bei Spielen (Race Driver Grid) bei sehr guten 128 Watt, die 4890 bei 158 Watt.
Beim Furmark verbraucht die 5870 186 Watt, die 4890 226 Watt.
Die 4870 dürfte über 5870 liegen, was den Stromverbrauch angeht ;)

Undertaker
2009-09-25, 16:06:11
Vertraut man HT4U, liegt die 5870 knapp über der 4890:

http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index13.php

PCGH_Raffael
2009-09-25, 16:09:17
Die Warheit liegt wie immer dazwischen, denn die ist von Spiel zu Spiel unterschiedlich.

MfG,
Raff

anddill
2009-09-25, 16:09:34
Da sind auch je nach Exemplar mal locker +/- 20W möglich.

Gast
2009-09-25, 16:11:53
Jungs, es geht um 4870, eine 4890 X2 gab es nie.

http://ht4u.net/reviews/2009/amd_ati_radeon_hd_5870/index13.php

5870 zieht etwas mehr als 4890, die wiederum vor einer 4870 liegt.


Schubladen hin oder her, eine 4890 X2 wäre sehr schwer gewesen, was meinst du warum sie im Schubkasten blieb?
Nochmal zur Thermik, die 4870 X2 ist kein Kindergeburtstag, 400W sind zu kühlen und entsprechen weit mehr als 300W die der PCIe zulässt.


Aber bitte, weil ich so unrecht habe hat Nvidia nur eine GTX 295 gelauncht, nur eine 9800 GX2 und nur eine 7900 GX2.
All die Karten waren mindestens Takt und spannungsreduziert.

kruemelmonster
2009-09-25, 16:13:07
4. [kannst dir auch] eine Nvidia-Grafikkarte kaufen, die deinen !persönlichen! Bedürfnissen gerecht wird.

Ich muss zwangsläufig NV kaufen da mich ATI als Kunden wohl nicht haben will. Meine NV-Affinität bedeutet nicht dass ich keine ATI kaufen würde...aber BQ-mäßig abrüsten werde ich definitiv nicht.


5. Angemessene, ich wiederhole es gerne noch einmal, angemessene Kritik ist jederzeit willkommen. Das heisst: Wortwahl und Realitätswahrnehmung sollten schon stimmen.

Wie stellst du dir angemessene Kritik vor? Meine Augen kennen seit 3 Jahren nur noch 16x HQAF. Wenn ATI dann meint eine GPU > 2 Milliarden Transistoren zu bauen die im BQ-Bereich wieder nicht aufschliessen kann und das Ganze mit ner runden Blume und DX9-only-SSAA zu überspielen versucht, dann find ich das einfach nicht so :up: wie viele andere. Bei den Radeon-Videos von HT4U finde ich ALDI-AF recht passend; es reicht um nicht zu verhungern aber lecker ist was anderes.

Der_Korken
2009-09-25, 16:13:37
Und hier (http://www.xbitlabs.com/articles/video/display/radeon-hd5870_7.html#sect0) verbraucht die 5870 wieder weniger als eine 4890 ... wobei die Werte von xbitlabs generell ziemlich niedrig sind.

LovesuckZ
2009-09-25, 16:17:37
Und hier (http://www.xbitlabs.com/articles/video/display/radeon-hd5870_7.html#sect0) verbraucht die 5870 wieder weniger als eine 4890 ... wobei die Werte von xbitlabs generell ziemlich niedrig sind.

3DMark2006. Kann gut sein, dass die 5870 CPU limitiert ist und somit nicht voll ausgelastet wird.

robbitop
2009-09-25, 16:19:52
Hatte RV870 nicht 2x Setupengines (= Rasterizer) im Diagramm?
Bei immer kleiner werdenden Dreiecken und Erhöhung der Pixelrohleistung muss natürlich auch irgendwann der Rasterizer aufgebohrt werden. Aber genau dem hat man sich doch im RV8xx angenommen. Vieleicht funktioniert das Zusammenspiel (noch??) nicht richtig.

In extrem Pixellastigen Fällen, wird das sicher durchschlagen. Wie z.B CFAA (viel dynamische branches + Downsampling + Compare Ops) oder generell hohe Shaderlast.

Aber in ausgewogenen Fällen (fast alle Fälle) verbläst man damit viel potenzielle Leistung. War aber IMO auch in der Skalierung der G8x/9x/2xx Familie zu beobachten. Wenn man mal von der 9600 GT ausgeht.

Wäre ziemlich dämlich, so viel Leistung verpuffen zu lassen.

Gast
2009-09-25, 16:20:08
xbitlabs testet mit 3DMark06.
ht4u nimmt Bioshock, das bisher fordernste Spiel das ht4u über den Weg gelaufen ist.
Furmark zeigt einen guten Wert für die 5870, bzw einen schlechten für die vielen SPs. Sollte sich da noch was ändern wird die Luft von sich aus noch enger.

cipoint
2009-09-25, 16:22:45
Die aktuellen Rekorde beim Vebrauch werden mit Hemlock und GTX395 sowieso wahrscheinlich gebrochen. Bei solchen Karten über Stromverbrauch zu mekern ist schon belustigend. Wer einen Veyron fährt, spricht auch nie über seinen Verbrauch, höchstens um anzugeben. ;)
Das Problem der Wärmeabfuhr ist da schon eher interessant. Aber 400 Watt abzuführen wird schon möglich sein. Bitte nicht vergessen, dass die Kühlvorrichtung nach Spezifikation sogar drei Slots einnehmen darf.

Mr. Lolman
2009-09-25, 16:27:03
vermutlich damit der subjektive eindruck im bereich flimmerunterdrückung deutlicher ist. oder ist ist einfach ein bug.

Außerdem ists ja kein Problem das LOD per Hand ins Negative zu setzen. Würde das der Treiber selbst machen, könnte man mit LOD+1 das im Zweifelsfall nicht mehr ausgleichen, da die LOD-Settings auch für die Basemap gelten. Und bei +1 würde nur mehr aus der 1. Mip gesampelt.

Man kann sich ja außerdem auch schnell ein reg-File basteln, was den LOD-Wert setzt. Dass hängt man dann einfach in ein ATT-Profil dazu erstellt sich 1x einen Desktoplink und hat fortan Ruhe für das jew. Spieleprofil. Oder man fährt generell 4xSGSSAA (aktuelle Spiele laufen ja fast alle flott genug) und lässt LOD auf -1.

StefanV
2009-09-25, 16:28:49
Da sind auch je nach Exemplar mal locker +/- 20W möglich.
Einmal sind die Komponenten unterschiedlich, zum anderen hängts auch von der Temperatur der Komponenten ab.

Raff kann sich ja mal eine Karte nehmen (z.B. HD4850), die @ Default testen (bei 80-90°C) und einmal den Lüfter auf 100% laufen lassen, die selbe Karte.
Ich würd wetten, das hier recht deutlich messbare Unterschiede festgestellt werden können...

cipoint
2009-09-25, 16:30:08
Oder man fährt generell 4xSGSSAA (aktuelle Spiele laufen ja fast alle flott genug) und lässt LOD auf -1.

Hoffentlich kommen neue Spiele auch mit einer entsprechenden Option.

Kosh
2009-09-25, 16:30:39
Wenn man hier manche Leute so hört,muss die Radeon 5870 ja eine richtige Scheisskarte geworden sein.

Dutzende Seiten handeln nur über das AF. Klar, gibt ja auch sonst nichts,was man der Karte ankreiden kann.

Paperlaunchargument kann man auch nicht mehr bringen,da es Karten langsam zu kaufen gibt,also muss man auf der AF Schiene rumreiten.

Nunja, obwohl ich keine Brille brauche und alles wunderbar sehen kann, sehe ich in der Praxis keinen Unterschied zwischen den beiden Karten

Wobei ich mich hier noch auf meine neue 4850 beziehe,da meine 8800GTS sich leider verabschiedet hat kurz nach der Garantiezeit.

Egal, ich habe jedenfalls kein flimmern usw bemerkt.Vielleicht habe ich auch nur nicht danach gesucht,aber laut einigen hier,muss einem das sofort auffallen,so extrem ist es.

cipoint
2009-09-25, 16:40:02
Btw: Dass die HD5870 mit 1020MHz und 1,4Volt unter Luftkühlung läuft, spricht sehr wohl für eine ungedrosselte Hemlock.

Fallacy
2009-09-25, 16:40:53
xbitlabs testet mit 3DMark06.
ht4u nimmt Bioshock, das bisher fordernste Spiel das ht4u über den Weg gelaufen ist.
Furmark zeigt einen guten Wert für die 5870, bzw einen schlechten für die vielen SPs. Sollte sich da noch was ändern wird die Luft von sich aus noch enger.


Wobei mir persönlich die Werte der XBitLabs nichtsdestotrotz schon generell etwas niedrig vorkommen. In aller Regel messen sowohl die c´t als auch die PCGH sehr ähnliche Verbrauchs-Werte wie wir (HT4U). Richtige Ausreißer gibt es eigentlich immer nur im direkten Vergleich mit den Xbits.

Zum Beispiel messen alle drei Magazine rund 20 Watt im Idle für die 5870 (c´t 19Watt, PCGH 20 Watt, HT4U 21 Watt). Die Xbits hingegen nur 16 Watt. Unter Furmark ermittelt die PCGH 186 Watt, die c´t 198 Watt und wir 206 Watt. Die Abweichung zur PCGH ist hier schon relativ hoch, aber auch "nur" 10%, was durchaus schon an Serien-Schwankungen drin ist. Die Xbits messen lediglich 161 Watt, was den drei anderen Messungen schon ziemlich stark widerspricht.

Gast
2009-09-25, 16:49:17
Die aktuellen Rekorde beim Vebrauch werden mit Hemlock und GTX395 sowieso wahrscheinlich gebrochen. Bei solchen Karten über Stromverbrauch zu mekern ist schon belustigend. Wer einen Veyron fährt, spricht auch nie über seinen Verbrauch, höchstens um anzugeben. ;)
Das Problem der Wärmeabfuhr ist da schon eher interessant. Aber 400 Watt abzuführen wird schon möglich sein. Bitte nicht vergessen, dass die Kühlvorrichtung nach Spezifikation sogar drei Slots einnehmen darf.
Die ersten 5870 X2 Bilder bestätigen eine 2 Slotlösung.

Hier hat keiner über den Stromvebrauch gemeckert. Es wurde dargelegt, das nach oben keine derartigen Reserven vorhanden sind.
Gemeckert wurde höchstens das die Spezifikation von 300W schon heftig gebrochen wurde.

Langsam reichts, beweise doch mal das Gegenteil, warum eine 5870 X2 ohne Spannnungs und Taktreduktion daherkommen soll.

Gast
2009-09-25, 16:52:08
Dutzende Seiten handeln nur über das AF. Klar, gibt ja auch sonst nichts,was man der Karte ankreiden kann.
Mal einen Blick in die url geworfen? Wir sind hier im 3DCenter, nicht im Forumdeluxx.

Paperlaunchargument kann man auch nicht mehr bringen,da es Karten langsam zu kaufen gibt,also muss man auf der AF Schiene rumreiten.
Wo gibts die Karte den?
Egal, der Launch war am Montag, jetzt ist Freitag, ergo Paperlaunch.

cipoint
2009-09-25, 17:03:39
Langsam reichts, beweise doch mal das Gegenteil, warum eine 5870 X2 ohne Spannnungs und Taktreduktion daherkommen soll.

Ich sage nur, dass ich von einer nicht beschnittenen Hemlock ausgehe, weil ich annehme, dass es machbar ist (siehe Asus Mars). Du scheinst dagegen davon überzeugt zu sein, dass beschnitten wird. Insofern bist du derjenige, der hier Beweise vorlegen muss.

cipoint
2009-09-25, 17:04:59
Mal einen Blick in die url geworfen? Wir sind hier im 3DCenter, nicht im Forumdeluxx.

Wo gibts die Karte den?
Egal, der Launch war am Montag, jetzt ist Freitag, ergo Paperlaunch.

Der Launch war am Mittwoch um 6:01. Ja, das ist ein Paperlaunch ... :rolleyes: *heul*

Gast
2009-09-25, 17:05:25
Mal einen Blick in die url geworfen? Wir sind hier im 3DCenter, nicht im Forumdeluxx.

Wo gibts die Karte den?
Egal, der Launch war am Montag, jetzt ist Freitag, ergo Paperlaunch.

ganz ruhig..
Neid fressen Seele auf

Gast
2009-09-25, 17:12:57
"Battleforge: DirectX-11-Modus deutlich schneller"

http://www.heise.de/newsticker/Battleforge-DirectX-11-Modus-deutlich-schneller--/meldung/145928

Undertaker
2009-09-25, 17:16:24
xbitlabs testet mit 3DMark06.
ht4u nimmt Bioshock, das bisher fordernste Spiel das ht4u über den Weg gelaufen ist.
Furmark zeigt einen guten Wert für die 5870, bzw einen schlechten für die vielen SPs. Sollte sich da noch was ändern wird die Luft von sich aus noch enger.

Bei Furmark könnte die overcurrent protection greifen... Ein forderndes Spiel mit vollständigem GPU-Limit halte ich immernoch für die beste Wahl für Verbrauchsmessungen. :)

Gast
2009-09-25, 17:19:19
ganz ruhig..
Neid fressen Seele auf
Was willst du sagen?

Der Launch war am Mittwoch um 6:01. Ja, das ist ein Paperlaunch ... :rolleyes: *heul*
Nach Definition ist es einer.
Wenns dir nicht passt ist es dein Problem. Paperlaunch ist keine Wertung, sondern eine Feststellung, zum Launchzeitpunkt gab es nur Papier.

Labberlippe
2009-09-25, 17:26:40
D3D9 ist aber leider heutzutage schon eine recht große Einschränkung - gerade weil die Leistung wohl auch in vielen D3D10-Spielen zumindest für 2xSSAA ausreichen würde. Dafür kann selbstverständlich ATI nichts, für den Nutzer ist es aber ärgerlich.
Ebenso der Punkt LoD-Verschiebung: Warum zum Teufel muss ich das per Hand machen? Es sollte doch für ATI ein leichtes sein, zumindest sinnvolle Standardwerte für die Verschiebung bei 2x/4x/8xSSAA zu definieren. Und dann bitte auch noch einen 2xSSAA + 4xMSAA Hybridmodi a'la 16xS und ich bin komplett befriedigt. =)

Hi

Manchmal verstehe ich div. Argumentationen nicht wirklich.

nVIDIA bietet auch nicht wirklich alles offiziell an was man per nHANCER aktvieren kann, da nutzen alle brav den nHANCER ohne dieses Tool wäre auch euch das Lachen schon öfters vergangen.
Wieso wird dann gemeckert weil man halt das LoD bei ATI über das Tray Tool einstellen muss.?



Gruss Labberlippe

Gast
2009-09-25, 17:26:41
Wenns dir nicht passt ist es dein Problem. Paperlaunch ist keine Wertung, sondern eine Feststellung, zum Launchzeitpunkt gab es nur Papier.

Genau. Diese 3 Tage "Paperlaunch" ist jetzt ein Argument für oder gegen was? Es wird ja hier immer lächerlicher.

Labberlippe
2009-09-25, 17:33:14
Was willst du sagen?


Nach Definition ist es einer.
Wenns dir nicht passt ist es dein Problem. Paperlaunch ist keine Wertung, sondern eine Feststellung, zum Launchzeitpunkt gab es nur Papier.

Hi

Für mich wäre es ein reiner Paperlaunch wenn nicht mal die Webseiten die Karten zum testen gehabt hätten.

Dell hat angebeblich ja schon die Karten und einige Händler angeblich auch.
Die meisten Händler geben 2-3 Wochen Lieferzeit an.
Spricht für mich nach noch geringer Verfügbarkeit als Paperlaunch.

Gruss Labberlippe

Black-Scorpion
2009-09-25, 17:34:01
Wo gibts die Karte den?
Egal, der Launch war am Montag, jetzt ist Freitag, ergo Paperlaunch.
Ergo dummes rumgelaber.

-----------------------------
Bei manchen habe ich wirklich den Eindruck die suchen nur einen Platz um andere mit ihren geistigen Ergüssen zu belästigen.
Und das hier ein Member wahrscheinlich Artenschutz genießt, anders kann ich mir nicht erklären das er mit seinem Seitenlangen Spam ungehindert weitermachen kann wie er will, fällt bestimmt nicht nur mir auf.
Denn außer wie toll der G300 wird und Getrolle steht von dem hier nichts brauchbares.
Aber es wurde ja schon gesagt, es meckern die am meisten die sich so oder so nie eine ATI Karte in den Rechner stecken würden.

Undertaker
2009-09-25, 17:34:59
Hi

Manchmal verstehe ich div. Argumentationen nicht wirklich.

nVIDIA bietet auch nicht wirklich alles offiziell an was man per nHANCER aktvieren kann, da nutzen alle brav den nHANCER ohne dieses Tool wäre auch euch das Lachen schon öfters vergangen.
Wieso wird dann gemeckert weil man halt das LoD bei ATI über das Tray Tool einstellen muss.?



Gruss Labberlippe

Soweit ich weiß, werden zumindest die sinnvollen Hybridmodi @def auch im Treiber angeboten - so weit, so gut. Gilt das für die reinen SSAA-Modi nicht, ist hier Kritik ebenso angebracht.

PCGH_Raffael
2009-09-25, 17:36:32
Soweit ich weiß, werden zumindest die sinnvollen Hybridmodi @def auch im Treiber angeboten - so weit, so gut. Gilt das für die reinen SSAA-Modi nicht, ist hier Kritik ebenso angebracht.

Seit der Geforce 8 wird kein Hybrid mehr im CP angeboten (dafür aber CSAA). Bei einer GF7 gibt's noch 8xS (4x MSAA + 2x SSAA) im Panel, da man mehr als 4x brauchte, um Ati die Stirn zu bieten.

MfG,
Raff

Labberlippe
2009-09-25, 17:39:21
Das ist wieder sowas, was ich nicht verstehe. Das kostet die Treiberentwicklung doch höchstens 5 Minuten das einzubauen.

Also ein HTPC :D ?


Hi

Woher wissen eigentlich alle wie lange es dauert etwas zu implementieren.
Ich denke das wird wohl einen Grund gehabt haben weshalb ATI dies nicht gemacht hat.

Wie der AMD oder nVIDIA Treiber aufgebaut ist weiss keiner von uns genau, zwischendurch frage ich mich dann wieso es nicht Treiber von anderen Entwicklern oder Usern gibt, wenn eh alles in 5 Minuten gemacht werden kann.

oder AMD hat einfach nicht daran gedacht dies einzufügen. :-)

Gruss Labberlippe

Undertaker
2009-09-25, 17:41:13
Seit der Geforce 8 wird kein Hybrid mehr im CP angeboten (dafür aber CSAA). Bei einer GF7 gibt's noch 8xS (4x MSAA + 2x SSAA) im Panel, da man mehr als 4x brauchte, um Ati die Stirn zu bieten.

MfG,
Raff

OK, das kommt heraus, wenn man immer nur den aTuner verwendet hat. :freak: Ich nehm alles zurück und behaupte das Gegenteil. Anreiz genug, alle verfügbaren Modi auch wieder im Treiberpanel anzubieten, sollte durch ATI ja jetzt geschaffen sein.

mapel110
2009-09-25, 17:50:04
Anreiz genug, alle verfügbaren Modi auch wieder im Treiberpanel anzubieten, sollte durch ATI ja jetzt geschaffen sein.
Nö, ATI reißt sich derzeit kein Bein aus, RGSSAA irgendwie besonders anzupreisen. Also entsteht auch kein Druck auf nvidia.

Labberlippe
2009-09-25, 17:50:37
OK, das kommt heraus, wenn man immer nur den aTuner verwendet hat. :freak: Ich nehm alles zurück und behaupte das Gegenteil. Anreiz genug, alle verfügbaren Modi auch wieder im Treiberpanel anzubieten, sollte durch ATI ja jetzt geschaffen sein.


Hi

Genau das meine, selber nur über Tools fahren und selbst keinen Plan mehr haben was im eigenen CP abläuft aber den anderen Hersteller dann madig machen und Dinge verlangen die selbst die nVIDIA User ohne Tools einstellen können.

Ich meine ist ja auch nichts schlimmes aber dann sollte man bei den Vergleichen halt fair bleiben.
Gott sei Dank gibt es ja so Tools wie nHANCER oder ATT.

Gruss Labberlippe

Banshee18
2009-09-25, 17:51:04
Anreiz genug, alle verfügbaren Modi auch wieder im Treiberpanel anzubieten, sollte durch ATI ja jetzt geschaffen sein.
ATIs SGSSAA ist ja anscheinend nur ein Hack, der auf Tranparenz-AA aufbaut. Ich könnte mir sogar vorstellen, dass nv etwas Ähnliches anbietet.

Labberlippe
2009-09-25, 17:55:14
ATIs SGSSAA ist ja anscheinend nur ein Hack, der auf Tranparenz-AA aufbaut. Ich könnte mir sogar vorstellen, dass nv etwas Ähnliches anbietet.

Hi

Naja als Hack würde ich es nicht gerade bezeichen klingt als wenn die selbst den Treiber für SGSSAA quais ausgehebelt hätten.
Ich verstehe aber worauf Du hinauswillst.

Gruss Labberlippe

Neocroth
2009-09-25, 17:55:40
Hi

Woher wissen eigentlich alle wie lange es dauert etwas zu implementieren.
Ich denke das wird wohl einen Grund gehabt haben weshalb ATI dies nicht gemacht hat.

Wie der AMD oder nVIDIA Treiber aufgebaut ist weiss keiner von uns genau, zwischendurch frage ich mich dann wieso es nicht Treiber von anderen Entwicklern oder Usern gibt, wenn eh alles in 5 Minuten gemacht werden kann.

oder AMD hat einfach nicht daran gedacht dies einzufügen. :-)



Also in meiner Registry gibts den Schlüssel

HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Control\Class\{4D36E968-E325-11CE-BFC1-08002BE10318}\0000\UMD

und darin einen Eintrag namens TextureLod. Ich gehe mal davon aus, dass hiermit das LOD gemeint ist ;)

das Ausprogrammieren einer Funktion im Treiber, die diesen Eintrag setzt sollte also wirklich eine Sache von ~2 Minuten sein - sogar totale Nachwuchs-Programmierer würden das mithilfe von Google hinkriegen können :freak:

Labberlippe
2009-09-25, 17:57:49
Wenn man hier manche Leute so hört,muss die Radeon 5870 ja eine richtige Scheisskarte geworden sein.

Dutzende Seiten handeln nur über das AF. Klar, gibt ja auch sonst nichts,was man der Karte ankreiden kann.

Paperlaunchargument kann man auch nicht mehr bringen,da es Karten langsam zu kaufen gibt,also muss man auf der AF Schiene rumreiten.

Nunja, obwohl ich keine Brille brauche und alles wunderbar sehen kann, sehe ich in der Praxis keinen Unterschied zwischen den beiden Karten

Wobei ich mich hier noch auf meine neue 4850 beziehe,da meine 8800GTS sich leider verabschiedet hat kurz nach der Garantiezeit.

Egal, ich habe jedenfalls kein flimmern usw bemerkt.Vielleicht habe ich auch nur nicht danach gesucht,aber laut einigen hier,muss einem das sofort auffallen,so extrem ist es.


Hi

Es gibt schon Spiele wo man es sieht aber manche neigen hier halt wieder zur leichter Übertreibung.

Gruss Labberlippe

Labberlippe
2009-09-25, 18:02:25
Also in meiner Registry gibts den Schlüssel

HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Control\Class\{4D36E968-E325-11CE-BFC1-08002BE10318}\0000\UMD

und darin einen Eintrag namens TextureLod. Ich gehe mal davon aus, dass hiermit das LOD gemeint ist ;)

das Ausprogrammieren einer Funktion im Treiber, die diesen Eintrag setzt sollte also wirklich eine Sache von ~2 Minuten sein - sogar totale Nachwuchs-Programmierer würden das mithilfe von Google hinkriegen können :freak:


Hi

Schon und was ist mit den Games welche durch das AI qausi bervormundet werden oder wo Shaderreplacment betrieben wurde?
Die Frage ist weshalb ATi das dann nicht eingebaut hat.

Mal eine andere Frage? hat es mal nicht geheissen das man über ein SDK von ATI selbst ein CCC quasi entwerfen kann oder wurde das wieder verworfen.?

Habe ich irgendwo mal aufgeschnappt wie das CCC rauskam. Hmm.

Gruss Labberlippe

Undertaker
2009-09-25, 18:20:42
Hi

Genau das meine, selber nur über Tools fahren und selbst keinen Plan mehr haben was im eigenen CP abläuft aber den anderen Hersteller dann madig machen und Dinge verlangen die selbst die nVIDIA User ohne Tools einstellen können.

Ich meine ist ja auch nichts schlimmes aber dann sollte man bei den Vergleichen halt fair bleiben.
Gott sei Dank gibt es ja so Tools wie nHANCER oder ATT.

Gruss Labberlippe

Ähm, jetzt aber mal halblang, habe ich in meinem Ausgangsposting NVidia auch nur erwähnt? Das ist doch vollkommen unabhängig von der Kritik, dass händische LoD-Anpassung Murks ist - daran gibt es nix zu rütteln.

Gast
2009-09-25, 18:44:40
um wieviel schneller wird die HD5870 ggüb. 1900xtx sein? 300%?

ich zock seit 5 Jahren mit der auf 1024er auflösung mit allen details :/ ob sich da der umstieg auf nen neuen rechner lohnt?

Labberlippe
2009-09-25, 18:52:20
Ähm, jetzt aber mal halblang, habe ich in meinem Ausgangsposting NVidia auch nur erwähnt? Das ist doch vollkommen unabhängig von der Kritik, dass händische LoD-Anpassung Murks ist - daran gibt es nix zu rütteln.

Hi

Sorry sollte auch nicht nur für Dich direkt gelten auch wenn es so wirkt da ich ja Dich direkt zitiert habe.
Ich hätte eingie von hier hinzufügen sollen.


Gruss Labberlippe

Spasstiger
2009-09-25, 19:40:01
Wurde beim RV870/Cypress eigentlich gegenüber R600/RV6xx/RV7xx etwas an der Hardware modifiziert, um Fullscene-SGSSAA zu ermöglichen oder wäre es theoretisch auch mit den älteren Chips möglich? Ich würde sicherlich das eine oder andere Spiel finden, das meine HD 2900 Pro mit 8xSGSSAA befeuern kann. ;)

san.salvador
2009-09-25, 19:58:33
Sollte eigentlich jede Karte können. Is ja nix anderes, als eine höhe Auflösung wieder runterzurechnen, dazu brauchts doch keine spezielle HW.

Gast
2009-09-25, 20:07:27
Hi

Woher wissen eigentlich alle wie lange es dauert etwas zu implementieren.
Ich denke das wird wohl einen Grund gehabt haben weshalb ATI dies nicht gemacht hat.

Wie der AMD oder nVIDIA Treiber aufgebaut ist weiss keiner von uns genau, zwischendurch frage ich mich dann wieso es nicht Treiber von anderen Entwicklern oder Usern gibt, wenn eh alles in 5 Minuten gemacht werden kann.

oder AMD hat einfach nicht daran gedacht dies einzufügen. :-)

Gruss Labberlippe
Ganz einfach Kollege: Es ist ein Unterschied, ob du bereits alles offen vor dir hast wie AMD den Treiber, oder ob du von der ISA-Dokumentation aus starten musst - OHNE die jahrelange Vorarbeit, die bereits geleistet wurde.

Gast
2009-09-25, 20:18:49
Ähm, jetzt aber mal halblang, habe ich in meinem Ausgangsposting NVidia auch nur erwähnt? Das ist doch vollkommen unabhängig von der Kritik, dass händische LoD-Anpassung Murks ist - daran gibt es nix zu rütteln.
was macht den "clamp"?

reunion
2009-09-25, 20:40:02
Hier ist eine Powercolor 5870 sofort lieferbar:
http://devido.de/product_info.php?info=p1200_PowerColor-HD5870--A87F-TI4-.html

Coda
2009-09-25, 20:48:34
was macht den "clamp"?
Negativen LOD-Bias verhindern.

Gast
2009-09-25, 21:11:36
Sollte eigentlich jede Karte können. Is ja nix anderes, als eine höhe Auflösung wieder runterzurechnen, dazu brauchts doch keine spezielle HW.

Und warum gibt es dann überhaupt fixed function in den Rops für den MSAA-Resolve?

Gast
2009-09-25, 21:20:16
Weil FF-HW pro Transistor und Aufgabe immer schneller ist als Allzweck-Schaltungen.

HarryHirsch
2009-09-25, 22:01:58
die Verfügbarkeit ist ja echt beschissen. muss man echt wieder bei 10 Shops bestellen um 2 Karten zu erhalten!?
wann kommt denn die 2gb Version?

horn 12
2009-09-25, 22:02:23
Von einem Forumskollegen aus dem Forumdeluxx kopiert!
System:
8GB Ram, E8400 @3,8 ghz und eine HD5870 850/1200 StandardTakt.

Dies kann sich echt sehen lassen::eek::cool:

RESIDENT EVIL 5 Benchmark Version 1920x1200 8x SSAA, 16xAF HQ
Benchmark 1
100 , 75 , 54 , 73 FPS

Benchmark 2
65 FPS


Zitat:
Stalker Clear Sky 1920x1200 8x SSAA, 16xAF HQ
Min 26! max 99 average 45 !!


Zitat:
Far Cry 2 -DX10 1920x1200 4xAA 16xAF SSAA

Average Framerate: 70,44
Max. Framerate: 104,55
Min. Framerate: 50,99


Zitat:
Crysis Warhead -DX10 1920x1200 4xAA 16xAF SSAA

Play Time: 54.64s, Average FPS: 34.45
Min FPS: 21.54 at frame 1662, Max FPS: 46.23 at frame 1546

LovesuckZ
2009-09-25, 22:04:47
Ob er weiß, dass SSAA nicht unter D3D10 funktioniert?

Gast
2009-09-25, 22:07:00
Ob er weiß, dass SSAA nicht unter D3D10 funktioniert?
Was ist "16xAF HQ"? Wie sieht das System sonst aus, gibt es keine Vergleichswerte?

deekey777
2009-09-25, 22:17:04
Was ist "16xAF HQ"?
Tja, das ist, wenn der Mipmaplevel auf HQ bleibt (was Default ist).

Gast
2009-09-25, 22:24:58
Tja, das ist, wenn der Mipmaplevel auf HQ bleibt (was Default ist).
Thx und was heißt das, mit Tri/Bri/Bi hat das wohl nichts zu tun? Ich nehme an, die andere Schalterstellung ist dann Performance, hat das überhaupt Auswirkungen?

desert
2009-09-25, 22:25:54
Von einem Forumskollegen aus dem Forumdeluxx kopiert!
System:
8GB Ram, E8400 @3,8 ghz und eine HD5870 850/1200 StandardTakt.

Dies kann sich echt sehen lassen::eek::cool:




Zitat:
Stalker Clear Sky 1920x1200 8x SSAA, 16xAF HQ
Min 26! max 99 average 45 !!


Zitat:
Crysis Warhead -DX10 1920x1200 4xAA 16xAF SSAA

Play Time: 54.64s, Average FPS: 34.45
Min FPS: 21.54 at frame 1662, Max FPS: 46.23 at frame 1546


Das kriege ich auch hin, alles auf low und es rennt wie blöde.

Das die leute nie dazu schreiben welche einstellungen sie benutzt haben.

deekey777
2009-09-25, 22:28:49
Thx und was heißt das, mit Tri/Bri/Bi hat das wohl nichts zu tun? Ich nehme an, die andere Schalterstellung ist dann Performance, hat das überhaupt Auswirkungen?
Wenn du gelangweilt bist, dann geh in die Disco oder so.

Gast
2009-09-25, 22:47:21
Wenn du gelangweilt bist, dann geh in die Disco oder so.
Ich frage mich trotzdem, was man da drehen soll. Trinlinearität und WU sind doch mittlerweile fest, also was schaltet der Schalter noch?

deekey777
2009-09-25, 22:56:09
Ich frage mich trotzdem, was man da drehen soll. Trinlinearität und WU sind doch mittlerweile fest, also was schaltet der Schalter noch?

Es gibt keine Möglichkeit im CCC "Optimierungen" abzuschalten, selbst bei der HD5800. HQ kann nur eins sein: Die Mipmap-Einstellung ist auf Hoher Qualität. Einen HQ-Schalter gibt es nur bei der X1000-Serie (geringere Winkelabhängigkeit).
Es ist pure Zeitverschwendung sich über "HQ" Gedanken zu machen. Mipmap auf Qualität ist grausig (positiv); man ändert das nur, um in Benchmarks höhere Ergebnisse zu erzielen.

Gast
2009-09-26, 02:57:28
ACK. Und wenn man sich die AA-Skalierung von Anandtech ansieht, spricht eigentlich nix dagegen 4xSGSSAA da zu aktivieren, wo man mit ner GTX280 vorher 4xSGMSAA aktiv gehabt hat: http://images.anandtech.com/reviews/video/ati/5870/AA.jpg

Frost Level...klar das 4xSGSSAA dort nicht extrem kostet, spiel mal Oblivion da kannst jeden FPS per Handschlag begrüßen. ;)

mapel110
2009-09-26, 03:19:38
http://plaza.fi/muropaketti/ati-radeon-hd-5870n-extreme-ylikellotusta-suomalaisvoimin
Jemand ne Idee, was das sein soll? Ein Peltier oder so?

http://plaza.fi/s/f/editor/images/20090925ati_oc2.jpg

tombman
2009-09-26, 03:37:44
Ein normaler LN2 Behälter mit Ummantelung.

Botcruscher
2009-09-26, 10:02:52
Ist doch auch auf dem ersten Bild zu sehen.

reunion
2009-09-26, 10:14:42
SmoothCreations releases Radeon HD 5870 1GB XOC Havoc: 950MHz core, 5200MHz GDDR5
http://www.fudzilla.com/content/view/15703/1/

RoughNeck
2009-09-26, 12:04:52
Wie schaut es eigentlich mit dem Eyefinity aus?
Braucht man jetzt wirklich einen Nativen Displayport TFT oder geht das auch mit einen Adapter?

Schlammsau
2009-09-26, 12:09:57
Wie siehts aus, hat jemand schon eine Karte geliefert bekommen?

RoughNeck
2009-09-26, 12:20:40
Wie siehts aus, hat jemand schon eine Karte geliefert bekommen?


Bestellt habe ich zwei, aber 100% sicher bekomme ich eine. Die Nachfrage ist sehr sehr groß und Dell bekommt von der ersten Charge 85%

Tarkin
2009-09-26, 13:34:52
Die ersten OC Ergebnisse kommen langsam daher

http://www.xtremesystems.org/forums/showpost.php?p=4033777&postcount=9

1.020Mhz Core - ON AIR!

Oh Yeah!

myrken
2009-09-26, 13:36:33
Die Nachfrage ist sehr sehr groß und Dell bekommt von der ersten Charge 85%

Hat sich das nicht als Blödsinn herausgestellt?

tombman
2009-09-26, 13:47:35
Die ersten OC Ergebnisse kommen langsam daher

http://www.xtremesystems.org/forums/showpost.php?p=4033777&postcount=9

1.020Mhz Core - ON AIR!

Oh Yeah!
Auch Furmark oder nur "XS-stable" (was soviel wie gar nicht stable heißt ;))

Btw, sind schon irgendwo TRIPLE HD5870 benchmarks aufgetaucht?

SGT.Hawk
2009-09-26, 13:56:49
Wurde die Frage beantwortet, ob der RV870 nun deswegen keine 2x Leistung zeigt, weil die Speicheranbindung nur unwesentlich gesteigert wurde?
Demnach würde es doch gar nichts bringen den Core zu erhöhen, der Fokus sollte doch auf den RAM liegen.

AnarchX
2009-09-26, 13:59:01
Es ist eine Mischung aus teurerem AF, Bandbreitenlimitierung und einer (noch) vorhanden Setup-Limitierung.

Raff
2009-09-26, 13:59:43
Btw, sind schon irgendwo TRIPLE HD5870 benchmarks aufgetaucht?

Darf man fragen, warum du so danach gierst? (Triple-)Crossfire wird für einen wie dich wie üblich unbrauchbar. Du spielst doch damit, statt nur zu benchen. Mikroruckeln, Lag ... das ist bei zwei GPUs besser, vor allem aus dem giftgrünen Lager. Ok, zwei GPUs sind zumindest mit Geilheit auf das SSAA halbwegs sinnvoll.

MfG,
Raff

tombman
2009-09-26, 14:02:22
Darf man fragen, warum du so danach gierst? (Triple-)Crossfire wird für einen wie dich wie üblich unbrauchbar. Du spielst doch damit, statt nur zu benchen. Mikroruckeln, Lag ... das ist bei zwei GPUs besser, vor allem aus dem giftgrünen Lager. Ok, zwei GPUs sind zumindest mit Geilheit auf das SSAA halbwegs sinnvoll.

Weil ich wissen will wie gut es skaliert, wobei ich auch absolute Werte wissen will ;)
Außerdem will ich mal einen Sprung nach oben im Vergleich zu Quad Sli sehen....

Edit: ich hab was gefunden!!!

http://translate.googleusercontent.com/translate_c?hl=nl&ie=UTF-8&sl=nl&tl=en&u=http://www.hardware.info/nl-NL/productdb/compareproducts/bGpkZZiSmJrKYcg,bGpkZZiUmJPKZsg,bGpkZJiWmJfKYsg/&prev=_t&rurl=translate.google.com&usg=ALkJrhiHEAWWs67whkBFt9zizAmbWYx5zQ

2B-Maverick
2009-09-26, 14:06:27
Es ist eine Mischung aus teurerem AF, Bandbreitenlimitierung und einer (noch) vorhanden Setup-Limitierung.

inwiefern "noch" vorhanden?
Gibts Hoffnung dass sich da was am Treiber tut? Oder einfach mehr DX11 Nutzung die das Problem dann verschleiert? (wie auch immer? - bin da nicht so fit drin..)

tombman
2009-09-26, 14:11:13
Na, also, GEHT DOCH! ;)

http://www.hardware.info/nl-NL/products/ZGZnnGZmyZ1l/bGpkZJiWmJfKYsg,bGpkZZiSmJrKYcg,bGpkZZiUmJPKZsg/viewbenchmark/

Minimum bei Triple war 29 fps!!!

Wobei man noch 10% runternehmen muß, weil es nur 1080p und nicht 1200p waren, aber egal.

Jetzt wissen wir wenigstens welche Leistung STCS braucht: 3x RV870 ;)

HarryHirsch
2009-09-26, 14:13:46
äähh 41fps
29 fps mit ner single

tombman
2009-09-26, 14:15:39
äähh 41fps
Nein, 29, du bist bei 0xAA ;)

Edit: du bist immer noch in der falschen Zeile....

LovesuckZ
2009-09-26, 14:16:17
Jo und 12 bei Crossfire...

Botcruscher
2009-09-26, 14:17:07
Gibts irgendwo Tests mit 3 Monitoren oder übersehe ich was?

Undertaker
2009-09-26, 14:17:11
Na, also, GEHT DOCH! ;)

http://www.hardware.info/nl-NL/products/ZGZnnGZmyZ1l/bGpkZJiWmJfKYsg,bGpkZZiSmJrKYcg,bGpkZZiUmJPKZsg/viewbenchmark/

Minimum bei Triple war 29 fps!!!

Wobei man noch 10% runternehmen muß, weil es nur 1080p und nicht 1200p waren, aber egal.

Jetzt wissen wir wenigstens welche Leistung STCS braucht: 3x RV870 ;)


Die Werte sind aber sehr merkwürdig. Ausgehend von einer perfekten Skalierung hätten wir mit 2 Karten 66fps, mit 3 Karten 99fps (bzw. 79,5fps, ausgehend von 53fps bei 2 Karten).

Mit 2 Karten erreichen wir aber nur 53fps, was einer Skalierung (relativ und absolut) von nur 60% entspricht, die Steigerung auf 3 Karten hingegen bewirkt einen über 75%igen Sprung (relativ im Verhältnis zum theoretisch möglichen, absolut 37,7%).

Wie kann denn das sein? :confused: Theoretisch sollte die Skalierung ja vielmehr mit steigender Kartenzahl sinken oder maximal konstant bleiben.

Gast
2009-09-26, 14:18:32
Darf man fragen, warum du so danach gierst? (Triple-)Crossfire wird für einen wie dich wie üblich unbrauchbar. Du spielst doch damit, statt nur zu benchen. Mikroruckeln, Lag ... das ist bei zwei GPUs besser, vor allem aus dem giftgrünen Lager. Ok, zwei GPUs sind zumindest mit Geilheit auf das SSAA halbwegs sinnvoll.

Hat tombman nicht 3 GTX 285 bzw 2 GTX 295?

Ist CF mit 3 oder 4 GPUs soviel schlechter als SLI mit 3 oder 4 GPUs?

HarryHirsch
2009-09-26, 14:19:23
Nein, 29, du bist bei 0xAA ;)

Edit: du bist immer noch in der falschen Zeile....

:redface: hehe
ich hab nix gesagt, 4xAA drittelt also die fps? :eek:

tombman
2009-09-26, 14:24:59
Die Werte sind aber sehr merkwürdig. Ausgehend von einer perfekten Skalierung hätten wir mit 2 Karten 66fps, mit 3 Karten 99fps (bzw. 79,5fps, ausgehend von 53fps bei 2 Karten).

Mit 2 Karten erreichen wir aber nur 53fps, was einer Skalierung (relativ und absolut) von nur 60% entspricht, die Steigerung auf 3 Karten hingegen bewirkt einen über 75%igen Sprung (relativ im Verhältnis zum theoretisch möglichen, absolut 37,7%).

Wie kann denn das sein? :confused: Theoretisch sollte die Skalierung ja vielmehr mit steigender Kartenzahl sinken oder maximal konstant bleiben.
Irgendwo ist da ein Haken ;)

san.salvador
2009-09-26, 14:28:00
75% von 50% sind aber weniger als 60% von 100% -> alles ok ;)
Du hasts nicht verstanden.
Der Sprung von einer auf zwei GPUs ist kleiner als der Sprung von zweien auf drei. Und das ist mehr als seltsam.

Gast
2009-09-26, 14:29:01
Gibts irgendwo Tests mit 3 Monitoren oder übersehe ich was?
Vielleicht machen sich die 1GiB Karten dann nicht allzu gut, wer weiß.

Oder die Tester müssten auf 8xMSAA verzichten amits flüssig bleibt, ein nogo. :eek:

tombman
2009-09-26, 14:32:07
Du hasts nicht verstanden.
Der Sprung von einer auf zwei GPUs ist kleiner als der Sprung von zweien auf drei. Und das ist mehr als seltsam.
Ich habs eh verstanden, wollte es aber ned wahrhaben, und dann gabs nen Brainfart (übernächtigt ;))
Btw, bei CF ist alles möglich, sogar Werte ÜBER dem theoretischen Maximum ...bei normalem CF zb. +104% und so Scherze...

Botcruscher
2009-09-26, 14:33:46
Vielleicht machen sich die 1GiB Karten dann nicht allzu gut, wer weiß.
Oder die Tester müssten auf 8xMSAA verzichten amits flüssig bleibt, ein nogo. :eek:

Wieso das? Gibt es da direkte Reviewanweisungen mit ausgewählten Spielen und Setting wie bei NV? Es wundert mich halt, dass Eyefinity in den Tests so kurz kommt.

Gast
2009-09-26, 14:37:11
Es wundert mich halt, dass Eyefinity in den Tests so kurz kommt.
Mich auch.
Entweder die Tester sind inkompetent
oder gekauft
oder bereits beim testen verstorben: neue Karte rein, Benches nach Prinzip xy durchgerasselt, fertig.

Gast
2009-09-26, 14:59:09
Auch Furmark oder nur "XS-stable" (was soviel wie gar nicht stable heißt ;))

Btw, sind schon irgendwo TRIPLE HD5870 benchmarks aufgetaucht?

furmark stable? Was soll den das sein?
Unter Furmark kannste jeder Karte höher ocen, im Vantage geht sie dann nach 20sec in nen blauen.
So ein Schwachfug>Furmark stable.

mboeller
2009-09-26, 15:01:04
Es ist eine Mischung aus teurerem AF, Bandbreitenlimitierung und einer (noch) vorhanden Setup-Limitierung.

noch?? habe ich da was übersehen?

Gast
2009-09-26, 15:01:31
Die Werte sind aber sehr merkwürdig. Ausgehend von einer perfekten Skalierung hätten wir mit 2 Karten 66fps, mit 3 Karten 99fps (bzw. 79,5fps, ausgehend von 53fps bei 2 Karten).

Mit 2 Karten erreichen wir aber nur 53fps, was einer Skalierung (relativ und absolut) von nur 60% entspricht, die Steigerung auf 3 Karten hingegen bewirkt einen über 75%igen Sprung (relativ im Verhältnis zum theoretisch möglichen, absolut 37,7%).

Wie kann denn das sein? :confused: Theoretisch sollte die Skalierung ja vielmehr mit steigender Kartenzahl sinken oder maximal konstant bleiben.

http://www.abload.de/thumb/skyrrio.jpg (http://www.abload.de/image.php?img=skyrrio.jpg)

AnarchX
2009-09-26, 15:19:48
GTA IV mit SSAA-Mod ist wohl etwas wo die Rechenleistung der HD 5870 gegenüber einer HD 4890 ankommt:
http://img62.imageshack.us/img62/1962/gta4enb1920x12004xssaa.png
http://www.pcgameshardware.de/aid,695978/GTA-4-Test-Supersampling-Kantenglaettung-dank-ENB-Series-Mod-plus-Grafikkarten-Benchmarks/Spiele/Test/

Spasstiger
2009-09-26, 15:29:28
Die Werte sind aber sehr merkwürdig. Ausgehend von einer perfekten Skalierung hätten wir mit 2 Karten 66fps, mit 3 Karten 99fps (bzw. 79,5fps, ausgehend von 53fps bei 2 Karten).

Mit 2 Karten erreichen wir aber nur 53fps, was einer Skalierung (relativ und absolut) von nur 60% entspricht, die Steigerung auf 3 Karten hingegen bewirkt einen über 75%igen Sprung (relativ im Verhältnis zum theoretisch möglichen, absolut 37,7%).

Wie kann denn das sein? :confused: Theoretisch sollte die Skalierung ja vielmehr mit steigender Kartenzahl sinken oder maximal konstant bleiben.
Ich sehe da nichts, was unmöglich wäre.
Dual-GPU: 53 von theoretisch optimalen 66 fps => bringt 80% der theoretisch Leistung
Triple-GPU: 73 von theoretisch optimalen 99 fps => bringt 74% der theoretischen Leistung
D.h. je mehr GPUs, desto mehr entfernt man sich vom theoretischen Leistungsoptimum.

Undertaker
2009-09-26, 15:38:31
Ich sehe da nichts, was unmöglich wäre.
Dual-GPU: 53 von theoretisch optimalen 66 fps => bringt 80% der theoretisch Leistung
Triple-GPU: 73 von theoretisch optimalen 99 fps => bringt 74% der theoretischen Leistung
D.h. je mehr GPUs, desto mehr entfernt man sich vom theoretischen Leistungsoptimum.

Mach mal eine andere Rechnung: Geh von der realen Performance von 2 Karten aus und berechne mal, was die dritte an Gewinn addiert. Dieser ist relativ betrachtet größer, als der der zweiten Karte. Nicht unmöglich, aber sehr unwahrscheinlich.

Spasstiger
2009-09-26, 15:44:28
Mach mal eine andere Rechnung: Geh von der realen Performance von 2 Karten aus und berechne mal, was die dritte an Gewinn addiert. Dieser ist relativ betrachtet größer, als der der zweiten Karte. Nicht unmöglich, aber sehr unwahrscheinlich.
Das ist für mich eine Zahlenspielerei. Solange Triple-GPU weiter vom Optimum für Triple-GPU entfernt ist als Dual-GPU vom Optimum für Dual-GPU, sehe ich kein Problem.

tombman
2009-09-26, 15:55:00
Mach mal eine andere Rechnung: Geh von der realen Performance von 2 Karten aus und berechne mal, was die dritte an Gewinn addiert. Dieser ist relativ betrachtet größer, als der der zweiten Karte. Nicht unmöglich, aber sehr unwahrscheinlich.
Ich glaube der Fehler entsteht dadurch, daß du beim Sprung von 2 auf 3 Karten denkst, daß 2 Karten 100% sind, was sie aber nicht sind.
Wenn du dann von 2 auf 3 springst erscheint der Sprung größer als bei 1 zu 2.

Jo, das muß es sein ;)

Ansonsten würde nämlich ein Widerspruch entstehen. Wie kann die Gesamteffizienz mit 3 Karten SCHLECHTER als mit 2 Karten sein, wenn die 3. Karte MEHR bringt als die 2. Karte? Das ist nicht möglich.

p.s.: beim Sprung von 1 auf 2 war die 1 die vollen 100%. Beim Sprung von 2 auf 3 nimmst aber nicht 66fps als 100% sondern nur 53fps als 100%. Diese beiden 100% gehören "nicht zum selben Raum"....

Undertaker
2009-09-26, 16:28:21
Das ist für mich eine Zahlenspielerei. Solange Triple-GPU weiter vom Optimum für Triple-GPU entfernt ist als Dual-GPU vom Optimum für Dual-GPU, sehe ich kein Problem.

Das geschieht zwangsläufig: Skaliert Karte 2 zu 50%, bspw. von 10fps auf 15fps, errechnest du 75% der Maximalleistung. Bringt jetzt die 3. Karte 99% (unrealistisch³!) des theoretisch Möglichen, steigen die fps von 15fps auf 22,4fps. Du errechnest 74,7% Skalierung, was nach deiner Argumentation eine realistische Skalierungsabnahme ergibt. Überdenk mal diese Problematik! :smile:

pest
2009-09-26, 16:31:03
Das geschieht zwangsläufig: Skaliert Karte 2 zu 50%, bspw. von 10fps auf 15fps, errechnest du 75% der Maximalleistung. Bringt jetzt die 3. Karte 99% (unrealistisch³!) des theoretisch Möglichen, steigen die fps von 15fps auf 22,4fps. Du errechnest 74,7% Skalierung, was nach deiner Argumentation eine realistische Skalierungsabnahme ergibt. Überdenk mal diese Problematik! :smile:

Der Spaß funktioniert aber nicht so. Rechnen kann man viel wenn der Tag lang ist. Es findet eine Lastverteilung statt, und damit ist Spasstigers Begründung alles was du brauchst.

Undertaker
2009-09-26, 16:43:34
Dann ist 10/15/22,4fps für dich also auch ein realistischer denkbarer/nachvollziehbar möglicher Skalierungsfall für 1/2/3 GPUs? Denn genau das haben wir hier, wenn auch weniger überspitzt. Für mich ist das nicht einleuchtend, sry. Oder ich hab einen riesen Denkfehler... :confused:

35007
2009-09-26, 19:07:24
Hier noch ein Peview der 5850 auf Computerbase:

Vorschau: ATi Radeon HD 5850 -
Performance-Preview der neuen Unteroberklasse (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/vorschau_ati_radeon_hd_5850/)

Jedoch nur mit einer heruntergetakteten 5870 (vorsicht, es wurde lediglich der GPU - und Speichertakt geändert, es sind noch alle Recheneinheiten aktiv).

Computerbase wird immer schlampiger :(

Grüzi
35007

S940
2009-09-26, 19:10:53
Lol, "Unteroberklasse" ... das Nachlassen bezieht sich wohl auch aufs Deutsche ^^

Raff
2009-09-26, 19:12:50
Computerbase wird immer schlampiger :(

Grüzi
35007

Das ist eine Simulation anhand von errechneten Specs. Die HD 5870 hat deutlich weniger Takt als eine echte HD 5850, um auf dieselbe Texelfill, FLOPS & Co. zu kommen. Dort steht nirgends, dass das 100-prozentig korrekt ist (was es auch nicht ist). Preview = Vorschau. ;)

MfG,
Raff

35007
2009-09-26, 19:14:50
Lol, "Unteroberklasse" ... das Nachlassen bezieht sich wohl auch aufs Deutsche ^^

Einfach mal ein neues Marktsegment aus dem Ärmel gezaubert :rolleyes:

Das ist eine Simulation anhand von errechneten Specs. Die HD 5870 hat deutlich weniger Takt als eine echte HD 5850, um auf dieselbe Texelfill, FLOPS & Co. zu kommen. Dort steht nirgends, dass das 100-prozentig korrekt ist (was es auch nicht ist). Preview = Vorschau. ;)

MfG,
Raff

Wenn das so ist, zieh ich meine Aussage weiter oben zurück.

SGT.Hawk
2009-09-26, 20:04:51
Es ist eine Mischung aus teurerem AF, Bandbreitenlimitierung und einer (noch) vorhanden Setup-Limitierung.
Ich verstehe richtig, daß ATI absichtlich Performance zurückhält, um später gegen GT300 die Performance freizuschalten?

Raff
2009-09-26, 20:07:35
Das ist Spekulation, gemäß diverser (theoretischer) Benchmarks jedoch möglich. Die Publicity kann AMD ja gebrauchen. Interessant wär's schon.

MfG,
Raff