PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1060: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 2 3 4 [5] 6 7

dildo4u
2016-08-24, 07:20:50
So, test der GTX 1060 CE ist online (CE = Crippled Edition)
MSI GeForce GTX 1060 Gaming X 3G: 1152 Shader & halber Speicher (http://www.tomshardware.de/msi-geforce-gtx-1060-gaming-x-3g-pascal-grafikkarte,testberichte-242193.html)
Danke für den Test die 1060 kann sich ja teilweise schon massiv von der 970 abheben,läuft erstaunlich gut in Hitman DX12.

(del)
2016-08-24, 07:33:21
Danke für den Test die 1060 kann sich ja teilweise schon massiv von der 970 abheben,läuft erstaunlich gut in Hitman DX12.
Dank Speicherverbrauchsbremse, ja :D

Es gibt ja auch Spiele, in denen die Engine nicht so "intelligent ist", auf Platzmangel im Koffer wohlwollend einzugehen.
Dann bleibt ein Teil halt komplett auf der Strecke oder es hoppelt.

Ich hatte aber weder die Zeit, noch genügend Lust, um das jetzt für jedes Spiel auzudröseln.
Da muss ich noch mehr automatisieren, um das ohne weiteren Zeitaufwand so im Detail hinzubekommen.
Wird aber bereits programmiert. Auch Excel lässt sich ja über eine TLB ansprechen und für die Grafiken füllen. :)

Cyphermaster
2016-08-24, 08:00:55
ich habe nie gesagt das es direkt hardware bedingt ist. es ist gpu treiber bedingt und damit (solange es im treiber nicht optimiert wird, so wie bei nv) hersteller bedingt!Deine Aussage mit pauschalem Vorsprung für nV paßt schon bei DX11/DX12/Vulkan offensichtlich nicht mehr, da da teilweise AMD vorne liegt (was sich beim nächsten Treiber bzw. nächsten Spielpatch auch schon wieder ändern kann), es ist also nicht Hersteller-abhängig, sondern von Treiber- und Spielequalität, die man ranzieht. Das ist ja bei vielen Benchmarks genau der Punkt, daß die Ergebnisse mehr von Software-Gegebenheiten als von der Hardware dominiert werden.

Cyphermaster
2016-08-24, 08:16:30
Dank Speicherverbrauchsbremse, ja :DBei der bin ich auch extrem zwiegespalten: Einerseits ist die technisch wohl extrem wirksam, was natürlich aller Ehren wert ist - andererseits kann es ja wohl auch wirklich nicht sein, daß Karten nur durch ein vor dem üblichen User verstecktes Kastrieren der Bildqualität auf vernünftige Leistungen kommen. Da wäre es fast schon wieder interessant, dieses "Feature" hinsichtlich der Frage zu betrachten, wie groß die Bildqualitäts-Kröte ist, die ein Kunde damit schlucken muß - weil, wenn das so gut funktioniert, natürlich die Hersteller schnell geneigt sein werden, diese Art -ähem- "Optimierung" wieder breitflächiger zu nutzen.

(del)
2016-08-24, 08:24:47
Die Treiber werden immer wichtiger. Nicht umsonst hat AMD knapp 500 neue Leute eingestellt, die Hälfte davon in Asien für die Daddel-Experience :)

The_Invisible
2016-08-24, 08:34:37
Die Frage ist wer kauft diese 3GB Karte tatsächlich? Die Nerds wissen das sowieso und die anderen fragen sowieso die Nerds. Schaut eher nach OEM aus wo kein Selbstbau erforderlich ist und Oma/Opa was für den Enkel kaufen. :D

dildo4u
2016-08-24, 08:53:10
Es gibt sogar hier im Forum Leute,die nur Blizzard Games zocken ich verstehe das auch nicht,aber solche Zocker gibt es,dafür wäre die Karte ganz nett.Vorallem da sie gearde bei WOW wieder an der Optik geschraubt haben.

Cyphermaster
2016-08-24, 08:58:34
Nun, grade in so einer Situation ist es doch dann interessant, ob die Karte wirklich "nett" ist, oder man viele der neuen Optik-Möglichkeiten nur als ausgegrauten Eintrag im Optionsmenü sehen kann... Ich denke schon, daß da viele Lemminge sich alleine auf das Label 'Geforce GTX 1060' verlassen, und auch ggf. dazu gefragte "Halbnerds" bei der Empfehlung nicht besonders Wert auf die Betonung der Speichergröße legen.

BlacKi
2016-08-24, 09:31:38
Deine Aussage mit pauschalem Vorsprung für nV paßt schon bei DX11/DX12/Vulkan offensichtlich nicht mehr, da da teilweise AMD vorne liegt (was sich beim nächsten Treiber bzw. nächsten Spielpatch auch schon wieder ändern kann), es ist also nicht Hersteller-abhängig, sondern von Treiber- und Spielequalität, die man ranzieht. Das ist ja bei vielen Benchmarks genau der Punkt, daß die Ergebnisse mehr von Software-Gegebenheiten als von der Hardware dominiert werden.
amd hat letztes oder vorletztes jahr sehr lange einen mitarbeiter gesucht der sich um den treiberoverhead kümmern soll. bis heute hat sich an der situation nichts dramatisch geändert. dieses overheadproblem ist ein prizipielles problem welches nicht von spielversion zu spielversion sich ändert oder von treiberversion zur nächsten, zumindest nicht ohne das man genau dieses problem speziell im treiber angeht. ich glaube es ist ein problem zwischen treiber und dx schnittstelle, und hat nichts mit den spielen selbst zu tun.

wenn ein spiel leichte vorteile für amd karten unter dx11 hat ist das im gpu limit, aber nie im cpu limit. diese aussage von mir mag zwar gewagt sein, aber ich sehe sie so, bis mir jemand das gegenteil beweisen kann, weil alles für meine these spricht.

MadManniMan
2016-08-24, 09:52:39
So, test der GTX 1060 CE ist online (CE = Crippled Edition)
MSI GeForce GTX 1060 Gaming X 3G: 1152 Shader & halber Speicher (http://www.tomshardware.de/msi-geforce-gtx-1060-gaming-x-3g-pascal-grafikkarte,testberichte-242193.html)

Puh, die interessanteste Erkenntnis aus diesem Test für mich sind die miesen Frametimes der 470 unter DX12 bei Hitman.

Wie ist es denn bspw. bei Doom? Oder verhält sich Vulkan da gänzlich anders?

(del)
2016-08-24, 10:53:18
Vulkan läuft butterweich, sogar auf der 1060 CE :)

Diese Spikes habe ich auch in DX11-Spielen wie GTA, vor allem Nachts und/oder außerorts. Wobei es mittlerweile deutlich besser geworden ist.
Aber: auch deswegen habe ich den Ruckel-Index hervorgehoben: Frametimes und Spikes muss man wirklich differenziert betrachten.

MadManniMan
2016-08-24, 10:59:21
Meinst Du jetzt alle möglichen Karten oder beschränkt sich das auf spezifische Setups?

Bzw.: hakt auch die 480 in DX12 bei Hitman?

Raff
2016-08-24, 11:00:25
Im brandneuen Deus Ex: Mankind Divided versumpft die GTX 1060/3G auch ziemlich: http://www.pcgameshardware.de/Deus-Ex-Mankind-Divided-Spiel-55470/Specials/Benchmarks-Test-DirectX-12-1204575/

Man beachte u. a. die folgenden Karten im Benchmark:

– Zotac GTX 1060 AMP/6G
– Palit GTX 1060 Dual/3G
– Sapphire RX 470 Nitro+/8G
– Asus RX 470 Strix OC/4G

Die Unterschiede sind deutlich. Vor allem, aber nicht ausschließlich, wegen der Speichermenge.

MfG,
Raff

Cyphermaster
2016-08-24, 11:04:14
wenn ein spiel leichte vorteile für amd karten unter dx11 hat ist das im gpu limit, aber nie im cpu limit. diese aussage von mir mag zwar gewagt sein, aber ich sehe sie so, bis mir jemand das gegenteil beweisen kann, weil alles für meine these spricht.Grade zum Thema CPU-Limit und den neuen APIs gab's dazu doch gegenteilige Indizien:
http://www.golem.de/news/radeon-rx-480-dank-dx12-und-vulkan-reicht-auch-eine-mittelklasse-cpu-1607-122347.html

Heißt, MASSIV unterschiedliche Performance auch im CPU-Limit bei einer Karte, abhängig von API, Treiberversion und Spiel; nicht vom Herstellerlogo.

(del)
2016-08-24, 11:48:35
Meinst Du jetzt alle möglichen Karten oder beschränkt sich das auf spezifische Setups?
Bzw.: hakt auch die 480 in DX12 bei Hitman?
Ja. Ist treiber- und herstellerabhängig. Auch die 390 hat dieses Problem. Wobei mir die AMD-Karten oft vorkommen wie ein Langstreckenläufer,
der stets für die Kamera überpacen will und dann an jeder kleinen Steigung erst mal kurz nach Luft schnappen muss. Nur, um dann gleich wieder
loszurennen, als gäbe es kein Morgen mehr. Gut für die Benchmarkbalken, schlecht fürs Feeling der User. Nvidia hat es da etwas gemächlicher angehen lassen.
Wenn man die Radeons mit Limiter nutzt, sind die Spikes deutlich geringer, dann allerdings auch der Benchmarkvorsprung in den Balken.

Irgendein Sync ist dann allemal besser. Ein Grund mehr, sich zu einer Radeon den passenden Monitor zu gönnen. Es lohnt sich immer. :)

Hermelinmaster
2016-08-24, 12:04:01
@Schaffe89
Danke Dir schonmal, freue mich auf die Tests ^^ Den Link kannte ich schon, aber danke. Leider ist da die 1060 und die 480 nicht dabei. Hängt dein Kumpel mit dem i5 immernoch im CPU-Limit?
@-/\-CruNcher-/\-
In der Zwischenzeit hat sich im Spiel und in den Treibern einiges getan. Nach dem Release der neuen Map sind die Durchschnitts-FPS und die min. FPS ebenfalls gestiegen. Ist also nicht vergleichbar. Ich krieg mit der 570 auf Med (Clutter und co sind sehr niedrig) zwischen 20 und 30fps. Kommt im Vergleich zur 1060 hin, die 480 stinkt aber gewaltig ab, bei den anderen AMD ist es doch nicht so schlimm...

BlacKi
2016-08-24, 12:06:39
Grade zum Thema CPU-Limit und den neuen APIs gab's dazu doch gegenteilige Indizien:
http://www.golem.de/news/radeon-rx-480-dank-dx12-und-vulkan-reicht-auch-eine-mittelklasse-cpu-1607-122347.html

Heißt, MASSIV unterschiedliche Performance auch im CPU-Limit bei einer Karte, abhängig von API, Treiberversion und Spiel; nicht vom Herstellerlogo.
es geht im artikel nur um die 480? wo ist der gegenteilige beweis dafür das es eine amd karte/treiber gibt die im cpu limit unter dx11 schneller ist als der konkurent nv?

das gibts nicht!

Cyphermaster
2016-08-24, 14:01:03
Deswegen sprach ich von einem Indiz (weil du ja sagtest, es würde überhaupt nichts geben, was gegen deine Theorie spricht), und nicht von einem Beweis. Der Artikel belegt aber, daß das Verhalten im CPU-Limit auch bei gleicher Karte/Hersteller/Treiber zwischen alleine unterschiedlichen APIs recht massiv unterschiedlich sein kann; das legt nahe, daß es durchaus Konstellationen geben kann, bei denen es sich auch zwischen unterschiedlichen Karten anders verhält, als du schreibst (zumal du es anfangs nicht auf DX11 beschränkt hattest).

Schaffe89
2016-08-24, 16:01:25
amd hat letztes oder vorletztes jahr sehr lange einen mitarbeiter gesucht der sich um den treiberoverhead kümmern soll. bis heute hat sich an der situation nichts dramatisch geändert. dieses overheadproblem ist ein prizipielles problem welches nicht von spielversion zu spielversion sich ändert oder von treiberversion zur nächsten, zumindest nicht ohne das man genau dieses problem speziell im treiber angeht. ich glaube es ist ein problem zwischen treiber und dx schnittstelle, und hat nichts mit den spielen selbst zu tun.

wenn ein spiel leichte vorteile für amd karten unter dx11 hat ist das im gpu limit, aber nie im cpu limit. diese aussage von mir mag zwar gewagt sein, aber ich sehe sie so, bis mir jemand das gegenteil beweisen kann, weil alles für meine these spricht.

Full Ack, genauso sehe ich das größenteils auch. Es gibt zwar hier und da ein paar Directx11 Spiele die im CPU Limit bei AMD auch ganz gut laufen, trotzdem insgesamt hängt AMD da immernoch hinterher und versaut sich die Leistung mancher Karte.

Weniger einer 380 aber eine 470 480 und den Fury Karten umsomehr.

@ hermelinmaster

Mal schauen ob ich die rx480 bekomme wenn er in den Urlaub fährt, solche tests würden mich schon ziemlich interessieren.

Fusion_Power
2016-08-24, 16:32:16
Ob es sich jemals durchsetzt, in Spielen die Detailstufen nicht einfach nur durch "low-high" anzubieten sondern einfach nach VRAM? Würde sicher weniger Verwirrung geben wenn man einfach nach 1GB, 2GB, 3GB, 4GB... wählt, fertich. Target FPS hat ja mittlerweile eh fast jeder bei 60FPS oder mehr, das sollte auch der fixe Wert in der Gleichung bleiben.
Nur so ne verrückte Idee von mir. :D

aufkrawall
2016-08-24, 17:04:50
Deswegen sprach ich von einem Indiz (weil du ja sagtest, es würde überhaupt nichts geben, was gegen deine Theorie spricht), und nicht von einem Beweis. Der Artikel belegt aber, daß das Verhalten im CPU-Limit auch bei gleicher Karte/Hersteller/Treiber zwischen alleine unterschiedlichen APIs recht massiv unterschiedlich sein kann; das legt nahe, daß es durchaus Konstellationen geben kann, bei denen es sich auch zwischen unterschiedlichen Karten anders verhält, als du schreibst (zumal du es anfangs nicht auf DX11 beschränkt hattest).
Es ist nicht so differenziert wie du es darstellst. Ich brech es mal runter:
-Nvidia ist in vielen DX11-Spielen im CPU-Limit schneller (teils deutlich)
-AMD ist in gar keinem DX11-Spiel im CPU-Limit schneller als NV
-AMD & Nvidia sind mit DX12 gleich schnell im CPU-Limit (hab ich selbst mit Ashes gemessen)

Mehr gibts dazu eigentlich nicht zu sagen, finde die Diskussion etwas unnötig.

Ex3cut3r
2016-08-24, 17:07:00
Es ist nicht so differenziert wie du es darstellst. Ich brech es mal runter:
-Nvidia ist in vielen DX11-Spielen im CPU-Limit schneller (teils deutlich)
-AMD ist in gar keinem DX11-Spiel im CPU-Limit schneller als NV
-AMD & Nvidia sind mit DX12 gleich schnell im CPU-Limit (hab ich selbst mit Ashes gemessen)

Mehr gibts dazu eigentlich nicht zu sagen, finde die Diskussion etwas unnötig.

+Async kann bei AMD erheblich mehr FPS bringen im GPU Limit, bei Nvidia kann vermutlich nur Pascal profitieren. (Wenn überhaupt)
Ansonsten bin ich da bei dir.

Ganon
2016-08-24, 17:08:24
Ob es sich jemals durchsetzt, in Spielen die Detailstufen nicht einfach nur durch "low-high" anzubieten sondern einfach nach VRAM?

Assassins Creed Syndicate scheint zumindest die Detailstufe nach VRAM vorauszuwählen. Beim PC meiner Freundin meinte der, weil nur 2GB, einfach mal auf Niedrig zu stellen...

Das Spiel lauft auf "Hoch" mit 50-60fps :D

aufkrawall
2016-08-24, 17:16:30
+Async kann bei AMD erheblich mehr FPS bringen im GPU Limit, bei Nvidia kann vermutlich nur Pascal profitieren. (Wenn überhaupt)
Es ging mir jetzt nur um die CPU-Performance.
Und Low Level ist jetzt auch nicht in jedem Spiel bisher die Offenbarung auf AMD. Wenn DX12 für Deus Ex genau so ein Fail wird wie für Hitman (0% fps-Verbesserung durch DX12 auf AMD im GPU-Limit), wird sich wieder zeigen, wie nützlich ein besser optimierterer DX11-Treiber ist.

Btw: Stichwort Frametimes. Doom stockt gerne mal mit AMD OpenGL, mit Nvidia gar nicht. Gleiches gilt für RoTR DX11. Und RotTR war sogar lange Zeit auf AMD mit DX12 kaputt.

dargo
2016-08-24, 17:23:00
Btw: Stichwort Frametimes. Doom stockt gerne mal mit AMD OpenGL, mit Nvidia gar nicht.
Es wäre ziemlich bescheuert als GCN-User in Doom OpenGL zu verwenden. Wer verschenkt freiwillig schon so viel Leistung? OpenGL ist seit dem Vulkan Patch vollkommen obsolet.

aufkrawall
2016-08-24, 17:30:27
Ach, ein CPU-Test mit 1,2Ghz ist für dich total repräsentativ, aber die Situation mit einer API, zu der es bei dem besagten Spiel zwei Monate lang überhaupt keine Alternative gab, zählt mal wieder gar nichts? :rolleyes:

4Fighting
2016-08-24, 17:51:22
Mal eine andere Frage an die Enthusiasten:

Überlege mir in näherer Zukunft eine 1060 mit 6GB oder rx480 für den HTPC für madvr zuzulegen. Früher war es so, dass madvr eigentlich auf AMD besser performte. Ist das heute auch noch so?

captain_drink
2016-08-24, 17:57:40
Wer zockt einen heiß erwarteten SP-Shooter schon direkt nach Release? Als geduldiger AMD-User wartet man da einfach, bis sich jemand zur Bereitstellung einer LL-API bequemt. Gerade, wenn es draußen so schön warm ist...

dargo
2016-08-24, 18:13:40
Ach, ein CPU-Test mit 1,2Ghz ist für dich total repräsentativ, aber die Situation mit einer API, zu der es bei dem besagten Spiel zwei Monate lang überhaupt keine Alternative gab, zählt mal wieder gar nichts? :rolleyes:
Nein, seit dem Vulkan Patch ist OpenGL Geschichte. Nicht jeder muss sofort bei Release alles zocken. Es gibt auch genug Steamuser die auf einen Sale warten. Zudem profitieren GCNs sowohl im CPU-/ als auch GPU-Limit deutlich.

Wer zockt einen heiß erwarteten SP-Shooter schon direkt nach Release? Als geduldiger AMD-User wartet man da einfach, bis sich jemand zur Bereitstellung einer LL-API bequemt. Gerade, wenn es draußen so schön warm ist...
Deine Argumente werden immer armseliger.

Ex3cut3r
2016-08-24, 18:32:51
Stichwort Frametimes. Doom stockt gerne mal mit AMD OpenGL, mit Nvidia gar nicht. Gleiches gilt für RoTR DX11. Und RotTR war sogar lange Zeit auf AMD mit DX12 kaputt.

Für ein richtiges Urteil ist es auch imo noch zu früh, diesen ganzen Low Level Geschichte ist noch Beta, wenn die richtigen DX12/Vulkan/ Games kommen, ohne DX11, dann muss man die Sache sowieso neu bewerten imo. Dann wird man hoffentlich sehen, ob Pascal auch Async kann, oder ob Nvidia wieder Fabeln erzählt hat.

Das wäre aber für mich sowieso kein Beinbruch, da ich bei Volta sowieso wieder umsteige.

Cyphermaster
2016-08-24, 18:44:12
Es ist nicht so differenziert wie du es darstellst. Ich brech es mal runter:
-Nvidia ist in vielen DX11-Spielen im CPU-Limit schneller (teils deutlich)
-AMD ist in gar keinem DX11-Spiel im CPU-Limit schneller als NV
-AMD & Nvidia sind mit DX12 gleich schnell im CPU-Limit (hab ich selbst mit Ashes gemessen)

Mehr gibts dazu eigentlich nicht zu sagen, finde die Diskussion etwas unnötig.Nun, unter Licht betrachtet ist die Angelegenheit eben DOCH differenzierter als das pauschale "nV ist immer 20-30 schneller" (was eigentlich? FPS? Prozent?). Sicher, FPS im CPU-Limit sind nicht DER Faktor für Grafikkarten, da stimme ich zu. Aber grade durch solche schiefen oder zusammenversimpelten Aussagen in "Expertenforen" entstehen Mythen unter DAUs, dank derer ein Hersteller mehr Geld mit Produkten verdient, als diese wert sind - und am Ende auch wir uns mehr bzw. mit schlechteren Produkten als nötig rumschlagen müssen. Egal, ob man von DAUs zu Upgrades gefragt wird, oder im nächsten Portfolio eines Herstellers noch mehr gewinnmaximierte Krückenkarten eingeplant werden. Und DAS finde wiederum ICH unnötig, weswegen ich nachgebohrt hatte.

captain_drink
2016-08-24, 18:50:01
Deine Argumente werden immer armseliger.

Da das Argument mit den Außentemperaturen keinwegs von mir stammt, sollte das Possessivpronomen hier eher in der 1. Person Plural stehen...

dargo
2016-08-24, 19:47:46
Für ein richtiges Urteil ist es auch imo noch zu früh, diesen ganzen Low Level Geschichte ist noch Beta, wenn die richtigen DX12/Vulkan/ Games kommen, ohne DX11, dann muss man die Sache sowieso neu bewerten imo.
Nicht wirklich. Doom ist das perfekte Beispiel was man aus low level rausholen kann wenn man sein Handwerk versteht. Perfekte Frametimes kombiniert mit perfekter Performance. Und es ist keineswegs ein nativer Vulkanrenderer. Coda & Co sagten auch, dass sie sich in zukünftigen Titeln noch intensiver mit Async Compute beschäftigen werden. Man könnte also u.U. noch mehr aus GCN rausholen. Man darf jedenfalls auf Wolfenstein 2 gespannt sein. Bei diesem Spiel sehe ich auch keinen Grund mehr OpenGL zu verwenden. Das dürfte mit reinem Vulkanrenderer kommen. Alle Spieler bis runter zu Windows 7 können bedient werden.

Schaffe89
2016-08-24, 20:24:18
Nein, seit dem Vulkan Patch ist OpenGL Geschichte.

Ja, vorher warens nur 2 Monate ohne und auch Deus Ex kommt erstmal ohne, aber ich zocke das Spiel heute Abend und nicht Monate später.
Wenn Directx12 immerso nachgeschoben wird, haben die AMD User davon erstmal auch sehr wenig Vorteile, das war unter anderem der Grund für die GTX 1060. Es dauert einfach bis das mal was wird.

Aber grade durch solche schiefen oder zusammenversimpelten Aussagen in "Expertenforen" entstehen Mythen unter DAUs, dank derer ein Hersteller mehr Geld mit Produkten verdient, als diese wert sind

Der Mythos entsteht aber zurecht, weil es nun einfach eben so ist. Ich sehe das täglich im Quervergleich mit einer GTX 1060 und einer r9 290x 8GB, mit der Nano isses dasselbe, es gibt einfach zuviele Spiele die aktuell bei AMD mies laufen, deswegen habe ich heute die r9 290x 8GB auch gegen eine GTX 1060 im ZweitPC getauscht, sogar ohne etwas draufzuzahlen trotz fehlendem Freesync.

Mein i3 und mein i7 laufen einfach bei Arma 3, Rust, Dayz in Verbindung mit Nvidia wesentlich geschmeidiger.
Wenn sich daran in der Zukunft nichts ändert, stelle ich den Nixeus Schirm hier in den MP.

aufkrawall
2016-08-24, 20:25:39
Nicht wirklich.
Doch wirklich, laut id sollen noch Verbesserungen für NV kommen.

dargo
2016-08-24, 20:32:11
Ja, vorher warens nur 2 Monate ohne und auch Deus Ex kommt erstmal ohne, aber ich zocke das Spiel heute Abend und nicht Monate später.

Ich habe dir schon mal gesagt du kannst machen was du willst. Das deckt sich aber nicht unbedingt mit anderen Spielern. Ich habe Deus Ex ausnahmsweise vor Release wegen <30€ gekauft, aber auch nur weil ich weiß, dass DX12 nachgeschoben wird. Normalerweise kaufe ich nichts mehr zum Release weil zu viele Games bei den Spielern über mehrere Wochen erstmal reifen. Betatester können andere spielen. Ich spiele es jedenfalls erst wenn der DX12 Patch da ist. Und sollte es nicht beim ersten Patch gleich optimal laufen kann ich auch warten. Ich wollte mich eigentlich nicht auf dieses Niveau begeben, aber offenbar haben hier manche kein Privatleben.

Doch wirklich, laut id sollen noch Verbesserungen für NV kommen.
Und du glaubst das wirklich? :tongue: Eigentlich müsstest du Kepler und Maxwell gut kennen. Bei Pascal habe ich auch so langsam meine Zweifel ob da noch was kommt. Aber warten wir mal ab. Sollte was kommen werde ich dir das unter die Nase reiben. Schließlich war das vor wenigen Posts noch dein Totschlag-Argument von wegen AMD-User mussten zwei Monate warten.

aufkrawall
2016-08-24, 21:12:48
Äpfel und Birnen. Auf Nvidia lief das von Day 1 an schnell, warum sollte man da auf irgendwas warten.

Langsam tust du mir echt leid. Warten, alle möglichen DX11-Spiele auslassen...
So kann man sich ein Hobby auch versauen.

dargo
2016-08-24, 21:23:09
Mir kommen die Tränen. :lol:

Mit steigendem Alter ist man immer stärker gesättigt und es gibt andere Prioritäten im Leben. :whisper: Auch du wirst es noch lernen.

Schaffe89
2016-08-24, 23:03:47
Ich habe dir schon mal gesagt du kannst machen was du willst.

Soll jeder machen was er will. Aber bitte nicht immer so einseitig AMD schönreden, man kann auch neutral sein, auch wenn man eine Marke bevorzugt.
Ich Spiele jedenfalls die Spiele die Spaß machen, unabhängig von API oder Low Level, denn sowas interessiert mich höchstens nebenbei.

Das deckt sich aber nicht unbedingt mit anderen Spielern.

Als ob irgendjemand Prioritäten setzt ob etwas Directx11 oder Directx12 unterstützt, da wirst du so ziemlich der einzige sein und es ist auch ziemlich albern.

Ich habe Deus Ex ausnahmsweise vor Release wegen <30€ gekauft, aber auch nur weil ich weiß, dass DX12 nachgeschoben wird.

Und Directx12 wird jetzt an dem Titel was genau ändern? Du weißt doch gar nicht ob AMD dadurch überhaupt profitiert, Hitman ist doch auch so ein Fall wo kaum etwas für AMD herausspringt, da Directx11 schon so schnell läuft. Tombraider ebenso, also für was wartest du da konkret?

Für 5% mehr FPS?:biggrin:

Normalerweise kaufe ich nichts mehr zum Release weil zu viele Games bei den Spielern über mehrere Wochen erstmal reifen

Oder man kauft ne Nvidia wo man meistens zu Beginn deutlich besser zocken kann und das kann niemand bestreiten, ich hab den 1zu 1 Vergleich hier und habe es früher genauso negiert, aber die Realität ist eine andere.
Nvidias Treibersupport ist für neue Spiele wesentlich unkomplizierter. Ich habe noch kein Spiel finden können, dass bei Nvidia eine unkonstante Performance erzeugt, bei AMD hingegen gibts massig Titel und viele davon sind sehr beliebt, das ist eigentlich ein No-Go und das merkt man erst, wenn man den Direktvergleich zu Hause anstellt.

Betatester können andere spielen.
Das sind doch alles nur Ausreden. Ich kaufe mir ein Spiel und warte dann auf den Directx12 Patch, ohne zu wissen ob der überhaupt gut ist und lasse das Spiel im Regal verstauben.:rolleyes: Top sowas hab ich echt noch nie gehört.

Ex3cut3r
2016-08-24, 23:07:44
Finds auch komisch, aber ist halt seine Meinung, mal sehen ob DX12 etwas bei Deus Ex reißen, kann, mich interessiert das Spiel null, also werde ich es gar nicht kaufen, egal ob DX12/11 oder sonst was, was aber mal wirklich sehr schwach ist, das nicht mal richtig 21:9 unterstützt wird.

Mike
2016-08-25, 00:24:52
Ich wollte mich eigentlich nicht auf dieses Niveau begeben, aber offenbar haben hier manche kein Privatleben. Weil sie Spiele gleich nach Release spielen anstatt ein paar Monate später? Oder weil sie über 50000 Posts hier im Forum haben, wo in manchen Threads gefühlt jeder 2. oder 3. Post eine Lobhudelei auf Partei A und/oder Diffamierung von Partei B darstellt? Und wieso zwingt dich dieser gefühlt vorhandene Umstand auf dieses Niveau?

Aber wie auch immer, vielleicht sollte man sich lieber wieder auf das Topic konzentrieren...

dargo
2016-08-25, 06:10:39
Soll jeder machen was er will. Aber bitte nicht immer so einseitig AMD schönreden, man kann auch neutral sein, auch wenn man eine Marke bevorzugt.

Du und neutral? :ulol: Man muss sich die Polaris Threads durchlesen.

Als ob irgendjemand Prioritäten setzt ob etwas Directx11 oder Directx12 unterstützt, da wirst du so ziemlich der einzige sein und es ist auch ziemlich albern.
Ich schwimme gerne nicht mit der Masse und komme damit gut zurecht. Dich scheint es offenbar zu stören. So ganz alleine bin ich mit meiner Meinung aber dann doch nicht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11140383&postcount=14

Und Directx12 wird jetzt an dem Titel was genau ändern? Du weißt doch gar nicht ob AMD dadurch überhaupt profitiert, Hitman ist doch auch so ein Fall wo kaum etwas für AMD herausspringt, da Directx11 schon so schnell läuft. Tombraider ebenso, also für was wartest du da konkret?

Für 5% mehr FPS?
Meine GPU klebt quasi an 1020Mhz, trotz 1440p. Das ist ein Zeichen, dass sie nicht richtig ausgelastet wird. In Doom @Vulkan sind es 980-990Mhz. So gesehen ist da noch locker Luft für 20-30% mehr Leistung. Ob der Entwickler die abrufen kann sehen wir in ca. 2 Wochen.

Oder man kauft ne Nvidia wo man meistens zu Beginn deutlich besser zocken kann und das kann niemand bestreiten, ich hab den 1zu 1 Vergleich hier und habe es früher genauso negiert, aber die Realität ist eine andere.
Nvidias Treibersupport ist für neue Spiele wesentlich unkomplizierter. Ich habe noch kein Spiel finden können, dass bei Nvidia eine unkonstante Performance erzeugt, bei AMD hingegen gibts massig Titel und viele davon sind sehr beliebt, das ist eigentlich ein No-Go und das merkt man erst, wenn man den Direktvergleich zu Hause anstellt.
Dann bist du noch nicht lange genug dabei. Ich hatte damals genug Probleme mit der GTX970.

Schrotti
2016-08-25, 06:35:29
Es gibt sogar hier im Forum Leute,die nur Blizzard Games zocken ich verstehe das auch nicht,aber solche Zocker gibt es,dafür wäre die Karte ganz nett.Vorallem da sie gearde bei WOW wieder an der Optik geschraubt haben.

Ja solche Leute kenne ich auch aber was mich mehr stört ist der Name GTX 1060.
Man erkennt nicht auf Anhieb ob es nun die beschnittene oder die vollwertige 1060 ist.

Wäre nicht so etwas wie 1050 SE besser gewesen?

dargo
2016-08-25, 06:44:29
Ja solche Leute kenne ich auch aber was mich mehr stört ist der Name GTX 1060.
Man erkennt nicht auf Anhieb ob es nun die beschnittene oder die vollwertige 1060 ist.

Eigentlich schon, an der Speichermenge.

Cyphermaster
2016-08-25, 08:18:01
Der Mythos entsteht aber zurecht, weil es nun einfach eben so ist.Die Diskussionen hier über die stark unterschiedlichen Ergebnisse unter verschiedenen APIs, verschiedenen Spielen, mit verschiedenen Treibern und so weiter sprechen eine andere Sprache. Sogar BlaKi mußte schnell relativieren, weil die Ursprungsaussage so schief war. Egal, bringt eh nichts.
Eigentlich schon, an der Speichermenge.Wenn man sich im Detail informiert hat, ja. Eine identische Produkt-ID für in unterschiedliche Versionen wäre auch wirklich illegal, irgendwo muß man es also können. Die Masse der Leute ist allerdings gewohnt, eine Chip-Veränderung auch an der Kartenbezeichnung ablesen zu können (siehe den Wirbel bei Rebranding), nicht anhand der Speichermenge zu erschließen.

dargo
2016-08-25, 08:39:21
Wenn man sich im Detail informiert hat, ja. Eine identische Produkt-ID für in unterschiedliche Versionen wäre auch wirklich illegal, irgendwo muß man es also können. Die Masse der Leute ist allerdings gewohnt, eine Chip-Veränderung auch an der Kartenbezeichnung ablesen zu können (siehe den Wirbel bei Rebranding), nicht anhand der Speichermenge zu erschließen.
Ich sags mal so... derjenige der sich gut informiert weiß auch, dass die 3GB Version bei den SPs kastriert ist. Derjenige der einen Blindkauf macht, dem ist es eh egal. Man könnte sicherlich diese Karte GTX1060LE oder so nennen. Es ist aber nunmal anders gekommen. Diese minimale Kastrierung ist immer noch deutlich besser als das hirnverbrannte Design der GTX970. Allerdings würde ich heute niemandem mehr empfehlen eine 3GB Karte zu kaufen. Es sei denn derjenige spielt wirklich nur alte Schinken.

Cyphermaster
2016-08-25, 08:46:42
Man sollte getarnte Krüppeldesigns von Herstellern imo trotzdem nicht gouttieren. Das befeuert nur die Neigung, den Leuten weiter/öfter sowas unterjubeln zu wollen. Ist auch so schon schwer genug, die Alltagsleistung einer geplanten neuen Grafikkarte vor dem Kauf realistisch einzuschätzen.

BlacKi
2016-08-25, 09:55:40
Die Diskussionen hier über die stark unterschiedlichen Ergebnisse unter verschiedenen APIs, verschiedenen Spielen, mit verschiedenen Treibern und so weiter sprechen eine andere Sprache. Sogar BlaKi mußte schnell relativieren, weil die Ursprungsaussage so schief war.
absolut! ab sofort schreibe ich nicht das die "NV Karte" 20-30% im cpu limit unter dx11 schneller ist, sondern der "NV treiber" unter dx11 massiv schneller ist, und das nichts mit der hardware zu tun hat, man muss nur eine amd karte mit nv treibern zum laufen bekommen^^

damit schreckt man dau´s zum glück überhaupt nicht ab^^

Fliwatut
2016-08-25, 10:38:35
Derjenige der einen Blindkauf macht, dem ist es eh egal.
Warum sollte dem das egal sein? Der hört von seinem Kumpel, wie toll die 1060 ist und will auch eine. Beim Kauf sieht er dann, dass die mit 3GB deutlich günstiger ist und wenn er dann meint, dass ihm 3GB reichen, ist er ganz schön angeschmiert. Sicher, jeder sollte sich vorher informieren, aber das geht schon recht tief in technische Details, die längst nicht jeder auf Anhieb in voller Tragweite versteht. MMn. ist das schon sehr unsauber von Nvidia, das zielt ganz klar auf unbedarfte Käufer ab.

dargo
2016-08-25, 10:43:53
Warum sollte dem das egal sein? Der hört von seinem Kumpel, wie toll die 1060 ist und will auch eine.
Ändert nichts an meiner Aussage. Dann ist es eben dem Kupmel egal weil er sich aus welchen Gründen auch immer nicht richtig informiert hat.

Fliwatut
2016-08-25, 10:54:28
Also ist der Kunde immer alles selber Schuld?

Achill
2016-08-25, 11:08:51
Also ist der Kunde immer alles selber Schuld?

Ist einfach Lehrgeld ... gibt es ja auch in anderen Bereichen des Lebens - und auch dort die Unbelehrbaren.

Cyphermaster
2016-08-25, 11:09:17
damit schreckt man dau´s zum glück überhaupt nicht ab^^Es geht nicht um das "Abschrecken" von DAUs. Wenn du es korrekt beziehst, dann ist einem DAU die Aussage viel klarer und zuordenbarer. Viel am so oft belächelten "DAU"-Verhalten hängt bei Usern daran, daß sie selbst keine Hardware-Experten sind, aber dann beim (eigentlich guten) Sammeln von Infos aus Fachforen durch schiefe/halbrichtige/verstümmelte Aussagen in Summe dann doch wieder unsinniges rumkommt.

Wenn man damit im Hinterkopf dann Aussagen wie "derjenige der sich gut informiert weiß auch, dass die 3GB Version bei den SPs kastriert ist" nochmal liest... Na ja.

Fliwatut
2016-08-25, 11:20:44
Ist einfach Lehrgeld ... gibt es ja auch in anderen Bereichen des Lebens - und auch dort die Unbelehrbaren.
Dann kann man ja jeglichen Verbrauchschutz sein lassen, der Kunde soll sich halt vernünftig informieren.

dargo
2016-08-25, 11:22:35
Ist einfach Lehrgeld ... gibt es ja auch in anderen Bereichen des Lebens - und auch dort die Unbelehrbaren.
Eben. Wenn ich mir ein neues Auto kaufe informiere ich mich auch entsprechend. Will ich was im Haus oder der Wohnung machen wo ich nicht so viel Plan habe tue ich das ebenfalls. Usw... usf.

Cyphermaster
2016-08-25, 11:55:12
Wenn man beim Informieren wüßte, welche Quellen gut und sinnvoll sind, wäre man kein DAU, sondern hätte schon Plan, und müßte sich gar nicht mehr so groß informieren. Ein DAU wird zwar nicht selten versuchen, sich zu informieren - das kann aber grade im modernen Informations-Überangebot auch unbemerkt schiefgehen...

Ich finde solche Desinformations-Geschichten ungut in jedem Sinne. Nicht zuletzt kann so etwas auch für den Hersteller (wie ja erst bei der 970 beinahe) auch gut nach hinten losgehen, wenn es etwas dumm läuft.

Isen
2016-08-25, 12:12:36
Der Desktop Markt wirkt für viele ziemlich unehrlich.
Und sich durch die ganzen Nerd-Foren/Magazine zu wühlen hat man keinen bock.
Das die dann ne Mogelpackung angedreht bekommen haben, fällt dann spätestens erst dann auf, wenn irgend ein Kollege oder Bekannter ihnen das sagt. Spätestens wenn es ans aufrüsten geht (was oft bei der GPU ziemlich schnell passiert, da jene in den Schleudern eher Mau dimensioniert sind, geht das schnell mal ins Geld, je nach Anspruch) daher wird sich eher ne Konsole gekauft. Der Desktop Markt macht sich selbst kaputt.

Und so Sachen wie mit der kastrierten 1060LE, zieht man die noch übrigen Leute regelrecht ab. Inkl. jenen die sich grob informieren und bei den Tests die 1060 sehen aber keinen schimmer haben, dass die mit 3GB noch mehr kastriert ist als nur am Speicher.

Von den Ganzen Testern 0 dauerhafte Hinweise bei allen Tests, damit zu jedem Zeitpunkt offensichtlich wird, dass es da eklatante Unterschiede gibt.

Chronicle
2016-08-25, 12:22:19
Hat eigentlich irgendwo mal jemand die Inno3d Compact (http://www.mindfactory.de/product_info.php/6144MB-Inno3D-GeForce-GTX-1060-Compact-X1-Aktiv-PCIe-3-0-x16--Retail-_1114011.html) getestet?
Ich find rein garnichts zu dieser Karte im Netz

Monsta
2016-08-25, 14:06:44
Ich finde die gekürzte Rechenleistung bei der 3gb Variante auch bescheiden.
Fast schon Betrug.
Wenn ein iPhone mit 16gb 20% weniger Rechenleistung als die 32Gb Variante hätte würde es richtig Alarm geben.
Aber der typische Nvidia Käufer ist halt noch mehr Produktverliebt als die Apple Jünger.

Hakim
2016-08-25, 15:28:45
Hat eigentlich irgendwo mal jemand die Inno3d Compact (http://www.mindfactory.de/product_info.php/6144MB-Inno3D-GeForce-GTX-1060-Compact-X1-Aktiv-PCIe-3-0-x16--Retail-_1114011.html) getestet?
Ich find rein garnichts zu dieser Karte im Netz

Wieso nicht die Evga Version? Gibt ja schon guten Bericht hier im Forum über die Karte und Kostet genau soviel, die OC Version nur einen 10er mehr.

Chronicle
2016-08-25, 15:36:32
Die würd ich am liebsten kaufen, allerdings schiebt sich der Liefertermin bei Mindfactory seit ner Woche immer weiter nach hinten. Und ich muss bei MF kaufen weil ich dort noch Guthaben hab :frown:
Bei der non OC Version soll der Kühler wohl ne Ecke schlechter sein laut diversen Youtube Videos.

Hakim
2016-08-25, 17:02:45
Also die normale Version ist lieferbar. Greif zu :)

Hakim
2016-08-25, 17:10:47
Ich hab mal eine Frage bezüglich der ganzen AA Modis, bin leider etwas raus aus dem Thema. Bei meiner 1060 (OC auf >2GHz core und 2200 Mhz Ram) läuft GTA5 eigentlich recht ordentlich , dafür das ich wegen dem Moni auf 1440p Spiele. Bei den AA Einstellungen weiß nicht nicht genau was optimal wäre, ich sehe ehrlich gesagt auch keinen unterschied, zurzeit habe ich FXAA und MSAA (2x) an, aber TXAA aus. Bringt TXAA was?

Hermelinmaster
2016-08-25, 17:36:01
Ich geb jetzt auch mal kurz meinen Senf zur 3GB ab.
1. Ich würde mir hier mehr konstruktive Kritik wünschen, bisher waren sehr wenige Lösungsvorschläge dabei:
a) 1060SE das erkennt der DAU, der nicht über die Beschneidung Bescheid weiß, auch nicht und freut sich womöglich noch über die "Super Edition" (sic!)
b) 1060 1152 das erzeugt nur Fragen auf die es in aller Regel eine technische Antwort gibt und den Kunden überfordert
c) 1050 dafür ist sie einfach zu schnell und viel zu nah an der 1060 6GB

2. Ihr tut ja so als ob man sich zum Informieren durch sämtliche Foren lesen muss und hunderte Beiträge wälzen. In den ersten 5 Links auf google sind 2 die im Titel auf die Beschneidung genau hinweisen und einer der darauf hindeutet. Das Intro eines Tests oder mehrere Überschriften liefern genug Infos um sich einer Beschneidung klar zu sein.

3. Das Einzige das ich dabei wirklich bemängle ist, dass die Intransparenz zunimmt und gepaart mit der Intransparenz bei OEM-Rechnern wirklich doof enden könnte (steht dann halt nur 1060 auf dem Verkaufsschild oder im Prospekt und es endet im "Glücksspiel" welcher Hersteller nun die 3GB und wer die 6GB verbaut). Da würde mir evtl eine 1060 3GB Green Edition (vielleicht auch mit etwas weniger Takt) besser gefallen.

Schrotti
2016-08-25, 17:48:29
Also ist der Kunde immer alles selber Schuld?

Der Kunde ist dumm, ist leider so.

Geht in den Media Markt und sieht dort nen Rechner mit einer GTX 1060. Dem ist das vollkommen egal ob nun 3GB oder 6GB, er sieht nur GTX 1060.

fondness
2016-08-25, 18:12:17
Geht in den Media Markt und sieht dort nen Rechner mit einer GTX 1060. Dem ist das vollkommen egal ob nun 3GB oder 6GB, er sieht nur GTX 1060.

Deshalb wäre der Name GTX1050 auch das Mindeste gewesen. Immerhin hat das Ding ja nicht nur zu wenig Speicher, sondern ist auch noch teildeaktiviert.

Chronicle
2016-08-25, 18:43:30
Also die normale Version ist lieferbar. Greif zu :)
Wie gesagt, man hört und liest oft, dass der Kühler auf dieser schlechter ist. Deswegen hätten mich mal Berichte zur inno3D interessiert.
Aber die scheints tatsächlich noch nicht zu geben.

MadManniMan
2016-08-25, 18:49:33
Gibt's denn jetzt eigentlich schon mehr 3GB-Reviews?

(del)
2016-08-25, 18:59:27
Gibt's denn jetzt eigentlich schon mehr 3GB-Reviews?
Viele werden es bestimmt nicht, denn auch die Hersteller mögen die Karte nur als SI-Modell. Und die werden fast nie besampelt :)

Disco_STFU
2016-08-25, 19:04:07
Und am Ende verkauft die sich noch besser als die RX 470 4GB...

Undertaker
2016-08-25, 19:34:22
Deshalb wäre der Name GTX1050 auch das Mindeste gewesen. Immerhin hat das Ding ja nicht nur zu wenig Speicher, sondern ist auch noch teildeaktiviert.

Könnte eine Antwort auf die RX 480 4GB sein, die ja ebenfalls nicht nur bei der Speichermenge beschnitten ist. So passen die Performancerelationen wieder ganz gut zusammen.

Aber ja, schön ist das auf beiden Seiten nicht.

fondness
2016-08-25, 19:37:49
Könnte eine Antwort auf die RX 480 4GB sein, die ja ebenfalls nicht nur bei der Speichermenge beschnitten ist. So passen die Performancerelationen wieder ganz gut zusammen.

Aber ja, schön ist das auf beiden Seiten nicht.

Das ist bestenfalls eine Halbwahrheit. Es gibt auch RX480 4GB mit vollem Speichertakt und der Chip ist ohnehin stets der selben mit allen Einheiten.

Undertaker
2016-08-25, 19:41:19
Das ist bestenfalls eine Halbwahrheit. Es gibt auch RX480 4GB mit vollem Speichertakt und der Chip ist ohnehin stets der selben mit allen Einheiten.

Ob der Performanceverlust durch weniger Shader oder weniger Speichertakt kommt, kann dem Anwender doch völlig egal sein. Auch bei der GTX 1060 3GB können OC-Modelle in nicht-speicherlimitierten Szenarien durchaus mal an das 6 GB Modell herankommen. Knackpunkt ist: Beide sind um mehr als die Speichermenge beschnitten und werden dennoch unter gleichem Namen vermarktet. Hier wie da keine saubere, ehrliche Lösung.

VooDoo7mx
2016-08-25, 19:43:03
Das ist bestenfalls eine Halbwahrheit. Es gibt auch RX480 4GB mit vollem Speichertakt und der Chip ist ohnehin stets der selben mit allen Einheiten.

Dann ist ja gut. Wie kann ich denn unterscheiden ob eine RX480 4GiB mit 7gbps oder 8gbps Speicher bekomme? Steht das irgendwo?

Mike
2016-08-25, 19:49:18
Aber der typische Nvidia Käufer ist halt noch mehr Produktverliebt als die Apple Jünger.

Na dann erzähle doch mal bitte, wie und warum ein NVIDIA-Käufer deiner Meinung nach Alarm schlagen sollte. So, wie du das gerade tust? Bist du wenigstens auch NVIDIA-Käufer?

Andi Y
2016-08-25, 19:51:11
Ich hab mal eine Frage bezüglich der ganzen AA Modis, bin leider etwas raus aus dem Thema. Bei meiner 1060 (OC auf >2GHz core und 2200 Mhz Ram) läuft GTA5 eigentlich recht ordentlich , dafür das ich wegen dem Moni auf 1440p Spiele. Bei den AA Einstellungen weiß nicht nicht genau was optimal wäre, ich sehe ehrlich gesagt auch keinen unterschied, zurzeit habe ich FXAA und MSAA (2x) an, aber TXAA aus. Bringt TXAA was?

TXAA macht das Bild noch unschärfer. Ich habe bei mir MSAA 4x und FXAA an. Mal was zum lesen:
http://www.geforce.com/whats-new/guides/grand-theft-auto-v-pc-graphics-and-performance-guide#grand-theft-auto-v-nvidia-txaa-anti-aliasing
http://www.gamestar.de/hardware/praxis/grafikkarten/3085163/kantenglaettung_msaa_p4.html#txaa-nvidia

HOT
2016-08-25, 19:51:47
Ob der Performanceverlust durch weniger Shader oder weniger Speichertakt kommt, kann dem Anwender doch völlig egal sein. Auch bei der GTX 1060 3GB können OC-Modelle in nicht-speicherlimitierten Szenarien durchaus mal an das 6 GB Modell herankommen. Knackpunkt ist: Beide sind um mehr als die Speichermenge beschnitten und werden dennoch unter gleichem Namen vermarktet. Hier wie da keine saubere, ehrliche Lösung.
Mit 4GB kommt man aber erheblich weiter als mit 3, das sollte man hier aber bitte nicht unterschlagen.

fondness
2016-08-25, 19:52:16
Ob der Performanceverlust durch weniger Shader oder weniger Speichertakt kommt, kann dem Anwender doch völlig egal sein. Auch bei der GTX 1060 3GB können OC-Modelle in nicht-speicherlimitierten Szenarien durchaus mal an das 6 GB Modell herankommen. Knackpunkt ist: Beide sind um mehr als die Speichermenge beschnitten und werden dennoch unter gleichem Namen vermarktet. Hier wie da keine saubere, ehrliche Lösung.

Damit ignorierst du natürlich mangels Argumenten bewusst, dass es auch RX480 4GB mit vollem Speichertakt gibt. Ebenso ignorierst du, dass man fehlenden Takt ausgleichen kann, fehlende Einheiten kann man nicht herzaubern. Aber hey, Nvidia ist ja so toll, da differenzieren wir natürlich nicht. Ganz davon abgesehen, dass 3GB klar zu wenig sind, während 4Gb vielleicht gerade noch an der Grenze des akzeptablen sind für Full-HD-Spieler.

Aber wer sich genötigt sieht, ein absolut berechtigtes Argument, nämlich den Namen der GTX1060 3GB mit "das tun die aber auch" verteidigen zu müssen...ach lassen wir das. Diskussionen mit dir sind wie immer sinnlos.

Troyan
2016-08-25, 20:00:43
Wo gibt es denn die 4GB Karten mit 2000Mhz? Die einzig lieferbare RX 480 mit 4GB hat 1750Mhz: http://geizhals.de/?cat=gra16_512&asuch=rx+480&asd=on&v=k&hloc=de&sort=p&xf=#xf_top

Damit erledigt sich die Diskussion.

Raff
2016-08-25, 20:03:24
Ich hab mal eine Frage bezüglich der ganzen AA Modis, bin leider etwas raus aus dem Thema. Bei meiner 1060 (OC auf >2GHz core und 2200 Mhz Ram) läuft GTA5 eigentlich recht ordentlich , dafür das ich wegen dem Moni auf 1440p Spiele. Bei den AA Einstellungen weiß nicht nicht genau was optimal wäre, ich sehe ehrlich gesagt auch keinen unterschied, zurzeit habe ich FXAA und MSAA (2x) an, aber TXAA aus. Bringt TXAA was?
TXAA macht das Bild noch unschärfer. Ich habe bei mir MSAA 4x und FXAA an. Mal was zum lesen:
http://www.geforce.com/whats-new/guides/grand-theft-auto-v-pc-graphics-and-performance-guide#grand-theft-auto-v-nvidia-txaa-anti-aliasing
http://www.gamestar.de/hardware/praxis/grafikkarten/3085163/kantenglaettung_msaa_p4.html#txaa-nvidia

TXAA bietet eine zeitliche Komponente, es werden aufeinander folgende Frames verrechnet – plus echte Hardware-Kantenglättung, also MSAA, mit erweitertem Filter. Das führt in der Tat zu leichter (2×) bis starker (4×) Unschärfe, glättet aber aber klar besser als reines MSAA oder Postfilter-Crêpes wie FXAA und hilft vor allem gegen Flimmern. :) Das muss man also in Bewegung bewerten, nicht anhand von Screenshots. In Kombination mit Downsampling ergibt sich übrigens eine sehr leckere, wenn auch rechenintensive Bildqualität.

MfG,
Raff

Fusion_Power
2016-08-25, 20:05:14
Mit 4GB kommt man aber erheblich weiter als mit 3, das sollte man hier aber bitte nicht unterschlagen.
Was kauft man eigentlich, wenn dann ne GTX1050 mit 4GB rauskommt? :freak:

Undertaker
2016-08-25, 20:08:30
Damit ignorierst du natürlich mangels Argumenten bewusst, dass es auch RX480 4GB mit vollem Speichertakt gibt. Ebenso ignorierst du, dass man fehlenden Takt ausgleichen kann, fehlende Einheiten kann man nicht herzaubern. Aber hey, Nvidia ist ja so toll, da differenzieren wir natürlich nicht.

Abgesehen davon, dass du hier ohnehin nur zum Sticheln da bist, lassen sich weniger Einheiten ebenso durch Mehrtakt ausgleichen und genau das ist bei den OC-Modellen der GTX 1060 3 GB der Fall. Es zählt nur das Ergebnis, und das ist in beiden Fällen das gleiche: Weniger Leistung selbst bei unvollständiger Speicherausnutzung bei gleichem Namen. Das du wieder nur auf der einen Seite herumreitest ist so gewohnt wie unsinnig. :rolleyes:

Ganz davon abgesehen, dass 3GB klar zu wenig sind, während 4Gb vielleicht gerade noch an der Grenze des akzeptablen sind für Full-HD-Spieler.

War da nicht zuletzt bei den Reviews der RX 460 zu sehen, dass offenbar schon Maxwell weit besser mit weniger Speicher klarkommt als die Konkurrenz? Gibt es bereits Tests, die Szenen mit einer GTX 1060 3 GB im Speicherlimit und der RX 480 4 GB außerhalb desselben zeigen? Wir wollen doch bitteschön immer fein mit Fakten argumentieren. :)

StefanV
2016-08-25, 20:08:53
Na dann erzähle doch mal bitte, wie und warum ein NVIDIA-Käufer deiner Meinung nach Alarm schlagen sollte. So, wie du das gerade tust? Bist du wenigstens auch NVIDIA-Käufer?
Weil ein echter Fan 'seine' Firma auch mal kritisiert, in der Hoffnung, dass das zu besseren Produkten führt...

Aber genau das ist ja seit einiger Zeit auf nVidia Seite ja nicht (mehr) der Fall. Dort wird einfach stumpf das Produkt bejubelt und schön geredet.

Das beste Beispiel hierfür wäre die GTX 970...

Hätte es seitens der Presse sowie der User nach dem Auffliegen der Speicherarchitektur richtig doll Kritik gegeben, hätte das nVidia dazu bewegen können, eine GTX 975 oder 970 V2 raus zu bringen, entweder mit 192bit SPeicherinterface und 3GiB VRAM, 'echten' 3,5 GiB VRAM oder volle 4GiB gebracht. Ev. auch einen Zwitter: GTX 965/960 Ti mit 192bit SI, 3GiB VRAM und die 970 mit 256bit und echten 4GiB...

Aber durch das hochjubeln und wegreden der ganzen Dinge, hat man diese Chance versäumt und den Mist, der einem vorgesetzt wurde, gefressen...

Cyphermaster
2016-08-25, 20:16:11
Damit ignorierst du natürlich mangels Argumenten bewusst, dass es auch RX480 4GB mit vollem Speichertakt gibt. Ebenso ignorierst du, dass man fehlenden Takt ausgleichen kann, fehlende Einheiten kann man nicht herzaubern. Aber hey, Nvidia ist ja so toll, da differenzieren wir natürlich nicht. Ganz davon abgesehen, dass 3GB klar zu wenig sind, während 4Gb vielleicht gerade noch an der Grenze des akzeptablen sind für Full-HD-Spieler.

Aber wer sich genötigt sieht, ein absolut berechtigtes Argument, nämlich den Namen der GTX1060 3GB mit "das tun die aber auch" verteidigen zu müssen...ach lassen wir das. Diskussionen mit dir sind wie immer sinnlos.
Er hat weder die Namensgebung verteidigt, noch Unrecht. Je nachdem, wie man die "richtige" Namenskonvention für sich definiert, sind auch Bewertungen natürlich unterschiedlich. Fehlender Takt oder fehlende Einheiten sind z.B. völlig unerheblich, wenn man nach Leistung geht - dann könnten dafür aber auch verschiedene GPUs und Speicher verbaut werden. Geht man hingegen nach Chip, dann wäre bei gleichem Chip eine Leistungsdifferenz nach RAM irrelevant, genau wie nach Takt. Und wenn man alles festschreiben will, dann dürften OC-Versionen usw. auch nicht die gleiche Kennung wie die Referenz verwenden, weil anderes Layout, Firmware, Taktung und Kühlung klar andere Enddaten ergeben...
Was dein "Takt kann man ausgleichen angeht", scheinst du ja z.B. Taktunterschiede ab Werk für nicht relevant anzusehen, obwohl das für die Stock-Performance ein wesentlicher Faktor ist.

EvilTechno
2016-08-25, 20:16:12
War da nicht zuletzt bei den Reviews der RX 460 zu sehen, dass offenbar schon Maxwell weit besser mit weniger Speicher klarkommt als die Konkurrenz? Gibt es bereits Tests, die Szenen mit einer GTX 1060 3 GB im Speicherlimit und der RX 480 4 GB außerhalb desselben zeigen? Wir wollen doch bitteschön immer fein mit Fakten argumentieren.

Echt wahr, Mann? Und im Zeitalter der 970 ist es da wahrscheinlicher dass grün besser ... ja was? Komprimiert? Optimiert? Schummelt?

No offense, ich habe keinen Schimmer wie unterschiedlicher VRAM Verbrauch zustande kommt. Aber als Argument ohne weitere Erklärung erscheint mir das gefährlich. Woher soll ich nun wissen ob ich bei nV nun die dicken Texturen bekomme?

Mike
2016-08-25, 20:45:19
Weil ein echter Fan 'seine' Firma auch mal kritisiert, in der Hoffnung, dass das zu besseren Produkten führt... Da stimme ich dir zu, aber "Alarm schlagen" klingt für mich deutlich anders als konstruktive Kritik. Zudem sehe ich den Einfluss von Kritik im 3DCenter-Forum auf bessere Produkte als eher gering an. Da sollte man sich besser in englischen, möglichst herstellernahen Foren registrieren, oder über die Foren die Presse in Richtung Kritik beeinflussen, falls dies notwendig sein sollte. Aber die Artikel, die ich von der 1060 3GB bisher gelesen habe, waren alle ziemlich kritisch, auch die 3DCenter-Berichte. Oder täusche ich mich da?

Aber genau das ist ja seit einiger Zeit auf nVidia Seite ja nicht (mehr) der Fall. Dort wird einfach stumpf das Produkt bejubelt und schön geredet. Ist das so? Wie gesagt, die Artikel zur 1060 3GB zeigen mMn. ein ganz anderes Bild. Und, da du schon wieder nur explizit eine Firma ansprichst, ist dort wirklich ein Unterschied zwischen den Firmen vorhanden? Fanboys gibt es wohl in beiden Lagern, aber das dürfte man wohl wenig ändern können.

Das beste Beispiel hierfür wäre die GTX 970...
Da habe ich die Presse leider nicht so verfolgt/das nicht mehr in Erinnerung. Aber in den USA hatte NVIDIA doch deswegen zu Recht eine Sammelklage am Hals, also zumindest dort gab es wohl auch ein wenig "Alarm".

marc-05
2016-08-25, 21:12:54
PCLab.pl kleines Roundup der GTX 1060 (6GB)
MSI;Gigabyte;Zotec;Inno3D;Asus (Turbo) und Referenz Design
Gut ist das man mit verschiedene Temperatur Targets getestet hat.
http://pclab.pl/art70946-85.html

StefanV
2016-08-25, 21:21:51
Was dein "Takt kann man ausgleichen angeht", scheinst du ja z.B. Taktunterschiede ab Werk für nicht relevant anzusehen, obwohl das für die Stock-Performance ein wesentlicher Faktor ist.
Ja und dabei wird immer wieder vergessen, dass es offiziell keinen 8gbps Speicher für die 4GB/256bit Karten gibt.
Dort ist nämlich bei 7gbps schluss...

Also vielleicht sollten wir einfach mal bei der Wahrheit bleiben und die Zulieferer nicht ausblenden...

Oder soll AMD deiner Meinung nach den Speicher über der Spezifikation betreiben?!

Mike
2016-08-25, 21:45:03
Ja und dabei wird immer wieder vergessen, dass es offiziell keinen 8gbps Speicher für die 4GB/256bit Karten gibt.
Dort ist nämlich bei 7gbps schluss... Und das interessiert den Kunden am Ende warum genau?

Also vielleicht sollten wir einfach mal bei der Wahrheit bleiben und die Zulieferer nicht ausblenden... Bei der Wahrheit sollte man immer bleiben, aber was hat das mit dem Thema zu tun? Hier wird doch nicht verteufelt, dass die Karten langsamer sind, sondern dass sie dies bei gleichem Namen sind, wenn man von der Speichermenge im Namen absieht.

Oder soll AMD deiner Meinung nach den Speicher über der Spezifikation betreiben?! Wie wäre es damit, schlicht und einfach den Namen anzupassen? Gleiches gilt natürlich für NVIDIA, aber eigtl. versteht sich das ja von selbst.

Monsta
2016-08-25, 21:58:12
Na dann erzähle doch mal bitte, wie und warum ein NVIDIA-Käufer deiner Meinung nach Alarm schlagen sollte. So, wie du das gerade tust? Bist du wenigstens auch NVIDIA-Käufer?


Ja ich bin Nvidia Käufer, ich habe eine GTX 970.
Ich fühle mich immer noch betrogen und werde mir so schnell keine Nvidia mehr kaufen.
Da ich zwei 4k Monitore habe, beide natürlich mit Displayport. Musste ich von meiner ebenfalls schäbigen 660Ti wechseln. (da war das Speicherinface auch ne verarsche). Die hatte leider nur einen Displayport.
Ich hätte die 970er verkaufen können und ne 980er kaufen, aber denen nochmal 500 Kröten zu geben kam mir nicht in den Sinn.
Amd hatte zu dem Zeitpunkt keine Grafikkarte in dem Preissegment mit 2 Displayport 2.0.
Bei der 660Ti hätte ich es nachlesen können. Ich war zu faul und bin drauf eingefallen. Aber bei der 970ér ist es einfach Betrug.

Zum Thema 1060 3Gb. Das Ding hätte auch easy 1050ti heissen können. Aber so hat das für mich wieder einen faden Beigeschmack.

Schaffe89
2016-08-25, 22:10:38
Deshalb wäre der Name GTX1050 auch das Mindeste gewesen. Immerhin hat das Ding ja nicht nur zu wenig Speicher, sondern ist auch noch teildeaktiviert.

Finde ich bei der r480 4GB auch nicht in Ordnung dass dort weniger Bandbreite und daher weniger Leistung gibt, AMD und Nvidia sollten solche Käuferverarschen schlicht und einfach aufgeben, aber eine völlige Transparanz wird man nie bekommen, weder bei AMD oder Nvidia und schon gar nicht bei OEM Produkten.

StefanV
2016-08-25, 22:15:30
Und das interessiert den Kunden am Ende warum genau?
Meinst du nicht auch, dass es ein Unterschied ist, ob die Spezifikation aufgrund technischer Gründe geändert werden mussten oder ob einfach willkür vom Hersteller der Grund dafür ist?!

Wenn AMD einfach keine 8gbps Speicher mit 4Gb bekommt, da es nur 8Gb Speicher mit 8gbps gibt, ist es schon ein gewaltiger Unterschied, findest nicht auch?!
Oh, natürlich könnte man auch weiterhin 8GiB Karten auf 4GiB labeln...


Bei der Wahrheit sollte man immer bleiben, aber was hat das mit dem Thema zu tun? Hier wird doch nicht verteufelt, dass die Karten langsamer sind, sondern dass sie dies bei gleichem Namen sind, wenn man von der Speichermenge im Namen absieht.
Richtig und dann auch noch bei den Eigenschaften, auf die der GPU Hersteller Einfluss nehmen kann und nicht, wie bei den anderen, Dinge, auf die die GPU Hersteller primär keinen Einfluss haben und auf externe Faktoren angewiesen sind...

Aber hier sind wir wieder beim Thema der schönmalerei von den nVidia Fans...


Wie wäre es damit, schlicht und einfach den Namen anzupassen? Gleiches gilt natürlich für NVIDIA, aber eigtl. versteht sich das ja von selbst.
Warum sollten sie?!

1. Ist es der gleiche Chip
2. _MUSSTE_ der Speichertakt nach unten korrigiert werden, da der benötigte Geschwindigkeitsgrad für 4Gb Chips nicht verfügbar ist.
3. Hat AMD selbst gar keinen Einfluss auf die Speicher, das ist Sache der Speicherhersteller wie z.B. Samsung...
Von daher wäre es schön, wenn du aufhören würdest, AMD für etwas zu beschuldigen, was nicht in deren Hand liegt?!

Aber hier, bei der GTX 1060 geht es um einen Chip, bei dem der GPU Hersteller den Chip noch mal beschnitten hat...

Verstehe nicht, warum DU gerade wieder versuchst, das ganze so darzustellen, als ob das, was die beiden hier machen, das gleiche wäre. Und genau DAS ist eben genau NICHT der Fall.
Da im einen Fall bei dem Chip vorhandene Einheiten deaktiviert wurden und im anderen Fall die dafür benötigten Komponenten nicht verfügbar sind...

Schaffe89
2016-08-25, 22:16:49
Mit 4GB kommt man aber erheblich weiter als mit 3, das sollte man hier aber bitte nicht unterschlagen.

Bei beiden Karten wird die Speichermenge halbiert und ob man mit den 4GB so viel weiter kommt, bezweifle ich bei dem schlechteren V-ram Mangement so ein kleines bisschen, allerdings wird es trotzdem in der Praxis ein Vorteil sein.
Es wird nur wieder mal mit zweierlei Maß gemessen.

AMD ist, den GTX 970 Skandal ausgelassen, keinen Deut besser in der Namensgebung oder bei der Transparenz hinsichtlich deren Produkte.
GTX 1060 und rx480 nehmen sich was die transparente Angabe von Spezifikationen angeht, nunmal wirklich nichts.

Während AMD die rx480 4GB durch den geringeren Speichertakt beschneidet und so langsamer macht, tut es Nvidia mit einer Reduktion der Shadereinheiten um ca 10%. Weiterhin überschreitet AMD die PCiE Spezifikation, gibt den Strombedarf ignorant falsch an. Also bei den Produkten wird sich nix genommen.

Mike
2016-08-25, 22:20:06
Ja ich bin Nvidia Käufer, ich habe eine GTX 970.
Ich fühle mich immer noch betrogen und werde mir so schnell keine Nvidia mehr kaufen. Ja, die Sache mit der 970 war wirklich eine Frechheit, ist aber mMn. nicht ganz mit der jetzigen Problematik vergleichbar, denn die dürfte wohl eher in den Bereich Täuschung anstatt Betrug fallen.

Zum Thema 1060 3Gb. Das Ding hätte auch easy 1050ti heissen können. Aber so hat das für mich wieder einen faden Beigeschmack. Natürlich ist der Name alles andere als optimal, aber wie gesagt, jedes Review, das ich bisher gelesen habe, kritisiert diesen Umstand (zu Recht). Zudem wird die Karte nicht empfohlen, wobei dies mehr an den 3 GB Speicher als am Namen liegt, was aber mMn auch gut so ist. Namen mit Verwechslungsgefahr gehören kritisiert, sind aber mMn. kein ernsthafter Grund, eine Hardware nicht zu kaufen.

Schaffe89
2016-08-25, 22:29:05
Damit ignorierst du natürlich mangels Argumenten bewusst, dass es auch RX480 4GB mit vollem Speichertakt gibt.

Und GTX 1060 3GB gibt es gegenüber dem Nvidia Referenzdesign auch mit mehr Takt, was die fehlenden Shader dann ausgleicht?
Es gibt eine MSI 4GB rx480 mit 2000mhz, natürlich nicht lieferbar.

Ebenso ignorierst du, dass man fehlenden Takt ausgleichen kann, fehlende Einheiten kann man nicht herzaubern. Aber hey, Nvidia ist ja so toll, da differenzieren wir natürlich nicht.

Man differenziert schon. Nur bei AMD gelten immer irgendwelche Ausreden, man kann ja übertakten, einen Framelimiter mit 30 FPS nutzen wenn der Verbrauch zu hoch ist und andere Spirenzchen.

Ganz davon abgesehen, dass 3GB klar zu wenig sind, während 4Gb vielleicht gerade noch an der Grenze des akzeptablen sind für Full-HD-Spieler.

Wie kommt mein Bruder nur mit seiner 780Ti 3GB Karte klar.:eek:
Sicher sind 3GB vs. 4GB ein klarer Nachteil einer GTX 1060 3GB gegenüber einer rx470 4GB. Dafür ist erstere aber auch etwas schneller und verbrauchsärmer. Ihr tut ja grade immer nur die AMD Vorteile zählen und die leider wirklich besseren Nvidia Treiber schön unter den Tisch kehren, die definitiv Fakt sind.

Aber wer sich genötigt sieht, ein absolut berechtigtes Argument, nämlich den Namen der GTX1060 3GB mit "das tun die aber auch" verteidigen zu müssen...ach lassen wir das.

Da wird gar nichts verteidigt. Beides ist kundenunfreundlich und schäbig.
Und AMD sollte vor allem bei dem Referenzdesign und den irreführenden Angaben was ZeroCore Features ( das nicht funktioniert ), und TDP Angaben die nicht korrekt sind, sich wirklich nicht beschweren wenn der ein oder andere die rx480 4GB als genauso unverfroren ansieht wie Nvidias Beschneidiung der GTX 1060 3GB.:redface:

Meinst du nicht auch, dass es ein Unterschied ist, ob die Spezifikation aufgrund technischer Gründe geändert werden mussten oder ob einfach willkür vom Hersteller der Grund dafür ist?!

Technische Gründe kommen bei einer Reduzierung der Shader bei der GTX 1060 3GB ja genauso in Frage, oder etwa nicht? Zumal es ja nur um die Namensgebung geht, was interessieren da jetzt technische Belange?

Wenn AMD einfach keine 8gbps Speicher mit 4Gb bekommt, da es nur 8Gb Speicher mit 8gbps gibt, ist es schon ein gewaltiger Unterschied, findest nicht auch?!

Und deswegen ist es dann besser gerechtfertigt die langsamere Karte dann genauso zu benennen, weil es AMD typisch wiedermal eine passende Ausrede gibt?:D Wie war die damals eigentlich bei der Fury? Ach ja, die 4GB reichen lange weil es HBM ist und heute reichen sie nicht mal mehr in Deus Ex in Full HD.

Richtig und dann auch noch bei den Eigenschaften, auf die der GPU Hersteller Einfluss nehmen kann und nicht

Gigabyte verkauft 8000mhz rx480 4GB, wieso nicht AMD?:rolleyes:


Von daher wäre es schön, wenn du aufhören würdest, AMD für etwas zu beschuldigen, was nicht in deren Hand liegt?!

In erster Linie geht es nicht darum irgendwelche Klein-klein Diskussionen zu führen um dann herauszuquacksalben dass AMD der Samariter ist, sondern schlicht um einen recht einfachem Umstand Karten, die in der Leistung beschnitten sind, mit anderem Namen anzubieten.


Verstehe nicht, warum DU gerade wieder versuchst, das ganze so darzustellen, als ob das, was die beiden hier machen, das gleiche wäre. Und genau DAS ist eben genau NICHT der Fall.
Ich finde ehrlichgesagt so ziemlich dass es das gleiche ist.

Mike
2016-08-25, 23:12:42
Meinst du nicht auch, dass es ein Unterschied ist, ob die Spezifikation aufgrund technischer Gründe geändert werden mussten oder ob einfach willkür vom Hersteller der Grund dafür ist?! Es ist vielleicht dahingehend interessant, weil es den Grund für die Existenz der langsameren Karte erklärt, letztendlich ändert es aber nichts an der Hardware an sich, macht also für den Kunden bei der Benutzung der Hardware keinen Unterschied.

Richtig und dann auch noch bei den Eigenschaften, auf die der GPU Hersteller Einfluss nehmen kann und nicht, wie bei den anderen, Dinge, auf die die GPU Hersteller primär keinen Einfluss haben und auf externe Faktoren angewiesen sind... Wie gesagt, dass die Speicher langsamer sind, würde wohl niemand kritisieren, wenn der Name angepasst worden wäre. Und auf den Namen von zumindest der Referenzkarte hat der Hersteller sehr wohl Einfluss, oder etwa nicht?

Aber hier sind wir wieder beim Thema der schönmalerei von den nVidia Fans... Wo wird denn hier schöngemalt? Ich sehe hier nur Kritik. Der einzige, der hier doch gerade Hersteller verteidigt, bist doch du!? Und das, obwohl gerade du dir vorhin noch mehr Kritik gegenüber den Herstellern gewünscht hast.
Kannst du das erklären?

Warum sollten sie?!

Ich habe erstmal nur eine mMn. bessere Alternative vorgeschlagen, gegenüber der von dir in den Raum geworfenen Option, den Speicher außerhalb der Spezifikation zu betreiben.

ICH persönlich finde die Namen bei beiden Herstellern nicht ganz so tragisch, und mich stört auch eher der Name der 1060, aus den Gründen, die du auch nennst. Ich bin mir aber nicht sicher, inwieweit sich diese Meinung objektiv vertreten lässt, denn letztendlich sind faktisch beide langsamer.
Letztendlich könnte man wohl die meisten Leute damit zufriedenstellen, wenn beide Karten einen eigenen Namen bekommen würden, so ist zumindestens mein Eindruck. Und einen wirklichen Nachteil hätte dies doch eigentlich auch nicht, oder?

Von daher wäre es schön, wenn du aufhören würdest, AMD für etwas zu beschuldigen, was nicht in deren Hand liegt?! Wie gesagt, hier geht es primär um die Namen der Karten, und die liegt doch, zumindest in gewissem Maße, in deren Hand? Zumal ich AMD nicht beschuldigt habe, sondern nur meine, dass die aktuellen Namen (insbesondere der der 1060 3GB) suboptimal sind. Die Tatsachen an sich, dass AMD lansgamen Speicher verbaut und NVIDIA Teile des Chips deaktiviert sind doch völlig in Ordnung, würde ich in den Situationen auch so machen.

Verstehe nicht, warum DU gerade wieder versuchst, das ganze so darzustellen, als ob das, was die beiden hier machen, das gleiche wäre. Und genau DAS ist eben genau NICHT der Fall.
Ich glaube, das will ich gar nicht versuchen. Was AMD und NVIDIA machen hat das gleiche Endergebnis, langsamere Karten mit Namen, die sich nur in der Speichermenge unterscheiden. Der Weg dorthin ist ein anderer.
Aber die Frage, ob das nun gleich ist oder nicht ist doch letztendlich auch nicht wirklich wichtig, oder? Denn richtig schön ist beides nicht, und da du ja Kritik so sehr magst, sollte dir sicher gefallen, dass auch beide Hersteller kritisiert werden.

Da im einen Fall bei dem Chip vorhandene Einheiten deaktiviert wurden und im anderen Fall die dafür benötigten Komponenten nicht verfügbar sind...

Wie gesagt, der Grund, warum die Hersteller ihre Karten langsamer machen kann dem Kunden theoretisch vollkommen egal sein, am Ende hat er weniger Leistung. Das ist doch, was (für den Kunden) hauptsächlich zählt, würde ich annehmen.

-/\-CruNcher-/\-
2016-08-25, 23:19:11
Ich sags mal so... derjenige der sich gut informiert weiß auch, dass die 3GB Version bei den SPs kastriert ist. Derjenige der einen Blindkauf macht, dem ist es eh egal. Man könnte sicherlich diese Karte GTX1060LE oder so nennen. Es ist aber nunmal anders gekommen. Diese minimale Kastrierung ist immer noch deutlich besser als das hirnverbrannte Design der GTX970. Allerdings würde ich heute niemandem mehr empfehlen eine 3GB Karte zu kaufen. Es sei denn derjenige spielt wirklich nur alte Schinken.

Ob der Performanceverlust durch weniger Shader oder weniger Speichertakt kommt, kann dem Anwender doch völlig egal sein. Auch bei der GTX 1060 3GB können OC-Modelle in nicht-speicherlimitierten Szenarien durchaus mal an das 6 GB Modell herankommen. Knackpunkt ist: Beide sind um mehr als die Speichermenge beschnitten und werden dennoch unter gleichem Namen vermarktet. Hier wie da keine saubere, ehrliche Lösung.

Die scheinbare Verzweiflungstat der Mobile 1060 mehr Shader zu spendieren spricht schon bände und sollte ja eigentlich die Desktop user empört aufschreien lassen was das soll, OC ist und bleibt eine total verrückte Welt für mich was die AIBs da abziehen können mit den IHVs ist schier einfach nur irre, wenn man überlegt wieviel müll eingespart werden könnte und resourcen anstelle dieser Künstlich erschafenen Maschinerie des Takt Wahnsins der alle wie wild hinterherjagen ohne die Konsequenzen wirklich zu verstehen ;)

Mike
2016-08-25, 23:44:24
Man könnte ja mal Hinterfragen sind mehr Shader weniger Takt vielleicht effizienter als mehr takt und weniger Shader vor allem innerhalb des Boost Systems und der DCE ;)

Also ich bin mir nicht mehr sicher, aber ich meine, das zumindest schonmal in einem Artikel zu Pascal gelesen zu haben.

Aber ich vermute mal, dass besagte 1060 mit mehr Shadern auch mehr kosten wird, und auf dem Desktop würden wohl eher wenige Nutzer bereit sein, für etwas mehr Effizienz mehr zu bezahlen. Ich wüsste dementsprechend auch nicht, warum man da "aufschreien" sollte? Abgesehen von der Tatsache, dass es wieder mal der offenbar gleiche Name ist, was natürlich nach wie vor unglücklich ist.

-/\-CruNcher-/\-
2016-08-26, 00:02:05
Dieser Artikel wird wohl von Format_C stammen er ist so mal der einzige der dazu Daten auswertet seit Maxwell sehr intensiv ;)

Es geht da auch vor allem darum die Balken länger werden zu lassen gegenüber der Konkurenz ;)

(del)
2016-08-26, 06:38:25
Hubraum statt spoiler :D

Je näher man die Chips an ihrem Sweet-Spot betreiben kann, umso besser ist das erst einmal für die Effizienz.
Trotzdem könnte das zu einem Nullsummenspiel werden, wenn ich mir die Performance/Watt-Kurve von Pascal im relevanten Taktbereich so anschaue.
Andererseits ist es z.B. bei beiden MSI GTX 1060, also der 3G und der 6G, so, dass der Boost-Takt ab Werk fast identisch ist und sich kaum noch signifikant steigern lässt.
Mit OC wird aus der 3G also nie und nimmer eine 6G. Und genau das wollte Nvidia ja. Ich hätte die 160 CE (Criplpled Edition) auch lieber als 1050 Ti im Laden gesehen.

BTW: Ihr müsst mal 'ne Woche auf mich verzichten. Ich bin ab heute Abend mal wieder der einzig echte Wattman :D

http://www.waddensea-worldheritage.org/sites/default/files/images/news/fb24_-_kopie.jpg

Raff
2016-08-26, 08:11:56
Das muss mal sein. Sehr gute Wahl. Viel Spaß! :up:

MfG,
Raff

Iruwen
2016-08-26, 10:04:35
Dieses Zerpflücken von Posts in einzeilige Zitate ist eine Unsitte. Macht man im Gespräch doch auch nicht, ist auch total blöd zu lesen, sofern man sich das antun möchte.

Malabolge
2016-08-26, 11:05:06
lassen sich weniger Einheiten ebenso durch Mehrtakt ausgleichen


Ach SO ! Dann übertakten wir die 970er einfach auf 2.5Ghz und schon passt das wieder:biggrin:
Wozu überhaupt 8G Speicher ? Verschwendung :rolleyes: Einfach auf 3Ghz mit Liquid Nitrogen Kühlung dan passt das;D


Meinetwegen kannst du mit Mehrtakt kastrierte Shadercluster ausgleichen, aber doch nicht RAM:eek::eek:

Machmal , aber nuir manchmal sollte man schon seinen "Blickwinkel" erwitern können:cool:

BlacKi
2016-08-26, 11:23:25
Machmal , aber nuir manchmal sollte man schon seinen "Blickwinkel" erwitern können:cool:
sehe ich genauso, es gibt genug leute denen 3gb noch ausreichen für ein paar jahre zocken. aber letztendlich finde ich den preis einfach zu hoch für die 3gb karte. 150-170€ sind noch attraktiv, aber 220€ für eine 3gb karte? die 950 hatte auch nur 2gb letztes jahr, die 3gb 1060 von diesem jahr finde ich weniger schlimm.

letztendlich bleibt die namensgebung und der preis die mängel der karte, nicht die 3gb.

letzteres trifft aber auch auf andere nv karten zu, vor allem auf die Txp.

dildo4u
2016-08-26, 11:31:45
Viele ignorieren wieder vollkommen,das es noch verdammt lange passende Einstellungen für 3GB geben wird,da MS und Sony die jetzigen Konsolen nicht komplett ersetzen.Digtial Foundry hat ja öfter Test's mit der 2GB 750 TI gemacht die schaffte fast immer Konsolen Setting@30fps,die 1060 3GB macht das dann halt@60fps.

Cyphermaster
2016-08-26, 11:39:06
Viele ignorieren wieder vollkommen,das es noch verdammt lange passende Einstellungen für 3GB geben wird,da MS und Sony die jetzigen Konsolen nicht komplett ersetzen.Digtial Foundry hat ja öfter Test's mit der 2GB 750 TI gemacht die schaffte fast immer Konsolen Setting@30fps,die 1060 3GB macht das dann halt@60fps.Das heißt also, auch 256MB-Grafikkarten von anno dunnemals sind immer noch super, solange Spiele noch so reduzierte Auflösungen und Detaillevel wie 640x480x16Bit @noaa, noaf, noparticles (...) anbieten, daß man auf ihnen noch 30fps erreicht... :uclap:

EvilTechno
2016-08-26, 11:48:05
Das heißt also, auch 256MB-Grafikkarten von anno dunnemals sind immer noch super, solange Spiele noch so reduzierte Auflösungen und Detaillevel wie 640x480x16Bit @noaa, noaf, noparticles (...) anbieten, daß man auf ihnen noch 30fps erreicht... :uclap:

Da fehlt noch ein diclaimer: Obige Aussage gilt nur solange Team Grün weniger Speicher anbietet als Team Rot. Anderenfalls ist Speichermangel sofort ein K.O.Kriterium, #Unbenutzbar, #Speicherkrüppelfail, #OMGWASERLAUBENAMD.

Rancor
2016-08-26, 11:56:44
Die 3 GB GTX 1060 ist vollkommen gaga. Das Teil braucht kein Mensch, erst recht nicht für den Preis.

Chronicle
2016-08-26, 12:00:59
Könnt ihr euch für eure Schlammschlacht nicht einfach mal einen AMD/NV Circlejerk Thread in der Lounge aufmachen?
Beiträge wie der von EvilTechno hier über mir bieten z.B. exakt null Mehrwert für Leute die hier reinschauen wegen neuen News/Infos/Reviews/Benchmarks.


EVGA GTX1060 SC bei Mindfactory btw wieder sofort ausverkauft und nächste Fuhre dann am 29. August. Denke ich werd dann einfach vorbestellen und hoffentlich eine abbekommen. Den Zehner Aufpreis sollte der bessere Kühler schon wert sein.

Zergra
2016-08-26, 12:07:01
BTW: Ihr müsst mal 'ne Woche auf mich verzichten. Ich bin ab heute Abend mal wieder der einzig echte Wattman :D

http://www.waddensea-worldheritage.org/sites/default/files/images/news/fb24_-_kopie.jpg

Naja, für einige ist das der tägliche Anblick :D

StefanV
2016-08-26, 12:31:28
Dieses Zerpflücken von Posts in einzeilige Zitate ist eine Unsitte. Macht man im Gespräch doch auch nicht, ist auch total blöd zu lesen, sofern man sich das antun möchte.
Richtig...

Und das ganze geht auch nur darum, dass die GTX 1060/3G nicht mit der 4GiG RX480 vergleichbar ist, das ist völlig Banane...

Sven77
2016-08-26, 12:49:26
Dieses Zerpflücken von Posts in einzeilige Zitate ist eine Unsitte.

Fullquotes auch

HOT
2016-08-26, 12:49:50
Bei beiden Karten wird die Speichermenge halbiert und ob man mit den 4GB so viel weiter kommt, bezweifle ich bei dem schlechteren V-ram Mangement so ein kleines bisschen, allerdings wird es trotzdem in der Praxis ein Vorteil sein.
Es wird nur wieder mal mit zweierlei Maß gemessen.

AMD ist, den GTX 970 Skandal ausgelassen, keinen Deut besser in der Namensgebung oder bei der Transparenz hinsichtlich deren Produkte.
GTX 1060 und rx480 nehmen sich was die transparente Angabe von Spezifikationen angeht, nunmal wirklich nichts.

Während AMD die rx480 4GB durch den geringeren Speichertakt beschneidet und so langsamer macht, tut es Nvidia mit einer Reduktion der Shadereinheiten um ca 10%. Weiterhin überschreitet AMD die PCiE Spezifikation, gibt den Strombedarf ignorant falsch an. Also bei den Produkten wird sich nix genommen.
Viele Spiele sind für 4GB ausgelegt, bei 3 wirds eben einfach deutlich früher eng, das kann man einfach nicht abstreiten. Grad das neue DeusEx zeigt das sehr gut, mit 3GB muss man schon ziemlich schäbige Einstellungen verwenden, obwohl die Karte mehr könnte. Bei der 470 muss man nicht solche faulen Kompromisse machen. Da 4GB jetzt der neue Standard ist fürs untere Segment (sogar die 460 gibts mit 4GB), werden die Spielehersteller schon darauf achten, 3GB sind aber einfach zu wenig.

Iruwen
2016-08-26, 12:50:42
Es gibt sicher einen gesunden Mittelweg um eine kohärente Argumentation aufzubauen. Tschakka!

/e: und sich da auf Konsoleneinschränkungen zu berufen ist auch nicht unbedingt zielführend, bei der Masse an unterdurchschnittlichen Konsolenports.

BlacKi
2016-08-26, 13:03:01
Viele Spiele sind für 4GB ausgelegt
das ist doch überhaupt nicht wahr, zum anderen bedeutet nicht automatisch, das wenn der speicher voll angezeigt wird, sich auch automatisch konsequenzen einstellen.

Iruwen
2016-08-26, 13:42:13
Wie viele sind "viele" und was heißt "ausgelegt". Es gibt genug Leute mit älterer oder noch schwächerer Hardware.

Mike
2016-08-26, 14:42:20
EVGA GTX1060 SC bei Mindfactory btw wieder sofort ausverkauft und nächste Fuhre dann am 29. August. Denke ich werd dann einfach vorbestellen und hoffentlich eine abbekommen. Den Zehner Aufpreis sollte der bessere Kühler schon wert sein.
Ich bin noch etwas skeptisch gegenüber den kleinen Karten/Kühlern. Sollten die langen Karten/größeren Kühler, die es ja, beispielsweise von Gainward, zum gleichen Preis gibt, nicht einen Tick besser sein?

HOT
2016-08-26, 15:00:47
das ist doch überhaupt nicht wahr, zum anderen bedeutet nicht automatisch, das wenn der speicher voll angezeigt wird, sich auch automatisch konsequenzen einstellen.
Natürlich ist das eine wichtige Größe für Entwickler. Natürlich entwickelt keiner für 4GB, aber es ist schon sehr wichtig sich anzuschauen, was der Markt zu hergibt und da gibt es eben sehr viel 4GB-Hardware. Diese Größe muss man auf jeden Fall im Auge behalten.

Chronicle
2016-08-26, 15:37:02
Ich bin noch etwas skeptisch gegenüber den kleinen Karten/Kühlern. Sollten die langen Karten/größeren Kühler, die es ja, beispielsweise von Gainward, zum gleichen Preis gibt, nicht einen Tick besser sein?
Das dachte ich mir eigentlich auch. Aber das kleine Ding wird von allen Seiten einfach nur in den Himmel gelobt. Und dazu noch 3 Jahre EVGA Support oben drauf.

Ansonsten war bis grad noch die MSI GT6 OC für 270€ ab 30.8. lieferbar gelistet, allerdings steht die jetzt auf einmal bei "Liefertermin unbekannt". Die wäre sonst auch noch interessant gewesen.
Einzige Unbekannte bis 290€ bleibt also weiterhin die inno3D Compact, über die man einfach null Erfahrungsberichte findet.

Die Wahrscheinlichkeit, dass in Kürze eine 1060 mal beim Mindstar verschossen wird, schätze ich jetzt einfach mal als verschwindend gering ein, so schnell wie die Dinger über die Theke gehen :D

aufkrawall
2016-08-26, 15:37:17
das ist doch überhaupt nicht wahr, zum anderen bedeutet nicht automatisch, das wenn der speicher voll angezeigt wird, sich auch automatisch konsequenzen einstellen.
Man muss aber damit rechnen, dass das während des Spielens jederzeit passieren kann.

BlacKi
2016-08-26, 16:18:29
als würden wir hier von einer 400-500euro karte reden... mit geforce expierience stellen sich die regler eh automatisch, und wenn ich mir die grafischen unterschiede in dx:md ansehe, muss man mit so einer "günstigen" karte (sofern sie mal nter 180euro zu haben ist) nicht alle settings oben haben.

Troyan
2016-08-26, 16:24:22
Ich bin noch etwas skeptisch gegenüber den kleinen Karten/Kühlern. Sollten die langen Karten/größeren Kühler, die es ja, beispielsweise von Gainward, zum gleichen Preis gibt, nicht einen Tick besser sein?

Hexus.net hat die SuperGaming von eVGA getestet: http://hexus.net/tech/reviews/graphics/95899-evga-geforce-gtx-1060-sc-gaming/?page=11

Bei 10°C höhrer Temperatur zur MSI Gaming X (65°C zu 75°C) ist die SC genauso laut.

Ich denke "mehr" GTX1060 benötigt man nicht. Interessant wäre jetzt noch der Vergleich mit der "Standard"-Ausführung, die einen schlechteren Kühler hat. Aber 289€ sehen vollkommen in Ordnung.

Schaffe89
2016-08-26, 17:54:40
Viele Spiele sind für 4GB ausgelegt, bei 3 wirds eben einfach deutlich früher eng, das kann man einfach nicht abstreiten.

Hab ich nicht getan, mir gings einfach nur um die Namensgebung bei beiden Seiten. Und da findet man bei AMD immer irgendwelche Ausreden warum die soviel besser sind.:redface:

Grad das neue DeusEx zeigt das sehr gut, mit 3GB muss man schon ziemlich schäbige Einstellungen verwenden, obwohl die Karte mehr könnte.

Ich will hier Nvidia nicht verteidigen. 3GB sind quasi oft am Limit, aber es ist auch eine günstige Karte, AMD hat damals auch eine r9 285 2GB angeboten und die schnitt inkl. schlechterem V-ram Management schlechter als eine GTX 960 ab.
Wen interessierts, die V-ram Menge steht ja im Namen dabei.

Pirx
2016-08-26, 19:40:29
AMD hat damals auch eine r9 285 2GB angeboten und die schnitt inkl. schlechterem V-ram Management schlechter als eine GTX 960 ab.
...
orly? http://www.guru3d.com/articles-pages/amd-radeon-r9-rx-480-8gb-review,1.html
Hier schneidet die R9 285 gar nicht so übel ab.

"inkl. schlechterem V-ram Management" soso, soll das eine neue urbane Legende werden?

Chronicle
2016-08-26, 19:49:28
Die Wahrscheinlichkeit, dass in Kürze eine 1060 mal beim Mindstar verschossen wird, schätze ich jetzt einfach mal als verschwindend gering ein, so schnell wie die Dinger über die Theke gehen :D

Zack und da ist die EVGA SC grad für 271€ zu haben. Direkt mal eingetütet :smile:

dargo
2016-08-26, 20:09:00
Woher kommt eigentlich dieser Blödsinn mit dem schlechteren Speichermanagement den Schaffe immer wieder von sich gibt?

aufkrawall
2016-08-26, 20:13:43
https://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/2/#abschnitt_fpsverlaufsdiagramm
Würde diese Behauptung anhand der Frametime-Graphen jetzt nicht unbedingt als "Blödsinn" abtun...

kuj0n
2016-08-26, 20:15:35
Mit der Karte macht man nichts falsch. Erspart euch aber das BIOS Update. Ich war durch den Zero-Fan-Modus angefixt und habe gleich geflasht. In manchen Szenarien ist die Lüftersteuerung damit viel zu konservativ und der Lüfter springt erst spät, dafür aber mMn nervig an (und wieder aus).

Auf ein altes .60 BIOS warte ich jetzt seit über einer Woche. Da hat sich der EVGA Support noch nicht bewegt, laut ihren Aussagen haben sie keins. Was ich nicht glauben kann. Ansonsten kann man das aber auch super mit dem PrecisionX OC Tool erledigen, neue Lüfterkurve und gut. Habe dem ZFM adieu gesagt, bis 40°C läuft der Lüfter mit 20% (~500rpm) und geht dann langsam hoch. Ich höre die Karte nicht. Auch nicht bei 75°C und 55%.

Und auf jeden Fall zehn Euro mehr für die SC Version ausgeben. Das lohnt sich wirklich.

Chronicle
2016-08-26, 20:20:40
Gut zu wissen, danke. Dann mal schauen wann die Karte ankommt, ich bin da noch nicht ganz so zuversichtlich.

dargo
2016-08-26, 20:23:23
https://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/2/#abschnitt_fpsverlaufsdiagramm
Würde diese Behauptung anhand der Frametime-Graphen jetzt nicht unbedingt als "Blödsinn" abtun...
Der Test ist über 8 Monate alt. Gibt es was Aktuelles?

aufkrawall
2016-08-26, 20:43:09
Die Antwort war so vorhersehbar...
Das ist mit WDDM 2.0 getestet und mit Crimson überprüft. Wie wahrscheinlich ist es da wohl, dass sich seitdem etwa in der Breite getan hat?

8 Monate... :eek:

Edit: Argh, sorry. WDDM 1.3
Mit WDDM 2.0 müsste man es natürlich neu prüfen.

dildo4u
2016-08-26, 20:46:59
Deus Ex Mankind Divided: GTX 1060 vs RX 480 Gameplay Frame-Rate Test

https://youtu.be/oNF8c9y9GxE

Ingame läuft die 1060 deutlich besser als im Bench.

Bösewicht
2016-08-26, 23:10:19
Deus Ex Mankind Divided: GTX 1060 vs RX 480 Gameplay Frame-Rate Test

https://youtu.be/oNF8c9y9GxE

Ingame läuft die 1060 deutlich besser als im Bench.
hab ich was an den augen oder ruckelt und teart die ati da sehr viel?
och dazu im bench stärker als im spiel könnte das eine Optimierung für bench sein?:biggrin:

Schaffe89
2016-08-26, 23:11:27
Woher kommt eigentlich dieser Blödsinn mit dem schlechteren Speichermanagement den Schaffe immer wieder von sich gibt?

Von Computerbase. GTX 950 2GB vs rx460 2GB das ist schon ziemlich eindeutig, daran gibts nix zu rütteln.
Und der damalige GTX 960 2GB vs 3GB r8 380 test bestätigte es auch, auch wenn es damals nicht gar so deutlich war.

Schaffe89
2016-08-26, 23:16:43
och dazu im bench stärker als im spiel könnte das eine Optimierung für bench sein?:biggrin:

In Actionszenen ist die GTX 1060 nen Ticken besser oder gleichschnell, da wird wohl wieder ein CPU Limit mit reinspielen und ruhigen Szenen ist die rx480 10% schneller.

Locuza
2016-08-26, 23:29:41
Der Test ist über 8 Monate alt. Gibt es was Aktuelles?
8. August 2016, Windows 10 und Crimson 16.8.1:
https://www.computerbase.de/2016-08/radeon-rx-460-test/3/

Denn während die 4.096-MB-Karte so abschneidet, wie man es vorab vermutet hat, ist das bei der Zwei-Gigabyte-Karte nicht der Fall. In vielen Spielen liegt die Gigabyte Radeon RX 460 kaum hinter der Sapphire Radeon RX 460 zurück liegt, doch es gibt Titel, in denen der Rückstand enorm ist. Das gilt unter anderem für Call of Duty: Black Ops III, Doom, F1 2015, Hitman und Mirror's Edge Catalyst.

Der gemeinsame Nenner aller Spiele: Alle gehen nicht zimperlich mit dem Grafikkartenspeicher um. Eine oder auch zwei Stufen niedrigere Texturdetails zeigen dann schnell, dass auf der Radeon RX 460 zwei Gigabyte für die Einstellungen nicht ausreichend sind. Das Gegenteil bei der Nvidia-Karte: Die GeForce GTX 950 fördert mit den 2 GByte in den Problemspielen teils deutlich höherer FPS zutage, bis zu 42 Prozent (F1 2015) kann sie sich vor die 2-GByte-Variante der RX 460 setzen. Daraus lässt sich nur schließen, dass Nvidia in Grenzfällen ein effizienteres Speichermanagement als AMD hat.

Schaffe89
2016-08-27, 03:03:49
Bin gespannt wann CB mal die 3GB Variante der GTX 1060 testet, da wird man sehen müssen wie gut Nvidia mit dem RAM klarkommt.
Der alte Tests sagt sagt es auch:

Der Test hat auch gezeigt, dass das Speichermanagement der GeForce GTX 960 und damit von Maxwell offenbar deutlich besser mit 2 GB zurecht kommt als das Pendant der Radeon R9 380 und damit von Tonga.

Nvidia hat wohl offensichlich die bessere Bandbreitenkompression und die bessere Speicherverwaltung.

nismod
2016-08-27, 08:59:48
EVGA GTX1060 SC bei Mindfactory btw wieder sofort ausverkauft und nächste Fuhre dann am 29. August. Denke ich werd dann einfach vorbestellen und hoffentlich eine abbekommen. Den Zehner Aufpreis sollte der bessere Kühler schon wert sein.

Das kann aber auch dauern. Ich hab Montag morgen eine bestellt und die ist noch nicht zum Versand bereit. Anscheinend kommt die immer nur in geringen Mengen rein. Die Ausbeute an vollen Chips im 14/16 nm Prozess ist wohl sehr schlecht.

Chronicle
2016-08-27, 09:53:40
Jop, genau diesen Anschein macht deren Webshop gerade auch. Naja, da muss man durch.
Kannst dich ja mal melden wenn deine Karte verschickt wurde, dann hab ich ein grobes Zeitfenster :D

nismod
2016-08-27, 10:46:35
Hab eben gesehen das sie bei Saturn lieferbar ist für 289 Euro. Hab direkt eine bestellt und werde die MF Bestellung stornieren sobald die Bestätigung da ist.

dargo
2016-08-27, 12:12:18
hab ich was an den augen oder ruckelt und teart die ati da sehr viel?

Welche Wunder erwartest du von einem konstanten 60fps Video bei ungesyncten Frames? Ob es tatsächlich ruckelt siehst du an den Frametimes.

In Actionszenen ist die GTX 1060 nen Ticken besser oder gleichschnell, da wird wohl wieder ein CPU Limit mit reinspielen und ruhigen Szenen ist die rx480 10% schneller.
Das wird sich mit DX12 schnell ändern. ;)

8. August 2016, Windows 10 und Crimson 16.8.1:
https://www.computerbase.de/2016-08/radeon-rx-460-test/3/
Naja... daraus gleich auf ein besseres Speichermanagement schlussfolgern halte ich für etwas gewagt.

1. Es sind nur einzelne Games betroffen, hier würde ich erstmal spätere Crimsons überprüfen.
2. Im Benchmarkparcour bewegt man sich bei der RX460 großteils bereits in unspielbaren Frameraten.
3. Eine R9 280X hat nur 1GB mehr (3GB) und es gibt keine Anzeichen für irgendwelchen Speichermangel, zumindest nicht den Frameraten nach.
4. Gerade bei RotTR was eigentlich viel Speicher verlangt kann sich die 4GB RX460 kaum von der 2GB RX460 absetzen. Das bisschen geht eher auf die dauerhaften 1250Mhz der 4GB Sapphire.

Bei den einzelnen großen Aussätzen wie zb. F1 2015, Doom, CoD und Mirror's Edge Catalyst würde ich schon fast auf einen Treiberbug tippen. Mal davon abgesehen, dass selbst AMD P11 nur für eSports empfiehlt würde ich heute niemandem mehr eine 2GB Karte empfehlen.

PS: da fällt mir gerade ein... hatte Raff nicht mal gesagt die GTX1060 6GB würde in RotTR bereits vereinzelt ruckeln während die RX480 8GB dies nicht tut? Ich meine mich an diesen Satz zu erinnern. Wie ist das möglich wenn das Speichermanagement von NV so viel besser sein soll?

BlacKi
2016-08-27, 12:32:48
Nvidia hat wohl offensichlich die bessere Bandbreitenkompression und die bessere Speicherverwaltung.
ich denke das die speicherverwaltung treiberabhängig ist. vl ist die bessere speicherverwaltung auf das krüppel SI zurückzuführen und alle nv karten profitieren davon ;)

Mike
2016-08-27, 12:53:03
PS: da fällt mir gerade ein... hatte Raff nicht mal gesagt die GTX1060 6GB würde in RotTR bereits vereinzelt ruckeln während die RX480 8GB dies nicht tut? Ich meine mich an diesen Satz zu erinnern. Wie ist das möglich wenn das Speichermanagement von NV so viel besser sein soll?
Hm, ja, wie ist das nur möglich? Könnte es vielleicht sein, dass die RX480 8 GB mehr Speicher hat als die GTX1060 6 GB?

Ich schätze mal, dass Thema wurde noch nicht ausreichend untersucht, um abschätzen zu können, ob aktuelle NVIDIA-Karten momentan eine bessere Kompression haben und daher weniger Speicher benötigen (und falls ja, wieviel besser diese ist), oder ob sie vielleicht "nur" weniger einbrechen, wenn der Speicher knapp wird.

dargo
2016-08-27, 12:55:48
Hm, ja, wie ist das nur möglich? Könnte es vielleicht sein, dass die RX480 8 GB mehr Speicher hat als die GTX1060 6 GB?

Das sind +33%. RX460 2GB vs. 4GB sind +100%. :wink:

dildo4u
2016-08-27, 13:41:08
Tomb Raider läuft sauber auf der 1060.

http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-1060-6GB-Review-GP106-Starting-249/Rise-Tomb-Raider

http://www.guru3d.com/articles_pages/msi_geforce_gtx_1060_6gt_oc_review,20.html

Was Raff getestet hatte war eine 480 mit 4GB die kackte ab.

http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Videos/RX-480-4GB-Test-Review-1200675/

Sir_Freezer
2016-08-27, 14:05:45
Was aber auch an der Tatsache nichts ändert, dass die RX 480 8GB im (P)review von Raff schon 7GB vRam bei 1080p - FHD in RotTR belegt hat...
Selten war der Vram schon so knapp bei Erscheinen einer Graka in der Mainstreamklasse...
und ~16,7% Mehr Speicher müssen durch Effizienz erstmal ausgeglichen werden.
Von zukünftigen Games mal ganz zu schweigen.

Mike
2016-08-27, 14:08:13
Das sind +33%. RX460 2GB vs. 4GB sind +100%. :wink:
Ja, und 2 GB RX460 vs. 2 GB 950 sind +0%, und genau anhand dieses Vergleichs wird ja die These aufgestellt, dass das Speichermanagement der NVIDIA-Karte besser sein könnte.

dargo
2016-08-27, 14:11:06
Tomb Raider läuft sauber auf der 1060.

http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-1060-6GB-Review-GP106-Starting-249/Rise-Tomb-Raider

http://www.guru3d.com/articles_pages/msi_geforce_gtx_1060_6gt_oc_review,20.html

Ich rede nicht vom intergrierten Benchmark.


Was Raff getestet hatte war eine 480 mit 4GB die kackte ab.

http://www.pcgameshardware.de/AMD-Radeon-RX-4808G-Grafikkarte-264637/Videos/RX-480-4GB-Test-Review-1200675/
Nein, davon war auch nicht die Rede sondern explizit von GTX1060 mit 6GB die schon hier und da zu knapp sind. Keine Ahnung mehr wo das stand, vielleicht äußert sich Raff dazu nochmal.

-/\-CruNcher-/\-
2016-08-27, 14:16:35
Was aber auch an der Tatsache nichts ändert, dass die RX 480 8GB im (P)review von Raff schon 7GB vRam bei 1080p - FHD in RotTR belegt hat...
Selten war der Vram schon so knapp bei Erscheinen einer Graka in der Mainstreamklasse...
und ~16,7% Mehr Speicher müssen durch Effizienz erstmal ausgeglichen werden.
Von zukünftigen Games mal ganz zu schweigen.

Irgendwann versagt die beste DCE wenn man schlau ist und Effizient setzt sie erst garnicht richtig ein siehe Nvidias Pascal R&D Daten bezüglich ihrer DCE improvements aus ihrer Marketing Veröffentlichung ;)



Niedrigster Gewinn höchste Effizienz seitens des Entwicklers ;)

http://images.anandtech.com/doci/10325/PascalEdDay_FINAL_NDA_1463156837-012.png

Sir_Freezer
2016-08-27, 14:44:28
OT: Tut mir leid wenn ich mich da quasi kurz ungewollt mal outen muss, aber DCE ist (für mich) eine Abkürzung für "Distributed Computing Environment",
die aus den End 80ern bzw. kurz danach mal aktuell war. Und ne Klasse Idee btw.
Die Idee kam viel zu früh... Heute heißt sowas tendenziell/grob eher "Cloud Computing" und...egal.

Was hat das mit Grakas zu tun? - Sorry für OT
Letztlich gehts in deinem Bild trotzdem nur im Bandbreite und weniger um die Speichermenge an sich...

-/\-CruNcher-/\-
2016-08-27, 14:50:16
Es hängt aber doch zusammen je schneller du die daten hin und herschiebst umso niedrieger deine latenzen umso mehr du sie komprimierst so schnell wie möglich um so schneller sind sie wieder aus dem VRAM und platz für neue Daten usw.

Delta Compression Engine

Verlustfreie Kompression von unterschieden des input zum target.

Mancko
2016-08-27, 14:56:42
ich denke das die speicherverwaltung treiberabhängig ist. vl ist die bessere speicherverwaltung auf das krüppel SI zurückzuführen und alle nv karten profitieren davon ;)

Wieso weshalb ist ja am Ende egal. Letztendlich kann Nvidia mit weniger Hardware Aufwand die gleiche Leistung abrufen wie AMD mit mehr Hardware Aufwand. Das ist natürlich insbesondere in Richtung Notebook Segment eine sehr gute Ausgangsposition. M.E. alles Resultate der Investments in Tegra. Dort musste Nvidia letztlich lernen mit wenig Hardware und möglichst wenig Verbrauch auf trotzdem sehr gute Leistung zu kommen. Das zahlt sich bei den PC GPUs nun schon seit einiger Zeit ordentlich aus.

dargo
2016-08-27, 15:31:20
Wieso weshalb ist ja am Ende egal. Letztendlich kann Nvidia mit weniger Hardware Aufwand die gleiche Leistung abrufen wie AMD mit mehr Hardware Aufwand.
Kann sie nicht.
http://www.golem.de/news/geforce-gtx-1060-vs-radeon-rx-480-das-bringen-direct3d-12-und-vulkan-1607-122214.html

Weitere low level Games folgen. Selbst unter neuesten DX11 Games (DX12 Patch folgt) kommt NV nicht ran.
https://www.youtube.com/watch?v=oNF8c9y9GxE&feature=youtu.be

Es zeichnet sich immer mehr das ab was ich schon zuvor gesagt habe. Bei neueren Games (besonders low level) konkurriert die GTX1060 mit der RX470.

Bösewicht
2016-08-27, 16:08:49
Es zeichnet sich immer mehr das ab was ich schon zuvor gesagt habe. Bei neueren Games (besonders low level) konkurriert die GTX1060 mit der RX470.
selbst wenn wem juckt es?
Wenn ich mit ein Produkt zufrieden bin renne ich doch nicht gleich zur Konkurrenz nur weil die mal 5% schneller sind, hinzu kommt das die TDP einer 1060 auch auf 480 hochgeprügelt werden könnte und schon sieht die kein Land mehr ob jetzt 2gb mehr oder weniger spielt dann keine rolle.


Das eine 480 8GB in einem oder anderen spiel schon 7gb zieht bedeutet im übrigen nicht das automatisch eine 6gb karte dort langsamer sein wird, ich gehe schon von aus das ein spiel sich da auch anpassen tut und sich mal mehr oder mal weniger Speicher nimmt, ist ja nicht mehr ganz so wie noch damals wo es hieß wenn voll dann voll wenn zu wenig dann Pech dank Streaming und Skalierung und agents die im Hintergrund wachen ist vieles nicht mehr so wild.
Ich glaube entscheidender ist das der Fluss gut durch die Karte rennt und das funktioniert bei der 1060 doch ziemlich gut.

dargo
2016-08-27, 16:24:21
selbst wenn wem juckt es?

Denjenigen der günstig VRR genießen möchte. Im Prinzip also jeden der flüssig spielen will.

EvilTechno
2016-08-27, 16:26:04
selbst wenn wem juckt es?
Wenn ich mit ein Produkt zufrieden bin renne ich doch nicht gleich zur Konkurrenz nur weil die mal 5% schneller sind, hinzu kommt das die TDP einer 1060 auch auf 480 hochgeprügelt werden könnte und schon sieht die kein Land mehr ob jetzt 2gb mehr oder weniger spielt dann keine rolle.


Das eine 480 8GB in einem oder anderen spiel schon 7gb zieht bedeutet im übrigen nicht das automatisch eine 6gb karte dort langsamer sein wird, ich gehe schon von aus das ein spiel sich da auch anpassen tut und sich mal mehr oder mal weniger Speicher nimmt, ist ja nicht mehr ganz so wie noch damals wo es hieß wenn voll dann voll wenn zu wenig dann Pech dank Streaming und Skalierung und agents die im Hintergrund wachen ist vieles nicht mehr so wild.
Ich glaube entscheidender ist das der Fluss gut durch die Karte rennt und das funktioniert bei der 1060 doch ziemlich gut.

Naja, mich interessiert das. Will eine Radeon 6950 2GB ersetzen nachdem xcom2 so langsam ist. Mein AMD Bias sagte: 480 kaufen. Aber Win10 will ich nicht, da sah die 1060 auf einmal richtig gut aus. Nun also doch nicht? Ihr seid keine große Hilfe ;-).

Bösewicht
2016-08-27, 16:35:30
dargo
Für vr oder downsampling oder Auflösungen um 4k nutzt man auch keine 1060
natürlich auch aber eben nicht hauptsächlich.

hm es gab ne zeit da hatte nur nvidia ds da warst du also noch vom anderen ufer fällt mir ein:D

@EvilTechno
die 1060 6gb wird's schon bringen die hat ja immerhin ca. Geforce 980 power.
Für mein 3 meter FullHD Bild mit bisschen aa wird es reichen;D

Mike
2016-08-27, 16:46:06
Es zeichnet sich immer mehr das ab was ich schon zuvor gesagt habe. Bei neueren Games (besonders low level) konkurriert die GTX1060 mit der RX470.
Naja, wenn ich mal ganz grob den 3DCenter-Rohleistungsvergleich nehme, und da die Rechen- sowie Texturierleistung betrachte, hat die RX480 ca. 18 % mehr Rohleistung als die GTX1060. So gesehen spielt die GTX1060, rein von der Rohleistung her, anscheinend auch eher in der Kategorie der RX470. Von daher scheint die Aussage zumindest auf die meisten DX11-Spiele zuzutreffen. Inwieweit die RX480/RX470 mit hardwarenahen APIs aufholt, wird insbesondere die Zukunft zeigen, und ja, die aktuellen Beispiele sehen schon vielversprechend aus.


selbst wenn wem juckt es?
Jeden, der sich eine neue Grafikkarte kaufen möchte in dem Preisbereich? Ist das so schwer zu verstehen, dass man da noch fragen muss?

aufkrawall
2016-08-27, 16:46:29
Denjenigen der günstig VRR genießen möchte. Im Prinzip also jeden der flüssig spielen will.
Auch mit variablem Vblank (was eigentlich der genauere Begriff ist als VRR, VRR kann auch das automatische statische Umschalten bei Mobile-Displays meinen) sind 60fps immer noch ruckelig.
Bei mir hatte sich längst nicht der große Wow-Effekt eingestellt. Es ist "sehr nett", aber nicht "über-geil". Für die Spielbarkeit bringt es rein gar nichts.

Tearing kann man häufig (wenn auch längst nicht immer) im Kopf ausblenden, genau wie LCD Motion Blur. Wenn ich mich auf ein MP-Match konzentriere und auf die Mitte des Bildes schaue, fang ich wohl kaum zwischendurch an, nach Tearing zu suchen. Geschweigedenn würde es mich sonderlich interessieren.

Schaffe89
2016-08-27, 16:46:35
Naja... daraus gleich auf ein besseres Speichermanagement schlussfolgern halte ich für etwas gewagt.



Das war ja wiedermal klar, zwei Tests, zweimal der gleiche Befund, keinerlei Gegenargumente und umschalten in den Denial-Modus.
Ich lasse es mir ja eingehen wenn ein Test zu dem Befund kommt, aber das gleiche passierte auch in GTA5 mit meiner Nano ( unrundes Spielgefühl ) das war selbst auf ner ollen GTX 970 besser und in 2 CB Tests in mehreren Spielen zeitlich versetzt.

AMD hat durch diese Technologierückstände Probleme was deren Marge angeht.
Nvidia benötigt dadurch erstens weniger RAM und zweitens durch Bandbreitenkompression ein kleineres SI und Nvidia braucht auch kein unnötiges HBM, das bisher eine reine Fehlinvestition für AMD war.

Die Nachteile der GTX 1060 halten sich außer dem geringeren V-ram der später evtl. mal wichtig wird sehr stark in Grenzen.

Naja, wenn ich mal ganz grob den 3DCenter-Rohleistungsvergleich nehme, und da die Rechen- sowie Texturierleistung betrachte, hat die RX480 ca. 18 % mehr Rohleistung als die GTX1060.

Jup, aber kommt auch drauf an wie man Rohleistung definiert. Eine HD 5870 hatte mit den VLIW-5 Shadern ne sehr hohe Rohleistung und konnte die niemals umsetzen.
Selbst unter Directx12 wird eine rx480-so denke ich- auf Dauer nicht schneller sein, aber wird man sehen müssen.

aufkrawall
2016-08-27, 16:49:21
Vernünftige Grafikeinstellungen in GTA V hielten den Verbrauch allerdings <4GB, selbst in WQHD.
Ändert natürlich an der Tatsache nichts, wenn es mit AMD mit vollem VRAM dann stockt und mit NV nicht.

dargo
2016-08-27, 18:59:40
dargo
Für vr oder downsampling oder Auflösungen um 4k nutzt man auch keine 1060
natürlich auch aber eben nicht hauptsächlich.

:D

Ich spreche von VRR bzw. A-Sync. ;)


Ich lasse es mir ja eingehen wenn ein Test zu dem Befund kommt, aber das gleiche passierte auch in GTA5 mit meiner Nano ( unrundes Spielgefühl ) das war selbst auf ner ollen GTX 970 besser und in 2 CB Tests in mehreren Spielen zeitlich versetzt.

Und das hatte bestimmt mit der Speichermenge zu tun. :rolleyes: Du schmeißt wieder alles in einen Topf.


Bei mir hatte sich längst nicht der große Wow-Effekt eingestellt. Es ist "sehr nett", aber nicht "über-geil". Für die Spielbarkeit bringt es rein gar nichts.

Tja... so unterschiedlich ist die Wahrnehmung. Ich würde ohne A-Sync das Gaming mittlerweile komplett aufgeben. Das Ruckeln mit Vsync Off reißt mich sofort aus der Immersion raus.

Auch mit variablem Vblank (was eigentlich der genauere Begriff ist als VRR, VRR kann auch das automatische statische Umschalten bei Mobile-Displays meinen) sind 60fps immer noch ruckelig.

:|

aufkrawall
2016-08-27, 19:28:07
60fps sind auch mit A-Sync nur ein Kompromiss, flüssig wirds erst ab +90.

Mit FreeSync ist das Angebot, was hohe Hz-Zahlen angeht, btw. ebenfalls überschaubar (schrott und schrotter) und nicht besonders günstig.
Und mit niedrigen Hz-Zahlen sind die FreeSync-Einschränkungen gegenüber Gsync einfach nur nervig.
Keine fps-Limiter für alle Spiele vorhanden? Probleme mit spieleigenen fps-Limitern? Kein LFC?
Voll empfehlenswert. :uup:

Screemer
2016-08-27, 19:37:38
60fps sind auch mit A-Sync nur ein Kompromiss, flüssig wirds erst ab +90.

Jetzt mach aber mal nen Punkt. Das ist vielleicht deine persönliche Präferenz aber di sicher nicht entscheidend. Konsolen und Arcade haben seit Jahrzehnten 60fps als target. Das als ruckelig zu bezeichnen ist ja wohl nur seltsam. Ruckelig wird's erst mit hoher farianz der frametimes und Streamingrucklern. Ich zock lieber mit runden 50fps als mit unrundenframetimes 70fps. Kommt natürlich auch auf Genre an. Fps sind fur mich >90fps quasi Pflicht. Aber nicht weil es ruckelig ist, sondern wegen des niedrigeren inputlags und der besseren Reaktionsfähigkeit.

Alle von die aufgeführten negativpunkte zu freesync treffen nicht zu. fpslimiter ist gar kein problem, warum den spieleigenen wenns einen im Treiber gibt? Frtc sollte doch mittlerweile gehen soweit mir bekannt. Der letzte Punkt betrifft nur Monitore, die eine Range haben die einfach kacke ist. Sprich die Range nicht min->max nicht min. *2 ist. Die sind aber eh schrott und für gamer sinnlos.

Bösewicht
2016-08-27, 19:45:39
ach variable refresh-rate gut klar wer G oder FreeSync hat sollte dann auch entsprechende Hardware kaufen :biggrin:
Ja Monitor + AMD in der Richtung ist günstiger soweit ich weiß.


Nicht meine Welt als LG Largo und 3 Meter Bild Besitzer :tongue:
Jetzt mach aber mal nen Punkt. Das ist vielleicht deine persönliche Präferenz aber di sicher nicht entscheidend. Konsolen und Arcade haben seit Jahrzehnten 60fps als target.
ich würde auch sagen bei meinem 3 meter bild sind 60 fps Minimum da fällt ruckeln genau wie bei vr schneller auf, kann mir gut vorstellen das geübte Augen die auch Zwischenbildberechnungen gewöhnt sind unter 60fps schon als ruckelig sehen.

Ist halt eine Sache der Gewohnheit, bis vor einigen jahren hab ich noch gesagt 24fps mehr brauche ich nicht:wink:

dargo
2016-08-27, 19:47:23
60fps sind auch mit A-Sync nur ein Kompromiss, flüssig wirds erst ab +90.

Mit FreeSync ist das Angebot, was hohe Hz-Zahlen angeht, btw. ebenfalls überschaubar (schrott und schrotter) und nicht besonders günstig.
Und mit niedrigen Hz-Zahlen sind die FreeSync-Einschränkungen gegenüber Gsync einfach nur nervig.
Keine fps-Limiter für alle Spiele vorhanden? Probleme mit spieleigenen fps-Limitern? Kein LFC?
Voll empfehlenswert. :uup:
Typisch aufkrawall wieder. :uclap: Noch vor nicht langer Zeit waren 24fps für dich flüssig. X-D


ich würde auch sagen bei meinem 3 meter bild sind 60 fps Minimum da fällt ruckeln genau wie bei vr schneller auf, kann mir gut vorstellen das geübte Augen die auch Zwischenbildberechnungen gewöhnt sind unter 60fps schon als ruckelig sehen.

Ohne VRR bzw. A-Sync ist generell alles ruckelig, zumindest für meine Augen. Da hilft auch keine 144Hz Refreshrate vom Bildschirm.

aufkrawall
2016-08-27, 20:03:15
Jetzt mach aber mal nen Punkt. Das ist vielleicht deine persönliche Präferenz aber di sicher nicht entscheidend.
Ist dir schon mal aufgefallen, dass es mit VR unterhalb von 90fps Motion Sickness gibt?
Das hat überhaupt nichts mit meiner persönlichen Präferenz zu tun. Wenn du ein 144Hz Gerät da hast, fühlen sich 60fps einfach unrund im Vergleich zu 90 an, auch mit A-Sync.


Alle von die aufgeführten negativpunkte zu freesync treffen nicht zu. fpslimiter ist gar kein problem, warum den spieleigenen wenns einen im Treiber gibt?

Aha. Der tolle Treiber-Limiter von AMD funktioniert nur mal eben überhaupt nicht mit DX12, Vulkan oder im Fenstermodus.

Typisch aufkrawall wieder. :uclap: Noch vor nicht langer Zeit waren 24fps für dich flüssig. X-D

Du laberst einen Müll...
Als ob ich 24fps als "flüssig" bezeichnet hätte. Ich habe gesagt, dass es Spiele gibt, die auch mit solchen fps spielbar sind.

dargo
2016-08-27, 20:05:58
Du laberst einen Müll...
Als ob ich 24fps als "flüssig" bezeichnet hätte. Ich habe gesagt, dass es Spiele gibt, die auch mit solchen fps spielbar sind.
Du laberst Müll!

Vor nicht allzulanger Zeit war das Thema noch recht groß, dass bei den Freesync Bildschirmen noch kein Hersteller min. 30Hz bei A-sync angeboten hat. Da kamst du damit, dass am Fernseher auch schon 24Hz flüssig aussehen. Dein Gedächnis schwächelt. Wie dem auch sei... deine Behauptung 90+fps wären erst flüssig ist ein riesen großer Bullshit. Übrigens fällt mir wieder auf, dass der IHV der gerade in deinem Rechner steckt immer der beste ist. Neutralität ist bei dir ein Fremdwort.

aufkrawall
2016-08-27, 20:10:19
Such mal das Zitat raus. Ich glaube eher, du halluzinierst.

dargo
2016-08-27, 20:11:47
Dafür ist mir meine Freizeit zu schade.

Undertaker
2016-08-27, 20:22:10
Ach SO ! Dann übertakten wir die 970er einfach auf 2.5Ghz und schon passt das wieder:biggrin:
Wozu überhaupt 8G Speicher ? Verschwendung :rolleyes: Einfach auf 3Ghz mit Liquid Nitrogen Kühlung dan passt das;D


Meinetwegen kannst du mit Mehrtakt kastrierte Shadercluster ausgleichen, aber doch nicht RAM:eek::eek:

Ich glaube du solltest noch einmal gründlich den zitierten Beitrag lesen. Mehrtakt soll die Speichermenge ausgleichen können? Bitte was? Wer hat das geschrieben? Ich jedenfalls nicht.

Aussage war: Mehrtakt kann die geringere Shaderzahl ausgleichen, sodass OC-Modelle bei der GTX 1060 3 GB (ebenso wie OC-Modelle der RX 480 4 GB) in einem nicht-speicherlimitierten Fall (!) an das jeweilige Schwestermodell mit doppelter Speichermenge herankommen können. Non-OC Modelle logischerweise nicht, die sind beiderseits bei gleichem Namen in jeder Situation langsamer. Darum meine Kritik an der Namensgebung beider Hersteller.

Gibt es mittlerweile brauchbare Tests der GTX 1060 3 GB, zusammen mit der RX 480 4 GB? Wüsste gern, wie das anscheinend bessere Speichermanagement (siehe RX 460 2 GB vs. GTX 950 2 GB) bei Nvidia den kleineren VRAM kompensieren kann oder eben nicht.

Sir_Freezer
2016-08-27, 20:46:20
Naja, insofern das überhaupt noch "sinnvoll" sein sollte... :biggrin:
Die GTX 1060 3GB Version verdient weder das Kürzel GTX, noch das 6er Label.
Mehr als ein Rohrkrepierer kann die 3GB Version der GTX 1060 einfach nicht mehr werden und das war beim Release schon Fakt.

Die Anzahl der Games wäre mal interessant, in denen bei Hohen Settings 3GB nicht jetzt schon limitieren.
Mal schauen, wer sich die Mühe macht und die ganzen Bench Roundups wegen der anpasst.
Egal was, aber Auflösung oder Details müssen runter und im schlimmsten Falle sogar beides... ;D

Edit:: @ -/\-CruNcher-/\- Auf längere Sicht kann Effizienz einfach keinen Speicher ersetzen. Das hat die Vergangenheit bereits sehr häufig belegt.
Irgendwann ist immer das (egal welches) Limit erreicht

aufkrawall
2016-08-27, 22:22:56
Mehr als ein Rohrkrepierer kann die 3GB Version der GTX 1060 einfach nicht mehr werden und das war beim Release schon Fakt.

Leider wird das Teil wohl trotzdem verbaut werden und für NV eine super Resteverwertung abgeben.
Kann man nicht ändern, jeder Käufer kann sich informieren.

gedi
2016-08-27, 22:35:21
Jeder mit einem Weitblick welcher größer ist als der Blick zur Haustüre, wird sich für eine 480 entscheiden. Und Personen welcher sich für eine 3GB 1060 entscheiden, denen wünsche ich weiterhin viel Glück im Auffinden von Personen, welche ihren Computer einschalten, denn dazu sind sie selbst definitiv nicht in der Lage.

90FPS unter VR scheinen Pflicht zu sein, beim normalen Gamen aber wohl kaum, denn sonst kann ich mir schon wieder neue Hardware zulegen.

IceKillFX57
2016-08-27, 22:36:42
Wäre eher was für den OEM Markt

Mike
2016-08-27, 23:02:10
Jeder mit einem Weitblick welcher größer ist als der Blick zur Haustüre, wird sich für eine 480 entscheiden.
Wenn du nun den Satz um den simplen Zusatz "und ähnliche Prioritäten wie die meinen hat" ergänzt, dann wird deine Prognose schon deutlich besser.

Und Personen welcher sich für eine 3GB 1060 entscheiden, denen wünsche ich weiterhin viel Glück im Auffinden von Personen, welche ihren Computer einschalten. Ich hoffe, dir muss man das nicht wünschen.

aufkrawall
2016-08-27, 23:04:26
90FPS unter VR scheinen Pflicht zu sein, beim normalen Gamen aber wohl kaum, denn sonst kann ich mir schon wieder neue Hardware zulegen.
Ich habe nicht gesagt, dass 90fps Pflicht sind, sondern, dass trotz variablem Vblank auch erst fps ab 90 wirklich flüssig sind. Schwankungen auf 80fps fallen schon deutlich auf. Der Input Lag wird gefühlt auch kein bisschen geringer.
Ich hab ja kein Problem damit, dass ich in vielen (SP-)Spielen weniger fps hab. Spielbarkeit und Optik gehen bei mir vor Flüssigkeit der Bildpräsentation.
Mal abgesehen davon, dass sich mit ASync jeder kleine Hänger in einem Spiel wie ein großer Stolperstein anfühlt. Hat mich jedes mal völlig rausgerissen, nicht optimales Streaming ist echt die Pest. Die Praxis kannibalisiert leider ein Stück des ASync-Potanzials, was mir der Hauptgrund zu sein scheint, dass es mich nicht völlig flashen konnte.

Schaffe89
2016-08-27, 23:19:46
Und das hatte bestimmt mit der Speichermenge zu tun. :rolleyes: Du schmeißt wieder alles in einen Topf.

Zeig doch mal entgegen der beiden Computerbase Tests einen Test der ein besseres Speichermanagement bei AMD feststellt und das so ins Fazit schreibt.:rolleyes:
Und ich werfe gar nix in den Topf, es ist offensichtlich dass in Grenzfällen

a) die Fametimes bei Nvidia geschmeidiger sind
b) bessere Treiber den V-ram besser ausnutzen

Nur es gibt überhaupt keinen Sinn mit dir zu diskutieren, du wirst immer pro AMD argumentieren, auch wenn es völlig offensichtlich ist.
AMD hat durch diesen Technologierückstand geringere Margen. Wenn sie Geld verdienen wollen, dann müssen sie da aufholen, denn während Nivida noch normalen günstigen GDDR5 genutzt hast, musste AMD auf HBM umsteigen was sich bis jetzt nicht ausgezahlt hat.

Mike
2016-08-27, 23:32:14
Zeig doch mal entgegen der beiden Computerbase Tests einen Test der ein besseres Speichermanagement bei AMD feststellt und das so ins Fazit schreibt.:rolleyes:

Wenn jemand sagt, dass A nicht größer als B ist, heißt das noch lange nicht, dass er A für kleiner hält.

gedi
2016-08-27, 23:34:07
Wenn du nun den Satz um den simplen Zusatz "und ähnliche Prioritäten wie die meinen hat" ergänzt, dann wird deine Prognose schon deutlich besser.

Ich hoffe, dir muss man das nicht wünschen.

Meine Bedürfnisse werden weder mit einer 1060 noch einer 480 auch nur annähernd abgedeckt. Dass aber LL-Applikationen nicht zu NVs Stärken zählen dürfte auch dir nicht entgangen sein.

BTW. kann ich dich beruhigen - dein Wunsch wurde bereits vor einiger Zeit erhört.

@Krawall

Prinzipiell hast du schon recht, allerdings wird GSync unter 40 FPS ebenfalls nur bedingt brauchbar, da die Emersion doch arg träge wird. Darüber ist alles Paletti, allerdings sollte man gleiches auch mit dem Pendant erleben können (ich habe allerdings noch keine Erfahrungen mit Freesync).

Bösewicht
2016-08-27, 23:56:04
ll gleich low Level?
der nächste der in einem nvidia thread mit low Level api ankommt der soll bitte mit seiner Vakuum Birne gegen die nächste Wand rennen danke.

Also ich Besitze kein DX12/Vulkan Spiel, wenn das bei 2-3 Spiele auf dem markt das Einzige Argument ist ist es ehr doof eine 480 zu kaufen;D

Mike
2016-08-28, 00:16:22
der nächste der in einem nvidia thread mit low Level api ankommt der soll bitte mit seiner Vakuum Birne gegen die nächste Wand rennen danke. Hast du damit Erfahrung? :freak:

Die Leistung mit Lowlevel-APIs ist doch ein berechtigtes Kriterium, insbesondere im Hinblick auf die Zukunft. Es ist allerdings auch nur ein Kriterium unter vielen.

Chronicle
2016-08-28, 00:34:45
Ist das Kriterium eigentlich für mich gültig, wenn ich nicht vorhabe auf Win10 zu wechseln?

Mike
2016-08-28, 00:41:53
Ist das Kriterium eigentlich für mich gültig, wenn ich nicht vorhabe auf Win10 zu wechseln? Ja, aber in abgeschwächter Form -- DirectX12 benötigt Windows 10, Vulkan allerdings nicht. Wieviele Spiele dann welche API unterstützen, wird man sehen müssen.

Sir_Freezer
2016-08-28, 00:55:44
Wenn du nun den Satz um den simplen Zusatz "und ähnliche Prioritäten wie die meinen hat" ergänzt, dann wird deine Prognose schon deutlich besser.

Ich hoffe, dir muss man das nicht wünschen.

Na dann viel Spaß mit deiner neuen und zukunftsweisenden 3GB vRam Karte mitte/ende 2016!
Du darfst auch gern beim Einbau das Star Wars Intro abspielen.
Ich hoffe & wünsche dir nur nicht, dass beim Benchen dann der Imperial March als random song erklingt...

Wenn jemand sagt, dass A nicht größer als B ist, heißt das noch lange nicht, dass er A für kleiner hält.
Und jetzt auch noch mit Matherhetorik anfangen...ernsthaft?
Vergiss mal den DB nicht... ;)
Unabhängig davon, dass der Vergleich ohnehin einfach nur schlecht ist.
Es heißt aber auch "noch lange nicht", dass er B für gleich groß hält.
Von daher ist deine Aussage richtig, aber logisch betrachtet falsch, da Sie eben nur eindeutig ist.
3G ist aufm Smartphone toll, 3G auf ner neuen "Performance" Graka?
Naja 3G=3G :biggrin:

Mike
2016-08-28, 01:12:37
Na dann viel Spaß mit deiner neuen und zukunftsweisenden 3GB vRam Karte mitte/ende 2016! Danke, aber ich komme momentan auch mit 1 GB noch ganz gut zurecht.
Unabhängig davon, dass der Vergleich ohnehin einfach nur schlecht ist.
Du darfst dich gerne an einem besseren versuchen.
Es heißt aber auch "noch lange nicht", dass er B für gleich groß hält.
Das sagt auch niemand.
Von daher ist deine Aussage richtig, aber logisch betrachtet falsch, da Sie eben nur eindeutig ist.
Bitte? Entweder ist sie richtig oder sie ist nicht richtig.

Chronicle
2016-08-28, 08:21:19
Ja, aber in abgeschwächter Form -- DirectX12 benötigt Windows 10, Vulkan allerdings nicht. Wieviele Spiele dann welche API unterstützen, wird man sehen müssen.

Ah genau das mit Vulkan hat mich interessiert. Danke dir :smile:

dargo
2016-08-28, 08:21:21
Mal abgesehen davon, dass sich mit ASync jeder kleine Hänger in einem Spiel wie ein großer Stolperstein anfühlt. Hat mich jedes mal völlig rausgerissen, nicht optimales Streaming ist echt die Pest. Die Praxis kannibalisiert leider ein Stück des ASync-Potanzials, was mir der Hauptgrund zu sein scheint, dass es mich nicht völlig flashen konnte.
Also ruckelst du dich lieber durchgehend durch die Spiele. Du bist echt der Held. :uup: Tearing wird auch schon neuerdings bei aufkrawall im Kopf ausgeblendet, wird ja immer besser. ;D

Zeig doch mal entgegen der beiden Computerbase Tests einen Test der ein besseres Speichermanagement bei AMD feststellt und das so ins Fazit schreibt.:rolleyes:

Ich habe dies nirgendwo behauptet, also verdrehe mir nicht die Worte im Mund.


AMD hat durch diesen Technologierückstand geringere Margen. Wenn sie Geld verdienen wollen, dann müssen sie da aufholen, denn während Nivida noch normalen günstigen GDDR5 genutzt hast, musste AMD auf HBM umsteigen was sich bis jetzt nicht ausgezahlt hat.
Technologierückstand? :lol:

Sie kamen zuerst mit HBM, warum Fiji nicht erfolgreich war hat aber andere Gründe. Erstens... 4GB Speicher, das war einfach zu wenig bei den verlangten Preisen. Zweitens... Fiji war zu vollgestopft mit SPs. Die Leistung konnte man mit high level nicht abrufen. Zudem ist GCN weiter als jede Gaming-GPU von Nvidia, einschließlich Pascal. Stichwort Async Compute.

Datarecovery09
2016-08-28, 08:24:02
ll gleich low Level?
der nächste der in einem nvidia thread mit low Level api ankommt der soll bitte mit seiner Vakuum Birne gegen die nächste Wand rennen danke.

Also ich Besitze kein DX12/Vulkan Spiel, wenn das bei 2-3 Spiele auf dem markt das Einzige Argument ist ist es ehr doof eine 480 zu kaufen;D

Weil es auf der ganzen Welt niemanden gibt, der seine Grafikkarte mehr als ein Jahr lang benutzt... :rolleyes:

Die Entscheidung, ob RX480 oder GTX1060 ist doch eigentlich so unendlich einfach: Wenn keine persönlichen Markenpräferenzen vorliegen, dann fragt man einfach, wie lange eine Grafikkarte benutzt werden soll. Daraus ergibt sich automatisch, ob damit mehr DX11- oder mehr DX12-/Vulkan-Titel mit der Karte gespielt werden. Natürlich "weiß" man jetzt noch nicht, wie sich die beiden Karten im Laufe der nächsten drei Jahre schlagen werden, speziell was die neuen APIs anbelangt, aber auf Basis der bisher vorliegenden Daten zeichnen sich schon gewisse Entwicklungen ab. Wenn Grafikkarten nur 1 bis 1 1/2 Jahre in Benutzung => GTX1060. Wenn länger => RX480.
Und das hat mit Sicherheit nichts mit der Anzahl der DX12-/Vulkan-Spiele zu tun, die heute auf dem Markt sind.

Franconian
2016-08-28, 11:05:46
Die EVGA SC scheint ja von Preis/Leistung/Lautstärke die eierlegende Wollmilchsau zu sein wenn ich das so sehe?

Wie seht ihr denn die Preisentwicklung der 1060er Karten, bin da aus der Thematik leider völlig raus. Meine 670/680er schwächelt langsam und die würde ich gerne upgraden.

dildo4u
2016-08-28, 11:13:14
Die kostet nur 5€ und hat ein deutlich besseren Kühler,ich würde keine Karte mit einem Lüfter kaufen wenn du nicht extrem von Platz her beschränkt bist.


https://www.mix-computer.de/mix/detail.xhtml?articleId=1286918&partner=mixgeizhals

Troyan
2016-08-28, 11:18:09
Weil es auf der ganzen Welt niemanden gibt, der seine Grafikkarte mehr als ein Jahr lang benutzt... :rolleyes:

Die Entscheidung, ob RX480 oder GTX1060 ist doch eigentlich so unendlich einfach: Wenn keine persönlichen Markenpräferenzen vorliegen, dann fragt man einfach, wie lange eine Grafikkarte benutzt werden soll. Daraus ergibt sich automatisch, ob damit mehr DX11- oder mehr DX12-/Vulkan-Titel mit der Karte gespielt werden. Natürlich "weiß" man jetzt noch nicht, wie sich die beiden Karten im Laufe der nächsten drei Jahre schlagen werden, speziell was die neuen APIs anbelangt, aber auf Basis der bisher vorliegenden Daten zeichnen sich schon gewisse Entwicklungen ab. Wenn Grafikkarten nur 1 bis 1 1/2 Jahre in Benutzung => GTX1060. Wenn länger => RX480.
Und das hat mit Sicherheit nichts mit der Anzahl der DX12-/Vulkan-Spiele zu tun, die heute auf dem Markt sind.

Nächstes Jahr kann man eine RX 480 8GB wohl locker für 50€ weniger kaufen, wenn nicht sogar weniger. Warum also heute kaufen? :freak:
Eine GTX1060 liefert heute Leistung und auch nächstes Jahr. Gleichzeitig gibt es bei Steam tausende von Spiele, die man vielleicht nochmal oder zum ersten Mal spielen will.

Und das Low-level-APIs nicht der heilige Gral sind, zeigen Spiele wie Ashes oder Warhammer, wo die GTX1060 mit DX11 gleichschnell oder sogar schneller ist.

Und wenn wir über "Zukunft" reden: Eine GTX1060 liefert für VR das viel bessere Erlebnis.

-/\-CruNcher-/\-
2016-08-28, 11:20:55
Naja, insofern das überhaupt noch "sinnvoll" sein sollte... :biggrin:
Die GTX 1060 3GB Version verdient weder das Kürzel GTX, noch das 6er Label.
Mehr als ein Rohrkrepierer kann die 3GB Version der GTX 1060 einfach nicht mehr werden und das war beim Release schon Fakt.

Die Anzahl der Games wäre mal interessant, in denen bei Hohen Settings 3GB nicht jetzt schon limitieren.
Mal schauen, wer sich die Mühe macht und die ganzen Bench Roundups wegen der anpasst.
Egal was, aber Auflösung oder Details müssen runter und im schlimmsten Falle sogar beides... ;D

Edit:: @ -/\-CruNcher-/\- Auf längere Sicht kann Effizienz einfach keinen Speicher ersetzen. Das hat die Vergangenheit bereits sehr häufig belegt.
Irgendwann ist immer das (egal welches) Limit erreicht

Das ist mir bewusst trotzdem wenn man das research im Haus hat sollte man es nutzen jede Effizienzsteigerung kann ich gegen meinen Competitor einsetzen und Nvidia spart ja dadurch auch Hardware Kosten.

Richtig interessant wird ja auch der Vergleich zwischen 3.5 GB GTX 970 DCE status und 3 GB GTX 1060 DCE status :)

mit Limit und ohne im Treiberverhalten

Ehrlichgesagt mag ich sowas da es Herausforderungen sind seinen Code Engine Workflow am System Limit effizienter zu machen :D

8 GB reinhauen und keine Probleme sehen ist doch keine Herausforderung ;)

Nächstes Jahr kann man eine RX 480 8GB wohl locker für 50€ weniger kaufen, wenn nicht sogar weniger. Warum also heute kaufen? :freak:
Eine GTX1060 liefert heute Leistung und auch nächstes Jahr. Gleichzeitig gibt es bei Steam tausende von Spiele, die man vielleicht nochmal oder zum ersten Mal spielen will.

Und das Low-level-APIs nicht der heilige Gral sind, zeigen Spiele wie Ashes oder Warhammer, wo die GTX1060 mit DX11 gleichschnell oder sogar schneller ist.

Und wenn wir über "Zukunft" reden: Eine GTX1060 liefert für VR das viel bessere Erlebnis.

Naja abwarten das ist eine sehr gewagte Aussage trotz guten R&Ds ;)

Megamember
2016-08-28, 12:22:56
Zudem ist GCN weiter als jede Gaming-GPU von Nvidia, einschließlich Pascal. Stichwort Async Compute.

Sehr gewagte Aussage. Ausser Vulkan@Doom gibts da keinen einzigen Fall wo die AMDs an die schnellsten Nvidias rankommen und as liegt eher an mäßiger Vulkan optimierung seitens Nvidia.

dildo4u
2016-08-28, 13:35:51
Tomshardware hat Doom mit neuem Treiber schon nachtestet,gerade die min fps sehen nicht so schlecht aus.Da hackt eher was bei der 480 die sich bei den min fps nicht vor der 470 absetzen kann,da scheint der Treiber auch noch nicht ideal.

http://www.tomshardware.de/msi-geforce-gtx-1060-gaming-x-3g-pascal-grafikkarte,testberichte-242193-4.html

Franconian
2016-08-28, 13:45:34
Die kostet nur 5€ und hat ein deutlich besseren Kühler,ich würde keine Karte mit einem Lüfter kaufen wenn du nicht extrem von Platz her beschränkt bist.


https://www.mix-computer.de/mix/detail.xhtml?articleId=1286918&partner=mixgeizhals

Platz habe ich genügend. Aber spielt das denn eine Rolle ob ein oder zwei Kühler? Ich sehe halt den Zero-Fan-Mode im Idle als Argument und unter last ist sie praktisch genauso kühl wie Modelle mit zwei Kühlern:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39965-drei-modelle-der-geforce-gtx-1060-von-asus-evga-und-inno3d-im-test.html?start=11

dildo4u
2016-08-28, 13:58:16
Die Jetstream hat auch Zero Fan,und der Kühler bietet die einfach mehr Luft wenn du OC willst und dazu das Power Target erhöhen musst.Wenn dir oc egal ist kannste dir auch die EVGA kaufen.

dargo
2016-08-28, 13:59:49
Sehr gewagte Aussage. Ausser Vulkan@Doom gibts da keinen einzigen Fall wo die AMDs an die schnellsten Nvidias rankommen und as liegt eher an mäßiger Vulkan optimierung seitens Nvidia.
Löl? Soll ein kleiner P10 jetzt die GTX1080 oder gar Titan X(P) ein-/überholen? ;D

Franconian
2016-08-28, 16:53:47
Die Jetstream hat auch Zero Fan,und der Kühler bietet die einfach mehr Luft wenn du OC willst und dazu das Power Target erhöhen musst.Wenn dir oc egal ist kannste dir auch die EVGA kaufen.

Ah ok, ich dachte nur die Karten mit einem Lüfter haben Zero-Fan (zumindest steht das bei den ganzen EVGA Karten).

dildo4u
2016-08-28, 16:58:12
Nein macht auch kein Sinn Zero Fan ist natürlich bei einer Karte mit einen dickeren Kühler besser,da er die Hitze auch ohne das die Lüfter laufen besser aufnehmen kann.Es gibt Kühler die sind groß genug,das sie z.b nicht anlaufen wenn man simpel Games wie Diablo 3 in 1080p auf 60fps beschränkt.

Hamster
2016-08-28, 17:05:04
Eine Frage an die Experten: ich habe eine GTX 780 3 GB. Würde mir eine 1060 6 GB einen ordentlichen Boost liefern?
Zocke immer in 1920x1200

dildo4u
2016-08-28, 17:10:28
Hier gibt's ein direkt Vergleich.


http://www.anandtech.com/bench/product/1771?vs=1718

Bei Hitman wirkt sich der Vram extrem aus.

Lurtz
2016-08-28, 18:11:16
Aha. Der tolle Treiber-Limiter von AMD funktioniert nur mal eben überhaupt nicht mit DX12, Vulkan oder im Fenstermodus.
Das passt aber gut zusammen, denn Freesync funktioniert ja sowieso nicht im Fenstermodus :ugly:
Sind ja nur praktisch alle Spiele mit der beliebten Unity-Engine und andere betroffen. Aber die spielt dargo sicher einfach alle nicht...

-/\-CruNcher-/\-
2016-08-28, 18:23:12
Jep die Daten sagen es wir sind bei stabilen 270€ (Vorkassenkauf) im Default angekommen :)

Bei nichtmal den niedriegsten AIB Qualitäten garnicht schlecht das Preiskampf Ergebnis bis jetzt für GTX 970 update Niveou ohne Fallstricke, ob die Händler sich genauso freuen ;)

Vor allem jetzt vo viele Premium Hersteller strikter die Online Rules setzen ;)

Mein mittlerweile Lieblings Nvidia AIB aus HK hat auch wieder die Kampfansage an MSI und Co gemacht ;)


Besser kann es nicht kommen der AIB druck und AMD druck und die Preise purzeln :D

So langsam kommen die realistischeren Preise, nach der Early Adopter Fütterung ;)

kuj0n
2016-08-28, 18:24:34
Ah ok, ich dachte nur die Karten mit einem Lüfter haben Zero-Fan (zumindest steht das bei den ganzen EVGA Karten).
Keine Ahnung was Dildo da hat, die EVGA SC kann ZFM und auch der Kühler kann was. Wo die Palit da besser sein soll, muss mir mal einer erklären. So geil ist der Kühler auch nicht.

Ich war ja auch lange Verfechter von ZFM, betreibe die SC aber mit 20% Lüftergeschwindigkeit bis 40°C. Weil sie dann immer noch lautlos ist, meine Systemtemperaturen aber um 10°C sinken.

Wenn ich die Wahl zwischen EVGA und Palit hätte, würde ich garantiert nicht letztere kaufen.

Screemer
2016-08-28, 20:54:09
Das passt aber gut zusammen, denn Freesync funktioniert ja sowieso nicht im Fenstermodus :ugly:
Sind ja nur praktisch alle Spiele mit der beliebten Unity-Engine und andere betroffen. Aber die spielt dargo sicher einfach alle nicht...
Von praktisch alle sollte man vielleicht nur reden, wenn man davon Ahnung hat.
Patch 5.3.3p2
Windows: Added a new command line argument for standalone builds: window-mode. Options: borderless, exclusive. It lets users override the default fullscreen window behavior.

Pass -window-mode=exclusive and enjoy adaptive-sync on any Unity game built on 5.3.4.

Disclaimer: fixes for deadlocks in DX11 code when alt-tabing in exclusive mode are coming in 5.3.4 patch release 2. Stick to DX9 for now.

Für ältere Titel

Then the user can use the '-force d3d9' command line to run in exclusive full screen mode.

Schaffe89
2016-08-29, 05:00:38
Ich habe dies nirgendwo behauptet, also verdrehe mir nicht die Worte im Mund.

Wieso du sagst doch es sei gar nicht so. Gibt es denn von deiner Seite irgendwelche Argumente außer einen Denail-Modus?
Das ist einfach nur schwach wenn man sich aus Herstelleraffinität bei manchen Themen querstellt.

Technologierückstand?

In Punkto Color Compression, Speichermanagement, hat man den ganz offenbar, was Nivida erlaubt kleinere Speicherinterfaces zu nutzen und den Chip kleiner zu produzieren, bzw weniger Ram zu verbauen.

Sie kamen zuerst mit HBM

Es geht eigentlich um die GTX 1060 und um Pascal allgemein und gar nicht um HBM. Es war bescheuert mit Fijii HBM zu benutzen und den Chip auf 4GB zu limitieren. HBM war damals eher eine Bremse als den ein "Technologievorprung" man hat HBM nicht mal für den professionellen Markt in irgendeiner Form gut anpreisen können.

Zudem ist GCN weiter als jede Gaming-GPU von Nvidia, einschließlich Pascal. Stichwort Async Compute.

Dann war also eine HD 7970 von 2011 schon moderner als eine Pascal GPU von 2016, weil es gibt ja Async Compute bei AMD und bei Nvidia nur in abgespeckter Form das soviel bringt. (5 bis 10%) so in etwa auf Polaris.

Conservative Rasterization, ROVs, Hybrid Intermediate/Tiled-Renderer (Maxwell 35% mehr Performance bei gleichem Takt), Volume Tiled Resources, deutlich bessere Performance/Watt, höhere Tesselationsleistung, Delta-Color-Compression, Perf/mm² und zu guter letzt Treibersupport.

Guck mal durchs Internet und finde ein Spiel was auf Nvidia schlecht läuft. Ich finde keines, höchstens welche die mal bisschen langsamer sind.
Bei AMD gibts massig Titel die herbe underperformen. Hoffen wir dass es sich mit Diretx12 ändern kann.

Das hat AMD nicht bzw liegt AMD überall zurück, keine Ahnung was Async Compute hier für AMD großartig herausreißen soll, nicht mal mehr unter Compute ist AMD noch vorne, da hat Nvidia mit 7 Meilenstiefeln aufgeholt.

Wenn es für AMD blöd läuft wird Vega mit Nvidias Volta gelauncht, das heißt Vega im Sommer und Volta dann bald im Herbst.

dargo
2016-08-29, 08:35:11
In Punkto Color Compression, Speichermanagement, hat man den ganz offenbar, was Nivida erlaubt kleinere Speicherinterfaces zu nutzen und den Chip kleiner zu produzieren, bzw weniger Ram zu verbauen.

Das ist Unsinn. Und das wirst du auch sehen je näher man zum Metal programmiert. Außerhalb von dem einem Test mit 2GB Karten in einzelnen Games (das sollte man sich mit späteren Crimsons nochmal anschauen, was ich schon gesagt hatte) sehe ich nirgendwo Vorteile für NV. Jedenfalls hilft es NV nichts bei der GTX1060 6GB vs. RX470/480 GB.

Edit:
Noch was zu diesem Thema.

Man sollte nicht vergessen, dass der volle GP106 unter low level mit dem Salvage P10 konkurriert. Da lösen sich die "Vorteile" bei NV quasi in Luft auf was das etwas schmalere SI und etwas weniger Speicher angeht. AMD kann einfach den "Abfall" gegen den vollen GP106 aufstellen. Zudem verwendet man bei P10 Salvage 7Gbps Speicher und keinen 8Gbps, was wiederum bisschen günstiger ist (einzige Ausnahme Sapphire Nitro+ 8GB). Und wenn man sich anschaut was die Endkundenpreise bei 4GB vs. 8GB sind...
http://geizhals.de/msi-radeon-rx-470-gaming-x-4g-v341-002r-a1488427.html?hloc=at&hloc=de
http://geizhals.de/msi-radeon-rx-470-gaming-x-8g-v341-001r-a1488445.html?hloc=at&hloc=de

dann wird das ein Nullsummen-Spiel für NV. Das sind 35€ Unterschied. NV hat aber nur 2GB weniger. Ergo die Hälfte davon. Und wenn wir ganz pingelig sind nicht mal das, im Einkauf ist der Speicher noch günstiger und wie gesagt sollte 7Gbps weniger kosten als 8Gbps. Es wurde afaik auch spekuliert, dass 14nm FinFet etwas günstiger als 16nm ist.


Conservative Rasterization, ROVs, Hybrid Intermediate/Tiled-Renderer (Maxwell 35% mehr Performance bei gleichem Takt), Volume Tiled Resources, deutlich bessere Performance/Watt, höhere Tesselationsleistung, Delta-Color-Compression, Perf/mm² und zu guter letzt Treibersupport.

Was CR und ROVs bringen wissen wir noch gar nicht. Mich würde es nicht wundern wenn es bei NV nur wieder "Papierfeatures" wie schon Async Compute sind. Deutlich bessere Perf/W ist genauso Quatsch. Unter low level wird die GTX1060 6GB mit der RX470 8GB konkurrieren und die beiden trennen ~30W. Höhere Tessellationsleistung bei NV ist so auch nicht richtig. Es hängt von den Faktoren ab. Unter Faktor 10 war schon Hawaii schneller als der direkte Konkurrent.
https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/13/

Bei GP106 sehe ich keine gravierenden Vorteile mehr für NV gegenüber P10 bei hohen Faktoren.
http://ht4u.net/reviews/2016/nvidia_pascal-architektur_geforce_gtx1060_gtx1070_und_gtx1080_im_test/index19.php


Guck mal durchs Internet und finde ein Spiel was auf Nvidia schlecht läuft. Ich finde keines, höchstens welche die mal bisschen langsamer sind.

Das ist kompletter Blödsinn, und das hatte ich dir schon mal gesagt. Das letzte Bioshock spiked wahrscheinlich noch bis heute. Ich hatte lange genug die GTX970 um mich von den Treibern von NV zu überzeugen. Da gab es genug Probleme.

gnomi
2016-08-29, 09:57:14
Die 970 mag ja gut laufen, aber sie ist doch die schlechteste, da problematischste nvidia Karte überhaupt.
Die 1060 ist in jedem Fall weit besser. Quasi eine 980 mit mehr Speicher und endlich günstiger.

Rancor
2016-08-29, 10:29:53
Ja Dargo ist einmal ins grüne Lager gewechselt, mit einer Karte die wirklich extrem krüppelig war. ^^ Jetzt kann er da ja ewig drauf rumreiten.. Naja mal sehen wie lange noch. Vega wurde ja grade aufs 1 Halbjahr 2017 verschoben.

http://www.gamestar.de/hardware/grafikkarten/amd-radeon-rx-480/news-artikel/amd_vega,988,3301793.html

dildo4u
2016-08-29, 10:32:04
Digital Foundry's Core i5 Gaming PC Tested: Can We Lock To 1080p60?

So we've just built a Core i5 6600K/GTX 1060 gaming PC. Can it provide the locked 1080p60 gameplay we want? Rich tests seven demanding games on our new system: The Witcher 3, Hitman, Crysis 3, Star Wars Battlefront, F1 2016, Mirror's Edge Catalyst and Grand Theft Auto 5.

https://youtu.be/CQfyDh68-0M

Gute Tipp's dabei Crysis 3 läuft so viel besser mit High Schatten.

dargo
2016-08-29, 10:38:05
Ja Dargo ist einmal ins grüne Lager gewechselt, mit einer Karte die wirklich extrem krüppelig war. ^^ Jetzt kann er da ja ewig drauf rumreiten.
Da muss ich dich leider enttäuschen. Ich hatte davor auch schon GTX480, GTX470, GTX260, 8800GTS 640MB und paar andere NVs wo ich mich an die Namen gar nicht mehr erinnern kann.

Vega wurde ja grade aufs 1 Halbjahr 2017 verschoben.

http://www.gamestar.de/hardware/grafikkarten/amd-radeon-rx-480/news-artikel/amd_vega,988,3301793.html
Es wurde gar nichts verschoben. Der Release zum Ende 2016 von Vega war nur ein Wunschtraum bzw. Gerücht.

Hamster
2016-08-29, 10:40:10
Hier gibt's ein direkt Vergleich.


http://www.anandtech.com/bench/product/1771?vs=1718

Bei Hitman wirkt sich der Vram extrem aus.

Danke!
Genau sowas habe ich gesucht.

HOT
2016-08-29, 11:02:17
Da muss ich dich leider enttäuschen. Ich hatte davor auch schon GTX480, GTX470, GTX260 und paar andere NVs wo ich mich an die Namen gar nicht mehr erinnern kann.

Jo damals war ich auch gerne im grünen Lager, der VLIW-Kram sagte mir auch nicht so zu. 6800GT, 8800GT, GTX260 und GTX460 waren echt gute Karten, die ich lange behalten hab (zwischendurch mal ne X1900XTX :D).

Es wurde gar nichts verschoben. Der Release zum Ende 2016 von Vega war nur ein Wunschtraum bzw. Gerücht.
Da ist aber auch wieder extrem viel Schaum um gar nichts geschlagen worden. In der Folie, auf die diese 1.Hj 2017-Info zurückging ist explizit von enthusiast Vega die Rede, also V11. V10 ist von AMD immer als High-End bezeichnet worden. Wir sind also wieder auf Anfang. Dass V11 noch im 1. HJ kommt ist sogar früher als ich angenommen hatte.

dargo
2016-08-29, 11:06:51
Da ist aber auch wieder extrem viel Schaum um gar nichts geschlagen worden. In der Folie, auf die diese 1.Hj 2017-Info zurückging ist explizit von enthusiast Vega die Rede, also V11. V10 ist von AMD immer als High-End bezeichnet worden. Wir sind also wieder auf Anfang. Dass V11 noch im 1. HJ kommt ist sogar früher als ich angenommen hatte.
Ist dem wirklich so? Den großen Vega hatte ich eigentlich mindestens halbes Jahr später nach dem kleinen erwartet.

HOT
2016-08-29, 11:09:24
Ist dem wirklich so? Den großen Vega hatte ich eigentlich mindestens halbes Jahr später nach dem kleinen erwartet.
Passt dann doch. Anfang 2017 dann V10 und im Frühsommer halt V11 (vielleicht sogar schon in 14HP).

Hacki_P3D
2016-08-29, 12:13:17
Bei HW Luxx wurde die NON SC Version der kleinen EVGA GTX 1060 Gaming "getestet".

Siehe:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39974-evga-geforce-gtx-1060-gaming-im-kurztest.html

Die Taktraten bei den Anno Benchmarks würden mich mal interessieren, müssen ja geringer als bei der FE Version sein.. :confused:
(Trifft auf beide Versionen zu)

siegemaster
2016-08-29, 12:14:29
Kann jemand etwas über die KFA² EXOC sagen? Taugt der Kühler was?

Franconian
2016-08-29, 13:02:03
Bei HW Luxx wurde die NON SC Version der kleinen EVGA GTX 1060 Gaming "getestet".

Siehe:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39974-evga-geforce-gtx-1060-gaming-im-kurztest.html

Die Taktraten bei den Anno Benchmarks würden mich mal interessieren, müssen ja geringer als bei der FE Version sein.. :confused:
(Trifft auf beide Versionen zu)

Die SC kostet ja nur 10 € mehr, jetzt sehe ich aber die Non-SC bei Digitalo für 259 €, das ist schon sehr verlockend! Die Werte sind ja praktisch identisch, das rechtfertigt den 30 € Aufpreis nicht.

scully1234
2016-08-29, 13:03:58
Wenn du selber uebertakten kannst/willst ist die Non SC immer die bessere Wahl

Hacki_P3D
2016-08-29, 13:09:44
Ich hab sie mir mal bestellt... :freak:

Franconian
2016-08-29, 13:16:48
Gut zu wissen, dachte immer die werksübertakteten Karten hätten mehr Reserven. Denke nehme dann die normale und hau mit Afterburner ein paar Prozente drauf.

Hacki_P3D
2016-08-29, 13:19:43
Solltest halt nicht Furmark spielen :freak: Zitat ausm EVGA Forum:

Im Prinzip schon eine super Karte! ABER!!!!!!
Ich bin leider etwas über die Temperaturen entäuscht, habe sie per FurMark unter Last getestet. Es hat keine Minute gedauert da wurde sie 83°C warm und da taktet sie schon auf den Basic takt runter! Somit hat man weniger Leistung! Was bringt dann bitteschön der Boost Takt, wenn er nur für eine Minute hochfährt ?
Stelle ich die maximal Temperatur im EVGA PrecisionX OC auf 91°C hoch klettert die Karte hoch auf 90°C bei einer 100%igen Lüfterauslastung!!!
Das kann doch nicht wirklich sein, dass der Unterschied zur SC Version so hoch ausfällt!?

Zum Vergleich die GTX 1060 Gaming SC soll laut Tests unter Last 66°C warm werden.

Hakim
2016-08-29, 13:23:11
Es gibt Kühler die sind groß genug,das sie z.b nicht anlaufen wenn man simpel Games wie Diablo 3 in 1080p auf 60fps beschränkt.

Bei mir geht das sogar auf 1440P alles auf Max Settings, wobei es bei wilden 4 Partys ab und an die 50 erreicht und dann wieder zurück fällt. Ich denke mal Voraussetzung ist ein gutes Airflow im Gehäuse. Bei mir Pusten von vorne und von der Seite (hier ein sehr großer) 2 Lüfter viel Luft Richtung Grafikkarte und oben wird die Heiße Luft raus befördert. Das alles funktioniert aber bestimmt nicht wenns draußen 35> Grad schwül ist :)

http://www.bilder-hochladen.net/files/thumbs/bw78-8-ae47.jpg (http://www.bilder-hochladen.net/i/bw78-8-ae47.jpg)

Franconian
2016-08-29, 13:34:17
Solltest halt nicht Furmark spielen :freak: Zitat ausm EVGA Forum:

Hab mir jetzt nochmal die Benchmarks angeschaut, ich denke das kann man vernachlässigen, Furmark war schon immer realitätsfern.

Schaffe89
2016-08-29, 14:50:51
Das ist Unsinn. Und das wirst du auch sehen je näher man zum Metal programmiert.

Okay, ich nehme dich hierbei beim Wort und erinnere dich dann später daran.
Vielleicht ist es bei Directx12 und Vulkan dann so. Ich weiß jedenfalls nicht genau inwiefern genau die Entwickler die benötigte V-ram Menge selbst bestimmen und wie weit der Treiber das noch in der Hand hält.

Unter Directx11 ist es allerdings so und da das mit riesigem Abstand die am weitesten verbreitetste API ist, sehe ich Nvidia hier vorne.


Außerhalb von dem einem Test mit 2GB Karten in einzelnen Games (das sollte man sich mit späteren Crimsons nochmal anschauen, was ich schon gesagt hatte) sehe ich nirgendwo Vorteile für NV.

Eigentlich ist es durch die Bank in den Tests so. Vor allem beim 960 gegen 380 Test sah man das an den Frametimes und das eig. an allen.

Jedenfalls hilft es NV nichts bei der GTX1060 6GB vs. RX470/480 GB.

Helfen tut´s schon, denn immerhin verbauen sie weniger V-ram und können eben wegen solcher Tests auch weniger verbauen, weil sie mit solchen Ergebnissen nunmal positiver dastehen aus der Hardware mehr herauszuholen.

Man sollte nicht vergessen, dass der volle GP106 unter low level mit dem Salvage P10 konkurriert.

Golem kam auf 5% zwischen GTX 1060 und rx480, für die rx480 unter Directx12/Vulkan. Das reicht vielleicht für stark übertaktete rx470, aber nicht für Custom vs Custommodelle. Preislich liegen 8GB rx470 und 6GBGTX 1060 nicht gerade weit auseinander. 15 Euro?


Da lösen sich die "Vorteile" bei NV quasi in Luft auf was das etwas schmalere SI und etwas weniger Speicher angeht.

Bei dir lösen sich Nvidia Vorteile immer in Luft auf das ist dein Problem.
Über die Vorteile einer GTX 1060 gegenüber AMD´s Angebot hat man schon ausführlich diskutiert, das muss man nicht mehr aufwärmen.

AMD kann einfach den "Abfall" gegen den vollen GP106 aufstellen.

Kann man dann in 2 Jahren vielleicht, wenn die Käufer sich schon nach einer neuen Karte umschauen und die rx470 8GB dann die GTX 1060 6GB leistungsmäßig eingeholt hat und relevant vom Mehrspeicher profitiert.
Nur kaufe ich mir dann lange eine neue Karte, die Leistung im hier und jetzt erbringt und nicht Jahre später.

Was CR und ROVs bringen wissen wir noch gar nicht.

Wenn AMD es verbaut hätte, würdest du anders argumentieren.:wink:

Mich würde es nicht wundern wenn es bei NV nur wieder "Papierfeatures" wie schon Async Compute sind.

Async Compute ist aber laut Directx12 gar nicht vorgeschrieben um diesen Standard zu unterstützen, in dem Fall 12.1. Und diese beiden Techniken sind keine Papierfeatures, sondern bei Nvidia voll integriert.

Deutlich bessere Perf/W ist genauso Quatsch. Unter low level wird die GTX1060 6GB mit der RX470 8GB konkurrieren und die beiden trennen ~30W.

Unter Low level,unter low level unter low level. Leg mal ne andere Schallplatte auf.:rolleyes:

Es hängt von den Faktoren ab. Unter Faktor 10 war schon Hawaii schneller als der direkte Konkurrent.

https://www.computerbase.de/2016-06/radeon-rx-480-test/11/#diagramm-directx-sdk-subd11-tessellation_2

Computerbase sieht die alte GTX 980 vor der rx480.

Das ist kompletter Blödsinn, und das hatte ich dir schon mal gesagt.

Nein, genau das ist die Bestätigung für bessere Geforce Treiber die ich selber gerade am eigenen Leibe erlebe, seitdem ich angefangen habe abseits der AAA Titel zu Spielen und auch mal gemoddete Spiele zocke.
Ich nenne mal ganz kurz die Spiele die bei AMD deutlich sucken.:frown:

Metro Last Light Redux, Vanishing of Ethan Carter Redux, Wolfenstein the old blood, World of Warcraft, Rust, DayZ, No mans Sky, Asetto Corsa, Project Cars, COD Advanced Warfare, GTA5 suckt teils mit derben FPS Einbrüchen, und ganz schlimm ist es bei Arma 3 mit der Altis Mod. Während ich auf meiner Nano immer so zwischen 23 und 36 FPS hatte, hab ich auf der GTX 1060 zwischen 35 und 40, gleiche Settings.

Letztes bekanntes Beispiel war Rise of the Tombraider was auf AMD Karten kaputt war. Du hast einfach mit AMD bei x Titeln mal mehr oder weniger FPS Probleme, was abseits der AAA Titel nicht so oft auffällt, ist aber definitiv so, da gibt es nix abzustreiten.

https://www.computerbase.de/2014-12/early-access-spiele-benchmarks-test/4/

Computerbase sollte diesen Test mit aktuellen Early Acess Spielen und Spielen abseits von den AAA Titeln die aber aktuell gezockt werden ohne Ende vielleicht mal benchen, das Fazit würde für AMD nicht gut ausfallen.

Es wurde gar nichts verschoben. Der Release zum Ende 2016 von Vega war nur ein Wunschtraum bzw. Gerücht.

Sieht aber ganz danach aus, dass da etwas verschoben wurde. Vega war für den Jahreswechsel eingezeichnet und jetzt ist "Vega" nur noch für H1 anberaumt. Wenn es schlecht läuft ist das Sommer 2017, also knapp 1 Jahr warten. Keine Ahnung was man da so lange noch macht, der Tapeout soll ja angeblich erfolgt sein. Ich hoffe die Radeon Group spaltet sich von AMD ab und wird von einem großen Player aufgekauft damit da mal wieder Druck gemacht wird. In dem Tempo was sie jetzt vorlegen wird das nach meinem Eindruck nix mehr großartig werden.

aufkrawall
2016-08-29, 15:04:56
Kann Schaffe89s Beobachtung so bestätigen.
Spiele, die auf AMD wesentlich ruckeliger laufen als auf Nvidia:

-Ryse (ständig leicht bis mittel am zucken, besonders im Wald-Level)
-RotTR DX11
-BF4 mit fps-Limiter (Frostbites Frametime-Graph fängt nur auf AMD an komisch auszufransen)
-The Forest (stockt auf AMD viel übler als auf Nvidia)
-Mirror's Edge: Catalyst: quasi das gleiche, nur noch viel extremer
-mit HotS hab ich auf einer Map Grafikfehler, die es mit NV nicht gibt

Ich hatte dargo damals auch schon Frametimes von Bioshock: Infinite mit der 980 gezeigt, wo gar nichts am zucken war. Sein Gedächtnis arbeitet offenbar ziemlich selektiv:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10929249&postcount=5356
Offenbar nicht belehrbar. Überraschung! :D

Schaffe89
2016-08-29, 15:47:31
The Forest? Hatte ich schon Monate nicht mehr gespielt. Das schau ich mir jetzt gleich mal an.

dargo
2016-08-29, 17:54:03
Ich hatte dargo damals auch schon Frametimes von Bioshock: Infinite mit der 980 gezeigt, wo gar nichts am zucken war. Sein Gedächtnis arbeitet offenbar ziemlich selektiv:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10929249&postcount=5356

Oh Verzeihung... habe vergessen, dass die GTX970 von AMD verkauft wird.

Kann Schaffe89s Beobachtung so bestätigen.
Spiele, die auf AMD wesentlich ruckeliger laufen als auf Nvidia:

-Ryse (ständig leicht bis mittel am zucken, besonders im Wald-Level)

Blödsinn, ist treiberabhängig. Dass Crysis 3 und Ryse auf der GTX970 lange Zeit extrem geruckelt hatte wollen wir nicht unterschlagen.


-BF4 mit fps-Limiter (Frostbites Frametime-Graph fängt nur auf AMD an komisch auszufransen)

Keine Probleme hier, ich brauche aber auch keinen Framelimiter. Und selbst mit keine Probleme.


Eigentlich ist es durch die Bank in den Tests so. Vor allem beim 960 gegen 380 Test sah man das an den Frametimes und das eig. an allen.

Zeig mir bitte den Test wo NV 4GB gegenüber AMD 4GB klar im Vorteil ist.


Helfen tut´s schon, denn immerhin verbauen sie weniger V-ram und können eben wegen solcher Tests auch weniger verbauen, weil sie mit solchen Ergebnissen nunmal positiver dastehen aus der Hardware mehr herauszuholen.

Auf die Idee, dass die Speicherbestückung abhängig vom SI ist bist du aber noch nicht gekommen?


Kann man dann in 2 Jahren vielleicht, wenn die Käufer sich schon nach einer neuen Karte umschauen und die rx470 8GB dann die GTX 1060 6GB leistungsmäßig eingeholt hat und relevant vom Mehrspeicher profitiert.
Nur kaufe ich mir dann lange eine neue Karte, die Leistung im hier und jetzt erbringt und nicht Jahre später.

Die Welt dreht sich nicht nur um Schaffe.


Wenn AMD es verbaut hätte, würdest du anders argumentieren.:wink:

Nein, hätte ich nicht weil es noch kein Spiel verwendet.


Async Compute ist aber laut Directx12 gar nicht vorgeschrieben um diesen Standard zu unterstützen, in dem Fall 12.1. Und diese beiden Techniken sind keine Papierfeatures, sondern bei Nvidia voll integriert.

Informiere dich bitte über die Implementierung von AC bei NV.


https://www.computerbase.de/2016-06/radeon-rx-480-test/11/#diagramm-directx-sdk-subd11-tessellation_2

Computerbase sieht die alte GTX 980 vor der rx480.

Es ging um reine Tessleistung und nicht Game X + Tessleistung.

aufkrawall
2016-08-29, 18:36:53
Blödsinn, ist treiberabhängig. Dass Crysis 3 und Ryse auf der GTX970 lange Zeit extrem geruckelt hatte wollen wir nicht unterschlagen.

1. Crysis 3 hat bei mir mit Prerenderlimit 1 nicht geruckelt.
2. Ist Ryse offenbar auf Radeons überhaupt nicht flüssig zu bekommen, auf GeForces schon.
3. Ging es um die Treiber-Qualität, und nicht um den 970-Krüppel.

dargo
2016-08-29, 18:54:34
1. Crysis 3 hat bei mir mit Prerenderlimit 1 nicht geruckelt.

Bei mir schon. Ich hatte mich dazu auch genug ausgelassen damals.


2. Ist Ryse offenbar auf Radeons überhaupt nicht flüssig zu bekommen, auf GeForces schon.

Das ist kompletter Bullshit. Abseits von Grenada hatte ich es mal mit einer HD7950 etwas gespielt, keine Probleme.


3. Ging es um die Treiber-Qualität, und nicht um den 970-Krüppel.
Ja ich weiß, die GTX970 hatte NV kaum verkauft.

aufkrawall
2016-08-29, 19:00:49
Das ist kompletter Bullshit. Abseits von Grenada hatte ich es mal mit einer HD7950 etwas gespielt, keine Probleme.

"kompletter Bullshit", aha. Dann hab ich mir das wohl nur eingebildet.

Wie du hier mit Kraftausdrücken um dich schmeißt gegen jeden, der nicht in deine AMD-Lobhudelei einstimmt, das ist schon interessant zu lesen. (y)

Rancor
2016-08-29, 19:06:34
Nein das ich nicht intressant, das wird langsam extrem lächerlich.

Schaffe89
2016-08-29, 19:11:56
Zeig mir bitte den Test wo NV 4GB gegenüber AMD 4GB klar im Vorteil ist.

Das hab ich doch schon Seiten zuvor getan.
https://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/2/#diagramm-geforce-gtx-960-frametimes-mordors-shadow-1920-1080

Musst dich halt durchklicken. Alle Frametimes der 2GB GTX 960 sind besser als der 2GB r9 380, was Computerbase zu einem recht eindeutigen Fazit veranlasst.

Die Welt dreht sich nicht nur um Schaffe.

Das sollte einfach nur verdeutlichen dass man heute nicht mit möglicher Leistung von morgen werben kann, sowas zieht nicht.

Nein, hätte ich nicht weil es noch kein Spiel verwendet.

OK, der Punkt geht an dich. Dann haben wir bei Async Compute also sogut wie kein Spiel gegen noch gar keins. Relevanz ist gleich Null.

Informiere dich bitte über die Implementierung von AC bei NV.

Ich rede nicht von AC, sondern von ROVs und CR, weil du behauptest hattest, selbige wären nicht richtig Implementiert, natürlich wieder ohne jedwede Quelle.


Es ging um reine Tessleistung und nicht Game X + Tessleistung.

Dann schreib das doch dazu. Dann nimm halt Tessmark.
Dort brilliert die rx480 auch nicht bei niedrigen Faktoren.
https://www.computerbase.de/2016-06/radeon-rx-480-test/11/#diagramm-tessmark-tessellation

dargo
2016-08-29, 20:41:47
Das hab ich doch schon Seiten zuvor getan.
https://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/2/#diagramm-geforce-gtx-960-frametimes-mordors-shadow-1920-1080

Musst dich halt durchklicken. Alle Frametimes der 2GB GTX 960 sind besser als der 2GB r9 380, was Computerbase zu einem recht eindeutigen Fazit veranlasst.

Lies nochmal was ich geschrieben habe.


OK, der Punkt geht an dich. Dann haben wir bei Async Compute also sogut wie kein Spiel gegen noch gar keins. Relevanz ist gleich Null.

:facepalm:

Vergiss es einfach, du hast Recht und ich meine Ruhe. Das wird mir langsam echt zu blöd. Gleiches gilt für aufkrawall.

Iruwen
2016-08-29, 20:46:46
https://forum.beyond3d.com/threads/intel-gen9-skylake.57204/page-6#post-1869935
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/9
http://wccftech.com/async-compute-boosted-hitmans-performance-510-amd-cards-devs-super-hard-tune/
Das AC Geblubber nervt langsam, wenn man sonst keine Argumente hat...

Troyan
2016-08-29, 20:48:54
Informiere dich bitte über die Implementierung von AC bei NV.


Erkläre uns doch mal die "die Implementierung von AC" bei Pascal.

captain_drink
2016-08-29, 21:49:38
Nein, hätte ich nicht weil es noch kein Spiel verwendet.

CR wird z.B. für VXAO in RotTR und das höchste Schattensetting (HTFS) in The Division auf GPUs verwendet, die dieses Feature (bzw. FL 12_1) unterstützen.

Unter low level wird die GTX1060 6GB mit der RX470 8GB konkurrieren und die beiden trennen ~30W.

Die Leistung von LL, aber die Leistungsaufnahme von HL nehmen. Ein echter dargo.

scully1234
2016-08-29, 21:53:02
Das AC Geblubber nervt langsam, wenn man sonst keine Argumente hat...

Schweine durchs Dorf treiben ,ist halt immer noch state of the Art

Mantle,Gameworks,AC ec pp...

Das wird dann so lange propagiert , bis selbst dem letzten auffällt, das so einiges sich in Wohlgefallen auflöst, wie bei den ersten beiden Beispielen ,in der Aufzaehlung schon geschehen.

dargo
2016-08-29, 22:28:03
Die Leistung von LL, aber die Leistungsaufnahme von HL nehmen. Ein echter dargo.
Du bist ein ganz Großer. :comfort:
http://www.tomshardware.de/amd-radeon-rx-470-grafikkarte-asus,testberichte-242165-7.html

AotS @DX12 = 141W
Doom @Vulkan = 144W

Ich habe mich offensichtlich bei den 30W geirrt, es ist etwas weniger.

https://forum.beyond3d.com/threads/intel-gen9-skylake.57204/page-6#post-1869935
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/9
http://wccftech.com/async-compute-boosted-hitmans-performance-510-amd-cards-devs-super-hard-tune/
Das AC Geblubber nervt langsam, wenn man sonst keine Argumente hat...
Was sollen die Links jetzt genau sagen? Und vorallem was hat der Time Spy Blödsinn hier verloren?

Es gibt auch solche Entwickler.
Demnach sehe man Asynchronous Compute als eine Kerneigenschaft von Low-Level-APIs an, von der man glaubt, dass sie viele weitere Entwickler in Zukunft nutzen werden. Man selbst habe jetzt erste Erfahrungen damit gemacht und wolle das Feature künftig exzessiver in Spielen auf Basis der id-Tech-6-Engine nutzen. Asynchronous Compute wird momentan ausschließlich auf Radeons eingesetzt, sowohl in der PC- als auch in den Konsolen-Versionen. Die Playstation 4 und Xbox One sollen die Bilder durch AC 3 bis 5 ms schneller berechnen können. Bei einem Target von 16,67' ms (60 Fps) entspricht das einer Fps-Verbesserung von rund 25 bis 45 Prozent oder anders gesagt, werden nun an Stellen, die vorher mit 60 Fps liefen, 75 bis 87 Fps gerendert.
http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Doom-Vulkan-Asynchronous-Compute-1202335/

Mancko
2016-08-29, 23:54:45
Es gibt auch solche Entwickler.

http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Doom-Vulkan-Asynchronous-Compute-1202335/

Es gibt auch welche die finden DX12 FL12_1 ganz toll oder SMP.

scully1234
2016-08-30, 00:17:08
Und vorallem was hat der Time Spy Blödsinn hier verloren?


Na immerhin ne Iteration ,die nicht ins Schema F paßt, wie sich das AMD beiläufig als optimal vorstellt, als ''Blödsinn'' abzustempeln ,hat Respekt verdient:uclap:

Aber wenn hier was glänzend funktioniert, ist es eben die Verschwörungs oder Diffamierungsschiene. Dann muss man sich mit dem Status Quo ,zumindestens fuer ne Weile nicht anfreunden^^

Schaffe89
2016-08-30, 05:26:40
Zeig mir bitte den Test wo NV 4GB gegenüber AMD 4GB klar im Vorteil ist.


Das sagst du doch nur deshalb weil man so einen Test bisher nicht finden kann weil 4GB noch meistens reichen.:redface:
Warten wir halt ein halbes Jahr und schauen wir dann auf die Grenzfälle, wüsste nicht warum sich da zwischen 2GB und 4GB etwas ändern sollte.
Nvidia hat ganz offensichtlich ein besseres Speichermanagement. Tests folgen bestimmt in Bälde.

dildo4u
2016-08-30, 08:15:23
Zeig mir bitte den Test wo NV 4GB gegenüber AMD 4GB klar im Vorteil ist.
.

http://www.pcper.com/image/view/70015?return=node%2F65426

dargo
2016-08-30, 09:07:29
Das ist also dein Beweis? Da hat selbst die GTX970 und Grenada mit 8GB seine Problemchen. Aber wahrscheinlich ist das Speichermanagement bei Nvidia dermaßen gut, dass bei NV 4GB reichen und AMD mehr als 8GB braucht. :lol: War das Diagramm vor oder nach den drölftausend Patches entstanden? :freak: Und kümmert sich der Entwickler endlich um die Radeons oder wars das schon gewesen?

dildo4u
2016-08-30, 09:10:27
Raff hat doch das Video mit der 4GB 480 gemacht dort passiert das Selbe,und das war die neuste Version vom Game.

Pirx
2016-08-30, 09:14:58
... wüsste nicht warum sich da zwischen 2GB und 4GB etwas ändern sollte...
Dazu müsste erstmal ein Trend in der Richtung vorhanden sein, der sich nicht ändern soll.:lol:

dargo
2016-08-30, 09:15:01
Raff hat doch das Video mit der 4GB 480 gemacht dort passiert das Selbe,und das war die neuste Version vom Game.
Warum passiert dann hier nichts?
http://www.guru3d.com/articles-pages/rise-of-the-tomb-raider-pc-graphics-performance-benchmark-review,6.html

Ist sogar 1440p.

Edit:
Hier sieht es für Fury X auch besser aus.
http://www.pcper.com/image/view/68654?return=node%2F65246

Selbst in 4k bis auf die eine Stelle alles bestens.
http://www.pcper.com/image/view/68659?return=node%2F65246

dildo4u
2016-08-30, 09:18:45
Die linearen Level am Anfang streamen nicht so viele Daten,das war bei mir auch so der Anfang vom Game machte keine Probleme mit meiner 970.Erst in den offen Gebieten merkt man deutlich,das 4GB mit den hösten Texturen nicht reichen.Guru 3D testet direkt am Anfang vom Game.

Pirx
2016-08-30, 09:30:14
Die linearen Level am Anfang streamen nicht so viele Daten,das war bei mir auch so der Anfang vom Game machte keine Probleme mit meiner 970.Erst in den offen Gebieten merkt man deutlich,das 4GB mit den hösten Texturen nicht reichen.Guru 3D testet direkt am Anfang vom Game.
Hmm, deine 970 hat auch nur 3,5 + ultralahme 0,5 GB.:freak: