Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10
mironicus
2016-06-25, 08:58:01
Ich glaube du verkennst eines: NV ist klarer Marktführer. Die wissen halt wie Marketing geht.
Auf eine in dieser Klasse verkauften Karten von AMD kommen ca. 5 Karten von NV:freak:
NVidia macht nur noch Produkte für Nischen. :freak:
AMD-Technik beherrscht alles andere, neue PS4, neue Xbone One-Versionen alles mit AMD-Technologie. Die können auch neue Dinge vorantreiben (z.B. APIs, Schnittstellen), bei NVidia bleibt das Nische. Jetzt fängt AMD an neue 14 nm-Produkte zu liefern. Die erste GPU, dann neue CPUs mit 8 Kernen/16 Threads für die Massen... :eek:
unl34shed
2016-06-25, 09:10:28
Spätestens seit Veröffentlichung der ersten GCN Karte sollen sie davon wissen. Imho war das schon bekannt und ist bewusst nicht implementiert worden. Es hätte viel gekostet und nicht viel gebracht. Wenn man sich anschaut dass AMD theoretisch seit 5 Jahren compute shader parallel ausführen kann und es bis heute mit ashes gerade ein Spiel gibt, das massiv davon Gebrauch macht, ohne dass nvidia bei dem Titel komplett im Boden versinkt muss man ihnen schon zugestehen dass die Einschätzung richtig war.
Es ist nicht nur Ashes, sondern auch Hitman, TW: Wahammer, (Quantum Break), in ein paar Monaten DeusEx,...
In jedem sind AMDs Karten eine Leistungsklasse nach oben gerutscht (380>=970; 390>=980; 390X,Fury>=980ti)
Der einzige DX12 Titel, mieß läuft, ist meines Wissens Tomb Raider. Das ist halt ein DX11 Spiel mit einem DX12 Sticker.
Neue VSR? Klär mich auf! :cool:
Was fragst du das uns? Schau mal in deinen Unterlagen :biggrin:
NV schafft es halt, die Spielehersteller davon zu überzeugen, dass trotz massiver AMD-Dominanz die PC-Spiele massiv für NV-Hardware optimiert werden. Was nicht spurt wird knallhart durch Einzel"optimierungen" im Treiber substituiert (siehe Ashes). Ist natürlich auch einiges an Trickserei bei wie zu hoch gewählte Tesselationsstufen seitens der Spielehersteller (wie beim Witcher3) usw.
Es ist nicht nur Ashes, sondern auch Hitman, TW: Wahammer, (Quantum Break), in ein paar Monaten DeusEx,...
In jedem sind AMDs Karten eine Leistungsklasse nach oben gerutscht (380>=970; 390>=980; 390X,Fury>=980ti)
Der einzige DX12 Titel, mieß läuft, ist meines Wissens Tomb Raider. Das ist halt ein DX11 Spiel mit einem DX12 Sticker.
TR wird massiv auf Maxwell-AC optimiert sein, was GCN überhaupt nicht schmecken wird.
Was für ein Unsinn, Rottr war eines der unproblematischen dx12 Spiele, das läuft auch mit dx11 auf AMD lahm. In selben Beitrag qb, hitman und warhammer als Positiv(!)beispiele zu nennen zeigt, dass du dich überhaupt nicht damit beschäftigt hast.
Ich schrieb übrigens auch nicht "benutzen" sondern ausdrücklich "massiv Gebrauch macht" und das sehe ich auch aktuell nur bei AotS.
Aber ist auch egal, dass es nvidia bisher nicht hart trifft habe ich auch schon gesagt. Dass AMD Karten besser altern war schon vorher so und trifft auch auf dx11 Spiele zu (swbf, division).
Insofern verstehe ich nicht, was du mir sagen willst
Das jetzt als einziges vernünftiges DX12-Spiel hinzustellen ist mMn doch ziemlich daneben. Ich denke, dass das eher die Ausnahme sein wird. Es ist halt offensichtlich, dass es extrem auf NV angepasst wurde.
Dural
2016-06-25, 10:22:20
Könnt ihr mit dem blödsinn nicht mal aufhören?
-/\-CruNcher-/\-
2016-06-25, 10:36:49
Das jetzt als einziges vernünftiges DX12-Spiel hinzustellen ist mMn doch ziemlich daneben. Ich denke, dass das eher die Ausnahme sein wird. Es ist halt offensichtlich, dass es extrem auf NV angepasst wurde.
Extreme halte ich für sehr übertrieben einzig HBAO+/VXAO und Tesselation sollten in der Theorie Nvidia etwas bevorzugen, jedoch ist das Memory Management schon sehr anders und das führt meiner ansicht nach zu den größten Problemen und wird bei Nvidia vor allem mit viel VRAM gut kompensiert die meisten Probleme würd ich daher eher beim Streaming sehen als wie bei der Optimierung seitens Nixxes.
Unreal 4 ist auch noch so eine Bruchbude hat sich viel getan aber immernoch ist meistens -NOTEXTURESTREAMING das optimalere ;)
Complicated
2016-06-25, 10:47:21
Spätestens seit Veröffentlichung der ersten GCN Karte sollen sie davon wissen. Imho war das schon bekannt und ist bewusst nicht implementiert worden. Es hätte viel gekostet und nicht viel gebracht. Wenn man sich anschaut dass AMD theoretisch seit 5 Jahren compute shader parallel ausführen kann und es bis heute mit ashes gerade ein Spiel gibt, das massiv davon Gebrauch macht, ohne dass nvidia bei dem Titel komplett im Boden versinkt muss man ihnen schon zugestehen dass die Einschätzung richtig war.
Als underdog bekommt man sowas halt nicht mal eben durchgedrückt. Auch nicht mit Konsolen und neuen APIs, das braucht trotzdem alles seine Zeit
Ich denke das war auch gerade der Grund damals warum AMD Microsoft direkt ans Bein gepinkelt hat. IMHO hat zu diesem Zeitpunkt Nvidia aktiv die Implementation von Asynchronous Compute und anderem in DX12 blockiert. Roy Taylor hat damals daraufhin dieses Brandstifter-Interview gegeben, in dem er öffentlich sagte es werde kein DX12 geben (http://www.heise.de/newsticker/meldung/AMDs-Vice-President-im-Gespraech-Es-wird-kein-DirectX-12-kommen-1835338.html):
Denn die Computer-Industrie hat über viele Jahre von einer kontinuierlichen Erneuerung der DirectX-Schnittstelle profitiert. Ein neues DirectX hat die Branche immer wieder neu aufgefrischt, neue Grafikkarten brauchten stärkere Prozessoren und mehr RAM. Aber es wird kein DirectX 12 kommen. Das war's. Soweit wir wissen gibt es keine Pläne für DirectX 12. Falls das nicht stimmen sollte und mich jemand korrigieren möchte – wunderbar.Zu der Zeit schon war einfach zu viel Hardware in AMDs GPUs schon für DX12 ausgelegt (einiges hätte ja schon in DX11 rein gehört, wie DX11.3 zeigt), als dass sich AMD weitere Verzögerungen leisten konnte. Zeitgleich wurde im April 2013 die Entwicklung von Mantle in Zusammenarbeit mit DICE begonnen und im September zusammen mit dem Launch der Volcanic Islands Generation angekündigt.
Das Interview hat MS zu einem sehr schlechten Zeitpunkt erwischt. Win10 stand vor der Tür und kein weiteres DX12 würde hier ein großer Hemmschuh bei der Verbreitung werden. MS wollte dies wohl erst nach schieben wenn Nvidia soweit ist und hat darauf keine großen Ressourcen aufgewendet - nicht verwunderlich bei den Marktanteilen. Nvidia hatte seine Entwicklung auch auf dies ausgerichtet wie Taylor auch anmerkte:
Wenn man die Ressourcen eines Unternehmens auf das Mobilgeschäft ausrichtet und weniger Ressourcen für das Gaming-Geschäft übrig hat, dann wird das eben Folgen haben.Ich bin sicher, dass auch die Schwierigkeiten beim 20/22nm Prozess ihren Teil mit beigetragen haben warum hier die API-Entwicklung verzögert wurde.
Das hat AMD deutlich härter getroffen als Nvidia, die mit dem Maxwell-Refresh noch deutlich länger ihre Überlegenheit in DX11 ausnutzen konnten. Wäre die API-Entwicklung damals nicht unter Druck gesetzt worden, würde AMD jetzt mit leeren Händen da stehen für einen großen Teil der Entwicklungsarbeit die für GCN investiert wurde. So wie bei TrueForm von ATI aus 2001, das erst mit DX10.1 kam, als Nvidia dort aufgeholt hatte und Tesselation besser anbieten konnte wurde es in DX11 aufgenommen und dann erst von Software-Entwicklern auch breit verwendet. Auch hier musste AMD in der Hardware eine neue Version für DX11 entwickeln, so dass lediglich die dritte Version des Terascale-Tesselators zu DX11 kompatibel war und so die Modelle vor der HD5000-Serie dieses Feature nur in DX10 beiten konnten. Dies wollte AMD nicht nochmal erleben.
Mit GCN war die Software Initiative geplant worden und AC eingeführt worden - die API musste kompatibel werden zu AC, damit eben auch die ersten GCN Modelle kompatibel sind. Und selbst hier sind die GCN1 ACEs schon veraltet gegenüber den neuen mit 8 ACE die jeweils 8 queues anstatt 2x2 bieten. Die XBOne hat die 2x8 ACEs, die PS4 die 8x8 ACEs verbaut (http://www.redgamingtech.com/xbox-one-the-hardware-specs-and-architecture/).
-/\-CruNcher-/\-
2016-06-25, 11:06:00
Naja Microsoft darf sich nicht parteisch Zeigen aber mit der Xbox und AMD Entscheidung sind sie es nunmal geworden und Async Compute ist esentziel um das Experience zu garantieren bei dem agressiven Preis Target der Konsolen ;)
Was Microsoft getan hat um das zu verbergen, jedes mal Nvidia auf die Bühne geholt und ihren DX 12 Treiber Präsentieren lassen ;)
Jetzt tauchen sie bei jeder AMD Präsentation mit Windows 10 auf und Danken für die Fruchtvolle zusammenarbeit ;)
Aber ACE hat vor allem Sony gepushed das geht aus vielen Daten hervor auch das "We have to get back to Low Level" trat aus der PS4 Entwicklung mit Mark Cerny des ICE Teams und DICE hervor.
Noebbie
2016-06-25, 11:48:35
Das letzte Wochenende vor Polaris. Wir haben es bald geschafft. ;)
y33H@
2016-06-25, 12:02:27
Was fragst du das uns? Schau mal in deinen Unterlagen :biggrin:Wollte nur wissen, was er meint du zu wissen oder doch nur das übliche Bla :cool:
-/\-CruNcher-/\-
2016-06-25, 12:11:02
Du kannst es dir ja anschauen vor den anderen hoffe nur du analysierst es auch ordentlich bzw hast das schon getan genug Zeit hatest du ja jetzt ;)
Flusher
2016-06-25, 12:16:38
Neue benchmark 1120 Mhz ?
Wenn sich die Karte noch um 20% overclocken lässt , dann ist sie die Traumkarte für den preis.
Irgendwas stimmt da nicht - alle anderen Einzelkämpfe wie Fury X vs. 980 Ti und 390 X vs. GTX 980 gehen in allen Benches zugunsten der AMD Karten aus. Zumindest in GTA V bin ich mir sicher, dass die NV karten durchweg schneller sind.
Zergra
2016-06-25, 12:28:13
Neue benchmark 1120 Mhz ?
Wenn sich die Karte noch um 20% overclocken lässt , dann ist sie die Traumkarte für den preis.
Die sind doch eher bei 1.5Ghz gewesen beim OC ?
Die Frage ist hier halt ob die 1120 nur der Basis Takt sind oder schon mehr, bzw ob die Karte im Benchmark mehr Mhz anliegen hatte...
Linmoum
2016-06-25, 13:09:10
Ich zitiere mich nochmal bzgl. des Benchmarks. ;)
Sind Fake, da hat jemand einfach mit etwas Photoshop gearbeitet und die 390 durch die 480 ersetzt.
http://www.ddworld.cz/pc-a-komponenty/graficke-karty/test-sapphire-nitro-radeon-r9-fury-4g-jedna-z-nejlepsich-grafickych-karet-28nm-generace--5.html
y33H@
2016-06-25, 13:13:18
Du kannst es dir ja anschauen vor den anderen hoffe nur du analysierst es auch ordentlich bzw hast das schon getan genug Zeit hatest du ja jetzt ;)Genug Zeit ist nie, leider. Feature Zeug Montag/Dienstag ...
StefanV
2016-06-25, 13:18:27
Bei aller Objektiven Betrachtung, wenn man sich hier einige Posts liest hat man den Eindruck NVidia wäre am Boden und Kämpft ums überleben.
(noch) nicht, aber das kann ganz schnell so kommen, da man kein weiteres Standbein hat, wenn jetzt die Endkunden GPU Sales wegbrechen, haben sie ein Problem.
fondness
2016-06-25, 13:24:13
Wenn ich mir die Testaufbauten der Reviewer so ansehe, ist es eigentlich ungeschickt von AMD, dass bei den Querverstrebungen des Gehäuses beim Slotübergang keine Lüfterschlitze gemacht haben. NV macht das taktisch klüger, bringt zwar nichts im Gehäuse aber bei den offenen Aufbauten der Reviewer sicher kein Nachteil...
maximus_hertus
2016-06-25, 13:26:00
(noch) nicht, aber das kann ganz schnell so kommen, da man kein weiteres Standbein hat, wenn jetzt die Endkunden GPU Sales wegbrechen, haben sie ein Problem.
Aber wie sollen die GPU Verkäufe wegbrechen? Du vergisst, dass sehr viele Kunden nicht von Grafikkarten sprechen, sondern von Geforce. Änlich wie Tempo = Taschentuch.
Und solange nVidia die günstigen Preise anbieten kann (die GTX 1000 Karten hätten locker teurer sein können, selbst 800 Euro reichen nicht, kaum kommen welche rein, sind sie am gleichen Tag verkauft), mache ich mir keine Sorgen um nV.
Sunrise
2016-06-25, 13:39:21
...Und solange nVidia die günstigen Preise anbieten kann (die GTX 1000 Karten hätten locker teurer sein können, selbst 800 Euro reichen nicht, kaum kommen welche rein, sind sie am gleichen Tag verkauft), mache ich mir keine Sorgen um nV.
"Günstige Preise" und "NV" in einem Satz? Ernsthaft?
Das ganze Spiel liegt an der Alternativlosigkeit im High-End, und genau deshalb kann NV derzeit im High-End solche Preise anbieten.
Das Ganze ist wie ein Schachspiel. NV macht einen Zug, AMD macht den nächsten. NV muss einfach nur immer zur richtigen Zeit eine bessere GPU liefern als AMD und sie können die Preise bestimmen. NV kommt mit GP104, dann kommt AMD mit Polaris. Wäre AMD gleich mit Vega gekommen hätte das nicht funktioniert, weil GP102 entweder noch nicht fertig ist und/oder NV dumm wäre, GP104 mit 300mm^2 nicht für solche abartigen Preise zu verkaufen. Sobald AMD aber mit Vega kommt, legt NV mit GP102 nach. Eventuell kommt GP102 sogar noch früher, damit sie noch irrsinnigere Preise fahren können. Mal sehen wie lange NV dieses Spiel noch spielen kann. Sie haben zwar mehr Geld für R&D aber ihr Markt wird eher kleiner statt größer. Das können sie aktuell nur noch durch ihre extremen Margen abfedern. AMD holt das aber auf, das dauert jetzt noch maximal 1-2 Jahre und sie sind quasi dran. Jeder Semi will AMD, NV spielt da absolut keine Rolle.
Früher waren beide in etwa im Gleichschritt. Sobald einer aber hustet, freut sich der andere. Und AMD hatte jetzt leider schon einige Zeit chronischen Schnupfen, den sie scheinbar aber geheilt haben.
-/\-CruNcher-/\-
2016-06-25, 13:46:04
Interessant wird wie Lange Nvidia nun für das GTX 1060 release benötigt wenn wir den 29 als startzeit für AMD sehen ;)
In Zukunft zeichnet sich aber ab das Nvidia 0 Chancen gegen AMD/Intel hat wenn sie nicht weiter ihre ARM + Nvidia Strategie fahren, sie müssen ;)
y33H@
2016-06-25, 13:54:19
@ -/\-CruNcher-/\-
Noch mal die Frage: Was an VSR soll denn deinen Informationen nach neu sein (verglichen mit GCN v3, also Fiiji/Tonga)?
Wenn ich mir die Testaufbauten der Reviewer so ansehe, ist es eigentlich ungeschickt von AMD, dass bei den Querverstrebungen des Gehäuses beim Slotübergang keine Lüfterschlitze gemacht haben. NV macht das taktisch klüger, bringt zwar nichts im Gehäuse aber bei den offenen Aufbauten der Reviewer sicher kein Nachteil...Was genau meinst du?
EDIT
Ich glaube ich weiß es. Das ist für Temperaturen völlig egal und für die Lautheit auch.
dildo4u
2016-06-25, 13:59:45
(noch) nicht, aber das kann ganz schnell so kommen, da man kein weiteres Standbein hat, wenn jetzt die Endkunden GPU Sales wegbrechen, haben sie ein Problem.
Seit wann verkauft NV nur High-End GPU's ich sehe hier massig 960.
http://store.steampowered.com/hwsurvey/videocard/
Wichtig ist das man im Herbst ne billige Pascal Karte hat im Hochsommer sitzen nur die Hardcore Nerd's am PC und die kaufen eh eher High-End.
-/\-CruNcher-/\-
2016-06-25, 14:04:42
Du sollst es uns doch sagen was sich verändert hat Performance/Qualität/Auslastung/Verbrauch Resolution ? :)#
Persönlich schalte ich Nvidias Gausain Filter immer auf 0 von daher wäre das für mich egal ob AMDs solution etwas flimmert nur die Performance ist wichtig in dem hinblick und ob die Shader entlastet werden ;)
krissbay
2016-06-25, 14:08:29
Bis zum Review am Mittwoch habe einen 3D Mark Extreme Eintrag der Rx480 gefunden mit 6000 Puntken.Damit wäre Sie in diesem benchmark genau auf dem Niveau einer GTX 980.
Ich finde unglaublich wie schwer es ist das Performanceniveau der RX480 einzuschätzen. Wir haben schon Einträge mit 5200-6000 Punkte gesehen
http://www.3dmark.com/fs/8917335
y33H@
2016-06-25, 14:13:57
Du sollst es uns doch sagen was sich verändert hat Performance/Qualität/Auslastung/Verbrauch Resolution?Du sagtest, du seist gespannt auf das neue VSR. Das impliziert, es gibt eine Version von VSR und du weißt das, konntest es aber bisher nicht testen. VSR ist rein Software ...
Troyan
2016-06-25, 14:16:49
Also eine auf 1360Mhz übertaktete 480 soll angeblich 6130 Punkte im Grafikscore erreichen:
http://forums.anandtech.com/showpost.php?p=38314885&postcount=3300
Kann sich also um eine übertaktete Karte handeln.
-/\-CruNcher-/\-
2016-06-25, 14:20:06
Du sagtest, du seist gespannt auf das neue VSR. Das impliziert, es gibt eine Version von VSR und du weißt das, konntest es aber bisher nicht testen. VSR ist rein Software ...
Ja was den nun einmal lese ich es ist der Hardware Scaler dann doch Shader was ist es nun ;) ?
Bei Intel könnt ich dir eine klip und klare Antwort geben dort ist es ein Lanczos Adaptiv 4 Tap Filter in Hardware ;)
Dino-Fossil
2016-06-25, 14:20:35
@StefanV:
Abgesehen davon, dass ein AMD-GPU Monopol ähnlich schlecht für uns Kunden wäre, wie ein nVidia-Monopol, glaube ich, dass nVidia durchaus mehr im Portfolio hat als Consumer-GPUs.
Da wären z.B. ihre Bemühungen in der Automotive-Sparte, die keinen schlechten Eindruck auf mich machen. Wenn sie da dauerhaft einen Fuß in die Tür kriegen, sind das recht sichere Einnahmen.
Dazu HPC, das hat etwas andere Anforderungen als die Gamer-Schiene (siehe GP100).
Alles in allem könnte nVidia auch mit Problemen bei Gaming-GPUs ne ganze Weile gut klarkommen.
Zumal sie das ja auch in der Vergangenheit schon tun mussten - siehe die 4xx Serie, die erst zu spät gestartet ist, und dann mit bis auf einige Ausnahmen (z.B. die 460, die eigentlich eine sehr gute Karte war) relativ heißen Karten mit schlechtem Verbrauch daher kam.
/offtopic
krissbay
2016-06-25, 14:26:04
Also eine auf 1360Mhz übertaktete 480 soll angeblich 6130 Punkte im Grafikscore erreichen:
http://forums.anandtech.com/showpost.php?p=38314885&postcount=3300
Kann sich also um eine übertaktete Karte handeln.
Laut den letzten Leaks lässt sich die RX480 nur bis ca. 1350 Mhz overclocken. das wären lächerliche 6% WTF??
würde AMD ein neues OC Tool werben um nur 6% Overclocking zu schaffen ?
mironicus
2016-06-25, 14:30:18
Laut den letzten Leaks lässt sich die RX480 nur bis ca. 1350 Mhz. das wären lächerliche 6% WTF??
würde AMD ein neues OC Tool werben um nur 6% Overclocking zu schaffen ?
Da musst du auf die Customkarten warten, die Referenz-RX480 mit 6 Pin ist die Fools Edition. Lieber ne Custom mit 0 Fan-Modus und 8+6 Pin für 20 Euro mehr von Sapphire. :freak:
Rabiata
2016-06-25, 14:32:01
Um Nvidia mache ich mir keine Sorgen. Die Hochrechnungen zur möglichen Größe und Performance von GP 106 (ausgehend von der GTX 1070) deuten auf einen Chip hin, der es durchaus mit Polaris 10 aufnehmen kann und auch zum selben Preis herstellbar ist.
Nvidia muß eventuell ein paar Monate mit Unterlegenheit in der Mittelklasse leben (bis GP 106 raus ist) und bei seiner Hochpreispolitik Abstriche machen, aber das werden sie überleben. Ein bißchen Demut hat noch niemand geschadet... :tongue:
Digidi
2016-06-25, 14:34:59
Irgendwas stimmt da nicht - alle anderen Einzelkämpfe wie Fury X vs. 980 Ti und 390 X vs. GTX 980 gehen in allen Benches zugunsten der AMD Karten aus. Zumindest in GTA V bin ich mir sicher, dass die NV karten durchweg schneller sind.
Nein das kann nicht sein eine AMD Karte schneller als Nvidia!
Sollten so was komisches gelesen! Natürlich kann Amd schneller sein wenn sie mal die Hürden von Gameworks beseitigt haben. So was dauert aber. Ich plädiere ja schon seit langem für einen nach Test nach 3-6 Monaten!
y33H@
2016-06-25, 14:38:25
Ja was den nun einmal lese ich es ist der Hardware Scaler dann doch Shader was ist es nun?Das beantwortet meine Frage immer noch nicht :mad:
Bei Intel könnt ich dir eine klip und klare Antwort geben dort ist es ein Lanczos Adaptiv 4 Tap Filter in Hardware.Wo gibt's bei Intel Downsampling per Treiber für Spiele? Wovon sprichst du überhaupt? :confused:
Vll ist's die Hitze, aber deine Beiträge sind verwirrend und werfen mehr Fragen auf als die beantworten ;(
Sunrise
2016-06-25, 14:38:55
Laut den letzten Leaks lässt sich die RX480 nur bis ca. 1350 Mhz overclocken. das wären lächerliche 6% WTF??
würde AMD ein neues OC Tool werben um nur 6% Overclocking zu schaffen ?
Das ist zumindest bei 3DMark Extreme so schnell wie eine 390X OC mit 1120/1700MHz, bei einem deutlich billigeren Preis, deutlich weniger Verbrauch, aktuellem Featureset und nur etwa halbe Diegröße auf einer Referenzkarte die geradezu winzig ist (das PCB) mit gerademal 1x6pin und sicher nicht auf maximales OC ausgelegt ist. Wir reden hier über eine Midrange-Performance-Karte.
Bitte mal die Erwartungen zurückschrauben...
dargo
2016-06-25, 14:39:06
Vll ist's die Hitze, aber deine Beiträge sind verwirrend und werfen mehr Fragen auf als die beantworten ;(
Das ist die Regel. :D
Troyan
2016-06-25, 14:41:32
Laut den letzten Leaks lässt sich die RX480 nur bis ca. 1350 Mhz overclocken. das wären lächerliche 6% WTF??
würde AMD ein neues OC Tool werben um nur 6% Overclocking zu schaffen ?
Warum nicht?
Die werben auch mit "VR Premium" und erreichen gerade mal die Punktzahl, die Oculus und Valve als "Mindestanforderungen" stellen...
Nakai
2016-06-25, 14:43:28
Ich hab vor einiger Zeit geschrieben, dass die Rahmenbedingungen P10 einschränken. Kleines PCB, nur ein 6pin Anschluss, kleine Kühlung, etc. P10 kann schon hochgejagt werden, aber nicht die Referenzkarte. Die ist einfach limitiert.
Linmoum
2016-06-25, 14:48:54
Warum nicht?
Die werben auch mit "VR Premium" und erreichen gerade mal die Punktzahl, die Oculus und Valve als "Mindestanforderungen" stellen...
Hab mal nach 'nem simplen Treiberupdate und nichts anderem plötzlich 1,1 Punkte mehr im SteamVR-Test gehabt, so viel dazu...
krissbay
2016-06-25, 14:49:24
Das ist zumindest bei 3DMark Extreme so schnell wie eine 390X OC mit 1120/1700MHz, bei einem deutlich billigeren Preis, deutlich weniger Verbrauch, aktuellem Featureset und nur etwa halbe Diegröße auf einer Referenzkarte die geradezu winzig ist (das PCB) mit gerademal 1x6pin und sicher nicht auf maximales OC ausgelegt ist. Wir reden hier über eine Midrange-Performance-Karte.
Bitte mal die Erwartungen zurückschrauben...
Ich meinte ja nicht die Leistung der Karte an sich sondern die "Overclockingfähigkeit". Ich erwarte im besten Fall 390X Leistung aber 6 % Overclocking schafft selbst eine Fury!
-/\-CruNcher-/\-
2016-06-25, 14:51:44
Ich hab vor einiger Zeit geschrieben, dass die Rahmenbedingungen P10 einschränken. Kleines PCB, nur ein 6pin Anschluss, kleine Kühlung, etc. P10 kann schon hochgejagt werden, aber nicht die Referenzkarte. Die ist einfach limitiert.
Total uninteressant hochgejagt kann alles werden mit Aufwand und Extra Kosten der Sweetspot ist doch das wichtigste, der rest resultiert doch daraus und wird den leuten in kleinen unwichtigen schritten verkauft un ihre benchmarkwut meistens zu befriedigen.
Aus sicht eines Effizienten Engineers totales versagen Bruteforcen zu müssen.
krissbay
2016-06-25, 14:51:44
Hab mal nach 'nem simplen Treiberupdate und nichts anderem plötzlich 1,1 Punkte mehr im SteamVR-Test gehabt, so viel dazu...
Man... haste 1 Jahr lang keine Update installiert ? :biggrin:
Sunrise
2016-06-25, 14:56:29
Ich meinte ja nicht die Leistung der Karte an sich sondern die "Overclockingfähigkeit". Ich erwarte im besten Fall 390X Leistung aber 6 % Overclocking schafft selbst eine Fury!
Du kaufst aber nunmal keine OC-Fähigkeit, das ist immer nur Bonus. Wenn du OC willst, wirst du natürlich auch eine Karte brauchen, die dafür gebaut wurde.
AMD hätte auch direkt ein fetteres PCB nehmen können, aber das den Partnern zu überlassen ist IMHO besser, weil dann jeder die Wahl hat was er lieber möchte. Ein spitzen P/L-Verhältnis mit kleiner Karte oder eine OC-Karte die mehr kostet. AMD will eben so tief wie möglich anfangen, die Partner machen den Rest.
Das OC-Tool zeigt ja, dass da was im Busch ist. Für >1350MHz sind sicher auch vCore Anhebungen nötig, da AMD den Chip so liefern wird das er noch maximal Strom spart bei aber schon sehr guter Leistung. Wer sie richtig hochjagen will, wird das auch sicher tun können.
mironicus
2016-06-25, 14:57:03
Kann man mit der RX480 wohl folgendes machen?
Monitor mit 2560x1440 => DSR auf 3840x2160?
Mit meiner R290x geht das nicht.
krissbay
2016-06-25, 14:59:28
Zitat von PCGH
"Wir haben eine Klimaanlage, sowohl im Testlabor als auch im Großraumbüro. Die sieht an Sommertagen zu, 24 °C zu halten, das Klima ist für die Grafikkarten also (ver)gleich(bar). Und die Lautstärkemessungen finden, wie bereits von Duvar erwähnt, in einem schallarmen Raum statt, der Tonkabine. Hier werden auch Videos vertont. Einflüsse, die die Grafikkartenleistung nicht vergleichbar machen, sind somit weitgehend eliminiert.
1.400 MHz hat unsere Karte trotzdem nicht erreicht. Die erste Kühlermod ist aber bereits über die Bring-up-Phase hinaus.
"
Das sieht nicht gut aus :freak:
Sunrise
2016-06-25, 15:02:16
...Das sieht nicht gut aus :freak:
Und warum sieht das nicht gut aus? Das wären auf dem mickrigen PCB von 1266MHz bis 1400MHz. Deine Erwartungen sind einfach zu hoch bzw. unrealistisch. Nochmal: Das ist keine High-End-Karte.
Hakim
2016-06-25, 15:05:44
Das Problem ist auch der erste Eindruck, wenn sich die Referenz Karte, die custom Versionen sollen ja Wochen später kommen, nur 6-7% oc macht, Könnte das als ein negativ Punkt bei den Tests bewertet werden.
krissbay
2016-06-25, 15:08:58
Und warum sieht das nicht gut aus? Das wären auf dem mickrigen PCB von 1266MHz bis 1400MHz. Deine Erwartungen sind einfach zu hoch bzw. unrealistisch. Nochmal: Das ist keine High-End-Karte.
Ob meine erwartungen mit dem Referenzmodel zu hoch sind ? ja bestimmt aber 15 % Overclocking sind mMn. vernünftig hohe Erwartungen für AIB karten. Mal sehen was in 3 Wochen mit mehr Strom möglich ist :wink:
illidan
2016-06-25, 15:11:20
Und warum sieht das nicht gut aus? Das wären auf dem mickrigen PCB von 1266MHz bis 1400MHz. Deine Erwartungen sind einfach zu hoch bzw. unrealistisch. Nochmal: Das ist keine High-End-Karte.
Das PCB würd ich nicht überbewerten. Wenn der Chip ohne Spannungserhöhung nicht mehr Takt mitmacht, dann ist das halt so, und würde auch auf jedem anderen PCB so sein.
Die Frage ist dann, ob mehr Spannung nennenswert mehr Takt ermöglicht, oder ob man in eine Mauer rennt, wie das in letzter Zeit eigentlich immer der Fall war.
Von wo genau stammt das PCGH-Zitat denn?
Linmoum
2016-06-25, 15:11:28
Ob meine erwartungen mit dem Referenzmodel zu hoch sind ? ja bestimmt aber 15 % Overclocking sind mMn. vernünftig hohe Erwartungen für AIB karten. Mal sehen was 3 Wochen mit mehr Strom möglich ist :wink:
Wenn das Referenzmodel sich bis knapp unterhalb von 1400MHz übertakten lässt, wären das 9-10% OC. Da dürften deine 15% mit entsprechenden Customs mehr als drin sein.
Von wo genau stammt das PCGH-Zitat denn?
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/442202-radeon-rx-480-neu-im-testlabor-test-am-29-juni-57.html#post8297454
mironicus
2016-06-25, 15:16:58
Passender Kühler für RX480:
http://preisvergleich.pcgameshardware.de/arctic-accelero-mono-plus-a691663.html
Dino-Fossil
2016-06-25, 15:38:24
Ich denke hier müssen sich einfach mal bei einigen Leuten ein paar Erwartungen zurechtrücken.
Von P10 wurde von Anfang an zu viel erwartet.
Zunächst in punkto Leistung, dann in punkto Übertaktung.
AMD kann leider keine Wunder vollbringen.
y33H@
2016-06-25, 15:45:39
Kann man mit der RX480 wohl folgendes machen? Monitor mit 2560x1440 => DSR auf 3840x2160? Mit meiner R290x geht das nicht.Geht schon seit Fiji/Tonga.
captain_drink
2016-06-25, 15:47:06
Ich denke hier müssen sich einfach mal bei einigen Leuten ein paar Erwartungen zurechtrücken.
Von P10 wurde von Anfang an zu viel erwartet.
Zunächst in punkto Leistung, dann in punkto Übertaktung.
AMD kann leider keine Wunder vollbringen.
Daher glaube ich auch, dass die Meldung, dass AMD über die "Leaks" von WCCFtech nicht erfreut war, das einzig Authentische bei jenem Laden war, da durch diese außerhalb des Einflusses von AMD Erwartungen geschürt wurden, die fernab jeglicher Realität sind. Nimmt man lediglich dasjenige zum Maßstab, was AMD bislang kommuniziert hat, dann liefert P10 exakt das, was versprochen wurde.
Troyan
2016-06-25, 15:47:39
Auch mit der vollen Frequenz? Ich dachte beim VSR wird es auf 60Hz eingeschränkt.
Ich denke hier müssen sich einfach mal bei einigen Leuten ein paar Erwartungen zurechtrücken.
Von P10 wurde von Anfang an zu viel erwartet.
Zunächst in punkto Leistung, dann in punkto Übertaktung.
AMD kann leider keine Wunder vollbringen.
1266Mhz mit 2304Cores und 8000Mhz sollten klar schneller sein als eine Referenz-GTX980, die mit ~1150Mhz taktet.
Selbst wenn die AMD Karte nur auf 1150Mhz takten sollte, hätte sie immer noch 12,5% mehr Rechenleistung bei 14% mehr Bandbreite.
Nightspider
2016-06-25, 15:47:54
Na hoffentlich schafft Polaris auch 5120*2880 und höher. 8K wäre am besten.
Achill
2016-06-25, 15:54:03
Ich denke hier müssen sich einfach mal bei einigen Leuten ein paar Erwartungen zurechtrücken.
Von P10 wurde von Anfang an zu viel erwartet.
Zunächst in punkto Leistung, dann in punkto Übertaktung.
AMD kann leider keine Wunder vollbringen.
Sehe ich auch so, erst mal cool bleiben (ist schwere die Tage - wir haben 36°C in Berlin) und die Tests abwarten - dann wissen wir mehr.
Ansonsten fällt auf, dass nur wenige Fans aus dem roten Lager überzogene Erwartungen haben - evtl. haben wir ja bald den nächsten Grüntee Aufguss ala "AMD machts nicht richtig" - nur diesmal beim fehlenden OC.
Entscheiden ist doch nur, wie viel Geld will/kann ich ausgeben und was bekomme ich dafür geboten ... einfach abwarten und roten Eis-Tee schlürfen, oder "take a radeon pill to feel better" ... ;)
Disco_STFU
2016-06-25, 15:57:08
Mit Wehmut denke ich an die R9 270. Da konnte man alle Regler nach rechts setzen ohne Spannungserhöhung. Welche Befriedigung das war. :freak:
Dino-Fossil
2016-06-25, 15:58:36
1266Mhz mit 2304Cores und 8000Mhz sollten klar schneller sein als eine Referenz-GTX980, die mit ~1150Mhz taktet.
Selbst wenn die AMD Karte nur auf 1150Mhz takten sollte, hätte sie immer noch 12,5% mehr Rechenleistung bei 14% mehr Bandbreite.
Sagt wer, du?
Seit wann muss man die Architekturen von NVidia und AMD 1:1 vergleichen können?
Davon abgesehen wissen wir doch noch gar nicht, wie sie im Mittel abschneidet, da müssen wir uns noch ein paar Tage gedulden.
Dural
2016-06-25, 16:01:57
Ich glaube kaum das eine custom karte deutlich mehr takt bringen wird. Ist bei kleineren chips in der regel nämlich nicht der fall, da weder der kühler noch das pcb limitiert. Zudem die spannungsversorgung der 480 für einen 230mm2 chip gar nicht so schlecht ist.
Disco_STFU
2016-06-25, 16:04:39
Ich glaube kaum das eine custom karte deutlich mehr takt bringen wird. Ist bei kleineren chips in der regel nämlich nicht der fall, da weder der kühler noch das pcb limitiert.
Jap, das denke ich auch.
Ich interpretiere Raffs Beitrag auch so, dass einfach nicht mehr drin ist, auch wenn er den Kuehlerumbau thematisiert.
prinz_valium
2016-06-25, 16:19:40
heißt dann wohl auf vega und gtx1080ti warten
heißt dann wohl auf vega und gtx1080ti warten
Eine nicht veröffentlichte $199 Karte enttäuscht dich, also wartest du stattdessen auf eine nicht veröffentlichte $799+ Karte (GTX 1080 Ti)?
Hakim
2016-06-25, 16:40:11
Wenn es wirklich stimmen sollte und die custom Karten es nicht besser machen können, wären wohl die Meldungen über 300€++ für gute oc custom Versionen Enten. Ich hoffe doch das es am Referenz Design (wegen 1 x6pin?) liegt und die custom Versionen besser gehen.
uweskw
2016-06-25, 16:40:51
......AMD kann leider keine Wunder vollbringen.
Was hat das mit Wunder vollbringen zu tun?
Bei 40nm haben 2,64mrd. Transistoren 389mm² benötigt (Caymann HD6970) und max880MHz
Bei 28nm haben 5,00mrd. auf 359mm² gepasst (Grenada, R390X) und max. 1050 MHz.
Die R390 ist, wie die Transistoranzahl vermuten lässt, ungefähr doppelt so schnell wie eine HD 6970 und hat DX12 usw...
Hätten man einfach Grenada auf 14FF geshrinkt hätte man den locker auf der Fläche von Polaris unterbringen können.
Wie kann da ein Polaris 10 mit 236mm² und mehr Takt nicht deutlich schneller sein als die 390X?
Wo ist mein Denkfehler?
greetz
US
Disco_STFU
2016-06-25, 16:41:01
heißt dann wohl auf vega und gtx1080ti warten
Hast du erwartet die RX 480 auf über 1080 Niveau zu Ocen oder was willst du uns damit sagen? :freak:
Rabiata
2016-06-25, 16:47:47
Hätten man einfach Grenada auf 14FF geshrinkt hätte man den locker auf der Fläche von Polaris unterbringen können.
Wie kann da ein Polaris 10 mit 236mm² und mehr Takt nicht deutlich schneller sein als die 390X?
Wo ist mein Denkfehler?
Vielleicht klemmt's am Speicherdurchsatz?
Die 390X kommt auf 384GB/s, die RX480 nur auf 256GB/s.
Dino-Fossil
2016-06-25, 16:50:23
Wo ist mein Denkfehler?
40nm->28nm enthielt auch einen Architekturwechsel (VLIW4->GCN), also nur bedingt vergleichbar.
Eine 390X hat immer noch mehr Rohleistung als eine 480 -> Das könnte z.B. das Abschneiden in AotS erklären, welches Hawaii schon gut auslasten konnte.
Die 480 enthält ziemlich sicher einiges an Transistorbudget für modernere Features, ist also mehr als ein einfacher Shrink.
Zur Frage wie effizient GCN4 die vorhandene Rohleistung auslastet wissen wir leider noch nichts, ebenso welche Schwachstellen AMD evtl. überarbeitet hat.
Wie gut sich IBM/GloFos 14nm eigentlich takten lässt wissen wir auch nicht (evtl schlechter als TSMC's 16nm).
-/\-CruNcher-/\-
2016-06-25, 16:53:15
Na hoffentlich schafft Polaris auch 5120*2880 und höher. 8K wäre am besten.
Was wäre da am Besten erklär es mir einfach Wirtschaftlich ist das absoluter nonsense was du redest wir sind gerade mal dabei 4K zu etablieren teils schlagen wir schon mit 1080p fehl und du redest dir was von 8K ein ich fass das einfach nicht.
Fliwatut
2016-06-25, 16:56:13
Eine nicht veröffentlichte $199 Karte enttäuscht dich, also wartest du stattdessen auf eine nicht veröffentlichte $799+ Karte (GTX 1080 Ti)?
Vllt. wollte er ja triple CF mit 2000 MHz machen:ulove:
captain_drink
2016-06-25, 17:04:07
Wenn es wirklich stimmen sollte und die custom Karten es nicht besser machen können, wären wohl die Meldungen über 300€++ für gute oc custom Versionen Enten.
Noch ist ja nicht klar, ob Temperaturen, Leistungsaufnahme oder die generelle Taktbarkeit des Prozesses limitieren.
In den beiden ersten Fällen könnten Custom-Versionen immer noch die 1,5 Ghz knacken.
Dass die Meldungen seitens WCCFtech bzgl. 1,6 Ghz mit der Referenz, Leistung mit OC auf dem Niveau einer Fury X usw. FUD sind, sollte niemanden, der die Seite kennt, überraschen.
Disco_STFU
2016-06-25, 17:05:32
Vllt. wollte er ja triple CF mit 2000 MHz machen:ulove:
Wenigstens ist das noch möglich! :tongue::freak:
Dural
2016-06-25, 17:08:42
Ich habe eh nie geglaubt das polaris grössere änderungen gegenüber tonga/fiji hat. Das grosse update kommt mit vega.
Die 480 ist eigentlich die zweite auflage der 4770.
Hübie
2016-06-25, 17:09:51
Wenigstens ist das noch möglich! :tongue::freak:
Ist auch mit SLi möglich :P *tr0lLoL*
uweskw
2016-06-25, 17:35:35
Laut Andantech haben die Reviewer die aktuellen Treiber/Bios noch gar nicht.
http://forums.anandtech.com/showpost.php?p=38317131&postcount=3474
Kann das jemand bestätigen?
greetz
US
krissbay
2016-06-25, 17:46:36
Laut Andantech haben die Reviewer die aktuellen Treiber/Bios noch gar nicht.
http://forums.anandtech.com/showpost.php?p=38317131&postcount=3474
Kann das jemand bestätigen?
greetz
US
Das kann ich mir nur schwer vorstellen. Hardwareluxx hat vor paar Tagen getwittert, dass Sie die Treiber erhalten haben. Tester hätten auch außerdem zu wenig Zeit um die Karte ordentlich zu testen wenn das der Fall sein sollte.
Was hat das mit Wunder vollbringen zu tun?
Bei 40nm haben 2,64mrd. Transistoren 389mm² benötigt (Caymann HD6970) und max880MHz
Bei 28nm haben 5,00mrd. auf 359mm² gepasst (Grenada, R390X) und max. 1050 MHz.
Die R390 ist, wie die Transistoranzahl vermuten lässt, ungefähr doppelt so schnell wie eine HD 6970 und hat DX12 usw...
Hätten man einfach Grenada auf 14FF geshrinkt hätte man den locker auf der Fläche von Polaris unterbringen können.
Wie kann da ein Polaris 10 mit 236mm² und mehr Takt nicht deutlich schneller sein als die 390X?
Wo ist mein Denkfehler?
Ganz einfach:
Cayman: 250 W
Hawaii: 300 W
Polaris 10: 150 W
Man muss aber auch dazu sagen, dass Cayman nicht besonders gut war, der Sprung auf Hawaii ist auch daher ausserordentlich gross.
Davon abgesehen hat Hawaii ja auch von allem deutlich mehr als Cayman und P10 von allem etwas weniger als Hawaii.
Was P10 bei 300 W leisten wuerde? Wer weiss, aber offenbar wurde er nicht dafuer designt.
Laut Andantech haben die Reviewer die aktuellen Treiber/Bios noch gar nicht.
http://forums.anandtech.com/showpost.php?p=38317131&postcount=3474
Kann das jemand bestätigen?
greetz
US
"Laut Anandtech"? Das ist doch nur ein Besucher/Forennutzer oder?
Es haben mehrere Reviewer bestaetigt mittlerweile Treiber bekommen zu haben.
y33H@
2016-06-25, 17:56:41
Windows-Treiber liegt seit Tagen vor, finaler für Linux dauert noch.
Kriton
2016-06-25, 18:09:12
Wichtig ist das man im Herbst ne billige Pascal Karte hat im Hochsommer sitzen nur die Hardcore Nerd's am PC und die kaufen eh eher High-End.
Weil "Hardcore Nerd's" und Geld immer Hand in Hand gehen...
uweskw
2016-06-25, 18:17:46
Windows-Treiber liegt seit Tagen vor, finaler für Linux dauert noch.
thanks, dann gibt es wohl keine großen Überraschungen mehr.
greetz
US
-/\-CruNcher-/\-
2016-06-25, 18:26:32
Ist auch mit SLi möglich :P *tr0lLoL*
Naja ich freue mich das Nvidia nun gezwungen wird zum umdenken nachdem was sie mit Lucid damals abgezogen haben die schon damals das begonnen haben mit NT 5.1 was wir nun in 10 standardisiert sehen.
Die Israeli waren Nvida ein Dorn im Auge und einfach ganz Dezent QA ist uns to much wir haben schon mit SLI genug, stirbt einfach und danke für die Tips mal schauen was wir selbst basteln können (G-sync).
Und Nvidia plustert sich mal wieder bis oben hin auf als hätten sie alles in die Welt gesetzt diese Firmenpolitik kotzt mich an hab davon über die Jahre genug gesehen.
Und ja ich fühl mich scheisse das unterstützt und davon sogar profetiert zu haben.
Also über 6k im Extreme-Preset sind für eine non OC-480 mehr als okay. 1266MHZ steht im Result-Browser des 3dk13. Von daher wohl Stock-Setting.
Mich würde allerdings interessieren, ob die Redaktionen lediglich mit einem Treiber eingedeckt wurden, oder ob es sukzessive weitere Treiber gab, was natürlich den Testzeitraum und somit die ermittelten Resultate erheblich in Frage stellen würde.
Das man vom Referenzmodell zwecks OC nicht zu viel erwarten sollte, war klar. Mini-PCB und nur ein 6-Pin Stecker. Im Raum standen zwischen 10- und 15%. Hier müssen es die Customs reißen.
Käsetoast
2016-06-25, 19:04:57
Ich habe eh nie geglaubt das polaris grössere änderungen gegenüber tonga/fiji hat. Das grosse update kommt mit vega.
Das wäre aber doch ziemlich merkwürdig. Wenn Vega wirklich wesentliche Architekturverbesserungen allgemeiner Art hätte, wäre es doch sinnfrei, diese bei Polaris, die evtl. gefühlt nur 100 Tage früher erscheint, nicht zu benutzen...
Von daher erwarte ich von Vega keine wirklich nennenswerten Verbesserungen allgemeiner Art außer vielleicht hinsichtlich HBM irgendwas cleverer zu machen als noch bei Fiji der Fall...
Kriton
2016-06-25, 19:25:43
Das Vega größere Änderungen bringt hatten wir schon ein paar mal in den Diskussionen. Ich vermisse z.B. auch DX 12.1 in Polaris. Gab es nicht auch mal das Gerücht, dass Polaris eigentlich mal für 20nm geplant war und dadurch verschoben wurde?
thanks, dann gibt es wohl keine großen Überraschungen mehr.
greetz
US
Review-Treiber sind oft nicht ausgereift, das war bei Pascal nicht anders. Hitman unter DX12? Gelbes Bild. DSR in ROTTR? Bluescreen. Und auch bei Polaris läuft nicht alles rund. Ich rieche Fixes.
MfG,
Raff
Karümel
2016-06-25, 19:52:04
Irgendwie freue ich mich auf die Tests und das ganze "Gedöns" drumherum. Das letzte mal das ich auf einem Hardewarerelease so gespannt war war mehrere Jahre her.
Ich hoffe das AMD vieles richtig mit der Karte macht.
Gegen Freude spricht nie etwas, man sollte dabei nur auf dem Boden bleiben. Wie bereits ein paar Mal gesagt: Auch Ati kocht nur mit Wasser - mit kaltem, kanadischem Wasser, aber eben nur Wasser. ;)
MfG,
Raff
Karümel
2016-06-25, 20:03:55
Falls man fragen darf. Ihr habt ja schon seit ein paar Tagen die Karte im Haus. Was ist so eigentlich der Durchschnitt an Tagen die ihr die Sachen vorher bekommt um die zu testen? Also Produkt wird für Tag X angekündigt und ihr bekommt die im Schnitt wie viel Tage vor X?
Andererseits hattest du ja gerade die Treibersache erwähnt, die machen die Tests ja teilweise "hinfällig", wenn ein neuer Treiber kurz vor Release erscheint.
M4xw0lf
2016-06-25, 20:05:04
Gegen Freude spricht nie etwas, man sollte dabei nur auf dem Boden bleiben. Wie bereits ein paar Mal gesagt: Auch Ati kocht nur mit Wasser - mit kaltem, kanadischem Wasser, aber eben nur Wasser. ;)
MfG,
Raff
4°C unda loads confermed!!!1
Disco_STFU
2016-06-25, 20:18:48
Gegen Freude spricht nie etwas, man sollte dabei nur auf dem Boden bleiben. Wie bereits ein paar Mal gesagt: Auch Ati kocht nur mit Wasser - mit kaltem, kanadischem Wasser, aber eben nur Wasser. ;)
MfG,
Raff
Sag, dass sie vieles richtig machen. LOS SAG ES!!1:freak::freak:
Karümel
2016-06-25, 20:21:27
Sag, dass sie vieles richtig machen. LOS SAG ES!!1:freak::freak:
Fällt so was nicht auch schon unter NDA?
Ach ja, Raff, wehe die PCGH kommt wieder 4 Tage zu spät. Das die "Kioskleser" die Zeitschrift für den "Aboleuten" haben. :wink:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56438&stc=1&d=1466879255
https://compubench.com/compare.jsp?benchmark=compu15d&did1=35583965&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+Radeon+%28TM%29+RX+480+Graphics&D2=AMD+Radeon+%28TM%29+R9+390+Series
Ocean Simulation und Particle Simulation sind auch stark von der Bandbreite abhängig.
Im Vergleich mit meiner HD 7970 1200/1700MHz mit scharfen AFR Memory Timings:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56439&stc=1&d=1466879669
y33H@
2016-06-25, 21:01:19
Falls man fragen darf. Ihr habt ja schon seit ein paar Tagen die Karte im Haus. Was ist so eigentlich der Durchschnitt an Tagen die ihr die Sachen vorher bekommt um die zu testen? Also Produkt wird für Tag X angekündigt und ihr bekommt die im Schnitt wie viel Tage vor X? Andererseits hattest du ja gerade die Treibersache erwähnt, die machen die Tests ja teilweise "hinfällig", wenn ein neuer Treiber kurz vor Release erscheint.Bei AMD war bzw ist diesmal viel Zeit. Alles über 5 (Werktage!) ist Luxus, 3-4 ist häufig der Fall und 2 kann auch schon mal passieren.
Menace
2016-06-25, 21:30:14
Bei AMD war bzw ist diesmal viel Zeit. Alles über 5 (Werktage!) ist Luxus, 3-4 ist häufig der Fall und 2 kann auch schon mal passieren.
Das kann sich ja zur Not auch auszahlen. Ihr könnt bei Probleme Rückfragen stellen bzw. AMD kann versuchen Hotfixes nachzuliefern.
y33H@
2016-06-25, 21:32:39
Klar, bei Treiber-bedingten Problemen ist das denkbar.
Linmoum
2016-06-25, 21:45:43
http://radeonfury.com/data/attachment/forum/201606/26/014016hbra0zjljadgij0w.png
https://www.chiphell.com/forum.php?mod=viewthread&tid=1609345&page=1#pid33756385
basix
2016-06-25, 21:52:46
Sehe ich das richtig max. 4000 RPM beim Lüfter? :freak:
-/\-CruNcher-/\-
2016-06-25, 21:59:09
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56438&stc=1&d=1466879255
https://compubench.com/compare.jsp?benchmark=compu15d&did1=35583965&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=AMD+Radeon+%28TM%29+RX+480+Graphics&D2=AMD+Radeon+%28TM%29+R9+390+Series
Ocean Simulation und Particle Simulation sind auch stark von der Bandbreite abhängig.
Im Vergleich mit meiner HD 7970 1200/1700MHz mit scharfen AFR Memory Timings:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56439&stc=1&d=1466879669
Keine GTX 970 schaft beim T-Rex 11 FPS
Meine Sweetspot kommt knapp auf 9
10 wäre GTX 980
http://i1.sendpic.org/t/2i/2iPvllliaxiZfgk30QiPODU1Z0g.jpg (http://sendpic.org/view/1/i/hiRqF9EkYzlXHAM7WkpNwKnBTTW.jpg)
Hakim
2016-06-25, 22:02:26
Der scheint auch die 1400 MHz nicht gepackt zu haben, 1380 MHz
Gorkon
2016-06-25, 22:02:37
Der Lüfter ist sicherlich ordentlich mit feinstem kanadischen Biberfett/geil geschmiert...passt schon :freak:
Der 29. soll hinne machen :redface:
illidan
2016-06-25, 22:04:24
http://radeonfury.com/data/attachment/forum/201606/26/014016hbra0zjljadgij0w.png
https://www.chiphell.com/forum.php?mod=viewthread&tid=1609345&page=1#pid33756385
Meh, entspricht so ziemlich 390X @1,1Ghz.
mironicus
2016-06-25, 22:04:53
Die 6377 GPU-Punkte im Firestrike Extreme schaffe ich mit meiner R290x nicht, selbst bei 1100/1500 habe ich knapp unter 6000 Punkte.
basix
2016-06-25, 22:14:28
GPU-Score be Default Taktraten von 1266 MHz dürften also ca. 5850 sein.
gibt es schon irgendwo 3dMark Firestrike@Ultra Werte? Packt die Karte ~3600 GPU-Score?
Troyan
2016-06-25, 22:20:42
gibt es schon irgendwo 3dMark Firestrike@Ultra Werte? Packt die Karte ~3600 GPU-Score?
Nein. Mit 1380Mhz sollte die Karte bei rund 3000 Punkten rauskommen.
Frank1974
2016-06-25, 22:28:44
Immer nur 3Dmark, können die nicht mal 1-2 echte Games leaken, Doom hätte ich hier gerne, mein Steam Account ist voll mit Spielen, gerade erst Fallout 4 dazugekommen, das läuft aber sogar noch mit meiner HD 7970 ganz gut, trotzdem würde ich es dann lieber mit DS spielen.
Eine Frage zu Downsampling, mit meiner 7970 geht nur bis 2560x1440, habe eine native Auflösung von 1920x1080, geht mit der RX480 wohl 4K? Das wäre für einige ältere Games ganz schön.
mfg
Frank
illidan
2016-06-25, 22:33:14
Wissen wir noch nicht.
Seit Tonga/Fiji ja.
Edit:
Mit Hawaii geht bis 3200 x 1800
Tonga bis 3840 x 2160
Fiji auch bis 3840 x 2160
ProDuo geht bis 7.680 × 4.320
Polaris wird daher mindestens ebenfalls bis 3840 x 2160 gehen und wahrscheinlich andere Formate wie 21:9 unterstützen oder ähnlich wie DSR sein.
Frank1974
2016-06-25, 22:34:38
Seit Tonga/Fiji ja.
Ok Danke :smile:
mfg
Frank
Dino-Fossil
2016-06-25, 22:35:50
Ja, die dauernden 3DMark Leaks werden langsam langweilig... :freak:
Tarkin
2016-06-25, 22:48:01
Meh, entspricht so ziemlich 390X @1,1Ghz.
Und was soll daran genau "Meh" sein? Was gönnt sich die 390x mit 1100Mhz? Weit über 300 Watt!! Die 480 wahrscheinlich weniger als die Hälfte... Und sie wird deutlich günstiger sein (zur mittlerweile schon sehr preiswert gewordenen 390x). Stimmt, ziemlich "Meh".
:rolleyes:
Und so eine 1,1Ghz 390x ist einer Geforce 980 in 4k überlegen bzw min. ebenbürtig https://www.techpowerup.com/reviews/MSI/R9_390X_Gaming/30.html
Ich behaupte mal die 480 wird sich hier ähnlich verhalten...
Was erlaubt sich AMD eigentlich so ein mieses Produkt auf die nVidia Fanboy Gemeinde loszulassen!
Kartenlehrling
2016-06-25, 22:52:40
http://www.pcper.com/files/news/2016-06-24/raja2.jpg
Radeon RX 480 Live Stream with Raja Koduri and Ryan Shrout
10:30am PT / 1:30pm ET - June 29th
PC Perspective Live! Page
http://www.pcper.com/news/General-Tech/PCPer-Live-Radeon-RX-480-Live-Stream-Raja-Koduri
captain_drink
2016-06-25, 23:05:05
Was erlaubt sich AMD eigentlich so ein mieses Produkt auf die nVidia Fanboy Gemeinde loszulassen!
AMD kann nichts dafür. An den utopischen Erwartungen sind die vermeintlichen "Leaks" aus Wolkenkuckucksheim schuld, die von Schmierportalen wie WCCFtech dem sensationsheischendem Publikum untergejubelt wurden.
basix
2016-06-25, 23:08:48
Wenn die RX 480 auf diese Scores kommt scheint mir, dass Polaris gar keinen IPC Zuwachs gegenüber Hawaii realisiert. Ist das nicht ein wenig komisch? Hatte man nicht von komplett überarbeiteten GPU-Teilen gesprochen, welche eben genau dies bewerkstelligen sollten? z.B. das stark verbesserte Culling? Oder ist das für 3DMark nicht relevant und für Spiele aber schon? Oder ist Polaris nicht das für was wir es halten und die wirklichen Verbesserungen kommen erst mit Vega?
-/\-CruNcher-/\-
2016-06-25, 23:09:18
Wo ist es denn bitteschn ein Mieses Produkt der Power Draw hält sich in grenzen und man holt auf ich seh hier absolut nichts mieses mehr wie die extremen Energie schleudern davor sondern endlich Verbesserungen je nachdem wo der Sweetspot liegen wird um an die 390x zu kommen :)
Aber Nvidia wird bei der 1060 einen neuen Power Draw Rekord hinlegen davon ist auszugehen je nachdem welche Richtung sie eingeschlagen haben Entwertung oder Angriff der Angriff wäre schwer machbar würde die 1070 user voll vor den Latz knallen ;).
Also rechnen wir mal mit einer GTX 1060 mit GTX 970/980 Performance bei 60W ;)
horn 12
2016-06-25, 23:14:18
Durch den Neuen AMD Treiber Branch wird sich die gesamte AMD Palette wohl etwas verschieben
Fiji dürfte die größte Steigerung erhalten und vor Allem bei 4K nochmals zulegen können.
Ebenfalls sollte für Full HD und WQHD optimiert worden sein.
Nein. Mit 1380Mhz sollte die Karte bei rund 3000 Punkten rauskommen.
also in dem Bench nur rund ~60% schneller als ne 7950?! ;(
Mit 1,38G wird es ~3.15K im 3DK13_Ultra geben.
krissbay
2016-06-25, 23:30:05
Wenn die RX 480 auf diese Scores kommt scheint mir, dass Polaris gar keinen IPC Zuwachs gegenüber Hawaii realisiert. Ist das nicht ein wenig komisch? Hatte man nicht von komplett überarbeiteten GPU-Teilen gesprochen, welche eben genau dies bewerkstelligen sollten? z.B. das stark verbesserte Culling? Oder ist das für 3DMark nicht relevant und für Spiele aber schon? Oder ist Polaris nicht das für was wir es halten und die wirklichen Verbesserungen kommen erst mit Vega?
AMD scheint nur Teile verbessert zu haben wo sie im klaren Nachteil waren.
Das verbesserte Culling wird nur in bestimmten fällen nutzlich wo z.B. Tesselation stark eingestzt wird( Witcher 3, Gameworks). Auch für CPU limitierte Fälle hat AMD das Intruction Prefetch verbessert.
Ich kann dir nur dieses Video empfehlen : https://www.youtube.com/watch?v=FvAW5UaRG_4
illidan
2016-06-25, 23:38:30
Wo ist es denn bitteschn ein Mieses Produkt der Power Draw hält sich in grenzen und man holt auf ich seh hier absolut nichts mieses mehr wie die extremen Energie schleudern davor sondern endlich Verbesserungen je nachdem wo der Sweetspot liegen wird um an die 390x zu kommen :)
;)
Von "mies" spricht keiner, das phantasieren sich einige hier dazu.
Trotzdem wirkt es einfach wie ein Hawaii-Shrink. Mit dem Shrink, ohne DP, mit geringerer Packdichte und mit Binning sollte man schon ziemlich nahe an diese maximalen 150W herankommen. Und dann noch nicht mal nennenswerte IPC-Verbesserungen und Taktbarkeit immer noch weit hinter der Konkurrenz.
Wenn das nicht "meh" ist...
Jetzt sind sie halt zuerst in der Leistungsklasse da und P10 hat 8GB, GP106 vermutlich nicht. Technisch aber einfach nicht beeindruckend (wenn sich das ganze 3DMark-Blah so für Spiele bewahrheitet). Pascal war auch relativ langweilig, aber damit gibts wenigstens die hohen Taktraten.
Dino-Fossil
2016-06-25, 23:44:02
Als ob man schon belastbare Aussagen zu eventuellen IPC-Verbesserungen machen kann...
Warten wir erstmal die Tests ab und dann sehen wir weiter.
Immerhin gab es bisher noch kein Leak, der mal etwas genauer beleuchtet hat, ob sich z.B. Tesselation verbessert hat, oder wie sich Polaris generell unter Bedingungen verhält, mit denen GCN bisher Probleme hatte.
Nur waren einige Erwartungen ("Leistung auf Fury-Niveau") von vornherein Unsinn.
Monsta
2016-06-25, 23:46:50
Die direkte Konkurrenz ist wohl die GTX 960, die kostet in der 4gb Variante 199€ und ist vielleicht halb so schnell bei selben verbrauch.
In meinen Augen job done.
Die 1060 gibt es noch nicht. Ist wohl dann keine Konkurrenz.
illidan
2016-06-25, 23:46:56
Tess wird hier maßlos überbewertet (genau wie MSAA), abseits von unsinnigen GW-Features haben weder Hawaii, noch Tonga oder Fiji damit in Spielen irgendwelche Probleme.
Digidi
2016-06-25, 23:51:17
AMD kann nichts dafür. An den utopischen Erwartungen sind die vermeintlichen "Leaks" aus Wolkenkuckucksheim schuld, die von Schmierportalen wie WCCFtech dem sensationsheischendem Publikum untergejubelt wurden.
Das ist effektive Click Byting. Die Seiten leben davon dass sie viele Besucher haben. Deshalb wird oft übertrieben und falsche Leaks aufgepuscht nur das man die Seite besucht! Nachher ist die Enttäuschung groß und die User lassen im Forum den Frust raus! So fährt man doppelt Gewinne ein. Es ist wirklich schrecklich wie unrflektiert die Leute mit solchen Meldungen umgehen.
AMD hat bis jetzt noch kein großes Wort zur Leistung gesagt. Es gibt ein paar nichtssagende Benchmarks wo mit der Vorgängergeneration verglichen wird und ein Crossfire vergleich!
Lustiger finde ich da die Nvidia vergleiche:
https://www.youtube.com/watch?v=WY6kgISv4fM
"Irresponsible Amounts of Performance" lol Das ist wirklich "unverantwortlich" was Nvidia da ablässt :D
illidan
2016-06-26, 00:00:17
Lustiger finde ich da die Nvidia vergleiche:
https://www.youtube.com/watch?v=WY6kgISv4fM
"Irresponsible Amounts of Performance" lol Das ist wirklich "unverantwortlich" was Nvidia da ablässt :D
Du hast offenbar die Vorstellung nicht komplett gesehen, denn dort wurden auch Folien gezeigt, wo 1080 bei normalem Gaming 20-25% for der Titan X lag, und genau das trifft auch zu:
https://www.youtube.com/watch?v=LuViSYChy7Q
Wenn dir der BS-Vergleich von AMD für Ashes mit Crossfire lieber ist, ok...
-/\-CruNcher-/\-
2016-06-26, 00:01:50
Das ist effektive Click Byting. Die Seiten leben davon dass sie viele Besucher haben. Deshalb wird oft übertrieben und falsche Leaks aufgepuscht nur das man die Seite besucht! Nachher ist die Enttäuschung groß und die User lassen im Forum den Frust raus! So fährt man doppelt Gewinne ein. Es ist wirklich schrecklich wie unrflektiert die Leute mit solchen Meldungen umgehen.
AMD hat bis jetzt noch kein großes Wort zur Leistung gesagt. Es gibt ein paar nichtssagende Benchmarks wo mir der Vorgängergeneration verglichen wird und ein Crossfire vergleich!
Lustiger finde ich da die Nvidia vergleiche:
https://www.youtube.com/watch?v=WY6kgISv4fM
"Irresponsible Amounts of Performance" lol Das ist wirklich "unverantwortlich" was Nvidia da ablässt :D
Mein giott es ist doch logisch das er meinte A whole lot faster @ the same Power Draw allerdings wenn der von Physikalisch vorhandenen Shadern erzeugt wird und nicht von Takt ;)
dildo4u
2016-06-26, 00:06:39
Die direkte Konkurrenz ist wohl die GTX 960, die kostet in der 4gb Variante 199€ und ist vielleicht halb so schnell bei selben verbrauch.
In meinen Augen job done.
Die 1060 gibt es noch nicht. Ist wohl dann keine Konkurrenz.
Bin gespannt ob ne Referenz 480 wirklich unter 90 Watt zieht bei Gameinglast.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-960,4038-8.html
Und die 480 wird nicht doppelt so schnell sein,dann wäre sie auf dem Level der Fury X.
http://www.computerbase.de/thema/grafikkarte/rangliste/
Da musste auf THG warten.
Aber ich sehe dich schon mit Steckdosen Messungen hausieren ;)
AlphaNUSS
2016-06-26, 00:24:00
Wenn die 480 auf 980 Niveau ist, dann ist sie ja fast doppelt so schnell wie eine 960.
-/\-CruNcher-/\-
2016-06-26, 00:27:44
Ja die GTX 960 wurde extrem entwertet um die GTX 970 zu pushen
y33H@
2016-06-26, 00:31:31
Durch den Neuen AMD Treiber Branch wird sich die gesamte AMD Palette wohl etwas verschieben, Fiji dürfte die größte Steigerung erhalten und vor Allem bei 4K nochmals zulegen können. Ebenfalls sollte für Full HD und WQHD optimiert worden sein.Wovon redest du? :confused:
Digidi
2016-06-26, 00:39:20
Du hast offenbar die Vorstellung nicht komplett gesehen, denn dort wurden auch Folien gezeigt, wo 1080 bei normalem Gaming 20-25% for der Titan X lag, und genau das trifft auch zu:
https://www.youtube.com/watch?v=LuViSYChy7Q
Wenn dir der BS-Vergleich von AMD für Ashes mit Crossfire lieber ist, ok...
Ja wo bitte?:
https://www.youtube.com/watch?v=Y5EIzL8_gm4
Hier die Folien der Presentation:
http://videocardz.com/59999/nvidia-geforce-gtx-1080-full-presentation
http://www.hardwareluxx.de/index.php/fotostrecken/artikel-galerien/geforce-gtx-1080-praesentation/nvidia-gtx1080-presentation-3.html
Es gibt lediglich eine Folie wo man sieht das ein einigen Spielen die Bandbreite um 25% reduziert hat. :D
Selbst die Presentation nicht gesehen aber über andere rummaulen. Damit hast du eigentlich gerade deine Reputationen verspielt :D
(del676)
2016-06-26, 00:42:45
Will Crossfire Benches sehen!
Diese bloede 980Ti fliegt sofort raus wenn RX480 CF halbwegs funktioniert.
Digidi
2016-06-26, 00:51:54
@Ulukay
Das würde ich nicht tun. Eine 980ti wird in vielen Games besser gehen als eine RX 480. Die meisten Spiele haben noch nicht mal Crossfire Unterstützung. Wenn dann ist das was für die Zukunft wo es dann Multi GPU unter DX12 gibt. Dann würde ich aber auch die 980ti behalten und eine RX 480 als Zweitkarte hinzunehmen. :D
illidan
2016-06-26, 01:22:35
Ja wo bitte?:
https://www.youtube.com/watch?v=Y5EIzL8_gm4
Hier die Folien der Presentation:
http://videocardz.com/59999/nvidia-geforce-gtx-1080-full-presentation
http://www.hardwareluxx.de/index.php/fotostrecken/artikel-galerien/geforce-gtx-1080-praesentation/nvidia-gtx1080-presentation-3.html
Es gibt lediglich eine Folie wo man sieht das ein einigen Spielen die Bandbreite um 25% reduziert hat. :D
Da sieht man, dass du es eben nicht gesehen hast. :rolleyes:
http://www.tenforums.com/attachments/windows-10-news/78791d1462736365t-nvidia-introduces-geforce-gtx-1080-a-benchmark.jpg
Selbst die Presentation nicht gesehen aber über andere rummaulen. Damit hast du eigentlich gerade deine Reputationen verspielt :D
Wollen wir jetzt noch über deine reden?
Digidi
2016-06-26, 01:26:10
Da sieht man, dass du es eben nicht gesehen hast. :rolleyes:
http://www.tenforums.com/attachments/windows-10-news/78791d1462736365t-nvidia-introduces-geforce-gtx-1080-a-benchmark.jpg
Wollen wir jetzt noch über deine reden?
Und wo sind da deine 25% und Titan X? Das Geringste auf dem Bild sind 50% zu einer 980 ! Im Video habe ich die Folie übrigens nicht gesehen da kannst du mir ja mal die Minute sagen wo das auftaucht und auch nicht bei der offiziellen Presentation! Es fehlt auch jegliches setting was benutzt wurde. Bei Amd gibts immerhin einen groben Abriss der Settings!
Interessant ist die Folie dennoch. Bestätigt es doch meine Meinung das die Gtx 1080 nur der Mittelklasse Chip ist, wenn er mit der Mittelklasse der alten Generation intern verglichen wird und er als solches dann auch Leistungstechnisch und gerade auch Preislich zu bewerten ist!
Mortalvision
2016-06-26, 01:57:49
Leute. Wichtiger als jede News/ jeder Leak über einen zu tollen Polaris10 ist die gänzliche Absenz von Kritik. Kein Leaker hat bisher rumgeheult, die Karte wäre schlecht, zu laut, müllig etc. Ich sehe dem Launch am 29. sehr entspannt entgegen :D
TightNX
2016-06-26, 02:01:15
Und wo sind da deine 25% und Titan X?
Nirgendwo. Es sind 24%. :biggrin: Hardwareluxx, GeForce GTX 1080 Präsentation, Bild 13 von 37 (http://www.hardwareluxx.de/index.php/fotostrecken/artikel-galerien/geforce-gtx-1080-praesentation/nvidia-gtx1080-presentation-13.html).
Linmoum
2016-06-26, 02:02:22
Raff hat sogar schon eine kühle 480 confirmed. :P
StefanV
2016-06-26, 02:34:37
Will Crossfire Benches sehen!
Diese bloede 980Ti fliegt sofort raus wenn RX480 CF halbwegs funktioniert.
Solange es nicht im Fenster funzt, oft wohl kaum, leider...
Und anscheinend wird 'Borderless Window' bei einigen Spielen immer beliebter...
Allerdings langt eine RX480 für diese Spiele in der Regel dicke, so dass es nicht ganz so tragisch ist.
Dennoch unschön...
Rincewind
2016-06-26, 02:45:11
Will Crossfire Benches sehen!
Diese bloede 980Ti fliegt sofort raus wenn RX480 CF halbwegs funktioniert.
Echt? Die würde ich bis auf weiteres drin lassen, vielleicht wäre Vega 10 Deine nächste Grafikkarte. Das ist bezogen auf die reine Leistung, weniger auf den Stromverbrauch.
Ich lass meine 390 auch noch drin, trotz der Mehrleistung der 480. Mein nächstes Grafikkartenupdate wäre vielleicht Vega 10.
Ich bin eh für die nächsten Jahre an AMD gebunden, weil ich mir einen Freesync-Monitor gegönnt habe, aber AMD hat zur Zeit ein gutes Portfolio.
Hakim
2016-06-26, 03:01:15
Vielleicht bringt ja AMD selber offiziell eine 480X2 raus um die Zeit bis Vega zu überbrücken und im High end Bereich eine neue Karte zu haben :).
Haben eigentlich solche Lösungen irgendwelche Vorteile gegenüber normalen CF oder Sli ? Hatte zwar damals eine 7950GX2 gekauft, Weiß aber nicht mehr wieso diese Lösung, statt 2 normalen Karten
Ravenhearth
2016-06-26, 05:57:20
Also rechnen wir mal mit einer GTX 1060 mit GTX 970/980 Performance bei 60W ;)
Ist das ein Scherz? Unter 100W geht bei der 1060 nix, eher wirds mehr.
Gipsel
2016-06-26, 08:17:13
AMD scheint nur Teile verbessert zu haben wo sie im klaren Nachteil waren.
Das verbesserte Culling wird nur in bestimmten fällen nutzlich wo z.B. Tesselation stark eingestzt wird( Witcher 3, Gameworks). Auch für CPU limitierte Fälle hat AMD das Intruction Prefetch verbessert.
Ich kann dir nur dieses Video empfehlen : https://www.youtube.com/watch?v=FvAW5UaRG_4Instruction Prefetch kann in einigen Situationen die Auslastung der Shader verbessern (Stalls der CUs, weil die nächsten Shaderinstruktionen nicht im Instructionbuffer sind, werden reduziert), mit dem CPU-Limit hat das nichts zu tun.
Edit: Der Abschnitt in dem Video dazu liefert keine korrekte Erklärung bzw. vermischt deutlich zu viel.
MadPenguin
2016-06-26, 08:19:47
Ich glaube viele haben bezüglich Takt etwas nicht ganz so verstanden, wie es sein sollte. Das Referenzdesign wird bezüglich Taktbarkeit vollkommen beschränkt sein mMn. 1,5 Ghz sollten bei speziellen Customs locker drin sein und trotzdem gleich einer 1070 verbrauchen (bei vielleicht geringeren Kosten) bei gleicher Leistung. Deshalb abwarten, die üblichen grünen Besserwisser ignorieren und gespannt warten. Die Referenz wurde gebaut, um bei 199 Dollar noch Gewinn abzuwerfen. Wo lebt ihr denn?? Nvidia verlangt für billige Platinen Mondpreise und alle frohlocken und AMD sollte für 200 Dollar eine Grafikkarte bieten, welche sich auf 1070 Leistung OCen lässt? Können einige hier beide Gehirnzellen einschalten?
Dural
2016-06-26, 08:52:38
Hör doch auf mit dem schwachsinn, wenn ein p10 die 1070 erreichen könnte würde amd erstens so eine version bringen, und zweitens schon seit monaten darüber reden.
Und wie ich schon gesagt habe, bei kleinen chips bringen custom karten in der regel nichts.
Übrigens ist die spannungsversorgung der 480 wahrscheinlich sogar gröber als die der 1070fe
TheCounter
2016-06-26, 09:42:27
Nvidia verlangt für billige Platinen Mondpreise und alle frohlocken [...]
Naja billige Platinen ist schon ein wenig übertrieben. Die GTX 1080/1070 sind schon zwei sehr feine Karten, auch wenn die Preise Premium sind.
Aber bei einer Übertaktbarkeit von 20-25% von "billigen Platinen" zu reden finde ich schon komisch.
Da muss man abwarten in wie weit AMD da liefern kann. Nvidia hat jetzt erstmal gut vorgelegt (wobei die RX480 auf ein ganz anderes Segment abzielt wie 1080/1070) und am Mittwoch wissen wir dann mehr.
Hör doch auf mit dem schwachsinn, wenn ein p10 die 1070 erreichen könnte würde amd erstens so eine version bringen, und zweitens schon seit monaten darüber reden.
Und wie ich schon gesagt habe, bei kleinen chips bringen custom karten in der regel nichts.
Übrigens ist die spannungsversorgung der 480 wahrscheinlich sogar gröber als die der 1070fe
Nein das würden sie nicht tun, da sie gezielt einen anderen Absatzmarkt ansprechen. Im Gegensatz zu NV geht AMD gezielt mit 10000en günstigen Chips für alle Bereiche an den Start. Es geht um Marktanteil. Von Notebook über Effizienz mit dem Referenzdesign bis 1070 mit Custom-Designs.
Dural
2016-06-26, 10:28:16
Billiger? Sehe weit und breit nichts davon, zur erinnerung gp106 dürfte kleiner sein und nur 192bit 6gb haben. Was ist in der herstellung wohl billiger?
Der unterschid liegt nur daran das nv für seine karten mehr verlangen kann, und dabei noch mal mehr verdient.
GP106 ist langsamer und genauso groß und hat DEUTLICH weniger Speicherbandbreite.
Troyan
2016-06-26, 10:40:23
Temperaturverlauf einer (standard?) XFX Karte mit 1328Mhz:
https://abload.de/img/480_1zrloi.png
http://tieba.baidu.com/p/4633369416?see_lz=1&pn=2
/edit: Ha, da gibt es noch mehr:
Stabilitätstest des 3DMarks:
https://abload.de/img/480_2p3ygn.png
Und Screenshot aus GPU-Z mit 147W(...!):
https://abload.de/img/480_3d9bb3.png
Schnoesel
2016-06-26, 10:52:50
Falls RX480 so kommt wie es sich abzeichnet: ca. R9390X/GTX980 Performance bei ca 100-120 Watt und zu 220€ (4GB)-260€ (8GB Custom), wird sich die Karte wie geschnitten Brot verkauft haben bevor GTX1060 überhaupt in Erscheinung tritt. Auch die RX470 wird sich sicher sehr gut verkaufen.
Dazu scheint AMD auch liefern zu können.
@ Troyan
die Verlinkung klappt nicht zumindest sehe ich immer nur nen kleine Chinesen mit ner Schlafmütze auf ;-)
Troyan
2016-06-26, 10:55:27
Hier ist der Thread im chinesischen Forum: http://tieba.baidu.com/p/4633369416?see_lz=1&pn=3
Dort gibt es auch die Bilder.
/edit: Oder gab. :D
Zusammengefasst: Mit dieser XFX-Karte, die auf 1328Mhz läuft, werden im Stresstest vom 3DMark Temperaturen ~87°C erreicht.
/edit2: Habe die Bilder mal auf Abload hochgeladen und ausgetauscht.
Raff hat sogar schon eine kühle 480 confirmed. :P
Nö. Nur, dass Polaris 10 kein fetter Fiji ist, sprich: Man kann die RX 480 mit bestehenden Nachrüstkühlern bestücken.
MfG,
Raff
mironicus
2016-06-26, 11:01:02
@GPU-z Bilder
Ja, ist halt eine 150 Watt Karte... das erklärt vielleicht die geringe Übertaktungsmöglichkeiten bei nur einem 6 Pin-Anschluss. So effizient ist die Karte wohl doch nicht.
@Raff
Konntest du die RX480 mit besserer Kühlung noch höher übertakten (einfach ja oder nein), der Stromverbrauch dürfte durch die bessere Kühlung ja auch weiter sinken.
Schnoesel
2016-06-26, 11:03:04
Weiß man schon ca wann die 470 folgen soll? Das wäre für mich die interessantere Karte fürn HTPC?!
@Raff
Konntest du die RX480 mit besserer Kühlung noch höher übertakten (einfach ja oder nein), der Stromverbrauch dürfte durch die bessere Kühlung ja auch weiter sinken.
Geht das nicht immer (in einem sehr engen Rahmen)? :)
MfG,
Raff
Kriton
2016-06-26, 11:19:39
Wovon redest du? :confused:
Ich finde es ja irgendwie putzig, wie Du erst auf Cruncher und jetzt Horn (inhaltlich) anspringst...:biggrin:
-/\-CruNcher-/\-
2016-06-26, 11:20:58
Nvidia lenkt mal wieder mit ihren FPS ab von den wichtigen parts Jensen ist darin perfekt den leuten einzureden wie wichtig FPS doch sind nur für VR ist das eben nicht mehr der Fall :D
AMD hat nicht umsonst den Lumiere Award für ihr Liquid VR erhalten.
https://youtu.be/Qc4RTyGbPv8?t=689
Bei Pascal sehen wir auch auf dem Level von GPU Boost ansätze die Latenz weiter zu reduzieren vs Maxwell.
Er versteht auch das Microsoft/Sony und AMD zusammen die ACE Entwickelt haben :)
https://youtu.be/XOGIDMJThto
mironicus
2016-06-26, 11:23:51
Vielleicht wird es möglich sein, Custom-RX480 (mit gutem ASIC) so weit übertakten zu können, dass sie annähernd 1070-Leistung erreichen (bei guter Skalierung), jedoch mit dem Stromverbrauch einer R290. :D
Zergra
2016-06-26, 11:28:52
Ich finde es ja irgendwie putzig, wie Du erst auf Cruncher und jetzt Horn (inhaltlich) anspringst...:biggrin:
Denke er möchte es ausschließen das er da was übersehen hat. Den am Ende kommt ja ein Artikel bei raus und wenn dort mehr drinn steht kommt es besser an.
Troyan
2016-06-26, 11:29:58
Du musst auf mindesten 1416Mhz kommen, um die selbe Rechenleistung zur Referenz-GTX1070 zu erreichen. Wenn die Karten mit 1,15V nicht über 1400Mhz kommen, dann bezweifel ich, dass da noch viel mehr geht.
fondness
2016-06-26, 11:34:17
Und Screenshot aus GPU-Z mit 147W(...!):
https://abload.de/img/480_3d9bb3.png
1328 Mhz ist allerdings auch schon wieder ein OC-Modell. Wer weiß, wieviel Spannung da wieder drauf geklatscht wird. Aber ja abriegeln dürfte die Karte tatsächlich erst bei 150W, allerdings wird es je nach Anwendungsfall auch um einiges weniger sein, während die GTX1070 an den 150W klebt.
Skysnake
2016-06-26, 11:37:36
Also 1.15V empfinde ich jetzt schon als ganz schön viel :ugly:
Jemand die Daten zu dem Prozess parat, was die Standardzellen da an sich abkönnen? Ich würde sagen/erwarten die sind eigentlich bis maximal 1V vorgesehen.
Für mich ist das echt ein bischen arg viel.
uweskw
2016-06-26, 11:41:26
Du musst auf mindesten 1416Mhz kommen, um die selbe Rechenleistung zur Referenz-GTX1070 zu erreichen. Wenn die Karten mit 1,15V nicht über 1400Mhz kommen, dann bezweifel ich, dass da noch viel mehr geht.
Es erwartet doch keiner, dass die RX480 genau so schnell wird wie die 1070.
Wenn sie jedoch mit OC auch nur in die Nähe der 1070 kommt und grad mal ein bisscher mehr als die Hälfte kostet, dann wird die 480 ein Verkaufsrenner.
Ich kann aber irgendwie noch nicht glauben, dass so viele Händler schon die Lager voll haben, aber noch keine brauchbaren Leaks da sind. Das Meiste was wir sehen sind doch Fakes.
greetz
US
fondness
2016-06-26, 11:44:40
Das neue OC-Tool im AMD-Treiber heißt jetzt wohl WattMan statt Overdrive, Leak von Sapphire:
http://s33.postimg.org/65b9oi2i7/Radeon_RX_480_5.jpg (http://postimg.org/)
http://s33.postimg.org/yw83ek8bz/rx480_1.png (http://postimg.org/)
http://videocardz.com/61422/amd-radeon-rx-480-rumors-part-6
-/\-CruNcher-/\-
2016-06-26, 11:48:23
Richtig das Value vs den Nvidia Preis verstehen nur sehr wenige und das Nvidia viel aufzuholen hat und Nvidia user darunter leiden das Nvidia alles auf die Shader auslastet und ihnen die Performance klaut verstehen die aller wenigsten überhaupt ;)
Mit SMP versuchen sie nur an anderer stelle zu kompensieren und nun versuchen sie noch mit GPU Boost zu kompensieren weil sie wissen das switchting muss noch schneller werden ;)
Aber an einem Punkt können sie wenig machen "Die insgesamte System Latenz" :D
Hier wird AMD ihren Vorteil voll ausfahren ;)
fondness
2016-06-26, 11:50:22
Hier eine ganz gute Analyse der OC-Fähigkeiten der einzelnen Review Samples anhand mittlerweile hunderter 3dmark-Ergebnisse:
http://videocardz.com/61434/amd-radeon-rx-480-3dmark-analysis
Lurtz
2016-06-26, 11:50:26
Keine Leistungssteigerung gegenüber der momentanen oberen Mittelklasse bei nicht überragender Effizienz empfände ich aufgrund des Fertigungssprungs schon als Enttäuschung - gute Vorzeichen für Vega sind das auch nicht.
Hoffe dennoch dass die Karte ausgewogen wird und ihre Käufer findet, damit AMD endlich mal wieder ein paar Marktanteile gewinnen kann.
Ob das neue Overdrive wohl auch für ältere Modelle kommen wird, oder nur ab Polaris?
Loeschzwerg
2016-06-26, 11:50:37
Das neue OC-Tool im AMD-Treiber heißt jetzt wohl WattMan statt Overdrive, Leak von Sapphire:
http://s33.postimg.org/65b9oi2i7/Radeon_RX_480_5.jpg (http://postimg.org/)
http://s33.postimg.org/yw83ek8bz/rx480_1.png (http://postimg.org/)
http://videocardz.com/61422/amd-radeon-rx-480-rumors-part-6
Der Name AMD wird konsequent verdrängt :)
Disco_STFU
2016-06-26, 11:51:46
Bin mal gespannt wie gut man die Karte noch undervolten kann. Mit manuellem Eingriff Richtung 100 Watt wäre schon sweet! :)
Temperaturverlauf einer (standard?) XFX Karte mit
Und Screenshot aus GPU-Z mit 147W(...!):
https://abload.de/img/480_3d9bb3.png
147 Watt ist der Peakwert? Dann könnte der Durschnittsverbrauch ja trotzdem bei 120 liegen. Oder hab ich einen Denkfehler?
Im Test von Igor peakt eine 1070 ja auch knapp über 200.
mironicus
2016-06-26, 12:02:36
Manuelles Untervolten ging bei AMD immer gut, besser als OC... :D
Wäre vielleicht auch etwas, worüber man schreiben könnte... 70 Watt confirmed! :D
y33H@
2016-06-26, 12:09:35
Denke er möchte es ausschließen das er da was übersehen hat. Den am Ende kommt ja ein Artikel bei raus und wenn dort mehr drinn steht kommt es besser an.Man kann nicht immer alles testen oder wissen, aber man kann nachfragen und sich informieren. Wenn allerdings Leute wie Cruncher iwas in den Raum werfen und nicht antworten, dann ist das einfach nur ärgerlich. Ich hatte mich auf dem Tech Day bestimmt 20-30 min mit Terry Makedon über VSR unterhalten ...
Hakim
2016-06-26, 12:10:22
Mir ist jetzt bei den 2-3 Verpackungen die ich bisher sehen konnte auch aufgefallen das nirgends ein AMD Logo vorhanden ist, bis auf das Feature AMDfreesync, ka warum
-/\-CruNcher-/\-
2016-06-26, 12:12:16
Man kann nicht immer alles testen oder wissen, aber man kann nachfragen und sich informieren. Wenn allerdings Leute wie Cruncher iwas in den Raum werfen und nicht antworten, dann ist das einfach nur ärgerlich. Ich hatte mich auf dem Tech Day bestimmt 20-30 min mit Terry Makedon über VSR unterhalten ...
Du musst deinen Job machen ist nicht meine Aufgabe ich reise eure sachen nur ausseinander und versuche mich von ihnen nicht blenden zu lassen teils sind eure daten dafür aber viel zu ungenau ;)
Loeschzwerg
2016-06-26, 12:13:25
@Hakim: Radeon Technologies Group FTW! :D
---
Lediglich ~70-90MHz auf den Boost finde ich allerdings mickrig.
y33H@
2016-06-26, 12:13:45
Du musst deinen Job machen ist nicht meine Aufgabe ich reise eure sachen nur ausseinander und lass mich vonu ihnen nicht blenden ;)
Äh ja ... du hast die Behauptung in den Raum gestellt, VSR sei verbessert worden, nicht ich ;) ;) ;) ;) ;) ;) ;) ;) ;) ;) ;) ;) ;) ;)
BK-Morpheus
2016-06-26, 12:17:04
[...]
Und Screenshot aus GPU-Z mit 147W(...!):
https://abload.de/img/480_3d9bb3.png
Dann könnte sich eine Custom Karte mit mehr als 6Pin Strom und dickerem Kühler ja evtl. doch "lohnen". Dafür steigt der Verbrauch dann natürlich ordentlich an.
Man hat dann ja die Wahl per OC-Tool, ob man effizient @default fahren will, oder mehr Wumms braucht und dafür den Mehrverbrauch hinnimmt.
Loeschzwerg
2016-06-26, 12:20:40
Dann könnte sich eine Custom Karte mit mehr als 6Pin Strom und dickerem Kühler ja evtl. doch "lohnen". Dafür steigt der Verbrauch dann natürlich ordentlich an.
Bist du dir sicher? Aktuell sieht es für mich so aus als schafft einfach der P10 nicht mehr ohne ordentlich Spannung zu benötigen. Aber selbst hier hätte man bei den Samples schon mal eine Art "Lichtblick" haben müssen, hinsichtlich 1400MHz +. Sieht mir eher nach eine Wall aus.
-/\-CruNcher-/\-
2016-06-26, 12:22:33
Äh ja ... du hast die Behauptung in den Raum gestellt, VSR sei verbessert worden, nicht ich ;) ;) ;) ;) ;) ;) ;) ;) ;) ;) ;) ;) ;) ;)
Naja verbessern im sinne von Performance hoffe ich jedenfalls
BQ gibt es wenig zu verbessern und es ist gut das sie sich gegen den Gausian Blur entschieden haben der letztendlich nur unnützes overhead darstellt :)
y33H@
2016-06-26, 12:40:41
Was soll sich denn bei VSR an der Performance verbessern? Ob ich 2160p nativ oder per VSR laufen lasse, ist seit es es gibt im Rahmen der Messungenauigkeit identisch.
Jo. VSR braucht keine bessere Performance, es braucht Flexibilität. Ich, der Richtung Vega schielt, wird das Ding nur zähneknirschend kaufen, wenn der Treiber keine Faktoren über 4K/UHD anbietet.
Stand jetzt ist nichts davon zu sehen, dass die RX 480 flexibler agiert als Radeons, die wir schon kennen. Das ist bei den meisten GPU-LCD-Kombinationen halb so wild, aber wer mal VSR mit mehr als 60 Hz, mit etwas exotischeren 16:10-LCDs oder 21:9 nutzen wollte, schaut seit jeher in die Röhre. Das ist einfach unnötig im Angesicht der Konkurrenz, die in jedem Fall die entsprechenden Multiplikatoren bietet. Da interessiert es mich auch wenig, dass VSR subjektiv manchmal das bessere Bild erzeugt.
AMD wirkt in dieser Hinsicht schon lange eigenartig auf mich. Enthusiastenfeatures werden eeewig lange nicht implementiert, proaktiv passiert in dieser Ecke fast nie etwas (SGSSAA mit Cypress zuletzt, das war 2009). Kommen sie doch, dann nach der Konkurrenz. Und unflexibler. Warum? Mir kann niemand erzählen, dass es mit großem Aufwand verbunden ist, höhere Auflösungen herunterrechnen zu lassen. :ugly: Der Crimson kann es ja, das zeigen die gut funktionierenden Custom Resolutions. Geht halt nicht jenseits der nativen Auflösung. Und die Radeon Pro Duo beherrscht 2×2 OGSSAA ausgehend von UHD. Es ist alles da, man müsste es nur mal verfeinern.
MfG,
Raff
Zergra
2016-06-26, 12:41:43
Man kann nicht immer alles testen oder wissen, aber man kann nachfragen und sich informieren. Wenn allerdings Leute wie Cruncher iwas in den Raum werfen und nicht antworten, dann ist das einfach nur ärgerlich. Ich hatte mich auf dem Tech Day bestimmt 20-30 min mit Terry Makedon über VSR unterhalten ...
Ist mir schon klar das man nicht alles testen kann. Das würde imho viel zu lange dauern.
Die Custom Design´s sollen in ca 1-2 Wochen auf dem Markt erscheinen ?
Dann muss ich noch solange warten :rolleyes:
dildo4u
2016-06-26, 12:44:17
Es erwartet doch keiner, dass die RX480 genau so schnell wird wie die 1070.
Wenn sie jedoch mit OC auch nur in die Nähe der 1070 kommt und grad mal ein bisscher mehr als die Hälfte kostet, dann wird die 480 ein Verkaufsrenner.
Sie kommt nicht in die nähe man kann Nvidia Flops nicht mit AMD Flops vergleichen,wäre das der Fall läge Fury pro vor der 1070.
Selbst eine 980 scheint pro Takt mehr Wums zu haben als die 480,hier bei 1.35Ghz kommt sie auf 3500 bei 3D Mark Ultra eine 480 auf 3000 mit vergleichbaren Takt.
980
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11078002&postcount=508
480
http://videocardz.com/61434/amd-radeon-rx-480-3dmark-analysis
horn 12
2016-06-26, 12:55:29
Dennoch 88 Grad bei etwa 2200 U/min sollte wirklich nicht kühl uns leise sein
Was hatte denn meine damalige HD 7970 an Umdrehungen auch wenn der Verbrauch fast der doppelte war... Weiss gar nicht mehr so recht....
Lurtz
2016-06-26, 12:57:39
Jo. VSR braucht keine bessere Performance, es braucht Flexibilität. Ich, der Richtung Vega schielt, wird das Ding nur zähneknirschend kaufen, wenn der Treiber keine Faktoren über 4K/UHD anbietet.
Stand jetzt ist nichts davon zu sehen, dass die RX 480 flexibler agiert als Radeons, die wir schon kennen. Das ist bei den meisten GPU-LCD-Kombinationen halb so wild, aber wer mal VSR mit mehr als 60 Hz, mit etwas exotischeren 16:10-LCDs oder 21:9 nutzen wollte, schaut seit jeher in die Röhre. Das ist einfach unnötig im Angesicht der Konkurrenz, die in jedem Fall die entsprechenden Multiplikatoren bietet. Da interessiert es mich auch wenig, dass VSR subjektiv manchmal das bessere Bild erzeugt.
AMD wirkt in dieser Hinsicht schon lange eigenartig auf mich. Enthusiastenfeatures werden eeewig lange nicht implementiert, proaktiv passiert in dieser Ecke fast nie etwas (SGSSAA mit Cypress zuletzt, das war 2009). Kommen sie doch, dann nach der Konkurrenz. Und unflexibler. Warum? Mir kann niemand erzählen, dass es mit großem Aufwand verbunden ist, höhere Auflösungen herunterrechnen zu lassen. Der Crimson kann es ja, das zeigen die gut funktionierenden Custom Resolutions. Geht halt nicht jenseits der nativen Auflöung. Und die Radeon Pro Duo beherrscht 2×2 OGSSAA ausgehend von UHD. Es ist alles da, man müsste es nur mal verfeinern.
Tja, gute Frage.
Freesync ist ja auch so ein Thema, die Hoffnung dass mit Polaris Fensterunterstützung und ähnliches kommt, kann man damit wohl bereits begraben.
Entweder es liegt am Willen, solche Features für die wenigen Poweruser konsequent umzusetzen, oder an der Manpower...
fondness
2016-06-26, 13:06:51
Hier gibt es ein Video von einer Polaris-Präsi:
dLUQ9G7wrEw
mboeller
2016-06-26, 13:09:00
Wovon redest du? :confused:
vielleicht meint er ja den ominösen Launch-Treiber 16.6.2 den Fottemberg und livebriand im RX480-Thread eingeworfen haben.
http://semiaccurate.com/forums/showthread.php?t=9014&page=215 (bis Seite 217)
fondness
2016-06-26, 13:10:16
Entweder es liegt am Willen, solche Features für die wenigen Poweruser konsequent umzusetzen, oder an der Manpower...
Am Willen mangelt es sicher nicht....
Kriton
2016-06-26, 13:16:31
Keine Leistungssteigerung gegenüber der momentanen oberen Mittelklasse bei nicht überragender Effizienz empfände ich aufgrund des Fertigungssprungs schon als Enttäuschung - gute Vorzeichen für Vega sind das auch nicht.
Hoffe dennoch dass die Karte ausgewogen wird und ihre Käufer findet, damit AMD endlich mal wieder ein paar Marktanteile gewinnen kann.
Ob das neue Overdrive wohl auch für ältere Modelle kommen wird, oder nur ab Polaris?
Eine 390(X) ist wohl kaum Mittelklasse.
y33H@
2016-06-26, 13:17:06
vielleicht meint er ja den ominösen Launch-Treiber 16.6.2 den Fottemberg und livebriand im RX480-Thread eingeworfen haben. Er sagt selbst: "However, I don't know if AMD has sent RX480 specific driver to some particular site/journalist" :freak:
Troyan
2016-06-26, 13:17:39
"WattMan" ist wirklich der offizielle Name für den Übertaktungstab.
Wer genehmigt so einen lächerlichen Namen?!
Emil_i_Lönneberga
2016-06-26, 13:18:10
Komprimierte Infos aus 20min Videomaterial:
http://videocardz.com/61456/video-presentation-of-radeon-rx-480-running-in-crossfire-leaked
dildo4u
2016-06-26, 13:21:25
Eine 390(X) ist wohl kaum Mittelklasse.
Natürlich selbst AMD hat noch zwei bis drei Karten über der 390X.
OBrian
2016-06-26, 13:22:15
Am Willen mangelt es sicher nicht....naja und Manpower? Wie viele Mannstunden müßte man denn investieren, um weitere Auflösungen bei VSR anzulegen? 5 min? Das Testen dauert wohl länger, aber doch auch nicht ewig.
Ich hatte mich auf dem Tech Day bestimmt 20-30 min mit Terry Makedon über VSR unterhalten ...und, ist der Gesprächsinhalt auch unter NDA (was bedeuten würde, da da was kommt^^)? Oder kannst Du einfach weitergeben, daß er gesagt hat "da kommt nix"?
Am Willen mangelt es sicher nicht....
AMD hat, Gerüchten zufolge, in den vergangenen Monaten einige Leute eingestellt – hoffentlich nicht nur beim Marketing. :D Im Ernst: Ich weiß nicht, wie AMD intern agiert, aber sowas gehört bei Strategie-Meetings mit dem Namen "Wie bringen wir Leute dazu, unsere Produkte zu kaufen?" ganz oben auf die Agenda. Es reicht nicht, auf die Open-Standard-Pauke zu hämmern und dort Jahre voraus zu sein, wenn der Kunde im Hier und Jetzt dadurch keinen Mehrwert erhält. Die meisten Leute kaufen neue Hardware, um sofort davon zu profitieren. Sei es von höheren Bildraten, endlich maximalen Details ohne Diashow oder einer höheren Auflösung. Vulkan- und DX12-Vorreiterschaft ist schön, bringt aber nur wenig. Nvidia macht auf diesen Gebieten solange nur das Nötigste, bis das Nest gemacht ist, und verschönert die Gegenwart derweil mit Dingen, die man wirklich gebrauchen kann. Nett ist das nicht, aber sehr clever und ökonomisch.
Mit den neuesten Crimson-Updates befindet sich die RTG definitiv auf dem richtigen Weg, denn die neue Oberfläche macht nicht nur Spaß, sie bietet auch reichlich Funktionen – vor allem nach dem "Wattman"-Update (siehe Postings oben). Jetzt fehlen nur noch ein paar Schmankerl für die kommende High-End-Kiste. Und da sollte AMD ohne Frage auf die Enthusiasten hören. Die Features können gern auch versteckt sein – Hauptsache, es geht.
MfG,
Raff
Kriton
2016-06-26, 13:24:22
Du musst deinen Job machen ist nicht meine Aufgabe ich reise eure sachen nur ausseinander und versuche mich von ihnen nicht blenden zu lassen teils sind eure daten dafür aber viel zu ungenau ;)
Bullshit!
Du wirfst eine Aussage in den Raum, die suggeriert, dass Da etwas ist, von dem du weißt, während Du nichts in der Hand hast. Das ist alles.
:uban:
kuj0n
2016-06-26, 13:26:38
Viele XFX RX 480 Bilder + Games/FPS/Watt Zahlen: http://imgur.com/a/3iTkS
Damit wäre meine Frage nach dem DVI Adapter auch beantwortet.
fondness
2016-06-26, 13:30:39
AMD hat, Gerüchten zufolge, in den vergangenen Monaten einige Leute eingestellt – hoffentlich nicht nur beim Marketing. :D
AMD hat aktuell nicht weniger als 539 unterschiedliche Stellenangebote ausgeschrieben - es wird also nach wie vor in hohem Maße eingestellt:
https://www.linkedin.com/vsearch/j?page_num=1&locationType=Y&f_C=1497&trk=jobs_biz_prem_all
Im Ernst: Ich weiß nicht, wie AMD intern agiert, aber sowas gehört bei größeren Meetings mit dem Namen "Wie bringen wir Leute dazu, unsere Produkte zu kaufen?" ganz oben auf die Agenda. Es reicht nicht, auf die Open-Standard-Pauke zu hämmern und dort Jahre voraus zu sein, wenn der Kunde im Hier und Jetzt dadurch keinen Mehrwert erhält. Die meisten Leute kaufen neue Hardware, um sofort davon zu profitieren. Sei es von höheren Bildraten, endlich maximalen Details ohne Diashow oder einer höheren Auflösung. Vulkan- und DX12-Vorreiterschaft ist schön, bringt aber nur wenig. Nvidia macht auf diesen Gebieten solange nur das Nötigste, bis das Nest gemacht ist, und verschönert die Gegenwart derweil mit Dingen, die man wirklich gebrauchen kann. Nett ist das nicht, aber sehr clever und ökonomisch.
Das ganze ist nicht immer so einfach, wie man sich das vielleicht vorstellt.
Mit den neuesten Crimson-Updates befindet sich die RTG definitiv auf dem richtigen Weg, denn die neue Oberfläche macht nicht nur Spaß, sie bietet auch reichlich Funktionen – vor allem nach dem "Wattman"-Update (siehe Postings oben). Jetzt fehlen nur noch ein paar Schmankerl für die kommende High-End-Kiste.
MfG,
Raff
Schmankerl für High-End-Kisten kommen sinnvollerweise eher mit den High-End-Karten^^
Lurtz
2016-06-26, 13:31:49
Eine 390(X) ist wohl kaum Mittelklasse.
Obere Mittelklasse. Was denn sonst?
Nvidia macht auf diesen Gebieten solange nur das Nötigste, bis das Nest gemacht ist, und verschönert die Gegenwart derweil mit Dingen, die man wirklich gebrauchen kann. Nett ist das nicht, aber sehr clever und ökonomisch.
nVidia bietet doch heute schon mehr Treiberfeatures unter DX12 als AMD (forcierbares AF etc.).
Und auch GSync arbeitet unter weit mehr Bedingungen als Freesync das tut (als Tearing-Geplagter in Doom 2016 kann ich davon ein Lied singen).
Skysnake
2016-06-26, 13:34:21
Habt ihr das eigentlich gesehen mit den 39,7W im WOW beim rumfliegen?
Kann es sein, dass die GPU zwar im Peak nicht so super duper ist, aber man gar nicht so oft den Peak sieht? Wäre eine Folge der deutlich ausgebauten PowerSafingFeatures.
Damit müsste man ganz klar zwischen average und max unterscheiden. Also trotz z.B. "100%" Last auf der GPU
Disco_STFU
2016-06-26, 13:34:51
Viele XFX 480 Bilder + Games/FPS: http://imgur.com/a/3iTkS
Damit wäre meine Frage nach dem DVI Adapter auch beantwortet.
Bei den Ingamewerten ist GTA 5 mit maximal 118 Watt das höchste. Die 147 sind wohl absoluter Stresstest oder halt Peakausreißer.
OBrian
2016-06-26, 13:35:11
Bullshit!
Du wirfst eine Aussage in den Raum, die suggeriert, dass Da etwas ist, von dem du weißt, während Du nichts in der Hand hast. Das ist alles.
:uban:
evtl. ist das einfach nur sprachliche Unfähigkeit, Konjunktiv und Indikativ zu unterscheiden. Ist ja möglich, immerhin hapert es bei der Interpunktion ja auch etwas...
Wie bei Fußballern, die nach dem verlorenen Spiel im Interview sagen "wenn ich den Ball in der 22. Minute reinmache, dann gewinnen wir das Spiel." :rolleyes: Da jehste kaputt bei!
Kriton
2016-06-26, 13:37:19
Natürlich selbst AMD hat noch zwei bis drei Karten über der 390X.
Obere Mittelklasse. Was denn sonst?
Und? Wenn wir mal in der Serie (Enthusiast, High-End, Performance, Mainstream, Low-Cost) bleiben, müsst Ihr mir noch mal erklären, wo die 390(X) Mainstream sein soll.:rolleyes:
dildo4u
2016-06-26, 13:37:51
Bei den Ingamewerten ist GTA 5 mit maximal 118 Watt das höchste. Die 147 sind wohl absoluter Stresstest oder halt Peakausreißer.
Was ließt das Tool eigentlich aus?Ich halte das für komplett nich zuverlässig sind das Schätzungen?
Und die GTA 5 Werte sind eh nutzlos da die GPU nichz ausgelastet wird das sind einfach Benches im CPU Limit.
-/\-CruNcher-/\-
2016-06-26, 13:40:19
Jo. VSR braucht keine bessere Performance, es braucht Flexibilität. Ich, der Richtung Vega schielt, wird das Ding nur zähneknirschend kaufen, wenn der Treiber keine Faktoren über 4K/UHD anbietet.
Stand jetzt ist nichts davon zu sehen, dass die RX 480 flexibler agiert als Radeons, die wir schon kennen. Das ist bei den meisten GPU-LCD-Kombinationen halb so wild, aber wer mal VSR mit mehr als 60 Hz, mit etwas exotischeren 16:10-LCDs oder 21:9 nutzen wollte, schaut seit jeher in die Röhre. Das ist einfach unnötig im Angesicht der Konkurrenz, die in jedem Fall die entsprechenden Multiplikatoren bietet. Da interessiert es mich auch wenig, dass VSR subjektiv manchmal das bessere Bild erzeugt.
AMD wirkt in dieser Hinsicht schon lange eigenartig auf mich. Enthusiastenfeatures werden eeewig lange nicht implementiert, proaktiv passiert in dieser Ecke fast nie etwas (SGSSAA mit Cypress zuletzt, das war 2009). Kommen sie doch, dann nach der Konkurrenz. Und unflexibler. Warum? Mir kann niemand erzählen, dass es mit großem Aufwand verbunden ist, höhere Auflösungen herunterrechnen zu lassen. :ugly: Der Crimson kann es ja, das zeigen die gut funktionierenden Custom Resolutions. Geht halt nicht jenseits der nativen Auflösung. Und die Radeon Pro Duo beherrscht 2×2 OGSSAA ausgehend von UHD. Es ist alles da, man müsste es nur mal verfeinern.
MfG,
Raff
Sagmal ehh wo ist der Sinn von above 4K DSR VSR in der Performance/Verbrauchs und Qualitäts Kurve bei der jetzigen Hardware du wirst feststellen es ist Quatsch.
Wirtschaftlich bescheuert damit kannst du schöne Screenshots machen aber praktikabel ist es in Realtime hinten und vorne nicht.
Und der mehrwert für Otto normal user ist = 0 (ausser das ihre investitionen steigen)
OBrian
2016-06-26, 13:40:36
Wenn man Tonga als "ungeplanten Unfall" ansieht, dann ist P10 doch eigentlich der direkte Nachfolger von Pitcairn. Hawaii ist doch nur runtergezogen worden mangels Ersatz wegen Ausfall der 20nm Node.
fondness
2016-06-26, 13:41:17
nVidia bietet doch heute schon mehr Treiberfeatures unter DX12 als AMD (forcierbares AF etc.).
Wen interessiert schon die Performance, oder das es bei nvidia unter DX12 tw. zu Abstürzen kommt, hautsache forcierbares AF.
Und auch GSync arbeitet unter weit mehr Bedingungen als Freesync das tut (als Tearing-Geplagter in Doom 2016 kann ich davon ein Lied singen).
Keine Ahnung was du unter "weit mehr" verstehst, aber bis auf den Fenstermodus ist das Blödsinn. Alles andere liegt schlicht am Monitor. Klar kann man dafür hunderte Euro mehr bezahlen, wenn man Geld wie Heu hat.
Kriton
2016-06-26, 13:42:00
Wenn man Tonga als "ungeplanten Unfall" ansieht, dann ist P10 doch eigentlich der direkte Nachfolger von Pitcairn. Hawaii ist doch nur runtergezogen worden mangels Ersatz wegen Ausfall der 20nm Node.
Ich würde sogar durchaus P10 mit Tonga vergleichen.
Knuddelbearli
2016-06-26, 13:42:23
Damit ist der Taktratensprung wohl langsam nicht mehr von der Hand zu weisen.
Wär auch seltsam, würde NV fast die doppelte Frequenz schaffen, unterschiedliche Architekturen hin oder her.
fast das doppelte?
1500mhz auf 2100mhz
sind eher +40% bei NV und nicht 100% ...
AMD hat aktuell nicht weniger als 539 unterschiedliche Stellenangebote ausgeschrieben - es wird also nach wie vor in hohem Maße eingestellt:
https://www.linkedin.com/vsearch/j?page_num=1&locationType=Y&f_C=1497&trk=jobs_biz_prem_all
:up:
Das ganze ist nicht immer so einfach, wie man sich das vielleicht vorstellt.
Gewiss. Und AMD spricht intern bestimmt über solche Dinge. Zumindest hoffe ich das. Meiner Meinung nach – und das ist jetzt die gleiche Kategorie wie "84 Millionen Bundestrainer" – fehlt da aber eine bessere Sichtweise für die Wünsche der Enthusiasten/Meinungsmultiplikatoren, verbunden mit einer besseren Long- und Short-term-Agenda. Fiji bot auch kein besseres VSR als Hawaii und Tonga, obwohl die GPU definitiv High-End-Rechenleistung besitzt. Okay, 5K, 6K und 8K sind hier aufgrund der Speicherlimitierung in neuen Spielen tabu, aber was ist mit dem Hunderten älteren Titeln, die man nach dem Aufrüsten auf die neue GPU hätte verschönern können?
Schmankerl für High-End-Kisten kommen sinnvollerweise eher mit den High-End-Karten^^
Siehe oben. Wenn mit dem neuen Major Release der Radeon Software endlich besseres VSR kommt, werden viele Kritiker verstummen. Aber das muss erst mal passieren. :)
Sagmal ehh wo ist der Sinn von above 4K DSR VSR in der Performance/Verbrauchs und Qualitäts Kurve bei der jetzigen Hardware du wirst feststellen es ist Quatsch.
Wirtschaftlich bescheuert damit kannst du schöne Screenshots machen aber praktikabel ist es in Realtime hinten und vorne nicht.
Und der mehrwert für Otto normal user ist = 0
Für die eine Gruppe ist's ein Feature für schöne Screenshots, für die Low-Fps-Gamer ein Holzhammer zwecks flimmerfreier Grafik. Nicht jeder spielt immer zeitnah die ungepatchten Neuerscheinungen. ;)
Nvidia Ansel, schon mal gehört? :D Das ist zwar auch noch ein Papiertiger, aber immerhin existiert er. Software sells Hardware.
MfG,
Raff
BlacKi
2016-06-26, 13:47:21
Bei den Ingamewerten ist GTA 5 mit maximal 118 Watt das höchste. Die 147 sind wohl absoluter Stresstest oder halt Peakausreißer.
yeeha meinte das sich die werte nur auf den asic bezieht und wandler und ram noch obendrauf kommen.
ich hab meine 970 mal auf 142w pt gestellt und hab damit 11900 punkte erreicht im graficscore im firestrike. im vergleich dazu liegt die 480 mit 147w und 12400punkten.
-/\-CruNcher-/\-
2016-06-26, 13:48:03
Nvidia Ansel das hatten wir schon vor x jahren das ist nichts neues es wird von Nvidia nur neu verpackt + HDR support zwecks Otto normal zu erreichen die es einfacher brauchen um loetztendlich nichts anderes zu machen als Werbung damit ;)
Zumal Bullshoots immernoch user absolut blenden und selbst Microsoft zugibt extra leute zu engagieren die auf Bullshoots spezialisiert sind.
Useless features was du alles ansprichst die 0 mehrwert für die Allgemeinheit darstellen und eher extra dazu genutzt werden andere zu benachteiligen.
Wer an solchen sachen Kaufentscheidungen festlegt hat sie nicht mehr alle an der Birne ;)
Und Pressevertreter die sowas pushen und als revolution darstellen gehören geteert und gefedert vor allem wenn sie damit den user zu einem Kauf quasi anregen wollen.
Wieso ist Carsten eigentlich nur noch selten hier ?
illidan
2016-06-26, 13:49:39
fast das doppelte?
1500mhz auf 2100mhz
sind eher +40% bei NV und nicht 100% ...
Kannst du im Kontext lesen? Es ging um die ~1,1Ghz von Hawaii vs. die 2,1Ghz von GP104.
Knuddelbearli
2016-06-26, 14:00:06
Meine Erwartungen:
Leistung ziemlich genau zwischen 970 und 980, hängt leicht an der Speicherbandbreite ( mehr als 1080 )
lässt sich gut OCen aber der Speicher limitiert. Erreicht teilweise die 980TI aber nur in Spielen die 0 am Speicher hängen ( zB 3Dmark und kA welche Spieler ^^ )
120W an der sie durch Boost klebt. PT bis 150W erhöhbar. 1266 wird selten bis nie erreicht.
Lurtz
2016-06-26, 14:09:43
Und? Wenn wir mal in der Serie (Enthusiast, High-End, Performance, Mainstream, Low-Cost) bleiben, müsst Ihr mir noch mal erklären, wo die 390(X) Mainstream sein soll.:rolleyes:
Wir brauchen es auch gar nicht zu labeln und die Aussage bleibt dennoch richtig.
Wen interessiert schon die Performance, oder das es bei nvidia unter DX12 tw. zu Abstürzen kommt, hautsache forcierbares AF.
:confused:
Der nVidia-Treiber kann in dem Bereich mehr, was hat das mit Stabilität zu tun.
Keine Ahnung was du unter "weit mehr" verstehst, aber bis auf den Fenstermodus ist das Blödsinn. Alles andere liegt schlicht am Monitor. Klar kann man dafür hunderte Euro mehr bezahlen, wenn man Geld wie Heu hat.
Ich hoffe das ist nicht der Qualitätsmaßstab bei AMD. Es ist ja billiger, also darf es auch schlechter sein.
Fenstermodus ist in Zeiten von Engines wie Unity, die meist keinen exklusiven Fullscreen unterstützen, schon ein großer Punkt.
Die LFC soll auch besser funktionieren und ist zudem nicht so eingeschränkt wie bei Freesync.
Weiß nicht wieso du so bissig reagierst, ich kaufe seit 2002 mit einer Ausnahme nur Radeons und wünsche mir einfach, dass ich die Produkte besser nutzen kann. Ich habe auch auf Freesync gesetzt, eben weil ich nicht Geld wie Heu habe. Dennoch würde ich Freesync gerne auch im Fenstermodus nutzen können.
Mag sein dass das Gras auf der anderen Seite manchmal grüner aussieht, als es ist, aber gewisse Dinge ziehen sich seit mittlerweile über einem Jahrzehnt durch.
Kriton
2016-06-26, 14:15:03
Wir brauchen es auch gar nicht zu labeln und die Aussage bleibt dennoch richtig.
Gibt es dazu auch ein Argument, oder verlegen wir uns jetzt auf: Nein, doch, nein, doch...? Dann wäre das für mich eod.
Agent117
2016-06-26, 14:19:22
147 Watt ist der Peakwert? Dann könnte der Durschnittsverbrauch ja trotzdem bei 120 liegen. Oder hab ich einen Denkfehler?
Im Test von Igor peakt eine 1070 ja auch knapp über 200.
Was wird da denn genau gemessen? Ist das nur der Chip oder die Stromaufnahme des gesamten PCBs? Wenn das nur der Chip ist kommen da nochmal 20 bis 25W Speicherchips und Wandlerverluste hinzu.
dildo4u
2016-06-26, 14:25:14
Meine Erwartungen:
Leistung ziemlich genau zwischen 970 und 980, hängt leicht an der Speicherbandbreite ( mehr als 1080 )
lässt sich gut OCen aber der Speicher limitiert. Erreicht teilweise die 980TI aber nur in Spielen die 0 am Speicher hängen ( zB 3Dmark und kA welche Spieler ^^ )
120W an der sie durch Boost klebt. PT bis 150W erhöhbar. 1266 wird selten bis nie erreicht.
Im 3D Mark liegt sie hinter der 980 wie soll sie dort an die 980 Ti kommen?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11080033&postcount=7935
Nvidia Ansel das hatten wir schon vor x jahren das ist nichts neues es wird von Nvidia nur neu verpackt + HDR support zwecks Otto normal zu erreichen die es einfacher brauchen um loetztendlich nichts anderes zu machen als Werbung damit ;)
Zumal Bullshoots immernoch user absolut blenden und selbst Microsoft zugibt extra leute zu engagieren die auf Bullshoots spezialisiert sind.
Useless features was du alles ansprichst die 0 mehrwert für die Allgemeinheit darstellen und eher extra dazu genutzt werden andere zu benachteiligen.
Wer an solchen sachen Kaufentscheidungen trifft hat sie nicht mehr alle an der Birne ;)
Und Pressevertreter die sowas pushen und als revolution darstellen gehören geteert und gefedert vor allem wenn sie damit den user zu einem Kauf quasi anregen wollen.
Wieso ist Carsten eigentlich nur noch selten hier ?
Du missverstehst mich, glaube ich. Das sind alles Beispiele. Dass VSR im Gegensatz zu DSR höchst unflexibel ist, bezieht sich nicht nur auf die Obergrenze UHD. Die tangiert mich persönlich und eventuell noch zehn andere Enthusiasten.
Aber (wie gesagt): Die Implementierung funktioniert auf vielen "normalen" Bildschirmen nur stark eingeschränkt oder gar nicht. Im Grunde ist man nur mit 60 Hz und 16:9 auf der sicheren Seite und am Rande dieses Pfades bekommt man Probleme mit Stolpersteinen. ;) Der Nvidia-Treiber frisst jeden Input und stellt die alle entsprechenden Multiplikatoren zur Verfügung – das ist benutzerfreundlich.
Ich habe nicht gesagt, dass Ansel der Heilsbringer ist – ich brauche das auch nicht –, das war nur ein Beispiel dafür, dass Nvidia Tools veröffentlicht, die in der Gegenwart einen Mehrwert bieten. Und sei es nur für eine Randgruppe oder für einen Halo-Effekt.
Zu Carsten: Nicht jeder Redakteur ist gewillt, sich den teils kuriosen Meinungen in jedem Forum 24/7 zu stellen. Das kostet Zeit und Nerven. Reines Lesen/Lurken ist die bessere Methode, um Informationen zu erhalten ohne sich in Diskussionen wie diese zu verstricken. ;)
MfG,
Raff
Knuddelbearli
2016-06-26, 14:39:38
Im 3D Mark liegt sie hinter der 980 wie soll sie dort an die 980 Ti kommen?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11080033&postcount=7935
Ich schrieb doch mit ( max ) OC
Raff
980 ist besser als 480?
dildo4u
2016-06-26, 14:57:06
Ich schrieb doch mit ( max ) OC
Das ist mit max OC 3000 Punkte mit 1380mhz laut Raff ging sein Modell auch nich bis 1.4Ghz.
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/442202-radeon-rx-480-neu-im-testlabor-test-am-29-juni-56.html#post8297454
uweskw
2016-06-26, 14:58:03
Meine Erwartungen:
Leistung ziemlich genau zwischen 970 und 980, hängt leicht an der Speicherbandbreite ( mehr als 1080 )
lässt sich gut OCen aber der Speicher limitiert. Erreicht teilweise die 980TI aber nur in Spielen die 0 am Speicher hängen ( zB 3Dmark und kA welche Spieler ^^ )
120W an der sie durch Boost klebt. PT bis 150W erhöhbar. 1266 wird selten bis nie erreicht.
http://imgur.com/a/3iTkS
da liegt sie doch schon ohne OC bei 1328MHz.
Wie kann das im letzten Screenshot sein? 100% GPU-Load und nur 848MHz bei 64Grad. Gibt es im CPU-Limit 100% GPU-Load?
greetz
US
dildo4u
2016-06-26, 15:02:06
http://imgur.com/a/3iTkS
da liegt sie doch schon ohne OC bei 1328MHz.
Wie kann das im letzten Screenshot sein? 100% GPU-Load und nur 848MHz bei 64Grad. Gibt es im CPU-Limit 100% GPU-Load?
greetz
US
Nur Firestrike Ultra ist komplett GPU limitiert das ist der einzig verlässliche Bench.
Knuddelbearli
2016-06-26, 15:07:58
einem Imgur bild glauben? eher nicht :-/
Außerdem steht da doch Black OC ...
und PCGH testet ja bisher mit Standardkühler und deshalb auch ziemlich sicher ohne Spannungserhöhung das muss erstmal nix aussagen.
Wie gesagt das meine Schätzung ohne die letzten 40 Seiten gelesen zu haben ( hab heute bei Seite 333 gestartet und lese mich gerade durch ). Wer mich dafür angehen mag darf gerne selber mal was posten was seine Meinung ist.
-/\-CruNcher-/\-
2016-06-26, 15:16:40
Du missverstehst mich, glaube ich. Das sind alles Beispiele. Dass VSR im Gegensatz zu DSR höchst unflexibel ist, bezieht sich nicht nur auf die Obergrenze UHD. Die tangiert mich persönlich und eventuell noch zehn andere Enthusiasten.
Aber (wie gesagt): Die Implementierung funktioniert auf vielen "normalen" Bildschirmen nur stark eingeschränkt oder gar nicht. Im Grunde ist man nur mit 60 Hz und 16:9 auf der sicheren Seite und am Rande dieses Pfades bekommt man Probleme mit Stolpersteinen. ;) Der Nvidia-Treiber frisst jeden Input und stellt die alle entsprechenden Multiplikatoren zur Verfügung – das ist benutzerfreundlich.
Ich habe nicht gesagt, dass Ansel der Heilsbringer ist – ich brauche das auch nicht –, das war nur ein Beispiel dafür, dass Nvidia Tools veröffentlicht, die in der Gegenwart einen Mehrwert bieten. Und sei es nur für eine Randgruppe oder für einen Halo-Effekt.
Zu Carsten: Nicht jeder Redakteur ist gewillt, sich den teils kuriosen Meinungen in jedem Forum 24/7 zu stellen. Das kostet Zeit und Nerven. Reines Lesen/Lurken ist die bessere Methode, um Informationen zu erhalten ohne sich in Diskussionen wie diese zu verstricken. ;)
MfG,
Raff
Dann muss man hinterfragen wieso es Unflexibel ist dahinter verbirgt sich ein Grund und auf diesen hättest du den AMDler mal beim Tech Day ansprechen müssen.
Und so lange es bis 60 FPS funktioniert ist das auch kein großer Grund es zu negativieren above ist nice aber Wirtschaftlich wieder fragwürdig ob das alleine den Aufpreis von Nvidia rechtfertigt nuss natürlich jeder für sein User verhalten selbst entscheiden ;)
captain_drink
2016-06-26, 15:20:03
Keine Ahnung was du unter "weit mehr" verstehst, aber bis auf den Fenstermodus ist das Blödsinn. Alles andere liegt schlicht am Monitor. Klar kann man dafür hunderte Euro mehr bezahlen, wenn man Geld wie Heu hat.
Fehlende oder zumindest fehlerhafte OGL-Unterstützung von FS liegt also am Monitor?
-/\-CruNcher-/\-
2016-06-26, 15:24:56
So gesehen ist das eben ein Vorteil von Nvidias FPGA dafür zahlst du ja auch den ordentlichen Aufpreis innerhalb Nvidias Ökosystems es erlaubt sehr viel Flexibler zu sein.
AMD muss teils wunder vollbringen um die Kosten niedrig zu halten ;)
illidan
2016-06-26, 15:28:28
So gesehen ist das eben ein Vorteil von Nvidias FPGA dafür zahlst du ja auch den ordentlichen Aufpreis innerhalb Nvidias Ökosystems es erlaubt sehr viel Flexibler zu sein.
Eben nicht, OGL-Support ist eine reine Software-Sache, genau wie Randlosmodus oder AF forciert für DX12...
Digidi
2016-06-26, 15:29:04
AMD hat, Gerüchten zufolge, in den vergangenen Monaten einige Leute eingestellt – hoffentlich nicht nur beim Marketing. :D Im Ernst: Ich weiß nicht, wie AMD intern agiert, aber sowas gehört bei Strategie-Meetings mit dem Namen "Wie bringen wir Leute dazu, unsere Produkte zu kaufen?" ganz oben auf die Agenda. Es reicht nicht, auf die Open-Standard-Pauke zu hämmern und dort Jahre voraus zu sein, wenn der Kunde im Hier und Jetzt dadurch keinen Mehrwert erhält. Die meisten Leute kaufen neue Hardware, um sofort davon zu profitieren. Sei es von höheren Bildraten, endlich maximalen Details ohne Diashow oder einer höheren Auflösung. Vulkan- und DX12-Vorreiterschaft ist schön, bringt aber nur wenig. Nvidia macht auf diesen Gebieten solange nur das Nötigste, bis das Nest gemacht ist, und verschönert die Gegenwart derweil mit Dingen, die man wirklich gebrauchen kann. Nett ist das nicht, aber sehr clever und ökonomisch.
Mit den neuesten Crimson-Updates befindet sich die RTG definitiv auf dem richtigen Weg, denn die neue Oberfläche macht nicht nur Spaß, sie bietet auch reichlich Funktionen – vor allem nach dem "Wattman"-Update (siehe Postings oben). Jetzt fehlen nur noch ein paar Schmankerl für die kommende High-End-Kiste. Und da sollte AMD ohne Frage auf die Enthusiasten hören. Die Features können gern auch versteckt sein – Hauptsache, es geht.
MfG,
Raff
Falsch! Ich möchte kein Produkt haben was jetzt Leistung bietet, sondern ein Produkt das über lange Zeit Leistung bietet.
Die meisten rx 480 Käufer waren nämlich über viele Jahre hinweg mit alten Gpus unterwegs und peilen dies wieder an so lange wie möglich zu nutzen! Was bringt mir da die schnellebigkeit von Nvidia die zwar im ersten Moment den längsten Balken haben dann aber steil Abstürzen!
Ich würde mir gerne mal Übrigens von allen Medien wünschen das sie mal Untersuchen wie Gpus in Sachen Leistung gealtert sind. Da kommt nämlich erstaunliches bei Amd raus, zB das die 290x die 3 Jahre alter ist als die 980 in dx11 gleichauf ist und dx12 sogar davon läuft!
Zu Vsr gab bestimmt statistische Erhebungen wer VSR auf 19:10 / 21:9 nutzt. Das war zu gering und braucht kein Normaler User!
illidan
2016-06-26, 15:32:50
Geht überhaupt VSR mit 1080p 75Hz? Mit 1440p 75Hz geht gar nichts.
Bei NV geht 4x bei 5k@1440p mit 144Hz...
dildo4u
2016-06-26, 15:34:19
Ich würde mir gerne mal Übrigens von allen Medien wünschen das sie mal Untersuchen wie Gpus in Sachen Leistung gealtert sind. Da kommt nämlich erstaunliches bei Amd raus, zB das die 290x die 3 Jahre alter ist als die 980 in dx11 gleichauf ist und dx12 sogar davon läuft!
CB hat doch ein aktuellen Nachtest.
http://www.computerbase.de/thema/grafikkarte/rangliste/
Die AMD's kommen dichter in hoher Auflösung bringt aber wenig da die Grundleistung schon für 1440p bei aktuellen Games(The Division,Tomb Raider 2016,Hitman,Witcher 3) zu gering ist,alles unter der Fury Pro würde ich als 1080p Karte einordnen.
Witcher 3 neues Addon in 1440p.
http://abload.de/img/wicther5nmsxa.png
http://www.pcgameshardware.de/The-Witcher-3-Spiel-38488/Specials/The-Witcher-3-Blood-Wine-Preview-1196452/
Dino-Fossil
2016-06-26, 15:35:17
Was die bessere Alterung bei AMD angeht:
Ist ohne Frage eine tolle Sache, liegt sicherlich zu einem guten Teil z.B. an der großzügigeren Speicherausstattung, zeigt aber auch, dass AMDs Treiber-Abteilung in den letzten Jahren etwas hinterher hinkte.
Mit Crimson scheinen sie ja endlich zu versuchen, konstant auch die Treiberentwicklung am laufen zu halten (und nicht nur punktuell wie mit gelegentlichen "Omega" Treibern).
Digidi
2016-06-26, 15:38:14
CB hat doch ein aktuellen Nachtest.
http://www.computerbase.de/thema/grafikkarte/rangliste/
Die AMD's kommen dichter in hoher Auflösung bringt aber wenig da die Grundleistung schon für 1440p bei aktuellen Games zu gering ist,alles unter der Fury Pro würde ich als 1080p Karte einordnen.
Die Rangliste ist für die Tonne da immer nur die ersten Benchmarks mit altem Treiber eingehen du lernst es nie dildo4u!
Das ist übrigens ein Unding von Computerbase das sie nicht alle Karten nochmals neu mit neuem Treiber testen sondern erst mal alte Ergebnisse verwenden!
Recycling Benchmarks sind nämlich 0 aussagekräftig!
Und The Witcher als Gameworks Spiel Nr1 kannst du mal vorkommen als Vergleich vergessen wobei auch hier die 780ti voll verliert gegen eine 390x (ehemals 290x) und das obwohl die 780ti 3% mehr Takt hat!
Star Wars Battlefront ist relative neutral da Ea will das die Spiele auf allen Karten gut laufen:
http://www.techspot.com/review/1174-nvidia-geforce-gtx-1080/page4.html
-/\-CruNcher-/\-
2016-06-26, 15:38:51
Eben nicht, OGL-Support ist eine reine Software-Sache, genau wie Randlosmodus oder AF forciert für DX12...
Ja Windowed support ist ein Compositor Hack in wie weit dort allerdings der FPGA eine rolle spielt kann man sich trotzdem mal hinterfragen das ding feder eine Menge overhead ab mit der AMD kämpfen muss ;)
Das ganze bezahlt ihr eben auch extra ;)
Die Nützlichkeit über forciertes AF für den AVG user da können wir ja streiten auch nice gimmick aber es sollte erst garnicht benötigt werden ;)
dildo4u
2016-06-26, 15:48:02
Die Rangliste ist für die Tonne da immer nur die ersten Benchmarks mit altem Treiber eingehen du lernst es nie dildo4u!
Das ist übrigens ein Unding von Computerbase das sie nicht alle Karten nochmals neu mit neuem Treiber testen sondern erst mal alte Ergebnisse verwenden!
Recycling Benchmarks sind nämlich 0 aussagekräftig!
Sie Testen Games die zum Launch der 290X gar nich raus waren natrülich wurden da aktuellere Treiber genutzt und die Wunder Treiber der besser DX11 Performance bringen gibt es nicht und das weißt du.
Der Witcher 3 Bench ist z.b mit aktuellen Treibern.
Digidi
2016-06-26, 15:53:24
Sie Testen Games die zum Launch der 290X gar nich raus waren natrülich wurden da aktuellere Treiber genutzt und die Wunder Treiber der besser DX11 Performance bringen gibt es nicht und das weißt du.
Der Witcher 3 Bench ist z.b mit aktuellen Treibern.
Dann zeig doch mal wo in deinem verlinkten Test von Computerbase einzeln die Spiele aufgeführt sind? Das sind sie nämlich nicht. Da werden Werte aus alten Tests einfach wild in Korrelation gesetzt! Da gehen eben nicht die neusten Spiele und Treiber ein!
Loeschzwerg
2016-06-26, 15:56:20
Untermauere du doch bitte erst einmal deine Behauptung, dann könnt ihr weiter reden ;)
Es ist schon eher wie Dino-Fossil es geschrieben hat.
illidan
2016-06-26, 15:56:41
Due nützlichkeit über forciertes AF für den AVG user da können wir ja streiten auch nice gimmick abser es sollte erst garnicht benötigt werden ;)
A-Sync für borderless sollte auch gar nicht erst benötigt werden, weil jedes Spiel exklusiven Vollbild anbieten sollte.
Nur ist sollte nicht ist. Was sein sollte, nützt mir als Kunde gar nichts. Eigentlich sollte auch schon längst jedes Spiel DX12 mit perfekter Async Compute Nutzung anbieten...
Digidi
2016-06-26, 16:02:44
Untermauere du doch bitte erst einmal deine Behauptung, dann könnt ihr weiter reden ;)
Es ist schon eher wie Dino-Fossil es geschrieben hat.
Erkennst du hier ran eine 290x wurde bei der Gtx 1080 gar nicht mehr mit getestet taucht aber in der Übersicht auf!?
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/#diagramm-performancerating-1920-1080
-/\-CruNcher-/\-
2016-06-26, 16:06:53
A-Sync für borderless sollte auch gar nicht erst benötigt werden, weil jedes Spiel exklusiven Vollbild anbieten sollte.
Nur ist sollte nicht ist. Was sein sollte, nützt mir als Kunde gar nichts. Eigentlich sollte auch schon längst jedes Spiel DX12 mit perfekter Async Compute Nutzung anbieten...
Das sind Microsofts Entscheidungen das hat nichts mit IHVs oder Entwicklern zu tun die müssen es nur umsetzen ;)
Und man hört doch überall das jetzt alles super duper mit Freesync und G-sync läuft sollte doch jetzt mit Einführung des intermidiate Flip ?
MadPenguin
2016-06-26, 16:07:51
Billiger? Sehe weit und breit nichts davon, zur erinnerung gp106 dürfte kleiner sein und nur 192bit 6gb haben. Was ist in der herstellung wohl billiger?
Der unterschid liegt nur daran das nv für seine karten mehr verlangen kann, und dabei noch mal mehr verdient.
Referenzmodell und Custom-OC Modelle sind zwei verschiedene Welten. Customs sind sicherlich in Reichweite einer Standard 1070. Nvidia kann solche Preise verlangen, weil es genig Leute gibt, die bereit sind (meiner Meinung nach schwachsinnigerweise) dafür zu zahlen.
dildo4u
2016-06-26, 16:08:17
Erkennst du hier ran eine 290x wurde bei der Gtx 1080 gar nicht mehr mit getestet taucht aber in der Übersicht auf!?
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/#diagramm-performancerating-1920-1080
Da ist eine 390X so schnell wie die 980 wie soll dann die 290X auf den selben Speed kommen.
CB hat seit einiger Zeit immer einen aktuellen "Benchmarks und Methodik" Artikel, der aktuell gehalten wird und prominent auf der Themenseite zu Grafikkarten verlinkt wird.
Dort stehen neben allen getesteten Spielen, die in den Performanceindex eingehen, und deren Einstellungen sowohl die tatsaechlich getesteten Taktraten der einzelnen Karten (daher kommt ja auch die "OC-Karte") als auch die Treiberversionen usw., also wirklich so ziemlich alles was man braucht.
http://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/
Das hatten wir aber auch hier schon mehrfach.
:rolleyes:
Selbstverstaendlich testen sie nach und uebernehmen nicht die Werte aus dem originalen Test von 2013.
290X vor GTX 980 ist, bis auf wenige scharf selektierte Ausnahmen, Unsinn.
MfG,
Raff
Loeschzwerg
2016-06-26, 16:09:58
@Digidi: Ich meinte diese Behauptung (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11080195&postcount=7982) ^^ Wo stürzen die NV denn besonders ab, wenn nicht gerade der Speicher limitiert?
Digidi
2016-06-26, 16:14:52
290X vor GTX 980 ist, bis auf wenige scharf selektierte Ausnahmen, Unsinn.
MfG,
Raff
Ich hab ja geschrieben nicht besser sondern fast gleich stark. Nur der refenzkuler der 290x verhindert noch näher an der gtx 980 zu sein. Sieht man ja an der 390x. Außerdem meinte ich es in Bezug zur 780ti, die 980 sollte lediglich zur Eingruppierung der Leistung dienen!
AlphaNUSS
2016-06-26, 16:20:02
Also fast alle Leute die ich kenne und die am Pc spielen (5 an der Zahl), werden mit der 480 von Nvidia auf AMD wechseln. Das sind alles 560, 570 und 660 Besitzer, die ihre Karte sehr lange benutzen und nicht mehr als ~300€ ausgeben wollen und für solche Leute ist die 480 perfekt. Die interessieren sich auch nicht für Ansel und den ganzen "Quatsch".
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.