Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10
Dural
2016-06-21, 15:34:16
Wenn es leise ist, ist es schon OK.
Wenns via Furmark oder ähnlichem gemacht wurde, eher drunter als mehr.
Selten eine derartige Dauerlast in Games.
Troyan
2016-06-21, 15:35:17
Ist ein Grad Kühler als die GTX1070, die Chiphell ebenfalls gemessen hat.
hesTeR-
2016-06-21, 15:35:39
man weiß ja auch nicht auf wieviel % der lüfter läuft.
Dural
2016-06-21, 15:37:10
ich hoffe mal auf Auto ;)
krissbay
2016-06-21, 15:40:23
80° ist doch vollkommen ok.
nicht wirklich. Man hat eben nicht mehr so viel Raum für Overclocking :mad:
AlphaNUSS
2016-06-21, 15:41:36
Dann lässt man den Lüfter halt etwas schneller drehen. 80° ist doch relativ normal bei den meisten Karten.
Screemer
2016-06-21, 15:42:15
Schon wieder Word rumgeheult obwohl die Randbedingungen niemand kennt... wie troyan schon schrieb wird auch ne 1070 so warm und da ist keineuft für oc? Haltet mal den Ball flach.
X.Perry_Mental
2016-06-21, 15:43:43
nicht wirklich. Man hat eben nicht mehr so viel Raum für Overclocking :mad:
Warum das? Wenn 80°C die Zieltemperatur ist, wird der Lüfter eben so geregelt, dass diese Temperatur nicht überschritten wird. Das Delta fürs OC wird dann bei der jeweiligen Zieltemperatur über die maximalen RPM des Lüfters definiert.
Dino-Fossil
2016-06-21, 15:45:20
Ich glaube das Referenzdesing läuft beim Overclocking eher ins Powerlimit als ins Temperaturlimit.
Dural
2016-06-21, 15:47:04
Das PL ist bei AMD eigentlich immer recht hoch.
Wenn der Lüfter etwas Power hat wird man mit etwas OC und 100% Lüfter schon um die 70°C kommen, das reicht aus.
hesTeR-
2016-06-21, 15:50:02
aber es ist ja so schon relativ limitiert durch die 1x6 pin 75w und 50-75w vom pcie
wenn die Karte natürlich stock nur 75w verbraucht wäre es nicht limitierend.
M4xw0lf
2016-06-21, 15:50:56
https://youtu.be/4LBCCt4dejM
Interessant, die Spannungswandler sind lange kühler als die GPU.
Screemer
2016-06-21, 15:53:32
Ich bin mir ja ziemlich sicher, dass die Karte max. 50w aus dem oeg nuckelt. Der 6pin wird eher stärker belastet als spezifiziert.
Dural
2016-06-21, 16:00:43
Ihr immer mit euren PCI-E Stecker :rolleyes:
Ich hatte mal ca. 450Watt gemessen bei einer Ref. 290X @ 1200MHz @ 100% Lüfter bei einer GPU Temp über 90°C :freak::freak::freak:
OK die Karte ist durch die schwache Kühlung später mal kaputt gegangen... :wink:
500 nun 450. Mit was denn gemessen :D?
Steckdose?
Soviel krieg ich im LN2 Bios und 2x 8pin und 1x6pin mit noch mehr Takt nicht hin :P
aber es ist ja so schon relativ limitiert durch die 1x6 pin 75w und 50-75w vom pcie
wenn die Karte natürlich stock nur 75w verbraucht wäre es nicht limitierend.
Da ist gar nichts limitiert.
Ein 6-pin PEG-Connector, sofern alle drei +12V Kabel vorhanden sind, was bei meinem Netzteil, als auch bei meiner HD 7970 abgerufen wird, liefert mit standard terminals die für 8 Ampere freigegeben sind 288 Watt.
HCS terminals, freigegeben für 11A - 396W.
Plus HCS terminals 12A - 432W.
Der Limitierende Faktor ist allein das Netzteil und die MOSFETS.
Flusher
2016-06-21, 16:50:02
Da ist gar nichts limitiert.
Ein 6-pin PEG-Connector, sofern alle drei +12V Kabel vorhanden sind, was bei meinem Netzteil, als auch bei meiner HD 7970 abgerufen wird, liefert mit standard terminals die für 8 Ampere freigegeben sind 288 Watt.
HCS terminals, freigegeben für 11A - 396W.
Plus HCS terminals 12A - 432W.
Der Limitierende Faktor ist allein das Netzteil und die MOSFETS.
Und die Kabel und die Stecker
Dural
2016-06-21, 17:12:27
Ja, die Stromversorgung/Netzteil ist entscheident und sicher nicht die Kabel.
@Isen
Wenn du schon mit LN2 gespielt hast solltes du wissen das es von der Leistungsaufnahme her zwischen -190°C oder plus 90°C extreme unterschide gibt.
Gemessen an der Steckdose im Vergleich zu einer GTX780Ti mit 350Watt modBios im selben System.
Und die Kabel und die Stecker
Terminals sind die Stecker.
Für 11A reicht ein Kupferkabel mit einem Durchmesser von 1.024mm (AWG 18).
Für 13A - 1.291mm (AWG 16).
Hakim
2016-06-21, 17:18:33
Wieso nicht gleich 1x 8 Pin oder 2x 6 Pin um sicher zu gehen, wenn es denn mit 1x 6Pin nicht viel Spielraum gibt?
krissbay
2016-06-21, 17:20:35
Wieso nicht gleich 1x 8 Pin oder 2x 6 Pin um sicher zu gehen, wenn es denn mit 1x 6Pin nicht viel Spielraum gibt?
Weil es für das Marketing besser ist. das vermittelt den Eindruck dass die Karte weniger Strom verbraucht selbst wenn sie mit 2*8 Pin das gleiche verbrauchen würde.
@Isen
Wenn du schon mit LN2 gespielt hast solltes du wissen das es von der Leistungsaufnahme her zwischen -190°C oder plus 90°C extreme unterschide gibt.
Gemessen an der Steckdose im Vergleich zu einer GTX780Ti mit 350Watt modBios im selben System.
Ah.... jetzt wird ein Schuh draus. Steckdose - Netzteil Effizienz, deutlich langsamere Erfassung des Messgerätes (mhz) dessen = Stromverbrauch der 290x. Interessant. Jetzt weiß ich, woher die ganzen Watt-Angaben kommen die so durch das Netz getrollt werden/wurden (die solche Angaben aufschnappen)
Nein LN2 ist der Name des Bios der Lightning die mit dem Stock LüfterKühler bei ca 92°c auf 1300mhz lief ;)
fondness
2016-06-21, 17:25:26
Das ist offenbar die erweiterte Tweaking-Funktion der Radeon Settings. Links oben Lüfterkurve? Ansonsten kann ich nicht viel erkennen.
Sehr gut, endlich die ganzen Probleme mit Afterburner umgehen, indem man das Tool überflüssig macht für AMD User.
Dural
2016-06-21, 17:27:48
@Isen
Wie gesagt, im Vergleich zu einer GTX780Ti mit 350Watt modBios. Und man weis genau das NV Karten das PT ziemlich gut einhalten.
Und nicht umsonst habe ich ca. geschriben. :rolleyes::rolleyes::rolleyes:
Übrigens auf der 3870 mit einen 6-Pin PCI-E Stecker hatte ich mal 1,75Volt auf der GPU mit Hardware Mod und OVP Mod, bin mir nicht mehr sicher aber ich glaube es waren 1400MHz auf der GPU. Auch das lief ohne Problem. Die Karte habe ich bis heute in meiner Sammlung.
Sorry aber wer sagt das die PCI-E Stecker limitieren hat keine ahnung. Da brennen die SPW vorher durch bevor an den Stecker überhaupt was passiert. Beziehungsweisse die Stromversorgung ist so am Anschlag das die Karte nicht mehr Stabil läuft.
illidan
2016-06-21, 17:28:30
Sehr gut, endlich die ganzen Probleme mit Afterburner umgehen, indem man das Tool überflüssig macht für AMD User.
Oder das genaue Gegenteil, bei Afterburner stellt sich jedenfalls die Lüftereinstellung nicht ohne Zutun von selbst auf den niedrigsten Wert...
Das Programm läuft hier völlig problemlos, diese Unwinder-Schelte ist völlig unangebracht.
Um das ca geht es mir gar nicht. Es geht mir darum, dass man nicht mal erwähnt hat, dass das Gesamtsystem gemeint war. Und du zuerst 500W geschrieben hast und nachträglich ca 450W geschrieben. Da läuten bei mir halt die Glocken, wenn mist gemessen wird.
@OC Tool. Vlt. ähnliche Feature vorhanden wie bei den CPUs, also das ermitteln des machbaren OC Wertes?
AMDGPU DRM Driver Updates To Work With Production Polaris GPUs (http://www.phoronix.com/scan.php?page=news_item&px=AMDGPU-Polaris-Updates)
Phoronix
Der Code sollte es noch in Linux 4.7 oder eines der folgenden Pointreleases schaffen.
Dural
2016-06-21, 17:35:08
Um das ca geht es mir gar nicht. Es geht mir darum, dass man nicht mal erwähnt hat, dass das Gesamtsystem gemeint war. Und du zuerst 500W geschrieben hast und nachträglich ca 450W geschrieben. Da läuten bei mir halt die Glocken, wenn mist gemessen wird.
Ich habe mich verschieben, na und?
Das einzige was ich mit dem Vergleich sagen wollte ist, das man weit aus mehr Strom über die Stecker bringt als es auf dem Blatt steht Punkt.
fondness
2016-06-21, 17:39:55
Oder das genaue Gegenteil, bei Afterburner stellt sich jedenfalls die Lüftereinstellung nicht ohne Zutun von selbst auf den niedrigsten Wert...
Das Programm läuft hier völlig problemlos, diese Unwinder-Schelte ist völlig unangebracht.
Es werden AMD immer wieder vermeidliche Treiberprobleme gemeldet, die sich letztlich als Probleme mit Afterburner, etc. heraus stellen. Externe Tools sind immer ein Kompromiss, zum Spaß integriert man das ganze nicht in den Treiber.
illidan
2016-06-21, 17:48:48
Es werden AMD immer wieder vermeidliche Treiberprobleme gemeldet, die sich letztlich als Probleme mit Afterburner, etc. heraus stellen. Externe Tools sind immer ein Kompromiss, zum Spaß integriert man das ganze nicht in den Treiber.
Einige Probleme liegen aber ganz klar bei AMD. So ein Klassiker war/ist, dass das CCC/Crimson-Panel nach dem Anmelden einfach die Lüftersteuerung überschrieben hat, wenn man mit Afterburner eine Custom-Kurve nutzt.
Hoffentlich gibts in Crimson dann auch eine Hysterese-Funktion, das bieten bislang nur Afterburner und SpeedFan.
Screemer
2016-06-21, 17:51:37
Terminals sind die Stecker.
Für 11A reicht ein Kupferkabel mit einem Durchmesser von 1.024mm (AWG 18).
Für 13A - 1.291mm (AWG 16).
Natürlich ein Bringer, wenn sich von den Ports langsam das ganze pcb aufheizt. Da hat Igor (wenn ich nicht richtig erinnere) ein paar schöne thermalaufnahmen gemacht, wenn die ports höher als in der pcie-spec stehen belastet werden. Die machen das ja nicht zum Spaß, auch wenn die Terminals selbst für mehr ausgelegt sind.
dargo
2016-06-21, 17:52:10
Das Programm läuft hier völlig problemlos, diese Unwinder-Schelte ist völlig unangebracht.
Tja... leider nicht bei jedem.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=566187
fondness
2016-06-21, 17:56:56
Einige Probleme liegen aber ganz klar bei AMD. So ein Klassiker war/ist, dass das CCC/Crimson-Panel nach dem Anmelden einfach die Lüftersteuerung überschrieben hat, wenn man mit Afterburner eine Custom-Kurve nutzt.
Ein Treiber kann nicht alle möglichen externen Hacks berücksichtigen.
Screemer
2016-06-21, 18:01:20
Ein Treiber kann nicht alle möglichen externen Hacks berücksichtigen.
Auserdem liegt sein sog. Klassiker def. am ab. Der Fehler tritt bei Installation eines Treibers auf und auch nur wenn man ab nicht zurücgesetzt und waren der Installation deaktiviert hat. Ist doch nicht AMDs Problem, wenn unwider da keine Routine integriert die die Lüfterkurve im Anschluss wieder setzt.
Bin im übrigen unwinder-tool-nutzer seit es Rivatuner gibt und nutze auch ab noch immer und zwar völlig problemlos. Hauptsache es ist AMDs fuckup.
M4xw0lf
2016-06-21, 18:03:35
Sehr gut, endlich die ganzen Probleme mit Afterburner umgehen, indem man das Tool überflüssig macht für AMD User.
Solange es auch zuverlässig funktioniert. ;)
dargo
2016-06-21, 18:07:26
Sehr gut, endlich die ganzen Probleme mit Afterburner umgehen, indem man das Tool überflüssig macht für AMD User.
Naja... soweit würde ich jetzt nicht gehen. Der AB wäre für mich dennoch unverzichtbar. Ich glaube kaum, dass ich mit dem Treiber diverse Sachen über das OSD überwachen kann. Frametimes wirst du höchstwahrscheinlich auch nicht mitloggen können.
Screemer
2016-06-21, 18:14:39
Naja... soweit würde ich jetzt nicht gehen. Der AB wäre für mich dennoch unverzichtbar. Ich glaube kaum, dass ich mit dem Treiber diverse Sachen über das OSD überwachen kann. Frametimes wirst du höchstwahrscheinlich auch nicht mitloggen können.
Dafür brauchst du doch kein ab. Da reicht der rtss und dazu hwmonitor oder ein anderes Tool mit rtss-anbindung. Rtss ist halt wirklich cool. Erst recht seit dem man die Systemzeit einblenden kann. Das hab ich mir sooooo lange gewünscht.
Unter Linux kann man übrigens mit dem (freien) AMD-Treiber das eingebaute GALLIUM_HUD als Auslastung/Temperatur/VRAM/FPS/usw. als OSD nutzen. Das sieht dann zum Beispiel so aus: GALLIUM_HUD (https://kparal.files.wordpress.com/2014/03/gallium-fraps.jpg) - ist aber sehr konfigurierbar.
Aber ja, die Idee ist natürlich unter Windows soviel wie möglich in den Treiber zu packen, aus genau den Gründen, die fondness genannt hat.
Mortalvision
2016-06-21, 18:24:04
https://www.youtube.com/watch?v=H4PdfidVlpc
Eine 480 am Laufen. Kann wer Chinesisch/Koreanisch?
https://www.youtube.com/watch?v=f92N1AsYtgs
Eine nette Zusammenfassung der letzten Leaks für alle Lesefaulen!
Das war heute Mittag schon live da, da ist nicht passiert bis auf die kurze Sichtung des neuen OC Panels
-/\-CruNcher-/\-
2016-06-21, 18:57:42
80° ist doch vollkommen ok.
Witzig 1266 Mhz und nun auch die selben 80 *C die mit einer relativ biligen GTX 970 OC Dual Fan Lösung mit 4 Heatpipe bei 2000 rpm anliegen aber der haupt unterschied ist hier 28nm vs 14nm der Energieoutput scheint ~20W niedrieger wenn das 150W waren ;).
illidan
2016-06-21, 19:06:16
Auserdem liegt sein sog. Klassiker def. am ab. Der Fehler tritt bei Installation eines Treibers auf und auch nur wenn man ab nicht zurücgesetzt und waren der Installation deaktiviert hat.
Du irrst dich. Ich meine ein anderes Problem, das nichts mir irgendwelchen Installationen zu tun hat.
(Vielleicht mal weniger vorschnell urteilen, ich hab ja schließlich nichts mit irgendwelchen Installationen erwähnt...)
Ein Treiber kann nicht alle möglichen externen Hacks berücksichtigen.
Die Hacks sind ja nur nötig, weil es Bugs im Treiber gibt, die man umschiffen muss. Bei Nvidia dürfte für die Standard-Parameter einfach OC per NVAPI genutzt werden, weil das seit zig Jahren stabil funktioniert.
Da hat AMD nun einfach aufzuholen.
Tja... leider nicht bei jedem.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=566187
Das ist aber schon sehr speziell, mit so was kann man immer Pech haben.
Blediator16
2016-06-21, 19:09:16
Wieso haben z.b die CB Bilder keine Backplate und das Bild wo die vielen Karten auf dem Band liegen haben jeweils eine Backplate :confused:
http://www.overclock.net/content/type/61/id/2810475/width/500/height/375/flags/LL
Gorkon
2016-06-21, 19:17:30
Reviewerkarten vs. Verkaufskarten ;) Die für die Reviewer kommen wahrscheinlich direkt von AMD...steht ja auch auf dem Aufkleber hinten (PCGH + CBase).
Tamagothi
2016-06-21, 19:17:41
Irgend ein Hersteller macht ne Backplate hin. XFX oder Sapphire wars glaube ich. Oder bekommen alle eine ?
Sample vlt nur nicht?
edit: mäh. Wer zuletzt kommt ... :D
Screemer
2016-06-21, 19:45:43
Du irrst dich. Ich meine ein anderes Problem, das nichts mir irgendwelchen Installationen zu tun hat.
(Vielleicht mal weniger vorschnell urteilen, ich hab ja schließlich nichts mit irgendwelchen Installationen erwähnt...)
Die Hacks sind ja nur nötig, weil es Bugs im Treiber gibt, die man umschiffen muss.
Das sind zwei Behauptungen die du erst mal belegen solltest. Wie gesagt ich bin rivatuner Nutzer der ersten Stunde und nutze ab seit meiner 6970 bis zu meiner aktuellen 290 mit ati/amd. Das sich die Lüfterkurve anders verhält als eingestellt waren immer bedienfehler. Würde das nicht funktionieren, dann wären mir schon mehrere Karten abgebrannt. Denn ich nutze seit meiner 6970 auch nie die orginal Lüfter, sondern ersetze diese durch andere. Teils auf Aftermarketkühlern Teils auf den Kühlern die auf den Karten verbaut sind. Die drehen wesentlich langsamer und vor allem liegen da im Spielbetrieb nicht selten 90-100% Drehzahl an.
Sieht dann in etwa so aus wie bei meiner alten 7970: http://www.hardwareluxx.de/community/attachments/f168/301565d1415794546-sapphire-hd-7950-3gb-oc-1125-1600mhz-und-lueftermod-img_20141112_103316586.jpg
illidan
2016-06-21, 19:56:57
Das sind zwei Behauptungen die du erst mal belegen solltest.
Toll, das alte "belege das"-Spiel. Ich muss hier genau so viel oder wenig belegen wie du. Wenn du mir nicht glaubst, dann lass es halt.
Screemer
2016-06-21, 20:08:40
Das "Hauptsache die anderen sind schuld Spiel" kann ich auch spielen. In der Regel ist es so, dass der der die Behauptung in den Raum stellt, den Beleg erbringen sollte. Ich behaupte jetzt einfach mal illidan verbreitet fud in amd Threads um nv besser da stehen zu lassn. das lass ich mal so im Raum stehen. Belege? I don't give a shit!
vielleicht solltest du mal überlegen ob vielleicht ein bedienfehler oder einer von unwinders Hacks sein kann? Ach nein amd muss schuld sein, es kann gar nicht anders sein.
Dural
2016-06-21, 20:15:34
https://www.youtube.com/watch?v=H4PdfidVlpc
Eine 480 am Laufen. Kann wer Chinesisch/Koreanisch?
Zwischen gtx970 und gtx980?
Edit:
Bei minute 1.30 kommt oben rechts 980>480>970
Flusher
2016-06-21, 20:28:27
Zwischen gtx970 und gtx980?
Edit:
Bei minute 1.30 kommt oben rechts 980>480>970
Ich glaube das sind Kommentare zum Livestream die dort eingeblendet werden.
Dural
2016-06-21, 20:30:03
Ok, ist auch möglich.
Edit:
Das vergleich system hat aber eine 970 hmmm
-/\-CruNcher-/\-
2016-06-21, 20:39:05
Macht ja auch Sinn immherin soll sie die GTX 970 non OC/OC schlagen und wenn alles perfekt laufen sollte eine sehr gute Figur gegen die GTX 1060 machen ;)
Wenn beides eintrifft könnten uns verdammt rosige Vega Ergebnisse bevorstehen ;)
Dural
2016-06-21, 21:15:40
Macht ja auch Sinn immherin soll sie die GTX 970 non OC/OC schlagen und wenn alles perfekt laufen sollte eine sehr gute Figur gegen die GTX 1060 machen ;)
Wenn beides eintrifft könnten uns verdammt rosige Vega Ergebnisse bevorstehen ;)
Du nennst das einen erfolg wenn man mit einem 230mm2 14nm chip einen beschnittenen 400mm2 28nm chip schlägt?
Screemer
2016-06-21, 21:17:23
Du nennst das einen erfolg wenn man mit einem 230mm2 14nm chip einen beschnittenen 400mm2 28nm chip schlägt?
Na auf den gleichen Kommentar hoffe ich zum 1060release mit spekulierten 15% weniger die-fläche...
DrFreaK666
2016-06-21, 21:34:42
Naja. Erfolg ist wenn AMD die Karten ab den Mann bringen kann
basix
2016-06-21, 21:47:35
Wenn die 8GB Version 250 Euro kostet, sich einigermassen bis gut OCen lässt und die Lautstärke gut ist kann ich nur schwer widerstehen :D
F4USt
2016-06-21, 22:36:46
Wenn ich das richtig verstanden habe, kaufen die meisten Käufer nicht nach Leistung, sondern nach dem Preis, je nach dem was der Geldbeutel hergibt.
Diese Käuferschicht interessiert also, wie viel MEHR Leistung sie für den selben Preis bekommen, wenn eine neue Grafikkarte erscheint.
Um zu ermitteln wie viel Leistung die 480 dazulegt, mit welcher Grafikkarte für 199,- bzw. 229,- (evtl. ohne Berücksichtigung der Abverkaufspreise) müsste man sie dann vergleichen?
-/\-CruNcher-/\-
2016-06-21, 22:46:36
Du nennst das einen erfolg wenn man mit einem 230mm2 14nm chip einen beschnittenen 400mm2 28nm chip schlägt?
Je nach Final Power output für AMD ein riesen Erfolg in der Preis\Leistung und ich sehe das in Anbetracht der GCN Entwicklung und späteren Einstieg in Superscalar Architektur also den Fortschritt den sie machen und wie sich das ganze innerhalb ihres Ökosystems verhält.
Zwischen gtx970 und gtx980?
Edit:
Bei minute 1.30 kommt oben rechts 980>480>970
Du weißt aber schon, dass sich die Behauptung lediglich auf 3Dk13 stützt? Die Performance im 3dk13 ist zwischen 390x und 980 - von daher nichts neues.
Wenn die 480 in 1440p schneller ist als Hawaii, dann ist das Ziel imo erreicht worden.
LadyWhirlwind
2016-06-21, 23:11:14
Ich denke AMD hat gute Chancen seine Karten an den Mann zu bringen. Solange Nvidia keine neuen Karten im Preisbereich bis 250 EUR/USD hat stehen die Chancen gut, dass das AMD Angebot als das bessere rüberkommt. Insbesondere wenn die 8Gb Karte die 970 mit 4 GB schlägt...
Die Frage ist halt, wie sehr es Absicht von AMD war Polaris 10 und Polaris 11 zuerst zu bringen. Handelt es sich dabei um eine Strategische Entscheidung der diese Karten ins Zentrum stellt, oder hat man aus der Not eine Tugend gemacht? Im ersteren Fall könnte das natürlich heissen, das möglichst gute Werte für Polaris 10 und Polaris 11 die Zielvorgabe waren...
dllfreak2001
2016-06-21, 23:13:15
Ich frage mich gerade wie die Karte bei verschiedenen Auflösungen skaliert. Die GTX970 krüppelt bei allem über 1920x1080 herum.
Thunder99
2016-06-21, 23:14:44
der untere Bereich war mehr als wichtig was Neues zu bringen weil man da nur alten "Scheiß" hatte mit veralteter Technik/Features. Nvidia hat da immer noch die bessere Technik und Features mit GM206
Brillus
2016-06-21, 23:16:22
Ich denke AMD hat gute Chancen seine Karten an den Mann zu bringen. Solange Nvidia keine neuen Karten im Preisbereich bis 250 EUR/USD hat stehen die Chancen gut, dass das AMD Angebot als das bessere rüberkommt. Insbesondere wenn die 8Gb Karte die 970 mit 4 GB schlägt...
Die Frage ist halt, wie sehr es Absicht von AMD war Polaris 10 und Polaris 11 zuerst zu bringen. Handelt es sich dabei um eine Strategische Entscheidung der diese Karten ins Zentrum stellt, oder hat man aus der Not eine Tugend gemacht? Im ersteren Fall könnte das natürlich heissen, das möglichst gute Werte für Polaris 10 und Polaris 11 die Zielvorgabe waren...
War ziemlich sicher so geplant:
1) HBM2 mit dem Vega nach offizeller AMD Aussage kommen soll, gibt es erst zum Jahresende.
2) AMD braucht was für Mobile.
3) Die kleinen Chips brauchten Ersatz mit aktuellen Feature set, vor allem so Checklist features wie FreeSync.
4) Neue Fertigungstechniken werden gerne mal mit kleinen Chips ausprobiert.
yamamoto_dc
2016-06-21, 23:17:26
Bei AMD war eine Karte im unteren und mittleren Preissgement überfällig, somit war es wohl eine bewusste Entscheidung Polaris 10/11 zuerst zu bringen. AMD braucht auch dringend höhere Marktanteile im PC-Geschäft.
LadyWhirlwind
2016-06-21, 23:21:57
War ziemlich sicher so geplant:
1) HBM2 mit dem Vega nach offizeller AMD Aussage kommen soll, gibt es erst zum Jahresende.
2) AMD braucht was für Mobile.
das könnte aber auch noch in die Kategorie "Aus der Not eine Tugend machen" fallen. Die Frage ist halt welchem Geschäftsbereich AMD welchen Stellenwert beimisst und welche Auswirkungen das auf die Entwicklung hat. Und natürlich wie Nvidia das sieht.
Dino-Fossil
2016-06-21, 23:23:09
Um zu ermitteln wie viel Leistung die 480 dazulegt, mit welcher Grafikkarte für 199,- bzw. 229,- (evtl. ohne Berücksichtigung der Abverkaufspreise) müsste man sie dann vergleichen?
Kommt drauf an, zu welchem Zeitpunkt die alten gekauft wurden, aber das können mMn einige sein:
7850/7870, 265-270X, 280(X)-285, 380
sowie
560(Ti), 660, 760, 960
damit läge man dann je nach Generation von der man kommt bei 1,4x-2,3x der "Ausgangsleistung" (ausgehend vom 3DCenter-Index und aktuellen Schätzungen der 480).
Karten wie die 390 oder 970 waren mehr oder minder deutlich teurer, die 480 böte aber vermutlich nur einen geringen Leistungsfortschritt (hier wäre der Vorteil eher geringere Leistungsaufnahme, modernere Features, evtl. mehr Speicher).
Elkinator
2016-06-21, 23:44:12
Es ist doch logisch die größeren GPUs später zu bringen, wenn ein Prozess erst angelaufen ist.
P10 und P11 sind auch wichtiger.
P11 braucht man für den Mobile-Markt, Notebooks sind von den Stückzahlen gesehen nicht zu unterschätzen.
P10 ist bei Gamern auch ein guter umsatzbringen, Grafikkarten über 300€ verkauft man halt nicht so oft.
Vega wird fürs OEM-Geschäft ziemlich egal sein, P11 werden sie aber zb. palettenweise an Apple verkaufen.
LadyWhirlwind
2016-06-22, 00:06:41
Es ist doch logisch die größeren GPUs später zu bringen, wenn ein Prozess erst angelaufen ist.
P10 und P11 sind auch wichtiger.
P11 braucht man für den Mobile-Markt, Notebooks sind von den Stückzahlen gesehen nicht zu unterschätzen.
P10 ist bei Gamern auch ein guter umsatzbringen, Grafikkarten über 300€ verkauft man halt nicht so oft.
Vega wird fürs OEM-Geschäft ziemlich egal sein, P11 werden sie aber zb. palettenweise an Apple verkaufen.
Genau. Fragt sich halt ob das auch die Vorgabe an die Ingenieure war, bzw. wie stark diese Vorgabe war.
Gipsel
2016-06-22, 00:15:54
ich sehe das in Anbetracht der GCN Entwicklung und späteren Einstieg in Superscalar ArchitekturIm Zusammenhang mit GCN von "superskalar" zu reden, ist einfach nur falsch. An GCN ist so ziemlich gar nichts superskalar.
Elkinator
2016-06-22, 00:16:09
Naja, AMD hat doch mal gesagt, daß sie mehr große Design-Wins gewinnen wollen.
Dazu passen GPUs die ihnen von den OEMS aus den Fingern gerissen werden.
Genau. Fragt sich halt ob das auch die Vorgabe an die Ingenieure war, bzw. wie stark diese Vorgabe war.
Sorry, aber so langsam platzt mir der Kragen. Zuerst glaube ich, dass man von allen Werten/Leaks bis dato Abstand nehmen sollte. Ich denke auch AMD sollte nicht aus Mitleid bevorteilt werden. Man sollte nicht um den heißen Brei herumreden: Soll heißen - Performt das Ding, oder eben nicht.
P10 kostet auch Geld und kann keinen Kaffee kochen, was im Umkehrschluss heißen sollte:
~970-Performance=Fail
~390x, 980-Performance=Okay und ein gutes bis sehr gutes P/L
~Custom 980-Niveau=Das war eigentlich das was ich mir von einer 14nM 80 (also dem Nachfolger von 280X und 380x - die Architektur gibt es ja auch schon ewig und 3 Tage) erwartet hätte. Zudem genialer Preis und bei Custom-Boards exzellenten OC-Voraussetzungen.
Thunder99
2016-06-22, 00:34:39
Es ist doch logisch die größeren GPUs später zu bringen, wenn ein Prozess erst angelaufen ist.
P10 und P11 sind auch wichtiger.
P11 braucht man für den Mobile-Markt, Notebooks sind von den Stückzahlen gesehen nicht zu unterschätzen.
P10 ist bei Gamern auch ein guter umsatzbringen, Grafikkarten über 300€ verkauft man halt nicht so oft.
Vega wird fürs OEM-Geschäft ziemlich egal sein, P11 werden sie aber zb. palettenweise an Apple verkaufen.
Es kann logisch sein muss es aber nicht. Aus wirtschaftlichen Gründen ja. Doch wenn der Kunde/Markt was will muss man liefern können siehe P100 ;). DAS kann nur AMD wahrscheinlich aus wirtschaftlichen Gründen halt nicht am Anfang. Technisch könnten sie es schon ;)
w0mbat
2016-06-22, 00:41:01
@gedi: Genau, jetzt ist 970er Performance schon ein Fail :ugly:
Vor ein paar Seiten wurde das noch als Ziel und richtig toll angesehen, jetzt ist der Hype so groß, dass ein gutes Ergebnis zu einem "Fail" wird...
@gedi: Genau, jetzt ist 970er Performance schon ein Fail :ugly:
Vor ein paar Seiten wurde das noch als Ziel und richtig toll angesehen, jetzt ist der Hype so groß, dass ein gutes Ergebnis zu einem "Fail" wird...
Wir leben nicht im Vorgestern und die jetzige Generation hat fertigungsbedingt enorme Vorteile. Daher bin ich auch nach wie vor der Meinung, dass eine 1070 einen Fail darstellt, da die Vorgängergeneration nicht beherrscht werden kann. Warum sollte ich dies bei AMD nicht tun?
Elkinator
2016-06-22, 01:09:45
Doch wenn der Kunde/Markt was will muss man liefern können siehe P100 ;).
Können sie doch aktuell nicht, sie hoffen es im Q4/2016 zu können.
w0mbat
2016-06-22, 01:34:51
Übrigens sind die 1266 MHz der Boost-Takt, der normale Takt scheint 1120 MHz zu sein.
Hübie
2016-06-22, 01:37:45
@gedi: Genau, jetzt ist 970er Performance schon ein Fail :ugly:
Vor ein paar Seiten wurde das noch als Ziel und richtig toll angesehen, jetzt ist der Hype so groß, dass ein gutes Ergebnis zu einem "Fail" wird...
Wenn du mir erklären kannst wieso 640 ALUs mehr, höherer Takt, neue µArch und größerer VRAM nicht in mehr Leistung als eine lächerliche 970 resultieren, dann bitte.
Ansonsten wäre dies ein big fail!
RX 480 wird auf 980 Niveau sein. Da braucht man keine Glaskugel. :rolleyes:
Wenn du mir erklären kannst wieso 640 ALUs mehr, höherer Takt, neue µArch und größerer VRAM nicht in mehr Leistung als eine lächerliche 970 resultieren, dann bitte.
Ansonsten wäre dies ein big fail!
RX 480 wird auf 980 Niveau sein. Da braucht man keine Glaskugel. :rolleyes:
Ähm japp, voll zustimm :biggrin:
BTW. sehe ich dies im Schnitt (minus Gw-Schrott usw.) als Minimum an. Und was bringt es mir, wenn AMD die Baseclock erhöht - das meine Bluray-Filmchen nun ruckelfrei laufen?
Allerdings scheint es jetzt so, dass der mit 1328MHZ geleakte HIS-Wert nun den Default Turbo-Takt darstellt. Hm - Target-Anpassung?
BTW. scheint es so, als dass das NDA schneller fallen könnte, als manchen lieb ist. Quelle: Techinferno Forum :)
horn 12
2016-06-22, 06:04:11
@Wombat
Exakt!
http://www.hardwareluxx.de/community/attachments/f14/365321d1466552958-amd-praesentiert-die-radeon-rx-480-mit-500-us-dollar-leistung-zum-199-us-dollar-preis-screenshot-2016-06-22-01.48.57.jpg
[MK2]Mythos
2016-06-22, 07:38:14
Wenn man Geizhals glauben kann, kommen von XFX schon mal zwei verschiedene Varianten (Black und Core Edition) der RX480 mit 8GB:
Die Black Edition scheint bei XFX immer etwas höher getaktet zu sein als die normale.
http://geizhals.de/?fs=rx480&in=
inspectah
2016-06-22, 08:15:06
Mythos;11075855']Wenn man Geizhals glauben kann, kommen von XFX schon mal zwei verschiedene Varianten (Black und Core Edition) der RX480 mit 8GB:
Die Black Edition scheint bei XFX immer etwas höher getaktet zu sein als die normale.
http://geizhals.de/?fs=rx480&in=
Ich tippe auf:
Core Edition: Standard Referenz + Standard Takt
Black Editon: Referenz mit Backplate + (leichter) OC
Ich hoffe ja, das Refernzdesign wird schlussendlich die empfehlenswerteste Karte, die ist so sexy, vor allem mit der schwarzen Backplate. :redface:
hesTeR-
2016-06-22, 08:16:02
Ich verstehe nicht wieso 970+ leistung fail wäre ?
Die günstigste gtx970 bei Mindfactory kostet noch immer 250 €
Wenn man eine RX480 4gb jetzt für 210-220 € bekommt die die selbe leistung oder etwas mehr leistung hat für einen besseren Preis mit echten 4GB wäre es doch schon ein Erfolg. :)
jorge42
2016-06-22, 08:19:46
Ich verstehe nicht wieso 970+ leistung fail wäre ?
Die günstigste gtx970 bei Mindfactory kostet noch immer 250 €
Wenn man eine RX480 4gb jetzt für 210-220 € bekommt die die selbe leistung oder etwas mehr leistung hat für einen besseren Preis mit echten 4GB wäre es doch schon ein Erfolg. :)
sehe ich genau so. Ich denke die Erwartungshaltung (ab der Fanboys) ist doch, für wenig Geld eine deutliche Verbesserung des eigenen Systems zu bekommen. Wer schon ne 970/980 oder 390x hat (und das vielleicht schon seit längerem) wird sicher die 480 uninteressant finden und als Rückschritt (oder hier "fail") bezeichnen. Für den, der schon länger kein Upgrade durchgeführt hat, ist die 480 der richtige Köder um endlich zuzubeißen. :biggrin: Mir doch scheiss egal, dass es schon karten mit gleicher Performance für 400 EUR gab, nicht mein Beuteschema.
Arcanoxer
2016-06-22, 08:26:58
Ich verstehe nicht wieso 970+ leistung fail wäre ?
Die günstigste gtx970 bei Mindfactory kostet noch immer 250 €
Wenn man eine RX480 4gb jetzt für 210-220 € bekommt die die selbe leistung oder etwas mehr leistung hat für einen besseren Preis mit echten 4GB wäre es doch schon ein Erfolg. :)
Gescheite Referenzdesigns kosten dann auch 250€, wenn die denn mal Verfügbar sind.
Der springende Punkt ist aber das die Karte 1 1/2 - 2 Jahre zu spät kommt um eine wirkliche Konkurenz für nVidia zu sein, leider.
So wird sich nicht grossartig was bei den Preisen bewegen, nur bei der alten Maxwell Generation.
Sven77
2016-06-22, 08:33:57
Daher bin ich auch nach wie vor der Meinung, dass eine 1070 einen Fail darstellt, da die Vorgängergeneration nicht beherrscht werden kann.
Die 1070 fügt sich leistungstechnisch da ein wo sie erwartet wurde. Sie liegt gleichauf mit der 980TI bzw. ist teilweise sogar schneller wenn man Custom-Modelle vergleicht, bei der 970/780TI war eher das Gegenteil der Fall.. der Preis ist eine andere Geschichte.
Diese unrealistischen Erwartungshaltungen was RX480 angeht sind wirklich nervig, 1070 Leistung für 250Eur ist bei manchen schon als Fakt ins Hirn gebrannt... das wird ne stinklangweilige Mainstreamkarte die super für OEMs oder Spieler ist die die letzte Generation ausgelassen haben..
Godmode
2016-06-22, 08:36:05
Gescheite Referenzdesigns kosten dann auch 250€, wenn die denn mal Verfügbar sind.
Der springende Punkt ist aber das die Karte 1 1/2 - 2 Jahre zu spät kommt um eine wirkliche Konkurenz für nVidia zu sein, leider.
So wird sich nicht grossartig was bei den Preisen bewegen, nur bei der alten Maxwell Generation.
Wenn ihr endlich mal auf die Chipfläche achten würdet, dann könntet ihr euch diese dämlichen Vergleiche sparen. Nvidia hat in diesem Bereich noch gar keine Karte, da GP106 noch nicht kaufbar ist. 980/970 werden abverkauft, die wird es nicht mehr lange geben.
uweskw
2016-06-22, 08:37:54
•••••Ich hoffe ja, das Refernzdesign wird schlussendlich die empfehlenswerteste Karte, die ist so sexy, vor allem mit der schwarzen Backplate. :redface:
Ich habe die Befürchtung, dass die Ref. heiß und laut wird. Mir kommen Kühler und Ventilator recht schwachbrüstig vor. Kühlt man mit so einer Konstruktion mehr als 100W leise! herunter?
Wird es von der RX 480 wirklich nur eine Version geben, oder ist auch sowas wie eine RX480 XT geplant?
greetz
US
Arcanoxer
2016-06-22, 08:39:07
Wenn ihr endlich mal auf die Chipfläche achten würdet, dann könnte ihr euch diese dämlichen Vergleiche sparen.Was interessiert den Endverbraucher die Chipfläche?
Die wollen nur sehen was unter dem Strich bei raus kommt, besonders bei der Preisklasse.
Elkinator
2016-06-22, 08:39:50
Der springende Punkt ist aber das die Karte 1 1/2 - 2 Jahre zu spät kommt um eine wirkliche Konkurenz für nVidia zu sein, leider.
So realitätsferne Ansichten haben zum Glück nur einige wenige in Foren.
soLofox
2016-06-22, 08:41:57
Ich habe die Befürchtung, dass die Ref. heiß und laut wird.
gab es überhaupt mal einen kühler mit diesem design der leise und gut war? waren das nicht immer föne?
Noebbie
2016-06-22, 08:48:12
Meine 5870 hatte damals so einen Kühler und der war laut, wenn die Karte am Anschlag war. In den meisten Szenen war er eigentlich erträglich. Und ich habe keine Zahlen im Kopf, aber die 5870 zieht vermutlich mehr Strom als eine 480. Daher bin ich da eigentlich recht entspannt.
StefanV
2016-06-22, 08:51:18
Was interessiert den Endverbraucher die Chipfläche?
Die wollen nur sehen was unter dem Strich bei raus kommt, besonders bei der Preisklasse.
Und du tust wohl mal wieder alles, um AMD schlecht zu reden, was?!
Wie wärs mal das ganze realistisch zu betrachten und nicht einfach 'das andere' pauschal runtermachen, insbesondere, wo man doch noch gar nichts über den CHip weiß, außer die Chipfläche, dass der Verbrauch, der ja von den nVidia Fans als unglaublich wichtig dargestellt wird, bei voraussichtlich ~100W liegen soll...
Verstehe nicht, warum man hier unbedingt das ganze als Fail bezeichnen muss...
Zumal der Verbrauch deutlich unter GTX 970 und insbesondere auch der 980 liegen wird - fast 50W weniger als die GTX 970, die gleichen 50W, die zwischen der 970 und der R9-390 liegen übrigens...
Arcanoxer
2016-06-22, 08:53:07
Zumal der Verbrauch deutlich unter GTX 970 und insbesondere auch der 980 liegen wird - fast 50W weniger als die GTX 970, die gleichen 50W, die zwischen der 970 und der R9-390 liegen übrigens...
Meine 1 1/2 Jahre alte GTX970 Strix hat eine TDP von 145W, die RX480 hat 150W.
So viel dazu.
StefanV
2016-06-22, 08:53:40
Meine 5870 hatte damals so einen Kühler und der war laut, wenn die Karte am Anschlag war. In den meisten Szenen war er eigentlich erträglich. Und ich habe keine Zahlen im Kopf, aber die 5870 zieht vermutlich mehr Strom als eine 480. Daher bin ich da eigentlich recht entspannt.
Ja, die 5870 war bei etwa 150W +/- 20W unter Last.
Wobei bei der Lastaufnahme auch gern besonders verschwenderische Spiele genommen werden und die genügsameren Titel mit 60fps Lock unterschlagen werden.
Das hat schon bei meinem Tahiti Crossfire Gespann die Kleinigkeit von 200W ausgemacht, damals, der Schalter VSync On vs. VSync Off.
Und leiser wars dann ja auch, da die Leistungsaufnahme (kaum 100W pro Karte, gesamt 250W) auf zwei Karten verteilt wurd...
y33H@
2016-06-22, 08:53:58
Realistisch betrachten bedeutet auf nächste Woche Mittwoch warten, alles andere ist doch nur Speku ... wir haben zB immer noch keinen Windows-Treiber.
StefanV
2016-06-22, 08:57:42
Meine 1 1/2 Jahre alte GTX970 Strix hat eine TDP von 145W, die RX480 hat 150W.
So viel dazu.
Hör auf solch einen Unsinn zu verbreiten!
Die Anschlüsse erlauben 150W, die TDP wird aber um einiges darunter liegen!
Schau dir doch mal die letzten Karten an, die nur einen 6pin Anschluss haten:
Radeon HD7850 -> 130W laut Toms Hardware (http://www.tomshardware.de/Pitcairn-Radeon-HD7850-HD7870-Benchmarks,testberichte-240969-34.html)...
Wenn die Karte 150W TDP hätte, hätte sie ZWEI PCIe Anschlüsse.
Und wenn du dir die letzten Grafikkartenreviews auf Tomshardware angeschaut hättest, wüsstest du, dass AMD keinen PEG braucht und deutlich weniger über den PCIe zieht (was ja auch mehr als sinnvoll ist!), ergo kannst eher von 100W ausgehen.
dildo4u
2016-06-22, 08:59:04
Zumal der Verbrauch deutlich unter GTX 970 und insbesondere auch der 980 liegen wird - fast 50W weniger als die GTX 970, die gleichen 50W, die zwischen der 970 und der R9-390 liegen übrigens...
Hat nix mit der Realität zu tun:
Gaming power consumption is very similar to the R9 290 considering the increase in performance, which produces better performance-per-watt scores. However, compared to the GTX 970, the difference is still massive, with the GTX 970 also being 50% more power efficient in gaming
https://www.techpowerup.com/reviews/Powercolor/R9_390_PCS_Plus/28.html
http://abload.de/img/sapphire-nitro-380-39dtsia.jpg
http://www.legitreviews.com/sapphire-nitro-r9-390-8gb-nitro-r9-380-4gb-video-card-review_166123/11
http://abload.de/img/78761msrc7.png
http://www.anandtech.com/show/9784/the-amd-radeon-r9-380x-review/13
http://abload.de/img/power1yyp5z.jpg
http://www.eteknix.com/sapphire-nitro-r9-390-8gb-graphics-card-review/14/
Elkinator
2016-06-22, 09:01:56
gab es überhaupt mal einen kühler mit diesem design der leise und gut war?
Bei ca. 100W Verbrauch wird das selbst mit der Kühlung nicht laut werden.
Und du tust wohl mal wieder alles, um AMD schlecht zu reden, was?!
Natürlich, auch wenn die RX 480 bei 100W 10× so schnell wie eine GTX 1080 wäre, er würde schon etwas anderes finden!
PuppetMaster
2016-06-22, 09:02:18
Meine 1 1/2 Jahre alte GTX970 Strix hat eine TDP von 145W, die RX480 hat 150W.
Quatsch, die Asus GTX970 Strix hat ein Power Target von 162 Watt:
http://m.ht4u.net/reviews/2014/asus_geforce_gtx_970_strix_im_test/index14.php
Gipsel
2016-06-22, 09:07:26
Und jetzt vergessen wir mal die ganzen Diskussionen um nV hier wieder und konzentrieren uns auf's Thema!
Elkinator
2016-06-22, 09:12:36
Wann geht das eigentlich mal in die Köpfe rein, AMD Grafikkarten haben KEINE TDP, weil diese Angabe bei einer Graka total sinnlos wäre.
Die TBP der RX 480 wird unter 150W liegen, kein Hersteller würde die Spannungsversorgung so knapp auslegen!
Dural
2016-06-22, 09:26:52
Ernsthaft? AMD hat sogar schon mehrfach die theoretische TDP überschritten, vorallem bei ihren Dual GPU Karten.
Wenn ihr endlich mal auf die Chipfläche achten würdet, dann könntet ihr euch diese dämlichen Vergleiche sparen. Nvidia hat in diesem Bereich noch gar keine Karte, da GP106 noch nicht kaufbar ist. 980/970 werden abverkauft, die wird es nicht mehr lange geben.
Auf die Chipfläche achten?
OK, GP104 hat 310mm2 und ist im schnitt 65% schneller als der alte GM204 mit 400mm2
Ich rechne jetzt nicht aus was ein 230mm2 chip leistens sollte, auch nicht im vergleich zu einem alten AMD Chip :wink:
hesTeR-
2016-06-22, 09:40:47
mal ne ganz andere frage, würdet ihr für 1080p gaming eine 4 oder 8gb karte kaufen ?
Civtam
2016-06-22, 09:45:28
mal ne ganz andere frage, würdet ihr für 1080p gaming eine 4 oder 8gb karte kaufen ?
8 GB! Vermutlich würde 4 GB ausreichen, mit 8 hast du jedoch länger Freude und nen höheren Wiederverkaufswert.
BK-Morpheus
2016-06-22, 09:46:46
mal ne ganz andere frage, würdet ihr für 1080p gaming eine 4 oder 8gb karte kaufen ?
Da ich in ARK und Division meine jetzigen 3GB ruck zuck voll habe (spiele auch nur in 1080p), werde ich persönlich auf jeden Fall die 8GB Version präferieren.
Rockhount
2016-06-22, 09:56:36
mal ne ganz andere frage, würdet ihr für 1080p gaming eine 4 oder 8gb karte kaufen ?
8GB...hast dann immernoch Ressourcen für VSR (1440p)
deekey777
2016-06-22, 09:57:51
Realistisch betrachten bedeutet auf nächste Woche Mittwoch warten, alles andere ist doch nur Speku ... wir haben zB immer noch keinen Windows-Treiber.
Aber Linux-Treiber bestimmt. SteamOS wins.
y33H@
2016-06-22, 09:58:22
VSR an sich steigert die Speicherlast kaum, aber eben Shadow-Maps und Texturen. In diversen Spielen kann man maximale Details mit 4G nicht mal (ohne Ini-Hacks) auswählen, zB CoD BO3 und Doom.
@ deekey777
Ja, Messungen laufen seit gestern.
Rockhount
2016-06-22, 10:02:53
VSR an sich steigert die Speicherlast kaum, aber eben Shadow-Maps und Texturen. In diversen Spielen kann man maximale Details mit 4G nicht mal (ohne Ini-Hacks) auswählen, zB CoD BO3 und Doom.
@ deekey777
Ja, Messungen laufen seit gestern.
Kaum, aber doch ein wenig (zumindest habe ich den Eindruck).
Da man tendenziell "verschwenderischer" mit Grafikspeicher umgeht und die 4GB teilweise entsprechend schon zu Einschränkungen führen, sind 8GB die logische Konsequenz
Gipsel
2016-06-22, 10:05:53
Auf die Chipfläche achten?
OK, GP104 hat 310mm2 und ist im schnitt 65% schneller als der alte GM204 mit 400mm2
Ich rechne jetzt nicht aus was ein 230mm2 chip leistens sollte, auch nicht im vergleich zu einem alten AMD Chip :wink:Hättest Du vielleicht machen sollen. :rolleyes:
GP104 vs GP104 relative Perf./mm²:
398/314*1,65 = 2,09
Unter Annahme eines identischen Verhältnisses (obwohl AMD viel mehr auf Stromersparnis gehen wird, also es tendentiell durch Wahl einer niedrigen Frequenz kleiner ausfallen sollte und wir nicht genau wissen, wie die unterschiedlichen Prozesse da reinspielen) kommt man dann für Polaris10 vs. Hawaii für die relative Performance das raus:
232/438 * 2,09 = 1,1
10% höhere Performance als Hawaii? Ist schon mal nicht komplett abwegig (je nach Situation), wenn man oben genannte Einflußfaktoren berücksichtigt ;).
Insofern kannst Du gerne mit Deinem FUD hier aufhören.
Elkinator
2016-06-22, 10:06:28
mal ne ganz andere frage, würdet ihr für 1080p gaming eine 4 oder 8gb karte kaufen ?
Also bei dem Aufpreis für zusätzliche 4GB wohl nur die Karte mit 8GB.
StefanV
2016-06-22, 10:08:27
mal ne ganz andere frage, würdet ihr für 1080p gaming eine 4 oder 8gb karte kaufen ?
Die Auflösung hat recht wenig damit zu tun, das ist einfach Quatsch.
Daher immer die größere Speichermenge, wenn sich der Preis nicht allzu sehr unterscheidet...
PuppetMaster
2016-06-22, 10:10:28
Je nachdem könnte auch die 470 (4 GB) ein guter Tipp sein. Für das jetzt gesparte Geld kann man früher aufrüsten, wenn mal wirklich Bedarf besteht.
deekey777
2016-06-22, 10:14:55
Je nachdem könnte auch die 470 (4 GB) ein guter Tipp sein. Für das jetzt gesparte Geld kann man früher aufrüsten, wenn mal wirklich Bedarf besteht.
Es wird letzendlich darauf ankommen, wie groß der Leistungsunterschied zur 480 im Verhältnis zum Preisabstand ist.
Dino-Fossil
2016-06-22, 10:23:37
Ganz uninteressant ist die 470 nicht, denke ich. Wenn man unbedingt 8GB braucht scheidet sie wohl aus, aber ansonsten könnte sie Preis/Leistungs-mäßig noch etwas besser rauskommen als die 480 und etwas effizienter noch dazu. Ist zwar in dem Bereich eher Kür als Pflicht, aber für manche dennoch wichtig, denke ich.
Schade nur, dass wir auf die 470 wohl noch etwas warten müssen...
wir haben zB immer noch keinen Windows-Treiber.
Aber Linux-Treiber bestimmt. SteamOS wins.
Ja, Messungen laufen seit gestern.
:confused:
Habt ihr vorab was bekommen? Der Kerneltreiber hat gestern nochmal einige Updates bekommen, der PRO Treiber mit dem entsprechenden DKMS Modul wurde afaik auch noch nicht fuer Polaris aktualisiert.
Aber toll dass ihr testet, hoffentlich auch die 2 Vulkan Titel :D
Dino-Fossil
2016-06-22, 10:39:20
Frage mich aber nach wie vor, wie aussagekräftig aktuelle amdgpu Messungen sind, abseits von "Wir testen mal den Fortschritt von amdgpu".
Ist doch immer noch Work-in-progress, oder? Und einige hässliche bugs gibt's auch, z.B. sind aktuell Hawaii-Karten mit Kernel 4.7 praktisch unbrauchbar.
y33H@
2016-06-22, 10:45:11
@ iuno
Jo, die Patches braucht's noch für paar Sachen. Es gibt aber mittlerweile auch andere Treiber ...
"andere" glaube ich nicht, das wird halt ein weiteres pre-release des "pro"-Stacks sein, der bringt amdgpu ja als dkms Modul mit.
@Dino-Fossil: Wie kommst du darauf? Bei manchen Konfigurationen gibt es Performanceeinbrueche, unbrauchbar ist der Treiber nicht. Davon mal ab ist Kernel 4.7 noch gar nicht veroeffentlicht.
Im Gegensatz zu Polaris hat Hawaii aber auch funktionierende Treiber, da ist klar, wo die Prioritaeten liegen oder?
deekey777
2016-06-22, 10:51:33
:confused:
Habt ihr vorab was bekommen? Der Kerneltreiber hat gestern nochmal einige Updates bekommen, der PRO Treiber mit dem entsprechenden DKMS Modul wurde afaik auch noch nicht fuer Polaris aktualisiert.
Aber toll dass ihr testet, hoffentlich auch die 2 Vulkan Titel :D
Eigentlich war mein Posting nicht ernstgemeint, schließlich ist der gewisse User, der die neue Generation als verspätet bezeichnet, beinahe ein fanatsicher Linux-Extremist.
Aber wenn es tatsächlich neben den Windows-Treibern bereits vernünftige Linux-Treiber gibt, ist schon eine tolle Sache.
y33H@: Kann man bereits auf den neuen VCE zugreifen? Mit welcher Software? Handbrake? Wenn du darüber nicht offen sprechen darfst, nutze einfach die Spoilertags.
Dino-Fossil
2016-06-22, 11:00:50
@Dino-Fossil: Wie kommst du darauf? Bei manchen Konfigurationen gibt es Performanceeinbrueche, unbrauchbar ist der Treiber nicht.
Ich verfolge amdgpu ein wenig, auch was die in Entwicklung befindlichen Versionen angeht. Scheinbar hat Kernel 4.7 einen Bug im Power-Management, der Hawaii betrifft und die Performance extrem einbrechen lässt.
Wird hoffentlich/vermutlich gefixt bevor 4.7 raus ist.
Unterstützen denn die "normalen" amdgpu-Versionen Polaris schon voll?
Laut Phoronix wurde da erst vor ein paar Tagen ein paar Patches rausgehauen, ich bezweifle, dass die schon in den "öffentlichen" Versionen angekommen sind.
Dural
2016-06-22, 11:05:23
@Gipsel
Du hast gerade vorgerechnet das sie mit Polaris sogar bei mm2 gegenüber Hawaii verloren haben, gegen Pascal erst recht. Den man kann derzeit nicht davon ausgehen das RX480 die 390X im Durchschnitt schlägt.
Auch egal, solange man keinen genauen Durchschnitt der Leistung hat, bleiben solche Rechnungen so wie so sehr variabel. Kannst es dann gerne nochmal Rechnen wenn CB ihren Test Online hat.
unl34shed
2016-06-22, 11:18:56
Hättest Du vielleicht machen sollen. :rolleyes:
GP104 vs GP104 relative Perf./mm²:
398/314*1,65 = 2,09
Unter Annahme eines identischen Verhältnisses (obwohl AMD viel mehr auf Stromersparnis gehen wird, also es tendentiell durch Wahl einer niedrigen Frequenz kleiner ausfallen sollte und wir nicht genau wissen, wie die unterschiedlichen Prozesse da reinspielen) kommt man dann für Polaris10 vs. Hawaii für die relative Performance das raus:
232/438 * 2,09 = 1,1
10% höhere Performance als Hawaii? Ist schon mal nicht komplett abwegig (je nach Situation), wenn man oben genannte Einflußfaktoren berücksichtigt ;).
Insofern kannst Du gerne mit Deinem FUD hier aufhören.
Du hast bei der Rechnung vergessen das Speicherinterface raus zu rechnen. Tonga dürfte wohl ein etwas besserer Ausgangspunkt sein.
y33H@
2016-06-22, 11:19:35
"andere" glaube ich nicht, das wird halt ein weiteres pre-release des "pro"-Stacks sein, der bringt amdgpu ja als dkms Modul mit.Gemeint war Windows ;D
Gipsel
2016-06-22, 11:36:47
Du hast gerade vorgerechnet das sie mit Polaris sogar bei mm2 gegenüber Hawaii verloren haben,Na klar haben sie bei den Quadratmillimetern verloren, ist ja auch Sinn und Zweck eines Shrinks, daß der Chip kleiner wird. ;D
gegen Pascal erst recht.Ja, Polaris 10 wird wohl deutlich kleiner als GP104, da sagst Du uns nichts Neues. :rolleyes:
man kann derzeit nicht davon ausgehen das RX480 die 390X im Durchschnitt schlägt.Schau Dir die geschilderten Begleitumstände an! Dann verstehst Du das vielleicht auch. ;)
Kannst es dann gerne nochmal Rechnen wenn CB ihren Test Online hat.Genau. Und bis dahin kannst Du auch gerne Deine unsubstantiierten Posts sein lassen. Just my 2 Cents.
==========================
Du hast bei der Rechnung vergessen das Speicherinterface raus zu rechnen. Tonga dürfte wohl ein etwas besserer Ausgangspunkt sein.Nö. Polaris10 ist gut halb so groß wie Hawaii und hat auch ein gut halb so großes Speicherinterface (halb so breit aber offenbar für höhere Frequenzen ausgelegt). Das ist einfacher zu skalieren als Tonga mit der Kombination aus weniger CUs mit breiterem (384bit physisch vorhanden) Interface. Daß das sowieso ziemliche Milchmädchenrechnungen sind, die sehr viele Faktoren unter den Tisch fallen lassen, steht ja noch auf einem anderen Blatt.
Ich verfolge amdgpu ein wenig, auch was die in Entwicklung befindlichen Versionen angeht. Scheinbar hat Kernel 4.7 einen Bug im Power-Management, der Hawaii betrifft und die Performance extrem einbrechen lässt.
Wird hoffentlich/vermutlich gefixt bevor 4.7 raus ist.
Unterstützen denn die "normalen" amdgpu-Versionen Polaris schon voll?
Laut Phoronix wurde da erst vor ein paar Tagen ein paar Patches rausgehauen, ich bezweifle, dass die schon in den "öffentlichen" Versionen angekommen sind.
Das betrifft wie gesagt nicht alle Nutzer.
Wenn es auf Phoronix kommt, ist es auch oeffentlich. Idr. gibt er nur wieder, was in Mailinglisten ausgetauscht und in die oeffentlichen Repos gepusht wird oder upstream geht. Insofern kann sich jeder den Branch ziehen und den Kernel/das Modul bauen.
Wie gesagt, 4.7 ist noch nicht veroeffentlicht in diesem Sinne, dass er als finales Release bereitsteht.
Die Entwicklung geht folgendermassen vonstatten:
- "Merge window" oeffnet sich, Entwickler uebermitteln ihre Aenderungen (neue Features)
- "Merge window" schliesst nach 2 Wochen
- es werden woechentlich release candidates veroeffentlicht, idR. so 7-8, je nach Menge der Aenderungen auch mal mehr/weniger
- finaler Release
Wir sind gerade bei 4.7-rc4. Waehrend RCs bereitgestellt werden, werden idR nur noch Bugfixes angenommen, neue Funktionen muessen auf die naechste Kernel Version warten.
Das hindert aber keinen daran, den jeweils aktuellen Stand von irgendwem zu laden und zu bauen. Man ist sich halt dabei im Klaren, dass das ein Snapshot ist, also eigentlich nur was fuer Entwickler.
AMD bringt beim Pro Stack das amdgpu Modul mit, d.h. wenn es neue Aenderungen gibt, die es noch in kein Kernel release geschafft haben, kann man sie darueber bereitstellen. amdgpu wird bei der Installation als Modul erstellt und klinkt sich in den Kernel ein, man muss also nicht den ganzen Kernel neu bauen.
@y33H@: ach sooo ;D
Troyan
2016-06-22, 11:59:28
Von den reinen Referenzkarten hat sich das Perf/mm^2 von Pascal zu Maxwell um bis 2,5x verbessert.
Aber wieder zu Polaris: Base-Clock ist 1120Mhz: http://www.pcper.com/image/view/70678?return=node%2F65605
/edit: Passt zu dem angeblichen Leak von Sapphire: https://forums.overclockers.co.uk/showpost.php?p=29664030&postcount=6238
hesTeR-
2016-06-22, 12:14:06
das wäre ja ein geiles ergebnis im firestrike fast 12000 pkt, eine gtx 980 hat 12800 und eine gtx 970 10300
mit etwas oc ist sie dann auf niveau einer gtx 980+ und das für den Preis, ich wäre damit sehr zufrieden
Dino-Fossil
2016-06-22, 12:30:29
Das betrifft wie gesagt nicht alle Nutzer.
Wenn es auf Phoronix kommt, ist es auch oeffentlich. Idr. gibt er nur wieder, was in Mailinglisten ausgetauscht und in die oeffentlichen Repos gepusht wird oder upstream geht. Insofern kann sich jeder den Branch ziehen und den Kernel/das Modul bauen.
Wie gesagt, 4.7 ist noch nicht veroeffentlicht in diesem Sinne, dass er als finales Release bereitsteht.
Ja, ist im Prinzip schon klar, ich wollte nur darauf hinaus, dass ich es für, sagen wir, unüblich halten würde, wenn der "normale" Linux-Treiber schon auf einem besseren Stand wäre als der Windows Treiber (da der meist priorisiert wird), während brandaktuelle Entwickler-Versionen mit Vorsicht zu genießen sind.
Da ich selbst Linux nutze hoffe ich jedenfalls, dass es nach dem Release von Polaris nicht zu lange dauert, bis brauchbare Linux-Treiber raus sind.
Schneller als meine 7850 sollte P10 unter Linux schon laufen. :tongue:
mboeller
2016-06-22, 12:48:30
was der Kommentar wert ist weiß ich nicht:
http://semiaccurate.com/forums/showpost.php?p=266518&postcount=2022
I've played around with this little beast and I have to say this is the biggest improvement in years. Polaris is extremely powerful in micropoligons. I didn't even imagine that this kind of performance is possible on a quad raster design. In an extreme test case with 8xMSAA and 64 polys/pixel, the Polaris 10 is the fastest GPU in the market by far.
The second interesting thing is the pipeline stall handling. I wrote a program to test it, and remarkable how it works. I hate dealing with pipeline stalls, because it is hard, but on Polaris the stalls are just reduced by far. Even if I run a badly optimized program, the hardware just "try to solve the problem", and it works great. This behavior reminds me the Larrabee... and now we have it, not from Intel, but a hardware is here to solve a lot of problems!
unl34shed
2016-06-22, 12:50:38
Nö. Polaris10 ist gut halb so groß wie Hawaii und hat auch ein gut halb so großes Speicherinterface (halb so breit aber offenbar für höhere Frequenzen ausgelegt). Das ist einfacher zu skalieren als Tonga mit der Kombination aus weniger CUs mit breiterem (384bit physisch vorhanden) Interface. Daß das sowieso ziemliche Milchmädchenrechnungen sind, die sehr viele Faktoren unter den Tisch fallen lassen, steht ja noch auf einem anderen Blatt.
Das es eine Milchmädchenrechnung ist, steht denke ich außer Frage. Vor allem mit den ganzen Änderungen in GCN4.
Dennoch ist der prozentuale Anteil an der Chipfläche größer wenn du ein 512bit I/F runter skalierst. Bei Nvidia hast du ja auch jeweils ein 256bit I/F.
Andi Y
2016-06-22, 14:33:26
Falls es nicht schon genannte wurde,
Laut PCGH Basetakt 1120 MHz
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-Newegg-Basistakt-Boost-1199415/
Godmode
2016-06-22, 14:48:11
Da die Warnung von Gipsel völlig ignoriert wurde, habe ich ein paar Karten verteilt. Es gibt eine Beitrag-Melden Funktion, das haben wohl einige noch nicht begriffen und spamen dann lieben den Thread zu.
@Andi Y,
Laut Newsegg, nicht PCGH. Und das war hier schon. Einfach ne Seite zurück gehen. Diese ständigen Wiederholungen in dem Thread nerven.
@Reviews,
macht CB noch in Case tests oder mittlerweile nur noch aufm Benchtable?
mironicus
2016-06-22, 14:49:58
was der Kommentar wert ist weiß ich nicht:
http://semiaccurate.com/forums/showpost.php?p=266518&postcount=2022
Das heißt soviel wie:
Antialiasing for free!!!!!!!!!!!!!!!!!!!!!!!! :freak:
Andi Y
2016-06-22, 14:53:44
@Andi Y,
Laut Newsegg, nicht PCGH. Und das war hier schon. Einfach ne Seite zurück gehen. Diese ständigen Wiederholungen in dem Thread nerven.
@Reviews,
macht CB noch in Case tests oder mittlerweile nur noch aufm Benchtable?
Mach dich mal locker, nachdem hier in 10 min ca. 1000 Post gelöscht wurden hatte ich es wohl übersehen. Und ständig ist wohl leicht übertrieben bei einer Wiederholung meinerseits.
Godmode
2016-06-22, 15:08:42
was der Kommentar wert ist weiß ich nicht:
http://semiaccurate.com/forums/showpost.php?p=266518&postcount=2022
Das klingt auf jeden Fall sehr interessant. Das könnte ein Hinweis sein, dass die Dreiecksverarbeitung stark überarbeitet wurde.
Ailuros
2016-06-22, 15:09:21
Das heißt soviel wie:
Antialiasing for free!!!!!!!!!!!!!!!!!!!!!!!! :freak:
Echt?
Ich bin bei dem hier stecken geblieben:
This behavior reminds me the Larrabee... and now we have it, not from Intel, but a hardware is here to solve a lot of problems!
Nicht dass ich den zitierten Bloedsinn ernst nehme, aber beim obrigen Satz bekam ich trotz allem eine Gaensehaut. Es zeigt lediglich wie viele Trottel in dem Forum unterwegs sind die sich zu "Experten" aufspielen.
Das klingt auf jeden Fall sehr interessant. Das könnte ein Hinweis sein, dass die Dreiecksverarbeitung stark überarbeitet wurde.
Wurde schon mal gemeldet und gehoert wohl zu den wichtigsten Architektur-bedingten Aenderungen bei dieser Generationen. Stets alle moeglichen Uebertreibungen zur Seite ;)
mironicus
2016-06-22, 15:19:12
Jetzt darf also schlampig programmiert werden, und die Hardware arbeitet es noch schneller ab als früher... :D
Da bekommt jeder Programmierer hier rote Backen. ;D
MechWOLLIer
2016-06-22, 15:27:19
macht CB noch in Case tests oder mittlerweile nur noch aufm Benchtable?
Wie haben aus gutem Grund noch nie (!) Grafikkarten auf dem Bench-Table getestet. Und das wird sich so schnell auch nicht ändern :)
mironicus
2016-06-22, 15:51:54
Wie haben aus gutem Grund noch nie (!) Grafikkarten auf dem Bench-Table getestet. Und das wird sich so schnell auch nicht ändern :)
Wie könnt ihr dann Lautstärkeangaben zu den Grafikkarten machen, die Ergebnisse würden durch ein Gehäuse doch nur verfälscht werden?
Wie haben aus gutem Grund noch nie (!) Grafikkarten auf dem Bench-Table getestet. Und das wird sich so schnell auch nicht ändern :)
Jo. Mir war nur nicht Bewusst (Wissentlich) ob das weiterhin besteht. (Videos sind meist im offenen Aufbau) Danke für deine Info.
N0Thing
2016-06-22, 16:07:12
Wie könnt ihr dann Lautstärkeangaben zu den Grafikkarten machen, die Ergebnisse würden durch ein Gehäuse doch nur verfälscht werden?
Das wird im entsprechenden Artikel erklärt:
http://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/#abschnitt_das_neue_und_moderne_testsystem
http://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/3/
Kühlung und Lautstärke
Für die Lautstärkemessungen unter Last kommt das Strategiespiel Anno 2205 zum Einsatz. Die Messung erfolgt nach einer 30-minütigen Aufwärmphase, wobei sämtliche Systemlüfter (CPU-Lüfter sowie Gehäuse- und Netzteillüfter) angehalten werden. Sie wird im Abstand von 30 cm zur Grafikkarte durchgeführt, wobei das Gehäuse geöffnet ist. Die Auflösung beträgt dabei 3.840 × 2.160 (B × H). Damit die Geräuschcharakteristika des Lüfters besser wahrgenommen werden können, was der Messwert der Lautstärke alleine nicht vermag, dienen Videos zusätzlich zur Illustration. Sofern die Lüfterdrehzahl zuverlässig ausgelesen werden kann, wird diese ebenfalls mit angegeben.
BlacKi
2016-06-22, 16:07:35
Das heißt soviel wie:
Antialiasing for free!!!!!!!!!!!!!!!!!!!!!!!! :freak:
tja, deshalb hat man wohl x8 aa im ashes verwendet. ich fand das zumindest ohne diese neue info komplett hirnrissig.
mironicus
2016-06-22, 16:10:10
Finden die Tests eigentlich in klimatisierten Räumen statt? Denn wenn es am Wochenende in manchen Teilen Deutschlands bis zu 40 Grad warm wird, kann die Karte vielleicht nicht ihren vollen Boost ausfahren.
Dann würde es mich nicht wundern, wenn in den Benchmarks der Boost bei unter 1266 Mhz stehen würde. :)
tja, deshalb hat man wohl x8 aa im ashes verwendet. ich fand das zumindest ohne diese neue info komplett hirnrissig.
Vielleicht hat AMD den Chip auch so getweakt, dass Gameworks-Effekte schneller laufen als zuvor. Das sollte man unbedingt mit Witcher 3 testen!
Solang die Raumtemperatur angegeben wird, ist doch alles ok. :-)
BlacKi
2016-06-22, 16:22:22
Vielleicht hat AMD den Chip auch so getweakt, dass Gameworks-Effekte schneller laufen als zuvor. Das sollte man unbedingt mit Witcher 3 testen!
nö, würde aber erklären warum die c7 benches ohne x8aa abkacken.
Gipsel
2016-06-22, 16:25:14
tja, deshalb hat man wohl x8 aa im ashes verwendet. ich fand das zumindest ohne diese neue info komplett hirnrissig.Ähm, kleiner Tipp: Den Einwurf von Mironicus vom freien AA solltest Du vielleicht nicht so ganz für bare Münze nehmen. ;)
MechWOLLIer
2016-06-22, 16:34:48
Jo. Mir war nur nicht Bewusst (Wissentlich) ob das weiterhin besteht. (Videos sind meist im offenen Aufbau) Danke für deine Info.
Ja, die Videos sind im offenen Aufbau, weil im Gehäuse sieht das halt bekloppt aus.
Wie könnt ihr dann Lautstärkeangaben zu den Grafikkarten machen, die Ergebnisse würden durch ein Gehäuse doch nur verfälscht werden?
Was genau meinst du damit?
Nightspider
2016-06-22, 16:37:35
Freitag sollen 33°C werden, also @deutsche Reviewer immer schön in der Nacht benchen! :ulol:
@MechWOLLIer,
mironicus (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11076270&postcount=7395) stellte dir die Frage :D
Ailuros
2016-06-22, 17:30:06
Jetzt darf also schlampig programmiert werden, und die Hardware arbeitet es noch schneller ab als früher... :D
Da bekommt jeder Programmierer hier rote Backen. ;D
https://forum.beyond3d.com/posts/1925339/
:freak::freak:
krissbay
2016-06-22, 17:51:40
heutziger Benchmark. die 2900 in Fire Strike Ultra scheinen bestätigt.
http://www.3dmark.com/fs/8900159
MilesEdgeworth
2016-06-22, 17:55:29
heutziger Benchmark. die 2900 in Fire Strike Ultra scheinen bestätigt.
http://www.3dmark.com/fs/8900159
Das passt ja wie die Faust aufs Auge zu den Firestrike Benchmarks, die Videocardz vor etwa einer Woche gepostet hat. Dort waren es 2856 Punkte in Ultra und 5708 in Extreme. (Quelle (http://videocardz.com/61005/new-amd-radeon-rx-480-3dmark-benchmarks))
Digidi
2016-06-22, 17:57:09
Erster Ashes Benchmark:
http://ashesofthesingularity.com/metaverse#/personas/50945868-6cbf-4daf-b7f8-9651f33d7edd/match-details/e823311b-e543-4917-938c-f55fc30dcb54
Hier die übersicht :)
http://ashesofthesingularity.com/metaverse#/ladders/benchmark/overall/High_1080p?viewType=myself&filters=%7B%22gameVersion%22:%221.23.20458.0%22%7D
Fliwatut
2016-06-22, 17:59:27
Sind die Benches gut oder schlecht? Ich kann das nicht einordnen. Wie schneiden da die R9 390, GTX 970/80 ab?
ZuseZ3
2016-06-22, 18:05:40
Sind die Benches gut oder schlecht? Ich kann das nicht einordnen. Wie schneiden da die R9 390, GTX 970/80 ab?
Hast du die letzten Wochen unter einem Stein gehaust? :biggrin:
mironicus
2016-06-22, 18:07:06
Sind die Benches gut oder schlecht? Ich kann das nicht einordnen. Wie schneiden da die R9 390, GTX 970/80 ab?
Die GPU-Punkte der R480x in Firestrike sind etwa so hoch wie eine nicht übertaktete R290x. Das kann bei Spielen aber auch ein wenig anders aussehen.
Sind die Benches gut oder schlecht? Ich kann das nicht einordnen. Wie schneiden da die R9 390, GTX 970/80 ab?
Eine Default 970 macht 2.5k
Eine 390x 2.9k
Eine 980 3k
Fliwatut
2016-06-22, 18:12:50
Eine Default 970 macht 2.5k
Eine 390x 2.9k
Eine 980 3k
Danke. Also alles so wie man es realistisch annehmen konnte.
fondness
2016-06-22, 18:16:10
Neue Bilder:
http://videocardz.com/61340/amd-radeon-rx-480-rumors-part-4
AMD RX 480 Already Available For Preorder, To Be In-Stock In Large Quantities At Launch Thanks To “Strong” Supply
http://wccftech.com/amd-rx-480-pre-order-in-stock/
Karümel
2016-06-22, 18:24:24
Wann kommen eigentlich die kleineren Karten also 460 bzw. 470?
Also Tests und auf den Markt?
illidan
2016-06-22, 18:25:51
Wenn man in Firestrike 4k die 390X erreicht, wird P10 die 970 in WQHD bei modernen Spielen wahrscheinlich ziemlich zersägen.
krissbay
2016-06-22, 18:28:09
Wann kommen eigentlich die kleineren Karten also 460 bzw. 470?
Also Tests und auf den Markt?
Die letzten Gerüchten sprechen von Ende Juli
marc-05
2016-06-22, 18:29:33
Kann da einer den Speicher einschätzen bezüglich der OC Chancen
Samsung K4G80325FB-HC25
http://fs5.directupload.net/images/160622/4rfdd53r.jpg (http://www.directupload.net)
Ist denke ich derselbe Speicher wie auf der 1070. Samsung, 8 Gb/8 Gbps. Es haengt aber auch viel vom MC ab
mironicus
2016-06-22, 18:39:08
Neue Bilder:
http://videocardz.com/61340/amd-radeon-rx-480-rumors-part-4
Mit deutschen Treiber-Screenshots. Also hat ein deutscher Reviewer etwas geleakt. Wer verwendet hier ein i7-3960x mit 16 GB? :deal:
http://cdn.videocardz.com/1/2016/06/AMD-RX-480-Radeon-Settings.jpg
..... es ist wohl ein Testsystem von Hardwareluxx! :D
http://www.hardwareluxx.com/index.php/news/software/benchmarks/34730-3dmark-api-overhead-test-amd-outperforms-nvidia-dx12-on-par-with-mantle.html
i7-3960x mit 16 GB Testsystem... passt! :D
Hakim
2016-06-22, 18:41:50
Sry frage nur weil ich mich bei AMD Karten nicht auskenne (evt ist es ja schon durch Treiberupdates behoben), die alten AMD Karten waren ja im Blu-ray Betrieb wegen dem hohen Takt nicht so gut im verbrauch, hat sich mal AMD diesbezüglich bei Polaris geäußert?
illidan
2016-06-22, 18:45:13
Da bleibt nur konkrete Tests abzuwarten.
Bis Tonga war die VPU auch ziemlich schlecht, da kann sich einiges getan haben. Auch müsste man sicherstellen, dass nicht irgendwelche Videofilter im Treiber aktiv sind, die Shaderleistung verbraten.
Sry frage nur weil ich mich bei AMD Karten nicht auskenne (evt ist es ja schon durch Treiberupdates behoben), die alten AMD Karten waren ja im Blu-ray Betrieb wegen dem hohen Takt nicht so gut im verbrauch, hat sich mal AMD diesbezüglich bei Polaris geäußert?
Seit Fury schon verbessert. Einfach nen CB Test zu Gemüte führen und mit den Vorgängern Vergleichen.
FuryX > 97W @BluRay @Gesamtsystem
390X > 152W @BluRay @Gesamtsystem
380 Strix > 130W @BluRay @Gesamtsystem
illidan
2016-06-22, 18:57:08
Fury kann man nicht als Vergleich dafür heranziehen wegen HBM.
Godmode
2016-06-22, 19:00:11
Wenn man in Firestrike 4k die 390X erreicht, wird P10 die 970 in WQHD bei modernen Spielen wahrscheinlich ziemlich zersägen.
Sieht gut aus!
Da kann man sich dann schon auf Vega freuen, und vielleicht gibts dann wirklich wieder mal einen ordentlichen Preiskampf.
Fury kann man nicht als Vergleich dafür heranziehen wegen HBM.
Sondern :D?
Hakim
2016-06-22, 19:17:45
Seit Fury schon verbessert. Einfach nen CB Test zu Gemüte führen und mit den Vorgängern Vergleichen.
FuryX > 97W @BluRay @Gesamtsystem
390X > 152W @BluRay @Gesamtsystem
380 Strix > 130W @BluRay @Gesamtsystem
hier sieht das mit fury x immer noch deutlich schlechter aus gegenüber den grünen.
http://ht4u.net/reviews/2015/amd_radeon_r9_390x_-_hawaii_in_neuen_gewaendern/index20.php
Mit deutschen Treiber-Screenshots. Also hat ein deutscher Reviewer etwas geleakt. Wer verwendet hier ein i7-3960x mit 16 GB? :deal:
http://cdn.videocardz.com/1/2016/06/AMD-RX-480-Radeon-Settings.jpg
..... es ist wohl ein Testsystem von Hardwareluxx! :D
http://www.hardwareluxx.com/index.php/news/software/benchmarks/34730-3dmark-api-overhead-test-amd-outperforms-nvidia-dx12-on-par-with-mantle.html
i7-3960x mit 16 GB Testsystem... passt! :D
Quellenangabe ist ja auch angegeben, Hardwareluxx auf FAcebook, inzwischen aber wohl wieder geloescht
Dino-Fossil
2016-06-22, 19:21:32
Hat jemals jemand getestet, wie sich die Stromaufnahme verhält, wenn man alle Funktionen zur Videoverbesserung deaktiviert/deinstalliert?
@Hakim,
als Vergleich mit den Grünen nicht so toll, wenn man wissen will, ob sich seit 290 etwas verbessert hat, innerhalb der eigenen Karten. Geht halt schlecht. Tonga > Fury ( egal ob es nun wegen HBM ist ) > Polaris noch nicht da
@Dino-Fossil,
die stehen bei AMD auf Standard da ist meines Wissens nichts spezielles Aktiviert.
150mhz Speichertakt (forciert) und 300-330mhz Core bei BluRay @290x. Weniger Verbrauch als bei den Reviews von CB.
Problem liegt bei der Wiedergabe genau dort vor, wie im Dual Monitor, die Taktet den Speicher halt direkt auf volle Möhre obwohl weniger auch ausreicht.
illidan
2016-06-22, 19:31:01
Sondern :D?
Ich habe gerade nochmal H.264 mit Hawaii gecheckt, vielleicht ist der Vergleich doch möglich. Es taktet nämlich nicht der Speicher hoch (womit ich gerechnet hätte), sondern doch die GPU selbst.
Da hätte Polaris gegenüber Hawaii also doch jede Menge Verbesserungspotenzial, auch ohne HBM. Das Taktmanagement mit DXVA2 ist mit Hawaii wirklich katastrophal, mit madVR & Software-Decoding taktet die GPU bei dem gleichen Video trotz wesentlich höherer Shaderlast nicht so hoch...
Hakim
2016-06-22, 19:31:19
Ja auf Polaris warten, das wäre bei mir schon ein Kriterium, weil ich die TV-Karte (HD) nonstop mit dem PC laufen lasse und das quasi mein Idle ist.
@illidan
Wie hoch taktet deine 290x denn bitte? Hab gerade ne BluRay laufen und es schwankt zwischen 300-330 und ganz kurze Spikes auf 340.
Edit: Nutze PowerDVD
Brillus
2016-06-22, 19:33:04
VSR an sich steigert die Speicherlast kaum, aber eben Shadow-Maps und Texturen. In diversen Spielen kann man maximale Details mit 4G nicht mal (ohne Ini-Hacks) auswählen, zB CoD BO3 und Doom.
@ deekey777
Ja, Messungen laufen seit gestern.
Auch eine Variante Linux Benchmarks zu bekommen.
Aber was ganz anderes gibt es schon irgendwelche Infos bzgl P10 in Notebooks?
illidan
2016-06-22, 19:39:51
@illidan
Wie hoch taktet deine 290x denn bitte? Hab gerade ne BluRay laufen und es schwankt zwischen 300-330 und ganz kurze Spikes auf 340.
Mangels BD-Laufwerk muss ich andere H.264 Videos testen, ändert aber für die Betrachtung nichts.
Spiele ich ein 1080p 30fps (mit anderen Eigenschaften nicht signifikant anders als bei einer BD) Video ohne Upscaling mit DXVA2-Decoding via der Win 10 App oder dem WMP ab, taktet die GPU auf ~730Mhz.
Spiele ich dasselbe Video mit madVR mit höherer Shaderlast, aber Software-Decoding ab, sind es ~500Mhz.
Und mit DXVA2-Decoding und gleichzeitigem Upscaling auf WQHD in der Win 10-App läuft die Karte dann irrsinnigerweise mit Volltakt, obwohl die Auslastung nicht besonders hoch sein dürfte.
Das ist wirklich grottenmies und sollte unbedingt mit Polaris verbessert sein.
Hm... den hohen Takt krieg ich nur, wenn ich es auf 60fps hochrechnen lasse, sonst nicht.
Erklärt den Unterschied nicht, würde gern wissen wieso.
Flusher
2016-06-22, 20:00:18
Eine Default 970 macht 2.5k
Eine 390x 2.9k
Eine 980 3k
Naja im Graphics Score ist der Abstand von dem RX480 Ergebnis zur default GTX 980 etwa 350 Punkte / 10%
http://www.3dmark.com/compare/fs/8900159/fs/3225917
Linmoum
2016-06-22, 20:05:13
Naja im Graphics Score ist der Abstand von dem RX480 Ergebnis zur default GTX 980 etwa 350 Punkte / 10%
http://www.3dmark.com/compare/fs/8900159/fs/3225917
Dann schau mal bei beidem genauer zur CPU hin.
Ansonsten passt das ganz gut zu dem von VC.
http://cdn.videocardz.com/1/2016/06/AMD-Radeon-RX-480-3DMark-Fire-Strike-2.png
http://videocardz.com/61005/new-amd-radeon-rx-480-3dmark-benchmarks
Digidi
2016-06-22, 20:28:03
Schaut euch mal ashes an. Wo kommen die ganzen RX 480 denn her????
http://ashesofthesingularity.com/metaverse#/ladders/benchmark/overall/Medium_1080p?viewType=myself&filters=%7B%22gameVersion%22:%221.23.20458.0%22%7D
Troyan
2016-06-22, 20:29:09
Reviewer, die nicht wissen, wie man die Upload-Funktion ausschaltet. :D
Menace
2016-06-22, 20:34:26
Dir Fury wird ihre Daseinsberechtigung erst einmal behalten (http://ashesofthesingularity.com/metaverse#/ladders/benchmark/overall/Medium_1440p?viewType=myself&filters={"gameVersion":"1.23.20458.0","api":"DirectX%2012"}).
Flusher
2016-06-22, 20:36:34
Dann schau mal bei beidem genauer zur CPU hin.
Ansonsten passt das ganz gut zu dem von VC.
http://cdn.videocardz.com/1/2016/06/AMD-Radeon-RX-480-3DMark-Fire-Strike-2.png
http://videocardz.com/61005/new-amd-radeon-rx-480-3dmark-benchmarks
Die paar MHz mehr CPU Takt schlagen im Graphics-Score nicht so stark durch. Sofern der Messwert der RX480 korrekt ist, dann dürfte die Karte tatsächlich nur etwa 5-10% schwächer sein als die GTX 980.
Troyan
2016-06-22, 20:38:14
Also das Ashes-Ergebnis ist schlecht. Eine GTX1070 ist mit High in 1080p 50% schneller und in 1440p nur 12% langsamer als ein Crossfire-System mit 2x 480 Karten. Benchmarks von diesem User: http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17?ladderId=x
/edit: AMD hat für die 470 47FPS in high angegeben. Die 480 erreicht zwischen 53 bis 55 mit dem selben Prozessor. Also ist zwischen 14% bis 17% schneller.
Digidi
2016-06-22, 20:44:17
Äh 50% Also ich sehe hier die 1070 eingekesselt. Die 1070 ist gerade mal 13% Schneller als die Einzelkarte:
http://ashesofthesingularity.com/metaverse#/ladders/benchmark/overall/Medium_1080p?viewType=myself&filters=%7B%22gameVersion%22:%221.23.20458.0%22%7D
999.NH mit einer RX 480 hat 58 fps. I.G.I.N.E.C.I hat mit seiner gtx 1070 gerade mal 66 fps. Das sind 8 fps unterschied.
Troyan
2016-06-22, 20:55:00
Hier gibt es gleichwertige Ergebnisse, da selbe Plattform:
GTX1070 1080p 8300 Punkte: http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/b04c92d3-107c-433e-b889-9ed227942f5a
RX480 1080p 5500 Punkte: http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/f6beb69d-dc9c-42e6-bb07-afbad58324a4
Unterschied liegt bei 50%.
Achill
2016-06-22, 20:55:54
Von dem User "小吉吉" gibt es ja mehrere Ergebnisse auf dem anscheinend gleichen System, was bei AotS sehr wichtig ist, da es eine dicke CPU braucht um fette GPUs bzw. 2x GPU-Systeme richtig befeuern zu können.
Vom User gibt es folgende Ergebnisse (Wir wissen natürlich nicht welcher Takt bei CPU und den jeweiligen GPUs anlag)...
für High (1080p):
- i7-5960X / GTX 970 => 52.8 fps (http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/6d03646c-5880-4672-8f6a-8898d233cac9)
- i7-5960X / RX 480 => 56.2 fps (http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/f6beb69d-dc9c-42e6-bb07-afbad58324a4)
- i7-5960X / RX 480 (2x) => 86.0 fps (http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/d4dad8ef-a197-471b-9a00-e4c4fff812ad)
- i7-5960X / GTX 1070 => 84.5 fps (http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/b04c92d3-107c-433e-b889-9ed227942f5a)
für High (1440p):
- i7-5960X / GTX 970 => 45.2 fps (http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/51d7869d-5bd1-41d6-acb1-11cec2d0a6e1)
- i7-5960X / RX 480 => 48.3 fps (http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/6f9f568f-ef3c-41ce-926b-f1c2949ace34)
- i7-5960X / RX 480 (2x) => 81.3 fps (http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/85d570c9-2c85-46f4-892c-fea196b1ffcd)
- i7-5960X / GTX 1070 => 72.6 fps (http://ashesofthesingularity.com/metaverse#/personas/93e33aa6-480f-4178-88dd-6b7266a8fb17/match-details/b63b4d52-a073-4c95-b4bf-558aae747888)
Troyan
2016-06-22, 20:57:03
Oder so. Vielen Dank Achill.
Ailuros
2016-06-22, 21:04:05
Ich sehe keinen Grund dass AMD gelogen hat als sie behaupteten dass sich die RX480 zwischen einer 970 & 980 Leistungsmaessig platziert.
Linmoum
2016-06-22, 21:05:02
Hab ich was verpasst oder wo hat AMD sich bisher offiziell darüber geäußert, wo sich die 480 einordnen wird?
Tamagothi
2016-06-22, 21:06:42
Ohne den Takt zu wissen sind die zahlen für den Popes
Am 29. wird es ein reddit AMA zu Polaris von AMD geben.
Troyan
2016-06-22, 21:59:07
Kein Plan, ob echt:
http://i1024.photobucket.com/albums/y303/martmail55/TB2qLcGqVXXXXcPXpXXXXXXXXXX_86925373_zpshnl1mgms.jpg
http://forums.anandtech.com/showpost.php?p=38309855&postcount=2845
/edit: 32 ROPs wären echt verdammt wenig.
Digidi
2016-06-22, 22:06:15
32 rops sagt garnicht aus solange du nicht weißt wie sie intern aufgebaut sind. Da könnte auch 1.000.000 stehen oder 1. Wenn die Leistung stimmt ist das egal. AMD wird schon wissen warum sie nur 32 rops verwenden. Amd lag da oft besser als Nvidia.
Mann könnte nun auch sagen GP104 nur 2500 Shader wie wenig im Gegensatz zu Fiji mit 4000 Shadern. So einfach ist dies aber nicht.
Am meisten kommt es auf den Programmierer an was er aus der Hardware macht und ich kann dir eins sagen Rasterizer und Rops sind zurzeit nicht so gefragt wie Shaderleistung ;D
Siehe DX12 und FIJI wo die Shader mal gut ausgelastet werden und mit Async Compute ist da noch viel Luft nach oben.
MadPenguin
2016-06-22, 22:21:09
http://semiaccurate.com/forums/showpost.php?p=266567&postcount=2049
Finde ich nice :D
Linmoum
2016-06-22, 22:31:25
Warum nutzt man da bitte einen i3? :freak:
Dural
2016-06-22, 23:12:11
Oh wunder 32ROPs, ich habe es ja gesagt. :wink:
Sven77
2016-06-22, 23:20:33
http://semiaccurate.com/forums/showpost.php?p=266567&postcount=2049
Finde ich nice :D
i3 4630, wtf?
Gipsel
2016-06-22, 23:26:03
Oh wunder 32ROPs, ich habe es ja gesagt. :wink:Auf die Möglichkeit haben Andere bereits deutlich vor Dir hingewiesen. ;)
Die Hardcore Fans geben sich zumindest auch schon Muehe vor dem Launch ;D
http://imgur.com/a/8iyJO
Thunder99
2016-06-22, 23:36:47
Egal wie "geil" die RX480 wird. Waiting for Vega :cool:
Ich finde es sehr schwer Polaris bis dato richtig einzuordnen. Das Polaris aufgrund wohl lediglich 32ROPS in AotS schlecht dasteht, war abzusehen. Auf der anderen Seite sind die 3DK-Werte, welche Polaris auf 390x-Niveau sehen, eher mit leichtem Plus an Performance.
Wichtig wird für P10 sein, wie er sich in den Situationen schlägt, wo Hawaii und Fiji versagen. Wenn Polaris unter 1080p ähnlich perfort wie eine 980 (Stichwort Overhead) und unter 1440p wie eine 390x, dann macht man mit einem Kauf imo nicht viel verkehrt. Im Gegensatz zu Hawaii sollte man mit entsprechenden Custom-Designs auch die Möglichkeit haben das Ding auch ohne Knüppel problemlos über 30% Takt zu bringen.
Digidi
2016-06-23, 00:29:48
Also hier hat sie 64 rops! U D techpowerup macht ja gpu-z :wink:
https://www.techpowerup.com/gpudb/2848/radeon-rx-480
Im übrigen hat gpu Z noch keine Unterstützung für die rx 480
https://www.techpowerup.com/gpudb/2848/radeon-rx-480
Troyan
2016-06-23, 00:31:57
GPU-Z wurde vor zwei Tagen angepasst. Der Datenbankeintrag existiert schon länger.
Komisch - noch kein Leak eines Benchmarks von einem (AAA-)Spiel. Das einzige was es bisher zu sehen gab war 3dk11+13 und AotS. Warum sind diesmal die Klappen dicht?
Agent117
2016-06-23, 00:50:04
Gleiche Leistung wie 390X bei gleicher Rohleistung ist ja wohl der aktuelle Stand wenn die 1266Mhz wirklich gehalten werden.
Wenn die wirklich einen L0 Buffer druntergehauen haben und noch die anderen Verbesserungen (gab da ja mal ein Video von Mike Mantor zu) sollte man doch in einigen Spielen schon eher in Richtung Nano kommen, eventuelle Bandbreitenlimitierung (glaube ich nichtmal) und fehlende ROP Leistung (glaube ich auch nicht so richtig) hin oder her.
R9 390X Leistung bei 100W wäre aber auch schon besser als Pascal was Perf/W betrifft.
illidan
2016-06-23, 00:52:29
R9 390X Leistung bei 100W wäre aber auch schon besser als Pascal was Perf/W betrifft.
Oder anders gesagt: Mitunter doppelt so effizient wie die 960.
Die RX 480 hat MagnaChip MOSFETS verbaut.
6 Phasen für die GPU (VDDC).
Wenn ich den Graphen richtig interpretiere, sind das insgesammt ca. 240A bei 100°C?
MDU1511 (Datasheet (http://www.datasheetspdf.com/datasheet/download.php?id=835813))
Single N-channel Trench MOSFET 30V, 100.0A, 2.4mΩ
TC =25°C - 100.0A
TC =70°C - 94.0A
MDU1514 (Datasheet (http://www.datasheetspdf.com/datasheet/download.php?id=942478))
Single N-channel Trench MOSFET 30V, 66.3A, 6.0mΩ
TC =25°C - 66.3A
TC =70°C - 53.0A
Sehe ich auch so, aber in wie fern ist dies von Relevanz?
GPU-Z wurde vor zwei Tagen angepasst. Der Datenbankeintrag existiert schon länger.
Exakt - zudem steht TPU unter NDA. Die werden wohl den Teufel tun auf Ihrer Datenbank etwas zu verändern
weiß nicht ob das schon gepostet wurde. anscheinend bestätigt sapphire indirekt die 1500mhz OC und das neue AMD OC Tool.
http://i.imgur.com/LaPKiKF.png?1
Egal wie "geil" die RX480 wird. Waiting for Vega :cool:
http://i.imgur.com/GdUlta7.png
Die Hardcore Fans geben sich zumindest auch schon Muehe vor dem Launch ;D
http://imgur.com/a/8iyJO
#BETTERRED (https://pbs.twimg.com/media/ClcBw44VYAEUZAO.jpg:orig)
Fliwatut
2016-06-23, 09:01:09
Was ist denn in Shanghai this week?
robbitop
2016-06-23, 09:08:54
Wenn es bei R390X Leistung bleibt, ist zu schlussfolgern:
- takt/einheitennormierte Leistung steigt anscheinend nicht signifikant (R390X hat vergleichbare Rohleistung)
- Polaris benötigt offenbar weniger Bandbreite für gleiche Leistung (R480X hat grob 66% der Bandbreite von R390X)
- Polaris braucht Fertigungsnormiert nicht weniger Transistoren als R390X. R480X wäre @28nm sogar größer als R390X bei weniger CUs aber modernerer mArch.
Natürlich muss man zunächst Spielebenchmarks abwarten. Aber nach den Angaben der mArch Verbesserungen in GCN4 habe ich zumindest in Bezug auf den ersten Punkt etwas mehr erwartet.
Das konkrete Produkt hingegen ist aus PL Sicht ein offenbar sehr attraktives.
Dural
2016-06-23, 09:27:37
also die letzten 3DMark Ultra werte (2600) die ich gesehen habe lagen doch leicht unter der 390X ;)
Gab es neben den vielen Fake werten überhaupt einen Benchmark wert über der 390X? wenn ja muss ich den verpasst haben.
Schnoesel
2016-06-23, 09:48:00
Ich kann mir gut vorstellen, dass die Karte unter der R9390X in 4K liegt. Es ist eben auch keine 4K Karte sondern eine 1080p Karte. Genauso preist sie AMD imo auch an. Also keine Ahnung was die Leute bei ner 199$ Karte mit 4K Benches wollen?! Wichtig ist was sie in 1080p und mit Abstrichen in 1440p leistet. 4K ist imo für diesen Preisbereich irrelevant.
Virtual
2016-06-23, 09:53:04
Wenn es bei R390X Leistung bleibt, ist zu schlussfolgern:
- takt/einheitennormierte Leistung steigt anscheinend nicht signifikant (R390X hat vergleichbare Rohleistung)
- Polaris benötigt offenbar weniger Bandbreite für gleiche Leistung (R480X hat grob 66% der Bandbreite von R390X)
- Polaris braucht Fertigungsnormiert nicht weniger Transistoren als R390X. R480X wäre @28nm sogar größer als R390X bei weniger CUs aber modernerer mArch.
Natürlich muss man zunächst Spielebenchmarks abwarten. Aber nach den Angaben der mArch Verbesserungen in GCN4 habe ich zumindest in Bezug auf den ersten Punkt etwas mehr erwartet.
Das konkrete Produkt hingegen ist aus PL Sicht ein offenbar sehr attraktives.
Das kontrete Produkt ist nicht nur wegen der PL Sicht sehr attraktiv, sondern insbesondere wegen der drastisch gestiegenen Energieeffizienz von GCN4. Das Designziel für GCN4 war, denn mittlerweile ist es offensichtlich, die Steigerung der Energieeffizienz und weit weniger die bessere Auslastung der Shader, wofür auch GCN4 weiterhin auf asynchronous compute setzt. Bei der Energieeffizienz dürfte es nun eine Kopf-an-Kopf rennen mit NVidia geben.
Michalito
2016-06-23, 10:27:37
390X Perfomance mit 110 Watt? Und allen Neuerungen in der Architektur? 8GB Ram? 230 bis 240€? Gekauft.
mironicus
2016-06-23, 10:39:08
Wird Vega wohl mit der 1080 mithalten können?
Einen groben Anhaltspunkt gibt es schon, man muss aber vorher trotzdem erst die Eckdaten von Vega wissen, wir haben ja immer noch keine Ahnung ob das mit 64 CUs stimmt und ob noch ein groesserer oder gar ein kleinerer Chip kommt.
jorge42
2016-06-23, 10:43:01
390X Perfomance mit 110 Watt? Und allen Neuerungen in der Architektur? 8GB Ram? 230 bis 240€? Gekauft.
die geringe Leistungsaufnahme finde ich gut, keine Lust ein neues Netzteil kaufen zu müssen. Aber das waren 229 US$ also gehe ich dann eher von >250 EUR aus...trotzdem gekauft.
mironicus
2016-06-23, 10:59:32
Gibt es für AMD-GPUs eigentlich schon ein gescheites H265-Encoding Programm, vergleichbar mit NVEnc für NVidia, dass man in einem Programm wie StaxRip implementieren könnte?
deekey777
2016-06-23, 11:02:30
Gibt es für AMD-GPUs eigentlich schon ein gescheites H265-Encoding Programm, vergleichbar mit NVEnc für NVidia, dass man in einem Programm wie StaxRip implementieren könnte?
Weil es (noch) keine AMD-Hardware mit HEVC-Encoder gibt, kannst du dir die Antwort selbst basteln.
StaxRip unterstützt als eines der wenigen Programme VCE (H.264) überhaupt.
Ich würde mir da keine großen Hoffnungen machen. Vom Handbrake gibt es eine - wohl von AMD zu verantwortende - Version, die VCE unterstützt. Diese ist nicht öffentlich, ob und wann sie veröffentlicht wird, ist unklar.
Locuza
2016-06-23, 11:07:48
Wird Vega wohl mit der 1080 mithalten können?
Das wäre peinlich, wenn man mit 512 GB/s HBM und 4096 ALus da nicht mithalten könnte.
Apropo Vega, Raja hat noch mehr getwittert:
https://abload.de/img/vega101dsqq.jpg
https://twitter.com/GFXChipTweeter
Ich bin kein großer Fan davon, dass man noch lange warten muss bevor man ihn sieht.
Scheint auf 2017 hinaus zu laufen.
Michalito
2016-06-23, 11:09:37
. Aber das waren 229 US$ also gehe ich dann eher von >250 EUR aus...trotzdem gekauft.
Habe schon Preise gesehen.. Kann eine Powercolor jetzt für den 29. für 240 bestellen. 1000%
Ben Carter
2016-06-23, 11:29:24
Bei Vega 10 würde ich vermuten, dass er um den Faktor 2,5 bis 3 schneller sein wird, als die RX 480, sofern wirklich 6144 Shadereinheiten reinkommen sollten. Bei weniger Einheiten wird es schwieriger zu sagen, denn dann wird es auch ein höher taktendes Design. Aber ich vermute mal, dass man pro Shadereinheit auf ca. 10% Mehrperformance gegenüber Polaris erreicht (bei gleichem Takt und Energieverbrauch).
Wenn man von 120W für die RX 480 ausgeht und Vega 10 250W zugesteht, dann dürfte Faktor 2,5 erreichbar sein.
10% höhere Effizienz + HBM statt GDDR5 ergeben ~300W Polaris = 250W Vegas.
(250*1,1 + 25 (25W weniger für den Speicher)) / 120 = 2,5
lg Ben
Dural
2016-06-23, 11:33:54
Soll das bedeuten das sie mit Vega10 fertig sind?
Milestone = vermutlich Tapeout :confused: Warum feiern die das oeffentlich? Die sollten imho mal weniger Theater machen :rolleyes:
@Ben: Ganz sicher bekommt der naechste Chip keine 6144 SP, das waere annaehernd Faktor 3 zu P10, ein viel zu grosses Loch. Erstmal kommt der kleine Vega.
stinki
2016-06-23, 11:54:36
Milestone = vermutlich Tapeout :confused: Warum feiern die das oeffentlich? Die sollten imho mal weniger Theater machen :rolleyes:
@Ben: Ganz sicher bekommt der naechste Chip keine 6144 SP, das waere annaehernd Faktor 3 zu P10, ein viel zu grosses Loch. Erstmal kommt der kleine Vega.
Wenn das jetzt erst der Tape-Out Milestone für Vega 10 war, dann wird das mit Ende 2017 aber auf jeden Fall nichts mehr. Die brauchen mindestens 9 bis 12 Monate von Tape-Out bis Release wenn wirklich ALLES glatt geht und A0 Silicon fliegt.
Wahrscheinlich auf 14LPP mit immer länger werdenden Durchlaufzeiten durch die Fab eher 12 Monate.
War das vielleicht der Bring-Up Milestone???
stinki
2016-06-23, 12:02:47
Bei Vega 10 würde ich vermuten, dass er um den Faktor 2,5 bis 3 schneller sein wird, als die RX 480, sofern wirklich 6144 Shadereinheiten reinkommen sollten. Bei weniger Einheiten wird es schwieriger zu sagen, denn dann wird es auch ein höher taktendes Design. Aber ich vermute mal, dass man pro Shadereinheit auf ca. 10% Mehrperformance gegenüber Polaris erreicht (bei gleichem Takt und Energieverbrauch).
Wenn man von 120W für die RX 480 ausgeht und Vega 10 250W zugesteht, dann dürfte Faktor 2,5 erreichbar sein.
10% höhere Effizienz + HBM statt GDDR5 ergeben ~300W Polaris = 250W Vegas.
(250*1,1 + 25 (25W weniger für den Speicher)) / 120 = 2,5
lg Ben
Was man nicht vergessen darf bei Vega 10 sind die vielleicht zusätzlichen FP64 Fähigkeiten, die unterumständen Effizienz kosten werden.
Ich frage mich schon die ganze Zeit ob Vega 10 überhaupt die volle 1:2 FP64:FP32 Funktionalität bekommt, falls er wirklich mit nur zwei HBM Memory Chips kommt könnten 8GB bzw. 16GB maximaler Speicherausbau etwas wenig sein.
Die reine Rechenleistung von ca. 4+TFlops DP wäre schon okay aber vielleicht etwas wenig Speicher im Vergleich zu GP100 mit seinen vier HBM Chips und 16/32GB.
Bei Hawaii hat das AMD wenig gekostet, das wurde schon oft genug dargelegt. Allerdings koennten auch sonstige Aenderungen Effizienz kosten und es summiert sich dann halt. FP16? GMI Interconnect? GP100 mit all diesen Extras war fuer NV dahingehend sehr "teuer"...
Milestone = vermutlich Tapeout :confused: Warum feiern die das oeffentlich? Die sollten imho mal weniger Theater machen :rolleyes:
@Ben: Ganz sicher bekommt der naechste Chip keine 6144 SP, das waere annaehernd Faktor 3 zu P10, ein viel zu grosses Loch. Erstmal kommt der kleine Vega.
Sie suchen halt den Kontakt zur Community. Find ich gut.
Wenn Vega jetzt schon angetwittert wird, kommt das Ding bis Ende des Jahres.
Hoffentlich;-)
jorge42
2016-06-23, 12:26:51
Habe schon Preise gesehen.. Kann eine Powercolor jetzt für den 29. für 240 bestellen. 1000%
die 8 GB Version?:eek:
Thunder99
2016-06-23, 12:28:36
Danke für die Infos zu Vega. Ende 2016 Anfang 2017 wird das Ding schon erscheinen :cool:
Ben Carter
2016-06-23, 12:30:23
@Ben: Ganz sicher bekommt der naechste Chip keine 6144 SP, das waere annaehernd Faktor 3 zu P10, ein viel zu grosses Loch. Erstmal kommt der kleine Vega.
Das Loch könnte man dann mit Salvage-Chips füllen.
Was man nicht vergessen darf bei Vega 10 sind die vielleicht zusätzlichen FP64 Fähigkeiten, die unterumständen Effizienz kosten werden.
Die Frage ist, ob Vega 10 die auch bekommt oder nur Vega 11 und ich denke nicht, dass sie viel Effizienz fressen, allerdings natürlich Transistorbudget.
lg Ben
Zergra
2016-06-23, 12:31:37
Milestone = vermutlich Tapeout :confused: Warum feiern die das oeffentlich? Die sollten imho mal weniger Theater machen :rolleyes:
@Ben: Ganz sicher bekommt der naechste Chip keine 6144 SP, das waere annaehernd Faktor 3 zu P10, ein viel zu grosses Loch. Erstmal kommt der kleine Vega.
Das war ja auch Vega 10, Vega 10 ist der kleine Chip also ca 4000 SP.
Vega 11 wird danach kommen und die 6144 SP bieten.
Flusher
2016-06-23, 12:43:45
Soll das bedeuten das sie mit Vega10 fertig sind?
Ich schätze mal Milestone LD (=Launch Decision). Was jetzt folgt sind die Vorbereitungen zur Markteinführung. Marketing, Ramp-Up der Produktion, Treiber, Qualitätskontrollen, etc.
Die reine Entwicklungsarbeit (abgesehen des Treibers) dürfte damit abgeschlossen sein
Der_Korken
2016-06-23, 12:50:17
Weiß man eigentlich schon was darüber, mit welchen Geschwindigkeiten HBM2 verfügbar sein wird und wie teuer z.B. 2GB-Chips im Vergleich zu 4GB-Chips werden? Es könnte auch gut sein, dass Vega 10 ein komplettes 4096 Bit SI abbekommt, wo man 4x2GB mit niedrigem Takt (1-1,2Ghz) verbaut statt 2x4GB mit hohem Takt (1,6-2Ghz).
Das Loch könnte man dann mit Salvage-Chips füllen.
Die beschneiden den Chip bestimmt nicht einfach mal um 50%, zumal er trotz der grossen Flaeche dann "verramscht" werden muesste
Die Frage ist, ob Vega 10 die auch bekommt oder nur Vega 11
Wenn der kleine Vega aufs HPC MCM soll, muss er auch entsprechende Computing Faehigkeiten haben.
@Zergra: das brauchst du mir nicht zu erklaeren
Weiß man eigentlich schon was darüber, mit welchen Geschwindigkeiten HBM2 verfügbar sein wird und wie teuer z.B. 2GB-Chips im Vergleich zu 4GB-Chips werden?
Nein
Vega10 ist laut AMD-Folien sowohl der "kleine" Chip in der Familie, als auch im Bereich von geschätzt 20-40% effizienter. AMD wird das Lineup von unten nach oben erweitern.
Die Daten des Chips kennen wir bereits in etwa
Und welche Folien sollen das sein?
Dass es zwei Vegas geben soll ist bisher nur auf eine muendliche Aussage von Raja Kodouri zurueckzufuehren und wurde sonst durch nichts bestaetigt oder schriftlich festgehalten, afaik. Du kannst mir die Folien ja gerne zeigen, wenn ich mich irre.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.