PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

stinki
2016-06-23, 13:02:37
Und er hat wohl "Vega family" gesagt, das könnte meiner Meinung nach aber so etwas wie "Fury X", "Fury", "Fury Nano" bedeuten. Das ist auch eine "Familie" aus drei Chips.

stinki
2016-06-23, 13:06:56
Oder Vega 10 hat eigentlich 4 HBM Controller.
Und nur die für den HPC Einsatz gedachten Chips bekommen 4 Memory Chips.
Und die für den Consumer-Bereich und die auf dem HPC-MCM bekommen nur 2 Memory Chips.
Ich kann mir max. 16GB im HPC Bereich momentan einfach nicht vorstellen...und bis 8Hi HBM Chips verfügbar sein werden, wird es bestimmt auch noch etwas länger dauern...
Das würde zu Anfang nur 8GB für Vega 10 im HPC-Bereich bedeuten...ich weiß nicht, ich weiß nicht...
Für den Consumer-Bereich sind 8GB aus meiner Sicht völlig okay, und wenn dann 8Hi Stacks verfügbar werden kann man ja noch eine 16GB Version nachschieben.

Ailuros
2016-06-23, 13:31:57
Und er hat wohl "Vega family" gesagt, das könnte meiner Meinung nach aber so etwas wie "Fury X", "Fury", "Fury Nano" bedeuten. Das ist auch eine "Familie" aus drei Chips.

Du wolltest wohl eine Familie aus EINEM chip schreiben oder? So verstehe ich es auch und nebenbei wurde mir vor geraumer Zeit gesagt dass Vega bis zu 64 CUs haben wird, nur konnte ich es nie seither bestaetigen von einer zweiten Quelle. Soll heissen dass ich keine Ahnung ueber Vega habe, aber mein Bauchgefuehl tendiert schon aufs obrige.

Sonst zu Radja's neuester Aussage: falls dieser "milestone" den tape out betreffen sollte sind es noch gute 9-10 Monate wenn es sich um A0 silicon handeln sollte.

Schnoesel
2016-06-23, 13:39:17
Etwas müßig darüber zu diskutieren was Milestone sein könnte, wenn es alles mögliche sein könnte. Evtl. ist der Milestone ja auch lediglich der Start des Marketing. Also im Gespräch wollen Sie offenbar auch nach dem Polaris Launch bleiben.

stinki
2016-06-23, 13:43:55
Du wolltest wohl eine Familie aus EINEM chip schreiben oder?

Ja, ich hätte eher schreiben sollen:
Eine drei-köpfige "Familie" aus EINEM Chip.

Die Idee weiter oben mit "Launch Decision" Milestone gefällt mir deutlich besser als Tape-Out :smile:
Dann wäre ein Launch dieses Jahr noch möglich.

stinki
2016-06-23, 13:57:43
So verstehe ich es auch und nebenbei wurde mir vor geraumer Zeit gesagt dass Vega bis zu 64 CUs haben wird, nur konnte ich es nie seither bestaetigen von einer zweiten Quelle. Soll heissen dass ich keine Ahnung ueber Vega habe, aber mein Bauchgefuehl tendiert schon aufs obrige.

Mehr als die "alten" Greenland/Vega Informationen mit 64 CUs haben wir leider scheinbar alle nicht...

stinki
2016-06-23, 14:06:20
Ob es einen Vega 11 vielleicht später noch einmal geben wird hängt wahrscheinlich auch davon ab wie früh (oder spät) die Navi-Architektur und Navi-Chips verfügbar sein werden.
Über Navi wissen wir ja weder den Herstellungsprozess (2nd/3rd Gen 14LPP oder 10nm) noch die Architekturänderungen (Multi-Chip Ansatz oder monolithische Chips).
Wenn wirklich schon Ende 2017/Anfang 2018 Navi kommen sollte dann macht ein sehr großer Vega 11 in Mitte 2017 vielleicht gar keinen Sinn und man konzentriert sich lieber auf Navi (z.B. 10nm oder Multi-Chip-Ansatz).

Tarkin
2016-06-23, 14:18:47
https://www.youtube.com/watch?v=933LBq34y8I

Overwatch in 4k, Max Details auf RX 480

iuno
2016-06-23, 14:34:53
https://www.youtube.com/watch?v=933LBq34y8I
Overwatch in 4k, Max Details auf RX 480

Vergleichswerte?

Der verwendete PB279Q ist kein FreeSync Monitor, ich habe aber zumindest kein Tearing gesehen. VSync zusaetzlich an? Allerdings kann man das natuerlich bei YT auch wieder sehr schlecht beurteilen (wenn ueberhaupt) ;D


Evt hat sich AMD die Option zum Zeitpunkt der Slides offengelassen oder bewusst verschleiert wegen der Konkurrenz ;)
Und das ist jetzt die eindeutige Folie, die du angesprochen hast oder kommt da noch was?

mironicus
2016-06-23, 14:35:12
https://www.youtube.com/watch?v=933LBq34y8I

Overwatch in 4k, Max Details auf RX 480

Vergleichswerte in 4K:
http://www.pcgameshardware.de/Overwatch-Spiel-55018/Tests/Benchmarks-Test-Grafikkarten-1197158/

Ist das Game mit 30 fps denn spielbar? :cool:

Grabhopser
2016-06-23, 14:42:06
Mit viel Glück hat die neueste Zauba Meldung vllt. etwas mit Koduris Twitter Meldung zu tun.

21-Jun-2016 84733030 PRINTED CIRCUIT BOARD ASSEMBLY FOR PERSONAL COMPUTER(VIDEO / GRAPHICS CARD) P/N. 102-C99301-00 (FOC) Hong Kong Hyderabad Air Cargo NOS 6 451,972 75,329


Wenn wir nur ganz fest daran glauben .....:D

AngelDust 32
2016-06-23, 15:03:06
986 € pro Stück (könnte passen)

Wie lange hat es bei Fiji vom Zolleintrag bis zum Launch gedauert ?

Michalito
2016-06-23, 15:39:25
die 8 GB Version?:eek:

Jep:biggrin: Referenzdesign

dildo4u
2016-06-23, 15:50:48
Witcher 3 480 Test.

https://youtu.be/BN7bEnMs9bc

Linmoum
2016-06-23, 15:54:34
Und erstmal schön Hairworks aktivieren. ;D

Wäre nett, wenn er mal den Core/Mem Clock anzeigen lassen würde, so kann ja jeder behaupten, dass da Karte XY drinsteckt. Mit Hairworks allerdings kein schlechtes Ergebnis auf High/Ultra.

w0mbat
2016-06-23, 15:56:32
Also mit high/ultra auf 1080p fände ich das super. FailWorks muss natürlich aus sein.

Linmoum
2016-06-23, 16:05:23
@dildo4u: bringt nicht viel. Gerade mit HW waere interessant gewesen, da sie bzgl. Geometrie so viel verbessert haben sollen.
@w0mbat: sind nicht max. Settings, wird im Video auch noch gezeigt.
Aktiviertes Hairworks wird im Video auch gezeigt. :tongue:

Im übrigen schreibt w0mbat ja auch nicht von max. Settings, sondern von High/Ultra und das trifft ja zu.

Allerdings sagt der Typ selber auch, dass er noch einen älteren Treiber hat.

M4xw0lf
2016-06-23, 16:06:11
@w0mbat: sind nicht max. Settings, wird im Video auch noch gezeigt.
Ja, aber eben eine Mischung aus high/ultra, wie er schrieb. ;)
Gut über 50% mehr als meine 7950@1120 MHz in 1050p, das ist annehmbar.

mironicus
2016-06-23, 16:42:51
Preview der RX480:
https://youtu.be/_iM4T_x51bA

hesTeR-
2016-06-23, 16:44:11
leute es geht um grakas... ceep calm ;)

Ich bin echt gespannt wie ein Flitzebogen auf die Karte...

Da es gtx970 jetzt gebraucht für 175-200 euro gibt wäre es schon gut wenn die rx480 Da von der performance deutlich mehr zur 980 tendiert.... Denn gebrauchte 980 gibts jetzt schon für 275-300..

Ich kaufe eigentlich nur nach Preis Leistung da ist es mir egal ob grün oder Rot :)

Dino-Fossil
2016-06-23, 16:44:16
Das Witcher 3 Video schaut so schlecht nicht aus. Sollte möglich sein, auf einer sinnvollen High/Ultra mischung @1080p bei konstanten 60fps zu spielen.
Einige der Sachen die er auf Ultra hatte fressen viel Performance für nur geringen Zugewinn in der Optik, ich würde das dann entsprechend tweaken.

hesTeR-
2016-06-23, 16:50:28
@ Michalito

du scheinst ja einige Preise zu kennen, kannst du sagen was ne version mit backplate kostet?

oder ist die version für dein preis schon incl. backplatte

w0mbat
2016-06-23, 16:53:34
Ich hoffe auf eine custom Sapphire wo der Kühler nicht länger als das PCB ist. Schön kurz, schön leise und in etwa GTX 970 Performance mit 8GB für ca. 250€ ist mein Traum.

Thunder99
2016-06-23, 16:57:03
Returns of Vapor-X evt? *träum*

Isen
2016-06-23, 17:16:54
Return of Toxic oder?
Im schönen matten Schwarz! :D

kuj0n
2016-06-23, 17:37:01
Jemand schon was zu Spielebundles gehört? Oder wäre das zuviel des Guten?

mironicus
2016-06-23, 17:38:16
Im Hardwareluxx hat ein User bereits eine RX480 von XFX (mit Backplate).

http://videocardz.com/61371/amd-radeon-rx-480-rumors-part-5

reaperrr
2016-06-23, 17:45:26
Im Hardwareluxx hat ein User bereits eine RX480 von XFX (mit Backplate).

http://videocardz.com/61371/amd-radeon-rx-480-rumors-part-5
32 ROPs damit wohl so gut wie bestätigt, was die leicht enttäuschende "IPC" erklärt.

Edit: Falls C7 wirklich für das Stepping steht, ist bei der Entwicklung wohl irgendwas gehörig schiefgegangen.

Isen
2016-06-23, 17:48:50
Jemand schon was zu Spielebundles gehört? Oder wäre das zuviel des Guten?

Ne. Er hat die Bilder auch von woanders her. Er selbst ist nicht der Besitzer.

Pretest
2016-06-23, 17:52:20
Aus den videocardz Kommentaren: https://www.techpowerup.com/forums/threads/only-32-rops-on-gtx-970.205923/

Evtl. also ein falscher Wert von gpu-z

Techpowerup (https://www.techpowerup.com/gpudb/2848/radeon-rx-480) sprechen selber von 64 rops in ihrer Datenbank

Troyan
2016-06-23, 17:55:46
Die Einträge in der Webseiten-Datenbank existieren schon seit Wochen. GPU-Z wurde vor zwei Tagen aktualisiert, um auch Polaris zu erkennen.

Solange der Seitenbesitzer unter NDA ist, kann er eventuell falsche Angabe auf der Seite nicht berichtigen...

Pretest
2016-06-23, 17:57:02
Stimmt natürlich auch wieder.

Gorkon
2016-06-23, 18:03:59
32 ROPs damit wohl so gut wie bestätigt, was die leicht enttäuschende "IPC" erklärt.

Edit: Falls C7 wirklich für das Stepping steht, ist bei der Entwicklung wohl irgendwas gehörig schiefgegangen.
Es gab auch oft genug Bugfixes bei GPU-Z, weil es komplett verkehrten Kram angezeigt hat...GF1x4 als Beispiel. Der beste Beweis wäre ein Block-Diagramm von Polaris von AMD selber oder Füllraten-Tests. Huhu hardware.fr :wave2:

Einige Werte die durchs Netz geistern sind für 32 ROPs imho einfach zu gut. Außer AMD hat die Dinger massiv gepimpt, was aber laut einigen Folien ja nicht Fall sein sollte. Ich glaube trotzdem noch an einen Datenbankfehler und 64 ROPs.

Solange der Seitenbesitzer unter NDA ist, kann er eventuell falsche Angabe auf der Seite nicht berichtigen...
Evtl. sind ja auch die Daten in GPU-Z falsch, gerade wegen dem NDA. Kleines Verwirrspiel...

LadyWhirlwind
2016-06-23, 18:13:30
Evtl. sind ja auch die Daten in GPU-Z falsch, gerade wegen dem NDA. Kleines Verwirrspiel...
Oder einfach nur Platzhalter.

Agent117
2016-06-23, 18:26:38
Einige Werte die durchs Netz geistern sind für 32 ROPs imho einfach zu gut. Außer AMD hat die Dinger massiv gepimpt, was aber laut einigen Folien ja nicht Fall sein sollte. Ich glaube trotzdem noch an einen Datenbankfehler und 64 ROPs.


32 Rops sind aber auch nur 12% weniger Rop Leistung/Flop als Tahiti hatte und Tahiti war ja jetzt auch nicht so richtig Rop limitiert. Das kann schon trotzdem hinkommen.
Die Rops wurden soweit ich weiß das letzte Mal bei Cayman überarbeitet.

mironicus
2016-06-23, 18:37:25
Porno. :)
https://www.instagram.com/p/BG-TWLWwDHp/

Isen
2016-06-23, 18:42:05
@mironicus,

das ist der, der die Benchmarks auf YT macht.
Hat nur leider nicht den Review Treiber :D

Michalito
2016-06-23, 18:47:58
@ Michalito

du scheinst ja einige Preise zu kennen, kannst du sagen was ne version mit backplate kostet?

oder ist die version für dein preis schon incl. backplatte


Morgen sollte ich das wissen^^

Hakim
2016-06-23, 18:56:04
Wenn Polaris 10/11 für RX 460-480 Reihe herhalten soll und Vega vermutlich für die Rage Fury Reihe, wie würde den eine RX 490 aussehen?

illidan
2016-06-23, 19:00:09
Wenn es einen Vega 11 gibt, würde ich für 10 auf 400mm² tippen mit zwei Salvage-Abstufungen.
Vielleicht durch die MC-Platzeinsparungen auch etwas kleiner und dann eher Tahiti-Größe, Vega 11 würde in dem Fall die 600mm² nicht ausreizen.

Sunrise
2016-06-23, 19:44:10
Gibbo von OcUK:

Yes and nearly 1000 in stock and ready for launch with more on standby should we need if sales are strong.

https://forums.overclockers.co.uk/showpost.php?p=29671486&postcount=6902

Wenn das kein Hardlaunch ist, dann weiß ich nicht...mal sehen wie schnell die Weg sind.

Ravenhearth
2016-06-23, 19:49:09
- Polaris braucht Fertigungsnormiert nicht weniger Transistoren als R390X. R480X wäre @28nm sogar größer als R390X bei weniger CUs aber modernerer mArch.

Darauf möchte ich nicht meinen Hintern verwetten. Man kann nicht einfach die Größe von Polaris10 verdoppeln um dessen Größe in 28nm zu erhalten, denn bei GP104 haben die Transistoren/mm² auch nur um etwa 75% zugelegt. Ausgehend von Tonga würde ich für Polaris10 mindestens von 10%, aber höchstens von 20% mehr Transistoren ausgehen, was 5,5 bis 6,0 Mrd. ergibt. Daher denke ich, dass Polaris etwa 23-26 Mrd. Transistoren/mm² haben wird, aber nicht das doppelte von Tonga oder Hawaii (28 Mrd.), was in 6,5 Mrd. Transistoren resultieren würde. Mit 5,5-6,0 Mrd. Transistoren wäre Polaris10 in 28nm mit 14 Mrd./mm² nur etwa 390-430mm² groß, also etwas kleiner als Hawaii.

fondness
2016-06-23, 20:25:18
Gibbo von OcUK:

Yes and nearly 1000 in stock and ready for launch with more on standby should we need if sales are strong.

https://forums.overclockers.co.uk/showpost.php?p=29671486&postcount=6902

Wenn das kein Hardlaunch ist, dann weiß ich nicht...mal sehen wie schnell die Weg sind.

Da gehen jetzt schon die Lager über und die warten noch eine Woche mit dem Launch^^

Digidi
2016-06-23, 20:55:35
Ich mag ja die Zeit vor dem Release da kommt so lustiger Blödsinn da raus ;D

https://www.youtube.com/watch?time_continue=129&v=aFzp2nKbAuM
"Take a Radeon Pill to feel better!! :D :D :D

So genug gelacht. Scheint so als ob sich die Rx 480 da einsortiert wo sie erwartet wurde mal vor mal hinter einer 390x/980 zu einem Guten Preis und gutem Stromverbrauch. Bin mal gespannt ob Nvidia was am 29 in Petto hat. Das man in Zauba gleich 5x 1060 Samples gesehen hat lässt erwarten das Nvidia nun viele Optionen mit Masse durchtestet.

Gorkon
2016-06-23, 21:10:57
Die Fury X ;D *dööööööööööy*

Sry for OT ;(

EDIT: Der ganze Kanal ist ja so abgedreht :freak:

Achill
2016-06-23, 21:14:45
Ich mag ja die Zeit vor dem Release da kommt so lustiger Blödsinn da raus ;D

https://www.youtube.com/watch?time_continue=129&v=aFzp2nKbAuM
"Take a Radeon Pill to feel better!! :D :D :D

So genug gelacht. Scheint so als ob sich die Rx 480 da einsortiert wo sie erwartet wurde mal vor mal hinter einer 390x/980 zu einem Guten Preis und gutem Stromverbrauch. Bin mal gespannt ob Nvidia was am 29 in Petto hat. Das man in Zauba gleich 5x 1060 Samples gesehen hat lässt erwarten das Nvidia nun viele Optionen mit Masse durchtestet.

*indian dialekt* "Founders Edition ah" -> You are ugly ... :D
*indian dialekt* "Founders Edition ah" -> You are old, go back to your nursing home ... X-D
*indian dialekt* "Founders Edition ah" -> ... I see cheapness comes in pairs now ... ;D

Der_Korken
2016-06-23, 21:16:44
Wenn Polaris 10/11 für RX 460-480 Reihe herhalten soll und Vega vermutlich für die Rage Fury Reihe, wie würde den eine RX 490 aussehen?

Vielleicht machen sie es wie Nvidia beim GM200: Der volle V10 heißt dann z.B. Fury RX, während der Salvage Chip als RX490 verkauft wird. Für V11 geht man dann irgendwann später auf 5x0 hoch und schiebt die anderen Chips etwas runter (sofern V11 nicht sowieso ein reiner HPC-Chip wie GP100 wird).

Schlammsau
2016-06-23, 21:17:51
Wann fällt jetzt das NDA?

Digidi
2016-06-23, 21:20:23
Wann fällt jetzt das NDA?
Am 29 das dürfte jetzt klar sein wie Klosbrühe ;D;D;D Bist du noch im Winterschlaf und zum Sommer jetzt aufgewacht ;D

hesTeR-
2016-06-23, 21:31:15
haha leute gebt euch das

https://www.youtube.com/watch?v=aFzp2nKbAuM

=D

Isen
2016-06-23, 21:31:52
29. hat sich nichts geändert.

@hesTeR-,

scroll mal nen Stückchen hoch ;)

Digidi
2016-06-23, 21:33:39
@hesTeR-
Etwas spät dran ;D

Was mich wundert das sich bei der "großen Menge" die schon bei den Händlern sein soll noch keine näheren leaks gibt. Irgendwie seltsam.

Zergra
2016-06-23, 21:50:39
Keine Treiber :-D

Michalito
2016-06-23, 21:57:12
Was mich wundert das sich bei der "großen Menge" die schon bei den Händlern sein soll noch keine näheren leaks gibt. Irgendwie seltsam.

Hä? Alles ist doch mittlerweile bekannt. Preis, Leistung und Verbrauch. Was noch?

Digidi
2016-06-23, 21:58:42
Es fehlt noch an einer Leistungseinschätzung. Ja Treiber könnte sein. Aber eigentlich dachte ich das Treiber dem Paket beiliegen. Um Aktuell zu sein zum Release muss man wohl in Zukunft den neusten Treiber runterladen.

hesTeR-
2016-06-23, 22:08:44
oh mist zu spät aber trotzdem mega lustig :)

deekey777
2016-06-23, 22:09:36
http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&DEPA=0&N=8000&Order=BESTMATCH&Description=PPSSHSDDJAMLWK&cm_mmc=SNC-Twitter-_-PM-Promo-_-AMD-RX480-auto-notify-_-NA&hootPostID=0bc2f8a755bea0c166edf404926213d2



Hm...

Isen
2016-06-23, 22:11:43
Der Link will irgendwie nicht

deekey777
2016-06-23, 22:19:55
Der Link will irgendwie nicht
Toll...
Dann eben indirekt:
https://twitter.com/Newegg/status/746021282379087872

Nakai
2016-06-23, 22:21:26
Das Jen-Hsun Huang nicht eher davon geträumt hat:

http://www.pcgameshardware.de/screenshots/original/2016/06/Raja-Koduri-pcgh.jpg

;D

AMD gibt sich wirklich viel Zeit für den Launch...diesmal. Man will mal gut vorbereitet eine GPU launchen. Zu gut vorbereitet.

Digidi
2016-06-23, 22:24:44
@Nakai ist dir ein überzogene Show mit einem angekündigten Hard Release und dann doch fehlenden Karten alle Nvidia lieber !

https://www.youtube.com/watch?v=WY6kgISv4fM

So was soll besser sein?

Amd macht es wie man es wünscht. Keine überzogenen Erwartungen Wecken und sich Zeit lassen. Den Treiber bis dahin wohl noch gut aufräumen und dann releasen. Ich darf nur an das Debakel der GTX 1070 erinnern wo Nvidia einfach mal das NDA nach vorne verlegt hat.

illidan
2016-06-23, 22:29:35
Diesen verwirrenden Ashes Crossfire-Wert hat sich mit Sicherheit niemand gewünscht.

Digidi
2016-06-23, 22:30:23
Die sind auch nicht offiziell :D Ich frage mich wie man auf inoffizielle Informationen so viel Wert legen kann. Ich warte bis zu den ersten Tests und bis dahin hat AMD nichts aber Garnichts Falsch gemacht. Denn das größte was man Falsch machen kann sind überzogene Erwartungen beim Kunden zu wecken.

Troyan
2016-06-23, 22:30:40
Techpowerup (https://www.techpowerup.com/gpudb/2848/radeon-rx-480) sprechen selber von 64 rops in ihrer Datenbank

Also ich lese hier 32ROPs. ;D

Okay, da wurde die Datenbank doch NDA-brecherich angepasst. TDP liegt bei 120W.

Digidi
2016-06-23, 22:35:19
Ja Troyan, deine 32 Rops wir haben verstanden :D Erfreu dich nur an Zahlen auf die so nichtssagend sind!

Linmoum
2016-06-23, 22:36:05
https://i.gyazo.com/3902a913bc2da19994791159918fd7c4.png
https://twitter.com/AMDRadeon/status/745979045419094016?lang=de

BlacKi
2016-06-23, 22:48:53
Das Jen-Hsun Huang nicht eher davon geträumt hat:

http://www.pcgameshardware.de/screenshots/original/2016/06/Raja-Koduri-pcgh.jpg

;D

AMD gibt sich wirklich viel Zeit für den Launch...diesmal. Man will mal gut vorbereitet eine GPU launchen. Zu gut vorbereitet.
microruckler ahoi, dann doch lieber ne 1070 ohne microruckler und sauberen frametimes^^

Digidi
2016-06-23, 22:55:33
microruckler ahoi, dann doch lieber ne 1070 ohne microruckler und sauberen frametimes^^

Tja du kannst dir Ausmalen wo in Zukunft die Leistung her kommt wenn die Chips immer langsamer Schrumpfen. Multi GPU ist die Zukunft. Es gibt heute schon Techniken das du keine Microruckler mehr hast und DX12 setzt hier mittlerweile auch Standards wo du dann sogar AMD mit Nvidia mixen kannst. Ohne Microruckler :)

Michalito
2016-06-23, 23:05:07
Und auch für DX 12 sollte man AMD laut danke sagen..

illidan
2016-06-23, 23:07:21
Die sind auch nicht offiziell :D
Stammen nur von Koduri von Anfang des Monats...

Foobar2001
2016-06-23, 23:44:10
Tja du kannst dir Ausmalen wo in Zukunft die Leistung her kommt wenn die Chips immer langsamer Schrumpfen. Multi GPU ist die Zukunft. Es gibt heute schon Techniken das du keine Microruckler mehr hast und DX12 setzt hier mittlerweile auch Standards wo du dann sogar AMD mit Nvidia mixen kannst. Ohne Microruckler :)
Und man die Arbeit auf die Entwickler abwaelzt. Geile Zukunft, wo es dann 3 Spiele im Jahr gibt wo das dann auch gemacht wird.

Isen
2016-06-24, 00:14:05
lol, Foobar.... verwechsel das mal nicht mit ner CPU hinsichtlich "Kerne" bzw. Threads.
Die sind ja dann alle zusammen geschaltet, je nach dem wie viel sie nun auf einen interposer klatschen. Es ist einfach günstiger, da die Ausbeute pro Wafer einfach höher ist, statt 600mm² klopper. Da führt kein Weg dran vorbei. Navi deutet es ja bereits an

Foobar2001
2016-06-24, 00:26:07
Davon hat er aber nicht geredet.

Wenn jemand mit der Interposer-Geschichte eine GPU baut die aus mehreren Dies besteht und es von aussen ein Device ist von mir aus. Aber Multi-GPU in seiner jetztigen Form ist eher am sterben.

Isen
2016-06-24, 00:26:45
Doch. Es wird passieren. Und das bereits mit Navi.

Schau dir doch DX12 an - Linked Mode - da werden 2 Grafikkarten gleichzeitig über eine Nodemask gefüttert.
So kompliziert wie du dir das vorstellst ist das nun auch wieder nicht.

Foobar2001
2016-06-24, 00:31:16
Das ist ueberhaupt nichts automatisch bei DX12. Das einzige was das einem gibt ist das Resourcen automatisch auf beiden Nodes erzeugt werden, die komplette Synchronisierung und DMA-Transfers sind komplett dem Entwickler ueberlassen. SFR oder AFR muessen komplett manuell entwickelt werden.

Isen
2016-06-24, 00:32:07
Das ist ueberhaupt nichts automatisch bei DX12.

Wer sagte das? DU!

wenn jemand mit der Interposer-Geschichte eine GPU baut die aus mehreren Dies besteht und es von aussen ein Device ist von mir aus.

Hast es ja verstanden. Punkt. Thema Ende. ;-)

Foobar2001
2016-06-24, 00:32:19
Wer sagte das? DU!
Nein, die Dokumentation. Troll.

Hast es ja verstanden. Punkt. Thema Ende. ;-)
Das hat trotzdem nichts, aber auch ueberhaupt nichts mit dem jetztigen DX12 Multi-Adapter-Zeug zu tun. Wenn so eine GPU gebaut wird ist das aus Sicht der API ein Device und man muss sich nicht darum kuemmern. Das steht aber in den Sternen, es ist nichts dazu angekuendigt oder bekannt.

Isen
2016-06-24, 00:36:42
Damit nicht, dennoch wird es wieder kommen, sterben tut da gar nichts.

Foobar2001
2016-06-24, 00:37:27
Reine Spekulation. "So einfach wie du dir das vorstellst ist das auch wieder nicht" - um es mit deinen Worten zu sagen.

Mal abgesehen davon, dass das nicht fuer mehrere Grafikkarten funktionieren wird. Das ist strikt dafuer geeignet mehrere Dies auf einen Interposer zu loeten.

Isen
2016-06-24, 00:42:14
Beides wird es geben. Sowohl als auch.

Digidi
2016-06-24, 00:42:25
Das wird aber immer noch einfacher sein, als chips auf 1 nm zu schrumpfen. Da entwickelt man eher einen Chip der den Workload automatisch mit Algorithmen auf die gpus verteilt :rolleyes:

Foobar2001
2016-06-24, 00:44:46
Das geht nicht, wenn die GPUs auf verschiedenen Karten sind. Die Bandbreite ist schlicht nicht da, solange wir ueber Kupfer reden.

Beides wird es geben. Sowohl als auch.
Habe festen Glauben.

Fakt ist, DX12 und Vulkan machen jetztiges Multi-GPU fuer die Spiele-Entwickler massiv schwerer. So viel schwerer, dass ich nicht daran glaube, dass ueberhaupt irgendjemand ausser DICE und zwei, drei andere sich die Muehe machen werden.

Digidi
2016-06-24, 00:46:30
Bandbreite ist immer da Mann muß das Interface nur breiter und schneller machen. Siehe HBM! Wer weiß was da kommt!

Foobar2001
2016-06-24, 00:46:59
HBM ist Interposer. Womit wir wieder zurueck dabei sind das es nicht mit zwei Karten geht. Wir reden ueber Bandbreiten in der Terabyte/s-Region.

Digidi
2016-06-24, 00:49:36
Ok du bist der neue Chip und Interface guru! Schon jetzt läuft Crossfire und sli gut sogar trotz 4gb vram! Es hängt halt am Programmierer aber vielleicht kommen auch Engines die dies massive vereinfachen! Es gibt 100 Möglichkeiten.

Foobar2001
2016-06-24, 00:51:19
Oder vielleicht passiert auch das Wahrscheinlichere und das Nischenprodukt im PC-Nischenmarkt juckt einfach keine Sau fuer die 0,1% Umsatz und es wird praktisch keine DX12- und Vulkan-Spiele geben die SLI/Crossfire unterstuetzen.

Treiber-Profile is nich. Der Zug ist abgefahren. Wenn's das Spiel nicht kann, kann es es nicht.

krissbay
2016-06-24, 00:52:07
Techpowerup hat seine Infoseite zu Polaris 10 aktualisiert und scheint 32 ROP sowie ein TDP von 120 W zu bestätigen.
http://www.techpowerup.com/gpudb/2848/radeon-rx-480

Isen
2016-06-24, 00:53:24
Ropsis also mehr dampf bekommen :D

@Foobar2001,

mal sehen... was AMD mit "Nextgen Memory" meint.

Digidi
2016-06-24, 00:55:25
Noch juckt es keine. Aber in der Zukunft schon und du wirst sehen in Zukunft werden mehr Spiele mit dx12 Multigpu kommen. Warum sonst sollte Microsoft dies auf der Agenda haben?

Wenn das so unwichtig wäre könnte man auch bei Crossfire und sli bleiben!

Foobar2001
2016-06-24, 00:58:54
Lassen wir das, wir werden sehen was passiert. Im Uebrigen ist das Einfachste auch mit DX12 weiterhin AFR zu implementieren und das hat genau die gleichen Microruckler-Probleme wie bisher.

Digidi
2016-06-24, 01:04:40
Es gibt bei afr auch noch Frame pacing und sfr ist auch im kommen man braucht halt nur eine Programmierug die das automatisch macht. Wer hätte vor 10 Jahren gedacht das wir Wasseroberfläche so gut hinbekommen. Da hieß es auch zu aufwendig wird nicht oft kommen und nun? Alles eine Frage des richtigen Algorithmus!

illidan
2016-06-24, 01:37:41
AFR wird nie besser als jetzt sein.

TheAntitheist
2016-06-24, 03:28:36
AFR wird nie besser als jetzt sein.
so siehts aus... der delay macht einfach alles kaputt. AFR sollte schnellstmöglich aussterben.

Nightspider
2016-06-24, 04:25:56
https://www.youtube.com/watch?time_continue=129&v=aFzp2nKbAuM

Rofl. ;D

Limit
2016-06-24, 05:29:45
Tja du kannst dir Ausmalen wo in Zukunft die Leistung her kommt wenn die Chips immer langsamer Schrumpfen. Multi GPU ist die Zukunft.

Ich denke du übersiehst da einen wichtigen Punkt: bei den Shrinks geht es nicht einfach nur um mehr Leistung, sondern um mehr Leistung zum gleichen Preis und mit gleichem Verbrauch. Mit Multi-GPU Systemen kann man vielleicht die Leistung linear skalieren (wohl nur theoretisch, aber das spielt keine große Rolle), Kosten und Verbrauch wachsen allerdings linear mit. Daher wäre der Ansatz höchstens dazu geeignet bei zukünftigen Shrinks die Entwicklungskosten zu verringern.

Ohne Shrinks oder andere grundlegende Änderungen (neue Materialien, optische Chips?, ...) wird die Leistung stagnieren, da sonst die Kosten und Leistungsaufnahme durch die Decke schießen.

BlacKi
2016-06-24, 05:40:19
Tja du kannst dir Ausmalen wo in Zukunft die Leistung her kommt wenn die Chips immer langsamer Schrumpfen. Multi GPU ist die Zukunft. Es gibt heute schon Techniken das du keine Microruckler mehr hast und DX12 setzt hier mittlerweile auch Standards wo du dann sogar AMD mit Nvidia mixen kannst. Ohne Microruckler :)
wir sprechen uns in 2-3 jahren nochmal wie es dann aussieht. für die 14/16nm generation ist CF/SLI einfach schrott.

Ravenhearth
2016-06-24, 07:59:50
War schon bekannt, dass die 470 eine Typical Board Power von 110W hat?

Akkarin
2016-06-24, 09:02:50
Wie viel platz nehmen denn die ROPs auf dem DIE ein ? Finde 32 ziemlich merkwürdig, da lässt man doch ordentlich performance liegen.

hesTeR-
2016-06-24, 09:07:23
es sind ja wohl auch keine 32, 32 sind ein alter datenbank eintrag aus einer alten gpu z version.
Die neue Version ist jetzt verfügbar aber zeigt es wegen NDA noch nicht an und es sind wohl 64

Das stand auch so im Techpowerup forum direkt vom entwickler....

so hab ich es zumindest verstanden.


wobei hier steht wiederum es sind doch 32...

http://videocardz.com/61371/amd-radeon-rx-480-rumors-part-5

Ravenhearth
2016-06-24, 09:09:20
32 wären aber auch nicht gerade abwegig, Tahiti und Tonga hatten auch nicht mehr, und Polaris10 hat nur 4 zusätzliche CUs.

Dural
2016-06-24, 09:11:15
...und deutlich mehr takt als diese.

war doch von anfang an klar das der 32ROPs hat, 64ROPs waren nur dummens wunschdenken.

iuno
2016-06-24, 09:13:38
Es gibt aber auch keine konkrete Hinweise auf mehr.

Tonga hatte nur noch 2 RBs/SE, Ein RB hatte bisher 4 ROPs. Vorher hatte eine SE idR. 4 RBs.
4 SE mit jeweils 9 CUs, 2 RBs, 1 RB mit je 4 ROPs waere ein sehr aehnlicher Aufbau zu Tonga, mit mehr CUs, imho durchaus plausibel.

Wie Dural sagt muss man aber natuerlich auch den Takt bedenken. Die 32 setzen mit dem Takt von 1266 so viel durch wie ~41 bei 1 GHz.

Sunrise
2016-06-24, 09:22:40
64 ROPs sind für einen Chip dieser Größe und diese Taktraten eigentlich ausgeschlossen. Er ergibt einfach keinen Sinn, da man eher die ROPs erneut aufbohren würde anstatt dann direkt das Doppelte davon zu verbauen. Die DCC wurde ja ebenso aufgebohrt, weshalb die ROPs weiter entlastet werden.

Wenn mein Ziel ist einen performanten, flächeneffizienten <250mm² Chip zu bauen, dann spare ich wo ich nur kann oder erweitere Vorhandenes.

64 ROPs würden mich extrem überraschen.

HOT
2016-06-24, 09:50:05
P10 -> 32 ROPs
V10 -> 64 ROPs
wäre realistisch

Mal davon abgesehen, ich glaub nicht, dass bei dem Shanghai-Event das Tapeout von V10 gemeint war, das wird sicherlich schon längst erfolgt sein. Aber wie siehts aus mit V11? Das wär doch mal ein Meilenstein :D.

Dino-Fossil
2016-06-24, 09:50:49
War schon bekannt, dass die 470 eine Typical Board Power von 110W hat?

Ja, stand auf den offiziellen AMD Folien mit früherem NDA-Fall, die vor 1-2 Wochen veröffentlicht wurden.

@HOT: Das getwitterte Bild hatte aber Vega10, nicht 11 stehen, von daher wohl eher ein Meilenstein zu Vega10.

Pirx
2016-06-24, 09:50:54
... Die 32 setzen mit dem Takt von 1266 so viel durch wie ~41 bei 1 GHz.
Der Rest des Chips taktet aber auch nicht mit 1 GHz.

HOT
2016-06-24, 09:53:46
Ja, stand auf den offiziellen AMD Folien mit früherem NDA-Fall, die vor 1-2 Wochen veröffentlicht wurden.

@HOT: Das getwitterte Bild hatte aber Vega10, nicht 11 stehen, von daher wohl eher ein Meilenstein zu Vega10.
Ah ok, dann hat wohl die Sampleauslieferung an die Kartenhersteller begonnen oder sowas.

Techpowerup hat seine Infoseite zu Polaris 10 aktualisiert und scheint 32 ROP sowie ein TDP von 120 W zu bestätigen.
http://www.techpowerup.com/gpudb/2848/radeon-rx-480

Das fänd ich pausibel, 120W für die Referenzkarte und Custom-Designs dürfen bis 150W hochgehen.

Dino-Fossil
2016-06-24, 10:03:02
Das war übrigens das Bild, das er getwittert hat, nur der Vollständigkeit halber:
https://twitter.com/GFXChipTweeter/status/745887920809218049

hesTeR-
2016-06-24, 10:05:29
es ist auch gut das der ganze Hype mal etwas eingebremmst wird und es auch ein paar fakten gibt.

Ich bin immer vorsichtig wenn die erwartungen so übertrieben hoch werden das Sie nicht erfüllt werden können und eine eigentlich gute Karte dann trotzdem "enttäuschung" hervorruft.

Sunrise
2016-06-24, 10:38:17
Ist (leider) vor fast jeder neuen Veröffentlichung bei GPUs so, vor allem wenns um die Performance-High-End-Chips geht.

Rückblickend hat sich über die 14 Jahre jedenfalls bewährt, grundlegende Daten ernst zu nehmen aber die Leaker größtenteils zu ignorieren, weil da immer mehr Masse kommt und immer mehr Sensationsgeilheit bzw. Aufmerksamkeit eine Rolle spielt und meistens auch garnicht die technischen Daten, die uns interessieren. Da bleibt man am besten immer auf dem Boden der Tatsachen und wartet ordentliche Resultate von offizielleren Quellen oder privaten Testern ab.

Gipsel
2016-06-24, 10:39:14
Er ergibt einfach keinen Sinn, da man eher die ROPs erneut aufbohren würde anstatt dann direkt das Doppelte davon zu verbauen.Die AMD-ROPs haben vom Durchsatz (außer bei Z-Tests) bereits Vorteile gegenüber denen von nV, insbesondere bei 4xFP16-Framebuffern (HDR). Bisher wurden die halt auch ab und zu mal durch die zur Verfügung stehende Bandbreite eingebremst.
Die DCC wurde ja ebenso aufgebohrt, weshalb die ROPs weiter entlastet werden.Naah, das läuft eher andersrum. Die Framebufferkompression erhöht die effektiv für die ROPs zur Verfügung stehende Bandbreite, wodurch die ROPs näher an ihre theoretische Füllrate kommen, weil die Speicherbandbreite nicht mehr (oder zumindest weniger) limitiert. Die ROPs werden also nicht entlastet, sondern höher ausgelastet.

Sunrise
2016-06-24, 11:00:42
Die AMD-ROPs haben vom Durchsatz (außer bei Z-Tests) bereits Vorteile gegenüber denen von nV, insbesondere bei 4xFP16-Framebuffern (HDR). Bisher wurden die halt auch ab und zu mal durch die zur Verfügung stehende Bandbreite eingebremst.
...
Naah, das läuft eher andersrum. Die Framebufferkompression erhöht die effektiv für die ROPs zur Verfügung stehende Bandbreite, wodurch die ROPs näher an ihre theoretische Füllrate kommen, weil die Speicherbandbreite nicht mehr (oder zumindest weniger) limitiert. Die ROPs werden also nicht entlastet, sondern höher ausgelastet.
Danke fürs Erläutern. Im Prinzip bedeutet es, dass bei 32 ROPs bei verbesserter DCC wohl ein sehr guter Sweet-Spot liegt, ohne dass man unnötigerweise mehr verbauen müsste, wenn die Auslastung jetzt höher sein "kann".

"Kann" deshalb, weil die DCC ja vor allem bei Spielen greift, also stark anwendungsabhängig. Deshalb werden wir wohl auch eine Vielzahl an unterschiedlichen Performance-Resultaten sehen, je nach Anwendung stärker varriierend.

Mit noch mehr ROPs hätte man natürlich ein deutlich durchgängigeres, stabileres Verhalten durch alle Anwendungen hinweg, weil die einfach fast nie der Flächenhals wären. Allerdings scheint das dem Gedanken der effizienten Flächennutzung zu widersprechen.

Thunder99
2016-06-24, 11:20:44
Mehr ist nicht immer besser sondern auf die effektive Auslastung kommt es an. Dank Gipsel ist es ja schön kurze erläutert das die ROPs verbessert wurden :)

Zum Thema Multi Chip. Wenn es nicht mehr wirtschaftlich ist große Chips zu bauen wird es ein SFR 2.0 geben (Name ist egal, es geht um das Prinzip). Verlasst euch drauf. DX12 ist nur der Anfang ;). AFR wird aussterben in der Zukunft

Ailuros
2016-06-24, 11:24:53
Mit noch mehr ROPs hätte man natürlich ein deutlich durchgängigeres, stabileres Verhalten durch alle Anwendungen hinweg, weil die einfach fast nie der Flächenhals wären. Allerdings scheint das dem Gedanken der effizienten Flächennutzung zu widersprechen.

Es wird wohl innerhalb von Grenzen schon eine Analogie geben wobei fuer so und so viel Einheiten innerhalb einer spezifischen Architektur mehr als N ROPs auch nichts sehenswertes mehr bringen. Eine fette Ausfahrt bringt mir nichts wenn es davor etliche Engpaesse gibt ;)

Das was mir ein Spielentwickler vor kurzem sagte ist dass schon es an GPUs schon seit einiger Zeit nicht an Fuellraten fehlt sondern an brauchbaren Fuellraten. Nach Gipsel's letztem Satz oben leuchtet mir diese Aussage noch mehr ein ;)

Sunrise
2016-06-24, 11:29:47
Mehr ist nicht immer besser sondern auf die effektive Auslastung kommt es an. Dank Gipsel ist es ja schön kurze erläutert das die ROPs verbessert wurden :)
Es kommt auf beides an. Irgendwo hast du einen Punkt an dem selbst eine 100%ige Auslastung (theoretisch) nichts bringt, wenn du zuwenig ROPs verbaust und diese nicht performant genug sind. Mehr davon ist also definitiv besser für Fälle, wenn die DCC nicht mehr optimal greift/greifen kann, je nach Anwendungsfall.

P10 ist aber nunmal ein Gaming-Chip, weshalb hier 32 ROPs optimal passen, da die DCC allem Anschein nach weiter verbessert wurde und sie somit sehr gut ausgelastet werden.

Ob die ROPs selbst auch nochmal (nach Fiji) verbessert wurden wissen wir soweit ich weiß noch nicht.

Für Vega kann das aber wieder nur Gutes bedeuten, denn diese Änderungen und alles was bei Vega zusätzlich kommt summiert sich eben und ich bin mir ziemlich sicher, dass wir so einen halbgaren Chip wie Fiji nicht mehr sehen werden. Das Ding sollte sowohl durch Spiele als auch andere Anwendungen durch die Bank sehr gut ausgelastet werden können, weshalb 4096 ALUs da wohl auch wieder vollkommen ausreichend sein dürften.

Es wird wohl innerhalb von Grenzen schon eine Analogie geben wobei fuer so und so viel Einheiten innerhalb einer spezifischen Architektur mehr als N ROPs auch nichts sehenswertes mehr bringen. Eine fette Ausfahrt bringt mir nichts wenn es davor etliche Engpaesse gibt ;)
Wie gesagt, es ist anwendungsabhängig. Du kannst nur das komprimieren, was sich auch komprimieren lässt. ;)

Troyan
2016-06-24, 11:30:06
Bei Videocardz werden Bilder aus dem Übertaktungstool veröffentlicht: http://videocardz.com/61396/new-amd-rx-480-crossfire-benchmarks-hit-the-web-exclusive-first-look-at-new-overclocking-tool

Interessant sind die Spannungen. Deutlich höher als bei nVidia. Die 1,15V beim höchsten Step ist weit mehr als nVidia überhaupt erlaubt.

krissbay
2016-06-24, 11:30:48
Videocardz postet gerade neue Infos zur RX 480. Sie soll in Crossfire Temperaturen von bis zu 87°C. Das wäre mMn. selbst in Crossfire zu viel.
Außerdem soll nach WhyCry dir RX 480 nur ca. 1350 Mhz erreichen, was einem Overclocking von gerade mal 6% entsprechen würde und sehr enttäuschend wäre.

http://videocardz.com/61396/new-amd-rx-480-crossfire-benchmarks-hit-the-web-exclusive-first-look-at-new-overclocking-tool

iuno
2016-06-24, 11:34:39
Bei Videocardz werden Bilder aus dem Übertaktungstool veröffentlicht
[...]
Interessant sind die Spannungen.
Wow, Wunschdenken bewahrheitet sich manchmal doch noch ;D
Denke auch dass links oben die Luefterkurve ist, dachte erst an die DPM states aber das war nur Wunschdenken ;D
Manueller Eingriff in die DPM States mit Takt und Spannungsregler :eek: :love2:
Ob das auch fuer aeltere Karten kommt?

Etwas bloed finde ich, dass die Luefterkurve nur 2 Datenpunkte hat. Wer von Hand zero Fan realisieren moechte, haette dann wohl direkt ein ziemliches Aufheulen.

Sunrise
2016-06-24, 11:43:27
Videocardz postet gerade neue Infos zur RX 480. Sie soll in Crossfire Temperaturen von bis zu 87°C. Das wäre mMn. selbst in Crossfire zu viel.
Außerdem soll nach WhyCry dir RX 480 nur ca. 1350 Mhz erreichen, was einem Overclocking von gerade mal 6% entsprechen würde und sehr enttäuschend wäre.

http://videocardz.com/61396/new-amd-rx-480-crossfire-benchmarks-hit-the-web-exclusive-first-look-at-new-overclocking-tool
Die Temperaturen sind laut dem OC-Tool bei einem Temp-Target von 80 Grad C entstanden und <50% Lüfterdrehzahl.

Wer es gerne lauter mag, der hat hier sicher mehr Möglichkeiten, die Karten nicht so stark aufheizen zu lassen, das Tool scheint jedem viele Möglichkeiten zur Anpassung an persönliche Vorlieben zu lassen.

ks
2016-06-24, 11:52:16
Wow, Wunschdenken bewahrheitet sich manchmal doch noch ;D

Manueller Eingriff in die DPM States mit Takt und Spannungsregler :eek: :love2:
Ob das auch fuer aeltere Karten kommt?

Etwas bloed finde ich, dass die Luefterkurve nur 2 Datenpunkte hat. Wer von Hand zero Fan realisieren moechte, haette dann wohl direkt ein ziemliches Aufheulen.
Der erste leak des OC Tools war für mich glaubhaft -> Linux Treiber deuten aber nur für Polaris Chips die Lösung an (soweit ich den Code gestern durchgesehen habe). Da gab es auch wieder ganz seltsame Einträge - if RO > 1660 MHz -> FF ansonsten SS .....im Context clock stretching.....da wurden auch efuse Sachen geprüft....

RX490 Polaris 10 mit deutlich mehr Takt?

Ailuros
2016-06-24, 11:53:59
Wie gesagt, es ist anwendungsabhängig. Du kannst nur das komprimieren, was sich auch komprimieren lässt. ;)

Stimmt zwar, aber es ist kein IHV so bloed N% mehr Einheiten bzw. ROPs einzubauen fuer ein paar Grenzfaelle. Unter normalen Umstaenden sollten 32 effiziente ROPs mehr als genug sein fuer einen mainstream chip. Aussnahme ist dann eben NV wenn sie durch die Busbreite und nicht entkoppelten ROPs zu einer gewissen ROP Anzahl gezwungen sind.

Thunder99
2016-06-24, 11:55:32
Bei Videocardz werden Bilder aus dem Übertaktungstool veröffentlicht: http://videocardz.com/61396/new-amd-rx-480-crossfire-benchmarks-hit-the-web-exclusive-first-look-at-new-overclocking-tool

Interessant sind die Spannungen. Deutlich höher als bei nVidia. Die 1,15V beim höchsten Step ist weit mehr als nVidia überhaupt erlaubt.
AMD hat schon immer mehr Spannung gebraucht. Wichtig ist da eher wie viel Verbrauch das ausmacht. Also auf den Wert an sich würde ich nichts geben.

Dural
2016-06-24, 11:57:43
Also wenn OC Versionen von der Ref. nur 1288MHz haben, sagt das schon alles aus ;)

Ailuros
2016-06-24, 11:57:50
AMD hat schon immer mehr Spannung gebraucht. Wichtig ist da eher wie viel Verbrauch das ausmacht. Also auf den Wert an sich würde ich nichts geben.

Nach Angaben sind Samsung's Prozesse etwas "empflindlicher" mit voltages im Vergleich zu TSMC's.

dildo4u
2016-06-24, 11:57:54
Warum kommt das Crossfire nur auf 5000 Punkte bei 3D Mark Ultra normal skaliert 3D Mark doch ziemlich ideal.

Dural
2016-06-24, 12:00:57
Weil eine 2600 haben soll?

dildo4u
2016-06-24, 12:05:08
Ich dachte sie sollte über der 390x liegen.

http://videocardz.com/61005/new-amd-radeon-rx-480-3dmark-benchmarks

radical83
2016-06-24, 12:10:28
AMD hat schon immer mehr Spannung gebraucht. Wichtig ist da eher wie viel Verbrauch das ausmacht. Also auf den Wert an sich würde ich nichts geben.

Ich hätte jetzt eher behauptet, dass AMD die Spannungen deutlich zu hoch ansetzt bei Auslastung. Meine R9 290 kann ich ohne Probleme um bis zu 0,075mv untertakten. Jedoch gab es dann immer Probleme im Idle.

Ich finde es gut, dass AMD einem jetzt mehr Möglichkeiten anbietet.
So muss man nicht mehr das BIOS anpassen.

Michalito
2016-06-24, 12:20:06
So, grade noch mal Preise gecheckt.. Hier wird mitgelesen^^ Alle Karten sind deutlich
teurer geworden, also Fakepreise.. XFX z.B. 500€ Netto.. Also, Preise gibts dann korrekt wieder am 28/29..

Thunder99
2016-06-24, 12:20:11
Ich hätte jetzt eher behauptet, dass AMD die Spannungen deutlich zu hoch ansetzt bei Auslastung. Meine R9 290 kann ich ohne Probleme um bis zu 0,075mv untertakten. Jedoch gab es dann immer Probleme im Idle.

Ich finde es gut, dass AMD einem jetzt mehr Möglichkeiten anbietet.
So muss man nicht mehr das BIOS anpassen.
Und bei mir maximal -25mV. Bei -50mV friert mir alles ein.

Mal schauen wie sich Polaris verhält :)

mironicus
2016-06-24, 12:23:25
Das OC-Tool ist aber der Hammer! Für jeden einzelnen P-State ist eine manuelle Spannung einstellbar. Hoffentlich läuft das auch mit den alten Karten.

Kartenlehrling
2016-06-24, 12:38:07
Für Fury gabe es ja einen Fiji Bios Editor der moment die version 1.2 hat.
Gut ist es trotzdem das es gleich im Treiber angeboten wurde, ich ziehe nach einem zeitlich langen Ausloten trotzdem ein fester Bios Eintrag vor.

http://cdn.overclock.net/3/3b/900x900px-LL-3bf8c166_bNrc7lT.png

Grabhopser
2016-06-24, 12:40:28
Damit haben sie das wegfallen des Bios Schalters etwas abgefedert....

iuno
2016-06-24, 12:53:49
Das muss aber nicht immer so gehen. Vielleicht werden zukuenftige BIOSe aber auch wieder signiert oder gar verschluesselt, sodass keine Tweaks mehr moeglich sind.
Zumal die Schwelle einfach viel niedriger ist und es auch viel einfacher ist, auszuloten was geht ohne jedes mal das BIOS neu zu flashen. Wenn man wollte koennte man im Treiber auch eine Funktion implementieren, die automatisch das Maximum/Minimum auslotet, aber das liegt wohl eher nicht in AMDs Interesse.

Sollte das aber in Linux wie bisher der Overdrive Wert im Sysfs bereitgestellt werden, waere das problemlos auch automatisiert machbar.

@ks: Was hast du dahingehend wo gesehen?

Flusher
2016-06-24, 13:31:21
Wenn man wollte koennte man im Treiber auch eine Funktion implementieren, die automatisch das Maximum/Minimum auslotet, aber das liegt wohl eher nicht in AMDs Interesse.


Das macht AMD bei den CPUs mit Overdrive seit Ewigkeiten.

iuno
2016-06-24, 14:04:53
Und viele Mainboards machen das fuer CPU/RAM.
Bei GPUs waere das trotzdem voellig neu.

Troyan
2016-06-24, 14:07:46
Na und?
Bei GPUs waere das trotzdem voellig neu

Nö, gibt es seit knapp einen Monat für nVidia-Kunden. Mit GPU-Boost kann jeder Software schreiben, der den maximalen Takt pro Boost-Step ermittelt.

Der_Korken
2016-06-24, 14:22:07
Wer tut sich denn die Arbeit an, für zig unterschiedliche Spannungen manuell den maximalen Takt zu bestimmen? Zumal das zu komischen Situationen führen kann, dass höhere States stabil sind, aber kleinere nicht und die Graka dann bei hohem Takt stabil läuft, aber bei niedrigerem Takt Bildfehler produziert. Wenn sich Bildfehler automatisch detektieren lassen, fände ich es gut, wenn "OC" durch ein Tool automatisiert wird.

BlacKi
2016-06-24, 14:43:20
Wer tut sich denn die Arbeit an, für zig unterschiedliche Spannungen manuell den maximalen Takt zu bestimmen? Zumal das zu komischen Situationen führen kann, dass höhere States stabil sind, aber kleinere nicht und die Graka dann bei hohem Takt stabil läuft, aber bei niedrigerem Takt Bildfehler produziert. Wenn sich Bildfehler automatisch detektieren lassen, fände ich es gut, wenn "OC" durch ein Tool automatisiert wird.
wie bei nvidia der evga oc scanner x

illidan
2016-06-24, 14:53:07
...der einfach nur schlecht funktioniert.

Thunder99
2016-06-24, 15:26:40
Wer tut sich denn die Arbeit an, für zig unterschiedliche Spannungen manuell den maximalen Takt zu bestimmen? Zumal das zu komischen Situationen führen kann, dass höhere States stabil sind, aber kleinere nicht und die Graka dann bei hohem Takt stabil läuft, aber bei niedrigerem Takt Bildfehler produziert. Wenn sich Bildfehler automatisch detektieren lassen, fände ich es gut, wenn "OC" durch ein Tool automatisiert wird.
Fluch und Segen zugleich. Hab oft gelesen, dass nvidia User ihr BIOS immer wieder anpassen mussten wegen nicht stabilen zwischen P-States. Max OC stabil, darunter nicht :freak:

Troyan
2016-06-24, 15:28:52
Das ist mit GPU Boost 3.0 nun Geschichte. Du kannst ohne Biosanpassung den Boost auch komplett "deaktivieren" und alle unteren Boost-Steps mit den Standardtaktraten verwenden.

Gab richtig viele, gute Veränderungen in der Richtung.

Thunder99
2016-06-24, 15:47:16
und eine Verschlechterung das der idle Takt bei OC mit hochgeht :freak:

Hoffe das AMD das besser löst

captain_drink
2016-06-24, 16:10:10
und eine Verschlechterung das der idle Takt bei OC mit hochgeht :freak:

Was aber keine technische Notwendigkeit des Verfahrens, sondern das Ungeschick der AIBs ist.

Brillus
2016-06-24, 16:28:24
P10 -> 32 ROPs
V10 -> 64 ROPs
wäre realistisch

Mal davon abgesehen, ich glaub nicht, dass bei dem Shanghai-Event das Tapeout von V10 gemeint war, das wird sicherlich schon längst erfolgt sein. Aber wie siehts aus mit V11? Das wär doch mal ein Meilenstein :D.
Da stand explizit Vega10 auf der Torte(?)

TheCounter
2016-06-24, 16:31:43
Um wie viel Uhr fällt die NDA denn nun eigentlich genau?

Isen
2016-06-24, 16:54:54
15 Uhr

hesTeR-
2016-06-24, 16:55:39
Um wie viel Uhr fällt die NDA denn nun eigentlich genau?

http://www.timeanddate.com/countdown/generic?p0=240&iso=20160629T23&msg=Polaris%20RX480%20NDA%20Ends

N0Thing
2016-06-24, 16:59:23
Da stand explizit Vega10 auf der Torte(?)

https://twitter.com/GFXChipTweeter/status/745887920809218049

BlacKi
2016-06-24, 17:00:02
http://www.timeanddate.com/countdown/generic?p0=240&iso=20160629T23&msg=Polaris%20RX480%20NDA%20Ends
vorsicht der timer zeigt australische zeit.

edit: ich komm auch auf 15uhr.

y33H@
2016-06-24, 17:31:51
Soa, Tessellation-Werte fast durch. Dann Schluss für heute, viel zu heiß trotz Klima :usad:

Troyan
2016-06-24, 17:44:47
Du hast vergessen Bilder an dein Posting zu hängen.

LadyWhirlwind
2016-06-24, 17:46:56
Du hast vergessen Bilder an dein Posting zu hängen.

Oder zumindest eine Zahl xD

BK-Morpheus
2016-06-24, 17:50:41
http://forums.anandtech.com/showpost.php?p=38315172&postcount=3337
112W bei 94% GPU Last und 78°C bei 58% Lüftergeschwindigkeit.

Akkarin
2016-06-24, 17:56:21
Wie viel sind dass dann für die ganze karte ? 130-140W ?

MadPenguin
2016-06-24, 18:00:24
Wie viel sind dass dann für die ganze karte ? 130-140W ?

Ehm, 112W = 112W ?:confused:

Dino-Fossil
2016-06-24, 18:10:06
Ich schätze er meint damit, ob bei 100% noch zusätzliche Leistungsaufnahme kommt.
Wenn man das so einfach hochskalieren könnte, wären 100% ca 120W.
Aber das ist wohl unsinnig, oder ich hab die Frage falsch verstanden.

Wie genau ist GPU-Z da eigentlich?

BlacKi
2016-06-24, 18:19:39
Wie viel sind dass dann für die ganze karte ? 130-140W ?
94%=112,8
100% 120w

Akkarin
2016-06-24, 18:44:10
IIRC bedeuted "GPU Power draw" doch wirklich *GPU* power draw, d.h. VRAM & VRM kommen noch drauf. Oder verwechsle ich da was ?

In irgendnem tool ist das auf jedem fall so.

Kartenlehrling
2016-06-24, 18:47:28
..., viel zu heiß trotz Klima :usad:


:tongue:

soLofox
2016-06-24, 18:54:31
Soa, Tessellation-Werte fast durch. Dann Schluss für heute, viel zu heiß trotz Klima :usad:

zweideutig! das kann nur eines bedeuten: der kühler ist fürn arsch! :biggrin:

y33H@
2016-06-24, 18:56:22
Das was GPU-Z das anzeigt, ist rein für den ASIC. Ergo kommt da noch das ganze Geraffel auf der Platine dazu. Die Typical Board Power sind ja 150 Watt.

@ soLofox

Ein Kühler, dessen Lüfter auch auf der Rückseite ansaugt, kann nicht schlecht sein :P

-/\-CruNcher-/\-
2016-06-24, 19:00:03
Also liegt man mit 25W niedrieger im Overall einer Sweetspot GTX 970 beim Verbrauch und ist dabei Performanter, jedenfalls unter DX 12 schonmal ?

DIe Leak Daten zu DX 11 sahen jedenfalls nicht sehr berasuschend aus.

Dino-Fossil
2016-06-24, 19:00:12
Der Kühler ist gut! -20°C unter Vollast bestätigt! OC-Monster! :freak:

Michalito
2016-06-24, 19:00:41
Ein Kühler, dessen Lüfter auch auf der Rückseite ansaugt, kann nicht schlecht sein :P


Ich denke auch das dieser Referenzkühler der erste seit langer Zeit ist, den man auch als nicht Wasserkühlungsbesitzer bedenkenlos kaufen kann. Nix a la FE :biggrin: oder 290x

-/\-CruNcher-/\-
2016-06-24, 19:02:46
Naja wenn er die 80*C Halten kann aber einige haben ja scheinbar bis zu 94*C hinbekommen wenn es keine Fakes waren

Auch bezweifele ich das er ein gutes Dual Fan Design mit Zero Fan Option und aussreichender Heatpipe schlagen kann.

soLofox
2016-06-24, 19:02:56
@ soLofox

Ein Kühler, dessen Lüfter auch auf der Rückseite ansaugt, kann nicht schlecht sein :P

ich wollte doch nur kitzeln, hat ja geholfen, siehe dein posting! :biggrin::biggrin:

BlacKi
2016-06-24, 19:12:41
Das was GPU-Z das anzeigt, ist rein für den ASIC. Ergo kommt da noch das ganze Geraffel auf der Platine dazu. Die Typical Board Power sind ja 150 Watt.

@ soLofox

Ein Kühler, dessen Lüfter auch auf der Rückseite ansaugt, kann nicht schlecht sein :P
einfach noch ein paar löcher zusätzlich reinmachen dann sind 1800mhz drinn:freak:

Akkarin
2016-06-24, 19:13:12
Dann nochmal zurück zur Frage: Wenn der ASIC 110W zieht, wie viel zieht dann die Karte ? Kommt man da mit 130W hin oder werden's mehr ?

-/\-CruNcher-/\-
2016-06-24, 19:15:16
Igors tests abwarten ;)

BlacKi
2016-06-24, 19:19:29
oder wir machen ein tippspiel draus^^

Lard
2016-06-24, 19:24:38
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56424&stc=1&d=1466788223

Das AMD OC-Tool sieht gut aus.
Der Speicher läßt sich aber anscheinend nicht über 2000MHz übertakten.
Wie weit geht das Limit für die GPU Spannung?
1,15V ist für den 14nm Prozess schon recht hoch, aber auch von der ASIC-Qualität abhängig.
Profile für jedes Spiel wäre wünschenswert, ebenso ein Globales Profil.

Dino-Fossil
2016-06-24, 19:27:32
1,15V ist für den 14nm Prozess schon recht hoch, aber auch von der ASIC-Qualität abhängig.

Kann man über den IBM/GloFo Prozess schon Aussagen machen?

Lard
2016-06-24, 19:36:44
Kann man über den IBM/GloFo Prozess schon Aussagen machen?
Ich vergleiche nur die Spanungen mit der GTX 1070, die nur 0,825 - 1,060V für 1506 - 1873MHz benötigt.

illidan
2016-06-24, 19:36:52
Hab bei der Lüftersteuerung den Verdacht, dass diese auch den Takt verändert, oder wie ist "Zieldrehzahl" sonst zu verstehen?
Wäre gar nicht gut. Auch keine Hysterese-Option...

-/\-CruNcher-/\-
2016-06-24, 19:41:56
Ich vergleiche nur die Spanungen mit der GTX 1070, die nur 0,825 - 1,060V für 1506 - 1873MHz benötigt.

Vergleichen wir mal am Besten Äpfel mit Birnen ;)

illidan
2016-06-24, 19:43:21
Die Spannung ist letztlich nur eine Teilgröße, GM200 & 204 liefen auch mit mehr als viele Hawaii-Karten.

Troyan
2016-06-24, 19:51:21
Das was GPU-Z das anzeigt, ist rein für den ASIC. Ergo kommt da noch das ganze Geraffel auf der Platine dazu. Die Typical Board Power sind ja 150 Watt.

Echt? Bei nVidia wird der Verbrauch der kompletten Karte angegeben.
Und 112W alleine für die GPU wäre verdammt viel...

y33H@
2016-06-24, 20:09:17
Kommt man da mit 130W hin oder werden's mehr?AMD sagt 150 Watt ... bleibt die Frage, wie rigoros das Power Target ist ;-)

iuno
2016-06-24, 20:12:25
Finde das auch viel. Nach den Schätzungen von anandtech kommen dann noch über 20 Watt für den Speicher drauf. Spannungswandlerverluste natürlich auch.
Wobei wir auch nicht wissen, wie genau GPU-z da ist. Mit einer Igorschen Messung hat das ja nichts zu tun ;p

Die Typical Board Power sind ja 150 Watt.
:usad:

@Lard: ich denke eher dass der leaker nicht die finale Version hat. Da lässt sich ja beim Speicher gar nichts einstellen. Wenn dem so wäre hätten sie das auch raus lassen können. Und 1,0 Volt für dem Speicher sind auch Unsinn.

fondness
2016-06-24, 20:14:24
150W bei der Leistung wäre zu viel keine Frage.

illidan
2016-06-24, 20:17:59
Bei der Nano hat das Powertune-Limit (oder zumindest die tatsächliche Abriegelung) so ziemlich die offizielle Angabe getroffen.
Ich würde dann jetzt schon davon ausgehen, dass die ~150W maximal stimmen, wenn der hier verlinkte GPU-Stabilitätstest wie ein Power-Virus agiert und knapp an der Drosselungs-Grenze liefe.
Das kann dann auch mal in dem ein oder anderen Spiel vorkommen.

Edit: Natürlich kann auch jemand einfach das Powertune-Limit hochgedreht haben und sie würde bei diesem Stresstest normalerweise drosseln und somit weniger verbrauchen.
Edit 2: Außerdem quält der Tester auch noch gleichzeitig die CPU, was die GPU weiter aufheizen könnte.

-/\-CruNcher-/\-
2016-06-24, 20:28:12
150W bei der Leistung wäre zu viel keine Frage.

Naja bei 150W vs die GTX 970 bei 175W wäre das schonmal nicht schlecht wobei wir hier nicht 28nm vs 14nm aus den Augen verleren sollten aber gegen die GTX 1060 da kann man von ausgehen das sie weit drunter sein wird also muss sie schon ordentlich minimum unter 120W Low Level API Leistung bringen und den vollen 4K Video + VP9 support innerhalb des UVD/VCE ;)
Vor allem kommt die Performance ja auch erst mit Low Level API wirklich zum Vorschein und dann vor allem mit Async Compute Workload vorher sieht es scheinbar immernoch mau aus.

uweskw
2016-06-24, 20:36:29
Wen interessiert es wirklich ob die Karte unter Last 25W mehr oder weniger Verbraucht?
Das macht nach 20h Zocken 0,5 bis 1,0kW aus. Das sind 30 Cent.
Wichtig ist hingegen der Verbrauch im Idle und beim Video schauen.

Greetz
US

MikePayne
2016-06-24, 20:39:40
Alles Sachen, die Raff und Co wahrscheinlich bereits benchen und austesten - und grinsend (oder auch ohne Grinsen^^) schweigen werden ;)

iuno
2016-06-24, 20:45:16
Die paar Watt interessieren auch nicht, es geht aber darum, ob AMD technologisch zu nvidia aufgeholt hat und wie 14LPP ggü. 16FF+ dasteht.
Die OEMs und die meisten Kunden wird das nicht jucken, weil die Karten billig sind. Es kann aber auch als negativer Indikator für Zen und Vega aufgenommen werden.

Aber erstmal abwarten was der typische Spieleverbrauch und wie du sagst auch in niedrigeren dpm states ist.

Hakim
2016-06-24, 21:00:30
das wäre mir eigentlich auch egal ob die Karte 110W oder 150W beim Zocken schluckt wenn die Leistung stimmt, anders sieht das bei mir mit dem Video verbrauch aus (TV-Karte läuft nonstop), ob es dabei 10-20W oder 50-60W> schluckt

Dino-Fossil
2016-06-24, 21:06:03
Pessimistisch betrachtet gäbe es durchaus Indizien die darauf hindeuten, dass die 480 unter Vollast die 150W auch weitestgehend ausschöpft:

Es sind die offizielle TBP-Angabe von AMD
Die "bis zu" 2,8x Effizienzsteigerung, die man über die 470 (TBP 110W) und unter zusätzlich Verrechnung der Leistungssteigerung zu einer 270X bekommt (anstatt, z.B. einen direkten Vergleich z.B. einer 390 mit einer 480 zu ziehen).
bisherige GCN-Generationen konnten unter Volllast gerade bei größeren Chips eben recht stromhungrig sein. Bis wir wissen, was AMD diesbezüglich erreicht hat, bleibt GCN4 eine Unbekannte.


Wenn sie im Spielebetrieb eher bei <=130W liegt, bzw. das Powertarget beim Referenzdesign entsprechend gesetzt ist, muss das unter Realbedingungen aber nicht unbedingt so kommen.

Dural
2016-06-24, 21:08:09
Die Spannung ist letztlich nur eine Teilgröße, GM200 & 204 liefen auch mit mehr als viele Hawaii-Karten.

Stimmt nicht, maxwell lief zwischen 1,0 und 1,1volt und hawaii mit 1,1 bis 1,2v

d2kx
2016-06-24, 21:08:10
h8NUtM4sexc

Join The Radeon Rebellion
YouTube/AMD

BlacKi
2016-06-24, 21:09:03
das wäre mir eigentlich auch egal ob die Karte 110W oder 150W beim Zocken schluckt wenn die Leistung stimmt, anders sieht das bei mir mit dem Video verbrauch aus (TV-Karte läuft nonstop), ob es dabei 10-20W oder 50-60W> schluckt
es macht schon einen unterschied ob die karte 120 oder 150w zieht, schon allein auf vega schauend, das wird dann keine sub 200w karte, eher 300w, also back 2 roots^^

Hakim
2016-06-24, 21:10:55
diese Kommunisten :)

Isen
2016-06-24, 21:11:27
Hast Angst vor denen?

E: @Dural Maxwell schluckte gern seine 1.2-1.250v

illidan
2016-06-24, 21:13:35
Stimmt nicht, maxwell lief zwischen 1,0 und 1,1volt
Blödsinn:
http://www.hardocp.com/article/2014/10/08/nvidia_geforce_gtx_980_overclocking_video_card_review/4

-/\-CruNcher-/\-
2016-06-24, 21:20:51
Stimmt nicht, maxwell lief zwischen 1,0 und 1,1volt und hawaii mit 1,1 bis 1,2v

Das ist ja alles nicht Problematisch solange es in Leistung resultiert oder spürbare Entlastung (True Audio) ;)

Meine Default GTX 970 PRE OC Video Playback werte

0.850V 734 MHz = H.264 UHD@30 FPS
0.987V 962 MHz = H.264 UHD@60 FPS

Menace
2016-06-24, 21:27:35
es macht schon einen unterschied ob die karte 120 oder 150w zieht, schon allein auf vega schauend, das wird dann keine sub 200w karte, eher 300w, also back 2 roots^^

Du extrapolierst also von der Polaris-Karte zur Vega-Karte?

Sunrise
2016-06-24, 21:28:35
http://youtu.be/h8NUtM4sexc

Join The Radeon Rebellion
YouTube/AMD
Na endlich nimmt man an Fahrt auf. Gefällt mir gut, mehr davon! Und vor allem: Nicht nur labern, sondern auch machen!

Der 29.06. kann garnicht früh genug kommen...

@BlacKi
Also bis 225-250W ist ne Menge Luft, nicht den HBM-Bonus und evtl. (Spekulatius) die weiter verbesserte Effizienz vergessen. Solange wir jetzt min. 390X-Leistung sehen ist die Sache geritzt.

BlacKi
2016-06-24, 21:34:22
@BlacKi
Also bis 225-250W ist ne Menge Luft, nicht den HBM-Bonus und evtl. (Spekulatius) die weiter verbesserte Effizienz vergessen.
du meinst wie die versprechen der höheren effizienz ggü. der 1080? :rolleyes:

wir werden es sehen...

Dural
2016-06-24, 21:37:06
Blödsinn:
http://www.hardocp.com/article/2014/10/08/nvidia_geforce_gtx_980_overclocking_video_card_review/4

Stimmt, hab es mit pascal verwechselt, ich meinte 1,1x gegen 1,2x volt:

Meine 290x hat 1,25v
Meine Titan X hat 1,175v

reaperrr
2016-06-24, 21:37:23
Pessimistisch betrachtet gäbe es durchaus Indizien die darauf hindeuten, dass die 480 unter Vollast die 150W auch weitestgehend ausschöpft:

Es sind die offizielle TBP-Angabe von AMD


Falsch, AMD hat die 150W als TDP bezeichnet. TDP steht "Thermal Design Power", nicht für "Typical Board Power".

Das heißt, die 480 ist darauf designt, bis zu 150W Wärme abführen zu können, also die Obergrenze, nicht der typische Durchschnittsverbrauch.

Ein weiteres klares Indiz dafür ist auch der nur eine 6pin-Anschluss. Es stimmt zwar, dass die PCIe-Kabel in der Praxis auch mehr Saft übertragen können, aber das Referenz-Design legen sowohl AMD als auch Nvidia eigentlich immer so aus, dass da noch mindestens 15W Luft zu den offiziellen PCIe-Specs sind.
15W wohl hauptsächlich deshalb, weil die 15W über die 3.3V-Schiene des PCIe-Anschlusses in der Praxis oft nicht mehr genutzt werden.

Ergo ist zu erwarten, dass die 480 mit Referenztakt maximal 135W, eher weniger verbraucht. Ich denke, die 150W TDP sind als Angabe eher mit den 180W für die Radeon 7870 zu vergleichen.



Wenn sie im Spielebetrieb eher bei <=130W liegt, bzw. das Powertarget beim Referenzdesign entsprechend gesetzt ist, muss das unter Realbedingungen aber nicht unbedingt so kommen.
...Ich verstehe wirklich nicht, was du hier mit "Realbedingungen" meinst :confused:
Realer als Powertarget im Spielebetrieb geht es doch kaum...

Gipsel
2016-06-24, 21:56:55
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56424&stc=1&d=1466788223

Das AMD OC-Tool sieht gut aus.
Der Speicher läßt sich aber anscheinend nicht über 2000MHz übertakten.
Wie weit geht das Limit für die GPU Spannung?
1,15V ist für den 14nm Prozess schon recht hoch, aber auch von der ASIC-Qualität abhängig.
Profile für jedes Spiel wäre wünschenswert, ebenso ein Globales Profil.Hmm, abwarten. Immerhin ist auf dem Screenshot der Slider für den Speichertakt komplett links am Anschlag. Wenn man den etwas nach rechts schiebt, könnte da dann z.B. auch "2300MHz Max" (oder was auch immer) stehen. Denn eventuell gibt es nur die obere Grenze an, bis zu der der Speicher in Abhängigkeit vom Boost-State takten darf (auf dem Screenshot steht "2000MHz Max", die aktuelle Frequenz beträgt aber nur 300MHz, es ist also nicht fest). Die GPU-Frequenz-Slider stehen bei 1265MHz ja anscheinend auch erst knapp über der Mitte (wenn die halbwegs linear sind, gehen die bis ~2,2GHz).

Dino-Fossil
2016-06-24, 21:59:08
Falsch, AMD hat die 150W als TDP bezeichnet. TDP steht "Thermal Design Power", nicht für "Typical Board Power".

Eigentlich haben sie doch nur von "Power" gesprochen, oder? Ob TDP oder TBP ist mir zumindest unklar. Es legen aber viele in diesem Thread Wert darauf, dass AMD nur TBP angibt und keine TDP, von daher...


...Ich verstehe wirklich nicht, was du hier mit "Realbedingungen" meinst :confused:
Realer als Powertarget im Spielebetrieb geht es doch kaum...

Ich bin durchaus auch der Meinung, dass die 480 (einigermaßen deutlich) unter 150W bleibt, eben auch wegen dem 1x 6pin Anschluss. Realbedingungen sind für mich typische Spiele - im Unterschied zu Powerviren wie z.B. Furmark, oder anderen synthetischen Benchmarks, die primär die GPU möglichst effizient auslasten wollen.
Aber ich kann mir eben vorstellen, das die Karten unter solchen Bedingungen 150W ziehen könnten.

du meinst wie die versprechen der höheren effizienz ggü. der 1080?


Vielleicht ja weil AMD von Polaris zu Vega selbst nochmals 40% gesteigerte Effizienz auf den Roadmaps angekündigt hat, wenn ich mich richtig erinnere.
Frage ist, ob das der HBM-Bonus ist, oder rein die Architektur ohne Speichersystem.

iuno
2016-06-24, 22:00:30
Falsch, AMD hat die 150W als TDP bezeichnet. TDP steht "Thermal Design Power", nicht für "Typical Board Power".
Wo genau?
Auf der Folie stand nur "Power", nichts genaueres. Da wo auch nur grob >5 TFLOPs stand. Im Foliensatz danach wurde gar nur noch der Power Connector angegeben.

Davon abgesehen hat y33h@ nicht gerade bestaetigt, dass es 150 Watt TBP sind? :P


@Gipsel: wie gesagt, da stimmt noch was nicht. GDDR5 mit 8 Gbps laeuft auch sicher nicht mit 1000 mV

krissbay
2016-06-24, 22:00:54
Neue benchmark 1120 Mhz ?
Wenn sich die Karte noch um 20% overclocken lässt , dann ist sie die Traumkarte für den preis.

Hakim
2016-06-24, 22:09:39
Neue benchmark 1120 Mhz ?

Evtl. haben sie nur den Basis Takt angegeben, sprich ohne "Turbo". Aber wenn es stimmen sollte, das was viele vorausgesagt haben, zwischen 970 und 980.

Gipsel
2016-06-24, 22:11:25
@Gipsel: wie gesagt, da stimmt noch was nicht. GDDR5 mit 8 Gbps laeuft auch sicher nicht mit 1000 mVHmm, vielleicht hat ja der Speichercontroller eine eigene Voltage-Domain? Dann könnte man den Speicher hoch takten, ohne der kompletten GPU viel Spannung zu geben.

Außerdem ist in dem Screenshot zwar der Slider für den Maximaltakt des GDDR5 ganz links auf 2GHz, aber der Powerstate 1 ist selektiert (fett markiert und der vertikale Slider ist der einzige aktive) und der ist ebenfalls ganz unten (auf nur 300MHz, was als aktuell angezeigt wird?). Dafür würde 1,0V wohl reichen. Keine Ahnung, wie der 8Gbps GDDR5 (@1,5V) spezifiziert ist, aber vermutlich gehen bei niedrigen Takten auch weniger Spannung.

Digidi
2016-06-24, 22:12:56
Wenn die Kurve Lineare ist bräuchte man für 2 GHz etwa 1400mv. Da es aber eher ein Exponentieller Ansatz hinten raus wird eher 1600 - 1700 mv.

Bei weiteren 100mv also bei 1250mv wären bei einem Linearen Ansatz gut 1,5 ghz möglich. Das wären dann etwa

Neue benchmark 1120 Mhz ?

Sicher das die Stimme? Wenn dann wäre meine Empfehlung noch eine 290x bzw 390x mitzunehmen wenn die unter 200 fällt :D
Hat bei Nvidia hier schon der Alterungsprozess eingesetzt die 980 geht ja schrecklich, über die 970 braucht man nicht zu reden!

BlacKi
2016-06-24, 22:17:02
Evtl. haben sie nur den Basis Takt angegeben, sprich ohne "Turbo". Aber wenn es stimmen sollte, das was viele vorausgesagt haben, zwischen 970 und 980.
schau dir mal die werte 480 vs 390x an...

Digidi
2016-06-24, 22:21:19
290x 4 live. :D Wer eine 290x gekauft hat wird Freundensprünge machen da kann man gut noch 1 Jahr weiter spielen. Die 290x war der beste kauf meines Lebens :D

Wenn das so weiter geht werde ich Opa und hab immer noch eine 290x im System :D

iuno
2016-06-24, 22:22:04
Der Samsung Speicher laeuft iirc mit 1,55 V.
Dass bei 300 MHz vielleicht auch 1 V geht, mag ja sein. Ich meinte aber die Spannung bei 2 GHz, so wie der Takt links auch eingestellt ist.

Wie gesagt, wenn alle Werte N/A und nicht einstellbar ist, fehlt da sicher noch was, sonst koennte man es auch weg lassen.

schau dir mal die werte 480 vs 390x an...
Und 980 vs 390X? Als ob Hawaii da ueberall schneller ist, selbst in FHD? OK, Referenz aber trotzdem? :confused:

BlacKi
2016-06-24, 22:28:26
Und 980 vs 390X? Als ob Hawaii da ueberall schneller ist, selbst in FHD? OK, Referenz aber trotzdem? :confused:
das meinte ich doch, wenn die benches echt sind dann sind die settings bestimmt vorteilhaft für amd eingestellt. ich den 1080 tests sieht man die 980 referenz oft vor der 390x.

wenn man jetzt das ganze weiterspinnt, dann könnte man schlussfolgern das man mit der 480 endlich das perf/watt der 970 erreicht hat^^

Rabiata
2016-06-24, 22:30:40
schau dir mal die werte 480 vs 390x an...
Sehr überraschend die Zahlen, in der Tat.

Wobei die 480 vs. GTX 980 noch etwa dort liegt wo sie spekulativ erwartet wurde. Aber die älteren AMDs schneiden viel besser ab als ich gedacht hätte. War das jetzt ein Nachtest mit aktuellen Treibern oder hat der Tester vielleicht einen methodischen Fehler gemacht??

gedi
2016-06-24, 22:31:00
Wahrscheinlich wurde die TDP runtergesetzt, daher lediglich 1120MHZ.

Aber eine Fury X generell über einer 980ti (auch in FHD :eek:)? Horny-Treiber im Anlauf?

Gipsel
2016-06-24, 22:31:54
Dass bei 300 MHz vielleicht auch 1 V geht, mag ja sein. Ich meinte aber die Spannung bei 2 GHz, so wie der Takt links auch eingestellt ist.Das ist ja gerade mein Punkt, es sind keine 2 GHz eingestellt. Es ist State 1 selektiert (fett hervorgehoben) und da ist der Slider (die einzelnen States haben vertikale Slider) komplett unten, offenbar auf 300MHz. Und bei eben diesem State 1 stehen denn ja auch die 1000mV. Das könnte also durchaus die Spannung genau dafür sein. Aber solange niemand ausprobiert und berichtet, wie genau die Logik in dem Panel funktioniert, ist das tatsächlich nur Raten.

BlacKi
2016-06-24, 22:34:18
Sehr überraschend die Zahlen, in der Tat.

Wobei die 480 vs. GTX 980 noch etwa dort liegt wo sie spekulativ erwartet wurde. Aber die älteren AMDs schneiden viel besser ab als ich gedacht hätte. War das jetzt ein Nachtest mit aktuellen Treibern oder hat der Tester vielleicht einen methodischen Fehler gemacht??
ich versteh nicht warum man die 480 immer mit der 980 vergleichen will, wenn man performance vergleiche machen will dann sollte man doch eher amd karten als gegenspieler heranziehen.

d2kx
2016-06-24, 22:34:23
http://radeon.kappow.co.uk/wp-content/uploads/2016/05/rx-series.png

RADEON - NO MORE RULES (http://radeon.kappow.co.uk/)
AMD #BETTERRED

Digidi
2016-06-24, 22:34:53
Wahrscheinlich wurde die TDP runtergesetzt, daher lediglich 1120MHZ.

Aber eine Fury X generell über einer 980ti (auch in FHD :eek:)? Horny-Treiber im Anlauf?


Falls die Benchmarks Stimme, aber wirklich nur falls sie stimmen dann könnte die 980 ti das selbe Schicksal ereilen die 780 ti. Das Teil wird einfach im Treiber fallen gelassen um so die neuere Generation besser dastehen zu lassen. Es haben ja viele gemault das die 1070 und 1080 nicht genug Leistung bringen so könnte man es vorgaukeln.

BlacKi
2016-06-24, 22:37:37
RADEON - NO MORE RULES (http://radeon.kappow.co.uk/)
AMD #BETTERRED
join the brexit rebellion in uk?(http://radeon.kappow.co.uk)

iuno
2016-06-24, 22:37:53
Das ist ja gerade mein Punkt, es sind keine 2 GHz eingestellt. Es ist State 1 selektiert (fett hervorgehoben) und da ist der Slider (die einzelnen States haben vertikale Slider) komplett unten, offenbar auf 300MHz. Und bei eben diesem State 1 stehen denn ja auch die 1000mV. Das könnte also durchaus die Spannung genau dafür sein. Aber solange niemand ausprobiert und berichtet, wie genau die Logik in dem Panel funktioniert, ist das tatsächlich nur Raten.
Ich glaube nicht, dass der Leaker das auf 300 MHz eingestellt hat. Bei dem Chinesen sah das genauso aus:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56391&d=1466510098
Aber richtig, ist nur Gerate also lassen wir das ;)

RADEON - NO MORE RULES (http://radeon.kappow.co.uk/)
Warum gibt es da keine ordentliche domain?

Blockdiagramm geleakt:
http://radeon.kappow.co.uk/wp-content/uploads/2016/05/NEW-POLARIS-CARD.png
;p

Digidi
2016-06-24, 22:40:45
join the brexit rebellion in uk?(http://radeon.kappow.co.uk)
Passt doch zum Brexit :D

Digidi
2016-06-24, 22:42:30
Ein Fire Mark Benchmark mit 1280 und einem FX 9590
http://www.3dmark.com/fs/8936784?_ga=1.229787156.962508730.1464474514

Linmoum
2016-06-24, 22:44:11
Neue benchmark 1120 Mhz ?
Wenn sich die Karte noch um 20% overclocken lässt , dann ist sie die Traumkarte für den preis.
Sind Fake, da hat jemand einfach mit etwas Photoshop gearbeitet und die 390 durch die 480 ersetzt.

http://www.ddworld.cz/pc-a-komponenty/graficke-karty/test-sapphire-nitro-radeon-r9-fury-4g-jedna-z-nejlepsich-grafickych-karet-28nm-generace--5.html

-/\-CruNcher-/\-
2016-06-24, 22:46:11
das meinte ich doch, wenn die benches echt sind dann sind die settings bestimmt vorteilhaft für amd eingestellt. ich den 1080 tests sieht man die 980 referenz oft vor der 390x.

wenn man jetzt das ganze weiterspinnt, dann könnte man schlussfolgern das man mit der 480 endlich das perf/watt der 970 erreicht hat^^

Ja und es wird interessant wo Vega stehen wird allerdings könnte die GTX 1060 nochmal rumpsen und die GTX 970 ablösen da würde ich Nvidia nicht unterschätzen, was AMD aber egal sein kann der Zeitliche Vorteil war schon ausreichend man ist first mit der Mainstreamkarte.

Achill
2016-06-24, 22:47:51
Wahrscheinlich wurde die TDP runtergesetzt, daher lediglich 1120MHZ.

Aber eine Fury X generell über einer 980ti (auch in FHD :eek:)? Horny-Treiber im Anlauf?

AMD müsste nur das optionale DX11 Feature: Command-Lists in einen neuen Treiber unterstützen, und schon wäre der *berühmte* Driver-Overheat weg (der ja keiner ist sondern das fehlen dieses Features). Da dies SW seitig machbar ist und die HW mit DX12 Multi-Core rendering schon gezeigt hat, kann da immer noch etwas kommen - auch für die älteren Generationen.


Ein Fire Mark Benchmark mit 1280 und einem FX 9590
http://www.3dmark.com/fs/8936784?_ga=1.229787156.962508730.1464474514

Es scheint einen neuen Treiber zu geben: 16.200.1035.0

Troyan
2016-06-24, 22:49:30
Haha, der Teil über Asynchronous Shaders ist göttlich. Gut, das wurde wahrscheinlich alles vor Pascal entwickelt, aber GP104 liefert 3x die Leistung von P10, wenn man einen Async Compute Test wie den von MDolenc verwendet: https://forum.beyond3d.com/posts/1925732/

d2kx
2016-06-24, 22:49:54
AMD müsste nur das optionale DX11 Feature: Command-Lists in einen neuen Treiber unterstützen, und schon wäre der *berühmte* Driver-Overheat weg (der ja keiner ist sondern das fehlen dieses Features). Da dies SW seitig machbar ist und die HW mit DX12 Multi-Core rendering schon gezeigt hat, kann da immer noch etwas kommen - auch für die älteren Generationen.

Robert Hallock hat sich dazu schon einmal geäußert. Ganz so einfach ist das nicht.

iuno
2016-06-24, 22:51:34
:facepalm:
- Das Video ist gut ein Jahr alt
- P10 spielt immer noch nicht in der Liga von GP104

Menace
2016-06-24, 22:56:19
Haha, der Teil über Asynchronous Shaders ist göttlich. Gut, das wurde wahrscheinlich alles vor Pascal entwickelt, aber GP104 liefert 3x die Leistung von P10, wenn man einen Async Compute Test wie den von MDolenc verwendet: https://forum.beyond3d.com/posts/1925732/

Wieso kommt es mir Deine Beiträge häufig so vor, wie die netten Menschen Sonntags morgen, die mit mir über die Bibel sprechen wollen?

3x die Leistung eines Tests bringt mir jetzt bis auf einen Schwanzvergleich nicht viel. Deine permanente Werbung zu nvidia hier im Thread auch nicht.

Isen
2016-06-24, 23:08:07
Ein Fire Mark Benchmark mit 1280 und einem FX 9590
http://www.3dmark.com/fs/8936784?_ga=1.229787156.962508730.1464474514

Entweder das ist nen schlechter Fake oder die Kiste ist Katastrophal zugemüllt und läuft einfach nur scheiße.

Edit: Ich Bench mal mit meinem zweit system.

Edit 2: So mal mit meinem kleinen gebencht: https://abload.de/img/3dz4uan.jpg
Schwächere Hardware (Ram (1600er) r200 auf 1080mhz, 4,4Ghz CPU) als der Type... kann nur zugemüllt sein das System von dem *gg*

-/\-CruNcher-/\-
2016-06-24, 23:14:10
Robert Hallock hat sich dazu schon einmal geäußert. Ganz so einfach ist das nicht.

Because DCLs are useless. They’ve been inappropriately positioned as a panacea for DX11’s modest multi-threading capabilities, but most journalists and users exploring the topic are not familiar with why DCLs are so broken or limited.

Let’s say you have a bunch of command lists on each CPU core in DX11. You have no idea when each of these command lists will be submitted to the GPU (residency not yet known). But you need to patch each of these lists with GPU addresses before submitting them to the graphics card. So the one single CPU core in DX11 that’s performing all of your immediate work with the GPU must stop what it’s doing and spend time crawling through the DCLs on the other cores. It’s a huge hit to performance after more than a few minutes of runtime, though DCLs are very lovely at arbitrarily boosting benchmark scores on tests that run for ~30 seconds.

The best way to do DX11 is from our GCN Performance tip #31: A dedicated thread solely responsible for making D3D calls is usually the best way to drive the API.Notes: The best way to drive a high number of draw calls in DirectX11 is to dedicate a thread to graphics API calls. This thread’s sole responsibility should be to make DirectX calls; any other types of work should be moved onto other threads (including processing memory buffer contents). This graphics “producer thread” approach allows the feeding of the driver’s “consumer thread” as fast as possible, enabling a high number of API calls to be processed.

Jep hier hat er innefizient aber funtionioeren für Nvidia und das für DX 11 und OpenGL

Raff
2016-06-24, 23:33:47
Soa, Tessellation-Werte fast durch. Dann Schluss für heute, viel zu heiß trotz Klima :usad:

PCGH Uncut: Die geheime AMD-Grafikkarte (https://www.youtube.com/watch?v=ZoFAx4cBHtM)? :eek: :biggrin:

MfG,
Raff

Gipsel
2016-06-24, 23:36:11
Haha, der Teil über Asynchronous Shaders ist göttlich. Gut, das wurde wahrscheinlich alles vor Pascal entwickelt, aber GP104 liefert 3x die Leistung von P10, wenn man einen Async Compute Test wie den von MDolenc verwendet: https://forum.beyond3d.com/posts/1925732/
Ich weiß ja nicht auf welche Zahlen Du dich da beziehst, aber MDolencs Tonga hat in dem AsyncTest eine Latenz von angeblich 0,2-0,5ms gegenüber den ~1,1ms bei Deiner übertakteten GTX 1080 (aber keine Ahnung wie das angegeben ist, eventuell sind es bei Dir auch nur knapp 0,2ms, wenn man die mittlere Laufzeit eines Compute-Kernels abzieht). Und ein Compute-Kernel in dem Test dauert auf Tonga übrigens etwa 1,5ms gegenüber den gut 0,9ms bei Dir. Also wirklich keine Ahnung, wo Du die Zahlen für Polaris10 hernimmst, wenn Tonga sogar schon schneller ist, als Du behauptest. :|

Ich hoffe mal, Du nimmst da nicht den recht irrelevanten Grafikpart als Maßstab, da das praktisch ein rein durch die ROPs limitierter Füllratentest ist (Du erreichst ~115GPixel/s mit 64 ROPs@1,9GHz, der Tonga ~31 GPixel/s mit 32ROPs@970MHz; go figure!). :rolleyes:

Achill
2016-06-24, 23:58:59
Ich lehne mich hier mal ganz weit aus dem Fenster, da ich ja wender HW-nahe Software noch Sachen gegen DX/OGL entwickle ...


[..]

1) Because DCLs are useless. They’ve been inappropriately positioned as a panacea for DX11’s modest multi-threading capabilities, but most journalists and users exploring the topic are not familiar with why DCLs are so broken or limited.

[..]


Ich kann und will Ihm gar nicht Widersprechen, laut den zwei MSDN Artikeln lesen sich DCL wie eine Krücke:
- Immediate and Deferred Rendering (https://msdn.microsoft.com/en-us/library/windows/desktop/ff476892(v=vs.85).aspx)
- Command List (https://msdn.microsoft.com/en-us/library/windows/desktop/ff476885(v=vs.85).aspx)


Let’s say you have a bunch of command lists on each CPU core in DX11. You have no idea when each of these command lists will be submitted to the GPU (residency not yet known). But you need to patch each of these lists with GPU addresses before submitting them to the graphics card. So the one single CPU core in DX11 that’s performing all of your immediate work with the GPU must stop what it’s doing and spend time crawling through the DCLs on the other cores. It’s a huge hit to performance after more than a few minutes of runtime, though DCLs are very lovely at arbitrarily boosting benchmark scores on tests that run for ~30 seconds.

The best way to do DX11 is from our GCN Performance tip #31: A dedicated thread solely responsible for making D3D calls is usually the best way to drive the API.Notes: The best way to drive a high number of draw calls in DirectX11 is to dedicate a thread to graphics API calls. This thread’s sole responsibility should be to make DirectX calls; any other types of work should be moved onto other threads (including processing memory buffer contents). This graphics “producer thread” approach allows the feeding of the driver’s “consumer thread” as fast as possible, enabling a high number of API calls to be processed.

[..]


Ich verstehe diesen Ansatz, dieser hat jedoch Ähnlichkeiten mit Command-Listen, die jeweils von einen dedizierten Thread befüllt/erzeugt werden und dann von einen expliziten Thread (der den DX11Context hält) konsumiert wird.

Der Unterschied liegt m.E. im Aufwand der Umsetzung, die DCL scheinen mir aus der SW-Perspektive leichter verwendbar zu sein, da diese schon eine (Daten)Struktur zu Umsetzung mitbringen und weniger Sync-Punkte im eigenen Code entstehen. Der Nachteil ist die Eingeschränktheit dieser Listen nach dem Zeitpunkt der Erzeugung.

Schreibe ich wie Vorgeschlagen eine eigene Impl. von dedizierten Render-Threads, die einen expliziten Thread "füttern", so muss ich neben den Sync-Punkten sowie die Datenstrukturen zum Aufzeichnen der Render-Befehle erstellen (Batches) bzw. eine andere gute Lösung finden (Event-Streams?), die performant genug ist. Dies ist komplizierter (m.E.) für den Entwickler, er muss eine eigene gute Implementierung schaffen, die wenige Sync-Locks aufweist und dies läuft schnell auch auf eine Fähigkeits- und Kostenfrage hinaus.

Obwohl DCL nicht so flexibel erscheinen, kann der Aspekt, dass diese Imutable und damit stabil referenzierbar sind, zu weiteren Optimierungen führen:
- Wenn eine CL (Batch of Commands) einmal ohne Fehler ausgeführt wurde, so kann neben einer Treiber-Interen Representation auch die Validierung der Commandos / der ganzen Liste entfallen - beim Producers-Consumer-Thread Ansatz ist dies nicht möglich.
- Man könnte eine interne Representation sowohl im RAM sowie im VRAM halten / umher schieben

... ist aber alles recht spekulativ, da ich mich in dem Teil der SW nicht wirklich auskenne.

Linmoum
2016-06-25, 00:39:00
Livestream bei pcper am 29. Juni mit Raja Koduri

With the pending release of the Radeon RX 480 based on AMD's latest Polaris architecture on Wednesday, June 29th, I am excited to announce that Raja Koduri, SVP and Chief Architect of the Radeon Technologies Group will be joining us in studio to talk about the RX 480 and AMD's plans moving forward.
http://www.pcper.com/news/General-Tech/PCPer-Live-Radeon-RX-480-Live-Stream-Raja-Koduri

-/\-CruNcher-/\-
2016-06-25, 00:50:27
Unglaublich mal nicht Petersen der neben Shrout sitzen wird sondern Koduri nach den Crimson Guys die nächste appearance von AMD bei pcper ;)

Frag mich was unser Huddy macht ziemlich ruihg geworden um ihn ;)

uweskw
2016-06-25, 01:14:59
schau dir mal die werte 480 vs 390x an...

wenn man die 390X (Hawaji/Grenada, 438mm² 28nm) einfach auf 14FF umgestellt hätte, wie groß wäre die Chipfläche? Deutlich größer als Polaris10? Und sollte sich das Ergebnis nicht zumindest 10-20% besser takten lassen?
Ist ein bisschen Milchmädchen, ich weiss. Aber wo ist der Haken?

greetz
US

d2kx
2016-06-25, 01:36:37
Livestream bei pcper am 29. Juni mit Raja Koduri


http://www.pcper.com/news/General-Tech/PCPer-Live-Radeon-RX-480-Live-Stream-Raja-Koduri

http://i.imgur.com/thCSaDS.gif

DoomGuy
2016-06-25, 01:50:25
http://i.imgur.com/thCSaDS.gif

Hahaha, das Bild spiegelt einfach AMD wieder... sorry

C-WDE7oF_2A

-/\-CruNcher-/\-
2016-06-25, 01:58:44
http://i.imgur.com/thCSaDS.gif

Hehe er zieht es durch

4qJj1ViyyPY

Bin sehr gespannt auf das neue VSR und die Qualität und Performance vs DSR :)

"Im only going to celebrate when we do product launches"

So gesehen wäre Twitter: "Celebration Vega 10" demnach ein Product Launch wenn man das wörtlich nehmen konnte ;)

Frank1974
2016-06-25, 02:30:16
Ich mag AMD und werde auch ganz sicher eine RX480 kaufen, wenn der Preis wirklich den Gerüchten(230-250€ 8GB Version) entspicht(selbst wenn die Performance nur GTX970 sein sollte, mehr ist natürlich immer Willkommen), aber ich kann das ganze mit den Asynchronous Shaders nicht mehr hören, wäre das ganze von Nvidia gekommen und eine R290x wäre jetzt hinter einer GTX770, keine Ahnung ob das der ungefähre Vergleich ist, würden viele hier(ich nenne keine Namen:biggrin:) einen Shitstorm ohne gleichen gegen Nvidia fahren und nie damit aufhören..., muss man immer nachtreten wenn der Gegner halb am Boden ist?

DX12 und Vulkan sind aber viel mehr als nur dieses eine Feature, und mit den nächsten Generationen wird das auch von Nvidia ausgeglichen, AMD hatte keine Wahl, mit DX11 waren ihre Karten am Limit, sie haben im Gegensatz zu Nvidia keine Möglichkeit gefunden wie man die Performance ihrer Karten unter DX11 zu 100% effektiv umsetzt, Mantle(jetzt Vulkan und auch DX12 auch wenn das nicht 100% das gleiche ist) ist genau auf die AMD Architektur angepasst. Nvidia ist da ein sehr großer Fehler unterlaufen, Asynchronous Shaders oder auch AC genannt, wurde sehr lange keine Aufmerksamkeit gewidmet, sie haben das ganze zu lange für unbedeutend gehalten, trotzdem hat es etwas Positives, Nvidia wird jetzt einige Marktanteile abgeben(ich hoffe das wenigstens, weil ich kein Fanboy einer Marke bin), 50-50% so sollte es immer sein, was aber leider nur eine Wunschvorstellung von mir ist.

Ich erwarte von DX12 und Vulkan auch endlich neue Effekte und eine allgemein deutlich verbesserte Bildqualität, nur Asynchronous Shaders ist mir zu wenig, bis jetzt hatten die wenigen DX12 Titel die ich gesehen habe, das aber nicht, soweit ich das beurteilen kann, und jetzt bitte keine Vorwürfe gegen mich, das soll nur ein wenig Kritik sein, man kann nicht Monate oder Jahre nur auf AC rumreiten :rolleyes:

Ich habe hier auch genug Kritik für Nvidia, viel zu hohe Preise für die Leistung, ich hätte die kommende GTX1080 Ti, wenn sie den so kommen sollte, für den Preis von 650€ erwartet aber nicht eine normale 1080 für über 700€ das geht mal gar nicht, auch die GTX970 ist bei mir sehr schlecht angekommen, obwohl ich bei der Karte von Anfang an Skeptisch war, der Preisunterschied war zu Hoch zur GTX980, ich hatte erwartet das Nvidia die irgendwo bremst, aber nie gedacht das sie das so dreist machen, deshalb bin ich jetzt bei allen neuen Produkten von Nvidia vorsichtig, eher wie 3 Monate nach Erscheinen werde ich nix mehr von denen kaufen, aber genug erzählt, freue mich jetzt auf die RX480:), auch wenn die Karte mit VR beworben wird, sind mir die Brillen noch zu Teuer und nicht ausgereift(zu geringe Auflösung usw.)

Ich lese sehr viel und schreibe fast nie Beträge, also Leute, immer fleissig weiter so, bis zum 29th ist noch genug platz hier, und danach geht es mit Vega sofort weiter. :smile:

mfg
Frank

-/\-CruNcher-/\-
2016-06-25, 02:33:47
Mit Async Compute kannst du einiges machen z.b für VSR nutzen ;)

Naja ich sehe das mit der GTX 970 immernoch anders sie ist auch nicht umsonst minspec VR geworden zu der Zeit war es Wirtschaftlich vorausgedacht und bei weitem micht so abgehoben wie jetzt mit Pascals Launch wobei die GTX 1060 ja noch kommt und das sein wird was RX480 für AMD ist nur teils diesmal zu Spät bis dahin werden viele user schon abgezogen sein und neue ins AMD Ökosystem hinzu gewandert.

Michalito
2016-06-25, 03:13:17
DX12 und Vulkan sind aber viel mehr als nur dieses eine Feature, und mit den nächsten Generationen wird das auch von Nvidia ausgeglichen, AMD hatte keine Wahl, mit DX11 waren ihre Karten am Limit, sie haben im Gegensatz zu Nvidia keine Möglichkeit gefunden wie man die Performance ihrer Karten unter DX11 zu 100% effektiv umsetzt, Mantle(jetzt Vulkan und auch DX12 auch wenn das nicht 100% das gleiche ist) ist genau auf die AMD Architektur angepasst. Nvidia ist da ein sehr großer Fehler unterlaufen, Asynchronous Shaders oder auch AC genannt, wurde sehr lange keine Aufmerksamkeit gewidmet, sie haben das ganze zu lange für unbedeutend gehalten, trotzdem hat es etwas Positives, Nvidia wird jetzt einige Marktanteile abgeben(ich hoffe das wenigstens, weil ich kein Fanboy einer Marke bin), 50-50% so sollte es immer sein, was aber leider nur eine Wunschvorstellung von mir ist.

Ich erwarte von DX12 und Vulkan auch endlich neue Effekte und eine allgemein deutlich verbesserte Bildqualität, nur Asynchronous Shaders ist mir zu wenig, bis jetzt hatten die wenigen DX12 Titel die ich gesehen habe, das aber nicht, soweit ich das beurteilen kann, und jetzt bitte keine Vorwürfe gegen mich, das soll nur ein wenig Kritik sein, man kann nicht Monate oder Jahre nur auf AC rumreiten :rolleyes:

Ich habe hier auch genug Kritik für Nvidia, viel zu hohe Preise für die Leistung, ich hätte die kommende GTX1080 Ti, wenn sie den so kommen sollte, für den Preis von 650€ erwartet aber nicht eine normale 1080 für über 700€ das geht mal gar nicht, auch die GTX970 ist bei mir sehr schlecht angekommen, obwohl ich bei der Karte von Anfang an Skeptisch war, der Preisunterschied war zu Hoch zur GTX980, ich hatte erwartet das Nvidia die irgendwo bremst, aber nie gedacht das sie das so dreist machen, deshalb bin ich jetzt bei allen neuen Produkten von Nvidia vorsichtig, eher wie 3 Monate nach Erscheinen werde ich nix mehr von denen kaufen, aber genug erzählt, freue mich jetzt auf die RX480:), auch wenn die Karte mit VR beworben wird, sind mir die Brillen noch zu Teuer und nicht ausgereift(zu geringe Auflösung usw.)
mfg
Frank


Nv hat bezüglich AS nicht geschlafen, die wussten schlicht garnichts davon. Und das ist auch NV eigentliches Versagen. Sich einfach auf Lorbeeren ausruhen und so überhauptnichts Visionäres für den Gamer und die Industrie zu tun. Und das ist AMD echte Leistung: Eine Vision, strategisch gut eingefädelt und auch gut umgesetzt. Konsolen strategische Partnerschaft mit Studios (die das von sich aus wollten, und nicht auf Gameworkskohle auswaren) Mantel zum Druck aufbauen, DX 12 mit MS, was sofort eine Verbreitung erreicht die kein !! HW Hersteller in einer solch kurzen Zeit erreichen kann.. Tadaa: NV muss entwicklungstechnisch nun nach AMD Pfeife tanzen.. Und das trotz des Anteils am Markt. Sauber. David hat Goliath halt mit dem Köpfchen besiegt, nicht mit Muskeln. Nur, AMD hat halt 2 Goliaths vor der Nase.. Es bleibt spannend:cool:

Hakim
2016-06-25, 03:23:29
Bei aller Objektiven Betrachtung, wenn man sich hier einige Posts liest hat man den Eindruck NVidia wäre am Boden und Kämpft ums überleben.

Ich sehe das derzeit so das NVidia trotz der 970 Sache sau viele Karten davon verkauft hat und trotz des hohen Preises bei den 1080 die Karten sich offensichtlich gut verkaufen. Sprich die können sich das erlauben. Bei AMD hingegen ist glaube ich der Erfolg der Polaris Karten verdammt wichtig, hoffen wir das sie genügend Käufer finden.

Isen
2016-06-25, 03:32:21
Die wenigen die es gibt, ja, die verkaufen sich gut.
Allerdings verkaufen sich diese Karten in Homöopathischen Mengen.

http://wccftech.com/amd-rx-480-shipments-hit-us-stores/
Hauen nen Hardlaunch raus.


https://abload.de/thumb/original89uqk.jpg (http://abload.de/image.php?img=original89uqk.jpg)

uweskw
2016-06-25, 03:34:02
Ich mag AMD und werde auch ganz sicher eine RX480 kaufen, wenn der Preis wirklich den Gerüchten(230-250€ 8GB Version) entspicht(selbst wenn die Performance nur GTX970 sein sollte, mehr ist natürlich immer Willkommen), aber ich kann das ganze mit den Asynchronous Shaders nicht mehr hören, wäre das ganze von Nvidia gekommen und eine R290x wäre jetzt hinter einer GTX770, keine Ahnung ob das der ungefähre Vergleich ist, würden viele hier(ich nenne keine Namen:biggrin:) einen Shitstorm ohne gleichen gegen Nvidia fahren und nie damit aufhören..., muss man immer nachtreten wenn der Gegner halb am Boden ist?

.......

mfg
Frank

Ich glaube du verkennst eines: NV ist klarer Marktführer. Die wissen halt wie Marketing geht.
Auf eine in dieser Klasse verkauften Karten von AMD kommen ca. 5 Karten von NV:freak:

greetz
US

DoomGuy
2016-06-25, 03:37:20
Bei aller Objektiven Betrachtung, wenn man sich hier einige Posts liest hat man den Eindruck NVidia wäre am Boden und Kämpft ums überleben.

Ich sehe das derzeit so das NVidia trotz der 970 Sache sau viele Karten davon verkauft hat und trotz des hohen Preises bei den 1080 die Karten sich offensichtlich gut verkaufen. Sprich die können sich das erlauben. Bei AMD hingegen ist glaube ich der Erfolg der Polaris Karten verdammt wichtig, hoffen wir das sie genügend Käufer finden.

^^

Nach diesem Gif vor einer Seite und der laxen Haltung vom Raj im Interview bleibt mir einfach die Spucke weg...

Lederjacke ist ein Witz dagegen.

y33H@
2016-06-25, 08:21:58
Bin sehr gespannt auf das neue VSR und die Qualität und Performance vs DSR.Neue VSR? Klär mich auf! :cool:

iuno
2016-06-25, 08:39:04
Nv hat bezüglich AS nicht geschlafen, die wussten schlicht garnichts davon.

Spätestens seit Veröffentlichung der ersten GCN Karte sollen sie davon wissen. Imho war das schon bekannt und ist bewusst nicht implementiert worden. Es hätte viel gekostet und nicht viel gebracht. Wenn man sich anschaut dass AMD theoretisch seit 5 Jahren compute shader parallel ausführen kann und es bis heute mit ashes gerade ein Spiel gibt, das massiv davon Gebrauch macht, ohne dass nvidia bei dem Titel komplett im Boden versinkt muss man ihnen schon zugestehen dass die Einschätzung richtig war.
Als underdog bekommt man sowas halt nicht mal eben durchgedrückt. Auch nicht mit Konsolen und neuen APIs, das braucht trotzdem alles seine Zeit

dargo
2016-06-25, 08:44:13
Ich glaube du verkennst eines: NV ist klarer Marktführer. Die wissen halt wie Marketing geht.
Auf eine in dieser Klasse verkauften Karten von AMD kommen ca. 5 Karten von NV:freak:

greetz
US
Immer wieder interessant wie man die mittlerweile ~60 Millionen GCNs in den Konsolen völlig ausblenden kann. Mit PS Neo und Scorpio kommen bald weitere Millionen dazu. Ja... da sind irgendwelche Office Desktopkarten @GT 7xx/GT 6xx von NV die in deiner Rechnung auftauchen viel wichtiger. :freak:

Edit:
Mal eine grobe Aufstellung für dich zum Nachdenken.

100% Gaming-Markt im Corebereich.

PC = 33%
PS4 = 44%
XBox One = 22%

In den 33% beim PC ist Nvidia mit 7x% vertreten. Und jetzt die Fangfrage... wieviel Prozent von den 7x% sind im Gamingbereich überhaupt relevant?

BlacKi
2016-06-25, 08:46:25
Ist ein bisschen Milchmädchen, ich weiss. Aber wo ist der Haken?

greetz
US
in den benches kommt die 390x zu gut weg. benches werden aber wohl fake sein.