PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

MadPenguin
2016-05-31, 07:05:17
Cool, auf den letzten Seiten erfahre ich mehr zur 1070 als zu polaris. Dachte schon ich wäre im falschen Film.

Du hast vergessen, wir wurden auch über Fijis frametimes ausführlich informiert :)

-.- wird ja immer schlimmer hier...

Hiffentlich lässt Amd ein paar Infos durchsickern, damit wir auch über Sinnvolles diskutieren können

Elkinator
2016-05-31, 07:16:01
Leider sehe ich dabei auch deutliches Potenzial für Fehler. Stichwort... flukturierende Frametimes.
Wenn ein spiel läuft muß keine CU ausgesachaltet werden.

Aber im Desktop-Idle ist es schon toll wenn von zb. 16 CUs 15 vom Strom genommen werden können.


Sicher, dass es Power Gating und nicht nur Clock Gating per CU ist?
Ja, AMD war das bei Carrizo ganz stolz darauf.
Es handelt sich um Power-Gating.


Unicous: Gut erklärt. Vlt. war Fiji ein Testbalon in der Hinsicht Power Gating.
Fiji unterstützt das noch nicht.

Es können aber nicht nur einzelne CUs vom Strom genommen werden, UVD macht das zwischen den Frames, die Southbridge kann abgeklemmt werden,...
ENERGY EFFICIENT GRAPHICS AND MULTIMEDIA IN 28NM
CARRIZO APU (http://www.hotchips.org/wp-content/uploads/hc_archives/hc27/HC27.24-Monday-Epub/HC27.24.20-Multimedia-Epub/HC27.24.230-CarrizoEnergyEfficiency-Krishnan-AMD.pdf)

iuno
2016-05-31, 08:48:51
Wenn ein spiel läuft muß keine CU ausgesachaltet werden.

Aber im Desktop-Idle ist es schon toll wenn von zb. 16 CUs 15 vom Strom genommen werden können.
Ich denke, es waere gerade in Spielen unglaublich hilfreich. Der idle/2D Verbrauch ist eigentlich absolut kein Problem. Ich weiss aber nicht, ob das mit den Latenzen beim erneuten Einschalten problematisch wird, Gipsel koennte dazu sicher etwas sagen :up:

Ja, AMD war das bei Carrizo ganz stolz darauf.
Es handelt sich um Power-Gating.

Fiji unterstützt das noch nicht.
Sicher? Ich glaube, dass Fiji core auf dem selben Niveau ist wie cz.
Uebrigens heisst es nicht, dass wenn etwas noch nicht im Linux Kernel oder besser gesagt im veroeffentlichten Branch implementiert ist, dass es nicht geht ;p
Im Linux Treiber hat CZ nur je eine Funktion fuer UVD und VCE Powergating, Fiji und Polaris haben zudem noch was fuer "samu" (:confused:) und Polaris zudem einiges zu GFX (schaetze stand wie in deiner Praesentation, vielleicht auch etwas weiter). CZ hat das in Linux Powerplay noch nicht implementiert :frown: edit: muesste man nochmal nachpruefen im gfx... ja, das hat aktuell nur P11. CZ/SR bekommen es mit 4.8

Koennte mir gut vorstellen, dass Fiji das auch schon unterstuetzt, es aber eben auch nicht ueberall richtig/fertig implementiert ist. Igor hat der Fury ja bescheinigt, diese Mechanismen aufgewertet zu haben:

Deshalb haben wir auch unseren Testaufbau zur Messung der Leistungsaufnahme noch einmal leicht modifiziert um vorab zu analysieren, wie gut es AMDs PowerTune nunmehr gelingt, die Stromversorgung der GPU möglichst zeitnah und in kürzesten Intervallen den tatsächlichen Erfordernissen anzupassen. Was leistet der Arbitrator im Zusammenspiel mit der Power Estimation Engine, den gelieferten Werten der Sensoren und der Spannungsregelung? Um dies zu hinterfragen, werten wir einen Zeitabschnitt von nur 100 Mikrosekunden aus, um auch wirklich jeden "Herzschlag" zu erfassen.

Und siehe da, Power Tune hat noch einmal bei der Auflösung und Abstufung deutlich zulegen können! Auch wenn wir nunmehr an die Grenzen unserer Messtechnik gestoßen sind und die Kurvem trotz Filterung (High Cut) nicht mehr ganz ideal aussehen, die Kernaussage ist eindeutig: AMD ist es gelungen, in Intervallen von 10 Mikrosekunden und weniger auf die anstehenden Aufgaben bestens zu reagieren.
Ehre also, wem Ehre gebührt, denn es sieht rein optisch dem sehr ähnlich, was Nvidia mit Maxwell vorgelegt hat.

Da sind die gemessenen 4.8 Watt geradezu ein paradiesischer Wert, der auch dann bestehen bleibt, wenn mehr als nur ein Monitor angeschlossen ist.
http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-7.html

Dynamisches per-CU Powergating soll zudem nicht von Powerplay, sondern im eigentlichen Grafiktreiber selbst gemacht werden, dort habe ich mich jetzt aber noch nicht umgeschaut ;)

Elkinator
2016-05-31, 08:52:49
Carrizo, Fiji, Tonga ist alles GCN3, trotzdem gibt es unterschiede.

Tonga hat zb. noch kein H.265 in Hardware, Fiji/Carrizo schon.

iuno
2016-05-31, 08:53:50
Das ist mir voellig klar, jetzt machst du es dir aber sehr einfach ;p

Elkinator
2016-05-31, 09:12:55
Bis jetzt gibt es keinen Beleg für CU Power-Gating bei Fiji, AMD hat davon noch nie etwas gesagt.

Virtual
2016-05-31, 09:26:32
Nimmt Raja Koduri seine Aussagen zur Design-Maxime hoher Engergieeffizienz für Polaris und Vega halbwegs ernst, und ist die Nano ein Beispiel für eine zukünftig konsequente 'Sweet-Spot' Ausrichtung der AMD Grafikchips, dann wird AMD mit Polaris nicht in eine sinnfreie Performance-Konkurrenz zum GP104 treten, sondern mit entsprechenden Preisen bei hoher Energieeffizienz den Volumen-Markt (<300 Euro) unterhalb des GP104 abgrasen und Nvidia den Mark >400 Euro einfach überlassen. Alles andere wäre geistiger Dünnpfiff seitens AMDs Koduri und in der Tat würde dann AMD über NVidias Stöckchen hüpfen, ansonsten wäre ist es diesmal genau umgekehrt, was sehr hoffen ist.

Mancko
2016-05-31, 09:29:51
Karten mit Verlust zu verkaufen wird für NVIDIA keinen Sinn machen.

So ein Blödsinn. Nvidia hat mit Sicherheit eine mehr als ordentliche Marge auf die Produkte. Davon kannst Du ausgehen. Die einzigen die permanent mit Verlust verkaufen ist AMD. Die Zahlen belegen das ganz eindeutig ohne wenn und aber! Btw die 1060 ist Incomming und es kann sein das noch ein Gp104 Salvage kommt unterhalb der 1070. Mal abwarten. Jetzt ist erstmal AMD am Zug und muss die Hosen mit Polaris runterlassen.

Botcruscher
2016-05-31, 09:49:00
2D Verbrauch ist bei Multimonitor zum Teil noch immer ein Problem.

iuno
2016-05-31, 09:50:59
Das hat aber nichts mit powergating zu tun (schon gar nicht pro CU), sondern ist ein Problem mit dem clockgating und den dpm states.
IIRC geht ja in dem Fall der Speicher auch auf Maxmialtakt, das kann schon mal behoben werden, haengt aber mit der Thematik wenig zusammen.

Zumal das Problem lt. Igor auch seit Fiji der Vergangenheit angehoert (s.oben) oder hast du da andere Erfahrungen gemacht?

Unicous
2016-05-31, 10:49:35
Carrizo, Fiji, Tonga ist alles GCN3, trotzdem gibt es unterschiede.

Tonga hat zb. noch kein H.265 in Hardware, Fiji/Carrizo schon.

Hattest du jetzt schon den Beweis erbracht, dass Carrizo per CU Gating beherrscht oder nicht? Bin nicht mehr sicher nachdem du hier wieder alles vermischt obwohl es gar nichts mit den Shader-Einheiten zu tun hat. Dass AMD als auch Nvidia ihre fixed function units die für Multimedia zuständig sind ständig verbessert, wissen wir auch schon seit einigen Jahren.

StefanV
2016-05-31, 10:51:59
2D Verbrauch ist bei Multimonitor zum Teil noch immer ein Problem.
In Zeiten, in denen etwa 90% der verkauften CPUs eine integrierte Grafikeinheit besitzen:
WEN interessiert das denn noch?!

Sorry, aber das ist mal wieder irgend so ein sinnloses Zeugs, um AMD flamen zu können.
In der Praxis kannst du ja auch noch 3-4 Bildschirme an die IGP der CPU anschließen, musst nur ULPS bei der AMD GPU abschalten...

Und was willst du mit 4-8 Bildschirmen?!

iuno
2016-05-31, 10:52:39
Hattest du jetzt schon den Beweis erbracht, dass Carrizo per CU Gating beherrscht oder nicht? Bin nicht mehr sicher nachdem du hier wieder alles vermischt obwohl es gar nichts mit den Shader-Einheiten zu tun hat.
Ja, es stimmt schon. Schau in dem PDF ab Seite 12:
ENERGY EFFICIENT GRAPHICS AND MULTIMEDIA IN 28NM CARRIZO APU (http://www.hotchips.org/wp-content/uploads/hc_archives/hc27/HC27.24-Monday-Epub/HC27.24.20-Multimedia-Epub/HC27.24.230-CarrizoEnergyEfficiency-Krishnan-AMD.pdf)

Powergating pro CU und in der GFX Pipeline, entsprechendes habe ich auch im drm-next-4.8-wip branch gefunden

inspectah
2016-05-31, 11:13:36
https://abload.de/img/1464681769264719cjsvu.jpg
Ok guys I have first leak for you, this is from Bristol Bridge presentation (still under NDA). We were told that AVFS will also be present in Polaris architecture.

I'm guessing this is something similar to NVIDIA's GPU Boost 3.0
http://videocardz.com/60686/watch-amd-computex-polaris-update-live-stream-here

Unicous
2016-05-31, 11:26:37
Ja, es stimmt schon. Schau in dem PDF ab Seite 12:


Powergating pro CU und in der GFX Pipeline, entsprechendes habe ich auch im drm-next-4.8-wip branch gefunden

Dann frage ich mich, warum AMD das nie wieder außerhalb der HotChips Präsentation erwähnt hat. Die Frage ist, ob es in Hardware integriert ist, aber wie so viele Features über die Jahre einfach nicht "exposed" wurde (man erinnere sich an das Resonant Clock Mesh), bzw. erst mit Bristol Ridge Einzug hält. Denn afaik hat AMD außerhalb der Hot Chips Präsentation an die ich mich jetzt auch entfernt wieder erinnere nichts mehr über per CU Power Gating im Zusammenhang mit Carrizo gesagt.

Gibt es eigentlich Einträge zu Bristol Ridge oder läuft das auch unter CZ im Linux Treiber?

iuno
2016-05-31, 11:57:08
Bisher öffentlich sind nur CZ und ST, an dem weiterhin aktiv gearbeitet wird. Ich denke dass der Treiber nicht zwischen CZ und BR unterscheidet und ST öffentlich auch unter das BR label gestellt wird.

Menace
2016-05-31, 11:59:06
2D Verbrauch ist bei Multimonitor zum Teil noch immer ein Problem.

Zumal das Problem lt. Igor auch seit Fiji der Vergangenheit angehoert (s.oben) oder hast du da andere Erfahrungen gemacht?

Genau. Auch bei unterschiedlichen Modellen, Auflösungen, Bildwiederholungsraten. Kann ich hier mit meiner Nano bestätigen (und idle eines weniger an Verbrauch als mit einer sparsamen 7850iger).

Complicated
2016-05-31, 12:13:08
RCM ist seit Trinity/Richland mit an Board.

Unicous
2016-05-31, 12:26:14
RCM ist seit Trinity/Richland mit an Board.

Das ist nachweislich falsch. Hat AMD selbst bestätigt.:up:

Allerdings liegt dies nicht an einem besonderen Taktverteilungsnetz, auch Resonant Clock-Mesh genannt, auch wenn dies mancherorts erwähnt wird. Dieses Netz ist bisher nur eine Forschungsstudie und wird noch nicht in finalen Produkten eingesetzt – weder in Trinity, Richland noch in Kaveri, wie uns AMD bestätigte.

http://ht4u.net/reviews/2014/amd_kaveri_apus_im_test/index5.php

iuno
2016-05-31, 12:51:36
Jetzt bin ich verwirrt: http://www.techpowerup.com/222988/powercolor-next-gen-lcs-liquid-cooling-solutions-pictured

Kommt P10 direkt als CF Karte? :frown:
http://www.techpowerup.com/img/16-05-31/224b.jpg
Eine PRO DUO ist das jedenfalls nicht :confused:
http://www.itocp.com/html/20160506/article/XFX_Radeon_Pro_Duo/pic/IMG_9983.jpg
http://www.itocp.com/htmls/36/n-6736-2.html
Custom PRO DUO? Als ob. Oh sehe gerade die 4 8-Pin Anschluesse, ist wohl doch eine Custom FuryX2? :ugly:
Die sGPU AiO koennte aber tatsaechlich fuer P10 kommen...

Botcruscher
2016-05-31, 13:39:21
Zumal das Problem lt. Igor auch seit Fiji der Vergangenheit angehoert (s.oben) oder hast du da andere Erfahrungen gemacht?
Dann war es es ein Treiberbug. Dritter Bildschirm waren gleich 50W mehr.

Da bei Herrn Payne ja schon die Sabber läuft: Maxwell hat das Problem auch. Da ist es in einigen Test auch zusehen.

PS: Der Kühler ist ja mal echt sinnfrei. Da setzt der Designer mittig ein beleuchtetes Rohr auf. Eingebaut voll krass sichtbar.

dargo
2016-05-31, 14:40:46
Die sGPU AiO koennte aber tatsaechlich fuer P10 kommen...
Das wäre ziemlich sinnfrei.

MadPenguin
2016-05-31, 17:57:58
https://abload.de/img/fow8zxzk2c.jpg (http://abload.de/image.php?img=fow8zxzk2c.jpg)

P10 5,5 Tflops
1070 6,5 Tflops
390(X) 5,9 Tflops

Richtig?

Irgendwie kommt mir die Folie falsch vor...(edit AMD spricht immer von DP 1.3 und nicht von 1.4)

Ailuros
2016-05-31, 18:00:49
36 * 64 * 2 * 1.2

fondness
2016-05-31, 18:03:21
Könnte durchaus passen. Am ehesten dann wohl 2304 SPs @1200Mhz. Mit nur 1x 6 Pin auf jeden Fall <150W.

Pro TFLOP sollte man auf jeden Fall schneller sein als Hawaii, gegen die GTX1070 wird man natürlich keine Chance haben.

deekey777
2016-05-31, 18:03:47
36 * 64 * 2 * 1.2
1-1-3-1.

:D

Stimmen die Daten oder nicht?

Rente
2016-05-31, 18:04:32
Die Folie ist älter als die Bekanntgabe von NVIDIA, oder? Sonst wäre der Vergleich etwas müßig...

fondness
2016-05-31, 18:05:40
Die Folie ist älter als die Bekanntgabe von NVIDIA, oder? Sonst wäre der Vergleich etwas müßig...

Naja, der direkte Gegner wird wohl erst mal die GTX970/GTX980. Oder was hätte denn Nvidia sonst im zu erwartenden Preisbereich < $300?

Botcruscher
2016-05-31, 18:07:26
Die 1060TI oder wie NV es nennen will.
Mai ist relativ aber was soll sich groß verändert haben? Die 36CU sind halt etwas langweilig. Dafür DP1.4.

Elkinator
2016-05-31, 18:07:30
Irgendwie kommt mir die Folie falsch vor...(edit AMD spricht immer von DP 1.3 und nicht von 1.4)
Ist der Unterschied zwischen DP 1.3 udn 1.4 nicht eine reine Firmeware Angelegenheit?
Bei HDMI 2.0a auf 2.0b ist es jedenfalls so.

Ailuros
2016-05-31, 18:07:34
Könnte durchaus passen. Am ehesten dann wohl 2304 SPs @1200Mhz. Mit nur 1x 6 Pin auf jeden Fall <150W.

Pro TFLOP sollte man auf jeden Fall schneller sein als Hawaii, gegen die GTX1070 wird man natürlich keine Chance haben.

Ausser NV bescheisst muss der maximale Stromverbrauch einer 1060 sich nicht davon verstecken; bleibt abzusehen ob die beiden vergleichbare Leistung haben oder nicht.

MadPenguin
2016-05-31, 18:09:48
Ist der Unterschied zwischen DP 1.3 udn 1.4 nicht eine reine Firmeware Angelegenheit?
Bei HDMI 2.0a auf 2.0b ist es jedenfalls so.

Es ging mir nur darum, dass AMD immer DP 1.3 auf ihren Folien hatte. Auch bei dem Livestream. Deswegen kommt mir diese Folie komisch vor :confused:

Dino-Fossil
2016-05-31, 18:10:13
Irgendwie wirkt der Schriftblock rechts "gephotoshopt".

Kann mich aber irren. Wenns stimmt wäre es gar nicht so schlecht und ungefähr das, was ich erwartet habe.

Mancko
2016-05-31, 18:13:36
https://abload.de/img/fow8zxzk2c.jpg (http://abload.de/image.php?img=fow8zxzk2c.jpg)

P10 5,5 Tflops
1070 6,5 Tflops
390(X) 5,9 Tflops

Richtig?

Irgendwie kommt mir die Folie falsch vor...(edit AMD spricht immer von DP 1.3 und nicht von 1.4)


Die Überschrift ist aber mal wieder extrem lächerlich. "Enthusiast Sweet-Spot". Sorry aber Enthusiast, High End und selbst Performance Segment ist das nicht. Was sich das Marketing da wieder zurecht biegt :ucrazy:

Menace
2016-05-31, 18:16:10
Die Überschrift ist aber mal wieder extrem lächerlich. "Enthusiast Sweet-Spot". Sorry aber Enthusiast, High End und selbst Performance Segment ist das nicht. Was sich das Marketing da wieder zurecht biegt :ucrazy:

Wenn diese Überschrift das einzige Problem der Polaris ist, dann haben sie ja alles richtig gemacht. :freak:

Als Konkurrent wird sich also 970 auserkoren. Dann bin ich einmal auf den Preis gespannt.

Blediator16
2016-05-31, 18:16:31
Die Überschrift ist aber mal wieder extrem lächerlich. "Enthusiast Sweet-Spot". Sorry aber Enthusiast, High End und selbst Performance Segment ist das nicht. Was sich das Marketing da wieder zurecht biegt :ucrazy:

Wahrscheinlich wie das crazy overclocking der flanders edition :freak:

Marketing eben

fondness
2016-05-31, 18:17:07
Als Konkurrent wird sich also 970 auserkoren. Dann bin ich einmal auf den Preis gespannt.

Es wird 970/980 erwähnt, also GM204. Und es könnte noch eine 480X geben?

AnarchX
2016-05-31, 18:18:17
Erwartbare Daten. Hier ist wohl der Ursprung (http://tieba.baidu.com/p/4582872943).
Aber bei solchen Folien sollte man wohl immer etwas aufpassen (http://www.3dcenter.org/blog/leonidas/die-leichtglaeubigkeit-gegenueber-praesentationsfolien). ;D

Aber es könnte wohl durchaus sein, dass man hier eine "bessere" GTX970/980 für $299 vorstellt. Die 40CUs könnte man wohl für Zeiten mit besseren Yields und eventuell besserer GDDR5X-Verfügbarkeit aufsparen. Vielleicht vorerst die einzige P10-Lösung für den Desktop.

Triskaine
2016-05-31, 18:18:39
Es wird 970/980 erwähnt. Und es könnte noch eine 480X geben?

Nein. Das X steht jetzt vor der Nummer.

MadPenguin
2016-05-31, 18:19:04
Es wird 970/980 erwähnt, also GM204. Und es könnte noch eine 480X geben?

Das habe ich mir auch gedacht. Für die non-X doch hübsch, oder? ;D

edit: grünes Licht von meiner Frau. Morgen um 4 Uhr "DARF" ich den Livestream anschauen...:comfort2:

Blediator16
2016-05-31, 18:20:19
Maximal 250 wäre da schon eher was aber 300 ist da schon hart an der Grenze

Elkinator
2016-05-31, 18:26:35
Es ging mir nur darum, dass AMD immer DP 1.3 auf ihren Folien hatte. Auch bei dem Livestream. Deswegen kommt mir diese Folie komisch vor :confused:
Bis jetzt stand immer DP 1.3.

Aber es stand auch imemr HDMI 2.0a, bis man mal in einer Pressemeldung HDMI 20.b geschrieben hat.

Vielleicht stimmt es, vielleicht nicht, mal abwarten ob man morgen um 04:00 etwas im Livestream hört.

Menace
2016-05-31, 18:27:39
Maximal 250 wäre da schon eher was aber 300 ist da schon hart an der Grenze

Hm... 8 GB GDDR5? 250 € wäre schon sehr nett.

-/\-CruNcher-/\-
2016-05-31, 18:28:35
https://abload.de/img/fow8zxzk2c.jpg (http://abload.de/image.php?img=fow8zxzk2c.jpg)

P10 5,5 Tflops
1070 6,5 Tflops
390(X) 5,9 Tflops

Richtig?

Irgendwie kommt mir die Folie falsch vor...(edit AMD spricht immer von DP 1.3 und nicht von 1.4)

Full HEVC support na da bin ich mal gespannt was das Marketing darunter wieder einmal versteht.

Ausser NV bescheisst muss der maximale Stromverbrauch einer 1060 sich nicht davon verstecken; bleibt abzusehen ob die beiden vergleichbare Leistung haben oder nicht.

Optimal Power wirds schon richten ;)

Knuddelbearli
2016-05-31, 18:29:53
Einige messen auch extra den Spieleverbrauch.
Allerdings muss man ja auch das Netzteil nach dem maximalen Verbrauch dimensionieren, wenn man auf der sicheren Seite sein will.

Wie auch immer, bin mal gespannt wie die Implementierung in der Praxis aussieht.

Damit meine ich nicht furemark und co sondern das sie eben nicht den Durchschnitt innerhalb der benchszene messen sondern nur den max verbrauch ( Spitze ) davon.

Blediator16
2016-05-31, 18:31:35
Hm... 8 GB GDDR5? 250 € wäre schon sehr nett.

Mit 300 werden sie sicher nicht wirklich Marktanteile gewinnen.

MadPenguin
2016-05-31, 18:40:46
Mit 300 werden sie sicher nicht wirklich Marktanteile gewinnen.

Na ja, das haben die meisten von der 3XX Reihe auch gesagt...

Nakai
2016-05-31, 18:43:32
Mein Tipp => sub 250€.

Elkinator
2016-05-31, 18:43:34
Marktanteile gewinnen sie eher über OEM/ODM, AMD muß die GPUs wieder in die Notebooks bringen, dort hat man aufgrudn eher ineffizienten GPUs Marktanteile verloren.

MadPenguin
2016-05-31, 18:45:39
Marktanteile gewinnen sie eher über OEM/ODM, AMD muß die GPUs wieder in die Notebooks bringen, dort hat man aufgrudn eher ineffizienten GPUs Marktanteile verloren.

Das scheint ja dieses Mal geklappt zu haben. Obwohl ich ausser Apple keinem Hersteller zutraue endlich mal einen vernünftigen Laptop mit AMD zu produzieren...

Blediator16
2016-05-31, 18:45:43
Mein Tipp => sub 250€.

200 und das Ding würde einschlagen wie eine Bombe.

MadPenguin
2016-05-31, 18:46:43
200 und das Ding würde einschlagen wie eine Bombe.
50 Euro und AMD hätte 70% Marktanteil...meinst du deinen Kommentar ernst?

Blediator16
2016-05-31, 18:55:04
50 Euro und AMD hätte 70% Marktanteil...meinst du deinen Kommentar ernst?

Ich hoffe zumindest :biggrin:

Agent117
2016-05-31, 19:08:35
Aber es könnte wohl durchaus sein, dass man hier eine "bessere" GTX970/980 für $299 vorstellt. Die 40CUs könnte man wohl für Zeiten mit besseren Yields und eventuell besserer GDDR5X-Verfügbarkeit aufsparen. Vielleicht vorerst die einzige P10-Lösung für den Desktop.

Gibt es eigentlich Hinweise auf 40CU? Alles was ich bisher gesehen habe sprach immer von 36CU. Oder sind die 40 nur eine Annahme die viele treffen weil es besser klingt 40-->2560 ggü. 36--> 2304?

Botcruscher
2016-05-31, 19:08:46
Hawaii mit 438 mm und 512er Speicherinterface auf der Platine war mal mit der 290 für 220 zu haben. Thaiti gab es bei 365mm² für unter 200. Dazu einfachere Kühlung und SpaWa. Ganz so unmöglich ist es nicht. Mal sehen wie die 14nm laufen. So einen richtigen 200€ Kracher gab es lange nicht mehr.

iuno
2016-05-31, 19:09:02
@Agent117: Letzteres ;)

unl34shed
2016-05-31, 19:16:40
Hawaii mit 438 mm und 512er Speicherinterface auf der Platine war mal mit der 290 für 220 zu haben. Thaiti gab es bei 365mm² für unter 200. Dazu einfachere Kühlung und SpaWa. Ganz so unmöglich ist es nicht. Mal sehen wie die 14nm laufen. So einen richtigen 200€ Kracher gab es lange nicht mehr.

beim letzten 200€ Kracher stand der Euro aber auch um einiges besser.

Elkinator
2016-05-31, 19:18:36
Das scheint ja dieses Mal geklappt zu haben. Obwohl ich ausser Apple keinem Hersteller zutraue endlich mal einen vernünftigen Laptop mit AMD zu produzieren...
Da NVIDIA keine Alternative zu Polaris11 hat, wird AMD da die Marktanteile sicher stark steigern können.

Ich finde gGPUs in Officegeräten zwar schwachsinnig, aber die Geräte werden ja leider massenweise damit verkrüppelt:O

Mit APUs in FinFET besteht auch die Möglichkeit da intel wieder Marktanteile abzujagen, aber das passiert halt frühestens 2017.


50 Euro und AMD hätte 70% Marktanteil...meinst du deinen Kommentar ernst?
Leider meinen das viele ernst:\
Preisdumping kann schon funktionieren, aber man müßte es solange durchhalten bis die Konkurrenz tot ist, was weder AMD noch NVIDIA durchhalten würden!

Gipsel
2016-05-31, 19:19:16
@Agent117: Letzteres ;)
Gab es nicht auch mal so ein LinkedIn-Profil, wo ein AMD-Mitarbeiter geschrieben hat, in seinen Aufgabenbereich fiele eine 14nm GPU mit 40 CUs, die 232mm² messen würde?

M4xw0lf
2016-05-31, 19:22:24
Gab es nicht auch mal so ein LinkedIn-Profil, wo ein AMD-Mitarbeiter geschrieben hat, in seinen Aufgabenbereich fiele eine 14nm GPU mit 40 CUs, die 232mm² messen würde?
Die umherschwirrenden 232mm² für P10 sind jedenfalls von da.

iuno
2016-05-31, 19:28:52
Gab es nicht auch mal so ein LinkedIn-Profil, wo ein AMD-Mitarbeiter geschrieben hat, in seinen Aufgabenbereich fiele eine 14nm GPU mit 40 CUs, die 232mm² messen würde?
Von 40 CUs war da nicht die Rede, nur von "430 Blocks" und 232 mm².

Kannst du zu der Thematik mit dem Powergating was sagen?
Ist das von den Latenzen her kritisch oder ist es eher kein Problem, CUs dynamisch an- und abzuschalten?

dargo
2016-05-31, 19:49:06
Hawaii mit 438 mm und 512er Speicherinterface auf der Platine war mal mit der 290 für 220 zu haben. Thaiti gab es bei 365mm² für unter 200.
Ja, aber höchstens im Abverkauf, P10 ist neu.

AnarchX
2016-05-31, 20:03:36
Das klingt ja fast wie eine Pressemeldung:
http://www.pcwelt.de/news/Radeon-R9-480-AMD-stellt-neues-Spitzenmodell-vor-9987718.html

Generell scheint PCWelt nicht über GPU-Spekulationen zu berichten.

y33H@
2016-05-31, 20:09:52
In der nichts steht, was nicht schon "öffentlich" ist ...

Ravenhearth
2016-05-31, 20:12:43
Ich hoffe auf ~120W reale Leistungsaufnahme, dann wäre die Effizienz auch ggü Pascal konkurrenzfähig.

Wenn man von GTX 980-Performance ausgeht, würden $299 auch perfekt passen, wenn man sich am Preis der Custom-1070 orientiert.

iuno
2016-05-31, 20:14:24
Den Artikel habe ich heute morgen schon gesehen.
Habe mich etwas amuesiert, weil sie wiederholt GNC schreiben, obwohl sie es sogar in Klammern ausschreiben. Heute morgen waren sie sich auch noch sicher, dass das Ding 490X heisst :rolleyes:

Elkinator
2016-05-31, 20:20:25
Das klingt ja fast wie eine Pressemeldung:
http://www.pcwelt.de/news/Radeon-R9-480-AMD-stellt-neues-Spitzenmodell-vor-9987718.html

Generell scheint PCWelt nicht über GPU-Spekulationen zu berichten.
Die schreiben da aber auch Mist.
Ich versteh echt nicht, warum viele das Bedürfnis haben überall ein .x anzufügen.

390X ist GCN2, nicht GCN3 wie es PC Welt behauptet.

Aber eigentlich erzählen die ja nur etwas, was eh schon bekannt ist.

Daß eine Graka mit Polaris10 billiger als eine GTX 1080 wird war eigentlich auch logisch, ist ja auch eine ganz andere Leistungsklasse.

Gipsel
2016-05-31, 20:21:38
Von 40 CUs war da nicht die Rede, nur von "430 Blocks" und 232 mm².Okay, ich dachte die 40CUs kamen irgendwie auch aus der Ecke.
Kannst du zu der Thematik mit dem Powergating was sagen?
Ist das von den Latenzen her kritisch oder ist es eher kein Problem, CUs dynamisch an- und abzuschalten?Kommt drauf an, was Du als kritisch ansiehst. In dem Zeitrahmen, wie nV bei Pascal Preemption macht (100µs) sollte auch Powergating klappen, wenn man es will. Die Frage ist, wie viel Aufwand man da reinsteckt. Leider sind mir keine Zahlen bekannt, wie schnell das bei Carrizo geht. Rein vom Eindruck der vorher von Elkinator verlinkten Präsentation mit dem CU-Gating bei Carrizo würde ich vielleicht auf Etwas im Bereich dutzender bis vielleicht 100µs tippen. Aber das ist wirklich nicht mit Fakten unterlegt sondern wirklich nur ein Tipp.

[MK2]Mythos
2016-05-31, 20:38:05
Ich frage mich, was und ob AMD morgen früh in dem Livestream überhaupt zu Polaris erzählt. Das NDA für die Presse bis Ende Juni würde keinen Sinn machen wenn sie morgen der ganzen Welt Polaris detailreich präsentieren.

Elkinator
2016-05-31, 20:43:32
Wir wissen ja nicht auf was sich das NDA genau bezieht.
Sehr viel werden sie aber sicher nicht erzählen.

iuno
2016-05-31, 21:10:03
Wieso?
Es koennte schon einige Infos geben, Rest (finale Taktraten, Preis?) dann auf der PC Gaming Show. Das NDA Ende bezieht sich wohl auf Testberichte und im Juli gibt es das Zeug im Handel. Die Redaktionen haben dann 3-4 Wochen Zeit, war doch bei NV aehnlich oder?

Linmoum
2016-05-31, 21:17:21
NDA bezieht sich doch ausschließlich auf das Presseevent und ich denke nicht, dass AMD dort alles rausgehauen hat und jetzt bis zum 29. Juni deswegen nichts mehr zeigt. ;)

AlphaNUSS
2016-05-31, 21:29:03
Naja wir wissen ja nicht wirklich, was alles auf dem Event gezeigt wurde und was in dem NDA steht. Es kann ja auch mehrere NDAs geben und wir wissen nur von dem einen Datum.

Elkinator
2016-05-31, 21:33:38
Auf der Computex soll laut Gerüchten auch AM4 gezeigt werden, die werden nicht sher viel zu Polaris verkünden, wenn sie 2 Wochen später die PC Gaming Show extra für Polaris veranstalten!

Toll wäre, wenn sie sagen ab wann man Bristol Ridge und Zen für AM4 kaufen können wird.

OBrian
2016-05-31, 21:43:52
Sowas hat AMD vor einiger Zeit doch schon mal gemacht: Eine Geheim-Konferenz mit einigen Pressefuzzis, die sich bevorzugt und gebauchpinselt fühlten, dann wochenlang warten sollten (mußten! NDA eben), bis sie was veröffentlichen durften, in der Zwischenzeit war aber natürlich alles geleakt und AMD hat dann hastig den NDA-Termin vorgezogen, alle waren informiert, nur die Pressefuzzis vom NDA-Termin waren die Gelackmeierten, weil die als Allerletzte einen Artikel raushauen konnten, in dem dann gar nichts Neues mehr stand, und der war wegen des vorgezogenen Termins noch nicht mal fertig...

Skysnake
2016-05-31, 21:47:12
Okay, ich dachte die 40CUs kamen irgendwie auch aus der Ecke.
Kommt drauf an, was Du als kritisch ansiehst. In dem Zeitrahmen, wie nV bei Pascal Preemption macht (100µs) sollte auch Powergating klappen, wenn man es will. Die Frage ist, wie viel Aufwand man da reinsteckt. Leider sind mir keine Zahlen bekannt, wie schnell das bei Carrizo geht. Rein vom Eindruck der vorher von Elkinator verlinkten Präsentation mit dem CU-Gating bei Carrizo würde ich vielleicht auf Etwas im Bereich dutzender bis vielleicht 100µs tippen. Aber das ist wirklich nicht mit Fakten unterlegt sondern wirklich nur ein Tipp.
Zu PCI-E gibt es meines Wissens nach eine Spezifikation, nach welcher Zeit sich ein Device melden muss. Das war glaube ich im Bereich einiger ms. Da muss man klar drunter bleiben.

Ansonsten kenne ich es von eigenen Simulationen so, das man durchaus auch bei <1µs schon Spannungen hat, bei denen der Chip anfängt etwas zu tun. Bei mir waren es glaube ich für eine funktionale Einheit mit ~2k Transistoren in 65nm und bis Metal layer 5 hoch unter 50ns bis die Spannung so hoch war, dass ich am Ausgang ein Signal bekommen habe. Bis es dann aber auch mit den richtigen Taktraten, also Timings ging hat es >100ns gedauert. Wie gesagt, wenn ich mich recht erinnere, ist jetzt auch schon über ein Jahr her.

Kommt also auch ganz darauf an, wie hoch die Taktraten sind usw usf.

Von Außen kannste das gar nicht auch nur halbwegs abschätzen, was ob sich so etwas lohnt oder nicht.

Hübie
2016-05-31, 22:21:03
Zu PCI-E gibt es meines Wissens nach eine Spezifikation, nach welcher Zeit sich ein Device melden muss. Das war glaube ich im Bereich einiger ms. Da muss man klar drunter bleiben.

Ansonsten kenne ich es von eigenen Simulationen so, das man durchaus auch bei <1µs schon Spannungen hat, bei denen der Chip anfängt etwas zu tun. Bei mir waren es glaube ich für eine funktionale Einheit mit ~2k Transistoren in 65nm und bis Metal layer 5 hoch unter 50ns bis die Spannung so hoch war, dass ich am Ausgang ein Signal bekommen habe. Bis es dann aber auch mit den richtigen Taktraten, also Timings ging hat es >100ns gedauert. Wie gesagt, wenn ich mich recht erinnere, ist jetzt auch schon über ein Jahr her.

Kommt also auch ganz darauf an, wie hoch die Taktraten sind usw usf.

Von Außen kannste das gar nicht auch nur halbwegs abschätzen, was ob sich so etwas lohnt oder nicht.

Fängt ja schon beim Unterschied Quarz<->Oszi an und dann halt wie und ob du einen PLL hast. Ich weiß dass das Anschwingen nicht unkritisch ist, aber Nanosekunden kommt mir bei einem Grafikchip zu wenig vor. Das kann bei einem Logikgatter alá FPGA der Fall sein (keine Ahnung, geraten). Als kritisch würde ich das in dem Kontext jedoch gar nicht sehen. Ich mein wir reden hier von 1000 Mikrosekunden für eine Millisekunde. :freak: Das ist für die Ausgabe an Frames also wirklich nicht der Rede wert - schätz ich.

iuno
2016-05-31, 22:44:37
Zu PCI-E gibt es meines Wissens nach eine Spezifikation, nach welcher Zeit sich ein Device melden muss. Das war glaube ich im Bereich einiger ms. Da muss man klar drunter bleiben.
Das hat doch damit wenig zu tun?!
Die "Maschine" an sich laeuft ja, es ging eben darum, einzelne CUs (und andere Subsysteme) dynamisch ab- und wieder anzuschalten, nicht das komplette Ding.


Wo gibt es eigentlich diesen Livestream, muss man sich dafuer da bei diesem "reminder" anmelden:frown:?

Skysnake
2016-05-31, 22:45:13
Fängt ja schon beim Unterschied Quarz<->Oszi an und dann halt wie und ob du einen PLL hast. Ich weiß dass das Anschwingen nicht unkritisch ist, aber Nanosekunden kommt mir bei einem Grafikchip zu wenig vor. Das kann bei einem Logikgatter alá FPGA der Fall sein (keine Ahnung, geraten). Als kritisch würde ich das in dem Kontext jedoch gar nicht sehen. Ich mein wir reden hier von 1000 Mikrosekunden für eine Millisekunde. :freak: Das ist für die Ausgabe an Frames also wirklich nicht der Rede wert - schätz ich.
Ich habe nicht ohne Grund gesagt für ne 2k Transistor Schaltung ;)

Und das Zeug war ziemlich nieder impedant angebunden an eine perfekte Spannungsquelle bei gerade mal so rund 100x100 µm. Die Zeiten können also ohne weiteres weit höher sein, vor allem, wenn man höhere Taktfrequenzen anpeilt, was hier jetzt nicht der Fall ist, oder aber eben ein genaues Timing braucht, da man viele Gatter durchlaufen muss, was bei einer CU definitiv der FAll sein wird.

Der wichtige Punkt ist ja, wie lange muss ich wirklich warten, bis ich das Richtige Ergebnis wieder bekomme. Wobei auf Basis einer einzelnen CU wird Clock Gating wohl wichtiger sein als Power Gating. Klar sind das viele Transistoren die ich da verballere, aber wenn die Clock ganz weg ist, dann ist schon ziemlich viel gewonnen.

Power Gaten seh ich an sich wirklich eher im Bereich von 100µs+ Wobei man ja auch immer schauen muss, wie man das PowerGating genau macht. Nur weil man PowerGated heist das ja nicht, dass die Spannung direkt auf 0V abefallen ist. Es dauert ja auch über die Gatter ziemlich lange, bis sich das gesamte PowerDeliveryNetwork entladen hat. Da sitzen normal ja schon verdammt hohe Kapazitäten dahinter. Kann also gut sein, das man bei den typischen ZEiten von einigen 100µs eventuell nur 10-30% der Spannung verliert und man eben nur mit 50% des Nominaltakt arbeiten kann für eine Zeitspanne X.

AMD hatte ja mal vor einiger Zeit bekannt gegeben, dass Sie in einem Core (glaub CPU Cores waren es) an rund 30 Stellen oder so die Spannungen überwacht und dementsprechend taktet oder auch Ergebnisse verwirft wenn ich es richtig verstanden hab.

Damit könnte man hier natürlich sehr schön arbeiten. Im Endeffekt wird es sicherlich etwas Strom sparen, aber unter Last wirste da keine 20% Effizienzgewinn mit erreichen. Ich kanns mir zumindest nicht vorstellen. Im Idle/Teillast wie z.B. 2D/VIdeo what ever können das dagegen schon relevante Werte sein.

krissbay
2016-05-31, 22:45:52
199 $ soll Polaris kosten. wenn das stimmt kaufe ich 2 :smile:
http://www.wsj.com/articles/amd-prices-3-d-cards-to-spur-virtual-reality-market-1464725394

Elkinator
2016-05-31, 22:48:55
Und was macht du mit 2 langsamen Grakas?

Nakai
2016-05-31, 22:49:11
199 $ soll Polaris kosten. wenn das stimmt kaufe ich 2 :smile:
http://www.wsj.com/articles/amd-prices-3-d-cards-to-spur-virtual-reality-market-1464725394

Das ist noch weniger als ich gehört habe. ;D

krissbay
2016-05-31, 22:55:32
laut hardware.fr sind Hersteller von Polaris begeistert und prototypen der Karte hinter den Türen zu sehen. :biggrin:
Nvidia soll auch das Design der 1060 geändert haben um Sie billiger anbieten zu können.
http://www.hardware.fr/news/14651/computex-polaris-doubler-pdm-amd.html

Nakai
2016-05-31, 23:02:57
laut hardware.fr sind Hersteller von Polaris begeistert und prototypen der Karte hinter den Türen zu sehen. :biggrin:
Nvidia soll auch das Design der 1060 geändert haben um Sie billiger anbieten zu können.
http://www.hardware.fr/news/14651/computex-polaris-doubler-pdm-amd.html

Hardware.fr => wird schon was dran sein.

Noebbie
2016-05-31, 23:05:21
199 $ soll Polaris kosten. wenn das stimmt kaufe ich 2 :smile:
http://www.wsj.com/articles/amd-prices-3-d-cards-to-spur-virtual-reality-market-1464725394

Je nach Variante/Speed kaufe ich wohl auch zwei oder gar drei. Zum einen wird die gtx570 meiner Frau ersetzt und zum anderen könnte meine 290x bis vega durch polaris ersetzt werden, falls diese auch nur ein Hauch schneller ist. Im Wohnzimmer fehlt auch noch 'ne Karte. :)

horn 12
2016-05-31, 23:05:24
@Nakai

Also Polaris mit 2304 und 1200+ Mhz auf etwa R9 390(X) Performance
und der "vollkommene" Polaris XT kommt später und zudem erst Ende Juni, Anfang Juli in den Handel...

Könnte dies so zutreffen ?

gedi
2016-05-31, 23:07:08
199$ für 980/390x-Performance wären wirklich eine Ansage. Eine schicke 1440p-Einsteigerkarte

Hübie
2016-05-31, 23:08:01
Ich habe nicht ohne Grund gesagt für ne 2k Transistor Schaltung ;)

Und das Zeug war ziemlich nieder impedant angebunden an eine perfekte Spannungsquelle bei gerade mal so rund 100x100 µm. Die Zeiten können also ohne weiteres weit höher sein, vor allem, wenn man höhere Taktfrequenzen anpeilt, was hier jetzt nicht der Fall ist, oder aber eben ein genaues Timing braucht, da man viele Gatter durchlaufen muss, was bei einer CU definitiv der FAll sein wird.

Der wichtige Punkt ist ja, wie lange muss ich wirklich warten, bis ich das Richtige Ergebnis wieder bekomme. Wobei auf Basis einer einzelnen CU wird Clock Gating wohl wichtiger sein als Power Gating. Klar sind das viele Transistoren die ich da verballere, aber wenn die Clock ganz weg ist, dann ist schon ziemlich viel gewonnen.

Power Gaten seh ich an sich wirklich eher im Bereich von 100µs+ Wobei man ja auch immer schauen muss, wie man das PowerGating genau macht. Nur weil man PowerGated heist das ja nicht, dass die Spannung direkt auf 0V abefallen ist. Es dauert ja auch über die Gatter ziemlich lange, bis sich das gesamte PowerDeliveryNetwork entladen hat. Da sitzen normal ja schon verdammt hohe Kapazitäten dahinter. Kann also gut sein, das man bei den typischen ZEiten von einigen 100µs eventuell nur 10-30% der Spannung verliert und man eben nur mit 50% des Nominaltakt arbeiten kann für eine Zeitspanne X.

AMD hatte ja mal vor einiger Zeit bekannt gegeben, dass Sie in einem Core (glaub CPU Cores waren es) an rund 30 Stellen oder so die Spannungen überwacht und dementsprechend taktet oder auch Ergebnisse verwirft wenn ich es richtig verstanden hab.

Damit könnte man hier natürlich sehr schön arbeiten. Im Endeffekt wird es sicherlich etwas Strom sparen, aber unter Last wirste da keine 20% Effizienzgewinn mit erreichen. Ich kanns mir zumindest nicht vorstellen. Im Idle/Teillast wie z.B. 2D/VIdeo what ever können das dagegen schon relevante Werte sein.

Ganz ehrlich: Das wirst du bei weitem besser beurteilen können als ich. ;) Ich kann nur aus meinem Erfahrungsfundus berichten, während du es technisch und wissenschaftlich belegen könntest. Also no offense here. :smile:

Elkinator
2016-05-31, 23:11:52
199$ ist aber auch nur Wunschdenken.

Nakai
2016-05-31, 23:12:51
199$ für 980/390x-Performance wären wirklich eine Ansage. Eine schicke 1440p-Einsteigerkarte

Ja, der prophezeite Vega10 wäre dann eher ~77% schneller als P10. Großer Abstand.

Oke, jetzt wissen wir was Vega11 ist. ;)

€:
199$ ist aber auch nur Wunschdenken.

Hey, ich hab 219 gehört...vor Wochen. 199 ist nochmal darunter...evtl gibts noch eine XTXTXTX-Version mit 249 oder so.

basix
2016-05-31, 23:15:38
Ich habe nicht ohne Grund gesagt für ne 2k Transistor Schaltung ;)

Und das Zeug war ziemlich nieder impedant angebunden an eine perfekte Spannungsquelle bei gerade mal so rund 100x100 µm. Die Zeiten können also ohne weiteres weit höher sein, vor allem, wenn man höhere Taktfrequenzen anpeilt, was hier jetzt nicht der Fall ist, oder aber eben ein genaues Timing braucht, da man viele Gatter durchlaufen muss, was bei einer CU definitiv der FAll sein wird.

Der wichtige Punkt ist ja, wie lange muss ich wirklich warten, bis ich das Richtige Ergebnis wieder bekomme. Wobei auf Basis einer einzelnen CU wird Clock Gating wohl wichtiger sein als Power Gating. Klar sind das viele Transistoren die ich da verballere, aber wenn die Clock ganz weg ist, dann ist schon ziemlich viel gewonnen.

Power Gaten seh ich an sich wirklich eher im Bereich von 100µs+ Wobei man ja auch immer schauen muss, wie man das PowerGating genau macht. Nur weil man PowerGated heist das ja nicht, dass die Spannung direkt auf 0V abefallen ist. Es dauert ja auch über die Gatter ziemlich lange, bis sich das gesamte PowerDeliveryNetwork entladen hat. Da sitzen normal ja schon verdammt hohe Kapazitäten dahinter. Kann also gut sein, das man bei den typischen ZEiten von einigen 100µs eventuell nur 10-30% der Spannung verliert und man eben nur mit 50% des Nominaltakt arbeiten kann für eine Zeitspanne X.

AMD hatte ja mal vor einiger Zeit bekannt gegeben, dass Sie in einem Core (glaub CPU Cores waren es) an rund 30 Stellen oder so die Spannungen überwacht und dementsprechend taktet oder auch Ergebnisse verwirft wenn ich es richtig verstanden hab.

Damit könnte man hier natürlich sehr schön arbeiten. Im Endeffekt wird es sicherlich etwas Strom sparen, aber unter Last wirste da keine 20% Effizienzgewinn mit erreichen. Ich kanns mir zumindest nicht vorstellen. Im Idle/Teillast wie z.B. 2D/VIdeo what ever können das dagegen schon relevante Werte sein.

Nun ja ich würde mal sagen, dass bei einer GPU der Clock Generator Circuit gar nie abgestellt wird (so würde ich das als Laie machen). Nur die Clock Distribution wird unterbunden. Dann entfällt das Einschwingen des (Haupt)Taktgebers, nur die Gatter müssen sich einschwingen. Dann ist der Clock auch immer stabil. Durch N Gatter hindurch ist das dann nur eine Sache von N * XY Nanosekunden + Einschwingen. Etwas im Mikrosekundenbereich sollte machbar sein.

Es sei denn man hat eine verteilte Clock Erzeugung (mehrere separate Oszillatoren) oder zusätzliche PLLs oder Clock Treiber, welche einen zusätzlichen Delay erzeugen. Bei einer verteilten Clock Erzeugung ist es aber meiner Meinung nach extrem schwierig, das ganze Zeug synchron zu halten, damit die Timings und Laufzeiten stimmen. Weiss jemand wie das bei GPUs aussieht?

horn 12
2016-05-31, 23:20:49
Denke ich nicht.
POLARIS Karten sind wohl recht einfach gestrickt, leicht zu kühlen, GDDR5 Speicher verbaut welcher gut verfügbar und nicht teuer ist,- Geniale, unkomplizierte Design möglich und eben preislich in der Herstellung äußerst interessant
Damit wird AMD die Karte wohl aus den Händen gerissen,
OC Versionen sollten knapp an GTX 1070 Stock ranreichen und dennoch um die 150 Euro billiger bleiben!

samm
2016-05-31, 23:21:22
Gerücht von WSJ? Ist dann nicht offensichtlich, dass Interesse an der Reaktion auf solche Gerüchte besteht? Sprich: Jetzt Hype, und danach Enttäuschung, dass es doch teurer ist? Damit lässt sich eine Menge Kohle machen.
P11 vielleicht.

Elkinator
2016-05-31, 23:23:18
OC Versionen sollten knapp an GTX 1070 Stock ranreichen und dennoch um die 150 Euro billiger bleiben!
Das ist Wunschdenken, bei fast gleicher Leistung werden die Karten sicher nicht so viel billiger!


Sprich: Jetzt Hype, und danach Enttäuschung, dass es doch teurer ist?
Ja, aber wie man sieht fallen viele immer wieder auf solche Gerüchte rein:\

gedi
2016-05-31, 23:23:49
Ja, der prophezeite Vega10 wäre dann eher ~77% schneller als P10. Großer Abstand.

Oke, jetzt wissen wir was Vega11 ist. ;)

€:


Hey, ich hab 219 gehört...vor Wochen. 199 ist nochmal darunter...evtl gibts noch eine XTXTXTX-Version mit 249 oder so.


Vega 10 für 379$ ;D

199$ für 36CU und 2304 SE
249$ für 40CU und 2560 SE

ks
2016-05-31, 23:25:26
Das Problem ist das die meisten Seiten max verbrauch messen es dort also nichts bringt während man Zuhause weniger verbraucht.
Es wird vermutlich weit aus schlimmer sein, der es versucht, muss extrem kompliziert messen, um eine realistische Aussage zu tätigen. iuno geht in http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11050942#post11050942 darauf schon ein. Im Worst Case, merkst du gar nicht, wie effizient ein Chip wirklich ist, weil du noch nicht in der Lage bist, es zu erfassen.

Der Fiji Code ist noch ein älterer Stand. Wenn dort nicht etwas aktiviert wird, hat Polaris ist eine Evolutionsstufe weiter beim Thema Effizienz (ganz ohne 14nm) Natürlich ist im Linux Treiber noch nicht alles, aber paar Sachen sind dort zu finden.

Bei den Frametimes bei Fiji - laut Linux Code kann man ja das Power Gating abschalten - man müsste nur testen, ob es der Verursacher ist. Ist auch wahrscheinlich, aber ich denke - intern im Fiji wirds auch noch etwas geben.


Ich frage mich, ob ein sehr gutes und schnelles Power Gating nicht noch mehr auf die Netzteile geht oder das Spulenfiepen verschlimmert.

Und zum Ansatz die CUs abschalten beim Gaming - wenn man mit FPS Limiter + FreeSync spielt, kann man ja unnötige CUs auch beim Gaming abschalten. Und Frame Drops kann ja FreeSync "auffangen".

horn 12
2016-05-31, 23:29:48
Und eine Karte mit echten 4 GB, (GTX 970) sprich doppeltem Speicher (GTX 980) zu erhalten.
GTX 970 Käufer werden zum Kauf verführt oder zumindest verleitet!
Das wird NV kaum etwas gegensetzen können, oder müssen den Preis gewaltig anpassen.

Nakai
2016-05-31, 23:33:26
Vega 10 für 379$ ;D

199$ für 36CU und 2304 SE
249$ für 40CU und 2560 SE

Ich glaube nicht mehr an 2560 SPs.

36 CUs á 6 SEs x 6 oder á 4 SEs x 9 CUs (evtl 3x3 QuadEngines...wenn es noch QuadEngines gibt)

gedi
2016-06-01, 00:00:37
Ich glaube nicht mehr an 2560 SPs.

36 CUs á 6 SEs x 6 oder á 4 SEs x 9 CUs (evtl 3x3 QuadEngines...wenn es noch QuadEngines gibt)

Maybe .. Das Gerücht um die 2560SP hielt sich bis vor Wochen relativ hartnäckig, von daher dachte ich dass es sich ähnlich verhält wie bei 380/380x.

Hierzu passt dann der propagierte 3dk13 Ultra Test von 4k mit lediglich 1.26G, wenn da etwas Wahres dran ist.

Was auf jeden Fall stimmt ist, dass NV sein NDA betreff der 1070 vorschnell ad absurdum geführt hat - ob dies jetzt direkt oder indirekt etwas mit P10 zu hat bleibt bis dato spekulativ.

Eine Frage bezüglich der IDs hätte ich noch: Haben P10_spekulativ pro und P10_spekulativ XT unterschiedliche IDs?

basix
2016-06-01, 00:03:20
Ich glaube nicht mehr an 2560 SPs.

36 CUs á 6 SEs x 6 oder á 4 SEs x 9 CUs (evtl 3x3 QuadEngines...wenn es noch QuadEngines gibt)

Mir ist eigentlich egal wie viele es schlussendlich sind, die Leistung und die restlichen Kenndaten müssen stimmen. Obwohl, weniger SPs bei höherer Leistung wären mir am liebsten ;D Umso näher bei GP104 umso mehr darf man von Vega erwarten.

iuno
2016-06-01, 00:17:51
@gedi: Ohne ueberschwaenglichen Optimismus verbreiten zu wollen, sehe ich immer noch die Moeglichkeit, dass noch eine P10 XT(X) nachkommen koennte.
AMD hat selbst bei Tonga ewig lange die XT zurueckgehalten (ausser fuer den Mac) - mit dem uralten 28 HPP.
Auch wenn es vermutlich nicht sehr wahrscheinlich ist, gibt es immer noch die Moeglichkeit, dass der neue MC G5X koennte und sie einfach abwarten, bis der Speicher guenstiger wird und dann damit erst die XT nachschieben. Dann waere der Abstand zu Vega auch nicht so enorm.

PRO und XT hatten bisher immer unterschiedliche PCI DIDs

inspectah
2016-06-01, 00:18:52
199$ ist aber auch nur Wunschdenken.
Das ist das WSJ, die posten nicht irgendwelche Bullshitgerüchte.
Die haben einem Ruf gerecht zu werden.

Ravenhearth
2016-06-01, 00:27:45
AMD wär doch doof, wenn sie die für $199 verschleudern würden und sie stattdessen auch für $299 anbieten könnten. Zumal ich mir nicht vorstellen kann, dass die Yields schon so gut sind. Pitcairn ist sogar für $350 (!) gestartet.

Aber wenn doch, dann werden alle Grafikkarten-Preise heftig zusammenbrechen, von unten bis oben. Wer kauft denn noch eine 1070 für $379/449, die nur ein Drittel schneller ist? Dann wären $299 für die 1070 und $449 für die 1080 angebracht. RV770 reloaded?

gedi
2016-06-01, 00:28:42
@gedi: Ohne ueberschwaenglichen Optimismus verbreiten zu wollen, sehe ich immer noch die Moeglichkeit, dass noch eine P10 XT(X) nachkommen koennte.
AMD hat selbst bei Tonga ewig lange die XT zurueckgehalten (ausser fuer den Mac) - mit dem uralten 28 HPP.
Auch wenn es vermutlich nicht sehr wahrscheinlich ist, gibt es immer noch die Moeglichkeit, dass der neue MC G5X koennte und sie einfach abwarten, bis der Speicher guenstiger wird und dann damit erst die XT nachschieben. Dann waere der Abstand zu Vega auch nicht so enorm.

PRO und XT hatten bisher immer unterschiedliche PCI DIDs

AFAIR war es doch aber bei der X800pro VIVO so, dass die ID identisch war zur XT? Aus diesem Grund war es doch bei jeder Pro Vivo möglich die Karten einfach zur XT (PE) zu flashen.
Natürlich kann es sein, dass mich mein Gedächtnis diesbezüglich im Stich lässt - ist ja auch schon mehr als 12 Jahre her :redface:

OBrian
2016-06-01, 00:36:18
naja, die Partnerkarten können ja durchaus versuchen, noch möglichst viel Takt rauszuquetschen, mit 8-pin und höherer TDP geht sicher noch was. Und nächstes Jahr wird es wohl wie üblich einen Refresh geben, der auch so noch was rausholt. Aber ich würde nicht zuviel davon erwarten, das sind die üblichen paar Prozent. Von einer 7870 hat auch keiner auf eine 370 aufgerüstet.

iuno
2016-06-01, 00:40:01
AFAIR war es doch aber bei der X800pro VIVO so, dass die ID identisch war zur XT? Aus diesem Grund war es doch bei jeder Pro Vivo möglich die Karten einfach zur XT (PE) zu flashen.
Natürlich kann es sein, dass mich mein Gedächtnis diesbezüglich im Stich lässt - ist ja auch schon mehr als 12 Jahre her :redface:
Nun, das weiss ich nicht mehr, aber dabei spielt die ID keine Rolle. Man konnte die letzten Jahre mindestens auch Cayman, Hawaii und Fury PRO teilweise flashen und die hatten unterschiedliche IDs.

So, noch ein mal schlafen :D Morgen sind wir hoffentlich immerhin ein bisschen schlauer was Polaris und vielleicht auch Vega und Zen angeht.
Falls jemand den Stream tatsaechlich schaut: viel Spass noch :freak:

Dino-Fossil
2016-06-01, 00:42:48
AMD wär doch doof, wenn sie die für $199 verschleudern würden und sie stattdessen auch für $299 anbieten könnten.

Naja, erstmal abwarten was sie dann wirklich kosten und vor allem - was sie leisten können.
Aber wenn die Gerüchte stimmen - ca 390(X) Performance, unter 150W - haben sie zwar etwas handfestes, können aber trotzdem auch nicht sooo viel dafür verlangen.
Ein echtes Upgrade ist die Karte dann nämlich nur für Leute die momentan auf älteren Karten aus dem Mittelfeld sitzen (so wie mich :D ).
Da ist man meistens auch nicht gewillt so viel auszugeben.

OBrian
2016-06-01, 00:48:12
Aber wenn doch, dann werden alle Grafikkarten-Preise heftig zusammenbrechen, von unten bis oben.nicht zwangsläufig, es gibt ja sonst nichts. Wer mehr Performance als Polaris will, muß dann eben gleich schlagartig mehr bezahlen. Das drängt eigentlich noch mehr Leute in den Polaris-Bereich, die eigentlich auch etwas mehr ausgegeben hätten für etwas mehr Leistung, aber eben nicht gleich das Doppelte blechen wollen.

Unten natürlich schon, aber das ist wohl auch die Strategie von AMD, denn bei den Quartalszahlen war bzgl. Polaris nur vom Erkämpfen von Marktanteilen die Rede, nicht von Geld scheffeln, Marge verbessern oder sowas. Kampfpreise im Wortsinne.

Die Listenpreise von Polaris 11 (evtl. so 80 und 120 $ oder so) mögen einem evtl. trotzdem noch hoch vorkommen (ich finde die kleinen Karten immer total überteuert), aber was die OEMs unter der Hand angeboten bekommen, ist ja letztlich entscheidend.

Nvidia hat ja im unteren Bereich nun die technisch schwächeren Angebote, weil die 16-nm-Chips noch nicht da sind (unter einem GP106 müßte noch ein kleinerer kommen), aber um einen eingefahrenen Markt zu bewegen, muß man die Haftreibung mit einem Ruck überwinden, ein "must-buy"-Preis ist da genau das Richtige.

Elkinator
2016-06-01, 00:48:37
Aber wenn die Gerüchte stimmen - ca 390(X) Performance, unter 150W - haben sie zwar etwas handfestes, können aber trotzdem auch nicht sooo viel dafür verlangen.
Warum können sie das dann nicht?

Ein echtes Upgrade ist die Karte dann nämlich nur für Leute die momentan auf älteren Karten aus dem Mittelfeld sitzen
Genau diese Leute sind doch die Zielgruppe.

d2kx
2016-06-01, 01:24:48
http://i.imgur.com/BYdxuFM.jpg

Nicht einmal mehr 199 Minuten bis zum Event! Ich werde schon ganz rot im Gesicht vor Aufregung!

Ob Zenpai Lisa Su wohl eine Überraschung im Gepäck hat?

Dino-Fossil
2016-06-01, 01:36:32
Warum können sie das dann nicht?

Das klang von mir etwas negativer als es gemeint war. Sicherlich sind auch einiges mehr als 200 drin, aber in Richtung 300 und darüber hinaus wird's mMn. problematisch, denn:
In dem Preisbereich finden sich schon einige alte Karten (390 und 970 - trotz ihrer unattraktiven Speicherausstattung) mit ähnlicher Leistung, die dann bald im Abverkauf nochmal günstiger werden.

Genau diese Leute sind doch die Zielgruppe.

Eben, dazu zähle ich mich und ich gebe wenn nötig mal ~250 für eine neue Graka aus, aber nicht 300 oder mehr.

Elkinator
2016-06-01, 01:39:40
In dem Preisbereich finden sich schon einige alte Karten (390 und 970 - trotz ihrer unattraktiven Speicherausstattung) mit ähnlicher Leistung, die dann bald im Abverkauf nochmal günstiger werden.
AMD wird die 390 dann eh auslaufen lassen.
Ob die 970 dann niemand mehr kauft kann AMD ziemlich egal sein!

Eben, dazu zähle ich mich und ich gebe wenn nötig mal ~250 für eine neue Graka aus, aber nicht 300 oder mehr.
Ob deine Grenze bei 250€ liegt ist ziemlich egal, wenn die Leistung passt wird die Karte auch um 300€ noch gekauft.

Ravenhearth
2016-06-01, 03:12:54
Hat jemand einen Link zum Livestream?

Edit: Laut AMD soll der hier kommen: http://www.amd.com/computex

Danke@Pick

Pick
2016-06-01, 03:15:22
Hat jemand einen Link zum Livestream?

https://www.youtube.com/watch?v=Icm9B1nkGJ0

Ravenhearth
2016-06-01, 03:19:30
Wenn die RX 480 wirklich für $199 kommt, ist der Wert ganz vieler GPUs im Arsch :usad:

d2kx
2016-06-01, 03:57:32
Icm9B1nkGJ0

Ravenhearth
2016-06-01, 03:59:00
Alle Vorschaubilder zeigen übrigens Bristol Ridge :D

Nightspider
2016-06-01, 04:06:42
Hab ja gesagt das Polaris günstig wird. :D

Radeon RX 480 mit 36 CUs kommt am 29. Juni für 199$ (http://www.computerbase.de/2016-06/radeon-rx-480-vorgestellt/)

AMDs CEO Lisa Su hat auf der Computex über die Next-Gen-Grafikkarten gesprochen und dabei gleich das erste Modell angekündigt: So soll die Radeon RX 480 für 199 US-Dollar „VR-Fähigkeiten einer sonst für 500 US-Dollar üblichen Grafikkarte“ besitzen.

Die Radeon RX 480 soll dies durch die neue Polaris-Architektur schaffen, die auf der Grafikkarte aus 36 Compute Units besteht. Die theoretische Rechenleistung soll mehr als fünf Teraflops betragen. Wenn AMD nicht das Verhältnis der Compute Units geändert hat, müsste die GPU also über 2.304 Shadereinheiten verfügen und der Takt müsste dann mindestens etwa 1,1 GHz betragen.

Darüber hinaus gibt AMD für die Radeon RX 480 einen Speicherausbau von vier bis acht Gigabyte des Typs GDDR5 an, der an einem 256-Bit-Speicherinterface angeschlossen ist. Der Speicher arbeitet mit 4.000 MHz, womit die Bandbreite 256 GB/s beträgt. Die Leistungsaufnahme ist mit 150 Watt angegeben. Neben dem DisplayPort 1.3 unterstützt die Radeon RX 480 auch den DisplayPort 1.4.

Weitere technische Angaben über die Radeon RX 480 und der Polaris-Architektur gibt es aktuell nicht. Diese wird es dann bei der Produkteinführung am 29. Juni geben.

Ravenhearth
2016-06-01, 04:10:04
Holy shit

Hakim
2016-06-01, 04:15:22
unter 200$

Screemer
2016-06-01, 04:15:47
Raja hats gesagt: $199

Gipsel
2016-06-01, 04:15:52
Das PCB ist sehr kurz. Der Lüfter steht über und saugt scheinbar Luft von beiden Seiten an.

Nightspider
2016-06-01, 04:17:23
>5 TFlops....fast so schnell wie eine 980ti. :)

Wird eine geile Miningkarte. :D

Ravenhearth
2016-06-01, 04:19:28
Die $199 (219€?) gelten dann wohl für die 4GB-Version.

illidan
2016-06-01, 04:21:06
Was ein 1080-Diss mit Doom. :biggrin:

JaniC
2016-06-01, 04:21:06
199$ für das? Where's the catch?
Man, müssen die verzweifelt sein.

Klingt krass, aber erstmal alle Daten und Benches abwarten.

Hahaha, die Doom-Präsi scheisst leider total gegen den Jawdropper von nvidia vor ein paar Wochen ;) (aber immer noch besser als Polygon lol)

Naja, ich hoffe es wird ein Erfolg, Konkurrenz drückt die Preise.

[MK2]Mythos
2016-06-01, 04:21:23
Haha!
"You don't need a 700 dollar video card to enjoy DOOM at high fps!" :D

Linmoum
2016-06-01, 04:23:38
Shots fired @1080 :biggrin:

JaniC
2016-06-01, 04:23:57
Also ich hab links bei Ashes leichtes Ruckeln gesehen, sorry Guys :D

w0mbat
2016-06-01, 04:24:56
2x P10 @ 51% schneller als 1x 1080 @ 98%, also 1x P10 > 1080. LOL! Schneller als GP104 und das für $199.

Ravenhearth
2016-06-01, 04:25:41
Die 4GB wird imho $199 bzw. 219-229€ kosten, die 8GB $229-249, also 249-279€.

illidan
2016-06-01, 04:26:12
Irgendwo muss der Haken sein, sonst hätte man auch gleich nur eine einzelne P10-GPU als Vergleich nehmen können...

Nightspider
2016-06-01, 04:26:14
Schon ein geiles Kärtchen wenn die GTX1080 nur 30% schneller ist aber 250% mehr kostet. :D

Mal schauen was andere Benchmarks zeigen werden. Da ja immer mehr Spiele auf CGN GPUs optimiert werden wird AMD immer mehr Boden gut machen und BF1 scheint auch auf AMD optimiert zu werden. :)

kuj0n
2016-06-01, 04:26:56
@wombat So hat er das aber gerade nicht gesagt.

Geiler 200$ buttplug für Nvidia. Ist gekauft.

Gipsel
2016-06-01, 04:28:13
2x P10 @ 51% schneller als 1x 1080 @ 98%, also 1x P10 > 1080. LOL! Schneller als GP104 und das für $199.
Dann hätten sie wohl kein Crossfire gemacht. Vermutlich gibt es auch bei einer Einzelkarte nicht über 70% Auslastung (andere Berechnung?).

Ravenhearth
2016-06-01, 04:28:42
Was glaubt ihr, ist die RX 480 der Salvage-Part oder kommt noch einer darunter? Und wie sähe das Namensschema aus? RX 475 für einen Salvage, oder RX 480X für einen Full?

JaniC
2016-06-01, 04:28:55
Meine einzigen AMD/ATi Karten waren eine X700 und eine HD4850. Bei der X700 hatte ich einfach echt keine Kohle und bei der 4850 war das P/L-Verhältnis einfach entscheidend besser als bei nVidia.
In den folgenden Generationen jedoch machte der Preisunterschied nie die etwas schlechtere Performance wett.
Mal gucken, vielleicht ja diesmal. Wobei das Teil nicht schneller sein wird als meine 970.

Hakim
2016-06-01, 04:29:02
in Ashes sind aber auch die Aktellen AMD Karten sehr gut.

BiZiNiZz
2016-06-01, 04:30:52
ashes ist maximal auf AMD optimiert, wenn überhaupt nur ein klein wenig auf nVidia, daher finde ich den vergleich den AMD seit gefühlten ewigkeiten damit zieht mehr als lächerlich

kuj0n
2016-06-01, 04:32:44
Ach komm NV nutzt für Präsentationen doch auch vorteilhafte Spiele. Warten wir den 29. ab.

Screemer
2016-06-01, 04:33:08
diese video side by side kacke bei der bristolridge präsentation ohne zahlen könnten sie sich auch sparen. ist doch total lächerlich.

illidan
2016-06-01, 04:33:58
Scheint eine furchtbar unnötige Präsi zu sein. Bisher eigentlich absolut null Information, abseits der Preise.

JaniC
2016-06-01, 04:35:02
Mehr wird wohl auch nicht kommen, CB (http://www.computerbase.de/2016-06/radeon-rx-480-vorgestellt/) hat z.b. um Punkt 4 Uhr eine News geschaltet, in der alle Infos schon drin waren.

Also waren in der Pressemitteilung schon alle Infos drin, mehr kommt auch nicht.

w0mbat
2016-06-01, 04:36:04
ashes ist maximal auf AMD optimiert, wenn überhaupt nur ein klein wenig auf nVidia, daher finde ich den vergleich den AMD seit gefühlten ewigkeiten damit zieht mehr als lächerlich

Genau, mit 51% Auslastung :freak:

Screemer
2016-06-01, 04:36:20
genau so wie das publikum da lethargisch sitzt fühl ich mich bei der präsentation.

Ravenhearth
2016-06-01, 04:37:27
Am 29. Juni kommen dann wohl die Tests, wird man dann auch schon Karten kaufen können oder erst etwas später?

Screemer
2016-06-01, 04:37:48
geil der ms dev freut sich auf vulkan testing in the "factory" :ugly:

Nightspider
2016-06-01, 04:39:51
genau so wie das publikum da lethargisch sitzt fühl ich mich bei der präsentation.

Ich glaube Nvidia mixt den Zuschauern bei AMD Präsentationen heimlich Schlafmittel in den Kaffee und bei ihren eigenen Präsentationen Ecstasy. ;D

So ich geh pennen. Gn8 :D

Elkinator
2016-06-01, 04:42:43
199$ für das? Where's the catch?
Man, müssen die verzweifelt sein.
Da wird eher NVIDIA verzweifeln, weil sie bei dem Preis mit GP104 nicht mitgehen können1

Screemer
2016-06-01, 04:43:20
Ich glaube Nvidia mixt den Zuschauern bei AMD Präsentationen heimlich Schlafmittel in den Kaffee und bei ihren eigenen Präsentationen Ecstasy. ;D

So ich geh pennen. Gn8 :D
ich glaub eher, dass bei nv extra cheerpoeple geladen werden. ach ne die haben genug durvhgeknallte fans :D

bin schon gespannt ob die $199 für ne 4 oder 8gb sku sind. bei 8bb ersetze ich meine 290 in nem sidegrade.

Ravenhearth
2016-06-01, 04:45:17
Bei dem Preis ist es auch nicht schlimm, dass sie die gleiche TDP wie die 1070 hat. Wobei ich mir andererseits nicht vorstellen kann, dass AMD die Karte so auf Kante genäht hat, der Stromverbrauch könnte also eher bei 120-130W liegen.

illidan
2016-06-01, 04:45:37
Oh, bunte Notebooks. Geil!

Linmoum
2016-06-01, 04:48:04
bin schon gespannt ob die $199 für ne 4 oder 8gb sku sind. bei 8bb ersetze ich meine 290 in nem sidegrade.
Da von ab $199 die Rede ist gehe ich mal davon aus, dass das der Preis für die 4GB-Variante ist. 8GB dann sicherlich $249.

tdon
2016-06-01, 04:48:09
Wenn die TDP vergleichbar mit der von Nvidia ist, hat Polaris die schlechtere Effizienz gegenüber Pascal. Das war schon traditionell so die letzten Jahre.

Hakim
2016-06-01, 04:48:52
Ich schätze mal die Karte vom Speed her irgendwo auf GTX980 und R9 390X Niveau ein, wäre sie näher am 980Ti und GTX1070 hätten sie es auch gut für 249$ anbieten können. Für 199$ wäre das aber dennoch sehr gut für das gebotene, ordentliche Leistung bei bestimmt guter Performance/Watt Leistung und VR Boni Features, dürfte sich gut verkaufen. Aber mal abwarten

Ravenhearth
2016-06-01, 04:51:48
Wenn die TDP vergleichbar mit der von Nvidia ist, hat Polaris die schlechtere Effizienz gegenüber Pascal. Das war schon traditionell so die letzten Jahre.

Die TDP muss nicht dem tatsächlichen Stromverbrauch entsprechen. Man sehe sich die HD7870 damals an: 190W TDP und etwa 120W Stromverbrauch. Zumal die 480 nur 1x6-Pol hat und mit 150W Stromverbrauch sehr auf Kante genäht wäre.

[MK2]Mythos
2016-06-01, 04:51:59
Wenn die TDP vergleichbar mit der von Nvidia ist, hat Polaris die schlechtere Effizienz gegenüber Pascal. Das war schon traditionell so die letzten Jahre.
Ich weiß ja nicht wie du das hälst, aber mir sind 20 - 30 Watt Unterschied scheißegal wenn das Produkt ansonsten rund ist und der Preis so dermaßen niedrig ist. Und das scheint diesmal so zu sein.
Davon abgesehen würde ich erstmal abwarten was die Dinger wirklich verbraten.
Der Kühler sieht recht niedlich aus.

Hakim
2016-06-01, 04:54:29
One more Thing :) Zen

wollte nicht Apple den Spruch patentieren?

USS-VOYAGER
2016-06-01, 04:54:43
So ich geh pennen. Gn8 :D

Du verpasst Zen :)

Elkinator
2016-06-01, 04:55:06
Wenn die TDP vergleichbar mit der von Nvidia ist, hat Polaris die schlechtere Effizienz gegenüber Pascal. Das war schon traditionell so die letzten Jahre.
Wiedu darauf kommst muß man zum Glück nicht verstehen!

Nightspider
2016-06-01, 04:56:09
Du verpasst Zen :)

re

Edit: Zen killed the Stream. xD

Screemer
2016-06-01, 05:01:20
last view on zen: dieser stream ist offline. tolle wurst.

Hakim
2016-06-01, 05:02:06
Wars das? Ich dachte da kommt noch was, Zen überhitzt?

illidan
2016-06-01, 05:02:29
Wiedu darauf kommst muß man zum Glück nicht verstehen!
Warum sollte man denn die TDP ohne Not höher festsetzen als notwendig?

Elkinator
2016-06-01, 05:04:50
Zen überhitzt?
Quelle?

USS-VOYAGER
2016-06-01, 05:06:01
Stream abgekackt oder ist einfach schon Ende?

horn 12
2016-06-01, 05:06:07
Wann endet die Präsentation

@d2kx
Mit was sollte, wollte uns bitte Lisa denn überraschen?

Hakim
2016-06-01, 05:11:35
Quelle?

für eine (Scherz) Frage willst du eine Quelle? Ich hoffe ist ebenfalls als Joke gefragt worden.

Elkinator
2016-06-01, 05:12:30
Ich hoffe ist ebenfalls als Joke gefragt worden.
Da bin ich mir bei vielen Gamern hier nicht ganz sicher:\

krissbay
2016-06-01, 05:13:47
Warum sollte man denn die TDP ohne Not höher festsetzen als notwendig?

da stand nichts von TDP. Kann es sich auch vielleicht um die max. Stromversorgung handeln ?

selbst wenn es 50W mehr verbraucht als das Nvidia Pendant, kann ich es für den Preis vertragen ;D

illidan
2016-06-01, 05:20:45
Du weißt ja nicht, wie viel das NV-Pendant kosten wird.

krissbay
2016-06-01, 05:28:20
Du weißt ja nicht, wie viel das NV-Pendant kosten wird.

ich kann mir nicht vorstellen , dass NV. billiger wird und allein damit AMD nicht stirbt werde ich diesmal bestimmt AMD kaufen.

Elkinator
2016-06-01, 05:32:02
NVIDIA hat kein Pendant, GP104 ist für diese Preisklasse zu teuer!

Isen
2016-06-01, 05:39:14
Nicht, wenn Nvidia sone Show wie bei der 970 abzieht. Es geistert doch son Gerücht rum, dass die wegen Polaris ne Änderung machen, um sie billiger anzubieten.

real 3,5GB deal 1060 :P

/Sark

Elkinator
2016-06-01, 05:41:44
Die 970 wurde nicht wegen der Speicherkrüppelsache billiger in der Herstellung!

Isen
2016-06-01, 05:48:15
Ja ach... Sarkasmus ist Heute echt nicht deine Stärke - schmeiß dir ne Baldrian rein und Schlaf gut. Bis Morgen

Elkinator
2016-06-01, 05:52:39
Das mit der GTX 970 nervt einfach nur noch, 99,999% der Leute wissen nichtmal wo NVIDIA da überall gelogen hat!

Sarkasmus ≠ Unsinn posten!

pest
2016-06-01, 05:52:48
Sieht interessant aus...meine 7950 braucht Ersatz und ich denke, ich bin exakt die Zielgruppe für so eine Karte

Konkurrenz belebt das Geschäft...vielleicht sehen wir in 1-2 Monaten wieviel die 1070/1080 tatsächlich wert ist ;)

Elkinator
2016-06-01, 06:02:13
Die 1080 wird soch im Preis wohl bis Vega kommt halten können, wer High-End will bezahlt den Preis.
Sie werden den Preis sicher leicht anpassen müßen, aber sicher nicht sehr viel.

Bei der GTX 1070 schuat es wieder anders aus, da wird NVIDIA preislich nachbessern müßen.


Hat P10 jetzt 36CUs oder ist das ein teildefekter Chip?
Gibt es dazu eine Bestätigung?


Wenn 4GB 199$ kosten, dann wird die 8GB Karte 50$ mehr kosten.
Gesagt wurde aber, daß man den Bereich von 200-300$ abdecken will, da fehlt also noch eine Karte im oberen Bereich!

Isen
2016-06-01, 06:04:53
Wo ist das Problem. 480X mit 8GB - +1,3Ghz Takt bei 180W 1x 8pin 299$ und gut ist.

P11 low-end/notebook - 2x im Mainstream 480x auf 1070 niveau. Passt doch. Was will man da 3 Karten haben. Vega 10 deckt dann obere Performance bis untere High-End ab und Vega 11 oberes High-End bis Enthusiast.

pest
2016-06-01, 06:05:41
wenn die Karte tatsächlich 980Ti Performance für 250€ bietet kauft doch niemand bei Verstand eine Karte wie die 1080 für fast 800€ die 30% schneller ist.

Elkinator
2016-06-01, 06:10:12
Wo ist das Problem. 480X mit 8GB - +1,3Ghz Takt 299$ und gut ist.
Davon haben sie aber nichts gezeigt.

Die RX 480 decken den Bereich von 199-249$ ab, genannt wurde aber bis 300$.


wenn die Karte tatsächlich 980Ti Performance für 250€ bietet kauft doch niemand bei Verstand eine Karte wie die 1080 für fast 800€ die 30% schneller ist.
Naja, aktuell ist die GTX 1080 Mangelware, NVIDIA findet sicher genug die den vollen Preis zahlen.
Eine Preissenkung macht eh erst Sinn, wenn NVIDIA mal mehr davon liefern kann:O

Isen
2016-06-01, 06:13:10
Gibt es umgekehrten Adrenalin? Ich bin raus :D

[MK2]Mythos
2016-06-01, 06:14:06
Davon haben sie aber nichts gezeigt.

Die RX 480 decken den Bereich von 199-249$ ab, genannt wurde aber bis 300$.
Genannt wurde nur die Rx480 ab 199$ mit einer Rechenleistung über 5 Tflops. Wie das Lineup genau aussieht, werden wir in den nächsten Wochen doch erfahren.

krissbay
2016-06-01, 06:15:27
schon gepostet?
Benchmark von P10 in Crossfire Ashes of the Singularity vom 26.05
http://ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/0561a980-78ce-4e24-a7c3-2749a8e33aac

dargo
2016-06-01, 06:40:03
wenn die Karte tatsächlich 980Ti Performance für 250€ bietet kauft doch niemand bei Verstand eine Karte wie die 1080 für fast 800€ die 30% schneller ist.
Wenn du wüsstest... bei vielen setzt schon der Verstand aus wenn Karte X nur 20% schneller ist. ;D

Loeschzwerg
2016-06-01, 07:10:52
Nettes Kärtchen :) Hoffentlich auch mit exakt diesem Ref.-Kühler zu bekommen!

So eine RX 480 würde wunderbar zu meinen VIA Quadcore passen :D

Gibt es eigentlich Infos warum das Namensschema verändert wurde? Edit: Man spricht jetzt zumindest nur noch von der "The Radeon™ RX Series".

Malabolge
2016-06-01, 07:18:58
Nettes Kärtchen :) Hoffentlich auch mit exakt diesem Ref.-Kühler zu bekommen!

So eine RX 480 würde wunderbar zu meinen VIA Quadcore passen :D

Gibt es eigentlich Infos warum das Namensschema verändert wurde?

Vielleicht wollte AMD die verwechslung mit den "Fermi"-Heizern vermeiden :weg::wink:
Hiesen ja auch 480....(this Puppy is Fermi)

iuno
2016-06-01, 07:22:57
Hier wird mehrfach die 980 Ti genannt, wurden die direkt verglichen? Was gab es für infos, ist es realistisch, dass p10 gm200 erreicht oder ist das nur in AotS so?

Loeschzwerg
2016-06-01, 07:29:45
Vielleicht wollte AMD die verwechslung mit den "Fermi"-Heizern vermeiden :weg::wink:
Hiesen ja auch 480....(this Puppy is Fermi)

;D

iuno
2016-06-01, 08:13:11
CB hat Bilder angefuegt: http://www.computerbase.de/2016-06/radeon-rx-480-vorgestellt/#update1
http://pics.computerbase.de/7/2/6/5/5/4-1080.1631901891.jpg

Interessant, dass sie die Karte so lange machen, der Luefter saugt von beiden Seiten an und bekommt so ordentlich Luft. Die Referenzkuehlung koennte endlich mal wieder was taugen.
Mir persoenlich gefaellt auch das Design sehr (ok, wurde ja in dem Stil schon mit der 300er Serie eingefuehrt), dagegen ist Nvidias Lambo imho fast schon peinlich.

Weiteres interessantes Merkmal: Alle Displayanschluesse sind unten, das hilft dem Radialluefter aber auch 1-slottige Boards sind theoretisch moeglich (Wasser?), genauso wie natuerlich sehr kurze Karten.


An die Livestream-schauer: Wurde eigentlich zu P11 rein gar nichts gesagt?

Loeschzwerg
2016-06-01, 08:18:29
Hier gibt es auch richtige Fotos zur Karte:
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/Radeon-RX-480-Preis-Spezifikationen-Computex-1196990/galerie/2582717/

dargo
2016-06-01, 08:23:36
CB hat Bilder angefuegt: http://www.computerbase.de/2016-06/radeon-rx-480-vorgestellt/#update1
http://pics.computerbase.de/7/2/6/5/5/4-1080.1631901891.jpg

Interessant, dass sie die Karte so lange machen, der Luefter saugt von beiden Seiten an und bekommt so ordentlich Luft. Die Referenzkuehlung koennte endlich mal wieder was taugen.

Jepp... das war wohl der Hauptgrund. Dadurch sollte die Referenzkühlung eigentlich sehr leise sein. Für OEMs sehr wichtig.

Voodoo6000
2016-06-01, 08:24:50
Also wenn die Leistung stimmt ist der Ersatz für meine GTX770 gefunden. Der Preis ist echt heiß.

HOT
2016-06-01, 08:25:23
Eines sollte absolut klar sein nach der 480: Sollte das tatsächlich nur salvage sein, und da spricht einiges dafür, hat die XT definitiv >7 TFlops und GDDR5X.

[MK2]Mythos
2016-06-01, 08:33:27
Sehe ich nicht so, ich denke die werden je nach Ausführung zwischen 5 und 6 Tflops liegen.
Wenn es RX480 Varianten gäbe, die deutlich über 6 oder 7 Tflops schaffen, dann hätten die das auch so propagiert, aber auf den Folien war ganz klar von über 5 Tflops die Rede, daher bin ich der Meinung dass die Single-Karten zwischen 5 und 6 liegen werden. Wobei die kleinste Variante knapp über 5 hat und 4 Gb Ram, alle anderen dann 8 Gb GDDR5.

iuno
2016-06-01, 08:34:03
Nun, das wissen wir ja noch nicht. Natuerlich waere es wuenschenswert, auch dass keine R 480 angekuendigt wurde koennte darauf hindeuten.
Oder aber Salvage gibt es vorerst nur fuer OEMs. Macht das Sinn? :confused:
Andererseits wurde auch nichts zur 470(?) gesagt, die ja definitiv mit P11 auch noch kommt.

Disco_STFU
2016-06-01, 08:35:45
Damit dürften die Zeiten vorbei sein in denen Nvidia in der gleichen Leistungsklasse mal geschmeidige 50-100 Watt weniger verbraucht.

Sehr geil das Ganze. Ick freu mir! :)

dargo
2016-06-01, 08:41:08
Damit dürften die Zeiten vorbei sein in denen Nvidia in der gleichen Leistungsklasse mal geschmeidige 50-100 Watt weniger verbraucht.

Sehr geil das Ganze. Ick freu mir! :)
Es wird noch besser. Angeblich soll Vega gegenüber Polaris nochmal bei der Effizienz einen drauflegen.

igg
2016-06-01, 08:41:43
wenn die Karte tatsächlich 980Ti Performance für 250€ bietet
woraus schließt du das?

M4xw0lf
2016-06-01, 08:43:27
Mythos;11052260']Sehe ich nicht so, ich denke die werden je nach Ausführung zwischen 5 und 6 Tflops liegen.
Wenn es RX480 Varianten gäbe, die deutlich über 6 oder 7 Tflops schaffen, dann hätten die das auch so propagiert, aber auf den Folien war ganz klar von über 5 Tflops die Rede, daher bin ich der Meinung dass die Single-Karten zwischen 5 und 6 liegen werden. Wobei die kleinste Variante knapp über 5 hat und 4 Gb Ram, alle anderen dann 8 Gb GDDR5.
Mal sehen wie P10 mit 5,nochwas GFLOPS sich gegenüber Hawaii XT mit knapp 6GFLOPS schlägt. 390X-Performance sollte erreicht werden, aber auch nicht wirklich mehr als das.

-/\-CruNcher-/\-
2016-06-01, 08:44:12
Wenn du wüsstest... bei vielen setzt schon der Verstand aus wenn Karte X nur 20% schneller ist. ;D

Naja mit den 20% kann man schon recht gut dann den zusätzlichen Gameworks overhead kompensieren im Frame ohne extrem tief zu fallen mit den unteren karten wird das immer schwierieger mit dem SHadercount das hat Nvidia schon alles durch gerechnet :)

PCSS,HFS und VXAO sind alleine schon heftige Loads wenn dann noch full VXGI dazu kommt dann kannst du jede Mainstream karte in die tonne kloppen dann noch Nvidias Volumetrics und Hairworks und du hast ne Slideshow ;)

Thoro
2016-06-01, 08:44:47
Klingt sehr gut. Nvidia war ja eher preislich eher zum Fürchten bislang, aber da kann ich meine HD 5850 wohl endültig in Rente schicken. Nur alle 4 Jahre Grakas kaufen hat schon auch was :)

dargo
2016-06-01, 08:51:04
Naja mit den 20% kann man schon recht gut dann den zusätzlichen Gameworks overhead kompensieren im Frame ohne extrem tief zu fallen mit den unteren karten wird das immer schwierieger mit dem SHadercount das hat Nvidia schon alles durch gerechnet :)
Der Schwachsinn wird zuerst deaktiviert. ;)

Schnoesel
2016-06-01, 08:52:15
Also die Platzierung ist doch nahezu perfekt und der Preis günstiger als gedacht:

Ich schätze die Perfromance bei ca. GTX 980/R9 390X

- GTX 1070: wesentlich teurer aber auch schneller
- GTX980: Teurer, nur 4GB
- R9 390X: Teurer, wesentlich mehr Stromverbrauch
- GTX 970: Langsamer, Krüppel VRAM
- R9390: Langsamer, wesentlich mehr Stromverbrauch

Im Preisbereich von 200$-250$ ist die Karte alternativlos. Mal sehen ob sie wieder on the edge läuft oder ob noch Spieleraum für OC ist. Es hieß ja man will den Boardpartner mehr Freiheiten geben. AMD macht ernst mit den Marktanteilen. Jeder der noch mit einer Karte Leistung GTX960 oder darunter spielt kommt für die Karte in Frage und P11 dann für meinen HTPC ;-)

Disco_STFU
2016-06-01, 08:54:36
Hoffentlich bringt AMD das Referenzdesign auf den freien Markt. Wenn es dann noch unter 2 Sone im Anno Stresstest (:D) produziert könnte AMD davon ne Menge absetzen. Wäre ihnen zu wünschen! :)

-/\-CruNcher-/\-
2016-06-01, 08:57:58
Der Schwachsinn wird zuerst deaktiviert. ;)

Momentan ist ja krass was die PS4 darunter leidet bei Far Harbour da sind fast in jedem Frame Nvidia Volumetrics + Tesselated God Rays und die PS4 kracht total ein, witzigerweise überlebt die Xbox One es einigermasen aber auch die leidet mächtig drunter.

CYpYgq-Ln_c

MadPenguin
2016-06-01, 08:57:58
Ich muss mich bei Blediator entschuldigen. Seine Glaskugel ist eindeutug besser als meine :)
CF ich komme wieder :D

Cubitus
2016-06-01, 09:02:33
Endlich besinnt sich AMD wieder, gut gemacht :D

Disco_STFU
2016-06-01, 09:06:10
Gibts dann die Überschrift "GTX 980 Leistung zum halben Preis"? ;)

HOT
2016-06-01, 09:06:51
Mythos;11052260']Sehe ich nicht so, ich denke die werden je nach Ausführung zwischen 5 und 6 Tflops liegen.
Wenn es RX480 Varianten gäbe, die deutlich über 6 oder 7 Tflops schaffen, dann hätten die das auch so propagiert, aber auf den Folien war ganz klar von über 5 Tflops die Rede, daher bin ich der Meinung dass die Single-Karten zwischen 5 und 6 liegen werden. Wobei die kleinste Variante knapp über 5 hat und 4 Gb Ram, alle anderen dann 8 Gb GDDR5.
Nur salvage kommt mit 4 GB. Keine XT kam je mit der geringeren Speichermenge. Zudem muss zu einer XT sowohl die Rechenleistung als auch die Bandbreite mindestens 20 prozent darüber liegen. Ich denke die bringen erstmal nur die salvagevariante, weil das schlicht momentan nicht anders geht. Die GDDR5X Mengen werden für den angepeilten Preis einfach nicht reichen und zu teuer sein. Das RX wird i.U. schlicht für R10 stehen.

Cubitus
2016-06-01, 09:09:45
Gibts dann die Überschrift "GTX 980 Leistung zum halben Preis"? ;)

Jetzt ist halt die Frage, dijenigen welche eine 970 GTX z.b besitzen sollten gerade auf den R490 warten.. Dann würde es sich durchaus lohnen, weil Crossfire ist ein noGo.
Ebenso wie SLI atm..

-/\-CruNcher-/\-
2016-06-01, 09:13:04
Richtig ich update auf die R490 oder X je nachdem ;)

[MK2]Mythos
2016-06-01, 09:13:47
Daher schrieb ich ja, die kleinste P10 Variante kommt mit 4 Gb Ram und knapp über 5 Tflops, die restlichen dann mit 8 GB GDDR5 und zwischen 5 und 6 Tflops, das sagt meine Glaskugel. :D

MikePayne
2016-06-01, 09:15:11
wenn die Karte tatsächlich 980Ti Performance für 250€ bietet kauft doch niemand bei Verstand eine Karte wie die 1080 für fast 800€ die 30% schneller ist.

So ist es^^ Selbst wenn sie nur an die 980 Ti rankommt bzw nur die 980 schlägt.


Geiler 200$ buttplug für Nvidia. Ist gekauft.

:D

Gibts dann die Überschrift "GTX 980 Leistung zum halben Preis"? ;)

:ugly:

mironicus
2016-06-01, 09:16:35
Preis ist gut, aber mit 150 Watt TDP nicht auf Effizienz getrimmt im Vergleich zur GTX 1070.
Wie will das AMD denn schaffen mit einem größeren Chip, der es mit den Performance-Karten von NVidia aufnehmen soll?

Winter[Raven]
2016-06-01, 09:18:28
Persönlich gesagt, finde ich die Vorstellung peinlich.... Aus Marketing ein Desaster... Nimm zwei wenn du 1080 Perf. haben willst, mit all den Nachteilen eines Multi-Gpu? Doom vorführen mit nicht allen Einstellungen am Anschlag und sich dabei auch noch erwischen lassen?

Alles in allem wird die Karte bestimmt seine Käufer finden, aber die Masse wird zu Nvidia greifen.

MR2
2016-06-01, 09:18:42
Gibts dann die Überschrift "GTX 980 Leistung zum halben Preis"? ;)

Genau das ging mir heute auch durch den Kopf :biggrin:

Wixi
2016-06-01, 09:19:37
Lustiges Video mit Linus und Raja. Man sieht auch die Karte nochmal genauer. "less than 150W"

https://www.youtube.com/watch?v=eqCo0LTUhsE

MadPenguin
2016-06-01, 09:21:04
Genau das ging mir heute auch durch den Kopf :biggrin:

Passiert sicherlich nicht. Es reicht anzusehen, welche Spiele sie zum Testen der 1070 hergenommen haben. :freak:

edit: darf ich euch sagen, was mir auch noch besonders am Referenzdesign gefällt? Die Möglichkeit einer custom Deckplatte :D (Nerd,Nerd komm raus!)

scully1234
2016-06-01, 09:22:49
Hier wird mehrfach die 980 Ti genannt, wurden die direkt verglichen? Was gab es für infos, ist es realistisch, dass p10 gm200 erreicht oder ist das nur in AotS so?


According to multiple editors (who took part in Polaris Tech Day) Radeon RX 480 would offer performance between GeForce GTX 970 and GTX 980 (http://videocardz.com/60780/amd-announces-radeon-rx-480).

...

HOT
2016-06-01, 09:23:16
Mythos;11052304']Daher schrieb ich ja, die kleinste P10 Variante kommt mit 4 Gb Ram und knapp über 5 Tflops, die restlichen dann mit 8 GB GDDR5 und zwischen 5 und 6 Tflops, das sagt meine Glaskugel. :D

Jo für P10 pro.

-/\-CruNcher-/\-
2016-06-01, 09:23:16
Preis ist gut, aber mit 150 Watt TDP nicht auf Effizienz getrimmt im Vergleich zur GTX 1070.
Wie will das AMD denn schaffen mit einem größeren Chip, der es mit den Performance-Karten von NVidia aufnehmen soll?

Sie liegt im gleichen Effizienzbereich TDP ist fast identlisch mit der 1070 wir brauchen Igor seine tests allerdings noch die wollte Nvidia aber nicht zulassen diesmal (totale panik reaktionen).

MikePayne
2016-06-01, 09:24:27
;11052308']Persönlich gesagt, finde ich die Vorstellung peinlich.... Aus Marketing ein Desaster... Nimm zwei wenn du 1080 Perf. haben willst, mit all den Nachteilen eines Multi-Gpu? Doom vorführen mit nicht allen Einstellungen am Anschlag und sich dabei auch noch erwischen lassen?

Alles in allem wird die Karte bestimmt seine Käufer finden, aber die Masse wird zu Nvidia greifen.


:rolleyes:
Die Masse zahlt wahrscheinlich eher nicht 400-800€, sondern eben 200-250€!

iuno
2016-06-01, 09:31:28
Preis ist gut, aber mit 150 Watt TDP nicht auf Effizienz getrimmt im Vergleich zur GTX 1070.
Wie will das AMD denn schaffen mit einem größeren Chip, der es mit den Performance-Karten von NVidia aufnehmen soll?
Zunaechst mal darf man anerkennen, dass der Vorsprung deutlich eingegangen ist. Zumindest solange, bis Nvidia keine 1060 raushaut, die vielleicht nur 80 Watt braucht und gleich schnell ist.
Mit Polaris wird der Takt bei GDDR5 voll ausgefahren, auf 4 GHz. Das ist voellig neues Terrain fuer AMD, die eher in die Breite bei niedrigeren Takten gegangen sind. Vielleicht brauchen die MCs auch unverhaeltnismaessig viel Strom. Bei den Taktraten fuer den Chip sieht es ja aehnlich aus.

Vega wird weitere Verbesserungen gegenueber Polaris haben und zudem HBM. Wenn Vega dann wieder mehr SP hat als die Konkurrenz kann man vielleicht auch niedriger Takten und man hat schon Erfahrung mit HBM. Nvidias GP100 sieht mit 300 Watt da ueberigens auch alles andere als gut aus. Es ist also voellig unangebracht, da jetzt schon schlechte Stimmung zu verbreiten ;)

mironicus
2016-06-01, 09:36:15
Bin noch ein wenig misstrauisch bei AMD im Bereich Effizienz/Stromverbrauch. Da gibt es einiges aufzuholen.

deekey777
2016-06-01, 09:38:32
Wie ich schon vermutet habe: RV770 ist wieder da.

[MK2]Mythos
2016-06-01, 09:40:06
Alles unter 150 W TDP ist doch nun mittlerweile lächerlich wenig im Desktop Bereich, da sollte man meiner Meinung nach doch eher auf alles andere Wert legen.

-/\-CruNcher-/\-
2016-06-01, 09:40:55
Bin noch ein wenig misstrauisch bei AMD im Bereich Effizienz/Stromverbrauch. Da gibt es einiges aufzuholen.

Du bekommst aber auch garnichts mit das haben sie fast mit der Nano schon erreicht gehabt.

Auch darf nicht vergessen werden wie extreme abhängig Nvidia von ihren Shadern ist und bei VR zusätzlich jetzt noch der Vr Audio load hinzukommt wärend es bei AMD über den DSP läuft ;)

Hübie
2016-06-01, 09:41:33
Der Schwachsinn wird zuerst deaktiviert. ;)

Selber Schuld wenn man sich grafisch so einschränken muss. :tongue:

MikePayne
2016-06-01, 09:41:39
Kurze Zwischenfrage:

Gibt es Spiele, welche bei 1080p/1440p + max Settings & AA nicht einwandfrei mit dieser R480 für 200€+ laufen würden?

Winter[Raven]
2016-06-01, 09:41:41
:rolleyes:
Die Masse zahlt wahrscheinlich eher nicht 400-800€, sondern eben 200-250€!

Genau, und weil man mit der Masse das Geld macht, sehen die Quartalsergebnisse so "Toll" aus...

MikePayne
2016-06-01, 09:44:09
;11052348']Genau, und weil man mit der Masse das Geld macht, sehen die Quartalsergebnisse so "Toll" aus...

Mich interessiert das kaufbare Produkt, nicht die Quartalszahlen.
Außerdem wird somit klar der Marktanteil gesteigert.

iuno
2016-06-01, 09:44:47
Gibt es Spiele, welche bei 1080p/1440p + max Settings & AA nicht einwandfrei mit dieser R480 für 200€+ laufen würden?
1440p, max. Settings und AA? Klare Antwort: ja.
Zumindest, wenn du nicht mit 30 FPS zufrieden bist. Und es kommen ja laufend fordernde Spiele nach ;)

;11052348']Genau, und weil man mit der Masse das Geld macht, sehen die Quartalsergebnisse so "Toll" aus...
Troll?
Du weisst schon, das auf eine verkaufte Radeon aktuell etwa drei(!) GTX kommen? :facepalm:

MikePayne
2016-06-01, 09:45:46
1440p, max. Settings und AA? Klare Antwort: ja.
Zumindest, wenn du nicht mit 30 FPS zufrieden bist. Und es kommen ja laufend fordernde Spiele nach ;)

Beispiele? Mindestens 60fps sollten es schon sein

-/\-CruNcher-/\-
2016-06-01, 09:46:06
Selber Schuld wenn man sich grafisch so einschränken muss. :tongue:

Tut man das wirklich hmm glaube ich nicht es gibt genug ausreichende solutions die nicht eine IHV struktur begünstigen.

Und dank den Konsolen kommen immer mehr AMD optimierte hinzu ;)

Bin echt gespannt ob Bethesda Nvidia Volumetrics in den Griff auf der PS4 bekommt sehe da keine Chance ausser die Qualität runter durch meine eigenen tests ;)

Ätznatron
2016-06-01, 09:48:01
Kurze Zwischenfrage:

Gibt es Spiele, welche bei 1080p/1440p + max Settings & AA nicht einwandfrei mit dieser R480 für 200€+ laufen würden?

Ich bezweifel, dass es selbst die derzeitigen Enthusiastenkarten schaffen, jedes Spiel mit diesen Settings einwandfrei laufen zu lassen.

Complicated
2016-06-01, 09:49:33
;11052348']Genau, und weil man mit der Masse das Geld macht, sehen die Quartalsergebnisse so "Toll" aus...
Ja das sieht man an steigenden Marktanteilen zwei Quartale hintereinander:
Doch trotz den schrumpfenden Marktes soll AMD seinen Anteil bei den diskreten GPUs auf 29,4 Prozent gesteigert haben, was einem Plus von 3,2 Prozent zum Quartal zuvor entspricht. Bei den Desktop-Grafikkarten soll der Marktanteil bei nun 22,7 Prozent liegen, was nur einem Plus von 1,8 Prozent entspricht. Besser läuft es im mobilen Segment, auf dem AMD nun auf 38,7 Prozent kommt – eine Steigerung um 7,3 Prozent.

MikePayne
2016-06-01, 09:50:03
Ich bezweifel, dass es selbst die derzeitigen Enthusiastenkarten schaffen, jedes Spiel mit diesen Settings einwandfrei laufen zu lassen.

Okay. Das überrascht mich tatsächlich. Bein aber auch kein AAA-Titel Gamer...

Jupiter
2016-06-01, 09:50:39
The Division jedenfalls nicht. Da hast du vielleicht 30fps in FullHD.

Die Karte scheint sehr gut zu sein. Jetzt habe ich weniger Lust darauf, mir eine der beiden neuen nVidia-Karten zu kaufen.

mironicus
2016-06-01, 09:50:40
Du bekommst aber auch garnichts mit das haben sie fast mit der Nano schon erreicht gehabt.

Einen teuren Highendchip zu untervolten und zu limitieren... der Ansatz überzeugt mich nicht. :freak:

Complicated
2016-06-01, 09:53:57
Und wie sonst bekommt Nvidia, oder jeder beliebige andere Hersteller, den Sweetspot bei der Effizienz hin? Welchen Ansatz haben die gewählt?

Arcanoxer
2016-06-01, 09:55:30
Schade das Polaris nicht schnell genug ist um die Preise von der GTX1070/GTX1080 zu drücken.

Ohne cherrypicker Benchmarks (AoS) und Doom mit selektierten Settings wird sich das Bild sowieso noch mal weiter verschieben.

-/\-CruNcher-/\-
2016-06-01, 09:55:48
Da gab es mehr Ansätze als wie nur das, aber wie ein vorredner schon sagte es wird spannend wie Nvidia mit der GTX 1060 reagiert sie wissen das sie AMDs Ökosystem stoppen müssen auf dauer wird GameWorks nicht durchhalten.

Botcruscher
2016-06-01, 09:57:20
Und da ist der 200€ Kracher. Das Ding wird bei den OEMs weg gehen wie warme Semmeln.

Schade das Polaris nicht schnell genug ist um die Preise von der GTX1070/GTX1080 zu drücken.

Auf die 1070 wird es ganz sicher Auswirkungen haben. Ansonsten werden wir die Zeit bis Vega auch noch locker überstehen.

Ja, aber höchstens im Abverkauf, P10 ist neu.
Meine Glaskugel war besser^^. Polaris ist ein reinrassiger Performancechip und wir haben einen neuen Prozess. 14nm ist die einzige Unbekannte. Schau dir an wo Trinidad Pro auf der 370 steht. Der fängt bei 120€ an. AMD hat also genug Spielraum für die 14nm Mehrkosten und den Speicher. Jetzt fehlt nur noch Masse, Masse und Masse.

radical83
2016-06-01, 09:59:41
Bei der 480 gibt es doch nur einen 6-Pin-Anschluss. Somit sollte (ich weiß, ist graue Theorie) bei max. 150W Schluss sein. Möglicherweise liegt der reelle Spieleverbrauch noch ein gutes Stück drunter.
Selbst meine 270X hat noch einen 8-Pin und diese lässt sich in einem engen HTPC leise und Problemlos kühlen.

Wo ich noch skeptisch bin, ist die Leistung an sich. Knapp über der 5 TFlops ist für den ausgerufenen Preis natürlich super, jedoch ist es auch nicht mehr als eine 390/290.
Was wird AMD den Hawaii/Grenada Besitzern in Zukunft als Upgrade Möglichkeit bieten?
Vega hätte ich bislang immer in einem Preisbereich ab 500,- € eingeschätzt. Da würde noch eine ziemlich große Lücke bleiben.

iuno
2016-06-01, 10:00:12
Wie sehr haengt eigentlich AotS an der Speicherbandbreite?
Kann jemand der das Spiel und Hawaii hat das Spiel mal mit weniger Speichertakt testen?

Armaq
2016-06-01, 10:00:57
Alles richtig gemacht. Absoluter Kampfpreis und sich selbst mal die Marschroute Marktanteile wirklich in die DNA gebrannt. Die Tests zum Monatsende freuen mich schon. Es wird auf jeden Fall wieder einen echten Wettbewerb geben. Die großen Chips zu Weihnachten werden locker 25% preiswerter als ohne diese Ansage (ausgenommen natürlich alles ist Fake).

Ich hoffe dafür bekommt AMD dann auch die richtige Presse...

herp_derp
2016-06-01, 10:03:26
Wie soll man die geringe Auslastung im Crossfire-Benchmark gegen die 1080 interpretieren? Ist da das CPU-Limit erreicht?

Noebbie
2016-06-01, 10:04:20
Noch 4 Wochen warten. :(

Das Teil ist sowas von gekauft!