Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

herp_derp
2016-06-12, 15:12:20
Selbst wenn es technisch kein Problem ist, stell dir vor wie alle wieder über AMD-Heizungen lästern.

Tamagothi
2016-06-12, 15:14:36
Effizienz Leidet extrem darunter.

Kühler -> weniger Verbrauch -> Höherer Takt -> mehr FPS

maximus_hertus
2016-06-12, 15:18:29
Effizienz Leidet extrem darunter.

Kühler -> weniger Verbrauch -> Höherer Takt -> mehr FPS

Warum wird dann nicht bei 80 Grad "massiv" gemeckert? IMO sind in Zeiten von Waküs alles oberhalb von 50-60 Grad nicht wirklich gut.

krissbay
2016-06-12, 15:20:31
Warum sind 80-85 Grad gut und 90-95 Grad ein "Problem"? Ernst gemeinte Frage.

Weil
- es ist für das Produktimage schlecht .
- der Chip verbraucht mehr Strom mit der steigenden Temperatur.
- Kein Raum mehr für Overclocking.
- mehr Lärm
- Komplexere Kühllösung

maximus_hertus
2016-06-12, 15:23:43
Weil
- es ist für das Produktimage schlecht .

Das stimmt, auch wenn es nicht wirklich logisch ist.


- der Chip verbraucht mehr Strom mit der steigenden Temperatur.

Die Frage ist halt, ob der Unterschied zwischen z.B. 83 Grad und 93 Grad wirklich groß ist?


- Kein Raum mehr für Overclocking.

Inwiefern? Gibt es für OC eine Tempgrenze? Was ist mit Customkühlern / Wakü?


- mehr Lärm

Ist nicht das genaue Gegenteil der Fall? Mehr Lärm für niedrigere Temps?

-/\-CruNcher-/\-
2016-06-12, 15:32:27
14 nm hitzen sich nunmal schneller auf als wie 16 nm ;)
Die Frage ist doch was Globalfoundries als sicher für X Jahre ansieht ;)

Aber das was da bei Firestrike abgeht ist ja noch nicht die Maximalbelastung die würde man ja erst mit True Audio + UVD/VCE und 3D + Async Compute gleichzeitig erreichen.

Die tests führe ich in meinem Nvidia Treiber Stabilitätstest immer durch alles Synchron und mit voller Belastung.

Denke mal AMD wird so ein Szenario durchaus berücksichtigen immerhin ist es möglich.

AlphaNUSS
2016-06-12, 15:42:08
Weil
- es ist für das Produktimage schlecht .


Ich glaube, das ist der einzige Punkt, der wirklich dagegen spricht. Wenn die 480 wirklich mit 95° läuft, heißt es wieder "wenn du eine AMD Karte hast, brennt dir das Haus ab".

Schnoesel
2016-06-12, 15:51:42
Halten wir einfach mal fest was wir schon sicher wissen:
- Zu laut
- Zu heiß
- Zu langsam
- zu teuer fürs gebotene
- OC Krüppel

... hab ich was vergessen?

Kriegsgeier
2016-06-12, 15:58:56
Ich glaube die Karte im Video ist voll übertaktet, deshalb so warm...

Hakim
2016-06-12, 15:59:36
oder und wahrscheinlicher, es ist gar keine 480? Was spricht dagegen die Cam 2 sek mal auf die Karte zu halten?

Kriegsgeier
2016-06-12, 16:00:50
Denke nicht, dass man soviel Aufwand treiben will...
Wozu? Der Filmer hält es einfach nicht für nötig...

Hakim
2016-06-12, 16:06:56
Wozu? Um die Glaubwürdigkeit zu steigern und einen Fake auszuschließen? Und was spricht dagegen die Karte kurz zu filmen?

Trap
2016-06-12, 16:11:04
Wozu? Um die Glaubwürdigkeit zu steigern und einen Fake auszuschließen? Und was spricht dagegen die Karte kurz zu filmen?
Wenn er das gemacht hätte wären hier nur die Hälfte der Postings. Karte nicht zeigen => bessere publicity.

Sunrise
2016-06-12, 16:30:36
Diese hohen Temperaturen ab Werk bei P10 ergeben überhaupt mal garkeinen Sinn. Das wäre nochmal schlimmer als Hawaii und der Spruch "Hawaii wurde so designed, mit einer Normtemperatur von ca. 85 Grad C " war schon damals Quatsch. AMD hatte Hawaii einfach nur so stark ans Chip-Limit gefahren, dass daraus ein Ofen mit extrem schlechter Effizienz wurde, wo das Kühlsystem zudem noch Mühe und Not hatte das wegzukühlen. Hätten sie Hawaii etwas größer gemacht und dafür die Takte gesenkt wäre das besser gewesen.

P10 ist aber ein auf Effizienz getrimmter Midrange-Performance-Chip, warum bitte sollte der auf 90-95 Grad C laufen?

Da wird jemand den Kühler übers Limit gefahren haben oder es ist ein Bug in der Lüftersteuerung von einem Pre-Release BIOS.

Theoretisch könnte man natürlich massiv am Kühlsystem sparen und den Throttle-Point so hoch setzen, dass der Kühler erst spät wenig abführen muss und eine hohe Temperatur "normal" ist. Das wäre aber ein ziemliches Armutszeugnis.

d2kx
2016-06-12, 16:40:14
Schaut gut aus!

Schaut noch besser aus, wenn Lisa Su eine RX 480 in 28 Stunden in die Kamera hält!

Schnoesel
2016-06-12, 16:54:57
Ich hoffe da kommt noch etwas mehr als nur der Kamerashot ;-) Den hatten wir ja schon.

Achill
2016-06-12, 16:55:27
Schaut noch besser aus, wenn Lisa Su eine RX 480 in 28 Stunden in die Kamera hält!

Immer diese Spoiler ... ;) ... Freu mich auf ein paar Infos & Bilder, auch wenn ich auf den großen Vega weiter warte.

Screemer
2016-06-12, 18:04:23
Ich hoffe da kommt noch etwas mehr als nur der Kamerashot ;-) Den hatten wir ja schon.
Vielleicht gibts ja wieder ein Papiertäschchen im Freien Fall ;)

Thomas Gräf
2016-06-12, 18:05:24
Halten wir einfach mal fest was wir schon sicher wissen:
- Zu laut
- Zu heiß
- Zu langsam
- zu teuer fürs gebotene
- OC Krüppel

... hab ich was vergessen?

Ja, zu einer richtigen Radeon gehört noch ein mieser Trei... :biggrin:

Ailuros
2016-06-12, 18:27:38
Wenn AMD bald in Masse liefern kann, bin ich mal gespannt, ob bei AMD die Erfahrungen ausreichen. :P

Im Ernst: War auch nicht ausschließlich auf dich gemünzt, nur wenn du dir mal die Preise für die FE bei Geizhals anschaust, dann ist doch klar, dass NV hier Preise verlangt, die einfach nur völlig aus der Luft gegriffen sind und vom Preisbereich die 980 Ti ersetzen sollen, jedoch haben sie eben aktuell dort auch keine Konkurrenz und 8GB reichen für 99% der Fälle auch aus.

Denn wenn AMD für die RX480 schon so tiefe Preise fährt, wird NV gehörig Druck bei den anderen GPUs bekommen und irgendwie reagieren müssen, was ja vor Jahren auch schon so war, es war eben deutlich gesünder für alle, als AMD/ATi noch mehr Marktanteile hatte und NV da nicht einfach die Preise irgendwo hinsetzt wo es ihnen passt.

Wie oft haben manche hier in den fora erwaehnt dass FF am Anfang ziemlich teuer sein wird und es mal wieder etwas dauern wird bis sich Preise normalisieren?

Wuerde das obrige NICHT auch bis zu gewissem Mass AMD betreffen haetten sie die Regale schon Monate vor NVIDIA ueberschwemmt wie es so manche Webseiten vor etlicher Zeit behaupteten. Klar deckt NV die verdammt geringe Verfuegbarkeit mit sehr hohen Preisen, aber sie sind mit einem groesseren die immer noch frueher da und verkaufen auch jeden Fetzen trotz Wucherpreisen.

Bis zum Punkt wo AMD wirklich den Markt ueberschwemmen kann mit Polaris SKUs und es kein ueberdurchschnittliches Problem gibt die Nachfrage zu decken, hat eine solche Debatte auch noch keinen Zweck. Es waere kinderleicht zu behaupten dass yields unter FF Prozessen in der Zwischenzeit blendend sind, nur fehlen momentan immer noch selbst die Indizien dafuer.

BlacKi
2016-06-12, 18:29:23
Weil
- es ist für das Produktimage schlecht .
- der Chip verbraucht mehr Strom mit der steigenden Temperatur.
- Kein Raum mehr für Overclocking.
- mehr Lärm
- Komplexere Kühllösung
bei den ersten beiden punkten geb ich dir recht, aber bei den anderen hast du grundsätzlich erstmal unrecht.

ein hohes temp target bedeutet nicht das die taktrate zwangsweiße sinkt. was die lautstärke angeht ist es sogar gegenteilig richtig. umso heißer der chip umso einfacher und leiser kann man die wärme abführen, weil die temperatur differenz zwischen hitzequelle größer ist. die kühllösung konnte bei der referenz 290x nur deshalb so einfach gewählt werden weil das temperatur target bei 94° lag. wenn ein niedrigeres target gewählt worden wäre sie entweder lauter oder hätte eine komplexere kühlung benötigt.

StefanV
2016-06-12, 18:32:41
Ich würde auf jeden Fall mit machen :ugly:

Ansonsten ist doch klar, warum ihr so wenig Zeit bekommt. Es ist im Allgemeinen leider viel zu gefährlich der Preisse oder sonst jemandem genug Zeit zu geben, weil es eben Leaks gibt...

Alle tragen also den Schaden dafür, das sich einige Bereichern/Aufspielen....
Genau, weil dann die Presseleute erst einmal zu 'ihrem' Lieblingshersteller rennen und mit den Zahlen hausieren gehen...

Wobei ich auch nicht verstehe, warum AMD auch gerade bestimmten Leuten Karten gibt und neutraleren Leuten eher nicht...

StefanV
2016-06-12, 18:34:50
89 Grad fü die GPU im Volllast wäre zu viel und AMD würde so eine Karte nicht releasen.
Warum?!
Verstehe nicht, warum hier immer so sehr auf den Temperaturen rumgeritten wird, insbesondere da das bei GP104 bisher auch nicht interessiert hat...

Hier, Link:
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-pascal,4572-11.html

d2kx
2016-06-12, 18:40:13
http://blogs-images.forbes.com/jasonevangelho/files/2016/06/AMD-Uprising-2.jpg

#BETTERRED

Exclusive: How AMD's 'The Uprising' Ad Campaign Will Incite A Radeon Rebellion (http://www.forbes.com/sites/jasonevangelho/2016/06/12/exclusive-amds-radeon-uprising-campaign-incites-gpu-rebellion)
Forbes.com

Troyan
2016-06-12, 18:43:09
Du könntest auf den entsprechenden Forbes-Artikel verlinken: http://videocardz.com/61007/amd-wants-gamers-to-start-the-uprising

maximus_hertus
2016-06-12, 18:47:10
Nun ja, "Revolution" bei ca. R9 390 Leistung? Sicherlich, das Paket aus Performance, Stromverbrauch, wohl auch Lautstärke, "Zukunftssicherheit" und Preis ist wohl das Beste von allen (aktuellen) Karten, aber ob das reichen wird?

krissbay
2016-06-12, 18:59:03
Warum?!
Verstehe nicht, warum hier immer so sehr auf den Temperaturen rumgeritten wird, insbesondere da das bei GP104 bisher auch nicht interessiert hat...


Stefan hier geht es um das Image des Produkts. AMDs Grafikkarten haben das Image von Produkte, die viel Strom verbrauchen und im Sommer Zimmer heißer machen.
Objektiv gesehen sollte man sich keine Gedanken um die Temp. machen solange sie innerhalb des spezifizierten raum des Herstellers liegen aber dass Nvidia z.B. 2-3 Mal mehr Gtx 970 als R9 390 verkauft hat liegt nicht an der objektiven Leistung sondern an der subjektiven Wahrnehmung des Produkts.

d2kx
2016-06-12, 19:01:22
Stefan hier geht es um das Image des Produkts. AMDs Grafikkarten haben das Image von Produkte, die viel Strom verbrauchen und im Sommer Zimmer heißer machen.


Stimmt, daher:

AMD wants to pepper the streets with these posters. They’ll be doing AMAs and giving consumers direct access to Raja Koduri and other executives, not just PR and marketing people. They’ll be personally reaching out to their dissenters on forums and Reddit and saying “I know you think we make hot and loud graphics cards, but that’s all changed now.”

BlacKi
2016-06-12, 19:05:03
Stimmt, daher:
nur solange bis man wieder die schnellste gpu am markt produzieren will... aber so ist halt marketing.

Schnoesel
2016-06-12, 19:24:18
Nun ja, "Revolution" bei ca. R9 390 Leistung? Sicherlich, das Paket aus Performance, Stromverbrauch, wohl auch Lautstärke, "Zukunftssicherheit" und Preis ist wohl das Beste von allen (aktuellen) Karten, aber ob das reichen wird?

Hört sich etwas wie die Volksgrafikkarte an. Ich hoffe AMD konzentriert sich nicht zu sehr auf VR, denn neben der Karte will auch noch die Brille bezahlt werden und die ist ebenfalls sehr teuer, daher sehe ich VR auch noch nicht als massentauglich. AMD darf die normalen Gamer nicht vergessen.

Screemer
2016-06-12, 19:25:31
Warum bleibt ihr trolle eigentlich nicht in den grünen Löchern aus denen ihr ständig kriecht? Im amd help sub sinds die unzähligen Hatergäste und hier eben die registrierten fanboiis.

Rabiata
2016-06-12, 19:31:46
Stefan hier geht es um das Image des Produkts. AMDs Grafikkarten haben das Image von Produkte, die viel Strom verbrauchen und im Sommer Zimmer heißer machen.
Objektiv gesehen sollte man sich keine Gedanken um die Temp. machen solange sie innerhalb des spezifizierten raum des Herstellers liegen aber dass Nvidia z.B. 2-3 Mal mehr Gtx 970 als R9 390 verkauft hat liegt nicht an der objektiven Leistung sondern an der subjektiven Wahrnehmung des Produkts.
In letzter Zeit war das "heiße" Image leider berechtigt. Ausnahme war die Fury Nano, die im Stromverbrauch nur knapp über der GTX 980 lag. Ansonsten haben AMD-Karten mehr verbraucht als die Nvidia-Gegenstücke.

Edit:
Die Fury Nano beweist daß AMD auch sparsam kann. Hoffentlich legen sie in Zukunft etwas mehr Wert darauf.

krissbay
2016-06-12, 19:32:06
Hört sich etwas wie die Volksgrafikkarte an. Ich hoffe AMD konzentriert sich nicht zu sehr auf VR, denn neben der Karte will auch noch die Brille bezahlt werden und die ist ebenfalls sehr teuer, daher sehe ich VR auch noch nicht als massentauglich. AMD darf die normalen Gamer nicht vergessen.

Das mit der VR ist mMn. Schwachsinn. Wer nur genug Geld hat um sich eine 200€ Grafikkarte zu kaufen wird sich ein 600€ Occulus Rift nicht leisten können.

Mortalvision
2016-06-12, 19:40:28
Jein, die Investition in ein VR-Headset scheint eher eine langfristige Investition zu werden über die nächsten 3-5 Jahre. In dem Zeitraum tauscht man mindestens einmal die Grafikkarte. Und außerdem hat das Teil nach der Zeit evtl. immer noch einen guten Wiederverkaufswert, anders als eine GPU...

Hakim
2016-06-12, 19:47:17
Die haben soviel über VR gesprochen als sie Polaris gezeigt haben, denke die Karten werden sowas wie SMP wie bei NVidia haben, sonst wäre das auch PR mäßig nicht so pralle wenn die Konkurrenz bei VR deutlich schneller wäre.

MadPenguin
2016-06-12, 20:05:26
http://www.3dmark.com/3dm11/11168140

Polaris 10 CF

y33H@
2016-06-12, 20:06:11
Genau, weil dann die Presseleute erst einmal zu 'ihrem' Lieblingshersteller rennen und mit den Zahlen hausieren gehen...Immer wieder spannend was du dir aus den Fingern saugst ;D

Elkinator
2016-06-12, 20:16:38
Warum sollte AMD selbst in ein VR-Headset investieren?

AMD entwickelt CPUs, APUs und GPUs und VR-Headsets kümmern sich andere.
Man wird vielleicht einen Hersteller unterstützen, so wie sie es bei HBM getan haben, aber man wird sicher kein eigenes System auf den Markt bringen.

Hakim
2016-06-12, 20:19:19
Warum sollte AMD selbst in ein VR-Headset investieren?

AMD entwickelt CPUs, APUs und GPUs und VR-Headsets kümmern sich andere.
Man wird vielleicht einen Hersteller unterstützen, so wie sie es bei HBM getan haben, aber man wird sicher kein eigenes System auf den Markt bringen.

das macht doch NVidia auch nicht, es geht einfach um Features die bei Berechnung von VR Darstellung sparen und dadurch schneller sind

-/\-CruNcher-/\-
2016-06-12, 20:19:58
Warum?!
Verstehe nicht, warum hier immer so sehr auf den Temperaturen rumgeritten wird, insbesondere da das bei GP104 bisher auch nicht interessiert hat...

Hier, Link:
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-1080-pascal,4572-11.html

Übrigens die 85 sind ideale laborwerte einer Presse Karte user hier haben selbst schon 90 erreicht und das mit der Retail faunders edition so gesehen sind es wenn dann momentan +5 mehr bei Polaris in einem nicht laboraufbau sollte man auch nicht vergessen ;)

nur solange bis man wieder die schnellste gpu am markt produzieren will... aber so ist halt marketing.

Ja sicher aber Nvidia war am Zug hat ihr Ökosystem aufgebaut nun ist AMD dran teils mit vielen ex Nvidianern aus verschiedenen Positionen an Board was extreme nice ist, und so viel hat Nvidia damals nicht ohne ein NDA zu unterschreiben geöffnet wie AMD Heute :)

das macht doch NVidia auch nicht, es geht einfach um Features die bei Berechnung von VR Darstellung sparen und dadurch schneller sind

Es geht auch um Optische geschichten Hardware mit Software Support spätestens seit G-sync sollte man gemerkt haben das Nvidia ihr Research auch in andere Hardware vermarktet, wenn es ihrem gesammt Ökosystem von nutzen ist.

BlacKi
2016-06-12, 20:22:29
Edit:
Die Fury Nano beweist daß AMD auch sparsam kann. Hoffentlich legen sie in Zukunft etwas mehr Wert darauf.
die nano ist aber auch nur eine stinknormale fiji karte, hätte amd reserven gehabt den takt senken zu können, dann wären alle amd karten in der vergangenheit sparsamer und kühler.

es hilft ja amd nicht wenn man den takt senkt und dann die karte nochmals billiger verkaufen muss.

G3cko
2016-06-12, 20:37:26
Dank DirektX 12 oder Vulcan bekommt man die Karten nun auch ausgelastet. Damit wäre das Problem auch vom Tisch.

Isen
2016-06-12, 20:51:14
Mach mal Urlaub dort, in der Zeit der Messen. Sehr lustig was unsere DE/Westliche-Presse da macht ;-)
Klatschen tun sie besonders :D

Rabiata
2016-06-12, 20:55:12
die nano ist aber auch nur eine stinknormale fiji karte, hätte amd reserven gehabt den takt senken zu können, dann wären alle amd karten in der vergangenheit sparsamer und kühler.

es hilft ja amd nicht wenn man den takt senkt und dann die karte nochmals billiger verkaufen muss.
Die Fury Nano war nur wenig langsamer als die normale Fury. Meiner Meinung ein sinnvoller Kompromiß, etwas Takt zu opfern und dafür wesentlich sparsamer zu sein.

AMD eiert da etwas hin und her:
Die HD 7xxx Serie war zunächst relativ sparsam, dann hat AMD mit den "GHz Editionen" und den Rx 2xx Serie Takt und Performance hochgeschraubt und dafür auch mehr Leistung verbraten.

Jetzt geht der Trend offenbar wieder zu sparsameren Karten. Ich hoffe daß diese noch verfügbar sind, bis mein nächster PC mit Zen ansteht :wink:.

BlacKi
2016-06-12, 20:59:50
geht halt nur wenn man konkurenzfähig, konkurenzlos, oder eine nische ausfüllt. auf die 480 trifft das derzeit zu. mit vega ist das noch nicht sicher, auch wenn es dank hbm2 gut aussieht.

Isen
2016-06-12, 21:02:37
Nische @480 - erläutere das mal... bei dem Preis und Platzierung erfüllt die den Massenmarkt. Alles andere als eine Nische.

BlacKi
2016-06-12, 21:26:02
Nische @480 - erläutere das mal... bei dem Preis und Platzierung erfüllt die den Massenmarkt. Alles andere als eine Nische.
derzeit aber konkurenzlos in dem bereich das wollte ich sagen ;)

Dural
2016-06-12, 21:49:48
Derzeit, derzeit ist die rx480 noch gar nichts ;)

Und es würde mich nicht mal überraschen wenn nv amd noch zuvor kommt. Im juli wird nv jedenfalls abliefern, da bin ich mir sicher.

horn 12
2016-06-12, 22:04:18
Vergiss es, Ende Juli - bis Mitte August frühestens!
Die Karten sollte Ende dieser kommenden Woche kaufbar sein, in gut 24 Stunden ist die Gaming Show.

[MK2]Mythos
2016-06-12, 22:09:06
Vergiss es, Ende Juli - bis Mitte August frühestens!
Die Karten sollte Ende dieser kommenden Woche kaufbar sein, in gut 24 Stunden ist die Gaming Show.
Wie kommst du bitte darauf? Das NDA ist nicht aus Spaß bis zum 29.6 gesetzt.

Nakai
2016-06-12, 22:14:03
Boah, beruhigt euch erstmal.


Es ist doch egal, wann die Karte kommt, aber Mitte 2016 war schon immer angesetzt. Euer Rumgefibbere interessiert AMD kein bisschen.

Ansonsten sind manchen Benches eindeutig und andere abwegig. Weckt jedenfalls Interesse auf mehr.

€: Das Youtube-Video halte ich nicht für authentisch. Womöglich durfte ein Praktikant an einem Marketingprojekt mitwirken. ;D;D;D

Isen
2016-06-12, 22:26:18
Ich übertakte gleich meine 290x auf 1300mhz - Film den Monitor ab mit 3d Mark, Fake den Namen und Poste das bei denen ins Forum.
Das wird nen Spaß :D

in gut 24 Stunden ist die Gaming Show.

11 Stunden 30 Min steht bei mir - also morgen früh um 10 Uhr.

Elkinator
2016-06-12, 22:29:21
Wir wissen aber nicht auf was sich das NDA bezieht.

w0mbat
2016-06-12, 22:31:45
11 Stunden 30 Min steht bei mir - also morgen früh um 10 Uhr.

Ne, morgen Abend um 8 uhr.

Isen
2016-06-12, 22:33:54
Für euch in DE ja.
Vergessen, dass ich via VPN drin bin.
Anzeige spinnt dann bei http://www.pcgamingshow.com/

Screemer
2016-06-12, 23:38:47
Ich übertakte gleich meine 290x auf 1300mhz - Film den Monitor ab mit 3d Mark, Fake den Namen und Poste das bei denen ins Forum.
Das wird nen Spaß :D.
Das würde auch >90°c rechtfertigen ;)

Zergra
2016-06-12, 23:51:46
Oder einfach etwas untertakten, dann weinen alle weil die Leistung net stimmt... :X

Isen
2016-06-13, 00:03:29
@Screemer,

mit dem Stock Kühler auf 1300, kannste knicken.
Aber die Benches von denen sind mit ner 290x. Japp genau das erklärt die 90°c :D

gedi
2016-06-13, 00:15:30
@Screemer,

mit dem Stock Kühler auf 1300, kannste knicken.
Aber die Benches von denen sind mit ner 290x. :D

Nö - könnte ein Auslesefehler vom 3DMark sein.

Isen
2016-06-13, 00:23:35
Wirst es ja sehen. Auslesefehler ist es nicht. Die Trollen nur rum.

gedi
2016-06-13, 00:25:48
Doch, das gleiche Phänomen spielt sich hier bei mir auf dem NB ab.

Z.B. sackt im CPU-Test der Takt und die Auslastung folgerichtig ab, die Temperatur steigt aber weiter.

Die 3.5K halte ich für authentisch und gibt wohl in etwa das wieder, was man von P10 erwarten kann - 980 Custom-Performance. Ich sehe P10 in DX11@1080p für AMD-Verhältnisse ungewöhnlich stark aufgestellt, in DX12 fehlt es P10 allerdings an Bandbreite, um 390x und Fury konkurrieren zu können.

horn 12
2016-06-13, 00:52:07
Nicht mehr allzulange
Bin gespannt was es werden wird und ob man Vega als Köder verwendet mit Preisangabe!

https://twitter.com/AMDGaming

Felixxz2
2016-06-13, 01:40:37
Muss die Performance nicht eig mind. Bei ner 390X liegen? Bei den 1268Mhz hätten beide ca. die selbe Rechenleistung, Polaris aber die effizientere architektur. Die Bandbreite sollte ausreichen, wie nV mit der 1070 zeigt. Einige hier sprechen von 390 Performance, dann hätte P10 eine niedrigere Leistung/GFLOP, was eig garnich sein kann.

gedi
2016-06-13, 01:48:40
Solange die Bandbreite nicht limitiert, wird die 480x vor einer 390x liegen ;)

Elkinator
2016-06-13, 02:12:49
Ihr meint den Durchsatz und schreibt Bandbreite:\

gedi
2016-06-13, 02:16:34
Wo ist der Unterschied bez. des Rams?

Elkinator
2016-06-13, 02:18:49
https://de.wikipedia.org/wiki/Bandbreite
https://de.wikipedia.org/wiki/Datendurchsatz

gedi
2016-06-13, 02:26:33
Deine Links ergeben leider keinen Aufschluss :\

Das was ich meine sind 256GB/s <-> 500GB/s

Elkinator
2016-06-13, 03:02:00
Du meinst den Datendurchsatz.

Bandbreite ist in diesem Zusammenhang eine total falsche Bezeichnung.
Wird leider von fast allen falsch verwendet, kA warum das für viel so schwer ist.

Isen
2016-06-13, 04:40:47
Fake also.
http://puu.sh/ppLaV/8782d6de26.png

Videos aber wohl alle echt - zumindest 2 davon. z.B: https://www.youtube.com/watch?v=i6o5H10TTRI

uweskw
2016-06-13, 06:28:32
Fake also.
http://puu.sh/ppLaV/8782d6de26.png

Videos aber wohl alle echt - zumindest 2 davon. z.B: https://www.youtube.com/watch?v=i6o5H10TTRI

Was genau spricht für die Echtheit des Videos?

greetz
US

Isen
2016-06-13, 06:46:20
Das keine Photoshopped Grütze dabei ist.

Ob es sich aber tatsächlich um die 480 handelt... ist wieder was anderes :D den Score kriegt man jedenfalls mit ner 290x Lightning locker hin.

Foobar2001
2016-06-13, 07:52:41
Ne 290X hat auch die Verlustleistung von nem Backofen.

Unrockstar
2016-06-13, 09:41:15
Ne 290X hat auch die Verlustleistung von nem Backofen.

Na nun übertreibst du aber, so nen Backofen hat mal gut und gerne 3KW Verlustleistung, bissl weniger hat die Radeon dann schon :biggrin:
Der Kühler ist einfach mist gewesen. Was ich aber derzeit bemängel ist dieser Ausgewachsene Fanwar.
Bestes Beispiel die Fury. Die Fury dürfte jetzt schon ein Null Geschäft für AMD sein, warum also Verlust machen? Ich bin mal gespannt ob man Fury EOL laufen lassen wird und bei VEGA auf GDDR5X setzt. Ebenso bin ich mehr als gespannt was PCGamer mit Big Gaming Cards meint. Eventuell ne RX 480 Rage (40CUs) oder gar nen kleinen Vega?
Was ich gut finde, was auch Igor schon herausfand, AMD geht das Powermanagement aggressiver an. Mit Agressiveren Timings würde man wohl auch Hawaii und Fiji effizienter kriegen, wie es ja die Nano zeigt.
Als 7870 Nutzer sind solche Karten in meinem Sweetspot. Unter 300€ sollte machbar sein für ne 8GB Karte, intressant wird sein, wo sich die 1060 einordnet oder ob NVidia Kurzerhand die GP104-200 zur TI macht.

Elkinator
2016-06-13, 09:48:54
Fury und R9 Nano wird man sicher auslaufen lassen, weitere Preissenkungen sidn da echt nicht mehr möglich ohne Verlust zu machen.
Fury X wird wahrscheinlich bis Vega da ist erhalten bleiben und dann auch bald auslaufen.

Noch ca. 10 Stunden:O

Schnoesel
2016-06-13, 10:04:35
Nicht mehr allzulange
Bin gespannt was es werden wird und ob man Vega als Köder verwendet mit Preisangabe!

https://twitter.com/AMDGaming

Also da einzige Interessante auf dem Bild ist die Box von XFX. Scheinbar lässt man einem mehr Wahl bei der Spannung und XFX verbaut 6 VRMs (hoffentlich gekühlt). Falls das die Box einer Rx480 sein soll.

iuno
2016-06-13, 10:31:12
Und 7 Heatpipes, so viel wie deren 390X. Die 380X hat nur 6 ;)
http://cdn.agilitycms.com/xfx/Products/FeatureImages/380explodingsm.png

Da nennen sie aber beide Ghost 3.0, P10 bekommt mit 3.0+ also zumindest namentlich nur eine kleine Ueberarbeitung

edit: war die vermeintliche MSI RX 480 (Lightning?) eigentlich schon hier?
http://www.pcgameshardware.de/screenshots/original/2016/06/MSI-RX-480-Lightning-angeblich-1--pcgh.jpg
http://www.pcgameshardware.de/screenshots/original/2016/06/MSI-RX-480-Lightning-angeblich-2--pcgh.jpg
3 Luefter und 6+8 Pin fuer bis zu 300 Watt :ugly:
Edit2: oh, gefunden war schon auf S. 298 und wurde wohl fuer Fake befunden ;p

tm0975
2016-06-13, 10:47:40
3 Luefter und 6+8 Pin fuer bis zu 300 Watt :ugly:

die sind für 60% OC so wie damals beim K5 ;D

mironicus
2016-06-13, 12:00:10
Vielleicht macht es AMD wie NVidia. Das Referenzdesign schön sparsam, aber die Customs dürfen bis 300 Watt übertaktet werden und laufen stabil über 1500 MHz. :)

MadPenguin
2016-06-13, 12:03:36
Vielleicht macht es AMD wie NVidia. Das Referenzdesign schön sparsam, aber die Customs dürfen bis 300 Watt übertaktet werden und laufen stabil über 1500 MHz. :)

Ich glaube so etwas wurde bereits von AMD selbst angedeutet. Man lässt den Partners sehr viel Raum. Sparsames Referenzdesign <120W ab 199 Dollar für Franz Jedermann und performantere, weniger sparsame 150W+ Custom Designs.

[MK2]Mythos
2016-06-13, 12:04:17
Vielleicht macht es AMD wie NVidia. Das Referenzdesign schön sparsam, aber die Customs dürfen bis 300 Watt übertaktet werden und laufen stabil über 1500 MHz. :)
Mehr als der doppelte Verbrauch für 200 MHz bzw rund 15% mehr Leistung wäre allerdings katastrophal. 😉

iuno
2016-06-13, 12:10:06
Waere schon nett, wenn auch bei AMD endlich wieder ordentlich OC moeglich waere. Sehe das mit dem Speicher aber immer noch etwas kritisch.
Andererseits gab es die 980 OC customs auch mit max. 7.5 Gbps oder so...
Mythos;11065472']Mehr als der doppelte Verbrauch für 200 MHz
Davon redet ja auch keiner. Die MSI 290X Lightning hat 2x8+1x6 Pin und verbraucht ohne weiteren Eingriff auch nur etwas mehr als halb so viel als dadurch moeglich waehre.
Da die ja wirklich derartig ueberdimensioniert sind, denke ich sogar dass die Lightning kein Fake sein muss. So wie ich das sehe, gab es das andere Design da auch nur fuer neuere Nvidias.

Auf der PCGS sind ja quasi nur AMD+Publisher. Meint ihr, dass nach der Vorstellung von AMD auch die Partner ihre Karten dann wenigstens online praesentieren (duerfen)?

Dino-Fossil
2016-06-13, 12:13:33
Ich halte Custom OC Varianten zwar für ne nette Sache, aber wenn sie nicht aufpassen und falls der Stromverbrauch zu sehr durch die Decke geht, brennt sich am Ende nur wieder ein, dass AMD angeblich so ne schlechte Effizienz hat.

Könnte riskant sein, aber so oder so, bin ich gespannt was kommt.

Unrockstar
2016-06-13, 12:44:23
Mythos;11065472']Mehr als der doppelte Verbrauch für 200 MHz bzw rund 15% mehr Leistung wäre allerdings katastrophal. 😉

Wäre schlimm, allerdings möchte ich hier an die Gaming 950er erinnern, die auch nen Verbrauch von Jenseits der 970 hatten und dennoch gut gekauft wurden. Wenn AMD also sagt: 1266MHz bei 120W ist unsere Referenz und man Gaming 480er bringt die 200W verbraten, dann ist es eben wieder das Thema.. Bis wohin ist OC Sinnvoll. Da Polaris aber gut skaliert könnte ich mir eine P10 Lightning schon vorstellen, Sinnvoll ist es allerdings wohl kaum.

iuno
2016-06-13, 12:47:34
Da Polaris aber gut skaliert könnte ich mir eine P10 Lightning schon vorstellen
Alles klar. Und woher kommt diese Unterstellung? :rolleyes:

Dural
2016-06-13, 13:11:04
Aus sicherer quelle erfahren. ;)

Disco_STFU
2016-06-13, 13:39:36
Mythos;11065472']Mehr als der doppelte Verbrauch für 200 MHz bzw rund 15% mehr Leistung wäre allerdings katastrophal. 😉

Wenn ne 1070 mit 2x 8Pin daher kommt meckert komischerweise keiner...

"Boah die hat bestimmt voll die Reserven!!1"

:freak:

Noebbie
2016-06-13, 13:49:17
Meine Vermutung:

Eine default RX 480 wird in den Reviews sehr stromsparend auf 390X Perfomance liegen.

Die OC Modelle der Hersteller sind nach oben hin offen (siehe 6+8pin leak). D.h. das Video mit den 95° könnte ne max übtertaktete 480 gewesen sein.

Daher wohl auch die positiven Gerüchte/Meldungen der Boadpartner.

Pick
2016-06-13, 13:51:53
http://i.piccy.info/i9/f80d7b4d93204edcf02ca74bb31691d2/1465817111/60490/969495/RX480_Cooln_kr_17811_800.jpg

photoshop?

iuno
2016-06-13, 13:54:05
Quelle? Glaubwuerdig?

MadPenguin
2016-06-13, 13:55:26
http://i.piccy.info/i9/f80d7b4d93204edcf02ca74bb31691d2/1465817111/60490/969495/RX480_Cooln_kr_17811_800.jpg

Sollten die Werte stimmen, wäre die P10 für den Preis die Karte schlechthin, gefolgt von der 1070 mit sehr gutem Verhältnis!

Menace
2016-06-13, 13:59:24
Das glaube ich nicht. Fast die Leistung einer Nano bei einem Preis von 230 €? Nee.

soLofox
2016-06-13, 13:59:54
fast 25% mehr leistung durch oc? oha.

MadPenguin
2016-06-13, 14:01:06
Hmmm, schneller als ne 980 mit 1080 core Takt?

maximus_hertus
2016-06-13, 14:01:25
fast 25% mehr leistung durch oc? oha.

Es sind sogar über 28%. Warten wir mal ab. Aber wenn das stimmt, dann ist die Karte sowas von gekauft :)

Edit: Das ist ja fast eine 1:1 Skalierung - 29% mehr Takt, 28% mehr Performance.

Nakai
2016-06-13, 14:14:38
P10 kommt in verschiedenen Ausführungen. Die 1080er Version wird extrem sparsam werden. Man wird aber P10 sehr nach oben skalieren können, falls gewollt. AMD wird eben versuchen die GTX1070 anzukratzen, was auch zu erwarten war.

Zettabit
2016-06-13, 14:14:48
Edit: Das ist ja fast eine 1:1 Skalierung - 29% mehr Takt, 28% mehr Performance.
Und damit entlarvt es sich als Bullshit, Fury->FuryX sind 20% Performanceunterschied und im 3DMark sind es nur 10.

Dural
2016-06-13, 14:20:48
Nur so als info, die 1080Mhz stammen aus einem Fake und wird hier schon wieder für Bares verkauft :rolleyes::rolleyes::rolleyes:

mironicus
2016-06-13, 14:21:02
Schneller als Fury X und 980 Ti (non-OC) für den Preis???

maximus_hertus
2016-06-13, 14:21:14
Und damit entlarvt es sich als Bullshit, Fury->FuryX sind 20% Performanceunterschied und im 3DMark sind es nur 10.

IdR sind es unter 3840x2160 eher 10 - 12% zwischen Fury und Fury X. Also das ist jetzt kein Fake-"Entlarver".

Dino-Fossil
2016-06-13, 14:22:31
Das glaube ich nicht. Fast die Leistung einer Nano bei einem Preis von 230 €? Nee.

Als ob ein einzelner synthetischer Benchmark da ein guter Anhaltspunkt ist.
Wichtiger ist doch, wie die Karten in einer breiten Spieleauswahl abschneiden, daran werden sie sich messen müssen.
In sofern kann das durchaus zutreffen, falls 3DMark P10 gut liegt.

mironicus
2016-06-13, 14:24:57
Und wie limitiert der Speichertakt die Karte? 2000 MHz ist schon recht viel aber da sollte jeder MHz mehr gut sein für Ultra HD. Wie entfesselt wäre die GPU wohl mit HBM?

MadPenguin
2016-06-13, 14:26:13
IdR sind es unter 3840x2160 eher 10 - 12% zwischen Fury und Fury X. Also das ist jetzt kein Fake-"Entlarver".

http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-R9-Nano-Review/3DMark-Fire-Strike-and-Unigine-Heaven
Stimmt.

Es wird lustig werden.

victore99
2016-06-13, 14:27:58
Und wie limitiert der Speichertakt die Karte? 2000 MHz ist schon recht viel aber da sollte jeder MHz mehr gut sein für Ultra HD. Wie entfesselt wäre die GPU wohl mit HBM?
Wir werden mit Vega sehen, hoffentlich entscheidet man sich bei AMD für ein 4096er und ein 6144er IF. Letzteres wäre DAS HPC-Beast schlechthin *träum*

Der_Korken
2016-06-13, 14:29:06
Ich kann mir nicht vorstellen, dass die RX480 so super mit OC abgeht, da sie letztendlich am "langsamen" GDDR5 hängt. Dass man aus dem Chip 28% mehr Takt rausholt als die Referenz, halte ich nicht für unmöglich, der Speicher dürfte mit 8Ghz aber am Ende sein. Um also auf 28% Mehrleistung zu kommen, müsste der Speichertakt bei der Referenz schon arg überdimensioniert sein.

Zettabit
2016-06-13, 14:29:34
IdR sind es unter 3840x2160 eher 10 - 12% zwischen Fury und Fury X. Also das ist jetzt kein Fake-"Entlarver".
10-12% praktischer (!) Unterschied, also im Benchmark. Theoretisch liegen zwischen Fury und FuryX 20% bei der Rechenleistung. Hier sollen bei 29% mehr Rechenleistung (1080->1400) plötzlich 28% Steigerung raus kommen.

OBrian
2016-06-13, 14:31:21
Nur so als info, die 1080Mhz stammen aus einem Fake und wird hier schon wieder für Bares verkauft :rolleyes::rolleyes::rolleyes:
richtig, die einzige echte Angabe zum Takt sind die 1266, die man bei der Präsentation aufm Rechner erkennen konnte. Wobei man da aber auch nicht weiß, ob das der Grundtakt oder der Turbotakt war oder irgendwas dazwischen, was das Programm da gerade ausgelesen hat. Und man weiß nicht, ob das ein Testmodell war, mit anderen Taktraten als die für die Serie finalisierten, oder evtl. ein OC-Modell eines Drittherstellers oder sowas.

Die andere Aussage sind die "über 5 TFLOPS", die einen gewissen Mindesttakt ergeben, aber das ist auch nicht so sonderlich hilfreich.

Dural
2016-06-13, 14:32:13
Wenn man es mit dem Rechner ausrechnet kann das schon mal passieren :freak:

maximus_hertus
2016-06-13, 14:33:11
10-12% praktischer (!) Unterschied, also im Benchmark. Theoretisch liegen zwischen Fury und FuryX 20% bei der Rechenleistung. Hier sollen bei 29% mehr Rechenleistung (1080->1400) plötzlich 28% Steigerung raus kommen.

Die Furys bekommen ja eh selten genug die Leistung auf die Strasse. Ich würde diese jetzt nicht als Referenz nehmen. Warten wir einfach ab. Vielleicht gibt's ja heute Abend neue Infos ;)

mironicus
2016-06-13, 14:41:12
Sollte die Karte das bringen mit OC sehe ich den Preis aber deutlich höher, so 350 Euro für die besseren Custom-OC-Versionen könnte ich mir vorstellen.

Rabiata
2016-06-13, 14:43:07
Ich kann mir nicht vorstellen, dass die RX480 so super mit OC abgeht, da sie letztendlich am "langsamen" GDDR5 hängt. Dass man aus dem Chip 28% mehr Takt rausholt als die Referenz, halte ich nicht für unmöglich, der Speicher dürfte mit 8Ghz aber am Ende sein. Um also auf 28% Mehrleistung zu kommen, müsste der Speichertakt bei der Referenz schon arg überdimensioniert sein.
Der Speicherdurchsatz ist bei 8Ghz mit dem der GTX 1070 identisch. Sofern die RX480 bei Speicherkompression und dergleichen mit der GTX 1070 mithalten kann, sehe ich keinen Grund wieso sie speicherbedingt langsamer sein muß.

Da sehe ich eher den Chip als wahrscheinlichen Flaschenhals.

OBrian
2016-06-13, 14:50:54
Wenn man es mit dem Rechner ausrechnet kann das schon mal passieren :freak:diese 5 TFLOPS haben sie als Angabe ja nur genommen, weil das eine Ganzzahl ist, der passende Takt dazu ist dann optisch nicht so schön glatt, aber es ist eben auch sinnlos, da mit 1080 MHz zu kommen oder wieviel auch immer.

Das ist so eine ähnlich bescheuerte Umrechnung wie in diesen doofen Reportagen mit schlechter Synchronisation, wo dann ein Anwohner in Nebraska erzählt "es fielen über drei Fuß Schnee in wenigen Stunden" und daraus machen die dann "es fielen über 91,5 cm Schnee", das geht an der Aussage eben vorbei, denn der hat das ja nicht gemessen, sondern nur grob geschätzt, also wäre die Angabe "es fiel ein guter Meter" eine sehr viel genauere Übersetzung.

iuno
2016-06-13, 14:54:56
In so einem Benchmark kann OC schon mal annaehernd 1:1 durchschlagen, wenn extern nichts limitiert (Bandbreite, CPU).
Ich verstehe aber nicht, warum der Leaker die TX aus dem Diagramm rausgenommen haette, anstatt die 480 OC einfach einzuschieben

https://i.warosu.org/data/g/img/0550/41/1465742041627.jpghttp://i.piccy.info/i9/f80d7b4d93204edcf02ca74bb31691d2/1465817111/60490/969495/RX480_Cooln_kr_17811_800.jpg

Ravenhearth
2016-06-13, 15:02:59
Ich kann mir nicht vorstellen, dass die RX480 so super mit OC abgeht, da sie letztendlich am "langsamen" GDDR5 hängt. Dass man aus dem Chip 28% mehr Takt rausholt als die Referenz, halte ich nicht für unmöglich, der Speicher dürfte mit 8Ghz aber am Ende sein. Um also auf 28% Mehrleistung zu kommen, müsste der Speichertakt bei der Referenz schon arg überdimensioniert sein.

Der 3DMark ist was Bandbreite angeht relativ unkritisch, da bringt auch VRAM-OC oft kaum etwas.

Rabiata
2016-06-13, 15:03:43
In so einem Benchmark kann OC schon mal annaehernd 1:1 durchschlagen, wenn extern nichts limitiert (Bandbreite, CPU).
Ich verstehe aber nicht, warum der Leaker die TX aus dem Diagramm rausgenommen haette, anstatt die 480 OC einfach einzuschieben

https://i.warosu.org/data/g/img/0550/41/1465742041627.jpghttp://i.piccy.info/i9/f80d7b4d93204edcf02ca74bb31691d2/1465817111/60490/969495/RX480_Cooln_kr_17811_800.jpg
War vielleicht einfacher, die Zeile mit der Titan X zu überschreiben als das halbe Bild nach unten zu verschieben. Quick&Dirty im Leak-Business :biggrin:.

iuno
2016-06-13, 15:08:54
Es waere genauso "einfacher", in der echten Tabelle die TX mit der 480 OC zu ueberschreiben, als eine neue Zeile einzufuegen. Das ist also kein Argument pro/contra Leak sondern allgemein einfach Unsinn, egal ob geleakt oder echt.

Zettabit
2016-06-13, 15:15:58
Bei unzureichenden Photoshop-Skills, ist das so wohl einfacher :)

Was wieder für Fake spricht.

Ravenhearth
2016-06-13, 15:17:16
Außerdem ist die Überschrift bei beiden die gleiche und spricht von "1070"

d2kx
2016-06-13, 15:17:44
Selbst wenn ich in diesem Moment eine RX 480 im Rechner hätte, wäre dieser Thread immernoch spannend! Wundervoll :smile:

PS: nein, ich habe noch keine Karte

Troyan
2016-06-13, 15:17:57
Redet ihr immer noch über diese Tabelle: http://www.tweaktown.com/news/52553/leaked-benchmarks-see-radeon-rx-480-beating-geforce-gtx-980/index.html

???

Ist Fake. Siehe meine Anmerkung von gestern. Der Graphicsscore passt nicht zu den Einzelergebnissen.

Gipsel
2016-06-13, 15:44:01
Redet ihr immer noch über diese Tabelle: http://www.tweaktown.com/news/52553/leaked-benchmarks-see-radeon-rx-480-beating-geforce-gtx-980/index.html

???

Ist Fake. Siehe meine Anmerkung von gestern. Der Graphicsscore passt nicht zu den Einzelergebnissen.
Inzwischen gibt es weitere Ergebnisse (sogar etwas höher), die nun entweder aufwendiger gefaked oder eventuell sogar wahr sind.

Edit, z.B. das Video hier:
nUG9jgERvEQ

Also da passen zumindest die Scores zusammen. Aber was für eine Karte da genau drin steckt, wer weiß.

blaidd
2016-06-13, 16:06:05
Ich bin mal sehr skeptisch, aber von der Performance wäre das schon ganz nett... vor allem zu dem Preis.

Hier ist noch eine angebliche RX 460 - auch nicht übel...

http://i1024.photobucket.com/albums/y303/martmail55/900x900px-LL-21955f28_1c086e600c3387444cecb747590fd9f9d72aa089_zpstrfjwyjz.jpeg


Eigentliche Quelle findet man eventuell über das Anantech-Forum. Hab grad keine Zeit, den Post rauszusuchen...
http://www.neogaf.com/forum/showpost.php?p=206716829&postcount=2132
(http://www.neogaf.com/forum/showpost.php?p=206716829&postcount=2132)

Gipsel
2016-06-13, 16:12:14
Ich bin mal sehr skeptisch, aber von der Performance wäre das schon ganz nett... vor allem zu dem Preis.

Hier ist noch eine angebliche RX 460 - auch nicht übel...

http://i1024.photobucket.com/albums/y303/martmail55/900x900px-LL-21955f28_1c086e600c3387444cecb747590fd9f9d72aa089_zpstrfjwyjz.jpeg


Eigentliche Quelle findet man eventuell über das Anantech-Forum. Hab grad keine Zeit, den Post rauszusuchen...
http://www.neogaf.com/forum/showpost.php?p=206716829&postcount=2132
(http://www.neogaf.com/forum/showpost.php?p=206716829&postcount=2132)Da fragt man sich natürlich, wo da noch der Platz für eine RX470 bleiben würde :rolleyes:. Also so wirklich glauben kann man das Alles noch nicht. Vielleicht stimmt ja das eine oder Andere, aber es sind definitiv auch jede Menge Fakes unterwegs.

[MK2]Mythos
2016-06-13, 16:23:47
Laut zwei deutschen großen Versandhäusern soll die RX480 ab nächster Woche bestellbar sein.

Zettabit
2016-06-13, 16:24:38
Redet ihr immer noch über diese Tabelle: http://www.tweaktown.com/news/52553/leaked-benchmarks-see-radeon-rx-480-beating-geforce-gtx-980/index.html
Fast! Ein Photoshop"profi" hat die TitanX rausgeschnitten und dafür sich eine RX 480 "OC" ausgedacht und einfach mal +29% auf Takt und Score gehauen ;D

Also da passen zumindest die Scores zusammen.
10% Messtoleranz? (3200 vs. 3500 Score)

HOT
2016-06-13, 16:27:59
Fast! Ein Photoshop"profi" hat die TitanX rausgeschnitten und dafür sich eine RX 480 "OC" ausgedacht und einfach mal +29% auf Takt und Score gehauen ;D

Hm ich kopier mal diesen Satz :D.
[...]

iuno
2016-06-13, 16:34:11
Da fragt man sich natürlich, wo da noch der Platz für eine RX470 bleiben würde :rolleyes:. Also so wirklich glauben kann man das Alles noch nicht. Vielleicht stimmt ja das eine oder Andere, aber es sind definitiv auch jede Menge Fakes unterwegs.
Das eine ist Extreme, das andere Ultra.
Aber gebe dir trotzdem Recht ;)
Heute Abend wissen wir hoffentlich endlich mehr...
Mythos;11065770']Laut zwei deutschen großen Versandhäusern soll die RX480 ab nächster Woche bestellbar sein.
*Vorbestellbar
Sofern sie den Launch nicht vorziehen, gibt es die Karte ja erst ab 29. Das deutet aber zumindest auf einen besser geplanten Launch hin als man das schon gesehen hat ;)

N0Thing
2016-06-13, 16:46:26
Da ist die silly season ja im vollen Gange. :D
Solange sich kein Leaker die Mühe macht, auch einen Schwenk über die Hardware im PC zu machen, halte ich deren Ergebnisse erstmal für Fakes.


https://de.wikipedia.org/wiki/Bandbreite
https://de.wikipedia.org/wiki/Datendurchsatz

Bandbreite hat sich aus dem englischen bandwidth eingebürgert. Deshalb ist es nicht verkehrt, auch hier in Deutschland von der Bandbreite anstatt der Datenübertragungsrate zu sprechen.
Auf den Datendurchsatz wird eigentlich nie Bezug genommen, von daher passt da meiner Meinung nach Datenübertragungsrate besser, wenn man den Begriff Bandbreite vermeiden will.

https://en.wikipedia.org/wiki/Bandwidth_(computing)
https://de.wikipedia.org/wiki/Daten%C3%BCbertragungsrate

woodsdog
2016-06-13, 16:50:10
Naja... ich bin etwas enttäuscht... wenn sich Igors Andeutungen in der Form einstellen haben wir in dieser Gen wieder eine riesen Lücke bei AMD was Effizienz angeht....

mit 75W (50%) hat die 1070 wohl noch 70% der Leistung und damit in etwa Polaris Level give or take(?). Da steht AMD ja schon wieder gefühlt doppelt so hungrig da....

iuno
2016-06-13, 16:55:46
Er hat keine Andeutungen gemacht, sondern spekuliert.

Und die restliche Betrachtung ist doch realitaetsfremd. Wenn man P10 auf 75 Watt begrenzt, ist die Karte auch wieder effizienter, trotzdem wird sie wohl kaum einer so verkaufen. Ich denke, GP104 ist noch zu teuer fuer so eine Spielerei, oder diese Variante waere Preis-Leistungstechnisch dafuer wieder nichts.
P10 muss sich immer noch mit GP106 messen und zu dem wissen wir noch nichts.

Unrockstar
2016-06-13, 16:59:17
Alles klar. Und woher kommt diese Unterstellung? :rolleyes:

Nunja ich schau mir halt auch nur die Beiträge (Wccf, 3dC, Guru3D) an.. Wenn eine 1000MHz GPU 5 Tflops hat und ne 1266MHz fast 6 dann scheint es schon ne gute Skalierung zu geben. Die Frage aller Fragen, Wenn die RX 480 1400MHz schafft, schafft sie das im TDP Raum oder sprengt sie den?

Und mir ist Klar, Iuno, dass davon auch vieles Mist sein kann. Ich sehe aber Pitcairn und Tahiti und die sind, wenn sie Kühl waren ziemlich skalierbar was die Flops-Leistung betrifft.

Zettabit
2016-06-13, 16:59:39
Naja... ich bin etwas enttäuscht... wenn sich Igors Andeutungen in der Form einstellen haben wir in dieser Gen wieder eine riesen Lücke bei AMD was Effizienz angeht....
Das war nach den offiziellen Daten von AMD zur RX 480 klar. GTX980-Leistung mit nur minimal niedriger Leistungsaufnahme. Und das trotz 28->14nm.

Dino-Fossil
2016-06-13, 17:00:33
Natürlich ist das Quatsch/Getrolle.
Wenn ich einen hypothetischen Vega nehme und ihn auf 75W beschränke wird er vermutlich auch schneller sein als Polaris.
Dafür hat er aber auch mehr Hardware-Einheiten zur Verfügung.
Wirtschaftlich macht es sowieso keinen Sinn.

Tamagothi
2016-06-13, 17:02:51
Naja... ich bin etwas enttäuscht... wenn sich Igors Andeutungen in der Form einstellen haben wir in dieser Gen wieder eine riesen Lücke bei AMD was Effizienz angeht....

mit 75W (50%) hat die 1070 wohl noch 70% der Leistung und damit in etwa Polaris Level give or take(?). Da steht AMD ja schon wieder gefühlt doppelt so hungrig da....

Das verhält sich mit jeder Karte so. Einfach einen größeren Chip runtertakten auf den nächst unteren ist nicht.

Eine R9 390X Runtergetaktet auf die Leistung einer 380X und schon verbraucht man deutlich weniger als die 380X.

Bei Nvidia das selbe Spielchen.

iuno
2016-06-13, 17:03:32
Nunja ich schau mir halt auch nur die Beiträge (Wccf, 3dC, Guru3D) an.. Wenn eine 1000MHz GPU 5 Tflops hat und ne 1266MHz fast 6 dann scheint es schon ne gute Skalierung zu geben.
Klar, FLOPs skalieren logischerweise sowieso linear mit dem Takt. Ich dachte du willst auf die tatsaechliche Leistung in Spielen hinaus.

Im uebrigen ist dein angefuehrtes Beispiel falsch, ausser du sprichst von einer Art Zieltakt (max. Boost), der nicht wirklich erreicht wird.
5 TFLOPs bei 1000 MHz waeren die 2560 SP. Bei 1266 MHz wuerde das in 6,5 TFLOPs resultieren.
Die 2304 SP von P10 erreichen 4,6 TFLOPs bei 1 GHz und ~5,8 bei 1266 MHz.

y33H@
2016-06-13, 17:21:14
Die PC Gaming Show dürfte spannend werden =)

Ravenhearth
2016-06-13, 17:23:11
Wie spät? Und gibt es einen Stream?

Blediator16
2016-06-13, 17:23:40
20:30

https://www.twitch.tv/pcgamer

https://gaming.youtube.com/pcgamer

y33H@
2016-06-13, 17:24:20
http://www.pcgamingshow.com/

Ravenhearth
2016-06-13, 17:28:37
Danke. :ulove:

maximus_hertus
2016-06-13, 17:34:39
Jetzt ist die Frage, gibt es die Hardware zu Beginn oder eher gegen Ende zu sehen? Ist ja nicht mehr lang hin.

M4xw0lf
2016-06-13, 17:34:52
Die PC Gaming Show dürfte spannend werden =)
Ah komm. Ich erinnere mich mit Grausen an die Show zur Vorstellung der Tonga-285... :freak:

Gipsel
2016-06-13, 17:47:07
10% Messtoleranz? (3200 vs. 3500 Score)Fake vs. echt? Anderer Takt, anderer Treiber? Da gibt es jede Menge Variablen, die das eventuell erklären könnten.

====================

Das eine ist Extreme, das andere Ultra.
Aber gebe dir trotzdem Recht ;)Ups, hatte ich doch glatt übersehen.

======================

Das war nach den offiziellen Daten von AMD zur RX 480 klar. GTX980-Leistung mit nur minimal niedriger Leistungsaufnahme. Und das trotz 28->14nm.Verbraucht eine GTX980 wirklich unter 130W, so daß Du bei Polaris10 von nur minimal niedriger Leistungsaufnehme redest? Ich dachte immer, die liegen typischerweise bei 165+W (häufig 175W oder sowas in der Nähe). Vergiß nicht, daß bei dem AotS-Run zwei teilausgelastete RX480 (~83%?) nur so viel wie eine vollausgelastete GTX1080 (~180W) verbraucht haben sollen! Das würde eine RX480 in typischer Spielelast auf vielleicht 110W legen (unter Annahme, daß bei Teillast die Stromaufnahme perfekt mit der Auslastung skaliert, meist geht das ja schlechter).

iuno
2016-06-13, 17:51:10
Interessant wird es wohl erst gegen 22:00 ;)

Ah komm. Ich erinnere mich mit Grausen an die Show zur Vorstellung der Tonga-285... :freak:
Die letzte PCGS fand ich nun nicht so schlecht. Fiji Vorstellung, jeder hat schon die Nano gefeiert, die dann leider erst viel spaeter kam. Ausserdem gab es das Project Quantum, das aber kein Partner zur Marktreife gebracht hat :freak: ;D

Nakai
2016-06-13, 17:53:20
Es ist definitiv unter 150W für die RX 480. Eher in Richtung 100W.

Außerdem muss man ganz stark zwischen den Standard-Modell und etwaige OC-Modelle unterscheiden. Würde mich nicht wundern, wenn wir einen P10 zwischen 150W und 200W sehen, welcher eher auf Fiji/GTX 980Ti/Titan X-Niveau liegt.

Tamagothi
2016-06-13, 18:09:06
Also wenn die Leistung sich bewahrheiten sollte. Sehe ich sehr schwarz für Nvidia und einer GTX 1060 <150$ :freak:

Dann spielt es auch keine Rolle ob der chip 20 Watt weniger verbrauchen würde.

Pirx
2016-06-13, 18:15:50
...RT-fähig sein.
Russia Today?

Nakai
2016-06-13, 18:17:19
Russia Today?

Nein, das wird eine kapitalistische GPU.

Pirx
2016-06-13, 18:22:09
AHA auch nicht RT-Patches, sondern realtime schätze ich mal?:D

Zettabit
2016-06-13, 18:22:16
Fake vs. echt? Anderer Takt, anderer Treiber? Da gibt es jede Menge Variablen, die das eventuell erklären könnten.
Also passen die Werte jetzt doch nicht mehr?

Verbraucht eine GTX980 wirklich unter 130W, so daß Du bei Polaris10 von nur minimal niedriger Leistungsaufnehme redest? Ich dachte immer, die liegen typischerweise bei 165+W (häufig 175W oder sowas in der Nähe). Vergiß nicht, daß bei dem AotS-Run zwei teilausgelastete RX480 (~83%?) nur so viel wie eine vollausgelastete GTX1080 (~180W) verbraucht haben sollen! Das würde eine RX480 in typischer Spielelast auf vielleicht 110W legen (unter Annahme, daß bei Teillast die Stromaufnahme perfekt mit der Auslastung skaliert, meist geht das ja schlechter).
110W? Sportliche Spekulation, da werde ich mich gern dran erinnern :freak:

Aber selbst wenn wir deinen Best-Case rechnen heißt 175 vs. 110W gerade mal eine Differenz von 60%, d.h. ein rein geshrinkter GM204, ohne jede Veränderung, hätte eine um >30% höhere Effizienz, als der brandneue, heißeste Scheiß von AMD, zwei Jahre später.

Das mag meinetwegen besser sein, als die Hitzköpfe von früher, aber wirklich auf Augenhöhe mit NVIDIA ist man noch lange nicht.

Nakai
2016-06-13, 18:28:22
AHA auch nicht RT-Patches, sondern realtime schätze ich mal?:D

So siehts aus. ;)


Aber selbst wenn wir deinen Best-Case rechnen heißt 175 vs. 110W gerade mal eine Differenz von 60%, d.h. ein rein geshrinkter GM204, ohne jede Veränderung, hätte eine um >30% höhere Effizienz, als der brandneue, heißeste Scheiß von AMD, zwei Jahre später.

Das mag meinetwegen besser sein, als die Hitzköpfe von früher, aber wirklich auf Augenhöhe mit NVIDIA ist man noch lange nicht.

Also 110 W oder darum wird man definitiv sehen.

Ravenhearth
2016-06-13, 18:35:04
Aber selbst wenn wir deinen Best-Case rechnen heißt 175 vs. 110W gerade mal eine Differenz von 60%, d.h. ein rein geshrinkter GM204, ohne jede Veränderung, hätte eine um >30% höhere Effizienz, als der brandneue, heißeste Scheiß von AMD, zwei Jahre später.

Es gibt aber keinen Maxwell auf 16nm. Das wäre wohl Pascal, und der legt bei Effizienz auch nur um etwa 60% zu.

Tamagothi
2016-06-13, 18:35:49
Also passen die Werte jetzt doch nicht mehr?


110W? Sportliche Spekulation, da werde ich mich gern dran erinnern :freak:

Aber selbst wenn wir deinen Best-Case rechnen heißt 175 vs. 110W gerade mal eine Differenz von 60%, d.h. ein rein geshrinkter GM204, ohne jede Veränderung, hätte eine um >30% höhere Effizienz, als der brandneue, heißeste Scheiß von AMD, zwei Jahre später.

Das mag meinetwegen besser sein, als die Hitzköpfe von früher, aber wirklich auf Augenhöhe mit NVIDIA ist man noch lange nicht.

Und was ist an den 110 Watt Falsch?

Wenn die Aussage von AMD stimmt wahren zwei RX 480 schneller und effizienter. Das heißt bei 83% Crossfire skalierung ist der verbrauch einer Karte bei 100Watt.

100+100*0,83=183

Wäre halt ein Traum wenn das stimmt.

Gipsel
2016-06-13, 18:46:23
Also passen die Werte jetzt doch nicht mehr?Nun, der niedrigere war ja offenbar ein Fake. Hat Troyan doch begründet. Wieso deshalb der höhere nicht stimmen sollte, darfst Du gerne ausführen. Im Übrigen hat Niemand hier behauptet, daß auch nur irgendein kursierender Wert echt wäre. ;)
110W? Sportliche Spekulation, da werde ich mich gern dran erinnern :freak:Darfst Du gerne. Wenn die von AMD vor gut zwei Wochen gezeigte Folie zu dem Run mit zwei RX480 halbwegs ernst zu nehmen ist, kommt man halt nicht wirklich auf einen höheren Wert.
Aber selbst wenn wir deinen Best-Case rechnen heißt 175 vs. 110W gerade mal eine Differenz von 60%, d.h. ein rein geshrinkter GM204, ohne jede Veränderung, hätte eine um >30% höhere Effizienz, als der brandneue, heißeste Scheiß von AMD, zwei Jahre später.

Das mag meinetwegen besser sein, als die Hitzköpfe von früher, aber wirklich auf Augenhöhe mit NVIDIA ist man noch lange nicht.Ähm, das wäre ziemlich genau Pascal-Niveau. Plusminus ein wenig, abhängig davon, wo man sich genau auf die Takt-/Verbrauchskurve setzt.

Im Übrigen bringt FF angeblich 60-70% höhere Energieeffizienz ohne Änderung am Design (und nicht 2x) und 175W/1,65 sind bei mir auch noch 106W. Also nix mit 30% besser.

StefanV
2016-06-13, 18:46:37
Ich verstehe nicht, warum es so unwahrscheinlich sein soll, dass eine RX480 nicht an eine GTX 1070 ran kommen soll....

Überlegt mal kurz:
Von den Einheiten her sind beide ungefähr gleich, beim Takt ist noch nicht ganz klar, wie es ausschaut.
Beim Speicher schaut es bei beiden ähnlich aus: 256bit GDDR5, ähnlich schnell bei der großen Polaris.

Warum soll Polaris also nicht an die GTX 1070 ran kommen können?

Das zeigt doch nur, wie sehr nVidia uns potentielle Käufer übern Tisch zieht und abzockt. Aber das ist ja eigentlich von vornherein klar, oder?

maximus_hertus
2016-06-13, 18:47:38
Aber selbst wenn wir deinen Best-Case rechnen heißt 175 vs. 110W gerade mal eine Differenz von 60%, d.h. ein rein geshrinkter GM204, ohne jede Veränderung, hätte eine um >30% höhere Effizienz, als der brandneue, heißeste Scheiß von AMD, zwei Jahre später.

Ist das so? Wie sieht das bei zukünftigen DX 12 Games aus? Da kann GM204 ganz schnell (deutlich) zurückfallen.

Aber lassen wir das Geplänkel. Gleich gibts bestimmt mehr Infos und spätestens Ende des Monats gibt es dann die harten Fakten ;) Hauptsache möglichst viele schöne fps pro Euro. Mir ist es da egal, wer das bietet :D

Complicated
2016-06-13, 18:52:20
Naja, da Polaris mit 60 FPS framelock schon mit 86W Gesamtsystemverbrauch demonstriert wurde vs GTX 950 mit 140 W in Star Wars Battlefield, sind die 75W mit runter getaktetem GP104 nicht sonderlich spektakulär und auch erst mal nicht effizienter als P10. Die GTX 950 hat eine TDP von 90W und bringt in offiziellen Benches ca. 85 FPS bei 1080@medium ohne 60 FPS-lock und verbraucht dabei etwa 20W mehr als bei der AMD Demo.

Selbst wenn die GTX 1070 auf 75W runter getaktet werden kann, haben sie immer noch deutlich mehr Verbrauch als P10 in der Demo. Daher weiss ich auch gar nicht was das für hirnrissige Effizienzrechnungen sein sollen mit 110W Verbrauch bei P10. Wäre doch mal interessant eine GTX 1070 direkt in dem Setting der AMD-Demo zu vermessen.

Gipsel
2016-06-13, 18:58:12
Ich verstehe nicht, warum es so unwahrscheinlich sein soll, dass eine RX480 nicht an eine GTX 1070 ran kommen soll....

Überlegt mal kurz:
Von den Einheiten her sind beide ungefähr gleich, beim Takt ist noch nicht ganz klar, wie es ausschaut.
Beim Speicher schaut es bei beiden ähnlich aus: 256bit GDDR5, ähnlich schnell bei der großen Polaris.

Warum soll Polaris also nicht an die GTX 1070 ran kommen können?NV-GPUs sind generell auf einen etwas höheren Takt ausgelegt als die von AMD. Man muß sich doch nur mal die Pipeline-Länge bzw. Latenzen der ALUs ansehen. Das Taktverhältnis sollte also vorbehaltlich grundlegenderer Designänderungen und Prozeßunterschiede ähnlich wie bei den Vorgängern landen (Pascal mit ~30%-40% höherem Maximaltakt?). Und damit erreicht Polaris 10 die 1070 wohl nur, wenn man ihn relativ zu seiner Auslegung deutlich höher prügelt als die 1070. Auf irgendeiner Custom OC-Karte mit >~175W Verbrauch mag man das vielleicht schaffen. Aber wir wissen bisher auch noch nicht, wie sich der 14LPP-Prozeß diesbezüglich verhält.

Zettabit
2016-06-13, 19:05:46
Also 110 W oder darum wird man definitiv sehen.
Und was ist an den 110 Watt Falsch?
Gern gebookmarkt. Aber die AMD-TDP Geschichte kennen wir ja nun schon zu oft, egal bei welchem Produkt ;D

Ganz ehrlich? Warum sollte AMD bei der Vorstellung direkt weniger als 150W TDP angeben, wenn sie da locker 30% drunter bleiben?

Nun, der niedrigere war ja offenbar ein Fake. Hat Troyan doch begründet. Wieso deshalb der höhere nicht stimmen sollte, darfst Du gerne ausführen. Im Übrigen hat Niemand hier behauptet, daß auch nur irgendein kursierender Wert echt wäre. ;)
Du hast gesagt, die Scores würden "zusammen passen". Nun ist einer Fake, der Andere nicht. Was denn nun?

Im Übrigen bringt FF angeblich 60-70% höhere Energieeffizienz ohne Änderung am Design (und nicht 2x) und 175W/1,65 sind bei mir auch noch 106W. Also nix mit 30% besser.
Somit hat AMD die Effizienz ihrer Architektur nur auf Maxwell-Niveau gebraucht. Nicht überholt, nur zur Vorgängergeneration aufgeholt. Besser? Ja. Gut? Nein.

Ist das so? Wie sieht das bei zukünftigen DX 12 Games aus? Da kann GM204 ganz schnell (deutlich) zurückfallen.
Und dann spielst nur die 3-4 DX12-Spiele und sonst nichts? Naja.

Warum soll Polaris also nicht an die GTX 1070 ran kommen können?
Weil AMD selbst sagt, dass man auf Höhe einer GTX970 ist. Und die ist da eben 60% von entfernt. Das willst du mit OC hinbekommen? Nope.

Screemer
2016-06-13, 19:06:52
Aber selbst wenn wir deinen Best-Case rechnen heißt 175 vs. 110W gerade mal eine Differenz von 60%, d.h. ein rein geshrinkter GM204, ohne jede Veränderung, hätte eine um >30% höhere Effizienz, als der brandneue, heißeste Scheiß von AMD, zwei Jahre später.

Das mag meinetwegen besser sein, als die Hitzköpfe von früher, aber wirklich auf Augenhöhe mit NVIDIA ist man noch lange nicht.
Nv hätte also schon vor 2 Jahren ne 16/14nm gpu vom Schlag eines polaris auflegen können. Na schade, dass sie es nicht getan haben.

Zettabit
2016-06-13, 19:10:17
Nv hätte also schon vor 2 Jahren ne 16/14nm gpu vom Schlag eines polaris auflegen können. Na schade, dass sie es nicht getan haben.
Oh, bei welcher Foundry denn? Erzähl mal mehr!

Lukaner
2016-06-13, 19:21:35
@Zettabit
wegen dir komm ich hier aus dem Lachen nicht mehr raus. ;D

P10 wird definitiv interessant, wenn die bisherigen Infos halbwegs halten was sie versprechen. Im Benchmark-Durchschnitt erwarte ich vom Full-P10 ca. 390X-Performance (+-5%) bei ca. 110-125 Watt.
Bin gespannt ob das hinkommt. :)

Und ein paar sollten hier mal bissl chillen, es geht nach wie vor nur um PC-Bauteile.

maguumo
2016-06-13, 19:21:42
Ganz ehrlich? Warum sollte AMD bei der Vorstellung direkt weniger als 150W TDP angeben, wenn sie da locker 30% drunter bleiben?
Weil der 6Pin Anschluss das erlaubt würde ich sagen.

Gipsel
2016-06-13, 19:29:49
Ganz ehrlich? Warum sollte AMD bei der Vorstellung direkt weniger als 150W TDP angeben, wenn sie da locker 30% drunter bleiben?Ist doch immer noch weniger. Genaue Specs wurden bei dem Preview doch für viele Dinge gar nicht genannt. Ist halt nur ein Überblick gewesen. Die genauen Daten gibt es dann zur wirklichen Vorstellung. ;)
Du hast gesagt, die Scores würden "zusammen passen". Nun ist einer Fake, der Andere nicht. Was denn nun?
Versuche mal, meinen Post (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11065874#post11065874) zu verstehen. ;)
Somit hat AMD die Effizienz ihrer Architektur nur auf Maxwell-Niveau gebraucht. Nicht überholt, nur zur Vorgängergeneration aufgeholt. Besser? Ja. Gut? Nein.Du meinst vermutlich Pascal. :rolleyes:
Weil AMD selbst sagt, dass man auf Höhe einer GTX970 ist. Und die ist da eben 60% von entfernt. Das willst du mit OC hinbekommen? Nope.Sagt AMD nicht, man kommt über der 970 raus (vermutlich gilt das sogar für das Salvage-Modell)? Wir werden sehen, ob die RX480 nicht eher bei der 980 oder sowas landet. Und von der sind es wohl eher nur ~40% zur GTX1070.
Wie auch immer, die RX480 hat 20% mehr ALUs als die 1070er bei vermutlich nicht übermäßig weit entfernter Leistung pro Flop abseits von irgendwelchen architekturbedingten Flaschenhälsen. Dafür hat die 1070 so grob 33% mehr Takt, wenn die 1266MHz von dem einen Screenshot bei der Präsentation stimmen. Also soo groß ist der Abstand nicht, daß man da mit OC nicht in Schlagdistanz kommen könnte (~1,5GHz für ungefähren Gleichstand mit einer Stock 1070?).

Aber bisher ist Polaris noch so ein wenig eine Wundertüte, was die Performance angeht. Es kann so ausgehen, muß es aber nicht.

[MK2]Mythos
2016-06-13, 19:46:54
Ist doch immer noch weniger. Genaue Specs wurden bei dem Preview doch für viele Dinge gar nicht genannt. Ist halt nur ein Überblick gewesen. Die genauen Daten gibt es dann zur wirklichen Vorstellung. ;)

Versuche mal, meinen Post (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11065874#post11065874) zu verstehen. ;)
Du meinst vermutlich Pascal. :rolleyes:
Sagt AMD nicht, man kommt über der 970 raus (vermutlich gilt das sogar für das Salvage-Modell)? Wir werden sehen, ob die RX480 nicht eher bei der 980 oder sowas landet. Und von der sind es wohl eher nur ~40% zur GTX1070.
Wie auch immer, die RX480 hat 20% mehr ALUs als die 1070er bei vermutlich nicht übermäßig weit entfernter Leistung pro Flop abseits von irgendwelchen architekturbedingten Flaschenhälsen. Dafür hat die 1070 so grob 33% mehr Takt, wenn die 1266MHz von dem einen Screenshot bei der Präsentation stimmen. Also soo groß ist der Abstand nicht, daß man da mit OC nicht in Schlagdistanz kommen könnte (~1,5GHz für ungefähren Gleichstand mit einer Stock 1070?).

Aber bisher ist Polaris noch so ein wenig eine Wundertüte, was die Performance angeht. Es kann so ausgehen, muß es aber nicht.
Mensch Gipsel, normalerweise stapelst du ja eher tief wenn ich die letzten Launches von AMD so in Erinnerung habe, mal sehen ob du Recht behälst. ;)

MR2
2016-06-13, 19:50:58
Klar sortiert der Slide keine Leistung ein. Trotzdem sieht Polaris als Mittelklasse Architektur hier neben dem Fiji Balken seltsam aus;-)

Zettabit
2016-06-13, 19:53:05
Ist doch immer noch weniger. Genaue Specs wurden bei dem Preview doch für viele Dinge gar nicht genannt. Ist halt nur ein Überblick gewesen. Die genauen Daten gibt es dann zur wirklichen Vorstellung. ;)
Die eben nicht sehr gut aussehen. Das sage ich ja genau.

Versuche mal, meinen Post (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11065874#post11065874) zu verstehen. ;)
Tue ich. Demnach gibt es ja doch Unterschiede und die Scores passen ja doch nicht zusammen.

Du meinst vermutlich Pascal. :rolleyes:
Nein, Maxwell. Schrieb ich ja auch. Abzüglich des Fertigungsunterschieds natürlich, den du ja benannt hast.

Dagegen hat Pascal in Sachen Effizienz nochmal einiges drauf gelegt, siehe GTX1070. Die kommt mit über 10W weniger Leistungsaufnahme gegenüber der GTX970 aus.

Sagt AMD nicht, man kommt über der 970 raus (vermutlich gilt das sogar für das Salvage-Modell)? Wir werden sehen, ob die RX480 nicht eher bei der 980 oder sowas landet. Und von der sind es wohl eher nur ~40% zur GTX1070.
Wie auch immer, die RX480 hat 20% mehr ALUs als die 1070er bei vermutlich nicht übermäßig weit entfernter Leistung pro Flop abseits von irgendwelchen architekturbedingten Flaschenhälsen. Dafür hat die 1070 so grob 33% mehr Takt, wenn die 1266MHz von dem einen Screenshot bei der Präsentation stimmen. Also soo groß ist der Abstand nicht, daß man da mit OC nicht in Schlagdistanz kommen könnte (~1,5GHz für ungefähren Gleichstand mit einer Stock 1070?).
Toll, die alte OC-Diskussion. Was bringt dir das nochmal, wenn auch die 1070 übertaktet werden kann? Genau: Nichts.

Der aktuelle Wert von AMD besagt >5 TFlops. Seinen wir mal realistisch, heißt das unterhalb von 5,5 und damit ist die GTX1070 doch um Einiges entfernt (6,5 TFlops @ Boost, 5,8 @ Base). Und ich glaube auch nicht, dass AMD die Rechenleistung für den Baseclock angegeben hat. Ach und nicht vergessen, dass AMD bisher immer deutlich mehr Rechenleistung als AMD benötigt hat, für diie identische Gamingleistung.

Aber bisher ist Polaris noch so ein wenig eine Wundertüte, was die Performance angeht. Es kann so ausgehen, muß es aber nicht.
Wie gesagt: Die bisherigen Daten sehen eher durchwachsen aus. Eher so, als holt man Maxwell abzüglich unterschiedliche Fertigung ein. Das ist aber eben die Vorgängergeneration.

Nakai
2016-06-13, 19:59:24
Ihr mit euren Problemen. Viel wichtiger ist, ob der Stream pünktlich startet. ;D

€: Nein...

€2: Ungefähr 5 Min zu spät...*düdelmusik*

dargo
2016-06-13, 20:04:38
Läuft...

Loeschzwerg
2016-06-13, 20:05:25
Wie es im Twitch Kanal von PCGamer halt jetzt schon abgeht :freak:

-Phoenix-
2016-06-13, 20:07:11
Wie es im Twitch Kanal von PCGamer halt jetzt schon abgeht :freak:
Es ist Twitch, da geht es immer ab! ;D

Nakai
2016-06-13, 20:07:18
Wie es im Twitch Kanal von PCGamer halt jetzt schon abgeht :freak:

Völlig normal...aber immer noch warten...

AlphaNUSS
2016-06-13, 20:13:26
Die Xbox Scorpio hat 6Tflops und nutz im Trailer noch GDDR5. Auf welchen Chip könnte das zutreffen?

illidan
2016-06-13, 20:15:53
Auf einen Custom-SoC?

Gipsel
2016-06-13, 20:19:24
Die eben nicht sehr gut aussehen. Das sage ich ja genau.Du siehst doch noch gar nichts Genaues. Insofern kannst Du auch noch gar nicht genau sagen, ob und wenn ja wie schlecht es aussieht. ;)
Tue ich. Demnach gibt es ja doch Unterschiede und die Scores passen ja doch nicht zusammen.Ganz offensichtlich tust Du es nicht.
Nein, Maxwell. Schrieb ich ja auch. Abzüglich des Fertigungsunterschieds natürlich, den du ja benannt hast.Wie andere auch schon geschrieben haben, beschreibst Du damit grob Pascal-Level. :rolleyes:
Dagegen hat Pascal in Sachen Effizienz nochmal einiges drauf gelegt, siehe GTX1070. Die kommt mit über 10W weniger Leistungsaufnahme gegenüber der GTX970 aus.Und ist ungefähr 60% schneller? Paßt doch zu grob 70% Zuwachs an Energieeffizienz durch den Prozeß. Weiß gar nicht, was Du hier diskutierst.
Toll, die alte OC-Diskussion. Was bringt dir das nochmal, wenn auch die 1070 übertaktet werden kann? Genau: Nichts.Thema verfehlt. Sechs. Setzen.
Der aktuelle Wert von AMD besagt >5 TFlops. Seinen wir mal realistisch, heißt das unterhalb von 5,5 und damit ist die GTX1070 doch um Einiges entfernt (6,5 TFlops @ Boost, 5,8 @ Base). Und ich glaube auch nicht, dass AMD die Rechenleistung für den Baseclock angegeben hat.Die 1,266GHz vom Screenshot bei der Präsentation sagen eher 5,8 TFlop/s. Und 20% Übertaktung sind nun auch nicht soo unglaublich. Dann wäre man bei glatt 7 TFlop/s
Ach und nicht vergessen, dass AMD bisher immer deutlich mehr Rechenleistung als AMD benötigt hat, für diie identische Gamingleistung.In einigen neueren computedominierten Spielen scheint das nicht mehr ganz so ausgeprägt zu sein. Weiterhin hat AMD nach offizieller Aussage daran gearbeitet, daß mehr von der theoretischen Leistung praktisch ankommt, es also zu weniger Stalls in den CUs kommt. Mal sehen, wie viel das ausmachen wird.
Wie gesagt: Die bisherigen Daten sehen eher durchwachsen aus. Eher so, als holt man Maxwell abzüglich unterschiedliche Fertigung ein. Das ist aber eben die Vorgängergeneration.Also in etwa wie Pascal? ;D

AlphaNUSS
2016-06-13, 20:20:04
Sah so aus. Das war aber alles gerändert.

Screemer
2016-06-13, 20:24:22
kotzen twitch tot und yt live down.

€dit: oh lol. was war denn der mist mit den steamgames dann. dachte es wäre schon los gegangen. der 20 reload von twitch hat die seite dann mal erreicht und der stream läuft auch. yt war wohl schon mal testweise live drauf und haben dann noch mal offline geschalten. läuft aber auch wieder.

Rente
2016-06-13, 20:24:50
Läuft hier problemlos, da ist nichts tot.

Edit: Jetzt sind sie offline...
Edit²: Und wieder online.

Elkinator
2016-06-13, 20:24:59
Auf welchen Chip könnte das zutreffen?
Auf den SOC der XBone?

Zum Glück kann man den Chat bei Twitch ausblenden...

dargo
2016-06-13, 20:26:54
Lol... Stream wieder offline. :freak:

Edit:
Geht wieder...

Screemer
2016-06-13, 20:27:50
der chat bei den yt live events ist mega nervig. kann man den deaktivieren?

AlphaNUSS
2016-06-13, 20:30:16
Auf den SOC der XBone?

Der hat aber keine 6 Tflops :D Selbst der große Polaris hat ja angeblich nur 5 und in ner Konsole ist der ja noch runtergetaktet.

Nakai
2016-06-13, 20:31:59
NDA ist am 29ten.

Vielleicht sehen wir etwas mehr diesmal. Das NV Event mit GP100 war auch lächerlich...bis auf GP100 zum Schluss.

Zettabit
2016-06-13, 20:33:33
Du siehst doch noch gar nichts Genaues. Insofern kannst Du auch noch gar nicht genau sagen, ob und wenn ja wie schlecht es aussieht. ;)
">5 TFlops" "150W TDP"

Klar, ich kann jetzt - wie ihr es gern tut - mir was einbilden von "könnte auch 5,9 TFlops bei 100W bedeuten" - aber dass das ziemlicher Unfug ist, sollte jeder wissen.

Entweder P10 kommt tatsächlich in Richtung der 1070 (möchte ich nicht mal ausschließen), aber dann kaum mit 100W.

Ganz offensichtlich tust Du es nicht.
Doch, doch. Du hast offensichtlich die Werte nicht richtig gelesen und einfach mal gedacht, die wären nahezu identisch. Sind sie aber nicht ;)

Wie andere auch schon geschrieben haben, beschreibst Du damit grob Pascal-Level. :rolleyes:
Ähm - nein. Alleine deshalb, weil eine Pascal-Karte GDDR5X nutzt, das macht die Vergleichbarkeit ziemlich schwierig.

Und ist ungefähr 60% schneller? Paßt doch zu grob 70% Zuwachs an Energieeffizienz durch den Prozeß. Weiß gar nicht, was Du hier diskutierst.
Ach? Na dann siehst du doch, dass die Zahlen nicht passen. Rechne doch mal eine potentielle GTX980 (=P10 Leistung) auf 70% höhere Energieeffizenz rum. Da darfst du auch gern deine 174W Leistungsaufnahme nehmen. Da is man meilen von 150W entfernt!

Thema verfehlt. Sechs. Setzen.
Schön, dass du selbst zugibst, Schwachsinn geschrieben zu haben ;D

Die 1,266GHz vom Screenshot bei der Präsentation sagen eher 5,8 TFlop/s. Und 20% Übertaktung sind nun auch nicht soo unglaublich. Dann wäre man bei glatt 7 TFlop/s
In einigen neueren computedominierten Spielen scheint das nicht mehr ganz so ausgeprägt zu sein. Weiterhin hat AMD nach offizieller Aussage daran gearbeitet, daß mehr von der theoretischen Leistung praktisch ankommt, es also zu weniger Stalls in den CUs kommt. Mal sehen, wie viel das ausmachen wird.
Na klar und die 7 TFlops bei 20% Übertaktung natürlich mit unter 100W, wissen wir doch ;D

Ach was wird das in zwei Wochen herrlich ;D

Also in etwa wie Pascal? ;D
Wir können gern P10 an einer hypotetischen GTX980@16nm messen. Dann müsste die Karte bei identischer Gamingleistung bei 102W liegen (174W/1,7).

Ob Polaris bei den Ansprüchen noch gut aussehen wird? ;D

Hakim
2016-06-13, 20:57:05
Wenn das mal net nach Overwatch aussah :)

MR2
2016-06-13, 21:02:16
Immerhin war da kurz Ruby mit langen Haaren...

Skysnake
2016-06-13, 21:03:46
http://blogs-images.forbes.com/jasonevangelho/files/2016/06/AMD-Uprising-2.jpg

#BETTERRED

Exclusive: How AMD's 'The Uprising' Ad Campaign Will Incite A Radeon Rebellion (http://www.forbes.com/sites/jasonevangelho/2016/06/12/exclusive-amds-radeon-uprising-campaign-incites-gpu-rebellion)
Forbes.com
Haben die tatsächlich die verschollene Marketingabteilung ausgegraben? :ugly:

Ich glaubs ja erst, wenn ichs mit eigenen Augen sehe :rolleyes:

der chat bei den yt live events ist mega nervig. kann man den deaktivieren?
SChau mal hier rein. Da gibts keinen Chat ;)
http://www.pcgamingshow.com/

illidan
2016-06-13, 21:04:04
ark ist ja mal sowas von hässlich.
Das ist das tolle UE4-Lighting für Indie-Spiele...

Screemer
2016-06-13, 21:04:28
lisa su so früh. cool

Kriegsgeier
2016-06-13, 21:04:42
Lisa ist da!!!

Skysnake
2016-06-13, 21:04:55
HAHA, es geht los, grad rechtzeitig online gegangen ;D

Screemer
2016-06-13, 21:05:42
ähhh. das video kennen wir doch schon.

y33H@
2016-06-13, 21:05:56
Zum 3ten Mal :ulol:

Rente
2016-06-13, 21:06:07
Vulkan für Doom ist etwas spät dran...

Gipsel
2016-06-13, 21:06:07
">5 TFlops" "150W TDP">5 TFlop/s, < 150W. Die genauen Werte blieben unklar und lassen breiten Raum für Spekulationen.
Klar, ich kann jetzt - wie ihr es gern tut - mir was einbilden von "könnte auch 5,9 TFlops bei 100W bedeuten" - aber dass das ziemlicher Unfug ist, sollte jeder wissen.Erstmal standen (zumindest von mir) ~110W typisch bei maximal 5,8TFlop/s im Raum. Und daß "Deine" exakt 150W bei 5,01 TFlop/s auch ziemlicher Unfug sind, weißt Du vermutlich selbst.
Entweder P10 kommt tatsächlich in Richtung der 1070 (möchte ich nicht mal ausschließen), aber dann kaum mit 100W.Wenn Du ein wenig hochscrollst, wirst Du meine Vermutung vorfinden, daß es mit einer Custom-OC-Version mit 175W eventuell klappen könnte, man aber noch nicht weiß wie der 14LPP-Prozeß da reinspielt. ;)
Insofern kannst Du vielleicht gegen Deine eigenen Strawman-Aussagen argumentieren, allein es hilft nicht weiter. :rolleyes:
Doch, doch. Du hast offensichtlich die Werte nicht richtig gelesen und einfach mal gedacht, die wären nahezu identisch. Sind sie aber nicht ;):facepalm:
Mehr gibt es dazu nicht zu sagen.
Ähm - nein. Alleine deshalb, weil eine Pascal-Karte GDDR5X nutzt, das macht die Vergleichbarkeit ziemlich schwierig.Warum? Und welche Rolle spielt es für die Einordnung von OC-Polaris10 vs. 1070?
Ach? Na dann siehst du doch, dass die Zahlen nicht passen. Rechne doch mal eine potentielle GTX980 (=P10 Leistung) auf 70% höhere Energieeffizenz rum. Da darfst du auch gern deine 174W Leistungsaufnahme nehmen. Da is man meilen von 150W entfernt!Und die RX480 wird auch ein gutes Stückchen von 150W entfernt sein ;). Und hat Igor die GTX980 Referenz nicht mit ~185W vermessen (irgendein besser gekühltes Custommodell hatte er bei 175W)? Dann paßt es mit 110W ziemlich perfekt. Aber selbst mit nur 175W wäre man auf 6W dran. Da willst Du Dich sicher nicht streiten, weil es in dem Bereich praktisch nur darauf ankommt, welchen genauen Betriebspunkt der Hersteller als Standard gewählt hat. In Anbetracht der noch unbekannten genauen Performance ist es ziemlich fruchtlos, sich über solche Dinge zu streiten. Warten wir besser auf Reviews. ;)
Schön, dass du selbst zugibst, Schwachsinn geschrieben zu haben ;DWillst Du Dich gerade selbst parodieren? Wenn hier einer Blödsinn schreibt, dann sicher nicht ich. Schau Dir an, was weiter oben im Thread steht.
Na klar und die 7 TFlops bei 20% Übertaktung natürlich mit unter 100W, wissen wir doch ;DDu trollst offensichtlich noch und liest nicht die Posts im Thread. Am besten holst Du das langsam mal nach ;).

Screemer
2016-06-13, 21:06:29
three cards :D

M4xw0lf
2016-06-13, 21:07:33
Sie hat mehr als eine Karte, immerhin ^^

Skysnake
2016-06-13, 21:07:46
LOL war das gerade nen harter Diss der GTX1080 :ugly: WTF!

UND WTF!!! 3 Karten?

dargo
2016-06-13, 21:08:25
RX460 ohne zusätzlichen Stromstecker, ergo <75W.


UND WTF!!! 3 Karten?
RX480, 470 und 460.

PS: warum ist die RX470 eigentlich nackt? Beim Kühlerdesign noch nicht entschieden?

M4xw0lf
2016-06-13, 21:09:05
Welch... epische... Präsentation dieses Rucksack-PCs grade ;D

Skysnake
2016-06-13, 21:09:48
Das habe ich mir auch gerade gedacht. Die Sah ECHT motiviert aus.... :facepalm:

Skysnake
2016-06-13, 21:10:23
hmmm. Serious Sam... Das könnte echt richtig fett werden :D

Ansonsten nett mit den kleinen KArten, allerdings frage ich mich, wie die Performance wird.

ZEN!

N0Thing
2016-06-13, 21:10:51
Naja, da Polaris mit 60 FPS framelock schon mit 86W Gesamtsystemverbrauch demonstriert wurde vs GTX 950 mit 140 W in Star Wars Battlefield, sind die 75W mit runter getaktetem GP104 nicht sonderlich spektakulär und auch erst mal nicht effizienter als P10. Die GTX 950 hat eine TDP von 90W und bringt in offiziellen Benches ca. 85 FPS bei 1080@medium ohne 60 FPS-lock und verbraucht dabei etwa 20W mehr als bei der AMD Demo.

Selbst wenn die GTX 1070 auf 75W runter getaktet werden kann, haben sie immer noch deutlich mehr Verbrauch als P10 in der Demo. Daher weiss ich auch gar nicht was das für hirnrissige Effizienzrechnungen sein sollen mit 110W Verbrauch bei P10. Wäre doch mal interessant eine GTX 1070 direkt in dem Setting der AMD-Demo zu vermessen.

Die v-sync Battlefront Demo lief damals afaik mit P11.


RX460 ohne zusätzlichen Stromstecker, ergo <75W.


RX480, 470 und 460.

Das war für P11 zu erwarten.

Skysnake
2016-06-13, 21:12:15
Das wars jetzt aber nicht oder?....

Screemer
2016-06-13, 21:12:19
thats it? wtf? na dann geh ich mal auf die couch.

Armaq
2016-06-13, 21:12:22
RX460 ohne zusätzlichen Stromstecker, ergo <75W.


RX480, 470 und 460.

PS: warum ist die RX470 eigentlich nackt? Beim Kühlerdesign noch nicht entschieden?
Karte für die Partner, sagte sie.

WTF macht Day9 da und meine Güte er sollte weniger Twinkies essen.

Rente
2016-06-13, 21:12:59
AMD hat mal wieder geliefert... einen Rucksack!

Aber um mal etwas ernster zu sein: Das war alles? 0 neue Informationen für Gamer, warum diese Show "presenten"? Das war IMHO doch sehr enttäuschend.

Loeschzwerg
2016-06-13, 21:13:09
Das wars jetzt aber nicht oder?....

Sieht irgendwie schon danach aus ^^

N0Thing
2016-06-13, 21:13:16
Das war weniger als ich erwartet habe. -_-

Immerhin weiß man nun, dass fürs erste drei unterschiedliche Karten ausgeliefert werden und dass die RX 480 das Topmodell darstellt.

illidan
2016-06-13, 21:13:45
Nu isch ova?

dargo
2016-06-13, 21:13:50
Das war für P11 zu erwarten.
Kein Salvage dann bei P11? Wäre etwas merkwürdig.

[MK2]Mythos
2016-06-13, 21:14:39
Wie oft denn noch? Das NDA läuft nicht umsonst erst am 29.06. ab. Ich frag mich, was ihr euch erwartet? :D

samm
2016-06-13, 21:14:51
Immerhin weiß man nun, dass fürs erste drei unterschiedliche Karten ausgeliefert werden und dass die RX 480 das Topmodell darstellt."starting from 199" - gibt also noch mehr Version der 480.

AMD hat mal wieder geliefert... einen Rucksack!I lold :D Aber es ist Alienware

M4xw0lf
2016-06-13, 21:15:09
Kein Salvage dann bei P11? Wäre etwas merkwürdig.
Der geht sicher in die Laptops.

Loeschzwerg
2016-06-13, 21:15:19
Kommt bestimmt ein Salvage, aber möglicherweise OEM only.

Armaq
2016-06-13, 21:15:20
NDA heißt nicht, dass AMD nicht disclosen darf. ;)

Sam Pau
2016-06-13, 21:15:32
hype train derailed ... for now.

d2kx
2016-06-13, 21:15:41
Ach, Lisa Su, wie schaffst du das nur immer wieder *schwärm*

http://i.imgur.com/YPXiI9E.gif

Troyan
2016-06-13, 21:15:41
Kann jemand die Größte des Chips errechnen?!

http://i.imgur.com/Pw5xIT0.jpg
https://forums.overclockers.co.uk/showpost.php?p=29621877&postcount=2631

Achill
2016-06-13, 21:16:42
Vielleicht gibt es die 480X auch wieder erstmal nur für Apple und die 480 ist wie bei der 280 die leicht kleinere Version?

robbitop
2016-06-13, 21:17:03
Also was Marketing und Auftritte in der Öffentlichkeit angeht ist AMD auch im Jahr 2016 noch ziemlich unbeholfen. (Präsentation bei PCGamers)

samm
2016-06-13, 21:17:26
Ach, Lisa Su, wie schaffst du das nur immer wieder *schwärm*Schwärmt da einer für den Chef? :biggrin: Sie macht das ganze Präsentationszeug aber schon gut und recht relaxed (wobei das ewige amerikanische "we are excited to blabla" dadurch nicht glaubwürdiger wird).

Tamagothi
2016-06-13, 21:18:06
P11 hat < 60 Watt und nicht < 75Watt

Loeschzwerg
2016-06-13, 21:18:33
Vielleicht gibt es die 480X auch wieder erstmal nur für Apple und die 480 ist wie bei der 280 die leicht kleinere Version?

So wie ich es vernommen habe hat man sich komplett vom Suffix verabschiedet.

Gipsel
2016-06-13, 21:18:37
"starting from 199" - gibt also noch mehr Version der 480.In etwa so vielleicht?
4GB Referenz: $199
8GB Referenz: $229-239
8GB Custom-OC: $250+

N0Thing
2016-06-13, 21:19:22
Kein Salvage dann bei P11? Wäre etwas merkwürdig.

Vielleicht wäre man bei einem beschnittenen P11 schon zu nahe an den eigenen APUs. Für Notebooks wird man aber sicher auch Salvage P11 sehen.

"starting from 199" - gibt also noch mehr Version der 480.

Ich habe jetzt mal die 8GB Variante nicht als eigene Karte angesehen, da gleicher Chip.

Wixi
2016-06-13, 21:20:12
In etwa so vielleicht?
4GB Referenz: $199
8GB Referenz: $229-239
8GB Custom-OC: $250+

glaub es wurde mal gesagt, dass es nur ein Referenz-Design von AMD für die 4GB Version geben wird.

Fliwatut
2016-06-13, 21:20:13
Mythos;11066245']Wie oft denn noch? Das NDA läuft nicht umsonst erst am 29.06. ab. Ich frag mich, was ihr euch erwartet? :D
Ein paar mehr Infos zur Leistung dürften es schon sein, diese angeblichen Leaks fangen an zu nerven.

dargo
2016-06-13, 21:21:08
P11 hat < 60 Watt und nicht < 75Watt
Schon klar... der PCIe wird eh schon lange nicht mehr voll belastet. 50W sind auch <75W. Nur mal so als Beispiel. ;)

OBrian
2016-06-13, 21:21:47
Also wenn das PCB noch kleiner wird als die da rechts, müssen sie auf PCIe-x4 umsatteln ;)

Nee aber im Ernst, eine low-Profile-Karte des kleinsten Chips wäre super, vor allem wenn die dann mit einem passiven 1-Slot-Kühler auskäme.

y33H@
2016-06-13, 21:22:20
P11 hat < 60 Watt und nicht < 75WattKarte ungleich ASIC :tongue:

Tamagothi
2016-06-13, 21:23:37
Schon klar... der PCIe wird eh schon lange nicht mehr voll belastet. 50W sind auch <75W. Nur mal so als Beispiel. ;)

Das ist mir schon klar aber <60 Watt sieht halt besser aus :biggrin:

M4xw0lf
2016-06-13, 21:24:18
Wuhuuuu, Tyranny!!!

Loeschzwerg
2016-06-13, 21:25:46
Das ist mir schon klar aber <60 Watt sieht halt besser aus :biggrin:

Pssst, du nimmst dem AMD Marketing die Arbeit ab ;)

Sunrise
2016-06-13, 21:28:37
glaub es wurde mal gesagt, dass es nur ein Referenz-Design von AMD für die 4GB Version geben wird.
Für die 8GB-Version...

dargo
2016-06-13, 21:28:56
Kann jemand die Größte des Chips errechnen?!

http://i.imgur.com/Pw5xIT0.jpg
https://forums.overclockers.co.uk/showpost.php?p=29621877&postcount=2631
Sehe ich das richtig? Die RX470 kommt bereits mit 7 Phasen?

Dural
2016-06-13, 21:30:42
das ist doch eine rx480 und es sind 6.

Loeschzwerg
2016-06-13, 21:31:20
Das ist einfach das Ref.-PCB generell für P10. P10 Salvage bekommt dann weniger Bauteile.

Linmoum
2016-06-13, 21:31:44
das ist doch eine rx480 und es sind 6.
Das links ist die 470 und das rechts die 460.

Dural
2016-06-13, 21:33:02
Trotzdem ist es das rx480 PCB

dargo
2016-06-13, 21:34:46
Das links ist die 470 und das rechts die 460.
Genau so hatte ich das verstanden. Die RX480 hat Lisa vorher mit dem Referenzkühler gezeigt. Und auf der linken Karte sehe ich 7 Mosfets.

Linmoum
2016-06-13, 21:40:15
Da sie vom gesamten Polaris-Lineup sprach gehe ich davon aus, dass sich bei der 480 vor allem OC-mäßig einiges rausholen lässt.

Klar, über Vega weiß man noch nichts, aber vom Gefühl her wäre der Abstand zwischen der 480 und dem kleinen Vega zu groß, wenn ersterer leistungstechnisch wirklich "nur" zwischen der 970/980 liegen würde.

Elkinator
2016-06-13, 21:44:19
Der hat aber keine 6 Tflops :D
Du kennst den SOC?

AlphaNUSS
2016-06-13, 21:47:22
Du kennst den SOC?
Sry mein Fehler, hab grad nur an die GPU Leistung gedacht.

Wixi
2016-06-13, 21:47:36
Für die 8GB-Version...
Hast'n Link dazu? Find gerade nichts. Danke!

Dural
2016-06-13, 21:48:48
Das ihr immer noch grosse Hoffnung in Polaris habt. Nach all dem was man bis jetzt weis wird das nix gegen Pascal. Selbst AMD wird das eingesehen haben sonst würden sie wohl kaum so vorgehen.

Da bleibt ihnen, wie eigentlich immer bei AMD nur der Preis übrig.
Ich freue mich da mehr auf Zen, endlich wider ein vernünftiges AMD System zusammen Schrauben ;)

Loeschzwerg
2016-06-13, 21:49:19
Genau so hatte ich das verstanden. Die RX480 hat Lisa vorher mit dem Referenzkühler gezeigt. Und auf der linken Karte sehe ich 7 Mosfets.

Und es ist immer noch das Ref.-PCB. Die kann auch völlig un-/wissentlich eine RX 480 ohne Kühler gezeigt haben. Für das Publikum ist das doch so oder so irrelevant.

Ich würde mir da nichts darauf einbilden. Vermutlich geistern diese Samples schon eine ganze Weile beim PR Team herum und werden zur jeder Tagung geschickt.

Linmoum
2016-06-13, 21:52:50
Das ihr immer noch grosse Hoffnung in Polaris habt. Nach all dem was man bis jetzt weis wird das nix gegen Pascal. Selbst AMD wird das eingesehen haben sonst würden sie wohl kaum so vorgehen.
Was genau hat Pascal (also GP104) denn jetzt mit Polaris zu tun? Erwartet doch niemand, der sich mehr als zwei Minuten mit beidem beschäftigt, dass beide beieinander liegen.

Gipsel
2016-06-13, 21:53:07
Das ihr immer noch grosse Hoffnung in Polaris habt. Nach all dem was man bis jetzt weis wird das nix gegen Pascal. Selbst AMD wird das eingesehen haben sonst würden sie wohl kaum so vorgehen.Also wer immer noch große Hoffnung in GP107 hat. Nach all dem, was man bis jetzt weiß, wird das nix gegen Polaris 10. Selbst nV wird das eingesehen haben, sonst würden sie wohl kaum so vorgehen und GP107 nicht gegen Polaris 10 sondern vermutlich nur gegen Polaris 11 stellen.
:facepalm:

Gorkon
2016-06-13, 21:58:21
Füttert doch nicht immer diese grünen Trolle. Die haben in ihrem Thread genug zu futtern... :|