PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

[MK2]Mythos
2016-06-01, 10:04:38
Wie soll man die geringe Auslastung im Crossfire-Benchmark gegen die 1080 interpretieren? Ist da das CPU-Limit erreicht?
Eventuell 60fps Limit?

Dino-Fossil
2016-06-01, 10:11:10
Wow, der Preis ist mal echt ne Ansage.
Ich denke, da muss ich mir einfach eine holen. :biggrin:
Meine 7850 wird langsam etwas schwach auf der Brust.

Nunja, bleiben noch die Reviews abzuwarten, bezüglich reale Performance und Verbrauch, aber wenn sie das Versprochene einhalten (390(X) @ <=150W), haben sie eine Killer-Karte für den Massenmarkt, die wohl auch NVidias 1060 gehörig die Preise verhageln dürfte.

Ein potentielles Problem das ich allerdings sehe: die Effizienz ist u.U. immer noch deutlich hinter nVidia. Ähnlicher Verbrauch wie die 1070 bei (vermutet) 2/3 der Performance.
Wir sind hier (<=150W) in einem Bereich, in dem das mMn kaum eine Rolle spielt, aber die Presse wird sich vermutlich daran festbeißen, wenn sie AMD einen reinwürgen wollen.

Frosty
2016-06-01, 10:11:12
bin mal gespannt ob die custom designs der 480 noch einen dvi-anschluss haben werden, die referenzkarte ja offenbar nicht mehr.

-/\-CruNcher-/\-
2016-06-01, 10:14:28
Wow, der Preis ist mal echt ne Ansage.
Ich denke, da muss ich mir einfach eine holen. :biggrin:
Meine 7850 wird langsam etwas schwach auf der Brust.

Nunja, bleiben noch die Reviews abzuwarten, bezüglich reale Performance und Verbrauch, aber wenn sie das Versprochene einhalten (390(X) @ <=150W), haben sie eine Killer-Karte für den Massenmarkt, die wohl auch NVidias 1060 gehörig die Preise verhageln dürfte.

Ein potentielles Problem das ich allerdings sehe: die Effizienz ist u.U. immer noch deutlich hinter nVidia. Ähnlicher Verbrauch wie die 1070 bei (vermutet) 2/3 der Performance.
Wir sind hier (<=150W) in einem Bereich, in dem das mMn kaum eine Rolle spielt, aber die Presse wird sich vermutlich daran festbeißen, wenn sie AMD einen reinwürgen wollen.

Diesbezüglich wird der richtige Kampf mit den Mobile Parts stattfinden :)

Arcanoxer
2016-06-01, 10:16:41
Auf die 1070 wird es ganz sicher Auswirkungen haben.Ich bin da nicht so Optimistisch, warte erst mal die "freien" Benchmarks ab.

Warum soll sich nVidia in die Ecke gedrängt fühlen, mit einer 5 Teraflops Karte?
Sogar die R390 ist mit 5.1 Teraflops auf den Papier schneller, dass ist GTX970 niveau (wenn es hoch kommt) vom letzten Jahr.
Das wird mit einer GTX1060 abgefangen und fertig.

tm0975
2016-06-01, 10:16:44
Schade das Polaris nicht schnell genug ist um die Preise von der GTX1070/GTX1080 zu drücken.

ich finde es super, dass sich amd jetzt mal genau auf ihre käuferschicht konzentrieren und im bereich von 200 bis 300 € ihre maximale prio legen. sollen doch leute wie du "AMD soll was bringen, damit ich nvidia günstiger kaufen kann" ruhig hohe preise zahlen. was interessiert das amd?! gut so!

nebenbei bemerkt könnte es sich bei dieser aggresiven preisgestaltung seitens AMD mit blick auf volumen evtl. sogar um einen direkt von glofo gewünschte marktanteilsstrategie handeln gegenüber tsmc. jede karte weniger von nvidia ist weniger umsatz für tsmc. nvidia selbst kommt dem ja mit der hochpreisstrategie insofern entgegen, dass dennoch nvidias gewinne sprudeln werden.

Tarkin
2016-06-01, 10:17:18
;11052308']Persönlich gesagt, finde ich die Vorstellung peinlich.... Aus Marketing ein Desaster... Nimm zwei wenn du 1080 Perf. haben willst, mit all den Nachteilen eines Multi-Gpu? Doom vorführen mit nicht allen Einstellungen am Anschlag und sich dabei auch noch erwischen lassen?

Alles in allem wird die Karte bestimmt seine Käufer finden, aber die Masse wird zu Nvidia greifen.

genau, die Masse kauft viel lieber Karten, die nicht viel schneller sind aber das doppelte kosten (so wie du) :freak:

troll doch bitte im nVidia Forum

Botcruscher
2016-06-01, 10:19:41
Vega hätte ich bislang immer in einem Preisbereich ab 500,- € eingeschätzt. Da würde noch eine ziemlich große Lücke bleiben.
Vega besteht aus zwei Chips. Einer kommt ganz sicher mit HBM2 und für die APUs. Der andere könnte billig mit GDDR5(X) bestückt sein. Wobei wir über die HBM Kosten nichts wissen. Mit 3 2 Stacks könnte es auch günstig sein.

dass ist GTX970 niveau (wenn es hoch kommt) vom letzten Jahr.
Das wird mit einer GTX1060 abgefangen und fertig.
Die Rechenleistung sagt doch alleine nichts aus. Wenn sich die Karte zwschen 970 und 980 einordnet ist die 1070 30% schneller. Das wirkt auf die preisbewußten Käufer dann doch. Die 1060 mit GP104 werden wir ganz sicher nicht bei 200€ sehen.

dildo4u
2016-06-01, 10:20:04
genau, die Masse kauft viel lieber Karten, die nicht viel schneller sind aber das doppelte kosten (so wie du) :freak:

troll doch bitte im nVidia Forum

Die Masse ist Bereit um die 300€ auszugeben siehe die 970,schätze mal dort setzt die 1060 an.

http://abload.de/img/steam5gxx1.png

http://store.steampowered.com/hwsurvey/videocard/

-/\-CruNcher-/\-
2016-06-01, 10:20:24
Ich bin da nicht so Optimistisch, warte erst mal die "freien" Benchmarks ab.

Warum soll sich nVidia in die Ecke gedrängt fühlen, mit einer 5 Teraflops Karte?
Sogar die R390 ist mit 5.1 Teraflops auf den Papier schneller, dass ist GTX970 niveau (wenn es hoch kommt) vom letzten Jahr.
Das wird mit einer GTX1060 abgefangen und fertig.

Bei der 1060 wird aber der GameWorks layer immer dünner den man effizient nutzen kann das müssen die Benchmarks wiederspiegeln ;)

Armaq
2016-06-01, 10:21:44
Die Masse ist Bereit um die 300€ auszugeben siehe die 970,schätze mal dort setzt die 1060 an.


http://store.steampowered.com/hwsurvey/videocard/
Für weniger war es nur lange nicht zu haben. Die Masse kauft sehr gerne für 200 $ ;)

HOT
2016-06-01, 10:26:44
Diesbezüglich wird der richtige Kampf mit den Mobile Parts stattfinden :)
Da werden wir denke ich auch relativ fix die XT als M495X sehen. Die 36CU-Version wird sicherlich die M490.

Dural
2016-06-01, 10:28:12
Fassen wir mal zusammen:

-199.- 4GB (ohne Steuer)
-249.- 8GB (ohne Steuer)
-ca. GM204 / Hawaii Leistung
-150Watt TDP
-Realer Verbrauch sicherlich etwas darunter.
-AMD möchte den User wieder CF andrehen.
-Die Ref. Karte sieht ganz hübsch aus und dürfte wohl auch recht leise sein.

Die Frage ist noch ob der Polaris10 36CU oder 40CU hat.

iuno
2016-06-01, 10:29:01
249.- 8GB (ohne Steuer)
Bisher nicht so gelesen, sichere Info oder Speku?

Botcruscher
2016-06-01, 10:29:25
Die Masse ist Bereit um die 300€ auszugeben siehe die 970,schätze mal dort setzt die 1060 an.
http://store.steampowered.com/hwsurvey/videocard/

5% sind nicht Masse und ein gutes 200€ Angebot gab es in der letzten Generation schlicht nicht. 960 und 380 sind doch einfach nur Müll gewesen. Klar das da mehr in ein brauchbare Karte investiert haben.

Argo Zero
2016-06-01, 10:30:45
Sehe ich da etwa einen P/L-Knaller auf uns zu kommen von AMD?
AMD sei es gegönnt und Wettbewerb ist immer gut :)

iuno
2016-06-01, 10:31:05
Bei 200€ kommst du mit 200$ aber auch nicht raus, sondern bei 250€.
Da gab es mitunter schon Hawaii Pro Deals, gab es die 970 nicht auch unter 300?
Zumal noch nicht sicher ist, ob die 199$ Karte auch wirklich die 8 GiB hat.

Dural
2016-06-01, 10:32:30
AMD hat gesagt das man mit zwei RX480 für 500.- GTX1080 Leistung hat.
Zudem soll es eben eine 4GB und eine 8GB Version geben.

DrumDub
2016-06-01, 10:33:34
AMDs 200-Dollar-Polaris-Grafikkarte liefert über 5 Teraflops (Golem) (http://www.golem.de/news/radeon-rx-480-amds-200-dollar-polaris-grafikkarte-liefert-ueber-5-teraflops-1606-121213.html)

dildo4u
2016-06-01, 10:34:12
AMD hat gesagt das man mit zwei RX480 für 500.- GTX1080 Leistung hat.
Jup die 8GB Version kostet 250€.

Ich schätze mal c4 ist 480 und c7 480x?

http://videocardz.com/60253/amd-radeon-r9-480-3dmark11-benchmarks

Argo Zero
2016-06-01, 10:34:23
Mit zwei Karten hat man doch meist nur so 80% Effizienz oder?
Dann sollte eine wohl knapp(?) unter der 1070 liegen. Die Frage ist wie das FPS/€ Verhältnis dann ausschaut.

Dural
2016-06-01, 10:38:01
Eine 1080 ist laut CB 44% schneller als eine 980TI. Wenn CF zu 80% Skaliert dürfte man im AMD Parade Game noch ein gutes Stück darunter liegen.

Im Durchschnitt wird man etwa den GM204 erreichen, etwas unter Hawaii sein. Meiner Persönliche Meinung.

woodsdog
2016-06-01, 10:38:38
naaajaaa... sieht OK aus... aber sie verheizen laut TDP auch ein 1070 Power budget für nicht-1070 Leistung. Das mag in der Klasse noch OK sein... lässt aber für größere Chips erst mal nix gutes vermuten.
Das Argument "mit Vega ist das anders weil neu usw" ist bisher doch IMO ziemlich haltlos. Wir wissen gar nix.

hinzu kommt dieser dusselige CF vergleich zur 1080... wenn diese die Leistung X mit 170W schafft, werden 2 150W karten diese Leistung auch mit nicht-Volllast sicher nicht mit <200W machen.

HOT
2016-06-01, 10:40:30
Jup die 8GB Version kostet 250€.

Ich schätze mal c4 ist 480 und c7 480x?

http://videocardz.com/60253/amd-radeon-r9-480-3dmark11-benchmarks
C4 wird einfach ein älteres Sample sein. Für XT sind die zu nah beieinander. Und nicht schon wieder mit Tonga kommen, Tonga ist ein Unfall.

Dural
2016-06-01, 10:41:01
Also ich muss sagen das ich nie und nimmer eine TDP von 150Watt erwartet hätte.

Ich hoffe sehr das der reale Verbrauch darunter sein wird, oder die Karte plötzlich doch mehr Leistung hat.

150Watt sind sonst für einen 230mm2 14nm Chip doch eindeutig zu viel.

radical83
2016-06-01, 10:41:40
Vega besteht aus zwei Chips. Einer kommt ganz sicher mit HBM2 und für die APUs. Der andere könnte billig mit GDDR5(X) bestückt sein. Wobei wir über die HBM Kosten nichts wissen. Mit 3 Stacks könnte es auch günstig sein.

Gehst du von 2 gleichen Chips mit unterschiedlichen Speichercontrollern aus (macht das wirtschaftlich überhaupt Sinn) ?
Oder voller Chip mit HBM und ein abgespeckter mit GDDR(X)?

Wären die von VZ (http://videocardz.com/60253/amd-radeon-r9-480-3dmark11-benchmarks) gemeldeten 3dMark11 Benchmarks eigentlich, anhand der bisher bekannten Spezifikationen, bestätigt oder eher entkräftet?

dildo4u
2016-06-01, 10:42:44
naaajaaa... sieht OK aus... aber sie verheizen laut TDP auch ein 1070 Power budget für nicht-1070 Leistung. Das mag in der Klasse noch OK sein... lässt aber für größere Chips erst mal nix gutes vermuten.
Das Argument "mit Vega ist das anders weil neu usw" ist bisher doch IMO ziemlich haltlos. Wir wissen gar nix.
AMD nimmt TDP Angaben eh nicht so genau eine Fury X zieht gerne mal 330 Watt und wird mit 275 angegeben.Also erstmal Tests abwarten.


http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/

Unicous
2016-06-01, 10:42:46
C4 wird einfach ein älteres Sample sein. Für XT sind die zu nah beieinander.

Das ist eine PCI ID, nix "Sample".

Disco_STFU
2016-06-01, 10:43:06
1.266 Mhz wohl auf der Polaris

http://www.techpowerup.com/223043/amd-radeon-rx-480-clock-speeds-revealed-clocked-above-1-2-ghz

Dino-Fossil
2016-06-01, 10:43:21
naaajaaa... sieht OK aus... aber sie verheizen laut TDP auch ein 1070 Power budget für nicht-1070 Leistung. Das mag in der Klasse noch OK sein... lässt aber für größere Chips erst mal nix gutes vermuten.
Das Argument "mit Vega ist das anders weil neu usw" ist bisher doch IMO ziemlich haltlos. Wir wissen gar nix.

Stimmt, wir wissen noch nicht viel.
Ich seh das auch als potentielles Problem.
Aber die 150W können auch Maximum sein (PCIe+1x6pin), während der reale Verbrauch darunter liegt.

Und Vega hat nicht nur HBM anstelle von hoch getaktetem GDDR5, sondern bringt wohl noch weitere Verbesserungen. AMD hat ja nochmals gesteigerte Effizienz in Aussicht gestellt.
Also mal abwarten, ich sehe da ne Menge Potential für relativ niedrigen Verbrauch bei Vega.

Birdman
2016-06-01, 10:44:50
also wer glaubt dass die Karte auch nur Ansatzweise der GTX1070 gefährlich wird, müsste sich mal in den Allerwertesten kneifen, damit er aus seinem Traum erwacht.

Aktuell sieht es für mich so aus als hätten wir mehr oder weniger einen 1:1 GTX970 Ersatz (Performance, Verbrauch) aber für weniger Geld und mit modernerer Architektur, sowie vollwertigen 4GB.

Das ist selbst aktuell noch der Bereich, in dem ich die meisten Grafikkarten empfehle/verkaufe - was dann eben häufig mit der 970er endet.
Sobald die Polaris da ist, muss man hier nicht mal mehr darüber nachdenken, was man nimmt.

Armaq
2016-06-01, 10:45:08
Es gibt nur 1x6 Pol Anschlüsse. Das reicht doch als Aussage völlig.

Complicated
2016-06-01, 10:45:12
Die Masse ist Bereit um die 300€ auszugeben siehe die 970,schätze mal dort setzt die 1060 an.


http://store.steampowered.com/hwsurvey/videocard/Welche Masse denn? 5% der Steamuser? Zähl mal die nachfolgenden Nvidia Desktop-GPUs bei Steam. Der GTX 970 folgen:
2. GTX 960
3. GTX 750 Ti
4. GTX 760
5. GTX 660
6. GTX 650
7. GTX 750
8. GTX 770
9. GTX 980
10. GTX 550 Ti

Unter den Top Ten sind 13% der Karten billiger als diese 349$ und lediglich 7,4 % haben über 350$ bezahlt. Und das nur Nvidia Nutzer bei Steam ohne mobile GPUs und iGPUs. Also selbst dort sind 2/3 der schnellsten Nvidia Desktop GPUs unter diesem Preispunkt zu finden. Schätze mal selbst die Masse der Nvidia Käufer ist nicht bereit mehr als 349$ zu bezahlen, laut deiner eigrenen Quelle.

75% aller GPU-Besitzer haben unter 349$ bezahlt, Stand heutiger Markt. 25% haben über 349$ bezahlt, das entspricht 7,5 Mio GPUs aus ca. 40 Mio. laut Peddie Research.

woodsdog
2016-06-01, 10:45:13
mein Fazit ist "ernüchternd".

Im Gegensatz zu den Alten AMD-Heizöfen sicherlich ein großer Schritt, ggü der Konkurrenz - und die ist nun mal das Maß - aber eher "hatten wir alles schon letzte gen. Mindestens".

Preis/Leistung ist super wenn man nur X ausgeben möchte, keine Frage. Das wars dann aber auch.

memakr
2016-06-01, 10:45:37
1.266 Mhz wohl auf der Polaris

http://www.techpowerup.com/223043/amd-radeon-rx-480-clock-speeds-revealed-clocked-above-1-2-ghz

Damit dürfte es definitiv C7 sein.....

AlphaNUSS
2016-06-01, 10:45:48
Ich verstehe nicht, warum AMD die TDP schon wieder so hoch angibt. Die Karte hat gerade mal einen 6 Pin Anschluss und verbraucht wahrscheinlich weniger als 150 Watt.

Dural
2016-06-01, 10:47:59
Mit 1266MHz hat die Karte 5,8TF, in Verbindung mit dem GDDR5 Speicher kommen da die 150Watt eventuell halt schon hin.

tm0975
2016-06-01, 10:48:07
aber sie verheizen laut TDP auch ein 1070 Power budget für nicht-1070 Leistung. Das mag in der Klasse noch OK sein... lässt aber für größere Chips erst mal nix gutes vermuten.
Das Argument "mit Vega ist das anders weil neu usw" ist bisher doch IMO ziemlich haltlos. Wir wissen gar nix.

das stimmt so nicht. wir wissen, denn amd hat es bestätigt, dass es von polaris zu vega deutliche effizienzverbesserungen geben wird! also bitte piano und nicht jedes aml gegen besseren wissens was anderes behaupten, denn das stimmt so nicht. die aussage von amd ist ein fakt, den sollte man mittlerweile wissen.

[dzp]Viper
2016-06-01, 10:49:04
Ich verstehe nicht, warum AMD die TDP schon wieder so hoch angibt. Die Karte hat gerade mal einen 6 Pin Anschluss und verbraucht wahrscheinlich weniger als 150 Watt.
Wohl "Worst-Case"...
Es wurde ja oftmals von "bis zu 150 Watt" gesprochen. Das heißt eben nicht, dass sie unter Last ständig 150 Watt verbraucht sondern auch deutlich drunter sein kann.

HOT
2016-06-01, 10:50:43
Das ist eine PCI ID, nix "Sample".
Jo richtig, und es heißt eben trotzdem genau 0 dass die eine XT und die andere Pro ist. Das kann alles heißen.

Disco_STFU
2016-06-01, 10:51:46
Im Video mit Linus sagt doch Koduri ganz klar LESS THAN 150. :)

woodsdog
2016-06-01, 10:52:48
das stimmt so nicht. wir wissen, denn amd hat es bestätigt, dass es von polaris zu vega deutliche effizienzverbesserungen geben wird! also bitte piano und nicht jedes aml gegen besseren wissens was anderes behaupten, denn das stimmt so nicht. die aussage von amd ist ein fakt, den sollte man mittlerweile wissen.

Dann gib doch mal 'n link mit offizieller Quelle wenn du das schon so sicher wissen willst.

Ich würd mich ja freuen wenn es so ist.

DrumDub
2016-06-01, 10:52:49
AMD: Erste Details zur Polaris-Grafikkarte Radeon RX 480 (heise) (http://www.heise.de/newsticker/meldung/AMD-Erste-Details-zur-Polaris-Grafikkarte-Radeon-RX-480-3223783.html?hg=1&hgi=1&hgf=false)

@mods
man könnt ja so langsam mal ne (p)review thread im "Grafikchips und Grafikkarten " unterforum aufmachen, jetzt wo doch eine menge specs offiziell bekannt gegeben wurden...

dildo4u
2016-06-01, 10:53:37
Im Video mit Linus sagt doch Koduri ganz klar LESS THAN 150. :)
Kommt drauf an was sie testen vermutlich nur harmlose Games daher das 275 TDP der Fury X,laut PCGH zieht sie 330 in Games.

Disco_STFU
2016-06-01, 10:56:40
Ich sehs schon kommen... wegen 20-30 Watt mehr Verbauch bei gleicher Leistung wird AMD wieder zerissen...

Ich muss meine Stromrechnung selbst zahlen!!1 :freak:

Birdman
2016-06-01, 10:59:29
Also ich muss sagen das ich nie und nimmer eine TDP von 150Watt erwartet hätte.
150Watt sind sonst für einen 230mm2 14nm Chip doch eindeutig zu viel.
Gut möglich dass sich AMD durch GP104 (wenn auch diese in einem andern Segment wildern) genötigt sah, die Taktraten von GPU und Speicher leicht höher anzusetzen als ehemals geplant und die Karten nun über dem Sweet Spot operieren.

Dies muss aber gar nichts für P11 oder Vega heissen, wie dort die TDP und/oder Verbrauch aussehen wird, lässt sich nach der aktuellen Vorstellung von AMD nicht sagen.

Ätznatron
2016-06-01, 10:59:37
Kommt drauf an was sie testen vermutlich nur harmlose Games daher das 275 TDP der Fury X,laut PCGH zieht sie 330 in Games.

Hm, im Durchschnitt sind's bei HT4U 257 Watt.

Die 330 Watt sind dann doch wohl nur seltene Ausreisser nach oben.

iuno
2016-06-01, 11:00:00
mein Fazit ist "ernüchternd".

Im Gegensatz zu den Alten AMD-Heizöfen sicherlich ein großer Schritt, ggü der Konkurrenz - und die ist nun mal das Maß - aber eher "hatten wir alles schon letzte gen. Mindestens".
Was fuer ein Unsinn ;D
Das Argument kannst du bei jeder Vorstellung der lezten Jahre auffuehren, die nicht die top Chips betreffen. GTX 1080 Leistung gab es letzte Generation auch schon. 980 Leistung gab es davor auch schon usw.

Und dass ja auch jeder potenzielle Kunde mindestens(!) schon mit GM204 eingedeckt ist, gibt deinem Argument noch richtig Nachdruck.

@mods
man könnt ja so langsam mal ne (p)review thread im "Grafikchips und Grafikkarten " unterforum aufmachen, jetzt wo doch eine menge specs offiziell bekannt gegeben wurden...
Es gibt aber noch keine (P)Reviews und du kannst den Thread auch selber aufmachen ;p

dildo4u
2016-06-01, 11:00:39
Ich sehs schon kommen... wegen 20-30 Watt mehr Verbauch bei gleicher Leistung wird AMD wieder zerissen...

Ich muss meine Stromrechnung selbst zahlen!!1 :freak:
Das Problem ist das ist ne billig Karte da bleibt also wenig Geld für den Kühler,die 20-30 Watt können das schon was ausmachen wenn man eine leise Karte haben will.

BK-Morpheus
2016-06-01, 11:00:48
Wenn die Karte ungefähr GTX 980 Niveau schafft und die 8GB Version für 270€ im auf Lager ist, werde ich definitiv eine kaufen.

dargo
2016-06-01, 11:01:57
Preis ist gut, aber mit 150 Watt TDP nicht auf Effizienz getrimmt im Vergleich zur GTX 1070.
Wie will das AMD denn schaffen mit einem größeren Chip, der es mit den Performance-Karten von NVidia aufnehmen soll?
Indem Vega bei der Effizienz nochmal einen drauflegt.

radical83
2016-06-01, 11:06:25
Kommt drauf an was sie testen vermutlich nur harmlose Games daher das 275 TDP der Fury X,laut PCGH zieht sie 330 in Games.

Ohne die entsprechenden FPS für die getesteten Spiele anzugeben ist dies natürlich sehr aussagefähig. :rolleyes:

Flusher
2016-06-01, 11:06:58
Gibts dann die Überschrift "GTX 980 Leistung zum halben Preis"? ;)

Quatsch - ist doch nicht NVIDIA! :freak:

w0mbat
2016-06-01, 11:07:45
Sieht so aus, als würde die RX 480 meine nächste Karte werden. Performance zwischen GTX 970 und 980, 8GB VRAM und unter 150W? Hammer!

dargo
2016-06-01, 11:11:35
Meine Glaskugel war besser^^.
Jo... bin selbst überrascht. Hätte eher mit 300€ gerechnet. Scheinbar läuft 14nm bereits gut genug.

HOT
2016-06-01, 11:12:45
Im Video mit Linus sagt doch Koduri ganz klar LESS THAN 150. :)
Der wird einfach die Designvorgaben für die Hersteller kommuniziert haben, nicht das Referenzdesign. Denn dass das C7 das Referenzdesign ist, die Wahrscheinlichkeit ist schon verdammt hoch. Das wird wie folgt aussehen:
-36CUs
-1266MHz Takt (5,8TFlops) (was bei besserer IPC nicht weit weg ist von der 1070 Referenz)
-8GB 8Gbps GDDR5

Für die Hersteller Vorgabe ist halt:
- muss >5TFlops bieten, selbt wenn man mit der TDP weit heruntergeht (nano-mäßig)
- muss 4 oder 8 GB 8Gbps-GDDR5 verbaut haben
- darf nicht über 150W verbrauchen

Ein Hersteller könnte also auch eine Variante mit 1,08GHz mit 4GB 3,6GHz GDDR5 und 100W TDP bringen, wenn er das möchte oder eine Variante mit 1,36GHz und 8GB mit maximal 150W TDP. Das Referenzdesign wird man AMD-typisch eh nicht kaufen können, also warum sollte man auf dessen Specs herumreiten?

Im September/Oktober könnte man dann noch ne XT-Variante mit ca. 7 TFLops in den Desktop bringen, wenn GDDR5X deutlich billiger ist und die Fertigung schon eingespielter läuft für etwas höhere Taktraten. Bis das soweit ist, können die XTs voll an Notebook-OEMs sowie Apple gehen.

iuno
2016-06-01, 11:14:38
Was hat C7 mit Referenz zu tun?
Partnerkarten bekommen keine eigenen PCI DIDs.
Warum nennt AMD eigentlich widerspruechliche Angaben?

up to 5.5 TFLOPS != 36 Cus bei 1266 MHz.

Kann es sein dass es so ausschaut:

- 5,5 TFLOPs fuer die PRO mit 4 GiB und 36 CUs bei 1200 MHz fuer 199$
- >6 TFLOPs fuer die XT mit 8 GiB und 40?CUs bei 1244 MHz fuer 249$?

14 LPP laeuft zu gut? :ulol:
Das Namensschema ist doch auch bescheuert die sollen mal ansagen, wie es ausschaut. Da gibt es noch verschiedene Moeglichkeiten:

XT|PRO
RX 480|R 480
RX 480X|RX 480
RX 480+?XZY|RX 480


Dass das X einfach nach vorne gestellt wurde, ergibt doch keinen Sinn. Dann muss man fuer die grobe Klassifikation hinten die Zahl anschauen und fuer die feine Einordnung wieder zurueckspringen und vorne schauen. RX 480X hoert sich aber auch bescheuert an...

Korvaun
2016-06-01, 11:17:47
Ganz ok, nicht mehr und nicht weniger. Optimistisch betrachtet ref-980er Leistung mit 8GB bei 150W für ca. 250-280€. Sicherlich ein gutes Angebot für Leute die aktuell max. 380er/960er Karten haben. 970er Besitzer könnten noch Interesse zeigen ob der echten 8GB. Für AMD ists trotzdem eine gute und wichtige Karte der die ganzen veralteten 290/380/etc. endlich richtig ersetzen kann.

dildo4u
2016-06-01, 11:19:15
Der wird einfach die Designvorgaben für die Hersteller kommuniziert haben, nicht das Referenzdesign. Denn dass das C7 das Referenzdesign ist, die Wahrscheinlichkeit ist schon verdammt hoch. Das wird wie folgt aussehen:
-36CUs
-1266MHz Takt (5,8TFlops)
-8GB 8Gbps GDDR5

Für die Hersteller Vorgabe ist halt:
- muss >5TFlops bieten, selbt wenn man mit der TDP weit heruntergeht (nano-mäßig)
- muss 4 oder 8 GB 8Gbps-GDDR5 verbaut haben
- darf nicht über 150W verbrauchen

Ein Hersteller könnte also auch eine Variante mit 1,08GHz mit 4GB 3,6GHz GDDR5 und 100W TDP bringen, wenn er das möchte oder eine Variante mit 1,36GHz und 8GB mit maximal 150W TDP. Das Referenzdesign wird man AMD-typisch eh nicht kaufen können, also warum sollte man auf dessen Specs herumreiten?Wird Nano nich als Referenz verkauft?

dargo
2016-06-01, 11:19:17
AMD nimmt TDP Angaben eh nicht so genau eine Fury X zieht gerne mal 330 Watt und wird mit 275 angegeben.Also erstmal Tests abwarten.


http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Radeon-R9-Fury-X-Test-1162693/
Tonga Pro = 190W TDP, Spieleverbrauch 160W. :rolleyes:
http://ht4u.net/reviews/2014/amds_tonga-gpu_-_radeon_r9_285_im_test/index17.php

Grabhopser
2016-06-01, 11:25:05
Ich will ehrlich gesagt gar nicht wissen, wie viel der 8Gbps GDDR5 MC und die DRAM-Chips von der gesamten TDP fressen.

Btw. ein 6-Pin heißt ja erstmal nur, dass der Verbrauch >75Watt ist.

deekey777
2016-06-01, 11:25:12
...
Dass das X einfach nach vorne gestellt wurde, ergibt doch keinen Sinn. Dann muss man fuer die grobe Klassifikation hinten die Zahl anschauen und fuer die feine Einordnung wieder zurueckspringen und vorne schauen. RX 480X hoert sich aber auch bescheuert an...

So bescheuert wie X800XT PE oder X1950XTX?

dildo4u
2016-06-01, 11:25:24
Tonga Pro = 190W TDP, Spieleverbrauch 160W. :rolleyes:
http://ht4u.net/reviews/2014/amds_tonga-gpu_-_radeon_r9_285_im_test/index17.php
Wenn ich ein Low Power Game testet komm ich natürlich unter TDP.

Hier ziehen 380/380X über 190 bis 239 Watt.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/R9-380X-Test-Review-1178241/

iuno
2016-06-01, 11:30:39
Ich glaube uebrigens an schlechte Verfuegbarkeit zum Start:

5,5 TFLOPs, 199$, <150 Watt, Ethereum Hype.

Wenn der Speicherdurchsatz das nicht verhagelt, koennte es da aehnliche Engpaesse geben wie zum Hawaii Launch...

AlphaNUSS
2016-06-01, 11:35:52
kurze offtopic Frage: kann ich einfach den Intel iGPU Treiber installieren und meine GPU ausbauen, um zu schauen,was die iGPU leistet oder muss ich den AMD Treiber runterhauen?

dargo
2016-06-01, 11:40:15
Wenn ich ein Low Power Game testet komm ich natürlich unter TDP.

Hier ziehen 380/380X über 190 bis 239 Watt.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/R9-380X-Test-Review-1178241/
Habe ich irgendwo von einer 380/380X gesprochen? Es geht um eine R9 285. Die 380 hat höhere Taktraten, ergo auch etwas mehr Verbrauch.

Raff
2016-06-01, 11:41:43
Gibts dann die Überschrift "GTX 980 Leistung zum halben Preis"? ;)

Quatsch - ist doch nicht NVIDIA! :freak:

Auch wenn das nur doofes Gestichel ist (ich lese mit :tongue:): kein Quatsch. Ihr solltet endlich begreifen, dass PCGH neutral ist. Überschriften sollen – wie ein Heft-Cover auch – zum Klicken motivieren, doch was zählt ist der Inhalt.

Ich freue mich sehr auf die RX 480. Endlich etwas wirklich Neues von AMD, das Nvidia Feuer unterm Hintern macht und hoffentlich etwas Wasser abgräbt. :)

MfG,
Raff

Loeschzwerg
2016-06-01, 11:41:52
kurze offtopic Frage: kann ich einfach den Intel iGPU Treiber installieren und meine GPU ausbauen, um zu schauen,was die iGPU leistet oder muss ich den AMD Treiber runterhauen?

Musst den AMD Treiber nicht deinstallieren, der wird beim Start nicht geladen wenn kein passendes Gerät erkannt wird.

memakr
2016-06-01, 11:43:25
Wenn das jetzt C7 war, was ist dann C4? Und Pre-Sample oder ne Abspeckung von P10 oder gar P11?
Bin gespannt auf diese Variante, damit endlich diese ganzen 200€+/- Karten wie 960/380 abgelöst werden. P/L echt ne Frechheit von beiden Herstellern! Die gehören in die 140€ Region (mit 4GB)

maguumo
2016-06-01, 11:47:13
kurze offtopic Frage: kann ich einfach den Intel iGPU Treiber installieren und meine GPU ausbauen, um zu schauen,was die iGPU leistet oder muss ich den AMD Treiber runterhauen?
Reicht aus deinen Monitor ans Mainboard zu hängen und den Intel Treiber zu installieren. Ded. Karte muss dafür nicht raus, Treiber kann auch drauf bleiben.

Nakai
2016-06-01, 11:47:44
RX 480 8GB - 229$
RX 480 4GB - 199$

Wenn NV mit dem GP104 Engpässe bekommen sollte, wird das gleiche für AMD wohl zutreffen. Es ist zwar GF statt TSMC, aber Finfet wird die Produktionsrate bestimmt nicht verbessern.

AMD geht eher auf die OEM-Schiene, weswegen wir da generell eher wenig hören für den Retail.

Ansonsten 229$ für 8GB und Hawaii-like Performance ist schon sehr nett.

Sven77
2016-06-01, 11:53:08
Sieht so aus, als würde die RX 480 meine nächste Karte werden. Performance zwischen GTX 970 und 980, 8GB VRAM und unter 150W? Hammer!

Was ist daran Hammer?

StefanV
2016-06-01, 11:53:18
Ich verstehe nicht, warum AMD die TDP schon wieder so hoch angibt. Die Karte hat gerade mal einen 6 Pin Anschluss und verbraucht wahrscheinlich weniger als 150 Watt.
Weil AMD eben TDP angibt und nVidia eher ACP.

Bei AMD kann die TDP nicht überschritten werden, bei nV schon.

-/\-CruNcher-/\-
2016-06-01, 11:53:33
Welche Masse denn? 5% der Steamuser? Zähl mal die nachfolgenden Nvidia Desktop-GPUs bei Steam. Der GTX 970 folgen:
2. GTX 960
3. GTX 750 Ti
4. GTX 760
5. GTX 660
6. GTX 650
7. GTX 750
8. GTX 770
9. GTX 980
10. GTX 550 Ti

Unter den Top Ten sind 13% der Karten billiger als diese 349$ und lediglich 7,4 % haben über 350$ bezahlt. Und das nur Nvidia Nutzer bei Steam ohne mobile GPUs und iGPUs. Also selbst dort sind 2/3 der schnellsten Nvidia Desktop GPUs unter diesem Preispunkt zu finden. Schätze mal selbst die Masse der Nvidia Käufer ist nicht bereit mehr als 349$ zu bezahlen, laut deiner eigrenen Quelle.

75% aller GPU-Besitzer haben unter 349$ bezahlt, Stand heutiger Markt. 25% haben über 349$ bezahlt, das entspricht 7,5 Mio GPUs aus ca. 40 Mio. laut Peddie Research.

Scheiss ich werde mit genau 350 also nicht erfasst ;) ?

Pennywise
2016-06-01, 11:53:42
RX 480 8GB - 229$
RX 480 4GB - 199$

Ansonsten 229$ für 8GB und Hawaii-like Performance ist schon sehr nett.

Wenn da nicht 279€ draus werden.

dargo
2016-06-01, 11:54:35
Suchst du jetzt eigentlich das Haar in der Suppe...
Ja... macht er. Man sieht schon bei der PCGH zwischen zwei verschiedenen 380X, dass die bis zu 40W trennen. Höchstwahrscheinlich weil die Nitro mit 70Mhz mehr läuft als die Asus. Und entsprechend mehr Spannung die Nitro auch abbekommt. Ist wie bei den 390-ern. Es gibt sparsame und auch welche wo der Hersteller einen an der Waffel hat.

Argo Zero
2016-06-01, 11:54:52
Die 8GB werden wohl nur für 4k Auflösungen relevant sein?

dargo
2016-06-01, 11:56:58
Not.

Disco_STFU
2016-06-01, 11:57:13
Die 8GB werden wohl nur für 4k Auflösungen relevant sein?

Wie Raff immer so schön zu sagen pflegt. Vram kann man NIE genug haben. :cool:

-/\-CruNcher-/\-
2016-06-01, 11:58:58
Nicht nur Auflößung kann VRAM kosten du kannst auch mit 1080p die 4 GB füllen wenn du das willst ;)

dildo4u
2016-06-01, 11:59:31
Die 8GB werden wohl nur für 4k Auflösungen relevant sein?
Kommt aufs Game an Tomb Raider 2016 will z.b massiv Vram.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72689-nvidia-geforce-gtx-1070-review-13.html

iuno
2016-06-01, 12:00:52
Wenn das jetzt C7 war, was ist dann C4? Und Pre-Sample oder ne Abspeckung von P10 oder gar P11?
Bin gespannt auf diese Variante, damit endlich diese ganzen 200€+/- Karten wie 960/380 abgelöst werden. P/L echt ne Frechheit von beiden Herstellern! Die gehören in die 140€ Region (mit 4GB)

Nein, P11 nicht, der hat ganz andere ids. Die vierstellige hex Zahl davor ist da erstmal vorrangig.
Ansonsten kann es alles sein. Engineering sample, mobile Karte, firepro, salvage...

Unicous
2016-06-01, 12:00:58
Ich will ehrlich gesagt gar nicht wissen, wie viel der 8Gbps GDDR5 MC und die DRAM-Chips von der gesamten TDP fressen.

Btw. ein 6-Pin heißt ja erstmal nur, dass der Verbrauch >75Watt ist.

Bei HD 6990 waren es es ca. 16% (256bit MC) und 22% DRAM (2x2GB, @1,25 GHz)
http://www.cse.psu.edu/~juz138/files/islped209-zhao.pdf

Die Prozentzahlen dürften eher hoch gehen als runter oder zumindest stabil bleiben, durch Prozessverbesserungen auf ASIC-Seite und beim DRAM. Also geschätzt 15 bzw. 25%.

-/\-CruNcher-/\-
2016-06-01, 12:03:43
Rise of the Tomb Raider nutzt UMA effizient und zaubert ein paar sehr schöne sachen auf der Xbox One damit und das ganz ohne GameWorks ;)

maguumo
2016-06-01, 12:03:51
Bin nicht ganz mitgenommen, hat P10 36CUs oder ist die RX 480 ein Salvage und es wird noch eine 480X geben?

Ansonsten hört sich das gut an, aber langsam sollten sie mal aufhören am Namensschema rumzubasteln :freak:

dargo
2016-06-01, 12:06:01
Bin nicht ganz mitgenommen, hat P10 36CUs oder ist die RX 480 ein Salvage und es wird noch eine 480X geben?

Ich halte einen P10 wenige Monate später mit 40CUs + mehr Takt + GDDR5X @170-180W TDP noch nicht ganz für ausgeschlossen. Aber bald wissen wir mehr.

radical83
2016-06-01, 12:06:07
Ihr solltet endlich begreifen, dass PCGH neutral ist. Überschriften sollen – wie ein Heft-Cover auch – zum Klicken motivieren, doch was zählt ist der Inhalt.

Ihr habt bewusst eine provokante Überschrift gewählt um, wie du sagst, "zum Klicken (zu) motivieren".
Das euch das jetzt von einigen vorgehalten wird, zeugt doch nur davon, dass die Personen euch nicht für neutral halten.

Eine neutrale Überschrift ist ganz vereinfacht: "Die 1070 im PCGH-Test" ohne jedwedes Fazit in diese einfließen zulassen.
Eure gewählte Überschrift klingt eher nach Werbeslogan.

w0mbat
2016-06-01, 12:09:07
Also wenn zwei RX 480 bei 51% Auslastung eine GTX 1080 schlagen, dann sollte eine RX 480 bei 100% Auslastung ebenfalls eine GTX 1080 schlagen. Unter DX12 sehen wir hier vielleicht eine Revolution! Wäre geil, wenn die $199 Karte eine $599 Karte vernichtet :P

Auf was icg besonders gespannt bin ist zum einen der reale Verbrauch, also wie nah man an den möglichen 150W dran ist. Wenn man bei 120-130W liegt wäre es sehr geil. Und dann natürlich wie der DE-Preis wird. Ich hoffe die 8GB Version kommt für unter 280€.

Unicous
2016-06-01, 12:09:20
Es sieht mMn im Moment eher danach aus, als wäre die RX 480 das höchste der Gefühle. Fraglich ob da noch ein X hinzukommt.

igg
2016-06-01, 12:11:03
Unter DX12 sehen wir hier vielleicht eine Revolution! Wäre geil, wenn die $199 Karte eine $599 Karte vernichtet :P
Leute, was ist denn hier los... schonmal Gedanken darüber gemacht wieso CF für die Demo verwendet wurde? Weil es das einzig Spektakuläre war.

Birdman
2016-06-01, 12:13:18
Bei AMD kann die TDP nicht überschritten werden, bei nV schon.
Bitte verschone dieses Forum mit deinen roten Märchen....

krissbay
2016-06-01, 12:13:28
Ich verstehe nicht, warum AMD die TDP schon wieder so hoch angibt. Die Karte hat gerade mal einen 6 Pin Anschluss und verbraucht wahrscheinlich weniger als 150 Watt.

AMD hat nirgennwo TDP erwähnt sondern "POWER".
meine Vermutung ist AMD hat die endgüldige Taktraten noch nicht festgelegt und gibt die maximale Leistung an um NV. keine Hinweise zu geben. Das Ding kommt mit nur 6 Pin und es wird IMMER Raum für Overclocking gelassen. mMn wird Polaris 10 um die 110 W verbraten.

deekey777
2016-06-01, 12:15:20
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Specials/Radeon-RX-480-Preis-Spezifikationen-Computex-1196990/

Update: Bei Techpowerup sieht man einen Screenshot aus dem Radeon-Treibermenü, wonach die gezeigte RX 480 mit 1.266 MHz taktet und die Device ID 67DF:C7 besitzt. Auf den Galeriebildern, die erstmals die entsprechenden Karten zeigen, sieht man einen einzelnen 6-Pin-Stromanschluss. Außerdem ragt das Kühlsystem deutlich (ca. ein Drittel) über das eigentliche PCGH hinaus.

Versucht die PCGH eine neue Abkürzung einzuführen?

Birdman
2016-06-01, 12:17:21
AMD hat nirgennwo TDP erwähnt sondern "POWER".
Wenn AMD hier bewusst die Wortwahl "POWER" verwendet, dann wird die Karte auch explizit diese 150W verbraten, ansonsten hätten sie TDP als Angabe genommen.

w0mbat
2016-06-01, 12:19:16
Wenn AMD hier bewusst die Wortwahl "POWER" verwendet, dann wird die Karte auch explizit diese 150W verbraten, ansonsten hätten sie TDP als Angabe genommen.

So ein Blödsinn! Wenn die Karte genau 150W brauchen würde, hätte es einen 8-Pin Anschluss gegeben. Zumal Raja schon "less than 150W" gesagt hat. der reale Verbrauch wird wohl irgendwo zwischen 110-130W liegen.

Die 150W sind einfach das Maximum, mehr geht mit 6-Pin nicht. Eine GTX 1080 zieht gerne mehr als 180W, vor allem wenn sie nicht sofort runtertaktet.

Argo Zero
2016-06-01, 12:19:50
150 Watt sollte ohne Probleme zu kühlen sein. Besser als 180 Watt, wie das mal in der Vergangenheit war.

Arcanoxer
2016-06-01, 12:20:38
Die AoS Benchmarks waren wohl auch von AMD manipuliert und liefen auf der RX380 mit geringeren Grafik Settings! :ufinger:
Aber seht selber...

http://puu.sh/pcjdv/3df2a5c54a.jpg
http://puu.sh/pcjmj/18e27c1c0d.jpg
http://puu.sh/pcj9W/349783aaf8.jpg

https://youtu.be/OevEIIk8ktU?t=1252

Wirklich unglaublich was die da abziehen...

Die links kommen von Pazox und Duvar aus den pcgh forum.

-/\-CruNcher-/\-
2016-06-01, 12:20:51
Es sieht mMn im Moment eher danach aus, als wäre die RX 480 das höchste der Gefühle. Fraglich ob da noch ein X hinzukommt.

Man könnte eine Antwort auf die 1060 brauchen Nvidia kann aber schlecht noch mit einer 1060 TI nachziehen, nach den jetzigen Daten jedenfalls wäre das sehr komisch es sei den die 1060 ist wieder beschnitten ohne Ende aber das würde die RX480 wiederum zu stark machen ;)

MadPenguin
2016-06-01, 12:22:37
Auch wenn das nur doofes Gestichel ist (ich lese mit :tongue:): kein Quatsch. Ihr solltet endlich begreifen, dass PCGH neutral ist. Überschriften sollen – wie ein Heft-Cover auch – zum Klicken motivieren, doch was zählt ist der Inhalt.

Ich freue mich sehr auf die RX 480. Endlich etwas wirklich Neues von AMD, das Nvidia Feuer unterm Hintern macht und hoffentlich etwas Wasser abgräbt. :)

MfG,
Raff

Ich halte dich und PCGH in allen Ehren, aber du kannst mir bitte nicht mit reinem Gewissen erklären, dass PCGH komplett neutral ist. Vor allem nach dem 1070 Test nicht. Kein einziges DX12 Spiel wurde getestet, der Titel mag zum Klicken motivieren, aber bleibt auch besonders hängen.
Um wirklich neutral zu sein,müsstet ihr die RX480 NUR mit Warhammer, AoS und Hitman testen...dann wär es wohl Gleichstand mit Bevorzugung...:tongue:

[dzp]Viper
2016-06-01, 12:22:48
Die AoS Benchmarks waren wohl auch von AMD manipuliert und liefen auf der RX380 mit geringeren Grafik Settings! :ufinger:
Aber seht selber...

http://puu.sh/pcjdv/3df2a5c54a.jpg
http://puu.sh/pcjmj/18e27c1c0d.jpg
http://puu.sh/pcj9W/349783aaf8.jpg

https://youtu.be/OevEIIk8ktU?t=1252

Wirklich unglaublich was die da abziehen...

Die links kommen von Pazox und Duvar aus den pcgh forum.
Was soll man da erkennen?

AlphaNUSS
2016-06-01, 12:25:09
Die AoS Benchmarks waren wohl auch von AMD manipuliert und liefen auf der RX380 mit geringeren Grafik Settings! :ufinger:
Aber seht selber...

http://puu.sh/pcjdv/3df2a5c54a.jpg
http://puu.sh/pcjmj/18e27c1c0d.jpg
http://puu.sh/pcj9W/349783aaf8.jpg

https://youtu.be/OevEIIk8ktU?t=1252

Wirklich unglaublich was die da abziehen...

Die links kommen von Pazox und Duvar aus den pcgh forum.

Das liegt angeblich daran, dass Nvidia Karten einen Bug bei AotS haben, bei dem weniger Schnee gezeigt wird, sprich man sieht mehr vom Boden.

BlacKi
2016-06-01, 12:25:10
salvage und full chip haben bei amd doch meistens dieselbe tbp angabe, oft liegen die meisten chips aber leistungsmäßig nah beisammen.

ansonsten wäre man ja endlich bei der perf/watt der 970 angekommen^^

dildo4u
2016-06-01, 12:25:49
Ich halte dich und PCGH in allen Ehren, aber du kannst mir bitte nicht mit reinem Gewissen erklären, dass PCGH komplett neutral ist. Vor allem nach dem 1070 Test nicht. Kein einziges DX12 Spiel wurde getestet, der Titel mag zum Klicken motivieren, aber bleibt auch besonders hängen.
Um wirklich neutral zu sein,müsstet ihr die RX480 NUR mit Warhammer, AoS und Hitman testen...dann wär es wohl Gleichstand mit Bevorzugung...:tongue:
Tomb Raider ist DX12.

iuno
2016-06-01, 12:26:27
Man sieht schon optische Unterschiede, etwa in der Texturaufloesung. Ich wuerde da aber keine generelle Boeshaftigkeit unterstellen, vielleicht funktioniert das Streaming nicht/anders wegen mehreren GPUs und dann ist AotS sowieso schlechter ein Benchmark.
Die ganze Demo ist nicht fuer bar zu nehmen, mit dem Kaese der 50% utilisation usw.
Einfach richtige Tests abwarten.

Ailuros
2016-06-01, 12:26:59
AMD hat nirgennwo TDP erwähnt sondern "POWER".
meine Vermutung ist AMD hat die endgüldige Taktraten noch nicht festgelegt und gibt die maximale Leistung an um NV. keine Hinweise zu geben. Das Ding kommt mit nur 6 Pin und es wird IMMER Raum für Overclocking gelassen. mMn wird Polaris 10 um die 110 W verbraten.

Afaik ja zum letzten bzw. irgendwo in der Region. Gilt aber als max graphics card power fuer den Konkurrenten genauso.

herp_derp
2016-06-01, 12:27:52
Prozedurale Generation spielt auch noch mit rein.

w0mbat
2016-06-01, 12:28:43
Die AoS Benchmarks waren wohl auch von AMD manipuliert und liefen auf der RX380 mit geringeren Grafik Settings! :ufinger:
Aber seht selber...

http://puu.sh/pcjdv/3df2a5c54a.jpg
http://puu.sh/pcjmj/18e27c1c0d.jpg
http://puu.sh/pcj9W/349783aaf8.jpg

https://youtu.be/OevEIIk8ktU?t=1252

Wirklich unglaublich was die da abziehen...

Die links kommen von Pazox und Duvar aus den pcgh forum.

OMG, das ist nicht dein Ernst, oder? Sind wir hier jetzt bei ComputerBILD oder was? Das sind genau die gleichen Settings, das ist sofort zu erkennen.

Wo siehst du da einen Unterschied? Bei den, für jeden Benchmark-Run neu generierten Wettereffekten? Hast du AotS schonmal gespielt oder gebenched? Das sieht JEDES MAL etwas anders aus. Macht aber keinen Unterschied bei der Performance.

So weit sind wir jetzt schon, dass die NV-Fanboys so im Schock sind, dass sie direkt Lügen verbreiten müssen. Die AMD Karte hat eine Landschaft mit etwas mehr Schneebedeckung, das ist alles. Wie gesagt, kein Performanceunterschied, wenn dann ist mehr Schnee eher geringfügig langsamer.

Bitte, hör auf mit dem BS. Soll ich in den 1080 Thread gehen und dort schreiben, alle 1080-Benches laufen via Treiber mit geringeren Settings?

radical83
2016-06-01, 12:28:54
Tomb Raider hat mit DX12 genauso viel zutun wie Hitman und AotS mit einem gut programmierten Spiel.

-/\-CruNcher-/\-
2016-06-01, 12:29:18
So ein Blödsinn! Wenn die Karte genau 150W brauchen würde, hätte es einen 8-Pin Anschluss gegeben. Zumal Raja schon "less than 150W" gesagt hat. der reale Verbrauch wird wohl irgendwo zwischen 110-130W liegen.

Die 150W sind einfach das Maximum, mehr geht mit 6-Pin nicht. Eine GTX 1080 zieht gerne mehr als 180W, vor allem wenn sie nicht sofort runtertaktet.


Das ist blödsinn es geht mehr auch aus einem 6-pin ohne Probleme schau mal was Igor da alles an Spitzen mist ;)

MadPenguin
2016-06-01, 12:29:35
Tomb Raider ist DX12.

Schade, dass 1.PCGH den DX11 Pfad gebenched hat (einfach vor der Bench-Tabelle lesen, nicht so schwer), 2. Rise of the Tomb Raider, die aktuell wohl verschissenste DX12 Implementierung ist. ;D

-/\-CruNcher-/\-
2016-06-01, 12:31:47
Keine Ahnung wie die PCGH bencht benchen sie den DX12 Path mit VXAO ?

dildo4u
2016-06-01, 12:31:51
Wenn es nich gut auf der Favorisierten Hardware läuft ist es scheiße programmiert immer die Selbe leier.

Birdman
2016-06-01, 12:33:32
Eine GTX 1080 zieht gerne mehr als 180W, vor allem wenn sie nicht sofort runtertaktet.
Eine GTX1080 zieht exakt genausoviel wie im PowerTarget eingestellt ist und nicht "gerne mehr als xxx"

Was AMD mit der RX480 macht, wissen wir noch nicht.
Wenn sie sich an der Nano orientiert, dann sieht es gut aus - geht man jedoch den Weg der Furys und der älteren 3D Beschleuniger, dann wird die angegebene TDP je nach Spiel und Last mitunter deutlich und oft/dauerhaft überschritten.

dildo4u
2016-06-01, 12:36:31
Er scheint nicht zu kapieren das AMD zwei 150W Karten braucht um eine 180 Watt Karte zu schlagen,und das in einem Game was extrem gut auf AMD Hardware läuft.
Das sollte den Fanboy's mal zu denken geben.

dargo
2016-06-01, 12:36:58
AMD hat nirgennwo TDP erwähnt sondern "POWER".
meine Vermutung ist AMD hat die endgüldige Taktraten noch nicht festgelegt und gibt die maximale Leistung an um NV. keine Hinweise zu geben. Das Ding kommt mit nur 6 Pin und es wird IMMER Raum für Overclocking gelassen. mMn wird Polaris 10 um die 110 W verbraten.
Mir fällt gerade ein, dass Igor meinte, dass kein Hersteller heutzutage mehr den PCIe-Slot mit vollen 75W belastet. Das könnte in der Tat weniger als 150W bedeuten. Es sei denn AMD überlastet den 6Pin Anschluss. :D

Arcanoxer
2016-06-01, 12:37:54
OMG, das ist nicht dein Ernst, oder? Sind wir hier jetzt bei ComputerBILD oder was? Das sind genau die gleichen Settings, das ist sofort zu erkennen.

Wo siehst du da einen Unterschied? Bei den, für jeden Benchmark-Run neu generierten Wettereffekten? Hast du AotS schonmal gespielt oder gebenched? Das sieht JEDES MAL etwas anders aus. Mach aber keinen Unterschied bei der Performance.
Das linke Bild schaut total wischiwaschi aus, als würde AF fehlen oder die Texture quality ist geringer.
So weit sind wir jetzt schon, dass die NV-Fanboys so im Schock sind, dass sie direkt Lügen verbreiten müssen. Die AMD Karte hat eine Landschaft mit etwas mehr Schneebedeckung, das ist alles. Wie gesagt, kein Performanceunterschied, wenn dann ist mehr Schnee eher geringfügig langsamerKomm mal wieder runter, geschockt ist hier im moment nur einer.

Bitte, hör auf mit dem BS. Soll ich in den 1080 Thread gehen und dort schreiben, alle 1080-Benches laufen via Treiber mit geringeren Settings?Wenn du beweise dafür hast, gerne.

Unicous
2016-06-01, 12:39:16
Ich sehe nur eins: Das eine Spiel hat mehr Schnee, das andere weniger.:rolleyes:

dargo
2016-06-01, 12:40:16
Wenn es nich gut auf der Favorisierten Hardware läuft ist es scheiße programmiert immer die Selbe leier.
Dir ist wohl entgangen, dass die Entwickler persönlich sich dazu geäußert haben.

Er scheint nicht zu kapieren das AMD zwei 150W Karten braucht um eine 180 Watt Karte zu schlagen,und das in einem Game was extrem gut auf AMD Hardware läuft.

Und du scheinst das mit den 51% Auslastung nicht zu kapieren. :rolleyes:

Loeschzwerg
2016-06-01, 12:42:50
Schade, dass 1.PCGH den DX11 Pfad gebenched hat (einfach vor der Bench-Tabelle lesen, nicht so schwer), 2. Rise of the Tomb Raider, die aktuell wohl verschissenste DX12 Implementierung ist. ;D

PCGH bencht in erster Linie nach dem Setup für deren Perf.-Index und zusätzlich gibt es gezielte Spieletests.

Bezüglich DX12: Da ist aktuell keine Implementierung wirklich der Hit.

---

75Watt für den 6Pin + ~60Watt über PEG. 120-130Watt für die RX 480 dürften hier ganz gut passen.

Raff
2016-06-01, 12:43:55
Ich halte dich und PCGH in allen Ehren, aber du kannst mir bitte nicht mit reinem Gewissen erklären, dass PCGH komplett neutral ist. Vor allem nach dem 1070 Test nicht. Kein einziges DX12 Spiel wurde getestet, der Titel mag zum Klicken motivieren, aber bleibt auch besonders hängen.

Doch, ich kann dir reinen Gewissens bestätigen, dass die Menschen, welche bei PCGH Grafikkartentests verantworten, neutral sind. Ich weiß, dass das in einer Welt wie der unsrigen und speziell in Foren unglaubwürdig klingt :ugly:, ist aber so.

Zur DX12-Abstinenz: Entsprechende Tests sind nur bedingt sinnvoll, weil das alles so höllisch beta ist.

– In Rise of the Tomb Raider bringt DX12 nur auf Geforce-Karten ein Fps-Plus, auf AMD- und Intel-GPUs (!) kostet es im Grafiklimit Leistung.
– In Hitman ist unter DX12 immer noch das Streaming kaputt (http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Episode-2-Test-Benchmarks-DirectX-12-1193618/#a3), auch bei gut bestückten GPUs; unter DX11 sieht's sauber aus.
– Bei Ashes vergleichen alle immer nur den integrierten Benchmark -> gefährlich. Es fehlte bisher die Zeit, einen echten Spielstand zu bauen. ETA: When it's done.
– Warhammer: Ein Standalone-Test, der von AMD verbreitet wurde, während der DX12-Patch des Spiels WIP ist, für eine ernstgemeinte Leistungsmessung? Come on ... ;) Warten auf den Finalpatch ist angesagt.
– Quantum Break: Würden wir gerne testen, das ist aber immer noch restriktiver UWP-Mist.

MfG,
Raff

dildo4u
2016-06-01, 12:44:08
Und du scheinst das mit den 51% Auslastung nicht zu kapieren. :rolleyes:

Was soll das Aussagen AMD wird kein Game auswählen was nich fast ideal skaliert.Ansonsten gehört das PR Team gefeuert.

dargo
2016-06-01, 12:47:08
Was soll das Aussagen AMD wird kein Game auswählen was nich fast ideal skaliert.Ansonsten gehört das PR Team gefeuert.
Dann muss ich sagen hast du keine Ahnung vom Marketing. Es ging um den Vergleich 2x 199$ vs. 599-699$.

-/\-CruNcher-/\-
2016-06-01, 12:47:38
@dildo4u
:facepalm:

Nvidia macht es AMD unheimlich schwer mit ihrer CUDA Optix Bindung + Tesselation overhead ;)

AMD macht es aber Nvidia nicht so schwer bzw überhaupt nicht, und die erzielten Ergebnisse können trotzdem überzeugen ;)

w0mbat
2016-06-01, 12:48:37
Er scheint nicht zu kapieren das AMD zwei 150W Karten braucht um eine 180 Watt Karte zu schlagen,und das in einem Game was extrem gut auf AMD Hardware läuft.
Das sollte den Fanboy's mal zu denken geben.

Naja, die 1080 ist eher eine 250W+ Karte. Nvidias TDP ist ja der Minimalverbrauch und die Karten schlucken sehr gerne deutlich mehr. Bei AMD ist das TDP der Maximalverbrauch.

Also ist es eher eine 220-250W Karte gegen 2x 110-120W. Dazu liegt die Auslastung bei den Polaris-Karten nur bei ca. 50%, im Endeffekt reicht also eine einzige Karte aus, wenn das Spiel und die Treiber fertig optimiert sind.

Totales Versagen von NV, Pascal ist eben nur ein schlechter Maxwell Shrink :freak:




Wenn du beweise dafür hast, gerne.

Du Postest deinen BS auch ohne Beweise. Darum geht es ja. Das Bild der AMD-Karten sieht aufwendiger und besser aus. NV hat weniger Schnee, also einfacher zu Berechnen.

dildo4u
2016-06-01, 12:51:44
Dann muss ich sagen hast du keine Ahnung vom Marketing. Es ging um den Vergleich 2x 199$ vs. 599-699$.
Ja und so ein Vergleich geht nur wenn das gezeigte Game gut mit Crossfire skaliert.

Kartenlehrling
2016-06-01, 12:51:50
Wenn es nich gut auf der Favorisierten Hardware läuft ist es scheiße programmiert immer die Selbe leier.


Hier kann man immer noch sagen das Dein Nvidia (https://developer.nvidia.com/dx12-dos-and-donts)mit seinem Gameworks Rise of the Tomb Raider versaut hat.
Das wird solange von mir behaupte bist du mir was anders belegen kannst. :redface:

iuno
2016-06-01, 12:52:10
Naja, die 1080 ist eher eine 250W+ Karte. Nvidias TDP ist ja der Minimalverbrauch und die Karten schlucken sehr gerne deutlich mehr. Bei AMD ist das TDP der Maximalverbrauch.

Also ist es eher eine 220-250W Karte gegen 2x 110-120W.
Was fuer Unsinn, Nvidia regelt hart beim PT (180 Watt) ab. Bei hoher Last sinkt einfach der Takt. mehr als 180 W bekommst nur nur mit erhoehtem PT. +20% ist aktuell maximum, also 216 Watt

w0mbat
2016-06-01, 12:53:03
Ja, aber mit einem harten PT ist dann die Performance auch nicht mehr so geil.

dargo
2016-06-01, 12:55:12
Also ist es eher eine 220-250W Karte gegen 2x 110-120W. Dazu liegt die Auslastung bei den Polaris-Karten nur bei ca. 50%, im Endeffekt reicht also eine einzige Karte aus, wenn das Spiel und die Treiber fertig optimiert sind.

Komm... das ist jetzt aber auch realitätsfern. Bei gut optimierten Spielen würde ich davon ausgehen, dass P10 gleich oder minimal über der 1070 liegt. Für eine 1080 wird es aber garantiert nicht reichen, in keinem Spiel.

Arcanoxer
2016-06-01, 12:55:20
AMD macht es aber Nvidia nicht so schwer bzw überhaupt nichtSchon Mantle vergessen?
Nur weil es für AMD ein fail war, bedeutet es ja nicht das sie es nicht versucht haben.

iuno
2016-06-01, 12:56:07
Gut genug, es wird ja stock vs stock verglichen :rolleyes:

bzgl. Ashes und mGPU Skalierung hat Igor das doch damals schoen abgehandelt:
http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html
Fury X legt um ~40% zu, 980 Ti um 50%. 80% Skalierung bei P10 wuerde ich daher mal nicht annehmen.

PCGH auch, aber mit gemischten Karten: http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/
Bei gut optimierten Spielen würde ich davon ausgehen, dass P10 gleich oder minimal über der 1070 liegt. Für eine 1080 wird es aber garantiert nicht reichen, in keinem Spiel.
Gut optimiert = AMD Spiel? :ulol:

Wenn 2*P10 etwas besser skaliert als 2*Fiji (vielleicht weniger CPU Limit) koennte man von knapp 40 FPS ausgehen bei single GPU. Die 1080 waere demnach immer noch 50% schneller. Das reicht niemals fuer eine 1070.

dildo4u
2016-06-01, 12:56:16
Ja, aber mit einem harten PT ist dann die Performance auch nicht mehr so geil.
Irrelevant das es Custom Karten gibt,das Argument gilt höstens für ne Titan.

Datarecovery09
2016-06-01, 12:58:02
Wenn du beweise dafür hast, gerne.


Einfach nein. *Du* stellst eine Behauptung auf, nämlich dass AMD bei der Szene bewusst getäuscht hat. Also musst *du* auch darlegen, weshalb das deiner Ansicht nach der Fall ist.

Ideal wäre hier, noch ein bisschen abzuwarten, sich die unabhängigen Tests anzuschauen und dann ein Fazit zu ziehen. Weniger ideal (allerdings nicht sonderlich überraschend...) ist das was du machst: Random Behauptung von random User aus einem Forum aufgreifen, drei Screenshots zweifelhafter Qualität dranpappen und dann in zorniges Geheul ausbrechen, obwohl wir noch 0 Fakten haben, um die Benches tatsächlich damit abgleichen zu können.

Heißt übersetzt: Kommt doch mal bitte ein bisschen runter. So weit ist es bis zu den Tests von PCGH, CB und so weiter auch nicht mehr hin.





Er scheint nicht zu kapieren das AMD zwei 150W Karten braucht um eine 180 Watt Karte zu schlagen,und das in einem Game was extrem gut auf AMD Hardware läuft.
Das sollte den Fanboy's mal zu denken geben.


... sprach er, lange bevor die tatsächliche Leistungsaufnahme überhaupt ermittelt ward... :rolleyes:

radical83
2016-06-01, 12:58:02
Dazu liegt die Auslastung bei den Polaris-Karten nur bei ca. 50%, im Endeffekt reicht also eine einzige Karte aus, wenn das Spiel und die Treiber fertig optimiert sind.

Ernsthaft? Das ist deine Schlussfolgerung?
Wenn eine RX480 nur 25% hinter der 1080 im AotS-Benchmark wäre,
warum hat AMD diese nicht als Einzelkarte laufen lassen?

Bei dem Preis von Polaris würde AMD sich vor Vorbestellungen nicht retten können.

Birdman
2016-06-01, 13:00:10
Naja, die 1080 ist eher eine 250W+ Karte. Nvidias TDP ist ja der Minimalverbrauch und die Karten schlucken sehr gerne deutlich mehr. Bei AMD ist das TDP der Maximalverbrauch.
[persönliche Note entfernt; Aussage war, daß das nicht stimmt]
Ja, aber mit einem harten PT ist dann die Performance auch nicht mehr so geil.
Frameverläufe von Maxwell und Pascal Karten sagen aber was ganz anderes - vor allem wenn man diese mit Fiji, Hawaii und Tonga vergleicht.

captain_drink
2016-06-01, 13:01:54
Es sei denn AMD überlastet den 6Pin Anschluss. :D

Elekrisch ist das überhaupt kein Problem, NV macht das mit dem 8pin bei der 1080 ebenfalls.
Das Aufrechnen von 75W+75W für 6pin/PEG ist eher Milchmädchenrechnung, es könnten real ebenso 180W wie 100W Leistung aufgenommen werden.
Wie ernst die 150W TDP (oder TGP?) zu nehmen sind, wird davon abhängen, ob der Boost wie bei der Fury X oder wie bei der Nano arbeitet.

w0mbat
2016-06-01, 13:02:21
Für solche Lügen hättest Du eigentlich einen Ban verdient.....
Hast wohl gestern Abend noch den Gehaltsscheck aus Sunnyvale erhalten.

Sagt genau der richtige ;D

Und wieso Lügen? Ich hoffe Nvidia hält es mit ihren GP-Krüppel-Karten noch ne Weile durch, nicht dass sie Pleite gehen.

-/\-CruNcher-/\-
2016-06-01, 13:03:29
@dild4u
hier siehst du was mit AMD Hardware passiert wenn Nvidia code sie überlastet

CYpYgq-Ln_c

Das selbe passiert dir als Nvidia user aber genauso und dafür sollst du letztendlich 700 € zahlen das es dir nicht passiert ;)

dildo4u
2016-06-01, 13:04:24
Gut genug, es wird ja stock vs stock verglichen :rolleyes:

bzgl. Ashes und mGPU Skalierung hat Igor das doch damals schoen abgehandelt:
http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html
Fury X legt um ~40% zu, 980 Ti um 50%. 80% Skalierung bei P10 wuerde ich daher mal nicht annehmen.

PCGH auch, aber mit gemischten Karten: http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Specials/Benchmark-Test-DirectX-12-1187073/

Gut optimiert = AMD Spiel? :ulol:

Wenn 2*P10 etwas besser skaliert als 2*Fiji (vielleicht weniger CPU Limit) koennte man von knapp 40 FPS ausgehen bei single GPU. Die 1080 waere demnach immer noch 50% schneller. Das reicht niemals fuer eine 1070.
Fury x skaliert so kacke wegen den 4GB Vram und 980 Ti läuft müllig weil Asynchron Compute nix bringt auf der Karte einfach finales Tests der 480 abwarten.

Malabolge
2016-06-01, 13:04:56
Die AoS Benchmarks waren wohl auch von AMD manipuliert und liefen auf der RX380 mit geringeren Grafik Settings! :ufinger:
Aber seht selber...

http://puu.sh/pcjdv/3df2a5c54a.jpg
http://puu.sh/pcjmj/18e27c1c0d.jpg
http://puu.sh/pcj9W/349783aaf8.jpg

https://youtu.be/OevEIIk8ktU?t=1252

Wirklich unglaublich was die da abziehen...

Die links kommen von Pazox und Duvar aus den pcgh forum.

Die 200€ für diese "Leistungsklasse" , ist schon ein Tritt in den Hintern der "Entusiasten" des Vorjahres !(That gonna Hurt !)


Also als besitzer einer 400€ 3.5GB Karte die in Kürze nicht mal mehr eine Scheibe Brot Wert ist , Würde ich mir jetzt auch angeschissen vorkommen:biggrin::D;D

dargo
2016-06-01, 13:06:25
Gut optimiert = AMD Spiel? :ulol:

Es gibt mittlerweile über 60 Millionen Konsolen da draußen mit GCN. Wenn Nvidia nicht ihre Finger mit dem Gamequark im Spiel haben sollte das Game durchaus gut für GCN optimiert sein.


Wenn 2*P10 etwas besser skaliert als 2*Fiji (vielleicht weniger CPU Limit) koennte man von knapp 40 FPS ausgehen bei single GPU. Die 1080 waere demnach immer noch 50% schneller. Das reicht niemals fuer eine 1070.
Schöne Milchmädchenrechnung. Hier in Hitman fehlen nur lächerliche ~13% auf die 1070 von der 390X.
http://www.tomshardware.de/nvidia-geforce-gtx-1070-8gb-pascal-performance,testberichte-242123-4.html

Wenn Polaris die TFLOPs etwas besser auf die Straße bringen kann fehlt da nicht mehr viel.

Menace
2016-06-01, 13:07:19
Was muss ich denn jetzt hier wieder die verbale hysterische Schnappatmung von der nvidia-Kampfgruppe im AMD-Thread lesen oder über irgendwelche Überschriften von pcgh.

Der Vergleich von CF vers. 1080 war ja nur auf die verlangten Preise bezogen. Keiner glaubt hier (hoffentlich) ernsthaft, dass die RX480 irgendwie mit der 1070 oder 1080 konkurriert. Wer das Geld hat und die fps braucht kauft sich doch natürlich die GTX1080. Alberne Scheingefechte hier von den ewig gleichen.

Und richtig lachhaft wird die Diskussion hier um 20 Watt mehr oder weniger Verbrauch. Gerade Euch glaube ich nicht, dass Ihr Ökos seid, den Strom selber herstellen und darauf achtet, dass der PC nur läuft, wenn ihr ihn auch nutzt und nur Hardware ersetzt, die definitiv nicht mehr zu reparieren ist. :freak:

Freue mich auf wirkliche Tests, v.a. auch hinsichtlich OpenCl und Vulkan-Fähigkeiten.

mcericx
2016-06-01, 13:08:46
Zur DX12-Abstinenz: Entsprechende Tests sind nur bedingt sinnvoll, weil das alles so höllisch beta ist.

Genau, statt Spiele, welche nicht durch Gameworks die Konkurrenz ausbremsen, nimmt man dann Fallout 4, Tombraider, Assassins Creed, Anno 2070 usw :rolleyes: Aber alles, was nVidia keinen (großen) Vorsprung lässt, ist natürlich Beta, logisch. :freak:

Elkinator
2016-06-01, 13:09:20
;11052308']Alles in allem wird die Karte bestimmt seine Käufer finden, aber die Masse wird zu Nvidia greifen.
Das istr Wunschdenken, NVIDIA hat in dieser Preisklasse nichts besseres.

Und wer sich nur eine RX 480 leisten kann, der wird sich kaum eine GTX 1070 kaufen.
Aber immer wieder schön zu sehen wie sich Gamer den Markt vorstellen:}


Bin noch ein wenig misstrauisch bei AMD im Bereich Effizienz/Stromverbrauch. Da gibt es einiges aufzuholen.
Da alle anderen Karten noch in 28nm gefertigt werden, ist deine Aussage ziemlicher Unsinn!


Er scheint nicht zu kapieren das AMD zwei 150W Karten braucht um eine 180 Watt Karte zu schlagen,und das in einem Game was extrem gut auf AMD Hardware läuft.
Das sollte den Fanboy's mal zu denken geben.
Eher haben Leute wie du, die von der Materie NIX verstehen sich mal wieder lächerlich gemacht!

Nakai
2016-06-01, 13:11:04
Und richtig lachhaft wird die Diskussion hier um 20 Watt mehr oder weniger Verbrauch. Gerade Euch glaube ich nicht, dass Ihr Ökos seid, den Strom selber herstellen und darauf achtet, dass der PC nur läuft, wenn ihr ihn auch nutzt und nur Hardware ersetzt, die definitiv nicht mehr zu reparieren ist. :freak:


Naja mit GM204 wurde der Verbrauch kurzzeitig ein sehr populärer Vergleichsaspekt.

Ansonsten sieht P10 sehr gut aus, vor allem der Preis ist heiß.:)

Fliwatut
2016-06-01, 13:13:35
Zu diesem Ashes Crossfire-Benchmark:

hier noch was zum Ashes Bench

Ashes of the Singularity - Leaderboards (http://ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/0561a980-78ce-4e24-a7c3-2749a8e33aac)

http://ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/cfe81b3f-f8d8-4c98-9e03-41978350fa02

gerade mal die Terrain Shading Samples (füllen enorm den Vram) wurden reduziert
denke mal, weil sie die 4GB Karte im Rechner hatten.

hab das Spiel selber und kann das bestätigen!

illidan
2016-06-01, 13:13:42
Ansonsten sieht P10 sehr gut aus, vor allem der Preis ist heiß.:)
Über die reale Spieleperformance wurde rein gar nichts gesagt. :freak:
Die NV-Veranstaltung war zwar auch gaga, aber da gabs wenigstens Balken für ein paar 1:1 Spiele-Vergleiche, deren Relationen dann später durch die Reviews auch so bestätigt wurden.

Menace
2016-06-01, 13:13:50
Naja mit GM204 wurde der Verbrauch kurzzeitig ein sehr populärer Vergleichsaspekt.

Ansonsten sieht P10 sehr gut aus, vor allem der Preis ist heiß.:)

Ich bin sehr froh, dass nvidia AMD gezeigt hat, wie man es richtig macht und dass AMD jetzt auf dem richtigen Weg ist. Aber der Unterschied ist halt nicht mehr 100 Watt sondern 20. Dann wird es albern.

Arcanoxer
2016-06-01, 13:16:51
Einfach nein. *Du* stellst eine Behauptung auf, nämlich dass AMD bei der Szene bewusst getäuscht hat. Also musst *du* auch darlegen, weshalb das deiner Ansicht nach der Fall ist.
Habe ich doch, schau dir die Screenshots an.
Ein Videoclip hast sogar auch noch dabei.
Das es eindeutig nicht gleich ausschaut sollte wohl jeder erkennen.

Ideal wäre hier, noch ein bisschen abzuwarten, sich die unabhängigen Tests anzuschauen und dann ein Fazit zu ziehen. Weniger ideal (allerdings nicht sonderlich überraschend...)Wenigstens bist du schon mental darauf vorbereiten und mich interessiert ein sidegrade sowieso nicht - eher die zweifelhaften PR-Methoden.

AoS ist irgendwie das 2. Starswarm für AMD.

Disco_STFU
2016-06-01, 13:19:50
Mir scheint es so als wollten hier einige aus dem Bälleparadies abgeholt werden...

Botcruscher
2016-06-01, 13:23:42
Mit einem Blick zurück auf die letzten Seiten wird es ein richtig lustiger Monat. Aller paar Tage eine neue News. TDP, AoS... Popcorn. :freak:

Mir scheint es so als wollten hier einige aus dem Bälleparadies abgeholt werden...
Das wurde gerade erst richtig geöffnet...

dildo4u
2016-06-01, 13:26:44
Ich kapier das Aufhängen an einzelnen DX12 Games eh nich,bis jetzt ist das alles Flickwerk,das nie wieder woanders eingesetzt wird. Entscheidend wird wie Frostbite und Unreal Engine 4 in DX12 läuft,die werden bei massig AAA und Indie Games eingesetzt werden.

iuno
2016-06-01, 13:26:46
Es gibt mittlerweile über 60 Millionen Konsolen da draußen mit GCN. Wenn Nvidia nicht ihre Finger mit dem Gamequark im Spiel haben sollte das Game durchaus gut für GCN optimiert sein.
Nvidia laesst seine Finger aber nicht draussen. Und das dahingehend perfekte Spiel das auf jeder Architektur geleich gut laeuft gibt es logischerweise einfach nicht.

Schöne Milchmädchenrechnung.
Ja, um zu zeigen dass die anderen Rechnungen genauso unsinnig sind.

Hier in Hitman fehlen nur lächerliche ~13% auf die 1070 von der 390X.
Wenn Polaris die TFLOPs etwas besser auf die Straße bringen kann fehlt da nicht mehr viel.
Hawaii bringt die Leistung doch inzwischen schon ganz gut auf die Strasse, sonst wuerde man nicht gegenueber der alten Konkurrenz (GK110 und dann GM204) immer besser dastehen.

dargo
2016-06-01, 13:28:08
Hawaii bringt die Leistung doch inzwischen schon ganz gut auf die Strasse, sonst wuerde man nicht gegenueber der alten Konkurrenz (GK110 und dann GM204) immer besser dastehen.
Und das heißt jetzt automatisch, dass bei Hawaii das Ende der Fahnenstange erreicht ist oder wie?

Nvidia laesst seine Finger aber nicht draussen.

Schauen wir mal... bisher ist afaik nur ein DX12 Game "verseucht", von wievielen? Insgesamt sechs? Es gibt auch einzelne, neue DX11 Games wo die Radeons gut aufgeholt haben.

-/\-CruNcher-/\-
2016-06-01, 13:29:15
Naja mit GM204 wurde der Verbrauch kurzzeitig ein sehr populärer Vergleichsaspekt.

Ansonsten sieht P10 sehr gut aus, vor allem der Preis ist heiß.:)

Spielt im Discrete berreich ja auch keine große Rolle aber im Mobile markt ist es priorität und Nvidia bringt vor allem ihr Tegra Rssearch seit Maxwell in die Discrete GPU ein ;).

Deswegen werden die Mobile Parts diesmal am spannensten von allen weil AMD nun wirklich scheinbar wieder mithalten kann gegen Nvidia zumindestens :)

Wir wissen auch immernoch nicht wofür Nvidia das Optimal Power (Leistung) Scheduling einführt und was es innerhalb von Boost 3.0 bewirkt das hat sich noch niemand angeschaut von den Reviewern schon garnicht beachtet worden bzw wohlmöglich noch unter NDA.


Es wurden aber scheinbar alle Reviews mit diesem Scheduling by Default durchgeführt.


Nvidia gibt selber an das es für alle GPUs ab der 9 Reihe nun abrufbar sein sollte.

Adaptive,
NVIDIA driver controlled,
Prefer maximum
performance,
Prefer consistent
performance,
Optimal power

GeForce 9 series and
later GPUs; Windows
Vista and later


Optimal Power = Prefer consistent performance,

Unicous
2016-06-01, 13:33:52
Mit einem Blick zurück auf die letzten Seiten wird es ein richtig lustiger anstrengender Monat. Aller paar Tage eine neue News. TDP, AoS... Popcorn. :freak:



FTFY.


:frown:


Dieser Thread ist krebserregend. Ich glaube ich bekomme bald Melanome in beiden Augen.:O

[MK2]Mythos
2016-06-01, 13:43:02
Jep, dieses kleingeistige "mein IHV ist aber eh der bessererere -ällebätsch" ist echt anstrengend, der Fremdschämfaktor ist fast auf RTL Niveau.

Datarecovery09
2016-06-01, 13:46:34
Habe ich doch, schau dir die Screenshots an.
Ein Videoclip hast sogar auch noch dabei.
Das es eindeutig nicht gleich ausschaut sollte wohl jeder erkennen.


Nein. Du hast nix, und vor allem keine unabhängigen Tests (PCGH, CB, TH, Golem etc). Die wären aber dringend nötig, oder kannst du aus dem Stegreif sagen, bei welchen Einstellungen die jeweiligen Szenen liefen? Denn wenn du das nicht kannst (und daran habe ich übrigens überhaupt keine Zweifel^^), dann erübrigt sich diese ganze lächerliche Diskussion hier.
Das Problem ist doch folgendes: Weißt du, was AotS im Hintergrund wurschtelt? Weißt du, ob die visuellen Unterschiede an anderen Settings liegen oder nicht? Und, in direktem Zusammenhang damit, ob das überhaupt irgendeinen nennenswerten Einfluss auf die Frames hat? Diese Art von Schätzung halte ich, vorsichtig ausgedrückt, für außerordentlich gewagt, und sicherlich nicht geeignet um auf dieser Basis irgendwelche hanebüchenen Verschwörungstheorien aufzustellen.




Wenigstens bist du schon mental darauf vorbereiten[...]


Das mag daran liegen, dass ich keine besondere Tendenz zur einen oder anderen "Seite" habe und deshalb für mich in Anspruch nehmen kann, mit einer gewissen Objektivität an diese Sache heranzugehen. ;-)

Rabiata
2016-06-01, 13:47:23
Es gibt mittlerweile über 60 Millionen Konsolen da draußen mit GCN. Wenn Nvidia nicht ihre Finger mit dem Gamequark im Spiel haben sollte das Game durchaus gut für GCN optimiert sein.
Nvidia laesst seine Finger aber nicht draussen. Und das dahingehend perfekte Spiel das auf jeder Architektur gleich gut laeuft gibt es logischerweise einfach nicht.
Ich denke, daß die Verbreitung von GCN via Konsolen über kurz oder lang auch die Architektur bei den Engines beeinflussen wird.
Wenn Nvidia Gameworks GCN stark benachteiligt, werden Konsolen-orientierte Publisher irgendwann kein Gameworks mehr in ihren Spielen haben wollen. Diese Spielchen gehen nicht beliebig weit oder beliebig lang.

Unicous
2016-06-01, 13:53:49
Das könnten die Testkonfigurationen sein. Wie sie sehen sehen sie nichts.:rolleyes: (Bei der Computex wurde 1080p gezeigt, das hier ist 1440p)

http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/a957db0f-59b3-4394-84cc-2ba0170ab699

http://www.ashesofthesingularity.com/metaverse#/personas/b0db0294-8cab-4399-8815-f956a670b68f/match-details/ac88258f-4541-408e-8234-f9e96febe303

Jupiter
2016-06-01, 14:07:58
Ich kapier das Aufhängen an einzelnen DX12 Games eh nich,bis jetzt ist das alles Flickwerk,das nie wieder woanders eingesetzt wird. Entscheidend wird wie Frostbite und Unreal Engine 4 in DX12 läuft,die werden bei massig AAA und Indie Games eingesetzt werden.


Das ist korrekt. Dieses AoS spielt doch kaum einer, oder? Demnach ist es absolut irrelevant.

___

Gibt es bei AMD ähnliche Elemente wie bei nVidia? Gameworks, Shadowplay etc. sind mir sehr wichtig.

Dural
2016-06-01, 14:49:52
Hat AMD auch gesagt wann die Karte lieferbar ist?

eratte
2016-06-01, 14:52:01
d2kx hat da nicht zu wenig versprochen was hier danach abgeht aber einige versuchen hier dem ganzen die Krone aufzusetzen. Durchwischen wäre nett.

Fliwatut
2016-06-01, 14:56:09
Hat AMD auch gesagt wann die Karte lieferbar ist?
Ab 29. Juni in den Regalen.

DrumDub
2016-06-01, 14:56:46
Hat AMD auch gesagt wann die Karte lieferbar ist? 29.06.

AlphaNUSS
2016-06-01, 14:57:05
Sollten es dann nicht schon früher Tests geben?

Elkinator
2016-06-01, 14:57:22
Hat AMD auch gesagt wann die Karte lieferbar ist?
29. Juni, also rechtzeitig zur GTX 1070.

dildo4u
2016-06-01, 14:59:28
29. Juni, also rechtzeitig zur GTX 1070.
Die 1070 ist nicht der Gegner dieser Karte,sie hält niemanden mit einer 970 ab eine 1070 zu kaufen.

-/\-CruNcher-/\-
2016-06-01, 15:04:02
Natürlich tut sie das je nach Zielsetzung aber vor allem lässt sie die leute warten was da noch kommt ;)

Elkinator
2016-06-01, 15:07:50
Die 1070 ist nicht der Gegner dieser Karte
Hab ich auch nicht behauptet!
Trotzdme ist die GTX 1070 nicht soviel schneller um einen hohen Aufpreis zu rechtfertigen, NVIDIA muß da preislich runter gehen.


sie hält niemanden mit einer 970 ab eine 1070 zu kaufen.
Wer aktuell schon eine GTX 970 hat ist eh nicht die Zeilgruppe, man sollte schon den Gesamtmarkt betrachten!

Thunder99
2016-06-01, 15:10:23
Waiting for Vega :cool:

Kartenlehrling
2016-06-01, 15:14:52
Jedenfall hat das Marketing sich einige Sachen bei Nvidia abgeschaut,
für 199$ gibts nur 4gb Speicher, will man 8gb haben wird man 30-50$ drauf legen müssen.

Fusion_Power
2016-06-01, 15:15:35
Wo genau könnte diese neue RX 480 leistungstechnisch im Vergleich zu NVidia sein? Also unabhängig vom Marketinggebrabbel. Ich kenn mich mit ATI nicht aus, hab gelesen die RX 480 könnte so um die ebenfalls noch nicht erschienene GTX1060 liegen, die vermutelich teurer werden dürfte.
Ist natürlich alles noch Spekulation, ich weiß. Aber gut dass AMD wieder im Rennen ist. :)

Kartenlehrling
2016-06-01, 15:18:42
Wo genau könnte diese neue RX 480 leistungstechnisch im Vergleich zu NVidia sein? Also unabhängig vom Marketinggebrabbel.
zwischen overclock gtx970 und stock gtx980, damit ist aber bestimmt die RX480-8gb gemeint.

Hakim
2016-06-01, 15:19:38
Wo genau könnte diese neue RX 480 leistungstechnisch im Vergleich zu NVidia sein? Also unabhängig vom Marketinggebrabbel. Ich kenn mich mit ATI nicht aus, hab gelesen die RX 480 könnte so um die ebenfalls noch nicht erschienene GTX1060 liegen, die vermutelich teurer werden dürfte.
Ist natürlich alles noch Spekulation, ich weiß. Aber gut dass AMD wieder im Rennen ist. :)

wahrscheinlich irgendwo auf GTX 970-980 und R9 390-390x Niveau, + geringer Verbrauch und VR Boni

Ravenhearth
2016-06-01, 15:22:21
Auf dem Event hat AMD für Polaris übrigens die 2,8-fache Energieeffizienz ("up to") genannt, leider ohne Angabe, worauf man sich bezieht. Die 1,7-fache Effizienz soll dabei durch den Prozess kommen, der Rest durch die Architektur. Denkbar ist, dass man sich auf Hawaii bezieht, dann hätte die 480 bei der gleichen Performance wie die 390X etwa 110W statt 300W Leistungsaufnahme.

Rincewind
2016-06-01, 15:34:47
eigentlich kann ich doch die 480 mit meiner 390 im Verbund laufen lassen, oder spricht was dagegen? Mit einem Freesync-Monitor sollte es doch keine Probleme geben, oder?

Zergra
2016-06-01, 15:36:45
eigentlich kann ich doch die 480 mit meiner 390 im Verbund laufen lassen, oder spricht was dagegen? Mit einem Freesync-Monitor sollte es doch keine Probleme geben, oder?

Das CF nur mit Karten der selben Chip Generation und größte geht ?

maguumo
2016-06-01, 15:37:22
eigentlich kann ich doch die 480 mit meiner 390 im Verbund laufen lassen, oder spricht was dagegen? Mit einem Freesync-Monitor sollte es doch keine Probleme geben, oder?

Dagegen spricht das SLI/CF nur mit sehr ähnlichen Grafikchips möglich ist. Bei dedizierten Karten muss es bis jetzt der gleiche sein. Also nein, geht nicht. Mit DX12/Vulkan und SFR könnte sowas gehen.

Nightspider
2016-06-01, 15:38:23
Jetzt würde mich mal interessieren wie viele ACEs Polaris hat.

gedi
2016-06-01, 15:40:05
wahrscheinlich irgendwo auf GTX 970-980 und R9 390-390x Niveau, + geringer Verbrauch und VR Boni

Ich lehne mich da weiter aus dem Fenster: Im Schnitt GTX980@1.4G-Niveau bei 135W Spieleverbrauch. Fürs OC stehen bis zu 175W bereit.
Nicht umsonst wirbt AMD die Karte für 1440p.

Nakai
2016-06-01, 15:42:06
Auf dem Event hat AMD für Polaris übrigens die 2,8-fache Energieeffizienz ("up to") genannt, leider ohne Angabe, worauf man sich bezieht. Die 1,7-fache Effizienz soll dabei durch den Prozess kommen, der Rest durch die Architektur. Denkbar ist, dass man sich auf Hawaii bezieht, dann hätte die 480 bei der gleichen Performance wie die 390X etwa 110W statt 300W Leistungsaufnahme.

Man bezieht sich wohl eher auf einer R7 370, also Pitcairn Pro, welche auch nur 1x8Pin hat.

1024 => 2304 ~2,3
1050 => 1266 ~1,2

~2,76

VooDoo7mx
2016-06-01, 15:42:14
Ok AMD hat ne Karte gezeigt, die deutlich langsamer ist, als die die ich vor 1 1/2 Jahren schon hatte und nen paar AMD Fanboys machen hier Freudentänze? Ernsthaft? Der preis von $199 ist auf jeden Fall interessant.
Aber es dauert noch 1 Monat bis man was kaufen kann. Rein theoretisch könnte sogar nVidia bis zum 29.06. GP106 Produkte launchen. Dann sieht die Welt auch wieder anders aus.

Rincewind
2016-06-01, 15:42:17
das ist zwar doof, dass CF nur mit der gleichen Generation geht, aber ok. Warten auf Vega.

Nightspider
2016-06-01, 15:43:03
Weil das auch noch nicht direkt angesprochen wurde:
Zwei der Karten dürften in VR für 400 eine perverse Leistung entfesseln, vor allem da VR ideal ist für zwei GPUs.

Damit können die ruhig schnell 4K VR Brillen herausbringen. Die günstige Leistung ist jetzt vorhanden.

dildo4u
2016-06-01, 15:45:01
Ich lehne mich da weiter aus dem Fenster: Im Schnitt GTX980@1.4G-Niveau bei 135W Spieleverbrauch. Fürs OC stehen bis zu 175W bereit.
Nicht umsonst wirbt AMD die Karte für 1440p.
AMD hat schon die 380X mit 1440p beworben das heißt gar nix.

http://www.tweaktown.com/image.php?image=imagescdn.tweaktown.com/content/7/4/7422_04_amd-radeon-r9-380x-new-1080p-1440p-champion_full.jpg

Hier wurden die Details reduziert und es ist ein 60fps Konsolen Game,The Division @1440p kannste vergessen.

VooDoo7mx
2016-06-01, 15:46:04
Ich lehne mich da weiter aus dem Fenster: Im Schnitt GTX980@1.4G-Niveau bei 135W Spieleverbrauch. Fürs OC stehen bis zu 175W bereit.
Nicht umsonst wirbt AMD die Karte für 1440p.

Träum weiter. Performance ist zwischen stock GTX970 und GTX980 bzw zwsichen stock R9 390 und R9 390X.
Wo du da den Zusammenhang zu 1440p ziehst ist mir schleierhaft. 1440p kann auch eine Intel IGP auf den Bild bringen. Die in meinen Surface 4 Pro sogar UHD 2160p.

Gipsel
2016-06-01, 15:46:22
Nochmal zur (wiederholten) Erinnerung an Alle:

Dies ist kein Thread, in dem man seine Animosität gegenüber AMD oder nV ausleben sollte.

Fusion_Power
2016-06-01, 15:47:30
zwischen overclock gtx970 und stock gtx980, damit ist aber bestimmt die RX480-8gb gemeint.
Dann wäre sie bei dem Preis ja ein regelrechtes Totschlagargument gegen NVidia. :eek:
Ob NVidia darauf irgend wie reagieren wird? Also vor allem preistechnisch *auf bllige GTX 1060 schiel*.

Schlammsau
2016-06-01, 15:48:43
Also wenn die Performance wirklich irgendwo bei einer R9 390X ist oder sogar vielleicht noch in Reichweite der Nano kommt, ist das Ding bei um die 220€ aber sowas von blind vorbestellt. Und das hab ich noch nie gemacht, wirklich!

gedi
2016-06-01, 15:50:21
Ok AMD hat ne Karte gezeigt, die deutlich langsamer ist, als die die ich vor 1 1/2 Jahren schon hatte und nen paar AMD Fanboys machen hier Freudentänze? Ernsthaft? Der preis von $199 ist auf jeden Fall interessant.
Aber es dauert noch 1 Monat bis man was kaufen kann. Rein theoretisch könnte sogar nVidia bis zum 29.06. GP106 Produkte launchen. Dann sieht die Welt auch wieder anders aus.

... welche mit 1280SP Kreise um P10 dreht? Ich bitte dich :rolleyes: Selbst die 1070 ist im Schnitt langsamer als jede Custom 980ti, klar dass dann GP106 das Rad neu erfindet :biggrin:

@Voodoo
Ich nehme hierfür lediglich die geleakten 3Dk11 und 3Dk13 Werte. Beides Benchmarks, welche den AMDs nicht sehr schmecken und im 3Dk11 sehe ich Fiji-Pro und im 3Dk13 Ultra Test TX-Performance. Not too bad 4 199$

VooDoo7mx
2016-06-01, 15:53:03
Wo genau könnte diese neue RX 480 leistungstechnisch im Vergleich zu NVidia sein? Also unabhängig vom Marketinggebrabbel. Ich kenn mich mit ATI nicht aus, hab gelesen die RX 480 könnte so um die ebenfalls noch nicht erschienene GTX1060 liegen, die vermutelich teurer werden dürfte.
Ist natürlich alles noch Spekulation, ich weiß. Aber gut dass AMD wieder im Rennen ist. :)

Eine GTX 1060 mit (von mir spekuliereten) 1280 Shader Cores und 1,6-1,7GHz Takt könnte sehr nah an eine RX480 sein. Vielleicht sogar fast gleixhstand, mal die eine, mal die andere schneller.

iuno
2016-06-01, 15:53:26
Jetzt würde mich mal interessieren wie viele ACEs Polaris hat.
acht

scully1234
2016-06-01, 15:55:27
Dar waere sie fast futsch gewesen

https://youtu.be/eqCo0LTUhsE?t=234

Nightspider
2016-06-01, 15:57:14
War schon hier aber kann man sich immer wieder reinziehen. ;D

Gipsel
2016-06-01, 15:57:41
Eine GTX 1060 mit (von mir spekuliereten) 1280 Shader Cores und 1,6-1,7GHz Takt könnte sehr nah an eine RX480 sein. Vielleicht sogar fast gleixhstand, mal die eine, mal die andere schneller.So what? Sind ja wohl vermutlich auch ähnlich groß. Das sollte also in etwa der zu erwartende Stand sein, wenn man alles Andere vernachlässigt.
Die Rolle der unterschiedlichen Prozesse ist eine offene Frage. Angeblich können die 14nm von GF etwas dichter gepackt werden (aber auch vom Design abhängig), liegen dafür performancetechnisch vermutlich minimal zurück (auch je nach der Balance zwischen Power und Performance im Design des Chips), soll aber angeblich billiger sein als die 16nm von TSMC.

Dural
2016-06-01, 16:00:05
Der GP106 wird aber sicherlich weit über 2GHz Takten können, und wenn NV da tatsächlich mit 256Bit daher kommt, dürfte die GPU mit dem Takt ziemlich gut Skalieren. ;)
Klar, solche Custom OC Karten werden sicherlich bis zu 100.- teurer sein als die RX480.

Was Polaris in sachen OC kann muss sich erst noch zeigen.

Nightspider
2016-06-01, 16:02:15
Man kann nur hoffen das sich Polaris auch gut übertakten lässt.
Unabhängig davon das sich auch die Karten der Konkurrenz übertakten lassen würde man doch abnormal viel Leistung für 200 Euro bekommen, wenn die Karte sich dann noch auf 1,4 oder 1,5 Ghz übertakten lässt.

Ganz zu schweigen davon wenn die Architektur in neueren Spielen dann erst so richtig gut genutzt wird mit DX12 und Vulkan. Es hieß ja immer das sich bis zu 20% mehr GPU Leistung erzielen lassen mit DX12.

iuno
2016-06-01, 16:02:31
Ich denke, OC kann man bei der Karte eh vergessen, mit dem Speicher ist man vermutlich eh schon im Limit

Gipsel
2016-06-01, 16:04:02
Der GP106 wird aber sicherlich weit über 2GHz Takten können, und wenn NV da tatsächlich mit 256Bit daher kommt, dürfte die GPU mit dem Takt ziemlich gut Skalieren. ;)
Klar, solche Custom OC Karten werden sicherlich bis zu 100.- teurer sein als die RX480.

Was Polaris in sachen OC kann muss sich erst noch zeigen.Und GP106 muß das ebenfalls. Deine Vermutungen dazu sind hier eher offtopic.

-/\-CruNcher-/\-
2016-06-01, 16:04:27
Träum weiter. Performance ist zwischen stock GTX970 und GTX980 bzw zwsichen stock R9 390 und R9 390X.
Wo du da den Zusammenhang zu 1440p ziehst ist mir schleierhaft. 1440p kann auch eine Intel IGP auf den Bild bringen. Die in meinen Surface 4 Pro sogar UHD 2160p.

Wenn man über so etwas redet meint man meistens die erste Hürde das sind 25/30 fps dann kommt die zweite hürde das sind 50/60 fps und dann kommt VR 90 fps ;)

Davon ausgehend und von The Divisions Render komplexität gehe ich mal von 1440@30 fps im AVG als Ziel aus ;)

VooDoo7mx
2016-06-01, 16:05:07
... welche mit 1280SP Kreise um P10 dreht? Ich bitte dich :rolleyes: Selbst die 1070 ist im Schnitt langsamer als jede Custom 980ti, klar dass dann GP106 das Rad neu erfindet :biggrin:

1. Wissen wir nicht wieviele Shader Cores GP 106 hat. 2. Geht man von 1280 Shader aus mit 1,6GHz Takt ist man schon bei über 4,096 TFlop, mit 1,7GHz 4,352 TFlop. Die RX480 hat über 5 Tflop, kann aber von der performance nicht die stock GTX 980 erreichen die bei 1,2GHz Boost, 4,915 TFlop hat. Von daher kann eine GTX 1060 mit 1280 Shader und 1,6-1,7Ghz Takt eine sehr vergleichbare Performance zur RX480 bringen.
Man muss sich sich doch nur GTX960 mit 1024 SP gegen R9 380 1792SP anschauen. Der abstand zwischen den beiden ist deutlich kleiner als man es vermutet...

dildo4u
2016-06-01, 16:05:12
Die Karte wird schon ordentlich was absetzen,vermutlich hoffen sie drauf das man sich dazu ein Freesync Monitor anschafft und dadurch erstmal bei AMD bleibt für die näste Zukunft.
Auf kurze Sicht gesehen wird sich die Karte wenig positiv auf AMD's Zahlen auswirken.

Gipsel
2016-06-01, 16:07:02
Ich denke, OC kann man bei der Karte eh vergessen, mit dem Speicher ist man vermutlich eh schon im LimitAber vielleicht ist man mit dem Speicher noch nicht hart im Bandbreitenlimit? Denn wie gut die verbesserte Framebufferkompression jetzt arbeitet, müssen die Tests erst noch zeigen. Und wer weiß, vielleicht geht der ja von 8GBps auch noch meist auf 8,6 oder gar 9GBps.

Gipsel
2016-06-01, 16:09:20
Die Karte wird schon ordentlich was absetzen,vermutlich hoffen sie drauf das man sich dazu ein Freesync Monitor anschafft und dadurch erstmal bei AMD bleibt für die näste Zukunft.
Auf kurze Sicht gesehen wird sich die Karte wenig positiv auf AMD's Zahlen auswirken.Na wirklich kurzfristig, also dieses Quartal sicher. Aber im nächsten? :rolleyes:

Hübie
2016-06-01, 16:10:32
Ich würde mich ehrlich gesagt wundern, wenn man aus 2 GHz noch was heraus holen würde. GDDR5 ist am Ende.

VooDoo7mx
2016-06-01, 16:12:51
Na wirklich kurzfristig, also dieses Quartal sicher. Aber im nächsten? :rolleyes:

Ich glaub nicht das das Ding, selbst bei großen Absatz wirklich was für AMD finziell bringen wird. Bei $199 USD wird die Gewinnmarge lächerlich sein. Meiner Meinung nach hätte AMD den preis ruhig etwas höher ansetzen können. Zu mindest so lange bis nvidia keine vergleichbaren Pascal Lösungen am Markt hat.

Gipsel
2016-06-01, 16:14:27
Ich würde mich ehrlich gesagt wundern, wenn man aus 2 GHz noch was heraus holen würde. GDDR5 ist am Ende.
Wieviele Reserven noch drinstecken, wird man sehen müssen. Das hängst stark davon ab, wie viel Aufwand man in das Speicherinterface gesteckt hat, um 8GBps verläßlich hinzubekommen. Da die Boards ja standardmäßig mit 8GBps ausgeliefert werden, würde es mich nicht wundern, wenn da noch 5-10% Taktspielraum wäre.

Gipsel
2016-06-01, 16:17:08
Ich glaub nicht das das Ding, selbst bei großen Absatz wirklich was für AMD finziell bringen wird. Bei $199 USD wird die Gewinnmarge lächerlich sein.Das weißt Du doch gar nicht. Wie schon geschrieben, gibt es Aussagen, daß die 14nm von GF billiger als die 16nm bei TSMC wären. Akzeptable Yields vorausgesetzt, kann man das Teil locker für 199$ mit Gewinn verkaufen. Zumal die 199$ ja wohl nur für die 4GB-Version gelten, die 8GB kosten 30$ oder so mehr.
Meiner Meinung nach hätte AMD den preis ruhig etwas höher ansetzen können. Zu mindest so lange bis nvidia keine vergleichbaren Pascal Lösungen am Markt hat.Ja, zum höheren Preis setzt AMD natürlich mehr davon ab und erobert einen größeren Marktanteil (das erklärte Ziel). Klar! ;D

gedi
2016-06-01, 16:18:47
1. Wissen wir nicht wieviele Shader Cores GP 106 hat. 2. Geht man von 1280 Shader aus mit 1,6GHz Takt ist man schon bei über 4,096 TFlop, mit 1,7GHz 4,352 TFlop. Die RX480 hat über 5 Tflop, kann aber von der performance nicht die stock GTX 980 erreichen die bei 1,2GHz Boost, 4,915 TFlop hat. Von daher kann eine GTX 1060 mit 1280 Shader und 1,6-1,7Ghz Takt eine sehr vergleichbare Performance zur RX480 bringen.
Man muss sich sich doch nur GTX960 mit 1024 SP gegen R9 380 1792SP anschauen. Der abstand zwischen den beiden ist deutlich kleiner als man es vermutet...

Ich würde doch annehmen, dass sich die Architektur ein wenig geändert hat und man insbesondere @1080p die Leistung besser auf die Straße bringt.

Außerdem sind es wohl 5.5 TFlops ohne Boost. Also Standartakt ~1.1G, mit Boost ~1.26G.

-/\-CruNcher-/\-
2016-06-01, 16:21:14
Ob an HardOCP seinen Infos über das RTG Splitting vieleicht was dran ist mir kam es ja fast so vor als würde Koduri zum Ende der präsentation gleich anfangen zu weinen als er seinem Staff dankte, die Preisvergleichs sachen schienen auch sehr schnell aus dem Hut gezaubert worden zu sein ?
Den gesammten stack wird wohl Huddy wieder präsentieren dürfen ?

Botcruscher
2016-06-01, 16:25:30
Zumal die 199$ ja wohl nur für die 4GB-Version gelten, die 8GB kosten 30$ oder so mehr.
Selbst das ist offen. Bis jetzt haben alle Quellen nur die 8GB Version. Von der 4GB Version gab es noch überhaupt nichts zusehen. GF muss ordentlich liefern können.

Gipsel
2016-06-01, 16:26:33
Selbst das ist offen. Bis jetzt haben alle Quellen nur die 8GB Version. Von der 4GB Version gab es noch überhaupt nichts zusehen. GF muss ordentlich liefern können.In der Pressemeldung stand explizit drin, daß die 199$ für die 4GB-Version gelten.

Edit:
Link (http://www.amd.com/en-us/press-releases/Pages/radeon-rx-480-2016may31.aspx)
The Radeon RX 480 delivers premium VR capability at a stunning price of starting at just $199 for the 4GB edition.

Hakim
2016-06-01, 16:33:25
Bei dem CF Vergleich sprach man auch von 500$ (2 x 250$), was für die 8GB Version sprechen würde wenn die 4 GB 199$ kostet

Botcruscher
2016-06-01, 16:34:06
Interessant. Bei den News Seiten konnte man nur davon ausgehen. Mal sehen ob die Nieten im Marketing aus Hawaii gelernt haben und die Herstellermodelle gleich mit anstehen.

maguumo
2016-06-01, 16:37:54
Interessant. Bei den News Seiten konnte man nur davon ausgehen. Mal sehen ob die Nieten im Marketing aus Hawaii gelernt haben und die Herstellermodelle gleich mit anstehen.
Wobei bei dem geringen Verbrauch deutlich weniger schiefgehen kann denke ich. Das Problem mit Hawaii war ja vor allem das die Karten bei unangenehmer Lautstärke versucht haben sich selbst zu schmelzen...

Elkinator
2016-06-01, 16:44:21
Ich glaub nicht das das Ding, selbst bei großen Absatz wirklich was für AMD finziell bringen wird. Bei $199 USD wird die Gewinnmarge lächerlich sein. Meiner Meinung nach hätte AMD den preis ruhig etwas höher ansetzen können. Zu mindest so lange bis nvidia keine vergleichbaren Pascal Lösungen am Markt hat.
Vergiss da mal nicht die OEMs, bei denen wird AMD auch keine höhere Preispolitik fahren.

Gipsel
2016-06-01, 16:47:43
Bei dem CF Vergleich sprach man auch von 500$ (2 x 250$), was für die 8GB Version sprechen würde wenn die 4 GB 199$ kostetGenau genommen sprach AMD von "<500$", was auch 229$ oder 239$ für die 8GB-Version heißen könnte.

-/\-CruNcher-/\-
2016-06-01, 16:55:09
Was genau in der Target Range der x60 (xx104) Performance Serie mal gelegen hat vor Maxwell wie wir alle wissen ;)

Sprich AMD ist zu Nvidia geworden und versuchen ihr Ökosystem zu stabilisieren und Nvidia hat angefangen total abzuheben ;)

VooDoo7mx
2016-06-01, 16:59:31
Das weißt Du doch gar nicht. Wie schon geschrieben, gibt es Aussagen, daß die 14nm von GF billiger als die 16nm bei TSMC wären. Akzeptable Yields vorausgesetzt, kann man das Teil locker für 199$ mit Gewinn verkaufen. Zumal die 199$ ja wohl nur für die 4GB-Version gelten, die 8GB kosten 30$ oder so mehr.
Ja, zum höheren Preis setzt AMD natürlich mehr davon ab und erobert einen größeren Marktanteil (das erklärte Ziel). Klar! ;D

Was nutzen viele Marktanteile, wenn kein oder kaum Geld in die Kassen egspült wird. Ich glaub kaum das mehr als $20 Gewinn bei rukommen bei einen Board mit 8GiB teuren 8gbps GDDR5 mit einen 232mm Chip in einer Ferting die auf jeden Fall immer noch teurer ist als 28nm bei TSMC.
Die Mobile SKUs kann warscheinlich für deutlich emhr absetzen. Vielleicht hebt sich AMD auch die Guten P10s für Mobile um die dann für 400-500 USD in teuren Gaming Notebooks zu verklingeln udnd ie Chips die nicht so gut gehen für Desktop.

w0mbat
2016-06-01, 17:01:32
Die AMD Aktie steht gerade bei $4,42!

Botcruscher
2016-06-01, 17:04:25
Und hat 3,8% verloren. Also?

w0mbat
2016-06-01, 17:07:21
Ähm, nein. Hat 140% gewonnen, aus meinen knapp 10k€ sind schon 22k€ geworden :)

Pirx
2016-06-01, 17:25:14
Was nutzen viele Marktanteile, wenn kein oder kaum Geld in die Kassen egspült wird. ...
Sehr viel.

StefanV
2016-06-01, 17:48:39
Was nutzen viele Marktanteile, wenn kein oder kaum Geld in die Kassen egspült wird.
Jede nicht verkaufte nVidia Karte ist für AMD Gold wert...
Und verhindert auch die Möglichkeiten, die nVidia mit Gameworks und ähnlichen miesen Sachen machen kann.

Und woher weißt du, wieviel Gewinn AMD an dem Chip macht?!
So wie es bisher ausschaut ist der GP104 mal eben so um die 50% größer als der große Polaris, man versucht auch das Teil für 800$ abzusetzen.

Und jetzt kommt AMD an und bietet eine Karte für 200$ an...

Aber klar, wenn ich mir eine 800€ Karte gekauft hätte und dann kommt eine 200€ Karte, die schon recht nah dran ist, wär ich auch etwas angefressen.

fondness
2016-06-01, 17:49:13
Angeblich ist P10 PRO die RX 470. Es gibt also womöglich keine X-Parts mehr:
http://videocardz.com/60824/amd-polaris-10-gpu-in-radeon-rx-400-series

Damit wäre die RX 480 wohl der Maximalausbau von P10.

Zur Vorstellung: Der Preis ist sehr niedrig ja, ich hoffe das liegt nicht an einer niedriger als erwarteten Leistung. Zumindest GTX980 Speed ist hoffentlich drinnen, bei 2304 SPs @1,266 Ghz. Den Ashes-Wert mit zwei GPUs finde ich jedenfalls nicht berühmt, da wäre eine 390X CF wohl mindestens ebenso schnell.

Schlammsau
2016-06-01, 17:57:07
Meine Einschätzung ist wie folgt:
R9 390(X) Performance bei um die 130W Realverbrauch und der "Early Adopter" Preis in Germany wird bei 229€ für das Ref-Design liegen. Das ist mal ne Hausnummer!

Remember my post in one month .....

Sven77
2016-06-01, 18:01:39
Vielleicht für die 4GB Variante.. das ist sicherlich keine "Hausnummer"

Grabhopser
2016-06-01, 18:02:24
Bei HD 6990 waren es es ca. 16% (256bit MC) und 22% DRAM (2x2GB, @1,25 GHz)
http://www.cse.psu.edu/~juz138/files/islped209-zhao.pdf

Die Prozentzahlen dürften eher hoch gehen als runter oder zumindest stabil bleiben, durch Prozessverbesserungen auf ASIC-Seite und beim DRAM. Also geschätzt 15 bzw. 25%.


Ja ich würde sogar vermuten, dass es bei P10 zusammen dann mehr als 50% sind.
Caymans MC der ja angeblich auch bei Tahiti verwendet wurde, packt noch keine 8 Gbps Module. Die Skalierung auf 14nm sollte auch miserabel sein und wenn der Core unter 14nm nix mehr braucht gehen die Prozente natürlich hoch.

Besonders spannend im Hinblick auf Vega und die ominösen 40% Effizienz :D

Nakai
2016-06-01, 18:02:40
Die 229$ sind schon für die 8GB.

€:

Besonders spannend im Hinblick auf Vega und die ominösen 40% Effizienz :D

HBM2 und neue CUs. Ansonsten P10 scheint viel wegen den hochgetakteten GDDR5-PHYs zu verbraten. Da sollte man sich auch nicht wundern, wenn P10 nicht weit unterhalb einer GTX1070 vom Stromverbrauch einschlägt. Die PHYs bei Beiden werden ähnlich viel verbraten.

Sven77
2016-06-01, 18:04:14
Die 229$ sind schon für die 8GB.

Das sind dann im Leben aber keine 229€ inkl. MwSt ;D

Menace
2016-06-01, 18:04:23
Schon Mantle vergessen?
Nur weil es für AMD ein fail war, bedeutet es ja nicht das sie es nicht versucht haben.

Dieser permanenten Wiederholungen machen Deine Aussage nicht richtiger. AMD wurde kritisiert, dass sie Mantle nicht öffnen. Dann öffnet AMD Mantle indem sie es Vulkan spendeten und jetzt ist Mantle ein Fail. Du bist und bleibst ein Troll. :smile:

Sam Pau
2016-06-01, 18:06:03
Meint ihr es gibt Infos zu Vega auf der E3?
Ich hoffe ja inständig, dass der kleine Vega wirklich im Oktober kommt, passend zu BF1.

Ansonsten überlege ich meine 390 jetzt noch zu verkloppen, bevor die Preise endgültig im Keller sind. 480 als Zwischenlösung und dann ab in den HTPC später.

-/\-CruNcher-/\-
2016-06-01, 18:13:24
Dieser permanenten Wiederholungen machen Deine Aussage nicht richtiger. AMD wurde kritisiert, dass sie Mantle nicht öffnen. Dann öffnet AMD Mantle indem sie es Vulkan spendeten und jetzt ist Mantle ein Fail. Du bist und bleibst ein Troll. :smile:

Naja sie haben jeden IHV eingeladen mitzumachen das war schon die Vorbereitung auf Khronos Vulkan (OpenGL Next) ;)

Das ganze erwuchs aus der Entwicklung der PS4 mit Sony und geht zurück bis zu Fusion und HSA in Kooperation mit Samsung die gemeinsam mit Globalfoundries die Research am Finfet 14 nm geleistet haben ;)

http://1.f.ix.de/imgs/18/1/2/8/7/0/0/0/oglnextgen-1279de2572783575.jpeg

Da kommt Polaris irgendwo her ;)

http://cdn.wccftech.com/wp-content/uploads/2014/12/FinFET.png

w0mbat
2016-06-01, 18:17:16
Also wenn die 4GB RX 480 schon nur 199$ kostet, wird die RX 470 vielleicht bei ca. 150$ liegen? Je nach dem wie schnell die ist, vielleicht sogar das bessere Angebot!

Schlammsau
2016-06-01, 18:17:26
Vielleicht für die 4GB Variante.. das ist sicherlich keine "Hausnummer"
Aber sowas von, was bekommt man sonst im Moment für das Geld? GTX 960, R9 380?

Elkinator
2016-06-01, 18:19:12
Dieser permanenten Wiederholungen machen Deine Aussage nicht richtiger. AMD wurde kritisiert, dass sie Mantle nicht öffnen. Dann öffnet AMD Mantle indem sie es Vulkan spendeten und jetzt ist Mantle ein Fail. Du bist und bleibst ein Troll. :smile:
Manche leben halt in ihrer eigenen Realität.
Mantle war für AMD einer der größten Erfolge!

GCN in allen Konsolen war auch ein großer Erfolg, trotzdem behaupten viele Dummschwätzer AMD würde an den Konsolen NIX verdienen^^^

Die sollten mal überlegen, wo das Geld für GCN4, Zen, K12, GMI/Coherent Fabric,... hergekommen ist...

Gipsel
2016-06-01, 18:22:25
Angeblich ist P10 PRO die RX 470. Es gibt also womöglich keine X-Parts mehr:
http://videocardz.com/60824/amd-polaris-10-gpu-in-radeon-rx-400-series
Na wenn man zumindest den schwächsten Kram am unteren Ende loswird, dann hat man untenrum bei den Nummern auch noch ausreichend Platz. Will sagen, das ist gut möglich.
Damit wäre die RX 480 wohl der Maximalausbau von P10.Ich würde im Moment eine nachgeschobene RX485 noch nicht völlig ausschließen wollen (evtl. mit GDDR5X, wenn breiter verfügbar, falls der MC das kann und Polaris 10 durch Bandbreite wesentlich limitiert wird?).

Menace
2016-06-01, 18:23:23
Naja sie haben jeden IHV eingeladen mitzumachen das war schon die Vorbereitung auf Khronos Vulkan (OpenGL Next) ;)


Ich hätte mir die Links speichern sollen, worauf ausdrücklich AMD gedankt wurde, dass sie den Unterbau geschenkt haben. Kann man aber hier im Forum finden. Vulkan wird auch mittels anderer IHVs weiterentwickelt, aber die meiste Arbeit hat nun mal AMD mit Mantle geliefert, ob das nun die nvidia-Kiddies wahrhaben wollen oder nicht.

AnarchX
2016-06-01, 18:37:10
Angeblich ist P10 PRO die RX 470. Es gibt also womöglich keine X-Parts mehr:
http://videocardz.com/60824/amd-polaris-10-gpu-in-radeon-rx-400-series


Der Die von der Folie ist aber da schon ein gutes Stück größer als die ~230mm² Montage von VC. Wohl möglich doch nicht Projekt F?

-/\-CruNcher-/\-
2016-06-01, 18:39:47
Sagt ja auch niemand was anderes sie haben alles aus ihrem internen HSA research (Mantle) weitergegeben zu OpenGL Next, was Nvidia nie getan hätte ;)

Aber das waren alles Strategische Überlegungen ihr HSA Ökosystem zu stärken ;)

Nvidias strategische Überlegung war mit GameWorks zu Antworten auf dem PC und anbei baute man sich sein eigenes Konsolen Ökosystem auf ARM auf ;)

Elkinator
2016-06-01, 18:48:37
Ich hätte mir die Links speichern sollen, worauf ausdrücklich AMD gedankt wurde, dass sie den Unterbau geschenkt haben.
Hier bestätigt es AMD, Mantle wurde der Khronos Group überlassen.
https://www.youtube.com/watch?v=qZLzz3OOl3A&feature=youtu.be

Gipsel
2016-06-01, 19:30:22
Der Die von der Folie ist aber da schon ein gutes Stück größer als die ~230mm² Montage von VC. Wohl möglich doch nicht Projekt F?Bei der Auflösung und Verzerrung wäre ich noch ganz vorsichtig, die Kanten des Dies festzulegen. Es scheint ja die Version von der Webseite zu sein, wenn man sich die Komponenten anschaut, und da hat man wesentlich bessere Auflösung.

iuno
2016-06-01, 20:32:09
Na wenn man zumindest den schwächsten Kram am unteren Ende loswird, dann hat man untenrum bei den Nummern auch noch ausreichend Platz. Will sagen, das ist gut möglich.
Wuenschenswert waere das auf jeden Fall, aber wie macht man es dann am oberen Ende?
P11: 450/460
P10: 470/480
V10: 490/?
V11: Fury?
Ich denke befuerchte aber, dass ganz unten doch nochmal irgendwas uebernommen wird, sonst hat man nichts gegen GP107/8. APUs fangen das noch nicht ab...

HOT
2016-06-01, 20:41:10
Na wenn man zumindest den schwächsten Kram am unteren Ende loswird, dann hat man untenrum bei den Nummern auch noch ausreichend Platz. Will sagen, das ist gut möglich.
Ich würde im Moment eine nachgeschobene RX485 noch nicht völlig ausschließen wollen (evtl. mit GDDR5X, wenn breiter verfügbar, falls der MC das kann und Polaris 10 durch Bandbreite wesentlich limitiert wird?).
Ich würd sogar sagen, dass das Lineup so aussieht:

RX490 -> 40CUs mit mehr Takt und 256Bit 9Gbps GDDR5 (vllt dann verfügbar in richtiger Größe)
RX480 -> 36CUs = P10 Pro
RX470 -> 32CUs (>5 TFlops) = P10LE (macht NV mit dem GP104 ja auch)
RX460 -> P11XT
RX450 -> P11Pro
RX440 -> P11LE

Vega -> RX500

Denn das Prob, was sich mAn stellt mit der 36CU XT für 200$ ist, dass die Lücke zu Vega riesig ist und der 1070 den kompletten Markt einfach auf dem Silbertablett liefern würde - das wird AMD nicht machen können, die MÜSSEN was haben. Aber in die Lücke zwischen einem 56CU V10 salvage für 400$ und einem 36 CU P10 für 200$ passt genau eine Variante für 300$ rein. Entweder ein P10 XT oder ein V10 LE.

dargo
2016-06-01, 20:45:11
Ist denn GDDR5X bei AMD jetzt völlig vom Tisch? Fände ich schon etwas seltsam.

Edit:
RX490 -> 40CUs mit 1433Mhz und 256Bit @10Gbps GDDR5X fände ich besser. :D

Ailuros
2016-06-01, 20:46:15
Komischerweise haben alle Radeon chips immer eine gewisse Redundanz die am Ende doch nie eingeschalftet wird :freak: :P

Elkinator
2016-06-01, 20:48:22
Mit P11 deckt AMD doch den unteren bereich eh schon komplett ab, wozu eine kleinere GPU?

dargo
2016-06-01, 20:48:23
Komischerweise haben alle Radeon chips immer eine gewisse Redundanz die am Ende doch nie eingeschalftet wird :freak: :P
Falsch... siehe Tonga. :P

iuno
2016-06-01, 20:49:47
Er meinte ja auch das Gegenteil.
So wurden ja Hawaii etwa auch 48 CUs zugesprochen.

GDDR5X ist nicht mehr vom Tisch, als es vorher war. Wir wissen genausowenig wie vorher, ob der neue MC es koennte oder nicht.