PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 380X Review-Thread


Leonidas
2015-11-19, 15:29:01
Testberichte (deutsch):
ComputerBase (http://www.computerbase.de/2015-11/radeon-r9-380x-asus-sapphire-test/)
Hardwareluxx (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/37233-amd-radeon-r9-380x-von-asus-und-sapphire-im-test.html)
PC Games Hardware (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/R9-380X-Test-Review-1178241/)
Tom's Hardware (http://www.tomshardware.de/amd-radeon-r9-380x-sapphire-nitro,testberichte-241978.html)

Testberichte (englisch):
eTeknix (http://www.eteknix.com/xfx-dd-r9-380x-4gb-graphics-card-review/)
Guru3D (http://www.guru3d.com/articles-pages/amd-radeon-r9-380x-4gb-review,1.html)
Hardware Heaven (http://www.hardwareheaven.com/2015/11/xfx-amd-radeon-r9-380x-review/)
Hexus (http://hexus.net/tech/reviews/graphics/88139-sapphire-radeon-r9-380x-nitro/)
Hot Hardware (http://hothardware.com/reviews/amd-radeon-r9-380x-review)
KitGuru (http://www.kitguru.net/components/graphic-cards/zardon/asus-strix-r9-380x-directcu-ii-oc-review/)
Maximum PC (http://www.maximumpc.com/amd-r9-380x-review-featuring-sapphire/)
Neoseeker (http://www.neoseeker.com/Articles/Hardware/Reviews/xfx-r9-380x-dd/)
Overclock3D (http://www.overclock3d.net/reviews/gpu_displays/asus_strix_r9_380x_review/1)
TechPowerUp (http://www.techpowerup.com/reviews/ASUS/R9_380X_Strix/)
TechSpot (http://www.techspot.com/review/1093-amd-radeon-380x/)
The Tech Report (http://techreport.com/review/29316/amd-radeon-r9-380x-graphics-card-reviewed)

Testberichte (rumänisch):
Lab501 (http://lab501.ro/placi-video/review-sapphire-nitro-radeon-r9-380x)

Testberichte (niederländisch):
Hardware.info (http://nl.hardware.info/reviews/6391/amd-radeon-r9-380x-review-volwaardige-tonga)

von Richthofen
2015-11-19, 15:43:09
Da hatten wohl alle mindestens etwas mehr erwartet.
Die Spezifikationen im Groben waren praktisch klar und auch der Stromverbrauch so zu erwarten.
Dass man aber zich Jahre nach Tahiti noch immer teilweise zurückfällt, ist mir unverständlich. Muss es eben wieder mal der Preis richten.
Doch da gab es zuletzt auch nichts Positives (Fiji) zu berichten.

Schaffe89
2015-11-19, 15:46:24
Keine Ahnung was die an der Karte vermurkst haben, die skaliert ja gar nicht nach oben.
Die ist ja fast gleichschnell wie eine r9 380 5 bis 6% Mehrleistung.

Jetzt weiß jeder warum AMD die Karte nicht gebracht hat. Tonga hat man wohl versaut.
Ich hätte da mindestens r9 280x Leistung erwartet, aber nichtmal die erreicht man, enttäuschend.

Lyka
2015-11-19, 15:47:26
ich ging eigentlich von "ein Hauch schneller, ein Hauch teurer" aus... aber 40-50% teurer... naaa, ich weiß nicht

Raff
2015-11-19, 15:47:28
Keine Ahnung was die an der Karte vermurkst haben, die skaliert ja gar nicht nach oben.
Die ist ja fast gleichschnell wie eine r9 380 5 bis 6% Mehrleistung.

Jetzt weiß jeder warum AMD die Karte nicht gebracht hat. Tonga hat man wohl versaut.
Ich hätte da mindestens r9 280x Leistung erwartet, aber nichtmal die erreicht man, enttäuschend.

Gleiche Speichertransferrate wie die 380/4G, das Ding kann unter normalen Bedingungen kaum skalieren. ;)

MfG,
Raff

captain_drink
2015-11-19, 15:55:09
Etwas verwundert bin ich schon, dass das Plus an CUs nur so unzureichend umgesetzt wird. Grundsätzlich ist Tonga ja ein durchaus ausgeglichenes Design. Hapert es hier tatsächlich aufseiten von Speicherdurchsatz/Bandbreite?

NV kann sich jedenfalls wieder beruhigt schlafen legen. Die 960 sieht gg. der 380X zwar nicht gut aus, das war allerdings im Grunde auch schon gg. der 380 der Fall. Nichts Neues in der Mittelklasse also.

Locuza
2015-11-19, 15:57:16
The "gift" that keeps on failing.
Saubere Arbeit AMD.

Karümel
2015-11-19, 15:59:30
Gibt es irgendwo einen BF4 Benchmark unter Mantle mit der Karte?

konkretor
2015-11-19, 16:02:07
Hat jemand schon Benches gegen eine 7970 gefunden, glaub der wechselt lohnt sich nicht wirklich.

Raff
2015-11-19, 16:04:24
Hat jemand schon Benches gegen eine 7970 gefunden, glaub der wechselt lohnt sich nicht wirklich.

Wenn du deine HD 7970 von 925/2.750 auf 1.000/3.000 MHz übertaktest, hast du eine 280X, die in den meisten Tests vertreten ist. :)

MfG,
Raff

captain_drink
2015-11-19, 16:05:08
Gibt es irgendwo einen BF4 Benchmark unter Mantle mit der Karte?

Wurde der Mantle-Support für Tonga in BF4 nicht faktisch aufgegeben?

Schnoesel
2015-11-19, 16:07:56
Wieso sollte er?

Lyka
2015-11-19, 16:12:02
bei den Werten bleibe ich garantiert noch 2 Jahre+ bei meiner 7870 -.-

N0Thing
2015-11-19, 16:15:23
Etwas verwundert bin ich schon, dass das Plus an CUs nur so unzureichend umgesetzt wird. Grundsätzlich ist Tonga ja ein durchaus ausgeglichenes Design. Hapert es hier tatsächlich aufseiten von Speicherdurchsatz/Bandbreite?

Bei PCGH gewinnt die 380X in Bioshock, was ja sehr Shader-lastig ist, gegenüber der 380 unter 1440p 12% hinzu, was ziemlich genau der zusätzlichen Anzahl an Shadern entspricht. In allen anderen Spiele geht der Abstand dann eher Richtung 5%, vielleicht spielt dort die Bandbreite eine größere Rolle.
Bei Wolfenstein: The Old Blood sind die Karten sogar gleich auf (und total abgeschlagen).

konkretor
2015-11-19, 16:15:37
Wenn du deine HD 7970 von 925/2.750 auf 1.000/3.000 MHz übertaktest, hast du eine 280X, die in den meisten Tests vertreten ist. :)

MfG,
Raff


Danke, gar nicht dran gedacht.

geoced hab ich sie schon vor Jahren.

OK lohnt sich nicht wirklich wegen den paar Prozent.
Dann nächstes Jahr im Herbst wenn die 14/16 Generation auf den Markt kommt.

Mortalvision
2015-11-19, 16:16:54
Und ich hatte mich zuerst noch geärgert wegen der 380. nun sehe ich praktisch keinen unterschied und bin froh, mir eine 380 4G gekauft zu haben :-)

Frosty
2015-11-19, 16:22:17
etwas enttäuschend:frown: ich hatte auf 15-20% mehr leistung als bei der r9 380 4gb gehofft.
für 250€ wäre es immer noch ein akzeptabler preis, dieses mal hat asus den besseren und leiseren kühler als die sapphire nitro karte, liegt daran dass endlich mal alle direct touch heatpipes kontakt zum die haben.

ob ich dafür meine gtx 980 ersetze, weiss ich noch nicht.:ucoffee:


wie hoch gehen denn der chip und der speicher zu takten?

captain_drink
2015-11-19, 16:31:05
etwas enttäuschend:frown: ich hatte auf 15-20% mehr leistung als bei der r9 380 4gb gehofft.

Bei ca. 14% mehr SPs wäre dafür der Einsatz von Voodoo-Magie vonnöten gewesen.

Nakai
2015-11-19, 16:39:38
AMD bekommt ihre CUs nicht ausgelastet. Unter Compute mit großen Kernels, also mit genug Backpressure erreicht man eine gute Auslastung. Mit mehr Queues kann man mehr Blöcke gleichzeitig auf die CUs launchen. NV macht das wohl anders. Man sieht auch, dass die Effizienz mit steigender CU Zahl sinkt.

(del)
2015-11-19, 16:40:26
OC ist faktisch wertlos. Bringt außer einer explodierenden Leistungsaufnahme nichts weiter als vielleicht noch 1-2% mehr Leistung bei schlechteren Framerates, weil dann der Limiter greift und der Takt nicht mehr komplett konstant oben gehalten werden kann. Meine Karte ist oberhalb 1100 Mhz zudem sofort abgekackt. Mit viel mehr Spannung gings noch bis 1150. Sinnlos.

Mit gutem Willen bleiben unterm Strich gemittelte 9% Mehrleistung, mit dem Tiefpunkt bei 5%. Bei den aktuellen Preisen echt eine Enttäuschung.

Frosty
2015-11-19, 16:45:25
wieder einmal interessant wie sich die einzelnen reviews gegenseitig widersprechen:usad:

genau wie schon bei der r9 380 (non-x) bin also wieder mal ich selber gefordert herauszufinden wie laut die karte(n) wirklich ist (sind)....:frown:


das oc-potential scheint ja ganz annehmbar zu sein.

HOT
2015-11-19, 16:55:26
Das sind bestimmt wieder viel zu hohe Spannungen angelegt. Also echt - ich weiss nicht, warum die den Chip so derart verbockt haben. Eigentlich hätte das Teil sicherlich schon Mitte 2014 Tahiti komplett ersetzen sollen... jetzt kommt 1 1/2 Jahre später endlich die XT auf den Consumermarkt und ... kacke. 970MHz Referenztakt - lächerlich. Oft total seltsames Performanceverhalten vermutlich aufgrund der Speicherbandbreite - immernoch. Und das schärfste: Das Teil wird mit Catalyst 15.20 released, obwohl der 15.30 unmittelbar vor der Tür steht - mal wieder totaler fail-Lanch. Das Teil ist glaube ich nur empfehlenswert, wenn man die Spannungen manuell anlegt und sich ein Modell sucht, auf dem hochwertige Bauteile verbaut wurden, damit man den Speicher über 3000 ziehen kann.

Mal was zur Klärung: GPU-Z spucht für die X Rev. F1 aus, ist das bei der non-X auch so?

dildo4u
2015-11-19, 16:57:01
Das ist wie bei der 960 es spart vermutlich massiv Kosten für die Boardpartner wenn das Speicherinterface so klein wie möglich ist.AMD nimmt sogar den größeren Chip gegenüber der 280X in kauf.Die Karte ist für die Zukunft nich so schlecht vorallem wenn ein Game Tesselation nutzt wie z.b Star Wars,PCGH sollte mal ne 280X testen das wäre interessant.


http://www.pcgameshardware.de/Star-Wars-Battlefront-Spiel-34950/Specials/Test-Benchmark-1178154/

Palpatin
2015-11-19, 16:58:08
OC ist faktisch wertlos. Bringt außer einer explodierenden Leistungsaufnahme nichts weiter als vielleicht noch 1-2% mehr Leistung

Das trifft nur auf GPU OC zu oder? Speicher OC müsst schon gut was bringen?

(del)
2015-11-19, 17:01:21
Speicher geht was, aber ich halte es wegen der sich aktuell häufenden Ausfälle für eher kontraproduktiv, das in Artikeln noch zu bewerben. ;)

Agent117
2015-11-19, 17:04:52
Schon etwas enttäuschend; Tonga scheint echt komisch zu sein, da hatte Tahiti meiner Erinnerung nach sogar mehr OC-Spielraum.

AMD bekommt ihre CUs nicht ausgelastet. Unter Compute mit großen Kernels, also mit genug Backpressure erreicht man eine gute Auslastung. Mit mehr Queues kann man mehr Blöcke gleichzeitig auf die CUs launchen. NV macht das wohl anders. Man sieht auch, dass die Effizienz mit steigender CU Zahl sinkt.

Gebe dir grundsätzlich Recht aber ich finde es durchaus erstaunlich, wie gut doch Hawaii skaliert. Beim Release der 290er Serie sah man das nicht wirklich weil der Takt nie gehalten wurde, doch eine R9 390@1000Mhz konstant vermöbelt eine 380X im Schnitt um mehr als 35% bei nur 29% mehr Rohleistung. Und das trotz dem besseren Frontend von Tonga, was offenbaur bis auf Tesselation nichts bis kaum was bringt.

maximus_hertus
2015-11-19, 17:07:55
Wäre es nicht sinnvoller gewesen, eine R9 390 Light aufzulegen (statt der 380X)? Einfach auf 4 GiB beschränken, den Takt auf rund 850-900 MHz festsetzen (also sollte man auch mit 200W Verbrauch +- rauskommen) und man hat eine Performance die zwischen der 380 und 390 liegt. Das ganze für sagen wir mal 279 Euro und alles wäre gut.

Die jetzige 380X ist ein schlechter Scherz, eine 7970 GHz hat vor 2 Jahren schon <250 Euro gekostet und ist schneller.

Ex3cut3r
2015-11-19, 17:08:23
Lächerlich, immer diese Aufgüsse, ist 28nm nicht langsam mal genug gemolken? Die sollen wenigstens endlich mal runter mit den Preisen! Wenn man schon so nen alten Prozess benutzt, der in der Herstellung ja mittlerweile nicht mehr die Welt kostet. ;)

HOT
2015-11-19, 17:10:06
Wäre es nicht sinnvoller gewesen, eine R9 390 Light aufzulegen (statt der 380X)? Einfach auf 4 GiB beschränken, den Takt auch rund 850-900 MHz festsetzen (also sollte man auch mit 200W Verbrauch +- rauskommen) und man hat eine Performance die zwischen der 380 und 390 liegt. Das ganze für sagen wir mal 279 Euro und alles wäre gut.

Die jetzige 380X ist ein schlechter Scherz, eine 7970 GHz hat vor 2 Jahren schon <250 Euro gekostet und ist schneller.
512Bit Speicherinterface kostet. Das wär nicht sinnvoll gewesen.

maximus_hertus
2015-11-19, 17:14:14
512Bit Speicherinterface kostet. Das wär nicht sinnvoll gewesen.

Die R9 290 konnte man eine ziemlich lange Zeit für rund 250 Euro anbieten. Die Kosten sollten heute (nochmals) niedriger sein, so dass eine R9 390 Light bei 280 Euro mehr als nur machbar sein sollte.

Das Hauptproblem sehe ich darin, dass die 380X ihren Vorgänger, die 280X, nicht schlagen kann. Im Gegenteil, die 280X ist im Schnitt sogar 5-10% schneller. Das geht gar nicht, trotz der Vorteile "under the hood" der 380X (Frontend, 4 GiB, etc).

-/\-CruNcher-/\-
2015-11-19, 17:20:43
@Format_C

bin ich blind oder taucht die MSI 970 Gaming nirgends in dem Leistungsaufnahme Chart auf, sowas ist doch ****** wenn man sie direkt in den Benchmarks vergleicht aber in den weiteren daten fällt sie dann plötzlich weg :(

Sehe da nur Referenz 970 und die Gigabyte Windforce

Die MSI GTX 970 Gaming ist plötzlich wie vom Erdboden verschwunden und im Torture taucht dann auch plötzlich die Referenz 970 nicht mehr auf im Aufnahme Chart, das kanns nicht sein.

http://media.bestofmicro.com/E/8/539648/gallery/31-FHD-FPS-Charts_r_600x450.png
http://media.bestofmicro.com/G/L/539733/original/01-Overview-Idle.pnghttp://media.bestofmicro.com/G/M/539734/original/02-Overview-Gaming.pnghttp://media.bestofmicro.com/G/N/539735/original/03-Overview-Torture.png

HOT
2015-11-19, 17:21:06
Die R9 290 konnte man eine ziemlich lange Zeit für rund 250 Euro anbieten. Die Kosten sollten heute (nochmals) niedriger sein, so dass eine R9 390 Light bei 280 Euro mehr als nur machbar sein sollte.

Das Hauptproblem sehe ich darin, dass die 380X ihren Vorgänger, die 280X, nicht schlagen kann. Im Gegenteil, die 280X ist im Schnitt sogar 5-10% schneller. Das geht gar nicht, trotz der Vorteile "under the hood" der 380X (Frontend, 4 GiB, etc).

Das Hauptproblem liegt glaube ich vielmehr darin, dass AMD diese Karte überhaupt nicht wollte und auf Drängen der OEMs zu deren Bedingungen das Teil dennoch released hat. Da der Chip aber dafür ohne 384Bit nix taugt ist der Lanch verkackt.

Eine TongaXT-Karte ist von den Kosten her sicherlich nur halb so teuer wie eine Hawaii-Karte. Hawaii braucht eine deutlich teurere Stromversorgung, ein teures PCB für 512Bit, mehrere kleine Speicherchips, was ebenfalls teurer sein dürfte, eine teurere Kühlung und obendrein ist der Chip mit 80mm² mehr auch noch einiges teurer. In der jetzigen Form dürfte Tonga bis ca. 130€ Gewinn abwerfen, für Hawaii braucht man 200€+ um damit Gewinn zu machen.

Wenn AMD das mit Tonga XT ernst genommen hätte, hätte das Teil ein 384-Package bekommen, hätte ein deutlich hochwertigeres PCB mit hochwertigerer VRM bekommen und wär mit 1100MHz und 6GB auf die Kundschaft losgelassen worden. So seh ich das.

Schnoesel
2015-11-19, 17:26:10
Was die Leute wieder erwarten. Die Karte ist genau da wo sie sein sollte. Bei der Konkurrenz gibts da schließlich auch nix also wieso sollte AMD hier ihre Karten so billig raushauen? Dass sich vor den neuen Fertigungsprozessen nicht mehr viel bewegt ist das jetzt so eine Überraschung? ich denke nicht.

Wenn AMD das mit Tonga XT ernst genommen hätte, hätte das Teil ein 384-Package bekommen und wär mit 1100MHz und 6GB auf die Kundschaft losgelassen worden. So seh ich das.
Rechner

Genau am besten noch zum gleichen Preis? An der Karte verdienst dann nix mehr.

HOT
2015-11-19, 17:31:29
[...]


Genau am besten noch zum gleichen Preis? An der Karte verdienst dann nix mehr.
Das ist korrekt. Das hätte nur dann Sinn ergeben, wenn man damit performancetechnisch in Richtung 390 vorgestoßen wär. Aber wenn man bedenkt, dass den Platz von Hawaii evtl. Baffin einnehmen wird, ist Tonga eher als Pitcain-Ersatz zu sehen. Also ist die Entscheidung, das so zu machen, verständlich.

MadManniMan
2015-11-19, 17:39:47
Speicher geht was, aber ich halte es wegen der sich aktuell häufenden Ausfälle für eher kontraproduktiv, das in Artikeln noch zu bewerben. ;)

Ausfälle?

Erhelle mich!

(del)
2015-11-19, 17:43:39
@Format_C
... Die MSI GTX 970 Gaming ist plötzlich wie vom Erdboden verschwunden und im Torture taucht dann auch plötzlich die Referenz nicht mehr auf im Aufnahme Chart, das kanns nicht sein.

Sorry, aber ich bin froh, dass der Artikel überhaupt fertig geworden ist. AMD hat mir das Sample nur tempörär und kurz überlassen und es hängen bei uns ja noch Übersetzungen in mehrere Sprachen dran, da ich den Mist ja auch global schreibe. Albern und zudem eigentlich auch eine Bankrotterklärung des Marketings. Ich hatte die Karte gestern ja noch nicht einmal für Battlefront.

Extra für dich die MSI GTX 970 Gaming 4G:
- Gaming: 186 Watt
- Torture: 231 Watt

Ausfälle?
Erhelle mich!
Frag mal Händler nach RMA-Quoten (und Gründen) bei einem Hersteller mit S am Anfang ;)

-/\-CruNcher-/\-
2015-11-19, 17:48:42
Sorry hätte mir die Daten auch nochmal aus dem alten test rausgekrammt zumal es war ja sowieso offensichtlich wo sie landen würde eben bei der Nano :)

jetzt sieht man schwarz auf weis die HBM effizienz das quasi einzige ist was die Nano rettet :)

Schnoesel
2015-11-19, 17:48:58
Frag mal Händler nach RMA-Quoten (und Gründen) bei einem Hersteller mit S am Anfang

Haste doch schon gesagt. Zu hohes OC der Kunden. Man muss ja den längsten E-Pimmel haben und wenns nur in der Sig steht. In den Foren heißt es dann, AMD is scheiße ;-)

maximus_hertus
2015-11-19, 17:54:13
Was die Leute wieder erwarten. Die Karte ist genau da wo sie sein sollte. Bei der Konkurrenz gibts da schließlich auch nix also wieso sollte AMD hier ihre Karten so billig raushauen?

Na ja, 82 zu 18% Marktanteil sprechen doch eine deutliche Sprache (jetzt schon ein halbes Jahr lang). nV hat die (deutlich) bessere Energieeffizienz, die modernere Architektur, den "nV-Bonus". Vergleichen wir doch mal die GTX 960 mit der 380X:

Die GTX 960 gibt es fast nur als OC Version, die zwar nicht selten (deutlich) mehr Strom schlucken (als die Standard 960), aber in den Köpfen ist überall von 120W die Rede, auch bei den OC Varianten....

So sieht es bei einer potentiellen Kaufentscheidung (GTX 960 vs 380X) aus:

+nV: Energieeffizienz, moderne Architektur, bessere/stabilere Treiber, "Werbung", G-Sync Support, quasi gleich schnell wie die 380X mit den OC Karten

+AMD: Etwas schneller unter Stocktakt, das war es.

Wer soll die 380X in der jetzigen Form kaufen (zum aufgerufenen Preis)? Wenn AMD es nciht besser kann, dann hätte man das ganze lieber aussitzen sollen. Im Falle von AMD ist schlechte Presse nicht besser als keine Presse...

DerVengeance
2015-11-19, 18:00:18
Aber warum ist dann vor allem Pc Partner betroffen? Die meisten, die ihre Karte overclocken wollen, nehmen dafür doch die stärksten Karten, um noch das letzte Quäntchen Leistung herauszuquetschen (d.h. 980 TI oder TITAN X).

Wie sind denn dann die RMA Quoten bei EVGA, welche ja aufgrund der "overclocking-freundlichen" Garantiebestimmungen in diesem Milieu sehr beliebt sind?

On topic:
Obwohl ich AMD echt gern mag, frag ich mich, weshalb ich eine 380X statt einer 960 4GB kaufen sollte. Letztere ist zwar ein wenig langsamer, dafür braucht sie aber bedeutend weniger Strom (und ist daher leichter zu kühlen)

Schnoesel
2015-11-19, 18:00:33
Wer soll die 380X in der jetzigen Form kaufen (zum aufgerufenen Preis)? Wenn AMD es nciht besser kann, dann hätte man das ganze lieber aussitzen sollen. Im Falle von AMD ist schlechte Presse nicht besser als keine Presse...

Hä was sollen die denn sonst mit den ganzen Full Tongas machen, wenn man nicht alle bei apple verbraten kann? In die Tonne treten. Ernsthaft?

-/\-CruNcher-/\-
2015-11-19, 18:00:49
Hoffe wir sehen von einem Reviewer nochmal einen Power Output vergleich direkt auf Ashes of the Singularity bezogen :)

(del)
2015-11-19, 18:02:15
Haste doch schon gesagt. Zu hohes OC der Kunden. Man muss ja den längsten E-Pimmel haben und wenns nur in der Sig steht. In den Foren heißt es dann, AMD is scheiße ;-)

Ich bin ja nun wirklich privat OC- und WaKü-Freak, aber ich besitze auch noch genügend Achtung gegenüber der genutzten Hardware, um bestimmte Dinge eben nicht zu tun. In Reviews schon gleich gar nicht, weil alle Pimpfe alles ohne Überlegung einfach nachmachen und einen sogar unbedingt noch übertrumpfen wollen. Ich erinnere mal an den unsäglichen Intel-Artikel meines Kollegen, wo ein oller 805 so extrem getreten wurde, dass ein Großteil der Leser ihr Sparbrötchen dann galant gehimmelt haben, weil sie ohne Nachzudenken losgelegt haben :D

@-/\-CruNcher-/\-
Meinst Du die Leistungsaufnahme? Die ist lustigerweise eher moderat :)

dildo4u
2015-11-19, 18:02:37
Na ja, 82 zu 18% Marktanteil sprechen doch eine deutliche Sprache (jetzt schon ein halbes Jahr lang). nV hat die (deutlich) bessere Energieeffizienz, die modernere Architektur, den "nV-Bonus". Vergleichen wir doch mal die GTX 960 mit der 380X:

Die GTX 960 gibt es fast nur als OC Version, die zwar nicht selten (deutlich) mehr Strom schlucken (als die Standard 960), aber in den Köpfen ist überall von 120W die Rede, auch bei den OC Varianten....

So sieht es bei einer potentiellen Kaufentscheidung (GTX 960 vs 380X) aus:

+nV: Energieeffizienz, moderne Architektur, bessere/stabilere Treiber, "Werbung", G-Sync Support, quasi gleich schnell wie die 380X mit den OC Karten

+AMD: Etwas schneller unter Stocktakt, das war es.

Wer soll die 380X in der jetzigen Form kaufen (zum aufgerufenen Preis)? Wenn AMD es nciht besser kann, dann hätte man das ganze lieber aussitzen sollen. Im Falle von AMD ist schlechte Presse nicht besser als keine Presse...


Die 380X hat kein direkten Maxwell Gegner viel besser kann AMD die Karte nicht platzieren.Noch dazu bekommt man hier endlich keine veraltet Technik wie bei der 390 wo AMD jedesmal am Treiber Fummlen muss,um Tesselation Stufen zu reduzieren.

maximus_hertus
2015-11-19, 18:11:15
Die 380X hat kein direkten Maxwell Gegner

GTX 960 OC? Dank ordentlichem OC grob auf Augenhöhe bei der Performance, aber leiser, Stromsparender, nV-Vorteile etc. Und sogar rund 50 Euro (!!!) günstiger.

Und man kann die 960 auch mit eher schwächeren Netzteilen betreiben.

captain_drink
2015-11-19, 18:11:28
Die 380X hat kein direkten Maxwell Gegner viel besser kann AMD die Karte nicht platzieren.Noch dazu bekommt man hier endlich keine veraltet Technik wie bei der 390 wo AMD jedesmal am Treiber Fummlen muss,um Tesselation Stufen zu reduzieren.

Die 380X liegt 5-10% vor der 380. Wenn die 960 also für die letztere als ausreichender Gegner betrachtet wird, dann auch für die erstere.

Eine 390 ist ohnehin deutlich attraktiver, die skaliert nach wie vor sehr gut und hat auch genügend Speicher und Speicherbandbreite, so dass sie anders als Tonga nicht von der Effektivität der Kompression abhängt.

Schnoesel
2015-11-19, 18:16:22
Und sogar rund 50 Euro (!!!) günstiger.
Releasepreis vs. Straßenpreiß nach X Monaten?! sehr sinnig!

Nvidias Geforce GTX 960 ist für die R9 380X normalerweise kein würdiger Gegner. Hochgezüchtete Versionen der Nvidia-Karte mit 4 GiByte Speicher und mindestens 1,4 GHz Boost (u. a. EVGAs GTX 960 FTW) können es aber zu einem vergleichbaren Preis mit dem AMD-Produkt aufnehmen und verbrauchen dabei weniger Energie.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/R9-380X-Test-Review-1178241/

Das Fazit passt.

maximus_hertus
2015-11-19, 18:21:07
Wenn AMD nicht deutlich(!) günstiger ist (bei gleicher Leistung) dann sind sie Ladenhüter, leider. Alternativ gleicher Preis aber grob eine Performance Klasse schneller.

Wenn man 260 Euro oder von mir aus ca. 240 Euro Straßenpreis bezahlen möchte, kann man direkt 310-320 Euro ausgeben und eine R9 390 oder eine GTX 970 kaufen. Da bekommt man deutlich (30-40%) mehr Performance und im Falle der R9 390 sogar satte 8 GiB VRAM.

Schnoesel
2015-11-19, 18:24:39
Nochmal was sollen sie denn mit den ganzen Full Tongas deiner Meinung nach machen? Ist doch besser ich verkaufe überhaupt etwas als gar nix. Und man kann den Preis nicht bis ins Unendliche drücken, dann ist es wirklich besser nix zu verkaufen als wenn jede verkaufte Karte Verlust bedeutet.

N0Thing
2015-11-19, 18:26:24
So sieht es bei einer potentiellen Kaufentscheidung (GTX 960 vs 380X) aus:

+nV: Energieeffizienz, moderne Architektur, bessere/stabilere Treiber, "Werbung", G-Sync Support, quasi gleich schnell wie die 380X mit den OC Karten

+AMD: Etwas schneller unter Stocktakt, das war es.

Wer soll die 380X in der jetzigen Form kaufen (zum aufgerufenen Preis)? Wenn AMD es nciht besser kann, dann hätte man das ganze lieber aussitzen sollen. Im Falle von AMD ist schlechte Presse nicht besser als keine Presse...

Ich will da jetzt gar keinen Fanboy-Krieg starten, aber bei AMD kann man zumindest noch Adaptive-/Free-Sync hinzufügen. Der Punkt stabilere Treiber hat sich meiner Meinung nach überholt und über das besser kann man sich ewig streiten, Beschwerden über den Treiber gibt es in beiden Lagern.
Da würde ich eher PhysX als möglichen Pluspunkt bei Nvidia hinzufügen, das gibt es definitiv nur dort.

Am Ende ist meist die Kombination aus Performance und Stromverbrauch, die viele Kunden für Nvidia überzeugt, als Pluspunkt kommen dort auch häufiger leise Kühler zum Einsatz, bei AMD hat man gefühlt oft nur 1-2 Karten pro Modell die in Frage kommen, wenn man darauf wert legt.

-/\-CruNcher-/\-
2015-11-19, 18:37:09
GTX 960 OC? Dank ordentlichem OC grob auf Augenhöhe bei der Performance, aber leiser, Stromsparender, nV-Vorteile etc. Und sogar rund 50 Euro (!!!) günstiger.

Und man kann die 960 auch mit eher schwächeren Netzteilen betreiben.

OC bringt dir wenig bei CUDA da ist die 380x sicher besser aufgehoben beim Async Compute :)


@-/\-CruNcher-/\-
Meinst Du die Leistungsaufnahme? Die ist lustigerweise eher moderat :)

Jep Interessant bzw ja auch nicht immerhin ist das eines der vorzüge von DX 12 im Gesamtkontext der Balance zwischen GPU und CPU :)

Lowkey
2015-11-19, 18:47:49
Wie man an der AMD Nano bzw generell der Fury sieht ist der Preis einfach zu hoch. AMD verkauft keine Produkte für den geforderten Preis. Aber bei den Verkaufszahlen müßte der Preis eigentlich fallen - was er nicht tut.

dargo
2015-11-19, 19:01:33
Was habt ihr eigentlich mit den Preisen? Das Ding ist kaum draußen und wird schon ab 238€ gelistet, imho absolut fair.
http://www.mindfactory.de/product_info.php/4096MB-PowerColor-Radeon-R9-380X-PCS--Myst-Edition-Aktiv-PCIe-3-0-x16--R_1021839.html

Ich hatte mit mindestens 250€ gerechnet.

Dazu noch sowas...
http://geizhals.de/aoc-g2460vq6-a1316311.html?hloc=at&hloc=de

und man hat eine perfekte 1080p Gamingplattform.

Darlie
2015-11-19, 19:12:27
Schöne Karte für 250$ :-) Sonst kann man sich eher für das Geld eine 280X oder eine gebrauchte 7970 kaufen. Well done AMD.

(del)
2015-11-19, 19:19:34
Genau deshalb habe ich meine Zusammenfassung auch in drei Teile gesplittet. Der technische Aspekt als solcher, die Umsetzung von Sapphire im Speziellen und die Sache mit dem Preis als eher temporäres Fazit, weil der schneller fallen wird, als ein grüner Fanboy Mops sagen kann :D

AnarchX
2015-11-19, 19:39:39
Da schließt man das Kapitel Tonga auf ähnlichem Niveau ab, wie es vor 14 Monaten mit der 285 2GiB begann...

BlacKi
2015-11-19, 19:46:03
Was habt ihr eigentlich mit den Preisen? Das Ding ist kaum draußen und wird schon ab 238€ gelistet, imho absolut fair.

lächerlich wenn die 380x den schon lang ersehnten allgemeinen preisrutsch auslösen sollte.

Lyka
2015-11-19, 19:46:40
380x für <200 Euro und ich überlege es mir ^^

Frosty
2015-11-19, 19:48:26
Genau deshalb habe ich meine Zusammenfassung auch in drei Teile gesplittet. Der technische Aspekt als solcher, die Umsetzung von Sapphire im Speziellen und die Sache mit dem Preis als eher temporäres Fazit, weil der schneller fallen wird, als ein grüner Fanboy Mops sagen kann :D


wie sieht's bei der lautstärke der nitro 380x im vergleich zur nitro 380 non-x aus? bewegt sich die auf einem ähnlich niedrigen level?

maximus_hertus
2015-11-19, 19:48:55
199 Euro und dann passt es. Warten wir mal ab.

(del)
2015-11-19, 19:51:56
wie sieht's bei der lautstärke der nitro 380x im vergleich zur nitro 380 non-x aus? bewegt sich die auf einem ähnlich niedrigen level?

Die 380 von Sapphire hatte ich leider nicht zum Vergleich, aber es sieht sicher nicht schlecht aus. Im Mittel liegt ja die Leistungsaufnahme nur unwesentlich höher und es ist ein ähnlicher Kühler.

Gorkon
2015-11-19, 20:15:54
Die einzigen Tests die echt was taugen sind die von TPU, TechReport, THG und PCGH, den Rest kann man wieder getrost in die Tonne kloppen.
Beim Rest denkt man fast, die hätten ihre Ergebnisse einfach nur auf gut Glück ausgewürfelt...es passt irgendwie garnix zusammen -.-

Im Endeffekt ist Tonga XT doch einfach nur Tahiti 2.0 mit modernerem Unterbau. Groß an der Architektur hat sich mit GCN 1.0 > GCN 1.2 doch garnicht geändert. Wer da ernsthaft +20-25% Leistung bei sonst gleichen oder schlechteren Specs erwartet hat, sollte einfach mal aufwachen.

Das Teil ist AMDs hypothetischer Mix aus Kepler / Maxwell...passt doch so. Mal schauen was Crimson evtl. noch reisst...

mfg

Raff
2015-11-19, 20:24:53
380x für <200 Euro und ich überlege es mir ^^

Die Leistung kannst du jetzt schon haben: Kauf dir eine R9 380/4G und stell die manuell auf 1.100/3.000 MHz. [Joker aus Dark Knight]Dadaa![/Joker aus Dark Knight]

MfG,
Raff

Arcanoxer
2015-11-19, 20:36:58
Die Zeiten wo AMD mal günstig war sind wohl vorbei.
Wie lange die wohl brauchen um zu bemerken das man kein mittelmässiges Produkt zum Premium Preis verkauft.

dildo4u
2015-11-19, 20:49:54
Die Zeiten wo AMD mal günstig war sind wohl vorbei.
Wie lange die wohl brauchen um zu bemerken das man kein mittelmässiges Produkt zum Premium Preis verkauft.
Laut PCGH hat die 380 hat das beste P/L Verhältnis zur Zeit.Die 280X wird dort noch erwähnt weil es sie mal für 185€ gab fällt jetzt aber Raus,ich sehe nur noch Karten ab 230€ auf Lager.

Lyka
2015-11-19, 20:51:04
Die Leistung kannst du jetzt schon haben: Kauf dir eine R9 380/4G und stell die manuell auf 1.100/3.000 MHz. [Joker aus Dark Knight]Dadaa![/Joker aus Dark Knight]

MfG,
Raff

ich bin kein Übertakter -.-' ich warte lieber :smile:

Raff
2015-11-19, 20:51:28
Arcanoxer ist LUNIX-Mensch. Da hat AMD tatsächlich nichts zu melden, weder feature- noch performancewise. Für alle anderen gilt jedoch wirklich, dass die R9 380/4G aus Preis-Leistungs-Sicht sehr attraktiv ist.

MfG,
Raff

BlacKi
2015-11-19, 21:02:48
Arcanoxer ist LUNIX-Mensch. Da hat AMD tatsächlich nichts zu melden, weder feature- noch performancewise. Für alle anderen gilt jedoch wirklich, dass die R9 380/4G aus Preis-Leistungs-Sicht sehr attraktiv ist.

MfG,
Raff
gilt das auch für übertakter? wenn beide (960 und 380) am oberen limit laufen könnte man sowohl stromverbrauchsmäßig als auch performance technisch zur 960 tendieren.

ich hab noch nie ne karte nicht übertaktet.

Raff
2015-11-19, 21:04:41
Eine GTX 960 @ um die 1.500/4.000 MHz ist zwar irgendwie spannend, weil trotz der "kleinen" Hardware verflucht viel Leistung herausfällt, im Mittel ist eine übertaktete R9 380 (1.100/3.200 MHz realistisch) aber etwas schneller – und natürlich durstiger.

MfG,
Raff

Fireblade
2015-11-19, 21:26:58
Argh, hatte gehofft die 380x macht meine Entscheidung einfacher. Ich kann mich nicht so richtig entscheiden.

1) GTX970
2) R9 380 (ohne Übertaktung)
3) GTX960 (mit Übertaktung)
4) Bis nächstes Jahr warten auf neue Gen

Hab leider nur ein 400W Netzteil (aber hochwertiges), darum fallen die meisten AMD GraKas und Übertaktungen weg. Zur Zeit eine 6870 drin.
Von denen erscheint mir die 970 noch am attraktivsten, aber da ist ja das RAM-Problem.
Und was ich so von der nächsten Gen lese scheint die ja wieder eine neue Evolution zu werden. Also lieber doch 6 Monate warten?

Frosty
2015-11-19, 21:33:20
echt etwas schade ob der vertanen chance, das mittelpreissegment heftigst aufzumischen. trotzdem würd mich die sapphire reizen, wenn ich nicht wieder ein montagsmodell erwische bei dem die lüftersteuerung defekt ist:rolleyes:

Raff
2015-11-19, 21:50:56
Argh, hatte gehofft die 380x macht meine Entscheidung einfacher. Ich kann mich nicht so richtig entscheiden.

1) GTX970
2) R9 380 (ohne Übertaktung)
3) GTX960 (mit Übertaktung)
4) Bis nächstes Jahr warten auf neue Gen

Hab leider nur ein 400W Netzteil (aber hochwertiges), darum fallen die meisten AMD GraKas und Übertaktungen weg. Zur Zeit eine 6870 drin.
Von denen erscheint mir die 970 noch am attraktivsten, aber da ist ja das RAM-Problem.
Und was ich so von der nächsten Gen lese scheint die ja wieder eine neue Evolution zu werden. Also lieber doch 6 Monate warten?

Die neue Generation wird garantiert noch auf sich warten lassen und dann bestimmt auch nicht für 200 Euro starten. Mit einer R9 380/4G oder GTX 960/4G machst du im Verlauf von 2016 bestimmt nichts falsch, gegenüber einer HD 6870 sind das Welten. Wie gesagt, ich würde dir eher zur Radeon raten, aber das muss jeder mit sich selbst ausmachen. :)

MfG,
Raff

BgF
2015-11-19, 22:02:45
Argh, hatte gehofft die 380x macht meine Entscheidung einfacher. Ich kann mich nicht so richtig entscheiden.

1) GTX970
2) R9 380 (ohne Übertaktung)
3) GTX960 (mit Übertaktung)
4) Bis nächstes Jahr warten auf neue Gen

Hab leider nur ein 400W Netzteil (aber hochwertiges), darum fallen die meisten AMD GraKas und Übertaktungen weg. Zur Zeit eine 6870 drin.
Von denen erscheint mir die 970 noch am attraktivsten, aber da ist ja das RAM-Problem.
Und was ich so von der nächsten Gen lese scheint die ja wieder eine neue Evolution zu werden. Also lieber doch 6 Monate warten?
Habe genau das gleiche Probleme und versuche mich jetzt zwischen der 380 von MSI(4G) und der PowerColor 380X zu entscheiden. Zwischen beiden liegen ~10€ und ~7-10%, was mich eher zur 380X bewegen würde aber leider gibt es noch keine Tests der 380X PCS+ in Sachen Lautstärke :redface:

Thunder99
2015-11-19, 23:07:59
Kannst sicher auf die Werte von der non X dich beziehen :)

Ansonsten nette Karte aber nichts großartiges. Aktuelles Feature-Set mit erwarteter Performance. Scheint so das man mit einer R9 290 auf max. 1100/1450 alles richtig gemacht hat :D

von Richthofen
2015-11-19, 23:43:39
Beim Guru reicht die übertaktete Sapphire tatsächlich fast an eine 290 ran....zumindest im 3DMark :redface:
http://www.guru3d.com/articles_pages/amd_radeon_r9_380x_4gb_review,31.html

BgF
2015-11-20, 00:16:51
Kannst sicher auf die Werte von der non X dich beziehen :)

Auch wieder war. Hab die 380X PCS+ einfach mal geordert.

iuno
2015-11-20, 00:51:29
Arcanoxer ist LUNIX-Mensch. Da hat AMD tatsächlich nichts zu melden, weder feature- noch performancewise.

Nur, wenn man keinen wert auf freie Treiber legt. Und kompromisslos spielen kann man unter Linux aktuell überhaupt nicht

Thunder99
2015-11-20, 01:57:53
Beim Guru reicht die übertaktete Sapphire tatsächlich fast an eine 290 ran....zumindest im 3DMark :redface:
http://www.guru3d.com/articles_pages/amd_radeon_r9_380x_4gb_review,31.html
Evt ne Standard 290, aber an meine Vapor-X (1030/1400) reicht keine das Wasser ;) :D

9713 Punkte, davon 11354 Grafik Score (380X OC hat nur 10154)

Edit: Ok, nicht ganz vergleichbar da 1080p und 1200p :rolleyes: Aber Richtung stimmt

Edit2: Auf mein max. OC 1100/1450 10192 Punkte mit 12065 Grafik Score

Schaffe89
2015-11-20, 02:21:51
OC ist faktisch wertlos. Bringt außer einer explodierenden Leistungsaufnahme nichts weiter als vielleicht noch 1-2% mehr Leistung bei schlechteren Framerates, weil dann der Limiter greift und der Takt nicht mehr komplett konstant oben gehalten werden kann.

Ja bei einer einzigen Karte, jedes andere Review sagt was anderes, vielleicht nicht immer die alleinige Warheit für sich beanspruchen.

fondness
2015-11-20, 02:40:28
Arcanoxer ist LUNIX-Mensch. Da hat AMD tatsächlich nichts zu melden, weder feature- noch performancewise. Für alle anderen gilt jedoch wirklich, dass die R9 380/4G aus Preis-Leistungs-Sicht sehr attraktiv ist.

MfG,
Raff

AMD hat den haushoch überlegenen Open-Source Linux Treiber. Für einen echten Linux-Menschen ist das wesentlich mehr wert wie irgend ein closed Source Müll.

Und wer glaubt, dass man mit dem nv Treiber unter Linux nicht massive Nachteile ggü Windows hat, der hat wohl schlicht keine Ahnung.

Hübie
2015-11-20, 03:11:14
AMD hat den haushoch überlegenen Open-Source Linux Treiber. Für einen echten Linux-Menschen ist das wesentlich mehr wert wie irgend ein closed Source Müll.

Und wer glaubt, dass man mit dem nv Treiber unter Linux nicht massive Nachteile ggü Windows hat, der hat wohl schlicht keine Ahnung.

Quelle? Haushoch überlegen? Gegenüber was jetzt?

Ich muss feststellen dass die deutsche Presse beim Thema OC versagt hat. Nur Andreas von HWL hat dass sinnvoll umgesetzt. So sehr ich deren Tests auch ignoriere, haben die einfach PT aufgedreht und Takt hoch geschraubt. Zack 10% mehr Leistung. Klar war die Effizienz dann für die Katz, aber das interessiert nun mal nicht jeden. ;)

Ansonsten hat Igor bis ins kleinste Detail jede Frage beantwortet. Danke dafür. Bei computerbase.de ist der Test sehr kurz ausgefallen. Für einen Launch echt wenig. PCGH merkt man halt an dass da Zeit Geld ist. Dennoch danke ich allen für Ihre Arbeit.

Wer waren denn noch mal die Traumtänzer, welche sagten die Karte käme an die R9 390 ran? Würde die gerne etwas dissen :D Für den Preis geht die Karte i.O. aber aus technischer Sicht ein fail...

Mark3Dfx
2015-11-20, 05:20:25
Soll ich lachen oder weinen?
Die 7970 GHZ (aka 280X) aus dem Forum für 150€ war echt der Schnapp des Jahres.
Eine 3 1/2 Jahre alte Karte ist teils immer noch schneller als das Ding.

Tahiti ist der würdige Nachfolger der GTX 460!

(del)
2015-11-20, 06:25:05
Da muss ich Dir sogar Recht geben :) Ich habe für einen kleinen Test unlängst mal wieder meine gute alte 7990 entstaubt und war wirklich erstaunt, wie gut der Prügel noch läuft. :P

@Hübie:
Naja, PT aufdrehen... Was nützen mir die ganzen Mehr-FPS, wenn die Karte dann stellenweise hoppelt wie der Milka-Hase im Eierlikörrausch, nur weil man mal schnell um die Ecke sprinten will?

Ich bin privat mit einem Pro-Gamer befreundet, den ich früher eigentlich nur für Eingabegeräte und Kopfhörer als beratende Instanz "missbraucht" habe. Mittlerweile mache ich das auch, um mir eine Zweitmeinung zur Spielbarkeit zu gönnen. Wenn dem dann das Gleiche auffällt, wie mir und meinen Messungen, landen solche Dinge bei mir in der Schublade der Praxisuntauglichkeit :)

Der Takt skaliert nie zu 100% mit der Leistung und aus den möglichen 8-9% Taktsteigerung der GPU und dem bisschen, was der RAM hergab, waren es im Schnitt keine 7% in der Realität in der Summe über alle Spiele. Dann spiele ich halt nicht mit 30, sondern mit 31 bis 32 fps - toller Zugewinn. Durch das OC wird nichts, was vorher nicht spielbar war, plötzlich spielbarer. Und auch nichts läuft spürbar flüssiger außer dem, was sich die ganzen Schwanzlängenbenchmarkvergleichskinder dann in kleinen Tröpfchen abschütteln :P

Hübie
2015-11-20, 07:35:14
Ich habe zugegebenermaßen keine Texte gelesen, da ich etwas kurz angebunden war. Deinen Abschnitt über OC jedoch schon und da steht es nicht in der Deutlichkeit und gewohnten Detaildarstellung dort. Vielleicht ergänzt du den Teil.
HWL konnte 10% heraus holen und ich schätze mit adäquater Kühlung springt der Takt auch nicht mehr um die Frametimes zu versauen.
Die Karte ist und bleibt für 2015 aber deutlich zu spät. Man hat Marktanteile verschenkt.

(del)
2015-11-20, 08:07:59
... da steht es nicht in der Deutlichkeit und gewohnten Detaildarstellung dort.
Ich wollte AMD einerseits nicht all zu sehr weh tun und andererseits auch den OC-Kiddies nicht den Tag komplett versauen. Klar kann man das PT aufdrehen. Aber dann säuft die Karte (a) wie ein Loch und genehmigt sich bis zu 50 Watt mehr für nothing. Ich kann aber nicht ständig AMD kritisieren, dass sie bei der Telemetrie nicht so einsichtig herangehen, wie bei der R9 Nano, um dann (b) im Gegenzug so richtig noobmäßig das PT so aufdrehen, dass die ganze fragile Abstimmung über den Haufen geworfen wird. Ich habe meine Meinung öffentlich vertreten und stehe auch dazu, dass AMD lieber etwas weniger mit der Brechstange, dafür mehr mit Hirn und Vernunft herangehen soll. Da kann ich doch nicht selbst das Gegenteil in einer komplett überflüssigen OC-Orgie ausleben, die noch nicht mal für einen Orgasmus taugt. Zumal alle getesteten Boardpartnerkarten ja bereits OC mitbringen. Die dort eingestellten Taktraten kommen übrigens nicht von ungefähr und die Ingenieure bei Sapphire oder Gigabyte würfeln sich die Zahlen auch nicht mal eben so belanglos auf dem Klo aus. Da wird so lange getestet, bis der beste Kompromiss für die jeweilige Kühllösung rauskommt. :D

Wer so einen OC-Schluckspecht wie Tahiti auf Extasy liebt, soll sich so eine Karte (gebraucht) kaufen und keine aktuelle. Die ollen Prügel haben immer noch genügend Bums, solange man sie nicht von der Tränke wegschubst. Für Normalos spielt das bisschen Mehrverbrauch, auf die Kilowattstunden gerechnet, eh keine große Rolle. ;)

Arcanoxer
2015-11-20, 08:09:24
AMD hat den haushoch überlegenen Open-Source Linux Treiber.Aktuelle Hardware läuft mit 1/4 der Performance(Fury), die Hälfte der Spiele läuft erst gar nicht und die andere Hälfte hat Grafikfehler.

Möglicherweise haben ich aber auch nur eine andere Vorstellung von Überlegen.
Btw - hat die 380x schon Linux Support?

Und wer glaubt, dass man mit dem nv Treiber unter Linux nicht massive Nachteile ggü Windows hat, der hat wohl schlicht keine Ahnung.
Windows ist seit 10 keine Alternative mehr, so einfach ist das.
Das hat mit glauben nichts zu tun. ;)

Hübie
2015-11-20, 08:26:30
Ich wollte AMD einerseits nicht all zu sehr weh tun und andererseits auch den OC-Kiddies nicht den Tag komplett versauen. Klar kann man das PT aufdrehen. Aber dann säuft die Karte (a) wie ein Loch und genehmigt sich bis zu 50 Watt mehr für nothing. Ich kann aber nicht ständig AMD kritisieren, dass sie bei der Telemetrie nicht so einsichtig herangehen, wie bei der R9 Nano, um dann (b) im Gegenzug so richtig noobmäßig das PT so aufdrehen, dass die ganze fragile Abstimmung über den Haufen geworfen wird. Ich habe meine Meinung öffentlich vertreten und stehe auch dazu, dass AMD lieber etwas weniger mit der Brechstange, dafür mehr mit Hirn und Vernunft herangehen soll. Da kann ich doch nicht selbst das Gegenteil in einer komplett überflüssigen OC-Orgie ausleben, die noch nicht mal für einen Orgasmus taugt. Zumal alle getesteten Boardpartnerkarten ja bereits OC mitbringen. Die dort eingestellten Taktraten kommen übrigens nicht von ungefähr und die Ingenieure bei Sapphire oder Gigabyte würfeln sich die Zahlen auch nicht mal eben so belanglos auf dem Klo aus. Da wird so lange getestet, bis der beste Kompromiss für die jeweilige Kühllösung rauskommt. :D

Wer so einen OC-Schluckspecht wie Tahiti auf Extasy liebt, soll sich so eine Karte (gebraucht) kaufen und keine aktuelle. Die ollen Prügel haben immer noch genügend Bums, solange man sie nicht von der Tränke wegschubst. Für Normalos spielt das bisschen Mehrverbrauch, auf die Kilowattstunden gerechnet, eh keine große Rolle. ;)

So ein OC Test hätte dann eher belegenden Charakter, als widersprüchlichen Charakter. ;)
Ich teile deine Meinung schon, nur will ich auch wissen ob man da die Zügel nicht zu straff angezogen hat. Vorzugsweise mit Zahlen und Fakten.

Schrotti
2015-11-20, 09:25:01
Also ich hab da ja etwas mehr erwartet.

Was ist denn schief gegangen?

Palpatin
2015-11-20, 09:44:07
Aktuelle Hardware läuft mit 1/4 der Performance(Fury), die Hälfte der Spiele läuft erst gar nicht und die andere Hälfte hat Grafikfehler.

Möglicherweise haben ich aber auch nur eine andere Vorstellung von Überlegen.
Btw - hat die 280x schon Linux Support?

Naja der hier angesprochene Open Source Linux treiber von Nvidia soll aber noch deutlich schlechter sein. Liest man zummindest. Der Closed Source Linux Treiber von Nvidia ist natürlich haushoch überlegen. Aber um den ging es nicht.

iuno
2015-11-20, 10:17:23
Quelle? Haushoch überlegen? Gegenüber was jetzt?
Gegen nouveau natürlich, das geht doch aus dem Post hervor.

Möglicherweise haben ich aber auch nur eine andere Vorstellung von Überlegen.

Nein, du kannst nur einfach nicht differenzieren. Wie laufen denn Maxwells so mit nouveau? Gibt es da überhaupt schon was oder verhindert Nvidia das gut genug mit ihren signierten ucodes?
Warum soll die 380X Probleme machen? Tonga läuft recht gut mit dem amdgpu stack.

Windows ist seit 10 keine Alternative mehr, so einfach ist das.
CSS Treiber sind einfach keine Alternative mehr, so einfach ist das. Tellerrand much?

Matthias2304
2015-11-20, 10:29:03
Hab mir grad die Tests zur 380X durchgelesen. Mmn leider zu spät auf den Markt geworfen. Ich denke sie kann nur knallhart über den Preis Kunden locken

dargo
2015-11-20, 10:42:12
Wer waren denn noch mal die Traumtänzer, welche sagten die Karte käme an die R9 390 ran?
Da hast du was falsch verstanden. ;)

Loeschzwerg
2015-11-20, 11:05:46
AMD hat den haushoch überlegenen Open-Source Linux Treiber. Für einen echten Linux-Menschen ist das wesentlich mehr wert wie irgend ein closed Source Müll.


Es bleibt die Frage WAS denn hier letztendlich Müll ist, denn der Closed-Source von NV funktioniert ja schließlich wunderbar. :D

Pirx
2015-11-20, 11:07:39
;)Soll ich lachen oder weinen?
Die 7970 GHZ (aka 280X) aus dem Forum für 150€ war echt der Schnapp des Jahres.
Eine 3 1/2 Jahre alte Karte ist teils immer noch schneller als das Ding.

Tahiti ist der würdige Nachfolger der GTX 460!
jupp und das "schwache" Frontend hat auch gut durchgehalten

Botcruscher
2015-11-20, 11:20:37
Die jetzige 380X ist ein schlechter Scherz, eine 7970 GHz hat vor 2 Jahren schon <250 Euro gekostet und ist schneller.

In dem Bereich war auch mal die 290.

derF
2015-11-20, 11:51:15
Ja die Preise vor 2 Jahren waren dank Euro-Kurs noch gut. Meine Tri-X 290 hat glaub 400 gekostet und ich dachte so: ziemlich teuer, so viel hab ich noch nie für ne Grafikkarte ausgegeben. Und jetzt: Beste Investition aller Zeiten, die behalt ich noch ne Weile. :D

iuno
2015-11-20, 11:53:57
Es bleibt die Frage WAS denn hier letztendlich Müll ist, denn der Closed-Source von NV funktioniert ja schließlich wunderbar. :D
Was Müll ist, kommt darauf an, worauf man Wert legt. Funktionieren tut amdgpu/radeon + mesa/radeonsi usw. auch. Die OpenGL Implementierung von Nvidia ist unter Linux jedoch teilweise auch deutlich langsamer als unter Windows. "Wunderbar" ist imho deshalb das völlig falsche Wort
Aber das ist OT

Botcruscher
2015-11-20, 12:14:12
Ja die Preise vor 2 Jahren waren dank Euro-Kurs noch gut.
In der Zeit dürfte aber auch die Herstellung um mehr als 1/3 günstiger geworden sein.

(del)
2015-11-20, 12:46:00
In der Zeit dürfte aber auch die Herstellung um mehr als 1/3 günstiger geworden sein.
In Asien sind die Löhne deutlich gestiegen, die Rohstoffpreise sind es auch. Der Chip ist doch nicht alles :)

derF
2015-11-20, 13:38:03
Natürlich sind die Produktionskosten gesunken. Eine 390 kostet ja auch keine 400 EUR. (Aber halt auch nicht so viel weniger, dass es zwei Jahre Nutzung ausgleichen würde).
Aber es tut sich doch, verglichen mit den Jahren zuvor, wenig an Leistung und Preisen, deswegen meine Freude über die Langlebigkeit meiner Karte. Andererseits schaue ich mit einem weinenden Auge auf den fehlenden technischen Fortschritt.

(del)
2015-11-20, 14:13:14
Natürlich sind die Produktionskosten gesunken.Nein, sind sie nicht. Produktionskosten sind übrigens Transformationskosten, die ALLES beinhalten.

Wenn man nur ein klein wenig auf Bertriebliches Rechnungswesen und Volkswirtschaftslehere schaut, dann versteht man sehr schnell, dass dies mit der Senkung ein Trugschluss ist, der dem Wunschglauben folgt, jedoch nicht der Realität entspricht :)

Schaun wir doch mal was wir so haben und betrachten zunächst die Herstellkosten (nicht verwechseln mit den Herstellungskosten) in denen ja bereits auch die stark gestiegenen Löhne stecken:

• Materialeinzelkosten - stark gestiegen
• Materialgemeinkosten - gestiegen
• Fertigungseinzelkosten - gestiegen
• Fertigungsgemeinkosten - gestiegen
• Sondereinzelkosten der Fertigung - schwankend

Nun schauen wir auf die Herstellungskosten, in denen die Herstellkosten bereits drinstecken und wo noch einiges draufkommt:

• freiwillige Sozialkosten - gestiegen
• Altersversorgung/Rente (betrieblich) - bei vielen neu hinzugekommen
• Allgemeine Verwaltungskosten (produktionsbezogen) - gestiegen

Das ist aber noch nicht alles, denn es kommen noch weitere Kosten hinzu:

• Allgemeine Verwaltungskosten (nicht produktionsbezogen) - gestiegen
• Zinsen auf Fremdkapital, mit dem die Produktion vorfinanziert werden muss - gleichbleibend bis steigend (Dollarraum, Risko steigt)
• Bereitstellungszinsen auf dieses Fremdkapital - Tendez steigend
• außerplanmäßige Abschreibungen - schwankend, Tendenz steigend
• Forschungskosten (Custom Designs u.ä.) - gestiegen
• Kalkulatorische Kosten - schwankend
• Leerkosten - schwankend
• Vertriebskosten - gestiegen
• diverse Steuern - kaum verändert

Der Chip als solcher ist ein großer Posten, aber an sich Latte, weil sowohl AMD als auch NV ziemlich hoch einsteigen und ihrereseits ihre Kosten ganz fett in Rechnung stellen. Auch wenn der Fertigungsprozess günstiger geworden sein mag und die Ausbeute höher ist, ist es doch nur ein kleiner Teil der gesamten Geschichte. Im Gegenteil, die Margen der Boardpartner werden von Jahr zu Jahr geringer.

HOT
2015-11-20, 14:25:37
Hinzu kommt, dass die Chips immer anspruchsvoller an die restlichen Bauteile werden. Ich würd sowieso denken, dass der Trende über 600€ zu springen im High-End sich weiter "verschlimmern" wird. Greenland XT wird sicherlich nicht für unter 700€ zu haben sein vom Start weg.

fondness
2015-11-20, 15:40:58
Windows ist seit 10 keine Alternative mehr, so einfach ist das.
Das hat mit glauben nichts zu tun. ;)

Aber Nvidia ist eine alternative, die aktiv Zeit und Geld investieren um den open source Entwicklern Steine in den Weg zu legen und wo Linus torvald selbst sagte the worst Company ever we worked with? Sehr konsequent :-). Vielleicht bekommst du ja auch bald den geforce experience zwang unter Linux, dann ist Windows 10 auch kein Problem mehr :-)

Schaffe89
2015-11-20, 15:53:09
Wenn man Linux bewertet, sollte man die AMD Linuxtreiber und OpenGL Treiber vielleicht trennen@ Arcanoxer, sonst kommt das Gefühl auf, dass du dich absichtlich dumm stellst.

-/\-CruNcher-/\-
2015-11-20, 18:29:32
Quelle? Haushoch überlegen? Gegenüber was jetzt?

Ich muss feststellen dass die deutsche Presse beim Thema OC versagt hat. Nur Andreas von HWL hat dass sinnvoll umgesetzt. So sehr ich deren Tests auch ignoriere, haben die einfach PT aufgedreht und Takt hoch geschraubt. Zack 10% mehr Leistung. Klar war die Effizienz dann für die Katz, aber das interessiert nun mal nicht jeden. ;)

Ansonsten hat Igor bis ins kleinste Detail jede Frage beantwortet. Danke dafür. Bei computerbase.de ist der Test sehr kurz ausgefallen. Für einen Launch echt wenig. PCGH merkt man halt an dass da Zeit Geld ist. Dennoch danke ich allen für Ihre Arbeit.

Wer waren denn noch mal die Traumtänzer, welche sagten die Karte käme an die R9 390 ran? Würde die gerne etwas dissen :D Für den Preis geht die Karte i.O. aber aus technischer Sicht ein fail...

Wieso ein Fail sie besittzt das komplette featureset von GCN 1.2 das ist so kein Fail sie ist nur nicht ausgebaut wer aber Fijis Featureset zu einem ordentlichen Preis will der hat keine andere Wahl als die 380X bei Nvidia gibt es das nicht da ist das featureset durchgängig immer das gleiche in der Chip Generation bis auf kleinere technische ausnahmen, wie bei der GTX 970 oder eben der GTX 950/60 ,deren unterschiede immer auf wirtschaftlichen realitäten im Target zur release Zeit beruht und bis ins kleinste auf die Target APIs vorgeplannt wird.

Rampage 2
2015-11-20, 19:13:35
Testberichte (deutsch):
ComputerBase (http://www.computerbase.de/2015-11/radeon-r9-380x-asus-sapphire-test/)
Hardwareluxx (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/37233-amd-radeon-r9-380x-von-asus-und-sapphire-im-test.html)
PC Games Hardware (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/R9-380X-Test-Review-1178241/)
Tom's Hardware (http://www.tomshardware.de/amd-radeon-r9-380x-sapphire-nitro,testberichte-241978.html)

Testberichte (englisch):
eTeknix (http://www.eteknix.com/xfx-dd-r9-380x-4gb-graphics-card-review/)
Guru3D (http://www.guru3d.com/articles-pages/amd-radeon-r9-380x-4gb-review,1.html)
Hardware Heaven (http://www.hardwareheaven.com/2015/11/xfx-amd-radeon-r9-380x-review/)
Hexus (http://hexus.net/tech/reviews/graphics/88139-sapphire-radeon-r9-380x-nitro/)
Hot Hardware (http://hothardware.com/reviews/amd-radeon-r9-380x-review)
KitGuru (http://www.kitguru.net/components/graphic-cards/zardon/asus-strix-r9-380x-directcu-ii-oc-review/)
Maximum PC (http://www.maximumpc.com/amd-r9-380x-review-featuring-sapphire/)
Neoseeker (http://www.neoseeker.com/Articles/Hardware/Reviews/xfx-r9-380x-dd/)
Overclock3D (http://www.overclock3d.net/reviews/gpu_displays/asus_strix_r9_380x_review/1)
TechPowerUp (http://www.techpowerup.com/reviews/ASUS/R9_380X_Strix/)
TechSpot (http://www.techspot.com/review/1093-amd-radeon-380x/)
The Tech Report (http://techreport.com/review/29316/amd-radeon-r9-380x-graphics-card-reviewed)

Testberichte (rumänisch):
Lab501 (http://lab501.ro/placi-video/review-sapphire-nitro-radeon-r9-380x)

Testberichte (niederländisch):
Hardware.info (http://nl.hardware.info/reviews/6391/amd-radeon-r9-380x-review-volwaardige-tonga)

WTF, nicht mal 3GHz Speichertakt!? Was denkt sich AMD dabei, den Speichertakt der 380X genau so hoch anzusetzen wie bei der 380!? 182GB/sek. sind heutzutage doch Nichts...

R2

(del)
2015-11-20, 19:36:39
Ich finde die R9 380X noch nicht mal schlecht. Es ist am Ende mit etwas Modifikation die R9 Nano des kleinen Mannes, wenn sich Sapphire doch auftrafft, auch die 380X als kurze Compact zu bringen. Bei NV gibts da auch nichts Gescheites außer den kurzen Low-Cost 960ern und 970ern für die SI (z.B. von Gigabyte oder Galaxy/KFA²).

Ich habe diese ganzen kurzen Karten übrigens mal im ITX-Special gegeneinander getestet, der Artikel kommt auch bald:
http://media.bestofmicro.com/2/J/535339/gallery/Intro_w_755.jpg

Arcanoxer
2015-11-20, 20:23:24
Aber Nvidia ist eine alternative, die aktiv Zeit und Geld investieren um den open source Entwicklern Steine in den Weg zu legen und wo Linus torvald selbst sagte the worst Company ever we worked with? Sehr konsequent :-). Vielleicht bekommst du ja auch bald den geforce experience zwang unter Linux, dann ist Windows 10 auch kein Problem mehr :-)Deiner aussage zufolge ist der Catalyst unter Windows Schrott, weil er nicht Open Source ist?
Oder wird unter Windows mit ein anderen Mass gemessen?

Ich bin ein einfacher Mann, für mich muss ein Produkt in erster Linie funktionieren.
Solche lächerlichen Basics sind leider nicht normal, ob ich nun den offenen oder geschlossenen Treiber von AMD benutze.
Beides funktioniert für mich nicht auf den Qualitätslevel von nVidia.
Schau dir den 380x release an, wer hat mal wieder kein Treiber zum launch am Start?

Da hilft auch kein neuer Name oder GUI. :rolleyes:
Da bewegt sich AMD bei mir auf den selben Level wie Microsoft, keine alternative.

von Richthofen
2015-11-20, 21:34:41
Mal sehen wie die Verfügbarkeit aussehen wird.
Das ist ja alles im Vergleich zu nV längst nicht mehr alles selbstverständlich. Dabei denke ich noch nicht mal an die in homöopathischen Dosen auftretenden HBM Designs. Dabei hat das fast schon Tradition:

Die Hawaiis waren anfangs kaum zu bekommen später gab es dann zu viele.
Auch die ganzen Kuriositäten um Tonga bis zuletzt.
Oder solche (zumindest aus Verbrauchersicht) abenteulichen Stunts wie ein seit Jahren existierendes Design nach mehreren Rebrandings in seiner erneuten Inkarnation nur in China unterbringen zu wollen (370X)?
So richtig einleuchten will mir diese Produktpolitik nicht.

Im Moment bekommt man gerade mal das Sapphire Design.
Ordentliche Verfügbarkeit und Designs vorausgesetzt (letzteres ist scheinbar gegeben) in Verbindung mit der derzeitig gegebenen preislichen und leistungstechnischen Nische sollte vllt. den ein oder anderen Kunden mehr zum Kauf bewegen können.
Falls daraufhin die Preise allmählich absinken und keine direkte Konkurrenz aus dem anderen Lager zu befürchten ist, könnte das die 380X womöglich noch zu einem P/L-Tipp machen und sie als eine runde Sache bis weit in 2016 ausschauen lassen.

dildo4u
2015-11-20, 21:39:26
WTF, nicht mal 3GHz Speichertakt!? Was denkt sich AMD dabei, den Speichertakt der 380X genau so hoch anzusetzen wie bei der 380!? 182GB/sek. sind heutzutage doch Nichts...

R2
Die 960 hat nur 112GB/sec und hält mit der 380 mit,du kannst das nich einfach von den alten Karten umrechnen,da Tonga wie Maxwell ne bessere Kompression Technik nutzt als der alte AMD Ramsch.

von Richthofen
2015-11-20, 22:32:55
Aber vllt. hätte das Tonga genau dort geholfen, wo sich der Chip vom alterwührdigen Tahiti abzocken lassen muss.

dildo4u
2015-11-20, 22:35:47
Nope Tahiti hat die höhere Rechenleistung da kannste HBM verbauen es würde nix ändern.

-/\-CruNcher-/\-
2015-11-21, 03:06:27
Aber vllt. hätte das Tonga genau dort geholfen, wo sich der Chip vom alterwührdigen Tahiti abzocken lassen muss.

Gerade ist AMD dabei ihre gesammt Effizienz zu verbessern und dann sollen sie sich alles wieder wegen ein paar Gamern zerschiesen das ist hoffentlich nicht dein ernst, jetzt heist es konsequent bleiben und vieleicht auch nochmal True Audio überdenken, was über kurz oder lang eh wieder aus den High Price Desktop Discrete als erstes verschwinden wird für mich sind eindeutig die DSPs für Otto normal machen 2x2 keinen Sinn das ist einfach nur Verlust von transistoren space der effizienter genutzt werden könnte ohne einen wirklichen Verlust bei heutigen Systemen wenn man dazu die CPU IGPs exclusiv nutzt ;)

Oder wenn man es genau wissen will ein ineffzientes PC Design, auf der anderen seite natürlich problematisch im upgrading GPUs stellen dort natürlich die erste alternative für einen gesammt upgrade boost da, wenn die DSPs dort weg sind währe das allerdings nur noch über die CPU möglich so gesehen auch nicht wirklich ein Optimales Design und kosten intensiv für den Endkonsumenten, je nach Entwicklungsgeschwindigkeit gehen wir aber mal davon aus so wie es aussieht das die doch schon etwas zurückfahren wird und teils durch ein Optimales HSA ersetzbar wäre.

Es wäre die erste direkte Angrifsmöglichkeit von AMD in einem Gesammt Ökosystem das vor allem Nvidia so auf dem PC nicht bieten kann ohne Intels Hilfe, Projekt Quantum und dessen Weiterentwicklung ist verdammt interessant und was AMD letztendlich daraus macht, dafür muss man aber erstmal schauen das man im Mobile und wenns erstmal nur der Laptop/Notebook space ist effizienter wird das sieht momentan noch nicht danach aus man hinkt immernoch sehr weit hinterher und das trotz HSA was teils wirklich unbegreiflich ist irgendwann wird dieser Vorteil verblassen AMD muss anfangen zu liefern.

AMD hat ein verdammt großes Potential mehr user an komplett AMD systeme zu binden die so in einer Art Konsoleneffizienten Ökosystem gebunden wären dank HSA.

Nvidia ist sich dem durchaus bewusst nicht umsonst bauen sie ihr eigenes Konsolen Ökosystem zusammen ohne von Intel abhängig zu sein, wenn es drauf ankommt ;)

Nur mit dem Unterschied das es seit Maxwell Nvidia vollkommen gelungen ist Discrete und Mobile zu Synchronisieren, das hat AMD noch nicht geschaft.

Tonga war und ist ein wichtiger Schritt gewesen ohne jeden Zweifel.

Nope Tahiti hat die höhere Rechenleistung da kannste HBM verbauen es würde nix ändern.

Stimmt nicht ganz es würde das ganze noch effizienter machen :)

Aber wenn man sieht was sich AMD diese Effizienz bei der Nano kosten lässt ;)

cat
2015-11-21, 10:50:17
Gruß in die heitere Runde,

ich finde es immerwieder sehr schade das gerade bei den niedrigen Materialkosten beim VRam AMD mich immerwieder entäuscht.

Warum zu Henker sind die nicht in der Lage 1750MHz (7000MHz) Speicher zu verbauen ?
bei nVidia ist das oft der Mindeststandard.
Manche Karken werde sogar mit 1800MHz oder höher released.

Die Elpida Billigspeicher machen meistens schon bei 1625MHz dicht, und das ist bei den Speichern nicht als Standard-Stock-Takt geeignet, denke ich.

Desweiteren hätte, wo es doch der Vollausbau ist ein GPU-Referenztakt von 1050MHz gut getan.

Und ob die 380X jemals einen Unterbau bekommt der das OC-Nivau einer 7970 (GHz) oder 280X Sapphire-Toxic packt ?
Ich denke NEIN, weil es nichtmehr das Prestige-Top-Model ist.

Schade

AnarchX
2015-11-21, 11:05:02
Der Speicherkontroller von Tonga wurde wohl einfach nicht für 7Gpbs+ designt.

iuno
2015-11-21, 11:14:36
Weil der bus zwei Enden hat...
Der Speichercontroller wird einfach nicht so hohe Taktraten mitmachen oder dabei auch übertrieben durstig werden. Warum auch er wurde ja recht breit gebaut mit 386 bit.
Ständig beschweren sich die user über ihren elpida RAM, auf die Idee, dass aber möglicherweise der MC limitiert, kommt dabei aber keiner

Mr. Lolman
2015-11-21, 11:17:52
Deiner aussage zufolge ist der Catalyst unter Windows Schrott, weil er nicht Open Source ist?
Oder wird unter Windows mit ein anderen Mass gemessen?


Ja natürlich nicht. Das ist doch der große Vorteil für die Linuxbobos, dass 'alles' open source und gratis ist. Dass man unter Windows mit closed source Bloat/Spy-ware zugemüllt wird, ist doch das Killerargument für Linux. Ein echter Linuxgeek, weiß das auch. ;)

iuno
2015-11-21, 11:22:23
Geh woanders trollen. OSS hat mit gratis so viel zu tun wie dein Beitrag mit dem Thema

Raff
2015-11-21, 11:37:35
Assassin's Creed Syndicate im Technik-Test: Benchmarks von 16 Grafikkarten plus CPU-Kern-Skalierung (http://www.pcgameshardware.de/Assassins-Creed-Syndicate-Spiel-55569/Specials/Technik-Test-Benchmarks-1178500/)

Hier macht die übertaktete R9 380X eine sehr gute Figur und kommt an der GTX 780 OC vorbei. Das entspricht fast dem Niveau einer nicht übertakteten R9 290, was klar über dem üblichen Leistungsbild der R9 380X liegt Sehr spannend ist übrigens auch der Benchmarkvergleich von Radeon R9 390 und Geforce GTX 970 mit steigender Schatten-/AO-Stufe.

MfG,
Raff

Mr. Lolman
2015-11-21, 11:51:46
Geh woanders trollen. OSS hat mit gratis so viel zu tun wie dein Beitrag mit dem Thema

Deswegen hab ichs auch getrennt von einander erwähnt. Egal jetzt, Schluss mit OT!

cat
2015-11-21, 12:42:54
Sapphire HD 7970 Toxic 6 GB
Aug 23rd, 2012
out of the box to frequencies of 1100 MHz GPU and 1500 MHz memory

The maximum stable clocks of our card are 1275 MHz core (6% overclock) and 1885 MHz memory (18% overclock).

https://www.techpowerup.com/reviews/Sapphire/HD_7970_Toxic_6_GB/31.html

Thunder99
2015-11-21, 13:41:34
Assassin's Creed Syndicate im Technik-Test: Benchmarks von 16 Grafikkarten plus CPU-Kern-Skalierung (http://www.pcgameshardware.de/Assassins-Creed-Syndicate-Spiel-55569/Specials/Technik-Test-Benchmarks-1178500/)

Hier macht die übertaktete R9 380X eine sehr gute Figur und kommt an der GTX 780 OC vorbei. Das entspricht fast dem Niveau einer nicht übertakteten R9 290, was klar über dem üblichen Leistungsbild der R9 380X liegt Sehr spannend ist übrigens auch der Benchmarkvergleich von Radeon R9 390 und Geforce GTX 970 mit steigender Schatten-/AO-Stufe.

MfG,
Raff
beachtlich das Tonga sich doch absetzten kann gegenüber Tahiti :cool:. Es geht also doch :D

von Richthofen
2015-11-21, 13:47:50
Hier macht die übertaktete R9 380X eine sehr gute Figur und kommt an der GTX 780 OC vorbei.

Ihr habt wirklich noch einen vollwertigen Benchartikel zum WE rausgehauen? Hut ab.

Die 380X positioniert sich hier so schön vor der 280X wie man es sich über einen ganzen Benchparcours hinweg wünschen würde. Letzteres würde Tonga zum Knüller machen.
Das ist das erste AC seit langem mit keinem nV bias. Was ist los Ubi?
Mir scheint das Spiel läuft auch viel besser als der Vorgänger.?

AnarchX
2015-11-21, 13:47:58
Sapphire HD 7970 Toxic 6 GB
Aug 23rd, 2012
out of the box to frequencies of 1100 MHz GPU and 1500 MHz memory

The maximum stable clocks of our card are 1275 MHz core (6% overclock) and 1885 MHz memory (18% overclock).

https://www.techpowerup.com/reviews/Sapphire/HD_7970_Toxic_6_GB/31.html
Tahiti hatte noch einen deutlich leistungsfähigeren IMC, der aber dadurch auch größer war als der 512-Bit IMC bei Hawaii. Trotz allem waren wohl 7Gbps nie für die Massenfertigung validierbar, weswegen es nie eine Partner-OC-Version trotz vorhandenem Speicher gab.

Schnoesel
2015-11-21, 13:50:20
as ist das erste AC seit langem mit keinem nV bias. Was ist los Ubi?

GW war auch off: "Um eine Beeinflussung des Gameworks-Effekts HBAO+ (Ultra) zu verhindern, testen wir Syndicate mit SSAO. Gleiches gilt für die hübschen, aber sehr ressourcenhungrigen Percentage-Closer Soft Shadows (PCSS)."

von Richthofen
2015-11-21, 14:03:05
Klar. Aber auch ohne sah es in den Vorgängern düster aus. Hätte den Artikel erst lesen sollen.
54fps für Tonga sind weit im grünen Bereich(y).

Schnoesel
2015-11-21, 14:06:51
Hmm beim Vergleich R9 390 und GTX 970 zieht GW im gleichen Maß. Also alles gut an dieser Stelle.

-/\-CruNcher-/\-
2015-11-21, 14:20:24
Assassin's Creed Syndicate im Technik-Test: Benchmarks von 16 Grafikkarten plus CPU-Kern-Skalierung (http://www.pcgameshardware.de/Assassins-Creed-Syndicate-Spiel-55569/Specials/Technik-Test-Benchmarks-1178500/)

Hier macht die übertaktete R9 380X eine sehr gute Figur und kommt an der GTX 780 OC vorbei. Das entspricht fast dem Niveau einer nicht übertakteten R9 290, was klar über dem üblichen Leistungsbild der R9 380X liegt Sehr spannend ist übrigens auch der Benchmarkvergleich von Radeon R9 390 und Geforce GTX 970 mit steigender Schatten-/AO-Stufe.

MfG,
Raff

Das verhalten solltet ihr euch bei The Witcher 3 SSAO/HBAO+ Schatten und LOD auch nochmal genauer in Zahlen anschauen mit dem neusten Patch und mit GM204 vergleichen ;)

Allerdings ignoriert ihr mal wieder volkommen den Power Output, bei wieviel mehr Power Output enstehen 4% effizientere load Verteillung im Gesammtkartendesign ?

Ihr habt wirklich noch einen vollwertigen Benchartikel zum WE rausgehauen? Hut ab.

Die 380X positioniert sich hier so schön vor der 280X wie man es sich über einen ganzen Benchparcours hinweg wünschen würde. Letzteres würde Tonga zum Knüller machen.
Das ist das erste AC seit langem mit keinem nV bias. Was ist los Ubi?
Mir scheint das Spiel läuft auch viel besser als der Vorgänger.?

Die Treiber werden besser und man wird besser in der Auslastung von GCN ziemlich normal, da kämpft AMD ja momentan an der Front mit den Konsolen.

Interessanter wird es wenn Tomb Raider für den PC released werden sollte das BTAO ist vollständig auf die ACEs optimiert :)

Ein neuer Ansatz als wie noch bei Bioshock Infinites implementation, allerdings sieht man das Tomb Raiders latenz ganz schön gelitten hat.

von Richthofen
2015-11-21, 14:49:15
Die Treiber werden besser und man wird besser in der Auslastung von GCN ziemlich normal, da kämpft AMD ja momentan an der Front mit den Konsolen.

Das mag sein, vieles davon ist aber wohl einfach nur gut spekuliert. Die allgemein gute Grundperformance und das weithin ausgeglichene Peformanceergebnis muss man wohl aber verstärkt den Entwicklern anrechnen.


Interessanter wird es wenn Tomb Raider für den PC released werden sollte das BTAO ist vollständig auf die ACEs optimiert :)

Das hätte sich zusammen mit Battlefront wohl noch besser für ein rundum positives Echo für die Einführung des "Crimson" Softwarepaketes gemacht.

-/\-CruNcher-/\-
2015-11-21, 15:02:19
Ja schon damals mit der Einführung von TressFX war Tomb Raider das Vorzeigeprojekt für den PC von AMD in der Kolaboration von Square Enix nun geht es verloren an die Konsolen dafür haben wir ja noch Deus Ex ;)

dargo
2015-11-21, 15:05:19
Assassin's Creed Syndicate im Technik-Test: Benchmarks von 16 Grafikkarten plus CPU-Kern-Skalierung (http://www.pcgameshardware.de/Assassins-Creed-Syndicate-Spiel-55569/Specials/Technik-Test-Benchmarks-1178500/)

Endlich mal wieder eine ordentliche SMT-Skalierung bei 4 Cores. (y)

-/\-CruNcher-/\-
2015-11-21, 15:08:05
4K Performance auf der GTX 970/960 gefällt mir nicht im Vergleich mit Witcher 3 +Hairworks aber gut load ist etwas höher bei Syndicate an anderer stelle, und mit AO sind sie ja ziemlich gleich auf unter DX 11 und das ohne Einsatz von Umbra bei Anvi Next so gesehen beide ziemlich ausgeglichen am DX 11 Performance Peak ;)
Cutscenes scheinen auch etwas Performanter als wie bei Witcher 3 wobei bei Syndicate ja auch mal wieder Videos zum Einsatz kommen weil die Performance aber scheinbar auf den Konsolen mal wieder in manchen Szenen zu sehr weggebrochen ist, passiert aber locker bei The Witcher 3 auch mit Hairworks auf dem PC schnell mal schwups auf 20 fps, da fühlt man sich dann wie bei Until Dawn nur bei 4K kann man das natürlich absolut verzeihen im Vergleich zu 1080p ;)
Trotzdem das Overall Lighting passt besser zu Unity als der neue Mixed Ansatz bei Syndicate im Vergleich mit Witcher 3

dargo
2015-11-21, 15:10:51
beachtlich das Tonga sich doch absetzten kann gegenüber Tahiti :cool:. Es geht also doch :D
Das Problem von Tonga ist mal wieder die veraltete API am PC. Die Architektur ist wieder Jahre der Software voraus. Steigt die Shaderlast wirds immer besser für Tonga aussehen, besonders später mit Async Compute.

von Richthofen
2015-11-21, 15:37:33
Irgendwie schafft es AMD sich mit ihren GCN 1.2 Chips und derer zu vielen Kompromisse ein ums andere mal zwischen die Stühle zu platzieren.
Nichts will richtig zünden.

-/\-CruNcher-/\-
2015-11-21, 16:20:25
Den Anschluss den sie bei der DX 11 Treiber Entwicklung teils verloren haben das dauert den wieder aufzuholen da hoft man lieber auf nächstes Jahr und 2016 wird eben auch das Interessanteste Jahr mit den Low Level APIs AMD vs Nvidia :)
Eben auch das Jahr wo AMD ganz nah an Nvidias Performance herankommen wird bis Pascal und wenn sie dann mit dem darauf folgenden Chip sich halten können haben sie es erstmals geschaft sich zu stabiliesieren nach dem VLIW umstieg und dem Konsolen Win das wird ein Absolut spannenedes 2016 :)
Nvidia wird aber auch nich untätig rumsitzen die Arbeiten schon die ganze Zeit an der Apassung von GameWorks an DX 12 und Vulkan und haben dort enorm Resourcen "Manpower" Aufgestockt ;)
AMD arbeitet da gegen Goliat was Resourcen angeht bis jetzt ziemlich ordentlich Goliat schaft es auch noch nicht Liliput zu zerquetschen was sehr positiv ist auch dank der Kreativiität vieler Konsolen Entwickler, hätte AMD damals die Konsolen nicht gewonnen wären sie schon garnicht mehr hier ;)

Nvidias taktik geht momentan (seit Maxwell) eher Richtung Preis/Leistung sie wollen den Mainstream überrennen um ihr Gesamt Ökosystem weiter voranzutreiben und nicht noch mehr Anteile zu verlieren hier ist AMDs momentan größte Schwachstelle sie sind nicht in der Lage diesen Preiskampf effizient wie noch vor einigen Jahren zu führen, schon garnicht mehr nach den HBM investitionen und zusätzlich mit Intel als Competitor.

Wie lange die Konsolen AMDs arsch retten können bis dort alle Vorteile verpuffen steht auch noch in den Sternen jetzt muss gehandelt werden aber da sind eben die Resourcen knapp.

Und dann ist da noch jemand namens Intel der sich das ganze Spektakel sehr entspannt aus der Ferne anschaut und seine Resourcen ordentlich einsetzt ohne sich von dem ganzen irgendwie beindruckt zu sehen ;)

RIPchen
2015-11-22, 00:03:51
Bei dem großen Leistungsabstand zur 390(X) hätten es 130 Megahertz mehr für die GPU schon getan. Ich verstehe AMD nicht, so etwas rauszubringen. Dass davon alle enttäuscht sind war vorherzusehen.

Schrotti
2015-11-22, 00:11:04
130MHz hätten die Stromaufnahme weiter in die Höhe getrieben.

fondness
2015-11-22, 05:33:18
Assassin's Creed Syndicate im Technik-Test: Benchmarks von 16 Grafikkarten plus CPU-Kern-Skalierung (http://www.pcgameshardware.de/Assassins-Creed-Syndicate-Spiel-55569/Specials/Technik-Test-Benchmarks-1178500/)

Hier macht die übertaktete R9 380X eine sehr gute Figur und kommt an der GTX 780 OC vorbei. Das entspricht fast dem Niveau einer nicht übertakteten R9 290, was klar über dem üblichen Leistungsbild der R9 380X liegt Sehr spannend ist übrigens auch der Benchmarkvergleich von Radeon R9 390 und Geforce GTX 970 mit steigender Schatten-/AO-Stufe.

MfG,
Raff

Ich sehe absolut nichts überraschendes. Die Sapphire 380X Nitro taktet eben mit 1040/1500 und damit deutlich höher als das Ref-Design. Hätte AMD die 380X wie von vielen erwartet im dem Taktbereich vorgesehen, wäre auch die Leistung entsprechend. Ist zwar im Grunde egal, da die Hersteller eh das Potential ausnutzen, aber die Reviews blieben dadurch eben unter der Erwartungen.

130MHz hätten die Stromaufnahme weiter in die Höhe getrieben.

Es gab keine Referenzkarten, die Reviewer haben die übertakteten Hersteller-Karten einfach herunter getaktet ohne die Spannung zu senken.

(del)
2015-11-22, 07:28:19
Es gab keine Referenzkarten, die Reviewer haben die übertakteten Hersteller-Karten einfach herunter getaktet ohne die Spannung zu senken.

Aus genau diesem Grund ist das genaue Nachbilden einer Referenzkarte sehr schwierig, wenn man sich nicht hintenrum ein Referenz-BIOS besorgen kann.
DEN Fehler begehe ich bestimmt kein zweites Mal, denn da habe ich vor einiger Zeit selbst schon mal arg daneben gelegen. :D

tm0975
2015-11-22, 09:17:49
Obwohl ich AMD echt gern mag, frag ich mich, weshalb ich eine 380X statt einer 960 4GB kaufen sollte. Letztere ist zwar ein wenig langsamer, dafür braucht sie aber bedeutend weniger Strom (und ist daher leichter zu kühlen)
Weil sie freesync hat und du den Mehrpreis für gsync, der teilweise satte Aufschläge von mehreren hundert Euro bedeutet, auf den Kartenpreis mit anrechnen mußt.

dargo
2015-11-22, 09:45:49
Weil sie freesync hat und du den Mehrpreis für gsync, der teilweise satte Aufschläge von mehreren hundert Euro bedeutet, auf den Kartenpreis mit anrechnen mußt.
Genau so ist es. Mittlerweile zählt nicht nur der Preis der Graka sondern der Paketpreis von Graka und Monitor. Und so lange Nvidia kein Freesync supportet, solange wird es so bleiben.

Ich sehe absolut nichts überraschendes. Die Sapphire 380X Nitro taktet eben mit 1040/1500 und damit deutlich höher als das Ref-Design.
Naja... man sollte die Kirche schon im Dorf lassen. An 1040Mhz vs. 970Mhz sehe ich nichts Deutliches. Es sind bloß 7% wovon ca. 5% auf die Straße gebracht werden.

Gorkon
2015-11-23, 09:37:55
Macht die Umfrage auf der 3DC-Hauptseite überhaupt in der aktuellen Lage Sinn :confused:

Es gibt gerade mal eine handvoll gute Reviews, die jedoch trotzdem alle irgendwie einen wichtigen Teil links liegen lassen: Einen richtigen 1:1 Vergleich zwischen Tahiti und Tonga und auch deren Zusatzfeatures (UVD, VCE, etc.) Afaik ist dies das erste mal, dass AMD oder nV eine GPU als "2.0 Version" modernisieren, die eigentlichen Specs aber quasi gleich lassen...

Gibt ja noch viele die vor dem 380x Release immer noch zu Tahiti geraten haben, trotz der veralteten IP-Version. Wär halt spannend zu wissen, wie es nach so nem Vergleich aussehen würde...

mfg

Hübie
2015-11-23, 15:15:05
Genau so ist es. Mittlerweile zählt nicht nur der Preis der Graka sondern der Paketpreis von Graka und Monitor. Und so lange Nvidia kein Freesync supportet, solange wird es so bleiben.

Das könnte man ja nun auch so auslegen, dass AMD sein Freesync und nVidia sein G-Sync hat. Wäre AMD clever gewesen und hätte dies als erster gebracht, dann hätte nVidia bestimmt keine Millionen augegeben um G-Sync zu entwickeln. So wird ein Schuh draus. nVidia wird weiter drauf bestehen, dass du doch bitte deren überlegene G-Sync-Technik nutzt (die ja eigentlich nur eine flexiblere Spannweite hat). :freak:

Zur Karte: Welchen Sinn bitte soll es machen, wenn man ein Produkt misst, welches nicht existiert? Wenn man keine Referenzkarten kaufen kann muss man diese doch blödsinnigerweise auch nicht künstlich herbeichauffieren. :confused::rolleyes: So ein Quatsch.

Ich will doch wissen, und das sollte ja stets der Sinn eines Reviews sein, ob sich meine konkrete Kaufentscheidung Richtung X oder Y bewegt. Also wenn Tonga XT testen, dann die paar Modelle untereinander vergleichen. Wobei sich daraus keine Überraschungen ergeben. Also kann man auch stumpf die olle Strix nehmen und zusätzlich übertakten.

Scheiß Theoretiker.

dargo
2015-11-23, 18:41:03
Das könnte man ja nun auch so auslegen, dass AMD sein Freesync und nVidia sein G-Sync hat.
Nein, kann man nicht. Adaptiv Sync ist ein offener Standard! Freesync ist nur ein anderer Name von AMD dafür. Beide Firmen verfolgen unterschiedliche Ziele. So langsam müsste es jeder begreifen. Egal ob man es gut oder schlecht findet. Für den Kunden ist das was Nvidia macht sicherlich langfristig nicht gut.

Hübie
2015-11-23, 19:33:59
Doch kann man, denn G-Sync war zuerst da :P Konjunktiv und so...

dildo4u
2015-11-24, 00:29:40
anandtech hat die 380X Strix getestet.

http://www.anandtech.com/show/9784/the-amd-radeon-r9-380x-review

Tesselation Performance.

http://www.anandtech.com/show/9784/the-amd-radeon-r9-380x-review/12

Hatte gar nich auf dem Schirm wie schlecht dort die 7970 war wirkt sich scheinbar bei Star Wars aus 380 X schneller als 280X.


http://www.tomshardware.de/star-wars-battlefront-grafikkarten-benchmark-hardware-anforderungen,testberichte-241982-2.html

dargo
2015-11-25, 10:29:52
Gibts einen besonderen Grund warum es noch keine 380X von MSI gibt?

fondness
2015-11-25, 17:36:30
Doch kann man, denn G-Sync war zuerst da :P Konjunktiv und so...

Auch nur deshalb, weil nv auf Standards gepfiffen hat und ihren eigenen Mist schnell auf einen fpga zusammen gecoded hat. Dafür war der Vorsprung geradezu lächerlich gering. AMD müsste immerhin einen neuen dp Standard spezifiziert bekommen und entsprechende Hardware in ihren gpus vorsehen.

Raff
2015-11-27, 14:53:59
anandtech hat die 380X Strix getestet.

http://www.anandtech.com/show/9784/the-amd-radeon-r9-380x-review

Tesselation Performance.

http://www.anandtech.com/show/9784/the-amd-radeon-r9-380x-review/12

Hatte gar nich auf dem Schirm wie schlecht dort die 7970 war wirkt sich scheinbar bei Star Wars aus 380 X schneller als 280X.

http://www.tomshardware.de/star-wars-battlefront-grafikkarten-benchmark-hardware-anforderungen,testberichte-241982-2.html

Battlefront nutzt keine "perversen" Faktoren, es ist schließlich ein AMD-Spiel. ;) Das führt zwar wie bei AC Syndicate in 1080p (http://www.pcgameshardware.de/Assassins-Creed-Syndicate-Spiel-55569/Specials/Technik-Test-Benchmarks-1178500/) zum noch recht seltenen Ergebnis, dass eine 380X OC vor einer 280X OC landet, am Ende kostet Tessellation aber auf keiner Karte wirklich viel.

MfG,
Raff

dildo4u
2015-11-27, 14:59:20
Scheint massiv zu limitieren die 7950=270X bei Tomshardware.War das nich so das ne 7870 vergleichbare Tessleistung mit einer 7970 hatte?

Das würde auch den Sprung mit dem Cimson Treiber erklären vielleicht hat AMD wieder Tess per Treiber gesenkt.

Hier ist die 380X auch stark dicht an der 390 schätze mal das ist mit Hairworks.Wirkt so als ob Tonga die einzige AMD ist wo die Tessleistung zur Power derr Karte passt.

http://abload.de/img/tessdx5jwa.png

http://www.tomshardware.de/catalyst-crimson-performance-features-benchmarks,testberichte-241984-2.html

Schnoesel
2015-11-27, 19:37:06
7950 = R9 280 nix 270X

von Richthofen
2015-11-27, 22:06:38
Das würde auch den Sprung mit dem Cimson Treiber erklären vielleicht hat AMD wieder Tess per Treiber gesenkt.


Das müsste dann erst einmal bewiesen werden. So klingt das beinahe verleumderisch.
Der Treiberstandard 'AMD optimiert' sollte vom Tester vorher von Hand auf 'Anwendungsgesteuert' gesetzt werden um einer etwaigen Mauchelei aus dem Weg zu gehen.

NV wählen (wie wir wissen) in "ihren" Titeln nicht zufällig immens hohe Tessstufen.
Aktuelles Beispiel ist Fallout 4: Da wird natürlich 64x Tess. angefordert, was dann die Bildrate in einer ausgewählten Szene hier auf 30 sinken lässt. Schaltet man auf 8x runter, werden daraus plötzlich flotte 49.
Ohne die teilweise angeflanschte Beleuchterei, könnte ein Titel mit derart veralteter Optik auch auf einer 560 Ti ordentlich laufen.

Übrigens würde ein Tess.-levelwahlschalter auch dem nV-Treiber sehr gut zu Gesicht stehen - nur widerspräche das eindeutig dem Gameworks-Ansatz: Fett propagierter Mehrwert, durch teils exklusive Techniken, die jedoch in der Folge den Optikzugewinn in keinem Verhältnis zur erzielten Performance stehen lassen (und somit dem Kunde den Hinweis geben entsprechend hochwertige Grafikkarten zu verwenden).

vinacis_vivids
2015-11-30, 20:47:51
Cheaten für höhere Frames tun die Hersteller doch alle. Darf bloß nicht klar sichtbar sein für den blinden User. Über die Jahre hinweg hat sich da nichts geändert. Nennt sich dann bloß Optimierung und Update.
Die neuen und exclusiven Techniken brauchen bei der Cheatentwicklung auch einige Zeit. Dann läuft es auch schneller.

kdvd
2015-12-04, 11:20:48
AMD bestätigt: Tonga hat ein 384-Bit-Speicherinterface - theoretisch
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Tonga-384-Bit-Speicherinterface-1179945/

Frosty
2015-12-04, 11:23:42
bald wirds vermutlich eine asus r9 380x strix, die ist schön leise.:)
leider noch nicht lieferbar....:ucoffee:

Hübie
2015-12-04, 12:08:05
AMD bestätigt: Tonga hat ein 384-Bit-Speicherinterface - theoretisch
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Tonga-384-Bit-Speicherinterface-1179945/

Dann kommen bald die ersten Tr0lle und sagen: "Bäh so ein Krüppel. 6 - 2 = 4 GB cutdown um das 970-Debakel nicht ganz so bescheuert aussehen zu lassen :D
Ich konnte es mir absolut nicht vorstellen dass ein Unternehmen so daneben plant, aber AMD schaffte es offenbar :facepalm: Aber nun ist das wenigstens vom Tisch.

Frosty
2015-12-04, 13:04:57
die asus 380x strix hat leider keine kühlung für den vram, und da ich den auch übertakten will ist das wohl nicht so praktisch:(
oder ist das egal wenn ich die spannung für den vram nicht anhebe?

ansonsten bliebe nur noch die 380x von sapphire, die ist mir leider etwas zu laut ohne eigene lüfterkurve geht da nicht viel....
oder halt die sapphire 380 non-x nitro mit backplate, die ist leise genug.
jemand vorschläge?:)

Kriton
2015-12-04, 17:37:40
Ich habe gerade frisch die non-X nitro mit backplate (ohne ist auch abgekündigt). Bisher bin ich nicht unzufrieden, und die max. 10% unter der X machen den Kohl auch nicht fett.

Botcruscher
2015-12-04, 18:32:07
Ich konnte es mir absolut nicht vorstellen dass ein Unternehmen so daneben plant, aber AMD schaffte es offenbar :facepalm: Aber nun ist das wenigstens vom Tisch.
Womöglich sehen wir Tonga ja mit 6GB in der 400er Reihe.

Frosty
2015-12-04, 19:32:19
schwanke zwischen der sapphire nitro non-x mit backplate und der asus 380x strix oc.
wird der vram bei der asus (da nicht gekühlt) zu heiss wenn ich noch vram-oc mache?:uconf2:

von Richthofen
2015-12-04, 21:20:34
Die Asus OC ist doch noch viel zu teuer. Für 15 Mark mehr gibt es schon die mächtigere 290.

fondness
2015-12-04, 23:55:47
Dann kommen bald die ersten Tr0lle und sagen: "Bäh so ein Krüppel. 6 - 2 = 4 GB cutdown um das 970-Debakel nicht ganz so bescheuert aussehen zu lassen :D
Ich konnte es mir absolut nicht vorstellen dass ein Unternehmen so daneben plant, aber AMD schaffte es offenbar :facepalm: Aber nun ist das wenigstens vom Tisch.

Eigentlich bist du der einzige der ständig deswegen facepalmt. Mit dem 384-bit SI, den 2048 SPs, und der Hardware Virtualisation ist jedenfalls auch die Die-Size erklärt.

Tonga ist damit ein voller Tahiti mit doppelt so breiten Frontend, zusätzlichen True-Audio Prozessor, FreeSync-Support, etc. dafür geringer DP-Rate bei leicht kleinerer Die-Size.

Hübie
2015-12-05, 00:37:40
*schnarch* Weck mich wenns spannend wird :rolleyes: True Audio... Wenn ich das schon wieder lese.

fondness
2015-12-05, 00:41:22
*schnarch* Weck mich wenns spannend wird :rolleyes: True Audio... Wenn ich das schon wieder lese.

Willst du trollen oder wie? Es ging rein um die technische Erklärung für die Die-Size, zu Beginn war der Chips schließlich deutlich zu groß für das was bekannt war.

Kriton
2015-12-05, 12:07:25
*schnarch* Weck mich wenns spannend wird :rolleyes: True Audio... Wenn ich das schon wieder lese.

Ich finde das auch nicht schlecht. Ja, das wird derzeit faktisch nicht genutzt. Geschenkt. Henne und Ei. Wenn wir so argumentieren würden, hätte es auch nie Tessalation gegeben. Wer hat das doch gleich eingeführt (wenn auch nicht in der sich dann faktisch durchsetzenden Form): Ach ja, ATI...

Troyan
2015-12-05, 12:11:05
Tessellation? Das kam als erstes von nVidia. :lol:

Kartenlehrling
2015-12-05, 12:13:38
...,
und da ist wieder der Knackpunkt mit dem sich der AMD Käufer seit jahren rumschlägt,
AMD schubst Entwicklunge an, aber wenn es um Support oder Weiterentwicklung geht.... nadaa.

Kartenlehrling
2015-12-10, 17:29:33
http://www.guru3d.com/articles-pages/powercolor-pcs-radeon-r9-380x-myst-review.html
PowerColor PCS Radeon R9 380X MYST

Eigentlich eine schöne Grafikkarte aber leider zu gross und warscheinlich auch zu teuer.

Pirx
2015-12-10, 19:41:59
Tessellation? Das kam als erstes von nVidia. :lol:
Schon mal was von n-patches/Truform gehört, was ATi mit der Radeon 8500 in 2001 unterstützte?

Hübie
2015-12-10, 23:57:15
Ich finde das auch nicht schlecht. Ja, das wird derzeit faktisch nicht genutzt. Geschenkt. Henne und Ei. Wenn wir so argumentieren würden, hätte es auch nie Tessalation gegeben. Wer hat das doch gleich eingeführt (wenn auch nicht in der sich dann faktisch durchsetzenden Form): Ach ja, ATI...

Ich sage ja nichts gegen die Technik, sondern dass man keine Werbung für die Umsetzung macht. Das wird wohl dem Rotstift zum Opfer gefallen sein.

Und ja an das wenig genutzte TruForm auf den RV250ern und dem Tesselator im R600 erinnere ich mich.:smile:
Die 380X hat AMD jedenfalls ordentlich verkackt. Ich sag ja: Da sitzt irgendwo ein grüner Giftzwerg zwischen den roten Socken.

Troyan
2015-12-11, 01:14:05
Schon mal was von n-patches/Truform gehört, was ATi mit der Radeon 8500 in 2001 unterstützte?

Jo, 6 Monate nachdem nVidia mit Geforce 3 RT-Patches unterstützt hatte.

Schaffe89
2015-12-11, 03:05:59
Und ja an das wenig genutzte TruForm auf den RV250ern und dem Tesselator im R600 erinnere ich mich.:smile:
Die 380X hat AMD jedenfalls ordentlich verkackt. Ich sag ja: Da sitzt irgendwo ein grüner Giftzwerg zwischen den roten Socken.

Man hätte die Karte auch mit 1050mhz und mehr Speichertakt bringen können und schon wäre sie deutlich schneller wie ne 280x gewesen und nicht nur so minimal.

Pirx
2015-12-11, 07:43:05
Jo, 6 Monate nachdem nVidia mit Geforce 3 RT-Patches unterstützt hatte.
theoretisch ja, aber auch praktisch?

Hübie
2015-12-11, 07:46:02
Man hätte die Karte auch mit 1050mhz und mehr Speichertakt bringen können und schon wäre sie deutlich schneller wie ne 280x gewesen und nicht nur so minimal.

Um sich wie bei Fiji noch mehr Perf / W Ratio zu versauen? Klingt nicht sehr attraktiv. OC scheint ja auch nicht sonderlich gut zu gehen.
Und mal eben mehr Speichertakt muß der PHY mit machen. Ob das wirklich geht?

@Troyan: R200 aka Radeon 8500 konnte das schon 2001. :P

Malabolge
2015-12-11, 08:02:18
Tessellation? Das kam als erstes von nVidia. :lol:

Falsch du hier liegen musst , junger Padawan !
Die "Grundidee" Polygone in geringer Auflösung zu speichern und erst "on ther Fly" zu verbessern kam von (damals) ATI - Trueform

War aber natürlich alles Käse , bis Nvidia auf den Zug aufsprang

M4xw0lf
2015-12-11, 09:19:23
http://www.guru3d.com/articles-pages/powercolor-pcs-radeon-r9-380x-myst-review.html
PowerColor PCS Radeon R9 380X MYST

Eigentlich eine schöne Grafikkarte aber leider zu gross und warscheinlich auch zu teuer.
Liegt da auch das Spiel bei? :uponder:

Hübie
2015-12-11, 10:06:13
Willst du ein sidegrade, M4xw0lf? :|

M4xw0lf
2015-12-11, 10:18:34
Willst du ein sidegrade, M4xw0lf? :|
I is only make fun. Myst und so.

Hübie
2015-12-11, 10:42:00
Now i hef id gecheckt. Sänk ju. :D

Achill
2015-12-11, 11:07:10
Falsch du hier liegen musst , junger Padawan !
Die "Grundidee" Polygone in geringer Auflösung zu speichern und erst "on ther Fly" zu verbessern kam von (damals) ATI - Trueform

War aber natürlich alles Käse , bis Nvidia auf den Zug aufsprang

Die runden Waffen in CS ... das waren noch Zeiten ;D

http://img.clubic.com/00050420-photo-truform-counter.jpg

Man sieht eindeutig die "viel bessere" Form bei den Köpfen, so ein bisschen wie 64x Tess. ;)

Troyan
2015-12-11, 11:21:36
Falsch du hier liegen musst , junger Padawan !
Die "Grundidee" Polygone in geringer Auflösung zu speichern und erst "on ther Fly" zu verbessern kam von (damals) ATI - Trueform

War aber natürlich alles Käse , bis Nvidia auf den Zug aufsprang

Ehrlich - hast du jemals Google benutzt? Dir gehört vielleicht dieses Land, aber die Geschichte gehört jedem. :freak:

Faktencheck:
DX8 und OpenGL haben beide Arten von Tessellation unterstützt - N- und RT-Patches. nVidia unterstütze letzteres mit der Geforce 3 seit Mai 2001. AMD hat N-Patches mit der r200 Serie im Oktober 2001 eingeführt.

Malabolge
2015-12-11, 12:01:21
Ehrlich - hast du jemals Google benutzt? Dir gehört vielleicht dieses Land, aber die Geschichte gehört jedem. :freak:

Faktencheck:
DX8 und OpenGL haben beide Arten von Tessellation unterstützt - N- und RT-Patches. nVidia unterstütze letzteres mit der Geforce 3 seit Mai 2001. AMD hat N-Patches mit der r200 Serie im Oktober 2001 eingeführt.

Viel du noch lernen must junger Padawan !


http://hardforum.com/showthread.php?t=740956
Truform is an ATi term for N patches (tesselation). NVIDIA disabled HOS in drivers around the time of the GF3 Ti cards because games that enabled Truform by default made the GF3 run it in software mode since it didn't support N patches in hardware.

http://www.computerbase.de/forum/showthread.php?t=26919
Nein, momentan geht das nicht. Erstens hat nVidia nicht die Rechte an TruForm, so dass sie es nicht im Treiber einbauen können und zweitens würde es nur in Software, also über die CPU gerechnet, wie bei den R9000 und R9500/9700, so dass es im Endeffekt ziemlich langsam wäre.

Die HOS-Implementation, die in den GeForce3 und GeForce4Ti vorhanden ist, basiert auf Freiformflächen, bei der die Grafikkarte kein vorberechnetes Netz aus Dreiecken mehr erhält, sondern mathematische Gleichungen mit Kontrollpunkten. Sehr flexibel und nahezu universell einsetzbar, leider jedoch völlig inkompatibel zu herkömmlichen 3D-Engines, soll heissen, ein Spiel müsste von vornherein auf diese Technik ausgelegt sein.

Troyan
2015-12-11, 12:10:06
Hm, nVidia musste also die RT-Patches Implementierung für Geforce 3 Karten deaktivieren?

Ich weiß nicht. Das bedeutet ja, dass die Geforce 3 über Tesselation verfügt hat....

Aber genug der Diskussion. nVidia hat Tesselation in Form von RT-Patches 6 Monate früher unterstützt als AMD mit N-Patches. Beides wurde durch DX8 und OpenGL abgedeckt, waren jedoch nicht kompartibel zueinander.

Spielt sowieso keine Rolle, da es mit DX9 entfernt wurde und AMD es aus der r300 Serie ebenfalls aus der Hardware geworfen hat.

Gorkon
2015-12-27, 08:55:23
Womöglich sehen wir Tonga ja mit 6GB in der 400er Reihe.
Wenn man sich das PCB der Powercolor 380X "Myst-Edition" mal anguckt, wahrscheinlich nicht so unwahrscheinlich...

http://www.kitguru.net/wp-content/uploads/2015/12/AS7V4014.jpg

Aber solche Sachen gehen halt einfach unter, wenn sich die AMD- und nV-Trolle hier wieder gegenseitig an die Gurgel springen und selbst Review-Threads torpedieren müssen :rolleyes:

Thunder99
2015-12-27, 11:42:21
Wenn man sich das PCB der Powercoler 380X "Myst-Edition" mal anguckt, wahrscheinlich nicht so unwahrscheinlich...

http://www.kitguru.net/wp-content/uploads/2015/12/AS7V4014.jpg

Aber solche Sachen gehen halt einfach unter, wenn sich die AMD- und nV-Trolle hier wieder gegenseitig an die Gurgel springen und selbst Review-Threads torpedieren müssen :rolleyes:
Könnte auch sonst das Design deines R280(x) Board sein. Aber wäre schon ein starkes Stück dann den Chip in der nächsten Generation nochmal zu bringen. Ohne ansprechende Taktraten wäre es einen Lachnummer wenn jetzt schon eine R9 380x kaum sich von einer 280x absetzten kann

woodsdog
2015-12-27, 16:48:08
Ist doch egal ob sich Tonga in einer 400er Serie von der 380x absetzen kann... ist doch nur eine Frage der Positionierung.

Hübie
2015-12-27, 18:24:09
Wo willst du das noch bei dem Verbrauch positionieren? :confused:

AnarchX
2015-12-27, 18:37:00
Mit entsprechenden Taktraten bekommt eine R9 470 6GiB auch unter 150W. Das Verhältnis zum Materialeinsatz sieht halt etwas traurig aus, erst recht wenn man mit GM206 vergleicht.

Hübie
2015-12-27, 18:39:20
Dann machst du dir die ohnehin bescheidene Leistung gänzlich kaputt. Die 128 Bit vom MC bekommt man ebenfalls nicht gratis. Also ich hoffe wirklich, wirklich dass die RTG nicht so dumm handelt.

fondness
2015-12-27, 18:43:50
Mit entsprechenden Taktraten bekommt eine R9 470 6GiB auch unter 150W. Das Verhältnis zum Materialeinsatz sieht halt etwas traurig aus, erst recht wenn man mit GM206 vergleicht.

Wenn man den Takt senkt, braucht es erst recht kein 384bit SI. Ich bin mir nicht sicher, ob es eine solche Karte jemals geben wird.

-/\-CruNcher-/\-
2015-12-30, 00:43:19
Richard ist mit seinen FCAP Ergebnissen jetzt sehr spät nachgezogen

Wieder mal keine Angabe welches Render Result wir hier im Hintergrund eigentlich sehen ;)

hjqKIEWumr4

Selbe Karte die auch Format_C getestet hat (non FCAp) wenn ich mich recht errinere ;)

Keine Angaben ob Crimson genutzt wurde gehe aber stark davon aus ;)

Format_C du und Richard ihr solltet echt mal drüber nachdenken zu kolaborieren das würde ganz neue möglichkeiten eröffnen euer beiden daten gleichzeitig zu erhalten auch wenn sie nicht 100% zu Syncrhonisieren sind sollte die Auflößung doch schon klasse sein zwar nicht Frame genau aber auf jedenfall höher als alles bisherige ;)


Oh man die 2 Tonga Karten hätten so vieles ändern können für AMD ich versteh es einfach nicht wieso man sich nicht darauf konzentriert hat es schneller zu pushen und zwei mal hintereinander gegen Nvidia 1 Jahr verschleudert hat das geht mir einfach nicht in die Birne :(

(del)
2015-12-30, 06:44:41
Oh man die 2 Tonga Karten hätten so vieles ändern können für AMD ich versteh es einfach nicht wieso man sich nicht darauf konzentriert hat es schneller zu pushen und zwei mal hintereinander gegen Nvidia 1 Jahr verschleudert hat das geht mir einfach nicht in die Birne :(

Tonga war aus vielerlei Hinsicht für AMD problematisch. Die kleinere Schwester hat es ja sofort auch in den PC geschafft, nur war die 280X eben schneller und die Lager brechend voll. Die 280 war nicht wirklich deutlich langsamer, aber günstiger. Die Lager... wir wissen es. Tonga im Vollausbau hat man Apple exklusiv in den Rachen geschmissen - damit war das Ganze zum Nischendasein verdammt.

AMDs damaliges Problem waren nicht die Entwicklung, sondern das grenzdebile Management, übervoller Lager, angepisste Distris und Händler, genervte Boardpartner und verwirrte Kunden.

Tja, FCAP... Im Prinzip mag ich das Ganze, aber wenn man drei Auflösungen fährt, ist es vom Aufwand für einen kaum noch praktikabel. UHD ist Irrsinn beim Abspeichern, zumindest mit der Technik, was wir nutzen könnten. Solange man jedoch keine Dual-Grafik nutzt, sind die Resultate von Fraps & Co. sogar recht brauchbar - zumindest spiegeln sie die Problematik ganz gut wieder. Ich fand es im direkten Vergleich dann viel wichtiger, die Unterschiede durch bessere Kurvendarstellungen herauszuarbeiten. Neben den normalen, herkömmlichen Kurvenverläufen, habe ich sie zunächst auf den jeweiligen Durchschnittswert jeder Karte normalisiert, d.h. mehr oder weniger aufeinander projiziert. Da sieht man Abweichungen noch wesentlich deutlicher. Was aber m.E. noch wichtiger ist, ist der nachgebildete Eindruck der Renderzeitunterschiede als Verlauf. Beim sogenannten "Smothness"-Diagramm habe ich die Differenzen der jeweiligen Renderzeiten ausgerechnet. Solange alles gleich schnell läuft, bekommt man unabhängig von den tatsächlichen FPS eine glatte Linie, je höher die Auslenkungen, um so stärker der Ruckeleffekt. Da das Ganze sowohl im positiven, als auch negativen Bereich passiert, sieht man also Hänger und Drops in gleichem Maße gut. Je nachdem, ob sich der Peak ober- oder unterhalb der Nulllinie befindet. Ich habe mir dieses Programm selbst geschrieben, weil der Zeitgewinn am Ende immens ist. Mal abgesehen davon, dass die Log-Dateien (Fraps, Afterburner, Ashes usw.) automatisch eingelesen und interpretiert werden können, bekomme ich all unsere Chartsgrafiken automatisch als PNG exportiert bzw. die Kurven Excel-tauglich in die Zwischenablage kopiert. Ja, ich bin manchmal auch ein fauler Sack :D

Bei Witcher 3 ist die Szene manuell gestartet, d.h. man hat sehr kleine Differenzen zwischen den Kontrollpunkten, aber das Prinzip zeigt auch die gute Reproduzierbarkeit der Durchläufe. Während die R9 380 (grün) und 380X (hellblau) nur an wenigen Stellen einheitlichen, zum Teil sehr hohen Schwankungen unterliegen, hoppelt die GTX 960 (gelbe Kurve) immer ein wenig. Auch wenn es bei der 380X an wenigen Stellen etwas hakt, sie bietet trotzdem über die Dauer das bessere, weil ruhigere Bild. Das ausgeglichenste Bild bietet lustigerweise die GTX 970 (schwarze Kurve), die jedoch in dieser Szene nirgendwo limitiert wird.

FPS-Verlauf:
http://media.bestofmicro.com/C/X/539601/gallery/11-FHD-FPS-Curves_r_600x450.png

Renderzeiten:
http://media.bestofmicro.com/C/Y/539602/gallery/21-FHD-FT-Render-Time_r_600x450.png

Normalisierte Renderzeiten:
http://media.bestofmicro.com/C/Z/539603/gallery/31-FHD-FT-vs.-Average_r_600x450.png

Glätte des Verlaufs / Eindruck:
http://media.bestofmicro.com/D/0/539604/gallery/41-FHD-FT-Variance-Between-Frames_r_600x450.png

Witcher 3 ist sicher nicht das beste Beispiel, aber da alle auf solches Elfengeschwurbel stehen, muss man sich eben über geschmackliche Präferenzen hinwegsetzen und sich auch mal selbst foltern ;)
Damit es noch übersichtlicher wird, werde ich wohl beim nächsten Launch auch mal Diagramme in deutlich höheren Auflösungen verlinken, die auf die Seite leider nicht draufpassen.
Bei der Glätte gibt es dann komplett neue Kurven, ich bin aber noch am Programmieren. Wir planen so eine Art "Empfindens-Skala", die den subjektiven Eindruck auch anhand der physiologischen Eigenheiten des Auges nachbilden soll.

-/\-CruNcher-/\-
2015-12-30, 20:14:49
Sehr gute idee mit der Empfindens Skala ihr könntet versuchen das ganze besser zu tunen wenn ihr ein fcap output result einem fraps Ergebnis gegenüberstellt und dann die unterschiede mit einbezieht allerdings ist das auch semi optimal da sich mit jedem treiber und os change hier was ändern könnte und neu kalibriert werden müsste, richard hat nun auch die 1080p Ergebnisse veröfentlich + einem relativ wichtigen zusatz GTX 960 OC das beim 2k result noch gefehlt hat.

Ehrlichgesagt verwundern mich deine GTX 970 Ergebnisse kein Stück vor allem nicht für 1080p und pre OC ;)

Diese 100,140,120 ms Spike sind richtig übel da würde ich gern das visuelle result sehen von diesem Run ;)

Ob das nach den ganzen patches überhaupt noch so extreme ist ?

vJpy9hlfIkA

Übrigens wenn ihr schon kein komplettes FCAT FCAP machen wollt (wegen zu viel Aufwand und Hardware Setup Anspruch, Professioneles externes HDMI RAW Capture Setup) dann könntet ihr wenigstens von jedem Test Result den ihr mit den Frametimes darstellt ein (close Realtime + Encoder Latency) Video als vergleich Capturen das brauch nichtmal high res sein und viel space kosten es geht ja nur um die temporale stabilität (wobei das original Hardware Encoder result schon sinvoll wäre) und den erkenbaren unterschied im testrun zwischen den GPUs + Hardware Encoder overhead (da brauch es dann theoretisch auch diesen ganzen Empfindensskala Aufwand nicht mehr da der User es ja dann selbst sehen würde, das vermisse ich bei allen Reviewern momentan selbst bei Digitalfoundry die meistens nur 1 GPU result darstellen im Hintergrund den rest aber visuell einfach irgnorieren und den user mit dem Framtime Graph alleine lassen), Low Latency Streaming ist nun mal selbst auch ein ganz normales Gamer Szenario geworden das kann man schon von vornerein in die tests mit einbeziehen ;)

Am besten vergleicht man hier aussschlieslich die offiziele IHV Software sprich Shadowplay innerhalb von Geforce Experience bzw Game Stream und ich glaube bei AMD da sie ja noch keines direkt selbst Integriert haben mit Crimson von sich aus wäre das offizielste wohl der Gaming Evolved Client sprich die Raptr Capture Codebase (Game DVR).

oder man entscheidet sich für eine 3rd Party solution wobei da das Problem ist die Encoder settings Optimal auf den Hardware Encoder auszulegen eigentlich sollten das die IHVs schon mit ihren Solutions und Software erledigt haben und das in hinsicht unterschiedlichster Systeme sehr Ausbalanciert ;)

Wobei Microsofts Solution in Windows 10 im Xbox Game Client wohl ziemlich Agnostisch sein sollte und Default IHV Presets wählen die von Nvidia, AMD und Intel als Optimal für ihren jeweiligen Hardware Encoder befunden worden sind, auch MIcrosoft selbst wird hier viel geprofiled haben was den D3D overhead angeht ;)

Microsofts Game DVR würde ich daher als Standard vorschlagen für alle IHVs Capture tests.

QdnqDYQLtgY
I3ijyeghyRU
cFxk9_8Xnkg
OC9t0CgRfvI


Weiss nicht wieso vor allem die Kommerzielen 3rd Parties nicht schon sturm gelaufen sind gegen Microsoft entzieht es doch allen quasi zmindestens ihre Technische (auf IHV API aufbauende) Existenzgrundlage unter Windows 10 ;)

Vor allem die die keine großartigen Features drum rum bieten sind sogut wie Pleite (obsolete) unter Windows 10 ;)

Die Verbreitung des Features nimmt ja langsam zu das wissen darum spreaded bald werden die ihre Verkaufszahlen wegbrechen sehen ;)

Lurtz
2015-12-31, 00:01:09
Digital Foundry ist ja wieder begeistert vom AMD-Treiber...
The only hesitation we have in recommending this or any other AMD card comes down to driver support. The games tested here mostly have mature drivers, which push AMD's hardware to the fore, while releases like Star Wars Battlefront have demonstrated a palpable advantage for Radeon architecture - but elsewhere, the picture isn't rosy. There are still stuttering issues in The Witcher 3's CPU-intensive areas months on from release, while AMD dropped the ball badly with a lack of day one driver support for Fallout 4, resulting in very poor performance. Just Cause 3 also exhibited hitching and stuttering issues, even on top-end cards like R9 380, R9 390 and Fury X. These sorts of issues cannot be resolved by tweaking settings because inherently, the GPU hardware itself is not at fault. We really need to see AMD match Nvidia's commitment to launch day driver updates with proper optimisation.

The issues we've observed all seem to be related to the driver's CPU overhead and its lack of multi-thread support - and even with the release of the recent Crimson driver, DX11 performance is still clearly under par. In this market sector, Nvidia may not be the fastest, but the GTX 960 is often more consistent and during 'in the moment' gameplay, a stutter-free experience counts for a lot. Hopefully, AMD will resolve this at some point, but when similar issues continue to arise around the launch of key titles, it is clearly a cause for concern. We suspect that this will be far less of an issue when DX12 is the norm (AMD's driver performance there looks sensational) but the reality is that DX11 will remain with us for a long time yet, practically demanding that AMD ups its game. Class-leading hardware clearly requires a corresponding level of software support - and we hope AMD takes that onboard going in to 2016.
http://www.eurogamer.net/articles/digitalfoundry-2015-amd-radeon-r9-380x-review

Heftig wie die ganze Radeon-Familie in Novigrad teilweise einbricht, dabei skaliert das Spiel schon so hervorragend mit der CPU und jedem Kern. Ist wohl nicht mehr zu erwarten dass AMD das mal in den Griff bekommt.

dildo4u
2015-12-31, 00:10:57
Jup was ich auch enttäuschend finde PCGH und Computerbase kehren das unter den Teppich,gerade wenn ich eine Midrange Karte kaufe habe ich vermutlich kein i7 um der Treiber Overhead mit Brute Force zu eliminieren.Natürlich fällt es der der PCGH nicht auf wenn sie 200€ Karten mit einem 4.5Ghz i7 Skylake testen.

Lurtz
2015-12-31, 00:14:22
Jup was ich auch enttäuschend finde PCGH und Computerbase kehren das unter den Teppich,gerade wenn ich eine Midrange Karte kaufe habe ich vermutlich kein i7 um der Treiber Overhead mit Brute Force zu eliminieren.Natürlich fällt es der der PCGH nicht auf wenn sie 200€ Karten mit einem 4.5Ghz i7 Skylake testen.
Da sollte man wirklich mal drüber nachdenken ob man neben einer Enthusiasten-CPU nicht auch eine Mittelklasse- oder Budget-CPU zum Benchen nimmt.
Gerade unbedarften Spielern empfiehlt man in der Kaufberatung ja keinen i7, da heißt es meist ein i5 reicht auch zum Spielen. Gerade die sind ja in ihrer Grafikkartenwahl dann eigentlich ganz schön eingeschränkt...

=Floi=
2015-12-31, 05:55:58
ihr denk die sache nicht zu ende. es geht um einen GPU test und da hat eine langsame cpu nichts zu suchen. je schneller die cpu, desto stärker können die karten ihre stärken ausspielen. Würde man mit einer schwachen cpu testen, dann sind wenn es blöd läuft ALLE grafikkarten im cpu limit und innerhalb von ~5 fps.
Nebenbei will man die mid range karte ja mit dem highend vergleichen.



Für leute wie euch gibt es CPU-Tests und genau dort werden dann die cpus getestet!
Ihr müsst dann selbst eure kombi zusammenstellen und die leistungswerte angleichen, wenn eine andere cpu verbaut wird.

(del)
2015-12-31, 06:39:38
Bei Grafikkarten-Launches sehe ich da durchaus Potential, denn man weiß hinterher genau, wo der Einsatz eine neuen GPU noch einen Sinn ergibt und wo nicht. :)

Allerdings habe ich mir es bisher geschenkt, einfach nur die CPU runterzutakten oder Kerne abzuschalten, weil das schlicht albern ist. Wenn, dann muss auch der Unterbau der Zielgruppe angepasst werden. Lieber eine Stufe weniger, dafür wirklich realitätsbezogen und nicht synthetisch. In den Spieletests mache ich das schon, um Mid-Class / Entry zu testen.

Kriton
2015-12-31, 13:28:04
Ich spiele gerade W3 mit meinem System (siehe Info) und gefühlt habe ich das Problem nicht (und auch sonst keines). Ich suche die Probleme aber auch nicht, nur um sie dann ständig zu bemerken, weil ich ja weiß, dass sie da sind. :biggrin:
Hat jetzt nichts mit der Prozessorlast zu tun, aber Grafikoptionen kann man ja auch unterhalb von Ultra einstellen. Mit einer Geforce GTX 560 habe ich (mit ansonsten identischem System) sogar Arkham Knight auf Mittel gespielt ohne Schwierigkeiten zu haben.

=Floi=
2015-12-31, 14:08:10
du zockst mit einem uralten monitor auf 1050p. fährst du 1440p, dann sieht die welt schon ganz anders aus.

Kriton
2015-12-31, 14:25:06
Keine Frage. Aber CPU-Probleme, die angesprochen wurden, haben ja nichts mit der Auflösung zu tun.
Übrigens wusste ich, warum ich damals nur 1680x1050 gekauft habe (wobei ich im Gegensatz aktuell in Richtung 4k schiele, aber ich zögere wegen DP 1.3 und 120 Hz bei 4k noch).

Lurtz
2015-12-31, 15:07:20
ihr denk die sache nicht zu ende. es geht um einen GPU test und da hat eine langsame cpu nichts zu suchen. je schneller die cpu, desto stärker können die karten ihre stärken ausspielen. Würde man mit einer schwachen cpu testen, dann sind wenn es blöd läuft ALLE grafikkarten im cpu limit und innerhalb von ~5 fps.
Nebenbei will man die mid range karte ja mit dem highend vergleichen.
Eurogamer bencht hier mit einem i7 4790k und dennoch gibt es die Einbrüche. Solche CPU-Drops lassen sich kaum mit CPU-Leistung erschlagen, das geht nur mit guten Treibern.

Das heißt was für den i7 gilt, gilt für den i5 oder gar i3 noch viel stärker... Ich plädiere ja gar nicht dafür, dass man nur mit Mittelklasse-CPU bencht. Oder eine GTX 980 mit i5 bencht. Aber bei einer 380X/GTX 960 wäre das durchaus interessant.

Hübie
2015-12-31, 15:30:29
Schaut mal auf YouTube bei digitalfoundry. Die haben einige interessante Tests dahin gehend. Bin am Smartphone, sonst würde ich es euch direkt verlinken. :)

dildo4u
2016-03-09, 11:39:25
Die neue Architektur macht sich mal wieder bezahlt 380X so schnell wie die 290.Wundert mich da das Game wohl keine Tessellation nutzt.


http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

Thunder99
2016-03-10, 20:02:39
Schätze mal Bandbreite ist hier am meisten ausschlaggebend. Sonst wäre eine 390 auch nicht 8% schneller als eine 290 Tri-X. Aber schön mal zu sehen das Tonga nicht ganz umsonst ist :freak:

Raff
2016-03-11, 10:30:46
Beachtet das Kräfteverhältnis zwischen 380X und 290 mit steigender Auflösung: Tonga XT ist nur in Full HD gut (Frontend und so), mit steigender Pixelmenge schlagen die zusätzlichen Shader von Hawaii Pro gut durch.

MfG,
Raff

Godmode
2016-03-26, 01:40:22
Da ich ja 6 380x für mein Bergwerk gekauft habe, kann ich ein paar Worte dazu außern. Meine Gigabyte G1 Gaming R9 380X haben alle ein gelocktes BIOS. Dh. VCore Änderungen sind erstmal nicht möglich. Weiters haben von 6 Karten, 2 Karten einen defekten Lüfter. Sehr lautes klackern von Zeit zu Zeit, manchmal auch längere Zeit. Die werde ich umtauschen müssen. Die anderen 4 laufen aber Problemlos, bis auf ein paar OpenCL Ungereimtheiten unter Windows 10.

fondness
2016-03-26, 07:43:50
Hat es einen bestimmten Grund, dass du ausgerechnet lauter Gigabyte genommen hast?

dargo
2016-03-26, 08:59:48
Verwendet Gigabyte nicht ein Custom-PCB? Deshalb wohl keine Vcore-Änderung beim AB möglich. Liefert Gigabyte kein OC-Tool wie Asus?

Hübie
2016-03-26, 09:04:39
Manche Controller bieten schlichtweg nicht die Möglichkeit, da das Verhalten fest einprogrammiert ist. Bei AMD gibt es da offensichtlich starke Unterschiede bei Hersteller und Modell. Das mag an den Vorgaben des IHV liegen. NVIDIA ist da sehr restriktiv was das Design angeht und der Turbo erfordert halt einen "programmierbaren" Controller.
Ich frage mich vielmehr ob das minen allgemein lohnt, wenn man die Rechnung selber zahlt. Mit einem speziellen ASIC schon, aber GPU..?:confused:

fondness
2016-03-26, 09:07:04
NVIDIA ist da sehr restriktiv was das Design angeht und der Turbo erfordert halt einen "programmierbaren" Controller.


Als ob AMD nicht dynamisch Spannung und Takt anpassen würde. Wenn dann fehlt es an der Software um den betreffenden µC ansteuern zu können oder Gigybyte hat halt an Centbeträgen für die entsprechende Schnittstelle gespart.

dargo
2016-03-26, 09:13:48
Öhm... vielleicht sollte man erstmal klären was Godmode schon probiert hat? Ansonsten würde ich es erstmal mit dem OC-Guru II versuchen. ;)
http://download.gigabyte.eu/FileList/Utility/vga_utility_oc_guruii_v1.98.exe

Nach unten scrollen.
http://www.gigabyte.com/products/product-page.aspx?pid=5678#ov

Hübie
2016-03-26, 09:27:54
Als ob AMD nicht dynamisch Spannung und Takt anpassen würde. Wenn dann fehlt es an der Software um den betreffenden µC ansteuern zu können oder Gigybyte hat halt an Centbeträgen für die entsprechende Schnittstelle gespart.

Takt und Spannung variieren mit Sicherheit nicht mit der ASIC bei AMD und somit ist das Verhalten deterministisch. Es braucht eine Schnittstelle und Registerspace, sowie ein paar Komponenten. Zehn Cent mal Stückzahl und du siehst die Sache schon anders als AIB. Die Partner von AMD schwimmen nicht gerade in Gewässern mit fetten Margen.
Aber war klar dass DU wieder um die Ecke gewackelt kommst und es als Angriff auf deinen Arbeitgeber siehst. :rolleyes:

Edit: In diesem Falle scheint aber die Software die Ursache zu sein, denn laut dargo's Link unterstützt die voltage offset...

fondness
2016-03-26, 09:37:25
Takt und Spannung variieren mit Sicherheit nicht mit der ASIC bei AMD und somit ist das Verhalten deterministisch.

Das ist seit der Fury falsch.

Aber war klar dass DU wieder um die Ecke gewackelt kommst und es als Angriff auf deinen Arbeitgeber siehst. :rolleyes:

War klar, dass du wie üblich wieder persönlich werden musst.


Edit: In diesem Falle scheint aber die Software die Ursache zu sein, denn laut dargo's Link unterstützt die voltage offset...

Told you so.

dargo
2016-03-26, 09:41:06
Edit: In diesem Falle scheint aber die Software die Ursache zu sein, denn laut dargo's Link unterstützt die voltage offset...
Wird höchstwahrscheinlich das selbe wie bei den Custom-PCBs von Asus sein. Da kommt man mit dem MSI-Afterburner auch nicht weiter. Man ist gezwungen die eigene Asus-Software zu nutzen.

fondness
2016-03-26, 09:43:54
Wird höchstwahrscheinlich das selbe wie bei den Custom-PCBs von Asus sein. Da kommt man mit dem MSI-Afterburner auch nicht weiter. Man ist gezwungen die eigene Asus-Software zu nutzen.

Richtig, der Afterburner unterstützt eben längst nicht alle Voltage-Controller, zumindest nicht zeitnah. Das dauert oft etwas länger.

Godmode
2016-03-26, 09:44:50
Hat es einen bestimmten Grund, dass du ausgerechnet lauter Gigabyte genommen hast?

Es war die billigste 380X, daher :) Die Karten ohne Lüfterschaden sind ja sauber verarbeitet, inkl. netter Backplate.

Verwendet Gigabyte nicht ein Custom-PCB? Deshalb wohl keine Vcore-Änderung beim AB möglich. Liefert Gigabyte kein OC-Tool wie Asus?

Kann ich sagen. IIRC. hatte ich aber auch mit dem OC-Guru II kein Glück.

Öhm... vielleicht sollte man erstmal klären was Godmode schon probiert hat? Ansonsten würde ich es erstmal mit dem OC-Guru II versuchen. ;)
http://download.gigabyte.eu/FileList/Utility/vga_utility_oc_guruii_v1.98.exe

Nach unten scrollen.
http://www.gigabyte.com/products/product-page.aspx?pid=5678#ov

dargo
2016-03-26, 09:52:53
Kann ich sagen. IIRC. hatte ich aber auch mit dem OC-Guru II kein Glück.
Das ist merkwürdig, schließlich wirbt Gigabyte damit sogar. Schreib die mal an. Probiere auch noch den Asus GPU Tweak und Sapphire Trixx.

PS: die neueste Version verwendet? Die ist nämlich ganz frisch von gestern.
http://www.gigabyte.com/products/product-page.aspx?pid=5678#utility

Godmode
2016-03-26, 09:58:14
Danke! Ich kann das leider erst am Montag testen, da ich über Ostern nicht zuhause bin. Den Gigabyte Support habe ich mal angeschrieben. Eventuell sollte ich mal mein Windows neu installieren, weil das ist ein Upgrade von 7 auf 8 auf 10 mit etlichen GPUs und Hardware wechseln.

dargo
2016-03-26, 10:14:41
Öhm... jo, letzteres wäre ganz ratsam. :freak:

Hübie
2016-03-26, 10:20:30
Das ist seit der Fury falsch.

Wie bitte? Die Fury hat doch immer gleichen Takt und gleiche Spannungen bei Takt XY. Egal welche ASIC. Oder irre ich mich? Habe ich jedenfalls noch nirgends gelesen oder gesehen. Dann hätte ich gerne mal einen Link.

War klar, dass du wie üblich wieder persönlich werden musst.
Ja wen soll ich denn ansprechen bei deiner Aussage? :confused: Ich habe dir schon mal gesagt dass du der einzige bist, der beeinflussen kann wie ernst man dich nehmen kann / darf / soll.

Told you so.
Na dann erkläre doch wieso es dennoch oft bei AMD nicht klappt.

@dargo: Das kann ich nicht bestätigen. Weder mit einer 660 Ti, 670 und 980 Ti von ASUS brauchte ich ASUS Tweak Müll. Ich konnte ich mit AB, EVGA Precision X und NVIDIA Inspector alles anpassen wie es soll.
Einige ASUS scheinen jedoch ein BIOS write lock zu haben (oder manche User sind nicht fähig genug - keine Ahnung).

dargo
2016-03-26, 10:24:15
Dann waren das keine Custom-PCBs. Bei einer Asus Matrix brauchst du definitiv GPU Tweak.

Hübie
2016-03-26, 12:12:39
Klar sind das custom PCBs. Guck doch selber :P

dargo
2016-03-26, 12:16:40
Dann handhabt das Asus bei Nvidia anders.

fondness
2016-03-26, 12:19:14
Wie bitte? Die Fury hat doch immer gleichen Takt und gleiche Spannungen bei Takt XY. Egal welche ASIC. Oder irre ich mich? Habe ich jedenfalls noch nirgends gelesen oder gesehen. Dann hätte ich gerne mal einen Link.

Nope, das wir seit Fiji ASIC-weise selektiert, glaube es oder lasse es. Das ermöglicht eine bessere Perf/Watt, dadurch kann sich aber leider auch jede Fury-Karten leicht anders verhalten, ähnlich wie bei nvidia.

/Edit: Habe sogar noch was gefunden:
Furthermore, AMD has changed how it chooses the voltage and frequency operating points for its GPUs. The new method introduces some card-to-card variability, which AMD has avoided in the past, but it allows for more efficiency overall. (I believe Nvidia's GPU Boost first adopted some tolerance of card-to-card variability in the Kepler generation.) AMD Graphics CTO Raja Koduri told us AMD was willing to accept this change in part because it realized variability was part and parcel of the modern PC ecosystem, given sheer variety of cases and cooling solutions and the like.

http://techreport.com/review/28499/amd-radeon-fury-x-architecture-revealed/2


Ja wen soll ich denn ansprechen bei deiner Aussage? :confused: Ich habe dir schon mal gesagt dass du der einzige bist, der beeinflussen kann wie ernst man dich nehmen kann / darf / soll.

Es ist mir vollkommen egal, wie ernst du mich nimmst. Das hat nichts mit dem Thema zu tun und ist vollkommen OT, also behalten den Blödsinn für dich und bleibe sachlich.


Na dann erkläre doch wieso es dennoch oft bei AMD nicht klappt.


Weil der entsprechende Voltage-Regulator von Afterburner unterstützt werden muss, ganz einfach. Das gilt ebenso für Nvidia.

kruemelmonster
2016-03-26, 12:50:27
Der AB lässt sich auch mit gewissen custom Non-MSI Karten betreiben sofern der Controller unterstützt wird, siehe dazu die Third party Graphics Card hardware database (http://forums.guru3d.com/showthread.php?t=399542).

(I believe Nvidia's GPU Boost first adopted some tolerance of card-to-card variability in the Kepler generation.)

Fürs Protokoll: variable Spannungen gab es seit Fermi.

Raff
2016-03-26, 12:53:45
Yop, damals aber ohne Effekt auf den Takt (es sei denn, man hat einen "Power virus" gestartet). Erst mit dem Boost wurde das ekelhaft.

MfG,
Raff

Hübie
2016-03-26, 14:18:12
Nope, das wir seit Fiji ASIC-weise selektiert, glaube es oder lasse es. Das ermöglicht eine bessere Perf/Watt, dadurch kann sich aber leider auch jede Fury-Karten leicht anders verhalten, ähnlich wie bei nvidia.

/Edit: Habe sogar noch was gefunden:


http://techreport.com/review/28499/amd-radeon-fury-x-architecture-revealed/2

Weil der entsprechende Voltage-Regulator von Afterburner unterstützt werden muss, ganz einfach. Das gilt ebenso für Nvidia.

Vielen Dank. Ist an mir vorüber gezogen.

Und nicht jeder Voltage Regulator lässt sich per Software beeinflussen. Wie das da bei aktuellen AMD-Modellen aussieht weiß ich nicht, aber bei der 290X waren glaub ich noch Modelle dabei.