PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24

scully1234
2016-07-08, 11:11:23
Was ich nicht verstehe ist, warum sie sich immer wieder ihre eigenen Launches kaputt machen? Messen die nicht nach? Sowas schädigt den Ruf nachhaltig, auch wenn der Fix schneller gekommen ist, als viele das erwartet hätten.

Das so was offensichtliches ,wieder mal durch die Kontrollen gehuscht ist, ist schon extrem unverstaendlich.

Da das ja nun nicht zum ersten mal passiert, sollte man mal auf die Suche nach dem Saboteur ,in den eigenen Reihen gehen, und ihm ne Kugel verpassen.

Kein Wunder das man dann immer mehr ins Hintertreffen kommt

HarryHirsch
2016-07-08, 11:18:19
VCE ist abseits des Broadcastings a la Twitch unbrauchbar, aber der Reiz ist da. das Ding mal auszuprobieren.

Bei meiner R7 260X musste ich auch kräftig schwitzen, damit es läuft. Es lief und das Ergebnis war schlecht.

läuft eigentlich ganz gut. problem ist nur der, von twitch, bevorzugte keyframeintervall von 2.

Raff
2016-07-08, 11:25:09
PCGH hat eine neue 8G-Karte mit dem neuen Treiber indiziert und sogleich auch die 4G-Version mitgetestet: Radeon RX 480 (4/8 GiB): Crimson 16.7.1 im Test - Besserung an fast allen Fronten (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Tests/Radeon-RX-480-Crimson-1671-1200996/)

Das dürfte viele Leute beruhigen.

MfG,
Raff

kuj0n
2016-07-08, 11:31:51
Hat niemand neue Infos zu Releasedaten der Customs und der 470? So langsam nervt es. Bloß nicht zuviele Infos.

Nvidia macht es auch nicht viel besser. Ich würde gerne Geld ausgeben.

Raff
2016-07-08, 11:33:33
Rechne in 2-3 Wochen mit den ersten Custom-480ern (Tests möglicherweise vorher ;)).

MfG,
Raff

Linmoum
2016-07-08, 11:35:59
Hat niemand neue Infos zu Releasedaten der Customs und der 470? So langsam nervt es. Bloß nicht zuviele Infos.

Nvidia macht es auch nicht viel besser. Ich würde gerne Geld ausgeben.
Bei der Nitro soll's wohl der 22. Juli werden, also kannst du sicherlich auch bei anderen +- damit rechnen.

Bei der 470 war irgendwann mal von Ende Juli die Rede, keine Ahnung, ob da was dran ist.

kuj0n
2016-07-08, 11:38:35
Weißt du warum das so lange dauert? Dachte der Release war lange geplant und Chips sind verfügbar.

Die Releasepolitik aller Hersteller ist echt zum Kotzen. Erst überteuerte Billig Versionen, dann muss man wochenlang auf Customs warten, die mit Glück irgendwann mal verfügbar sind. Das gilt natürlich auch für Nvidia.

Linmoum
2016-07-08, 11:42:17
Weißt du warum das so lange dauert? Dachte der Release war lange geplant und Chips sind verfügbar.

Die Releasepolitik aller Hersteller ist echt zum Kotzen. Erst überteuerte Billig Versionen, dann muss man wochenlang auf Customs warten, die mit Glück irgendwann mal verfügbar sind.
Wobei ich lieber 'ne Woche länger auf Customs warte und dann ggf. eine breitere Verfügbarkeit habe als 'ne Woche früher wo ich dann "nicht (mehr) verfügbar" lesen darf, weil man unbedingt schon was am Markt haben wollte. ;)

Aber mal schauen, die zwei Wochen überlebt man jetzt auch noch.

MuLuNGuS
2016-07-08, 11:42:43
also alles im grünen...errm roten bereich :D

nun noch auf die custom karten warten, dann kann bald eine bestellung rausgehen.

@raff, danke für arbeit & infos

Gorkon
2016-07-08, 11:53:51
VCE ist abseits des Broadcastings a la Twitch unbrauchbar, aber der Reiz ist da. das Ding mal auszuprobieren.

Bei meiner R7 260X musste ich auch kräftig schwitzen, damit es läuft. Es lief und das Ergebnis war schlecht.
Ich hatte auch mal rumprobiert und seh das anders. 2 kurze Testvideos: Aufgenommen mit OBS per VCE auf ner R9 270x, also VCE 1.0(!), CQP auf 24 oder 26 gestellt (~ klar unter 10MBit jedenfalls) und das Balanced-Preset für 1080p60. Dafür das YT ja nochmal von "xyz" > VP9 recoded, geht das eigentlich klar für nen 4 1/2 Jahre alten Encoder-Block...

https://www.youtube.com/watch?v=cE3bsxqRmdA (CPU: A10-7870k)
https://www.youtube.com/watch?v=9m4zxsR1yGM (CPU: Phenom II 940. Aspect Ratio ignorieren, VSR auf nem 1050p Moni war an :redface:)

PCGH hat eine neue 8G-Karte mit dem neuen Treiber indiziert und sogleich auch die 4G-Version mitgetestet: Radeon RX 480 (4/8 GiB): Crimson 16.7.1 im Test - Besserung an fast allen Fronten (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Tests/Radeon-RX-480-Crimson-1671-1200996/)

Das dürfte viele Leute beruhigen.

MfG,
Raff
Danke auch nochmal für den Nachtest, wenn der Terminkalender durch GP106 sicherlich auch schon wieder voll ausgereizt ist :D Und lass(t) dich/euch nicht ärgern, ihr macht alle verdammt gute Arbeit bei der PCGH :up:

hesTeR-
2016-07-08, 12:16:12
tja die wollen unser geld scheinbar alle nicht :D

Screemer
2016-07-08, 12:29:30
Nein das schiebst du mir unter..du lieferst alles ausser dem einen nach dem man fragt. Nebelkerzen.
Wo sind die 20 angeblich gemessenen Turbotakte der RX480?

Einfach mal auf den Punkt.
Die gibt es nicht, weil die Karte nach raffs Aussage so lief wie sie eben lief. Warum dann ein Takt angegeben ist verstehe ich auch nicht. Denn die Karte hat im Leben nicht über alle benches und Auflösungen genau 1150mhz gehalten. Noch mal, complicated ist nicht alleine mit der Meinung,d ass die Testmethoden nicht gut sind und vor allem für Leute die nicht die Printausgaben haben transparent sind.

interne Entscheidungen einer Testseite, die hier ohnehin nix zu suchen hat.es geht in den Preview/review-threads doch genau darum zu über diese zu diskutieren. Reine praise and hate-thread zum Produkt sind es imho nie gewesen. Fällt jemandem eine Unstimmigkeit auf, dann ist doch wohl hier der Platz um diese zu diskutieren, oder? Sonst kann man den Thread nach dem ersten Post such zu machen, denn dann gilt die Devise "friss oder stirb".

Raff
2016-07-08, 12:32:32
Ich habe das mal für euch gesuchmaschint: Mittelwert (http://lmgtfy.com/?q=Mittelwert)

Hier noch die Info, wo und aus was (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Tests/Radeon-RX-480-Crimson-1671-1200996/) der Mittelwert gebildet wurde:

"Wir haben wie gehabt das 20 Spiele umfassende PCGH-Portfolio mit der neuen 8G-Karte überprüft, die Boosts protokolliert und anschließend einen Mittelwert aus den Werten beider Karten gebildet. Mit diesem und der Radeon Software Crimson 16.7.1 haben wir die RX 480/8G neu indiziert, flankiert von der RX 480/4G, welche im Mittel minimal höhere Frequenzen erreicht (rund 1.200 statt 1.190 MHz)."

MfG,
Raff

Iruwen
2016-07-08, 12:40:52
Die Produkte sind nachher auch ziemlich gut.

In zwei (von 3 Desktop-PCs) arbeiten immer noch zuverlässig Phenoms. Die Nano arbeitet für mich super. Auch mein Bulli macht genau das, was ich von ihm erwarte.

Das ist jawohl selbstverständlich.

Screemer
2016-07-08, 12:41:04
Mr ist schon klar, dass dir complicateds wohl nicht passt. Musst du mich aber deswegen so anblaffen? Das ist dem ganzen Chart und dem Text nämlich nicht zu entnehmen und da ihr bei anderen Karten einen anderen Ansatz fahrt soll sich der Lesern die Tatsache aus den Fingern saugen. Schreibt das dazu und fühlt euch nicht immer gleich auf den Schlips getreten.

Edit: schön, das es in nem anderen Artikel steht. Von dem aus hat sich die Diskussion aber nicht losgesponnen.

Raff
2016-07-08, 12:43:01
Anblaffen? Das war ein ganz normales Posting, die "Töne" entstehen im Kopf. :)

Ihr versteht nicht, dass wir auch Menschen sind. Alle drei Postings pinkelt uns einer ans Bein und wir müssen uns rechtfertigen. Niemand kommt auf die Idee, dass wir uns etwas dabei gedacht haben (Stichwort Erfahrung) und dass das tierisch nervt. Insofern ist vielleicht der einzige Fehler, auf jedes Motzen einzugehen. Eingefahrene Kritiker lassen sich von Fakten nicht beirren, PCGH bleibt aus unerklärlichen Gründen in der Schublade des Bösen. Und das alles nur wegen, wenn's ganz schlimm kommt, drei Prozent Leistungsdifferenz. :ugly:

MfG,
Raff

Screemer
2016-07-08, 12:47:05
Dein Post bestand aus nem Einzeiler mit lmgt4u. Den Rest hast du nachträglich hinzu editiert. Ich hab das mal für dich gegoogelt. (http://lmgtfy.com/?q=Editieren) den Stil erkennst du sicher. So nen Spruch wie oben hab ich auch noch. Der Ton macht die Musik

Die Testmethoden von pcgh können so gut sein wie sie wollen. Ich hätte gerne Test in denen die Karten out of the box getestet werden. Deshalb äußere ich Kritik an euren Methoden. Das scheint dir nicht zu passen. Keine Ahnung warum. Jeder der damit zufrieden ist, der kann sie nehmen wie sie sind. Ich such mir meine Ergebnisse seit Jahren nicht nur auf einer seit. Wie du es schon sagtest seit ihr auch nur Menschen. Da muss man manchmal auch Kritik an sich zulassen. Reflektieren und weitergehen sollte die Devise sein. Vielleicht mal was überdenken und wenn man zum gleiche Schluss kommt, dann das auch so kommunizieren.

Ich glaube auch, dass du das ganze zu persönlichen nimmst. Gerne kannst du meine letzte Post noch mal rekapitulieren. Ein persönlicher Angriff auf die Redaktion von pcgh oder dich selbst war nie angedacht. Ich respektiere eure Arbeit und finde es großartig, dass du dich hier privat auch noch als Teil der Community verstehst und massiv zu ihr beiträgst.

iuno
2016-07-08, 13:16:30
Auch von AC kommt ein FC:

https://forum.aquacomputer.de/wasserk-hlung/107113-neu-kryographics-rx480/

https://forum.aquacomputer.de/images-ac/kryographics_rx480_4.jpg

Cyphermaster
2016-07-08, 13:26:09
Wobei ich lieber 'ne Woche länger auf Customs warte und dann ggf. eine breitere Verfügbarkeit habe als 'ne Woche früher wo ich dann "nicht (mehr) verfügbar" lesen darf, weil man unbedingt schon was am Markt haben wollte. ;)

Aber mal schauen, die zwei Wochen überlebt man jetzt auch noch.
Da sagst du was... Mir sitzt schon ewig jemand im Nacken, dem ich unbedingt was besorgen soll - und ich versuch mich dran, dem Betreffenden zu erklären, daß es sinnvoll ist, die paar Tage bis zum Erscheinen der Customs bei RX480 und GTX1060 zu warten, weil man dann deutlich besser vergleichen kann und die Preise wohl schon einen Tacken besser sind. Mühsam! :rolleyes:

Pirx
2016-07-08, 13:32:54
Besser wäre es, die Leute schon zumindest etwas anzufüttern (was natürlich ein bisschen auf Kosten der Referenz ginge, wobei Custom Käufer aus verschiedenen Gründen meist explizit keine Referenz wollen).

Iruwen
2016-07-08, 13:33:20
Was vermutlich alle die hier mitlesen nervt ist, dass regelmäßig eine Diskussion zu "PCGH ist doof, weil..." losgetreten wird die hier nicht hingehört. Und zwar nicht von Raff & Co die hier eigentlich privat unterwegs sind und sich gar nicht rechtfertigen müssten aber trotzdem immer wieder ihre Herangehensweisen vorbildlich transparent begründen und schon jede Menge für die Community getan haben.
Wir wollen Infos zu den Karten, wie PCGH testet ist bekannt, wem die Methodik nicht gefällt der kann ja einen der 73 anderen deutschen und 53815435 internationalen Reviewer heranziehen bis er ein Ergebnis findet das ihm persönlich zusagt.

Screemer
2016-07-08, 13:51:36
Wie sieht es eigentlich bei den peg-steckrrn aus? Sind solche Konstrukte a la 480 erlaubt oder kannst da Probleme mit nts geben? Den sense wegzulassen kann das zu Problemen führen oder ist der irrelevant? Wie stellt amd bei der 480 fest ob der Peg eingestekct ist und was passiert wenn er es nicht ist? Fragen über Fragen.

anddill
2016-07-08, 14:02:59
Wie sieht es eigentlich bei den peg-steckrrn aus? Sind solche Konstrukte a la 480 erlaubt oder kannst da Probleme mit nts geben? Den sense wegzulassen kann das zu Problemen führen oder ist der irrelevant? Wie stellt amd bei der 480 fest ob der Peg eingestekct ist und was passiert wenn er es nicht ist? Fragen über Fragen.

Die Schienen sind getrennt. Spannung da - Stecker dran.

Cyphermaster
2016-07-08, 14:18:43
Mal eine andere, halb-spekulative Frage: Wie hoch schätzt du die Wahrscheinlichkeit ein, daß AMD eine "Rev.2" mit neu optimierter Spannungsversorgung auf dem PCB auflegen wird? Aus dem Bauch raus würde ich denken, daß man das Geld und die Zeit für so eine relative Kleinigkeit kaum opfern wollen wird.

M4xw0lf
2016-07-08, 14:25:42
Mal eine andere, halb-spekulative Frage: Wie hoch schätzt du die Wahrscheinlichkeit ein, daß AMD eine "Rev.2" mit neu optimierter Spannungsversorgung auf dem PCB auflegen wird? Aus dem Bauch raus würde ich denken, daß man das Geld und die Zeit für so eine relative Kleinigkeit kaum opfern wollen wird.
Vor allem da die Boardpartner ja sowieso großteils eigene PCBs schnitzen.

ilPatrino
2016-07-08, 14:30:03
Mal eine andere, halb-spekulative Frage: Wie hoch schätzt du die Wahrscheinlichkeit ein, daß AMD eine "Rev.2" mit neu optimierter Spannungsversorgung auf dem PCB auflegen wird? Aus dem Bauch raus würde ich denken, daß man das Geld und die Zeit für so eine relative Kleinigkeit kaum opfern wollen wird.
die spannungsversorgung funktioniert doch und alle phasen sind weit unterhalb ihrer designgrenzen.
und da hoffentlich bald customs kommen, erledigt sich das auch von selber.

außerdem hoffe ich mal, daß die chips im laufe der zeit besser werden und die stromversorgung generell weniger zu tun kriegt. ein bißchen weniger verbrauch und das teil kommt in den zweitrechner...aber ich kann erstmal warten.

uweskw
2016-07-08, 14:30:56
Wofür auch: Nächste Woche sollte es mit den Customs losgehen. Spätestens dann interessieren die Ref. Karten keinen Endkunden mehr. Höchstens auf OEM Basis.

greetz
US

Palpatin
2016-07-08, 14:33:18
Mal eine andere, halb-spekulative Frage: Wie hoch schätzt du die Wahrscheinlichkeit ein, daß AMD eine "Rev.2" mit neu optimierter Spannungsversorgung auf dem PCB auflegen wird?
Sehr hoch, wird in ca einem Jahr kommen und RX570 heißen. ;)

Tru
2016-07-08, 14:41:07
O-Ton von Raja zu den 200er- und 300er-Rebrands: "Such a mess won't happen again" ;D

Complicated
2016-07-08, 14:43:22
Ich habe das mal für euch gesuchmaschint: Mittelwert (http://lmgtfy.com/?q=Mittelwert)

Hier noch die Info, wo und aus was (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Tests/Radeon-RX-480-Crimson-1671-1200996/) der Mittelwert gebildet wurde:

"Wir haben wie gehabt das 20 Spiele umfassende PCGH-Portfolio mit der neuen 8G-Karte überprüft, die Boosts protokolliert und anschließend einen Mittelwert aus den Werten beider Karten gebildet. Mit diesem und der Radeon Software Crimson 16.7.1 haben wir die RX 480/8G neu indiziert, flankiert von der RX 480/4G, welche im Mittel minimal höhere Frequenzen erreicht (rund 1.200 statt 1.190 MHz)."

MfG,
Raff
Danke für die Mühe, doch dort ist nichts davon zu sehen wie hoch die einzelnen Boosttakte waren. Daher halte ich das nicht für eine Erklärung wie ihr 1150 MHz in jedem einzelnen Benchmark der Spiele verzeichnet habt. Dort steht sogar für den Nachtest:
Mit anderen Worten: Die zweite Karte kann ihren Boost etwas höher halten als die erste. Wir haben wie gehabt das 20 Spiele umfassende PCGH-Portfolio mit der neuen 8G-Karte überprüft, die Boosts protokolliert und anschließend einen Mittelwert aus den Werten beider Karten gebildet. Mit diesem und der Radeon Software Crimson 16.7.1 haben wir die RX 480/8G neu indiziert, flankiert von der RX 480/4G, welche im Mittel minimal höhere Frequenzen erreicht (rund 1.200 statt 1.190 MHz).
Wieso steht dann nicht 1190 dort? Und wurde und nun mit 1150 gemessen?
Die Diskrepanzen erhöhen sich mit jeder weiteren Quelle. Nur die gemessenen 20 Turbowerte darf niemand erfahren.

Anblaffen? Das war ein ganz normales Posting, die "Töne" entstehen im Kopf. :)

Ihr versteht nicht, dass wir auch Menschen sind. Alle drei Postings pinkelt uns einer ans Bein und wir müssen uns rechtfertigen. Niemand kommt auf die Idee, dass wir uns etwas dabei gedacht haben (Stichwort Erfahrung) und dass das tierisch nervt. Insofern ist vielleicht der einzige Fehler, auf jedes Motzen einzugehen. Eingefahrene Kritiker lassen sich von Fakten nicht beirren, PCGH bleibt aus unerklärlichen Gründen in der Schublade des Bösen. Und das alles nur wegen, wenn's ganz schlimm kommt, drei Prozent Leistungsdifferenz. :ugly:

MfG,
Raff
Du hast die Erklärung doch selber geliefert. Solange du der Meinung bist das entsteht bei anderen im Kopf dass sie angeblafft werden. Und wenn ihr noch so viel Erfahrung habt, so ist diese Testmethodik und eure Online-Charts nicht transparent und eben nicht als relevante Quelle einzustufen IMHO. Leonidas sollte eure Daten hier nicht nutzen da sie schon verfälscht sind.

Und über eure Aussenwirkung solltet ihr euch Gedanken machen wenn ihr in anderen Foren postet. Mich fragt auch kein Kunde ob ich gestresst bin nach wochenlangen 12 Stunden Tagen - wenn ich dann patzig bin muss ich auch den Ton der Antwort aushalten.

Linmoum
2016-07-08, 14:47:19
Wieso steht dann nicht 1190 dort? Und wurde und nun mit 1150 gemessen?
Die Diskrepanzen erhöhen sich mit jeder weiteren Quelle. Nur die gemessenen 20 Turbowerte darf niemand erfahren.
Die 1190MHz für die 8GB und 1200MHz für die 4GB werden im Index aufgeführt.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

UnderTheRock
2016-07-08, 14:48:45
Mal eine andere, halb-spekulative Frage: Wie hoch schätzt du die Wahrscheinlichkeit ein, daß AMD eine "Rev.2" mit neu optimierter Spannungsversorgung auf dem PCB auflegen wird? Aus dem Bauch raus würde ich denken, daß man das Geld und die Zeit für so eine relative Kleinigkeit kaum opfern wollen wird.
Wenn, dann hätte man jetzt die Rev1-Karten mit dem Kompatibilitätsmodus auf <150W eingebremst.

Tru
2016-07-08, 14:49:25
Wieso steht dann nicht 1190 dort? Und wurde und nun mit 1150 gemessen?
Die Diskrepanzen erhöhen sich mit jeder weiteren Quelle. Nur die gemessenen 20 Turbowerte darf niemand erfahren.

RX 480 Exemplar 1 Vanilla: 1.150 MHz Durchschnitt
RX 480 Exemplar 2 + Crimson 16.7.1: 1.190 MHz Durchschnitt
RX 480 Exemplar 3 (4G) + Crimson 16.7.1: 1.200 MHz Durchschnitt

Schaffe89
2016-07-08, 14:57:34
Weißt du warum das so lange dauert? Dachte der Release war lange geplant und Chips sind verfügbar..

Also wenn man mal etwas realistisch ist, sieht es doch so aus, dass AMD keinesfalls eher zu einem Release bereit ist, wie Nvidia mit der GTX 1060.
Alleine wenn Customdesigns der 1060 laut CB Volker schon eher in der Pipeline sind, dann hat AMD eigentlich überhaupt keinen zeitlichen Vorteil mehr.
Und dann wird das auch nichts mit Marktanteilen die man zurückholen soll, ich denke man wird eher stark verlieren.

Linmoum
2016-07-08, 15:00:33
Alleine wenn Customdesigns der 1060 laut CB Volker schon eher in der Pipeline sind, dann hat AMD eigentlich überhaupt keinen zeitlichen Vorteil mehr.
Bitte seinen Beitrag auch richtig lesen. Er sprach davon, dass in der Redaktion womöglich eher 1060 Customs als 480er aufschlagen. Das sagt immer noch rein gar nichts über die letztendliche Verfügbarkeit am Markt aus und die ist am Ende entscheidend.

Schaffe89
2016-07-08, 15:05:57
Wieso steht dann nicht 1190 dort? Und wurde und nun mit 1150 gemessen?
Die Diskrepanzen erhöhen sich mit jeder weiteren Quelle. Nur die gemessenen 20 Turbowerte darf niemand erfahren.


Ist auch besser so, sonst würde die Unnötige Diskussion hier nicht ewig weiter gehen.
Schreib doch eine konstruktive Kritik an das Feedback der PCGH, anstatt hier rumzumosern.
Die erste Karte machte 1150mhz,die anderen beiden 1190 bzw 1200.
Ich hab mittlerweile auch eine rx480 für ein Paar Stunden testen dürfen ( neuer Rechner für einen Freund ), die Karte lief in seinem Gehäuse ( 2 Gehäuselüfter ) in der Praxis grade mal knapp über dem Takt von 1120mhz. Also ist die von PCGH nicht mal die schlechteste gewesen.
Mit neuer Wärmeleitpaste und etwas Wattman Undervolting läuft sie nun durchgehend mit >1200mhz.

Bitte seinen Beitrag auch richtig lesen. Er sprach davon, dass in der Redaktion womöglich eher 1060 Customs als 480er aufschlagen.

Ist das jetzt die Resthoffnung, dass AMD noch Kohle macht bevor Nvidia auf den Markt kommt, oder wie darf ich das verstehen?
Wieso nimmt man bei Nvidia immer grundlos an, dass die Karten nicht verfügbar sind, währen sie bei AMD verfügbar sind?

Außerdem: Eher Customkarten in der Redaktion bedeutet nicht zwingend eher Customkarten bei den Distris, es ist aber ein gutes Zeichen dafür, imho relativ grundlos anzunehmen, dass es nicht so sei.

Screemer
2016-07-08, 15:06:46
Die Schienen sind getrennt. Spannung da - Stecker dran.
Alles klar. Die Karte hat dann ja dann nur etwa 50% der Leistung abrufen. Startet die Karte so überhaupt. Ich kenn das hald so, dass dann die Karte nicht anläuft. Das ging doch aufgrund des sensingpins. Wie ist das nun gelöst.

Linmoum
2016-07-08, 15:13:27
Ist das jetzt die Resthoffnung, dass AMD noch Kohle macht bevor Nvidia auf den Markt kommt, oder wie darf ich das verstehen?
Wieso nimmt man bei Nvidia immer grundlos an, dass die Karten nicht verfügbar sind, währen sie bei AMD verfügbar sind?

Außerdem: Eher Customkarten in der Redaktion bedeutet nicht zwingend eher Customkarten bei den Distris, es ist aber ein gutes Zeichen dafür, imho relativ grundlos anzunehmen, dass es nicht so sei.
Ich nehme bei keinem irgendwas an, das ist einfach nicht automatisch gleichbedeutend mit entsprechender, guter Verfügbarkeit am Markt. Nicht mehr und nicht weniger.

Gipsel
2016-07-08, 15:19:13
Wie sieht es eigentlich bei den peg-steckrrn aus? Sind solche Konstrukte a la 480 erlaubt oder kannst da Probleme mit nts geben? Den sense wegzulassen kann das zu Problemen führen oder ist der irrelevant? Wie stellt amd bei der 480 fest ob der Peg eingestekct ist und was passiert wenn er es nicht ist? Fragen über Fragen.Alles klar. Die Karte hat dann ja dann nur etwa 50% der Leistung abrufen. Startet die Karte so überhaupt. Ich kenn das hald so, dass dann die Karte nicht anläuft. Das ging doch aufgrund des sensingpins. Wie ist das nun gelöst.Hatte ich das nicht schon mal erklärt? Die Funktion des Sense übernimmt praktisch der VRM-Controller. Der kann detektieren, welche Phasen versorgt sind und welche nicht und kann dann entweder eine entsprechende Fehlermeldung absetzen und/oder die nicht versorgten Phasen deaktivieren. Die Deaktivierung funktioniert auf der RX480 aber nicht da offenbar die Phasen 1-3 vom PCIe-Stecker versorgt werden (und Phasen nur beginnend bei den höher numerierten deaktiviert werden können), der GPU-Kern kann also gar nicht mit Spannung versorgt werden, wenn der 6Pin-Stecker fehlt. Die Karte bzw. das Mainboard wird dann wohl entsprechend in irgend einer Weise einen Fehler kommunizieren, da der GPU-Kern schlicht keinen Saft bekommt. Es besteht also nicht die Gefahr, daß mit einem Mal versucht wird, die komplette Karte aus dem PCIe-Slot zu versorgen (solange man nicht auf der Karte rumlötet und die 12V zwischen 6Pin-Stecker und Slot verbindet).

Und wie das mit den PCIE-Steckern aussieht und es Probleme mit Netzteilen geben kann? Solange man nicht versucht mehr zu ziehen, als das Netzteil kann (was dann hoffentlich abschaltet), sehe ich keine Probleme.
Bei einem 6Pin-Stecker müssen netzteilseitig sowieso alle 3 Massepins verbunden sein (der mittlere wird traditionell als Sense benutzt; indem eine Spannung über einen Widerstand auf Masse gezogen wird, kann festgestellt werden, ob da Masse dran hängt; aber ob das gemacht wird oder nicht, kümmert das Netzteil nicht). Theoretisch müssen nur zwei 12V-Pins verbunden sein, ich habe aber noch keinen einzigen 6Pin-Stecker gesehen, wo nicht alle drei 12V Pins präsent waren. Dies gilt insbesondere für die teilbaren 6+2 Pin-Stecker, da bei den 8Pin-Stecker zwingend die drei 12V-Pins belegt sein müssen.
Wie auch immer, die einzelnen Pins von den 6Pin-Steckern halten normalerweise deutlich mehr aus. Wenn das nicht vom Netzteil limitiert wird, ist es eigentlich völlig unproblematisch 150W über einen 6Pin-Stecker zu schicken, insbesondere wenn (wie bei der RX480) tatsächlich alle Pins benutzt werden (der 6Pin bei der RX480 ist effektiv von den nutzbaren Verbindungen äquivalent zu einem 8Pin-Stecker). Effektiv wird das bei billigen Netzteilen eher von den Kabeldurchmessern zum Stecker limitiert als vom Stecker selber. Je nachdem, was da verbaut ist, kann das wohl zwischen 8A und bis zu 12A variieren (an den meisten Netzteilen sind wohl beim 6Pin für 11A pro Pin geratete Stecker/Kabeldicken dran [entsprechen dann HCS, ist seit mehr als 10 Jahren in der ATX-Norm so festgeschrieben]). Aber selbst die Standardstecker von Uralt-Netzteilen sind bei 6Pin-Steckern mit 8A pro Pin gerated (das Rating hängt von der Größe des Steckers ab; die gleichen Pins im 20/24 poligen ATX-Stecker haben nur ein Rating von 6A pro Pin). Im Worstcase mit nur zwei verbundenen 12V-Pins und Standardsteckern passen immer noch 16A (um 192W, je nach Spannung) drüber (falls man nicht nur ein Mini-Netzteil verbaut hat, was nach Versorgung der CPU kein Spielraum mehr für die Grafikkarte hat oder einen Chinaböller mit Klingeldrähten zum Stecker). Bei den üblicherweise verkabelten drei 12V-Pins dann schon mindestens 24A (288W, gilt auch für 8 Pin-Stecker an einfacheren Netzteilen).
Und wie gesagt sollten etwas neuere Netzteile eigentlich alle mit HCS-Steckern daher kommen, die 11A pro Pin vertragen (9A im 20/24Pin-ATX-Stecker, bei hochpreisigen Netzteilen kann man sogar HCS+ mit 12A pro Pin im PCIE-Stecker und 11A pro Pin im ATX-Stecker erwarten). Damit gehen dann mit 2 verbundenen 12V-Pins (oder einer Karte, die nur 2 Massepins nutzt und den dritten als Sense) insgesamt 22A (~264W) und bei der Verkabelung wie bei der RX480 (je drei nutzbare Pins wie beim 8Pin) 33A (~396W).
Und das ist wie gesagt dann erst ein einzelner voll verdrahteter 6Pin-Stecker. Also an den Steckern scheitert das ganz sicher nicht, die haben reichlich Reserven. ;)

von Richthofen
2016-07-08, 15:29:51
Also wenn man mal etwas realistisch ist, sieht es doch so aus, dass AMD keinesfalls eher zu einem Release bereit ist, wie Nvidia mit der GTX 1060.
Alleine wenn Customdesigns der 1060 laut CB Volker schon eher in der Pipeline sind, dann hat AMD eigentlich überhaupt keinen zeitlichen Vorteil mehr.
Und dann wird das auch nichts mit Marktanteilen die man zurückholen soll, ich denke man wird eher stark verlieren.

Bei AMD dauert alles zu lange und dann geht trotzdem noch zu viel schief.
Es wurde kein 4 GB-Design aufgelegt und die umgelabelten "4GBs" sind seit Tagen ausverkauft und aus der Listung raus. Was macht man nun: Nichts. Man wartet bis in endlich zwei, drei Wochen die Customdesigns langsam eintropfen. Bis dahin verkauft man an der Stelle gar nichts.
Lediglich 8 kümmerliche Plastikdesigns werden derzeit angeboten. Und das soll ein Major-Release sein? In zwei, drei Wochen ist nV auch mit der schnelleren 1060 am Markt und Customdesigns werden dann wohl auch verfügbar sein. Die Bilder der PCBs schweben schon allerorts herum, während bei AMD ab und an mal ein Bildchen einer Nitro oder Devil gezeigt werden....das reicht doch alles nicht um dem Konkurrenten ernsthaft die Stirn zu bieten.

Screemer
2016-07-08, 15:33:09
@gipsel: Sauber zusammengefasst. Das mir dem vrm-controller hatte ich so nicht mehr auf dem auf dem Schirm. Hattest ja mal die specs von diesem gepostet und auch sonst schon mal den Großteil erläutert. Das mit dem loadbalancing hatte ich aber verdrängt. Durch die Verteilung der Phasen auf und pci-e hat sich das mit dem senspin ja automatisch erledigt.

Mir ging es aber daneben weniger um das was die Stecker und Leitungen abkönnen, denn was da möglich ist war mir bewusst. ich sag nur 295x2. Da gabs ja Diskussion zur Genüge. Wenn man die specs aber als bindend auslegt, dann verstößt eine solche Peg-belegung doch die specs ganz eindeutig. Kein senspin ist schlicht nicht vorgesehen und auch 3 12v Pins bei nem 6pin nicht. 75w sind halt als Limit angegeben. Oder irre ich mich da? Das das ganze schon seit längerem anderen gehandhabt wird ist auch klar. Wie belasten eigentlich aktuelle nv-karten den Peg? Muss ich gleich mal schauen.

mironicus
2016-07-08, 15:39:15
Das mangelnde Angebot an AMD-Karten ist doch nicht ungewöhnlich. Ende des Monats gibt es vielleicht 3-5 Customdesigns für die RX 480 und über 25+ für die GTX 1060.

iuno
2016-07-08, 15:41:00
Selbe Situation wie bei Notebooks mittlerweile wo OEMs keine ordentlichen Geraete mit AMD verkaufen wollen.
So gibt es auch immer weniger gute Customs mit AMD Chip :P

Aber da wuerde ich mal noch nicht den Teufel an die Wand malen. Was bringen 20 customs von denen 10 billige Referenz sind und die anderen sich auch quasi nichts schenken? Sapphire hat immer ordentliche Karten abgeliefert, andere wie PowerColor sind auch nicht schlecht. Man muss halt Abstand von Marken wie ASUS nehmen ;p

Gipsel
2016-07-08, 15:41:50
Kein senspin ist schlicht nicht vorgesehen und auch 3 12v Pins nicht. Oder irre ich mich da?Was heißt denn kein Sensepin? Technisch ist das netzteilseitig nur ein weiterer Massepin. Das Sense findet sowieso auf der Grafikkarte statt. Und da würde ich mich auf den Standpunkt stellen, daß es doch egal ist, wie genau sichergestellt wird, daß die Karte ordnungsgemäß verhindert, daß ihr voller Stromverbrauch nur über den PCIe-Slot gedeckt wird, falls kein 6Pin angeschlossen ist (alternative theoretische Möglichkeit wäre ein Betrieb mit reduziertem Verbrauch und entsprechende Hinweismeldung auf fehlenden 6Pin nach Laden des Treibers [gab es afair früher mal bei einigen Modellen]; aber das ist die Luxusvariante, Verweigern des Betriebs ist von der Spec her erlaubt). Mir fällt kein Grund ein, warum man den Sensepin nicht auch einfach als Massepin nutzen sollte, was er netzteilseitig nunmal ist (der ist nicht irgendwie anders belegt oder so, die Bezeichnung beschreibt hier nur eine Funktion, kein Eigenschaft).
Und 3x 12V sind nun mal die gelebte Praxis. Und die Karte läuft auch völlig normal, falls der mittlere 12V-Pin mal nicht belegt sein sollte. Die drei Pins sind auf der GraKa sowieso alle verbunden (was Spec-konform ist), das würde auch mit nur einem verbundenen 12V-Pin laufen.

y33H@
2016-07-08, 15:51:28
6P mit nur 2x 12V gab's zuletzt bevor der 8P eingeführt wurde ... was gefühlt ewig her ist.

Mr. Lolman
2016-07-08, 15:56:22
Sorry, falls die Frage schon behandelt wurde, aber wie wird bei PCGH der Takt auf der 480 fixiert? Wenn man den Mittelwert fix einstellt und man dann ein Spiel bencht, welches den Schnitt gedrückt hat, wird der Mittelwert doch in ebendiesem Spiel nicht erreicht. Wird da etwa zusätzlich zur Taktfixierung noch das PT erhöht, oder wie kann ich mir das vorstellen?

M4xw0lf
2016-07-08, 16:00:49
Sorry, falls die Frage schon behandelt wurde, aber wie wird bei PCGH der Takt auf der 480 fixiert? Wenn man den Mittelwert fix einstellt und man dann ein Spiel bencht, welches den Schnitt gedrückt hat, wird der Mittelwert doch in ebendiesem Spiel nicht erreicht. Wird da etwa zusätzlich zur Taktfixierung noch das PT erhöht, oder wie kann ich mir das vorstellen?
Per WattMan alle Powerstates auf die gemessene ermittelte Taktrate setzen? Nur geraten.

BlacKi
2016-07-08, 16:15:57
keine ahnung ob das schon gepostet wurde. sry wenn doch.
480@1.5
auMsWIeWeu4

Screemer
2016-07-08, 16:16:30
@MrLolman: Der Takt urde nicht fixiert. Sie geben in dem Fall einfach den durchschnittlichen Takt an. Die Diskussion ging hier über mehrere Seiten. Raff hat das mehr als deutlich dargestellt. Zuletzt eine oder zwei Seiten vorher.

@blacki: ich glaub as hab ich auf Seite 89 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11091436#post11091436) oder so mal verlinkt :)

Zwecks Pins und specs: Gut dann hat die gelebte praxis die specs eingeholt/überholt. Warum wurde dann bei der 480 wegen ein paar Ampere so ein Aufriss veranstaltet?

Schaffe89
2016-07-08, 16:29:42
Die Bilder der PCBs schweben schon allerorts herum, während bei AMD ab und an mal ein Bildchen einer Nitro oder Devil gezeigt werden....das reicht doch alles nicht um dem Konkurrenten ernsthaft die Stirn zu bieten.

Wahrscheinlich haben die Boardpartner auch gar kein großes Interesse mehr an AMD, es würde mich nicht wundern wenn außer Sapphire die Boardpartner langsam abwandern, zu Nvidia gehen oder sich andere Aufgabenfelder als PCB´s für GPU´s zu suchen.
Die Marktanteile sind so niedrig, dass es sich wahrscheinlich gar nicht mehr lohnt überhaupt noch für AMD zu produzieren.
Die letzten Zahlen lagen was den dedizierten Bereich angeht irgendwo bei knapp über 20%. Ich schätze die nächsten Zahlen ( Q2;Q3 ) auf etwa 15% ein, wenn nicht weniger.

Selbe Situation wie bei Notebooks mittlerweile wo OEMs keine ordentlichen Geraete mit AMD verkaufen wollen.
So gibt es auch immer weniger gute Customs mit AMD Chip :P

Das liegt aber auch daran, dass AMD einfach keine konkurrenzfähigen Chips mehr produziert, jetzt erwischt es vermutlich auch die Grafikabteilung, genauso wie die CPU(APU Abteilung.
Von der rx470 und 460 hört man mittlerweile ja auch gar nicht mehr, würde mich nicht wundern wenn die erst im August kommen.

Fliwatut
2016-07-08, 16:32:04
Die Releasepolitik aller Hersteller ist echt zum Kotzen. Erst überteuerte Billig Versionen, dann muss man wochenlang auf Customs warten, die mit Glück irgendwann mal verfügbar sind. Das gilt natürlich auch für Nvidia.
Aber hallo! Ich bin gerade auch mächtig sauer, macht echt keinen Spaß dieser blöde Summer of GPU :P

iuno
2016-07-08, 16:36:22
Das liegt aber auch daran, dass AMD einfach keine konkurrenzfähigen Chips mehr produziert, jetzt erwischt es vermutlich auch die Grafikabteilung, genauso wie die CPU(APU Abteilung.
Ob die Chips konkurrenzfaehig sind, kannst du gar nicht beurteilen, ohne die Preise zu kennen, die die OEMs bezahlen.
Geht man nach den Angaben, die wir als Endnutzer haben, sind AMDs APUs und GPUs gegen ihre jeweilige Konkurrenz im selben Preisbereich sehr konkurrenzfaehig. Trotzdem gibt es haufenweise (auch teure) Ultrabooks (o.aeh.) mit Core-M und -i3 und mit APUs eben fast nur Schrott.

Dass es spannend wird, wie sich Polaris im OEM Markt verbreitet, hatte ich ja auch schon erwaehnt. Auf den ersten Blick ist alles top, Nvidia koennte aber fuer OEMs auch gute Preise machen und AMD dahingehend komplett in der Bedeutungslosigkeit verschwinden lassen.

kuj0n
2016-07-08, 16:37:48
Selbe Situation wie bei Notebooks mittlerweile wo OEMs keine ordentlichen Geraete mit AMD verkaufen wollen.
So gibt es auch immer weniger gute Customs mit AMD Chip :P

Aber da wuerde ich mal noch nicht den Teufel an die Wand malen. Was bringen 20 customs von denen 10 billige Referenz sind und die anderen sich auch quasi nichts schenken? Sapphire hat immer ordentliche Karten abgeliefert, andere wie PowerColor sind auch nicht schlecht. Man muss halt Abstand von Marken wie ASUS nehmen ;p

Nur müssen die Karten dann auch kommen. Ich wollte unbedingt eine 480, dann war die Referenz entgegen ersten Infos schlecht. Jetzt gibt es null offizielle Infos, da muss ein englischer Verkäufer die Leute versorgen. Release hofft man auf den 22. bei Sapphire.

Währenddessen sind 1060 Customs mglw. eher bei den Testern. Sollte Galax in DE eine KFA² GeForce GTX 1060 Gamer OC Mini Black, 6GB, mit dem Super Kühler der 960 raus bringen, sieht AMD von mir wohl kein Geld.

Wir werden sehen.

Schaffe89
2016-07-08, 16:41:21
Ob die Chips konkurrenzfaehig sind, kannst du gar nicht beurteilen, ohne die Preise zu kennen, die die OEMs bezahlen.
Geht man nach den Angaben, die wir als Endnutzer haben, sind AMDs APUs und GPUs gegen ihre jeweilige Konkurrenz im selben Preisbereich sehr konkurrenzfaehig.

Ich denke einfach dass es bei Nvidia und Intel diverse Rabatte gibt, damit AMD nicht großartig zum Zuge kommt, wobei das auch gerne als Verschwörungstherie gilt, ich nehme als Beispiel Bocat für Netbooks und kleine Notebooks.
Der verkauft sich super, weil der Chip besser war als die Intels.
Ich denke wenn AMD bessere Chips produziert gibt sich das mit den Marktanteilen und guten Notebooks von selbst, auch was die Marktanteile bei GPU´s angeht, nur AMD hat halt einfach nix was besonders wäre.
Der letzte Chip der Potenzial gehabt hätte, war "King of the Hill" und scheiterte dann an Pumpenfiepen und an dem Irrsin keine luftgekühlten Customdesigns zuzulassen, ohne Wasserkühlung und an nur 4GB RAM.

Cyphermaster
2016-07-08, 17:07:24
Warum wurde dann bei der 480 wegen ein paar Ampere so ein Aufriss veranstaltet?Weil die technischen Hintergründe kaum jemand versteht, und emotionale Reaktionen überhaupt keine Relation zur objektiven Wichtigkeit eines Ereignisses/einer Information/... haben müssen. Bildzeitungs-Effekt.

Cyphermaster
2016-07-08, 17:19:14
Wenn, dann hätte man jetzt die Rev1-Karten mit dem Kompatibilitätsmodus auf <150W eingebremst.Devils' Advocate: Kann man mit einem der späteren Treiber immer noch, wenn R2 fertig ist, indem man den Kompatibiltätsmodus zum (einzig verfügbaren) Defaultsetting macht, oder?
Wahrscheinlich haben die Boardpartner auch gar kein großes Interesse mehr an AMDAuch wenn dem vielleicht aktuell nicht so ist, ist das natürlich eine gewisse Gefahr für jeden kleinen Player in einem Markt. Wobei ich in dem Punkt die Gefahr höher bei den teuren Karten für wenig Stück sehe (d.h. in dem Fall Vega). Da tut jede nicht verkaufte Karte noch mehr weh, weil höhere eigene Investitionen/Karte notwendig sind, die wieder reingeholt werden wollen - und zusätzlich sind diese Karten am stärksten davon abhängig, ob sie die Leistungsspitze stellen können oder nicht (= an sich riskanter). Entsprechend wird man es sich da am Ehesten überlegen, auf eine Version zu verzichten.

kruemelmonster
2016-07-08, 17:25:43
Zwecks Pins und specs: Gut dann hat die gelebte praxis die specs eingeholt/überholt. Warum wurde dann bei der 480 wegen ein paar Ampere so ein Aufriss veranstaltet?

Weil der PCIe Stecker bei allen Netzteilen der letzten 10 Jahre eine Toleranz von gut +100% hat (siehe Gipsel) während das im Vergleich recht schmale Toleranzband der Pins im PCIe Steckplatz sehr deutlich überfahren wurde.

Emil_i_Lönneberga
2016-07-08, 17:44:04
Auch von AC kommt ein FC:

https://forum.aquacomputer.de/wasserk-hlung/107113-neu-kryographics-rx480/

https://forum.aquacomputer.de/images-ac/kryographics_rx480_4.jpg

:love:

Dass es keine Seite gebacken bekommt generell Karten mit einem Fullcover Wasserkühler auf ihr Boost- und OC-Verhalten hin zu testen ist schon starker Tobak. Üblicherweise wird ja auch jedem Furz nachgegangen. Der Großvater 5. Grades meines Nachbarn hat anscheinend ein Gespräch belauscht, nachdem es tatsächlich Homo Sapiens geben soll die Grafikkarten mit Wasser kühlen. Kann man kaum glauben. Auch sollen Watercool, Aquacomputer, EKWB und Co. durchaus bereit sein den Hardwareseiten ein Sample für einen Test zur Verfügung zu stellen. Denn Produktwerbung als Gegenleistung ist cool. In diesem Sinne: Es kann in Zukunft in diesem Punkt nur aufwärts gehen.

Frank1974
2016-07-08, 18:09:33
:love:

Dass es keine Seite gebacken bekommt generell Karten mit einem Fullcover Wasserkühler auf ihr Boost- und OC-Verhalten hin zu testen ist schon starker Tobak. Üblicherweise wird ja auch jedem Furz nachgegangen. Der Großvater 5. Grades meines Nachbarn hat anscheinend ein Gespräch belauscht, nachdem es tatsächlich Homo Sapiens geben soll die Grafikkarten mit Wasser kühlen. Kann man kaum glauben. Auch sollen Watercool, Aquacomputer, EKWB und Co. durchaus bereit sein den Hardwareseiten ein Sample für einen Test zur Verfügung zu stellen. Denn Produktwerbung als Gegenleistung ist cool. In diesem Sinne: Es kann in Zukunft in diesem Punkt nur aufwärts gehen.

Hier hat doch einer etwas getestet, 1,5 GHz aber mit extremen 1,35v Spannung.

https://www.youtube.com/watch?v=auMsWIeWeu4&feature=youtu.be

Und er ist kein 08/15 Overclocker.

mfg
Frank

StefanV
2016-07-08, 18:10:31
6P mit nur 2x 12V gab's zuletzt bevor der 8P eingeführt wurde ... was gefühlt ewig her ist.
Bei DX9 Karten also...

8pin gabs ab DX10 Karten, sprich Radeon HD2x00 Serie und Geforce 8000er Serie...

iuno
2016-07-08, 18:15:00
http://forum.hardware.fr/hfr/Hardware/2D-3D/unique-polaris-finfet-sujet_986197_256.htm#t9872934

Hier wird behauptet, die custom XFX ziehe 10 Ampere ueber den PEG Slot
http://www.hardware.fr/medias/photos_news/00/51/IMG0051218_1.jpg

Das Board hat einen 8 Pin und Dual-BIOS Schalter. Den gibt es ja bei der Referenz nicht mehr oder (die Frage meinerseits ging hier glaube ich unter). Das PCB ist auch sichtbar laenger als die Referenz

Insofern haette das XFX selbst derart verbockt, das haette denen doch auch auffallen muessen.
Ergibt aber auch keinen Sinn. 2*10A bei 12 V waeren 240 Watt... bei 1328 MHz? Wohl eher nicht... Vielleicht soll es aber auch nur um die Power Limits gehen

Edit: Das soll aber wohl ein fruehes Sample sein, dass die nur fuer Feedback bekommen haben. Offenbar sind die Partner jetzt nervoes und wussten angeblich nichts von dem Problem. Man halte sich trotzdem an Vorgaben der Referenzboards und sonst sei die Kommunikation von AMD schlecht gewesen - meint zumindest der Redakteur.
Insofern koennten sich Customs auch noch etwas verzoegern...


Edit2: hier gibt es weitere Bilder zur MSI:
https://gathering.tweakers.net/forum/view_message/47531597

https://i.imgur.com/fORNDHO.jpg

Edit3: ;D neues von The Stilt:
http://www.overclock.net/t/1604979/a-temporary-fix-for-the-excess-pci-e-slot-power-draw-for-the-reference-rx-480-cards/110#post_25324219

tl;dr: "-50%" PowerTune ist die alte "0". Jetzt 165 Watt bei "0", knapp 250 W bei +50%. Speicher geht jetzt auf max. 2500 statt 2250 MHz

Screemer
2016-07-08, 18:30:20
Weil der PCIe Stecker bei allen Netzteilen der letzten 10 Jahre eine Toleranz von gut +100% hat (siehe Gipsel) während das im Vergleich recht schmale Toleranzband der Pins im PCIe Steckplatz sehr deutlich überfahren wurde.
Bei der Nutzung von 5 Pins, wenn wir von 1,375A pro Pin nach spec ausgehen, um 16.36% und das bei 8A was die Karte niemals im Schnitt erreicht. Realistiach sind eher um die 7-7,5A und dann liegen wir bei lächerlichen 5,5-9%. deutlich ist für mich zumindest was anderes.

Emil_i_Lönneberga
2016-07-08, 18:38:25
Hier hat doch einer etwas getestet, 1,5 GHz aber mit extremen 1,35v Spannung.

https://www.youtube.com/watch?v=auMsWIeWeu4&feature=youtu.be

Und er ist kein 08/15 Overclocker.

mfg
Frank

Bei einer MOSFET Temperatur von 105°C, weil sie blank bei 1,35V von einem lauen Lüftchen angeblasen wurden. Ergo wenig mit Fullcover vergleichbar und mir geht es auch nicht um irgendwelche Hardmod-Modifikationen.

Screemer
2016-07-08, 18:40:01
http://forum.hardware.fr/hfr/Hardware/2D-3D/unique-polaris-finfet-sujet_986197_256.htm#t9872934

Hier wird behauptet, die custom XFX ziehe 10 Ampere ueber den PEG Slot
http://www.hardware.fr/medias/photos_news/00/51/IMG0051218_1.jpg

das layout lässt ja schon mal bis zu 8+1 phase zu. overkill D:

(del)
2016-07-08, 18:43:49
:love:
Dass es keine Seite gebacken bekommt generell Karten mit einem Fullcover Wasserkühler auf ihr Boost- und OC-Verhalten hin zu testen ist schon starker Tobak. Üblicherweise wird ja auch jedem Furz nachgegangen. Der Großvater 5. Grades meines Nachbarn hat anscheinend ein Gespräch belauscht, nachdem es tatsächlich Homo Sapiens geben soll die Grafikkarten mit Wasser kühlen. Kann man kaum glauben. Auch sollen Watercool, Aquacomputer, EKWB und Co. durchaus bereit sein den Hardwareseiten ein Sample für einen Test zur Verfügung zu stellen. Denn Produktwerbung als Gegenleistung ist cool. In diesem Sinne: Es kann in Zukunft in diesem Punkt nur aufwärts gehen.

Jetzt lass mal die Luft ab. Drei Hersteller habe ich angefragt und? Nichts bekommen. Ich gehe nicht zweimal betteln.

Und der Dreck, den einer mit dem Raijintek-Kühler gemacht hat, gehört in die Kategorie "Bitte nicht nachmachen, Kinder". Ohne aktive Kühlung, das habe ich getestet, sind es schnell über 110°C an den VRM und nach ein paar Minuten auch am Slot. Das geht, vor allem im Gehäuse, nicht lange gut.

Frank1974
2016-07-08, 18:59:35
Bei einer MOSFET Temperatur von 105°C, weil sie blank bei 1,35V von einem lauen Lüftchen angeblasen wurden. Ergo wenig mit Fullcover vergleichbar und mir geht es auch nicht um irgendwelche Hardmod-Modifikationen.

Er hat doch alles im Video erklärt, weiter wird man nicht kommen, ich bin da auch kein Experte, er ist es aber.

Das Video war ja nur als Info gedacht, wollte nur helfen, jeder muss einen hier sofort blöd anmachen ':(

mfg
Frank

iuno
2016-07-08, 18:59:38
Und der Dreck, den einer mit dem Raijintek-Kühler gemacht hat, gehört in die Kategorie "Bitte nicht nachmachen, Kinder". Ohne aktive Kühlung, das habe ich getestet, sind es schnell über 110°C an den VRM und nach ein paar Minuten auch am Slot. Das geht, vor allem im Gehäuse, nicht lange gut.

einer? ;D
Ich glaube normal hantiert er eher mit LN2, das muss auch nicht lange gut gehen ;)

Ist eigentlich noch von irgendwem eine Art sweetspot-analyse zu P10 geplant?
Mich wuerde mal interessieren wie viel bei dem Chip noch so mit Pascal-aehnlichen Spannungen oder <1,0V geht, wie viel Leistung bei x Watt uebrig bliebt (75?), Vergleich zu 28 nm AMD Karten (1 GHz, angepasste Spannung) usw...

Frank1974
2016-07-08, 19:04:29
einer? ;D
Ich glaube normal hantiert er eher mit LN2, das muss auch nicht lange gut gehen ;)

Ist eigentlich noch von irgendwem eine Art sweetspot-analyse zu P10 geplant?
Mich wuerde mal interessieren wie viel bei dem Chip noch so mit Pascal-aehnlichen Spannungen oder <1,0V geht, wie viel Leistung bei x Watt uebrig bliebt (75?), Vergleich zu 28 nm AMD Karten (1 GHz, angepasste Spannung) usw...

Im Video erklärt er doch das die bis 125 Grad ausgelegt sind und 105 macht da noch nix aus.

/edit
Die Karte hat auch knapp 300Watt gezogen, aber wie gesagt bin nicht der Experte, aber er wird schon wissen was er macht, denke ich mal :)
Er hat das ganze auch nur gemacht um zu zeigen das die Custom Hersteller nicht weit kommen, und die Leute sich keine Illusionen machen sollen von 1,6 GHz oder mehr.

mfg
Frank

Gipsel
2016-07-08, 19:07:29
das layout lässt ja schon mal bis zu 8+1 phase zu. overkill D:Wie zählst Du denn da die Phasen?
Das wird vermutlich der gleiche VRM-Controller wie auf der Referenz sein und ich sehe da nur Platz für 6 Phasen für die GPU (4 davon bestückt). Dafür wird man dem Speicher zwei statt nur einer Phase spendiert haben, was vielleicht sogar besser ist, um den RAM-Takt ordentlich hochziehen zu können. Nur 4 Phasen für die GPU spricht ja auch irgendwo Bände, daß die 6 Phasen bei der Referenz doch etwas overdesigned sind.
Vermutlich hätte AMD mit dem neuen Treiber auch schlicht die 6. Phase ausknipsen können. Dann hätte man die schlechtere Effizienz durch die ungleiche Belastung der Phasen verhindert und wohl mindestens das Gleiche am Slot eingespart. Denn jetzt hat man an den stärker belasteten Phasen etwas höhere Verluste durch den Innenwiderstand der MOSFETs, ohne die zum Schalten der MOSFETs der sechsten Phase nötige Leistung einzusparen.
Also bei den Kennlinien von ein paar zufälligen Spannungsreglern, die ich so gesehen habe, lohnt es sich typischerweise eine Phase abzuschalten, wenn die Last etwa ein Drittel der Maximallast oder weniger beträgt. Und die RX480 läuft standardmäßig bei weniger als einem Drittel der Maximalkapazität der VRMs, der Wirkungsgrad der Wandler dürfte also mit nur 5 Phasen sogar steigen. Laut TheStilt liegt ja sogar das im Wandler programmierte OCP-Limit bei 38A pro Phase (also 228A insgesamt, das wird allerdings über eine gewisse Zeit [ich glaube einige zehn µs] geglättet, Spikes können höher sein, ohne die OCP zu triggern), da wäre also noch massig Platz nach oben, die RX480 kann im Auslieferungszustand die Kapazität der 6 Phasen also nie und nimmer nutzen.

Screemer
2016-07-08, 19:28:42
Ups ich im Quote den falschen Teil gelöscht. Wollte eigentlich das msi Bild lassen. Da zähl ich zwei Links und bis zu 6 rechts. Also eher 6+2. Keine Ahnung wie ich vorhin rechts auf 8 kam.

(del)
2016-07-08, 19:30:38
Im Video erklärt er doch das die bis 125 Grad ausgelegt sind und 105 macht da noch nix aus.

/edit
Die Karte hat auch knapp 300Watt gezogen, aber wie gesagt bin nicht der Experte, aber er wird schon wissen was er macht, denke ich mal :)
Er hat das ganze auch nur gemacht um zu zeigen das die Custom Hersteller nicht weit kommen, und die Leute sich keine Illusionen machen sollen von 1,6 GHz oder mehr.

mfg
Frank

Im Video erklärt er eine Menge, vor allem Stuss. Nur dass die Caps daneben eben NICHT für 120°C ausgelegt sind und dass die Hitze übers PCB in nur wenigen Minuten so einen fetten Hotspot erzeugt, der auch bis in den Slot reicht. Die weit über 100°C im Slot verschweigt er dann genauso eifrig, wie das aufgeheizte Manboard. Frickler und Youtube halt. :D

Frank1974
2016-07-08, 19:38:29
Im Video erklärt er eine Menge, vor allem Stuss. Nur dass die Caps daneben eben NICHT für 120°C ausgelegt sind und dass die Hitze übers PCB in nur wenigen Minuten so einen fetten Hotspot erzeugt, der auch bis in den Slot reicht. Die weit über 100°C im Slot verschweigt er dann genauso eifrig, wie das aufgeheizte Manboard. Frickler und Youtube halt. :D

Ok gut zu wissen, er hört sich also wie ein Experte an, ist es aber nicht :biggrin:

mfg
Frank

kuj0n
2016-07-08, 19:41:19
Bilder aktueller Customs: https://imgur.com/a/DnI4v

Zweite von oben ist die Powercolor. Da ist der Termin auch der 22. Juli.

(del)
2016-07-08, 19:57:20
Ok gut zu wissen, er hört sich also wie ein Experte an, ist es aber nicht :biggrin:

mfg
Frank
Er ist auf seine Art schon ein Experte, alledings mit einer nonchalanten Missachtung des Produkts und umso mehr Gottvertrauen. Deshalb auch die Kategorie "nicht nachmachen". Dass man per I2C rumspielen kann, ist ja nun nicht bahnbrechend neu.

von Richthofen
2016-07-08, 20:13:38
Da im aktuellen GPU-Z die VRM-Temps nicht angezeigt werden:
Besteht die Möglichkeit dass dies in einer späteren Version nachgereicht wird oder ist das hardwaretechnisch nicht vorgesehen - Stichwort Einsparpotential?
Das Dualbios hat es ja leider auch nicht in die Referenz geschafft.

Noch mehr Bilder:
http://videocardz.com/62059/asus-msi-gigabyte-powercolor-and-sapphire-custom-radeon-rx-480-pictured

Emil_i_Lönneberga
2016-07-08, 20:21:07
Er hat doch alles im Video erklärt, weiter wird man nicht kommen, ich bin da auch kein Experte, er ist es aber.

Das Video war ja nur als Info gedacht, wollte nur helfen, jeder muss einen hier sofort blöd anmachen ':(

mfg
Frank

:comfort2:

Hasenpfote
2016-07-08, 21:05:56
Noch mehr Bilder:
http://videocardz.com/62059/asus-msi-gigabyte-powercolor-and-sapphire-custom-radeon-rx-480-picturedDreifach Lüfter? Oh man... Die MSI und Gigabyte sehen nett aus, Sapphire kommt mir nicht mehr ins Haus... Bin gespannt...

Nvidia hat die deutschen Preise inklusive Steuern bekanntgegeben: Die nur über Nvidias Online-Shop erhältliche Founder's Edition kostet 320 Euro, die Custom-Designs sollen bei 280 Euro starten. Die Radeon RX 480 kostet samt Steuern offiziell 255 Euro - Preise für Modelle von Partnern liegen uns noch nicht vor.Nun bin ich gespannt, wie sich das entwickelt... 280Euro für ne Custom 1060, dann können die AMD Customs ja max bei 230Euro liegen, eher weniger. Also zumindest im 200-300Euro-Segment geht ja wider Erwarten vielleicht doch was...

(del)
2016-07-08, 21:06:10
Da im aktuellen GPU-Z die VRM-Temps nicht angezeigt werden:
Besteht die Möglichkeit dass dies in einer späteren Version nachgereicht wird oder ist das hardwaretechnisch nicht vorgesehen - Stichwort Einsparpotential?
Das Dualbios hat es ja leider auch nicht in die Referenz geschafft.

Was glaubst Du, warum ich mir so viel Mühe mache und die Karten aufwändig zerlege? Und ganz im Vertrauen: die VRM-Temps selbst waren noch nie exakt auslesbar. Wobei die Sesoren seinerzeit zumindest annähernd gute Anhaltspunkte lieferten.

Aktuell habe ich gerade eine 1080 HOF geschlachtet, da musste ich gaaanz tief in die Schraubenkiste greifen, um den Frame auch ohne Backplate wieder festzubekommen, damit ich die VRM-Temps messen kann. Ich finde die meisten Reviews viel zu oberflächlich, denn das wichtigste, die Wärmeverteilung über das PCB, schaut sich kaum wer an. Ich finde es ja schon traurig, dass ich mache R&D regelmäßig mit Aufwärmvideos beliefere, weil die es selbst nicht hinbekommen.

Ein schönes Beispiel ist die RX 480 nach dem Treiberwechsel. Man sieht nun die Last weiter oben (die oberen 3 Phasen müssen mehr leisten). Aber nach spätestens einer Stunde sind sowohl die CPU erreicht, als auch der Slot. 96°C sind sicher noch vertretbar, aber das ist ohne OC. Wenn der Gaga-Typ aus dem Video da jetzt 300 Watt durchgejagt haben will, dann ist das Grillkohle ohne VRM-Kühlung.

http://i.imgur.com/YIAs76V.jpg

Grendizer
2016-07-08, 21:12:53
Dreifach Lüfter? Oh man... Die MSI und Gigabyte sehen nett aus, Sapphire kommt mir nicht mehr ins Haus... Bin gespannt...


Die Devil sieht geil aus.... aber ich warte die 1060 trotzdem erstmal ab... danach kann man immernoch entscheiden.

von Richthofen
2016-07-08, 21:19:42
@Format_C
Dein Aufwand in allen Ehren, nur schau ich mir die VRM-Temperaturen, wennauch ungenau, eben gern nach einem Umbau unter typischen Einsatzszenarien schnell zwischendurch mal an um zu kucken welches Spiel wie auf die Karte wirkt oder ob ich eventuell großen Mist zusammengebastelt habe. Insofern ist GPU-Z das Mittel der Wahl. Hab mich da schon sehr dran gewöhnt. Nebenbei bemerkt werden mittlerweile auch Tahiti's VRMs ausgelesen. Das gab es glaube ich nicht von Anfang an.

(del)
2016-07-08, 21:44:43
Tahiti geht schon ewig, aber das ist gefühlte 100 Jahre her :D

Screemer
2016-07-08, 22:01:43
vrm1 meiner xfx 290 dd black wird ohne oc und laut gpz-z nach ca. 15 minuten divison 110°C warm. so bleibt die dann egal wie lange ich spiele. vrm2 bewegt sich immer so um die 70°C. ich hab sogar noch mal extra kühlkörper auf der grundplatte über dem vrm1 angebracht. das 0 gebracht. entweder ist da was am sensor im arsch oder die ist einfach abartig. die xfx ist aber seit release bekannt für das problem.

hier gibts jemanden mit dem gleichen problem: http://www.overclock.net/t/1517379/decrease-290-xfx-dds-hot-vrm-temps

bei ihm haben die kühlerchen wenigstens ein wenig linderung gebracht. meine brät nun schon gut 2 jahre im eigenen saft. ich stell die gern auch als testobjekt zur verfügung. natürlich bei adäquatem ersatz :ugly:

TerrorZivi
2016-07-08, 22:35:26
HWinfo64 zeigt mir im Moment zwischen 100 - 105° Celsius für die VRM-Temp an, ohne Gewähr. Das ist jetzt mit dem Twin Turbo II + 2 * 120mm Lüfter, VRM liegen blank, da kein geeigneter Kühlblock da war und bis der Wasserkühler da ist müssen se so leben. Mit dem Werkskühler waren es glaube ich so 80° Celsius. Ausgelesen wurde das beim Mining.

Gynoug MD
2016-07-08, 22:38:26
Ich finde die meisten Reviews viel zu oberflächlich, denn das wichtigste, die Wärmeverteilung über das PCB, schaut sich kaum wer an.

Wen interessiert bei 250-800€ Karten aka Elektroschrott von morgen schon die Langzeit-Qualität/-Stabilität,
lieber ergehen sich (alle?) Reviews seitenweise über so wichtige+tolle Details wie
RGB-Beleuchtung, Farben der Abdeckung, Lüfterabschaltungen oder OC-tripleplus-Versionen mit 20MHz mehr...

von Richthofen
2016-07-08, 23:29:27
vrm1 meiner xfx 290 dd black wird ohne oc und laut gpz-z nach ca. 15 minuten divison 110°C warm.

Das is aber schon nah an der Waldfee. Da lief die Ref. 290X hier wesentlich kühler und mit dem wuchtigen Morpheus im offenen Aufbau nie über 90 hinaus.

HWinfo64 zeigt mir im Moment zwischen 100 - 105° Celsius für die VRM-Temp an, ohne Gewähr.
Auch nicht wenig aber genau die Info die ich wollte, danke. Die Hardware ist also durchaus in der Lage die VRM-Temps zu kommunizieren - nur ist GPUZ noch nicht so weit. Hoffentlich bringen die das zeitnah auch für die Polaris' rein.

Edit: Wobei, VRM2 is mit 26 Grad a bissel sehr kühl.
Edit2: Grad die Sapphire für 239,- € im Mindstar, wer schnell ist....http://www.mindfactory.de/product_info.php/8192MB-Sapphire-Radeon-RX-480-Aktiv-PCIe-3-0--Retail-_1109425.html

Achim_Anders
2016-07-09, 00:18:11
Was mich etwas enttäuscht ist der Verbrauch bei Multimonitoring im Desktopbetrieb und im Youtube/Twitch Betrieb... Da scheint der Speicher immer noch nicht runterzutakten und so einen relativ hohen Verbrauch zu erzeugen. Können die das nicht beheben? Ich habe dasselbe Problem bei meiner HD 7950 auch und dachte ehrlicherweise, dass das bei den neueren Generationen Standard wäre. Aber die RX 480 saugt wohl auch fast 80Watt aus der Leitung, während die 1080/1070 bei knapp 50Watt liegen.

Screemer
2016-07-09, 00:23:42
Edit2: Grad die Sapphire für 239,- € im Mindstar, wer schnell ist....http://www.mindfactory.de/product_info.php/8192MB-Sapphire-Radeon-RX-480-Aktiv-PCIe-3-0--Retail-_1109425.html
wollt ich auch grad posten.

kuj0n
2016-07-09, 00:30:32
Muss widerstehen...

TerrorZivi
2016-07-09, 00:44:28
Erst der Preis von 219€ für 4/8 GB Karte und jetzt 239€ für die "normale" 8GB Karte wundert mich schon...

dildo4u
2016-07-09, 00:49:15
Wenn die Customs da sind wird schwer diese Karten los zu werden macht Sinn sie jetzt schon los zu werden.

kuj0n
2016-07-09, 00:54:36
Ju, die hauen ihre Lagerbestände jetzt raus. Die 244€ bei Caseking sind auch kein Sonderpreis, sondern einfach eine Anpassung.

Mit Glück heisst das die Customs werden näher an den 250€ als an den 300€ sein.

TerrorZivi
2016-07-09, 01:15:16
Wenn ich mir das so angucke muss ne günstig produzierte 480 mit 8GB scheinbar auch nicht mehr als 210-230€ kosten.

2Ms
2016-07-09, 01:28:12
Was heißt denn kein Sensepin? Technisch ist das netzteilseitig nur ein weiterer Massepin. Das Sense findet sowieso auf der Grafikkarte statt. Und da würde ich mich auf den Standpunkt stellen, daß es doch egal ist, wie genau sichergestellt wird, daß die Karte ordnungsgemäß verhindert, daß ihr voller Stromverbrauch nur über den PCIe-Slot gedeckt wird, falls kein 6Pin angeschlossen ist (alternative theoretische Möglichkeit wäre ein Betrieb mit reduziertem Verbrauch und entsprechende Hinweismeldung auf fehlenden 6Pin nach Laden des Treibers [gab es afair früher mal bei einigen Modellen];
Ich hatte nach dem Einbau der 480 ja kein Bild am Monitor.
Um wenigstens den Status abzurufen, den mir das System vielleicht gezeigt hätte, habe ich eine 2te Karte einbaut (5770 auf meinem Crossfire-tauglichen Mainboard, allerdings ohne Brücke), und den Monitor dann an diese gehängt. Aber auch mit dieser bekam ich kein Bild.
Dachte mir, dass eventuell zuviel Stom fliesst und habe dann den 6-Pin von der 480 abgezogen und gebootet.
Monitor blieb dunkel, aber die 5770 begann zudröhnen. Mit einem Infrarotthermometer konnte ich 75 Grad an der 5770 messen (Rückseite), was sie in ihrem ganzen Leben noch nie erreicht hatte.
Rechner schnell ausgemacht, 5770 ausgebaut und der Kühler war unangnehm heiß.

Keine Ahnung, was da passiert ist, bin nicht firm im Elektrischen, aber die 480 OHNE 6-Pin zubetreiben hatte auf jeden Fall Auswirkungen auch auf den anderen PCIe.

kuj0n
2016-07-09, 01:32:18
Da bin ich deiner Meinung. Die 240€ der Referenz machen Druck auf die Customs. 50€ mehr einen anderen Kühler und ein anderes PCB? Werde ich nicht bezahlen. Die Hersteller kalkulieren ja auch und soviel Mehrkosten werden das nicht sein.

Was sie am Ende verlangen und was der Handel drauf schlägt sind nochmal zwei paar andere Schuhe. Trotzdem gut, wenn die Preise runter gehen. Die 1060 wird ihr übriges tun. Ich persönlich kaufe aber nur preiswertig. Notfalls warte ich noch länger und es wird nur eine 470.

2Ms
2016-07-09, 01:44:06
Bilder aktueller Customs: https://imgur.com/a/DnI4v

Zweite von oben ist die Powercolor. Da ist der Termin auch der 22. Juli.
Und alle mit DVi ausgestattet ?

2Ms
2016-07-09, 01:49:58
Wenn ich mir das so angucke muss ne günstig produzierte 480 mit 8GB scheinbar auch nicht mehr als 210-230€ kosten.
Nachdem ich die Karte nun seit 3 Tagen in den Fingern habe, und mich nurnoch wundere, dass aber auch so ganz und garkeine Beilagen wie Adapter/Spiele im Karton zufinden sind, ist die Preisgrenze klar bei 220 Euros. Auf die 4 Gb-Version gepfiffen.
Was ein verunglückter Launch. Von dem Marketinggefasel die Monate vorher, hab ich nun auch keine Wunderkarte und auch keinen Mehrwert.
Und nur 3 Tage später kostet die gleiche Karte 30 Euros weniger ?
Das macht den Launch für mich noch unbefriedigender. Denk schon über ne 1060 nach, und das als AMD-Fanboy.
Werd aber nicht so gern ausgenommen und verarscht.

(del)
2016-07-09, 06:25:38
Es gibt wirklich nur ganz wenige MOSFETS mit eingebautem Temperatursensor und noch weniger, wo dieser auch extern abrufbar ist. Dinge, wie Infineons TempFET etc lohnen sich in der MP von Grafikkarten überhaupt nicht. Enweder, der Hersteller verbaut (deutlich billigere) Dioden, oder die Controller lesen einfach ihre Eigentemperatur aus, die dann oft genug fehlinterpretiert wird. HWInfo verkauft(e) z.B. die Aux-Werrte als VRM-Temperatur und der Anwender glaubt es auch noch...

Ich habe mal eine HIS 290 IceQX Hybrid getestet. Da lagen zwischen den angeblichen Auslesewerte immerhin über 10K Differenz. Das kann nie im Leben stimmen. Verlasse dich auf Freeware und du bist verlassen :D

medi
2016-07-09, 06:30:36
Nachdem ich die Karte nun seit 3 Tagen in den Fingern habe, und mich nurnoch wundere, dass aber auch so ganz und garkeine Beilagen wie Adapter/Spiele im Karton zufinden sind, ist die Preisgrenze klar bei 220 Euros. Auf die 4 Gb-Version gepfiffen.
Was ein verunglückter Launch. Von dem Marketinggefasel die Monate vorher, hab ich nun auch keine Wunderkarte und auch keinen Mehrwert.
Und nur 3 Tage später kostet die gleiche Karte 30 Euros weniger ?
Das macht den Launch für mich noch unbefriedigender. Denk schon über ne 1060 nach, und das als AMD-Fanboy.
Werd aber nicht so gern ausgenommen und verarscht.

Du bist einer der ersten, der die Karte kauft, bezahlst dafür über UVP und wunderst dich das der Preis danach so schnell fällt? Schon mal was von Marktwirtschaft gehört? Angebot/Nachfrage?
Manchmal muss ich mich schon wundern was in manchen Leuten so abgeht ...

Cyphermaster
2016-07-09, 07:41:16
Du bist einer der ersten, der die Karte kauft, bezahlst dafür über UVP und wunderst dich das der Preis danach so schnell fällt? Schon mal was von Marktwirtschaft gehört? Angebot/Nachfrage?
Manchmal muss ich mich schon wundern was in manchen Leuten so abgeht ...
Schau dir einfach mal das Registrierungsdatum an. Dann denk nochmal drüber nach. ;)

MadPenguin
2016-07-09, 07:44:03
Nachdem ich die Karte nun seit 3 Tagen in den Fingern habe, und mich nurnoch wundere, dass aber auch so ganz und garkeine Beilagen wie Adapter/Spiele im Karton zufinden sind, ist die Preisgrenze klar bei 220 Euros. Auf die 4 Gb-Version gepfiffen.
Was ein verunglückter Launch. Von dem Marketinggefasel die Monate vorher, hab ich nun auch keine Wunderkarte und auch keinen Mehrwert.
Und nur 3 Tage später kostet die gleiche Karte 30 Euros weniger ?
Das macht den Launch für mich noch unbefriedigender. Denk schon über ne 1060 nach, und das als AMD-Fanboy.
Werd aber nicht so gern ausgenommen und verarscht.

Beim letzten Satz bist du bei Nvidia vollkommen richtig :D

Verstehe dein Problem nicht. Wunderkarte? Das war das Wunschdenken vieler bei der Referenzkarte. Man erwartet von AMD eine Karte, die schnell wie eine 1070 ist, die Hälfte kostet, die Hälfte verbraucht und eben wie erwähnt max. 220 Euro kostet. Ah ja, habe vergessen zu erwähnen, dass man auch noch ca. 100 Euro an Spiele im Karton erwartet. Sag mal, geht es dir noch gut? Du hast mit der RX480 eine super Karte für 250 Euro, die von Treiber zu Treiber besser werden wird, bei DX12 noch besser aussehen wird (letzten Tomb Raider Patch mit Async Support angesehen?) und besser als die 1060 ist.

Argo Zero
2016-07-09, 07:52:40
Wird spannend werden.
Die 1060 könnte unter Umständen das bessere Angebot werden, wenn die Behauptungen von Nvidia stimmen und sie 980 Leistung bei 120 Watt schafft für 280€. Für den Preis wird es wohl 480 Customs geben mit 970 Performance bei 160 Watt.
Aber behaupten kann man viel. Benchmarks braucht das Land ;)

Complicated
2016-07-09, 08:12:13
Die Frage wird sein ob der Stromverbrauch die 2 GB Mehr Speicher der AMD Modelle bei der Entscheidung ausgleicht. Die GTX 1060 wird mit ihren 6 GB im Regal immer etwas schlechter aus sehen und somit auch vom Preis her selbst bei besserer Leistung viel eher unter Druck. Bin gespannt was die Reviewer sagen werden, die immer wieder betont haben 8 GB sei Pflicht um auch in 1-2 Jahren gerüstet zu sein.

Argo Zero
2016-07-09, 08:23:38
Ich vermute 8GB sind eher etwas für Karten, die im Bereich 4k Auflösung bewegt werden sollen und wollen. Die 1060 und 480 sehe ich da eher weniger als brauchbare Kandidaten.

Cyphermaster
2016-07-09, 08:38:04
Meine Vermutung ist, daß die Mehrzahl der User sich im Zweifelsfall -wie üblich- mehr nach den aufgedruckten 8GB als nach dem Stromverbrauch richten wird. Zumal das bei Leuten, die <2h/Tag am PC zocken (was in dem Segment wohl signifikant mehr sein werden als bei den 3DCF-Enthusiasten ;) ), den blanken Preisvorteil (nach UVP und mit 120W für die 1060 gerechnet) der RX480 zur GTX1060 erst nach Jahren egalisiert. Also eine Zeitspanne, nach der auch in diesem Segment ein User wohl schon langsam wieder ans aufrüsten denkt.

Man darf aber halt nicht außer Acht lassen, daß das nur im Zweifel gilt. Die Legende, daß nVidia eh immer besser wäre (a.k.a. "nV-Bonus"), ist bei doch sehr vielen, insbesondere nicht technik-affinen Usern mittlerweile ziemlich verhaftet, weil von AMD lange nicht so viel Berauschendes kam. Diese Gruppe von Interessenten wird sich rundheraus keine AMD-Angebote mehr ansehen, solange die Karte (oder zumindest ein "großer Bruder" davon) kein absoluter Leistungs-Hammer in Reviews ist. Und dafür ist die RX480 eben schon nicht das optimale Segment, und die 1060 als Konkurrenz zu stark und zum imo optimalen Zeitpunkt als Konter gelauncht worden.

Palpatin
2016-07-09, 09:05:04
Ich vermute 8GB sind eher etwas für Karten, die im Bereich 4k Auflösung bewegt werden sollen und wollen. Die 1060 und 480 sehe ich da eher weniger als brauchbare Kandidaten.
Aktuell vielleicht, in Zukunft nicht. Da wird die Texture Stufe die man einstellt Kriegsentscheidender als die Auflösung sein, was VRAM angeht. Ist jetzt schon so das in vielen Spielen 1080p ultra mehr VRram braucht als 1440p (very) high.

Ätznatron
2016-07-09, 09:05:56
Meine Vermutung ist, daß die Mehrzahl der User sich im Zweifelsfall -wie üblich- mehr nach den aufgedruckten 8GB als nach dem Stromverbrauch richten wird. Zumal das bei Leuten, die <2h/Tag am PC zocken (was in dem Segment wohl signifikant mehr sein werden als bei den 3DCF-Enthusiasten ;) ), den blanken Preisvorteil (nach UVP und mit 120W für die 1060 gerechnet) der RX480 zur GTX1060 erst nach Jahren egalisiert. Also eine Zeitspanne, nach der auch in diesem Segment ein User wohl schon langsam wieder ans aufrüsten denkt.

Man darf aber halt nicht außer Acht lassen, daß das nur im Zweifel gilt. Die Legende, daß nVidia eh immer besser wäre (a.k.a. "nV-Bonus"), ist bei doch sehr vielen, insbesondere nicht technik-affinen Usern mittlerweile ziemlich verhaftet, weil von AMD lange nicht so viel Berauschendes kam. Diese Gruppe von Interessenten wird sich rundheraus keine AMD-Angebote mehr ansehen, solange die Karte (oder zumindest ein "großer Bruder" davon) kein absoluter Leistungs-Hammer in Reviews ist. Und dafür ist die RX480 eben schon nicht das optimale Segment, und die 1060 als Konkurrenz zu stark und zum imo optimalen Zeitpunkt als Konter gelauncht worden.

Ob den Leuten der nV-Bonus einen Aufpreis von € 50,- für eine 3GB-Karte wert ist, wage ich zu bezweifeln.

Dazu glänzen die 8GB der AMD-Karte zu sehr.

Cyphermaster
2016-07-09, 09:15:31
Ich vermute, daß die 3GB-1060 von vorn herein noch viel weniger existent auf dem Markt sein wird, als die 4GB-RX480...

Achim_Anders
2016-07-09, 09:17:07
280€. Für den Preis wird es wohl 480 Customs geben mit 970 Performance bei 160 Watt.
Wieso denlst du das die Custom RX480 langsamer als die Referenzkarten werden?
Das macht gar keinen Sinn.Die Referenzkarten sind schon quasi durchweg schneller als die 970...
http://m.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-480/launch-analyse-amd-radeon-rx-480-seite-4

(del)
2016-07-09, 09:17:59
Das allergrößte Problem bei AMD ist nie die Technik, sondern das alberne Marketing, das es wirklich immer wieder schafft, die Öffentlichkeit entweder gegen sich aufzubringen, die Produkte schlechter dastehen lässt, als sie es sind und den Umstand befeuert, anstatt auf Ehrlichkeit besser auf alberne Wortblasen zu setzen. Sorry, aber Phrasen dreschen kann Jensen nun mal besser.

AMD fehlt einfach eine sprechende Moped-Jacke, die genügend Esprit versprüht, um die tumbe Masse mitzuziehen. Das ist wie bei Apple. Jobs tot, Jobs weg und das Image geht noch weiter den Bach runter. Ohne Phantasien und echte Innovationen wird das nichts. Ich war auf beiden Präsentationen - in Austin und auf Macau. Nvidia hat es einfach drauf, während man bei AMD den Charme einer verstaubten Sofa-Decke versprüht. Dabei haben die sicher mehr Kohle in die Hand genommen. Es ist halt nur so, dass man die PR-Events auf die Zielgruppe ausrichten sollte und nicht auf die Annehmlichkeiten für die Chefs. Ich hätte lieber mit den Machern länger mal auf ein gemütliches Bier an der Bar gestanden, als in einem Casino-Hotel mit überteuertem Durchschnittsfraß und Alkohol befüllt zu werden. Das war alles so hausbacken und dröge... Haupsache abends Öl auf die Lampe gießen. Da fehlt einfach mal etwas frischer Wind, das ist wie bei Opa.

Cyphermaster
2016-07-09, 09:20:37
Word.

/edit: Eins von vielen Beispielen ist der FE-Referenzkühler. 2 Euro für ein minimal peppigeres Design eines technisch absolut unkritischen Billig-Plasteteils, ein schmissiger Name (geklaut, aber who cares), und schon sind wieder viele Lemminge bei der Stange. Was macht AMD? Den traditionellen, schwarzen Klotz. Yeah. :rolleyes:

Ätznatron
2016-07-09, 09:20:49
Ich vermute, daß die 3GB-1060 von vorn herein noch viel weniger existent auf dem Markt sein wird, als die 4GB-RX480...

Dann kann man ja schon von fast € 100,- Mehrpreis für die 6GB GTX 1060 gegenüber einer RX 480\8GB ausgehen. Da muss die Mehrleistung der nV-Karte aber schon wirklich deutlich sein, um das zu rechtfertigen, nur 10% reichen da nicht aus.

AMD fehlt einfach eine sprechende Moped-Jacke, die genügend Esprit versprüht, um die tumbe Masse mitzuziehen. .

Hm, du meinst die tumbe Masse der Pressevertreter vor Ort und einiger weniger Hardcoreenthusiasten, die sich zuhause einen Videostream von der Veranstaltung reinziehen?

(del)
2016-07-09, 09:27:45
Word.
/edit: Eins von vielen Beispielen ist der FE-Referenzkühler. 2 Euro für ein minimal peppigeres Design eines technisch absolut unkritischen Billig-Plasteteils, ein schmissiger Name (geklaut, aber who cares), und schon sind wieder viele Lemminge bei der Stange. Was macht AMD? Den traditionellen, schwarzen Klotz. Yeah. :rolleyes:
So schaut's aus. Zumal die 1060 FE als direkter Konkurrent der RX 480 Referenz zwar ein absolutes Cost-Down der 1070 ist, aber trotzdem optisch besser dasteht. Selbst die Schrauben sind bei AMD immer noch die alten Brummer, wie schon vor 10 Jahren. Bevor man überhaupt ETWAS verkaufen kann, muss man immer erst einmal SICH SELBST verkaufen.

Hm, du meinst die tumbe Masse der Pressevertreter vor Ort und einiger weniger Hardcoreenthusiasten, die sich zuhause einen Videostream von der Veranstaltung reinziehen?
Wenn ich mir die Klickzahlen des Livestream so anschaue, dann sind die Zahlen der tumben Konsumenten und Forenbesucher deutlich höher als das, was man an Presse aufgefahren hat. Das waren maximal 200. Der Rest vor Ort waren sogenannte Pro-Gamer (aius Jensens Handklatschpuppen-Zirkus) und Firmenvertreter/Großhändler, sowie normales Straßenpublikum. Immer noch besser, als im abgelatschten Plüsch eines Möchtegern-Grand-Hotels gekochte statt gebratene Steaks zu konsumieren und die Öffentlichkeit komplett außen vor zu lassen. Denen fehlt echt mal bissl echte Wirksamkeit in der Öffentlichkeit und nicht nur semi-professorales Rumgelutsche mit Folien, die eh keiner mehr für voll nimmt.

Dino-Fossil
2016-07-09, 09:33:49
So schaut's aus. Zumal die 1060 FE als direkter Konkurrent der RX 480 Referenz zwar ein absolutes Cost-Down der 1070 ist, aber trotzdem optisch besser dasteht. Selbst die Schrauben sind bei AMD immer noch die alten Brummer, wie schon vor 10 Jahren.

Bevor man überhaupt ETWAS verkaufen kann, muss man immer erst einmal SICH SELBST verkaufen.

Na wenn jetzt sogar die Hardware Journalisten auf die Kartenoptik schauen...


Wie schaut es eigentlich mit 8gb Varianten der 470 aus? Was dazu bekannt?

Hasenpfote
2016-07-09, 09:37:31
Wieso denlst du das die Custom RX480 langsamer als die Referenzkarten werden?
Das macht gar keinen Sinn.Die Referenzkarten sind schon quasi durchweg schneller als die 970...
http://m.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-480/launch-analyse-amd-radeon-rx-480-seite-4Die 480X ist eine 970+5%, aber 160W, somit in der Klasse der 970 und somit im Groben eine 970. Auch Customs werden daran nichts ändern.
Was ist also Deine Kritik an Die 1060 könnte unter Umständen das bessere Angebot werden, wenn die Behauptungen von Nvidia stimmen und sie 980 Leistung bei 120 Watt schafft für 280€. Für den Preis wird es wohl 480 Customs geben mit 970 Performance bei 160 Watt.?

Argo Zero
2016-07-09, 09:46:10
Wieso denlst du das die Custom RX480 langsamer als die Referenzkarten werden?
Das macht gar keinen Sinn.Die Referenzkarten sind schon quasi durchweg schneller als die 970...
http://m.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-480/launch-analyse-amd-radeon-rx-480-seite-4

Ups, meinte die 980 :)

Aktuell vielleicht, in Zukunft nicht. Da wird die Texture Stufe die man einstellt Kriegsentscheidender als die Auflösung sein, was VRAM angeht. Ist jetzt schon so das in vielen Spielen 1080p ultra mehr VRram braucht als 1440p (very) high.

Ultra ist in meinen Augen oft unoptimiert und verschwenderisch. Jedenfalls in den meisten Spielen.
Quasi um eins oben drauf zu setzen für die PC-Spieler.
Visuell ist es meist auch nur im Standbild unterscheidbar (High oder Ultra).
Wenn dir das allerdings wichtig ist, wird das wahrscheinlicher zutreffen.

anddill
2016-07-09, 10:10:48
Word.

/edit: Eins von vielen Beispielen ist der FE-Referenzkühler. 2 Euro für ein minimal peppigeres Design eines technisch absolut unkritischen Billig-Plasteteils, ein schmissiger Name (geklaut, aber who cares), und schon sind wieder viele Lemminge bei der Stange. Was macht AMD? Den traditionellen, schwarzen Klotz. Yeah. :rolleyes:
Was hast Du denn gegen schwarze Klötze? Schau Dir mal an was so an Gehäusen verkauft wird. Besser als das Powerrangers- Design anderer Hersteller ist das allemal.

Pirx
2016-07-09, 10:19:19
Ich finde, die RX480 Referenz sieht gut/fast edel/verbindlich/erwachsen aus.

mironicus
2016-07-09, 10:40:03
Ich finde, die RX480 Referenz sieht gut/fast edel/verbindlich/erwachsen aus.

AMD hat aber nur ein paar gestanzte Löcher, NVidia hat dagegen Chrome. Die Referenzdesigns vor der GTX 700-Reihe sah bei NVidia auch noch furchtbar aus. Ein bißchen mehr in Design zu investieren täte AMD auch gut. :freak:

(del)
2016-07-09, 10:57:14
Alles offensichtlich unerwünscht, schade drum. Schick mir mal die Stelle, wo es darum ging, dann wechseln wir hier mal das Zimmer. Ich sehe keinen GP106-Thread auf den ersten Blick....

RoughNeck
2016-07-09, 11:00:52
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=573847

Es gibt einen Speku Thread zur 1060

Nikstar
2016-07-09, 11:05:59
https://www.youtube.com/watch?v=yLErWhLzZ3c
AMD Radeon RX 480 ref. - Heating Up - Metro Last Light 4K
94,8°C Vrm.
War das schon bekannt? :eek:

RoughNeck
2016-07-09, 11:09:22
95° finde ich nicht schlimm.
Da gab es schon Karten die die 120° gekackt haben.

DarknessFalls
2016-07-09, 11:10:29
Alles offensichtlich unerwünscht, schade drum. Schick mir mal die Stelle, wo es darum ging, dann wechseln wir hier mal das Zimmer. Ich sehe keinen GP106-Thread auf den ersten Blick....

Hier habe ich das im GP-106-Thread nochmal aufgegriffen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11095114#post11095114

Angefangen hat es hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11094891#post11094891

Ist jetzt aber schon ein paar Seiten her dort, wurde aber nicht zufriedenstellend abgeschlossen. Das hast erst Du hier gemacht. :)

DarknessFalls
2016-07-09, 11:13:47
https://www.youtube.com/watch?v=yLErWhLzZ3c
AMD Radeon RX 480 ref. - Heating Up - Metro Last Light 4K
94,8°C Vrm.
War das schon bekannt? :eek:

Ich meine, Igor hatte auch schon Wärmebilder gemacht, aber das Ganze afair als unbedenklich befunden.

-/\-CruNcher-/\-
2016-07-09, 11:14:39
Inwiefern, wenn der AMD Renderpfad eine höhere Turbolast erzeugen kann weil ACEs verwendet oder wenn der Turbotakt niedriger wird weil ACEs verwendet werden, ist das in diesem Spiel nicht zu messen und die Werte könnten 10-15% anders sein bei den FPS und ebenso beim Verbrauch.
Die sind auch innerhalb nicht vergleichbar, weil Nvidia einen solchen Offload von Einheiten nicht kennt. Verfügbares Powerbudget durch Fixed Function Units nicht in Takt wandeln zu können ist bei heutigen GPUs ein völliges NOGO beim testen. Keine zwei unterschiedliche Generationen können da verglichen werden, geschweige denn verschiedene Hersteller.

Was ist mit Effizienz-Tests beim Video-Rendering? Hier werden Shader für H.256 Decodierung genutzt im Mixed-Mode von einigen GPUs bei Intel, Nvidia und AMD. Von einigen nicht.

Was ist mit denen die lediglich 2-3 Spiele langfristig spielen? Die schauen sich vielleicht genau das Spiel an welches sie kaufen wollen und da stehen völlig falsche Werte drin. Zu hoch wie, Z.B. Anno das schon erwähnt wurde oder zu niedrig weil Takt limitierte Tests vorliegen.

Es zeigt sich wieder einmal dass Spieleseiten keine Hardware richtig testen, sondern sich lieber die Realität zurecht biegen damit das konsumierbar wird beim Leser und man irgendetwas in Balken gießen kann die irgendeinen Index ergeben.

Da geb ich dir vollkommen recht diese sachen werden in den meisten Gamer Reviews nicht mit einkalkuliert :)
Die Entlastung der Fixed Function units kann je nach Szenario enorme Auswirkungen haben und ist auch in der Preis/Leistung/Verbrauch mit einzubeziehen.
Das wird heute aber so gut wie garnicht beachtet das kommt aber auch daher weil es zu wenig Software gibt die es richtig einbezieht ;)
Und die Reviewer sich generel immer in der Vergangenheit mit ihren Reviews bewegen ;)

Im Nvidia Ökosystem liegt die meiste Verteilung innerhalb der Shader Performance selbst,das ist einer der Hauptunterschiede die Mehrbelastung wird durch einen höheren User Preis kompensiert der wiederum teils in den Verbrauch gelegt wird.
Zukunftsicher ist das absolut nicht wenn es um das Multithreading und Multithreaded Workloads geht am Ende erreichst du durch deine Spielerein zwar eine höhere FPS Ausbeute aber die Stabilität und latency leidet zunehmend darunter.
Nvidia versucht eigentlich nur Zeit zu gewinnen bevor das Kartenhaus zusammenbricht zahlen soll der User das und die Entwickler sollen entlastet werden bevor das passiert ;)

Nvidias GTX 1060 wird sich in den meisten DX 11 Workflows exakt um 10 FPS unterscheiden das kann ich jetzt schon "prophezeien", allerdings werden sich diese 10 FPS unterschiedlich auswirken man sollte lieber darauf achten als wie auf die Zunahme der Balkenlänge ;)

Nein das schiebst du mir unter..du lieferst alles ausser dem einen nach dem man fragt. Nebelkerzen.
Wo sind die 20 angeblich gemessenen Turbotakte der RX480?

Einfach mal auf den Punkt.

Verstehtst du nicht worauf er hinauswill, es ist seine Arbeit die im Auftrag Computecs zu Ermitteln und du hast für diese Daten gefälligst das Heft zu kaufen und seinen Job zu sichern damit ;)

Achill
2016-07-09, 11:42:06
@Complicated, der ermittelte "Durchschnittliche Takt" bei PCGH wird nur im Diagramm in der Legende verwendet.

=> So wie ich Raff verstanden habe: Jede AMD/NV Karte darf ihren Takt in den Tests ausfahren. Die Karten werden nicht auf einen Takt festgenagelt.

@Raff, bitte korrigieren wenn ich etwas missverstanden habe.

Der Durchschnittliche Takt macht so auch Sinn, weil dieser die Güte der kompletten Karte wiedergibt und ein Leser mit einer besseren/schlechteren Karte entsprechend ein paar +/- Prozent hinzufügt. Jedem Leser sollte klar sein, dass es mal bessere und schlechtere Karten gibt ...

(del)
2016-07-09, 11:45:01
https://www.youtube.com/watch?v=yLErWhLzZ3c
AMD Radeon RX 480 ref. - Heating Up - Metro Last Light 4K
94,8°C Vrm.
War das schon bekannt? :eek:
Ist doch aus meinem Launchartikel. Das Video ist von mir.

Ich meine, Igor hatte auch schon Wärmebilder gemacht, aber das Ganze afair als unbedenklich befunden.
Nach dem Treiber sieht es jetzt etwas anders aus. Steht auch hier im Thread :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11095796#post11095796

Nikstar
2016-07-09, 11:50:09
Ist doch aus meinem Launchartikel. Das Video ist von mir.


Nach dem Treiber sieht es jetzt etwas anders aus. Steht auch hier im Thread :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11095796#post11095796
Oh gut zu wissen, merkt man ja nicht bei all den Nicknamen.
Also total unbedenklich? Gut zu wissen.

DarknessFalls
2016-07-09, 12:14:00
Ich verstehe das als unbedenklich im Rahmen der normalen Specs der RX480. Scheint aber bei OC anders aussehen zu können, spätestens nach einiger Betriebsdauer.

AtTheDriveIn
2016-07-09, 12:16:40
Ich verstehe das als unbedenklich im Rahmen der normalen Specs der RX480. Scheint aber bei OC anders aussehen zu können, spätestens nach einiger Betriebsdauer.

Auch da sehe ich die Temps nicht sonderlich kritisch. Außerdem ist die Referenzkarte kein Übertaktungsmonster, das werden die Customs.

DarknessFalls
2016-07-09, 12:25:43
Auch da sehe ich die Temps nicht sonderlich kritisch. Außerdem ist die Referenzkarte kein Übertaktungsmonster, das werden die Customs.

Das war von mir auch völlig wertfrei, nur das, was ich verstanden hatte. ;)

Schaffe89
2016-07-09, 12:26:36
Die Frage wird sein ob der Stromverbrauch die 2 GB Mehr Speicher der AMD Modelle bei der Entscheidung ausgleicht. Die GTX 1060 wird mit ihren 6 GB im Regal immer etwas schlechter aus sehen und somit auch vom Preis her selbst bei besserer Leistung viel eher unter Druck.

Ich bin immer wieder erstaunt aufgrund deiner recht AMD lastigen Sicht.
Die Frage muss wohl anders herum lauten. Werden die 2GB mehr Speicher den Stromverbrauch der rx480 ausgleichen und da kann man schonmal sagen, definitiv nicht, weil die ganzen Tests 6GB für ausreichend halten, vor allem für Full HD. Unter Druck steht preislich einzig und alleine die rx480 und der Preis wird deutlich fallen, sollte Nivida nicht so dreißt mit den Angaben gelogen haben wie AMD und die Effizienz stimmen.

Fliwatut
2016-07-09, 12:40:50
...weil die ganzen Tests 6GB für ausreichend halten, vor allem für Full HD.
PCGH scheint das aber anders zu sehen:

Wer mit Blick nach vorn kauft, sollte zu einer modernen Grafikkarte mit 8 GiByte Speicher greifen. [..] Wir raten aus Gründen der Langlebigkeit zur 8-GiByte-Version, welche selbst modernen Speicherfressern wie Rise of the Tomb Raider, Mirror's Edge Catalyst oder Call of Duty Black Ops gewachsen ist. (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/)

Argo Zero
2016-07-09, 13:09:22
Wobei man dabei erwähnen sollte, dass immer mit Anschlag-Settings gebencht wird.
Wenn ich für 5% bessere Grafik plötzlich 2GB mehr Speicher brauche, sollte das eher zu vernachlässigen sein.
Interessant wäre daher: Visueller Unterschied Very High zu Ultra und der zusätzliche Speicherbedarf.

[MK2]Mythos
2016-07-09, 13:20:11
Klar, wieso benchen wir nicht gleich alle Games so, dass die NVIDIA Speicherkrüppel auf keinen Fall in ihr RAM Limit laufen.

Undertaker
2016-07-09, 13:21:39
Das gilt für die AMD-"Speicherkrüppel" (z.B. Fiji) gleichermaßen. Ultra-High-Settings mit minimalem Qualitätsgewinn sind fast immer unsinnig.

dildo4u
2016-07-09, 13:26:55
Wobei man dabei erwähnen sollte, dass immer mit Anschlag-Settings gebencht wird.
Wenn ich für 5% bessere Grafik plötzlich 2GB mehr Speicher brauche, sollte das eher zu vernachlässigen sein.
Interessant wäre daher: Visueller Unterschied Very High zu Ultra und der zusätzliche Speicherbedarf.

Jup dazu gibt ja Test's,Mirror's Edge läuft auf der 390 zwar um Meilen besser als auf der 970,wirklich vernünftig aber nur wenn man die Details wieder senkt.

https://youtu.be/Bm5ZCJah-FY

Für ne Karte im Bereich einer 980 scheinen 6GB ideal.

Mancko
2016-07-09, 13:30:42
Jup dazu gibt ja Test's,Mirror's Edge läuft auf der 390 zwar um Meilen besser als auf der 970,wirklich vernünftig aber nur wenn man die Details wieder senkt.

https://youtu.be/Bm5ZCJah-FY

Für ne Karte im Bereich einer 980 scheinen 6GB ideal.

Absolut, denn das primäre Einsatzgebiet ist Full-HD. Da reichen 6GB definitiv. Ich kann natürlich die Settings mit immer so hinbauen, dass der RAM ein Problem wird. Ich kann auch die AA Settings etc. hochschrauben wenn ich will. So oder so wird die Performance dieser Karten dann unzureichend sein. Die 6GB sind schon clever angesetzt von Nvidia. Noch ist außerdem nicht klar, ob die GTX1060 nicht sogar 256 Bit als Interface hat die ggf. zu einem späteren Zeitpunkt auf einem kleinen Update der Karte genutzt werden können. Dann wären auch 8GB möglich.

Lethargica
2016-07-09, 13:37:59
PCGH scheint das aber anders zu sehen:

Wer mit Blick nach vorn kauft, sollte zu einer modernen Grafikkarte mit 8 GiByte Speicher greifen. [..] Wir raten aus Gründen der Langlebigkeit zur 8-GiByte-Version, welche selbst modernen Speicherfressern wie Rise of the Tomb Raider, Mirror's Edge Catalyst oder Call of Duty Black Ops gewachsen ist. (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/)

Gut, dass hier 6GB gar nie zur Diskussion standen :freak: (6GB sind nicht 4GB))

2Ms
2016-07-09, 13:40:56
Du bist einer der ersten, der die Karte kauft, bezahlst dafür über UVP und wunderst dich das der Preis danach so schnell fällt? Schon mal was von Marktwirtschaft gehört? Angebot/Nachfrage?
Manchmal muss ich mich schon wundern was in manchen Leuten so abgeht ...
Ich beziehe mich auf die Erfahrung mit der damaligen HD 5xxx-Serie. Da waren die ersten Modelle unschlagbar günstig, so um die 220 Euros für Highend. Aber alls dann Alle feststellen durften, dass die Serie rockt, da stiegen die Preise schnell auf 300 Euros. Auch die R9 390X wurde ja schnell um 100 Euros teurer. Von 320 Euros auf über 400, bis sie dann wieder im Preis fiel.
Nach dem ganzen Marketing und geleakten Ergebnissen habe ich geglaubt, die 480 wird eher teurer als billiger.

Ausserdem hat mein Verstand ausgesetzt. Das war die Gier, ich wollte unbedingt den Referenzkühler und halt was Neues.

Den Markt ansich begreife ich eh nicht. Würde ich an der Börse spekulieren, wäre ich ruckzuck pleite.

Schlammsau
2016-07-09, 13:41:45
Für ne Karte im Bereich einer 980 scheinen 6GB ideal.

atm

aths
2016-07-09, 13:42:21
AMD hat aber nur ein paar gestanzte Löcher, NVidia hat dagegen Chrome. Die Referenzdesigns vor der GTX 700-Reihe sah bei NVidia auch noch furchtbar aus. Ein bißchen mehr in Design zu investieren täte AMD auch gut. :freak:
Ja, aber man kann nicht alles gleichzeitig machen. Die RX 480 ist ziemlich gelungen, wenn auch nicht perfekt.

Vielleicht ist es sogar klug, das Referenzdesign so schlicht zu halten. Sonst würden sich beide Wettbewerber mit sehr ähnlichen Designs kabbeln, die zur Funktion wenig beitrage, und der Interessent hat weniger Auswahl.

2Ms
2016-07-09, 14:12:28
Das gilt für die AMD-"Speicherkrüppel" (z.B. Fiji) gleichermaßen. Ultra-High-Settings mit minimalem Qualitätsgewinn sind fast immer unsinnig.
Habe Batman:Arkham Knight installiert, weil ich sehen wollte, ob die 8 GB Ram das Nachladeruckeln beseitigen.
Bei einer Rambelegung von 4,3 Gb sind die Ruckler gleichermaßen noch vorhanden, aber das Spiel sieht auch nicht besser aus.

Weil ich gerade, bevor ich die 480 gekauft hatte, mit Wolfenstein angefangen hatte, und das auf der 480 ja nur mit 20 FPS läuft, habe ich wieder meine 7950 eingebaut und Batman wie Wolfenstein probiert.
Batman läuft gleichgut, aber nur mit Textureinstellung auf "Normal", sieht aber keinen Deut schlechter aus, und Wolfenstein sieht spitze aus und rennt mit 60 Bildern/s.

Edit: Für beide Karten hatte ich den 16.7.1 installiert. Dort die "Energieeffizienz" angehakt, und die 7950 hat nochmals weniger Leistung aufgenommen als vorher schon. Und viel weniger als die 480.

fondness
2016-07-09, 14:26:44
Überblick über alle bisher geleakten Radeon RX 480 Customs von ASUS, MSI, Gigabyte, PowerColor, XFX und Sapphire
http://videocardz.com/62059/asus-msi-gigabyte-powercolor-and-sapphire-custom-radeon-rx-480-pictured

-/\-CruNcher-/\-
2016-07-09, 14:45:28
Ja Definitiv denke ich auch sollte die 490 angesetzt werden wird das eine Option ein paar mehr Shader und die Balken werden es wieder richten ;)

Loeschzwerg
2016-07-09, 14:56:42
Hat mir jemand die Abmessungen des Ref.-Kühlkörpers (Höhe, Breite, Tiefe, Höhe der GPU Auflagefläche)?

PUSH :)

Setsul
2016-07-09, 14:59:23
Exakt.
Und da stellt sich jetzt die Frage wann und vor allem was will AMD als 490 bringen?
Eine "485" (einfach nur Takt hoch) sollte es ja nicht sein. 9 bedeutet laut AMD >256bit.
40 CUs auf Polaris 10 werden von AMD heftig dementiert.
Dual Chip Polaris 10? Möglich aber bei dem Preissegment wohl eher den Aufwand nicht wert.
Massiv abgespeckter Vega 10 mit GDDR5? Theoretisch möglich.

Es bleibt spannend.

maximus_hertus
2016-07-09, 15:01:55
Nicht sofort sondern wesentlich später wenn (oder falls?) die 1060 runtergedrückt wird.
Momentan ist das schon richtig so, deshalb gibts auch noch keine 1060 Ti. Ich vermute das ist eine Möglichkeit die man sich offenhält.

Warum sollte nVidia sich selbst Konkurrenz machen? Peterson von nVidia hat es doch letztens genau getroffen (frei Übersetzt): Konkurrenz? Welche Konkurrenz?

Prinzipiell ist es aber möglich, dass da eine 1060 Ti irgendwann zwischengeschoben wird.

Setsul
2016-07-09, 15:06:38
Ja, das meinte ich eben.
Man baut nicht einfach einen PCB mit Platz für 8 Chips wenn man plant immer nur 6 zu verbauen.

-/\-CruNcher-/\-
2016-07-09, 15:43:57
Exakt.
Und da stellt sich jetzt die Frage wann und vor allem was will AMD als 490 bringen?
Eine "485" (einfach nur Takt hoch) sollte es ja nicht sein. 9 bedeutet laut AMD >256bit.
40 CUs auf Polaris 10 werden von AMD heftig dementiert.
Dual Chip Polaris 10? Möglich aber bei dem Preissegment wohl eher den Aufwand nicht wert.
Massiv abgespeckter Vega 10 mit GDDR5? Theoretisch möglich.

Es bleibt spannend.

Multi GPU wäre noch zu früh wobei gerade hier AMD ihren Vorteil voll ausfahren könnte.
Aber zu diesem Zeitpunkt innerhalb der Performance Area ich weiss nicht Radeon Pro Duo ist eher ein neues Experiment um erste Daten zu Gewinnen.

Fliwatut
2016-07-09, 16:07:27
Absolut, denn das primäre Einsatzgebiet ist Full-HD. Da reichen 6GB definitiv.
Für ein heftig gemoddetes Fallout4 oder Watch Dogs? Ganz sicher? Und warum sollte ich keine Ultratexturen nutzen wollen, wenn 8GB RAM machbar sind? Verstehe ich nicht, halte ich auch für kurzsichtig gedacht. Jetzt reichen 6GB, aber was in 1-2 Jahren ist, weiß keiner, da kann mehr RAM nicht schaden und nein, ich möchte dann nicht wieder eine neue Grafikkarte kaufen müssen, auch wenn Nvidia das gerne hätte.

-/\-CruNcher-/\-
2016-07-09, 16:15:26
6 und 8 GB von der Kaufentscheidung abhängig zu machen halte ich für Falsch zumal das immer sehr gut kompensierbare Faktoren bleiben Long Time ;)

Hakim
2016-07-09, 16:17:28
Mainstream Karten halten aber normalerweise nicht solange aus, sprich nach etwa 2 Jahren stehen die Balken bei den Einstellungen eher links bei neuen Spielen. Die High> Karten haben da noch mehr Chancen längere Zeit mit der Karte auszukommen

Fliwatut
2016-07-09, 16:24:58
6 und 8 GB von der Kaufentscheidung abhängig zu machen halte ich für Falsch zumal das immer sehr gut kompensierbare Faktoren bleiben Long Time ;)
Habe ich nicht vor ;) Die Mischung macht es, die 8GB sind nur erstmal ein Pluspunkt für die 480.

Schlammsau
2016-07-09, 16:25:24
Hmm, mit meiner 2 Jahre alten Mainstreamkarte (Tonga) stehen die Regler eher noch Rechts. Für WHQD oder gar UHD fehlt ihr freilich aber die Leistung.

Den Konsolen sei Dank!

user77
2016-07-09, 16:32:49
Bei meiner 4 Jahre alten 7970 GHz @ 1175mhz stehen auch (fast) alle Regler rechts. ZB Witcher 3.

Meine beste AMD Karte seit der 9500 Pro @ 9700 Pro...

Hakim
2016-07-09, 16:34:42
Vergiss nicht das mid range damals bei r7 aufgehört hat, alles (r9) darüber galt High-end, wenn ich nicht falsch liege

Edit: https://en.wikipedia.org/wiki/AMD_Radeon_Rx_200_series

=Floi=
2016-07-09, 16:40:19
Multi GPU wäre noch zu früh wobei gerade hier AMD ihren Vorteil voll ausfahren könnte.


rofl
einfach nur rofl
due lebst doh in einer anderen galaxie. postet nichts so einen bullshit der fern der realität ist.

amd fährt mit CF gar nichts aus. die gewinnen höhstens beim stromverbrauch mit den längsten balken.

Screemer
2016-07-09, 16:45:37
rofl
einfach nur rofl
due lebst doh in einer anderen galaxie. postet nichts so einen bullshit der fern der realität ist.

amd fährt mit CF gar nichts aus. die gewinnen höhstens beim stromverbrauch mit den längsten balken.
Schön, dass du nicht verstanden hast auf was er hinauswill. Als Tipp interposer. Die Zeit ist dafür aber nicht reif.

Rincewind
2016-07-09, 19:29:45
Schön, dass du nicht verstanden hast auf was er hinauswill. Als Tipp interposer. Die Zeit ist dafür aber nicht reif.

Warum ist die Zeit dafür noch nicht reif? Mit ein bisschen Mut von AMD sollte man die Karte einfach mal auf den Markt werfen und dann mal schaun wie die Resonanz ist.

maximus_hertus
2016-07-09, 20:13:13
Warum ist die Zeit dafür noch nicht reif? Mit ein bisschen Mut von AMD sollte man die Karte einfach mal auf den Markt werfen und dann mal schaun wie die Resonanz ist.

Nein, du wirfst nur Produkte auf den Markt, die Geld einbringen bzw. bei denen man sich erhofft, Geld zu verdienen.

Das ganze hat auch nicht mit Mut oder sowas zu tun.

Screemer
2016-07-09, 20:13:52
Warum ist die Zeit dafür noch nicht reif? Mit ein bisschen Mut von AMD sollte man die Karte einfach mal auf den Markt werfen und dann mal schaun wie die Resonanz ist.
lasst uns das mal im richtigen thread diskutieren: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11096531

-/\-CruNcher-/\-
2016-07-09, 20:28:28
Was ich gerne wissen würde wie hat HT4U die 170W GTA 5 output ermittelt ?

GTA V 174,54 83,38

@Format_C

Konntest du das nachvollziehen ?

Diesen user test finde ich sehr interessant :)

Hier bin ich sehr auf die GTX 1060 Ergebnisse gespannt ;)

zh2svARKcDM

Sie spiegeln teils auch NX Gamers Ergebnisse wieder

Teils bis zu 20 FPS Unterschied die von der GTX 1060 reingeholt werden müssten, 10 FPS ok aber 20 da bin ich gespannt, mir unbekanter Recording overhead dürfte allerdings nicht hoch sein selbst AMD kommt damit auf dem I5 zurecht ;)

PC Build:
PSU: SEASONIC 450W SSP-450RT 80PLUS Gold
MB: ASUS H61M-K
CPU: Intel Core i5 3570k 3.4GHz Stock
COOLER: NOCTUA NH-U9B SE2
GPU#1: XFX Radeon RX 480 Custom Backplate Black Edition OC 8GB
GPU#2: GIGABYTE GeForce GTX 970 XTREME GAMING -----
RAM: Corsair XMS3 8GB Kit 2x4GB 1600Mhz
HDD: SEAGATE Barracuda 1TB

DRIVERS:
AMD: Radeon Crimson 16.6.2
Nvidia: Version: 368.39

Peter Gräber
2016-07-09, 20:49:54
Was ich gerne wissen würde wie hat HT4U die 170W GTA 5 output ermittelt ?

GTA V 174,54 83,38

@Format_C

Konntest du das nachvollziehen ?


Wie kommst du darauf, dass dir Igor die Frage beantworten könnte. Dazu bist du im falschen Forum und die Frage müsstest du mir stellen. Oder ich müsste Igor meine Szene schicken, damit er das mit seinen Möglichkeiten nachprüfen kann. Aber wie kommst du darauf, dass unsere Messungen ungenauer wären, als jene von THG? In den verlorenen zig Seiten hat unser Ingenieur bereits klargestellt, dass unsere Messungen prinzipiell exakter sein sollten, als jene von THG. Nur Igor hat nicht darauf geantwortet (falls ich nichts verpasst haben sollte).

Power-Tune und Power-Target brauchen nur geringe Einflüsse und sind der Meinung, dass plötzlich wieder alles gut ist - P-Tune noch mehr als NVIDIAs Modell. Dass kann ein eingehender Anruf sein, welcher plötzlich die überwachte Last senkt und der Karte damit einen neuen Anreiz gibt, bei höchsten Temperaturen den Takt noch einmal hochzuschrauben um dann wieder korrigiert zu werden. Das ist aber ein average Peak. Der erfolgt kurzfristig und kann von uns erfasst werden. Wir reden hier nicht von Spikes, welche unsere Screenshotes ebenfalls wunderbar darstellen.

Wenn du weitere Fragen hast, dann meld dich in unserem Forum, du bekommst gerne Antwort und Erklärungen. Wie Leander schon schrieb - hier lesen wir nur, wenn mal ausnahmsweise etwas Zeit bleibt.

-/\-CruNcher-/\-
2016-07-09, 21:06:35
Wollte ehrlichgesagt nur eins wissen AMD CHS aktiv ?

illidan
2016-07-09, 21:11:33
Im HT4U-Test gibts jedenfalls mal wieder ein paar schöne Ungereimtheiten.
Mirror's Edge: 980 32% vor 390X und 390 nur 7% vor 380X -> offenbar die dynamische VRAM-Begrenzung nicht abgeschaltet...
The Division: 390X 26% vor 390 -> mit Sicherheit nicht unter vergleichbaren Wetter-/Tageszeitbedingungen getestet...
:cool:
Ob man wohl noch mehr finden könnte? Ich hab allerdings keine Lust noch weiter zu lesen.

Der_Korken
2016-07-09, 21:43:07
Diesen user test finde ich sehr interessant :)

Hier bin ich sehr auf die GTX 1060 Ergebnisse gespannt ;)

http://youtu.be/zh2svARKcDM

Sie spiegeln teils auch NX Gamers Ergebnisse wieder

Teils bis zu 20 FPS Unterschied die von der GTX 1060 reingeholt werden müssten, 10 FPS ok aber 20 da bin ich gespannt, hier gab es keinen Recording overhead ;)

Zu dem Video: Wenn die GTX970 ins VRAM-Limit gelaufen ist (was ich bei den Drops und dem krassen Unterschied für plausibel halte), dann wird die 1060 kein Problem haben, sich entsprechend abzusetzen. Das gleiche hatte wir hier im Thread schon mal, wo jemand in Tomb Raider deutlich bessere Frametimes auf der 480 gemessen haben will, was aber durch die hohen Texturedetails eher am VRAM lag.

(del)
2016-07-09, 21:43:15
@Peter:
Warum Du mich hier schon wieder anpissen musst weißt auch nur Du allein. Ich habe nichts auf die Frage eben hier geantwortet, weil es mich nichts angeht. Also reiß dich bitte einfach mal zusammen und lass mich da raus. PCPer hat mich übrigens privat kontaktiert und wir haben beide Methoden auch mal ausdiskutiert und verglichen. Es ist immer eine Frage des Tons, mit denen war es jedenfalls ein Vergnügen. Die Ergebnisse waren übrigens gleich :)

Iruwen
2016-07-09, 21:49:48
Für ein heftig gemoddetes Fallout4 oder Watch Dogs? Ganz sicher? Und warum sollte ich keine Ultratexturen nutzen wollen, wenn 8GB RAM machbar sind? Verstehe ich nicht, halte ich auch für kurzsichtig gedacht. Jetzt reichen 6GB, aber was in 1-2 Jahren ist, weiß keiner, da kann mehr RAM nicht schaden und nein, ich möchte dann nicht wieder eine neue Grafikkarte kaufen müssen, auch wenn Nvidia das gerne hätte.

Das halte ich für ein konstruiertes Szenario. Wer das vorhat kauft keine 1060, und auf die Handvoll Leute die wirklich so denken kann ein Hersteller gut verzichten.

Nein, du wirfst nur Produkte auf den Markt, die Geld einbringen bzw. bei denen man sich erhofft, Geld zu verdienen.

Das ganze hat auch nicht mit Mut oder sowas zu tun.

Dann hat jemand bei der Fury X aber schlechtes Zeug geraucht :cool:

Fliwatut
2016-07-09, 22:01:03
Das halte ich für ein konstruiertes Szenario. Wer das vorhat kauft keine 1060, und auf die Handvoll Leute die wirklich so denken kann ein Hersteller gut verzichten.
Dann werden sie wohl auf mich verzichten müssen, auch wenn ich noch die Testergebnisse abwarte. Ob es eine 480 wird, weiß ich auch noch nicht, gut möglich, dass ich eine 1070 nehme, wenn die mal etwas besser verfügbar sind und im Preis noch sinken. Sonst muss ich eben auf Vega warten, so sehr mich diese Warterei auch nervt, ich bin nur zu wenig Kompromissen bereit.

-/\-CruNcher-/\-
2016-07-09, 22:10:53
Zu dem Video: Wenn die GTX970 ins VRAM-Limit gelaufen ist (was ich bei den Drops und dem krassen Unterschied für plausibel halte), dann wird die 1060 kein Problem haben, sich entsprechend abzusetzen. Das gleiche hatte wir hier im Thread schon mal, wo jemand in Tomb Raider deutlich bessere Frametimes auf der 480 gemessen haben will, was aber durch die hohen Texturedetails eher am VRAM lag.

Wird sie wohl bei Ultra Textures ist der UWP Berreich wo die alokation Probelmatisch wird schnell erreicht aber wir sprechen hier von 20 FPS maximum Unterschied der kommt nicht allein daher vor allem nicht in den 0 Motion Scenes.

Aber hör nochmal hin NX Gamer nutzt extra High textures bei Quantum Brake nicht Very High oder in dem Fall von Artis Ultra ;)

Das hier sieht jedenfalls nicht nach einem Texture VRAM issue aus

https://youtu.be/zh2svARKcDM?t=165

anddill
2016-07-09, 22:21:15
Meine Güte, jetzt fangt nur nicht an Euch rumzustreiten wer da um 0,5% genauer messen kann in einem Scenario, das nur mit 10% Genauigkeit reproduzierbar ist und mit Prüflingen mit 20% Abweichung arbeitet.
Ich würde es eher als Zufall sehen wenn da Werte übereinstimmen.

(del)
2016-07-09, 22:28:17
Ich streite mich generell nicht über Unwichtigkeiten, mag es aber auch nicht, wenn man aus purer Vergrätzheit ständig den Kammellenhervorholer gibt. Da ich mich da nicht in eine Antwort reingehängt habe, will ich gefälligst auch draußén gelassen werden. Punkt. ;)

gedi
2016-07-09, 22:39:08
Das halte ich für ein konstruiertes Szenario. Wer das vorhat kauft keine 1060, und auf die Handvoll Leute die wirklich so denken kann ein Hersteller gut verzichten.



Dann hat jemand bei der Fury X aber schlechtes Zeug geraucht :cool:

Dem halte ich entgegen, dass eben jene Leute für die eine 1060 oder 480 in Frage kommt, eben nicht zu jeder Jahreszeit die Grafikkarte wechseln. Den Typ Käufer den du darstellst, ist im Groß' dem Enthusiast-Segment zuzuordnen. Ebend jene, welche eigentlich weniger eine Grafikkarte benötigen.

Edit: Ich habe mir gerade eine Inno 3D 1080 für meinen neuen HTPC gegönnt. Warum? Weil es die einzige 4K-Karte ist-ist aber OT

-/\-CruNcher-/\-
2016-07-09, 22:58:24
Wie meinst du das auf Video gesehen wäre das schwachsinn und für einen HTPC totaly innefficient, da kauf dir lieber Nvidia Shield selbe DSP und sehr viel schonender als ein HTPC mit einer 1080 sowas hab ich noch nie gehört das sich jemand eine 150W Karte in einen HTPC baut ;)

Das Szenario das jemand mit einem HTPC Videoformate abspielt die ausserhalb eines Fixed Function DSP fallen sind eh sowas von gering :D

Und vor allem doch keinen Nvidia HTPC, das Argument von 4K ist jedenfalls extreme abwegig je nachdem was du unter HTPC letztendlich verstehen zu scheinst :D

Du meinst wohl eher du nutzt den PC als Konsole mit HTPC (Sat,Kabel,Iptv,Blu-Ray UHD HDR) als Zusatzfunktion ansonsten wäre eine GTX 1080 ja echt overkill 4K/UHD hin oder her ;)

Ätznatron
2016-07-09, 23:22:15
Ich streite mich generell nicht über Unwichtigkeiten, mag es aber auch nicht, wenn man aus purer Vergrätzheit ständig den Kammellenhervorholer gibt. Da ich mich da nicht in eine Antwort reingehängt habe, will ich gefälligst auch draußén gelassen werden. Punkt. ;)

Ich find's gut, wie CB misst: anna Steckdose und alles is klar.

Euch find ich auch gut...na ja, unterhaltend...

gedi
2016-07-09, 23:25:20
Wie meinst du das auf Video gesehen wäre das schwachsinn und für einen HTPC totaly innefficient, da kauf dir lieber Nvidia Shield selbe DSP und sehr viel schonender als ein HTPC mit einer 1080 sowas hab ich noch nie gehört das sich jemand eine 150W Karte in einen HTPC baut ;)

Das Szenario das jemand mit einem HTPC Videoformate abspielt die ausserhalb eines Fixed Function DSP fallen sind eh sowas von gering :D

Und vor allem doch keinen Nvidia HTPC, das Argument von 4K ist jedenfalls extreme abwegig je nachdem was du unter HTPC letztendlich verstehen zu scheinst :D

Du meinst wohl eher du nutzt den PC als Konsole mit HTPC (Sat,Kabel,Iptv,Blu-Ray UHD HDR) als Zusatzfunktion ansonsten wäre eine GTX 1080 echt overkill ;)

Manchmal soll auf dem Ding auch gespielt werden. Meinem Kleinsten sein Rechner reicht für manche Titel nicht mehr aus. Daher kann er auch hier im Wohnzimmer spielen -so wissen wir wenigstens was und mit wem er spielt.

Linmoum
2016-07-09, 23:29:59
Ich find's gut, wie CB misst: anna Steckdose und alles is klar.

Euch find ich auch gut...na ja, unterhaltend...
Und ich fänd's schön, wenn sämtliche Reviewer mehr als nur den Verbrauch des Gesamtsystems messen würden. :)

Ätznatron
2016-07-09, 23:31:56
Und ich fänd's schön, wenn sämtliche Reviewer mehr als nur den Verbrauch des Gesamtsystems messen würden. :)

Die (Ver-)Messer kriegen sich dabei gerne in die Haare.. ;)

-/\-CruNcher-/\-
2016-07-09, 23:34:45
Oh ok papa stasi also, gut das die Eltern das Medienverhalten ihrer kleinen überwachen halte ich für sinvoller als wie Microsoft, Sony und Co das wissen müssen, aber gut das geht zu OT verstehs jetzt aber ;)

iuno
2016-07-09, 23:56:41
Gibt es eigentlich schon Speichertiming Mods fuer die 480?

Dachte ich haette da was gelesen, glaube dass der 1750 MHz Strap ("4 GiB Karte"?) auch fuer >2 GHz lief. Ich finde das aber gerade nicht wieder...

2Ms
2016-07-10, 00:00:08
Und ich fänd's schön, wenn sämtliche Reviewer mehr als nur den Verbrauch des Gesamtsystems messen würden. :)
Hätte auch lieber den konkreten Verbrauch nur an der Karte. Bin aber nur einfacher User und schon stolz mit einem Energiekostenmeßgerät glänzen zu können.

HOT
2016-07-10, 09:36:48
Ah endlich, der "vorzeige"-DX12-Titel RotTR bekommt ENDLICH AsyncCompute Support für GCN1.1+ (ich hoffe doch mit QnQ) und auch für Pascal.
http://www.gamestar.de/spiele/rise-of-the-tomb-raider/news/rise_of_the_tomb_raider,51197,3275606.html

Jetzt muss man erst mal alle Benchmarks wiederholen, denn bislang war DX12 bei dem Game offensichtlich nicht repräsentativ, wie ich es gedacht hab.

fondness
2016-07-10, 09:46:29
Ah endlich, der "vorzeige"-DX12-Titel RotTR bekommt ENDLICH AsyncCompute Support für GCN1.1+ (ich hoffe doch mit QnQ) und auch für Pascal.
http://www.gamestar.de/spiele/rise-of-the-tomb-raider/news/rise_of_the_tomb_raider,51197,3275606.html

Jetzt muss man erst mal alle Benchmarks wiederholen, denn bislang war DX12 bei dem Game offensichtlich nicht repräsentativ, wie ich es gedacht hab.

War klar, dass das noch nicht integriert war, obwohl es zu Beginn behauptet wurde AFAIK.

Screemer
2016-07-10, 09:57:57
Ac wurde bisher nur auf der für die xbone kommuniziert, wenn ich mich right erinnere.

Disco_STFU
2016-07-10, 10:01:02
Ein Schelm wer böses dabei denkt, dass das erst jetzt kommt...

Thunder99
2016-07-10, 12:46:31
Lieber spät als nie für die Leute die sich das Spiel noch kaufen wollen :)

Frank1974
2016-07-10, 12:58:10
http://youtu.be/zh2svARKcDM



Du postest in fast jedem Thread dieses Spiel, ist das nicht langweilig? Es gibt genug Gegenbeispiele wo AMD deutlich zurück liegt, DX12 wird noch lange brauchen bis es DX11 abgelöst hat, dann sind alle Karten veraltet selbst eine GTX1080. Und die GTX970 hat nach fast 2 Jahren auch ihren Ruhestand verdient, die User dieser Karte habe seit erscheinen eine Menge Spass damit gehabt, die Karte muss nicht mehr vorne dabei sein.

mfg
Frank

Ätznatron
2016-07-10, 13:24:35
DX12 hat DX11 bereits abgelöst.

Was jetzt DX11-mäßig noch stattfindet ist Resteverwertung.

Atma
2016-07-10, 13:34:06
DX12 hat DX11 bereits abgelöst.

Was jetzt DX11-mäßig noch stattfindet ist Resteverwertung.
In deiner kleinen Traumwelt vielleicht.

illidan
2016-07-10, 13:36:25
Ah endlich, der "vorzeige"-DX12-Titel RotTR bekommt ENDLICH AsyncCompute Support für GCN1.1+ (ich hoffe doch mit QnQ) und auch für Pascal.
http://www.gamestar.de/spiele/rise-of-the-tomb-raider/news/rise_of_the_tomb_raider,51197,3275606.html

Jetzt muss man erst mal alle Benchmarks wiederholen, denn bislang war DX12 bei dem Game offensichtlich nicht repräsentativ, wie ich es gedacht hab.
Schon längst im DX12-Thread passiert, bringt einen Furz (wie schon in Ashes...).

Achill
2016-07-10, 14:06:58
Schon längst im DX12-Thread passiert, bringt einen Furz (wie schon in Ashes...).

Stimme ich nicht zu, bringt bei mir +11fps (von 63 -> 74) und den Support von CFX mit DX12. CFX in RotTR läuft mit DX12 auch viel runder: siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11097052#post11097052)

illidan
2016-07-10, 14:31:20
Es bringt bei mir mit 390 mit Patch 1.2 7%.
Ich rede übrigens von Async Compute.

Achill
2016-07-10, 14:41:45
Es bringt bei mir mit 390 mit Patch 1.2 7%.
Ich rede übrigens von Async Compute.

Ok ich habe den alten Wert von einen Crim 16.4 Lauf zum Vergleich genommen, kann also nicht genau sagen, wie viel durch Treiber-Verbesserungen und den Patch kommt.

Aber 7% sind 7% ohne das man Geld ausgegeben hat. Ist auch der angenommenen Bereich (5-15%) für Async was man so von verschiedenen Entwicklern gehört hat.

-/\-CruNcher-/\-
2016-07-10, 15:04:28
Du postest in fast jedem Thread dieses Spiel, ist das nicht langweilig? Es gibt genug Gegenbeispiele wo AMD deutlich zurück liegt, DX12 wird noch lange brauchen bis es DX11 abgelöst hat, dann sind alle Karten veraltet selbst eine GTX1080. Und die GTX970 hat nach fast 2 Jahren auch ihren Ruhestand verdient, die User dieser Karte habe seit erscheinen eine Menge Spass damit gehabt, die Karte muss nicht mehr vorne dabei sein.

mfg
Frank

Der Grund dafür ist einfach es ist einer der best optimiertesten GCN Titel zusammen mit Hitman und Ashes momentan ;)

So deutlich zurück wie in diesen beiden Titeln in Real Performance liegt AMD Nvidia gegenüber nirgends bei Maxwell ;)

Selbst bei Doom nicht ;)

PqgOfR-Oc4U

Er hält den Takt, ein Hard Framerate limit auf 16,6 ms wäre besser gewesen als diese Schwankungen vor allem würde es ein klareres CPU overhead bild erlauben mit weniger noise :)

IMZJkc9HWo0

Er macht es auch wieder einmal besser als Digitalfoundry was den eigentlichen Real output angeht alle zusammen und nicht 1 Output wo man nicht weiss zu welchen Frametimes er eigentlich nun gehört ;)

RPM Anzeige und % fehlt leider so muss man grübeln ob er den takt nur mit 100% halten konnte ;)


Er macht das jedenfalls schon sehr gut in der Präsentation :)

Auch wenn er leider Lautstärke/Verbrauch/Effizienz vollkommen ignoriert

1Oclgqsi1YI

Ye2mumere4M

Schaffe89
2016-07-10, 16:59:47
Wenn du weitere Fragen hast, dann meld dich in unserem Forum, du bekommst gerne Antwort und Erklärungen. Wie Leander schon schrieb - hier lesen wir nur, wenn mal ausnahmsweise etwas Zeit bleibt.

Und dann kommt wieder das unreife Gestichel, dann kann man es ehrlichgesagt auch bleiben lassen hier zu schreiben.:redface:

Frank1974
2016-07-10, 18:59:55
Der Grund dafür ist einfach es ist einer der best optimiertesten GCN Titel zusammen mit Hitman und Ashes momentan ;)

Wenn es also so stark auf AMD optimiert ist, dann kann es ja auch nicht genauso gut auf den Nvidia Karten laufen, wenn ein Entwickler aber etwas mit Gameworks macht, dann wird sofort die Cheatkeule rausgeholt, ein Entwicker sollte auf beide gleich optimieren, nur so hat man als Spieler was davon.

mfg
Frank

iuno
2016-07-10, 19:36:16
Wenn es also so stark auf AMD optimiert ist, dann kann es ja auch nicht genauso gut auf den Nvidia Karten laufen, wenn ein Entwickler aber etwas mit Gameworks macht, dann wird sofort die Cheatkeule rausgeholt, ein Entwicker sollte auf beide gleich optimieren, nur so hat man als Spieler was davon.

mfg
Frank
Es wird immer Titel geben, die auf der einen Architektur merklich besser laufen als auf der anderen. Das liegt in der Natur der Sache, stoert mich aber auch nicht besonders. Die jeweils konkurrierenden Karten sind sowieso immer nur wenige Prozent auseinander, dann ist halt mal der eine vorne, mal der andere, ist doch voellig egal. Das interessiert wohl nur die Hardcore-Fanboys, die sich um jedes Prozent streiten. Kritisch sehe ich das nur, wenn sich die Verhaeltnisse komplett verschieben und ploetzlich Karten aus komplett unterschiedlichen Klassen miteinander konkurrieren.
oder natuerlich, wenn es auf einer Architektur ueberhaupt nicht mehr brauchbar laeuft.

Er macht es auch wieder einmal besser als Digitalfoundry was den eigentlichen Real output angeht alle zusammen und nicht 1 Output wo man nicht weiss zu welchen Frametimes er eigentlich nun gehört ;)
Das bringt aber nur was, wenn man komplett nachstellbare Szenarien hat. Bei GTA klappt das noch ganz gut, bei Witcher schon nicht mehr so und bei DOOM und Division hat man es nicht mal mehr probiert. Klar, das trifft dann aber bei DF genauso zu.
Auch gefallen mir bei DF die eingeblendeten Diagramme besser als der ganze Bildschirm voll mit Text wie hier. Vor allem wenn das Intervall irgendwo bei 0,5 s liegt und man staendig hin und her schauen muss und dann sowieso alles verpasst und nicht wirklich direkt vergleichen sondern nur abschaetzen kann.

Womit wird da eigentlich gemessen, FRAPS oder Afterburner oder sowas? Sind die Frametimes nur interpoliert? Wie aufwendig ist denn die Frametime Messung mit FCAT? Macht das irgendwer regelmaessig in seinen Tests?

-/\-CruNcher-/\-
2016-07-10, 20:08:33
Das es noch kein Frametime Graph OSD gibt bei Afterburner im Digitalfoundry stiel wundert mich selbst ;)

Bis jetzt scheint aber noch keiner interesse zu haben das mit dem Plugin SDK zu realisieren ;)

Nvidia FCAT OSD und dann zusätzlich eine speziele Frame analyse Software auf die Richard sehr stolz ist (FPSGui), immerhin wird sowas eigentlich nur im Playout zur Fehleranalyse genutzt ;)



KVg19CbkXR4
fAVxmfNUuRs

Teils weitaus effizienter als was selbst Entwickler direkt unter Windows analysieren (debugen) können ;)

NX Gamer war da so fasziniert das er sich scheinbar seine eigene kleine Analyse Software gebastelt hat ;)

P2iYHdFFhXk

Peter Gräber
2016-07-10, 20:47:34
Im HT4U-Test gibts jedenfalls mal wieder ein paar schöne Ungereimtheiten.
Mirror's Edge: 980 32% vor 390X und 390 nur 7% vor 380X -> offenbar die dynamische VRAM-Begrenzung nicht abgeschaltet...
The Division: 390X 26% vor 390 -> mit Sicherheit nicht unter vergleichbaren Wetter-/Tageszeitbedingungen getestet...
:cool:
Ob man wohl noch mehr finden könnte? Ich hab allerdings keine Lust noch weiter zu lesen.

Also das mit dem "Lesen" mag ich nicht kommentieren, da du gerade Balkendiagramme kommentierst, welche eben nicht von unserer Seite kommentiert wurden (hätte man vielleicht besser tun sollen).

Und weißt du, dass solches Feedback wirklich sehr hilfreich ist, wenn man es denn bekommt und es nicht irgendwo suchen muss? Das gibt eine Diskussionsbasis, das zeigt Wege etwas zu verbessern und sei es nur entsprechende Anmerkungen im Artikel zu setzen.

Wir haben einen ganz frischen, neuen Testparcours zu diesem Artikel aus dem Boden gestampft. Natürlich schaut man sich so etwas im Vorfeld mit drei oder vier Grafikkarten an und trifft dann die Entscheidung: geht oder geht nicht.

Die VRAM-Begrenzung bei MEC ist tatsächlich an. Ich habe gesehen, wie bei deaktivierter Begrenzung 4 GB Grafikkarten ins Bodenlose gestürzt sind und habe mich darum erst einmal dagegen entschieden. Welche Auswirkungen das hat, wenn man dann mit nur 2 GB-Grafikkarten arbeitet, habe ich dann leider erst gesehen, als ich diese durch den Test geschickt habe. Da habe ich mir natürlich die Augen gerieben und mich geschüttelt.

Für The Devision gilt das gleiche. Die Tageszeitänderungen trafen überraschend erst bei Testmuster 7 oder 8 ein. Wir haben das Spiel dann immer wieder neu gestartet, bis wir der Ansicht waren, in etwa vergleichbare Szenen zu erhalten. Aber wie wir im Artikel bereits beschrieben haben, gibt es offenbar Spiele, welche sich dauerhaft für einen Benchparcours nicht eignen. Alleine die Online-Muss-Funktion von Division ist ein arges Problem der Reproduzierbarkeit. Ich werde wohl in Kürze noch die integrierte Benchmarkfunktion prüfen, tendiere aber dazu The Division komplett zu streichen, was eigentlich schade ist.

Wollte ehrlichgesagt nur eins wissen AMD CHS aktiv ?
Sorry, ich kann auf Anhieb mit der Abkürzung nichts anfangen.

@Peter:
Warum Du mich hier schon wieder anpissen musst weißt auch nur Du allein. Ich habe nichts auf die Frage eben hier geantwortet, weil es mich nichts angeht.
Igor, wenn ich jemanden anpisse sieht das anders aus und das geht aus meinem Beitrag wohl auch kaum hervor. Ich habe lediglich klargestellt, dass du darauf schlecht antworten kannst. Dass du bei Vorträgen zu unseren Messungen darüber philosophierst, dass du mal jemanden kanntest, der ebenfalls so etwas hatte und dass im Ergebnis dort schlechtere Messungen rauskamen, das hab ich ja nur indirekt angesprochen. Dass du darauf konkrete Antworten bekommen hast, die nicht mehr kommentiert wurden, ist doch legitim zu erwähnen, denn auf diese Weise kommen eben Fragen auf, ob du mal unsere Ergebnisse überprüfen könntest und wie es dazu kommt. Denn du stellst deine Messungen einfach über alles.

Meine Güte, jetzt fangt nur nicht an Euch rumzustreiten wer da um 0,5% genauer messen kann in einem Scenario, das nur mit 10% Genauigkeit reproduzierbar ist und mit Prüflingen mit 20% Abweichung arbeitet.
Ich würde es eher als Zufall sehen wenn da Werte übereinstimmen.

Sorry an den Admin, ich hatte nicht gedacht, dass mein Beitrag so etwas auslöst. Aber die Szenarien selbst kann man meist sehr gut reproduzieren. Ich bin dann jetzt auch wieder raus hier.

Gorkon
2016-07-10, 20:51:21
AMD CHS == Contact Hardening Shadows

-/\-CruNcher-/\-
2016-07-10, 21:00:52
Sorry, ich kann auf Anhieb mit der Abkürzung nichts anfangen.


qU4ZoRhp5yg

y33H@
2016-07-10, 22:58:56
Warum muss man da ein Video verlinken?

Iruwen
2016-07-10, 23:13:56
Macht Raff doch auch immer :tongue: scnr

Frank1974
2016-07-10, 23:20:19
http://youtu.be/qU4ZoRhp5yg

Davon hab ich jetzt aber nicht viel, habe ja auch eine AMD Karte, wie sieht das denn auf Nvidia Karten aus, anders oder kostet es Performance?

mfg
Frank

Flusher
2016-07-10, 23:46:41
Davon hab ich jetzt aber nicht viel, habe ja auch eine AMD Karte, wie sieht das denn auf Nvidia Karten aus, anders oder kostet es Performance?

mfg
Frank

Soll wohl schlechter aussehen als die NVIDIA Lösung und dabei auch noch auf NVIDIA Karten schneller laufen. :freak:

Isen
2016-07-10, 23:59:57
Hab ich Gegenteiliges gehört @CB Test. ^^
Sieht hübscher aus und zieht weniger Leistung @AMD Karten.


GTA V bietet nicht nur von Rockstar selbst entwickelte Schattentechniken an, sowohl AMD als auch Nvidia bieten alternative Methoden an – eine Seltenheit, dass beide Grafikkartenentwickler mit von der Partie sind. AMD setzt auf „Contact Hardening Shadows“, Nvidia auf „Percentage-Closer Soft Shadows“.

Beide Alternativen sehen besser aus als die von Rockstar. AMDs Contact Hardening Shadows wissen dabei am Ende besser zu gefallen als die Percentage-Closer Soft Shadows, obwohl letztere eine realistischere Darstellung ermöglichen. Nvidia hat aktuell noch mit Fehlern zu kämpfen (sämtliche Schatten fehlen auf der linken Wiese), darüber hinaus sind die Schatten sehr weich. AMDs Variante wirkt dagegen detaillierter.

https://www.computerbase.de/2015-04/gta-v-grafikkarten-und-prozessor-benchmarks/

Frank1974
2016-07-11, 00:05:55
Soll wohl schlechter aussehen als die NVIDIA Lösung und dabei auch noch auf NVIDIA Karten schneller laufen. :freak:
Hab ich Gegenteiliges gehört @CB Test. ^^
Sieht hübscher aus und zieht weniger Leistung @AMD Karten.



https://www.computerbase.de/2015-04/gta-v-grafikkarten-und-prozessor-benchmarks/

Zwei verschiedene Antworten, wer hat jetzt Recht?

Vermutlich ist der Unterschied minimal:smile:

/edit
Der Test ist ja schon alt von CB, die Fehler hat Nvidia vielleicht schon behoben, die im Text erwähnt werden.

Ich muss GTA V auch noch spielen, habe nur den Anfang gemacht, aber mit der HD7970 musste ich zu viele Details abstellen für gute Frameraten, werde es erst weiter spielen wenn ich eine neue GPU habe.

mfg
Frank

Isen
2016-07-11, 00:07:44
Demenz ? :D
Die Rockstar eigene Lösung ist nicht so dolle. Die eigenen Lösungen von AMD/NV sind besser. Auf AMD Seite das eigene CHS halt, zieht weniger Leistung und sieht besser als von Rockstar aus.


€dit: Keine Ahnung. Hatte das Game schon ausgelutscht ehe das von NV gefixt wurde.

Frank1974
2016-07-11, 00:15:21
Demenz ? :D
Die Rockstar eigene Lösung ist nicht so dolle. Die eigenen Lösungen von AMD/NV sind besser. Auf AMD Seite das eigene CHS halt, zieht weniger Leistung und sieht besser als von Rockstar aus.


€dit: Keine Ahnung. Hatte das Game schon ausgelutscht ehe das von NV gefixt wurde.

Mit was ist eine HD7970@1100MHz vergleichbar, mit einer 380x ?

Wenn ja ist der Vorsprung nicht so groß wie ich dachte, außerdem sehen PCGH und Computerbase Test vollkommen verschieden aus, auch andere Tests, immer andere Ergebnisse...

mfg
Frank

Screemer
2016-07-11, 07:07:17
Mit was ist eine HD7970@1100MHz vergleichbar, mit einer 380x ?

Wenn ja ist der Vorsprung nicht so groß wie ich dachte, außerdem sehen PCGH und Computerbase Test vollkommen verschieden aus, auch andere Tests, immer andere Ergebnisse...

mfg
Frank
Wie sich Tonga heute verhält kann ich dir nicht genau sagen. Zum Release war Tahiti bei ca. 1ghz teils merklich schneller als Tonga im Vollausbau auf der 380x.

Edit: im aktuellen pcghindex ist es immer noch so. 7970@1ghz=280x: www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

Liegt aber wohl auch mit daran, dass tonga in Wolfenstein und mich nem spiel für den Index unterirdisch performt.

Frank1974
2016-07-11, 10:57:57
Das es noch kein Frametime Graph OSD gibt bei Afterburner im Digitalfoundry stiel wundert mich selbst ;)


Nvidia FCAT OSD und dann zusätzlich eine speziele Frame analyse Software auf die Richard sehr stolz ist (FPSGui), immerhin wird sowas eigentlich nur im Playout zur Fehleranalyse genutzt ;)



http://youtu.be/KVg19CbkXR4
http://youtu.be/fAVxmfNUuRs

Teils weitaus effizienter als was selbst Entwickler direkt unter Windows analysieren (debugen) können ;)

NX Gamer war da so fasziniert das er sich scheinbar seine eigene kleine Analyse Software gebastelt hat ;)

http://youtu.be/P2iYHdFFhXk

Das ist schon sehr weit fortgeschritten, die Benchmark Methode meine ich, ich habe auch viele Benchmarks gemacht, die meisten meiner Posts hier im Forum sind davon, aber alle mit Fraps, und schon einige Jahre her wo ich immer Highend Karten hatte, dann habe ich aber die Lust verloren. Diese Videos werden alle mit Hardware Capture aufgenommen so wie ich die Erklärung im Video verstanden habe, anderes ginge es ja auch nicht, mit Fraps oder einer anderen Softwarelösung würde die Cpu nicht zu 100% dem Spiel zur Verfügung stehen, schon sehr interessant, wenn ich mal wieder bessere Hardware habe, werde ich auch mal versuchen es auf diese Methode zu machen, ich finde diese Art Bildvergleich bei geteiltem Bildschirm wirklich sehr gut(die verständlichste Methode), es sollten mehr große Seiten so testen, PCGH oder Computerbase haben doch auch genug Leute, sie sind ja im deutschsprachigen Bereich die wichtigsten Tester, da kann man schon das beste erwarten, nur diese Balkendiagramme sind nicht mehr Zeitgemäß, oder?

Wie denkt ihr darüber, man kann ja Balkendiagramme behalten, aber um solche Videos erweitern, allerdings weiß ich das man das nicht in allen Games realisieren kann, aber Timedemos, feste Autosaves oder am besten manuelle Savegames, damit sollte es sehr gut nachstellbar sein, ich kann jedenfalls eine Situation mehrmals durchspielen ohne große Unterschiede, liegt vermutlich daran, das ich in Renngames wie Assetto Corsa oder Project Cars, eine Runde nach der anderen mit minimalen Differenzen spielen kann, auch Witcher 3 oder bei Doom geht das fast 1:1, bei GTA V nicht wirklich da geht aber der Ingame Benchmark wie in den Videos.

Ich muss wirklich mal wieder mehr die Technischen Details von den Spielen anschauen, hat sich sehr viel geändert durch die Möglichkeiten von Youtube.

Hat es einen Grund warum große Review Seiten Quantum Break nicht beachten, liegt es daran das es verkaufsseitig ein Flop ist, oder ist es da nicht so leicht Vergleiche zu machen, die gut übereinstimmen, ich habe das Game nicht, habe aber schon viele Videos davon gesehen, ist auch leider nicht die Art Spiel die ich spiele, und nur um es zu testen kaufe ich es ganz sicher nicht, ist ja auch sehr teuer.

Ich hoffe das bald die GTX1060 mit der RX480 so verglichen wird, obwohl ich denke das es bei mir eine 1070er wird, vielleicht sogar GTX1080, ich hatte ja schließlich immer eine Highendkarte, leider ist diese jetzt schon 4 1/2 Jahre alt:freak:, aber die 7970 ist denke ich die beste Karte die ich je hatte für das Geld, kurze Zeit nach dem Release für 450€ bekommen, man wieso erzähle ich bloß immer so lange Storys die hier niemanden interessieren:freak:, wenn doch die Highend Karten nicht so teuer wären, ich habe früher nie mehr als 500€ gebraucht für die beste Singlekarte, damn Nvidia...


Und nicht falsch verstehen, die RX480 ist eine tolle Karte in ihrem Bereich, aber ich bauche da doch etwas was mindestens die doppelte Leistung erreicht, und das schafft die RX480 leider nicht, sonst hätte mir das gereicht, aber ich denke mehr wie 50% ist es wohl nicht, aber ich weiß auch wirklich nicht welchen Test man noch trauen kann, traue keiner... ihr wisst schon was ich meine ;)

Wie sich Tonga heute verhält kann ich dir nicht genau sagen. Zum Release war Tahiti bei ca. 1ghz teils merklich schneller als Tonga im Vollausbau auf der 380x.

Edit: im aktuellen pcghindex ist es immer noch so. 7970@1ghz=280x: www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

Liegt aber wohl auch mit daran, dass tonga in Wolfenstein und mich nem spiel für den Index unterirdisch performt.

Danke für die Info. :)

mfg
Frank

Schlammsau
2016-07-11, 11:39:13
Nach langem abwegen, mir ist das Ding für das Gebotene einfach noch zu teuer. 270€ für den Brüllwürfel .... neee, und die Customs werden zwar besser sein aber wahrscheinlich auch noch teurer. Von daher, keine schlechte Karte aber ein P/L Wunder ist sie mMn leider noch nicht. Mal abwarten, ich jab Zeit und mal gucken wo die 1060 landet, dann werden sich die Preise von alleine korrigieren.

Linmoum
2016-07-11, 11:44:57
Die Preise korrigieren sich doch quasi die ganze Zeit, erst gestern war eine von Sapphire im Mindstar für 240€ drin.
Geht doch schon seit Release so, wer jetzt noch die vollen 270€ zahlt ist selbst Schuld. :tongue:

iuno
2016-07-11, 11:47:14
Im Mindstar war sie fast die ganze Woche fuer 239, afaik.

-/\-CruNcher-/\-
2016-07-11, 11:50:47
Dann solltet ihr hoffen das Nvidia die RX480 in den Reviews schlägt *g*

Wobei 240€ schon absolut fair ist für das Gesammte Featureset + Leistung in die nähe des 470 Preises kann man aber eh nicht schwappen wäre auch nicht healthy und unfair AMD gegenüber so zu denken die Händler wären auch nicht gerade Happy die Aktionäre schon garnicht.

soLofox
2016-07-11, 11:52:21
habe heute mehrmals reingeschaut, die haben sie wohl vor einer halben stunde oder so raus genommen. weil die RX480 noch heute morgen die ganze zeit für 239EUR inkl. VSK drin war.

Isen
2016-07-11, 12:00:05
Dann solltet ihr hoffen das Nvidia die RX480 in den Reviews schlägt *g*

Wenn es hiernach geht nicht - ohje... das gibt wieder Bash in den Foren ;D
http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10606G-Grafikkarte-264678/News/Neue-Benchmarks-und-technische-Details-1201215/

Schlammsau
2016-07-11, 12:01:28
Die Angebote von 240€ hab ich wohl übersehen, ist schon besser, nur auf Geizhals hat ich die Karte nie für unter 259€ gesehen.

Mein angepeiltes Budget war um die 200€ und ich hätte eigentlich erwartet das die 4GB Version sich in dem Bereich befinden wird. Aber die ist ja quasi nie käuflich zu erwerben gewesen.

Cyphermaster
2016-07-11, 12:01:46
Schade, daß -erwartbar, aber dennoch- vor lauter Performance-Fokussierung ein paar real sehr interessante Dinge wie z.B. Kompatibilität/Fehlerfreiheit der Darstellung unter Spielen noch niemand so recht getestet hat. Sowas ist für den User ja auch ziemlich interessant.

iuno
2016-07-11, 12:03:12
habe heute mehrmals reingeschaut, die haben sie wohl vor einer halben stunde oder so raus genommen. weil die RX480 noch heute morgen die ganze zeit für 239EUR inkl. VSK drin war.
War halt eine begrenzte Stueckzahl, man konnte schon gestern sehen, dass das Angebot bald auslaeuft ;)
Wenn es hiernach geht nicht - ohje... das gibt wieder Bash in den Foren ;D
Wieso? da steht doch nichts neues geschweige denn, dass die 1060 schlechter abschneiden soll als bisher angenommen.

Fliwatut
2016-07-11, 12:07:12
Aber die ist ja quasi nie käuflich zu erwerben gewesen.
Stimmt nicht, die gab es bei Alternate für 219€ auch noch ein paar Tage, nachdem das mit dem 8GB-Patch bekannt war. Man muss dann halt nur auch irgendwann mal zuschlagen. Unter 200,- € wird es die Karte wohl nur in seltenen Angeboten geben, da muss man dann immer mal wieder bei Mindstar, ZackZack oder mydealz reingucken.

StefanV
2016-07-11, 12:07:37
Schade, daß -erwartbar, aber dennoch- vor lauter Performance-Fokussierung ein paar real sehr interessante Dinge wie z.B. Kompatibilität/Fehlerfreiheit der Darstellung unter Spielen noch niemand so recht getestet hat. Sowas ist für den User ja auch ziemlich interessant.
Wieso?

Meinst, dass die RX480 in diesem Punkt besonders gut abschneidet und 'die anderen' noch schlechter dastehen würde, wenn mans mnachen würde?

soLofox
2016-07-11, 12:24:53
War halt eine begrenzte Stueckzahl, man konnte schon gestern sehen, dass das Angebot bald auslaeuft ;)

heute morgen war der bestand immer noch bei 200.

daran lag es nicht.

Isen
2016-07-11, 12:32:28
Wieso? da steht doch nichts neues geschweige denn, dass die 1060 schlechter abschneiden soll als bisher angenommen.


Was fragst du mich das?
Frag die ganzen Boyz, wie die so ticken.
Am liebsten wäre mir ja nur ein Hersteller und nur High-End mit ~2000€ Preis. Ist man das gesamte Kruppzeug endlich los. Statt sich dann Gegenseitig auf die Virtuelle Nase zu hauen, hetzt man dann (weil ja nur noch die gut-Verdiener übrig bleiben) die Anwälte auf die Presse bis auch diese kaputt ist :freak:

Birdman
2016-07-11, 12:40:42
Wieso?
Meinst, dass die RX480 in diesem Punkt besonders gut abschneidet und 'die anderen' noch schlechter dastehen würde, wenn mans mnachen würde?
Glaube nicht dass er hier explizit etwas in Richtung einer spezifischen Karte andeuten wollte.

Grundsätzlich wäre es imho aber schon mal wieder an der Zeit, dass jemand die BildQualität der beiden Hersteller vergleicht, am besten auch über mehr als nur die aktuelle Kartengenerationen hinweg.
Gefühlt gabs hier schon ewigs nichts mehr in diese Richtung, was beim mittlerweile sehr grossen Aufwand für alleine die FPS- und Verbrauch-Benchmarks auch nicht so sehr verwundert.

Screemer
2016-07-11, 12:53:09
heute morgen war der bestand immer noch bei 200.

daran lag es nicht.
Der bestand war von Anfang an 200. Das sah im mindstar so aus als würde niemand die Karte kaufen...

iuno
2016-07-11, 13:03:23
heute morgen war der bestand immer noch bei 200.

daran lag es nicht.
Derbbestand war von Anfang an 200. Das sah im mindstar so aus als würde niemand die Karte kaufen...
Nein, war er nicht. Das ist die Menge, die maximal zur Verfuegung stand. MF aktualisiert diese Zahl nicht. Man muss auf den Balken achten um zu schauen, wie viele noch da sind. Der ist kontinuierlich gesunken und war gestern schon im roten Bereich.

aktuell sieht das so aus:

https://i.imgur.com/zy6uihn.png https://i.imgur.com/iuxeM3n.png

Das hat auch mit dem Timer nichts zu tun, der startet immer bei 5 Min und wird nach dem Auslaufen zurueckgesetzt (das linke Bild ist aelter).

Es sind also vielleicht noch etwa 50 von den Gehaeusen da und >150 von den SSDs


Als ich vor ein paar tagen geschaut habe, lag man afair auch noch um die ~800 verkaufte Sapphire, jetzt sind es >1k (http://www.mindfactory.de/product_info.php/8192MB-Sapphire-Radeon-RX-480-Aktiv-PCIe-3-0--Retail-_1109425.html), also wuerde auch das passen. Aber das hat vielleicht jemand besser verfolgt und festgehalten ;)

Screemer
2016-07-11, 13:08:03
Nein, war er nicht. Das ist die Menge, die maximal zur Verfuegung stand. MF aktualisiert diese Zahl nicht. Man muss auf den Balken achten um zu schauen, wie viele noch da sind. Der ist kontinuierlich gesunken und war gestern schon im roten Bereich.

aktuell sieht das so aus:

https://i.imgur.com/zy6uihn.png https://i.imgur.com/iuxeM3n.png

Das hat auch mit dem Timer nichts zu tun, der startet immer bei 5 Min und wird nach dem Auslaufen zurueckgesetzt (das linke Bild ist aelter).

Es sind also vielleicht noch etwa 50 von den Gehaeusen da und >150 von den SSDs

Das ist mir schon klar. Die 3 mal die ich gestern rein gesehen habe, hatte sich der Pfeil nicht bewegt. Das meinte ich damit.

iuno
2016-07-11, 13:19:02
Wie gesagt, ich habe die letzten Tage oefters vorbeigeschaut und in dem Zeitraum ging es klar nach rechts.
Der Preis war naemlich ziemlich ordentlich, egal ob noch customs oder die 1060 kommen. Fullcover drauf und gut, konnte mich kaum zurueckhalten ;p

Cyphermaster
2016-07-11, 13:26:00
Wieso?

Meinst, dass die RX480 in diesem Punkt besonders gut abschneidet und 'die anderen' noch schlechter dastehen würde, wenn mans mnachen würde?*seufz* :rolleyes:

Nein, sondern ganz einfach, weil es genau wie Spulenfiepen und all der andere "Kleinkram" auch relevant/interessant ist. Echt, wenn ich diese andauernde implizite rot-grüne Dauerschlacht in den Köpfen sehe, werde ich immer wieder daran erinnert, warum ich in dem Bereich hier so wenig poste.

Iruwen
2016-07-11, 14:01:06
Das würde wohl ohne Hinweise aus der Community nur jemand machen der privat Bock drauf hat und kein Geld damit verdienen muss, der Arbeitsaufwand steht ja in keinem Verhältnis zum zu vermutenden Erkenntnisgewinn.

Cyphermaster
2016-07-11, 14:13:28
Sehe ich ähnlich. Der Erkenntnisgewinn wäre zwar imo sicherlich nicht wenig relevant (da bin ich nicht ganz bei dir), aber ja, es ist recht viel Arbeit, die man in so einen Artikel stecken muß (oder mehrere Personen parallel dran setzen), in Relation zum schnellen/einfachen Benchmarking der üblichen Titel, um direkt zum Launch Klicks abzugreifen. Leider.

Iruwen
2016-07-11, 16:04:16
So meinte ich das auch nicht, schlecht ausgedrückt: natürlich wäre es sehr interessant, wenn man etwas finden würde - aber ohne konkrete Anhaltspunkte von Leuten, denen etwas in der Richtung aufgefallen ist, könnte das ein langwieriges Stochern im Heuhaufen werden.
Vermutlich geht es heute auch nicht mehr so sehr um Trivialitäten wie schlechteres AF oder SGSSAA Muster (wobei, sollte man sich vielleicht gerade mal wieder ansehen). Das bei jedem Spiel unterschiedliche Rumgemurkse an Shadern usw. im Treiber fällt wohl stärker ins Gewicht.

Linmoum
2016-07-11, 18:57:16
https://www.computerbase.de/2016-07/radeon-rx-480-bilder-partnerkarten/

Bilder zu diversen Customs, Sapphire stellt die Nitro (wohl) übermorgen offiziell vor.

Loeschzwerg
2016-07-11, 19:09:24
Irgendwie gibt es nur noch fette Klötze... :(

iuno
2016-07-11, 19:12:31
Genau wie bei der 1070 anfangs.
Eine "Nano" die das PCB nicht ueberragt und etwas gedrosselt ist waere mal interessanter ;p
Vielleicht kommt sowas aber auch erst mit der 470...

dildo4u
2016-07-11, 19:17:16
480 Crossfire Review mit Frametimes


http://www.hardocp.com/article/2016/07/11/amd_radeon_rx_480_8gb_crossfire_review/1

Ph03n!X
2016-07-11, 19:35:53
Für 4K Gaming muss man noch auf VEGA warten oder?

Bei der 1070 habe ich gesehen das Sie 4K schon mit reduzierten Details fahren kann.

Hasenpfote
2016-07-11, 20:59:23
Genau wie bei der 1070 anfangs.
Eine "Nano" die das PCB nicht ueberragt und etwas gedrosselt ist waere mal interessanter ;p
Vielleicht kommt sowas aber auch erst mit der 470...
Vielleicht baut Powercolor ja eine RX480 Green :biggrin:
http://www.powercolor.com/us/techzone.asp?id=22

Wird ja mal wieder Zeit. Haben ja allerhand Generationen übersprungen.

anddill
2016-07-12, 00:05:23
Mal eine Frage zum Lieferumfang. Ich hab extra die HIS bestellt, da dort bei allen Produktbildern ein Displayport zu DVI Adapter dabei war. Stand natürlich nirgens in der Beschreibung, weder bei HIS noch bei anderen "Herstellern".
Wäre mal interessant zu wissen ob die anderen den Adapter auch mitliefern und nur nicht mit abbilden/erwähnen, oder ob das ein Alleinstellungsmerkmal der HIS Referenzkarte ist.

Messias
2016-07-12, 00:07:56
Also bei mir (XFX) war keinerlei Adapter dabei.

2Ms
2016-07-12, 00:15:34
Sapphire, Nix außer ner DvD und einem Quicksetup. Nichtmal ein Sticker oder ein anderes Goodie.

horn 12
2016-07-12, 00:16:16
@andll

Sapphire Fury @1070 Mhz gegen RX 480 Nitro, oder MSI Gaming RX 480 tauschen oder nicht?
Gekauft habe ich den 4K LG27UD-68 /P
Rechne sollte bei der Fury bleiben :-)

captain_drink
2016-07-12, 00:23:36
Vermutlich geht es heute auch nicht mehr so sehr um Trivialitäten wie schlechteres AF oder SGSSAA Muster (wobei, sollte man sich vielleicht gerade mal wieder ansehen).

Das wäre eigentlich eine typische 3DC-Sache. Man erinnere sich an die Zeiten, als hier noch fleißig die Mipmaps im 3DC-Filtertester verglichen wurden...

anddill
2016-07-12, 00:24:56
@andll

Sapphire Fury @1070 Mhz gegen RX 480 Nitro, oder MSI Gaming RX 480 tauschen oder nicht?
Gekauft habe ich den 4K LG27UD-68 /P
Rechne sollte bei der Fury bleiben :-)

Bist Du irgendwann mal zufrieden mit dem was Du hast? Deine Karte ist doch gut, behalte sie solange der VRAM reicht, vor allem wenn Du 4K nutzt. Ich behalte meine FuryX ja auch. Die RX 480 ist für meine Tochter.

@ Messias & 2Ms: Danke für die Rückmeldung. Hab ich ja richtig ausgesucht. Ich hatte den DP auf DVI Adapter, eine DvD (kein Ahnung was da drauf ist), eine Kurzanleitung und einen 2x Molex auf 6-Pin Adapter mit in der Packung.

hmpf... Zero Core Power geht natürlich mal wieder nicht (ging das bei irgend einer Karte bei irgend jemandem überhaupt schon mal?) und Wattman erzeugt 30% Last auf einem Core, wenn er nur offen ist.

-/\-CruNcher-/\-
2016-07-12, 00:29:49
*seufz* :rolleyes:

Nein, sondern ganz einfach, weil es genau wie Spulenfiepen und all der andere "Kleinkram" auch relevant/interessant ist. Echt, wenn ich diese andauernde implizite rot-grüne Dauerschlacht in den Köpfen sehe, werde ich immer wieder daran erinnert, warum ich in dem Bereich hier so wenig poste.

Da gibt es eine Menge zu beachten vor allem wenn wir dann in die Berreiche HDR und 10 Bit vordringen das wird für die meisten Reviewer wahrlich nicht einfach ;)

Bin mir sehr sicher das vor allem Richard in der Richtung sehr viel auffällt schon jetzt was Render differenzen angeht ;)

Das letzte mal Render differenz tests war noch bei der Einführung von Maxwells DCC der Fall ;)

Thunder99
2016-07-12, 00:33:17
Bist Du irgendwann mal zufrieden mit dem was Du hast? Deine Karte ist doch gut, behalte sie solange der VRAM reicht, vor allem wenn Du 4K nutzt. Ich behalte meine FuryX ja auch. Die RX 480 ist für meine Tochter.

@ Messias & 2Ms: Danke für die Rückmeldung. Hab ich ja richtig ausgesucht. Ich hatte den DP auf DVI Adapter, eine DvD (kein Ahnung was da drauf ist), eine Kurzanleitung und einen 2x Molex auf 6-Pin Adapter mit in der Packung.

hmpf... Zero Core Power geht natürlich mal wieder nicht (ging das bei irgend einer Karte bei irgend jemandem überhaupt schon mal?) und Wattman erzeugt 30% Last auf einem Core, wenn er nur offen ist.
mit nativen DVI ging es mal oder geht (müsste ich mal testen ^^). Wenn es auf HDMI und oder DP nicht mehr gehen soll liegt es dann evt an dem Standard (und dessen Anforderungen)? :confused:

2Ms
2016-07-12, 00:43:54
Hab ich ja richtig ausgesucht. Ich hatte den DP auf DVI Adapter, eine DvD (kein Ahnung was da drauf ist), eine Kurzanleitung und einen 2x Molex auf 6-Pin Adapter mit in der Packung.
Zwingenderweise ist ein "2xMolex auf 6-pin"-Adapter erforderlich ? Dachte mit meinem Crossfire_Mainboard könnte ich mal meine alte 7950 dazustecken, und diese dann nur mit 1xMolex auf 6-pin + 1x6-pin versorgen (wenn es solche Adapter überhaupt gibt).

hmpf... Zero Core Power geht natürlich mal wieder nicht (ging das bei irgend einer Karte bei irgend jemandem überhaupt schon mal?) und Wattman erzeugt 30% Last auf einem Core, wenn er nur offen ist.
Zeorcore kenn ich nur vom Hörensagen, aber nicht vom praktischen Einsatz.
Und ja, der WattMan beeinflußt leider die Taktraten, sodass man, um die richtigen Werte zubekommen, einen anderen Monitor wie GPU-Z laufen lassen muss, während der Crimson geschlossen bleibt.

2Ms
2016-07-12, 00:48:38
Nachdem ich nur Mecker für die 480 übrig hatte, muss ich ihr auchmal bescheinigen, dass sie eine verdammt geniale Bildqualität liefert.

Ich will nicht gegen Nividia bashen, aber der Wechsel damals von einer GTX 6800
auf die HD 5770 brachte einen gewaltigen Schub in Richtung Qualität. Ich konnte in den gleichen Spielen plötzlich Dinge sehen, die vorher einfach nicht dargestellt wurden.
Die 7950 brachte nochmals Verbesserungen mit, und nun mit der 480 wird es noch getoppt.
Die Brillianz, diese Klarheit machen schon Spaß.