PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 [48] 49 50 51 52 53 54 55 56

tm0975
2015-06-25, 13:16:10
doch wieder ein paar modelle lagernd.

http://www.mindfactory.de/product_info.php/4096MB-Sapphire-Radeon-R9-FURY-X-Hybrid-PCIe-3-0-x16--Full-Retail-_1007173.html

Hübie
2015-06-25, 13:18:39
Also am MC des Chips sollte sich eigentlich gegenüber HBM "1" nichts ändern. Nur am logic die unter den Stacks. Und warten wir mal die Zeit ab, wenn die Profis die richtigen Werkzeuge zur Verfügung stellen :cool:

@Raff: Ich kauf keine Fury, also muss das jemand übernehmen der so ein Ding hat und aktiv helfen kann.

maguumo
2015-06-25, 13:21:29
Also am MC des Chips sollte sich eigentlich gegenüber HBM "1" nichts ändern. Nur am logic die unter den Stacks.
Meinst du? Die Frequenz verdoppelt sich immerhin, und auch an den Timings dürfte das was drehen...

Sicness
2015-06-25, 13:35:20
Hängt die Karte bei dir ganz normal im Tower? Kannst du das versuchen zu lokalisieren ob es von der Elektronik oder der Welle / dem Lauf kommt? Wird die Pumpe per PWM geregelt? Mach mal bitte Deckel ab und Fotos ;D

Ja, ist ganz normal im Tower (Xigmatek Elysium) montiert. Fuer genauere Inspektionen oder gar Mods fehlte die Zeit. Evtl. kann ich da heute Abend was machen.

Arcanoxer
2015-06-25, 13:36:41
doch wieder ein paar modelle lagernd.

http://www.mindfactory.de/product_info.php/4096MB-Sapphire-Radeon-R9-FURY-X-Hybrid-PCIe-3-0-x16--Full-Retail-_1007173.html
Sogar zum Sonderpreis!

Unicous
2015-06-25, 13:44:23
Nein, das ist der UVP.:rolleyes:

anddill
2015-06-25, 13:48:22
Er meint daß bei MF da Sonderpreis dran steht. Was ziemlich frech ist.

Unicous
2015-06-25, 13:49:02
I know.

Exxtreme
2015-06-25, 13:49:46
Es gibt etliche Shops wo die Karte teurer ist. Von daher ist das schon so eine Art Sonderpreis.

Liquaron
2015-06-25, 13:50:22
Kann mir eigentlich mal wer erzählen warum 4k so wichtig geworden ist?

95% der PC Spieler zocken wohl in Full HD.

Liegt das an den 4k Fernsehern, oder an VR?

Liegt es am Downsampling?

Stehe da so ein bisl auf dem Schlauch.

akuji13
2015-06-25, 13:50:37
@akuji13: Jetzt fehlen nur noch die Tools für OC ;)

OC hat jetzt nicht sooooo die Priorität bei mir.

FURY X Karte bereits erhalten?
Berichte wenn möglich ....
Danke!

Ist noch nicht mal ausgepackt...es gibt da diese blöde Sache namens "Beruf" die mich davon abhält. :D

95% der PC Spieler zocken wohl in Full HD.

Ich gehöre zu den anderen 5. ;)

anddill
2015-06-25, 13:52:09
Kann mir eigentlich mal wer erzählen warum 4k so wichtig geworden ist?

95% der PC Spieler zocken wohl in Full HD.

Liegt das an den 4k Fernsehern, oder an VR?

Liegt es am Downsampling?

Stehe da so ein bisl auf dem Schlauch.

Weil ohne 4k die 4GB RAM reichen würden, und man sonst nichts zu bashen hätte ;)

Unicous
2015-06-25, 13:52:17
Es gibt etliche Shops wo die Karte teurer ist. Von daher ist das schon so eine Art Sonderpreis.

Und? Weil einige Shops Mondpreise bzw. über dem UVP liegen ist das kein Sonderpreis, so ein Blödsinn.

http://www.av-electronix.de/4096+MB/244007/ASUS+R9FuryX-4G+mit+MANTLE+und+Gaming+Evolved+Client%2C+4GB+HBM%2C+DVI%2C+HDMI%2C+3x+DisplayP ort.article?pvid=4s4b3ek4c_ibbfb400&ref=13

http://www.av-electronix.de/price/199900_MEDIUM.jpg

Lowkey
2015-06-25, 13:52:42
Kann mir eigentlich mal wer erzählen warum 4k so wichtig geworden ist?

95% der PC Spieler zocken wohl in Full HD.

Liegt das an den 4k Fernsehern, oder an VR?

Liegt es am Downsampling?

Stehe da so ein bisl auf dem Schlauch.

4k + Full Details bei 60fps gilt als nächster Meilenstein.
DSR, also Downsampling macht aus jedem Monitor ein 4k Monitor.

Bei Full HD hast du mit aktuellen Karten mehr FPS als du brauchst. Selbst eine 960 4 Gbyte reicht da vollkommen aus.

akuji13
2015-06-25, 13:53:56
Weil ohne 4k die 4GB RAM reichen würden, und man sonst nichts zu bashen hätte ;)

Selbst ohne reichen sie ja nicht immer! :P

Mich selbst bashen darf ich ja wohl! :D

Thunder99
2015-06-25, 13:57:02
aber nur bei älteren Titeln und es kommt immer auf Genre drauf an.

DSR/VSR und native 4k Monitore heben einfach die Bildqualität erheblich an. Aber für full Details + 4k braucht es für die Spiele von heute eher die Karte von morgen oder SLI/Crossfire. War aber schon immer so :D. Nebenbei da ich "nur" 1440p VSR betreibe aber mit SGSSAA zieht Witcher 1 schon verdammt gut aus (abgesehen von den verhältnismäßig wenig Details). Wenn es stark regnet hab ich unter 40fps :freak:

Botcruscher
2015-06-25, 13:58:01
DSR, also Downsampling macht aus jedem Monitor ein 4k Monitor.
Nein.
95% der PC Spieler zocken wohl in Full HD.
95% der Spieler kommen auch nicht in die Nähe einer 700€ Karte.

4K ist so wichtig weil die Bildqualität grob 2 Qualitätsstufen über 1080p liegt.

akuji13
2015-06-25, 14:01:04
Nein.

Und zwar ganz entschieden nein.

Liquaron
2015-06-25, 14:02:20
Nein.

95% der Spieler kommen auch nicht in die Nähe einer 700€ Karte.

4K ist so wichtig weil die Bildqualität grob 2 Qualitätsstufen über 1080p liegt.

Das hängt aber auch nur damit zusammen, weil man so nah an einem Monitor sitzt, oder?

Bei einem Fernseher relativiert sich der Vorteil ja mit entsprechender Entfernung.

Arcanoxer
2015-06-25, 14:08:00
Das hängt aber auch nur damit zusammen, weil man so nah an einem Monitor sitzt, oder?

Bei einem Fernseher relativiert sich der Vorteil ja mit entsprechender Entfernung.
Schon klar, aber ppi bleibt ppi. ;)

Botcruscher
2015-06-25, 14:14:24
Das hängt aber auch nur damit zusammen, weil man so nah an einem Monitor sitzt, oder?
Bei einem Fernseher relativiert sich der Vorteil ja mit entsprechender Entfernung.
Das Fliegengitter und der Tetriseffekt sind auf Fernsehern wegen der geringen DPI noch viel schlimmer. Der Gewinn fällt entsprechen höher aus. Die Bereiche in denen wir uns bewegen sind alle noch ohne Probleme unterhalb der Auflösung des Auges.

Spiele gewinnen einfach enorm unter 4K. Das geht von der ordentlichen Darstellung von "Linien" (Vegetation, Leistungen) über deutlich bessere Texturen bis zu geringerem Flimmern. Geh in den nächsten Blödmarkt und schau es dir an.

Weil ohne 4k die 4GB RAM reichen würden, und man sonst nichts zu bashen hätte ;)
Unnötig. Einzig die Tests mit 4K und hohen AA kann man als unpraktisch abschreiben. In der Regel reicht es ja gerade so für 4K. 2xAA sind schon Bonus. Höhere AA Modi würde man vermutlich auch nicht mehr sehn. Auf jeden Fall wäre eine Bildanalyse unter 4K +AA mal wieder ein schöner Artikel. Gamestar hatte im Witcher 3 Artikel schöne Auszüge wie brachial der Qualitätsgewinn ist.

Sicness
2015-06-25, 14:27:18
Habe in der Mittagspause mal versucht, das Geraeusch einzufangen. Leider taugt die Handycam nicht viel. Wers trotzdem anschauen(hoeren) mag: http://youtu.be/TZHrgYw0_IE

Objektiv ist es wirklich nicht laut, die Frequenz empfinde ich persoenlich jedoch als aeusserst unangenehm. Ich hoere es leider auch aus dem geschlossenen Gehaeuse heraus. Evtl. schaue ich heute Abend mal unter den Deckel.

horn 12
2015-06-25, 14:30:10
AMD Stategie jedes Monat aktuell zu wirken,- sprich im Gespräch bleiben
Daher auch die einzelnen Release der FURY - NANO Karten und ebenso der OMEGA Phase 2 Treiber.
Stückchenweise voran,- bis Ende Jahr 2015

anddill
2015-06-25, 14:34:52
Habe in der Mittagspause mal versucht, das Geraeusch einzufangen. Leider taugt die Handycam nicht viel. Wers trotzdem anschauen(hoeren) mag: http://youtu.be/TZHrgYw0_IE

Objektiv ist es wirklich nicht laut, die Frequenz empfinde ich persoenlich jedoch als aeusserst unangenehm. Ich hoere es leider auch aus dem geschlossenen Gehaeuse heraus. Evtl. schaue ich heute Abend mal unter den Deckel.

Kleines Laufrad, hohe Drehzahl. Da wird außer Dämmen kaum was zu machen sein, ohne eine neue Pumpe zu konstruieren.

Sicness
2015-06-25, 14:41:30
anddill: Eben. Daher ueberlege ich auch ernsthaft, das Ding auf den Rueckweg zu schicken. So gern ich die Fury X auch moegen will, sie macht es mir schwer :(

fondness
2015-06-25, 14:50:27
Hm, hast du mal versucht die Platte runter zu schrauben und da direkt etwas Dämmschaum rein zu legen? Da sollte ja ein ziemlich großer Hohlraum vorhanden sein zwischen dem Pumpenblock und der Kartenverkleidung wenn ich das richtig sehe. Und die Karten selbst braucht eh keine Luft.

Complicated
2015-06-25, 15:08:21
Battlefield 4s Mantle Implementation schaltet bei GCN 1.2 Karten in eine Art "Fallback-Modus", daher ist die Performance mit der R9 285, R9 380 und Fury (X) schlechter als mit Direct3D. DICE hat in ihrer Frostbite Engine intern Mantle bereits mit Vulkan ersetzt. Man sollte hier nicht allzu viel herauslesen.
Nightspider, d2kx ist Betatester bei/für AMD.
Das ist ja nett, doch so richtig überzeugen tut mich diese Aussage nun nicht.
Zum einen unterstützt DICEs Frostbite Engine 3.0 Mantle, Dx12 und zukünftig auch Vulkan laut Johan Anderson:
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Frostbite-30-DirectX-12-Vulkan-1155856/
(Und auch allen Aussagen von AMD entsprechend, dass sie mit DICE und Oxide Games, sowie anderen interessierten zusammen Mantle weiter entwickeln wollen zu Version 2.0)
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Mantle-Dokumentation-neue-Features-1152330/
"muss Mantle neue Möglichkeiten annehmen und sich über die Bewältigung von Draw-Calls hinaus entwickeln. Es [Anm. d. Red.: Mantle] wird AMD weiterhin als eine grafische Innovationsplattform für ausgewählte Partner mit spezifischen Bedürfnissen dienen", heißt es weiter.
All jene, die an den Möglichkeiten von "Mantle 1.0" interessiert sind, sollten sich laut AMD lieber mit DirectX 12 oder GLNext beschäftigen – offenbar gemeint sind die Reduzierung des CPU-Overheads und womöglich die manuelle Speicherverwaltung. In Anbetracht des vorherigen Zitats würden wir das allerdings nicht so interpretieren, dass AMD Mantle aufgeben wollte. Vielmehr scheint man sich auf neue Features in "Mantle 2.0" vorzubereiten, die dann engen Partnern zur Verfügung gestellt beziehungsweise in direkter Zusammenarbeit entwickelt werden. Zu nennen wären da beispielsweise Frostbite-Entwickler (derzeit DICE und Visceral) und Oxide Games. Neue Informationen sind hier, wie schon angesprochen, von Donnerstag auf Freitag zu erwarten.
Und zum anderen sollte man überprüfen ob der hier gemeinte "Fallback Modus" nicht einfach die aktivierte SBO Funktion bei Mantle ist, welche Anand auf Nachfrage von Qxide Games hier erklärt bekommen hat:
http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/6
ab dem Update lesen, das Oxide Games auf Rückfrage geliefert hat:
Oxide Games has emailed us this evening with a bit more detail about what's going on under the hood, and why Mantle batch submission times are higher. When working with large numbers of very small batches, Star Swarm is capable of throwing enough work at the GPU such that the GPU's command processor becomes the bottleneck. For this reason the Mantle path includes an optimization routine for small batches (OptimizeSmallBatch=1), which trades GPU power for CPU power, doing a second pass on the batches in the CPU to combine some of them before submitting them to the GPU. This bypasses the command processor bottleneck, but it increases the amount of work the CPU needs to do (though note that in AMD's case, it's still several times faster than DX11).
Ansonsten würden auch mich hier nähere Angaben und Ausführungen - vor allem belastbare Quellen interessieren.

BlacKi
2015-06-25, 15:23:41
Kann mir eigentlich mal wer erzählen warum 4k so wichtig geworden ist?

weil die karte in 1080p/1440p suuuuuckt!:freak:

nee, aber bestimmt 50-70% der leute die so eine schnelle karte haben zocken mit 1440p oder höher.

der durschnitts spieler spielt weiter in 1080p aber die meisten leute die mehr als 500€ für ihre grafikkarte ausgeben zocken nichtmehr in 1080p.

bringt einem ja auch nichts wenn die karte mit 60% auslastung rumdümpelt.

Nakai
2015-06-25, 15:28:33
http://geizhals.de/?m=1

Die Top 10 in Hardware ist ganz interessant. AMD führt derzeit die Liste an.
Die Top 10 in Grafikkarten ist auch wieder mit AMD durchsetzt. Beim GTX9xx-Launch war natürlich die gesamte Liste voller NVidias. Dennoch sollte das ein Indikator sein, welcher positiv für AMD ausgelegt werden darf.

Fury ist nirgends gelistet und auch nirgends erhältlich.

Die Verfügbarkeit ist wohl nicht ganz so hoch. Ich würde auf ein paar wenigen 10k für Fiji beim Launch schätzen. Ansonsten ist klar, wieso alle anderen Fiji-Produkte erst im Laufe des Jahres kommen. Die Verfügbarkeit ist einfach sehr gering.

Diesbezüglich hat es AMD geschafft sich wieder etwas zu profilieren. Ich hoffe, die 14nmFF-GCNs werden stärker einschlagen. Ich spekuliere mal, dass wird zwei 14mFF-Karten erstmal sehen werden. Eine GPU welche Capeverde&Bonaire ersetzt und ein Highend-HPC-Modell. Tonga und Fiji darf nochmal ran.

Unicous
2015-06-25, 15:30:38
Krass wie gut Fury X bei AK abschneidet.

https://pbs.twimg.com/media/CISxr66UkAAkDYI.jpg:large

Knuddelbearli
2015-06-25, 15:40:54
http://geizhals.de/?m=1

Die Top 10 in Hardware ist ganz interessant. AMD führt derzeit die Liste an.
Die Top 10 in Grafikkarten ist auch wieder mit AMD durchsetzt. Beim GTX9xx-Launch war natürlich die gesamte Liste voller NVidias. Dennoch sollte das ein Indikator sein, welcher positiv für AMD ausgelegt werden darf.

Fury ist nirgends gelistet und auch nirgends erhältlich.

Die Verfügbarkeit ist wohl nicht ganz so hoch. Ich würde auf ein paar wenigen 10k für Fiji beim Launch schätzen. Ansonsten ist klar, wieso alle anderen Fiji-Produkte erst im Laufe des Jahres kommen. Die Verfügbarkeit ist einfach sehr gering.

Diesbezüglich hat es AMD geschafft sich wieder etwas zu profilieren. Ich hoffe, die 14nmFF-GCNs werden stärker einschlagen. Ich spekuliere mal, dass wird zwei 14mFF-Karten erstmal sehen werden. Eine GPU welche Capeverde&Bonaire ersetzt und ein Highend-HPC-Modell. Tonga und Fiji darf nochmal ran.

finde die liste immer extrem uninteressant. das zeigt ja nur wie oft nachgeguckt wurde und natürlich guckt man bei einem neuen produkt mehr nach wie bei einem alten. trotzdem kann es sein das ein älteres produkt zig fach öfter verkauft wird.

Verfügbarkeit ist glaube ich aber nicht mal so schlimm. Ein Kumpel in einem mittelgroßen Hardwareshop ( nicht ansatzweise so groß wie Alternate) meinte sie haben 250 Stück bekommen

Nakai
2015-06-25, 15:46:12
Verfügbarkeit ist glaube ich aber nicht mal so schlimm. Ein Kumpel in einem mittelgroßen Hardwareshop ( nicht ansatzweise so groß wie Alternate) meinte sie haben 250 Stück bekommen

Dann hat AMD zum Launch schonmal keine zu kleine Menge abgesetzt.

Ich finde auch, dass viele Leute erstmal zwei Wochen oder so abwarten und dann Fiji neubewerten. Die überhöhten Anforderungen mancher hier, hat wohl zu viel Frust geführt. :freak:

Krass wie gut Fury X bei AK abschneidet.

https://pbs.twimg.com/media/CISxr66UkAAkDYI.jpg:large

???

Ja, wenn man es nicht gebacken kriegt, den FPS-Limitierer abzuschalten.

Unicous
2015-06-25, 15:49:59
Es war ein Joke.:rolleyes:

Accidentally left this result out of my Fury review.

https://twitter.com/scottwasson/status/613810818212192256


e:
Wäre krass, wenn Iron Galaxy wirklich nur zwei Monate oder so Zeit hatte um das Spiel zu portieren. Andererseits. Für zwei Monate wäre das gute Arbeit ;)

Ok, das fußt auf einem SteamDB-Eintrag. Those people on reddit...:facepalm:

y33H@
2015-06-25, 15:55:49
Krass wie gut Fury X bei AK abschneidet.

https://pbs.twimg.com/media/CISxr66UkAAkDYI.jpg:largeGrandios ;D

Nakai
2015-06-25, 15:59:32
Es war ein Joke.:rolleyes:



https://twitter.com/scottwasson/status/613810818212192256



Deine Intention hatte ich schon verstanden. ;)

Das es bei mir trotzdem nicht gezündet hat, ist etwas anderes...:freak:

Seth
2015-06-25, 17:04:55
Als wenn man in in dem Spiel immer die 30fps halten könnte, fake. ;D

tm0975
2015-06-25, 17:27:56
Als wenn man in in dem Spiel immer die 30fps halten könnte, fake. ;D

darfst halt nicht immer nur den max wert vom frame limiter setzen sondern mußt auch mal den min wert hoch setzen :cool:

dargo
2015-06-25, 17:40:48
Krass wie gut Fury X bei AK abschneidet.

https://pbs.twimg.com/media/CISxr66UkAAkDYI.jpg:large
Ich finds eher krass welche Vollpfosten solche Reviews veröffentlichen.

Unicous
2015-06-25, 17:45:17
Ich finds eher krass welche Vollpfosten solche Reviews veröffentlichen.

Ich finde es noch krasser, dass du nicht aufgepasst hast.:rolleyes:

M4xw0lf
2015-06-25, 17:54:45
Ich könnte mich wirklich drüber aufregen, dass AMD die guten Ansätze bei Tonga (aufgebohrtes Frontend zu SP-Verhältnis) bei Fiji wieder über Bord geworfen hat. Ein Fiji mit ~3500 SPs und doppeltem Frontend wäre beispielsweise in TW3 sicher deutlich schneller, als der jetzige 4096 SP Rasterizer-Krüppel. Allgemein sähe es sehr viel besser aus in Auflösungen <4k.
Keine Ahnung ob das platzmäßig hinhauen würde mit den 3500 SPs, aber ich glaube selbst wenn man noch mehr Fläche freischaufeln müsste, wäre ein 3072 SP-Fiji mit doppeltem Frontend immer noch gar nicht viel langsamer als der echte Fiji. Y u do dis, AMD?

blaidd
2015-06-25, 17:56:33
Habe in der Mittagspause mal versucht, das Geraeusch einzufangen. Leider taugt die Handycam nicht viel. Wers trotzdem anschauen(hoeren) mag: http://youtu.be/TZHrgYw0_IE

Objektiv ist es wirklich nicht laut, die Frequenz empfinde ich persoenlich jedoch als aeusserst unangenehm. Ich hoere es leider auch aus dem geschlossenen Gehaeuse heraus. Evtl. schaue ich heute Abend mal unter den Deckel.

Deckel auf, Filzunterlage oder ähnliches auf das Pumpengehäuse (so das es verkeilt wird), Deckel zu - Problem (praktisch) beseitigt. Zu blöd, das AMD das nicht selbst auf die Kette bekommen hat, das ist einer der Punkte, die definitiv negativ auffallen und so einfach zu vermeiden gewesen wären - zu dämlich. Die schnell drehende Pumpe induziert hochfrequente Schwingungen am Pumpengehäuse, das ist das Fiepen, was man störnenderweise recht deutlich wahrnimmt. Wird das Pumpengehäuse gedämmt, fiepts auch nicht mehr. Du kannst einfach den Deckel aufmachen, einen Finger drauflegen und wirst sofort feststellen, dass sich das Geräusch fast komplett verabschiedet.

Complicated
2015-06-25, 18:30:24
Ich könnte mich wirklich drüber aufregen, dass AMD die guten Ansätze bei Tonga (aufgebohrtes Frontend zu SP-Verhältnis) bei Fiji wieder über Bord geworfen hat. Das ist merkwürdig, da Fiji wie ein doppelter Tonga XT aussieht und wohl auch ist zuzüglich VerbesserungenDas Frontend entspricht Tonga - pro Takt kann Fiji also wie Hawaii vier Primitive (meist Dreiecke) berechnen. Allerdings müssen die Geometrie- und die Tesselation-Einheiten doppelt so viele Shader-Einheiten wie bei Tonga füttern, weswegen AMD das Frontend weiter optimiert hat - Details wollte der Hersteller aber auch auf Nachfrage nicht verraten.Zudem doppelter L2 Cache

Schaffe89
2015-06-25, 18:30:34
Ja, in der Tat, ich hab die Karte grade da und aufgeschraubt und siehe da ein kleines Schaumstoffkissen reicht aus, um die Vibrationsgeräusche fast komplett auszumerzen.
Allerdings muss ich sagen, dass selbst @ Standard das in Ordnung ging.

Flusher
2015-06-25, 18:40:08
Gibt es mittlerweile schon Tools die Speichertakt und VGPU verstellen können?

Das OC ist ja wenn man die Tests mal sichtet katastrophal aktuell. Ich kann nur vermuten, dass AMD was im Treiber verbockt hat - anders kann ich mir nicht erklären warum man noch letzte Woche erzählt hat man könne Fiji übertakten als gäbe es kein Morgen.

captain_drink
2015-06-25, 18:46:30
...

Mit Fiji ist AMD wieder bei Tahiti angekommen. Alles, was die ALUs fordert, läuft richtig schnell, der Rest verhungert. Siehe z.B. die Ergebnisse in Ryse, das einen hohen Fokus auf Shaderlast hat.

Dazu passt auch ganz gut, dass Fiji in powerhungrigen Spielen (d.h. solche mit gleichmäßiger Auslastung) wie Anno oder Risen hinter GM200 liegt. Meine Vermutung ist, dass ein ausgeglicheneres Design zu einer nochmals höheren nötigen Leistungsaufnahme geführt hätte. Man stieß hier schlicht an die Grenzen von GCN.

Tesseract
2015-06-25, 18:50:27
Ja, in der Tat, ich hab die Karte grade da und aufgeschraubt und siehe da ein kleines Schaumstoffkissen reicht aus, um die Vibrationsgeräusche fast komplett auszumerzen.
Allerdings muss ich sagen, dass selbst @ Standard das in Ordnung ging.

kannst du mal nachsehen wie hoch die standardspannung ist falls man die schon auslesen kann?

Unicous
2015-06-25, 18:54:24
Man stieß hier schlicht an die Grenzen von GCN.

Blödsinn.

kunibätt
2015-06-25, 18:57:20
Haftet AMD eigentlich im Falle von Wasserschäden? Das muss man mal genau prüfen!

Unicous
2015-06-25, 18:59:26
Haftet AMD eigentlich im Falle von Wasserschäden? Das muss man mal genau prüfen!

Niemand haftet bei absoluter Unfähigkeit.

captain_drink
2015-06-25, 19:09:40
Blödsinn.

Danke für dieses elaborierte Monument der Eloquenz.

Unicous
2015-06-25, 19:12:42
Danke für dieses elaborierte Monument der Eloquenz.

Hey, ich habe nur auf deine pauschale und komplett falsche Aussage entsprechend reagiert. Muss man ja nicht weiter ausführen. Ein klares Statement reicht völlig.:wink:

aufkrawall
2015-06-25, 19:12:44
Danke für dieses elaborierte Monument der Eloquenz.
Ich muss dir widersprechen: Die Merkmale des restringierten Codes sind kurze, grammatikalisch einfache und häufig unvollständige Sätze sowie eine begrenzte Anzahl von Adjektiven und Adverbien.

captain_drink
2015-06-25, 19:18:57
Unicous, Sinnbild der Defizithypothese der Soziolinguistik?

Muss man ja nicht weiter ausführen.

Zumindest dann nicht, wenn man kein Interesse an einer Diskussion hat. Was gleichwohl die Teilnahme an einem Diskussionsforum fraglich macht...

Sicness
2015-06-25, 19:21:53
Deckel auf, Filzunterlage oder ähnliches auf das Pumpengehäuse (so das es verkeilt wird), Deckel zu - Problem (praktisch) beseitigt. Zu blöd, das AMD das nicht selbst auf die Kette bekommen hat, das ist einer der Punkte, die definitiv negativ auffallen und so einfach zu vermeiden gewesen wären - zu dämlich. Die schnell drehende Pumpe induziert hochfrequente Schwingungen am Pumpengehäuse, das ist das Fiepen, was man störnenderweise recht deutlich wahrnimmt. Wird das Pumpengehäuse gedämmt, fiepts auch nicht mehr. Du kannst einfach den Deckel aufmachen, einen Finger drauflegen und wirst sofort feststellen, dass sich das Geräusch fast komplett verabschiedet.

Hatte ich vor und habe festgestellt, dass mein Schraubenzieherset abhanden gekommen ist ... mal die Frau Gemahlin interviewen ... :ugly:

Unicous
2015-06-25, 19:22:07
@captain_drink

Wie gesagt, bei plumpen und pauschalen Aussagen wie du sie hier und in anderen Threads ohne Ablass tätigst, kann man auch gerne mal einen Oneliner fallen lassen.:wink:

M4xw0lf
2015-06-25, 19:28:06
Abgesehen davon, dass das mit den Grenzen von GCN in der Tat Blödsinn ist, sehe auch ich Fiji als einen Tahiti 2.0 - einen Haufen verschenktes Potential.

kunibätt
2015-06-25, 19:42:21
Niemand haftet bei absoluter Unfähigkeit.

Das halte ich für ein Gerücht. Wenn durch die Unfähigkeit einen guten Kühler zu bauen ein ansonsten tadeloses System zerstört wird, ist das ein klarer Haftungfall.

Kriegsgeier
2015-06-25, 20:03:59
Ich fühle mich von der AMD Sheffin verarscht, denn wo ist verdammt noch mal die schnellste Grafikkarte?

Bin echt enttäuscht

Kriegsgeier
2015-06-25, 20:05:49
Würde ich jetzt eine GraKa kaufen wäre es eine einfache GTX 980 geworden - erste Sahne was Preis/Leistung angeht!

Kartenlehrling
2015-06-25, 20:07:51
Dual GPU Fury Graphics Card – World’s Fastest With 17 TERAFLOPS



Wurde doch auf der Messe gesagt kommt mit der Nano erst im Herbst also noch 3-5 Monate.

Complicated
2015-06-25, 20:07:59
Sollte die schnellste Karte nicht erst im August kommen? AMD hat früher schon Dual-GPUs damit gemeint. Ist ja auch korrekt wenn man von der schnellsten Karte spricht.
https://itzdarkvoid.files.wordpress.com/2015/06/dualgpufiji.jpg?w=800
Eine Dual-Maxwell ist ja nicht in Sicht.

Kriegsgeier
2015-06-25, 20:09:48
Dafür kommt bald der Pascal um die Ecke...

captain_drink
2015-06-25, 20:11:45
ohne Ablass

Bin ich Kleriker?

Kartenlehrling
2015-06-25, 20:13:26
Dafür kommt bald der Pascal um die Ecke...

Sag es doch gleich, das Du nur Trollen willst.

Unicous
2015-06-25, 20:14:27
Bin ich Kleriker?

Geht das jetzt auf diesem Niveau weiter?:eek:

AnarchX
2015-06-25, 20:14:33
Sollte die schnellste Karte nicht erst im August kommen? AMD hat früher schon Dual-GPUs damit gemeint. Ist ja auch korrekt wenn man von der schnellsten Karte spricht.
https://itzdarkvoid.files.wordpress.com/2015/06/dualgpufiji.jpg?w=800
Eine Dual-Maxwell ist ja nicht in Sicht.
GM200 ist pinkompatibel zu GK110/210. Da ist eine Dual-Version wohl schnell umsetzbar. Im H2 evtl. mit 2x24GB. :ulol:

stinki
2015-06-25, 20:15:23
Gibt es eigentlich schon eine Aussage von AMD warum der CCC keine Möglichkeit bietet den HBM-Takt anzuheben und beim Overclocking anscheinend nur der Chiptakt und nicht die Spannung angehoben wird (die gleichzeitige Anhebung von beiden Dingen wird im Review Guide erwähnt)?

Unicous
2015-06-25, 20:17:01
Ja. HBM ist (vorläufig?) gelocked. Findet man sicherlich in so gut wie jeder Review.

Wird aber sicherlich nicht lange dauern, bis man diese Restriktion umgehen kann.

stinki
2015-06-25, 20:18:12
Wann ist wohl mit einer Fury "2" mit 8GB HBM Gen "2" zu rechnen und wird AMD sobald diese verfügbar ist wohl noch für die 4GB Variante bezüglich Memory-Usage optimieren?

Complicated
2015-06-25, 20:27:30
Ich glaube die derzeitigen OC-Restriktionen sprechen für eine weitere, schneller getaktete Fury. Eventuell behält man das für die Custom-Modelle bereit? Oder für einen weiteren Fiji basierenden Chip zum Weihnachtsgeschäft? Genug Temperatur und Verbrauch Spielraum ist ja vorhanden um weitere VRAMs zu verbauen und 10%-15% höher zu takten.

Der Speicherverbrauch der 4 GB HBM ist ja deutlich niedriger als der von 8 GB Hawaii und der Nvidia 6GB/12GB Modelle. CB hat da Messwerte:
http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/11/
Schaut man sich die Speicherbelegung in verschiedenen Spielen an, fällt schnell auf, dass sich die Radeon R9 Fury X tatsächlich anders als zum Beispiel die Radeon R9 390X und die Radeon R9 290X verhält. Während sich die GDDR5-Grafikkarten zum Beispiel in Assassin's Creed Unity sieben Gigabyte Speicher genehmigen, kommt die Radeon R9 Fury X in demselben Spiel mit rund 3.950 MB nur knapp an die Vier-Gigabyte-Grenze, ohne dass sich auf den ersten Blick Unterschiede in der Leistungsfähigkeit ergeben.

captain_drink
2015-06-25, 20:30:39
Geht das jetzt auf diesem Niveau weiter?:eek:

Ich probier es noch mal ausführlich:

Man hatte ein bestimmtes Transistor- und Flächenbudget sowie eine Zielgröße für die Leistungsaufnahme.
Hätte man nicht nur die CUs, sondern auch Front- und Backend im selben Verhältnis wie bei Tonga skalieren lassen, dann wäre zumindest die letzte Bedingung und im Fall von Tonga XT auch die beiden ersten verletzt worden, da die typical board power bei gleichmäßig belastenden Spielen wie Risen oder Anno bereits im gegenwärtigen Design weit über der Zielvorgabe liegt. Auf der Grundlage der aktuellen Iteration von GCN war es also nicht möglich, linear zu skalieren, stattdessen musste ein Schwerpunkt gesetzt werden, der ähnlich wie bei Tahiti ausfiel. Mithin stieß man an die Grenzen von GCN.

Super?

Complicated
2015-06-25, 20:37:20
Du schreibst von Grenzen bei GCN 1.2 und gleichzeitig, dass diese über ein doppeltes Frontend umgangen werden. Das ist nicht schlüßig. Das verbesserte Frontend limitiert die doppelten SP in keiner Weise wie alle Tests zeigen. Man muss nicht immer alles Verdoppeln wenn kein Flaschenhals besteht.

maguumo
2015-06-25, 20:40:10
Du schreibst von Grenzen bei GCN 1.2 und gleichzeitig, dass diese über ein doppeltes Frontend umgangen werden. Das ist nicht schlüßig. Das verbesserte Frontend limitiert die doppelten SP in keiner Weise wie alle Tests zeigen. Man muss nicht immer alles Verdoppeln wenn kein Flaschenhals besteht.

Naja, aus irgendeinem Grund performt Fiji ja schlechter als erwartet, gerade in niedrigereren Auflösungen. Warum auch immer...

captain_drink
2015-06-25, 20:41:24
Du schreibst von Grenzen bei GCN 1.2 und gleichzeitig, dass diese über ein doppeltes Frontend umgangen werden. Das ist nicht schlüßig. Das verbesserte Frontend limitiert die doppelten SP in keiner Weise wie alle Tests zeigen. Man muss nicht immer alles Verdoppeln wenn kein Flaschenhals besteht.

Dann hast du andere Tests als ich gelesen, wobei sich das bei "alle" eigentlich ausschließt...

Complicated
2015-06-25, 20:41:52
Und auf welche beziehst du dich? Würde ich auch gerne lesen.

captain_drink
2015-06-25, 20:43:18
Alle?

Complicated
2015-06-25, 20:46:16
Naja, aus irgendeinem Grund performt Fiji ja schlechter als erwartet, gerade in niedrigereren Auflösungen. Warum auch immer...Was soll ich mit 800x600 Auflösungen bei einem Spiel testen? Die GPU oder die API-Limitierung?

Wieso soll da
a) das Frontend verantwortlich sein?
und b) wenn es so ist, wieso ist das bei dieser Karte relevant was bei niedrigen Auflösungen passiert? 130 anstatt 110 FPS machen welchen Unterschied?

Wenn Nvidia auf DP Einheiten verzichtet um die Zielgruppe mit einem optimierten und effizienten Produkt zu beliefern ist es doch völlig legitim von AMD für die Zielgruppe dieses Produktes zu optimieren.

Complicated
2015-06-25, 20:47:21
Alle?
Ein Link reicht mir um deine Behauptung mit Fakten zu untermauern und mein "alle" zu revidieren. Hast du einen oder war das eine reine Erfindung von dir?

captain_drink
2015-06-25, 21:00:25
Ein Link reicht mir um deine Behauptung mit Fakten zu untermauern und mein "alle" zu revidieren. Hast du einen oder war das eine reine Erfindung von dir?

z.B. http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/6/#diagramm-rating-1920-1080-normale-qualitaet
Zitat: "In 1.920 × 1.080 fällt die Radeon R9 Fury X noch ein Wenig weiter zurück. In dieser Auflösung kommt das im Verhältnis zum gegenüber Tonga bei Fiji doppelt so großen Back-End und das unverändert beibehaltene Front-End stärker zur Geltung."

Vergleiche die Abstände zwischen 390X und Fiji in FHD, WQHD und 4k. Und vergleiche damit die Benchmarks von Tonga (z.B. http://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/5/), wo es keine Low-Res-Schwäche gibt, sondern gg. Tahiti bei höheren Auflösungen die Platzierungen wechseln.

Gäbe es einen Fiji als doppelten Tonga, so würde sich dieser zum gegenwärtigen Fiji wie der reale Tonga zu Tahiti verhalten.

mironicus
2015-06-25, 21:11:24
Ich glaube die derzeitigen OC-Restriktionen sprechen für eine weitere, schneller getaktete Fury. Eventuell behält man das für die Custom-Modelle bereit? Oder für einen weiteren Fiji basierenden Chip zum Weihnachtsgeschäft? Genug Temperatur und Verbrauch Spielraum ist ja vorhanden um weitere VRAMs zu verbauen und 10%-15% höher zu takten.

Ne, der Chip ist schon am Limit getaktet. Der verhält sich so wie Hawai damals beim Übertakten.

ASIC Qualität lässt sich übrigens nicht auslesen.

Unicous
2015-06-25, 21:13:20
@captain_drink

Nein. Leider nicht. Denn am Ende steht immer noch die gleiche pauschale Aussage.:eek:

Ich versuche es mal mit einer Analogie. Du behauptest gerade Intel hat verkackt weil sie mit Broadwell auf dem Stand von Sandy Bridge sind und an dessen Grenzen gestoßen sind. Und das wäre völliger Quatsch.

GCN ist die zugrunde liegende Architektur. Darauf aufbauend gab es bislang 2 Iterationen GCN Gen 2 ( z.B. Hawaii) und Gen 3 (Tonga,Fiji). Im nächsten Jahr folgt dann Gen 4. Ähnlich ist es bei Fermi, Kepler,Maxwell, Pascal/Volta...

Dazu kommt natürlich, dass so ein Chip mehrere Jahre in Entwicklung ist und man mit 20/20 hindsight immer sagen kann, das hätte man aber besser machen können. Fiji war wie jedes Design min. 2 Jahre in Entwicklung und wurde sicherlich zeitgleich zu Tonga entwickelt, denn sie sind ja auch auf gleichen IP-Level. Tonga wurde bereits vor einem dreiviertel Jahr released, von Fiji gibt es schon auch schon deutlich länger Spuren im Netz. Wäre Fiji also schon vor 9 Monaten herausgekommen, wäre AMD (gemittelt ;)) der King gewesen, bis GM200 aufgeschlagen wäre. Nun ist es aber nicht dazu gekommen und man hat sich mit sehr großer Wahrscheinlichkeit verspätet. Anders kann man das ja nicht erklären. Die Gründe sind nicht wirklich greifbar, aber es muss ja Probleme gegeben haben.

AMD ist zwischenzeitlich nicht untätig gewesen und man wird sehen, wie sich GCN im Jahre 2016 schlägt. Mit neuer Fertigung und den Lernprozessen die man aus Fiji gezogen hat.

GCN hat große Schwächen und viele Stärken. Am Ende des Tages ist Maxwell aber besser auf den heutigen Markt zugeschnitten und auch die Treiber sind besser auf die einzelnen Spiele abgestimmt.

GCN hatte eine deutlich flachere Lernkurve als Fermi auf Kepler und dann Maxwell. Das macht sich auch bei den älteren Karten bemerkbar. Wo man damals im Hintertreffen lag herrscht heute weitgehend Parität.

Dass Fiji eine Baustelle ist, zeigen die reviews. Inkonsistente Performance sogar im Vergleich zu den eigenen Produkten (z.B. Hawaii).

Es ist aber noch nicht aller Tage Abend. Die erste Vorstellung von Fiji war eine schlechte Generalprobe. Die Zeit wird zeigen ob das Theaterstück noch an Qualität gewinnt oder auf dem mittelmäßigen Niveau hängen bleibt.

captain_drink
2015-06-25, 21:28:12
Dann verstehe ich jetzt, wie du es verstanden hast.

Ich meinte natürlich nicht die μ-Arch im Sinne des Aufbau der ALUs etc., da in Bezug darauf von "Grenzen" zu sprechen grober Unsinn wäre. Ich meinte schlicht das Verhältnis der Einheiten bzw. vom Frontend zum Rest, wo man in dieser Power- und Flächenklasse bei GCNv3 eben Kompromisse eingehen musste, d.h. auf Grenzen stieß. Eine einfache Verdoppelung von Tonga wäre sicher wünschenswert gewesen, im Hinblick auf die dann gegebene Leistungsaufnahme aber nicht praktikabel gewesen. Die Redeweise "Grenzen von GCN" ist insofern tatsächlich irreführend, weil ein gewisses Verhältnis der Einheiten kein Proprium einer Architektur ist.

Deshalb würde ich auch nicht behaupten, dass man es hätte besser machen können. Unter den gegebenen Voraussetzungen hat AMD die Schwerpunkte m.E. durchaus gut gesetzt.

foenfrisur
2015-06-25, 21:36:05
nicht zu vergessen, das ein größerer chip nicht mehr auf den interposer gepasst hätte. (aber sicher meinst du auch das mit "grenzen")

aber ist es nicht eigentlich auch so, das amd viel mehr in treiberoptimierung stecken muss, für fast jedes spiel/engine, aufgrund der aufwendigeren arch?

mfg

Pirx
2015-06-25, 21:37:32
...Die erste Vorstellung von Fiji war eine schlechte Generalprobe. Die Zeit wird zeigen ob das Theaterstück noch an Qualität gewinnt oder auf dem mittelmäßigen Niveau hängen bleibt.
finde ich nicht mal, denn man liegt jetzt schon dort, wo es nicht wichtig, ist auf Augenhöhe und bei 4K sogar fast schon vor nV - hat ne schöne kompakte leise Karte, die technologischer Vorreiter ist und einen attraktiven Kaufpreis

captain_drink
2015-06-25, 21:39:14
aber ist es nicht eigentlich auch so, das amd viel mehr in treiberoptimierung stecken muss, für fast jedes spiel/engine, aufgrund der aufwendigeren arch?

mfg

Wie ich es verstanden habe, betreffen die Treiberoptimierungen nur die möglichst effiziente/optimale Ausnutzung des vorhandenen VRAMs.

Unicous
2015-06-25, 21:48:31
finde ich nicht mal, denn man liegt jetzt schon dort, wo es nicht wichtig, ist auf Augenhöhe und bei 4K sogar fast schon vor nV - hat ne schöne kompakte leise Karte, die technologischer Vorreiter ist und einen attraktiven Kaufpreis

Das ist zu wenig.:wink:

"fast schon" ist einfach zu wenig. Der erste Eindruck zählt. Und der ist nicht gelungen. Bis auf eine sehr ordentliche AiO-Lösung gibt es momentan nicht viel an Alleinstellungsmerkmalen.

Der Lichtblick ist die verbesserte Leistungsaufnahme, die durch HBM und andere Maßnahmen, die Nvidia z.T. schon bei Kepler angewandt hat, zu hoffen gibt, dass man bei den zukünftigen FinFET-Prozessen noch mehr herausholen kann.


@captain_drink

HBM wird sich auch ein wenig anders verhalten, als GDDR5 unter DX xx bzw. das jeweilige Spiel geht damit vllt. nicht richtig um, deswegen muss man es per Treiber anpassen. Es ist ja nicht wie bei der GTX 970 (hattest du da nicht auch den Vergleich ziehen wollen?), dass ein 512MB chunk schlechter angebunden ist als der Rest und es deswegen zu Einbrüchen kommen kann. Jeder HBM Stack ist normal angebunden und kann unabhängig angesprochen werden.

blaidd
2015-06-25, 22:31:53
Ich fühle mich von der AMD Sheffin verarscht, denn wo ist verdammt noch mal die schnellste Grafikkarte?

Bin echt enttäuscht

Ich check nicht ganz, wie das halbe Internet die Aussage "HBM enables us to build the fastest card in the world" so missverstehen kann, das am Ende "Fury X ist die schnellste Karte in der Welt" rauskommt.

Vor allem wenn kurz danach eine Dual-GPU vorgestellt wird. Wenn, dann bezieht sich die Aussage logischerweise auf die. Und selbst das hat niemand konkret gesagt. AMD hat nur behauptet: "Wir könnten, wenn wir Lust drauf haben". Prinzipiell sagt das rein gar nichts aus - man könnte es bestenfalls als Prahlerei mit halbwegs gepflegten Understatement sehen.

Das war jetzt nicht persönlich gemeint, ich wundere mich nur immer wieder... ;)

captain_drink
2015-06-25, 22:49:34
@captain_drink

HBM wird sich auch ein wenig anders verhalten, als GDDR5 unter DX xx bzw. das jeweilige Spiel geht damit vllt. nicht richtig um, deswegen muss man es per Treiber anpassen. Es ist ja nicht wie bei der GTX 970 (hattest du da nicht auch den Vergleich ziehen wollen?), dass ein 512MB chunk schlechter angebunden ist als der Rest und es deswegen zu Einbrüchen kommen kann. Jeder HBM Stack ist normal angebunden und kann unabhängig angesprochen werden.

Keine Ahnung, ob es da Unterschiede gibt und wie weitreichend die sind.
Zumindest lässt mich die Aussage, dass app-spezifisch optimiert wird, darauf schließen, dass es um die effiziente Nutzung der 4 GB geht, die sich sicherlich je nach Anwendung unterscheidet. Die Nachfrage von pcper hat sich auch explizit auf diesen Kontext bezogen.
Auf den Aspekt der App-Spezifität bezog sich auch der 970-Vergleich.

Raff
2015-06-25, 22:50:22
Der Speicherverbrauch der 4 GB HBM ist ja deutlich niedriger als der von 8 GB Hawaii und der Nvidia 6GB/12GB Modelle. CB hat da Messwerte:
http://www.computerbase.de/2015-06/amd-radeon-r9-fury-x-test/11/

Wir sind mittlerweile im Zeitalter der Frametime-Messungen angekommen. Das ist toll, wenn auch ekelhaft aufwendig. Dabei wird vielerorts jedoch nur noch gebencht und gefühlt, aber nicht mehr geguckt.

Wenn eine 8-GiByte-Grafikkarte zu sieben Achteln vollläuft, dann ist das nicht nur ausuferndes Caching ("Weil wir's können!"), sondern hat Gründe, die mehr oder minder sichtbar sind. Assassin's Creed Unity streamt. Jedes aktuelle Spiel streamt. Aber nicht jedes Spiel macht das optimal, das ist nicht zuletzt seit dem neuen "Batman-gate" klar, einem Paradebeispiel für Murkstechnik inklusive kaputtem Streaming und Speicherleck. ACU lässt kleine, aber feine Details weg, wenn man in UHD mit unterbestückten Grafikkarten unterwegs ist. Das sieht man nicht immer, doch ist es ein "Cheat", den 6-/8-/12-GiB-Karten nicht auffahren, sondern einfach alles darstellen. In CoD: Advanced Warfare ist's übrigens ähnlich.

MfG,
Raff

Unicous
2015-06-25, 22:54:52
Mir läuft da jetzt schon ein kalter Schauer den Rücken herunter, wenn ich an Fallout 4 denke. :(

blaidd
2015-06-25, 23:01:10
Wir sind mittlerweile im Zeitalter der Frametime-Messungen angekommen. Das ist toll, wenn auch ekelhaft aufwendig. Dabei wird vielerorts jedoch nur noch gebencht und gefühlt, aber nicht mehr geguckt.

Wenn eine 8-GiByte-Grafikkarte zu sieben Achteln vollläuft, dann ist das nicht nur ausuferndes Caching ("Weil wir's können!"), sondern hat Gründe, die mehr oder minder sichtbar sind. Assassin's Creed Unity streamt. Jedes aktuelle Spiel streamt. Aber nicht jedes Spiel macht das optimal, das ist nicht zuletzt seit dem neuen "Batman-gate" klar, einem Paradebeispiel für Murkstechnik inklusive kaputtem Streaming und Speicherleck. ACU lässt kleine, aber feine Details weg, wenn man in UHD mit unterbestückten Grafikkarten unterwegs ist. Das sieht man nicht immer, doch ist es ein "Cheat", den 6-/8-/12-GiB-Karten nicht auffahren, sondern einfach alles darstellen. In CoD: Advanced Warfare ist's übrigens ähnlich.

Das kann ich nur unterschreiben. Das kann man nicht so einfach alles messen.

Ich hab hier mal ein passendes Beispiel aus einem Foreneintrag (http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/394479-batman-arkham-knight-pre-load-auf-ps4-und-pc-ab-sofort-moeglich-day-one-patch-kommt-post7491844.html#post7491844). Ansonsten läuft es übertrieben flüssig. In 1440p inkl PhysX ca. 50, 60, 70 fps und aufwärts.

Besitzer einer GTX 970. Ist auch durchaus über deren Schwächen informiert. Zieht aber nicht notwendiger Weise die richtigen Rückschlüsse. Vergleicht mal zwei Bilder aus Assassin's Creed Unity mit einer GTX 970 und einer GTX 980 in 1440p. Da hab ich sogar irgendwo einen Performance-Test gelesen, in dem der Tester mit der GTX 970 verstärkt Textur-Pop-Up festgestellt hat, dann eine GTX 980 eingebaut hat, mit der die Probleme nicht so offensichtlich waren und den Rückschluss "Ach, dann ist ja alles okay, war wohl Zufall" daraus gezogen hat ;)

http://extreme.pcgameshardware.de/attachments/833991d1435019060-batman-arkham-knight-pre-load-auf-ps4-und-pc-ab-sofort-moeglich-day-one-patch-kommt-batmanak-2015-06-23-02-17-29-04.jpg

akuji13
2015-06-25, 23:07:21
Ja, in der Tat, ich hab die Karte grade da und aufgeschraubt und siehe da ein kleines Schaumstoffkissen reicht aus, um die Vibrationsgeräusche fast komplett auszumerzen.
Allerdings muss ich sagen, dass selbst @ Standard das in Ordnung ging.

Ich finde sie @Standard hier gerade unerträglich.
Und das in einem gedämmten Gehäuse. :eek:

Ich hoffe wirklich das die Aktion was bringt, sonst geht die Karte wieder weg.

Für den Lüfter muss ich mir auch was einfallen lassen.
Kann die Begeisterung über den nicht nachvollziehen.
Höre ihn bereits @idle heraus, er ist lauter als die 4 Noctuas die noch drin sind.
Sein Klangbild ist nicht angenehm.

Ansonsten sitze ich hier und warte darauf das der download des Treibers fertig wird...ich Depp habe natürlich erstmal den falschen geladen. :freak:

Das Auspacken der Karte war ein Krampf...ich musste den Karton an beiden Enden öffnen und den Innenteil unter Aufbietung aller meiner Kräfte herausdrücken. :D
Den Radiator unterzubringen wae auch nicht so leicht...in meinem Testrechner sind zwischen dem und dem der CPU AiO höchstens 2mm Platz.

Die Schläuche sind schick aber zu steif.

blaidd
2015-06-25, 23:11:46
Mir läuft da jetzt schon ein kalter Schauer den Rücken herunter, wenn ich an Fallout 4 denke. :(

Kauf's einfach ein Jahr später, dann kannst du es mit allen HD-Texturen vollklatschen, die du jemals haben wollen würdest. Wenn du nur die HD-Brustwarzen brauchst, kannst du es dir aber eigentlich auch direkt zum Launch holen ;)

Unicous
2015-06-25, 23:13:49
Kauf's einfach ein Jahr später, dann kannst du es mit allen HD-Texturen vollklatschen, die du jemals haben wollen würdest. Wenn du nur die HD-Brustwarzen brauchst, kannst du es dir aber eigentlich auch direkt zum Launch holen ;)

Mir gehts eher um die generelle Performance. Ich habe die üble Vorahnung, dass sie nichts von Skyrim gelernt haben.:frown:

Und ich habe hier Brustwarzen in 3D, HD ist soooo 2013.;)

blaidd
2015-06-25, 23:18:58
Mir gehts eher um die generelle Performance. Ich habe die üble Vorahnung, dass sie nichts von Skyrim gelernt haben.:frown:


Ich erinnere mich an die glorreichen TES-Launches seit Daggerfall sehr gut - ist jedesmal ein bisschen weniger katastrophal geworden. Ich bin mal vorsichtig optimistisch. :wink:

Und ich habe hier Brustwarzen in 3D, HD ist soooo 2013.;) Na hoffentlich spielst du mit mehr als zwei :cool:

Mandalore
2015-06-26, 00:08:51
Sicher wurde das schon mal geklärt, aber ich frage das einfach nochmal:


Wieso schneidet bzw. schneiden AMD-GPUs bei höheren Auflösungen besser ab als bei niedrigeren? Müsste es der Logik nach nicht umgekehrt sein:freak::freak:??

von Richthofen
2015-06-26, 00:18:49
ACU lässt kleine, aber feine Details weg, wenn man in UHD mit unterbestückten Grafikkarten unterwegs ist. Das sieht man nicht immer, doch ist es ein "Cheat", den 6-/8-/12-GiB-Karten nicht auffahren, sondern einfach alles darstellen. In CoD: Advanced Warfare ist's übrigens ähnlich.

Das haut mich jetz einigermaßen aus den Latschen. Die Info hätte ich mir schon früher und an offizieller Stelle gewünscht.
Wenn man bereits Unterschiede beim mehrmaligen Durchlaufen einer Szene mit unterschiedlicher VRAM-Bestückung sieht, dann möchte man gar nicht wissen was möglicherweise noch so alles an Bildinformationen "unterschlagen" wurde.
Das bietet einer VRAM-Paranoia ganz neue Entfaltungsmöglichkeiten. Mal ganz abgesehen von den ebenfalls anzuzweifelnden Balkenlängen.

Kartenlehrling
2015-06-26, 00:23:29
@Mandalore
Weil sie dann weniger CPU-Overheads haben, AMD kann das jetzt nur noch aussitzen und die normalen Spiel zyklen immer noch 5-7 Jahre ist ... sehe ich grün.
http://images.eurogamer.net/2013/articles//a/1/7/3/4/1/9/6/2.bmp.jpg/EG11/resize/600x-1/quality/90/format/jpg

raffa
2015-06-26, 00:41:54
hat das jemand getestet?

soweit ich es verstanden habe, liegt das eher an begrenzter Frontend- und somit Geometrieleistung (der GPU) im Verhältnis zur Shader/Textur Leistung.

pcgh:
"Eine hohe Auflösung hilft dabei, die Lastverteilung zu optimieren: Das Frontend des Grafikchips muss auflösungsunabhängig gleich viele Dreiecke aufbereiten, bei steigender Pixelmenge bekommen die ALUs und TMUs jedoch mehr Arbeit. Dieses Problem haben AMD-GPUs schon seit Jahren, man könnte beinahe von einer Tradition sprechen. So kommt es, dass die Radeon R9 Fury X in 1440p besser dasteht als in 1080p und in 2160p noch mehr Boden gut macht."

anddill
2015-06-26, 00:45:51
Wozu eine Graka auf 300fps bei 800x600 auslegen? Viel wichtiger ist doch daß sie bei hohen Anforderungen noch genug Leistung hat. Daß so eine Auslegung in FHD nicht die längsten Balken produziert ist nun mal so.

raffa
2015-06-26, 00:51:56
ich hab das gar nicht bemängelt. mir gefällt das kärtchen.

aufkrawall
2015-06-26, 00:51:57
Sollte so eine GPU nicht naturgemäß bei hochdetaillierten 3D-Scans ziemlich ausgebremst werden?

BlacKi
2015-06-26, 00:53:19
Wozu eine Graka auf 300fps bei 800x600 auslegen? Viel wichtiger ist doch daß sie bei hohen Anforderungen noch genug Leistung hat. Daß so eine Auslegung in FHD nicht die längsten Balken produziert ist nun mal so.
weil manche 144fps anvisieren und nicht bekommen?

BlacKi
2015-06-26, 00:57:17
Das sieht man nicht immer, doch ist es ein "Cheat", den 6-/8-/12-GiB-Karten nicht auffahren, sondern einfach alles darstellen. In CoD: Advanced Warfare ist's übrigens ähnlich.


also keine 980 oder fury für mich, da kann ich auch auf meiner 970 bis nächstes jahr bleiben.

blaidd
2015-06-26, 01:30:48
Sollte so eine GPU nicht naturgemäß bei hochdetaillierten 3D-Scans ziemlich ausgebremst werden?

Prinzipiell müssen auch die Meshes durch den Speicher, wenn ich mich nicht völlig irre, also ja - schätze schon. Jedenfalls wenn die Dratgitter sehr detailreich sind. Die Frage ist in diesem Fall, ob das überhaupt der Fall sein müsste. Denn dank der Photogrammetrie ist das Ganze ja schon von Grund auf weniger abstrakt und wirkt auf das Auge glaubwürdiger. Da kann man auf ein paar andere Details verzichten. Z.B. wegen den praktisch genau passenden Materialien deren Auflösung verringern und/oder weniger Polygone nutzen und so Speicher sparen. Oder dafür die Beleuchtung oder die Nachbearbeitungseffekte verbessern. Es sind ja nicht nur die Texturen im klassischen Sinn im Speicher, sondern auch Dinge wie die Umgebungsverdeckung, Tiefenunschärfe und der ganze andere Kram. ;)

Siehe beispielsweise The Vanishing of Ethan Carter oder ein bisschen old-school: Doom 3. Ersteres braucht lächerlich wenig Speicher, Letzteres hat durch den Einsatz von Normal Maps und Per Pixel Lighting Polygone gespart ;)

mczak
2015-06-26, 02:13:16
Das haut mich jetz einigermaßen aus den Latschen. Die Info hätte ich mir schon früher und an offizieller Stelle gewünscht.

Das ist ein Feature das bei Texture Streaming benutzt wird (weiss allerdings nicht von welchen Apps), geht mit Resource Binding Tier 2 (also geht auch ohne das dann aber komplizierter), "Tiled Resources" ist wohl das Stichwort. Die App streamt die Texturen hoch bei denen sie denkt dass die benötigt werden (das geht stückchenweise, also auch nicht unbedingt alle Mip-Level). Wenn die Textur im gewünschten Level aber nicht vorhanden ist wird ein höherer Mip-Level verwendet (anstatt auf den Upload zu warten). Es gibt dann auch Feedback vom Shader (siehe hier: https://msdn.microsoft.com/en-us/library/windows/desktop/dn312085%28v=vs.85%29.aspx)
Hast du mehr Speicher kann die App natürlich mehr Texturdaten hochladen bevor wieder alte Daten entfernt werden müssen.

Wenn man bereits Unterschiede beim mehrmaligen Durchlaufen einer Szene mit unterschiedlicher VRAM-Bestückung sieht, dann möchte man gar nicht wissen was möglicherweise noch so alles an Bildinformationen "unterschlagen" wurde.
Sollte eigentlich im Normalfall nicht so sichtbar sein, denke ich. Das "unterschlagen" ist aber nicht einfach der böse Treiber, die Applikation entscheidet was da hochgeladen wird. Wenn die App natürlich nicht gut programmiert ist könnte es sein dass die keinen Plan hat und wenn nicht quasi alle Texturen Platz haben dann öfter mal eine fehlt.
(Also vielleicht stimmt da die Erklärung nicht ganz, ich kenne das auch bloss aus der Theorie...)

Pirx
2015-06-26, 07:08:37
Abgesehen davon, dass das mit den Grenzen von GCN in der Tat Blödsinn ist, sehe auch ich Fiji als einen Tahiti 2.0 - einen Haufen verschenktes Potential.
Na dann schau mal, wo Tahiti (von Ende 2011) heute noch steht - wenn das bei Fiji auch so wird... Da gäbe es nichts zu kritisieren, nur zum Beifall klatschen.

Botcruscher
2015-06-26, 08:17:17
Abgesehen vom Stromverbrauch war Thaiti auch ganz ok. AMD hätte eben weitere Modelle bringen sollen. Eine Eco-Version ist lange überfällig. Womöglich machen sie es mit der Nano ja richtig.

von Richthofen
2015-06-26, 12:38:17
Hast du mehr Speicher kann die App natürlich mehr Texturdaten hochladen bevor wieder alte Daten entfernt werden müssen.
[...]
Wenn die App natürlich nicht gut programmiert ist könnte es sein dass die keinen Plan hat und wenn nicht quasi alle Texturen Platz haben dann öfter mal eine fehlt.

Was eine niedrigere Bildqualität zur Folge hätte und somit auch weniger Anforderungen an die Grafikkarte. Längere Benchmarkbalken aufgrund niedrigerer Quali wären das Resultat.
Das ist nichts Neues und trat in der Vergangenheit bereits zichfach auf - oft durch den jeweiligen IHV motiviert. Man erinnere sich an Q3A und einen zwischenzeitlichen Voodoo-Treiber, welcher diverse Wandtexturen nicht in höchster Stufe darstellen ließ.

Wenn sich ein zuwenig an VRAM nicht nur in gefühlter und gemessener Bildrate bzw. über die Frametimes sondern zusätzlich auf die Bilddarstellung auswirkt, ist das doch ein gewichtiger Grund genauer hinzuschauen und vllt. endlich Antworten auf Fragen wie Speicherbelegung != benötigter Speicher zu geben.
Habe das Gefühl früher oder später wird diese Problematik nochmal verstärkt in den Fokus rücken. Warum eigentlich nicht jetzt?
Inwiefern gibt es optische Unterschiede in z.B. AC:U unter UHD zwischen 2 GB GTX770, 4 GB HBM Fury X und 12 GB Titan X?

Ein entsprechender Artikel wäre, wenn auch nicht leicht zu erstellen, fehlen doch mEn diverse Tools, doch hochinteressant.
Mglw. kann das bereits ein Video verdeutlichen.

tm0975
2015-06-26, 14:26:12
weil manche 144fps anvisieren und nicht bekommen?

merkt das menschliche auge denn überhaupt einen unterschied zwischen 120 und 144 (ist sowieso ne blöde zahl) hz, wenn der tester vorher nicht weiß, welcher monitor mit welcher frequenz betrieben wird?

foenfrisur
2015-06-26, 14:39:07
den unterschied merkt man ziemlich sicher nicht. so empfindlich sind augen in dem bereich kaum mehr.
deswegen ist es mir persönlich egal, ob 120 oder 144Hz.

mfg

BlacKi
2015-06-26, 14:51:50
merkt das menschliche auge denn überhaupt einen unterschied zwischen 120 und 144 (ist sowieso ne blöde zahl) hz, wenn der tester vorher nicht weiß, welcher monitor mit welcher frequenz betrieben wird?
ja, ganz leicht, ich hab 120hz und einen 144hz monitor. allerdings sollte das nicht ein kaufkriterium sein. wenn du den sprung machst von 60hz auf 120 hz und den sprung von 60hz auf 144hz machst wirst du keinen unterschied merken.

foenfrisur
2015-06-26, 16:26:55
ich hab heute mal den DP->DVI adapter für 13 EUR getestet, der macht sogar 144Hz mit FHD.

http://www.ebay.de/itm/291498372371?_trksid=p2060353.m2749.l2649&ssPageName=STRK%3AMEBIDX%3AIT

also alles kein thema.
nur leider schwer zu bekommen die dinger.

mfg

InsaneDruid
2015-06-26, 18:29:29
merkt das menschliche auge denn überhaupt einen unterschied zwischen 120 und 144 (ist sowieso ne blöde zahl) hz, wenn der tester vorher nicht weiß, welcher monitor mit welcher frequenz betrieben wird?

ganz klar JA.
The Application of Sampling Theory
to Television Frame Rate Requirements
K.C. Noland

"An additional model of eye tracking was incorporated into the analysis to find the frame rate that would be needed to prevent all aliasing and maintain moving detail in both tracked and untracked objects when the eye is free to move|approximately 700 fps."

(Quelle: http://downloads.bbc.co.uk/rd/pubs/whp/whp-pdf-files/WHP282.pdf)

Geht darum dass ab 700fps erst alle temporalen Aliasing.Artefakte (rückwärtslaufende Propeller etc) verschwinden.

Mit steigender FPS sinkt auch der Sample&Hold Effekt. Und generell sollte man aufpassen nicht den üblichen Aussagen aufzusetzen. Auch die maximale spatiale Auflösung des Auges beträgt NICHT die immer kolportierten 1 Bogenminute (basiert auf den Standard-Sehtest und den dort eingesetzten Snellen-Buchstaben, die 1Bogenminute Abstände zwischen den Details (E-Striche beispielsweise) haben), sondern wenige Bogensekunden.

foenfrisur
2015-06-26, 18:36:18
ihr glaubt doch nicht wirklich, das sich jemand vor einem monitor setzt und dir sagen kann, ob nun 120 oder 144Hz anliegen.

klar, kann das auge das zwar wahrnehmen, das eine höhere frequenz anliegt, doch aber nicht den unterschied ganz klar wiedergeben, ob nun 120 oder 144Hz.
so empfindlich sind die meisten unserer augen nun nicht. sie sind sogar eher träge.

das auge erkennt sofort den unterschied zu 60Hz vs. 120Hz, aber extremst unwahrscheinlich, ob nun 120 oder 144Hz.

mfg

basix
2015-06-26, 19:32:32
merkt das menschliche auge denn überhaupt einen unterschied zwischen 120 und 144 (ist sowieso ne blöde zahl) hz, wenn der tester vorher nicht weiß, welcher monitor mit welcher frequenz betrieben wird?

120 Hz und 144 Hz sind ganz logisch: Beides Vielfache von 24 Hz (Bildrate von Spielfilmen), nicht mehr, nicht weniger. Darum ist 60Hz für Filme eigentlich der Graus (72Hz wären da wieder gut). Ob es je nach Frequenz noch Vorteile bezüglich z.B. Netzfrequenz hat (NTSC hat 60Hz) weiss ich nicht. Wenn man das schlau implementiert, sollte es keinen Unterschied machen.

Screemer
2015-06-27, 01:54:07
ich hab heute mal den DP->DVI adapter für 13 EUR getestet, der macht sogar 144Hz mit FHD.

http://www.ebay.de/itm/291498372371?_trksid=p2060353.m2749.l2649&ssPageName=STRK%3AMEBIDX%3AIT

also alles kein thema.
nur leider schwer zu bekommen die dinger.

mfg
Meiner kam gestern. Werde morgen mal 1440p mit >100hz testen. Mal schaun wie das aussieht.

Hübie
2015-06-27, 01:57:44
ich hab heute mal den DP->DVI adapter für 13 EUR getestet, der macht sogar 144Hz mit FHD.

http://www.ebay.de/itm/291498372371?_trksid=p2060353.m2749.l2649&ssPageName=STRK%3AMEBIDX%3AIT

also alles kein thema.
nur leider schwer zu bekommen die dinger.

mfg

Ja, vor allem die Preisunterschiede lassen einen ja schon stutzig werden... :confused:

Unicous
2015-06-27, 02:26:42
Nicht unbedingt. Meist ist es ganz banaler Wucher und/oder Preisabsprachen.:wink:

Es ist der gleiche Scheiß wie bei Kabeln. Normalerweise machst du eben nicht viel Geld damit. Die Preise werden entsprechend hoch ansetzt und der Kunde bezahlt das auch noch treudoof weil es im Medienmarkt so und nicht anders vom Marktführer verkauft wird. Und dann wirst du auch noch verarscht, weil die Specs die auf der Packung stehen gar nicht eingehalten werden und das Kabel/der Dongle/whatever gar nicht zertifiziert ist.

Richtig traurig wird es doch, wenn nicht mal das mitgelieferte Monitor-Kabel spec-konform ist und du dich auf die Suche nach einem geeigneten Kabel machen kannst. Und das ist eher Regel als Ausnahme.

Hübie
2015-06-27, 02:50:49
Wirklich? Ich bin entsetzt... NOT!

Angesichts der Tatsache dass man ja nur Signal wandeln braucht und ich durchaus von "Berufswegen" weiß was für ein Aufwand das ist, kann ich ja nur auf böse Absicht schneller Defekte bei Billigheimern spekulieren um meine Skepsis zu begründen.

Will sagen: Wenn Billigheimer 120 Hertz packt kanns ja sein dass der (wieso auch immer) nach einem Jahr im Arsch ist.
Habe hier zwei billige HDMI-Kabel welche pünktlich nach zwei Jahren in den Arsch wanderten. Die zwei aktuellen sind gehobener Standard. Mal sehen wie lange die das machen.

Ich frage mich übrigens wie die Hersteller es so präzise hinbekommen...

Screemer
2015-06-27, 11:12:33
Das oben bei ebay sind gebrauchte bizlink adaper. Die sind bei den Fingern Marktführer. Ich GWh mal davon aus, dass das leasinggeräte sind, die da verkauft werden. Meiner hat zB ein dell branding.

foenfrisur
2015-06-27, 12:26:37
Also meiner war original verpackt und unbenutzt.
Aber kann sein, dass die irgendwo als Beilage dabei waren und nun extra verkauft werden.
Einen hohen Wert dürften die nicht haben.
Ist ja ohne Lizenzgebühr. Nicht wie HDMI :P

Mfg

Hübie
2015-06-27, 12:44:02
Weißt du eigentlich wie hoch diese Lizenzgebühr für HDMI ist? ;)

Ich würde den Adapter ja gerne mal auschrauben. Ist sicher nur eine kleine MCU drin und das wars.

AtTheDriveIn
2015-06-27, 13:33:24
Wann soll die Fury (ohne X) denn kommen? Gesagt wurde Juli, aber geht es auch genauer?

maximus_hertus
2015-06-27, 13:35:19
14.7.

Agent117
2015-06-27, 17:30:49
Gabs schonmal Informationen, wann ca. der 2. Omega Treiber kommen soll?

Kann man halbwegs einschätzen wie es um die neuen 14/16nm Prozesse von TSMC und Glofo/Samsung steht und ob 2016 noch mit Arctic Islands zu rechnen ist?

Legt GloFo dann zwei 14nm Prozesse auf, einen für High End-CPUs (Zen) und einen für GPUs?

Isen
2015-06-27, 17:42:17
07.07.

14nm...Arctic Islands Q3-Q4 2016
Die fangen erstmal mit den kleinen Modellen an.

reaperrr
2015-06-27, 17:57:51
Die fangen erstmal mit den kleinen Modellen an.
Das ergibt keinen Sinn, jedenfalls nicht, wenn du mit "klein" low-end meinst. Dazu werden anfangs die Wafer-Preise zu hoch und die Yields zu niedrig sein. Am dringendsten braucht AMD einen Chip, der sowohl Bonaire (zu ineffizient für die Größe) als auch vor allem Pitcairn (zu wenig Checkbox-Features, zu lahm gegenüber GM206, zu teuer herzustellen gegenüber GM107) beerben kann.

Gipsel
2015-06-27, 18:29:37
ganz klar JA.
The Application of Sampling Theory
to Television Frame Rate Requirements
K.C. Noland

"An additional model of eye tracking was incorporated into the analysis to find the frame rate that would be needed to prevent all aliasing and maintain moving detail in both tracked and untracked objects when the eye is free to move|approximately 700 fps."

(Quelle: http://downloads.bbc.co.uk/rd/pubs/whp/whp-pdf-files/WHP282.pdf)

Geht darum dass ab 700fps erst alle temporalen Aliasing.Artefakte (rückwärtslaufende Propeller etc) verschwinden.Vorsicht!
Deren Definition von temporalem Aliasing ist etwas anders, als ich sie treffen würde. Und zu dem Beispiel der rückwärtslaufenden Propeller kann man ganz klar sagen, daß der Effekt natürlich nicht bei 700fps oder höher verschwindet. Der verschwindet ganz genau bei 100% Shutter, völlig unabhängig von der Framerate. Bei kürzeren Belichtungszeiten pro Frame baue ich Dir immer ein drehendes Rad, was dann auf der Aufnahme rückwärts zu laufen scheint. bei jeder Framerate, auch wenn es mehrere Kilohertz sind. ;)

Isen
2015-06-27, 18:41:49
@reaperrr,

nicht High-End/Enthusiast eben. Das sind so Karten die bei 14nm bei 4K auch +60fps können, und VR Headsets ordentlich befeuern. :P

Ravenhearth
2015-06-27, 19:24:52
AMD wird dann (im Herbst 2016) auch einen Chip brauchen, der den dann drei Jahre alten Hawaii in punkto DP-Leistung beerben kann. Dazu würde ein aufgebohrter Fiji mit nem verdoppelten Front-End und 1:2 DP schon reichen.

-/\-CruNcher-/\-
2015-06-27, 20:53:57
ganz klar JA.
The Application of Sampling Theory
to Television Frame Rate Requirements
K.C. Noland

"An additional model of eye tracking was incorporated into the analysis to find the frame rate that would be needed to prevent all aliasing and maintain moving detail in both tracked and untracked objects when the eye is free to move|approximately 700 fps."

(Quelle: http://downloads.bbc.co.uk/rd/pubs/whp/whp-pdf-files/WHP282.pdf)

Geht darum dass ab 700fps erst alle temporalen Aliasing.Artefakte (rückwärtslaufende Propeller etc) verschwinden.

Mit steigender FPS sinkt auch der Sample&Hold Effekt. Und generell sollte man aufpassen nicht den üblichen Aussagen aufzusetzen. Auch die maximale spatiale Auflösung des Auges beträgt NICHT die immer kolportierten 1 Bogenminute (basiert auf den Standard-Sehtest und den dort eingesetzten Snellen-Buchstaben, die 1Bogenminute Abstände zwischen den Details (E-Striche beispielsweise) haben), sondern wenige Bogensekunden.

700 fps UHD na dann viel spaß beim encode/decode da ist das R&D ja erstmal bis in die weite Zukunft gesichert ;)

Agent117
2015-06-27, 21:19:26
AMD wird dann (im Herbst 2016) auch einen Chip brauchen, der den dann drei Jahre alten Hawaii in punkto DP-Leistung beerben kann. Dazu würde ein aufgebohrter Fiji mit nem verdoppelten Front-End und 1:2 DP schon reichen.

Nein, würde er sicher nicht. Der wäre Nvidias GP 100 dann sowohl in SP als auch in DP unterlegen, wenn Nvidia auch auf 1:2 SP/DP Verhältnis geht, was soweit ich weiß feststeht für Pascal.

Laut
http://www.3dcenter.org/news/14nm-und-10nm-fertigung-deutlich-kleiner-werdende-vorteile-bei-platzersparnis-und-kostenredukti

wäre ein von 28nm auf 14nm geshrinkter Chip nur 35% kleiner. Das ist eine geringere Ersparnis als von 40 auf 28nm.
Fiji wäre also statt 600mm² nur 600*0,65= 390mm² groß.
Ein 600mm² großer AMD Top Dog kann demnach nur 50 bis 60% mehr CUs als Fiji haben, je nach dem wieviel Platz DP frisst.

Das Lineup sähe dann wmgl. so aus.

Top Dog: 6144SP - 6656SP
Performance: 4096SP (wmgl. Fiji Shrink)
Mainstream: 2048 bis 2560 SP

Weiß jemand oder kann abschätzen, wie die Reduktion der Leistungsaufnahme von 28 zu 14nm ca. aussieht?

ilibilly
2015-06-27, 21:58:23
Vielleicht kann man ja auch den Takt steigern auf 1500 Stock und Richtung 2000 oc'ed
Die letzten 10 Jahre gingen ja taktsteigerungen mit jedem shrink einher,auf 14nm sollte es auch drin sein

Asaraki
2015-06-27, 23:24:45
Da meinte doch eine von einer der schmieden mal, dass die taktsteigerungen abnehmen je kleiner die Fertigung ist. Also nicht linear zu den vorherigen

drkohler
2015-06-28, 01:02:58
Da meinte doch eine von einer der schmieden mal, dass die taktsteigerungen abnehmen je kleiner die Fertigung ist. Also nicht linear zu den vorherigenDas ist auch klar. Die Leckströme gehen durch die Decke, und irgend wann erodierst du deine Leitungen einfach zu schnell weg wenn Diese immer dünner werden.

-/\-CruNcher-/\-
2015-06-28, 06:50:35
Vor allen wird es mit den Quanteneffekten ja immer schlimmer die irgendwie kompensiert werden müssen :D

ilibilly
2015-06-28, 08:48:57
Könnte Mann nicht wie bei hbm einfach in die Höhe gehn ?
Je nach Performance Bereich mehrere Layer der Gpu?

HOT
2015-06-28, 09:31:58
Prozessdaten 28nm HPP(/SHP) vs. 14nm LPP:
http://www.planet3dnow.de/vbulletin/threads/397613-Spekulationen-zu-aktuellen-und-zukuenftigen-Prozessen-bei-GlobalFoundries-?p=5012657&viewfull=1#post5012657
wegen GateFirst müsste der 28nm-Prozess bei GloFo sogar weniger Fläche verbraten als 28nm HP(M) von TSMC.

Gehört nicht zum Thema, aber GloFo bietet tatsächlich Ende 2016 22nm (FD)SOI an, der auch sehr gute Werte haben soll aber nur soviel kostet wie 28nm. Wir sind gespannt. Ich denke, dass da die Zukunft von Samsung/GloFo/STM liegen wird und dass die damit ein heißes Eisen im Feuer haben ggü. Intel und TSMC.

rentex
2015-06-28, 10:53:02
Die Marktübersicht für Grafikkarten sollte mal dringend aktualisiert werden..

Gipsel
2015-06-28, 11:04:38
Könnte Mann nicht wie bei hbm einfach in die Höhe gehn ?
Je nach Performance Bereich mehrere Layer der Gpu?Der Begriff "Layer" ist schon belegt, Du willst eine GPU aus mehreren gestackten Dies bauen. Dabei gibt es zwei Probleme: Es löst das Kostenproblem nicht (ein Transistor wird dadurch nicht billiger) und zusätzlich bekommt man ein Kühlungsproblem (eine GPU verbraucht im Vergleich zu DRAM wesentlich mehr).

AnarchX
2015-06-28, 11:46:11
Wahrscheinlicher sind da wohl erstmal zwei getrennte GPU-Dies auf einem Interposer.
Mit 16nm könnte man da ein geringeres Risko eingehen, indem man nur einen 250mm² Die anfangs bringt, der aber durch die Dual-Lösung in das >400mm² Segment vorstoßen könnte.

Bei dem Dual-Fiji PCB konnte man leider noch keinen breiten Bus zwischen den beiden Packages entdecken.

ndrs
2015-06-28, 12:01:03
Wahrscheinlicher sind da wohl erstmal zwei getrennte GPU-Dies auf einem Interposer.
An der Stelle frage ich mich immer, ob es da sinnvoller ist zwei vollwertige GPUs miteinander zu vernetzen oder die Pipeline (wo ich mich bei GPUs zugegebener Maßer überhaupt nicht auskenne) an einer Stelle, an der möglichst wenig Daten fließen und Latenzen unkritisch sind, aufzutrennen und verschiedene Funktionseinheiten auf verschiedene Dies zu bringen.

Hat zufällig jemand ein schönes Blockschaltbild von einer GPU-Pipeline?

tm0975
2015-06-28, 12:38:05
wozu sollten, wenn das thema interposer etwas mehr routine erfahren hat, überhaupt noch große dies produiert werden? einfach 4 kleine genommen ud dazwischen bzw drum herum den speicher gepackt. spart doch reichlich r&d sowie evaluation und test-kosten.

Skysnake
2015-06-28, 13:02:18
Das ist auch klar. Die Leckströme gehen durch die Decke, und irgend wann erodierst du deine Leitungen einfach zu schnell weg wenn Diese immer dünner werden.
Electromigration (EM) ist nur bei offenen Schaltern ein Problem, bzw durch hohe Querströme beim Umschalten von CMOS-Schaltungen, und halt bei Buffern die hohe Lasten treiben müssen.

Die ansteigenden Leckströme, also eigentlich der subthreshhold I_DS Strom, durch immer mehr Transistoren, die eigentlich aus sein sollten, spielt vor allem halt für den statischen Stromverbrauch eine Rolle, aber nicht wirklich für EM.

EDIT:
Man will so wenige DIEs wie möglich, da DIE stacking immer eine mögliche Fehlerquelle ist, und im Vergleich zu OnChip selbst Interposer ziemlich große Kapazitäten haben. Von nem Chip runter zu gehen ist immer doof! Auch wenn Interposer-Lösungen weit weniger schlimm sind als MCM oder gar Lösungen mit unterschiedlichen Packages und PCB usw usf.

Kurz um, eine höhere Integrationsdichte ist immer erstrebenswert. Daher wird es auch spannend zu sehen sein, ab wann Waferscale Chips "günstiger" zu fertigen sind, als 3D/2.5D Chips. Das wird ja nicht gleich gut skalieren denke ich mir mal.

Lowkey
2015-06-29, 21:21:31
ich hab heute mal den DP->DVI adapter für 13 EUR getestet, der macht sogar 144Hz mit FHD.

http://www.ebay.de/itm/291498372371?_trksid=p2060353.m2749.l2649&ssPageName=STRK%3AMEBIDX%3AIT

also alles kein thema.
nur leider schwer zu bekommen die dinger.

mfg

Mit welchem Bildschirm?

foenfrisur
2015-06-29, 22:07:30
benq xl2411Z (also FHD)

mfg

Screemer
2015-06-29, 22:30:36
habe nun den bizlink-adapter auch getestet. leider kann ich nicht über 82hz hinaus, da der pixelclock patcher leider mit dem adapter nicht funktioniert. 330MHz pixelclock sind das maximum für dl-dvi bei amd und das reicht grad so für 82hz bei reduzierten timings und einer auflösung von 1440p. was ich schon mal festellen konnte ist, dass die schriften bei 82Hz nicht mehr crisp sind.

werd toasty mal fragen ob er sich da einen reim drauf machen kann, warum mehr mit adapter nicht funktioniert.

Edit: grad gesehen, dass ich im browser teilweise schon artefakte hab. kann man wohl vergessen. möchte jemand anderes den adapter testen? gegen porto geht er auf die reise.

BlacKi
2015-06-30, 14:40:47
und in fhd gehen 144hz?

Hübie
2015-06-30, 15:22:00
Foenfrisur hat wohl 1928*1080@120 Hertz getestet. 144 weiß ich gerade nicht.

foenfrisur
2015-06-30, 22:16:17
hab ich doch nun schon zig mal geschrieben, das es 144Hz in FHD ist.
das CCC und mein monitor haben mir das so gemeldet...und der monitor wird es am besten wissen ;)

mfg

Nightspider
2015-07-02, 16:00:29
Wird die Dual-Fiji Variante dann einen Radiator mit 2*140mm bekommen? Wie stehen da die Chancen?

Ich hoffe das AMD sich die Dual-Variante nicht vergolden lässt, dann wäre sie eine echte Alternative für Oculus Rift. Zumindest wenn die Dual-Fiji schneller ist als zwei einzelne Fury X.

Zu welchem Preis wurde damals eigentlich die R9 290X2 eingeführt?

Thunder99
2015-07-02, 16:14:30
Um die 1000$. Fury X2 wird genau so viel Kosten schätze ich. Nur ob sie schneller wird als 2 Fury X bleibt ungewiss. Wenn sie es wie bei der 295x2 machen dann ja

HarryHirsch
2015-07-02, 16:15:46
http://geizhals.de/?phist=1098089

Loeschzwerg
2015-07-02, 18:27:11
http://anandtech.com/show/9390/the-amd-radeon-r9-fury-x-review/9

Unlike the R9 Fury, AMD has announced the bulk of the specs for the R9 Nano. This card will feature a fully enabled Fiji GPU,

Huh?! Ich dachte das wäre bisher noch völlig unklar? Kann da jemand was dazu sagen?

Ich fände das super :)

Hübie
2015-07-02, 19:19:25
What the...? :|

FuryNator
2015-07-02, 19:28:28
War doch bekannt?

Vollaktivierter Chip, dafür niedrige Taktraten.

Wahrscheinlich hat AMD eher ein Problem mit der Leakage als mit defekten Transistoren. Was beim sehr ausgereichten 28nm Prozess ja auch Sinn ergibt.

Hübie
2015-07-02, 19:41:58
Das muss dann an mir vorbeigezogen sein. Wahrscheinlich aus Desinteresse an der Fury Nano.

Loeschzwerg
2015-07-02, 19:43:38
Ist dann anscheinend an der deutschen Presse vorbeigegangen :uup:

sowie die Radeon R9 Nano basieren auf einem beschnittenen Chip mit reduziertem Takt.

http://www.golem.de/news/grafikkarte-amd-kuendigt-radeon-r9-fury-x-und-r9-nano-an-1506-114703.html

Dabei dürfte es sich um eine extrem niedrig getaktete Fiji-Variante handeln, die so dank der vielen Rechenwerke ihre Effizienz erreicht. Ob es sich um eine vollwertige oder beschnittene GPU handelt, ist unbekannt,

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Specials/Fury-X-Nano-Preise-Spezifikationen-Uebersicht-1162094/

Hübie
2015-07-02, 20:44:03
Na wenn das mal kein Admin-Slap wert ist... ;D

samm
2015-07-02, 23:46:19
Dran denken, dass Ryan Smith ziemlich krank war - vielleicht entstammt es einem Fiebertraum? ;) Quelle wäre natürlich interessant, aber da gibt es eh nichts Zuverlässiges, bis es soweit ist.

Knuddelbearli
2015-07-03, 00:54:29
Also ich predige schon seit dem ersten Tag das es sehr Wahrscheinlich ist das nano voll aktiviert ist für ideale P/W. Von Volker wurde ich dafür schon angepflaumt auf CB.de ^^

Birdman
2015-07-03, 01:16:17
Wird interessant sein wie AMD die nano Karten vor excessivem Overclocking lockt - weil wenn nicht, dann torpediert man sich u.U. die Fury oder sogar Fury X

N0Thing
2015-07-03, 01:33:03
Wird interessant sein wie AMD die nano Karten vor excessivem Overclocking lockt - weil wenn nicht, dann torpediert man sich u.U. die Fury oder sogar Fury X

Bei dem kleinen Kühler könnte das zur Not über die Lautstärke geregelt werden. Eine Nano im Vollausbau mit den Taktraten der Fury X kann mit einem so kleinen Kühler und einem einzigen Lüfter eigentlich nur wahnsinnig laut sein.

-/\-CruNcher-/\-
2015-07-03, 01:35:31
Die Nano hat das Zeug die 970 zu zersäbeln und an die 980 zu kommen mit einem guten 3rd party cooling Design :)

Dafür wird der eine lüfter nicht reichen da muss eine 3-4er heatpipe drauf und 2 lüfter minimum (MSI Design) wohlmöglich eher 3er Design (Zotac,Gigabyte) :)

Ravenhearth
2015-07-03, 01:49:39
Ich hätte bei der Nano lieber einen teildeaktivierten Chip mit höheren Taktraten als einen vollen Chip mit niedrigeren Taktraten. Das Ratio Frontend-Performance:Shaderleistung wäre deutlich besser.

-/\-CruNcher-/\-
2015-07-03, 01:53:51
Ja ist schon etwas komisch das der bei der Fury anscheinend zum Einsatz kommt aber ansonsten scheint man die Perf/Watt von 2x nicht zu schaffen .

970 (GM204)->980 (GM204)->980TI (GM200)

Fury Nano (Fiji Xt)->Fury (Fiji Pro)-> Fury X (Fiji XT)

Die Nano ist eben eine Prestige Karte sie bekommt die besseren Bins :)

Der Hammer währe echt wenn sie den Preis unter der Fury ansetzen aber das glaubt wohl niemand das das passieren wird ;)

Theoretisch müsste es sich aber so verhalten wie bei Nvidia sonst wer die Preis/Leistung bassierend auf den Balkenorgien wohl im Eimer ;)

Und man sollte Nvidia jetzt einen vor den Buck knallen vor Pascal, da würde sich abschreiben durchaus lohnen ;)

Hübie
2015-07-03, 03:20:22
Woher soll denn plötzlich die bessere Effizienz herkommen? :| Soviel wird man sich dem sweet spot nicht mehr näheren können.

Langlay
2015-07-03, 03:29:55
Woher soll denn plötzlich die bessere Effizienz herkommen? :| Soviel wird man sich dem sweet spot nicht mehr näheren können.

850-900 Mhz bei entsprechend gesenkter Spannung. So in dem Dreh wirds wohl mit Glück liegen.

Dawn on Titan
2015-07-03, 06:51:58
Die Nano hat das Zeug die 970 zu zersäbeln und an die 980 zu kommen mit einem guten 3rd party cooling Design :)

Dafür wird der eine lüfter nicht reichen da muss eine 3-4er heatpipe drauf und 2 lüfter minimum (MSI Design) wohlmöglich eher 3er Design (Zotac,Gigabyte) :)

Die zersäbelt dann maximal AMD. Ein 600mm² Chip + HBM + Interposer gegen eine beschnittenen Performancechip mit GDDR

Das Ding wird imho kommen, es wird zwischen Fury X und Fury Pro liegen im Preis aber langsamer als die Pro sein.

ilibilly
2015-07-03, 08:09:18
Ich frag mich immer noch über den Sinn der Nano ,ist es wirklich nur einnprestigeobjekt?
In normale Desktoprechner passt die fury Pro ja auch und dürfte performancemäßig über 980 liegen.
Die Nano macht imho nur Sinn frs Wohnzimmer in kleine htpc's und genau da hats Amd verkackt ohne hdmi 2.0,da kann man noch so Lautschreien das DP besser ist,aber Standard ist und bleibt hdmi im wohnzimmer.

Hübie
2015-07-03, 08:21:31
850-900 Mhz bei entsprechend gesenkter Spannung. So in dem Dreh wirds wohl mit Glück liegen.

Aha. Und wieviel weniger erwartest du hinsichtlich der Spannung? Man verliert auch wieder fps. Die Erwartungen sollten auch hier nicht gleich überschwänglich werden. Nicht das manche hier noch Schaum vorn Mund bekommen =)

Nightspider
2015-07-03, 08:48:44
Wird interessant sein wie AMD die nano Karten vor excessivem Overclocking lockt - weil wenn nicht, dann torpediert man sich u.U. die Fury oder sogar Fury X

Die Nano hat weniger Stromanschlüsse und kann deswegen nicht so viel Saft ziehen wie die Fury X.

Raspo
2015-07-03, 08:58:44
Ich frag mich immer noch über den Sinn der Nano ,ist es wirklich nur einnprestigeobjekt?
In normale Desktoprechner passt die fury Pro ja auch und dürfte performancemäßig über 980 liegen.
Die Nano macht imho nur Sinn frs Wohnzimmer in kleine htpc's und genau da hats Amd verkackt ohne hdmi 2.0,da kann man noch so Lautschreien das DP besser ist,aber Standard ist und bleibt hdmi im wohnzimmer.

Ist doch ne geile Karte für ITX-Gamer, also Mini-Power-PCs.
Für nen HTPC würde ich die nicht verbauen, viel zu schade.
Das ist wie nen Porsche im Stadtverkehr ;-).

Dural
2015-07-03, 09:10:27
Ich bin nach wie vor davon überzeugt das die Nano ein reines Marketing Produkt ist, grössere Stückzahlen wird man davon sicher nicht sehen. OK sieht man von Fiji allgemein nicht ;)

Die Aussage das sogar ein voller Fiji Chip drauf ist bestätigt dies doch zu gleich, zu welchem Preis soll die den bitte schön Wirtschaftlich für AMD sein?

FuryNator
2015-07-03, 09:15:03
Aha. Und wieviel weniger erwartest du hinsichtlich der Spannung? Man verliert auch wieder fps.
Das Problem wird sicherlich die Performance. 100W weniger ist nicht wenig, das wird selbst für eine GTX970 eng.

HOT
2015-07-03, 09:21:31
Ich denke sogar, dass Nano recht gut weggehen werden, eben weil es ein Marketingprodukt ist. Effizienz ist beliebt, sieht man doch auch der 970.

Nightspider
2015-07-03, 09:31:24
Selbst wenn sie sich nicht gut verkauft dann nimmt man halt die Chips für die Fury X. So kann man dann halt je nach Bedarf die Kunden bedienen und schlägt 2 Mücken mit einem Schlag.

Palpatin
2015-07-03, 09:32:29
Wird interessant sein wie AMD die nano Karten vor excessivem Overclocking lockt - weil wenn nicht, dann torpediert man sich u.U. die Fury oder sogar Fury X
Ich glaub AMD kann damit leben wenn sich die Nano wie geschnitten Brot verkauft und das Wakü Exoten Teil nur mäßig. Die normale Fury kann man dann immer noch übern Preis verramschen und würde vom guten Ruf der Fury Karten profitieren.
AMD braucht wieder etwas das bei den Nerds zieht und da wäre eine Fury nano zum Preis knapp unterhalb der 980 die sich auf Fury X Niveau takten lässt, bei Verwendung eines anderen Kühlers, genau das richtig. :rolleyes:

Dural
2015-07-03, 09:46:36
Ich denke sogar, dass Nano recht gut weggehen werden, eben weil es ein Marketingprodukt ist. Effizienz ist beliebt, sieht man doch auch der 970.

Auch wenn es Preislich uninteressant ist?

Nightspider
2015-07-03, 09:50:55
Klar. Klappt doch bei Nvidia auch mit allen Karten. ;D

Dural
2015-07-03, 09:57:07
AMD ist aber nicht NV ;)

Wir werden ja sehen, ich denke die Fury Pro wird da mehr für Absatz sorgen.

fondness
2015-07-03, 10:07:26
Das Problem wird sicherlich die Performance. 100W weniger ist nicht wenig, das wird selbst für eine GTX970 eng.

Laut Lisa Su ist die Nano "significantly faster" als eine 290X. Von daher kann man mindestens GTX980-Speed erwarten.

Problem wird eher sein, dass die üblich Seiten schon wieder ein paar Worst-Case Szenarien finden werden, wo die Nano deutlich >200W zieht und dann so tun als wäre das üblich. Außer AMD riegelt die Nano endlich mal wirklich vernünftig ab.

HTB|Bladerunner
2015-07-03, 10:16:47
Für die Performanceeinstufung der Nano werden wir wohl noch bis Spätsommer warten müssen, da es bisher kein FuryX-Besitzer geschafft hat mal den Powertarget-Regler nach links zu ziehen um mal das "Nano-Niveau" zu simulieren. :rolleyes:

Michalito
2015-07-03, 10:16:56
Hm, werde die Nano mal im Dell T 20 testen den ich mir als PaintShop Pro Rechner aufgebaut habe..

Knuddelbearli
2015-07-03, 12:08:32
Für die Performanceeinstufung der Nano werden wir wohl noch bis Spätsommer warten müssen, da es bisher kein FuryX-Besitzer geschafft hat mal den Powertarget-Regler nach links zu ziehen um mal das "Nano-Niveau" zu simulieren. :rolleyes:

Quatsch das hat sogar schon FormatC von Toms hardware gemacht

Screemer
2015-07-03, 12:18:16
Quatsch das hat sogar schon FormatC von Toms hardware gemacht
Und gezeigt, dass es nur mit Reduzierung von PT nicht getan ist.

Birdman
2015-07-03, 13:01:34
Ich denke sogar, dass Nano recht gut weggehen werden, eben weil es ein Marketingprodukt ist. Effizienz ist beliebt, sieht man doch auch der 970.
Die GTX970 ging so gut weg weil sie für eine 4GB (zu diesem Zeitpunkt) Karte im HighEnd/Enthusiasten Bereich relativ "günstig" war.

Effizienz alleine lockt keinen hinterm Ofen hervor, der Preis macht die Musik.

Dawn on Titan
2015-07-03, 13:26:57
Man wird sehen, wenn AMD wieder strenge Vorschriften bei der Größe, TDP und beim Kühler macht, dann sehe ich da nicht viel Hoffnung.

Darf man aber evtl. 225W+ nutzen und einen dicken Dualslot verbauen, dann geht das Ding.

Das Problem ist nur, das macht dann die X und die Pro überflüssig.

HOT
2015-07-03, 13:28:28
Die GTX970 ging so gut weg weil sie für eine 4GB (zu diesem Zeitpunkt) Karte im HighEnd/Enthusiasten Bereich relativ "günstig" war.

Effizienz alleine lockt keinen hinterm Ofen hervor, der Preis macht die Musik.
290 war deutlich günster, bietet ebenfalls gute Leistung, aber verbraucht halt 70W mehr - das ist also quatsch. Die gute Presse und die Marke Geforce ist der Grund für die guten Verkäufe. Der Preis ist ja höher als bei einer 290X und sank nur wegen der schlechten Presse aufgrund des Speicherinterfaces leicht. Die gute Effizienz war aber schon durch, die 900er oder besser die Maxwell-Architektur, hatten einen sauberen Ruf. Die schlechte Presse aufgrund NV Lüge hat erst mal keinen großen Schaden verursacht - die sind mit dem Beschiss durchgekommen. Der kam etwas später, daber da waren die neue-Generations-Käufer schon durch. Und jetzt haben nen Haufen Leute eigentlich zu teure 960 und 970-Karten gekauft.

AMD versucht mit Nano eine Effizienz-Marke zu etablieren und unterfüttert dies mit guten Verbräuchen, einem moderat hohen Preis und recht viel Leistung. Könnte gelingen. So ein Produkt darf aber nicht zu billig sein. Das ist ein Experiment - wenn die Verkäufe gut sind, könnte man auch andere Chips am Sweetspot anbieten. Das erfordert aber jeweils ein neues PCB und vielleicht auch bessere Qualität der Bauteile, was das PCB teuer macht. Das muss sich schon lohnen.
Im Falle von Fiji war das neue PCB sehr billig, was bei den GDDR-Karten nicht so einfach ist. Da hat man einfach ein neues PCB für Effizienz designt und Fiji als Testballon benutzt.

Dawn on Titan
2015-07-03, 13:37:19
Wenn Du zwei gleich schnelle und gleich teure Produkte hast, nehmen die meisten das leisere in diesem Falle -> 970.

HOT
2015-07-03, 13:54:59
Richtig. Dann noch der neue-Architektur-Effizienz-Bonus, kommt im Marketing ja auch immer gut, dann sehen die Verkäufe plötzlich so aus:
http://wccftech.com/nvidiaamd-marketshare-graph-shows-3-4-gamers-nvidia-gpu/
Ich hab irgendwo nen neueren Chart gesehen, wo die Verkäufe grundsätzlich heruntergegangen sind und sich AMD "erholt" hat, aber eben nur, weil die Gesamtzahl bei AMD nicht so stark gesunken sind wie die NV-Verkäufe ;). Aber eine solche Verkaufswelle wie bei der 9er-Serie gabs schon lange nicht mehr.
Wirds auch m.A.n. nächstes Jahr nicht geben, weil sowohl AMD als auch NV in 14/16nm nur einen High-End-Chip releasen werden und den Rest mit alter Pampe zukleistern werden.
AMD wird auf GloFos 22nm warten für die kleinen Chips, der Prozess ist gut und sehr günstig und NV wird das Risiko, das ja besteht, mit HBM und FinFET-Prozess nicht mit vielen Chips eingehen, zumal man ja immernoch nicht weiss, wann TSMC mit 16nm FF+ nun wirklich in Normalproduktion kommt.

dildo4u
2015-07-03, 14:02:32
Wenn Du zwei gleich schnelle und gleich teure Produkte hast, nehmen die meisten das leisere in diesem Falle -> 970.
Jup 970 hat laut Steam schon allen anderen externen DX11 GPU's überholt.

http://store.steampowered.com/hwsurvey/videocard/

fondness
2015-07-03, 14:04:31
Angebliche Specs der Fury PRO:

According to our industry insiders, the Radeon R9 Fury will feature 3584 Stream Processors, down from the 4096 on the full Fury X. The Fiji-based GPU will be clocked at 1050MHz, which is identical to that of the Fury X. We have 4GB of High Bandwidth Memory that provides the same 512GB/sec of bandwidth, clocked at 500MHz (1GHz effective). We are being told to expect temperatures of the Fiji PRO-based R9 Fury to be less than 75C, which is considerably higher than the 50C or so from the watercooled Fury X.

http://www.tweaktown.com/news/46294/amds-air-cooled-radeon-r9-fury-specs-leaked/index.html

Bis auf die paar ALUs die eh meist nicht voll ausgelastet werden können also identisch zur Fury X, dürfte damit wohl nicht viel langsamer sein....

Arcanoxer
2015-07-03, 14:07:35
Bis auf die paar ALUs die eh meist nicht voll ausgelastet werden können also identisch zur Fury X, dürfte damit wohl nicht viel langsamer sein....Und auch nicht viel weniger kosten.

dildo4u
2015-07-03, 14:11:07
Es ist eh nich der Chip sondern das HBM was die Kosten in die Höhe treibt würde mich wundern wenn AMD billiger als eine 980 gehen kann.

fondness
2015-07-03, 14:15:10
Und auch nicht viel weniger kosten.

Der Preis wurde schon offiziell genannt: $549, also $100 billiger wie die Fury X und $50 über dem neuen Preis der GTX980. Es wird kein Ref-Design sondern gleich von Beginn an Custom-Lösungen geben.

reaperrr
2015-07-03, 14:17:14
Bis auf die paar ALUs die eh meist nicht voll ausgelastet werden können also identisch zur Fury X, dürfte damit wohl nicht viel langsamer sein....
Denke ich auch. Ich tippe, dass sie im Durchschnitt nur ca. 7-8% langsamer sein wird. Alles darunter wäre auch schon fast zu wenig, um noch einen nennenswerten Aufpreis gegenüber der 390X rechtfertigen zu können.

HOT
2015-07-03, 14:29:09
Es ist eh nich der Chip sondern das HBM was die Kosten in die Höhe treibt würde mich wundern wenn AMD billiger als eine 980 gehen kann.
Jetzt wo das in Produktion ist wird das so tragisch nicht mehr sein. GDDR5 kostet auch Geld. Und ein PCB für ein die großen Interfaces ebenfalls.

captain_drink
2015-07-03, 17:20:46
Ich hätte bei der Nano lieber einen teildeaktivierten Chip mit höheren Taktraten als einen vollen Chip mit niedrigeren Taktraten. Das Ratio Frontend-Performance:Shaderleistung wäre deutlich besser.

Ich gehe sogar davon aus, dass es zur Erreichung der Effizienz nötig sein wird, das Missverhältnis beizubehalten und einen (nahezu) Vollausbau zu bringen.
Niedrigere Taktraten wird man wegen der niedrigeren Vcore sicherlich gehen müssen.

-/\-CruNcher-/\-
2015-07-03, 17:47:42
Denke ich auch. Ich tippe, dass sie im Durchschnitt nur ca. 7-8% langsamer sein wird. Alles darunter wäre auch schon fast zu wenig, um noch einen nennenswerten Aufpreis gegenüber der 390X rechtfertigen zu können.

Es gibt auch leute mit anderen Prioritäten was all inklusive features angeht dazu gehört z.b 4K Hevc Main Profile VLD Video Playback ;)
den die alten chips pre Fiji nicht supporten

Raff
2015-07-03, 17:57:03
Denke ich auch. Ich tippe, dass sie im Durchschnitt nur ca. 7-8% langsamer sein wird. Alles darunter wäre auch schon fast zu wenig, um noch einen nennenswerten Aufpreis gegenüber der 390X rechtfertigen zu können.

Spannend wird meiner Meinung nach das Duell zwischen Einsteigsversionen der Fury und aufgemotzten 390X-Karten mit ihren 1.070 bis 1.100 MHz Kerntakt sowie stets 8 GiB Speicher. Beide nagen an der GTX 980, die es mittlerweile unter 500 Euro gibt. Die 390X ist die einzige Karte, die dank 8 GiB einen Hauch von Zukunftssicherheit mitbringt ...

MfG,
Raff

Loeschzwerg
2015-07-03, 19:12:42
Es wird kein Ref-Design sondern gleich von Beginn an Custom-Lösungen geben.

Gar kein Ref.-Design?

Raff
2015-07-03, 20:30:08
Bisher ist davon nichts durchgesickert. Die Fury ist damit das Komplement der Fury X, die es nur als Referenzversion gibt. :ugly:

MfG,
Raff

Nightspider
2015-07-03, 21:27:06
Wird YouTube mit 4K eigentlich durch Fijy oder Maxwell 2 beschleunigt?

Und wie viel fps schafft Fiji in 4K zu encodieren?

aufkrawall
2015-07-03, 21:44:57
Wird YouTube mit 4K eigentlich durch Fijy oder Maxwell 2 beschleunigt?

Youtube 4k wurde schon von Kepler beschleunigt.


Und wie viel fps schafft Fiji in 4K zu encodieren?
Hat CB gebenchmarkt.

Nightspider
2015-07-03, 23:43:09
War Youtube 4K nicht ausschließlich HVEC?

Das kann Kepler doch nicht oder?

€: Achso, das war ja VP9. Wie ich diese Formatkriege hasse. Völlig unübersichtlich.

aufkrawall
2015-07-03, 23:47:00
Vor HTML5 war es H.264.

Nightspider
2015-07-03, 23:48:56
Und beschleunigt Fiji VP9?

4K ruckelt jedenfalls bei Hawii, vor allem bei 2160p60.

dildo4u
2015-07-03, 23:55:37
Bei mir hängt auch vom Browser ab Firefox geht Chrome nicht.970 mit neustem Treiber auf Win 8.1 64 Bit.

http://abload.de/thumb/4kt4yvw.png (http://abload.de/image.php?img=4kt4yvw.png) http://abload.de/thumb/4k283bmj.png (http://abload.de/image.php?img=4k283bmj.png)

aufkrawall
2015-07-04, 00:02:00
Und beschleunigt Fiji VP9?

Stand afaik nirgends, wahrscheinlich nicht.
Die CPU-Belastung von VP9 ist aber eher gering.


4K ruckelt jedenfalls bei Hawii, vor allem bei 2160p60.
4k H.264 ist mit Hawaii komplett in Software. Wenn da etwas ruckelt, ist entweder die CPU zu lahm oder die Abspielsoftware ist Müll. Letzteres ist leider qausi der Normalfall.

Dildo, der wird in Chrome einfach VP9 nehmen und in FF H.264.

Complicated
2015-07-04, 09:55:20
Die zersäbelt dann maximal AMD. Ein 600mm² Chip + HBM + Interposer gegen eine beschnittenen Performancechip mit GDDR

Viele vergessen die neuen Geldflüsse bei GPUs mit HBM Speicher.
AMD ist ab sofort Reseller für sämtlichen HBM Speicher, da er mit auf dem Interposer sitzt und somit auch komplett mit durch die Bücher geht. Also werden HBM Preise für AMD völlig kostenneutral auf den GPU-OEM-Preis umgelegt.

Die OEMs erhalten eine GPU inkl. Speicher und ihnen fällt das komplette verbauen des Speichers und des Speicher-Sub-Systems aus der Fertigungslinie heraus. Das PCB wird deutlich kleiner und auch die Anzahl der Layer sorgt für deutliche Kostenersparnis.

Hier wird AMD deutlich mehr kassieren können als bisher für jede GPU und dennoch werden die OEMs günstiger sein können in der Gestaltung des Endkundenpreises.

Hinzu kommen die fallenden Stückzahlen bei GDDR5 Speicher, wobei die Highend-GPUs 4x bis 8x (12x bei der Titan) so viel Speicher verbauen als die Low-End oder Midrange GPUs bisher hatten. Nun allerdings eben nicht mehr, denn im Highend wird es nur noch HBM geben. Das halbiert mal schnell die GDDR5 Stückzahlen, was zunächst für fallende Preise sorgen wird bis zu dem Punkt der Unwirtschaftlichkeit und dann zu einem schnellen Anstieg wenn HBM GDDR5 in immer weitere Midrange und dann Low-End GPUs wandert und zum Standardspeicher wird. Ab dann sind die OEM-Hersteller keine Kunden mehr für Speicher. Es gibt dann nur noch 2 Kunden für Grafikspeicher: AMD und Nvidia die in deutlich größeren Mengen abnehmen als die OEMs dies bisher konnten.

Hier wird es gravierende Änderungen geben im Speichermarkt und die Anzahl der Kunden sinkt rapide, sobald auch Interposer-basierende CPUs/APUs in 2017 kommen. Dann wird auch der normale Retailmarkt für Speicher enorm kleiner - wie die Entwicklung konkret sein wird ist schwer vorrauszusehen, doch die AiO werden dadurch einen enormen Schub erhalten, da es kaum noch etwas zum aufrüsten geben wird.

Es kann durchaus sein, dass AMD für seinen 600mm²+Interposer+HBM Chip weniger Geld verlangt als der OEM bezahlen muss für GPU+GDDR5+PCB+Zusammenbau* + Validierung*
*Nur die Mehrkosten sind gemeint, da diese ja nicht völlig entfallen

Doch trotzdem kann AMD deutlich mehr Geld erhalten als bisher da eben auch eine deutliche Kostenersparnis für die Produktion des Endprodukts teils dem OEM zu Gute kommt, doch sicherlich auch teils AMD bei der Preisgestaltung zu Gute kommt. Wie diese Ersparnis aufgeteilt werden wird, hängt IMHO davon ab was AMDs Strategie in dem Jahr sein wird bis Nvidia ähnliche Kosten-Restrukturierungen anbieten kann.

Will AMD Marktanteile? Dann wird es die Ersparnis an die OEMs weiter geben, die am Markt gegen Nvidia-Produkte mehr Spielraum erhalten für Preiskämpfe.
Will AMD bessere Margen? Dann wird es die Ersparnis einbehalten und deutlich höhere Umsätze generieren als bisher mit den selben Stückzahlen. 10-20% sind Welten in der Branche und können auch einen Aktiensprung mit den nächsten Quartalszahlen bringen.

Wahrscheinlich wird es eine Mischung aus beidem und AMD wird sich da auch Luft für künftige Feinjustierungen im Markt lassen, damit am Ende nicht nur die Boardpartner profitieren und höhere Margen kassieren, ohne Effekt auf AMDs Geschäftszahlen.

Undertaker
2015-07-04, 10:00:04
Stand afaik nirgends, wahrscheinlich nicht.
Die CPU-Belastung von VP9 ist aber eher gering.

In 4K dann nicht mehr... ;) Ohne volle GPU-Beschleunigung hat da selbst ein aktueller Quad-Core ordentlich zu ackern.

Gimmick
2015-07-04, 10:24:56
Und beschleunigt Fiji VP9?

4K ruckelt jedenfalls bei Hawii, vor allem bei 2160p60.

Hab ja auch ne Hawaii und grad mal in Youtube ein 4k 60fps Video getestet - ruckelt nix. Auslastung meines 4770k liegt bei ~25-37% je nach Szene.

Dann noch ein Offline-Video probiert:

http://distribution.bbb3d.renderfarming.net/video/mp4/bbb_sunflower_2160p_60fps_normal.mp4

Im Windows Media Player ~85% CPU-Last, in MPC wieder nur ~30-35%.

Hängt wirklich stark von der Software ab. Sollte aber eigentlich kein Problem sein.

HOT
2015-07-04, 10:33:56
Hab ja auch ne Hawaii und grad mal in Youtube ein 4k 60fps Video getestet - ruckelt nix. Auslastung meines 4770k liegt bei ~25-37% je nach Szene.

Dann noch ein Offline-Video probiert:

http://distribution.bbb3d.renderfarming.net/video/mp4/bbb_sunflower_2160p_60fps_normal.mp4

Im Windows Media Player ~85% CPU-Last, in MPC wieder nur ~30-35%.

Hängt wirklich stark von der Software ab. Sollte aber eigentlich kein Problem sein.
Mal getestet mit meiner Hawaii und 1040er/15.15er:
- Mediaplayer beim IE ruckelt sich den Arsch ab
- Firefox langsam
- Chrome flüssig

Gimmick
2015-07-04, 10:38:23
Die Softwarewelt scheint noch nicht bereit für 4k zu sein :D

aufkrawall
2015-07-04, 10:50:24
In 4K dann nicht mehr... ;) Ohne volle GPU-Beschleunigung hat da selbst ein aktueller Quad-Core ordentlich zu ackern.
Hab hier 20-30% Auslastung mit MPC HC mit dem Sample:
http://www.forum-3dcenter.org/vbulletin/newreply.php?do=newreply&p=10692262
Die Qualität ist auch wirklich mal nicht schlecht für nur 13,2Mbps für 25fps.

Undertaker
2015-07-04, 11:10:01
13,2 Mbps und 25 fps sind auch Kinderkram... :D

http://www.demo-uhd3d.com/fiche.php?cat=uhd&id=26

Damit da wirklich kein Frame droppt, braucht es bei diesen Eckdaten (50 Mbps, 60 fps) einen Haswell-Quad >3 GHz. Youtube 4K60 ist kaum anspruchsloser sogar noch ein wenig anspruchsvoller (4K60 geht afair übrigens nur in Chrome):

https://www.youtube.com/watch?v=-iSFM-T-F_0&list=PLyqf6gJt7KuHCoYaGNWPx8vkHlClmbO9u

Und auch wenn man eine ausreichend flotte CPU hat, ist das bei derart hoher Prozessorauslastung äußerst ineffizient. Darum bitteschön einen passenden Hardware-Decoder. :)

Gimmick
2015-07-04, 11:29:24
(4K60 geht afair übrigens nur in Chrome):



Achso :D

Ja da wird die Luft dünn.

aufkrawall
2015-07-04, 11:46:56
13,2 Mbps und 25 fps sind auch Kinderkram... :D

http://www.demo-uhd3d.com/fiche.php?cat=uhd&id=26

Damit da wirklich kein Frame droppt, braucht es bei diesen Eckdaten (50 Mbps, 60 fps) einen Haswell-Quad >3 GHz.

Das ist HEVC 10 Bit, nicht VP9 8 Bit.
Ersteres unterstützen Fiji und GM206.



Youtube 4K60 ist kaum anspruchsloser sogar noch ein wenig anspruchsvoller (4K60 geht afair übrigens nur in Chrome):

https://www.youtube.com/watch?v=-iSFM-T-F_0&list=PLyqf6gJt7KuHCoYaGNWPx8vkHlClmbO9u

Da macht Chrome etwas falsch/schlecht, in MPC HC (LAV libav) ist die CPU-Last über 20 Prozentpunkte geringer und das Video läuft flüssig.
Habe hier ca. 50% Auslastung. Für einen Haswell i7 relativ harmlos.


Und auch wenn man eine ausreichend flotte CPU hat, ist das bei derart hoher Prozessorauslastung äußerst ineffizient. Darum bitteschön einen passenden Hardware-Decoder. :)
Tjaha, wenns denn mal passieren würde.

Undertaker
2015-07-04, 12:07:07
Das ist HEVC 10 Bit, nicht VP9 8 Bit.
Ersteres unterstützen Fiji und GM206.

Dein Link im letzten Posting war funktionslos, darum wusste ich nicht was du da genau für ein Video mit 13,2 Mbps und 25 fps meintest.


Da macht Chrome etwas falsch/schlecht, in MPC HC (LAV libav) ist die CPU-Last über 20 Prozentpunkte geringer und das Video läuft flüssig.
Habe hier ca. 50% Auslastung. Für einen Haswell i7 relativ harmlos.

Youtube wird nun einmal vorwiegend über den Browser und nicht als Download mit dem MPC konsumiert. Bei ~3:30 habe ich Spitzen bis 94% CPU-Last auf einem 3,7 GHz Haswell, d.h. vermutlich jeder i5 und jeder i7 unter einem ~i7-3770 (sowie sämtliche Notebooks) werden hier Frames droppen. Dazu wie gesagt das Thema der höllischen Ineffizienz eines solchen Software-Decodings.

Beherrscht überhaupt schon eine aktuelle GPU die VP9-Beschleunigung von Youtube-Videos? Wäre speziell für Mittelklasse-PCs und HTPCs ein sehr wichtiger Punkt.

aufkrawall
2015-07-04, 12:35:24
Es sollte dieses Video sein:
http://www.artbyphil.com/temp/phfx_4KHD_VP9TestFootage.zip

Die Browser sind auch mit Software-Decoding arg unnötig ineffizient.
Intel unterstützt es immerhin angeblich schon per Hybrid:
http://techreport.com/news/27677/new-intel-igp-drivers-add-h-265-vp9-hardware-decode-support

-/\-CruNcher-/\-
2015-07-04, 12:36:16
Hab ja auch ne Hawaii und grad mal in Youtube ein 4k 60fps Video getestet - ruckelt nix. Auslastung meines 4770k liegt bei ~25-37% je nach Szene.

Dann noch ein Offline-Video probiert:

http://distribution.bbb3d.renderfarming.net/video/mp4/bbb_sunflower_2160p_60fps_normal.mp4

Im Windows Media Player ~85% CPU-Last, in MPC wieder nur ~30-35%.

Hängt wirklich stark von der Software ab. Sollte aber eigentlich kein Problem sein.

Firefox 40 GTX 970 Maxwell VP6

WDDM 1.1

http://abload.de/thumb/vpx-maxwell-performanrlqng.png (http://abload.de/image.php?img=vpx-maxwell-performanrlqng.png)


Mit Nvidias letzten Wunder Optimierungen aus 353.30 WHQL die ordentlich was brachten :D

und das Systemweit im overhead :)

aufkrawall
2015-07-04, 12:48:50
Oh man, was faselst du wieder...

-/\-CruNcher-/\-
2015-07-04, 13:05:36
Hab lediglich ein Browser Ergebnis gepostet als Antwort das es von der Software und deren GPU (DSP Core) support abhängt und du hast nichts besseres zu tun als mich anzumachen, wieder mal 1a aufkrawall.
Änder mal deinen Nick vielleicht änderst du dich dann ja auch ;)

Und diese Optimierungen bekommen weit mehr Nvidia Maxwell user mit als wie nur ich ;)

Werd mir bald selbst wieder ein Bild von AMDs DSP Fortschritten machen

Hab meine ganz eigene Samples Datenbank mit der damals auch teils Nvidias Decoder gebugfixed wurde, sie waren halt bereit zu zuhören ATI war das damals nicht der Fall.

Thunder99
2015-07-04, 13:27:06
Die Frage ist halt noch wieviele die das Nutzen wollen hat auch den entsprechenden Internet Anschluss. Dümpel hier mit 16k Leitung rum wo gerade so Full HD ohne Nachladeruckler läuft ;)

Wenn Fiji HW decoding unterstützt ist es aber gut, keine Frage. Für den Rest muss es hält ineffizient über die CPU laufen ^^

Hübie
2015-07-04, 13:38:08
https://www.youtube.com/watch?v=-iSFM-T-F_0&list=PLyqf6gJt7KuHCoYaGNWPx8vkHlClmbO9u

Und auch wenn man eine ausreichend flotte CPU hat, ist das bei derart hoher Prozessorauslastung äußerst ineffizient. Darum bitteschön einen passenden Hardware-Decoder. :)


Ui. 60-75% Auslastung auf einem 3930k bei 4500 MHz :biggrin: mit 31 MBit auch hart an der Grenze meiner Leitung (32 MBit).

Edit: Ach ja Opera...

-/\-CruNcher-/\-
2015-07-04, 13:40:55
Die Frage ist halt noch wieviele die das Nutzen wollen hat auch den entsprechenden Internet Anschluss. Dümpel hier mit 16k Leitung rum wo gerade so Full HD ohne Nachladeruckler läuft ;)

Wenn Fiji HW decoding unterstützt ist es aber gut, keine Frage. Für den Rest muss es hält ineffizient über die CPU laufen ^^


Nur bei Netflix 4K 10 bit bringt es dir was und dann musst du aber gewisse "Sicherheitsvorausetzungen" erfüllen ;)

ChaosTM
2015-07-04, 14:00:53
Mir ist noch kein 4k Video untergekommen, dass meinen 3770er + MPC-HC oder VLC auch nur annähernd ins schwitzen gebracht hätte.

-/\-CruNcher-/\-
2015-07-04, 16:57:45
Es gibt noch kein richtiges High Quality Content 4K für Otto normal die Vorausetzungen sind noch nicht optimal auf dem PC als wie Mobile, Konsolen und Entertainment Devices ;)

Die Content Supplier (Hollyshut) verlangen noch mehr Sicherheit noch mehr Abschottung des PCs ;)


Selbst Intel hat deswegen ihre Pläne auf 2016 gelegt weil die Anforderungen steigen enorm Software/Hardware.

http://abload.de/thumb/nextcontensecuritystak3xw6.png (http://abload.de/image.php?img=nextcontensecuritystak3xw6.png)

Mit 10 bit Displays geht es gerade erst Los man sah da auch noch keinen richtigen Markt für 2015 :)

Nur Nvidia hat mal wieder ihren DSP block geupdatet in der GTX x60 (GM206) wie immer Broadcast Friendly ein Vorgeschmack auf durchgehend 4K 10 bit support in Pascal ;)

woodsdog
2015-07-04, 21:28:48
Hinter dem 3. Satz fehlt der ;) FYI

Nightspider
2015-07-04, 22:33:51
Bei dem 4K60 YouTube Video habe ich teils Peaks von 96% CPU Auslastung bei einem Sandy Bridge 2600K @ 4,6 Ghz.

http://abload.de/img/4k60f3j9m.png

Kann ich mir irgendwie die fps anzeigen lassen bei YouTube? Das macht Fraps nur selten mal zufällig.


Mir ist noch kein 4k Video untergekommen, dass meinen 3770er + MPC-HC oder VLC auch nur annähernd ins schwitzen gebracht hätte.

Auch bei dem Video hier? Was hast du da für eine CPU Auslastung? Siehst du wie viel fps du hast?

https://www.youtube.com/watch?v=-iSFM-T-F_0&list=PLyqf6gJt7KuHCoYaGNWPx8vkHlClmbO9u

foenfrisur
2015-07-05, 16:21:27
bei mir geht dein gepostetes video des "pyroplastischen stroms" nur in max. FHD anzuwählen?

woran kann das denn nun wieder liegen? andere 4k-vids gehen ja auch.

mfg

aufkrawall
2015-07-05, 16:24:52
Weil es offenbar in 4k nur in VP9 vorliegt und YT das derzeit nur Chrome anbietet, den du wahrscheinlich nicht verwendest.

foenfrisur
2015-07-05, 16:30:42
ja, habs zwar vermutet, aber opera nutzt ja auch die chrome-engine....
aber offenbar eine ältere version.

das video geht jedoch problemlos mit 4k@60fps
https://www.youtube.com/watch?v=iNJdPyoqt8U

mfg

MORPHiNE
2015-07-06, 13:03:29
Weil es offenbar in 4k nur in VP9 vorliegt und YT das derzeit nur Chrome anbietet, den du wahrscheinlich nicht verwendest.

In Firefox about:config öffnen, "media.mediasource.webm.enabled" auf "true" setzen, läuft (ggf. prüfen auf https://www.youtube.com/html5).

Siehst du wie viel fps du hast?

chrome:flags öffnen, FPS-Counter aktivieren, Neustart.

Auf meinem i7-4760HQ läuft es in 4K60 übrigens auch noch, bis die Bandbreite zu hoch wird (dann Aussetzer). Vielleicht muss ich noch etwas mit dem Powermanagement spielen.

Ex3cut3r
2015-07-06, 13:38:14
Sehe keinen Sinn für 4K auf Youtube, erstens habe ich nur einen FHD Bildschirm und zweitens ist die Bildquali eh nicht viel besser auf 4K?! Dazu kommt dann auch noch das meine CPU auf 90% ist. (4770k)

Asaraki
2015-07-06, 13:40:18
Sehe keinen Sinn für 4K auf Youtube, erstens habe ich nur einen FHD Bildschirm und zweitens ist die Bildquali eh nicht viel besser auf 4K?! Dazu kommt dann auch noch das meine CPU auf 90% ist. (4770k)

4K auf Monitoren in 30-90cm Abstand nicht mit 4k TVs in 3m vergleichen. Schon 1440p ist auf einem Monitor ein extremer Unterschied.

Nur weil du's nicht hast ist es noch lange nicht sinnlos ^^

dildo4u
2015-07-06, 13:54:15
Sehe keinen Sinn für 4K auf Youtube, erstens habe ich nur einen FHD Bildschirm und zweitens ist die Bildquali eh nicht viel besser auf 4K?! Dazu kommt dann auch noch das meine CPU auf 90% ist. (4770k)
Die Bitrate wird mit 4k deutlich besser nicht nur die Auflösung,1080p hat auf Youtube nur 8Mbit brauchbar wären 16Mbit+.

Youtube 1080p
http://i.cubeupload.com/YxhDmh.jpg

Orginal Screen
http://i.cubeupload.com/wmDZQZ.jpg

Asaraki
2015-07-06, 13:58:21
Die Bitrate wird mit 4k deutlich besser nicht nur die Auflösung,1080p hat auf Youtube nur 8Mbit brauchbar wären 16Mbit+.

Youtube 1080p
http://i.cubeupload.com/YxhDmh.jpg

Orginal Screen
http://i.cubeupload.com/wmDZQZ.jpg

Ich dachte das ist der Konsolenmodus? Quasi-1080 :D

Nein natürlich, aber das ist auch ok so. YT erzeugt so schon genug Trafficimho.

aufkrawall
2015-07-06, 14:53:48
Mit VP9 ist die Qualität natürlich besser als mit H.264, das 4k 60fps Video hat ~27,2Mbit.

Flusher
2015-07-06, 16:00:25
Wird das hier jetzt zum YT 4K Thread?

Thunder99
2015-07-06, 16:03:37
4k kann doch garnicht auf 1080p richtig dargestellt werden. Wo soll da der Mehrwert sein? Was meint ihr mit Bitrate? :confused:

Bin echt mal gespannt auf die Fury und deren Kühllosungen. Viel Platz ist da ja nicht oder es Bedarf einer Konstruktion mit Backplatte damit der Kühler getragen werden kann

Asaraki
2015-07-06, 16:50:06
Wird das hier jetzt zum YT 4K Thread?

Naja, zu spekulieren gibt es sowieso nichts mehr, von den Taktraten der Nano mal abgesehen.

Oder worüber wolltest du denn reden?

ndrs
2015-07-06, 17:59:54
360X, 370X, Dual Fury, ... gibt schon noch einiges :)

Es ist nur nervig, wenn man dauernd in den Thread klickt in der Hoffnung auf neue Infos zu oben genanntem nur um festzustellen "immer noch youtube".

mczak
2015-07-06, 22:56:35
Hier mal etwas anderes, habe das eher per Zufall entdeckt, glaube nicht dass das schon diskutiert wurde.
Man kann anhand der IP-Blöcke sehen wie alt ein Chip ist - also nicht anhand des Erscheinungsdatums sondern irgendwann in der Designphase, zumindest ab Sea Islands ist das sehr einfach (so habe ich die auch sortiert - theoretisch wäre es ja denkbar dass irgendwo ein Block älter sein könnte und ein anderer neuer das ist aber nirgends der Fall).


kaveri bonaire kabini hawaii topaz tonga carrizo
gmc 7.0 7.0 7.0 7.0 8.0 8.0 8.0
ih 2.0 2.0 2.0 2.0 2.4 3.0 3.0
smc 7.0 7.0 7.0 7.0 7.1 7.1 8.0
dce 8.1 8.2 8.3 8.5 N/A 10.0 11.0
gfx 7.1 7.2 7.2 7.3 8.0 8.0 8.0
sdma 2.0 2.0 2.0 2.0 2.4 3.0 3.0
uvd 4.2 4.2 4.2 4.2 N/A 5.0 6.0
vce 2.0 2.0 2.0 2.0 N/A 3.0 3.0


Der Mystery-Chip Topaz (iceland) ist also interessanterweise der älteste VI-Chip.
Auffällig bei den APUs, Kaveri brauchte deutlich länger von dieser Designphase bis er auf den Markt kam (ist sogar der älteste CI-Chip) - bei Kabini war das aber nicht der Fall. Ansonsten ist die Reihenfolge ziemlich gleich wie die Reihenfolge nach Erscheinungsdatum, zu Fiji kann ich leider noch nichts entdecken. Ausserdem frage ich mich wo DCE 9 abgeblieben ist :D

Hübie
2015-07-06, 23:04:18
Redest du von Registern oder was meinst du mit IP Block? :| Woher hast du das? Wäre auch gut wenn du die Kürzel entwirren könntest. Nicht alle sagen mir was. Danke ;)

mczak
2015-07-06, 23:17:51
Redest du von Registern oder was meinst du mit IP Block? :| Woher hast du das? Wäre auch gut wenn du die Kürzel entwirren könntest. Nicht alle sagen mir was. Danke ;)
Die werden offiziell so bezeichnet, sind eben prinzipiell austauschbare Blöcke die bestimmte Funktionalität implementieren. Damit man die GPU ganz einfach aus diesen Blöcken zusammenbauen kann a la Lego :D
Ach ja, Linux-Kernel, suche da mal nach ip-blocks:
https://git.kernel.org/cgit/linux/kernel/git/next/linux-next.git/tree/drivers/gpu/drm/amd/amdgpu/vi.c (und cik.c)

gmc: irgendwas mit memory controller (graphics, gpu, ...)
ih: interrupt handler
dce: display control engine oder so...
gfx:
sdma: system dma
uvd: universal video decoder
vce: video coding engine

Es gibt auch noch einen "common" Block den habe ich nicht aufgeführt (1.0 für CI, 2.0 für VI).

Hübie
2015-07-06, 23:30:17
Mäh. Hab mich blöd ausgedrückt. Wo du das ausliest. In Registern hinterlegter Code oder wie? Was IP-Blöcke in dem Fall sind ist mir durchaus klar, nur wie man die unterschiedlichen Versionen erkennt ist mir schleierhaft.

Edit: Ja nun seh ich wo 's herkommt ;) ;)

mczak
2015-07-06, 23:43:30
Mäh. Hab mich blöd ausgedrückt. Wo du das ausliest. In Registern hinterlegter Code oder wie? Was IP-Blöcke in dem Fall sind ist mir durchaus klar, nur wie man die unterschiedlichen Versionen erkennt ist mir schleierhaft.

Edit: Ja nun seh ich wo 's herkommt ;) ;)
Habe ja gesagt ist ganz einfach, dafür sind die major/minor Nummern ja da :biggrin:
Deswegen auch bloss ab CI beim alten radeon Treiber sieht man das nicht so schön (offiziell ist ja der neue nur für VI unterstützt aber zum Testen auch CI, der alte ist für alles bis und mit CI gedacht). AMD will ja mit dem Binärtreiber in Zukunft auch diesen neuen Kerneltreiber nutzen.