PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 [44] 45 46 47 48 49 50 51 52 53 54 55 56

Thunder99
2015-06-21, 15:16:00
Ist doch genau andersrum?

http://gamegpu.ru/action-/-fps-/-tps/wolfenstein-the-new-order-test-gpu.html

Ah bei Techpowerup stimmt deine Aussage. Naja da sieht man wohin das führt wenn man einen Bench für bare Münze nimmt.
Hab daher auch es nur in Bezug genommen zur Aussage das 390x meistens mit der 980 konkurrieren kann. Sehe das anders, sie ist zwischen 970 und 980 :)

HarryHirsch
2015-06-21, 15:25:55
schade das der erste post nicht aktuell gehalten wird...
wann kommt denn die fury x?

edit:

und warum heißen die dinger immer noch r9?

Unicous
2015-06-21, 15:29:57
In 3 Tagen gibt es Reviews, ob sie dann lieferbar ist... *insertshrug.gif*

Thunder99
2015-06-21, 15:37:12
schade das der erste post nicht aktuell gehalten wird...
wann kommt denn die fury x?

edit:

und warum heißen die dinger immer noch r9?

Hieß es doch von AMD selbst: R9 Fury (x). Bei der Nano bin ich nicht sicher mit R9

iuno
2015-06-21, 15:58:03
Bei der Nano bin ich nicht sicher mit R9
Nano heißt R9 Nano, nicht etwa Fury Nano o.ä.
und warum heißen die dinger immer noch r9?

R9 ist nur die grobe Einteilung der Leistungsklasse: R5-R7-R9 (R3 wurde glaube ich auch was genannt bei APUs), also so ähnlich wie Intels Core i3-i5-i7. Hat mit der Generation nicht zu tun.

dildo4u
2015-06-21, 16:42:24
Kein Plan ob das schon gepostet wurde der Quantum PC hat eine Intel CPU verbaut schätze mal Dual Fiji plus Bulldozer wäre bissel zu viel für die Kühlung.

http://www.pcper.com/image/view/57803?return=node%2F63235

In the video, AMD reveals that they are using a modified ASRock Z97E-ITX/ac motherboard (thanks to djotter in the comments for pointing that out) which means that Project Quantum is using an Intel Haswell processor in addition to the two Fiji-based GPUs.

http://www.pcper.com/news/General-Tech/AMDs-Small-Form-Factor-Project-Quantum-PC-Dual-Fiji-Powerhouse-Updated

w0mbat
2015-06-21, 16:46:17
Das wurde gleich am ersten Tag gesagt, auch von AMD. Aber nett zu sehen, dass deine Troll-Versuche langsamer werden :P

Dawn on Titan
2015-06-21, 17:00:39
Logisch, man braucht die schnellste CPU umd die schnellste GPU zu füttern.

mironicus
2015-06-21, 17:01:16
Dual-Fiji HiRes
http://abload.de/img/dualfiji212odr.jpg

Pick
2015-06-21, 17:52:55
Dual-Fiji HiRes
http://abload.de/img/dualfiji212odr.jpg

AMD Radeon Fury MAXX :rolleyes:

ChaosTM
2015-06-21, 18:04:00
Doppelfury wird interessant, wenn man sie auf Nano Strom-Level betreibt. 160-180% der Einzelleistung bei "nur" 300-350 Watt..
Mit all den Multi-GPU nachteilen..

Digidi
2015-06-21, 18:13:04
Naja die Leistung von Multigpu Karten wird sich mit dx12 schlagartig verbessern. Das ist ja der 2 große Punkt bei DirectX 12 die Multigpu Leistung zu verbessern und Microrucklern zu töten. Man will es ja angehen mit den Microrucklern bei civilisation hat man ja gesehen das es geht mit Mantle

Schnoesel
2015-06-21, 18:17:27
Beides wird nicht gehen. Bei Civ hat man gesehen, dass an die Microruckler beseitigen kann aber auf kosten der Performance. SFR ist nicht so effizient was FPS angeht wie AFR:

http://www.anandtech.com/show/8643/civilization-beyond-earth-crossfire-with-mantle-sfr-not-actually-broken

Und die Entwickler müssen das erstmal implementieren und ob sie das machen ist mehr als fraglich weil CF/SLI ist immer noch Nische. Also ich würde nicht drauf wetten.

Tesseract
2015-06-21, 19:29:50
schluss jetzt mit den fanboy-kleinkriegen, thema ist die hardware und nicht firmenmarketing oder sonstwas.

ChaosTM
2015-06-21, 19:31:35
Danke

Tamagothi
2015-06-21, 19:33:01
Noch ist SFR ineffizient.

Wenn man aber am Ball bleibt kann es durchaus effizienter als AFR werden dank DX12. Dann mit einem R9 Nano CF gespann mit +50% TitanX Leistung :D Edit: bei gleichem Verbrauch ^^

BlacKi
2015-06-21, 19:33:10
Und die Entwickler müssen das erstmal implementieren und ob sie das machen ist mehr als fraglich weil CF/SLI ist immer noch Nische. Also ich würde nicht drauf wetten.

und in den spielen die nur afr unterstützen hat man auch nur 4gb auf ca 1500% 3dc performance

rentex
2015-06-21, 20:07:21
Also zum Thema fehlendes HDMI 2.0: Mal ehrlich, nur early Adopter, Laien die viel Geld haben oder Nerds haben so ne Flimmerkiste und wenn, hängt bei den wenigsten ein Rechner dran. Also eine gute Entscheidung. Zum Fiji Nachfolger wäre es aber Pflicht...2016.

M4xw0lf
2015-06-21, 20:11:24
Noch ist SFR ineffizient.

Wenn man aber am Ball bleibt kann es durchaus effizienter als AFR werden dank DX12. Dann mit einem R9 Nano CF gespann mit +50% TitanX Leistung :D Edit: bei gleichem Verbrauch ^^
Die Erwartungen an die Nano kommen mir recht überzogen vor.
Hieß es nicht von AMD, dass die Nano nur etwas schneller als die 290X sein soll?
Mir scheinen Leistung und P/W-Verhältnis der GTX980 eine einigermaßen realistische Richtschnur für die Nano.

Thomas Gräf
2015-06-21, 20:19:49
Also zum Thema fehlendes HDMI 2.0: Mal ehrlich, nur early Adopter, Laien die viel Geld haben oder Nerds haben so ne Flimmerkiste und wenn, hängt bei den wenigsten ein Rechner dran. Also eine gute Entscheidung. Zum Fiji Nachfolger wäre es aber Pflicht...2016.

ediht, ja stimmt lag eben mal daneben ;)

Menace
2015-06-21, 20:22:54
Hieß es nicht von AMD, dass die Nano nur etwas schneller als die 290X sein soll?


Bei den Aussagen war Lisa sehr kryptisch. Mal gleich schnell, mal signifikant schneller [wobei letzteres dehnbar ist].

dargo
2015-06-21, 20:31:09
Warum sollten Sie? Sie lassen ja PhysX und den ganzeren anderen Kram in Gameworks auch nicht fallen. Vor allem spielt das doch für ihn gar keine Rolle. Wenn er so einen Monitor kauft wird der auch in 5 Jahren noch funktionieren. Nvidia wird in jedem Fall weiter dafür sorgen dass es eine Abgrenzung zu AMD gibt. Das ist die Marschroute. Nvidia braucht kein Freesynch um Grafikkarten zu verkaufen und sie brauchen auch nicht 100er von Monitoren mit dem Feature G-Sync. Sie brauchen höchstens in verschiedenen Preissegmenten jeweils ein paar Monitore. Kein Mensch sucht sich jetzt unter 100erten von Monitoren einen aus und kauft dann danach die Grafikkarte. So viele Geräte braucht es da nicht.
Du kapierst es immer noch nicht. Freesync ist quasi ohne Aufpreis zu einem non Freesync Bildschirm realisierbar. Dh. irgendwann macht es für die Hersteller keinen Sinn mehr Bildschirme ohne Freesync zu produzieren.

Achja... an Freesync über HDMI wird auch schon gearbeitet.
http://www.golem.de/news/grafikkarte-amd-arbeitet-an-freesync-fuer-hdmi-und-notebooks-1506-114462.html

Wer weiß wo das alles hinführt. Eventuell gibt es bald Freesync auch am Fernseher.

Tamagothi
2015-06-21, 20:32:54
Die Erwartungen an die Nano kommen mir recht überzogen vor.
Hieß es nicht von AMD, dass die Nano nur etwas schneller als die 290X sein soll?
Mir scheinen Leistung und P/W-Verhältnis der GTX980 eine einigermaßen realistische Richtschnur für die Nano.

Wieso?

Wenn ich meine R9 290X bei 800 Mhz laufen lassen und die Spannung anpasse sinkt der Verbrauch fast um 100 Watt

Also sind max. 150 Watt für die nano sehr realistisch. Mann müsste den Takt sogar noch niedriger ansetzten damit man nur etwas schneller als die R9 290X ist.

dargo
2015-06-21, 20:38:53
Hoffentlich nicht mehr lange =) :

http://geizhals.eu/amd-radeon-r9-fury-x-a1282818.html
Hoffentlich verbergen sich bei den zwei Biosen auch unterschiedliche Lüfterkurven.
52303

Einen absoluten Silentmode erwarte ich. :cool:

Dual-Fiji HiRes
http://abload.de/img/dualfiji212odr.jpg
Ich hoffe bloß AMD nimmt dafür 2x R9 Nano und nicht 2x R9 Fury X. Letzteres wäre mit ca. 550W aua. :freak: Ne zweite R9 295x2 brauchen wir imo nicht.

Beides wird nicht gehen. Bei Civ hat man gesehen, dass an die Microruckler beseitigen kann aber auf kosten der Performance. SFR ist nicht so effizient was FPS angeht wie AFR:

http://www.anandtech.com/show/8643/civilization-beyond-earth-crossfire-with-mantle-sfr-not-actually-broken

Und die Entwickler müssen das erstmal implementieren und ob sie das machen ist mehr als fraglich weil CF/SLI ist immer noch Nische. Also ich würde nicht drauf wetten.
Erstens das und zweitens sehe ich ein großes Problem bei AFR im temporalen AA.

mironicus
2015-06-21, 20:52:31
Also zum Thema fehlendes HDMI 2.0: Mal ehrlich, nur early Adopter, Laien die viel Geld haben oder Nerds haben so ne Flimmerkiste und wenn, hängt bei den wenigsten ein Rechner dran. Also eine gute Entscheidung.

Es gibt Leute, die kaufen sich für 400 Euro einen billigen 40 Zoll 4K-Fernseher und benutzen ihn als Monitor-Ersatz. Schau dir den Philips (hat ein TV-Panel) an, der wurde bei Prad mit ++ bewertet. Leider veröffentlichen die Hersteller gerne dann mal Firmwareupdates um den Farbraum abzusenken (aber natürlich nicht bei den teuren Modellen), was die zuvor hervorragende Bildqualität verschlechtert... HDMI 1.4 schließt alle Fiji-Karten als Highend-Gaming-HTPC komplett aus. Der Fernsehbereich ist außerdem viel fortgeschrittener was neue Displaytechniken angeht. Es gibt dort schon OLED, Quantum DOT und andere Sachen (ganz dunkles Schwarz, viel höherer Kontrast) wovon PC-User momentan nur träumen, worauf man aber nicht verzichten muss... dank HDMI 2.0.

dlux
2015-06-21, 20:58:41
HDMI 1.4 schließt alle Fiji-Karten als [4K] Highend-Gaming-HTPC komplett aus.

Nein.

1. Es gibt 4K Fernseher mit DisplayPort (die Auswahl ist dürftig, aber immerhin): http://geizhals.de/?cat=tvlcd&xf=122_DisplayPort~34_3840x2160#xf_top

2. Ein HDMI 2.0 Aktiv-Adapter dürfte bald erscheinen: http://www.clubic.com/salon-informatique-tic/ces/actu-ces_2015_du_displayport_a_l_hdmi_2_0_chez_bizlink-749111.html

StefanV
2015-06-21, 21:02:29
Also zum Thema fehlendes HDMI 2.0: Mal ehrlich, nur early Adopter, Laien die viel Geld haben oder Nerds haben so ne Flimmerkiste und wenn, hängt bei den wenigsten ein Rechner dran. Also eine gute Entscheidung. Zum Fiji Nachfolger wäre es aber Pflicht...2016.
Naja, die Frage ist aber eher, ob sich HDMI 2.0 wirklich durchsetzt oder ob es eine Randerscheinung bleiben wird.

Bei PC Bildschirmen kann man befürchten, dass man dort eher auf Display Port setzt.

Einzig bei Fernsehern kann es sein, dass man dort bei HDMI bleibt, aber auch hier gibt es die ersten 'Umfaller' -> http://geizhals.de/?cat=tvlcd&xf=122_DisplayPort#xf_top

ERGO:
Es wird noch viel Wasser den Bach runter laufen. Und gerade wenn du auf PCs schaust, so ist die Verbreitung von DP deutlich höher als HDMI 2.0. Da gibts ja so gut wie gar nichts, was HDMI 2.0 unterstützt.
Entsprechend ists auch relativ sinnlos, dort keine Monitore mit Display Port anzubieten...

mironicus
2015-06-21, 21:04:51
Einzig bei Fernsehern kann es sein, dass man dort bei HDMI bleibt, aber auch hier gibt es die ersten 'Umfaller' -> http://geizhals.de/?cat=tvlcd&xf=122_DisplayPort#xf_top

Daher ist die Frage eher, ob nicht eventuell HDMI 2.0 die Randerscheinung bleiben wird...

Nein.... :P
http://geizhals.de/?cat=tvlcd&xf=122_HDMI+2.0#xf_top

252 gelistete 4K-Fernseher mit HDMI 2.0. :D
Das ist natürlich überhaupt nicht wichtig... :D

Tamagothi
2015-06-21, 21:07:54
So und wie viele davon sind Spiele tauglich?

ilibilly
2015-06-21, 21:09:46
Naja auch in Hinblick auf die steammachines fürs Wohnzimmer wäre hdmi 2.0 wichtig gewesen,damit sind Amd Karten quasi ausgeschlossen,was hätte es Amd gekostet hdmi 2.0 einzubauen ,50 Cent ?
Also von einer guten Entscheidung kann keine Rede sein,es ist eher fahrlässig es nicht zu tun.

mironicus
2015-06-21, 21:11:31
So und wie viele davon sind Spiele tauglich?

Da musste ins Hifi-Forum schauen. Die Fernseher besitzen häufig einen Game Mode und PC-Mode um den Lag zu reduzieren. Ihr dürft nicht außer Acht lassen, das die nächsten Konsolen wohl auch nativ HDMI 2.0 und 4K unterstützen werden. Somit ist der PC jetzt schon gut gerüstet für die Zukunft.

THE
2015-06-21, 21:18:10
Also zum Thema fehlendes HDMI 2.0: Mal ehrlich, nur early Adopter, Laien die viel Geld haben oder Nerds haben so ne Flimmerkiste und wenn, hängt bei den wenigsten ein Rechner dran. Also eine gute Entscheidung. Zum Fiji Nachfolger wäre es aber Pflicht...2016.

Hier ist einer dieser Nerds, der wegen panel/schwarzwert und dimming schon vor über einem Jahr das top Modell gekauft hat und dann eben uhd Auflösung kostenlos dabei hatte, welche insbesondere am htpc Spaß macht. Beim Sitzabstand 3 Meter bei 65 Zoll sieht man beim Schriftbild im Browser Vorteile. Gaming in 4k ist am htpc aktuell allerdings wirklich quatsch aus dem Grund Lautstärke/Performance im Wohnzimmer. Die 60hz hätte ich aber gerne mitgenommen für YouTube/Browser. Dp/hdmi Adapter fehlt dann immernoch hdcp 2.2.

Und wenn nicht Nerds und early adaptor als Zielgruppe erreicht werden bei einem +400€ Produkt, dann ist das ein Problem.

dargo
2015-06-21, 21:19:20
Ihr dürft nicht außer Acht lassen, das die nächsten Konsolen wohl auch nativ HDMI 2.0 und 4K unterstützen werden. Somit ist der PC jetzt schon gut gerüstet für die Zukunft.
Sonst gehts dir aber gut? Für die Zukunft gerüstet? Die nächsten Konsolen kannst du vor 2020 vergessen.

mironicus
2015-06-21, 21:24:52
Selbst alle neuen 4K Freesync-Monitore haben HDMI 2.0-Anschlüsse. Das ist Industriestandard seit über einem Jahr. :P

Was lässt sich AMD da nur entgehen? Die haben schon ein Projekt-Quantum-PC gebaut... Dual Fiji in einen kompakten Gehäuse, ideal als ultimativer HTPC für 4K-60 fps in jedem Spiel und dann kein HDMI 2.0... was wäre das eine Werbung für AMD, wenn sie das Teil zusammen mit einem LG 65 Zoll 4K OLED präsentieren würden... :crazy2:

Tamagothi
2015-06-21, 21:38:56
vielleicht legen sie zu jedem Quantum-PC einen DP-HDMI stick dazu :D

maguumo
2015-06-21, 21:45:52
vielleicht legen sie zu jedem Quantum-PC einen DP-HDMI stick dazu :D

Oder zimmern einen Zusatzchip auf die Karte...

Der Fünfte Elefant
2015-06-21, 21:51:10
Also zum Thema fehlendes HDMI 2.0: Mal ehrlich, nur early Adopter, Laien die viel Geld haben oder Nerds haben so ne Flimmerkiste und wenn, hängt bei den wenigsten ein Rechner dran. Also eine gute Entscheidung. Zum Fiji Nachfolger wäre es aber Pflicht...2016.


Wenn du mich bitten würdest eine Prognose über den typischen potentiellen Fiji Käufer innerhalb des nächsten ~ halben Jahre abzugeben, dann würde ich sagen: Early Adopter, Laien die viel Geld haben oder Nerds ....

Kartenlehrling
2015-06-21, 22:16:41
Wichtiger ist doch sowieso das Endgeräte,
bei PC/Grafikkarte kann man sowas software mässig hinbekommen.
Hinzukommt das ja anscheinen HDMI2.0 und HDMI1.4 nicht wirklich kompatibel sind, nicht ohne grund haben TV/Monitor die HDMI2.0 haben auch noch 1.4 Eingänge.

Kartenlehrling
2015-06-21, 22:18:04
Wenn es nach mir ginge bräuchten wir überhaupt kein HDMI ...

StefanV
2015-06-21, 22:25:27
Selbst alle neuen 4K Freesync-Monitore haben HDMI 2.0-Anschlüsse. Das ist Industriestandard seit über einem Jahr. :P
Ja, der Lizenzgebühren kostet...

DP ist 'Royality Free'. Also gibts da noch mehr Gründe, auf DP zu setzen!

HDMI nutzt wohl keiner freiwillig...

InsaneDruid
2015-06-21, 22:29:33
Und so hämmern sich die Fanboys aus einem Nachteil einen nachmachenswerten Vorteil..;D

Dorn
2015-06-21, 22:32:27
Sonst gehts dir aber gut? Für die Zukunft gerüstet? Die nächsten Konsolen kannst du vor 2020 vergessen.

Du hast Nintendo vergessen, die neue Konsole kommt noch vor 2020 mit fetter 4K Grafik. :freak:

Tamagothi
2015-06-21, 22:37:29
Und so hämmern sich die Fanboys aus einem Nachteil einen nachmachenswerten Vorteil..;D

Ich finde HDMI 2.0 ist nur ein Nice to Have Feature.

Außerdem funzt G/freesync nicht über HDMI :wink:

Hübie
2015-06-21, 22:50:09
Ist eigentlich eine neue Aktion mit Never Settle geplant? Gibt's da Infos?

maguumo
2015-06-21, 22:52:33
Was offizielles soweit ich weiß noch nicht. Zumindest über SW Battlefront wurde mal spekuliert, keinen Plan ob da was dran ist...

Hübie
2015-06-21, 23:10:46
Das würde zwar Sinn machen, aber allein reichen wirds nicht. Danke.

Kartenlehrling
2015-06-21, 23:14:10
Und so hämmern sich die Fanboys aus einem Nachteil einen nachmachenswerten Vorteil..;D

Schönreden brauch man sich das nicht ....

Erst letzt wieder von HD+ und ihrem HDCP auf den Boden der Wirklichkeit zurückgeholt, vorher hatte ich immer normal SD Sender (16+) gehabt und konnte genüsslich im Timeshift hin und her spulen.
Nun mit vdsl100 und HD-Sender wird man am vorspulen gehindert, man kann zwar zurückspulen aber nicht mehr vor.
Das macht ja bei einem Fussballspiel wo man eine Szene nochmal sehen will viel Sinn wenn man dann nicht mehr Live sehen darf :freak:

Erst mit Entertain-Box ausstellen und wieder anmachen durfte ich dann weiter sehen.

samm
2015-06-21, 23:15:37
Da wird aus dem einen bereits bekannten Nachteil, nachdem das Lästern über die AIO nicht wirklich weit geführt hat, nun das riesige Tamtam gebastelt - läuft das in den nVidia-Spekulations-Threads vor Release auch jeweils so? Müsste die Seite auch mal wieder genauer verfolgen - immerhin ist doch dort auch nur die 960 HDCP 2.2-fähig, oder*? :freak: Können sich doch alle Kopierschutzfan-Early-Adopter, die hier konstruiert wurden, eine 960 zulegen und auf 4K gamen.

[edit]
*: wenn ich den Gedanken weiterspinne, könnte das sogar heissen, dass die andern Karten gar nicht wirklich HDMI 2.0 unterstützen, sondern nur wie Kepler via 4:2:0 Chroma Subsampling 60Hz @4K erreichen. Ist ja offtopic hier, aber ob das wirklich eine entsprechende Schlammschlacht im nVidia-Speu-Thread gab, wie es das bei den Radeons gerne mal tut? Links wären willkommen, mag mich nicht durch die hunderten Seiten quälen ;)

aufkrawall
2015-06-21, 23:15:57
Ist eigentlich eine neue Aktion mit Never Settle geplant? Gibt's da Infos?
fondness meinte das afair mit Battlefront mal.
Es gibt ja auch noch eine Menge anderer Kandiaten (Deus Ex, Hitman...).

Kartenlehrling
2015-06-21, 23:29:17
CiV:BE bekommt bestimmt auch DX12 ihr update kommt doch im Herbst, war ja schon Mantle vorzeige Produkt.

http://store.steampowered.com/app/353830/

und DeusEX und singularity werden bestimmt als gamebundle kommen.

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=52232&d=1434492932

BlacKi
2015-06-21, 23:36:17
au man jetzt muss ich mir ne fury kaufen XD

N0Thing
2015-06-21, 23:42:29
CiV:BE bekommt bestimmt auch DX12 ihr update kommt doch im Herbst, war ja schon Mantle vorzeige Produkt.

Ich würde bei einem Mantel-Spiel keinen extra DX12-Pfad erwarten.

maguumo
2015-06-21, 23:49:35
Deus Ex und Hitman kommen doch erst 2016?

aufkrawall
2015-06-21, 23:52:46
Hitman Dezember, Deux Ex März. AMD hatte die Bundles immer auf neue Spiele ausgedehnt.

horn 12
2015-06-22, 00:01:44
http://videocardz.com/56795/first-amd-radeon-r9-fury-x-review-samples-are-in-the-wild

Nett nett

dildo4u
2015-06-22, 00:02:43
Paar Info's von einem Hardware Händler Spannung ist locked auf Fury übertaktet schlecht mit default Spannung.

http://forums.overclockers.co.uk/showpost.php?p=28207511&postcount=1129

Performance vorallem in 4k Vergleichbar mit Stock 980 TI/Titan X.
http://forums.overclockers.co.uk/showpost.php?p=28208309&postcount=1211

StefanV
2015-06-22, 00:23:11
Da wird aus dem einen bereits bekannten Nachteil, nachdem das Lästern über die AIO nicht wirklich weit geführt hat, nun das riesige Tamtam gebastelt - läuft das in den nVidia-Spekulations-Threads vor Release auch jeweils so? Müsste die Seite auch mal wieder genauer verfolgen - immerhin ist doch dort auch nur die 960 HDCP 2.2-fähig, oder*? :freak: Können sich doch alle Kopierschutzfan-Early-Adopter, die hier konstruiert wurden, eine 960 zulegen und auf 4K gamen.

Korrekt

Hab mla 'nen bisserl gebuddelt und mal wieder was richtig tolles gefunden. Nämlich das hier:

Wie alle Maxwell-Grafikkarten der 2. Generation ist die GeForce GTX Titan X mit einem HDMI-2.0-Anschluss ausgestattet, mit HDCP 2.2 für Ultra-HD-Blu-rays kann aber nur der GM206 und damit vorerst nur die GeForce GTX 960 umgehen. Auch müssen GM200-Käufer darauf verzichten, den H.265-Codec (HEVC) per NVENC zu decodieren.

Noch einmal:
AUCH die Titan X unterstützt HDMI 2.0 nicht wirklich!
quelle (http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/).

Sorry, aber hier merkt man mal wieder, dass einfach nur sinnlos AMD gebasht wird, obwohl 'die anderen' nur mit irgendeiner kleinen Midrange Karte wirklich HDMI 2.0 unterstützen!
Wenn man aber mal bestimmten Content genießen möchte, schaut man in die Röhre!

Aber hey, ist halt nVidia, denen nimmt mans halt nicht übel, wenn die uns ein wenig veräppeln...

Ev. ist AMD hier einfach zu ehrlich und es wäre ev. gar möglich, einen 4k Schirm mit 60Hz anzusteuern, man gibts aber nicht an, weils nicht HDCP 2.2 kann?!

BlacKi
2015-06-22, 00:51:14
es wäre ev. gar möglich, einen 4k Schirm mit 60Hz anzusteuern, man gibts aber nicht an, weils nicht HDCP 2.2 kann?!

hey, solange ist es doch nichtmehr bis man handfestes hat, warum nicht einfach die füße stillhalten und abwarten?

keiner sagt das fury nicht 4k in 60hz in hdmi kann...

... noch nicht.

Locuza
2015-06-22, 01:15:57
Noch einmal:
AUCH die Titan X unterstützt HDMI 2.0 nicht wirklich!
quelle (http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/).

Die HDMI 2.0 Spec setzt nicht den Kopierschutz HDCP 2.2 voraus, insofern ist diese Aussage falsch.

Screemer
2015-06-22, 01:20:45
was spräche eigentlich dagegen 8bit farbraum zu nutzen, statt 10bit wie es hdmi2.0 macht, um 4k@60hz auch mit hdmi1.4 nutzen zu können. damit wäre genug bandbreite vorhanden. hdcp 2.2 geht nicht, können ja maxwells von der 960 abgesehen auch nicht. sonst irgendwelche auswirkungen?

mczak
2015-06-22, 01:32:46
was spräche eigentlich dagegen 8bit farbraum zu nutzen, statt 10bit wie es hdmi2.0 macht, um 4k@60hz auch mit hdmi1.4 nutzen zu können. damit wäre genug bandbreite vorhanden. hdcp 2.2 geht nicht, können ja maxwells von der 960 abgesehen auch nicht. sonst irgendwelche auswirkungen?
Man nutzt sowieso bloss 8bit bei hdmi 2.0. Die 10bit Träumereien sind noch nicht wirklich für was nütze.
Die Bandbreite reicht bei "hdmi 1.4" (ich setze sowas immer in Anführungszeichen weil eben die Bitraten die man übertragen kann NICHT an die hdmi version gebunden sind, gibt genügend hdmi 2.0 Fernseher die keine 4k/60Hz bei RGB beherrschen) einfach nicht aus für 4k/60hz, es sei denn du überträgst im yuv-Farbraum mit Chromasubsampling (dann hast du bloss 12bit pro Pixel statt 24).

Screemer
2015-06-22, 01:48:07
YUV 8 Bit und 4:2:0 sollte doch für normale daddeleien auf 4k tv geräten völlig ausreichend sein, oder? da gehen dann auch 60Hz.

aufkrawall
2015-06-22, 02:53:58
Spiele sehen damit mitunter deutlich unschärfer aus, außerdem hängt die Qualität vom Fernseher ab. Würde kein HQ-Scaling erwarten, mitunter gibts dann noch weiteres Aliasing.
Warum dann keine PS4...

Dawn on Titan
2015-06-22, 06:55:54
Displayport ist HDMI sowieso vorzuziehen.

Botcruscher
2015-06-22, 07:56:26
4K@60Hz wäre trotzdem schön gewesen.

derguru
2015-06-22, 08:08:32
so ist es, hochmoderne karte aber kein hdmi 2.0.:crazy2:

dargo
2015-06-22, 08:20:46
Außerdem funzt G/freesync nicht über HDMI :wink:
Für die Masse noch nicht. ;)
http://www.pcgameshardware.de/AMD-Freesync-Hardware-259942/News/HDMI-Prototyp-Demo-1160735/

M4xw0lf
2015-06-22, 08:41:07
Bei Overclockers UK wird schon fleißig gespoilert... was der gute Gibbo da von sich gibt, kann ich aber selbst mit einem Esslöffel Salz noch nicht so ganz glauben. "Unter 40 Grad beim Spielen und dabei nicht zu hören"... wir werden sehen.

akuji13
2015-06-22, 08:55:25
Wenn der Rest des Rechners laut genug ist kann das gut sein. :D

dargo
2015-06-22, 08:56:00
Und warum verlinkst du es nicht?
http://forums.overclockers.co.uk/showpost.php?p=28208661&postcount=1276

Wobei glaubhaft ist das nicht wirklich. Auf der anderen Seite... wenn die AIO bis 500W ausgelegt ist und die Karte "nur" 275W zieht. :uponder: Kenne mich mit dem Potenzial bei Waküs nicht so aus.

Sunrise
2015-06-22, 09:00:42
Bei Overclockers UK wird schon fleißig gespoilert... was der gute Gibbo da von sich gibt, kann ich aber selbst mit einem Esslöffel Salz noch nicht so ganz glauben. "Unter 40 Grad beim Spielen und dabei nicht zu hören"... wir werden sehen.
Kommt auf die Temperatur der Umluft an. Das ist mit Sicherheit keine Allgemeinaussage. Zusätzlich, wenn man FRTC anhat und dann z.B. auf 60fps begrenzt, bei 1080p/1440p mag das hinkommen. Aber sicher nicht, wenn du das Ding maximale Frames raushauen lässt bei maximaler BQ.

AMD gibt aber alles immer sehr konservativ an, wenn die also 52 Grad sagen, dann war da FRTC sicher aus und es waren Worst-Case-Bedingungen.

Die AiO dürfte aber generell zu sehr zufriedenen Käufern führen, denn das Ding ist ja quasi für die Fury speziell hergestellt worden. Da hat AMD keine Kosten und Mühen gescheut.

dargo
2015-06-22, 09:01:53
Lol... ;D
The engineers actually tested Fury X passive at stock and the thermal limit was not reached after hours of gaming this is how good this cooler is. Not suggesting you guys should run like that but just saying.
http://forums.overclockers.co.uk/showpost.php?p=28208371&postcount=1219

Dawn on Titan
2015-06-22, 09:05:20
Warum auch nicht. Hänge ich den Radi passiv an eine 120er Lüfteröffnung und betreibe das System mit Überdruck (z.B. nur 2 ansaugende Frontlüfter) dann funktioniert das. Fury ist ja sehr sparsam at Stock.

Spasstiger
2015-06-22, 09:08:01
4K@60Hz wäre trotzdem schön gewesen.
Aber das geht doch über Display Port - und noch mehr. Adapter auf HDMI 2.0 kann der Zubehörmarkt liefern.

dargo
2015-06-22, 09:08:04
Warum auch nicht. Hänge ich den Radi passiv an eine 120er Lüfteröffnung und betreibe das System mit Überdruck (z.B. nur 2 ansaugende Frontlüfter) dann funktioniert das. Fury ist ja sehr sparsam at Stock.
Ich bin ein absoluter Noob was Waküs angeht. Noch nie eine gehabt, die AiO wäre also die erste. Deshalb alles etwas ungewohnt für mich. :)

y33H@
2015-06-22, 09:09:07
Bei Overclockers UK wird schon fleißig gespoilert... was der gute Gibbo da von sich gibt, kann ich aber selbst mit einem Esslöffel Salz noch nicht so ganz glauben. "Unter 40 Grad beim Spielen und dabei nicht zu hören"... wir werden sehen.So ein Schmarrn. Außer der Lüfter ist auf 100 Prozent gestellt. Und passiv schon mal gar nicht.

Dawn on Titan
2015-06-22, 09:11:37
Ist halt die Frage was er mit thermallimit meint.

a) GPU drosselt
b) GPU schaltet ab

Sunrise
2015-06-22, 09:15:52
Fury X hat einen Thermal Threshold bei 75 Grad C, d.h. alles darüber wird runtergefahren. Die AiO probiert also, darunter zu bleiben. Wenn man bei einem "typischen" Gaming Szenario (was auch immer das heißen mag) 50 Grad bei <32dB bei aktivem Betrieb angibt, dann ist man da also auch deutlich drunter.

"Passiv" meint wahrscheinlich, dass der AiO-Lüfter aus ist, dafür muss dann aber auch anderweitig genügend Umluft da sein. Völlig passiv ist absoluter Quatsch bei so einem Monster auf Dauer.

Dawn on Titan
2015-06-22, 09:25:49
Aber angeblich throttelt die X schon ab 55°C.

Sunrise
2015-06-22, 09:29:57
Aber angeblich throttelt die X schon ab 55°C.
Wo steht das? Das ist viel zu niedrig, sollte dir schon der Verstand sagen. Ergibt überhaupt keinen Sinn. Das wäre beim typischen Gaming-Szenario ja dann gerademal 5 Grad Luft nach oben? Glaube ich nicht. Da will ich eine Bestätigung sehen.

mironicus
2015-06-22, 09:38:55
Passiv wäre im idle/wenig Power kein Problem. Solange die Pumpe läuft wird der Chip stets gekühlt und der Radiator und das Wasser erhitzen sich dabei nur sehr langsam, das kann man sehr lange ohne Lüfter betreiben ohne das es gefährlich ist. Ich habe in einem meiner älteren System eine AIO-CPU Wasserkühlung und da konnte ich das schon mal testen.

Wenn der Lüfter der Fury X immer auf der niedrigsten Stufe laufen kann, wäre das schon... cool. :)

Sunrise
2015-06-22, 09:41:31
Passiv wäre im idle/wenig Power kein Problem. Solange die Pumpe läuft wird der Chip immer stets gekühlt und der Radiator und das Wasser erhitzen sich dabei nur sehr langsam, das kann man sehr lange ohne Lüfter betreiben ohne das es gefährlich ist.
Von dauerhaft Idle bzw. minimaler Last spricht ja auch keiner, es geht um Spiele o.ä.

Wenn das Ding mit 275W TDP angegeben wird, wie willst du das bitte passiv kühlen? Vergesst einfach die Aussage von Gibbo, das ist einfach nur dummes Geschwätz ohne Hirn.

maguumo
2015-06-22, 09:41:45
Wo steht das? Das ist viel zu niedrig, sollte dir schon der Verstand sagen. Ergibt überhaupt keinen Sinn. Das wäre beim typischen Gaming-Szenario ja dann gerademal 5 Grad Luft nach oben? Glaube ich nicht. Da will ich eine Bestätigung sehen.
Bei Hawaii waren beim typischen Gaming-Szenario 0°C Luft nach oben. Den Kühler kann man schon so steuern das die Temperatur unter Last knapp am gesetzten Limit bleibt..

akuji13
2015-06-22, 09:43:58
Die AiO dürfte aber generell zu sehr zufriedenen Käufern führen, denn das Ding ist ja quasi für die Fury speziell hergestellt worden. Da hat AMD keine Kosten und Mühen gescheut.

Ich behaupte mal das ist ein 08/15 Radiator. :wink:
Der kann nicht zaubern.

Der Aussage von y33H@ schenke ich da wesentlich mehr Glauben.

Sunrise
2015-06-22, 09:44:53
Ich behaupte mal das ist ein 08/15 Radiator. :wink:
Es geht um die gesamte Kühlkonstruktion, du hast doch die Bilder gesehen? Das ist ein absolutes Kunstwerk. :D

Bei Hawaii waren beim typischen Gaming-Szenario 0°C Luft nach oben. Den Kühler kann man schon so steuern das die Temperatur unter Last knapp am gesetzten Limit bleibt..
Hawaii hatte 95 Grad C, wenn ich mich recht erinnere. Wir werden sehen. 55 Grad C ließe sich nur dadurch erklären, dass AMD die TDP extrem beschränken will. Das glaube ich aber nicht, das ist viel zu niedrig.

y33H@
2015-06-22, 09:45:26
Aber angeblich throttelt die X schon ab 55°C.Angeblich, ja. Das ist falsch.

mironicus
2015-06-22, 09:52:47
AMD dementiert Aufspaltung:
http://www.computerbase.de/2015-06/unternehmensstruktur-amd-dementiert-aufspaltung-oder-ausgliederung/

rentex
2015-06-22, 09:55:22
Wann fällt die NDA? Am 24ten?

akuji13
2015-06-22, 10:06:41
Es geht um die gesamte Kühlkonstruktion, du hast doch die Bilder gesehen? Das ist ein absolutes Kunstwerk. :D

Sogar selbst nochmal hier gepostet. :wink:

Trotzdem ist der Radiator recht gut auszurechnen, da darf man keine Wunder erwarten.

y33H@
2015-06-22, 10:13:40
Das Statement zur Vollständigkeit:
While we normally would not comment on such a matter, we can share that we have no such project in the works at this time. We remain committed to the long-term strategy we laid out for the company in May at our Financial Analyst Day.

maguumo
2015-06-22, 10:16:56
Hawaii hatte 95 Grad C, wenn ich mich recht erinnere. Wir werden sehen. 55 Grad C ließe sich nur dadurch erklären, dass AMD die TDP extrem beschränken will. Das glaube ich aber nicht, das ist viel zu niedrig.

Delta T von ~30°C mit der AiO Kühlung wären realistisch denke ich. Hat sich jetzt aber sowieso erledigt. Das Temperatur Limit so niedrig zu setzen wäre auch Blödsinn gewesen.

M4xw0lf
2015-06-22, 10:17:09
So ein Schmarrn. Außer der Lüfter ist auf 100 Prozent gestellt. Und passiv schon mal gar nicht.
Danke, dachte ich mir ^^

Lowkey
2015-06-22, 10:18:35
Wann fällt die NDA? Am 24ten?

Am Mittwoch so es wohl Tests geben. Und die Verfügbarkeit soll auch vorhanden sein.

Die Frage ist nur noch: wieviel Uhr?


Ein Kauf wird bei mir zu 90% sicher sein.

Knuddelbearli
2015-06-22, 10:20:08
Und warum verlinkst du es nicht?
http://forums.overclockers.co.uk/showpost.php?p=28208661&postcount=1276

Wobei glaubhaft ist das nicht wirklich. Auf der anderen Seite... wenn die AIO bis 500W ausgelegt ist und die Karte "nur" 275W zieht. :uponder: Kenne mich mit dem Potenzial bei Waküs nicht so aus.

kommt drauf an wann sind die 40C°? in den üblichen benchszenen ist das durchaus so da hat ja das Wasser keine Chance sich zu erwärmen

Leonidas
2015-06-22, 10:35:45
Ich würde die Sache anders betrachten. Wenn man zum Launch eine 290X gekauft hat, dann hat man nach Release des Omega 2 eine Karte die heute schneller ist als jede Konkurrenzkarte, die weniger als 600 Euro kostet. Und das bei einer 1,5 Jahre alten Karte. Das ist außergewöhnlich und man sollte AMD dafür ausdrücklich loben. Zeigt halt wieder, dass AMD Karten einfach länger nutzbar sind.


Genau das würde ich gern loben. Aber auf der Hauptseite brauche ich dafür verlässliche und nachprüfbare Fakten, aka Reviews mit 200er Karten alter vs. neuer Treiber.




Die Rebrands waren für AMD absolut notwendig. Man erreicht so, dass alle Karten noch mal mit aktuellen Treibern getestet werden, ansonsten schleppen manche Reviewer vermutlich bis zum Schluss die damaligen Launchergebnisse mit. Man erreicht, dass alle AIBs aktuelle Kühllösungen verbauen und so auch kühlere und leisere Karten möglich werden. Man erreicht, dass OEMs einen neuen Namen bekommen, was dort wesentlich wichtiger ist als irgend welche Hardwarespecs, die der typische OEM-Käufer ohnehin nicht versteht. Und man kann natürlich auch selbst noch diverse Optimierungen und Bugfixes unterbringen und so der neuen Serie in besseres Image verpassen als das noch bei diverse Problemen der ersten Hawaii-Chips der Fall war. Gerade auch im Fahrwasser des Fiji-Launches. Außerdem kann man Takt und Speicher an aktuelle Gegebenheiten wie verbesserte Fertigung anpassen.

Das solche neuen Serien ohne neue Chips bei Kunden nicht sonderlich gut ankommen ist zwar ein Problem, aber die Vorteile überwiegen für AMD hier wohl deutlich.


+1
Damit kann man leben.

mironicus
2015-06-22, 10:40:07
Gibbo verrät mehr und mehr:
- Chip geht bis 75 Grad
- mit Default-Spannung hat er keine 1200 MHz erreicht
- Lüfter läuft stets auf geringster Stufe (15-16%), leiser als die Caselüfter im System, hat die ganze Nacht Heaven Benchmark laufen lassen (der Radiator war auf dem Boden und hat die warme Abluft ins Gehäuse geblasen um zu testen wie heiß die Karte wird), nie mehr als 58 Grad.

M4xw0lf
2015-06-22, 10:42:50
Ian 8Pack sagte auch, dass AMD Furys hat, die ohne Eingriffe 1200 MHz mitmachen... die Mehrzahl deutet an, dass es nicht nur eins ist, aber viel mehr als zwei bezweifle ich dann schon wieder :freak:

Sunrise
2015-06-22, 10:43:17
Gibbo verrät mehr und mehr:
- Chip geht bis 75 Grad
- mit Default-Spannung hat er keine 1200 MHz erreicht
- Lüfter läuft stets auf geringster Stufe (15-16%), leiser als die Caselüfter im System, hat die ganze Nacht Heaven Benchmark laufen lassen (der Radiator war auf dem Boden), nie mehr als 58 Grad.
Das liest sich schon deutlich realistischer. Das passt so.

AMD hatte übrigens bekannt gegeben, dass Fiji dieses mal mehr Variabilität in den möglichen Taktraten haben wird.

ChaosTM
2015-06-22, 10:43:37
Leise wäre schon mal gut, nur glaube ich dem Typen nicht wirklich..

M4xw0lf
2015-06-22, 10:46:02
Das liest sich schon deutlich realistischer. Das passt so.

AMD hatte übrigens bekannt gegeben, dass Fiji dieses mal mehr Variabilität in den möglichen Taktraten haben wird.
Ja, sie gehen anscheinend den Nvidia-Boost-Weg. Dadurch sollte im Idealfall die durchschnittliche Spannung / der Verbrauch der Samples sinken.

Käsetoast
2015-06-22, 10:49:08
Kommt halt immer darauf an welches Framelimit eingestellt wurde. Wenn da mit maximal 60fps befeuert wird, kann ich mir schon vorstellen, dass die WaKü da nicht auf Anschlag schuften muss...

Sunrise
2015-06-22, 10:55:16
Ich glaube bei Spielen würde ich sowieso nur noch mit Framelimiter laufen lassen (sofern das von der Implementation nachweisbar keine Nebeneffekte mit anderen Features wie FreeSync o.ä. produziert), da man dadurch eigentlich nur Vorteile haben sollte.

Dann die BQ so optimieren, dass man immer in einem relativ engen Bereich ist (wenn das vom Spiel aus gut möglich ist) und es sollte auch mit etwas eingeschränkteren FreeSync-Monitoren (hinsichtlich der VRR) keine Probleme geben. Gut, evtl. negiert das eine das andere auch etwas, aber der Limiter begrenzt zumindest dann die unnötigen Spitzen bei Ladebildschirmen o.ä.

dargo
2015-06-22, 10:59:24
Gibbo verrät mehr und mehr:
- Chip geht bis 75 Grad
- mit Default-Spannung hat er keine 1200 MHz erreicht
- Lüfter läuft stets auf geringster Stufe (15-16%), leiser als die Caselüfter im System, hat die ganze Nacht Heaven Benchmark laufen lassen (der Radiator war auf dem Boden und hat die warme Abluft ins Gehäuse geblasen um zu testen wie heiß die Karte wird), nie mehr als 58 Grad.
Ich muss zugeben, bin etwas gehyped. :usweet:

Thunder99
2015-06-22, 11:15:08
Ich glaube bei Spielen würde ich sowieso nur noch mit Framelimiter laufen lassen (sofern das von der Implementation nachweisbar keine Nebeneffekte mit anderen Features wie FreeSync o.ä. produziert), da man dadurch eigentlich nur Vorteile haben sollte.

Dann die BQ so optimieren, dass man immer in einem relativ engen Bereich ist (wenn das vom Spiel aus gut möglich ist) und es sollte auch mit etwas eingeschränkteren FreeSync-Monitoren (hinsichtlich der VRR) keine Probleme geben. Gut, evtl. negiert das eine das andere auch etwas, aber der Limiter begrenzt zumindest dann die unnötigen Spitzen bei Ladebildschirmen o.ä.
Das macht schon VSync, zumindest sollte es dies tun (bei Witcher 1 geht das nicht^^).

Aber wo man FRTC denn richtig Sinn? Nur ohne VSync und ohne Freesync oder?

ilibilly
2015-06-22, 11:21:49
Das macht schon VSync, zumindest sollte es dies tun (bei Witcher 1 geht das nicht^^).

Aber wo man FRTC denn richtig Sinn? Nur ohne VSync und ohne Freesync oder?

Bei vsync kriegst nen drop von 60fps auf 30 schlagartig ,ohne läuft es auch noch angenehm mal wenn manauf 50-55 fps kommt

Botcruscher
2015-06-22, 11:27:35
Aber das geht doch über Display Port - und noch mehr. Adapter auf HDMI 2.0 kann der Zubehörmarkt liefern.

DP haben aber nur die wenigesten Geräte. HDMI könnte von mir aus sterben. DP ist in jeder Hinsicht besser.
Die Hoffnung auf einen Adapter bezweifle ich mal stark. DP alleine ist bei den Kabeln schon anfällig genug.

Ephiriel
2015-06-22, 11:30:03
Aber wo man FRTC denn richtig Sinn? Nur ohne VSync und ohne Freesync oder?
Eigentlich macht es gerade bei Freesync Sinn. Z.B. bei einer Range von 35 - 90 Hz kannst du das obere Limit perfekt einstellen. (Wobei man das bei Freesync auch mit Vsync On/Off gehen sollte?)

ChaosTM
2015-06-22, 11:35:10
DP haben aber nur die wenigesten Geräte. HDMI könnte von mir aus sterben. DP ist in jeder Hinsicht besser.
Die Hoffnung auf einen Adapter bezweifle ich mal stark. DP alleine ist bei den Kabeln schon anfällig genug.

Die Frage ist auch, ob HDCP über DP überhaupt möglich ist. Netflix 4k und die UHD BD brauchen es..

mironicus
2015-06-22, 11:35:10
Lösung: AMD macht einen Deal mit LG. LG baut standardmäßig einen Displayport in seine neuen OLED-Fernseher ein und die können dann Freesync ohne Tearing von 1-60.

So würde ich das machen. Und Samsung guckt sich das ab und macht das dann auch. :D

Das wäre auch die viel einfachere und schnellere Lösung anstatt HDMI mit Freesync zu bringen, was wieder mehrere Jahre dauern würde.

yamo
2015-06-22, 11:42:34
Bei vsync kriegst nen drop von 60fps auf 30 schlagartig ,ohne läuft es auch noch angenehm mal wenn manauf 50-55 fps kommt

Oder halt adaptiv (bei NV). Sicherer ist der Limiter immer, weil auch besser zu justieren.
Eine Frage zu den Ausgängen: Mein BenQ XL2410T unterstützt 120 Hz nur über Dual DVI, passende Adapter habe ich da auf die Schnelle nicht gefunden.
Gibt es da eine Lösung?

Und zur AiO Fury X:
Wird die integrierte Pumpe übers PCB mit Saft versorgt? Man könnte ja sonst einfach den Radi amputieren und die Schläuche in die bestehende WaKü integrieren. Gegen eine zusätzliche Pumpe im System ist ja nichts einzuwenden...

foenfrisur
2015-06-22, 12:00:58
"At 100% fan it is a strong whooshing noise but at 100% fan the under-load temperatures never exceed 10c above ambient and normally a lot less. So if say your case temp is around 26c, with 100% fan you will be under 35c loaded.

But 100% fan is not really required on this kind of cooler, optimal fan speed for this cooler is around 40-50% which is audible but not crazy loud, I find the fan becomes audible over case fans at 25-30% but the fan never really needs to exceed 15% for regular gaming at stock which is as quiet as graphics cards get. "

von gibbo.

das sollte auch passen.
wichtiger ist, das die pumpe läuft.
bei meinem AC hybrid läuft der lüfter auch nur sehr langsam und der lüfter ist längst nicht so gut, wie der der fury.

mfg

StefanV
2015-06-22, 12:13:45
Die HDMI 2.0 Spec setzt nicht den Kopierschutz HDCP 2.2 voraus, insofern ist diese Aussage falsch.
...was dir jetzt bei der Nutzung von kopiergeschütztem Content jetzt genau wie hilft?!

Du hast dann zwar 'nen tollen 4k Schirm am HDMI, der auch auf 60Hz läuft, kannst aber 4k Material nicht genießen, da HDCP 2.2 vorausgesetzt wird.

Also auch wieder teilweise nutzlos bzw nicht für 'Multimedia' zu gebrauchen...

Und die Frage am Rande:
Ist das auch WIRKLICH HDMI 2.0 oder nur ein übertakteter 1.4a? Und wird da auch wirklich ein RGB Signal übertragen oder doch nur YuV 4:2:0?

Hübie
2015-06-22, 12:18:51
Verdammt. Das mit der Adapter-Geschichte fällt mir auch erst jetzt auf. Hab auch den BenQ XL2410T Monitor und der braucht dual link DVI-D. Was kann man da machen (außer neuen Monitor kaufen)? :confused:

maguumo
2015-06-22, 12:23:03
Verdammt. Das mit der Adapter-Geschichte fällt mir auch erst jetzt auf. Hab auch den BenQ XL2410T Monitor und der braucht dual link DVI-D. Was kann man da machen (außer neuen Monitor kaufen)? :confused:

Gibts doch aktive Adapter für?

foenfrisur
2015-06-22, 12:25:39
ich meine sogar, das den karten einer beiliegt.
denn DVI nutzen immerhin die meisten und DP eher weniger.

mfg

BlacKi
2015-06-22, 12:31:03
Verdammt. Das mit der Adapter-Geschichte fällt mir auch erst jetzt auf. Hab auch den BenQ XL2410T Monitor und der braucht dual link DVI-D. Was kann man da machen (außer neuen Monitor kaufen)? :confused:
http://www.club-3d.com/index.php/produkte/leser.de/product/displayport-to-active-dvi-dual-link-330mhz-stereo-3d-gaming-cable.html

äh ja, 120€^^

vl neuen monitor kaufen XD

oder eine980ti XD

Dawn on Titan
2015-06-22, 12:32:53
Sorry aber Delta-T von 7-10° - never.

maguumo
2015-06-22, 12:35:52
äh ja, 120€^^


"Günstige" gibt's ab ~70€, keinen Plan was die taugen..

StefanV
2015-06-22, 12:40:32
Verdammt. Das mit der Adapter-Geschichte fällt mir auch erst jetzt auf. Hab auch den BenQ XL2410T Monitor und der braucht dual link DVI-D. Was kann man da machen (außer neuen Monitor kaufen)? :confused:
Hm? Sicher??

Laut Amazon soll der auch HDMI haben...

edit:
OK, geht wohl nicht mit 120Hz...
http://www.gamestar.de/hardware/tft-monitore/benq-xl2410t/test/benq_xl2410t,120,2320627.html

foenfrisur
2015-06-22, 12:44:18
@dawn

ich lese das nicht als fakt, sondern eher als beispiel/vermutung.
zu dem hat er ja auch ein sehr gut gekühltes gehäuse.
und wenn du dir mal 58°C bei 16% Lüfterspeed unter last anschaust....

aber klar ist, das man nicht einfach delta-T 10° für alle umgebungstemperaturen annehmen sollte. sicherlich etwas ungünstig ausgedrückt.

mfg

mfg

Hübie
2015-06-22, 12:44:56
Hm? Sicher??

Laut Amazon soll der auch HDMI haben...

Ich weiß ja wohl was auf meinem Schreibtisch steht ;) Das ist HDMI 1.3 was bekanntlich keine 120@FHD unterstützt. Und deine Mutmaßungen bzgl Maxwell und HDMI 2.0 zeigen wieder eindeutig deine Gesinnung :rolleyes:

Also bevor 120 Eier in so einen dämlichen Adapter investiere kauf ich ne 980 Ti :mad:

Käsetoast
2015-06-22, 12:48:42
Sorry aber Delta-T von 7-10° - never.
Also zu den Zeiten wo ich noch HD4870, nen 125W Phenom und einen Chipsatz auf einem 240er Dual Radi mit Lüftern < 600 rpm hatte, war ein einstelliges delta T auch bei einer nicht sonderlich durchflussstarken Innovatek Eheim-Mod üblich. Komplett utopisch sind solche Angaben so gesehen nicht, wobei man natürlich über die Genaigkeit der Sensoren streiten kann... ;)

foenfrisur
2015-06-22, 12:50:15
maxwell hat wohl auch kein vollwertiges hdmi 2.0, weil kein hdcp 2.2 unterstützt wird.
zum zocken reichts aber wohl.

aber es geht hier ja eher darum, DVI zu unterstützen.
und das wäre schon echt suboptimal, wenn das nicht mehr ginge.

mfg

Dural
2015-06-22, 12:55:03
lustige Werte die man hier liesst, beim AMD System in der Sig hab ich ein Delta von ca. 20°C mit 1x 420er und 240er Radi inkl. den passenden Lüfter drauf @ silent.

Hübie
2015-06-22, 12:55:12
HDCP ist kein Bestandteil der HDMI 2.0 Spec. Das sollte man mal trennen. Es ist echtes HDMI 2.0 - Punkt.

mironicus
2015-06-22, 12:56:56
Gibbo meint das die Gigabyte G1 980 Ti (OC-Karte>Titan X) etwas schneller ist als die Fury X.

M4xw0lf
2015-06-22, 12:59:08
Gibbo meint das die Gigabyte G1 980 Ti (OC-Karte>Titan X) etwas schneller ist als die Fury X.
Deutlich schneller als alles andere, sagt er ;)
Kunststück bei >1300 MHz.

maguumo
2015-06-22, 12:59:57
Gibbo meint das die Gigabyte G1 980 Ti (OC-Karte>Titan X) etwas schneller ist als die Fury X.

Die dürfte aber auch auf ~1300+MHz boosten wenn ich das richtig in Erinnerung habe...

robbitop
2015-06-22, 13:02:02
Ich verstehe ehrlich gesagt nicht, was sich das HDMI Konsortium beim HDMI 2.0 Standard gedacht hat. Was man alles HDMI 2.0 nennen darf obwohl elementare Features für das Konsumieren von 4K Kontent fehlen. Anfangs wurde sogar 4K @30Hz max als HDMI 2.0 tituliert.

Jedenfalls genügt HDMI 2.0 ohne HDCP genauso zum Spielen in 4K@60 Hz. Ist also ein Mehrwert.

Hübie
2015-06-22, 13:07:05
Was genau meinst du @robbitop??

misterh
2015-06-22, 13:09:19
http://a.disquscdn.com/get?url=http%3A%2F%2Fimgur.com%2FKdXjPef.gif&key=uvbckCx1NX2MY6PKGWIVEA&w=800&h=150

Hübie
2015-06-22, 13:14:33
Hahahaaaa X-D Absolut passend!

yamo
2015-06-22, 13:19:18
Verdammt. Das mit der Adapter-Geschichte fällt mir auch erst jetzt auf. Hab auch den BenQ XL2410T Monitor und der braucht dual link DVI-D. Was kann man da machen (außer neuen Monitor kaufen)? :confused:

Hast Du einen Adapter gefunden? Evtl. geht ja auch (mini)HDMI->DVI ?
:mad:
Gruß Micha

Hübie
2015-06-22, 13:23:03
Jede Menge aber entweder teuer oder nur DVI-I bzw. Schrott dem man nicht trauen kann. Also 70 oder 100€ gebe ich aber garantiert nicht für so einen scheiß aus.

yamo
2015-06-22, 13:23:54
Wie stehen die Chancen, dass Dual-Fidji über den Interposer als eine GPU angesprochen wird?
Das wäre sehr sexy :freak:

Meinen Monitor schmeisse ich nicht raus. Mit meinen Speicherkrüppeln warte ich lieber ab. Die Krüppel laufen nämlich gut.
Gruss Micha

Flusher
2015-06-22, 13:24:04
Ui - mein Eizo FG2421 benötigt ebenfalls Dual-Link DVI um mit 120 Hz zu laufen. Ich hoffe doch, dass da ein Displayport-->DVI Adapter beiliegt der mit 120 Hz läuft.

Hübie
2015-06-22, 13:24:46
Das ist ein passiver Mülladapter für 60 Hz@FHD (max WQHD).

Dural
2015-06-22, 13:24:53
Deutlich schneller als alles andere, sagt er ;)
Kunststück bei >1300 MHz.

Ich finde es eher ein Kunststück wie man trotz WaKü und dem ach so tollen HBM eine "veraltete" Architektur nicht schlagen kann ;)

Godmode
2015-06-22, 13:27:02
Wie stehen die Chancen, dass Dual-Fidji über den Interposer als eine GPU angesprochen wird?
Das wäre sehr sexy :freak:

Man kann so große Interposer nicht wirtschaftlich herstellen. Es ist auch ein PLX-Chip an Board, somit werden die beiden ganz normal über PCIe verbunden sein, so schade das auch ist.

dargo
2015-06-22, 13:27:44
http://a.disquscdn.com/get?url=http%3A%2F%2Fimgur.com%2FKdXjPef.gif&key=uvbckCx1NX2MY6PKGWIVEA&w=800&h=150
Zu geil. ;D

Dural
2015-06-22, 13:27:48
AMD hat die Dual GPU karte ja schon gezeigt, es sind zwei separate GPUs drauf.

Hübie
2015-06-22, 13:29:16
Ich finde es eher ein Kunststück wie man trotz WaKü und dem ach so tollen HBM eine "veraltete" Architektur nicht schlagen kann ;)

Tr0ll nicht. Pro Taktzyklus wird man mit Maxwell wohl mindestens gleichziehen. Frage ist dann wie hoch man Fiji wird übertakten können.

aufkrawall
2015-06-22, 13:31:36
Wen interessiert denn Leistung pro Takt? Das ist nur ein Teilmultiplikator für die wichtigen Faktoren Leistung und Effizienz.

ChaosTM
2015-06-22, 13:32:35
Interessant ist auch, wie weit sich der Speicher übertakten lässt und was die Auswirkungen sind..

Dural
2015-06-22, 13:33:03
Tr0ll nicht. Pro Taktzyklus wird man mit Maxwell wohl mindestens gleichziehen. Frage ist dann wie hoch man Fiji wird übertakten können.

Was bitte schön hat das mit Troll zu tun? Takt zu Takt vergleich sind wohl mehr Troll versuche...

Und ich kann dir die Antwort jetzt schon geben: nicht hoch genug :wink:
Die Aussagen von AMD sind da ja schon eindeutig genug ;)

Sunrise
2015-06-22, 13:33:56
http://a.disquscdn.com/get?url=http%3A%2F%2Fimgur.com%2FKdXjPef.gif&key=uvbckCx1NX2MY6PKGWIVEA&w=800&h=150
Haha, ich schmeiss mich weg. ;D

Passt perfekt.

Hübie
2015-06-22, 13:36:09
Wen interessiert denn Leistung pro Takt? Das ist nur ein Teilmultiplikator für die wichtigen Faktoren Leistung und Effizienz.

Wie willst du sonst Durchsatz einer Arch übergreifend vergleichen? Aber stimmt schon seine dämliche Aussage is sehr schwammig. Schlagen? Wobei? Und GCN ist älter als Kepler :P

Dural
2015-06-22, 13:39:52
:rolleyes:

"veraltet" = kein HBM


egal, noch zwei Tage.

uweskw
2015-06-22, 13:43:39
Wen interessiert denn Leistung pro Takt? Das ist nur ein Teilmultiplikator für die wichtigen Faktoren Leistung und Effizienz.

Die Leistung pro Takt beschreibt die Effizienz des Designs. Das ist die Ingenieursleistung. Und da ist AMD weit besser als NV. Von DP will ich hier gar nicht erst anfangen.
Der Verbrauch wird entscheidend durch den Fertigungsprozess der Chipfertiger mitbestimmt.

greetz
US

HOT
2015-06-22, 13:43:48
http://a.disquscdn.com/get?url=http%3A%2F%2Fimgur.com%2FKdXjPef.gif&key=uvbckCx1NX2MY6PKGWIVEA&w=800&h=150
Vince McMahon bewundert den Brock Lesnar der Grafikchips :D.

Weder schön noch elegant, aber furchtbar effektiv.

akuji13
2015-06-22, 13:44:46
Die Leistung pro Takt beschreibt die Effizienz des Designs. Das ist die Ingenieursleistung. Und da ist AMD weit besser als NV.

Und das interessiert insgesamt wieviele Käufer?

yamo
2015-06-22, 13:46:16
Kann ich mit FuryX einen alten Monitor mit DVI 2.0 (120Hz) betreiben?

Nakai
2015-06-22, 13:49:30
http://a.disquscdn.com/get?url=http%3A%2F%2Fimgur.com%2FKdXjPef.gif&key=uvbckCx1NX2MY6PKGWIVEA&w=800&h=150

;D;D;D

Ansonsten abwarten. AMD macht mit Fiji schon sehr viel mehr richtig, als bei Hawaii. Ich habe selten so eine Erwartungshaltung gegenüber einem GPU-Launch erlebt. Da hoffen viele Leute, dass AMD einen Knaller bringt...hoff ich auch, btw.

akuji13
2015-06-22, 13:50:38
Ich auch.

Wäre doch die perfekte HTPC Karte. =)

BlacKi
2015-06-22, 13:55:38
mit dem z170 chipsatz mit skylake könnte man doch übers mainboard das bild ausgeben lassen.

z170 HDMI 2.0 (http://pics.computerbase.de/6/5/4/2/4/3-1080.4071542981.jpg)

geilo 7x usb3 auf nem itx board XD

und soweit ich weis auch dual dvi

dont worry, if the fixer sucks then intel helps out!

mczak
2015-06-22, 14:03:41
Anfangs wurde sogar 4K @30Hz max als HDMI 2.0 tituliert.

Das ist doch immer noch so (bzw. 4k/60hz mit 4:2:0).
Ist aber überhaupt nichts neues, die höheren Frequenzen waren bei HDMI schon immer ziemlich optional. HDMI 1.3 konnte schon 340Mhz, ging aber quasi immer bloss mit 1.4 Equpiment... Dass die höheren Bandbreiten nicht unterstützt werden müssen würde bei den Empfangsgeräten sogar Sinn machen, wenn die die anderen Features einer bestimmten Version unterstützen UND sowieso keine höheren Auflösungen darstellen können.

mczak
2015-06-22, 14:12:28
mit dem z170 chipsatz mit skylake könnte man doch übers mainboard das bild ausgeben lassen.

z170 HDMI 2.0 (http://pics.computerbase.de/6/5/4/2/4/3-1080.4071542981.jpg)

Interessante Idee. Rein technisch gesehen müsste das funktionieren, nur unterstützt AMD (dasselbe gilt für nvidia) Enduro auf dem Desktop nicht. Vielleicht unter Linux mit dem Open-Source Treiber :-).


und soweit ich weis auch dual dvi

Meinst du dual link? Hat noch nie ein intel igp unterstützt, und jetzt wo dvi schon wieder am Verschwinden ist wird das kaum eingeführt. Da steht ja überhaupt nichts von dvi, denke eher da hat man sich den dvi port gleich ganz gespart (ist ja eh heutzutage ziemlich limitierend wenn der bloss single-link ist).

Tesseract
2015-06-22, 14:33:51
letzte warnung: der nächste, der wieder mit marktmacht, rebrand, marketing usw. anfängt bekommt punkte.

krötenfresse
2015-06-22, 14:37:42
wird man in zukunft mit hbm dann auch schnelleres msaa haben? msaa war doch eigentlich immer hauptsächlich von der bandbreite abhängig.
oder ist das inzwischen auch nicht mehr so?

BlacKi
2015-06-22, 14:40:19
Interessante Idee. Rein technisch gesehen müsste das funktionieren, nur unterstützt AMD (dasselbe gilt für nvidia) Enduro auf dem Desktop nicht. Vielleicht unter Linux mit dem Open-Source Treiber :-).


Meinst du dual link? Hat noch nie ein intel igp unterstützt, und jetzt wo dvi schon wieder am Verschwinden ist wird das kaum eingeführt. Da steht ja überhaupt nichts von dvi, denke eher da hat man sich den dvi port gleich ganz gespart (ist ja eh heutzutage ziemlich limitierend wenn der bloss single-link ist).

stimmt, wird wahrscheinlich single link sein. aber hdmi2 steht trotzdem als angabe bei manchen boards, komischer weise nicht bei allen.

Dawn on Titan
2015-06-22, 14:44:05
wird man in zukunft mit hbm dann auch schnelleres msaa haben? msaa war doch eigentlich immer hauptsächlich von der bandbreite abhängig.
oder ist das inzwischen auch nicht mehr so?

Glaube ich nicht, weil die heutigen AMD GPUs eigentlich nicht brandbreitenlimitiert sind. Hawaii hat ja auch mächtig Bandbreite für die Rechenleistung.

BlacKi
2015-06-22, 14:51:15
Glaube ich nicht, weil die heutigen AMD GPUs eigentlich nicht brandbreitenlimitiert sind. Hawaii hat ja auch mächtig Bandbreite für die Rechenleistung.
jau, ganze 14% gegenüber der gm200 reihe. die 290x hatte sogar weniger speicherbandbreite.

und fji hat 52% mehr speicherbandbreite als gm200, einen gewissen effekt wird man wohl sehen werden, aber zuviel sollte man davon nicht erwarten.

check
2015-06-22, 14:54:40
Der Lüfter scheint beim Sample von CB ja net so doll zu sein auf der Fury X: http://www.computerbase.de/forum/showthread.php?t=1485644&page=36&p=17540579#post17540579

Toi, toi, toi, dass das nur nen Montagsmodell ist.

Gipsel
2015-06-22, 14:55:40
Die Leistung pro Takt beschreibt die Effizienz des Designs. Das ist die Ingenieursleistung.Fairerweise muß man aber sagen, daß der erreichbare Takt ebenfalls vom Chipdesign und somit der Ingenieursleistung abhängig ist.
Der Verbrauch wird entscheidend durch den Fertigungsprozess der Chipfertiger mitbestimmt.Du sagst es, mitbestimmt. Genauso wie vom Design.

Timbaloo
2015-06-22, 14:56:43
Ui - mein Eizo FG2421 benötigt ebenfalls Dual-Link DVI um mit 120 Hz zu laufen. Ich hoffe doch, dass da ein Displayport-->DVI Adapter beiliegt der mit 120 Hz läuft.
Kannst doch einfach über DP anschliessen, muss ja nicht DVI sein...

Interessant ist auch, wie weit sich der Speicher übertakten lässt und was die Auswirkungen sind..
Irgendwie bezweifle ich, dass RAM-OC viel bringen wird :freak:

r3ptil3
2015-06-22, 14:58:02
"At 100% fan it is a strong whooshing noise but at 100% fan the under-load temperatures never exceed 10c above ambient and normally a lot less. So if say your case temp is around 26c, with 100% fan you will be under 35c loaded.

But 100% fan is not really required on this kind of cooler, optimal fan speed for this cooler is around 40-50% which is audible but not crazy loud, I find the fan becomes audible over case fans at 25-30% but the fan never really needs to exceed 15% for regular gaming at stock which is as quiet as graphics cards get. "

von gibbo.

das sollte auch passen.
wichtiger ist, das die pumpe läuft.
bei meinem AC hybrid läuft der lüfter auch nur sehr langsam und der lüfter ist längst nicht so gut, wie der der fury.

mfg

http://i.imgur.com/px2tceA.jpg

Max. Temp war bei 58°.

Michalito
2015-06-22, 15:03:28
Der Lüfter scheint beim Sample von CB ja net so doll zu sein auf der Fury X: http://www.computerbase.de/forum/showthread.php?t=1485644&page=36&p=17540579#post17540579

Toi, toi, toi, dass das nur nen Montagsmodell ist.

CB Volker halt..
es kann nicht sein, was nicht sein darf..
Zitat CB Volker
Exakt. Fury X nur von AMD, Fury auch von Partnern. Da würde ich drauf warten, ordentlich luftgekühlte Varianten werden sicher abgehen. Die Wakü hier überzeugt nicht komplett, kühle GPU ja, aber sonst das Geräusch net so prickelnd, zwar nicht krass laut aber immer so ein unangenehmes fiepen. AMD hat auch gleich gesagt das man den Lüfter tauschen darf .. na warum wohl^^


schön subjektiv...

der nächste bitte..
Alles eine Kostenfrage! All-in-Waküs für CPUs gibs hierzulande ab 35 Euro, das für GPUs angepasst und in 1000er Abnahmen wird AMD zwar nicht mehr viel aber immer noch deutlich mehr als nen 0815-Luftkühler kosten. Und dann wird schnell noch jeder Cent umgedreht. Eine Wakü ist keine eierlegende Wollmilchsau, so eine übertaktete Fury von Asus mit abschaltbaren Lüftern in 2D .. das könnten die echten Verkaufsschlager werden.

( Der Lüfter den AMD da verbaut hat ist einer der besten im Markt, wenn es der hier spekulierte ist. Nix mit jedem Cent umdrehen..)

Sicher sorgfältig recherchiert..


Der Typ is halt ein Hater..

akuji13
2015-06-22, 15:05:53
schön subejktiv...

Dann erzähl uns doch bitte mal wie man mit Meßwerten Störgeräusche belegt. ;)
Das geht z. B. bei Netzteilen oder Gehäuselüftern auch nicht.

( Der Lüfter den AMD da verbaut hat ist einer der besten im Markt, wenn es der hier spekulierte ist. Nix mit jedem Cent umdrehen..)

Ich hab schon mal 12 top-Lüfter gleichzeitig erworben die alle geklackert haben, sowas kommt vor.

Aber typisch fanboy, da kann nicht sein was nicht sein darf. ;)

HOT
2015-06-22, 15:06:38
jau, ganze 14% gegenüber der gm200 reihe. die 290x hatte sogar weniger speicherbandbreite.

und fji hat 52% mehr speicherbandbreite als gm200, einen gewissen effekt wird man wohl sehen werden, aber zuviel sollte man davon nicht erwarten.
HawaiiB vs. GM204 -> 384 vs. 224GB/sec -> 71% mehr
Fiji vs. GM200 -> 640 vs. 336GB/sec -> 52% mehr
Bitte nicht dauernd Äpfeln mit Birnen vergleichen.

r3ptil3
2015-06-22, 15:08:23
Dürfen die eigentliche alle schon solche Infos rausgeben?

Hardwareluxx zuerst mit einer ganzen Galerie, CB nun mit Erfahrungen zum Kühler..

Würde mich nicht überraschen wenn die das nächste mal keine Grafikkarten mehr erhalten.

Screemer
2015-06-22, 15:09:05
Kann ich mit FuryX einen alten Monitor mit DVI 2.0 (120Hz) betreiben?

Oh crab. Daran hab ich ja noch gar nicht gedacht. Mit der fury müsste ich wohl meinen Koreaner ein mitten oder nen aktiven Adapter kaufen. Schön blöd.

Menace
2015-06-22, 15:09:34
Dann erzähl uns doch bitte mal wie man mit Meßwerten Störgeräusche belegt. ;)
Das geht z. B. bei Netzteilen oder Gehäuselüftern auch nicht.


Könnte man nicht mit Hilfe von Frequenzgänge das unangenehme Geräusch analysieren. Immerhin ist 0815-Lüfter ja eine direkte Aussage und wenn andere Tester auch das unangenehme Geräusch hören, ist das immerhin ein Indiz. Abwarten.

mironicus
2015-06-22, 15:09:43
Dann tauscht man halt den Lüfter gegen ein/zwei Noiserblocker PL1 aus und nimmt dafür in Kauf das die GPU vielleicht 60 Grad warm wird.

Oh crab. Daran hab ich ja noch gar nicht gedacht. Mit der fury müsste ich wohl meinen Koreaner ein mitten oder nen aktiven Adapter kaufen. Schön blöd.

- Kein DVD-D
- Kein HDMI 2.0

Knuddelbearli
2015-06-22, 15:10:47
Wie stehen die Chancen, dass Dual-Fidji über den Interposer als eine GPU angesprochen wird?
Das wäre sehr sexy :freak:

Meinen Monitor schmeisse ich nicht raus. Mit meinen Speicherkrüppeln warte ich lieber ab. Die Krüppel laufen nämlich gut.
Gruss Micha

Nach dem Bildern die man gesehen hat gleich 0. sind ja 2 getrennte interposer

Screemer
2015-06-22, 15:13:50
Das die gentle typhoon als mit die besten Lüfter für Radiatoren gelten ist Völker natürlich auch erst mal völlig wurscht.

Michalito
2015-06-22, 15:14:14
Dann erzähl uns doch bitte mal wie man mit Meßwerten Störgeräusche belegt. ;)
Das geht z. B. bei Netzteilen oder Gehäuselüftern auch nicht.



Ich hab schon mal 12 top-Lüfter gleichzeitig erworben die alle geklackert haben, sowas kommt vor.

Aber typisch fanboy, da kann nicht sein was nicht sein darf. ;)+

Nix Fanboy.. aber CB Allergie.. Wenn das THG geschrieben hätte, oder PCGH alles o.k. Aber CB ist latent AMD feindlich. Daher nehme ich CB auch nicht mehr als objektiv wahr. Ich kann ja auch die BILD für voll nehmen und meine politischen Infos dort hernehmen.
Oder mit der Bild meinen Popo pflegen (auja.. da ist mir selbst mein hässlicher A. zu schade..) und mich woanders informieren..

check
2015-06-22, 15:14:23
Aber aber, Michalito, du liest, was du lesen willst und fühlst dich nur in deiner vorgefertigten Meinung bestätigt?! Ich seh da nur, dass der Lüfter von CB offensichtlich fiept, der Kühler aber ansonsten gut ist, da leise. Außerdem ists doch ne ganz normale Sache, dass jeder Cent 2 mal umgedreht wird, denn schließlich sind das bei entsprechenden Mengen auch große Summen...

@Lüfteraustausch: Weiß man denn schon genau, ob man einfach an den Lüfterstecker rankommt, ohne die ganze Karte auseinanderbauen zu müssen? Z.B. indem man die Lochblechplatte abnimmt? Volker schreibt ja auch, dass AMD den Lüfterwechsel nicht verbietet. Dann haben sie vllt auch entsprechende Zugänge eingeräumt.

Nix Fanboy.. aber CB Allergie.. Wenn das THG geschrieben hätte, oder PCGH alles o.k

Ähm ja. Puh, zum Glück bist du objektiv in deiner Bewertung (sowas macht als stiller Mitleser echt keine Freude mehr, die Speku-Threads hier sind normalerweise echt interessant...).

Dawn on Titan
2015-06-22, 15:15:43
jau, ganze 14% gegenüber der gm200 reihe. die 290x hatte sogar weniger speicherbandbreite.

und fji hat 52% mehr speicherbandbreite als gm200, einen gewissen effekt wird man wohl sehen werden, aber zuviel sollte man davon nicht erwarten.

Ich würde aber Hawaii eher mit GM204 vergleichen. :wink:

Michalito
2015-06-22, 15:20:32
Aber aber, Michalito, du liest, was du lesen willst und fühlst dich nur in deiner vorgefertigten Meinung bestätigt?! Ich seh da nur, dass der Lüfter von CB offensichtlich fiept, der Kühler aber ansonsten gut ist, da leise. Außerdem ists doch ne ganz normale Sache, dass jeder Cent 2 mal umgedreht wird, denn schließlich sind das bei entsprechenden Mengen auch große Summen...

Klar die Costkontroller sind da immer mit im Boot, aber AMD baut da grade eine Karte für's Tate Museum of Modern Arts:freak:.. Das ist wirklich eine prestige Karte. Mit allem Schmankerln.. Kaufen werde ich sie aber nicht. Mein Limit liegt bei 300E alles darüber ist nicht mehr mein Bier.



Ähm ja. Puh, zum Glück bist du objektiv in deiner Bewertung.

Muss ich objektiver als Volker als Journalist sein?:eek:

Unicous
2015-06-22, 15:24:55
Aber, aber check.

Ich lese da, dass der gute Volker eine custom AiO mit irgendwelchen €35 Billigzugs vergleicht und einen möglichen Defekt am Lüfter gar nicht erst anspricht und an stattdessen irgendwelche Allgemeinplätze zu Wakü-Herstellung fallenlässt, die keine Sau interessieren. In jeder scheiß Industriebranche wird der Cent 10mal umgedreht. Wer das nicht macht, überlebt nicht lange oder kann sich das leisten, weil die Marge entsprechend hoch ist (und auch dann versucht man die Kosten so niedrig wie möglich zu halten).

Wenn und falls das wirklich ein Gentle Typhoon ist, kostet der retail allein schon an die 35 Euro. Die wird AMD bzw. Coolermaster sicherlich nicht bezahlen...dafür aber der Kunde.

Von daher ist der Vergleich den Volker Rißka anstrengt mehr als vermessen und faktisch falsch.

Darüber hinaus gibt es bereits Gegenstimmen die von null Spulenfiepen berichten.

Thunder99
2015-06-22, 15:25:42
Bei vsync kriegst nen drop von 60fps auf 30 schlagartig ,ohne läuft es auch noch angenehm mal wenn manauf 50-55 fps kommt
Zu Zeiten wo fast immer Tripple Buffering geht kein Argument. Außer es ist genau so tearing frei wie VSync und TB

Also nur wer mit tearing leben kann und Strom sparen möchte bzw Spulenfiepen unterdrücken möchte macht es Sinn FRTC zu nutzen

captain_drink
2015-06-22, 15:37:03
Zu Zeiten wo fast immer Tripple Buffering geht kein Argument. Außer es ist genau so tearing frei wie VSync und TB

Also nur wer mit tearing leben kann und Strom sparen möchte bzw Spulenfiepen unterdrücken möchte macht es Sinn FRTC zu nutzen

Man kann auch beides gleichzeitig nutzen, was teilweise auch seinen Sinn hat (bei FPS>RFR).

y33H@
2015-06-22, 15:41:15
Der Lüfter scheint beim Sample von CB ja net so doll zu sein auf der Fury X: http://www.computerbase.de/forum/showthread.php?t=1485644&page=36&p=17540579#post17540579

Toi, toi, toi, dass das nur nen Montagsmodell ist.Die Pumpe, nicht der Lüfter.

Michalito
2015-06-22, 15:44:03
Die Pumpe, nicht der Lüfter.


Wäre schön wenn er es auch sagte, und nicht den Lüfter erwähnt. Mit warum wohl anbei^^..

Dann wechselt der User den Lüfter, und das Fiepen bleibt. Fiept deine Pumpe auch evtl?

Unicous
2015-06-22, 15:45:29
Wir haben uns auch noch nen Handelsmodell zum gegenchecken besorgt gerade. Evtl hat unser Sample von AMD ja nur ne kleine Macke, mal schaun.
http://www.computerbase.de/forum/showthread.php?t=1485644&page=37&p=17540970#post17540970

:rolleyes:

OBrian
2015-06-22, 15:48:50
Wenn in den System bei CB was fiept, dann ist was wohl nicht der Lüfter, denn Lüfter fiepen eher selten, die klackern (PWM) oder rauschen oder geben bei Lagerschaden ein monströses Brummen von sich. Fiepen deutet auf Spulen hin, aber wo sind an der AIO Spulen?

Aber eigentlich brauchen wir überhaupt nicht zu spekulieren, ob das stimmt oder der Artikelschreiber gekauft ist oder eigenen Hass reinschreibt oder was weiß ich, denn das läßt sich nie klären. Man lese einfach andere Artikel, deren Glaubwürdigkeit man weniger in Zweifel zieht, am besten mehrere.

Michalito
2015-06-22, 15:52:22
Wenn in den System bei CB was fiept, dann ist was wohl nicht der Lüfter, denn Lüfter fiepen eher selten, die klackern (PWM) oder rauschen oder geben bei Lagerschaden ein monströses Brummen von sich. Fiepen deutet auf Spulen hin, aber wo sind an der AIO Spulen?

Aber eigentlich brauchen wir überhaupt nicht zu spekulieren, ob das stimmt oder der Artikelschreiber gekauft ist oder eigenen Hass reinschreibt oder was weiß ich, denn das läßt sich nie klären. Man lese einfach andere Artikel, deren Glaubwürdigkeit man weniger in Zweifel zieht, am besten mehrere.


+1

foenfrisur
2015-06-22, 15:53:54
HDCP ist kein Bestandteil der HDMI 2.0 Spec. Das sollte man mal trennen. Es ist echtes HDMI 2.0 - Punkt.

ja, das ist leider so bescheuert gemacht.
ändert aber auch nix daran, das es eben nicht geht. wie ein paar andere kleinigkeiten auch nicht.

es gibt ja sogar 4k-TVs mit hdmi 2.0, aber ohne hdcp 2.2....:freak:
diejenigen werden sich wundern, einen so geschützten film (versuchen) zu schauen.

aber das mit dem DVI-problem finde ich fast noch schlimmer, als das fehlen von hdmi 2.0

wie sieht es denn mit hdmi 1.4a -> dual link DVI aus?
http://www.amazon.de/5m-CSL-Adapter-vergoldete-Kontakte/dp/B00DJ5G002

das sollte doch dann gehen oder??

mfg

mironicus
2015-06-22, 15:54:41
@Geräusch
Das ist wohl die Pumpe, die ein sonores Geräusch von sich gibt. Läuft vermutlich wohl ungedrosselt mit 12 Volt. Ein Lüfteradapter mit 7 Volt sollte helfen. :)

y33H@
2015-06-22, 15:55:39
Wenn und falls das wirklich ein Gentle Typhoon ist, kostet der retail allein schon an die 35 Euro.Ja, ein D1225C12B7ZP-62 ... zu dem ich bisher aber keine Details finde. "D1225C12B7" sind aber Modelle mit 3000 rpm, was passt.

EDIT
Die Pumpe wird - so habe ich es verstanden und so klingt es - je nach Last mit 12 oder weniger Volt angesteuert.

EDIT
Es sind doch die Wandler die da so sirren.

Unicous
2015-06-22, 15:56:46
Btw. ich habe gerade gelesen, dass der Typ von OC3D sein MSI 390X-Exemplar mit ohne WLP auf dem Die bekommen hat und sich gewundert hat, warum die thermals so scheiße sind.

Er hat dann mitbekommen, dass das Sample schon bei einer anderen review-Seite war die das Ding aufgeschraubt haben, wahrscheinlich Fotos vom Die und Co. gemacht (und dafür sicherlich die WLP entfernt haben) und dann wieder zusammengeschraubt haben. Daumen hoch.:uup:

Ich hoffe das haben sie gemacht, bevor sie getestet haben.:rolleyes:

Timbaloo
2015-06-22, 15:58:10
So macht man sich echte Freunde :D

mironicus
2015-06-22, 16:02:47
wie sieht es denn mit hdmi 1.4a -> dual link DVI aus?
http://www.amazon.de/5m-CSL-Adapter-vergoldete-Kontakte/dp/B00DJ5G002

das sollte doch dann gehen oder??

Mit dem Teil wirst du höchstens die Standard HDMI-Auflösungen kriegen mit maximal 60 Hz.

InsaneDruid
2015-06-22, 16:11:34
Btw. ich habe gerade gelesen, dass der Typ von OC3D sein MSI 390X-Exemplar mit ohne WLP auf dem Die bekommen hat und sich gewundert hat, warum die thermals so scheiße sind.

Er hat dann mitbekommen, dass das Sample schon bei einer anderen review-Seite war die das Ding aufgeschraubt haben, wahrscheinlich Fotos vom Die und Co. gemacht (und dafür sicherlich die WLP entfernt haben) und dann wieder zusammengeschraubt haben. Daumen hoch.:uup:

Ich hoffe das haben sie gemacht, bevor sie getestet haben.:rolleyes:

Sie war nicht ohne WLP.

In ihrem Video sagt er ganz klar:

"we did notice that the card's been taken apart at some point—not by us—and the thermal paste wasnt am ah.. very well done, now we already filmed..."


https://youtu.be/RryaX3R9Vq0?t=434

Mit neuer und besserer Paste (MX4 Thermal Paste) war sie kühler, aber auch nicht wie keine Paste -> Paste.

"... and we tested it again. Now bare in mind when we tested it before at ahm ahh at 22 degrees, at 21-22 degrees was getting bout 85 degrees, with it put back together this time and running at, in a room where it was 24,7 degrees, the card then a was running at 72 degrees, so we took like 12 degrees off"

https://youtu.be/RryaX3R9Vq0?t=606

Unicous
2015-06-22, 16:17:51
Oh Entschuldigung Mr. Korinthenkacker. Sie kam natürlich mit "so gut wie" gar keiner thermal paste an, denn etwas fand sich noch neben dem die.:rolleyes:
(Ich habe das Video gesehen, der Die war "bare". Sowohl die Kühlfläche als auch der die an sich.)

Dass der Typ von OC3D nochmals getestet hat ist dabei völlig unerheblich. Mir ging es um die review-Seite die die WLP abgetragen hat und dann nicht für (e: genügend) Ersatz gesorgt hat.


Edit:

Ok jetzt verstehe ich was du meinst. Entschuldige. Wahrscheinlich hat er die paste selbst auch nochmal entfernt (ich hatte gelesen, es wäre gar keine WLP draufgewesen). Das ändert aber nichts daran, dass die Reviewer vorher es versäumt haben. Und das Resultat ist ja eindeutig, über 10°K Unterschied.

yamo
2015-06-22, 16:23:41
Ähm, also Fury X schließt etablerte Monitore auf Basis Dual DVI mit 120 Hz aus?
Eine Antwort bekommt man hier auch nicht, stattdessen nur feuchte Höschen über Temps/Takt im Verhältnis zur Watt/P/mm² im Vergleich zu XY und deren Bremsspuren oder Philosophien über den legenderen AIO von F. X.
Wenn die Fury so modern ist, daß ich einen neuen 120Hz Moni zum Betrieb brauche, was werde ich wohl kaufen?

N0Thing
2015-06-22, 16:26:08
Über die Menge sagt er gar nichts, nur dass die WLP wasn't very well done.
Wenn er den Chip in der Hand hält, spricht er in der Vergangenheitsform von der WLP, klingt für mich danach, dass sie vor dem Video schon Kühler und Chip von der Paste befreit und gereinigt haben.

mironicus
2015-06-22, 16:26:58
@yamo
Einen Asus MG279Q. :D

yamo
2015-06-22, 16:33:08
@yamo
Einen Asus MG279Q. :D

Ne, Kifflon. Im Leben nicht. Eher ne 980 TI.

Aber eher nen begehbaren Kühlschrank mit Eiswürfelfach, kostet auch um die 1200 euronen. Doch niemals ne bekloppte Graka mit Halbwertzeit um die 9 Monate ;) für ähnliche Preise.

InsaneDruid
2015-06-22, 16:33:17
Über die Menge sagt er gar nichts, nur dass die WLP wasn't very well done.
Wenn er den Chip in der Hand hält, spricht er in der Vergangenheitsform von der WLP, klingt für mich danach, dass sie vor dem Video schon Kühler und Chip von der Paste befreit und gereinigt haben.

Bei ca 8 Mins sagt er was dazu, in der Szene in der er von Kühler zum DIE geht. Es sei noch was zu sehen (sie haben es also nicht perfekt saubergemacht) und dann meint sowas wie "es war hier nicht viel Paste drauf, deswegen machen wir den Test noch mal..". Leider haben sie es nicht im Video festgehalten wie viel drauf war. Ist der von Vorgängerseite/ vom Vorgänger aber echt fies, und ein toller Kühler hätte Kritik eingesteckt obwohl er es besser kann.

Timbaloo
2015-06-22, 16:33:24
Ähm, also Fury X schließt etablerte Monitore auf Basis Dual DVI mit 120 Hz aus?
Eine Antwort bekommt man hier auch nicht, stattdessen nur feuchte Höschen über Temps/Takt im Verhältnis zur Watt/P/mm² im Vergleich zu XY und deren Bremsspuren oder Philosophien über den legenderen AIO von F. X.
Wenn die Fury so modern ist, daß ich einen neuen 120Hz Moni zum Betrieb brauche, was werde ich wohl kaufen?
Gibt es tatsächlich 120Hz-Monitore die kein DP beherrschen? Das ist mir neu.

r3ptil3
2015-06-22, 16:34:18
Ne, Kifflon. Im Leben nicht. Eher ne 980 TI.

Und was ist der Grund?

mironicus
2015-06-22, 16:37:59
Und was ist der Grund?

Kein Displayportanschluß am Monitor. Betrifft auch viele von diesen Billig 120 Hz IPS-Monitoren aus Fernost.

r3ptil3
2015-06-22, 16:40:49
Kein Displayportanschluß am Monitor. Betrifft auch viele von diesen Billig 120 Hz IPS-Monitoren aus Fernost.

Es geht um den Asus MG279Q:
Der hat doch einen Displayport. :confused:

Menace
2015-06-22, 16:42:29
Vielleicht könnte man die DVI-D Adapter Geschichte in einen extra Thread packen. Das würde mich nämlich auch interessieren, weil meine Monitor zwar nur 60 Hz macht, dafür aber die Auflösung von 1200 besitzt. Welchen Adapter benötige ich dann?

InsaneDruid
2015-06-22, 16:43:52
Es geht um den Asus MG279Q:
Der hat doch einen Displayport. :confused:

Nein, er hat keinen Asus. Er sagte da ich einen Monitor mit HDMI habe (nur HDMI, 120 HZ) was werde ich mir wohl kaufen. Dann kam der Einwurf "na den Asus" und er meinte "nein, eher ne 980ti oder einen Kühlschrank".

mironicus
2015-06-22, 16:44:01
Er hat einen 120 Hz-Monitor mit DVI-D. Fury hat kein DVI-D. Er will sich wegen Fury keinen neuen Monitor kaufen, sondern lieber eine 980 Ti um den alten Monitor weiter betreiben zu können.

yamo
2015-06-22, 16:46:49
Kein Displayportanschluß am Monitor. Betrifft auch viele von diesen Billig 120 Hz IPS-Monitoren aus Fernost.

Und so alt ist der auch nicht. Hier gibts einige, die mit solchen Konfigs rumirren.
Dann kommt Fidji mit tollem P/L aber ich muß mir nen neuen Monitor kaufen.
:facepalm:

Flusher
2015-06-22, 16:47:07
Sollte da nicht ein DP zu DVI Adapter funktionieren? Die gibts doch zuhauf und wurde schon mit manchen Karten auch mitgeliefert

Lowkey
2015-06-22, 16:47:13
Displayport @ DL DVI ... ich suche schon ein paar Stunden nach der Lösung. 120hz @ 1080p sind wohl das Machbarste.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564486

yamo
2015-06-22, 16:57:59
Displayport @ DL DVI ... ich suche schon ein paar Stunden nach der Lösung. 120hz @ 1080p sind wohl das Machbarste.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564486

Nen Adapter mit grantierten 120Hz habe ich auch nicht gefunden, deshalb ja hier die Frage an die Experten:freak:
Für den Rest (60Hz/1080) gibts Adapter.
Fury X sollte man schon an eine bestehende WaKü anbinden können, sofern die Pumpe übers PCB mit Strom versorgt wird. Schläuche kappen und neu anschliessen, oder?

akuji13
2015-06-22, 17:00:29
Das dürfte in ordentlich Bastelarbeit enden wenn es denn letztlich überhaupt ordentlich klappt.

mironicus
2015-06-22, 17:03:45
Für Fury X wird es 3rd Party-Lösungen geben:
http://www.ekwb.com/news/606/19/Existing-EK-Full-Cover-blocks-compatible-with-Radeon-Rx-300-series-GPUs/

yamo
2015-06-22, 17:04:26
AMD hätte ja auch einen (!) Dual-DVI Port integrieren können. Nur einen.
Ich verstehe das nicht.

mironicus
2015-06-22, 17:10:23
Sie hätten sogar noch viel mehr drauf machen können - das zweite Slotblech ist komplett frei!
Aber Hauptsache 3 Displayport für maximal 3 Freesync-Monitore gleichzeitig...

foenfrisur
2015-06-22, 17:10:49
das ist ja das behämmerte.
habe auch einen relativ aktuellen benq xl2411z mit 144Hz.
der hat auch kein DP.

das kann man mit fury ja vollkommen knicken.

mfg

mironicus
2015-06-22, 17:15:35
Da hättest du dir damals den XL2420Z holen sollen, der hat einen DP-Eingang.

foenfrisur
2015-06-22, 17:21:10
tja, hätte, hätte fahrradkette...
wenn das wörtchen wenn nicht wär...

das konnte man so nicht erahnen. immerhin hatte die 290x noch 2xDVI und nur 1x DP.
und nun sind alle DVI weg.

das ist schon echt bescheiden...
aber wie sonst animiert man leute zum kauf eines freesync-monitors :D

mfg

mironicus
2015-06-22, 17:28:30
aber wie sonst animiert man leute zum kauf eines freesync-monitors :D

Genau wie dem Weglassen des HDMI 2.0-Ausgangs. Samsung hat AMD wohl darum gebeten, darauf zu verzichten, damit keiner Fiji mit einem billigen 4K Fernseher betreiben kann :P stattdessen...:
https://geizhals.de/samsung-u32e850r-lu32e85krs-a1258115.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu

97% SRGB, 8 Bit-Panel. Wirklich nichts außergewöhnliches hat das Teil zu bieten. Ohne Freesync gibt es solche Monitore bereits ab 820 Euro.

Disco_STFU
2015-06-22, 17:32:57
CB Volker halt..
es kann nicht sein, was nicht sein darf..


Ich hätte mein Arsch drauf verwettet, dass sowas von CB kommt...

Wartets mal ab. Ob es CB so hinbastelt dass sie nichtmal die 980Ti schlägt?

Menace
2015-06-22, 17:34:29
Jetzt wartet mal ab, bevor ich ihr auf CB einschlägt. y33h (heisegolem.de) hat bei seiner die WaPu im Verdacht und auch eine Anfrage losgeschickt.

Edit: Danke Unicous. Ich trinke mal besser einen Kaffee. :-/

Unicous
2015-06-22, 17:35:56
Golem.de

BlacKi
2015-06-22, 17:37:52
HawaiiB vs. GM204 -> 384 vs. 224GB/sec -> 71% mehr
Fiji vs. GM200 -> 640 vs. 336GB/sec -> 52% mehr
Bitte nicht dauernd Äpfeln mit Birnen vergleichen.

oder hawai 320gb/s mit gk110 336,6gb/s.

Dural
2015-06-22, 17:51:47
Fiji hat doch 512GB/s

Thunder99
2015-06-22, 17:53:13
Ähm, also Fury X schließt etablerte Monitore auf Basis Dual DVI mit 120 Hz aus?
Eine Antwort bekommt man hier auch nicht, stattdessen nur feuchte Höschen über Temps/Takt im Verhältnis zur Watt/P/mm² im Vergleich zu XY und deren Bremsspuren oder Philosophien über den legenderen AIO von F. X.
Wenn die Fury so modern ist, daß ich einen neuen 120Hz Moni zum Betrieb brauche, was werde ich wohl kaufen?
So lange wir nicht wissen ob und wie viele Adapter beiliegen ist es wilde Speku :)

Das Fiji kein HDMI 2.0 hat ist sehr bedauerlich. :( Es ist einfach ein wichtiger Anschluss für die Zukunft. Und ob der Kopierschutz nun dabei ist oder nicht interessiert wohl nicht sooo viele. Nebenbei welcher Film oder Stream braucht zwingend den 2.2?

AMD verschenkt hier klar Sympathie durch den fehlenden next Standard.

Nebenbei finde ich es eher sehr schade das Monitore so selten DisplayPort haben! Bei Fernseher verstehe ich das ja noch aber nicht bei Monitore...

foenfrisur
2015-06-22, 17:59:58
da würde ich schon fast eher sagen, SCHADE/TRAURIG, dass so viele TV-hersteller kein DP anbieten.

ich kann auf HDMI komplett verzichten, wenn es DP als alternative gäbe ;)

mfg

Menace
2015-06-22, 18:00:04
http://cdn3.wccftech.com/wp-content/uploads/2015/06/AMD-Radeon-R9-Nano_2.jpg
Kann man aus dem Bild auf die Monitor-Anschlüsse schließen?

eratte
2015-06-22, 18:00:47
Ja, 3 x DP und 1 x HDMI

dargo
2015-06-22, 18:01:59
Nebenbei finde ich es eher sehr schade das Monitore so selten DisplayPort haben!
Selten? GH listet 431 Stück. :freak:
http://geizhals.de/?cat=monlcd19wide&xf=99_23~5319_1#xf_top

Menace
2015-06-22, 18:05:32
@ eratte: Danke.

Noch eine Frage zur Nano. Gemäß wccf-tech (http://wccftech.com/fast-amd-radeon-r9-nano-find/) bietet die Nano ja eine "ordentliche" Compute Leistung. Wie realistisch ist diese Einschätzung und wie übertragbar ist das auf OpenCl-Leistungen?

Thunder99
2015-06-22, 18:09:12
Selten? GH listet 431 Stück. :freak:
http://geizhals.de/?cat=monlcd19wide&xf=99_23~5319_1#xf_top
Gut dann war ich falsch informiert. Dann setzte ich nur noch dagegen das z.B. mein Monitor ein HDMI Anschluss hat aber kein DisplayPort (GL2450HM)!

DisplayPort war immer ein Nischen Anschluss. HDMI war schon lange dabei und wurde mehr verbaut als DP

dargo
2015-06-22, 18:13:15
Dann setzte ich nur noch dagegen das z.B. mein Monitor ein HDMI Anschluss hat aber kein DisplayPort (GL2450HM)!

Sehe da bei dir immer noch kein Problem, schließlich hat Fury HDMI.

BlacKi
2015-06-22, 18:16:52
etwas korrigiert zum schluss hin

http://i.giphy.com/l0O9yzOfCUXyAHkdy.gif

Unicous
2015-06-22, 18:18:45
@Thunder99

HDMI ist auch älter.:rolleyes:

Und ja, HDMI und DP schließen sich oft aus. Meist verbaut man entweder den einen oder den anderen Port. Zusammen werden sie eher selten verbaut.

DVI und VGA müssen sterben. AMD macht das richtig. Keine HDMI 2.0 Unterstützung hingegen ist hingegen erstmal ein fail. Wenn man dann aber weiß, dass GM200 kein HDCP 2.2 kann ist es eigentlich wieder nicht so schlimm.:freak:

Disco_STFU
2015-06-22, 18:32:44
Was würden die grünen Fanboys bloß tun wenn die Karte HDMI 2.0 hätte...

Achja... dann wärens die 4GB...

Pirx
2015-06-22, 18:37:25
Jupp in sämtlichen Threads über neue AMD Grafikkarten gibt es dieses Geweine von Usern, die sich sowieso nie eine AMD-Karte zulegen.

rentex
2015-06-22, 18:37:50
Es muss ja was zum meckern geben...

Kartenlehrling
2015-06-22, 18:40:07
http://www.golem.de/news/hdr-fuer-fernseher-hdmi-2-0a-unterstuetzt-high-dynamic-range-1504-113393.html
HDMI 2.0a unterstützt High Dynamic Range.

Die Displayport müssen DP1.3 können und schon ist die Welt wieder in Ordnung, da kann der HDMI anschluss 1.3 sein.

mczak
2015-06-22, 19:01:28
Nen Adapter mit grantierten 120Hz habe ich auch nicht gefunden, deshalb ja hier die Frage an die Experten:freak:
Für den Rest (60Hz/1080) gibts Adapter.
Fury X sollte man schon an eine bestehende WaKü anbinden können, sofern die Pumpe übers PCB mit Strom versorgt wird. Schläuche kappen und neu anschliessen, oder?
Mit sowas wie dem hier sollte das gehen:
https://www.alternate.de/Club-3D/Adapter-DisplayPort-auf-DVI-D-%2824+1%29/html/product/980335?event=search
Dasselbe gibt's auch mit bloss 270Mhz und mini-DP etwas billiger, wobei so kurz geschätzt wird das selbst bei reduced blanking SEHR knapp bei 120Hz und 1920x1080.
Der Apple Adapter auf dual-link müsste auch gehen (ist halt auch mini-DP).
Die sind allerdings alle sehr teuer, da kriegst du schon fast einen neuen Monitor... Es gibt auch diverse andere Anbieter, allerdings scheinbar alle in der ~100 Euro Preislage :-(.

Unicous
2015-06-22, 19:05:36
Es muss ja was zum meckern geben...

http://www.eracerx.com/futuremark/furynobuy.jpg

M4xw0lf
2015-06-22, 19:07:21
http://www.eracerx.com/futuremark/furynobuy.jpg
zomg!

R.I.P.
2015-06-22, 19:15:10
http://www.tweaktown.com/news/46048/amd-powers-5k-monitor-single-radeon-r9-fury-5120x2880/index.html

URL sagt alles :)

Tamagothi
2015-06-22, 19:17:11
Wo gibts den Monitor zu kaufen :eek:

Edit: ne ey die preise sind ja gesalzen :frown:

Flusher
2015-06-22, 19:18:16
Für DP-->DVI braucht es doch keinen aktiven Adapter oder? Da muss es doch was passives für Dual-Link DVI geben. Hab leider grad keinen Adapter zu Hand, aber sind die nicht standardmäßig vielleicht als Dual-Link ausgeführt? Ansonsten wäre das schon ziemlich Fail - ich wäre zwar nicht betroffen, aber könnte den Unmut zahlreicher DVI-User verstehen.

dildo4u
2015-06-22, 19:18:39
Wo gibts den Monitor zu kaufen :eek:
http://geizhals.de/dell-ultrasharp-up2715k-210-adrz-a1192924.html?t=alle&plz=&va=b&vl=de&hloc=at&hloc=de&hloc=uk&v=l#filterform

https://youtu.be/bwd_-Kb3mdI

M4xw0lf
2015-06-22, 19:22:12
http://www.tweaktown.com/news/46048/amd-powers-5k-monitor-single-radeon-r9-fury-5120x2880/index.html

URL sagt alles :)
Hier gibts auch noch mehr nette Bilder von der Nano: http://www.tweaktown.com/news/46049/amd-radeon-r9-nano-tiny-hbm-super-powered-video-card/index.html

K-putt
2015-06-22, 19:35:58
http://www.tweaktown.com/news/46048/amd-powers-5k-monitor-single-radeon-r9-fury-5120x2880/index.html

URL sagt alles :)

Erm..
It was liquid smooth to my eyes, with the graphics being set to 'Medium' at 5K. It felt like 60FPS+...

http://imagescdn.tweaktown.com/news/4/6/46048_04_amd-powers-5k-monitor-single-radeon-r9-fury-5120x2880_full.jpg

Tamagothi
2015-06-22, 19:38:49
Hier gibts auch noch mehr nette Bilder von der Nano: http://www.tweaktown.com/news/46049/amd-radeon-r9-nano-tiny-hbm-super-powered-video-card/index.html

8 pin Anschluss + PCI Express = 225 Watt oder :confused:

foenfrisur
2015-06-22, 19:41:52
@unicous
MEGA-ROLF ;D:lol::lol::lol:

wozu bitte hdmi an meinem 144Hz-Monitor, wenn man dann nur 60Hz nutzen kann, dann doch gleich DP, danke benq ;)

also wie gesagt, hdmi kann verschwinden, sparen wir uns lizenzgebühren.

und klar muss vga & dvi langsam mal weg, aber doch nicht in einer zeit, wo noch reine dvi-monitore mit 120/144Hz verkauft werden.

dann hätte man schon früher anfangen müssen, den herstellern zusätzlich DP aufzwingen müssen.

mfg

@tamagothi
225W ist das maximal mögliche ;)
175W sind doch quasi bestätigt ;)

iuno
2015-06-22, 19:42:02
8 pin Anschluss + PCI Express = 225 Watt oder :confused:
Natürlich
6 Pin + PCIe wären aber nur 150 W gewesen, bei genannten 175 offensichtlich zu wenig :rolleyes: