PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 [45] 46 47 48 49 50 51 52 53 54 55 56

yamo
2015-06-22, 19:47:49
Da hättest du dir damals den XL2420Z holen sollen, der hat einen DP-Eingang.

Hätte hätte Fahrradkette. Bescheuertes Argument, 120/144Hz haben viele hier.
FuryX ist ja sexy, aber komm mal wieder runter:freak:

Tamagothi
2015-06-22, 19:48:24
Umso besser dann kann man der kleinen noch die Sporen geben :biggrin:

und schauen was die Effizienz bei OC sagt.

N0Thing
2015-06-22, 19:57:10
Erm..

Ist wohl das moderne cinematic gaming. :uup:

yamo
2015-06-22, 19:57:48
Umso besser dann kann man der kleinen noch die Sporen geben :biggrin:

und schauen was die Effizienz bei OC sagt.

Keulst Du Dir da einen drauf? Oder liest Du dir alles schön?
Es sei Dr gegönnt. Ich kaufe mir keine neue GraKa für 700-800 Ocken,
wo dann der Monitor sagt: Sorry, nur bis 60 Hz.
Du kannst das ja gerne machen und Fury (@30/60)genießen
Ich warte mit meinen Krüppeln ab.

Raff
2015-06-22, 20:01:26
8 pin Anschluss + PCI Express = 225 Watt oder :confused:

Das Power Design reicht bis 225 Watt, ja. Das muss aber nichts mit der TDP zu tun haben, die kann trotzdem bei 175 Watt liegen (die kann theoretisch auch bei 50 Watt liegen). Immerhin darf man bei aktuellen Radeons optional +50 Prozent Powerlimit reindrücken – für solche Spielchen ist die Platine dann wohl ausgelegt.

MfG,
Raff

Tamagothi
2015-06-22, 20:05:25
Nicht jeder ist ein 120/144 Hz Fanatiker. Mir reichen 60Hz :P

Neuer Monitor steht sowieso an. Der wird DP haben no Problem.

Edit: es ging zwar um die R9 nano aber ich weiß nicht wie du auf 700-800€ kommst

HOT
2015-06-22, 20:08:55
Das Power Design reicht bis 225 Watt, ja. Das muss aber nichts mit der TDP zu tun haben, die kann trotzdem bei 175 Watt liegen (die kann theoretisch auch bei 50 Watt liegen). Immerhin darf man bei aktuellen Radeons optional +50 Prozent Powerlimit reindrücken – für solche Spielchen ist die Platine dann wohl ausgelegt.

MfG,
Raff
Mit dem Kabel auch nicht, ist von THG ja untersucht worden, da das ein großer Kritikpunkt der 295X2 war, der sich als vollkommen haltlos herausstellte. Theoretisch kann man mit 8-Pin-Stecker auch über 300W gehen, ohne dass das Probleme macht, sprich, Kabel oder Stecker zu heiß wird. Der Blöde PCIe-Stecker wird jedenfalls kein Übertakten jenseits der 225W verhindern und ein Hersteller, der 3 8er-Stecker verbaut, macht das eh nur des Effekts-Wegen.

foenfrisur
2015-06-22, 20:14:55
.....
wo dann der Monitor sagt: Sorry, nur bis 60 Hz.
Du kannst das ja gerne machen und Fury (@30/60)genießen
Ich warte mit meinen Krüppeln ab.


im grunde betrifft das ja nur monitore, welche 120/144Hz aber KEIN DP haben.
alle anderen dürften ja kein problem haben, das die meisten neueren monitore das ja sowieso haben und ältere mit 60Hz einen simplen adapter nehmen können.

mfg

aths
2015-06-22, 20:20:42
http://a.disquscdn.com/get?url=http%3A%2F%2Fimgur.com%2FKdXjPef.gif&key=uvbckCx1NX2MY6PKGWIVEA&w=800&h=150
The Fiji Screwjob :D :D :D

InsaneDruid
2015-06-22, 20:26:21
Erm..
Ja lol, "feels like 60+, but I cant even read, so i might feel wrong, too"

auch schön: oben steht "was able to power The Witcher 3 at 5K", es geht aber, wie im Resttext auch steht, um DA:Inquisition.

yamo
2015-06-22, 20:31:39
im grunde betrifft das ja nur monitore, welche 120/144Hz aber KEIN DP haben.
alle anderen dürften ja kein problem haben, das die meisten neueren monitore das ja sowieso haben und ältere mit 60Hz einen simplen adapter nehmen können.

mfg
Klar, aber ich will nicht auf 120 Hz verzichten. Warum auch?
Warum muss ich dass mit Fidschij ?

Tamagothi
2015-06-22, 20:35:56
Dann kauf dir eine TitanX/gtx980ti :P

foenfrisur
2015-06-22, 20:42:58
Klar, aber ich will nicht auf 120 Hz verzichten. Warum auch?
Warum muss ich dass mit Fidschij ?

hab ja das gleiche problem...ich brauch 120Hz.
4k mit 75-freesync-Hz könnte ich natürlich auch noch akzeptieren ;D

fiji ist eben seiner zeit vorraus....da gibts nur noch DP :D

mfg

Schaffe89
2015-06-22, 20:45:40
Wieso sollte man darauf verzichten müssen? Jeder Monitor hat DP, augenommen TV´s.

ChaosTM
2015-06-22, 20:49:06
Wieso sollte man darauf verzichten müssen? Jeder Monitor hat DP, augenommen TV´s.

Dem ist leider nicht so..

foenfrisur
2015-06-22, 20:56:15
@schaffe
wie kommst du darauf? oder wie meinst du das?

soll ich mir einen DP anbauen bzw. flickenhaft anlöten?

zumal es minimum einen hersteller im TV-bereich gibt mit DP ;)

mfg

uweskw
2015-06-22, 20:57:37
Hört man schon etwas ob Fury X am 24. lieferbar sein wird?

mironicus
2015-06-22, 21:01:16
Klar, aber ich will nicht auf 120 Hz verzichten. Warum auch?
Warum muss ich dass mit Fidschij ?

Weil das AMD leider so entschieden hat.

Und du kannst nichts, gar nichts dagegen machen... außer dir einen neuen Monitor zu kaufen. :freak:

Unicous
2015-06-22, 21:04:38
Seid ihr dann irgendwann mal fertig?

Raff
2015-06-22, 21:08:12
Wieso sollte man darauf verzichten müssen? Jeder Monitor hat DP, augenommen TV´s.

Sehr pauschal formuliert. Jeder moderne Monitor hat DP, aber nicht jeder hat gerade erst zugeschlagen. Monitore gehören zu den langlebigeren PC-Komponenten. Mein Samsung 305T Plus beispielsweise, Baujahr 2009, bietet nur DVI - Dual-Link für 1600p60. Ich wäre mit einer Fury X gearscht. :(

MfG,
Raff

yamo
2015-06-22, 21:11:15
Dann kauf dir eine TitanX/gtx980ti :P
Eben nicht!. Schau mal was dort ein H20-Sli kostet. Unverkäuflich ;)

Dural
2015-06-22, 21:13:25
dir ist aber schon klar das fury x und die 980ti den gleichen uvp haben? so eine bilig wakü kostet ca. 65.- wenn es eine wakü sein soll.

mironicus
2015-06-22, 21:14:31
Ich wäre mit einer Fury X gearscht. :(

Wirst du das in der Review erwähnen - die Nachteile des Fehlens von DVI und HDMI 2.0? Am besten eine ganze Seite... :freak:

y33H@
2015-06-22, 21:15:33
Ich check's grade nicht, mein Display zeigt 120/144 Hz mit Fiji via DP. Es geht um Adapter?

Raff
2015-06-22, 21:15:51
Wirst du das in der Review erwähnen - die Nachteile des Fehlens von DVI und HDMI 2.0? Am besten eine ganze Seite... :freak:

Einmal pro Absatz! :ugly:

Im Ernst: Das ist nennenswert, aber gewiss kein KO-Kriterium.

MfG,
Raff

yamo
2015-06-22, 21:16:20
Kleiner Gruss an Raff: Just do it.

Tamagothi
2015-06-22, 21:16:30
Wirst du das in der Review erwähnen - die Nachteile des Fehlens von DVI und HDMI 2.0? Am besten eine ganze Seite... :freak:

:uban:

Nightspider
2015-06-22, 21:18:30
Bin schon gespannt.

http://abload.de/img/fijigfbr5.png

Palpatin
2015-06-22, 21:18:45
Sehr pauschal formuliert. Jeder moderne Monitor hat DP, aber nicht jeder hat gerade erst zugeschlagen. Monitore gehören zu den langlebigeren PC-Komponenten. Mein Samsung 305T Plus beispielsweise, Baujahr 2009, bietet nur DVI - Dual-Link für 1600p60. Ich wäre mit einer Fury X gearscht. :(

MfG,
Raff
http://www.amazon.com/StarTech-com-DisplayPort-Active-Adapter-Converter/dp/B00A493CNY

Unicous
2015-06-22, 21:19:01
so eine bilig wakü kostet ca. 65.- wenn es eine wakü sein soll.

So ein Bullshit.:rolleyes:^720°

ChaosTM
2015-06-22, 21:20:02
Ich check's grade nicht, mein Display zeigt 120/144 Hz mit Fiji via DP. Es geht um Adapter?

Wie macht sich Fiji unter 2160p und vollen Details bei speicher-kritischen Spielen?

..einen Versuch war es wert.. und thx :)

Raff
2015-06-22, 21:20:22
http://www.amazon.com/StarTech-com-DisplayPort-Active-Adapter-Converter/dp/B00A493CNY

Schnapper. :uup:

Aber bevor wir uns über Kosmetik aufregen, sollte erst mal geklärt werden, ob und warum Fiji etwas ist, dem man nachweinen sollte.

Wie macht sich Fiji unter 2160p und vollen Details bei speicher-kritischen Spielen?

Das NDA läuft noch. Gute Faustregel: AMDs Grafiksparte Ati ;) kocht auch nur mit Wasser.

MfG,
Raff

dildo4u
2015-06-22, 21:21:22
http://www.amazon.com/StarTech-com-DisplayPort-Active-Adapter-Converter/dp/B00A493CNY
AMD kauft man wenn Geld sparen will und nicht noch drauflegen.

aufkrawall
2015-06-22, 21:24:06
Kein HDMI 2.0 und kein DVI, wer entscheidet so etwas. Es ist einfach nur dämlich, völlig vermeidbare Kritikpunkte geschaffen.

mironicus
2015-06-22, 21:26:12
AMD braucht mehr Kontakt mit uns, dann treffen die bessere Entscheidungen.

HOT
2015-06-22, 21:28:24
http://www.amazon.com/StarTech-com-DisplayPort-Active-Adapter-Converter/dp/B00A493CNY
Da bekommt man ja nen neuen Montor für :freak:

Tjo, einen Teil der Zielgruppe auszugrenzen ist nicht ganz so intelligent, andererseits will man wenn man sowas kauft eh irgendwann auch mal Freesync nutzen, von daher seh ich das nicht ganz so tragisch.

BlacKi
2015-06-22, 21:28:44
Schnapper. :uup:

Aber bevor wir uns über Kosmetik aufregen, sollte erst mal geklärt werden, ob und warum Fiji etwas ist, dem man nachweinen sollte.


wink mit dem Zaunpfahl?:freak:

Da bekommt man ja nen neuen Montor für :freak:
ja, das wäre der aufpreis für gsync statt freesync mit dem kann man dann auch in 4k mit 30fps zocken...
...wer das auch immer zocken nennt.

Conner_Ray
2015-06-22, 21:31:09
AMD kauft man wenn Geld sparen will und nicht noch drauflegen.
Rischtisch. NV kaufen die Geeks, PROs und Nerds, AMD die armen Schlucker....

mironicus
2015-06-22, 21:32:10
Guckt mal, wieviel der Adapter direkt bei Amazon.de kostet. :D
http://www.amazon.de/StarTech-com-DP2DVID2-DisplayPort-Converter-2560x1600/dp/B00DCVX47K

foenfrisur
2015-06-22, 21:42:56
AMD kauft man wenn man keine propietäre, egoistische politik unterstützen will.

;D
habs mal korrigiert.

gibt es denn nur noch die 2 auffälligen vorteile von fiji ggü. der ti.
- kühlsystem
- kleiner

verbrauch etc. wird zwar gut, aber nicht berauschend und auch nicht besser, als bei der ti...

mfg

hasebaer
2015-06-22, 21:46:51
wer entscheidet so etwas.

AMD's Fixer is gangsta.

mironicus
2015-06-22, 21:53:07
wink mit dem Zaunpfahl?:freak:.

Heißt wohl, die Karte ist es nicht wert, das man ihr so viel Aufmerksamkeit schenkt.

Raff
2015-06-22, 21:57:07
Das habe ich nicht gesagt. ;) Allerdings geistern hier teilweise Vorstellungen bezüglich der Leistung umher, die das Produkt nie im Leben erfüllen kann. Fury X = Half-Life 3.

MfG,
Raff

Korvaun
2015-06-22, 21:57:28
Wenn die FuryX relativ gleich schnell/gleich teuer/gleich laut wie ne 980Ti (Custom) ist, dann ist sie außer für technik-interessierte Leute nicht wirklich nen Hammerprodukt...

N0Thing
2015-06-22, 21:59:31
Warum das? Wegen der Wakü?

gedi
2015-06-22, 21:59:42
Finde ich gut. So bleibt wenigstens mal eine Grafikkarte etwas länger in meinem Rechner. Und wenn Fury X gleich HL3 ist, dann gibt es das Ding gar nicht wirklich?

fondness
2015-06-22, 21:59:57
Das habe ich nicht gesagt. ;) Allerdings geistern hier teilweise Vorstellungen bezüglich der Leistung umher, die das Produkt nie im Leben erfüllen kann.


Aha wo denn? Die Leistung wurde +-5% eh schon geleaket.

dildo4u
2015-06-22, 22:00:45
Wenn die FuryX relativ gleich schnell/gleich teuer/gleich laut wie ne 980Ti (Custom) ist, dann ist sie außer für technik-interessierte Leute nicht wirklich nen Hammerprodukt...

Die Wakü ist schon ca 100€ Wert eine 980TI mit Wakü wird nich grad billig werden,AMD weiß schon wie sie den Preis gestalten müssen wenn sie was absetzen wollen.

Korvaun
2015-06-22, 22:01:57
Raff meint wohl weil einige Leute hier von 1,5GHz mit Stock-Wakü träumen ;)

Dorn
2015-06-22, 22:02:19
Kein HDMI 2.0 und kein DVI, wer entscheidet so etwas. Es ist einfach nur dämlich, völlig vermeidbare Kritikpunkte geschaffen.

Oja mein Monitor hat auch kein DP, will mir zwar auch ein neuen Freesync Monitor kaufen aber der ist noch nicht erhältlich. :frown:

fondness
2015-06-22, 22:04:00
Die Wakü ist schon ca 100€ Wert eine 980TI mit Wakü wird nich grad billig werden,AMD weiß schon wie sie den Preis gestalten müssen wenn sie was absetzen wollen.

Vor allem sehe ich bei der 980Ti nur GPU-only AiO Waküs, keine ohne Lüfter auf der Platine.

Korvaun
2015-06-22, 22:04:22
Die Wakü ist schon ca 100€ Wert eine 980TI mit Wakü wird nich grad billig werden,AMD weiß schon wie sie den Preis gestalten müssen wenn sie was absetzen wollen.

Ich gehe mal davon aus das sich die Preise von vergleichbaren Karten rel. zügig angleichen werden. Ob man dann auch ne 980Ti mit Wakü zum gleichen Preis wie ne FuryX bekommt glaub ich nicht, aber es gibt ja sicherlich auch gute Lukü-980Ti.

aufkrawall
2015-06-22, 22:06:08
Oja mein Monitor hat auch kein DP, will mir zwar auch ein neuen Freesync Monitor kaufen aber der ist noch nicht erhältlich. :frown:
Es schreckt mich momentan auch ab. Der Dell 4k IPS A-Sync wäre interessant mit Refreshraten-Verfielfachung per Treiber, aber das ist noch Zukunftsmusik.
Und dann halt nur 4GB. Es ist dann bei jedem Blockbuster eine Wackelpartie, ob maximale (Texur-)Details nutzbar sind oder nicht...

Ich seh keinen Grund, Fiji XT einer 980 Ti vorzuziehen, wenn die Leistung vergleichbar ist.

derguru
2015-06-22, 22:10:02
ernsthaft, mit was will fury x eigentlich punkten wenn sie in etwa gleich schnell und preislich auf 980ti niveau ist? ich finde da ehrlich gesagt keinen vorteil außer das sie kürzer ist.

basix
2015-06-22, 22:12:12
A-Sync, gute AiO, Preis, AMD-Bonus, Fury = Weiblich, Geilheitsfaktor :biggrin:?

fondness
2015-06-22, 22:12:48
ernsthaft, mit was will fury x eigentlich punkten wenn sie in etwa gleich schnell und preislich auf 980ti niveau ist? ich finde da ehrlich gesagt keinen vorteil außer das sie kürzer ist.

Wo ist denn der Vorteil der 980Ti außer das sie 2GB mehr VRAM hat? Du bekommst out-of-the-box eine für High-End-Karte beispiellose Kühlung, top-Verarbeitung, die natürlich auch nicht gratis ist. Der Rest ist evident.

dildo4u
2015-06-22, 22:13:54
Wo ist denn der Vorteil der 980Ti?
6GB und lässt sich massiv besser OC.

Korvaun
2015-06-22, 22:14:49
ernsthaft, mit was will fury x eigentlich punkten wenn sie in etwa gleich schnell und preislich auf 980ti niveau ist? ich finde da ehrlich gesagt keinen vorteil außer das sie kürzer ist.

Anders rum, wer braucht ne 980Ti wenns ne FuryX gibt? Ne ernsthaft, wenn die Karten wirklich so nahe (+/- 5%) bei Standard-Sachen (normaler Spieler) zusammen sind, dann gehts halt um Details (z.b. HDMI 2.0/Wakü/etc...) bzw. persönlich Vorliebene (Team grün oder Team rot)...

Menace
2015-06-22, 22:16:57
oder compute. Ist doch nicht schlecht, wenn es Alternativen hat. Ich danke Raff auf jeden Fall, dass er uns auf den Boden der Realität schon im Vorfeld zurückholt.

derguru
2015-06-22, 22:17:55
Wo ist denn der Vorteil der 980Ti außer das sie 2GB mehr VRAM hat? Du bekommst out-of-the-box eine für High-End-Karte beispiellose Kühlung, top-Verarbeitung, die natürlich auch nicht gratis ist. Der Rest ist evident.


ram allein ist schon ausreichend aber dann wäre noch hdmi 2.0, physX wärs braucht, verbrauch vermutlich auch, also für mich mehr als genug punkte.

Schnoesel
2015-06-22, 22:20:27
Und schon gehts wieder los...

Ihr langweilt

PS: Für mich kommt grün schon mal gar nicht in Frage derzeit nachdem was sie sich bei der GTX 970 geleistet haben, aber das stört ja offenbar mittlerweile niemanden mehr.

Fury + Kühlblock = glücklicher Schnoesel ;-)

Disco_STFU
2015-06-22, 22:20:36
6GB und lässt sich massiv besser OC.

Erzähl uns doch mal über deine ausführlichen OC Tests zur Fury X... :rolleyes:

mironicus
2015-06-22, 22:22:40
Ich seh keinen Grund, Fiji XT einer 980 Ti vorzuziehen, wenn die Leistung vergleichbar ist.

Das sieht Raff bestimmt auch so, denn erst seit kurzem besitzt er eine Titan X. Da wünschte ich auch manchmal etwas früher Einsicht in die Leistung einer neuen Hardware zu erhalten, und nicht auf Berichte warten zu müssen für meine finale Kaufentscheidung. :freak:

Nightspider
2015-06-22, 22:25:52
Der Thread hier hätte ja fast 1mio hits knacken können, wenn Fiji erst paar Wochen später erschienen wäre.

Hatten wir schon mal so viele Hits in einem Speku-Thread?

gedi
2015-06-22, 22:26:59
ram allein ist schon ausreichend aber dann wäre noch hdmi 2.0, physX wärs braucht, verbrauch vermutlich auch, also für mich mehr als genug punkte.

Dafür ist Fiji wesentlich leiser, wesentlich kleiner (wenn man den Radi jetzt ma außen vor lässt), hübscher, kühler, braucht für mGPU keine arschlangsame Bridge, und hat Mantle. Imo auch genügend Gründe, welche gegen NV sprechen.

N0Thing
2015-06-22, 22:27:35
Der Thread hier hätte ja fast 1mio hits knacken können, wenn Fiji erst paar Wochen später erschienen wäre.

Hatten wir schon mal so viele Hits in einem Speku-Thread?


Jep: http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?s=&f=55&page=1&pp=50&sort=views&order=desc&daysprune=-1&prefixid=

uweskw
2015-06-22, 22:28:23
Die Frage scheint doch eher zu sein ob es Fiji in mehr als nur homöopathischen Dosen zu kaufen gibt. Und wo.

greetz
US

uweskw
2015-06-22, 22:36:49
ernsthaft, mit was will fury x eigentlich punkten wenn sie in etwa gleich schnell und preislich auf 980ti niveau ist? ich finde da ehrlich gesagt keinen vorteil außer das sie kürzer ist.

Technologie Vorreiter. Den "early adopter" Zuschlag zahlen nicht nur Idioten. So manchen ist der Fortschritt an sich auch etwas wert. Wer hat denn Gaming-Tec immer wieder voran gebracht? Jedenfalls nicht die, die am meisten profitiert haben.

greetz
US

Megatron
2015-06-22, 22:37:05
Also die Monitorgeschichte bei Fiji ist wirklich lächerlich. Ich sitze hier an nem Modell, das 2009 rauskam und da war mir schon damals wichtig, auf DP zu setzen.
Vor allem, dass das Referenzdesign! nur auf DP+HDMI setzt, heißt ja nicht, dass es dann bei den Customs auch niemals nie nicht DVI geben wird....
Umgekehrt hat Pana ja gezeigt, dass man auch beim TV einen DP integrieren kann.

Tamagothi
2015-06-22, 22:38:16
noch zwei mal Schlafen Jungs noch zwei mal :smile:

(del676)
2015-06-22, 22:38:41
ernsthaft, mit was will fury x eigentlich punkten wenn sie in etwa gleich schnell und preislich auf 980ti niveau ist? ich finde da ehrlich gesagt keinen vorteil außer das sie kürzer ist.

Die (nicht vorhandene) Lautstaerke spielt in einer komplett anderen Liga.
Gut uebertaktbar bei weiterhin leisem Kuehler.
Mantle.

Am 24. sehen wir ja, ob die 4GB Vram "zu wenig" sind. Wenn sie in GTA5 trotzdem schneller ist als eine 980Ti, gibts ueberhaupt keinen Grund fuer die nvidia Karte mehr. ;)

ChaosTM
2015-06-22, 22:39:04
Die erhofften +60% zu meiner 290er werden nicht passieren - weder 980ti noch Fury zahlen sich wirklich aus

HOT
2015-06-22, 22:43:11
Es schreckt mich momentan auch ab. Der Dell 4k IPS A-Sync wäre interessant mit Refreshraten-Verfielfachung per Treiber, aber das ist noch Zukunftsmusik.
Und dann halt nur 4GB. Es ist dann bei jedem Blockbuster eine Wackelpartie, ob maximale (Texur-)Details nutzbar sind oder nicht...

Ich seh keinen Grund, Fiji XT einer 980 Ti vorzuziehen, wenn die Leistung vergleichbar ist.
Tja, NV Kunden sind offenbar nunmal gern masochistisch veranlagt... lässt sich gern mal von seiner Liblingsfirma verarschen und kauft dann doch wieder grün...
Zudem kosten sie ja nicht das gleiche. Eine 980ti geht hierzulande für 750 weg. Das wird sich zwar weiter unten einpendeln, wenn Fury kommt, jedoch wird die Fury immer günstiger sein, genau aus dem genannten Grund. AMD hat nunmal nur wenige echte Fans, NV ist jedoch für viele ein zweites Apple.

Ich denke, aus wirklich pragmatischer Sicht ist weder die Fury noch die 980ti noch die 980 noch die 970 ein gutes Angebot. Das beste Angebot dürfte auf lange Sicht die 390 non-X sein, paradox aber ich würd wetten, dass man damit auf Sicht von 2-3 Jahren echt am besten fährt für die Investition von vergleichsweise läppischen 350€. Die hat zwar auch kein HDMI 2.0, aber für TV reicht dann ja wahrscheinlich auch ein Intel-Integrat. Alle anderen Features - sync, 12_0 usw. sind ja vorhanden und das bei einem Chip den es seit 1 1/2 Jahren gibt - aus der Sicht ist Hawaii ein Meisterwerk - mit ein paar W zuviel verbrauch, aber hey, nobodys perfect.
Perfekt wäre eine 980 mit 8GB, die gibts blöderweise nur im Notebook... ach ne, nicht wirklich perfekt, vllt. haperts der 980 irgendwann an der Bandbreite, denn die ist wirklich knapp bemessen und wer weiss was die Zukunft so bringt.

StefanV
2015-06-22, 22:46:05
Sehr pauschal formuliert. Jeder moderne Monitor hat DP, aber nicht jeder hat gerade erst zugeschlagen. Monitore gehören zu den langlebigeren PC-Komponenten. Mein Samsung 305T Plus beispielsweise, Baujahr 2009, bietet nur DVI - Dual-Link für 1600p60. Ich wäre mit einer Fury X gearscht. :(

MfG,
Raff
Nä, wärst nicht.

Du hättest die Wahl zwischen auf 'nen bisserl Auflösung zu verzichten ODER dir einen Adapter zu besorgen...
Das kost zwar 'nen bisserl was, aber ist jetzt auch kein Beinbruch oder ein Ding der unmöglichkeit...
Und die gibts interessanter weise für gar nicht so viel Kohle (http://www.amazon.de/dp/B003AR5S5M/ref=asc_df_B003AR5S5M27026438?smid=A3JWKAKR8XB7XF&tag=geizhalspre03-21&linkCode=df0&creative=22502&creativeASIN=B003AR5S5M&childASIN=B003AR5S5M) oO :O

Also nicht soo schlimm das ganze, wenn man den Monitor wirklich weiter nutzen möchte...

Die Hardcore Variante wäre die Elektronik des Bildschirms auszutauschen :ugly:

gedi
2015-06-22, 22:48:55
Wenn die Leistung in etwa gleich ist zur 980Ti/TitanX, dann wechsle ich auch nicht. Wenn Fiji allerdings krasse Hawaii-Schwächen wie die Leistung mit SSAA, voll funktionstüchtiges VSR (ohne Blur-Effekt, wie bei DSR) und einer klar besseren Performance als TitanX in 4k liefert, dann byebye NV.

mironicus
2015-06-22, 22:49:46
Tja, NV Kunden sind offenbar nunmal gern masochistisch veranlagt... lässt sich gern mal von seiner Liblingsfirma verarschen und kauft dann doch wieder grün...

NV-Kunden sind eher positiv denkende Menschen die sich nicht an alten Wunden reiben wollen. :freak:

aufkrawall
2015-06-22, 22:54:56
Tja, NV Kunden sind offenbar nunmal gern masochistisch veranlagt... lässt sich gern mal von seiner Liblingsfirma verarschen und kauft dann doch wieder grün...

Bei dem Vorwurf an mich wird offenbar gerne immer vergessen, dass dazwischen auch mehrere rote Experimente lagen. Immerhin ist das letzte nicht mehr an der Software gescheitert, wobei Radeon-User auch gar nicht wissen, wie gut GTA oder Witcher mit prerendered frames 1 laufen.

derguru
2015-06-22, 22:55:58
Wenn die Leistung in etwa gleich ist zur 980Ti/TitanX, dann wechsle ich auch nicht. Wenn Fiji allerdings krasse Hawaii-Schwächen wie die Leistung mit SSAA, voll funktionstüchtiges VSR (ohne Blur-Effekt, wie bei DSR) und einer klar besseren Performance als TitanX in 4k liefert, dann byebye NV.
viele wenn's aber dauert ja nimmer lang.:wink:

HOT
2015-06-22, 22:56:18
NV-Kunden sind eher positiv denkende Menschen die sich nicht an alten Wunden reiben wollen. :freak:
Schicke Formulierung ;).

gedi
2015-06-22, 23:03:29
viele wenn's aber dauert ja nimmer lang.:wink:

Wenn ich ehrlich bin, dann erhoffe ich mir von Fiji TI/TX+5%. So bleibt mir der Wechsel erspart und alle sind zufrieden ;)

HOT
2015-06-22, 23:05:24
Bei dem Vorwurf an mich wird offenbar gerne immer vergessen, dass dazwischen auch mehrere rote Experimente lagen. Immerhin ist das letzte nicht mehr an der Software gescheitert, wobei Radeon-User auch gar nicht wissen, wie gut GTA oder Witcher mit prerendered frames 1 laufen.
Ich spiele Witcher auf meiner 290 superflüssig. Ich weiss gar nicht wovon du da redest... Ich wüsst auch nicht, wie das besser laufen soll.
Aber bei NV, na da weiss man gar nicht wo man anfangen soll...
1.) 970-Verarsche mit der verunstalteten Speicheranbindung
2.) 4GB-Verarsche bei der 980, die Notebook-Variante hat 8GB
3.) TitanX-Verarsche - Kunden vorher abgezockt und dann mit der 980ti abgezogen
4.) Notebook-Übertaktungs-Verarsche
5.) plötzlich-langsamer-Kepler-Verarsche
6.) Irreführende Werbung und Pressematerial bezüglich der 970
7.) GSync-Verarsche mit dem bekackten Modul, das keiner braucht und in Notebooks und OEM-Desktops gar nicht nötigt ist
8.) PhysX-Ausschluss-Verarsche wenn eine AMD-GPU im System ist
9.) ach gott, da lassen sich noch zig weitere finden...

und die Presse regt sich über den exklusiven 300er-Treiber auf, da kann ich nur drüber LACHEN.
Die Menschen lassen sich gern verarschen, aber der RICHTIGE muss es tun.

Und es sind die GLEICHEN Leute(!) die sich über eine 4GB FuryX für 650€ inclusitver WaKü, die ja auch nicht billig ist, aufregen BEI DER DAS WIKLICH (!) HARDWAREBEDINGT so ist und vorher ne 980 mit 4GB für 600€ besorgt haben.

Thunder99
2015-06-22, 23:05:36
Wenn die Leistung in etwa gleich ist zur 980Ti/TitanX, dann wechsle ich auch nicht. Wenn Fiji allerdings krasse Hawaii-Schwächen wie die Leistung mit SSAA, voll funktionstüchtiges VSR (ohne Blur-Effekt, wie bei DSR) und einer klar besseren Performance als TitanX in 4k liefert, dann byebye NV.
Wo bitte hat Hawaii SGSSAA Schwächen? Spiele damit und es hat keine schwächen im Vergleich zu meiner vorherigen GTX970 die ich sehen konnte. Äquivalente Leistung ;)

dargo
2015-06-22, 23:06:07
Immerhin ist das letzte nicht mehr an der Software gescheitert, wobei Radeon-User auch gar nicht wissen, wie gut GTA oder Witcher mit prerendered frames 1 laufen.
Bist du dir da ganz sicher?

Flip Queue Size
Determines the number of frames the driver will render ahead of being displayed if CPU is fast enough (usually it is). The driver default is 3, higher values can improve performance and reduce stuttering but may introduce mouse lag. Lower values can help reduce mouse lag but can cause stuttering.
The recommended setting is Use Driver Default.

http://www.radeonpro.info/manual/contents/the-advanced-tab

gedi
2015-06-22, 23:11:16
Ich glaube ich war bereits 3x auf Hawaii (mit MSI, ASUS, Powercolor) und ich denke ich weiß wovon ich rede ;) Eine 970 als Referenz zu nehmen liegt mir fern, denn dieses Ding ist 350.- Euro Hardwareschrott.

Allerdings habe ich bereits in einem anderen Thread formuliert, dass SSAA auch einen TX und TI mächtig ins straucheln bringt - unter 1440p wohlgemerkt. Und wenn Fiji u.a. hier ansetzt, dann könnte es was mit uns werden, kleine ;).

Nightspider
2015-06-22, 23:11:34
Das muss man aufkrawall lassen. Er ist die letzten 1,5 Jahre mit Jeder (Karte) ins Bett gesprungen. ;)

HOT
2015-06-22, 23:13:53
Was soll dieser SSAA-Quatsch? 2x SSAA kostet das mindestens doppelte an Leistung und 4x SSAA das mindestens vierfache, das ist scheissegal welcher Chip...

gedi
2015-06-22, 23:18:45
Ein Maxwell (ab 980) und Kepler (780ti) brechen wesentlich weniger in Verbund mit SSAA ein. Und mir ist 1440p mit SSAA lieber als 4k mit DSR.

HOT
2015-06-22, 23:19:56
Ein Maxwell (ab 980) und Kepler (780ti) brechen wesentlich weniger in Verbund mit SSAA ein. Und mir ist 1440p mit SSAA lieber als 4k mit DSR.
Belege? Ich denke, dass das Quatsch ist. SSAA kostet das gleiche wie VSR, es ist immer unverhältnismäßig teuer.

aufkrawall
2015-06-22, 23:20:30
Bist du dir da ganz sicher?

http://www.radeonpro.info/manual/contents/the-advanced-tab
Es hatte nur mit DX9 einen Effekt, mit DX11 nicht.

gedi
2015-06-22, 23:22:25
Belege? Ich denke, dass das Quatsch ist. SSAA kostet das gleiche wie VSR, es ist immer unverhältnismäßig teuer.

Nicht in Bezug auf Performance. 4k mit DSR ist BQ zum abgewöhnen.

aufkrawall
2015-06-22, 23:24:00
Na ja, SGSSAA ist nun wirklich nicht mehr gut nutzbar. Eigentlich ist mir Hardware-AA fast komplett egal geworden bei neuen Spielen.

Thunder99
2015-06-22, 23:27:23
Ein Maxwell (ab 980) und Kepler (780ti) brechen wesentlich weniger in Verbund mit SSAA ein. Und mir ist 1440p mit SSAA lieber als 4k mit DSR.
Nein! Schau dir die Tests nochmal an. Sie brechen vergleichbar ein...

redfirediablo
2015-06-22, 23:38:23
Naja, es wird wieder so laufen wie immer. AMD bringt ein Produkt das zwar im großen und ganzen gleichwertig bzw. leicht besser ist aber alle die bisher Nvidia Fans sind werden weiterhin Gründe finden warum die entsprechende Nvidia Karte doch viel besser sei und das doppelt und dreifach immer und überall wiederholen. Demgegenüber werden alle negativen Eigenschaften ausgeblendet und bagatellisiert um sich ein Überlegenheitsgefühlt gönnen zu können. Pahh, man gönnt sich halt Nvidia weil man es sich leisten kann...

Nvidia ist das Apple der Grafikkartenwelt. Traurig, sehr traurig.

Leider ist meine 290 Vapor-X einfach noch zu gut, erst recht mit dem kommenden neuen Treiber, als das ich jetzt eine Fury kaufen würde. Würde ich aber trotzdem gern machen, weil AMD mit hoher Wahrscheinlichkeit für mich als high FPS 144Hz gamer genau die richtige Karte gebaut hat. Ich brauch keine 8GB Speicher, ich brauche Leistung und das leise.

gedi
2015-06-22, 23:39:21
Unabhängig der Tests gebe ich hier nur mein subjektives Empfinden wieder. Und das war/ist mit NV ganz einfach besser - sprich flüssiger.

Anders verhält sich die Sache bei mGPU: Hier empfand ich die Frametimes bei AMD wesentlich angenehmer.

BQ-technisch sind Maxwell und Hawaii in etwa identisch, Thermi und G80 allerdings noch immer top.

Disco_STFU
2015-06-22, 23:40:32
Ich spiele Witcher auf meiner 290 superflüssig. Ich weiss gar nicht wovon du da redest... Ich wüsst auch nicht, wie das besser laufen soll.
Aber bei NV, na da weiss man gar nicht wo man anfangen soll...
1.) 970-Verarsche mit der verunstalteten Speicheranbindung
2.) 4GB-Verarsche bei der 980, die Notebook-Variante hat 8GB
3.) TitanX-Verarsche - Kunden vorher abgezockt und dann mit der 980ti abgezogen
4.) Notebook-Übertaktungs-Verarsche
5.) plötzlich-langsamer-Kepler-Verarsche
6.) Irreführende Werbung und Pressematerial bezüglich der 970
7.) GSync-Verarsche mit dem bekackten Modul, das keiner braucht und in Notebooks und OEM-Desktops gar nicht nötigt ist
8.) PhysX-Ausschluss-Verarsche wenn eine AMD-GPU im System ist
9.) ach gott, da lassen sich noch zig weitere finden...

und die Presse regt sich über den exklusiven 300er-Treiber auf, da kann ich nur drüber LACHEN.
Die Menschen lassen sich gern verarschen, aber der RICHTIGE muss es tun.

Und es sind die GLEICHEN Leute(!) die sich über eine 4GB FuryX für 650€ inclusitver WaKü, die ja auch nicht billig ist, aufregen BEI DER DAS WIKLICH (!) HARDWAREBEDINGT so ist und vorher ne 980 mit 4GB für 600€ besorgt haben.

Besser hätte man es nicht auf den Punkt bringen können. (y)

aufkrawall
2015-06-22, 23:40:51
Jetzt wirds aber ganz krude...
Kleiner Tipp: Die HQ-Texturfilterung von G80 und Maxwell ist zu 100% identisch ohne LOD-Bias.

gedi
2015-06-22, 23:42:59
Ich filtere generell mit HQ ohne LOD-BIAS und die BQ ist ebend nicht identisch zu Thermi!

aufkrawall
2015-06-22, 23:44:59
Was soll denn "BQ" sein?
Ich hatte Screenshots aus dem Filtertester verglichen, 9600 GT und GTX 970 liefern völlig pixelgleiche Ergebnisse.

redfirediablo
2015-06-22, 23:49:00
gedi: du hast ein haufen Geld für eine 980ti ausgegeben. Dein Gehirn wird dir nie und nimmer erlauben dir einzugestehen, das ggf. die Fury die bessere Karte sein könnte. Das würde schlechte Gefühle erzeugen und davor versucht dich dein Unterbewustsein zu schützen.

Daher auch dein subjektives empfinden das Nvidia "flüssiger" läuft. Objektiv sind Frametimes messbar und die sind in keiner Weise zzt. bei Nvidia durchgehend besser. Es ist schlicht und ergreifend gemischt was das angeht, eine Nvidia kann in der gleichen Leistungsklasse also insgesamt einfach nicht "flüssiger" laufen. Wenn du es trotzdem so empfindest, dann zeugt das davon das dich dein Unterbewusstsein bewusst täuscht (witzig oder?)

Grestorn
2015-06-22, 23:49:05
Naja, es wird wieder so laufen wie immer. AMD bringt ein Produkt das zwar im großen und ganzen gleichwertig bzw. leicht besser ist aber alle die bisher Nvidia Fans sind werden weiterhin Gründe finden warum die entsprechende Nvidia Karte doch viel besser sei und das doppelt und dreifach immer und überall wiederholen. Demgegenüber werden alle negativen Eigenschaften ausgeblendet und bagatellisiert um sich ein Überlegenheitsgefühlt gönnen zu können. Pahh, man gönnt sich halt Nvidia weil man es sich leisten kann...

Im Moment habe ich in diesem Thread gerade ein ganz anderes Gefühl. Die bösen bösen nVidia Fans werden von einigen geradezu dämonisiert, obwohl diese sich eigentlich ziemlich zurückhalten (mit einigen wenigen Ausnahmen) und gespannt schauen, was da so kommt. Auch in der Hoffnung, dass AMD den Markt wieder belebt und spannender gestaltet.

Aber man muss sich offenbar sogar schon rechtfertigen, wenn man nicht dem gefühlten Underdog sein hart vedientes Geld gibt und sich statt dessen mit den gekauften Produkten des absolut skrupellosen und kindermordenden fast-Monpolisten wohl fühlt - sogar wenn diese ganz offensichtlich nicht das beste Preis/Leistungsverhältnis haben.

Man muss sich mehr oder weniger als krtitiklosen Dummkonsumenten, der offensichtlich zu beschränkt ist, die bösen bösen Machenschaften der Fa. nVidia zu durchschauen, beschimpfen lassen. Das nimmt hier echt überhand. Dieses enorme Zugehörigkeitsgefühl sich zusammen mit dem Underdog gegen die böse Welt zu stellen, das manche an den Tag legen, ist schon fast unheimlich. Wär ein gefundenes Fressen für Freud...

gedi
2015-06-22, 23:49:13
Mir wäre ein Screenshot aus HL2 lieber als ein Filtertester. Naja Raff hat ja gesagt mit Fury gibt es HL3. Dann können wir ja nochmals vergleichen ;)

aufkrawall
2015-06-22, 23:51:56
HL2 hatte ich auch getestet, 0 Pixel Abweichung.
Maxwell ist insgesamt aufgrund des gefixten LOD-Bias mit HQ sogar noch besser als Fermi/G80.
Der HQ-Modus war zum Launch kaputt, den "klassischen" HQ-Modus von G80 konnte man die ganze Zeit über aber mit Q ohne tril. Optm. nutzen.

redfirediablo
2015-06-22, 23:53:16
hier stand Mist weil ich nicht lesen kann wenn es spät am Abend ist ;) Wenn jemand bewusst überteuerte Karten von einer Firma mit miesen Geschäftsgebaren kauft, die gern auch die eigenen Kunden verarscht, dann kann ich dagegen natürlich nichts sagen. Jeder Jeck ist anders, nicht war? Ich muss dringend mal so eine Firma gründen die das auch so macht:

"Do evil and get rich" :D

samm
2015-06-23, 00:00:54
Man muss sich mehr oder weniger als krtitiklosen Dummkonsumenten, der offensichtlich zu beschränkt ist, die bösen bösen Machenschaften der Fa. nVidia zu durchschauen, beschimpfen lassen. Das nimmt hier echt überhand. Dieses enorme Zugehörigkeitsgefühl sich zusammen mit dem Underdog gegen die böse Welt zu stellen, das manche an den Tag legen, ist schon fast unheimlich. Wär ein gefundenes Fressen für Freud...Diese Gruppierungstendenz lässt sich genauso auch bei der jeweils dominanteren Gruppe feststellen, ich denke, das ist menschlich - die einen fühlen sich in der grösseren Gruppe besser, die anderen sind froh, sich wenigstens mit den gleichgesinnten zusammschliessen zu können. Ob das wirklich Freud-Material ist oder einfach nur banal normal? ;)

HL2 hatte ich auch getestet, 0 Pixel Abweichung.
Maxwell ist insgesamt aufgrund des gefixten LOD-Bias mit HQ sogar noch besser als Fermi/G80.
Der HQ-Modus war zum Launch kaputt, den "klassischen" HQ-Modus von G80 konnte man die ganze Zeit über aber mit Q ohne tril. Optm. nutzen.Was war denn beim LOD-Bias mit HQ bei Fermi/G80 nicht i.O. im Vergleich mit Maxwell?
So oder so denk ich mal, dass AMD bei Fiji/Tonga kaum an den Filtern geschraubt haben wird. Hat das mal jemand getestet (bei Tonga natürlich)?

aufkrawall
2015-06-23, 00:04:22
Das negative LOD-Bias flimmert nur mit Maxwell DX10+ ähnlich wenig wie Codas Referenz-Implementierung.
Ist aber auch relativ egal, SGSSAA ist eh tot und ohne würd ich alles daran setzen, ohne Bias zu filtern.

gedi
2015-06-23, 00:07:31
gedi: du hast ein haufen Geld für eine 980ti ausgegeben. Dein Gehirn wird dir nie und nimmer erlauben dir einzugestehen, das ggf. die Fury die bessere Karte sein könnte. Das würde schlechte Gefühle erzeugen und davor versucht dich dein Unterbewustsein zu schützen.

Daher auch dein subjektives empfinden das Nvidia "flüssiger" läuft. Objektiv sind Frametimes messbar und die sind in keiner Weise zzt. bei Nvidia durchgehend besser. Es ist schlicht und ergreifend gemischt.

Nö, die 980Ti ist eine gute Karte mit einem lausigen Referenz-Kühler (Hawaii-Ahoi). Zudem hatte ich bei dem Teil endlich mal Glück mit der ASIC. Ich wünsche AMD den Erfolg, allerdings - wenn es keinen echten Mehrwert (Performance min +15%) gibt, warum sollte ich wechseln?

Ich habe um AMD jedoch etwas Angst - die ganzen Diskussionen um TWIMTBP, Gameworks lassen AMD so langsam zu einem Produkt wie Windows Phone zu verkommen: Eigentlich geil, nur keiner nimmt es (mehr) wahr. Und wenn z.B. der Publisher von Project Cars kein Geld von NV erhalten haben will, warum steht dann an jedem verdammten Banner "NVIDIA" und nicht "PLAYBOY"?
Ich denke AMD hat alleine durch Mantle mehr Innovation in den Grafikkartenmarkt gebracht (DX12 ahoi), als es NV jemals gelungen ist, da im Endeffekt alle indirekt davon profitieren werden. Leider wird Fiji nicht ausreichen AMD nicht nur im GPU-Segment, zu einem Nischenprodukt werden zu lassen.

mczak
2015-06-23, 00:09:58
Für DP-->DVI braucht es doch keinen aktiven Adapter oder? Da muss es doch was passives für Dual-Link DVI geben. Hab leider grad keinen Adapter zu Hand, aber sind die nicht standardmäßig vielleicht als Dual-Link ausgeführt?
Nein das kann gar nicht gehen, DP hat schlicht zu wenig Pins (für DP->DVI passiv werden die 4 Leitungspaare von DP genutzt für die 3 Leitungspaare von single-link DVI + den separaten Takt und der AUX Channel von DP für den DDC von DVI - für dual-link DVI bräuchtest du noch 3 weitere Leitungspaare). DP hat schon noch ein paar Pins mehr aber die sind bloss Ground und ähnliches und können dafür nicht genutzt werden (DP hat insgesamt 20 Pins, DVI benutzt ohne analog 18 Pins single-link und 24 Pins dual-link).

samm
2015-06-23, 00:10:52
Das negative LOD-Bias flimmert nur mit Maxwell DX10+ ähnlich wenig wie Codas Referenz-Implementierung.
Ist aber auch relativ egal, SGSSAA ist eh tot und ohne würd ich alles daran setzen, ohne Bias zu filtern.
Ok, danke für die Info.
Wo SGSSAA läuft, setze ich es gerne ein. Keine Probleme mit der HUD-/Schrift-Skalierung etc. im Gegensatz zu D/VSR und bessere Glättung pro Leistungsverlust. Bin in Zeiten von Post-AA ein AA-Nostalgiker.

uweskw
2015-06-23, 00:23:16
....
Nvidia ist das Apple der Grafikkartenwelt. Traurig, sehr traurig.

.....


Blödsinn!
Ohne Apple hätten wir noch immer keinen Touch-Screen auf Handys und Tablets. Bei NV kannst du nach echten Innovationen lange suchen. Falls es mal was gutes gibt: proprietär :freak:
Die Entwicklung für uns Gamer treibt ein anderer voran. HBM, effizienteres DX12, echte Mehrkern Nutzung.....

greetz
US

horn 12
2015-06-23, 00:23:27
Fury X wird wohl so schnell werden wie eine Titan X mit um die 1,150 Mhz.
Doch durch den 4GB HMB Speicher verlässt AMD das Prestige-Objekt und vergleicht die Fury X Karte mit dem Preis und dem Speicher der GTX 980TI
Hier spielt man die Karten weitaus besser aus :-)

Obwohl Fury X beim Speicherverbrauch die GTX 980 hiner sich lassen kann,- und genau da will Fury X ansetzen: Preis, Leistung, Lautstärke und Ram-Verbrauch (Speicherverwaltung) besser als bei der Konkurrenz!
Dafür aber auch um die 10% Mehrverbrauch und eine AIO Kühlung welche Ihresgleichen sucht.

HOT
2015-06-23, 00:25:33
Im Moment habe ich in diesem Thread gerade ein ganz anderes Gefühl. Die bösen bösen nVidia Fans werden von einigen geradezu dämonisiert, obwohl diese sich eigentlich ziemlich zurückhalten (mit einigen wenigen Ausnahmen) und gespannt schauen, was da so kommt. Auch in der Hoffnung, dass AMD den Markt wieder belebt und spannender gestaltet.

Aber man muss sich offenbar sogar schon rechtfertigen, wenn man nicht dem gefühlten Underdog sein hart vedientes Geld gibt und sich statt dessen mit den gekauften Produkten des absolut skrupellosen und kindermordenden fast-Monpolisten wohl fühlt - sogar wenn diese ganz offensichtlich nicht das beste Preis/Leistungsverhältnis haben.

Man muss sich mehr oder weniger als krtitiklosen Dummkonsumenten, der offensichtlich zu beschränkt ist, die bösen bösen Machenschaften der Fa. nVidia zu durchschauen, beschimpfen lassen. Das nimmt hier echt überhand. Dieses enorme Zugehörigkeitsgefühl sich zusammen mit dem Underdog gegen die böse Welt zu stellen, das manche an den Tag legen, ist schon fast unheimlich. Wär ein gefundenes Fressen für Freud...

Das hast du einfach falsch verstanden. Es geht nie darum jemanden zu diffamieren, weil er NV bevorzugt. Das ist eine ganz subjektive private Entscheidung, die jeder fuer sich treffen muss.
Das erinnert viel mehr an die CPU Diskussionen von frueher. Wenn man nur die Produkte betrachtet steht NV bis auf die 970 auch gut da. Viele interessieren sich aber auch fuer die politische Tragweite, wenn so ein Hersteller davon auch noch profitiert, so schweinisch vorzugehen und damit auch noch durchkommt - also nicht wegen der guten eigenen Produkte gekauft wird, sondern wegen der vermeintlich schlechten der Konkurrenz.
Man kann da nur in wirklichkeit niemandem einen Vorwurf machen, da Konkurrenz nunmal ein scheiss Konzept ist, das sich grad Ueberlebt aber das wuerde zu weit fuehren hier. Mich regt da nur immer noch auf, dass dass soviele disses bloede Spiel noch mitmachen. Also wird Fiji wieder unter Wert verkauft und NV faehrt weiter die dicken Gewinne ein bis es dann wirklich nur noch ein Monopol gibt und alle am heulen sind dass es keinen Fortschritt mehr gibt...

gedi
2015-06-23, 00:32:25
HL2 hatte ich auch getestet, 0 Pixel Abweichung.
Maxwell ist insgesamt aufgrund des gefixten LOD-Bias mit HQ sogar noch besser als Fermi/G80.
Der HQ-Modus war zum Launch kaputt, den "klassischen" HQ-Modus von G80 konnte man die ganze Zeit über aber mit Q ohne tril. Optm. nutzen.

Oha - ich habe eine 9800GT von afair Gainward hier noch irgendwo rumliegen und werde dann nochmals vergleichen und entsprechende Ergebnisse, selbst wenn sie zu meinen Ungunsten ausfallen, posten.

uweskw
2015-06-23, 00:37:48
Was soll denn "BQ" sein?
Ich hatte Screenshots aus dem Filtertester verglichen, 9600 GT und GTX 970 liefern völlig pixelgleiche Ergebnisse.


pixelgleiche Ergebnisse?
Mit AA und AF ?
glaubst du doch wohl selber nicht! Aber das gehört nicht hier her. Kannst gerne einen extra Thread dafür aufmachen.
Dich mal ausgenommen....:wink: Warum müssen hier so viele das Haar in der Suppe suchen und verkünden bevor sie serviert ist? Und eben besonders die, die sich niemals eine AMD Karte holen würden.

greetz
US

Unicous
2015-06-23, 00:38:44
Meine Fresse: Dieses dämliche OT-Rumgekeife.

Charlie hat ein paar nette Details zu Fury (X) gepostet:

http://semiaccurate.com/2015/06/22/amd-talks-fiji-fiji-x-odd-bits-tech/

Nakai
2015-06-23, 00:51:49
Meine Fresse: Dieses dämliche OT-Rumgekeife.

Charlie hat ein paar nette Details zu Fury (X) gepostet:

http://semiaccurate.com/2015/06/22/amd-talks-fiji-fiji-x-odd-bits-tech/


Den Artikel wollt ich auch grad posten.
Wenigstens mal wieder ein produktiver Beitrag, in den gefühlt 20 letzten Seiten. Naja, er hat alles nett zusammengefasst, mehr nicht. 2MB L2-Cache klingen ganz gut. Dass HBM ein bisschen anders zu handeln ist, als GDDR5 war klar, das mit den Timings ist aber ganz interessant. Man weiß nur nicht, wie HBM auf die Performance einschlägt.

Ansonsten kann man diesen Thread derzeit nur meiden. Sehr interessanter Shitstorm gerade. Da frage ich mich gerade, ob sich unsere Redakteure hier einen ins Fäustchen lachen, wenn sie den derzeitigen furiosen Shitstorm mitverfolgen.:freak:

Ravenhearth
2015-06-23, 00:57:57
Wenn man sich mal die Performance der 390X ansieht, dann erwarte ich für Fiji ziemlich genau 980 Ti-Performance @ Stock. Bei 1080p 5% drunter, bei 1440p gleichauf, bei 4K 5% schneller.

Dural
2015-06-23, 01:00:15
Wenn man sich mal die Performance der 390X ansieht, dann erwarte ich für Fiji ziemlich genau 980 Ti-Performance @ Stock. Bei 1080p 5% drunter, bei 1440p gleichauf, bei 4K 5% schneller.

das könnte ziemlich gut eintreffen, so lange der speicher reicht. das dumme für amd ist nur das sich gm200 ziemlich gut takten lässt.

ich bin kurz davor mir eine tx zu bestellen. die ich nie wollte...
man stelle sich das ergebnis nur mal vor wenn amd kein hbm und wakü hätte, da muss gewaltig viel passieren um mit pascal mit halten zu können.

Ravenhearth
2015-06-23, 01:11:32
man stelle sich das ergebnis nur mal vor wenn amd kein hbm und wakü hätte, da muss gewaltig viel passieren um mit pascal mit halten zu können.

Für die nächste Generation gibt AMD zumindest 2x Perf/W an, Nvidia für Pascal "nur" 1.66x. Vielleicht verbessert AMD was an der Architektur oder vielleicht stellt AMD auf Samsung 14nm her, während NV auf TSMC 16FF+ herstellt. Und ist bei NV schon HBM eingerechnet, vielleicht bei beiden, trotz Fiji? Keine Ahnung. Wir wissen auch nicht, wie verlässlich die Angaben sind.

aufkrawall
2015-06-23, 01:12:20
pixelgleiche Ergebnisse?
Mit AA und AF ?
glaubst du doch wohl selber nicht!
Ich glaube nicht, ich messe. Und von AA war keine Rede.

gedi
2015-06-23, 01:13:39
Den Artikel wollt ich auch grad posten.
Wenigstens mal wieder ein produktiver Beitrag, in den gefühlt 20 letzten Seiten. Naja, er hat alles nett zusammengefasst, mehr nicht. 2MB L2-Cache klingen ganz gut. Dass HBM ein bisschen anders zu handeln ist, als GDDR5 war klar, das mit den Timings ist aber ganz interessant. Man weiß nur nicht, wie HBM auf die Performance einschlägt.

Ansonsten kann man diesen Thread derzeit nur meiden. Sehr interessanter Shitstorm gerade. Da frage ich mich gerade, ob sich unsere Redakteure hier einen ins Fäustchen lachen, wenn sie den derzeitigen furiosen Shitstorm mitverfolgen.:freak:

Ein Indiz für ein handfestes NDA :tongue:

Digidi
2015-06-23, 01:39:20
Mal eine Frage wieviel Tops hat denn die Fury eigentlich? 64 oder 128? In der Presentation sind 64 in gepuzzelt 128. was stimmt den da nun?

Ravenhearth
2015-06-23, 02:07:17
64.

CompuJoe
2015-06-23, 04:39:10
Ich sage nur + ~10% xD mehr darf ich nicht

War ein langer Tag bzw. Nacht und war sehr interessant, nur blöd das ich die Nacht geopfert habe, in 2 Stunden geht es ohne Schlaf auf Arbeit -_-

Leonidas
2015-06-23, 05:01:30
AMD braucht mehr Kontakt mit uns, dann treffen die bessere Entscheidungen.

+~

Ich würde mich gern vor die ganzen Produktmanager aufbauen und in die Runde fragen ... "Was, Ihr lest hier nicht jeden Tag mit? ... Allesamt umgehend gefeuert!". Die Jungs haben IMO Ohr an Masse zu haben, das ist Part of the Job. Und die würden so viele lächere Anfängerfehler verhindern ...

Dawn on Titan
2015-06-23, 06:57:30
Welche Fehler?

HDMI/DVI sind völlig egal, wer ne Fury kauft sollte auch eine Freesync Monitor erwerben.
AiO Wakü sorgt für lautloses Gaming mit einer kalten Karte.
Super kompakte Karte
technologischer Durchbruch mit HBM - good Memories
preiswerter als der grüne Schrott

Sorry, hier wird über Kleinigkeiten diskutiert. Der fehlende DVI scheint schlimmer als die Speicherlüge bei dem 970er Krüppel.

R.I.P.
2015-06-23, 07:15:19
Catalyst 15.6 ist da und CB hat ein nettes Twitter Foto gepostet
https://twitter.com/amd_roy/status/613053731018510336

Dorn
2015-06-23, 07:24:48
Sorry, hier wird über Kleinigkeiten diskutiert.

Dafür ist ein Forum da. :wink:

chetigol
2015-06-23, 07:59:10
Welche Fehler?

HDMI/DVI sind völlig egal, wer ne Fury kauft sollte auch eine Freesync Monitor erwerben.
AiO Wakü sorgt für lautlases Gaming mit einer kalten Karte.
Super kompakte Karte
technologischer Durchbruch mit HBM - good Memories
preiswerter als der grüne Schrott

Sorry, hier wird über Kleinigkeiten diskutiert. Der fehlende DVI scheint schlimmer als die Speicherlüge bei dem 970er Krüppel.

Möglich, dass das jetzt für dich Kleinigkeiten sind, aber jeder hat halt andere Prioritäten! Und in AMDs derzeitiger Lage sollten sie eher daran denken möglichst viele potentielle Kunden zu erreichen.

Es gibt sicher einige, die auf Fury warten um dann zwischen 980Ti und dieser zu entscheiden (ich bin einer davon) - und wenn AMD der Meinung ist DVI weglassen zu müssen (auch wenn es fortschittlich sein mag), sie verlieren einen Teil der potentiellen Käufer.

Kein DVI -> auch wenn es endlich ein Hersteller wagt, sie verlieren dadurch Kunden, die nicht bereit sind sich deshalb einen neuen Monitor zu kaufen.

Falls FuryX nur mit WaKü -> Falls diese nicht ins Gehäuse passt, werden wieder einige zur Ti greifen (Dieser Punkt trifft auf mich zu) - kauf mir sicher kein neues Gehäuse.

Falls Nano Ohne HDMI 2.0 / HDCP -> Tolle Lösung für einen Leistungsstarken, kompakten Wohnzimmer/Multimedia PC - ohne HDCP/HDMI 2.0 gehts leider nicht.

Ist halt die Frage, wie AMD besser aussteigt. Durch die Einsparungen für Lizenzen,... oder durch den Verlust der Kunden.

Lowkey
2015-06-23, 08:03:11
Woran ging Abit Pleite? Die Firma hat es gewagt alle PS/2, Com1 und Parallel1 Schnittstellen am Mainboard hinten zu entfernen.

Ich kaufe mir nun eine 700 Euro Karte nicht, da sie nicht an meinen 100 Euro Bildschirm paßt?

Loeschzwerg
2015-06-23, 08:05:33
Meine Fresse: Dieses dämliche OT-Rumgekeife.

Charlie hat ein paar nette Details zu Fury (X) gepostet:

http://semiaccurate.com/2015/06/22/amd-talks-fiji-fiji-x-odd-bits-tech/

Hm... erst mal danke für den Link und die Rückführung zu einer "Diskussion" :)

One word of warning should you buy a Fiji and molest it in various ways that overclockers and enthusiasts normally do, be careful. If you look at the above picture you can see the pretty patterns on the interposer, they look good but don’t taste good. If you want to clean off the thermal paste and replace it with your own cooling solution, be really careful of these areas. Why? Because the interposer, basically a chip, is mounted face up, it is not a traditional flip chip part with the transistors and metal layers protected by the wafer, they fragile bits are on top this time.

How fragile? Don’t touch them, don’t wipe them off, and otherwise don’t do anything that could break a far sub-micron metal trace. It is really fragile and you will destroy your very expensive GPU if you do this, don’t say we didn’t warn you. This is a tech transition that hasn’t been seen since the days when flip chips replaced wire bonding so think back to the bad old days before you mod. Really, be careful or you will end up with an expensive 4GB, water-cooled doorstop.

Ist das nicht ein wenig übertrieben?

Botcruscher
2015-06-23, 08:10:58
Woran ging Abit Pleite? Die Firma hat es gewagt alle PS/2, Com1 und Parallel1 Schnittstellen am Mainboard hinten zu entfernen.
Ich kaufe mir nun eine 700 Euro Karte nicht, da sie nicht an meinen 100 Euro Bildschirm paßt?
Abit ging pleite weil der Support extrem mies war und die Boards relativ anfällig. Dazu kein Standbein im Mainstreammarkt. Bei DFI stimmte wenigstens die Qualität.

Die meisten werden ganz sicher eine 700€ Karte an einem Billigmoni betrieben. Wegen ein paar Euro weniger haben sich auch 16:9 Monitore durchgesetzt. Hat ja 24"...

Der Anteil "das schnellste"-Käufer dürfte locker bei 1/3 liegen. Geld spielt keine Rolle und Know How wird nicht gebraucht.

Noebbie
2015-06-23, 08:17:25
Habe eben mal nachgesehen, da ich damals nicht darauf geachtet hatte.

Meine Freundin hatte sich vor 2 Monaten einen neuen Monitor zugelegt. Nichts allzu teueres, aber immerhin ein AMVA Panel von BenQ in 24" zum normalen arbeiten und zocken. Und selbst der hat ein DVI und Displayport. Von einem nativen HDMI ist da an dem Teil nichts zu sehen ;)

Wäre auch das letzte was ich an einem solchen Monitor suchen würde.

Dawn on Titan
2015-06-23, 08:19:46
Gibt ja nun wirklich genug Dual Link Display Port to DV-I Adapter, wenn man seinen uralt Monitor behalten will.

tm0975
2015-06-23, 08:22:16
Kein DVI -> auch wenn es endlich ein Hersteller wagt, sie verlieren dadurch Kunden, die nicht bereit sind sich deshalb einen neuen Monitor zu kaufen.

Falls Nano Ohne HDMI 2.0 / HDCP -> Tolle Lösung für einen Leistungsstarken, kompakten Wohnzimmer/Multimedia PC - ohne HDCP/HDMI 2.0 gehts leider nicht.

es gibt immer welche, die sich von dem alten kram nicht klösen können. ich persönlich würde mich freuen, wenn einzig und allein DP übrig bleibt und standard ist. von dvi und vor allem hdmi hab ich die nase voll...

außerdem gibt es auch tv-geräte mit dp. und die unterstützen sogar sat-ip!

http://www.heise.de/preisvergleich/?cat=tvlcd&xf=122_DisplayPort#xf_top

hmm, feines teil:

http://www.heise.de/preisvergleich/panasonic-tx-65axw804-a1085699.html?v=l&hloc=at&hloc=de

chgamauf
2015-06-23, 08:28:48
Hm... erst mal danke für den Link und die Rückführung zu einer "Diskussion" :)



Ist das nicht ein wenig übertrieben?

Bei den Prozessen die ich kenne ist der letzte Silizium Oxid/Nitrid Stack ca 1-2um dick. Bei neueren Prozessen eher dünner als dicker. Mit einer Nadel kann man ganz leicht eine darunter liegende Leiterbahn kontaktieren(schon etliche male gemacht). Somit würde ich eher nicht auf dem Memory herumwischen.

Screemer
2015-06-23, 08:30:19
Gibt ja nun wirklich genug Dual Link Display Port to DV-I Adapter, wenn man seinen uralt Monitor behalten will.

Was haben 2 bis 3 jahre alte Geräte mit uralt zu tun? Ich werde meinen 27'' Koreaner ganz sicher nicht entsorgen. Andere haben ähnlich gute Geräte zu nem noch höheren preis ohne dp erworben und denken wohl genau so. Alle die sich große Monitore für gutes Geld gekauft haben und dabei dp außer acht gelass n haben sind die gebrachten. Für mich ist Fiji damit raus. Mit 20-40€ für nen Adapter konnte jch gerade noch leben aber >100€ geb ich sich nicht noch mal ectra aus.

Auch wenn das ganze jetzt von einigen hier klein geredet wird, ist das für andere durchaus ein Problem.

ilibilly
2015-06-23, 08:34:55
Mich interessiert Atm nur nich inwiefern sich die fury oc'n lässt,Leistung dürfte sich ja nach den Leaks 5-10% vor ti liegen.
Wobei eigentlich fast jede Customer ti,insbesondere G1 locker bis 1400-1450 laufen,da sind gleich 20-25% mehr als Stock,da dürfte es Fiji schwer haben falls sie nicht auf 1300 geht.
Es wird spannend ,bei fast gleicher Performance entscheiden halt Kleinigkeiten wie 6gbvs4gb oder hdmi2.0.
Ich kann mir aber gut vorstellen das. Fury unter dx12 richtig abgeht,immerhin werden auch one Games auf dx12 Basis entwickelt ,da dürfte die gcn Technik bevorteilt sein.
Fast alle neuen Games werden ja auf ps4 und one optimiert,dadurch sollte Amt auch im pc Bereich vorteile haben.

akuji13
2015-06-23, 08:40:38
HDMI/DVI sind völlig egal, wer ne Fury kauft sollte auch eine Freesync Monitor erwerben.

Ich hab einen, für den Dauerbetrieb ist der nicht für mich geeignet...denn aktuell gibts leider nur viel zu kleine FreeSync Geräte. :D

Wäre schon schön wenn man jetzt eine X kaufen könnte und dann abwarten bis was passendes für einen erscheint.

preiswerter als der grüne Schrott

Hobby = Geld verbrennen.
Und eine Fury X ist wohl kaum geeignet zu sparen. :wink:

Der fehlende DVI scheint schlimmer als die Speicherlüge bei dem 970er Krüppel.

Für mich zählen ATIs und AMDs alte Verfehlungen nach wie vor, daran ändert deren Fusion nichts.
Für mich ist das kein neues Unternehemen mit einer neuen Einstellung, sondern der gleiche Laden wie schon immer.

Ich betrachte Firmen/Konzerne dieser Größenordnung grundsätzlich als "böse", egal ob AMD, NV, Samsung, LG, Apple usw.
Die wollen mein Geld und sonst nix, ich bin denen völlig egal.

Die einzig richtige Konsequenz wäre von keinem mehr etwas zu kaufen.
Aber da bin ich inkonsequent, dafür ist mir das Hobby noch zu wichtig.

Der fehlende DVI ist für mich "schlimmer", denn das ist aktuell und schränkt mich persönlich ein.
So kann ich z. B. meine älteren Monitore nicht mehr daran betreiben.

Die haben übrigens trotz IPS ein richtiges Schwarz ohne glow im Gegensatz zu den aktuellen. ;)
Nachvollziehbar das man den nicht tauschen will.

Es ist allerdings für mich auch kein Auschlußkriterium, denn eine Fury soll zusätzlich angeschafft werden.
Wer aber "nur" 1 Karte hat/braucht für den sieht das schon ganz anders aus.

Dawn on Titan
2015-06-23, 08:50:05
Was haben 2 bis 3 jahre alte Geräte mit uralt zu tun? Ich werde meinen 27'' Koreaner ganz sicher nicht entsorgen. Andere haben ähnlich gute Geräte zu nem noch höheren preis ohne dp erworben und denken wohl genau so. Alle die sich große Monitore für gutes Geld gekauft haben und dabei dp außer acht gelass n haben sind die gebrachten. Für mich ist Fiji damit raus. Mit 20-40€ für nen Adapter konnte jch gerade noch leben aber >100€ geb ich sich nicht noch mal ectra aus.

Auch wenn das ganze jetzt von einigen hier klein geredet wird, ist das für andere durchaus ein Problem.

Da gibst Du dann lieber 400 Euro extra für ne Titan X oder kauft Dir eine brüllend laute und riesige 980ti, die auch noch deutlich teurer ist? ;D

chetigol
2015-06-23, 08:52:34
Woran ging Abit Pleite? Die Firma hat es gewagt alle PS/2, Com1 und Parallel1 Schnittstellen am Mainboard hinten zu entfernen.

Ich kaufe mir nun eine 700 Euro Karte nicht, da sie nicht an meinen 100 Euro Bildschirm paßt?

Die Frage mit dem Monitor stellt sich bei mir zwar nicht - aber eine durchaus ähnliche mit dem Gehäuse: Ja, ich kaufe mir eine 700 Euro Karte nicht, weil sie nicht in mein 120 Euro Gehäuse passt! Und dabei geht es mir garnicht ums Geld - der Aufwand, bin zufrieden mitm Gehäuse - es passt noch für mich und will mir einfach kein neues kaufen.

akuji13
2015-06-23, 08:56:39
@Dawn on Titan

Witzig das zu 290X Zeiten die Lautstärke aus dem AMD Lager immer kleingeredet wurde. :wink:

Es kommen übrigens auch leisere custom-980 TIs.

mironicus
2015-06-23, 08:57:09
Der Erwerb eines AMD-Produkts ist immer mit Kompromissen verbunden. :D

Entweder brauche ich
- ein neues Gehäuse
- einen neuen Monitor (oder kann bestimmte nicht mehr verwenden)
- einen speziellen 4K-Fernseher mit Displayporteingang für Nutzung als 4K-Gaming HTPC

Und jetzt hängt es davon ab ob man AMD mag oder nicht.

(del676)
2015-06-23, 09:02:12
@Dawn on Titan

Witzig das zu 290X Zeiten die Lautstärke aus dem AMD Lager immer kleingeredet wurde. :wink:

Wirklich? Hat das jemand? Dann mal her mit den Links und belege deine Aussage.
Ich selbst hab ueber die Referenz 290er geschimpft. Vor allem, weils Spulenfiepen lauter war als der Luefter. :freak:

Aendert nichts an der Tatsache, dass eine Tripleslot 290er eine der leisesten Karten ueberhaupt ist.

radical83
2015-06-23, 09:09:18
es gibt immer welche, die sich von dem alten kram nicht klösen können. ich persönlich würde mich freuen, wenn einzig und allein DP übrig bleibt und standard ist. von dvi und vor allem hdmi hab ich die nase voll...

außerdem gibt es auch tv-geräte mit dp. und die unterstützen sogar sat-ip!



Die 2014 Panasonic Serie war allerdings eine Ausnahmeerscheinung.
Bei den 2015er Geräten gibt es keinen DisplayPort mehr.

Ich persönlich kann auf DVI verzichten. Das vorrausichtlich nur HDMI 1.4 geboten wird schmerzt deutlich mehr.
Den Unmut derjenigen, die auf DVI angewiesen sind und nicht bereit sind ihren Monitor zu tauschen kann ich jedoch nachvollziehen.
Freesync ist für mich kein haltbares Argument für den Wechsel angesichts der aktuell nur wenigen erhältlichen Monitor.

Dawn on Titan
2015-06-23, 09:11:38
@Dawn on Titan

Witzig das zu 290X Zeiten die Lautstärke aus dem AMD Lager immer kleingeredet wurde. :wink:

Es kommen übrigens auch leisere custom-980 TIs.

Also ich habe mich über die Referenz ausgiebig lustig gemacht. :smile:

Wobei ich zugebe, dass die Referenzkühler der 980-Titan X für Referenzkühler und DHE Design wirklich gut sind und auch sehr wertig aussehen und sich gut anfassen. Was die Verarbeitung angeht ist man da auch über der Fury X.

dlux
2015-06-23, 09:13:48
Ich werde meinen 27'' Koreaner ganz sicher nicht entsorgen.
Alte Monitore muss man nicht entsorgen, man kann sie auch über Ebay usw. verkaufen.

Sowas würde ich normaleweise nicht erwähnen, aber das scheint vielen entgangen zu sein.

uweskw
2015-06-23, 09:19:14
Hier eine 980Ti mit WaKü.

http://geizhals.de/evga-geforce-gtx-980-ti-hybrid-06g-p4-1996-kr-a1275061.html?hloc=at&hloc=de&hloc=uk

Kostet auch nicht mehr als andere Customs. Dementsprechend sollte der WaKü-Aufschlag bei Fury X eigentlich nicht so viel ausmachen.
Wir haben hier doch genug die bei HW-Versendern arbeiten. Kann da mal jemand was zur lieferbarkeit von Fury sagen?

greetz
US

mironicus
2015-06-23, 09:19:19
Alte Monitore muss man nicht entsorgen, man kann sie auch über Ebay usw. verkaufen..

Ne, so etwas nimmt man mit ins Grab. Du verbringst mehr Zeit im Leben auf den Monitor zu gucken als auf deinen Partner. :freak:

y33H@
2015-06-23, 09:20:02
Ist das nicht ein wenig übertrieben?Ein wenig ... dennoch bat AMD bei dieser Karte explizit darum, die Karte nicht zu zerlegen für den Test, sofern es nicht unbedingt nötig sei (auf dem Tech Day konnte man sich den Küühler etc sowie in Ruhe anschauen).

Dural
2015-06-23, 09:22:21
ja wir alle wissen was mit den Anschlüssen jetzt Sache ist. Man kauft auch seit Jahren nur noch Monitoren mit DP, selber schuld sage ich da nur. :wink:

Ich denke Fury hat noch ganz andere "Probleme" als die Display Diskussionen vermuten lassen. Mir wären bei 4K die 4GB so wie so zu wenig.

mironicus
2015-06-23, 09:25:40
Ich denke Fury hat noch ganz andere "Probleme" als die Display Diskussionen vermuten lassen.

4 GB... :freak:

Hätte NVidia das gemacht: Die GTX 980 mit 8 GB, die Titan X 4 GB mit HBM weil sie unbedingt die ersten sein wollten, die das bringen. Das wäre der größte Shitstorm aller Zeiten gewesen. ;D

BlacKi
2015-06-23, 09:26:55
aber pauschal kann man schon sagen das man auf dem TV nicht mit ner AMD karte 4k gamen kann.

mironicus
2015-06-23, 09:30:41
aber pauschal kann man schon sagen das man auf dem TV nicht mit ner AMD karte 4k gamen kann.

4K mit 30 FPS ist aber möglich. :freak:

Dural
2015-06-23, 09:31:10
pauschal kann man sagen das alle Chips für 4K zu langsam sind, eventuell könnte man mit einem TX SLI @ 1500MHz genug Leitung haben, aber halt die Nachteile von SLI. (und natürlich den Preis...)

derF
2015-06-23, 09:36:28
4 GB... :freak:

Hätte NVidia das gemacht: Die GTX 980 mit 8 GB, die Titan X 4 GB mit HBM weil sie unbedingt die ersten sein wollten, die das bringen. Das wäre der größte Shitstorm aller Zeiten gewesen. ;D
Wahrscheinlich nicht, denn den haben sie schon für die 970 verdient bekommen.
Und diesen Thread bringt es unheimlich voran, wenn ihr alle 5 Posts wieder erwähnt, dass 4 GB nicht für 4k reichen... Das ist wohl kein Shitstorm?

mironicus
2015-06-23, 09:40:14
Die Speichergröße wird einen nicht unerheblichen Bestandteil der Kritik in den Reviews ausmachen. Wir haben uns in letzter Zeit ja eher auf andere Dinge konzentriert. :)

Man kann sich ja viele Dinge schönreden als Fan, aber in den Reviews wird das nicht gemacht werden und hier muss das auch nicht gemacht werden.

r3ptil3
2015-06-23, 09:42:18
4 GB... :freak:

Hätte NVidia das gemacht: Die GTX 980 mit 8 GB, die Titan X 4 GB mit HBM weil sie unbedingt die ersten sein wollten, die das bringen. Das wäre der größte Shitstorm aller Zeiten gewesen. ;D

Das ist doch nur eine Sache wie man es argumentiert und verkauft. Nicht optimal, aber bei weitem nicht so schlimm wie du es darstellst.

Kann man sagen wieviel Strom Fiji etwa mit herkömmlichen GDDR5 Speicher gezogen hätte?

Dural
2015-06-23, 09:45:32
NV musste es sich bei der 970 und 980 auch anhören das zu wenig Speicher verbaut ist, und die ach so tolle 290X 8GB die bessere Wahl sei.

Komischerweise waren das genau die selben User die jetzt sagen das 4GB genug sind. :wink:

Ich habe schon bei der 980 damals gesagt das 8GB schön wären, NV es aber sicher vorerst nicht bringen wird.

Godmode
2015-06-23, 09:55:19
Aber bei NV, na da weiss man gar nicht wo man anfangen soll...
1.) 970-Verarsche mit der verunstalteten Speicheranbindung
2.) 4GB-Verarsche bei der 980, die Notebook-Variante hat 8GB
3.) TitanX-Verarsche - Kunden vorher abgezockt und dann mit der 980ti abgezogen
4.) Notebook-Übertaktungs-Verarsche
5.) plötzlich-langsamer-Kepler-Verarsche
6.) Irreführende Werbung und Pressematerial bezüglich der 970
7.) GSync-Verarsche mit dem bekackten Modul, das keiner braucht und in Notebooks und OEM-Desktops gar nicht nötigt ist
8.) PhysX-Ausschluss-Verarsche wenn eine AMD-GPU im System ist
9.) ach gott, da lassen sich noch zig weitere finden...

und die Presse regt sich über den exklusiven 300er-Treiber auf, da kann ich nur drüber LACHEN.
Die Menschen lassen sich gern verarschen, aber der RICHTIGE muss es tun.

Und es sind die GLEICHEN Leute(!) die sich über eine 4GB FuryX für 650€ inclusitver WaKü, die ja auch nicht billig ist, aufregen BEI DER DAS WIKLICH (!) HARDWAREBEDINGT so ist und vorher ne 980 mit 4GB für 600€ besorgt haben.

Das ist zwar schon ziemlich OT hier, aber bei der TX wusste man doch, das auch noch eine billige Version ala 980 Ti kommen wird, dafür mit weniger Speicher. Das ist doch ganz normale Produktpolitik? Oder siehst du einen 5960X auch als verarsche, zwei mickrige Kerne mehr, dafür gleich mal fast 50% Aufpreis?

Bei den anderen Punken kann ich aber zustimmen.

Und jetzt noch einmal zu den 4GB: Ich habe mich bei der 980 (SLI) schon über die 4 GB geärgert, allerdings muss gesagt werden, dass die 980 schon seit ca. 9 Monaten verfügbar ist. Ich hatte davor Titan SLI mit 6 GB und bin dann auf 980 SLI umgestiegen. Solange der VRAM gereicht hat, waren die 980er klar schneller. Die Leistung hätte zwar für 4K gereicht, aber der VRAM nicht in jedem Spiel, daher hab ich mich über den Kauf sehr geärgert. Gerade Assassin's Creed Unity in 4K hatte mir damals gefallen, aber das lief leider nicht gut.

Bei Fiji hätte ich etwas mehr nachsehen, da es eben eine technische Limitierung ist, andererseits sind jetzt wieder ca. 9 Monate vergangen und der VRAM Verbrauch ist sicher nicht zurück gegangen. Man kann nur hoffen, dass sie den Speicher besser nützen und die 4GB die Karte nicht zu oft ausbremsen. Morgen wissen wir hoffentlich mehr.

Schnoesel
2015-06-23, 09:56:00
Schön das wir wieder bei den 4GB Speicher sind, das wurde noch nicht ausführlich diskutiert ... Ehrlich so viel Schund wie hier steht kann man den Thread eigentlich auch dicht machen. Wurde im Titan Thread im Vorfeld auch so viel gehatet?

Was wollen all diese Leute hier die offensichtlich keinerklei Interesse an Fiji haben? Ehrlich Frage was ist eure Agenda? Ich verstehe es ehrlich gesagt nicht. Um Fiji gehts hier doch nur noch am Rande, der Mehrzahl der Posts ist der übliche Grabenkampf und nervt einfach nur noch.

mironicus
2015-06-23, 09:58:13
Als Kritiker kann man aber bei dem AMD-Produktfolio mit dem Finger auf die R390 mit 8 GB zeigen, die halb so teuer ist wie die Fury X.

Wie bringe ich es den Kunden bei, das HBM so geil ist das ich für den doppelten Preis der R390 auf den doppelten Speicher der R390 verzichte...? Das finde ich... schwierig.

BlacKi
2015-06-23, 09:59:27
naja, die dual dvi nutzer könnten sich auch einfach eine billiger nvidia karte kaufen, und hätten damit 144hz und sogar physix. leider können die intel chips keine 120/144hz.

diejenigen die 4k60 auf hdmi 2.0 nutzen wollen könnten auf skylake umsteigen.

akuji13
2015-06-23, 10:01:50
Wurde im Titan Thread im Vorfeld auch so viel gehatet?

Ja.

derF
2015-06-23, 10:03:22
Als Kritiker kann man aber bei dem AMD-Produktfolio mit dem Finger auf die R390 mit 8 GB zeigen, die halb so teuer ist wie die Fury X.

Wie bringe ich es den Kunden bei, das HBM so geil ist das ich für den doppelten Preis der R390 auf den doppelten Speicher der R390 verzichte...? Das finde ich... schwierig.
Ja, weil alle Kunden so unterbelichtet sind, dass sie ein Produkt nicht an verschiedenen Eigenschaften anhand ihrer eigenen Anforderungen einordnen können. Was für ein Schmarrn.

Schnoesel
2015-06-23, 10:05:02
Ja.
Traurig

Pirx
2015-06-23, 10:06:08
Als Kritiker kann man aber bei dem AMD-Produktfolio mit dem Finger auf die R390 mit 8 GB zeigen, die halb so teuer ist wie die Fury X.

Wie bringe ich es den Kunden bei, das HBM so geil ist das ich für den doppelten Preis der R390 auf den doppelten Speicher der R390 verzichte...? Das finde ich... schwierig.
Es geht hier um die technische Seite, die du noch gar nicht beurteilen kannst ohne Testberichte. Was auch du kannst ist, diesen Thread seitenlang zuzuspammen.
Dir und anderen geht es doch gar nicht um die Diskussion der technischen Eigenschaften der neuen Karten, sondern nur darum, diese mit einzeln herausgepickten Punkten schlechtzumachen, ein unmögliches Verhalten.

BlacKi
2015-06-23, 10:07:52
Ja, weil alle Kunden so unterbelichtet sind, dass sie ein Produkt nicht an verschiedenen Eigenschaften anhand ihrer eigenen Anforderungen einordnen können. Was für ein Schmarrn.
versucht neuerdings amd nur noch für nicht dumme grafikkarten zu entwickeln?

ach stimmt, für die anderen gibts ja das r300 portfolio...

dlux
2015-06-23, 10:10:34
Kann man sagen wieviel Strom Fiji etwa mit herkömmlichen GDDR5 Speicher gezogen hätte?
Laut AMD etwa 30W mehr bei einer Bandbreite von 450 bis 500 GB/s.

http://i.imgur.com/kRFn5pv.png

Matrix316
2015-06-23, 10:16:04
Fury X in freier Wildbahn. ;)

https://instagram.com/p/4QMctRybBU/?taken-by=linustech

Ätznatron
2015-06-23, 10:17:33
versucht neuerdings amd nur noch für nicht dumme grafikkarten zu entwickeln?

ach stimmt, für die anderen gibts ja das r300 portfolio...


...sagt ausgerechnet der Herr mit der GTX 970!

Dural
2015-06-23, 10:18:10
Man muss halt auch mal Kritik einstecken können, es bringt ja auch nichts ein Produkt in den Himmel zu loben obwohl nicht alles rund ist.

Wie schon öfter von mir gesagt finde ich 2015 Grafikkarten mässig sehr bescheiden, liegt aber wohl auch daran das schon längst eine neue Fertigung zu Verfügung hätte stehen müssen. Ehrlich gesagt gibt es aktuell auch kein rundes Produkt auf dem Markt.

Fury X in freier Wildbahn. ;)

https://instagram.com/p/4QMctRybBU/?taken-by=linustech

Da sehen die Schläuche irgend wie länger aus als auch schon.

Skysnake
2015-06-23, 10:27:55
Möglich, dass das jetzt für dich Kleinigkeiten sind, aber jeder hat halt andere Prioritäten! Und in AMDs derzeitiger Lage sollten sie eher daran denken möglichst viele potentielle Kunden zu erreichen.

Es gibt sicher einige, die auf Fury warten um dann zwischen 980Ti und dieser zu entscheiden (ich bin einer davon) - und wenn AMD der Meinung ist DVI weglassen zu müssen (auch wenn es fortschittlich sein mag), sie verlieren einen Teil der potentiellen Käufer.

...

Falls Nano Ohne HDMI 2.0 / HDCP -> Tolle Lösung für einen Leistungsstarken, kompakten Wohnzimmer/Multimedia PC - ohne HDCP/HDMI 2.0 gehts leider nicht.

Ist halt die Frage, wie AMD besser aussteigt. Durch die Einsparungen für Lizenzen,... oder durch den Verlust der Kunden.
Also das ist doch Blödsinn. Auch die 980Ti (GM200) kann kein HDCP... Ergo dürfte man wohl gar keine kaufen oder was? HDMI2.0 ohne HDCP ist ziemlich nutzlos, weil bei der Sache geht es ja zum Großteil darum eben einen HTPC zu bauen, mit dem man dann auch 4k Medien (DRM) am Fernseher anschauen kann und gleichzeitig normal zocken. ohne HDCP wird das halt nur nichts.....

Und gerade für so kleine Dinger ist Fiji mit der Wakü wohl ziemlich geil, und erst recht die Nano. Die Leistung in der Bauform bekommste von nVidia nicht, und Baugrößte ist da schnell mal ein Problem. Die Dinger sollen ja meist so klein wie nur möglich werden.

Hm... erst mal danke für den Link und die Rückführung zu einer "Diskussion" :)
Ist das nicht ein wenig übertrieben?
Nein, würde ich jetzt nicht sagen. Es kommt halt immer darauf an, wie groß die Leiterbahnen noch sind. Da muss nicht mal zwingend eine Leiterbahn komplett kaputt gehen! Da könnte auch schon eine kleine Beschädigung einer Signalleitung dafür sorgen, das man Interferrenzen bekommt und es dann nicht mehr geht.

Man weiß ja auch nie, wie blöd sich die Leute anstellen... Ich würde das in die Kategorie mit dem Köpfen von CPUs packen. Man kann es eventuell durchaus machen, aber es kann verdammt viel schief gehen.

Ich würde dabei aber btw. auch eher davor respeckt haben, den Kühler wieder auf zu setzen, ohne den HBM durch falschen Druck zu beschädigen.

BlacKi
2015-06-23, 10:32:26
...sagt ausgerechnet der Herr mit der GTX 970!
ätschibätsch ich hab hdmi2.0 und dual dvi, und läuft super!

Botcruscher
2015-06-23, 10:39:08
Ein Kopierschutz ist dazu da umgangen zu werden. An irgend einem Punkt wird der ehrliche Käufer immer gefickt. Auf den Mist läst man sich am besten überhaupt nicht ein. HDCP sitzt eh an einem Punkt wo alles zu spät ist. Niemand greift Rohdaten zum Monitor ab.

Kartenlehrling
2015-06-23, 10:40:40
@BlacKi, wir sind aber schon bei HDMI2.0a.

mironicus
2015-06-23, 10:42:39
HDMI 2.0 dient vor allem zum Gaming mit max. 60 FPS, für Medienwiedergabe braucht man kein HDCP am PC. Und Netflix und andere Medien beherrschen die TVs sowieso schon von sich aus.

DrFreaK666
2015-06-23, 10:42:43
Was haben 2 bis 3 jahre alte Geräte mit uralt zu tun? Ich werde meinen 27'' Koreaner ganz sicher nicht entsorgen. Andere haben ähnlich gute Geräte zu nem noch höheren preis ohne dp erworben und denken wohl genau so. Alle die sich große Monitore für gutes Geld gekauft haben und dabei dp außer acht gelass n haben sind die gebrachten. Für mich ist Fiji damit raus. Mit 20-40€ für nen Adapter konnte jch gerade noch leben aber >100€ geb ich sich nicht noch mal ectra aus.

Auch wenn das ganze jetzt von einigen hier klein geredet wird, ist das für andere durchaus ein Problem.

Was? Ich kann nicht ohne Probleme 1440p nutzen, oder habe ich was falsch verstanden??

Botcruscher
2015-06-23, 10:43:54
In 120/144Hz.

BlacKi
2015-06-23, 10:45:59
@BlacKi, wir sind aber schon bei HDMI2.0a.
aber AMD noch nicht. für mich pers. ist hdmi 2.0 aktuell kein thema auch wenn ich schon mit dem gedanken gespielt habe mir nen 4K TV zu kaufen.

dual dvi ist mir pers. wichtiger.

für alle anderen die zb. einen htpc bauen wollen mit der nano ist hdmi 2.0(a) schon wichtig.

jetzt bringen die so eine kleine power karte für htpc und failen am hdmi 2.0...

ich würde mir wünschen das die das bis zum release noch fixen können.

Viel Vergnügen mit einer GTX 960.
netflix schaut man nicht über den htpc.

ich schaue spiel andere inhalte...

Ätznatron
2015-06-23, 10:49:46
für alle anderen die zb. einen htpc bauen wollen mit der nano ist hdmi 2.0(a) schon wichtig.

jetzt bringen die so eine kleine power karte für htpc und failen am hdmi 2.0...

Insbesondere für den Anwendungsfall Netflix unter 4K ist aber auch die Konkurrenz derzeit nicht gerüstet: Dafür wird sicherlich der Kopierschutz HDCP 2.2 benötigt, reicht allein HDMI 2.0 nicht aus. Letzteres bietet derzeit aber nur die GeForce GTX 960 in Kombination an – keine GeForce GTX 970, 980, 980 Ti und Titan X hat HDMI 2.0 samt HDCP 2.2 in der Checkliste stehen.

Viel Vergnügen mit einer GTX 960.

Skysnake
2015-06-23, 10:49:46
HDMI 2.0 dient vor allem zum Gaming mit max. 60 FPS, für Medienwiedergabe braucht man kein HDCP am PC. Und Netflix und andere Medien beherrschen die TVs sowieso schon von sich aus.
Wenn man kein HDCP braucht, dann ist DP an sich die bessere Wahl/Technologie

Undertaker
2015-06-23, 10:54:15
Wenn man wie bei nahezu allen TVs nun einmal nur HDMI und kein DP hat, tröstet das leider wenig.

(del676)
2015-06-23, 10:54:19
Wann genau ist NDA Ende?
Ich glaub ja nicht, dass es am 24. um 0:01 ist.

von Richthofen
2015-06-23, 10:57:22
Charlie schreibt in seinem Artikel (http://semiaccurate.com/2015/06/22/amd-talks-fiji-fiji-x-odd-bits-tech/)etwas von der Verwendung eines Nidec Lüfters.
From what we gather the water loop is made by Coolermaster so it should be a very solid and reliable piece of kit and the fan is a Nidec unit, again a good choice.

Auch vergleicht er Fiji mehrfach mit Hawaii. Wäre schon schade wenn man nicht mindestens auf Tonga IP Level wäre.

Malabolge
2015-06-23, 11:05:26
Bin jetzt gerade die letzten 10 seiten durchgegangen.

Virales Marketing at its Best !
Wieviel kriegt ihr eigentlich bezahlt dafür , die Karten schon vor (!) dem Launch niederzumachen.
Teilweise werden hier Haarsträubende Geschichten über fehlendes HDMI und Co erzählt.:eek:
Man könnte fast meinen die Fury kann gar kein Bild ausgeben.

Ach JA , hat einer von euch auch die 4gb erwähnt. Nicht das ihr das noch vergesst. :biggrin:

PS: Die Wasserkühlung - Mein Gott ,denkt den keiner an die Wasserkühlung !
und den Stromverbrauch - Die armen Atomkraftwerke !

Matrix316
2015-06-23, 11:13:31
Also ich sag jetzt mal so:
Wenn die Karte schnell genug ist...
UND
Wenn die Karte leise genug ist...
UND
Wenn die Karte nicht ZU teuer ist...
DANN:
Scheiß auf die 4 GB. ;)

OT: Was war eigentlich die letzte kleine High End Grafikkarte? Die X850XT?

y33H@
2015-06-23, 11:23:41
Also für meine Spiele/Settings bringt der 15.15 nichts ...
Wir haben nachgemessen: Der Catalyst 15.15 Beta steigert in den von uns genutzten Spielen, Szenen und Einstellungen die Bildrate verglichen mit dem Catalyst 15.5 Beta nicht. Was der Treiber verbessert, ist die Bildrate im SubD-Test des DirectX-SDKs von Microsoft. Mit einem Tessellation-Unterteilungsfaktor von 31 erhöht sich die Bildrate auf der Radeon R9 290X (1.040/5.000 MHz) von 23 auf 28 fps. In The Witcher 3 mit Hairworks, das Tessellation nutzt, und maximalen Details mit SSAO in 1440p stagniert die Bildrate dennoch bei 24 fps.

http://www.golem.de/news/radeon-r9-390-im-test-amds-neue-alte-grafikkarten-bekommen-einen-nitro-boost-1506-114750-2.html

Unicous
2015-06-23, 11:31:31
Charlie schreibt in seinem Artikel (http://semiaccurate.com/2015/06/22/amd-talks-fiji-fiji-x-odd-bits-tech/)etwas von der Verwendung eines Nidec Lüfters.


Auch vergleicht er Fiji mehrfach mit Hawaii. Wäre schon schade wenn man nicht mindestens auf Tonga IP Level wäre.

Es ist auf Tonga IP-Level. Das mit den Nidec-Lüftern kann, muss aber nicht stimmen. Vllt. hat AMD auch verschiedene Zulieferer da Scythe nicht genügend Lüfter liefern kann?

Es gibt ein paar Ungenauigkeiten aber auch ein paar interessante snippets die Charlie anspricht.

An sich nichts Weltbewegendes aber ich hatte vergeblich gehofft, dass das dumme OT-Gelaber mal eingestellt wird. Hat aber nicht geholfen.:rolleyes:

akuji13
2015-06-23, 11:31:40
Virales Marketing at its Best !
Wieviel kriegt ihr eigentlich bezahlt dafür , die Karten schon vor (!) dem Launch niederzumachen.

Das kann man auch umkehren:
Wieviel bekommt ihr dafür die Karte vor dem launch zu pushen? :wink:

Beides sind berechtigte Kritikpunkte.
Und vor allem welche die man bereits jetzt beurteilen kann im Gegensatz z. B. zur Kühlung.

Das dank HBM mein gemoddetes Skyrim oder die Problemkandidaten Watch Dogs oder Shadow of Mordor nun auch mit 4Gb flüssig laufen, daran mag ich noch nicht so recht glauben.

y33H@
2015-06-23, 11:35:31
Das mit den Nidec-Lüftern kann, muss aber nicht stimmen. Vllt. hat AMD auch verschiedene Zulieferer da Scythe nicht genügend Lüfter liefern kann?Alle mir bekannten Press-Samples haben die 3000 rpm Nidecs und die sind nicht als Scyte bzw Gentle Typhoon gelabelt.

Hübie
2015-06-23, 11:39:29
Schön dass die üblichen Verdächtigen wieder mal die HMS Niveau zum sinken bringen. Dämlicher kann man ja kaum argumentieren.

Zur 120-Hz-DVI-Geschichte:
Fiji hat ja auch HDMI 1.4(a?). Könnte ich nicht einfach einen Adapter darauf verwenden? Hab so einen glaub ich mal gesehen nur kein Plan ob auch 120 Hz@FHD damit gehen :|

Nightspider
2015-06-23, 11:40:45
Das mit DVI könnte bei mir auch ein Problem werden da ich vorerst bei meinem Koreaner mit 1440p und 120Hz bleiben wollte und der hat nur DVI.

Unicous
2015-06-23, 11:42:31
@y33H@

Achsooo. Hattest du nicht gesagt, es wäre ein Gentle Typhoon?:confused:

Ich könnte mir aber vorstellen, dass das eh nur umgelabeltes OEM-Zeug aus Asien ist und es im Endeffekt egal ist ob Scythe oder eine andere Firma draufsteht.

Gerade bei Lüftern und Kühlsystemen ist das ziemlich undurchsichtig und man kann nicht unterscheiden zwischen eigenen Produkten und zugekaufter Massenware.


edit:

:facepalm:


http://www.scythe-eu.com/en/press-room/press-releases/gentle-typhoon-case-fans-by-nidec-servo-corp.html

Scythe Co., Ltd. presents the new Gentle Typhoon case fans developed by the Japanese Nidec Servo Corporation. Eight versions in two different sizes (92 and 120 mm) with different speeds will be placed on the market at the same time.

Hatte Scythe nicht mal eine eigene Entwicklungsabteilung?:confused:

Hübie
2015-06-23, 11:53:01
https://m.alternate.de/productdetails.xhtml?p=73383

Sowas meinte ich. Frage ist nur ob das Ding 120 Hz macht. Mit 1.4 konnte ich auf nVidia mal ne custom Resolution 1920*1080*32*120 erstellen. Bei AMD geht's wahrscheinlich nicht oder?

y33H@
2015-06-23, 12:04:22
Achsooo. Hattest du nicht gesagt, es wäre ein Gentle Typhoon?Ja, denn der auf der Fury X entspricht dem D1225C12B7AP-29 mit 3000 rpm und 0,22 A: http://www.scythe-eu.com/en/products/fans/gentle-typhoon-120-mm-high-rpm.html

cobra38
2015-06-23, 12:04:29
@Hübie, @Nightspider

Der StarTech DP2DVID Adapter (Displayport auf Dual Link DVI) müsste funktionieren.
Eventuell mal bei StarTech nachfragen, da ich im Datenblatt leider keine Angaben zur Bildwiederholfrequenz finden konnte.
Kostet bei Amazon aktuell 36,56 €. Laut StarTech Homepage liegt der Preis bei 164.99 USD.

Link: http://www.startech.com/de/AV/DisplayPort-Konverter/Aktiver-DisplayPort-auf-DVI-Dual-Link-Konverter-USB-betrieben~DP2DVID

Palpatin
2015-06-23, 12:04:37
1080p @ 120hz und 1600p @ 60hz wird man wohl irgendwie hinbekommen, intressant wird es bei 1600p @ 120hz.

Nightspider
2015-06-23, 12:10:11
Produziert so ein Adapter eigentlich zusätzlichen lag?

Hübie
2015-06-23, 12:13:19
Also da möchte ich Gewissheit ;) Kauf ja nicht die Graka für 700 Adapter für 40 um dann festzustellen: "geht nicht :mad:"
Schon ärgerlich. Fiji rückt gerade in nicht greifbare Regionen. Wenns also keine Lösung gibt wirds die 980 Ti (womit ich 3DV wieder nutzen könnte).

@Nightspider: Ein aktiver hat einen MC drauf und die haben unterschiedliche Frequenzen und Schaltzeiten, aber immer im ns-Bereich. Also wenn Latenz dazu kommt, dann wohl nicht regulär mess- oder spürbar.

Nightspider
2015-06-23, 12:19:44
Kannst doch den Adapter vorher schon an deiner alten Grafikkarte testen. Die hat ja sicherlich Displayport.

Lowkey
2015-06-23, 12:21:15
@Hübie, @Nightspider

Der StarTech DP2DVID Adapter (Displayport auf Dual Link DVI) müsste funktionieren.
Eventuell mal bei StarTech nachfragen, da ich im Datenblatt leider keine Angaben zur Bildwiederholfrequenz finden konnte.
Kostet bei Amazon aktuell 36,56 €. Laut StarTech Homepage liegt der Preis bei 164.99 USD.

Link: http://www.startech.com/de/AV/DisplayPort-Konverter/Aktiver-DisplayPort-auf-DVI-Dual-Link-Konverter-USB-betrieben~DP2DVID

DP2DVID ist uralt und sollte 120 hz bei 1080p ab Werk nicht schaffen.

Unicous
2015-06-23, 12:21:45
http://i.imgur.com/neHFAVn.jpg

;D

Dural
2015-06-23, 12:23:04
450GB/s :confused:

Nightspider
2015-06-23, 12:23:27
Noch nie stand die Größe des Speichers so klein drauf. :ulol:

MR2
2015-06-23, 12:24:27
450GB/s :confused:
Wollt ich auch grad fragen.

MR2
2015-06-23, 12:25:32
Noch nie stand die Größe des Speichers so klein drauf. :ulol:
Aber n fetter HDMI sticker:freak:

Botcruscher
2015-06-23, 12:25:54
Das wird ja immer weniger. Dazu im Moment noch kein OC.

PS: Ja das HDMI Logo fetzt. Dazu 4K extreme gaming bis zum Speicherüberlauf^^.

Dural
2015-06-23, 12:27:16
das sind 440MHz Takt für den Speicher. Deswegen skaliert Fiji wohl auch so schlecht mit dem GPU OC. Für GCN und 4096 SP dürfte die Bandbreit wirklich schon knapp sein.

Unicous
2015-06-23, 12:28:20
Meine Fresse. Es ist ein Fehler. Seid ihr zufällig mit Roland Emmerich verwandt oder warum denkt ihr andauernd, dass die Polkappen schmelzen und ein Meteorit vom Himmel fällt der von Aliens gelenkt wurde?

:facepalm:

tm0975
2015-06-23, 12:29:57
Noch nie stand die Größe des Speichers so klein drauf. :ulol:

;D;D;D

ab heute morgen zählt nur noch geschwindigkeit.

Dural
2015-06-23, 12:30:02
Sagt wer?

tm0975
2015-06-23, 12:32:20
Sapphire :rolleyes:

Steht doch alles auf dem Karton. Nun brauchen wir keine Tests mehr durchstöbern. :-D

hq-hq
2015-06-23, 12:32:55
hm, das ist aber schon blöd mit den ganzen Displayports... ich bräuchte eigentlich 2x hdmi für TV und Beamer...
HDCP gibts bei Displayport nicht ? Das wär fatal. Kann mir nicht vorstellen das es kein HDCP gäbe...

DrFreaK666
2015-06-23, 12:34:54
Spielen wirklich so viele an einem TV??

N0Thing
2015-06-23, 12:35:37
das sind 440MHz Takt für den Speicher. Deswegen skaliert Fiji wohl auch so schlecht mit dem GPU OC. Für GCN und 4096 SP dürfte die Bandbreit wirklich schon knapp sein.

Ich würde eher sagen, dass mehr Bandbreite overkill wäre. Wenn 336GB/s für Titan X und 980Ti ausreichen, sollten 450GB/s für die Fury mehr als genug sein.

e:\ Das Verhältnis Shader-Einheiten zu Bandbreite wäre auch ähnlich wie man es von der 290X kennt. Dazu kommen dann noch hoffentlich die Verbesserungen von Tonga bei der Komprimierung.

Unicous
2015-06-23, 12:37:32
Doch, theoretisch gibt es HDCP (2.2...edit: sorry erst ab DP 1.3) Unterstützung bei Displayport. Ob das durch AMD implementiert wurde, ist aber eher fraglich. Bislang kann es eh nur die GTX 960 (über HDMI?).

Megatron
2015-06-23, 12:39:08
hm, das ist aber schon blöd mit den ganzen Displayports... ich bräuchte eigentlich 2x hdmi für TV und Beamer...
HDCP gibts bei Displayport nicht ? Das wär fatal. Kann mich nicht vorstellen das es kein HDCP gäbe...
Natürlich unterstützt DisplayPort auch HDCP. Von dem her ist also kein Problem. Am Ende reicht in deinem Fall ja eh ein Display Port auf HDMI Kabel (http://www.amazon.de/Premium-Displayport-Audio-%C3%9Cbertragung-Stecker-zertifiziert/dp/B00BJL33SU/ref=sr_1_1?ie=UTF8&qid=1435055908&sr=8-1&keywords=display+port+to+hdmi+kabel).

Effe
2015-06-23, 12:41:42
das sind 440MHz Takt für den Speicher. Deswegen skaliert Fiji wohl auch so schlecht mit dem GPU OC. Für GCN und 4096 SP dürfte die Bandbreit wirklich schon knapp sein.
Hast Du schon eine getestet, oder rätst Du nur sinnlos rum?

Nakai
2015-06-23, 12:42:21
Doch, theoretisch gibt es HDCP (2.2...edit: sorry erst ab DP 1.3) Unterstützung bei Displayport. Ob das durch AMD implementiert wurde, ist aber eher fraglich. Bislang kann es eh nur die GTX 960 (über HDMI?).

Unwahrscheinlich, da DP1.3 noch relativ jung ist(September 2014) und ich diesbezüglich keine Implementierung seitens AMD erwarte. DP1.2 sollte aber ausreichen.

raffa
2015-06-23, 12:43:08
"Bundled with 1.5 meter HDMI High Speed .... Cable"

kein HDMI 2.0 aber Sapphire legt ein Kabel bei :)

cobra38
2015-06-23, 12:44:49
DP2DVID ist uralt und sollte 120 hz bei 1080p ab Werk nicht schaffen.
Habe gerade per Chat bei StarTech nachgefragt.
Die maximale Auflösung ist 2560 x 1600 bei 60 Hz.
Laut Chat haben Sie leider auch keinen anderen Adapter der eine höhere Bildwiederholfrequenz unterstützt, auch nicht bei niedrigerer Auflösung.

Unicous
2015-06-23, 12:46:19
Unwahrscheinlich, da DP1.3 noch relativ jung ist(September 2014) und ich diesbezüglich keine Implementierung seitens AMD erwarte. DP1.2 sollte aber ausreichen.

Ja, ich hatte vergessen, dass 2.2 erst bei 1.3 implementiert ist. Generell ist aber DP seit 1.1 oder so HDCP-fähig und auch DPCP-fähig. ;)

Kartenlehrling
2015-06-23, 12:48:47
;D;D;D

ab heute morgen zählt nur noch geschwindigkeit.


Wer hats erfunden ...?


https://youtu.be/HHrSe0DtXHk?t=1598
Effective Memory Speed

Lowkey
2015-06-23, 12:50:48
Habe gerade per Chat bei StarTech nachgefragt.
Die maximale Auflösung ist 2560 x 1600 bei 60 Hz.
Laut Chat haben Sie leider auch keinen anderen Adapter der eine höhere Bildwiederholfrequenz unterstützt, auch nicht bei niedrigerer Auflösung.


DP2DVID2 aus demselben Hause kann das. Also eventuell hat der Chat keinen Plan.

DrFreaK666
2015-06-23, 12:54:05
"Bundled with 1.5 meter HDMI High Speed .... Cable"

kein HDMI 2.0 aber Sapphire legt ein Kabel bei :)

Wäre kein Kabel besser?

akuji13
2015-06-23, 12:56:03
Wäre kein Kabel besser?

Ja.

Möchte gar nicht wissen wieviel versuchen das Kabel in einen Anschluß zu bekommen...

Thunder99
2015-06-23, 12:57:00
Och Leute. Wer glaubt das trotz nur DP und HDMI kein Adapter auf DVI beiligt tut mir echt Leid... AMD sollte da was beilegen, Punkt. Wenn sie es durch die Partner nicht machen dann gehören sie besonders kritisiert. Ansonsten denkt mal logisch nach ;)

Pick
2015-06-23, 12:59:06
450GB/s :confused:

450Gb/s fur Retails, 512GB/s fur Reviews :D

tm0975
2015-06-23, 13:02:00
http://wccftech.com/amd-freesync-samsung-ue590d-released/

wobei samsung jetzt nicht die 1. wahl bei mir ist.

Raff
2015-06-23, 13:02:18
450Gb/s fur Retails, 512GB/s fur Reviews :D

Das würde wohl nur Synthies auffallen.

MfG,
Raff

akuji13
2015-06-23, 13:03:22
Ansonsten denkt mal logisch nach ;)

Habe ich.

Hatte schon Monitore die falsche Netzkabel beigelegt hatten und so nicht benutzt werden konnten oder DVI Kabel obwohl D-DVI nötig gewesen wäre (letzteres Beispiel war ein ASUS und kein Einzelfall).

Interne Kommunikationsfehler können passieren.

Lowkey
2015-06-23, 13:07:34
Habe ich.

Hatte schon Monitore die falsche Netzkabel beigelegt hatten und so nicht benutzt werden konnten oder DVI Kabel obwohl D-DVI nötig gewesen wäre (letzteres Beispiel war ein ASUS und kein Einzelfall).

Interne Kommunikationsfehler können passieren.

Caseking verkaufte gerne UK Bildschirme samt falschem Netzstecker.


http://wccftech.com/amd-freesync-samsung-ue590d-released/

wobei samsung jetzt nicht die 1. wahl bei mir ist.



Wobei ich 120 hz aktuell allen 4k Geräten bevorzuge.... ich wüßte nicht wie ich ohne 120hz leben könnte ;)

akuji13
2015-06-23, 13:08:44
Das ist aber was anderes, da liegt die Schuld beim Händler.

Lassen wir uns überraschen was in der Packung dabei ist. :)

Pick
2015-06-23, 13:09:41
... up to 515GB/s
http://cdn.videocardz.com/1/2015/06/AMD-Radeon-R9-Fury-X-specifications.png


450GB/s Default, 512GB/s Boost

Knuddelbearli
2015-06-23, 13:12:09
fängt der boostdreck jetzt auch beim speicher an? und das wo amd bisher den deutlich weniger quengelnden boost hatte ...

HTB|Bladerunner
2015-06-23, 13:13:53
Naja, irgend eine Funktion muss ja der Biosumschalter haben...

Thunder99
2015-06-23, 13:15:59
Ich würde an eurer Stelle echt bis morgen warten und anhand umfassender Reviews eine mögliche positive Kaufentscheidung oder negative daran fest halten :)

Was mich aber stuzig macht, ist DP1.3 so neu das es noch nicht verbaut werden kann?

raffa
2015-06-23, 13:25:30
Wäre kein Kabel besser?

Ich fands halt witzig, dass (nach den seitenlangen HDMI Diskussionen hier) Sapphire ausgerechnet ein HDMI Kabel beilegt.

netter Teaser von Guru3D:

https://www.youtube.com/watch?v=2CYYSLbYwNg

DrFreaK666
2015-06-23, 13:32:18
Ich fands halt witzig, dass (nach den seitenlangen HDMI Diskussionen hier) Sapphire ausgerechnet ein HDMI Kabel beilegt.
...


Eben den Diskussionen hier... Wir sind auch nur eine kleine Käuferschicht

BlacKi
2015-06-23, 13:34:03
Eben den Diskussionen hier... Wir sind auch nur eine kleine Käuferschicht

stimmt, die meisten die sich ne fury holen werden zocken in 1080p in 60hz.

Botcruscher
2015-06-23, 13:36:36
Für den Rest müssen 30Hz für 4K extreme gaming reichen. DP Kabel gibt es ja nicht.:freak:

foenfrisur
2015-06-23, 13:46:54
custom-card oder fake? (wegen HDMI 2.0)
http://img.photobucket.com/albums/v25/amigafan2003/fcr2oQt_zpsoatw8pmt.png~original

btw, was nützt mir das hdmi-kabel, wenn damit keine 120Hz laufen ;)

mfg

Lowkey
2015-06-23, 13:48:30
Ich fands halt witzig, dass (nach den seitenlangen HDMI Diskussionen hier) Sapphire ausgerechnet ein HDMI Kabel beilegt.

netter Teaser von Guru3D:

https://www.youtube.com/watch?v=2CYYSLbYwNg

omg ... die Karte ist ja lautlos :D

HOT
2015-06-23, 13:50:44
Wenn das Teil DP1.3 kann, kann der auch HDMI 2.0 oder nicht? Die große Frage ist also dann nur noch, ob HDCP 2.2 oder nicht.

Timbaloo
2015-06-23, 13:51:20
custom-card oder fake? (wegen HDMI 2.0)
http://img.photobucket.com/albums/v25/amigafan2003/fcr2oQt_zpsoatw8pmt.png~original
Ganz billiger Fake. Der HDMI-Schriftzug ist viel zu scharf vergleichen mit der restlichen Schrift, und die Perspektive stimmt auch nicht.

Raff
2015-06-23, 13:53:53
Ganz billiger Fake. Der HDMI-Schriftzug ist viel zu scharf vergleichen mit der restlichen Schrift, und die Perspektive stimmt auch nicht.

Manchmal werden Dinge übrigens billig überklebt, auch in Serie ... ;)

MfG,
Raff

Unicous
2015-06-23, 13:54:19
Wenn das Teil DP1.3 kann, kann der auch HDMI 2.0 oder nicht? Die große Frage ist also dann nur noch, ob HDCP 2.2 oder nicht.

Fiji ist nicht DP 1.3-fähig. Woher hast du das denn schon wieder?:confused:


Edit:

http://s1.postimg.org/qj5fq45ov/bc523c6d55fbb2fbddf7c3fb4a4a20a44423dcbc.jpg
http://s1.postimg.org/45xp3b4r3/d8d154fbb2fb4316f2c3e19325a446230bf7d3bc.jpg

"Quelle" OcUK Post
(http://forums.overclockers.co.uk/showpost.php?p=28215468&postcount=1765)

Und hier das Original der Powercolor Verpackung:

http://i.imgur.com/YbjXUkh.png

Pick
2015-06-23, 14:02:16
custom-card oder fake? (wegen HDMI 2.0)
http://img.photobucket.com/albums/v25/amigafan2003/fcr2oQt_zpsoatw8pmt.png~original
mfg

https://www.itfree4u.com/wp-content/uploads/2015/06/powercolor_fury_x_box.jpg

ilibilly
2015-06-23, 14:07:48
Die 9000 stehn für 9tflop?
Wären ja ca 1100mhz oder?

Timbaloo
2015-06-23, 14:12:39
Manchmal werden Dinge übrigens billig überklebt, auch in Serie ... ;)
Ja, klar. Aber trotzdem ist der Schriftzug viel zu scharf.