PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

maximus_hertus
2015-06-17, 10:42:07
Nochmal was zur Nano: Die 175W TDP sind ja sehr ähnlich zu der TDP einer "Stock" GTX 980. Dazu soll sie ja spürbar schneller sein als die 290X. Wenn ich da 1 und 1 zusammenzähle, komme ich auf eine leicht bessere Performance im Vergleich zur GTX 980 bei einem sehr ähnlichem bis minimal niedrigerem Stromverbrauch. Dazu die geringe Größe und damit flexibilität bei der Wahl des Gehäuses.

Wenn ich mir aber nur Performance / Stromverrauch anschaue, sollte die Nano bei maximal 499 USD liegen (= Preis der GTX 980). Der "normale" nV-Preisbonus wird durch die kompakte Größe "ausgeglichen".

Aber warten wir mal ab, was da kommt. Ich werde nachher mal gucken, wie es an der Preisfront ausschaut, vielleicht gibt es ja "neue" Preise (glaube ich aber weniger).

Sunrise
2015-06-17, 10:48:52
Chinesenfolien (http://live.pconline.com.cn/483.html) mit ein paar zusätzlichen Infos.
Der Interposer hat 1011 mm², der Fiji Die 596 mm², die Packdichte steigt also wieder.
Ich brech ins Essen, ich habe mich bei den Schätzungen anhand des von mir perspektivisch korrigierten Fiji-Packages nur um exakt 1mm² verrechnet! :D

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10651825#post10651825

Danke Gipsel für den Hinweis.

Mit Abzug des Sidemolds bekomme ich dann folgende Werte:

5,48 - 0,380 = 5,1mm
7,29 - 0,380 = 6,91mm

Fiji neu real (HBM-Korrektur)

B = 22,748mm
H = 26,224mm 597mm²

Interposer neu real (HBM-Korrektur)

B = 36,476mm
H = 27,698mm 1010mm²

So langsam ist mir schwindelig, Gipsel, kommt noch was dazu oder darf ich gehen?
Mal auf die Hotchips 2015 im August gespannt, wenn alle Details genannt werden. Die Chinesen-Folien gehen ja schonmal deutlich tiefer ins Detail, das erfreut das Technik-Herz. Hoffentlich sind die auch Teil des Reviewer-Kits.

dargo
2015-06-17, 10:52:23
Chinesenfolien (http://live.pconline.com.cn/483.html) mit ein paar zusätzlichen Infos.
Der Interposer hat 1011 mm², der Fiji Die 596 mm², die Packdichte steigt also wieder.
Ui... also doch so fett wie GM200, hätte ich nicht gedacht.

iuno
2015-06-17, 10:53:51
Nochmal was zur Nano: Die 175W TDP sind ja sehr ähnlich zu der TDP einer "Stock" GTX 980. Dazu soll sie ja spürbar schneller sein als die 290X. Wenn ich da 1 und 1 zusammenzähle, komme ich auf eine leicht bessere Performance im Vergleich zur GTX 980 bei einem sehr ähnlichem bis minimal niedrigerem Stromverbrauch.
Einerseits toll, andererseits wird der Kühler richtig arbeiten müssen, wenn 175 Watt verbraucht werden.

Hatten die nicht genug Zeit was neues zu entwickeln?

Und warum kombiniert man nicht HBM mit normalem GDDR5 RAM? So quasi HBM als L3 oder 4 oder was auch immer Cache. So müsste man nicht zu früh auf den normalen RAM auslagern und hätte trotzdem für die meisten Daten den schnellen Speicher. :uponder:
Weil es überhaupt keinen Sinn macht. Ein großes GDDR5 Interface würde den Chip nochmal stark wachsen lassen und die Effizienz ginge komplett flöten. Ein sehr kleines hätte zu wenig Durchsatz. Von der Komplexität abgesehen, das zu implementieren: wie will man das den Kunden nach der 970 kommunizieren, dass es zwei Speicherpools mit komplett unterschiedlicher Bandbreite gibt?

Ailuros
2015-06-17, 11:01:02
Ui... also doch so fett wie GM200, hätte ich nicht gedacht.

Pfffff.....ich setz mich nochmal schnell auf meine nutzlosen Lorbeeren und dekoriere es mit etwas dass nicht angenehm duftet.... :biggrin: :freak:

Botcruscher
2015-06-17, 11:01:54
Hatten die nicht genug Zeit was neues zu
entwickeln?
Wir sind garade am Umbruch dieser Technologie. HBM ist die Zukunft und AMD macht gerade den ersten Schritt in ein richtiges Produkt.

Und warum kombiniert man nicht HBM mit normalem GDDR5 RAM? So quasi HBM als L3 oder 4 oder was auch immer Cache. So müsste man nicht zu früh auf den normalen RAM auslagern und hätte trotzdem für die meisten Daten den schnellen Speicher. :uponder:
Weil das ein zusätzliches Interface und Treiberarbeit bedeutet. Die Kosten stehen in keinem Verhältnis. Das Limit entfällt nächstes Jahr. Fiji ist eh nicht mehr als ein Testlauf. Die 4GB waren für AMD der Kompromis.

Ui... also doch so fett wie GM200, hätte ich nicht gedacht.

Wenn AMD seine Strategie auch bei zukünftigen Chips überdacht hat, dann wäre das die deutlich wichtigere Meldung.

Matrix316
2015-06-17, 11:09:23
Einerseits toll, andererseits wird der Kühler richtig arbeiten müssen, wenn 175 Watt verbraucht werden.


Weil es überhaupt keinen Sinn macht. Ein großes GDDR5 Interface würde den Chip nochmal stark wachsen lassen und die Effizienz ginge komplett flöten. Ein sehr kleines hätte zu wenig Durchsatz. Von der Komplexität abgesehen, das zu implementieren: wie will man das den Kunden nach der 970 kommunizieren, dass es zwei Speicherpools mit komplett unterschiedlicher Bandbreite gibt?
Wenn man es den Leuten von Anfang an erklärt, wäre es auch bei der 970 kein Problem gewesen.

Aber stimmt, der Stromverbrauch würde schon steigen. Aber man könnte ja einen Speichercontroller Chip auslagern zwischen dem normalen Chip mit HBM und dem GDDR Speicher so als eine Art "Bridge". Das wäre bestimmt auch einfacher zu kühlen als wenn alles auf der GPU is.

fondness
2015-06-17, 11:09:36
http://s21.postimg.org/6rxirnq5z/AMD_Radeon_Far_Cry4_Ultra.png (http://postimage.org/) http://s21.postimg.org/75yur9a9j/AMD_Radeon_R9_Fury_X_7_900x506.jpg (http://postimage.org/)

Botcruscher
2015-06-17, 11:13:15
Hat FC4 einen eingebauten Test der das vergleichbar macht?

Screemer
2015-06-17, 11:16:38
Wenn man es den Leuten von Anfang an erklärt, wäre es auch bei der 970 kein Problem gewesen.

Das ist doch unsinnig. Die 970 macht grad bei der Nutzung des langsamen Speichers "Probleme". Noch ist das eher selten. Kann sich aber häufen und dann soll man so ein Risiko bei AMD eingehen? Unterschiedlich schnelle speicherpoole sind einfach keine gute Idee.

Flusher
2015-06-17, 11:16:42
Gibts eigentlich schon nen neuen Catalyst?

SamLombardo
2015-06-17, 11:20:10
@fondness, da hast du dir natürlich das schlechteste Ergebnis was du finden konntest für NV rausgesucht. Tomshardware misst zum Beispiel 51fps in Far Cry 4 @ultra in 4k für die TX. Tolles Ergebnis dennoch für FuryX, wenn es sich in unabhängigen Tests bewahrheitet

Disco_STFU
2015-06-17, 11:21:52
Ich geh jetzt schon jede Wette ein, dass die Fury X bei CB im Ranking am Ende nicht vor der Titan X landen wird :D. Auf anderen Seiten dagegen schon.

/Mal ne andere Frage. Wird AMD eigentlich an den Lizenzgebühren für HBM Speicher seitens Nvidia mitverdienen? Oder bin ich da völlig auf dem Holzweg? :confused::confused:

iuno
2015-06-17, 11:23:07
Da wäre ich sehr vorsichtig. Je nach Zeitpunkt der Messung (Treiberversion), anderen Komponenten und Sequenz können die Ergebnisse völlig anders ausfallen.

Loeschzwerg
2015-06-17, 11:25:43
http://www.heise.de/newsticker/meldung/AMD-Radeon-Fury-HBM-Grafikkarten-fuer-4K-und-VR-ab-24-Juni-2712859.html

Gegenüber heise online erklärte AMD, dass die Radeon R9 Fury HDMI 2.0 nicht unterstützen wird, also 4K-Auflösungen per HDMI höchstens mit 30 Hz ausgeben kann.

dargo
2015-06-17, 11:25:49
Gibts eigentlich schon nen neuen Catalyst?
Seit gestern.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=564385

Ätznatron
2015-06-17, 11:25:59
Ich geh jetzt schon jede Wette ein, dass die Fury X bei CB im Ranking am Ende nicht vor der Titan X landen wird :D. Auf anderen Seiten dagegen schon.

Die Wette dürftest du locker gewinnen.

Ich gehe mal davon aus, dass da alles getan wird, sie irgendwie auf GTX 980 (non Ti) Niveau runterzuschreiben und dann die große Verkaufspreispeitsche rauszuholen.

uweskw
2015-06-17, 11:28:12
Wer hat eigentlich die Entwicklung von HBM vorangetrieben? Ohne AMD wäre Hynix das doch wohl nie angegangen? Oder war das wie DDR5 Ram eine "zwangsläufige Entwicklung?

Also eine weitere Innovation die dem Spieler etwas bringt, AMD viel Geld kostet und von der Konkurenz verwertet wird. Nicht wirklich clever von AMD....

greetz
US

mboeller
2015-06-17, 11:33:24
http://s21.postimg.org/6rxirnq5z/AMD_Radeon_Far_Cry4_Ultra.png (http://postimage.org/) http://s21.postimg.org/75yur9a9j/AMD_Radeon_R9_Fury_X_7_900x506.jpg (http://postimage.org/)

witzig... 32,8 x 1,65 = 54,1 fps (siehe mein letztes posting)

fondness
2015-06-17, 11:35:52
Wer hat eigentlich die Entwicklung von HBM vorangetrieben? Ohne AMD wäre Hynix das doch wohl nie angegangen? Oder war das wie DDR5 Ram eine "zwangsläufige Entwicklung?

Also eine weitere Innovation die dem Spieler etwas bringt, AMD viel Geld kostet und von der Konkurenz verwertet wird. Nicht wirklich clever von AMD....

greetz
US

Es ist eben üblich, dass man vielversprechende Techniken bei anerkannten Stellen spezifiziert um die Industrie voran zu bringen und durch einheitlich akzeptierte Standards auch langfristig den Preis zu senken. Das Nvidia in letzter Zeit glaubt alles closed und nur für sich zu machen ist ein ganz anderes Kapitel.

ilibilly
2015-06-17, 11:36:59
http://www.heise.de/newsticker/meldung/AMD-Radeon-Fury-HBM-Grafikkarten-fuer-4K-und-VR-ab-24-Juni-2712859.html

Ok damit hat sich Fijis für mich disqualifiziert,da ich bevorzugt am UHD TV zocke und da gibt's kein DisplayPort,somit ist hdmi2.0 für mich Pflicht :(
Das darf doch nicht wahr sein.....

iuno
2015-06-17, 11:37:40
http://www.heise.de/newsticker/meldung/AMD-Radeon-Fury-HBM-Grafikkarten-fuer-4K-und-VR-ab-24-Juni-2712859.html

Das ist bitter.
Da wurde wohl als Reaktion auf einen Leserkommentar nachgehakt, der Redakteur hat um weitere Fragen gebeten ;)
http://www.heise.de/forum/heise-online/News-Kommentare/AMD-Radeon-Fury-HBM-Grafikkarten-fuer-4K-und-VR-ab-24-Juni/HDMI-2-0-HEVC-Dekoder/thread-3727428/
Stehen glaube ich schon die interessantesten Fragen drin, hoffentlich antwortet der nochmal.

[dzp]Viper
2015-06-17, 11:38:13
http://www.heise.de/newsticker/meldung/AMD-Radeon-Fury-HBM-Grafikkarten-fuer-4K-und-VR-ab-24-Juni-2712859.html
Also ist man auf Displayport angewiesen richtig?
Das ist schon blöd wenn HDMI 2.0 nicht mit dabei ist.

Mandalore
2015-06-17, 11:38:16
Wer hat eigentlich die Entwicklung von HBM vorangetrieben? Ohne AMD wäre Hynix das doch wohl nie angegangen? Oder war das wie DDR5 Ram eine "zwangsläufige Entwicklung?

Also eine weitere Innovation die dem Spieler etwas bringt, AMD viel Geld kostet und von der Konkurenz verwertet wird. Nicht wirklich clever von AMD....

greetz
US


In welcher Welt ist etwas kostenlos? Genau, nirgends. AMD wird schon indirekt an Nvidias Pascal mitverdienen, denn dämlich sind sie nicht. Sei es durch Lizenzkosten über Hynix oder was weiß ich...verdienen werden sie;)

Matrix316
2015-06-17, 11:38:33
Das ist doch unsinnig. Die 970 macht grad bei der Nutzung des langsamen Speichers "Probleme". Noch ist das eher selten. Kann sich aber häufen und dann soll man so ein Risiko bei AMD eingehen? Unterschiedlich schnelle speicherpoole sind einfach keine gute Idee.
Die Probleme gibt's nur, weil der langsame Speicher zu langsam ist.

Wenn man zusätzlichen Speicher mit voller GDDR5 Leistung anbinden würde, würde es wahrscheinlich weniger stark einbrechen als wenn die 4 GB HBM ausgehen und man auf den normalen RAM auslagern müsste.

Ich bin zumindest mal auf FuryX Benchmarks in Watchdogs und so in hohen Auflösungen gespannt.

Traxx
2015-06-17, 11:39:59
Warum machen die bei R9 Fury gem. Heise denn kein HDMI 2.0? Das verstehe ich nun echt nicht (4K@60hz und so).

iuno
2015-06-17, 11:41:42
Ich verstehe es auch nicht ganz, aber 4k@60 Hz sind mit DP natürlich möglich.
Bringt halt denen nichts, die dachten sie kaufen lieber einen billigen 4k-TV als einen ordentlichen Monitor

Troyan
2015-06-17, 11:43:53
Es ist eben Tonga x 2 und man wollte wohl so wenig wie möglich investieren. Der Abstand zu 16nm ist viel zu gering, um hier den Chip komplett zu überarbeiten.

Unterstützt Carrizo eigentlich HDMI 2.0?!

Traxx
2015-06-17, 11:45:15
Es gibt ja auch gute 4K TV's welche nun mit diesen Karten (voraussichtlich) auch schön zum Zocken herhalten könnten, wenn Imputlag nicht so relevant ist. DP hat - soweit ich weiss - aber nur Panasonic...

Unicous
2015-06-17, 11:47:23
Ziemlich dämlich, da Carrizo ja HDMI 2.0 unterstützt.

Dawn on Titan
2015-06-17, 11:50:11
hat AMD eigentlich gestern immer von "average power consumption" gesprochen wenn sie über Effizienz sprachen?

ilibilly
2015-06-17, 11:50:35
Wenn man am DP 4k@60hz bekommt,gibt's da kein Adapter der es auf hdmi 2.0 bringt?
Hab nen 65" uhd tv und zocke auch nur darauf auf der Couch und da ist 4k@30hz leider ein totschlagargument.
bleibt nur 980ti,NVIDIA hat seit 970/980 hdmi 2.0 .

StefanV
2015-06-17, 11:51:39
Hat schon jemand Bilder von der Rückseite der Fury gesehen?

Oder am besten sogar 'nen nackten Chip von hinten.

Mich würd mal das Pinout des Packages interessieren.

Traxx
2015-06-17, 11:52:30
Gibt soweit mir bekannt kein DP/Hdmi Adapter der 4K@60hz schafft... Ich hoffe, das ist ne Falschmeldung betr. HDMI 2.0. Oder dann nur Nano-exclusive? :sneak:

TurricanM3
2015-06-17, 11:57:55
Monti du sollst doch arbeiten! :biggrin:

Traxx
2015-06-17, 12:01:51
Verdammt, erwischt ;D. Hoffe hier liest keiner meiner Arbeitskollegen mit :D

Ich hör schon das Marketing: Gute 4K-Grafikkarten brauchen HDMI 2.0 ohne Wasserkühlung...

StefanV
2015-06-17, 12:01:53
Gibt soweit mir bekannt kein DP/Hdmi Adapter der 4K@60hz schafft... Ich hoffe, das ist ne Falschmeldung betr. HDMI 2.0. Oder dann nur Nano-exclusive? :sneak:
Du meinst noch keinen Adapter, der das hin bekommen würde.

Das kann sich aber bei Zeiten durchaus ändern...

fondness
2015-06-17, 12:07:00
Blockdiagramm:

http://s18.postimg.org/62igdx921/AMD_Radeon_Fury_X_Fiji_GPU_Diagram.jpg (http://postimage.org/)

http://videocardz.com/56614/amd-fiji-is-the-largest-gpu-ever-made-by-amd

Es ist also nicht ganz ein doppelter Tonga:

http://s2.postimg.org/ts60fh5y1/285_Block.jpg (http://postimage.org/)

Botcruscher
2015-06-17, 12:07:27
DP ist auch ohne Adapter schon anfällig genug.

PS: Wir sind gespannt wie das Frontend skalliert.

M4xw0lf
2015-06-17, 12:10:13
Blockdiagramm:

http://s18.postimg.org/62igdx921/AMD_Radeon_Fury_X_Fiji_GPU_Diagram.jpg (http://postimage.org/)

http://videocardz.com/56614/amd-fiji-is-the-largest-gpu-ever-made-by-amd

Es ist also nicht ganz ein doppelter Tonga:

http://s2.postimg.org/ts60fh5y1/285_Block.jpg (http://postimage.org/)
Gleiche Anzahl Geometry Processors/Rasterizers wie Tonga, bei doppelt so vielen CUs?... klingt eher uncool.

y33H@
2015-06-17, 12:12:33
Front-End skaliert nicht, ja. Leider.

EDIT
Grade CB-Wolle gefragt, er testet nur Project Cars in 640x480 und schreibt drunter, Fury X ist Schrott! ;D

MR2
2015-06-17, 12:19:18
Front-End skaliert nicht, ja. Leider.

EDIT
Grade CB-Wolle gefragt, er testet nur Project Cars in 640x480 und schreibt drunter, Fury X ist Schrott! ;D
So kennen wir ihn:-)

mboeller
2015-06-17, 12:19:52
Front-End skaliert nicht, ja. Leider.



Das "Ding" ist schon 596mm² groß... mehr ging wohl nicht.

Unicous
2015-06-17, 12:21:20
Brian Burke ist ein wenig butthurt. Keine Ahnung warum. So toll war diese PC Gaming Show jetzt auch nicht. Hauptsache mal einen arroganten cheap shot abfeuern.:rolleyes:

Never have a PC Gaming Show and prevent the flag bearer for PC gaming from participating. #pcgamingshow
https://twitter.com/bburke_nvidia/status/611009437864587264

M4xw0lf
2015-06-17, 12:21:27
Front-End skaliert nicht, ja. Leider.
Grmpf. Das war dann mit Hoffnung auf Gewinne durch secret sauce.

Dykstra
2015-06-17, 12:34:27
Es gibt ja auch gute 4K TV's welche nun mit diesen Karten (voraussichtlich) auch schön zum Zocken herhalten könnten, wenn Imputlag nicht so relevant ist. DP hat - soweit ich weiss - aber nur Panasonic...

Dass bei den 4k TVs nur der Panasonic DP hat, kann ich bestätigen. Hab mir genau deswegen den Panasonic gekauft. Wenn Fury jetzt wirklich kein HDMI 2.0 bietet, rentiert sich diese Anschaffung natürlich noch viel mehr. =)

y33H@
2015-06-17, 12:35:01
Grmpf. Das war dann mit Hoffnung auf Gewinne durch secret sauce.Abwarten ;-)

Troyan
2015-06-17, 12:35:51
Brian Burke ist ein wenig butthurt. Keine Ahnung warum. So toll war diese PC Gaming Show jetzt auch nicht. Hauptsache mal einen arroganten cheap shot abfeuern.:rolleyes:


https://twitter.com/bburke_nvidia/status/611009437864587264

Du meinst, er darf sich nicht lustig darüber machen, dass es nVidia verboten war an einer PC Gaming Veranstaltung teilzunehmen? :freak:

M4xw0lf
2015-06-17, 12:36:09
Abwarten ;-)
Elender Teaserer :ubash2:

M4xw0lf
2015-06-17, 12:37:19
Du meinst, er darf sich nicht lustig darüber machen, dass es nVidia verboten war an einer PC Gaming Veranstaltung teilzunehmen? :freak:
Seltsam, auf Nvidias PC-Gaming-Events habe ich bisher auch nur selten AMD-Präsenz gesehen.
Was ein lächerliches Gehabe. :facepalm:

Pirx
2015-06-17, 12:41:47
Ist halt die typische nV-Überheblichkeit.

Troyan
2015-06-17, 12:42:13
Ich habe auf der AMD Veranstaltung gestern auch kein nVidia gesehen. :D

Hier geht es doch um die PC Gaming Veranstaltung, bei der es nVidia untersagt war aufzutreten.

Siehe hier: https://twitter.com/bburke_nvidia/with_replies

iuno
2015-06-17, 12:42:28
Grade CB-Wolle gefragt, er testet nur Project Cars in 640x480 und schreibt drunter, Fury X ist Schrott! ;D
mMD ;D

N0Thing
2015-06-17, 12:57:49
Ich habe auf der AMD Veranstaltung gestern auch kein nVidia gesehen. :D

Hier geht es doch um die PC Gaming Veranstaltung, bei der es nVidia untersagt war aufzutreten.

Siehe hier: https://twitter.com/bburke_nvidia/with_replies

Tja, mimimi, sonst nichts.
Wenn es ihnen wichtig gewesen wäre, hätte Nvidia doch das Gleiche machen können, in anderen Bereichen haben sie ja auch kein Problem mit Exklusivität und closed door Praktiken. Aber wenn der Mitbewerber sich mal querstellt, wird genauso gemault und gejammert, wie es sonst AMD vorgeworfen wird.

Ganz peinliche PR.

y33H@
2015-06-17, 12:59:11
Sagtmal wasn Volker von CB für einer? behauptet das die R9 Nano min 175W Verbraucht da sie ja einen 8 Pin Anschluss hat ( hat sich wohl verrechnet wären ja 225W ) und das die nano bei den Shader sicher massiv! abgespeckt ist. Da ist man ja schon fast froh das CB keinen Nano News bringt ...175W sind die offizielle Typical Board Power, steht so auf der Slide. Hinsichtlich Shader und Takt mal schauen, was AMD macht.

Troyan
2015-06-17, 13:02:46
Tja, mimimi, sonst nichts.
Wenn es ihnen wichtig gewesen wäre, hätte Nvidia doch das Gleiche machen können, in anderen Bereichen haben sie ja auch kein Problem mit Exklusivität und closed door Praktiken. Aber wenn der Mitbewerber sich mal querstellt, wird genauso gemault und gejammert, wie es sonst AMD vorgeworfen wird.

Ganz peinliche PR.

Also wenn nVidia bezahlt, dass AMD in irgendeiner Form benachteiligt wird, dann wird das hier kritisiert.

Wenn AMD bezahlt, dass nVidia irgendeiner Form benachteiligt wird, dann wird hier gesagt, nVidia sollte das gleiche machen.

Ist Sarkasmus, oder? :freak:

Du siehst doch im Tweet, dass jemand genau das gleiche gesagt hat - "cheap shot". Die Antwort war ja mehr als deutlich.

Blediator16
2015-06-17, 13:03:08
Tja, mimimi, sonst nichts.
Wenn es ihnen wichtig gewesen wäre, hätte Nvidia doch das Gleiche machen können, in anderen Bereichen haben sie ja auch kein Problem mit Exklusivität und closed door Praktiken. Aber wenn der Mitbewerber sich mal querstellt, wird genauso gemault und gejammert, wie es sonst AMD vorgeworfen wird.

Ganz peinliche PR.

Das wird ein gefundenes Fressen sein für die speziellen Leute unter uns. Das selbe wie Tombraider und Tressfx bis zum erbrechen wiederholt wurde ;D

Also wenn nVidia bezahlt, dass AMD in irgendeiner Form benachteiligt wird, dann wird das hier kritisiert.

Wenn AMD bezahlt, dass nVidia irgendeiner Form benachteiligt wird, dann wird hier gesagt, nVidia sollte das gleiche machen.

Ist Sarkasmus, oder? :freak:

Du siehst doch im Tweet, dass jemand genau das gleiche gesagt hat - "cheap shot". Die Antwort war ja mehr als deutlich.


Ja krass oder. Der eine darf das der andere nicht. Ich bin begeistert :D Wer hätte gedacht, dass die Reaktion so ausfallen wird.
Das selbe dann nochmal mit GW Pentand dann darf man endgültig Krieg erklären. Schöne Scheisse

Die Geschichte erinnert an Frauen, die selbst zuschlagen, aber wenn sich gewehrt wird, SCHLÄGER schreien und die white knights zur hilfe kommen :D

Dural
2015-06-17, 13:09:49
toll einfach ein doppelter tonga und das frontend bleibt gleich. die einheiten werden sicher ziemlich schlecht skalieren, man kennt es von amd ja nicht anders. :(

Nightspider
2015-06-17, 13:09:57
Nano kommt im Herbst. Das ist mir zu nah an der Nachfolgegeneration bei beiden IHVs.

Abwarten. 16nm läuft scheinbar so beschissen das ich nicht vor Ende 2016 mit der nächsten Generation rechne.

man kennt es von amd ja nicht anders. :(

Mehr als NV-Fanboy-Gelaber kennt man von dir ja auch nicht. ^^

moonraker
2015-06-17, 13:11:28
Naja, ein wenig differenzierter sollte man das schon betrachten.

Für mich macht das einen erheblichen Unterschied, ob ich eine Marketingveranstaltung organisiere und dazu meinen Konkurrenten ausschließe, oder ob ich tatsächliche Benachteiligung der Leistungsfähigkeit der Produkte des Konkurrenten erreichen will.

N0Thing
2015-06-17, 13:12:43
Also wenn nVidia bezahlt, dass AMD in irgendeiner Form benachteiligt wird, dann wird das hier kritisiert.

Wenn AMD bezahlt, dass nVidia irgendeiner Form benachteiligt wird, dann wird hier gesagt, nVidia sollte das gleiche machen.

Ist Sarkasmus, oder? :freak:

Du siehst doch im Tweet, dass jemand genau das gleiche gesagt hat - "cheap shot". Die Antwort war ja mehr als deutlich.

Gerade du bist doch immer ganz vorne dabei, wenn es darum geht das Verhalten von Nvidia bei PhysX, Gameworks, g-sync usw. zu verteidigen. Und jetzt bist du ganz vorne (naja, quasi alleine) dabei, wenn es darum geht AMD vorzuwerfen, sie würden Nvidia nicht mitspielen lassen. Sarkasmus würde ich das nicht nennen. Eher ne ziemlich traurige Angelegenheit, wenn man kein Rückgrat hat und sein Fähnchen nach dem Wind hängt.

Habe mir schon gedacht, dass dein Anmeldedatum und deine PR-Arbeit für Nvidia kein Zufall sind.

iuno
2015-06-17, 13:14:50
Du siehst doch im Tweet, dass jemand genau das gleiche gesagt hat - "cheap shot". Die Antwort war ja mehr als deutlich.

Die Antwort war halt am Thema vorbei und bs allererster Güte, sonst nichts.
@bburke_nvidia Kinda cheap shot. Atleast AMD is doing this. Where is Nvidia?

@Aetius3 we were not allowed to participate. AMD paid for the rights.

AMD ist presenting sponsor von der Messe. Niemand hat Nvidia davon abgehalten, 50 Meter auf der anderen Seite der E3 auszustellen :rolleyes: Auf welche Nvidia-Messe wurde AMD eingeladen? Davon abgesehen verlangt so einen Blödsinn auch keiner.

Godmode
2015-06-17, 13:17:35
Wenn man die Fury X auch auf 1,5 GHz übertakten kann wie die TX, hätte man 12,28 TFlop/s, btw. :biggrin:

Nightspider
2015-06-17, 13:19:31
Und das beste ist: sie würde keineswegs durch die Bandbreite ausgebremst werden. :)

mironicus
2015-06-17, 13:20:15
Ich hätte eigentlich von NVidia erwartet einen Troll einzuschleusen der dann immer zwischenruft: "Die hat aber nur 4 GB!", "Gute Grafikkarten brauchen keine Wasserkühlung!", "NVidia setzt von Anfang an auf HBM2!", "Alles alte Chips!", "Freesync sucks!", "Richard! Dein Humor ist so.... *schnarch*"...

Dawn on Titan
2015-06-17, 13:21:09
Abwarten. 16nm läuft scheinbar so beschissen das ich nicht vor Ende 2016 mit der nächsten Generation rechne.

Ist doch 14nm Samsung / GloFo.

iuno
2015-06-17, 13:23:57
Und das beste ist: sie würde keineswegs durch die Bandbreite ausgebremst werden. :)
Woher willst du das wissen? Fiji hat 60% mehr Bandbreite als Hawaii, glaubt man AMD jedoch auch etwa so viel mehr Leistung (150% Perf/Watt, 275 Watt ggü. 250). Sollte Fiji auf 1,5 GHz gehen (was ich sehr stark bezweifle), wäre man da mehr als am Anschlag, wie gut und ob sich HBM überhaupt übertakten lässt steht ja noch in den Sternen. Aber davor muss Fiji auch überhaupt erstmal wesentlich mehr als 1 GHz mitmachen

Kartenlehrling
2015-06-17, 13:24:16
@Troyan

Spiele mit Nvidia Unterstützung würden auf jedenfall auf der PCgameShow gezeigt,
mir fällt nixon "Dirtbomb" und Ubisofts "For Honor" beim letzten bin ich gespannt ob sie das Hairworks auch auf die Console bringen.

Botcruscher
2015-06-17, 13:26:50
Und das beste ist: sie würde keineswegs durch die Bandbreite ausgebremst werden. :)

So arg ist der Bandbreitenanstieg von Hawaii nun auch nicht. Pro Einheit geht es von 0,113 auf 0,125 GB/s.

PS: Die Kompression aus Tonga solte mehr ausmachen.

Thunder99
2015-06-17, 13:27:02
Hab gestern so lange mitgelesen bis mein Akku leer war :freak:

Also Potential ist definitiv vorhanden bei den Hardware Specs. Das hier und dort keine Steigerung gab muss ja nicht heißen das der Part einfach stärker ist als vorher. Bleibt nur übrig das man die Tests abwarten muss.

Und vor Mitte 2016 rechne ich mit keine neuen 14/16nm Chips :wink:. Wenn es irgendwie wirtschaftlich und technisch möglich ist evt zur Back to school Saison in den USA

Nightspider
2015-06-17, 13:30:58
Woher willst du das wissen? Fiji hat 60% mehr Bandbreite als Hawaii, glaubt man AMD jedoch auch etwa so viel mehr Leistung (150% Perf/Watt, 275 Watt ggü. 250). Sollte Fiji auf 1,5 GHz gehen (was ich sehr stark bezweifle), wäre man da mehr als am Anschlag, wie gut und ob sich HBM überhaupt übertakten lässt steht ja noch in den Sternen. Aber davor muss Fiji auch überhaupt erstmal wesentlich mehr als 1 GHz mitmachen

Gut aber Fiji hat noch die Delta Compression und ist eh schon weniger von der Bandbreite abhängig als Hawaii.

In jedem Fall ist man viel weniger durch die Bandbreite ausgebremst als Hawaii und die Titan X.

Und falls man den HBM übertakten kann geht der sicherlich auch ab wie Schmidts Katze.

Skysnake
2015-06-17, 13:31:01
Abwarten ;-)
Über den L2 Cache, bzw Caches allgemein wissen wir noch rein gar nichts, da könnte also noch Potenzial schlummern.

Genauso bei anderweitigen Einheiten, ist ja nicht gesagt, dass die 1:1 wie bei Tonga sind. Mich überrascht z.B. das man genau so viele ACEs hat wie Tonga, aber eventuell will man doch möglichst homogene Anzahlen an Queues haben. :confused:

Ansonsten fände ich es aber wirklich sehr schlecht, wenn Fiji kein HDMI 2.0 könnte... In Anbetracht des ganzen DRM-Mists, wäre das halt doof für HPCs, wofür die Karte, insbesondere die Nano ja schon ziemlich geil wäre....

Ich hoffe, dass Sie das nicht wirklich verkackt haben... :facepalm:

Nightspider
2015-06-17, 13:32:32
Kann man HDMI 2.0 eventuell per Chip nachrüsten? Vllt kommt deswegen die Nano später. ;)

Thunder99
2015-06-17, 13:33:30
Über den L2 Cache, bzw Caches allgemein wissen wir noch rein gar nichts, da könnte also noch Potenzial schlummern.

Genauso bei anderweitigen Einheiten, ist ja nicht gesagt, dass die 1:1 wie bei Tonga sind. Mich überrascht z.B. das man genau so viele ACEs hat wie Tonga, aber eventuell will man doch möglichst homogene Anzahlen an Queues haben. :confused:

Ansonsten fände ich es aber wirklich sehr schlecht, wenn Fiji kein HDMI 2.0 könnte... In Anbetracht des ganzen DRM-Mists, wäre das halt doof für HPCs, wofür die Karte, insbesondere die Nano ja schon ziemlich geil wäre....

Ich hoffe, dass Sie das nicht wirklich verkackt haben... :facepalm:
Da hätten sie die R7 370 umbauen müssen was sie entweder aus Geld oder "nicht so relevant für uns" Gründen nicht gemacht haben.

Tonga hat auch nur 1.4 oder?

BlacKi
2015-06-17, 13:34:28
Kann man HDMI 2.0 eventuell per Chip nachrüsten? Vllt kommt deswegen die Nano später. ;)

wenn man fiji auf ein carrizo board spannt dann könnte man hdmi 2.0 vom carrizo ausgeben lassen und mit fiji beschleunigen oder?

Loeschzwerg
2015-06-17, 13:39:36
Will man das denn?

mironicus
2015-06-17, 13:39:41
Und vor 2017 rechne ich nicht damit, dass NVidia etwas Vergleichbares wie eine Dual Fiji auf so einem kleinem PCB unterbringt.

ChaosTM
2015-06-17, 13:42:48
Fehlendes Hdmi 2.0 ist so eine Sache, die ich bei einem neuen End Chip im Jahre 2015 nicht akzeptieren könnte - die 4Gb könnte ich mir ev. noch schönreden..

edit.: plane die Anschaffung eines 4k Tv im Winter und da wäre das schon ganz angenehm..

ilibilly
2015-06-17, 13:45:14
Gerade bei Nano die ja fürs Wohnzimmer wie gemacht ist hoffe ich noch auf hdmi 2.0
Vielleicht ist die Meldung auch falsch oder dér Typ kannte sich nicht so gut aus :)

tm0975
2015-06-17, 13:45:37
Was heißt da fast? :rolleyes:
Aber ist auch teilweise recht lustig, was der im Forum von sich gibt, z.B. das (http://www.computerbase.de/forum/showthread.php?t=1485644&page=12&p=17518991#post17518991);D

computerbase waren doch auch die, die bei der nano 2 bis 4 gb vram geschrieben hatten. das ist doch völlig ausgeschglossen, dass die karte nur 2 gb hat. da steckt doch absicht dahinter...

mboeller
2015-06-17, 13:46:06
Woher willst du das wissen? Fiji hat 60% mehr Bandbreite als Hawaii, glaubt man AMD jedoch auch etwa so viel mehr Leistung (150% Perf/Watt, 275 Watt ggü. 250). Sollte Fiji auf 1,5 GHz gehen (was ich sehr stark bezweifle), wäre man da mehr als am Anschlag, wie gut und ob sich HBM überhaupt übertakten lässt steht ja noch in den Sternen. Aber davor muss Fiji auch überhaupt erstmal wesentlich mehr als 1 GHz mitmachen

Die Kühlung ist ja schon mal auf 500W ausgelegt.

Pirx
2015-06-17, 13:47:22
Die Kühlung ist ja schon mal auf 500W ausgelegt.
Wäre aber untypisch so dermaßen vorzubauen, das kostet schließlich auch was.

fondness
2015-06-17, 13:48:13
Gleiche Anzahl Geometry Processors/Rasterizers wie Tonga, bei doppelt so vielen CUs?... klingt eher uncool.

Weiß jemand was diese RBs sind? Die skalieren nämlich schon mit.

(del676)
2015-06-17, 13:48:30
Aber damit koennte AMD erstmals eine Grafikkarte im Referenzdesign anbieten, deren Standardkuehlung ordentlich ist. ;)

Und ein ordentlicher Luefter kostet weniger als besseres Chipdesign ....
Also imho ein easy fix.

Nightspider
2015-06-17, 13:49:25
AMD hat doch auch gesagt das Fiji perfekt über Übertakter sein wird.

Die Frage ist nur von die GPU selbst über 1,2Ghz schafft, abgesehen von Temperatur und Spannung.

mboeller
2015-06-17, 13:49:41
Gerade bei Nano die ja fürs Wohnzimmer wie gemacht ist hoffe ich noch auf hdmi 2.0
Vielleicht ist die Meldung auch falsch oder dér Typ kannte sich nicht so gut aus :)


die Meldung kommt von der c't... und dort dürfen nur die Praktikanten Meldungen über AMD verfassen, zumindest sind die News über AMD immer besonders schlecht geschrieben.


... könnte also sein. :biggrin:

Shaft
2015-06-17, 13:49:50
Wann kann man mit ersten Tests rechnen, anders gefragt wann endet NDA?

mboeller
2015-06-17, 13:50:56
Wäre aber untypisch so dermaßen vorzubauen, das kostet schließlich auch was.

die Kühlung soll 275W bei <32dB wegkühlen... da sind bestimmt große Reserven vorhanden. Nur brauchst du dann halt wieder Ohrenschützer.

Wake
2015-06-17, 13:52:06
Wann kann man mit ersten Tests rechnen, anders gefragt wann endet NDA?

Würde mal vermuten 24. oder 25. - zum Launch von Fury X halt.

Shaft
2015-06-17, 13:53:24
Würde mal vermuten 24. oder 25. - zum Launch von Fury X halt.


Danke.

Nightspider
2015-06-17, 13:53:34
die Kühlung soll 275W bei <32dB wegkühlen... da sind bestimmt große Reserven vorhanden. Nur brauchst du dann halt wieder Ohrenschützer.

Wenn die schon bei =<32dB nur 55°C heiß wird ist da selbst ohne höhere Lautstärke noch Potential. Leichte Steigerung der Lüfterdrehzahl (Lautstärke) sollte schon ausreichen für viel OC.

Troyan
2015-06-17, 13:53:34
Golem.de hat die Euro-Preise der Rebrands:

AMD hat die Euro-Preise für die neuen Modelle bekanntgegeben, wir haben die Steuern hinzugefügt: Beginnend bei der Radeon R7 360 kosten die Karten 115, 160, 210, 350 und 450 Euro. Die Straßenpreise dürften darunter liegen.
http://www.golem.de/news/grafikkarte-amds-neue-r7-und-r9-modelle-sind-beschleunigte-vorgaenger-1506-114708.html

iuno
2015-06-17, 13:54:11
Gut aber Fiji hat noch die Delta Compression [...]
Und falls man den HBM übertakten kann geht der sicherlich auch ab wie Schmidts Katze.
oops, an dcc hatte ich gar nicht gedacht.
Aber es stimmt schon, vor allem hat ja ein Hertz bei dem dicken Bus eine deutlich größere Auswirkung auf die Bandbreite hat als sonst (2x ggü. Hawaii, 2,66x ggü. GM200).
@Pirx: Naja, die WaKü wird schon ordentliches Polster haben, das liegt schon alleine an deren Natur. Alleine der Lüfter sollte ja deutliche Reserven haben, wenn das der ist, der hier spekuliert wurde. Bei dem dicken Radiator sieht es auch nicht so aus als hätten sie da um Centbeträge gerungen.

fondness
2015-06-17, 13:56:23
AMD hat schon gesagt das man den HBM sehr gut übertakten wird können. Bandbreitenprobleme wird man mit der Karte sicher nicht bekommen. Generell sagte Joe das die Stromversorgung und auch die Kühlung der Karte auch für extremes Ocing ausgelegt ist.

crux2005
2015-06-17, 13:58:38
Weiß jemand was diese RBs sind? Die skalieren nämlich schon mit.

Render Backends, also ROPs. Ja, die hat Fiji 64, also doppelt im Vergleich zu Tonga.

robbitop
2015-06-17, 13:59:19
Ich hatte 64 ROPs auf der AMD Folie gelesen. Also genauso viele wie Hawaii.

M4xw0lf
2015-06-17, 13:59:20
Weiß jemand was diese RBs sind? Die skalieren nämlich schon mit.
Render Back-End? Ich rate nur, und hab auch keine Ahnung was sowas ist. :freak:
Zu langsam ;)

crux2005
2015-06-17, 13:59:37
Ich hatte 64 ROPs auf der AMD Folie gelesen. Also genauso viele wie Hawaii.

Ja, habe noch schnell editiert. :biggrin:

aufkrawall
2015-06-17, 14:00:23
Wär sonst auch komisch, bei der starken Füllrate von Maxwell.
Aber ein Tess-Wunder wirds wohl nicht.

Dawn on Titan
2015-06-17, 14:03:00
tess wird sowieso überbewertet. Mehr Sorge machen da einem Spiele mit high-polycount Modellen.

fondness
2015-06-17, 14:05:51
Wichtig ist das die Optimierungen für hohe Tess-Stufen von Tonga drinnen sind. Ein Tesslationswunder braucht niemand, da habe ich lieber mehr Rohleisteung.

Troyan
2015-06-17, 14:07:16
tess wird sowieso überbewertet. Mehr Sorge machen da einem Spiele mit high-polycount Modellen.

Wieso? 4Mrd Dreiecke pro Sekunde sollten genug sein...

Davon abgesehen ist Tessellation wichtig, um den Speicherverbrauch zu senken.

Irgendwie witzig: Tiled Ressources Tier 3 und Tessellation wären am wichtigsten für AMD - beides wird irgendwie ignoriert oder nur halbherzig implementiert. :freak:

Sunrise
2015-06-17, 14:09:35
Fiji skaliert anhand der Benches besser als meine Hochrechnungen (zumindest unter 4K). Da kommt noch was. Sind rund 10% mehr.

r3ptil3
2015-06-17, 14:20:58
Was ist mit den Reviews der 390?

Nightspider
2015-06-17, 14:23:27
tess wird sowieso überbewertet. Mehr Sorge machen da einem Spiele mit high-polycount Modellen.

Selbst Star Citizen kommt nicht mal annähernd in eine Region wo es zu viele Polygone für Fiji der gar Hawaii wären.

dildo4u
2015-06-17, 14:26:08
Selbst Star Citizen kommt nicht mal annähernd in eine Region wo es zu viele Polygone für Fiji der gar Hawaii wären.
Das Game läuft auf AMD zur Zeit deutlich schlechter schwer zu sagen ob das am Treiber oder der 290 Hardware liegt.

http://www.pcgameshardware.de/Star-Citizen-PC-256428/Specials/Patch-11-Benchmarks-1154520/

Nightspider
2015-06-17, 14:28:21
Das liegt am Treiber und daran das es noch eine Alpha ist.

Disco_STFU
2015-06-17, 14:29:53
Scheint so, denn normalerweise funzt die Cryengine mit den Radeons sehr gut.

Dawn on Titan
2015-06-17, 14:33:42
Selbst Star Citizen kommt nicht mal annähernd in eine Region wo es zu viele Polygone für Fiji der gar Hawaii wären.

Ich sage es mal vorsichtig. Mit Project Cars und Star Citizen hat man imho 2 Spiele bei denen AMD sich schwer tut. Entweder die Treiberentwicklung ist das Problem oder die Technik.

Beides nicht schön imho.

Nightspider
2015-06-17, 14:40:41
Bei einer sehr unfertigen Alpha, von welcher es bisher nur ein Teilmodul gibt, von Spiel zu reden ist aber auch gewagt.

Cloud Imperium Games fängt gerade erst an ein Part nach dem anderen auf effiziente Performance zu optimieren. Bis das Spiel offiziell erscheint geht noch viel Zeit ins Land.

Eher mache ich mir da Sorgen um den AMD Treiber.
Fiji sollte möglichst nicht durch diesen ausgebremst werden. Mit ihren Treibern hat AMD die letzten Monate ja nicht geglänzt.

Thunder99
2015-06-17, 14:42:12
Weshalb sie sich zeit gelassen haben um das zu verbessern. Siehe vorab Treiber zu Win10. Sie waren nicht untätig :)

Blediator16
2015-06-17, 15:02:09
https://www.youtube.com/watch?v=KIiNFXf00_U&feature=youtu.be&t=11m5s

HBM und das gddr5 im Gespräch.

Nightspider
2015-06-17, 15:03:49
"4GB with some of that compression technologies that we have is enough to run 4K..."

Und HBM wird wohl teilweise als Cache benutzt und Daten werden öfter mal in den HBM ausgelagert anstatt im richtigen Cache zu behalten, dank der hohen Bandbreite und den kurzen Latenzen.

mironicus
2015-06-17, 15:09:57
Da bin ich dann aber mal auf Treiberupdates gespannt, wenn sie einzelne Spiele für Fiji anpassen und was der HBM-Speicher dann bringt.

dildo4u
2015-06-17, 15:11:54
Also ruckelt die Karte immer in 1080p weil der Treiber Schrott ist und in 4k weil der Vram nich reicht?AMD Programmiert die Games nicht das erste was PCGH machen wird ist Watch Dogs ansetzen und Frametimes aufzeichnen.

Botcruscher
2015-06-17, 15:13:04
Watch Dogs ruckelt immer und auf jeder Hardware.

Nightspider
2015-06-17, 15:13:54
Watch Dogs lief auf meiner 290X damals sehr gut.

Also ruckelt die Karte immer in 1080p weil der Treiber Schrott ist und in 4k weil der Vram nich reicht?AMD Programmiert die Games nicht das erste was PCGH machen wird ist Watch Dogs ansetzen und Frametimes aufzeichnen.

1. Nein tut sie nicht.

2. Kannst du mal die Satztrennung der deutschen Rechtschreibung einhalten?

von Richthofen
2015-06-17, 15:17:44
Wenn Fury X - wie AMD erwähnt - massiv Raum für OC lassen sollte, versteh ich nicht warum man dieses Potential nicht nutzt und GM200 performancemäßig stärker unter Druck setzt.

Eine durchweg schnellere Fiji Karte würde doch den vermeintlich größten Kritikpunkt der Speichermenge stärker in den Hintergrund rücken.

Nakai
2015-06-17, 15:18:04
https://www.youtube.com/watch?v=KIiNFXf00_U&feature=youtu.be&t=11m5s

HBM und das gddr5 im Gespräch.

Puh, welche CompressionsEngine? Meint der DCC? Texturen liegen bereits komprimiert vor. Oder hat AMD noch etwas eingebaut?:freak:

Abwarten ;-)

Also reinher von den ersten Aussagen und Analysen, ist das noch eine SecretSauce eingebaut worden. Ich bin wirklich gespannt. Fiji ist kein einfacher Tonga.

Raff
2015-06-17, 15:20:54
Watch Dogs lief auf meiner 290X damals sehr gut.

Tat es nicht. ;) Und tut es immer noch nicht, sondern nur mäßig – die Watch-Dogs-Frametimes auf Radeons sind nach wie vor eklig.

MfG,
Raff

aufkrawall
2015-06-17, 15:23:40
Auf Geforces aber auch, um die ganze Wahrheit zu sagen.

Ich hoffe, diese VRAM-Einsparungen werden nicht irgendeine krude Treibergeschichte sein. Genau davon wollte man mit low level API wegkommen...

BlacKi
2015-06-17, 15:23:58
"4GB with some of that compression technologies that we have is enough to run 4K..."

Und HBM wird wohl teilweise als Cache benutzt und Daten werden öfter mal in den HBM ausgelagert anstatt im richtigen Cache zu behalten, dank der hohen Bandbreite und den kurzen Latenzen.

genauuuu deshalb brauchen die hawai karten ja auch unbedingt 8gb. die frage hätte ich ihm gern ins gesicht gedrückt: wenn 4gb hbm reichen warum braucht hawai 8gb?

und wenn man hbm als cahce nutzt, dann braucht man nochmehr speicher von dem speicher den man nicht ausreichend hat.

egal dreht man halt texturen runter^^

mironicus
2015-06-17, 15:24:53
Wenn Fury X - wie AMD erwähnt - massiv Raum für OC lassen sollte, versteh ich nicht warum man dieses Potential nicht nutzt und GM200 performancemäßig stärker unter Druck setzt.

Weil man die Karte als effizient, leise und schnell verkaufen will. Und die Preispositionierung ist unter Titan X, obwohl sie wohl schneller ist.

Warte mal auf erste OC-Tests, einige Redakteure sabbern schon und da kommt mehr Flüssigkeit aus dem Mund als Fury X Kühlflüssigkeit hat.

GPU-Takt + 25%.
Speichertakt + 40% = 4K-Benchmarks explodieren, Witcher 3 durchgehend 60 fps in 4K spielbar. :freak:

aufkrawall
2015-06-17, 15:27:54
40% auf eine 980 bei gleicher VRAM-Menge, ganz rundes Produkt...

mboeller
2015-06-17, 15:37:56
mal eine Frage an die Experten hier:

wie viel Speicher braucht denn jetzt eine GPU für 4K?

Der Framebuffer benötigt ja theoretisch nur 3840x2160x32bit ... od. max. 128bit; ergo max. 128MB; Der Z-buffer noch einmal 128MB bei 4xMSAA. Also zusammen max. 256MB.

Stimmt das, oder bin ich durch die neuen Engines weit weg vom realen Wert?

crux2005
2015-06-17, 15:44:04
Und die Texturen, die den meisten VRAM fressen.

mczak
2015-06-17, 15:46:32
Ziemlich dämlich, da Carrizo ja HDMI 2.0 unterstützt.
Das haben zwar alle erwartet, ist aber nicht der Fall. Es wurde jedenfalls nicht erwähnt bei der Carrizo-Präsentation, also kann man davon ausgehen dass es nicht unterstützt wird. Im Linux Open-Source Treiber gibt's auch keine Anzeichen dafür, das kannst du also wohl vergessen.
Aktive DP-HDMI 2.0 Adapter wären natürlich theoretisch möglich, keine Ahnung ob das jemand auf den Markt bringt (und zu welchen Kosten).

dargo
2015-06-17, 15:50:33
Woher willst du das wissen? Fiji hat 60% mehr Bandbreite als Hawaii, glaubt man AMD jedoch auch etwa so viel mehr Leistung (150% Perf/Watt, 275 Watt ggü. 250).
Wenn Fiji auf Tonga basiert ist der Vergleich eh sinnlos. Tonga beherrscht DCC. Kannst also auf die 512GB/s bis zu +40% draufrechnen.

Ich sage es mal vorsichtig. Mit Project Cars und Star Citizen hat man imho 2 Spiele bei denen AMD sich schwer tut.
Warte erstmal den DX12 Patch von pCars ab. Da werden die Karten neu gemischt. Und SC ist Alpha, zudem kommt das garantiert auch mit DX12.

Nightspider
2015-06-17, 15:50:45
und wenn man hbm als cahce nutzt, dann braucht man nochmehr speicher von dem speicher den man nicht ausreichend hat.

Quatsch, der Cache ist winzig und fällt schon in die Messtoleranz des normalen VRAM Verbrauchs.

fondness
2015-06-17, 15:51:00
40% auf eine 980 bei gleicher VRAM-Menge, ganz rundes Produkt...

Im schlimmsten Fall darf man sich also über 40% mehr fps wie bei der GTX980 freuen. Und wenn man die zusätzliche Leistung nicht gerade in MSAA investiert sollte es auch generell kein großes Problem sein im Vergleich zur GTX980. Schon der Sprung von Full-HD auf 1440p sind ~80% mehr Pixel.

Dio Eraclea
2015-06-17, 15:51:31
Wenn Fury X - wie AMD erwähnt - massiv Raum für OC lassen sollte, versteh ich nicht warum man dieses Potential nicht nutzt und GM200 performancemäßig stärker unter Druck setzt.[..].

Ich kann dazu nur einen Beitrag von "Godmode" zitieren:

Und jedes Review hätte den exorbitanten Stromverbrauch in den Vordergrund gestellt, oder wäre das bei euch anders gewesen?

foenfrisur
2015-06-17, 15:51:58
aktive DP->HDMI 2.0-Adapter wurden zwar letztes jahr bereits angekündigt, aber sind immernoch nicht zu kaufen.
ich habe erst heute irgendwo gelesen, das ein hersteller (mit A beginnend) zum ende des jahres welche ausliefern möchte.

mfg

dildo4u
2015-06-17, 15:56:54
http://i.imgur.com/6wUrR9m.jpg

Der Takt muss ziehmlich neidrig sein oder das Ding ist massiv beschnitten 100 Watt weniger als Fury X.Schätze mal die kommt dann ziehmlich im Bereich der 980 raus,wobei das komisch ist da schon Fury Pro bei 550$ liegt Nano ist vermutlich langsamer.

dargo
2015-06-17, 16:02:59
Tat es nicht. ;) Und tut es immer noch nicht, sondern nur mäßig – die Watch-Dogs-Frametimes auf Radeons sind nach wie vor eklig.

Blödsinn!!!

Ich habe schon gefühlt 100x gesagt, dass die Streaming Engine mit Ultra Texturen nicht klarkommt. Das gilt sowohl für Nvidia als auch AMD Karten. Wenn ihr WD schon testet dann max. mit High Texturen! Alles andere ist sinnlos bei dieser Software.

Timbaloo
2015-06-17, 16:03:13
Bei der Nano bin ich auf die ersten Fullcover-Blöcke gespannt :D

Thunder99
2015-06-17, 16:04:03
Von welchen Versionen werden wir wohl Custom Lösungen sehen? :confused:

ChaosTM
2015-06-17, 16:05:25
http://i.imgur.com/6wUrR9m.jpg

Der Takt muss ziehmlich neidrig sein oder das Ding ist massiv beschnitten 100 Watt weniger als Fury X.Schätze mal die kommt dann ziehmlich im Bereich der 980 raus,wobei das komisch ist da schon Fury Pro bei 550$ liegt Nano ist vermutlich langsamer.

Wenn ich die 290x auf ca 150-170 Watt beschränke (-45% PT), kommt ca. 75-80% der originalen Leistung heraus. Wenn sich Fury ähnlich verhält, sollte man knapp über der 980er herauskommen.

InsaneDruid
2015-06-17, 16:10:08
Quatsch, der Cache ist winzig und fällt schon in die Messtoleranz des normalen VRAM Verbrauchs.

Nein, er erzählt ganz definitiv dass bei dieser Lösung der gesamte Ram als Cache dienen könne:

"we can actually do some cool things with caching, since the memory bandwidth is so high, we can keep some information non-local and then bring that in as desired. So you can think of HBM as a additional tier of cache, on your cpu you have l1 and l2 and the l3 cache, increasing in size, with HBM-Products, you can look at that as we have the on-engine-caches, a HBM acts as a huge 4Gigabyte Cache, we can normally fit most of the game details in there, a but whenever you have more detail that that, you can keep it in system memory and bring that in when required."

Und das halte ich für Marketing-BS. Der Ram und der PCIe werden nicht schneller, nur weil HBM so schnell ist. Im Gegenteil, der extreme Unteschied könnte sogar noch mehr auffallen, wenn dem Teil der Vram ausgeht.

Nightspider
2015-06-17, 16:11:53
Bei der Nano bin ich auf die ersten Fullcover-Blöcke gespannt :D

Die Nano wird aber wohl kaum zwei 8PIN-Stromanschlüsse haben. Das heißt mit OC könnte es sehr schnell eng werden.

r3ptil3
2015-06-17, 16:20:42
Was ist mit den Reviews der 390?

Ich weiss nach dem Fury Spektakel ist die 300er Serie soo uninteressant, aber weiss jemand nun ob man überhaupt mit Reviews in Kürze rechnen kann? (R9 390X)

iuno
2015-06-17, 16:25:16
Ja, die Karten sind ja schon einige Zeit unterwegs und es gibt es ja auch schon ab morgen zu kaufen. Ich denke schon, dass es zeitnah Reviews geben wird (hoffentlich morgen).

y33H@
2015-06-17, 16:25:30
Die Karten sind laut AMD ab morgen verfügbar *Wink mit dem Zaunpfahl*

aufkrawall
2015-06-17, 16:27:05
Im schlimmsten Fall darf man sich also über 40% mehr fps wie bei der GTX980 freuen. Und wenn man die zusätzliche Leistung nicht gerade in MSAA investiert sollte es auch generell kein großes Problem sein im Vergleich zur GTX980. Schon der Sprung von Full-HD auf 1440p sind ~80% mehr Pixel.
Und was soll mir das sagen?
Bei Witcher 3 können 80% mehr Pixel übrigens in nur 25% Performanceverlust resultieren:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10664552&postcount=30

y33H@
2015-06-17, 16:28:33
CPU-Limit vll?

Palpatin
2015-06-17, 16:30:35
mal eine Frage an die Experten hier:

wie viel Speicher braucht denn jetzt eine GPU für 4K?


An den leaked 3dmark Benches kann man das schon recht gut sehen, denn so verhält es sich imo auch bei aktuellen Games, mal unabhängig von der FPS oder sinvoll oder nicht.
Für 4k sind 3gb zu wenig und 4gb reichen imo
Für 5k sind 4gb zu wenig und 6gb reichen imo
FÜr 8k sind 6gb zu wenig und 8gb reichen imo
Das die Fury in 5k im firestrike hinter die 980ti zurückfällt und in 8k dann beide hinter die 290x 8gb fallen bestätigt das eigentlich ganz gut.
Selbst habe ich in 4k mit der 980 non ti 4gb keine Probleme wärend die 780ti mit 3gb zum Teil die Grätsche machte.

fondness
2015-06-17, 16:32:10
Selbst habe ich in 4k mit der 980 non ti 4gb keine Probleme wärend die 780ti mit 3gb zum Teil die Grätsche machte.

Und die 40% mehr fps würdest du in 4K sicher gerne mitnehmen.

Blediator16
2015-06-17, 16:36:07
An den leaked 3dmark Benches kann man das schon recht gut sehen, denn so verhält es sich imo auch bei aktuellen Games, mal unabhängig von der FPS oder sinvoll oder nicht.
Für 4k sind 3gb zu wenig und 4gb reichen imo
Für 5k sind 4gb zu wenig und 6gb reichen imo
FÜr 8k sind 6gb zu wenig und 8gb reichen imo
Das die Fury in 5k im firestrike hinter die 980ti zurückfällt und in 8k dann beide hinter die 290x 8gb fallen bestätigt das eigentlich ganz gut.
Selbst habe ich in 4k mit der 980 non ti 4gb keine Probleme wärend die 780ti mit 3gb zum Teil die Grätsche machte.

Das sind sowieso nur hochrechnungen von dem Koreaner. Nichts davon ist gebencht.

Timbaloo
2015-06-17, 16:36:23
Die Nano wird aber wohl kaum zwei 8PIN-Stromanschlüsse haben. Das heißt mit OC könnte es sehr schnell eng werden.
Ja, OC wird da sicher weniger interessant, aber für kompakte WaKü-Systeme sieht so ein kleines Teil sicher ganz witzig aus :)

aufkrawall
2015-06-17, 16:37:04
CPU-Limit vll?
Nein, nicht im Wald und nicht mit einem 5820k.

merfu
2015-06-17, 16:38:55
Die Karten sind laut AMD ab morgen verfügbar *Wink mit dem Zaunpfahl*

Ah schön, morgen kommen die Tests der 300er Serie. Hoffe es sind nicht nur rebrands.

StefanV
2015-06-17, 16:48:24
Wenn Fury X - wie AMD erwähnt - massiv Raum für OC lassen sollte, versteh ich nicht warum man dieses Potential nicht nutzt und GM200 performancemäßig stärker unter Druck setzt.

Eine durchweg schnellere Fiji Karte würde doch den vermeintlich größten Kritikpunkt der Speichermenge stärker in den Hintergrund rücken.
Weil:

a) hohes OC gute PR ist
b) man nicht alles Pulver verschießen möchte und noch 'nen bisserl Luft zum Nachlegen gern hätte.
c) man nicht über eine bestimmte TDP Grenze gehen wollte...


Das wären so 3 Gründe, die mir ausm Stehgreif einfallen würden.

y33H@
2015-06-17, 16:48:48
@ merfu

Ist die Frage wie genau du Rebrand definierst. Die GTX 770 zB kann man auch Rebrand nennen.

Thunder99
2015-06-17, 16:51:21
Sehe schon die Überschrift von CB: Alter Wein in neuen Schläuchen :D

foenfrisur
2015-06-17, 16:52:44
der neue treiber ist nur für die neuen grakas?

http://support.amd.com/en-us/kb-articles/Pages/AMD-Radeon-300-Series.aspx

mfg

edit:
offenbar nicht nur....sry 4 OT

derF
2015-06-17, 16:54:15
Nachdem CB die 970er Scheiße von nVidia so gut weggewischt hat, hab ich auch das Interesse an dieser Seite verloren. Dabei war das bis dahin meine erste Anlaufstelle für Techniknews.

Unicous
2015-06-17, 16:55:16
Die Karten sind laut AMD ab morgen verfügbar *Wink mit dem Zaunpfahl*

Wo bin? Wer bin ich?:confused:

Cool, wegen dir habe ich jetzt ein riesige Platzwunde und eine Gehirnerschütterung.

Was wolltest du nochmal sagen?

y33H@
2015-06-17, 16:55:33
Sehe schon die Überschrift von CB: Alter Wein in neuen Schläuchen.Wein muss reifen :cool:

@ Unicous

Ich kann dir nicht folgen ^^

Raff
2015-06-17, 16:55:38
Sehe schon die Überschrift von CB: Alter Wein in neuen Schläuchen :D

Dabei sind die Schläuche der Furie vorbehalten. :ugly:

MfG,
Raff

Palpatin
2015-06-17, 16:56:15
Das sind sowieso nur hochrechnungen von dem Koreaner. Nichts davon ist gebencht.

Ist doch völlig egal man kann es doch anhand der Werte von 980 980ti 290x8gb und titan x zueinander auch sehen.
Abstand der 980 zur 980ti ist konstant ab 5k bricht die 980 ein.
Abstand der 980ti zur titan x ist konstant ab 8k bricht 980ti ein.
Die 290x 8GB ist in 8k schneller als 980ti , warum wohl. ;)
Glaub kaum das sich die Fury da anders verhalten wird.

Menace
2015-06-17, 16:58:00
Wie habe ich das alte Team der kryptischen Andeutungen vermisst. :freak: :biggrin:

y33H@
2015-06-17, 16:59:46
Riddick ist ein Furyan, ergo versohlt die Fury X allen den Hintern :eek:

iuno
2015-06-17, 17:02:22
Die GTX 770 zB kann man [B]auch Rebrand nennen.
Verstehe ich nicht. Was soll die 770 denn sonst sein? MW. ist die identisch zur 680 mit GK104 :confused:
@ Unicous

Ich kann dir nicht folgen ^^
Hast ihn wohl mit dem Pfahl am Kopf erwischt :ulol3: :uban:

Palpatin
2015-06-17, 17:06:07
Verstehe ich nicht. Was soll die 770 denn sonst sein? MW. ist die identisch zur 680 mit GK104 :confused:

Abgesehen vom Takt, glaub ich kam die 770 schon mit Boost 2.0 die 680 hatte das glaub ich noch nicht.

von Richthofen
2015-06-17, 17:08:41
a) hohes OC gute PR ist
b) man nicht alles Pulver verschießen möchte und noch 'nen bisserl Luft zum Nachlegen gern hätte.
c) man nicht über eine bestimmte TDP Grenze gehen wollte...


Das mag schon stimmen nur weiss ich nicht ob das beim Publikum mehr zieht als "Fastest GPU on planet !", was wohl dann so oder in ähnlicher Form auf der Fazitseite jedes Reviews ganz oben stehen würde.

basix
2015-06-17, 17:12:28
Das mag schon stimmen nur weiss ich nicht ob das beim Publikum mehr zieht als "Fastest GPU on planet !", was wohl dann so oder in ähnlicher Form auf der Fazitseite jedes Reviews ganz oben stehen würde.

Meine Güte aber "Fastest GPU on Planet" soll sie ja nach den meisten Infos knapp sein (bis hinauf 4k). Reicht das nicht? :freak: Muss sie ein TitanX Quad SLi schlagen für den Titel? :rolleyes:

Ephiriel
2015-06-17, 17:41:56
Meine Güte aber "Fastest GPU on Planet" soll sie ja nach den meisten Infos knapp sein (bis hinauf 4k). Reicht das nicht? :freak: Muss sie ein TitanX Quad SLi schlagen für den Titel? :rolleyes:
Also zumindest laut AMD ist sie ja nicht die schnellste GPU on planet, dass ist immer noch die R9 295X2 :freak:
Mit dieser Logik wird die aktuell schnellste GPU erst durch die Fury X2 abgelöst :freak:

Mr. Lolman
2015-06-17, 17:44:03
Blödsinn!!!

Ich habe schon gefühlt 100x gesagt, dass die Streaming Engine mit Ultra Texturen nicht klarkommt. Das gilt sowohl für Nvidia als auch AMD Karten. Wenn ihr WD schon testet dann max. mit High Texturen! Alles andere ist sinnlos bei dieser Software.

Man kann aber durchaus ein bissi optimieren. Bspw Framelimiter auf 40fps setzen, so rennts mit Max Details + Temporal SMAA auf 2560x1600 ganz brauchbar (290X@1100/2900, 15.4 Beta, Win8.1x64, WorseMod 0.7 ohne Maldotexturen, dafür mit SweetFX Lumasharpen, Vibrance, Curves). Ok am Ende hats einen Ruckler gegeben. Evtl rennts mit einem neueren Treiber und/oder Win10 besser - oder man schraubt halt wirklich die Settings ein bisschen runter ;):

EDIT: Natürlich wirkürlich irgendwo durch die Stadt geheizt (zur Fuss ist ja eh alles ok).

Dural
2015-06-17, 17:54:20
Naja WD lief am Anfang auf der 290X schon deutlich schlechter als auf der 780Ti, wie es heute aussieht weis ich nicht.

Loeschzwerg
2015-06-17, 17:55:11
Gibt es Infos ob AMD Fiji (Pro und XT) auch im FirePRO einsetzen wird?

Disco_STFU
2015-06-17, 17:56:35
Nachdem CB die 970er Scheiße von nVidia so gut weggewischt hat, hab ich auch das Interesse an dieser Seite verloren. Dabei war das bis dahin meine erste Anlaufstelle für Techniknews.

+1

Wie ich schon geschrieben hatte. Bei CB steht das Ergebnis der Fury X sowieso schon fest. Kann Titan X nicht schlagen, mal schneller mal langsamer als die GTX 980Ti. :rolleyes:

Kriegsgeier
2015-06-17, 17:59:01
alleine dass man über AMD jetzt mehr redet als über NVIDIA - hat sich der Launch gelohnt

fondness
2015-06-17, 18:02:18
Naja WD lief am Anfang auf der 290X schon deutlich schlechter als auf der 780Ti, wie es heute aussieht weis ich nicht.

Das stimmt nicht, gerade die 780Ti war wegen den nur 3GB VRAM in Watch-Dogs von Beginn an extrem am µRuckeln.

Brillus
2015-06-17, 18:07:06
Sagtmal wasn Volker von CB für einer?

behauptet das die R9 Nano min 175W Verbraucht da sie ja einen 8 Pin Anschluss hat ( hat sich wohl verrechnet wären ja 225W ) und das die nano bei den Shader sicher massiv! abgespeckt ist. Wasn das für ne Logik für eine P/W Karte?

Da ist man ja schon fast froh das CB keinen Nano News bringt ...
Nur leider kommt die Angabe von 175W für die Nano von AMD.

Mr. Lolman
2015-06-17, 18:11:46
Naja WD lief am Anfang auf der 290X schon deutlich schlechter als auf der 780Ti, wie es heute aussieht weis ich nicht.

Spätestens nach 2 Patches und ein paar Treibern war die 290X besser:


In the above graph we are comparing the high-end GPUs at 2560x1600 at the highest settings with "Ultra" textures. Technically GTX 780 Ti has the performance lead, but because of the stuttering wasn't playable. AMD Radeon R9 290 is outperforming GeForce GTX 780.

http://www.hardocp.com/article/2014/08/18/watch_dogs_performance_image_quality_review/8

Nightspider
2015-06-17, 18:14:39
Naja WD lief am Anfang auf der 290X schon deutlich schlechter als auf der 780Ti, wie es heute aussieht weis ich nicht.

Ach komm erzähle keine Märchen. Mein Kumpel hatte eine GTX780ti mit OC und schnellerer CPU.

Bei mir lief es mir der 290X trotzdem viel besser als bei ihm.

Ich weiß auch nicht was die meisten hier für krasse Frametimes gespürt haben wollen aber bei mir lief es überaus gut. Ich habe nur die Schatten um eine Stufe reduziert und nur mit FXAA in 1440p gespielt. Es lief wunderbar und ich hatte das Game am offiziellen Releasetag schon fast durchgespielt weil ich meinen Key schon 2 Tage vor Release hatte.
Und zu dem Zeitpunkt lief es auf allen Nvidia-Karten bis auf der Titan beschissen.

AnarchX
2015-06-17, 18:15:46
Gibt es Infos ob AMD Fiji (Pro und XT) auch im FirePRO einsetzen wird?
Könnte etwas wenig Speicher sein. 4GiB bieten 128-Bit FirePro. Und Hawaii GL könnte wohl noch in einer 32GiB Version erscheinen.

Loeschzwerg
2015-06-17, 18:15:54
@290x vs irgendwas Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=547221 !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!

@AnarchX: Da hast du vermutlich recht. Finde ich schade, ich hoffe immer noch auf eine Radialkühllösung :D

Edit:
@Disco_STFU unter diesem Beitrag: Für Leistungsvergleiche zwischen 290/x und NV xyz gibt es ein eigenes Thema :) Nix anderes wollte ich mit dem Link ausdrücken.

Disco_STFU
2015-06-17, 18:17:25
Was möchtest du uns sagen Löschzwerg? :confused:

aufkrawall
2015-06-17, 18:18:29
Wie oft muss diese dämliche WD-Diskussion eigentlich noch kommen?

Knuddelbearli
2015-06-17, 18:34:47
175W sind die offizielle Typical Board Power, steht so auf der Slide. Hinsichtlich Shader und Takt mal schauen, was AMD macht.

Öhm bin ich blind? wo steht da TDP?

basix
2015-06-17, 18:48:51
Könnte etwas wenig Speicher sein. 4GiB bieten 128-Bit FirePro. Und Hawaii GL könnte wohl noch in einer 32GiB Version erscheinen.

Fiji wird sicher HBM2 unterstützen (so weitsichtig ist AMD sicher), deshalb wird es je nach dem wie weit HBM2 ist evtl. dieses Jahr noch >4GB geben. Ob dies für den Consumer-Markt dann auch gilt werden wir sehen.

dildo4u
2015-06-17, 18:55:14
Öhm bin ich blind? wo steht da TDP?
175W was soll das sonst sein?Das Board lässt in den Konfig mit einem 8 Pin 225 zu.

Flusher
2015-06-17, 18:59:15
175W was soll das sonst sein?Das Board lässt in den Konfig mit einem 8 Pin 225 zu.

Die Rede war doch bisher von Average/Typical Power Consumption.

ChaosTM
2015-06-17, 19:02:24
Da bleibt wohl noch etwas Luft für OC.. falls der Kühler mitmacht.

dildo4u
2015-06-17, 19:04:56
Da bleibt wohl noch etwas Luft für OC.. falls der Kühler mitmacht.
Ich würde nicht mal ne 970 mit eine Lüfter kaufen ich sehe den Sinn der Karte ehrlich gesagt nicht.Schön klein für ein HTPC ja aber gerade im Wohnzimmer muss die Karte so leise wie möglich sein.

fondness
2015-06-17, 19:10:53
Fiji wird sicher HBM2 unterstützen (so weitsichtig ist AMD sicher), deshalb wird es je nach dem wie weit HBM2 ist evtl. dieses Jahr noch >4GB geben. Ob dies für den Consumer-Markt dann auch gilt werden wir sehen.

HBM2 wird auf jeden Fall unterstützt, da das eh nur ein Marketingbegriff ist für größere Speicherdichte durch neue Fertigung plus 8 Hi-Stacks und mehr Takt.

Knuddelbearli
2015-06-17, 19:14:54
Nur leider kommt die Angabe von 175W für die Nano von AMD.

Aber nicht das das der verbrauch ist. das könnte auch die TDP sein und der Verbrauch ist dann AMD typisch ein stück darunter. oder eben auch umgekehrt.

iuno
2015-06-17, 19:22:56
AMD hat doch schon ewig keine TDP mehr angegeben oder?
Z.B. bei Hawaii gab es auch nur die typical board power mit 250 W

Locuza
2015-06-17, 19:25:38
HBM2 wird auf jeden Fall unterstützt, da das eh nur ein Marketingbegriff ist für größere Speicherdichte durch neue Fertigung plus 8 Hi-Stacks und mehr Takt.
+ Pseudo-Channel:
http://www.memcon.com/pdfs/proceedings2014/NET104.pdf

Page 13, 23 usw.

MR2
2015-06-17, 19:28:23
Hoffentlich muß nvidia in irgendeiner Art Lizenzgebühren abdrücken, das wäre interessant zu wissen, aber das Thema hatten wir schon mal.

PCGH gibt für die Nano 2-4GB HBM an. 2GB wären wirklich arg wenig, glaub ich kaum!

dargo
2015-06-17, 19:28:26
Man kann aber durchaus ein bissi optimieren. Bspw Framelimiter auf 40fps setzen, so rennts mit Max Details + Temporal SMAA auf 2560x1600 ganz brauchbar (290X@1100/2900, 15.4 Beta, Win8.1x64, WorseMod 0.7 ohne Maldotexturen, dafür mit SweetFX Lumasharpen, Vibrance, Curves).
Man kann vieles. Je tiefer das FPS-Target umso stärker überdeckst du nur die Symptome. ;) Mein Target waren gesynchte 50fps da bei Bildschirm mindestens 49Hz schafft. Das ändert aber nichts daran, dass das Streaming @Ultra Texturen einfach völlig überfordert ist. Selbst mit High Texturen gibt es mit Vsync off Fluktuationen bis zu ~20ms. Das ist alles andere als optimal.

Flusher
2015-06-17, 19:29:08
lol ich hab gestern beim live event tatsächlich richard huddy mit julian treasure verwechselt :freak:

Julian treasure: https://www.youtube.com/watch?v=eIho2S0ZahI

Richard Huddy: https://www.youtube.com/watch?v=8uoD8YKwtww

;D

SchinkenSpicker
2015-06-17, 19:29:40
Hoffentlich muß nvidia in irgendeiner Art Lizenzgebühren abdrücken, das wäre interessant zu wissen, aber das Thema hatten wir schon mal.


Wieso hoffst du das?

foenfrisur
2015-06-17, 19:30:26
erste listungen der rebrands:

https://geizhals.de/msi-r9-390x-gaming-8g-v308-040r-a1282063.html
https://geizhals.de/msi-r9-390-gaming-8g-v308-041r-a1282069.html
https://geizhals.eu/sapphire-radeon-r9-390x-tri-x-a1280753.html
https://geizhals.eu/sapphire-radeon-r9-390-nitro-a1280763.html

mfg

Dorn
2015-06-17, 19:35:29
Das wird ein schönes Jahr für einen neuen PC. Skylake mit einer Fury =D + Windows 10. Herlich endlich wieder was neues zum Zusammenbauen...

y33H@
2015-06-17, 19:36:13
Aber nicht das das der verbrauch ist. das könnte auch die TDP sein und der Verbrauch ist dann AMD typisch ein stück darunter. oder eben auch umgekehrt.Was ist an Typical Board Power nicht zu verstehen?

PCGH gibt für die Nano 2-4GB HBM an. 2GB wären wirklich arg wenig, glaub ich kaum!Bei 2 GB lägen das halbe Interface und zwei Stacks brach, IMHO völliger Schwachsinn.

fondness
2015-06-17, 19:37:55
Hoffentlich muß nvidia in irgendeiner Art Lizenzgebühren abdrücken, das wäre interessant zu wissen, aber das Thema hatten wir schon mal.


Müssen sie nicht. HBM wurde von AMD bei der JEDEC als offener Industriestandard eingereicht, welche es allen Unternehmen erlaubt HBM zu fertigen und einzusetzen. Wie im übrigen auch schon GDDR3, GDDR4, und GDDR5.

Nightspider
2015-06-17, 19:42:14
Wieso hoffst du das?

Weil AMD so konkurrenzfähiger wäre und längerfristig keine Chance hätte.

Nvidia verballert doch eh überall unnütz Geld und lässt den Kunden zahlen.

Wenn AMD dann wieder konkurrenzfähigere Grafikkarten herausbringen könnte im Mainstream-Bereich dann würden auch die Preise sinken.

Nightspider
2015-06-17, 19:42:37
Das wird ein schönes Jahr für einen neuen PC. Skylake mit einer Fury =D + Windows 10. Herlich endlich wieder was neues zum Zusammenbauen...

This! + NVMe SSD!

foenfrisur
2015-06-17, 19:42:56
Müssen sie nicht. HBM wurde von AMD bei der JEDEC als offener Industriestandard eingereicht, welche es allen Unternehmen erlaubt HBM zu fertigen und einzusetzen. Wie im übrigen auch schon GDDR3, GDDR4, und GDDR5.

das wäre mit NV sicher anders gewesen ;)

mfg

R.I.P.
2015-06-17, 19:43:58
Müssen sie nicht. HBM wurde von AMD bei der JEDEC als offener Industriestandard eingereicht, welche es allen Unternehmen erlaubt HBM zu fertigen und einzusetzen. Wie im übrigen auch schon GDDR3, GDDR4, und GDDR5.
Hoffentlich wird das auch mal honoriert...obwohl ganz freiwillig haben sie das freilich nicht gemacht mMn...mehr Produktion = bessere Preise :)

foenfrisur
2015-06-17, 19:45:12
Hoffentlich wird das auch mal honoriert...obwohl ganz freiwillig haben sie das freilich nicht gemacht mMn...mehr Produktion = bessere Preise :)

das wird sicher nicht der grund sein, denn auch bessere karten (amd+hbm) bedeuten bessere verkäufe und preise ;)

mfg

mironicus
2015-06-17, 19:49:09
HBM wurde von AMD bei der JEDEC als offener Industriestandard eingereicht, welche es allen Unternehmen erlaubt HBM zu fertigen und einzusetzen.

Vielleicht macht NVidia ja demnächst seinen eigenen Speicher: G-HBM. Um G-HBM zu verwenden muss jeder Hersteller ein Modul von NVidia auf die Grafikkarte implementieren, damit der Speicher auch angesprochen werden kann. :D

AnarchX
2015-06-17, 19:53:08
Vielleicht macht NVidia ja demnächst seinen eigenen Speicher: G-HBM. Um G-HBM zu verwenden muss jeder Hersteller ein Modul von NVidia auf die Grafikkarte implementieren, damit der Speicher auch angesprochen werden kann. :D

Mit dem HBM-Speichermodell können die Hersteller doch eh nur noch Speicher und GPU komplett von NV oder AMD kaufen. Bei GDDR gab es wohl auch schon Kits, aber große Hersteller haben wohl teilweise der Speicher auch selbst beschafft.

basix
2015-06-17, 19:53:53
HBM2 wird auf jeden Fall unterstützt, da das eh nur ein Marketingbegriff ist für größere Speicherdichte durch neue Fertigung plus 8 Hi-Stacks und mehr Takt.

Eben. Und da die Fury X2 im Herbst kommt, kommt wahrscheinlich auch HBM2 im Herbst (wenn auch u.U. vorerst nur auf der Fury X2). Mit 4GB wäre die ein wenig nutzlos (und kommt jetzt nicht mit DX12 und geteiltem Speicherpool, es gibt noch genügend DX11 Spiele).

Nebenbei, ich bin gespannt wie die nächsten Titans und Furys heissen werden. Titan XYZ und Fury 0815 X2 stehen im Raum :freak: m.E. wäre der Name Fury X Duo sinnvoller, dann wären die nächsten Generationen schön Fury X2 Duo, X3 Duo etc...kann meinetwegen auch Fury X3 Quadro werden ;D

Skysnake
2015-06-17, 20:06:45
Wäre aber untypisch so dermaßen vorzubauen, das kostet schließlich auch was.
Durch die niedrigen Temps verbessert man aber massiv die Effizienz, weil die Schaltungen weniger leaken. Das ist schon sehr nice.

Zudem hat man wirklich eine leise Kühlung, was auch wieder gut in dern Reviews ankommt. Von daher sollte man an sich heutzutage wirklich nicht mehr an der Kühlung sparen.

AMD hat schon gesagt das man den HBM sehr gut übertakten wird können. Bandbreitenprobleme wird man mit der Karte sicher nicht bekommen. Generell sagte Joe das die Stromversorgung und auch die Kühlung der Karte auch für extremes Ocing ausgelegt ist.
Spannend wird sein, ob der RAM-Controller in Fiji an sich schon die HBM2 Frequenzen mit machen kann oder nicht. Ich gehe sehr! stark von ja aus. Die Frage ist dann nur noch, ob die Chips das auch validiert bekommen würden, wovon ich dann aber nicht aus gehe.

Da könnte man also eventuell massiv noch auf die Tube drücken. Das heist aber nicht, dass der Chip an sich auch so gut übertacktbar ist!

Das haben zwar alle erwartet, ist aber nicht der Fall. Es wurde jedenfalls nicht erwähnt bei der Carrizo-Präsentation, also kann man davon ausgehen dass es nicht unterstützt wird. Im Linux Open-Source Treiber gibt's auch keine Anzeichen dafür, das kannst du also wohl vergessen.
Aktive DP-HDMI 2.0 Adapter wären natürlich theoretisch möglich, keine Ahnung ob das jemand auf den Markt bringt (und zu welchen Kosten).
Und wie soll ein aktiver DP->HDMI 2.0 Adapter funktionieren? Der ganze DRM Dreck in HDMI2.0 erfordert eine komplette! Chain die das unterstützt. Das geht mit dem Adapter nicht, und ohne DRAM-Unterstützung ist HDMI2.0 support auch wieder witzlos, wobei die Frage besteht, ob das überhaupt dann noch 2.0 heisen darf??? Hat da jemand vielleicht gerade ne Ahnung von?

Wenn man das also bringt, und aktive Adapter sind btw hässlich wie die Nacht, kann man also nur "billige" 4k TVs dadurch nutzen als Monitorersatz, das wars auch. Und ich erwarte nicht, dass die Adapter billig werden...

Was ist an Typical Board Power nicht zu verstehen?

Bei 2 GB lägen das halbe Interface und zwei Stacks brach, IMHO völliger Schwachsinn.
Würde ich nicht sagen.

WAs ich so über Interposer und STacked RAM bezüglich Validierung und auch Fertigung lesen konnte bisher halte ich es für nicht unwahrscheinlich, das ein nicht kleiner Teil der Karten mit entweder ganz "kaputten" RAM-Stacks aus der Validierung kommt, oder teildefekten.

Da eine Karte zui haben, wo man diesen durch das Stacking auf den Interposer defekte Produkt noch verwerten kann, wäre sicherlich nicht schlecht.

Müssen sie nicht. HBM wurde von AMD bei der JEDEC als offener Industriestandard eingereicht, welche es allen Unternehmen erlaubt HBM zu fertigen und einzusetzen. Wie im übrigen auch schon GDDR3, GDDR4, und GDDR5.
Wobei meines Wissens nur Micron SKHynix HBM-Chips herstellt oder? Man könnte also ohne Probleme mit Micron darauf einigen, das ein gewisser Geldbetrag pro verkauftem HBM-Chip/Stack an AMD geht.

So etwas müssten Sie aber wohl an sich in den Finance calls wohl erwähnen denke ich.

Knuddelbearli
2015-06-17, 20:15:00
Was ist an Typical Board Power nicht zu verstehen?



1.) kein Grund pampig zu werden
2.) habe ich dich schonmal gefragt wo das steht. Beim einzigen Bild wo von 175W die rede ist steht nichts von TDP oder eben nicht TDP sondern einfach nur 175W. Eventuell kenne ich aber eine 2te Folie dazu ja nur nicht.

BlacKi
2015-06-17, 20:15:17
Das wird ein schönes Jahr für einen neuen PC. Skylake mit einer Fury =D + Windows 10. Herlich endlich wieder was neues zum Zusammenbauen...

und erst 2016^^

pascal

full skylake nicht den verkrüppelten ohne eDRAM den es dieses jahr herauskommt.

oder ich gehe auf broadwell E. mhh

solange es nichts neues gibt aka. fiji in 28nm mit 4gb weiß ich nicht ob ich schon zulangen sollte.

wehe pascal kommt mit 4gb weils für fiji ja auch reicht.

OBrian
2015-06-17, 20:16:33
Wobei meines Wissens nur Micron HBM-Chips herstellt oder?ich dachte, die Dinger sind von SK Hynix?

Skysnake
2015-06-17, 20:19:00
Äh mein ich doch :ugly:

Micron macht doch HMC -.-

Sorry, korrigiere das gleich

OBrian
2015-06-17, 20:22:47
werden sicher mehrere Firmen herstellen. Ist ja eh die Zukunft der Speichertechnologie, und stacked RAM an sich bauen ja wohl eh schon einige, einfach für Speicherriegel usw. (das wurde bei DDR4 ja als Möglichkeit zur Kapazitätssteigerung angeführt, als Ersatz dafür, daß man nur noch einen Riegel pro Channel verbauen kann).

y33H@
2015-06-17, 20:24:10
@ Knuddelbearli

Sorry, sollte nicht so rüber kommen. Das steht nirgends bisher, das sagte AMD u.a. im Stream gestern.

Was ich so über Interposer und STacked RAM bezüglich Validierung und auch Fertigung lesen konnte bisher halte ich es für nicht unwahrscheinlich, das ein nicht kleiner Teil der Karten mit entweder ganz "kaputten" RAM-Stacks aus der Validierung kommt, oder teildefekten. Da eine Karte zui haben, wo man diesen durch das Stacking auf den Interposer defekte Produkt noch verwerten kann, wäre sicherlich nicht schlecht.Performance über 290X und dann nur 2 GB? So blöd ist AMD nicht.

Wobei meines Wissens nur Micron HBM-Chips herstellt oder? Man könnte also ohne Probleme mit Micron darauf einigen, das ein gewisser Geldbetrag pro verkauftem HBM-Chip/Stack an AMD geht.Hynix - Micron macht die HMCs.

Timbaloo
2015-06-17, 20:25:04
Wobei meines Wissens nur Micron SKHynix HBM-Chips herstellt oder? Man könnte also ohne Probleme mit Micron darauf einigen, das ein gewisser Geldbetrag pro verkauftem HBM-Chip/Stack an AMD geht.
Warum sollte sich Hynix auf sowas einlassen? Das ist doch bitterstes Wunschdenken...

Der Vorteil den AMD hat ist, dass man HBM als erster auf den Markt bringt. Vielleicht noch, dass man sich Kapazitäten für HBM2 vorab sichern konnte. Beides kann viel wert sein wenn es AMD richtig anstellt. Die Zeichen stehen gut. Aber Quasi-Lizenzgebüren an AMD abdrücken für einen JEDEC-Standard? Sorry, aber ;D

aufkrawall
2015-06-17, 20:26:49
NV dürfte mittlerweile viel höhere Stückzahlen haben, bei einer Beachteiligung würde sich Hynix ins eigene Fleisch schneiden.

foenfrisur
2015-06-17, 20:29:05
zum DP->HDMI 2.0-Adapter, habs gefunden, was ich vorhin geschrieben habe:


Thank you for contacting Accell.

We currently do not offer such an adapter. It is currently in the development pipeline and may become available by the end of the year. Please let us know if you have any other questions.

Best Regards,

Alexander Wong

Accell
3400 Gateway Blvd
Fremont, CA 94538
510.438.9288

http://www.accellcables.com/

On Fri, Jun 5, 2015 at 10:23 AM, xxxxxxxx wrote:
Do you have any mini display port to HDMI 2.0 cables that support 4k@60hz?
--------------------------------------------------------------------------------------------------------------------------------------------------------------

auch die hier wollen angeblich bis Q2´2015 welche anbieten...
http://www.paradetech.com

das könnte einer davon sein.
http://de.aliexpress.com/item/Free-Shipping-DisplayPort-Mini-DP-to-Active-HDMI-Adapter-AMD-Eyefinity-Max-4096-x-2160-60HZ/1734487329.html

http://www.tomshardware.co.uk/forum/id-2258794/powering-hdmi-devices-mini-gpu.html#15996843

mfg

OBrian
2015-06-17, 20:29:23
Ich denke auch nicht, daß AMD das komplett entwickelt hat und dann nur die Bauanleitung an Hynix geschickt hat. Das wird Hynix schon selbst gemacht haben, nur eben mit einem Pflichtenheft, was AMD gerne hätte. Da AMD HBM als monströsen Cache nutzen will und das zukünftig auch für CPUs, müssen z.B. die Latenzen gut sein, was bei reinem GPU-RAM ja bisher völlig nachrangig war.

y33H@
2015-06-17, 20:30:54
Woher kommt den diese ominöse "HBM als Cache"-Geschichte?

OBrian
2015-06-17, 20:32:30
hat doch oben einer geschrieben. Liegt ja auch auf der Hand.
Also echte Caches wird man damit nicht ersetzen können, aber die können eben klein bleiben, man muß es nicht auf zig MB ausdehnen.

foenfrisur
2015-06-17, 20:33:10
wurde glaub ich in einem video auf youtube gesagt.

mfg

foenfrisur
2015-06-17, 20:35:42
habt ihr mal auf die hauptseite gesehen?

http://www.3dcenter.org/news/erste-3dmark-werte-zu-radeon-r9-390x-fury-fury-x-aufgetaucht
:eek::eek:

perf-index 770-810%??

mfg

Timbaloo
2015-06-17, 20:37:19
habt ihr mal auf die hauptseite gesehen?

http://www.3dcenter.org/news/erste-3dmark-werte-zu-radeon-r9-390x-fury-fury-x-aufgetaucht
Das wurde hier glaube ich gestern gepostet.

Hübie
2015-06-17, 20:37:46
Gabs schon zweimal hier ;) dargo hat das ganz gut formuliert: Diesen Vollpfosten fällt immer nur 3D-Quark ein :facepalm:

Das mit HDMI 2.0 finde ich erst dann dramatisch wenn der erworbene Monitor kein DP 1.2(a) hat. Denn imo sollte DP immer das Mittel der Wahl sein und erst wenns nicht geht die anderen. Bis HDMI 1.3 kann man auch DVI-D bevorzugen.

foenfrisur
2015-06-17, 20:38:14
ja ich weiß, aber der perf-index ~770-810% ?
titan x 760%

mfg

aufkrawall
2015-06-17, 20:40:00
Du siehst ja am 4k-Index, dass das nur 5% Vorsprung sind.
Interessanter wären dann Vergleiche mit max OC.

M4xw0lf
2015-06-17, 20:40:43
ja ich weiß, aber der perf-index ~770-810% ?
titan x 760%

mfg
Das sind nicht mal 10% mehr, gell.

Hübie
2015-06-17, 20:41:24
Ja Leo sollte den Index mal aktulasieren denn sonst geht durch die Granularität das echte Gefühl für den Vorsprung verloren. Die 5% machen es am Ende deutlich.

Edit: Ich hoffe jetzt ist allen beteiligten klar warum Jensen mit 12 GB hereinspaziert kam.

y33H@
2015-06-17, 20:42:26
Liegt ja auch auf der Hand.Äh nein. Denn der HBM mag zwar vom Speed an den L2 rankommen (kA wie flott der ist), aber vom RAM in den HBM limitiert nun mal wie gehabt und wie bereits erwähnt der PCIe.

foenfrisur
2015-06-17, 20:43:13
ok, habs beim durchrechnen eben auch gemerkt, das es ~6% sind....
es wirkte aber erst mal extrem falsch :D

mfg

Hübie
2015-06-17, 20:43:26
Und wieso ist der Bus dann dauernd nur mit 10-15% belastet? :rolleyes:

OBrian
2015-06-17, 20:45:34
Ja Leo sollte den Index mal aktulasieren denn sonst geht durch die Granularität das echte Gefühl für den Vorsprung verloren. Die 5% machen es am Ende deutlich.nee, aktualisieren ist Käse, dann bleibt der Langzeitvergleich auf der Strecke, und darum geht es ja. Aber er hätte das Prozentzeichen weglassen sollen, denn sobald das auftaucht, können die Leute auf einmal nicht mehr rechnen. Einfach "Indexpunkte" wäre viel besser gewesen. Wenn man dann liest "TitanX 760 Punkte, Fury X 770 bis 810 Punkte", dann klappt das Denken wieder ;)

M4xw0lf
2015-06-17, 20:46:51
Wenn man dann liest "TitanX 760 Punkte, Fury X 770 bis 810 Punkte", dann klappt das Denken wieder ;)
Da wär ich nicht so sicher :freak:

Hübie
2015-06-17, 20:47:43
Hm, auch keine schlechte Idee. Ist aber OT. So Langzeitvergleiche machen aber irgendwann keinen Sinn mehr. Glaube bei ihm ist die HD 5770 noch die 100%-Punkte-Marke.

ps: Hakt nich so auf den foeni rum :P

foenfrisur
2015-06-17, 20:50:16
Da wär ich nicht so sicher :freak:
:P:hammer::ubash2:
jaja....

mfg

ChaosTM
2015-06-17, 20:50:44
7850er als neue 100 würde Sinn machen - ist ca. Konsolenniveau iirc.

Tamagothi
2015-06-17, 20:53:51
Äh nein. Denn der HBM mag zwar vom Speed an den L2 rankommen (kA wie flott der ist), aber vom RAM in den HBM limitiert nun mal wie gehabt und wie bereits erwähnt der PCIe.

Das einzige was limitiert ist die Fähigkeit der Spiele Programmierer :wink:

M4xw0lf
2015-06-17, 20:56:24
ps: Hakt nich so auf den foeni rum :P
:P:hammer::ubash2:
jaja....

mfg
Ich meinte gar niemanden speziell, schwör :smile:

Hübie
2015-06-17, 21:01:52
Das einzige was limitiert ist die Fähigkeit der Spiele Programmierer :wink:

Das kannst du sehr weit aufspannen... API liegt ja nicht in Händen eines coders beim Spieleentwickler.
Dann kommen noch X middleware- und outsourcing-Projekte dazu. Programmierer sind heutzutage schon gearscht, wenn die sich nicht absolut spezialisieren.

maximus_hertus
2015-06-17, 21:13:03
nee, aktualisieren ist Käse, dann bleibt der Langzeitvergleich auf der Strecke, und darum geht es ja. Aber er hätte das Prozentzeichen weglassen sollen, denn sobald das auftaucht, können die Leute auf einmal nicht mehr rechnen. Einfach "Indexpunkte" wäre viel besser gewesen. Wenn man dann liest "TitanX 760 Punkte, Fury X 770 bis 810 Punkte", dann klappt das Denken wieder ;)

Bessere Idee: Einfach die HD 57x0 (die jetzt die 100% Marke stellt) auf z.B. 20% indexieren. Dann kann man weiterhin den Langzeitindex behalten (im Bereich von 20 - 100% kann man dann evtl. etwas genauer die %te angeben).
Dann wäre eine Titan X bei rund 155% und die Fury X bei ca. 160%.

Und man hätte wieder "Luft" für die kommenden Jahre.

Skysnake
2015-06-17, 21:21:24
werden sicher mehrere Firmen herstellen. Ist ja eh die Zukunft der Speichertechnologie, und stacked RAM an sich bauen ja wohl eh schon einige, einfach für Speicherriegel usw. (das wurde bei DDR4 ja als Möglichkeit zur Kapazitätssteigerung angeführt, als Ersatz dafür, daß man nur noch einen Riegel pro Channel verbauen kann).
Die Frage ist dabei immer nur, wer welche Patente hält. Nur weil etwas Spezifiziert ist bei der JEDEC heist das ja noch lange nicht, das auch alle Patente, die es gibt, um das Zeug effizient her zu stellen auch for free sind.

Warum sollte sich Hynix auf sowas einlassen? Das ist doch bitterstes Wunschdenken...

Der Vorteil den AMD hat ist, dass man HBM als erster auf den Markt bringt. Vielleicht noch, dass man sich Kapazitäten für HBM2 vorab sichern konnte. Beides kann viel wert sein wenn es AMD richtig anstellt. Die Zeichen stehen gut. Aber Quasi-Lizenzgebüren an AMD abdrücken für einen JEDEC-Standard? Sorry, aber ;D
wie gesagt, kommt drauf an, wer was an Patenten hält. Schau dir doch an was Ericson usw üer FRAND Patenten an Einnahmen generieren. Kategorisch ausschließen sollte man das so einfach nicht.

JEDEC definiert ja "nur" Schnittstellen Protokolle usw, aber meines Wissens nache eben nicht die Implementierung/Realisierung selbiger.

Nightspider
2015-06-17, 21:25:09
Äh nein. Denn der HBM mag zwar vom Speed an den L2 rankommen (kA wie flott der ist), aber vom RAM in den HBM limitiert nun mal wie gehabt und wie bereits erwähnt der PCIe.

Und was hat das mit Cache zu tun?

Wenn der VRAM schnell genug ist von der Bandbreite und der Latenz dann kann man Teile des GPU Caches in den HBM auslagern so lange man die Daten nicht braucht bzw. man kann halt den HBM wie einen zusätzlichen langsamen Cache ansprechen.

Ich könnte mir vorstellen dass das bei Supercomputern mehr bringt als bei Spielen.

Wir werden sehen ob die Spieleprogrammierer das zu nutzen wissen.

OBrian
2015-06-17, 21:25:55
Äh nein. Denn der HBM mag zwar vom Speed an den L2 rankommen (kA wie flott der ist), aber vom RAM in den HBM limitiert nun mal wie gehabt und wie bereits erwähnt der PCIe.
wieso widersprichst Du mir, wenn Du gar nicht verstanden hast, was ich meine?

Wenn man die übernächste APU mit HBM ausstattet, um die GPU mit genug Bandbreite zu versorgen, dann kann man den HBM auch gleich so designen, daß man sich den L3 auf der CPU sparen kann. Bei Vishera nimmt der L3 grob ein Drittel bis Viertel der Diefläche ein, ist also nicht unerheblich. Bei Kaveri, Carizzo usw. wird er weggelassen, weil er zu groß ist, aber das kostet eben Leistung. Wäre also doch super, wenn man den HBM, den man für die GPU verbaut, auch für die CPU als L3-Ersatz nutzen könnte. Und wenn man den HBM sowieso selber entwirft, weil es keinen gibt, dann kann man diesen Gedanken ja gleich in die Entwicklung einfließen lassen.

Wo kommt in dem Gedanken denn eine PCIe-Anbindung vor?

BlacKi
2015-06-17, 21:36:48
ok, habs beim durchrechnen eben auch gemerkt, das es ~6% sind....
es wirkte aber erst mal extrem falsch :D

mfg

der eigentliche gegner ist aber eher die 980 ti, und darauf sinds ca 10% , was schonmal nicht schlecht ist.

wenn man jetzt aber ne 980ti hybrid nimmt, werden sich beide nichts nehmen. dafür hat man aber 6gb ram

Tesseract
2015-06-17, 21:40:29
ich glaube manche hier haben eine etwas falsche vorstellung von caches. alles was im cache ist, ist sowieso auch im vram. wenn aus dem vram was gelesen wird kommt es in den cache und wenn die rechenwerke dann mehrmals darauf zugreifen können sie den schnellen cache statt dem langsamen vram verwenden. die cachehierarchie muss dann halt intelligent genug sein und die werte rechtzeitig vom cache in den vram zurückschreiben wenn etwas anderes auf diesen bereich im vram zugreifen will.

bei CPUs funktioniert das auch so: wenn ein wert im ram gelesen wird kommt der in den L3, L2 und L1. der kern arbeitet dann am L1 und schreibt den wert z.B. in einer schleife 100 mal in den L1 ohne jedes mal auf den langsamen ram zugreifen zu müssen. wenn der kern einen wert lesen will wird im L1 geschaut, ist er da nicht drin wird im L2 nachgeschaut usw. bis man im worst case dann auf den ram zugreifen muss.
in der praxis sieht das bei guten caches dann so aus, dass z.B. 90% aller zugriffe erfolgreich den L1 hitten, 9% irgendwo auf L2-L4 gehen und nur 1% wirklich bis zum ram runter geht.

mczak
2015-06-17, 21:54:23
Und wie soll ein aktiver DP->HDMI 2.0 Adapter funktionieren? Der ganze DRM Dreck in HDMI2.0 erfordert eine komplette! Chain die das unterstützt. Das geht mit dem Adapter nicht, und ohne DRAM-Unterstützung ist HDMI2.0 support auch wieder witzlos, wobei die Frage besteht, ob das überhaupt dann noch 2.0 heisen darf??? Hat da jemand vielleicht gerade ne Ahnung von?

Mit HDCP 2.2 dürfte das wohl tatsächlich dann nicht gehen. Das ist aber nicht zwingend für HDMI 2.0 (also gut ist möglicherweise zwingend damit man das so nennen darf, aber wen interessiert schon der Name, gerade bei HDMI ist alles wichtige, insbesondere die maximalen Bandbreiten, NICHT in der Versionsnummer enthalten...), vielleicht möchte man ja den Fernseher auch bloss als Monitor nutzen jenseits von bluray und netflix 4k.

y33H@
2015-06-17, 21:55:24
wieso widersprichst Du mir, wenn Du gar nicht verstanden hast, was ich meine?Vll weil ich dich nicht verstanden habe :freak:

Wenn man die übernächste APU mit HBM ausstattet, um die GPU mit genug Bandbreite zu versorgen, dann kann man den HBM auch gleich so designen, daß man sich den L3 auf der CPU sparen kann.Ja, denkbar.

Wo kommt in dem Gedanken denn eine PCIe-Anbindung vor?Nirgends, ich war bei Fiji.

Knuddelbearli
2015-06-17, 22:01:59
ich glaube manche hier haben eine etwas falsche vorstellung von caches. alles was im cache ist, ist sowieso auch im vram. wenn aus dem vram was gelesen wird kommt es in den cache und wenn die rechenwerke dann mehrmals darauf zugreifen können sie den schnellen cache statt dem langsamen vram verwenden. die cachehierarchie muss dann halt intelligent genug sein und die werte rechtzeitig vom cache in den vram zurückschreiben wenn etwas anderes auf diesen bereich im vram zugreifen will.

bei CPUs funktioniert das auch so: wenn ein wert im ram gelesen wird kommt der in den L3, L2 und L1. der kern arbeitet dann am L1 und schreibt den wert z.B. in einer schleife 100 mal in den L1 ohne jedes mal auf den langsamen ram zugreifen zu müssen. wenn der kern einen wert lesen will wird im L1 geschaut, ist er da nicht drin wird im L2 nachgeschaut usw. bis man im worst case dann auf den ram zugreifen muss.
in der praxis sieht das bei guten caches dann so aus, dass z.B. 90% aller zugriffe erfolgreich den L1 hitten, 9% irgendwo auf L2-L4 gehen und nur 1% wirklich bis zum ram runter geht.

wie funktioniert das eigentlich?

wenn die selbe "Datei" zugleich im Speicher als auch im Cache ist gibts doch 2 Szenarien. die im cache wird bearbeitete die im Speicher bleibt aber auf alten stand = Problem wenn eine andere darauf zugreift und man könnte sie gleichgut im Speicher löschen.
Datei wird bei Bearbeitung mit geändert = Transferrate und Latenz zum Speicher limitiert

Tesseract
2015-06-17, 22:10:38
wenn die selbe "Datei" zugleich im Speicher als auch im Cache ist gibts doch 2 Szenarien. die im cache wird bearbeitete die im Speicher bleibt aber auf alten stand = Problem wenn eine andere darauf zugreift und man könnte sie gleichgut im Speicher löschen.
Datei wird bei Bearbeitung mit geändert = Transferrate und Latenz zum Speicher limitiert
es gibt da verschiedene strategien - die meisten modernen caches zögern das zurückschreiben in den speicher so lange wie möglich raus (d.h. bis wirklich jemand anderes auf genau diesen bereich zugreifen will)

speicherzugriffe sind ziemlich berechenbar: wenn auf einen bereich zugegriffen wird, ist es sehr wahrscheinlich, dass nachfolgende zugriffe wieder auf die selbe stelle oder relativ knapp "daneben" stattfinden werden. das liegt einfach daran wie programme geschrieben werden bzw. ablaufen. der fall bei dem um einen bestimmten speicherbereich "gestritten" wird (d.h. worst case für den cache) ist in der menge aller zugriffe extrem selten bzw. unwahrscheinlich und deswegen funktioniert caching in der praxis extrem gut.

Hübie
2015-06-17, 22:10:50
Das ist ein recht komplexes off-topic ;) Es befinden sich auch nicht immer alle Daten in allen Caches. Oft überspringt man eine Stufe. Aber das ist schon alles sehr spezifisch. Der L2 im GK110 hat 512 GB/s. Weiß nur nicht ob in eine oder beide Richtungen. Eigentlich gibt man das bidirektional an.

Der_Korken
2015-06-17, 22:13:50
wie funktioniert das eigentlich?

wenn die selbe "Datei" zugleich im Speicher als auch im Cache ist gibts doch 2 Szenarien. die im cache wird bearbeitete die im Speicher bleibt aber auf alten stand = Problem wenn eine andere darauf zugreift und man könnte sie gleichgut im Speicher löschen.
Datei wird bei Bearbeitung mit geändert = Transferrate und Latenz zum Speicher limitiert

Es gibt prinzipiell verschiedene Cache-Strategien, welche jeweils Vor- und Nachteile haben. Das erste Problem, dass quasi Kern A lokal in seinem Cache was ändert und Kern B auf den "gleichen" Wert im Speicher zugreifen will, kann man zum Beispiel dadurch lösen, dass Lesezugriffe immer im Cache erfolgen (weil unkritisch) und nur Schreibzugriffe bis in den RAM runtergehen. Das ist immer konsistent, aber eben langsam. Eine andere Möglichkeit wäre z.B., dass man für jede Speicherzelle protokolliert, ob jemand davon eine lokale Kopie im Cache vorhält und denjenigen zwingen, seinen aktuellen Wert vom Cache in den RAM zurückzuschreiben. Das ganze ist im Grunde eine Wissenschaft für sich und nennt sich Cache-Kohärenz.

Sachen aus dem RAM zu löschen, weil es davon schon eine Kopie in einem Cache gibt, sollte man übrigens vermeiden, weil der Cache eigentlich nur ein versteckter (daher der Name) Speicher ist und afaik auch gar nicht richtig von außen adressierbar.

Edit: Zu spät :tongue:

davidzo
2015-06-17, 22:29:56
7850er als neue 100 würde Sinn machen - ist ca. Konsolenniveau iirc.

Ich glaube es wurde seit 2 Jahren auch in keinem Artikel mehr erwähnt was überhaupt 100% sind, aber der aufmerksame 3dcenter-Leser wird sich ja vielleicht erinnern.

Sowieso ist diese Prozentangabe ungeschickt. Prozent ist immer eine relative Angabe, wenn nicht, dann sollte Prozentpunkt bzw. Basispunkt als Vokabel verwendet werden.
Eine relative Angabe zu verwenden ohne im Artikel deutlich zu machen zu was diese Relation besteht ist sowieso ziemlich sinnbefreit. Eigentlich müsste die Basis in jedem Artikel erwähnt werden.

Wieso nicht eigene Einheiten wählen? 3dc Punkte und 3dc-4k Punkte - und dann klar stellen dass 100 Punkte eben 100% einer damaligen Mainstreamkarte xyz entsprechen?
Bessere Idee: Einfach die HD 57x0 (die jetzt die 100% Marke stellt) auf z.B. 20% indexieren. Dann kann man weiterhin den Langzeitindex behalten (im Bereich von 20 - 100% kann man dann evtl. etwas genauer die %te angeben).
Dann wäre eine Titan X bei rund 155% und die Fury X bei ca. 160%.

Und man hätte wieder "Luft" für die kommenden Jahre.

Ich finde den 4K Index da eigentlich die bessere Idee. Der gibt ungefähr die Leistung bei gesteigerter Auflösung oder Filtereinstellungen (z.B. DSR) wieder. Ist auch mehr Zeitgemäß.

Man kann den alten Index dann ja retrospektiv in 1080p Index umbenennen.