PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 [35] 36

Dawn on Titan
2014-09-22, 14:17:43
eher was embedded

Unicous
2014-09-22, 14:22:01
Oder was für die Füße.

Knuddelbearli
2014-09-22, 14:38:32
und das wäre dann für den Gluteus maximus

Ailuros
2014-09-22, 14:41:30
So genug mit der Pause und jetzt zurueck :ass2: zum Thema :freak:

Akkarin
2014-09-22, 16:14:58
Meine These:

Es gibt irgendwelche Treiberupdates für Tonga (und evt. ältere karten wie Hawaii), welche u.A. Änderungen für CF bringen und verraten wo die 700M transitoren hin sind.

Käsetoast
2014-09-22, 16:52:17
Um ganz ehrlich zu sein: Ich fände es bizarr wenn AMD da etliche Transistoren für irgendwas verbraten hätte und zum Release damit hinterm Berg hält. Ich gehe eher davon aus, dass das einfach irgendwelche GPGPU Geschichten für die FirePro Reihe sind oder irgendwas dergleichen. Ultimative geheime Features halte ich für unglaubwürdig...

-/\-CruNcher-/\-
2014-09-22, 19:55:43
Kann ein normales System direkt von einer PCIe-Karte booten? Nur mit geeignetem BIOS vermute ich.
Es gab mal Folgendes:
http://www.newegg.com/Product/Product.aspx?Item=N82E16813998603

:freak:

Wenn AMD soetwas bringt...:uattack4:



THG hat da einen sehr komisch Workload wohl angelegt, mal gucken was HT4U misst.


THG hat sehr viele experten und die haben die test methodik zusammen mit Rhode & Schwarz ausgetüftelt die sollten schon wissen was sie tun und vor allem was sie da messen.

Hiermit bekommen wir auch das erstemal tieferen einblick in die Verarbeitungsqualität der Custom Designs und nicht nur immer das PR bla bla (auf einer schönen bunten website) :)

Glaube nicht das HT4U das auf diesem Level leisten kann sie waren zwar immer gut und besser als Standard Reviewer aber das hier ist um welten besser, effizienter und vor allem genauer :D

Denke mal das geht auch einher mit ihrer Release Verzögerung sie schaffen es nicht die selben Ergebnisse zu Reproduzieren mit ihrem Aufbau und überlegen sich gerade was sie tun sollen, die jungs tun mir ehrlich leid im Endeffekt werden sie auf THG verweisen müssen was den Hochaufgelösten test angeht ;)

Jetzt werden nicht nur Netzteile wie nie zuvor ausseinandergerissen von THG sondern auch Grafikkarten :)

Ein Elektroingeniuersfreund (Rüstungsindustrie) musste immer etwas schmunzeln über z.b Computerbase tests vor allem Computerbase erklärungen zu sachen die sie anscheinend überhaupt selbst nicht verstehen ;)

horn 12
2014-09-22, 22:12:39
Versucht AMD durch Neue Games Dreingabe zu Punkten ?
Dies wird aber zu wenig sein um den Preis rechtfertigen zu können.
Da muss auch Treiberseitig was Neues und Gewaltiges kommen, ansonsten wird es NICHT ausreichen hauptsächlich der GTX 970 das Wasser zu reichen !
Die GTX 980 sehe ich weniger attraktiv, da kann AMD mit der 295X2 gut mithalten. (Unter 800 Euro bereits, also 200+ mehr als die Konkurrenz bei gut Mehr Leistung.

Alien und AC Unity zuzmindest sollten wohl dabei sein, laut den Ganzen NewsSticks die dauernd über Twitter gepostet werden.
Das Problem ist die GTX 970 für AMD, jene schlägt derzeit gewaltig ins Miese bei AMD!

270 Euro für die R9 290 und 330 Euro 290X und zumindest 4 NagelNeue Games dann dürfte, falls AMD auch am Treiber gefeilt (und diesesmal Richtig gut gearbeitet hat)
die Schadensbegrenzung gemildert werden.
Aber warten wir Alle gespannt auf den 25.ten

https://twitter.com/AMDIndia?original_referer=http%3A%2F%2Fvideocardz.com%2F52764%2Famd-teasing-new-product-is-it-radeon&tw_i=513258782286041088&tw_p=tweetembed

Akkarin
2014-09-22, 22:21:12
Wenn AMD wirklich AC Unity im gaming evolved Programm haben wäre dass ihmo extrem wichtig, denn Ubisoft waren bisher die einzigen (großen) die noch bei nVidia und nicht bei AMD im Boot saßen.

-/\-CruNcher-/\-
2014-09-22, 22:22:20
https://pbs.twimg.com/media/ByIJUpICYAAV4Va.jpg:large

Das ist jetzt ziemlich eindeutig und nicht weltbewegend

Project Discovery sprich Mullins Tablet/Mini-PC start exclusiv in Indien (Low Cost Emerging Market) das wird sehr kostengünstig und wir schauen in die Röre

http://www.amd.com/de-de/innovations/software-technologies/discovery

wobei Cherry Trail hat sich enorm verschoben dank Mobile-M so gesehen herzlichen Glückwunsch schonmal AMD :D

Unicous
2014-09-22, 22:23:37
@horn

Ja genau. Zu jeder FirePro bekommt man ein Never Settle Professional Bundle mit einer RenderMan Lizenz und einem Never Settle Gold Key.

Woher weißt du eigentlich, dass das AC:Unity ist? Die Outfits sind aus dem ersten bzw. zweiten Teil.:rolleyes:


Big Launch sagen sie. Ich schätze es sind einfach nur die längst "enthüllten" FirePros.



edit:

Da ist gar nichts eindeutig. Das ist der PC im Wandel der Zeit, du Prophet. Und "AMD ist die Zukunft des PCs".

aufkrawall
2014-09-22, 22:29:54
Wenn AMD wirklich AC Unity im gaming evolved Programm haben wäre dass ihmo extrem wichtig, denn Ubisoft waren bisher die einzigen (großen) die noch bei nVidia und nicht bei AMD im Boot saßen.
Wie kommst du denn darauf?
Das Spiel nutzt diverse Gameworks-Features, unter anderem Tessellation für wahrscheinlich so ziemlich alles.
Nicht unwahrscheinlich, dass Ubisoft bald auch wie Epic und Crytek Lightworks in Anvil Next integrieren wird.
So etwas wird AMD wohl kaum ihren Karten beilegen.

Godmode
2014-09-22, 22:44:36
Wenn AMD wirklich AC Unity im gaming evolved Programm haben wäre dass ihmo extrem wichtig, denn Ubisoft waren bisher die einzigen (großen) die noch bei nVidia und nicht bei AMD im Boot saßen.

Ich weiß ja nicht wie es die Masse sieht, aber mir sind diese Spielepakete ziemlich egal. Eine neue Graka wird gekauft wenn sie eine bestimmte Leistung erreicht und bestimmte Features unterstützt.

Knuddelbearli
2014-09-22, 22:53:01
Auch wenn eher Wunschdenken.
Aber immerhin ist es der Jahrestag von Mantle und TrueAudio

Vielleicht kommt ja AMD mit einer großen Treiber offensive.
Niedrigere CPU Last etliche neu Features usw.

Wäre weit günstiger als eine neue Maske und bringt sicherlich weit mehr ^^

horn 12
2014-09-22, 23:00:36
Nun, dies wäre wünschenswert
Die R9 290-er Karten werden ab >13.12 besser ausgelastet, dafür aber auch bedeutend wärmer.
Meine R9 290 Referenz mindestens um 5 Grad wie damals der 13.11 oder 13.12-er Treiber.
----> Nicht nur weil es etwas wärmer wurde damals im Jänner 2014 bei uns, Nein dies ist Fakt!

Want to win Never Settle Forever Gaming Bundle? Participate in #GizBotGiveaway Courtesy @AMD #FutureIsAMD http://is.gd/vGFzOH

Recht zuversichtlich sieht mir die Vorstellung allemal NICHT aus !
Wohl eine VERZWEIFELSTAT von AMD, hoffe aber bis zum Schluß nicht!


NDA fällt Donnerstag um 05:00 früh Morgens europäischer Zeit :-)

Unicous
2014-09-23, 11:19:04
horn, kannst du mal diesen Blödsinn endlich lassen. Alle sind genervt und es interessiert niemanden.


Übrigens:

When Nvidia made its low-latency VR announcement, I immediately thought that the green team was going to have a de facto advantage over the red team. Fortunately for AMD users, this isn't the case.

According to Tom Forsyth, Oculus VR's Software Architect, this is a new enhancement for Nvidia GPUs that is already available in AMD graphics cards. In fact, some of these optimizations can be found in current Xbox One and Sony PlayStation 4 platforms as part of their respective SDK. Why? Because they are based on AMD GPUs.
http://www.tomshardware.com/news/oculus-oculus-connect-vr-amd-nvidia,27729.html

Screemer
2014-09-23, 12:53:15
Aber man überschlägt sich im maxwell -thread wie geil das doch ist. Fands auch ne tolle Entwicklung und das AMD das schon bietet war mir nicht bewusst. AMD sollte wirklich mal an ihrer marketing Ausrichtung ändern....

Mr.Ice
2014-09-23, 14:09:09
AMDs »Game Scientist« Richard Huddy - Fotorealistische Grafik in Spielen in fünf Jahren
http://www.gamestar.de/hardware/news/3078595/amds_game_scientist_richard_huddy.html

Knuddelbearli
2014-09-23, 14:50:03
das hies schon vor 20 Jahren ^^

alos das mit den in 5 Jahren

DrumDub
2014-09-23, 15:20:32
kommt halt drauf an, was nan als fotorealistisch empfindet. ich fand das erste max payne kam damals fotorealistisch rüber. da sind wir dann wieder beim uncanny valley ...

memoal
2014-09-23, 15:25:00
Aber immerhin ist es der Jahrestag von Mantle und TrueAudio.
TrueAudio ist doch auch solch ein Dingens, wer nicht bei AMDs "Gaming Evolved" mitmacht, darf nicht auf Trueaudio setzen, obwohl ja Plugins wie Firelight Technologies FMOD und Audiokinetics Wwise übliche Sound-Middlewares für Spiele sind. Naja, soviel zu open sources.

Würde aber in manchen Fällen auch kein Sinn machen, die Hardware und Softwareunterstützung fehlt ja bei anderen. Die Xbox besitzt ja einen dedizierten DSP Chip. Man ist sich nicht ganz sicher ob der auch Trueaudio könnte?

Denn man herzlichen Glückwunsch, durch Windows 8 würde ja DSP unterstützt/bzw. möglich, in Windows 7 nicht.

-/\-CruNcher-/\-
2014-09-23, 15:31:44
Aber man überschlägt sich im maxwell -thread wie geil das doch ist. Fands auch ne tolle Entwicklung und das AMD das schon bietet war mir nicht bewusst. AMD sollte wirklich mal an ihrer marketing Ausrichtung ändern....

AMD bzw ATI hat viele geniale sachen gemacht ihre Hardware war früher schon meistens überlegen aber die Treiber sind es einfach nicht seit dem Architektur Umstieg zu GCN ändert sich alles seit der Konsolen Convergence noch schneller.
Es wird nicht mehr so lange dauern dann stehen sich Nvidia und AMD von der Hardware her auf einem Level Gegenüber (den Powermanagement vorteil den alle so loben momentan bei Nvidia wird auch AMD erreichen durch ihre Mobile R&D früher oder später).
Spätestens dann wird Ökosystem das wichtigste für beide und da hinkt AMD immernoch ein stück zurück aber sie versuchen es so schnell wie geht zu ändern.

Käsetoast
2014-09-23, 15:36:21
kommt halt drauf an, was nan als fotorealistisch empfindet. ich fand das erste max payne kam damals fotorealistisch rüber. da sind wir dann wieder beim uncanny valley ...
Ich glaube das lag weniger am Uncanny Valley als an den Shadern die kurz nach der Max Payne Zeit kamen. Das ganze Normal Mapping hatte lange Zeit halt einen ziemlichen Plastik Look (gerade wenn man an Doom 3 und Spiele mit dessen Engine denkt). Das beginnt sich erst jetzt durch vernünftiges Displacement / Relief Mapping und echtzeit SubSurface Scattering sowie natürlich auch physically based lighting / realtime global illumination zu ändern...

Inzwischen muss ich sagen, dass ich etwa die Mimik in The Last of Us sehr imposant fand und den ersten "Next-Gen-Effekt" hatte ich bei der Beleuchtung in der P.T. Demo, die einfach extrem realistisch rüberkommt:

Fc5_3QN2fb4

Von daher finde ich die Aussage von wegen realistischer Grafik in 5 Jahren diesmal gar nicht so abwegig bzw. der Gamestar Titel ist mal wieder ein wenig reißerisch, denn so hat der gute Mann das gar nicht gesagt. Was dort aufgebauscht wurde ist das hier:
Möglicherweise werden wir also in fünf Jahren in der Lage sein, Spiele zu entwickeln, die in eingeschränkten Szenarien fotorealistisch sind
Wenn man etwa die Szene aus P.T. mit der Hardware die wir in 5 Jahren haben werden aufputscht, kann ich damit durchaus konform gehen...

fondness
2014-09-23, 15:38:57
Spätestens dann wird Ökosystem das wichtigste für beide und da hinkt AMD immernoch ein stück zurück aber sie versuchen es so schnell wie geht zu ändern.

Ein großes Treiberupdate das hoffentlich viele zufrieden stellen wird ist nicht mehr sooo weit weg... :)

N0Thing
2014-09-23, 15:47:34
TrueAudio ist doch auch solch ein Dingens, wer nicht bei AMDs "Gaming Evolved" mitmacht, darf nicht auf Trueaudio setzen, obwohl ja Plugins wie Firelight Technologies FMOD und Audiokinetics Wwise übliche Sound-Middlewares für Spiele sind. Naja, soviel zu open sources.

Würde aber in manchen Fällen auch kein Sinn machen, die Hardware und Softwareunterstützung fehlt ja bei anderen. Die Xbox besitzt ja einen dedizierten DSP Chip. Man ist sich nicht ganz sicher ob der auch Trueaudio könnte?

Denn man herzlichen Glückwunsch, durch Windows 8 würde ja DSP unterstützt/bzw. möglich, in Windows 7 nicht.

Auch unter Windows Vista/7 kann man die DSPs nutzen, nur halt nicht mehr über die mit Vista abgeschaffte DirectSound und DirectSound3D API. Spiele, die statt dessen Creatives OpenAL verwendet haben, konnten auch unter Vista/7 problemlos EAX nutzen. ;)

Von TrueAudio habe ich mir mehr versprochen, sowohl von der Verbreitung zu diesem Zeitpunkt, als auch im Hinblick auf die Qualität. Bei Thief war es eher eine Lachnummer und Lichdom: Battlemage zeigt afaik auch weniger, als damals als möglich angekündigt wurde. :(

Dawn on Titan
2014-09-23, 15:49:02
Ein großes Treiberupdate das hoffentlich viele zufrieden stellen wird ist nicht mehr sooo weit weg... :)

Tonga vor GM204?

Leonidas
2014-09-23, 15:49:36
THG hat sehr viele experten und die haben die test methodik zusammen mit Rhode & Schwarz ausgetüftelt die sollten schon wissen was sie tun und vor allem was sie da messen.

Hiermit bekommen wir auch das erstemal tieferen einblick in die Verarbeitungsqualität der Custom Designs und nicht nur immer das PR bla bla (auf einer schönen bunten website) :)

Glaube nicht das HT4U das auf diesem Level leisten kann sie waren zwar immer gut und besser als Standard Reviewer aber das hier ist um welten besser, effizienter und vor allem genauer :D

Denke mal das geht auch einher mit ihrer Release Verzögerung sie schaffen es nicht die selben Ergebnisse zu Reproduzieren mit ihrem Aufbau und überlegen sich gerade was sie tun sollen, die jungs tun mir ehrlich leid im Endeffekt werden sie auf THG verweisen müssen was den Hochaufgelösten test angeht ;)




Es wäre schön, wenn es so wäre. Aber zuerst müsste die THG in ihrem Test mal erwähnen, wie sie es schaffen, bei einer bei TDP limitierter Karte 300W Verbrauch zu messen. HT4U wird wahrscheinlich sagen, daß die Karte ein Powerlimit von ~170W hat - und dann auch vormessen, das die Karte immer und überall an dieses Powerlimit dranknallt. War jedenfalls bisher immer so. Deswegen muß ich die doofe Frage stellen, wie man dann bei der 980 auf über 170W kommen kann. Vielleicht gibt es ja eine sinnige Antwort darauf.

Naitsabes
2014-09-23, 15:57:38
Peakwerte vs. durchschnittlicher Verbrauch? ;)

Schnoesel
2014-09-23, 16:17:53
Format C hat sich diesbezüglich auch im CB thread geäußert, da man ihm vorgeworfen hat Müll zu messen:

Da ich von den sehr hohen Messwerten unter Extremlast bei der Gigabyte GTX 970 und 980 auch überrascht war, habe ich gestern mit dem Hersteller telefoniert. Die Zahlen bei den Custom-Cards stimmen, denn Gigabyte hat (ganz offiziell) bei der GTX 970 ein Power-Target von 250 Watt und bei der GTX 980 von 300 Watt freigegeben! Die 980 lässt sich sogar noch mal per Hausfrauen-Tool (MSI Arschbrenner) auf 366 Watt anheben - grandios für Übertakter und schlecht für die Steckdose. Die 1,5 GHz von Anand erreichst Du sicher nur als Boost-Takt, Ich konnte bei allen Samples maximal 1.4 GHz Basistakt einstellen, sonst wird es instabil. Die Retail-Karte der 980 ging aber immerhin bis 1375 MHz.

Unsere Referenz GTX 980 hat einen weg, ich musste mir erst mal Ersatz verschaffen. Jetzt stimmen auch die Messwerte für die Referenz wieder, wir haben es gestern schon geupdatet. Jetzt liegt es also am Hersteller, wie viel Power er freigibt. Zotac hat bei der GTX 980 soweit ich weiß auch auf der Omega Version nur 220-250 Watt in der Firmware. Damit dürften die GB wohl der Hardcore-Fall für die Freaks werden, die mit Boost glänzen wollen

http://www.computerbase.de/forum/showthread.php?t=1392742&page=52&p=16305627#post16305627

Offenbar haben die Boardpartner andere TDPs.

M4xw0lf
2014-09-23, 17:06:23
Es wäre schön, wenn es so wäre. Aber zuerst müsste die THG in ihrem Test mal erwähnen, wie sie es schaffen, bei einer bei TDP limitierter Karte 300W Verbrauch zu messen. HT4U wird wahrscheinlich sagen, daß die Karte ein Powerlimit von ~170W hat - und dann auch vormessen, das die Karte immer und überall an dieses Powerlimit dranknallt. War jedenfalls bisher immer so. Deswegen muß ich die doofe Frage stellen, wie man dann bei der 980 auf über 170W kommen kann. Vielleicht gibt es ja eine sinnige Antwort darauf.
Der Verbrauchsmittelwert einer Sekunde liegt ja auch nicht über 170W, sondern die Lastspitzen, die sich im ms-Bereich abspielen.

dildo4u
2014-09-23, 17:08:04
Der Verbrauchsmittelwert einer Sekunde liegt ja auch nicht über 170W, sondern die Lastspitzen, die sich im ms-Bereich abspielen.
Nein es liegt daran da Gigabyte 980 ein 300Watt TDP Limit hat,siehe den Beitrag über dir.

Nakai
2014-09-23, 17:15:15
Nein es liegt daran da Gigabyte 980 ein 300Watt TDP Limit hat,siehe den Beitrag über dir.

Nein, es geht schon um den Mittelwert, der ist bei~170W.
Einfache Regelungstechnik, je nachdem, welche Art von Regelung man verwendet(Proportional, Integral, Differential).

Auch die GTX 980 Reference bei THG hat Peaks bei über 300W.

€: Wenn die TDP erhöht wird, wird die GPU auch mehr Fressen, auch im Mittel.

-/\-CruNcher-/\-
2014-09-23, 17:20:12
Jo schlau schlau und TDP geben sie nicht an sondern nur was für ein NT man haben sollte

http://www.gigabyte.com/products/product-page.aspx?pid=5209#sp

Wieder mal gefickt eingeschädelt

Und die von geizhals und co übernehmen die Nvidia Daten ;)

Ravenhearth
2014-09-23, 17:20:15
Tonga vor GM204?

Mit dem Treiber wird Tonga Pro die GTX 980 erreichen :wink::smile:

Dawn on Titan
2014-09-23, 17:22:12
Tonga XT, erwarte ich eher

Unicous
2014-09-23, 17:25:58
Voll cool und spannend im VI-Thread über das Lastverhalten von GM204 zu erfahren, zumal es ja leider keinen entsprechenden Thread in diesem Forum gibt.

Immer wenn ich den Thread aufmache freue ich mich erneut, dass ich keinerlei neue Informationen über scheiß Tonga, scheiß Maui, scheiß Hawaii und scheiß Iceland erfahre.


Danke Jungs, ihr rettet diesen Thread vor dem Untergang.

MR2
2014-09-23, 17:41:40
DS per Treiber wäre jetzt ein wichtiger Schritt!

Effe
2014-09-23, 17:48:43
Format C hat sich diesbezüglich auch im CB thread geäußert, da man ihm vorgeworfen hat Müll zu messen:
http://www.computerbase.de/forum/showthread.php?t=1392742&page=52&p=16305627#post16305627

Und wenn man liest von wem der Vorwurf kommt, erübrigt sich die Diskussion.
Zitat von Sontin (http://www.computerbase.de/forum/showthread.php?t=1392742&page=31&p=16290790#post16290790)
Herr Obertroll von und zu NV.

@Topic: Ist bekannt wann es einen neuen Catalysten gibt? Mit dem neuen Civ?

Ravenhearth
2014-09-23, 17:58:56
Tonga XT, erwarte ich eher

Jetzt mal ehrlich: Meinst du das Ernst? Tonga wird nie im Leben durch einen Treiber die Performance von GM204 erreichen. Um der 980 gefährlich zu werden, müsste AMD Tonga XT wahrscheinlich auf 1,4GHz prügeln. Viel Spaß.

Nakai
2014-09-23, 18:04:35
Meine Fresse NV hat eben eine sehr gute Regelung eigebaut, AMD bringt das erst später, bzw. Tonga könnte das noch nicht haben oder ist noch nicht aktiviert.
Beema/Mullins sollte das schon besitzen.

Und nochmal, die Tests von THG zeigen, dass Maxwell MITNICHTEN deutlich effektiver ist. Er regelt nur deutlich besser. Wenn die Regelung ausgehebelt wird, verbraucht GM204 ähnlich viel wie GK110.

Ist Maxwell dadurch effektiver als Kepler?
Ja verdammt, aber nur wenn die Regelung aktiviert ist und greift.
FALLS NICHT, dann ist Maxwell nicht effektiver als Kepler.

So und nun zu VI und PI und wie die so eine Art Regelung einbauen...laut Roadmap Ende des Jahres bzw. nächstes Jahr. Welche Produkte davon betroffen sind, ist fraglich. Ich tippe bei AMD eher auf den APUs, aber wieso sollten die dedizierten GPUs nicht davon betroffen sein?

Knuddelbearli
2014-09-23, 18:08:59
Bis auf die Nachteile wegen Netzteilen ist es doch egal wie die Effizienz zu Stande kommt, solange es auch bis 200-300W skaliert

Unicous
2014-09-23, 18:24:02
@Nakai

Ich gehe voll mit dir mit, dass Maxwell anscheinend eine sehr gute, genaue und vor allem schnelle Spannungs- und Takt- und Lastregulierung enthält... aber ob AMD da nachziehen wird, ist für mich noch Kaffeeleserei. Denn der slide mit dem du die ganze Zeit rumwedelst, bezieht sich auch bzw. größtenteils auf APUs.:tongue:

Nakai
2014-09-23, 18:26:44
@Nakai

Ich gehe voll mit dir mit, dass Maxwell anscheinend eine sehr gute, genaue und vor allem schnelle Spannungs- und Takt- und Lastregulierung enthält... aber ob AMD da nachziehen wird, ist für mich noch Kaffeeleserei. Denn der slide mit dem du die ganze Zeit rumwedelst, bezieht sich auch bzw. größtenteils auf APUs.:tongue:

Wie ich schon gesagt habe, mal schaun. ;)

Beema hat schon eine deutlich überarbeitete GCN-GPU, welche deutlich weniger Energie verbrät als die des Vorgängers. Es wäre gelogen, wenn man sagen würde, dass AMD keine effizienteren GPUs bauen kann, da man es bereits tut.

Ravenhearth
2014-09-23, 18:49:38
Beema hat schon eine deutlich überarbeitete GCN-GPU, welche deutlich weniger Energie verbrät als die des Vorgängers. Es wäre gelogen, wenn man sagen würde, dass AMD keine effizienteren GPUs bauen kann, da man es bereits tut.

Hast du Quellen dafür, dass Beemas GPU wirklich effizienter ist?

Nakai
2014-09-23, 18:59:31
Hast du Quellen dafür, dass Beemas GPU wirklich effizienter ist?

http://www.anandtech.com/show/7974/amd-beema-mullins-architecture-a10-micro-6700t-performance-preview

AMD claims a 19% reduction in core leakage/static current for Puma+ compared to Jaguar at 1.2V, and a 38% reduction for the GPU. The drop in leakage directly contributes to a substantially lower power profile for Beema and Mullins.

Hübie
2014-09-23, 19:04:26
Bis auf die Nachteile wegen Netzteilen ist es doch egal wie die Effizienz zu Stande kommt, solange es auch bis 200-300W skaliert

THIS!

Da schaut man hier rein um zu sehen obs was neues gibt, aber nööö. Da suchen ein paar rote Socken das Haar in der Suppe. Maxwell kann Teile der GPU unabhängiger und schneller vom Netz "trennen" und wieder reaktiviert. Granulares Powergating halt. Maxwell hat mehr PLLs und wahrscheinlich auch höher getaktete VRMs haben. Dazu paart sich noch die Möglichkeit der besseren Auslastung und fertig ist das "Effizienzwunder". Wichtig ist doch das Maxwell mich weniger auf der Stromrechnung kostet und leichter zu kühlen ist als alles andere auf dem Markt. Warum muss man da jetzt ein Fass aufmachen?

Einige hier würden gute Ingenieursarbeit nicht mal erkennen wenn die sie am Kopf trifft:rolleyes:
Könnten wir jetzt bitte zum Thema zurück kehren?

Locuza
2014-09-23, 19:11:39
Beema hat schon eine deutlich überarbeitete GCN-GPU[...]
Die gleiche meinst du, wo bei dem Chip ein Augenmerk auf Leakage gelegt wurde.

Ravenhearth
2014-09-23, 19:12:49
http://www.anandtech.com/show/7974/amd-beema-mullins-architecture-a10-micro-6700t-performance-preview

AMD claims a 19% reduction in core leakage/static current for Puma+ compared to Jaguar at 1.2V, and a 38% reduction for the GPU. The drop in leakage directly contributes to a substantially lower power profile for Beema and Mullins.


Das ist aber keine Folge von Maxwell-ähnlichen Verbesserungen beim Powergating, sondern eine Konsequenz aus einem anderen Prozess (GF 28nm) und/oder Optimierungen auf Transistorebene (letztere könnten die Taktbarkeit negativ beeinflussen).

Zumal eine 38% geringere Leakage nicht bedeutet, dass auch die Stromaufnahme der gesamten GPU in gleichem Maße abnimmt.

Davon profitieren könnte AMD vielleicht, wenn man GPUs bei GloFo fertigt, aber um zu Maxwell aufzuschließen, bedarf es mehr.

Unicous
2014-09-23, 19:19:13
Ohohoh. Der Herr Ravenhearth hat Interna direkt aus Dresden mitgebracht. Es liegt einzig und allein am Prozess und AMD musste nur noch Kabini von Taiwan nach Dresden verschiffen.

Kannst du uns noch mehr an deiner Weisheit teilhaben lassen. Dieser 28nm Wunder-Prozess muss ja eine echte Wucht sein.

Ravenhearth
2014-09-23, 19:26:27
Jetzt unterstellst du mir aber was. Anandtech spricht in Berufung auf AMD explizit von einer Leakage-Reduktion der Transistoren bei 1.2V, nicht von besserem Powergating.

Und ich hab nicht gesagt, dass das allein an GFs 28nm-Prozess liegt, sondern gesagt, dass es am Prozes UND/ODER Optimierungen auf Transistorebene liegt. Das kann niemand außer AMD wissen.

Wenn es Optimierungen auf der Ebene der Transistoren sind, hat AMD wahrscheinlich (Vermutung!) die GPU stärker auf niedrigere Frequenzen getrimmt, um eine geringere Leakage zu erreichen, aber im Gegenzug etwas Taktbarkeit hergegeben (bei Beema/Mullins nicht gefordert).

Liegt es am Prozess, könnte AMD GPUs bei GloFo fertigen lassen, um davon zu profitieren. Ich denke, dass es an beidem liegt. Die Vorteile durch den Prozess dürften aber nicht groß sein, sonst hätte AMD das schon längst gemacht.

Nakai
2014-09-23, 19:40:04
Das ist aber keine Folge von Maxwell-ähnlichen Verbesserungen beim Powergating, sondern eine Konsequenz aus einem anderen Prozess (GF 28nm) und/oder Optimierungen auf Transistorebene (letztere könnten die Taktbarkeit negativ beeinflussen).

Zumal eine 38% geringere Leakage nicht bedeutet, dass auch die Stromaufnahme der gesamten GPU in gleichem Maße abnimmt.

Davon profitieren könnte AMD vielleicht, wenn man GPUs bei GloFo fertigt, aber um zu Maxwell aufzuschließen, bedarf es mehr.

Selbstverständlich nicht. Wenn ich die PowerConsumption für 1.2V und für einem anderen Taktbereich anpasse, muss das nicht für andere Vorraussetzungen gelten.

Ansonsten guckt man sich die Folien an:
http://www.computerbase.de/2014-04/amd-beema-mullins-puma-gcn/

Da gibts ne Marketing-Folie mit mehr netten komischen Begriffen und einer Liste der Optimierungen.

€: Folie angehängt!

Unicous
2014-09-23, 19:42:11
@Ravenhearth

Also hast du Nakais Behauptung nicht entkäften können, die besagte AMD hätte eine bearbeitete GPU die weniger "verbrät". Wie und wodurch das zustande kommt ist für uns nicht vollkommen ersichtlich. Und wenn man etwas auf "Transistorebene" ändert dann "überarbeitet" man es. Dass sich die Taktbarkeit erhöht hat bei geringerer bzw. gleicher TDP zeigt die Realität:
Kabini hat bei 15 Watt TDP einen Basis/max. Takt von 1,55 GHz, Beema einen Basistakt von 1,8 GHz und einem Turbo von 2,4 GHz. Die GPU konnte glaube ich schon seit Brazos 2.0 boosten, bei Kabini liegt der max. takt bei 500 MHz, bei Beema bei 800 MHz (wie gesagt bei einer TDP von 15 Watt).


edit:

Man kann es nicht immer auf den vermeintlich besseren Prozess schieben. Auch ich gehe davon aus, dass der 28nm Prozess AMDs APUs besser schmeckt, aber dennoch gehen Design und Prozess Hand in Hand. Ein guter Prozess macht aus einem beschissenen Design keine tolles Produkt und andersherum ist es genauso. Die Anpassungen, die AMD gemacht haben müssen auch zum Prozess passen. Auch sie nichts an der Architektur an sich verändert haben, ist es dennoch ein verbessertes Design.

Locuza
2014-09-23, 19:52:13
Eine deutlich veränderte GCN-GPU liest sich für meine Augen architektonisch bezogen.
Die Verbesserungen insgesamt wollte sicherlich niemand entkräften.

Ravenhearth
2014-09-23, 19:54:46
@Ravenhearth

Also hast du Nakais Behauptung nicht entkäften können, die besagte AMD hätte eine bearbeitete GPU die weniger "verbrät". Wie und wodurch das zustande kommt ist für uns nicht vollkommen ersichtlich. Und wenn man etwas auf "Transistorebene" ändert dann "überarbeitet" man es. Dass sich die Taktbarkeit erhöht hat bei geringerer bzw. gleicher TDP zeigt die Realität:
Kabini hat bei 15 Watt TDP einen Basis/max. Takt von 1,55 GHz, Beema einen Basistakt von 1,8 GHz und einem Turbo von 2,4 GHz. Die GPU konnte glaube ich schon seit Brazos 2.0 boosten, bei Kabini liegt der max. takt bei 500 MHz, bei Beema bei 800 MHz (wie gesagt bei einer TDP von 15 Watt).

Beema hat eine GPU, die weniger Energie verbraucht, ja. Aber ich denke, dass die Verbesserungen sich nicht auf die großen GPUs übertragen lassen, weil sie explizit ua. auf niedrigere Taktbereiche abzielen.

Das mit der Taktbarkeit war folgendermaßen gemeint: Es könnte sein, dass die GPU von Kabini/Temash wie die großen GCN-GPUs noch auf hohe Taktbarkeit (~1 GHz) ausgelegt war, weil man nicht viele Ressourcen in die Optimierung gesteckt hat. Bei Beema/Mullins hat man nun aber durch Optimierungen die Leakage bei Taktraten von 400-800 MHz reduziert, und im Gegenzug das Taktpotenzial (Richtung 1 GHz) verringert. Für so einen SoC ist das die richtige Optimierung, lässt sich aber nicht auf große GPUs übertragen.

Wenn AMD tatsächlich so große allgemeine Optimierungen gemacht hätte, hätten wir diese spätestens in Tonga gesehen. Es ist unsinnig, solche Verbesserungen den dedizierten GPUs vorzuenthalten. Zumal letztere architektonisch eigentlich immer Vorreiter sind.

Unicous
2014-09-23, 20:23:39
Es ist doch egal, ob AMD die Architektur an sich optimiert hat, oder aggressiveres Power Gating Clock Gating oder was auch immer eingeführt hat. Auch das sind architekturelle Veränderungen, die die Effizienz verbessern.

Brazos 2.0 war jetzt auch nicht der große Bringer, hat aber GPU Boost und sogar bei einer SKU einen CPU Boost spendiert bekommen.

Kabini auf Beema ist auch keine fundamentale Neuentwicklung, aber dennoch gab es Tweaks an allen Ecken. Und eine Takterhöhung von 300 MHz für die GPU allein bei gleicher TDP bekommt man nun wirklich nicht durch ein paar simple Tweaks hin. Es wurde also etwas Grundlegendes an der GPU verändert. Die Shader wurden sicherlich nicht oder nur unwesentlich verändert, aber man hat offensichtlich eine höhere Granularität erreicht. Ob das Power Gating war oder besseres Routing? Keine Ahnung. Es war aber nicht der Prozess allein.
Denn nicht nur der Prozess entscheidet über Charakteristiken wie Leakage. Das Design an sich hat auch einen großen Anteil daran.

Ravenhearth
2014-09-23, 20:38:33
Ich habe nicht gesagt, dass nur der Prozess über Dinge wie Leakage entscheidet, im Gegenteil. Das Design (also auch WELCHE Transistoren man verwendet) hat natürlich großen Einfluss.

Bezogen auf Beema/Mullins sollte man aber aufpassen. Nur weil die Taktrate der GPU innerhalb dergleichen TDP stark erhöht wurde, heißt nicht dass die Stromaufnahme auch gleich geblieben ist. Beema dürfte seine TDP zum einen besser ausreizen. Zum anderen darf Beema beispielsweise auch seine TDP überschreiten, solange die Gehäusetemperatur unterhalb eines gewissen Wertes bleibt, und so mehr Leistung erreichen.

Im Endeffekt sehe ich bei Beema/Mullins keine großen Verbesserungen, die sich auf die dedizierten GPUs übertragen lassen. Und offensichtlich verfügt auch Tonga über keine stark verbesserte Energieeffizenz. Letztere dürfte (und MUSS) bei AMD aber mittelfristig kommen.

Skysnake
2014-09-24, 07:07:37
THIS!

Da schaut man hier rein um zu sehen obs was neues gibt, aber nööö. Da suchen ein paar rote Socken das Haar in der Suppe. Maxwell kann Teile der GPU unabhängiger und schneller vom Netz "trennen" und wieder reaktiviert. Granulares Powergating halt. Maxwell hat mehr PLLs und wahrscheinlich auch höher getaktete VRMs haben. Dazu paart sich noch die Möglichkeit der besseren Auslastung und fertig ist das "Effizienzwunder". Wichtig ist doch das Maxwell mich weniger auf der Stromrechnung kostet und leichter zu kühlen ist als alles andere auf dem Markt. Warum muss man da jetzt ein Fass aufmachen?

Einige hier würden gute Ingenieursarbeit nicht mal erkennen wenn die sie am Kopf trifft:rolleyes:
Könnten wir jetzt bitte zum Thema zurück kehren?
Na so ganz unwichtig ist das nicht!

Den GM200 muss vor allem bei Compute was reisen, und wenn da bringt die Powercontrol halt nichts/wenig.

Man muss sich aber schon fragen, wie schlecht denn die Auslastung einer heutigen GPU unter DX sein muss, wenn die Verbrauchswerte so extrem auseinander gehen.

Da muss ja verdammt viel leerlauf sein, damit man auch Powersparmaßnahmen nutzen kann.

Ailuros
2014-09-24, 14:23:02
R39x relevante Beitraege in den richtigen thread hier http://www.forum-3dcenter.org/vbulletin/showthread.php?t=544607 verschoben.

Akkarin
2014-09-24, 14:31:35
Neuer tweet: https://twitter.com/AMDIndia/status/514663030416625664

Scheint eher als würden sie bereits bekannte Producte jetzt in Indien launchen :(

Mandalore
2014-09-24, 17:49:37
Neuer tweet: https://twitter.com/AMDIndia/status/514663030416625664

Scheint eher als würden sie bereits bekannte Producte jetzt in Indien launchen :(


Der Indien-Teil könnte ja etwas als nebensächlich in einer groß angelegten, über etwas für uns interessantes, Präsentation sein:redface::rolleyes:Hoffe ich zumindest...

Undertaker
2014-09-24, 19:09:58
Dass sich die Taktbarkeit erhöht hat bei geringerer bzw. gleicher TDP zeigt die Realität:
Kabini hat bei 15 Watt TDP einen Basis/max. Takt von 1,55 GHz, Beema einen Basistakt von 1,8 GHz und einem Turbo von 2,4 GHz. Die GPU konnte glaube ich schon seit Brazos 2.0 boosten, bei Kabini liegt der max. takt bei 500 MHz, bei Beema bei 800 MHz (wie gesagt bei einer TDP von 15 Watt).

Ganz so einfach ist es allerdings auch nicht: Kabini konnte bei voller Auslastung seinen Takt mehr oder weniger unbeeindruckt halten, während Beema die TDP knackt und darum kräftig throtteln muss. Real ist die Effizienz also weniger gestiegen, als man aus Taktrate und TDP ableiten könnte. Ich stelle mir eher die Frage, warum Kabini nicht durchgängig einen Turbo spendiert bekam.

Popopinsel
2014-09-24, 20:53:56
Zwei Wörter: Virtual Reality.

Matrix (https://twitter.com/AMDIndia/status/513258782286041088)
Alien: Isolation (https://twitter.com/AMDIndia/status/513334283264466947)
Tron (https://twitter.com/AMDIndia/status/514663030416625664)

Alien: Isolation wird mit Unterstützung von AMD zur Marktreife gebracht, FirePro-Technik in kommenden Radeon-GPUs zur Verbesserung von VR (Latency, Async Time Warp, Audio, X-Fire).

/glaskugel ;D

-/\-CruNcher-/\-
2014-09-24, 21:23:58
Neuer tweet: https://twitter.com/AMDIndia/status/514663030416625664

Scheint eher als würden sie bereits bekannte Producte jetzt in Indien launchen :(

Heute zum Mars und morgen was erwartet uns morgen (denkt sich der Inder gerade) ;)

Blediator16
2014-09-24, 22:16:14
Tippe auf Fiji

Akkarin
2014-09-24, 22:24:40
Heute um 5 ist es ? Gibts nen livestream oder so ?

horn 12
2014-09-24, 22:26:52
Ja, sollte 5 Uhr früh sein! Zumindest las ich dies mal kurz auf Twitter :-)

Unicous
2014-09-24, 22:30:37
Ihr seid echt herrlich.;D

Na wenigstens sind Huddy und Koduri da.:wink:

https://pbs.twimg.com/media/ByTm_chCEAAakzh.jpg:large

horn 12
2014-09-24, 22:47:56
http://wccftech.com/amd-radeon-r9-390x-arrives-1h-2015-feature-hydra-liquid-cooling/

Wenig rosige Aussichten, ausser der Herabsetzung der R9 290-er Preise.
R9 290 wohl für 230 bis 240 Euro
R9 290X wohl um unter 300 Euro

Nakai
2014-09-24, 23:38:49
Mhh, der Kühler sieht eher nach R9 295X aus. Vom Aussehen her, sieht der Kühler dem der R9 295X2 sehr ähnlich.
Eventuell will man GM204 irgendwie kontern.

Akkarin
2014-09-25, 04:58:59
Link zum Stream any1 ?

Akkarin
2014-09-25, 05:22:26
Entweder es ist die falsche Uhrzeit, es gibt keinen Stream, oder AMD will nicht dass man ihn findet. Ich geh wieder ins bett, Nacht.

Leonidas
2014-09-25, 05:40:07
Ich tippe auf falsche Uhrzeit. Wenn man clever ist, dann setzt man Termine heutzutage immer zu Zeiten an, wo alle auf der Welt denselben Tag haben. Ist gerade wichtig, wenn man nur ein Tages-Datum teasert. In den USA ist derzeit aber noch der 24. Ergo wäre es sinnvoll, alle Aktionen nicht vor 9 Uhr deutscher Zeit anzusetzen.

AffenJack
2014-09-25, 07:37:47
Nur ist dies wohl weniger ein weltweites Event, sondern ein Indien Event was einige Leute total hochgeschaukelt haben.

Bisher wurden die Firepro W8100 und die R9 285 gelauncht. Hab gehört von der 285 gibts außerhalb von Indien auch schon paar geleakte Reviews;D
AMD arbeitet auch mit Firmen und in Bollywood zusammen und das beste, der Film "Bahubali" wurde mit AMDs Hilfe gerendert. Seid ihr auch schon alle so heiß auf Bahubali?:biggrin:

Käsetoast
2014-09-25, 09:05:55
Wenig rosige Aussichten, ausser der Herabsetzung der R9 290-er Preise.
R9 290 wohl für 230 bis 240 Euro
R9 290X wohl um unter 300 Euro
Wurde das irgendwo mal erwähnt oder ist das deine Spekulation? Halte ich so für äußerst unwahrscheinlich - die 290er wären dann ja billiger als viele 285er bei gleichzeitig mehr Speicher und Leistung. Da wären Preise von knapp unter 300 € realistischer...

maximus_hertus
2014-09-25, 09:25:00
Wie sie sehen, sehen sie nichts. Ob heute noch was kommt? Spätestens 15 Uhr sollten wir mehr wissen.

Skysnake
2014-09-25, 09:35:06
hm... 9 ist jetzt schon deutlich rum, und immer noch nichts. Ich glaube da kommt gar nichts mehr.

Ailuros
2014-09-25, 09:49:13
Ihr seid echt herrlich.;D

Na wenigstens sind Huddy und Koduri da.:wink:



Da wohl nichts besonderes angekuendigt wird, sollte jemand Richard ein Paar anstaendige Schuhe kaufen :rolleyes:

Ravenhearth
2014-09-25, 15:12:29
Wurde das irgendwo mal erwähnt oder ist das deine Spekulation? Halte ich so für äußerst unwahrscheinlich - die 290er wären dann ja billiger als viele 285er bei gleichzeitig mehr Speicher und Leistung. Da wären Preise von knapp unter 300 € realistischer...

Keine Ahnung, ob das stimmt. Aber in meinen Augen sind 290 und 290X durch die 970 aktuell sehr uninteressant. Wenn AMD die noch verkaufen möchte, müssen die Preise eigentlich deutlich sinken. 290X auf dem Niveau der 970 und 290 ein gutes Stück darunter (250€?) klingt realistisch. Dann würde natürlich auch ein Preisrutsch durch die darunter liegenden Segmente gehen. 280X für 200€, 285 für 170€, usw.

memoal
2014-09-25, 15:30:23
Kommt jetzt noch was? @fondness hat doch mal geschrieben das bald ein Treiberupdate kommen soll, wurde dort was mitgeteilt?

Effe
2014-09-25, 15:43:55
AMD OpenCL 2.0 Driver---RN-WINLIN-OPENCL2-14.41 (http://support.amd.com/en-us/kb-articles/Pages/OpenCL2-Driver.aspx)

memoal
2014-09-25, 15:53:48
Danke! Die weiteren Events von AMD sind eigentlich hier gelistet: http://www.amd.com/en-us/who-we-are/corporate-information/events#2014/10

maximus_hertus
2014-09-25, 16:10:35
Keine Ahnung, ob das stimmt. Aber in meinen Augen sind 290 und 290X durch die 970 aktuell sehr uninteressant. Wenn AMD die noch verkaufen möchte, müssen die Preise eigentlich deutlich sinken. 290X auf dem Niveau der 970 und 290 ein gutes Stück darunter (250€?) klingt realistisch. Dann würde natürlich auch ein Preisrutsch durch die darunter liegenden Segmente gehen. 280X für 200€, 285 für 170€, usw.

Die 290 gibts jetzt ab 259 und die 290X ab 349 Euro.

Schaffe89
2014-09-25, 18:17:12
Dann werd ich da bald zuschlagen und mir mein Quad CF bauen.

AnarchX
2014-09-26, 07:48:42
OCL 2.0 Thema: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=557179

PCWatch hat auf dem Indien Event wohl einiges über Tonga erfahren:
http://pc.watch.impress.co.jp/docs/column/kaigai/20140926_668620.html?ref=rss

- 32 CUs
- 384-Bit
- GPU Compute Context Switch und mögicherweise alle HSA-Ziele die AMD für 2014 gesteckt hatte sind in Tonga integriert

Dawn on Titan
2014-09-26, 08:01:13
XT kann damit wahrscheinlich GM204 schlagen.

Ailuros
2014-09-26, 08:08:32
XT kann damit wahrscheinlich GM204 schlagen.

Bei dem Stromverbrauch? :rolleyes: In Bereich compute wohl schon so wie sich die slides auf ersten Blick lesen.

Hübie
2014-09-26, 08:08:41
XT kann damit wahrscheinlich GM204 schlagen.

NOT!

horn 12
2014-09-26, 08:08:46
@AncrchX

Wann kann man bitte mit Neuen Karten (Tonga XT odg.) jene welche mit GTX 970/980 konkurrieren von AMD rechnen ?
in 1-2 Monaten oder erst nächstes Jahr ?

M4xw0lf
2014-09-26, 08:17:08
Wann kann man bitte mit Neuen Karten (Tonga XT odg.) jene welche mit GTX 970/980 konkurrieren von AMD rechnen ?
in 1-2 Monaten oder erst nächstes Jahr ?
Die Gerüchte deuten auf nächstes Jahr hin.

Ailuros
2014-09-26, 08:20:07
Wobei sich nach wie vor die Frage stellt ob AMD aus unerklaerbaren Gruenden irgendwelche miserablen yields mit Tonga hat? 28nm ist ein verdammt reifer Prozess heutzutage, Tonga alles andere als ein grosser die...etc. Falls es schon irgendwo beantwortet wurde nehme ich gern einen virtuellen Tritt in den Hintern in kauf :biggrin:

Hat AMD vielleicht irgendwo einen super-deal fuer HPC gelandet? Mit dem compute Paket dass der chip hat wuerde es mich nicht wundern.

NOT!

*bzzzzzzzzzz............bzzzzzzzzzzzzzzzzz........bzzzzzzzzzzzzzz*

*klatsch* :devil:

AffenJack
2014-09-26, 08:27:23
Meinst du, wieso Tonga erstmal nur als abgespeckter Variante kommt? Ich glaube nicht, dass Tonga schlechte Yields hat. Problem kann ich mir eigentlich nur vorstellen, dass der Vollausbau zu nah an Hawai ist und desssen Daseinsberechtigung zerstören würde. Daher muss man erstmal bis Fiji warten bis man TongaXT bringt.

Dawn on Titan
2014-09-26, 08:27:28
Bei dem Stromverbrauch? :rolleyes: In Bereich compute wohl schon so wie sich die slides auf ersten Blick lesen.

275W TDP und gut. Dafür hat man ja ne Hybrid-Wakü.

Ailuros
2014-09-26, 08:39:43
275W TDP und gut. Dafür hat man ja ne Hybrid-Wakü.

Nein danke; ich hab schon seit Jahrzehnten eine Schwaeche fuer hoehere Effizienz.

Hübie
2014-09-26, 08:41:10
Dennoch muss mir jemand erklären wie man mit 4 CUs ungefähr 45% zum GM204 topdog aufholen will? Soll man die TDP sprengen?
Edit: Hawaii könnte ein respin erfahren.

Dawn on Titan
2014-09-26, 08:46:00
Dennoch muss mir jemand erklären wie man mit 4 CUs ungefähr 45% zum GM204 topdog aufholen will? Soll man die TDP sprengen?

4CUs + 50% Bandbreite.
Könnte nur etwas viel Strom mögen, da man wohl über 1200mhz muss um an die 970 zu kommen. Was wohl + 50W bedeuten würde.

ilibilly
2014-09-26, 09:14:58
Ein Tonga mit 32cu kann Imho nicht mit 970 mithalten,diese schlägt ja schon in vielen Fällen die 290x
Und wenn man die gpu auf 1200mhz und mehr jagt,dann gehts Richtung 300watt ,Fijis wird's wohl reißen müssen,aber da kommt so schnell wohl nichts.

Ailuros
2014-09-26, 09:15:05
4CUs + 50% Bandbreite.
Könnte nur etwas viel Strom mögen, da man wohl über 1200mhz muss um an die 970 zu kommen. Was wohl + 50W bedeuten würde.

Nur ist dummerweise der eigentliche Pluspunkt an GM204 dass die perf/W so hoch ist. Du kannst von mir aus nicht die von NV behauptete 145W TDP fuer Referenz-GTX970-er benutzen sondern 160 oder 170. Der Vergleich ueberzeugt nach wie vor leider nicht.

Angenommen ein Otto-Normalverbraucher hat ein gutes 550W Netzteil im PC; mit was genau willst Du ihn mit einer Tonga GPU ueberreden wenn er jetzt auch noch ein neues 750W Netzteil dafuer braucht?

Full-Tonga klingt mir nach wie vor als eine HPC Massnahme fuer GM200 Anfang 2015 bis Fiji dann irgendwann im Sommer ankommt. Mit dem GPGPU featureset ist es wohl schwer ein direktes Ziel fuer einen eher 3D orientierten chip wie GM204.

Dawn on Titan
2014-09-26, 09:25:55
Tonga ist mir sowieso ein Rätsel. Die TDP ist fast zu nah an der GK110 Familie und auch an AMDs eigenen Hawaii.

Im Consumermarkt sehe ich da noch größere Probleme. Mit der 290 bei 250 Euro wird es für die 285 sehr eng. Und GM206 kommt bald und könnte in der Leistung gleich sein, bei <125W, ich habe sogar etwas von 50% der TDP gegenüber Tonga gehört.

Und warum die XT Version nicht da ist, verstehe ich sowieso nicht. Wartet man auf GM206 um den zu schlagen? Das mag in FPS gehen, in FPS/W oder FPS/mm² wird es aber grausam, im mobilen Bereich ist man da hoffnungslos.

differenzdiskriminator
2014-09-26, 09:27:54
XT kann damit wahrscheinlich GM204 schlagen.
:facepalm:

Werden echt harte Monate für dich...

HOT
2014-09-26, 09:31:00
Ein Tonga mit 32cu kann Imho nicht mit 970 mithalten,diese schlägt ja schon in vielen Fällen die 290x
Und wenn man die gpu auf 1200mhz und mehr jagt,dann gehts Richtung 300watt ,Fijis wird's wohl reißen müssen,aber da kommt so schnell wohl nichts.
Also wenn ich mir den taufrisch erstellten Benchmarkparcour mit neuen Treibern in der PCGH anschaue, sind 290X und 780ti annähernd 100% gleichauf und die 290 regelmäßig über der 780. Wenn die 970 die 780ti nicht schlägt, dann auch nicht die 290x. Der Treibervorteil durch die tollere CPU-Optimierung ist seit den 14.7ern offenbar ebenfalls erfolgt, es gab halt keine News dazu, das ist alles. Die 980 kann die 780ti ja auch nur ohne TDP-Bremse wirklich schlagen.

ilibilly
2014-09-26, 09:46:58
Es geht ja auch um das Preisgefüge,970 gibts jetzt um die 310€, nach 2-3 Monaten sollten 279€ strassenpreis sein,da müsste amd schon die 290x auf unter 280€senken,und 290 um die 200€,
Da bleibt nicht mehr viel Platz für einen größeren Tonga,oder eben 290 eol und dafür Tonga xt 219€, denn der übliche 30-50€ Aufpreis für Nvidia dürfte bleiben.
Allein die neuen Features wie dsr ,da muss amd endlich mal nachziehen.
Ich hab aktuell ne 290 und wollte eigentlich ne 2te dazuhalten,aber dazu brauchte ich wohl auch ein neues Netzteil bei 750watt wird's knapp.
Und gerade für downsampling macht ja crossfire oder sli Sinn,mit 2 970er spar ich mir ein neues Netzteil und hab ca 15-25% mehr Leistung als 290 crossfire.

fondness
2014-09-26, 10:29:27
Also wenn ich mir den taufrisch erstellten Benchmarkparcour mit neuen Treibern in der PCGH anschaue, sind 290X und 780ti annähernd 100% gleichauf und die 290 regelmäßig über der 780. Wenn die 970 die 780ti nicht schlägt, dann auch nicht die 290x. Der Treibervorteil durch die tollere CPU-Optimierung ist seit den 14.7ern offenbar ebenfalls erfolgt, es gab halt keine News dazu, das ist alles. Die 980 kann die 780ti ja auch nur ohne TDP-Bremse wirklich schlagen.

Ich verstehe diesen hype auch nur zum Teil. Nv legt vielleicht 10 Prozent Leistung drauf und alle sind aus dem Häuschen. Die niedrige tdp geben custom Modelle auch höchsten zum Teil wieder. Das einzig für mich wirklich überraschende ist der sehr niedrige Preis speziell der kaum langsameren gtx 970.

Ailuros
2014-09-26, 10:42:37
Also wenn ich mir den taufrisch erstellten Benchmarkparcour mit neuen Treibern in der PCGH anschaue, sind 290X und 780ti annähernd 100% gleichauf und die 290 regelmäßig über der 780. Wenn die 970 die 780ti nicht schlägt, dann auch nicht die 290x. Der Treibervorteil durch die tollere CPU-Optimierung ist seit den 14.7ern offenbar ebenfalls erfolgt, es gab halt keine News dazu, das ist alles. Die 980 kann die 780ti ja auch nur ohne TDP-Bremse wirklich schlagen.

Ein heutiger performance chip muss einen high end chip der vorigen Generation auch nicht unbedingt schlagen.

Ich verstehe diesen hype auch nur zum Teil. Nv legt vielleicht 10 Prozent Leistung drauf und alle sind aus dem Häuschen. Die niedrige tdp geben custom Modelle auch höchsten zum Teil wieder. Das einzig für mich wirklich überraschende ist der sehr niedrige Preis speziell der kaum langsameren gtx 970.

Es reicht wenn der Endverbraucher dass versteht was er verstehen sollte und es wird auch so sein. Man kann auch grosszuegiger sein, als mit solchen kleinpolitischen "Argumenten" anzukommen.

HOT
2014-09-26, 11:54:47
Es geht ja auch um das Preisgefüge,970 gibts jetzt um die 310€, nach 2-3 Monaten sollten 279€ strassenpreis sein,da müsste amd schon die 290x auf unter 280€senken,und 290 um die 200€,
Da bleibt nicht mehr viel Platz für einen größeren Tonga,oder eben 290 eol und dafür Tonga xt 219€, denn der übliche 30-50€ Aufpreis für Nvidia dürfte bleiben.
Allein die neuen Features wie dsr ,da muss amd endlich mal nachziehen.
Ich hab aktuell ne 290 und wollte eigentlich ne 2te dazuhalten,aber dazu brauchte ich wohl auch ein neues Netzteil bei 750watt wird's knapp.
Und gerade für downsampling macht ja crossfire oder sli Sinn,mit 2 970er spar ich mir ein neues Netzteil und hab ca 15-25% mehr Leistung als 290 crossfire.
1.) Eine 970 mit Powertarget 165W ist deutlich langsamer als eine 290X, würd ich sogar noch unter der 290 ansetzen (der Unterschied zwischen 290 und 290X ist relativ klein)
2.) Eine 970 mit Powertarget 250W kommt sicherlich der 290X nahe, die ist aber auch schon wieder teurer als 310€ und die Leistungsaufnahme ist zwar noch besser aber nicht mehr so krass.
Der Rest ist schlicht irrelevant für 99% der Nutzer. Die sehen die niedrigen Preise der jetzigen High-End-Generation und schlagen da zu. Das eigentliche Problem der 9x0-Serie ist, dass der Leistungsgewinn einfach zu niedrig ist. Stromverbrauch interessiert den Kunden an 6. Stelle. Der kauft nach 1.) Marke, 2.) Preis, 3.) Zielgruppe, 4.) Leistung, 5.) Features und danach kommt erst Leistungsaufnahme, ist also für die Kaufentscheidung der meisten nahezu irrelevant (natürlich nicht für alle).
Und eine 9x0-Karte mit Powertarget 250-300W benötigt genau wie die jetzige High-End-Hardware ein qualitativ gutes 500-600W-Netzteil. Mein olles Antec Earthwatts 550W packt eine 290X locker.

Dass NV die Preise so stark nach unten hin anpasst so kurz beim Launch heißt im Klartext, dass der Grafikkartenmarkt für solche Produkte quasi gesättigt ist. Viel Angebot - wenig Nachfrage = niedrige Preise. Wenn man böse ist, könnte man auch sagen, dass das Teil gefloppt ist bei den Startverkäufen. Seit AMD bekannt gab, dass nach der 285 lange nichts kommen soll, sind auch AMDs Preissenkungen in diesem Licht zu betrachten, es gibt schlicht zuwenig Nachfrage momentan. Es fehlen die Zugpferde im Markt (GM200/Fiji) und die fordernden Titel.

Dawn on Titan
2014-09-26, 12:06:48
Exakt. Der Preis zeigt, dass NV die Karten nur über den Preis verkaufen kann.

dildo4u
2014-09-26, 12:11:04
Dass NV die Preise so stark nach unten hin anpasst so kurz beim Launch heißt im Klartext, dass der Grafikkartenmarkt für solche Produkte quasi gesättigt ist. Viel Angebot - wenig Nachfrage = niedrige Preise. Im Klartext könnte man auch sagen, dass das Teil gefloppt ist bei den Startverkäufen.
Die Karte wurde vor dem Launch nicht teurer verkauft,die Preise waren sofort so niedrig.Die 970 würde auch für 400€ gut weggehen,weil viele mit 2GB-Vram Krüppel unterwegs sind und aufrüsten müssen.Die Masse der Games die viel V-Ram brauchen,kommen erst jetzt auf den Markt wenn die neuen Konsolen die Spieleentwicklung bestimmen.

Siehe Shadow of Mordor
http://i.imgur.com/qyyKHKr.jpg

Die höheren Nvidia Preise von Kepler vs Hawaii haben jedenfalls nicht verhindert,das NV an Marktanteil zugelegt hat.

http://hothardware.com/News/AMDs-GPU-Market-Share-Takes-A-Beating-From-Intel-Nvidia/

Hübie
2014-09-26, 12:13:28
Wohl auch deshalb weil Kepler schon recht lange am Markt ist und zudem auch viel Leistung bietet. Reißt das nicht immer in euren Köpfen auseinander.

HOT
2014-09-26, 12:22:41
Die Karte wurde vor dem Launch nicht teurer verkauft,die Preise waren sofort so niedrig.

Richtig, weil man gemerkt hat, dass die zuerst angesetzten Preise einfach zu hoch waren.

Die 970 würde auch für 400€ gut weggehen,weil viele mit 2GB-Vram Krüppel unterwegs sind und aufrüsten müssen.
Nicht in den nächsten Monaten. Da reicht 2GB (leider) noch aus. Zudem war lange in Mode, dass VRAM kein Problem ist, dass mus aus den Köpfen erst wieder raus, sprich, das muss man auch merken.

Die Masse der Games die viel V-Ram brauchen,kommen erst jetzt auf den Markt wenn die neuen Konsolen die Spieleentwicklung bestimmen.
[...]
kein Widerspruch. Das hat aber auch nur Sekundär mit den 9xx zu tun. 770/270X gibts auch mit 4GB und 280(X) und 780er haben ja schon standardmässig 3GB, das geht noch ne Weile. Wenn diese Titel wirklich durchschlagen sind auch 4GB zuwenig, vor allem bei 1440p oder 2160p. Bis 2016 werden wir dank der hohen Auflösungen denke ich recht fix in Richtung 16GB VRAM kommen im High-End. Da könnte dann die Archillesferse des 980er dann durchkommen: Die Bandbreite.

Ailuros
2014-09-26, 12:23:28
Exakt. Der Preis zeigt, dass NV die Karten nur über den Preis verkaufen kann.

NV wird jeden oeden 980-er bei seinem eher obszoenen Preis loswerden. Wenn ich jetzt als Mod den Fuss auf den Boden stampfe dass Ihr alle konstant off topic seit, wird es gleich wieder heissen dass es Absicht ist.

Es ist eine Schande dass die AMD fans nicht das geringste zu besprechen haben ueber die Tonga slides auf die AnarchX verlinkt hat und nur ihren Stress ausdruecken was NV mit GM204 machen oder nicht machen wird. Gibt es wenigstens EINEN hier der zur Ausnahme etwas mal im Bereich technischen Interesse beitragen kann oder muss ich mich staendig mit dem Sandkasten-fanboy Mist abgeben?

dildo4u
2014-09-26, 12:24:25
Richtig, weil man gemerkt hat, dass die zuerst angesetzten Preise einfach zu hoch waren.
.
Wie soll man das merken wenn es keine Daten dazu gibt wie viele eine 400€ 970 bestellt hätten?

StefanV
2014-09-26, 12:35:11
OCL 2.0 Thema: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=557179

PCWatch hat auf dem Indien Event wohl einiges über Tonga erfahren:
http://pc.watch.impress.co.jp/docs/column/kaigai/20140926_668620.html?ref=rss

- 32 CUs
- 384-Bit
- GPU Compute Context Switch und mögicherweise alle HSA-Ziele die AMD für 2014 gesteckt hatte sind in Tonga integriert
Also ungefähr das, was vermutet wurde.
ALso 'nen stark optimierter Tahiti mit den gleichen Specs, in der PRO Version aber mit kleinerem SI und weniger Speicher.

In der kommenden XT Version dann voraussichtlich die gleichen Specs wie Tahiti XT.


Wie die Performance dieser Tonga XT Version ausschauen würde, dürfte interessant werden, auch die Leistungsaufnahme...

HOT
2014-09-26, 12:37:43
Wie soll man das merken wenn es keine Daten dazu gibt wie viele eine 400€ 970 bestellt hätten?
Die Preise sind nunmal wie sie sind und das hat doch irgendwie zu 99% marktwirtschaftliche Gründe. Keine Corp verschenkt Geld.
NV wird jeden oeden 980-er bei seinem eher obszoenen Preis loswerden. Wenn ich jetzt als Mod den Fuss auf den Boden stampfe dass Ihr alle konstant off topic seit, wird es gleich wieder heissen dass es Absicht ist.

Es ist eine Schande dass die AMD fans nicht das geringste zu besprechen haben ueber die Tonga slides auf die AnarchX verlinkt hat und nur ihren Stress ausdruecken was NV mit GM204 machen oder nicht machen wird. Gibt es wenigstens EINEN hier der zur Ausnahme etwas mal im Bereich technischen Interesse beitragen kann oder muss ich mich staendig mit dem Sandkasten-fanboy Mist abgeben?
Na jo, es geht doch immerhin darum, ob Tonga und Hawaii (beide VI zugerechnet seitens AMD) noch konkurrenzfähig sind oder nicht. Das verläuft doch erfreulich konstruktiv und argumentativ bisher. Ich verstehe nicht, warum du versuchst das zu torpedieren. Und nein, sie könnten die 980er nicht zu jedem Preis loswerden, das ist offensichtlich Unsinn. NV spart ggü. dem GK110 doch richtig Kosten mit dem GM204, dafür gibts den Chip. Als reines Performanceupgrade hätte man ihn nicht gebraucht.

Ach ja, gibt was Neues, aber bisher unbestätigt. Demnach sollen die zusätzlichen Transistoren bei Tonga in HSA geflossen sein, also ein reiner HSA-Tahiti. Klingt für mich im ersten Moment plausibel.
http://www.computerbase.de/2014-09/amd-tonga-2.048-shader-384-bit-hsa/

fondness
2014-09-26, 12:47:33
Das 384-bit SI macht Tonga für mich noch mysteriöser. Denn trotz geringen Speichertakt und nur 256-bit auf der 285 ist diese nicht im geringsten Speicherbandbreitenlimitiert. Das deutet höchstens wieder auf eine noch stärkere Ausrichtung auf den professionellen Markt hin. Das die zusätzlichen HSA-Features hinzu gekommen sind ist hingegen keine Überraschung, das wurde auch schon vorher angemerkt. Tonga ist damit full-HSA kompatibel und darin jeder anderen GPU weit vorhaus, Maxwell beherrscht noch nicht mal unified adress space zwischen CPU und GPU, das kommt erst mit Pascal.

Angeblich auch 48 ROPs und eine Bestätigung für das 384-bit SI:
http://videocardz.com/52834/full-amd-tonga-gpu-might-feature-384-bit-memory-interface

Schnoesel
2014-09-26, 12:49:17
Tonga= HPC Chip und der Consumer bekommt das was hinten runter fällt? AMD sieht wohl große Perspektiven im professionellen Bereich.

fondness
2014-09-26, 12:52:55
Tonga= HPC Chip und der Consumer bekommt das was hinten runter fällt? AMD sieht wohl große Perspektiven im professionellen Bereich.

Es ist schon bekannt und klar das sie dort angreifen wollen, aber wenn sie dafür zu viele Transistoren opfern in der Hoffnung auf steigende Marktanteile ist das schon eine riskante Strategie. NV hat mit GM204 Maxwell hingegen einen reinen Gamer-Chip aufgelegt, mit keinen neuen HPC-Features, damit bedient man den Massenmarkt sicher besser.

Unicous
2014-09-26, 12:59:03
@HOT

Da steht rein gar nichts darüber, dass für HSA Transistorbudget verwendet wurde. Wenn man es genau nimmt steht in dem ganzen Artikel nichts über Transistoren.

HSA ist ein Konzept, keine physische Implementation (natürlich gehen damit Änderungen in der GPU-Architektur einher, dass "mehr" Transistoren verwendet werden "müssen" kann man daraus aber nicht automatisch schließen.)

@fondness

Das Gleiche hat doch AMD auch bei Hawaii gemacht? Ich sagte ja bereits, Tonga könnte mehr für den professionellen Markt zugeschnitten sein, als für den Gamer-Markt. Ob das wirklich der Wahrheit entspricht, wissen wir erst, wenn die W7100 dann endlich mal offiziell gelauncht wird.

Dawn on Titan
2014-09-26, 13:22:23
Aber wenn Tonga stark Richtung GPGPU geht, was macht man mit Fiji? In der Leistung und Größe ist da zwar noch Luft, bei der TDP hingegen wird es schon enger.

Unicous
2014-09-26, 13:34:13
Aber wenn Tonga stark Richtung GPGPU geht, was macht man mit Fiji? In der Leistung und Größe ist da zwar noch Luft, bei der TDP hingegen wird es schon enger.

Sagt wer?

Es ist doch rein gar nichts bekannt zu Fiji? Die TDP der W9100 (Hawaii XT) liegt bei 275 Watt. Das will man sicherlich nicht deutlich übersteigen (wahrscheinlich ist 300 Watt die logische Grenze).

Im Consumerbereich ist da keine Grenze gesetzt, das Ding könnte auch mit 3x8 Pins kommen.:freak:

Es könnte auch deutlich effizienter zu Werke gehen. Da wir aber so keinerlei Hinweise haben, wie Fiji aussehen wird (außer HBM und höchstwahrscheinlich ein Die größer als 500mm²) ist das Einzige was wir gerade machen Kaffeesatz lesen. Oder Kotproben eines Makaken untersuchen.

Ailuros
2014-09-26, 13:35:04
Aber wenn Tonga stark Richtung GPGPU geht, was macht man mit Fiji? In der Leistung und Größe ist da zwar noch Luft, bei der TDP hingegen wird es schon enger.

Tonga (full tilt) vs. GM200
Fiji vs. Pascal

Ob es jetzt nur ein paar Monate Unterschied im release zwischen A, B, C oder D liegt ist weniger wichtig.

Wie dem auch sei insgesamt koennte AMD's Strategie gar nicht so verkehrt sein und man kann wirklich nur Schlussfogerungen ziehen wenn man die ersten Resultate davon sieht.

AMD hat alle Konsolen-fronten gedeckt, wobei fuer NV gar nichts mehr da ist. Low end PC und notebook SoCs gibt es nur AMD und Intel, NV gar nichts.

Im Gegensatz hat NV im HPC und workstation Markt sehr hohe Marktanteile; mit der hw hat AMD hier per se kein Problem. Wenn sie sich jetzt auf bessere Unterstuetzung in Profi-Maerkten konzentriert haben dann ist es alles andere als eine schlechte Strategie eben weil diese Maerkte alle high margin/low volume sind. Fuer high volume/low margin haben sie mit Konsolen ein quasi Monopol und fuer SoCs nur Intel gegenueber.

Unicous
2014-09-26, 13:48:02
Dass die Strategie im professionellen Markt "im Moment" aufgeht, zeigen ja die durchaus beachtlichen Marktanteilgewinne innerhalb der letzten zwei Jahre.

Dass sie softwaremäßig immer noch hinterherhinken scheint da irgendwie nicht zu stören. Und fraglich ist, wann Maxwell im professionellen Bereich ankommt. Bis jetzt scheint ja nur GM107 seine Fühler ausgestreckt zu haben. Aber das könnte sich November/Dezember auch noch ändern.

Weißt du denn schon (bzw. kannst verraten), ob GM200 jetzt gleichzeitig ankommt, oder einer der Märkte wieder Vortritt bekommt?

Dawn on Titan
2014-09-26, 13:49:20
Tonga (full tilt) vs. GM200
Fiji vs. Pascal
Das macht Sinn, wenn man den Gamermarkt nur noch als sekundär betrachtet, was natürlich im Hinblick auf die Entwicklung der eigenen APUs durchaus nicht unverständlich ist. Denn ohne Zweifel wird der Markt schrumpfen. Wobei da natürlich die Gefahr ist, dass man Margen, die man NV im Profibereich abjagt, dort zurück gibt. Aber ja, wenn man begrenzte Resourcen hat, dann sind die Gamer-GPUs sicher am verzichtbarsten.

Unicous
2014-09-26, 13:56:04
Der Gamer-Markt wird schrumpfen?:eek:

Der Markt wird von unten her verschlungen und verschwindet im Bauch von Intel und vllt. AMD, während Nvidia um sein Leben läuft und einen Rettungsanker sucht, aber schrumpfen wird er nicht. Er wandelt sich.
Wie Nvidia diesen Wandel erlebt ist die große Frage.

Aber die Antwort ist noch viele Jahre entfernt und bis dahin hat Nvidia Zeit und Geld sich Gedanken zu machen wie ihre dann Rolle aussieht.

Ailuros
2014-09-26, 13:59:21
Das macht Sinn, wenn man den Gamermarkt nur noch als sekundär betrachtet, was natürlich im Hinblick auf die Entwicklung der eigenen APUs durchaus nicht unverständlich ist. Denn ohne Zweifel wird der Markt schrumpfen. Wobei da natürlich die Gefahr ist, dass man Margen, die man NV im Profibereich abjagt, dort zurück gibt. Aber ja, wenn man begrenzte Resourcen hat, dann sind die Gamer-GPUs sicher am verzichtbarsten.

Ich bin mir noch nicht sicher ob die Masche doch nicht zu gewagt ist, denn R&D fuer profi-chips ist alles andere als klein. Anders ich kann mir schwer vorstellen dass sie die Kosten dafuer wieder reinholen werden. Wie dem auch sei wenn man es mal von etwas mehr Abstand betrachtet dann ist jede moegliche Strategie-Kombination nicht ohne Risiko. Und da sie tatsaechlich begrenzte resources haben koennen sie auch nicht alles auf einmal schaffen.

Der Gamer-Markt wird schrumpfen?:eek:

So wie wir ihn heute kennen wohl mit Sicherheit; insgesamt wird er IMHO wachsen aber der Gelegenheits-gamer der Furz9 Spielchen auf seinem smartphone bzw. tablet spielt gibt eben nicht so viel fuer das Spiel oder die unterliegende hw aus; gleiches gilt fuer smartTVs oder settop boxes der Zukunft wo immer die Gelegenheits-Spielchen im Wohnzimmer einwandern langfristig.

Der Markt wird von unten her verschlungen und verschwindet im Bauch von Intel und vllt. AMD, während Nvidia um sein Leben läuft und einen Rettungsanker sucht, aber schrumpfen wird er nicht. Er wandelt sich.
Wie Nvidia diesen Wandel erlebt ist die große Frage.

Aber die Antwort ist noch viele Jahre entfernt und bis dahin hat Nvidia Zeit und Geld sich Gedanken zu machen wie ihre dann Rolle aussieht.

NV's Plan von unten nach oben (Tegra) anzugreifen ist alles andere als schlecht gewesen; dass sie zu daemlich waren und sind dort Erfolge zu landen. Anderes Kapitel aber.

Käsetoast
2014-09-26, 15:17:50
Irgendwie gibt es mir bei Tonga zu viele Widersprüche, weswegen ich vermute, dass wir im Desktop Segment keine 285X sehen werden. Als 2048 Shader, 384 Bit Chip macht der im Desktop Bereich halt keinen Sinn. Die ganze Bandbreitenkomprimierung war doch gerade dazu da von 384 auf 256 Bit runterzugehen bei mehr oder weniger gleicher Bandbreite - da macht es einfach keinen Sinn die 285X mit 384 Bit kommen zu lassen (zumal die 285 von mehr Bandbreite ja auch nicht wirklich profitiert wenn man da mal die Werte hochdreht). Auch wäre es merkwürdig den Chip fertig zu haben, aber nun über Wochen hinweg (bzw. sogar Monate, da der Chip zugunsten der 280er Verkäufe ja wohl zurückgehalten wurde) nur den Salvage zu verkaufen, aber nicht den vollen Chip...

Aus diesen Gründen glaube ich zumindest nicht an eine 384Bit 285X und inzwischen glaube ich sogar generell an keine 285X im Desktop Segment mehr. Gerade das Rätselraten, wo die 700 Mio Transistoren verschwunden sind lässt auf irgendwas in Richtung GPGPU vermuten. Daher rechne ich damit, dass der volle Chip in irgendeiner FirePro aufgehen wird - da dann vielleicht auch mit 384 Bit Interface für 6GB Speicher. Die 285 ist dann eben ein wenig "Abfall", der für das Desktop Segment abfällt und die R9 280 ersetzt...

Auch preislich macht eine 285X mit den neuen 290er Preisen ja keinen Sinn - wo soll die denn noch hin wo jetzt gerade 290er für 260-280 € an den Markt kommen. Solange die 285 nicht im Preis gesenkt wird ist da irgendwie zu wenig Platz um noch eine Karte dazwischenzuschieben (und das wäre so kurz nach Release schon ein starkes Stück)...

Ailuros
2014-09-26, 15:19:19
differenzdiskriminator und Unicous: fuehrt den OT Mist via PM oder e-mail weiter

Schaffe89
2014-09-26, 18:10:39
Ich denke es war noch nie der Fall, dass AMD einen Chip im Profisegment nicht auch nach einiger Zeit im Desktop Segment gebracht hat.

Ich sehe es nach wie vor so, das Tonga als Hawai Ersatz kommen wird.
Mit 48 ROPs kann man hier vielleicht auch das ganze etwas besser auslasten und wie Nvidia pro Shader mehr herausquetschen.

Ein 1100mhz Tonga mit 200 Watt TDP würde mich kurz vor Weihnachten nicht überraschen.
Die 285 Chips sind Ausschuss, das macht vielleicht auch Sinn, weil der CHip wohl etwas komplexer geworden ist.

Insofern glaube ich durchaus, dass man die Leistung einer GTX 970 erreichen wird.
Vor allem hat man hinsichtlich der Bandbreite damit ordentlich Reserve und kann den V-ram damit sehr niedrig takten und Strom sparen.

mczak
2014-09-26, 18:56:24
Also ich bin nach wie vor skeptisch was die 384bit angeht. Die Diagramme sind alle home-grown beweisen also gar nichts (die entsprechen in dem Punkt Tahiti inklusive der Cache-Grössen die höchstwahrscheinlich für Tonga falsch sind aufgrund der SiSoft Sandra Resultate). Der Autor scheint sich da allerdings ziemlich sicher zu sein, wobei mir nicht klar wird wieso (die Google Japanisch-Uebersetzung ist doch ziemlich holprig). Bloss bei den ROPs hat er Zweifel (32 oder 48).
Hat ein paar interessante Punkte z.B. in Bezug auf die neuen Context-Switching Features. Ein sehr interessanter Punkt ist Wavefront-Repacking ist aber wohl eher etwas für die Zukunft (kann mir irgendwie nur schwer vorstellen wie das funktionieren soll - die Idee wäre dass man Wavefronts neu gruppiert so dass man dieselben Branches in derselben Wavefront hat).
Auch in Bezug auf die FB/Z-Kompression wird gesagt dass Dekompression nun sowohl in den ROPs wie den TMUs implementiert ist. Ich würde mir nach wie vor wünschen dass die Logik gemeinsam genutzt wird (mit Hilfe eines nun wirklich unified L2). Zumindest aufgrund der Uebersetzung geht aber nicht hervor was Fakt ist und was nur Annahmen.

Skysnake
2014-09-27, 08:26:40
Es ist eine Schande dass die AMD fans nicht das geringste zu besprechen haben ueber die Tonga slides auf die AnarchX verlinkt hat und nur ihren Stress ausdruecken was NV mit GM204 machen oder nicht machen wird. Gibt es wenigstens EINEN hier der zur Ausnahme etwas mal im Bereich technischen Interesse beitragen kann oder muss ich mich staendig mit dem Sandkasten-fanboy Mist abgeben?
Gemach gemach. Wirklich viel Infos gibt es durch die Folien ja nicht wirklich. Da kannste nur die Spekulationen von vor 1-2 Jahren wieder ausgraben, was man denn darunter genau verwstehen könnte zu großen Teilen.

Das 384-bit SI macht Tonga für mich noch mysteriöser. Denn trotz geringen Speichertakt und nur 256-bit auf der 285 ist diese nicht im geringsten Speicherbandbreitenlimitiert. Das deutet höchstens wieder auf eine noch stärkere Ausrichtung auf den professionellen Markt hin. Das die zusätzlichen HSA-Features hinzu gekommen sind ist hingegen keine Überraschung, das wurde auch schon vorher angemerkt. Tonga ist damit full-HSA kompatibel und darin jeder anderen GPU weit vorhaus, Maxwell beherrscht noch nicht mal unified adress space zwischen CPU und GPU, das kommt erst mit Pascal.

Angeblich auch 48 ROPs und eine Bestätigung für das 384-bit SI:
http://videocardz.com/52834/full-amd-tonga-gpu-might-feature-384-bit-memory-interface
Preemption empfinde ich hier WICHTIGSTE! Neuerung. Damit könnte man wohl wirklich endlich recursive Algorithmen auf GPUs bringen.

Dazu kommt noch, das man für die Desktopvirtualisierung nicht mehr einen GPU-Chip pro Nutzer rechnen muss, sondern wohl eher pro CU einen Nutzer verwenden kann :biggrin: nVidia hatte dafür ja ihre Spezial-GPU mit 4/8 GF106 gebaut. Da gab es ja mal einen Bericht von mir drüber ;)

Aber auch für Streaming wäre das durchaus sehr sehr interessant. Man könnte damit wohl ziemlich gut PS4/XBoxen emulieren, bzw halt mehrere PCs. Für die Streaminganbieter sicherlich sehr geil, weil sich damit der Hardwareaufwand minimieren lässt.

Und nicht nur das. Wenn man an Compute-Anbieter wie Amazon denkt, dann ist das für die natürlich auch sehr geil, weil Sie eben auch wieder mehrere Nutzer auf eine GPU packen können. Für Streaminganbieter eröffnet sich dieses Feld wohl auch. Man lässt gemieterte Compute-Kapazitäten einfach neben den Games laufen, sofern die die GPU nicht zu 100% auslasten, was Sie wohl bei den Streamingeinstellungen eher nicht sooo oft machen.

Tonga= HPC Chip und der Consumer bekommt das was hinten runter fällt? AMD sieht wohl große Perspektiven im professionellen Bereich.
Naja, Sie müssen auch richtig auf die Kacke hauen, sonst holt sich Intel so ziemlich alles, und IBM+nVidida noch einen kleinen Rest. AMD steht da halt inzwischen komplett allein da, also ohne jedweden Partner!

Das Intel Crays Networksparte sich einverleibt hat, wird AMD ziemlich hart getroffen haben, denn mit Crays Interconnect und deren allgemeiner Erfahrung im Bau von HPCs hatten Sie einen sicheren Fuß in der Türe.


Der Gamer-Markt wird schrumpfen?:eek:

Der Markt wird von unten her verschlungen und verschwindet im Bauch von Intel und vllt. AMD, während Nvidia um sein Leben läuft und einen Rettungsanker sucht, aber schrumpfen wird er nicht. Er wandelt sich.
Wie Nvidia diesen Wandel erlebt ist die große Frage.

Aber die Antwort ist noch viele Jahre entfernt und bis dahin hat Nvidia Zeit und Geld sich Gedanken zu machen wie ihre dann Rolle aussieht.
Wieg dich da lieber nicht in all zu großer Sicherheit. Da muss nur ein/e SOC/APU mit 50% Mehrleistung im Vergleich zu PS4 kommen, was durchaus machbar ist, und zwar schon heute, und du kannst einen Großteil des dGPU Marktes in die Tonne treten.

Btw. Wie sehe es denn aus, wenn Fiji doch ein Monster ist, aber eben kein reines dGPU Monster, sondern ein Hawai*1.x+CPU. Wäre das nicht sogar noch ein weitaus mächtigerer Gegner für nVidia und Intel als eine reine dGPU, die dafür stärker wäre?

Ich bin mir noch nicht sicher ob die Masche doch nicht zu gewagt ist, denn R&D fuer profi-chips ist alles andere als klein. Anders ich kann mir schwer vorstellen dass sie die Kosten dafuer wieder reinholen werden. Wie dem auch sei wenn man es mal von etwas mehr Abstand betrachtet dann ist jede moegliche Strategie-Kombination nicht ohne Risiko. Und da sie tatsaechlich begrenzte resources haben koennen sie auch nicht alles auf einmal schaffen.

Naja, im Profisegment wird auch mit immer härteren Bandagen gekämpft, und gerade Intel mit ihrem Größenwahn drückt alle anderen gegen die Wand. Da heist es ums überleben kämpfen oder Segel lieber gleich streichen, aber mit halbherzigen Versuchen wird man untergehen.

Und ansonsten verspricht der Cloud-Gameing Markt eine gewisse Konvergenz.


So wie wir ihn heute kennen wohl mit Sicherheit; insgesamt wird er IMHO wachsen aber der Gelegenheits-gamer der Furz9 Spielchen auf seinem smartphone bzw. tablet spielt gibt eben nicht so viel fuer das Spiel oder die unterliegende hw aus; gleiches gilt fuer smartTVs oder settop boxes der Zukunft wo immer die Gelegenheits-Spielchen im Wohnzimmer einwandern langfristig.

Nicht nur das, Intel verschenkt z.B. ja auch mehr oder weniger seine Chips in dem Bereich. Damit kann man nicht konkurrieren. Ich warte ja darauf, das wieder ein Verfahren gegen Intel wegen Ausnutzung einer marktbeherrschenden Stellung anläuft, denn was da wohl zurzeit abläuft ist wohl echt nicht mehr feierlich, wenn man den spärlichen Berichten Glauben schenken darf. Da kannste halt als "normaler" Anbieter auch nicht dagegen konkurrieren.


NV's Plan von unten nach oben (Tegra) anzugreifen ist alles andere als schlecht gewesen; dass sie zu daemlich waren und sind dort Erfolge zu landen. Anderes Kapitel aber.
Sie waren einfach "nur" zu langsam und zu halbherzig über eine zu lange Zeit. Jetzt wohs wohl geschnackelt hat, haben Sie andere Hersteller wie Intel bei den Eiern und drücken einfach zu meiner Meinung nach. In dem aktuellen Umfeld kann nVidia so gut sein wie Sie wollen, Sie haben keine realistische Chance meiner MEinung nach.

AnarchX
2014-09-27, 09:07:10
Dazu kommt noch, das man für die Desktopvirtualisierung nicht mehr einen GPU-Chip pro Nutzer rechnen muss, sondern wohl eher pro CU einen Nutzer verwenden kann :biggrin: nVidia hatte dafür ja ihre Spezial-GPU mit 4/8 GF106 gebaut. Da gab es ja mal einen Bericht von mir drüber ;)

Auch bei den aktuellen GRID (http://www.nvidia.de/object/grid-virtual-gpus-de.html)/Sky Karten kann man pro GPU mehrere vGPUs erzeugen.

btw.
http://abload.de/img/codexlcku2r.jpg (http://abload.de/image.php?img=codexlcku2r.jpg)
http://semiaccurate.com/forums/showpost.php?p=222313&postcount=252

Da ist wohl die Kritik angekommen.

fondness
2014-09-27, 12:13:44
Auch bei den aktuellen GRID (http://www.nvidia.de/object/grid-virtual-gpus-de.html)/Sky Karten kann man pro GPU mehrere vGPUs erzeugen.

btw.
http://abload.de/img/codexlcku2r.jpg (http://abload.de/image.php?img=codexlcku2r.jpg)
http://semiaccurate.com/forums/showpost.php?p=222313&postcount=252

Da ist wohl die Kritik angekommen.

Hm, wo ist Tonga oder bin ich blind?

AnarchX
2014-09-27, 13:04:08
Da ist wohl kein Tonga-Treiber installiert, siehe Satz oben.

memoal
2014-09-27, 13:26:42
Im Gegensatz hat NV im HPC und workstation Markt sehr hohe Marktanteile; mit der hw hat AMD hier per se kein Problem. Wenn sie sich jetzt auf bessere Unterstuetzung in Profi-Maerkten konzentriert haben dann ist es alles andere als eine schlechte Strategie eben weil diese Maerkte alle high margin/low volume sind. Fuer high volume/low margin haben sie mit Konsolen ein quasi Monopol und fuer SoCs nur Intel gegenueber.
Ja stimmt , nur lassen sie den, der Jahre lang gewartet hat am langen Besenstiel verhungern. Was soll Tonga jetzt sein? Der Ersatz des Ersatzes, eine HD7950/280 mit weniger VRam?

Was soll dieser Kuckoloris, den Abfall hätten sie stecken lassen können und in der Wüste vergraben. Wem bringt das was?

Als 370 wäre er sicherlich gut durchgegangen, vielleicht auch 275, nur dafür hätte er dann letztendlich die mieseste Effizienz im dem Segment überhaupt. Die Pitcairn lagen seinerzeit bei 110-130w. Jetzt bekomme ich 20w Effizienz für einen höheren Preis mit gleicher Leistung wie eine vor vorherige Version? Pah!

AMD macht etwas völlig falsch um es mal ganz richtig auszudrücken, den genau in dem Segment gibt es von denen mittlerweile Highend GPUs zu kaufen die 300w max und mehr verbraten. Das ist kein Performanceclass! Das bedeute Lärm, Hitze und einen riesigen Stromverbrauch, man kann Performance nicht mit der gleichen Performance ersetzen und man kann Performance schon garnicht mit Alt-Highend ersetzen. Was soll das für ein Fortschritt sein.

Das ist großer Shit ums richtig zu sagen. Man hätte sich Tonga einfach sparen sollen oder in einfach auf die Tahiti Bords klatschen sollen, dann wäre es niemandem aufgefallen. Oder vielleicht doch, mit 4GB VRam und höherer Tesselationspower als 280, geil. Diesen Chip mit großem Tam Tam anzukündigen und die Fans tatsächlich an der Leistung verhungern zu lassen ist einfach nur...ach was solls. Vor allem ihn als 285 zu bezeichnen wo man sicherlich erwartet das er auf 280x Niveau liegen könnte, für angemessene Preise.

Käsetoast
2014-09-27, 13:53:17
Vor allem ihn als 285 zu bezeichnen wo man sicherlich erwartet das er auf 280x Niveau liegen könnte, für angemessene Preise.
Die Bezeichnung ist doch voll in Ordnung, nur fehlt der 285X, der die 280X angreift. Da weiß wohl nur AMD was das genau soll...

memoal
2014-09-27, 14:02:31
Naja ich geh als Erstkäufer des Tahiti davon aus, dass ich in 3 Jahren dann irgendetwas zu sehen bekomme dass mich animiert mal wieder was Neues zu kaufen (Hawaii? nee bitte nicht, was soll ich damit), wollen die mein Geld jetzt nicht mehr? Verschärbeln mittlerweile Highend für Performancepreise, wo bleiben deren Margen? Mutiert man dort zum Heilsbringer.

Wenn ich von mir ausgehe, ganze 3 Jahre für solch ein Produkt, hör auf ich rede es mir nicht schön. Kann warten und warten und warten. Nur auf was, fragt man sich da.

Ich denke mittlerweile liegen einige der Angebote beim jetzigen Marktpreis unter dem Einkaufspreis für die Händler, ich glaube nicht das sowas gut ankommt. Den restlichen marktbedingen Preisverfall nicht mal mit eingerechnet.

Ich sags nochmal als 280 für um 180-200 Dollar mit 4GB VRam + den Eigenschaften, wäre für mich o.k. gewesen, einen kleinen Schritt nach vorne, aber nach vorne, dass muss erkennbar bleiben. Ich solidarisiere mich nicht, die müssen einen schon überzeugen.

Gut, nur eine, eben meine Meinung. ;) Dabei will ich noch nicht mal das man sich an GM204 misst.

horn 12
2014-09-27, 15:52:20
Einige Modelle der R9 290 (X) werden von Tag zu Tag weniger gut verfügabr, sprich immer weniger Händler auf Lager.
MSI - Club 3D - PowerColor

Man scheint langsam die Lager leerbekommen zu wollen, oder einfach die Karten verkaufen sich so gut wie nicht mehr und werden nicht mehr geordert!
Trotz! des guten Preises von 259 / 269 Euro bleiben die PowerColor R9 290 PCS+ und Turboduo wie Blei in den Regalen bei Mindfactory und Co.
Rechne da muss noch mehr Preisreduzierung seitens AMD kommen, ausser die R9 290 (X) gingen schon EOL und AMD sagt uns dies natürlich nicht!

Teilweise bis zu 30% weniger Anbieter (Händler) als noch vor einer Woche!
Fällt Euch dies nicht auch auf ?

dildo4u
2014-09-27, 15:56:24
Ist doch normal eine 290 für 260€ macht das ganze Angebot drum herrum lächerlich erst Recht Tongas mit 2GB.Es spricht sich auch langsam rum das Next-Gen Port's wie Evil Within und das neue LOTR Game viel V-Ram wollen,da muss man aufrüsten.

Käsetoast
2014-09-27, 16:14:08
erst Recht Tongas mit 2GB.
Noch so eine Sache, die ich am AMD Vorgehen nicht verstehe - warum wird mit den 4GB Versionen, die es ja offensichtlich gibt / geben soll, hinterm Berg gehalten?

dildo4u
2014-09-27, 16:20:14
Weil sie noch die 280X abverkaufen müssen,die Masse wird immer eine 4 einer 3GB Karte vorziehen wenn sie Vergleichbar viel kostet und kaum langsamer ist.

HOT
2014-09-27, 16:48:08
Na ja, eine 280X ist ja noch deutlich schneller als eine 760 mit 4GB und eine 4GB 270X ist deutlich günstiger. Die 280X ist aber auch nicht mehr in großen Mengen verfügbar, genau wie Hawaii. Die Preissenkung kann eigentlich nur der Abverkauf sein, wie ichs schon lange behaupte.
Die 285 mit 2GB wird auch noch deutlich sinken. Das diente sowieso nur dazu die schlechteste Salvageware loszuwerden. Wenn man den Gerüchten Glauben schenken darf, ist Tonga ja schon seit Mai/Juni fertig, den "Mist" verkauft man halt vorab und die Rosinen bringt man dann in der neuen Serie unter. Es deutet jedenfalls alles darauf hin, dass AMD im Oktober eine neue Serie liefern wird.

Botcruscher
2014-09-27, 17:13:54
Wer soll den bitte eine 280X kaufen. Für 40€ mehr steht die 290 an. Die 285 ist dann nur noch ein Lachen im Walde... Da muss man ja extrem doof sein. PS Und für 310 winkt die 970. 50€ Aufpreis hat man alleine bei der Stromrechnung locker wieder raus.

Raff
2014-09-27, 17:28:50
50€ Aufpreis hat man alleine bei der Stromrechnung locker wieder raus.

Nach einem Jahr des 24/7-Spielens vielleicht, sonst nicht. ;)

MfG,
Raff

Unicous
2014-09-27, 17:40:26
Immer diese Strompreismythen.:freak:

Bitcoin-Miner sollten sich Gedanken um die Effizienz machen, denn die GPUs laufen tatsächlich (bis zu) 24/7. Aber doch nicht Gamer, die im Durchschnitt gerade mal zwei Stunden am Tag zocken. (Ich weiß das ist hier im Forum eher die Mindestdauer einer Session:tongue:)

Wenn man sich ein teureres Netzteil deswegen kaufen muss, das vllt. 50 Euro mehr kostet ist das ein legitimer Grund, aber nicht um Strom zu sparen.

Kauft lieber nicht von den bösen Großkonzernen (RWE,Vattenfall,...) euren Strom, denn die nehmen euch nur aus. Damit tut ihr euch und Anderen einen Gefallen, der Strompreis könnte dadurch nämlich sinken.

aufkrawall
2014-09-27, 17:44:52
Bitcoin-Miner sollten sich Gedanken um die Effizienz machen, denn die GPUs laufen tatsächlich (bis zu) 24/7.
Würde mich wundern, wenn es in irgendeinem Industrieland noch rentabel wäre, Bitcoins zu minen, wenn ansatzweise der Strom bezahlt werden muss.
Da kauft(e) man besser ASICs oder mined irgendwelche gehypten Shitcoins.
/klugscheiß

Käsetoast
2014-09-27, 17:47:02
Weil sie noch die 280X abverkaufen müssen,die Masse wird immer eine 4 einer 3GB Karte vorziehen wenn sie Vergleichbar viel kostet und kaum langsamer ist.
Dann hätte der Abverkauf einfach früher starten müssen bzw. ansonsten ist da eine totale Fehlplanung über die Bühne gegangen, nachdem Tonga ja schon künstlich zurückgehalten wurde und die 4GB Variante dann erneut noch länger...

Unicous
2014-09-27, 17:49:26
@aufkrawall

Dann eben Litecoin.:rolleyes:

Nur weil Bitcoin nicht mehr rentabel ist, heißt das ja nicht, dass die Leute aufhören zu "minen".

Auch wenn die 290/x Hysterie wahrscheinlich übertrieben war, wurden sogar extra Mining Kits mit MB und mehreren GPUs verkauft. Bei Maxwell wird das nicht anders sein.

reaperrr
2014-09-27, 18:13:41
Gerade das Rätselraten, wo die 700 Mio Transistoren verschwunden sind lässt auf irgendwas in Richtung GPGPU vermuten.
Das wäre nur bei einem 256-bit SI, 32 ROPs und 1 MB L2$ seltsam gewesen, durch die neuen Infos sieht das aber anders aus.

Im Vergleich zu Tahiti:
- 8 ACEs, dazu mit mehr Queues pro ACE
- doppelt so viele Shader-Engines
- überarbeitete Geometrie-/Tesselation-Einheiten
- UVD und VCE mit Unterstützung für zusätzliche Features/Formate
- XDMA Engine für PCIe-Crossfire
- TrueAudio
- Farbkompression
- 16 zusätzliche ROPs
- (wahrscheinlich) 1,5 MB L2 Cache

Ist in der Summe jetzt schon plausibel.

Auch wäre es merkwürdig den Chip fertig zu haben, aber nun über Wochen hinweg (bzw. sogar Monate, da der Chip zugunsten der 280er Verkäufe ja wohl zurückgehalten wurde) nur den Salvage zu verkaufen, aber nicht den vollen Chip...
Auf geizhals.de gibt es nur noch 15 Listungen für die 280, aber noch 37(!) für die 280X. AMD bzw. die Boardpartner werden die 280X wohl einfach nicht schnell genug los (wegen der GTX 970 wohl momentan noch schwieriger). Und nein, einfach Preise reduzieren wäre nicht gut für AMD, deren Margen sind eh schon relativ schlecht und sie würden damit wohl auch noch die Verkäufe der 270/270X und 285 kannibalisieren.

Außerdem hat AMD so noch etwas Zeit, evtl. an Treibern und den genauen Taktraten der 285X zu feilen.

Die ganze Bandbreitenkomprimierung war doch gerade dazu da von 384 auf 256 Bit runterzugehen bei mehr oder weniger gleicher Bandbreite - da macht es einfach keinen Sinn die 285X mit 384 Bit kommen zu lassen (zumal die 285 von mehr Bandbreite ja auch nicht wirklich profitiert wenn man da mal die Werte hochdreht).
Wenn AMD die Technologie für die Komprimierung eh fertig hatten, warum dann nicht auch einbauen? So lässt sich die 285 z.B. günstiger herstellen.

Außerdem, das Speicherinterface schafft wohl nicht viel mehr als 5.5 GHz, fraglich, ob ein 256-bit SI für eine 285X mit z.B. 32 CUs und 1050 MHz Chiptakt dann noch vollständig ausgereicht hätte.

memoal
2014-09-27, 19:00:13
Immer diese Strompreismythen.:freak:
Ach darum geht es auch garnicht, aber wenn ich mir zwei Hawaii in den Rechner hänge kann die Heizung im Winter ausmachen und im Sommer die Klimaanlage hochdrehen, dazu ein 850iger Netzteil verbauen, was soll das, da können sie die auch für 100 Euro verschärbeln wollen, mir egal. Das ist nun mal kein Performancesegment und wurde dafür auch nicht gemacht bzw. entwickelt. Wenn ich mir jetzt zwei Tonga in den Rechner haue was soll das bitte bringen? Die sind langsamer als eine 3 Jahre alte CF-Konfig von Tahiti. Bullshit. AMD verspricht viel, aber macht in letzter Ziet genau das Gegenteil von dem was sie behaupten.

Sie wollen leise und sparsame Karten in den Markt bringen, Tahiti war nicht ganz so wie man es sich vorgestellt hatte (Referenz; Kritik etc.), dann kommt Hawaii, brüllt, ist ein Hitzkopf und braucht Moante bis man ihn überhaupt einigermaßen in Griff hat.

AMD sagen, wir konzentrieren uns mehr auf den Spieler, dass kann nur das Performancesegment sein, daher bringen wir konkurrenzfähige Gamer-GPUs, wo, die 3 Jahre alten 2x umgelabelten Tahiti? Witzlos. Dann kommt man mit Hawaii, gelagert im Enthusiasten und Highendsegment, was soll das?

Hat man eine Mrd-Tahiti's produziert und den Markt unterschätzt oder überschätzt? Dann wird gelabelt das die Hütte brennt. Aus 7950 wird Boost dann 280 alles über die VCore, dass kann sogar ich Depp. Overdrive Regler rüber und gut, beachtlich und schön, aber was für ein technischer Fortschritt? Jetzt kommt man mit Tonga, wer bitte schön ist denn für diese GPU (Karte) der potentielle Käufer, der Tahiti-Besitzer? Man entwickelt doch nicht wegen des Entwickelns wegen und tritt auf der Stelle rum. Dann behauptet man, nein die 760 ist die direkte Konkurrenz, und was ist mit den Preisen und warum dann 285? Einer 760 kann man mit einer lumpigen 7870 das fürchten lehren, mal wieder Overdrive Regler rüber und gut. Wer weiss wie lange diese GPU schon in der Schublade liegt. Man meckert immer über nV, aber AMD macht zur Zeit nix anderes, die Citrone ausquetschen bis zum letzten Tropfen.

Ich hab da keinen Bock mehr drauf, ganz salopp gesagt. Jetzt beruhigt man und kommt mit Fiji, was soll ich damit? Könnten die Bitte mal eröffnen wie das bei denen im Performancebereich weitergeht? Fiji interessiert mich nicht, ich habe keinen Platz im Rechner für zwei Radiatoren. Tonga ist eine Nullnummer. Wenn da nicht bald was kommt, dann kaufe ich die Konkurrenz. Vielleicht muss das mal sein, damit die aufwachen. Tonga hätte sicherlich Potential, die 913Mhz sind doch auch Augenwischerei. 1050Mhz, 4GBVRam und 200$ hätten dem sicherlich gut zu Gesicht gestanden, da muss man nichtmal (Abverkaufs-) Preise der 280 erreichen, er wäre schneller und bietet mehr. Zur Zeit sehe ich ihn so (913, 2GB VRam) auch als 285 nicht vor der 280, schon garnicht in der Nähe einer 280x oder 770 und das ist traurig.:P

Na denn.

ndrs
2014-09-27, 19:07:20
- XDMA Engine für PCIe-Crossfire

Ich würde eher vermuten, dass man hier sogar Platz spart, da das nur Logik ist und keine zusätzlichen Pads für die CF-Brücke benötigt werden.

Unicous
2014-09-27, 19:14:40
@memoal

Warum zitierst du nur einen Satz von fünf geschriebenen.?:confused: Ich habe doch gesagt, wenn man dadurch gezwungen wird weitere Anschaffungen zu tätigen (wie zum Beispiel ein leistungsfähigeres Netzteil) ist das ein legitimer Grund eine Grafikkarte mit niedrigerer TDP zu kaufen. Der "gesparte Strom" ist es aber in den meisten Fällen nicht.




Vllt. könnten wir uns ja auch mal wieder "Volcanic Islands" widmen und nicht unsere persönlichen Gefühle gegenüber AMDs Produktpolitik breittreten.

Es ist mir scheiß egal, wieviele 280/X AMD noch hat, man muss auch nicht zu Rotstift greifen um uninteressante Preisreduzierungen hier zu erörtern. Dafür gibt es die entsprechen Produkt-Threads(bzw. Grafikkarten-Preise Thread).

Botcruscher
2014-09-27, 19:20:10
Nach einem Jahr des 24/7-Spielens vielleicht, sonst nicht. ;)
MfG,
Raff

Bei 60W Unterschied(eine 290 genehmigt sich gerne auch mehr) sind das gut 17h für eine KW/h. 50€ hat man in 142 Tagen raus. In der Lebenszeit einer Karte also schaffbar.

memoal
2014-09-27, 19:23:37
Warum zitierst du nur einen Satz von fünf geschriebenen.?
Weil ihr genau dieses Thema ansprecht, das ist dem Spieler egal, aber dem Miner nicht! Oder betreibst du eine Rig?

horn 12
2014-09-28, 11:33:21
Ital. Händler listen einige Modelle gar nicht mehr, RoyalAce wird nur mehr über Alternate verkauft, und Karten werden Tag für Tag weniger.
Oder man hat die Befürchtung die R9 290 (X) Karten nicht mehr loszuwerden,
ODER ABER
man rechnet doch stark dass in gut 1 bis max. 2 Monaten jene Karten ersetzt werden, pünktlich zum Weihnachtsgeschäft, und AMD plant jenes mitzunehmen.

Unicous
2014-09-28, 11:42:11
Niemand interessiert sich für deine Preis- und Lager-Updates. Wenn überhaupt gibt es entsprechende Threads dafür.

Hübie
2014-09-28, 11:57:00
Ich würde eher vermuten, dass man hier sogar Platz spart, da das nur Logik ist und keine zusätzlichen Pads für die CF-Brücke benötigt werden.

Afaik geht das bei den alten Karten über das PCIE-Interface und wird halt zur Brücke gerootet. Die haben 1 GB/s, bidirektional.

fondness
2014-09-28, 11:58:18
Der Unterschied ist das es ohne XDMA nur sehr umständlich und langsam über die CPU geht, deshalb die Brücke.

memoal
2014-09-28, 12:03:17
@Unicous
Also ich will dir nicht zu nahe treten, aber Hawaii und Tonga gehören hier absolut zum Thema, es fehlen Maui und Iceland. Falls du damit ein Verständnisproblem hast einfach Seite 1 oder Beitrag 1 aufrufen. Spekulieren kann man sicherlich in vielerlei Hinsicht: Preis, Preisentwicklung, Technik, Technologie, Kühllösung, Marketing usw.. Wurde auf den ganzen 433 Seiten auch nicht anders gehandhabt. Es geht ja nicht um eine reine Preisempfehlung, sondern eine Art Vermutung zur Preisentwicklung und einer womöglichen Abverkaufssituation für AMD. Man muss auch nicht zig mal das gleiche Schreiben. Wenn der Mod meint Müll wird er es schon löschen.

Hast du was zu Maui oder Iceland?

Abverkaufspreis kann ja bedeuten, es kommt bald was neues, entgegen den Vermutungen das dieses Jahr eigentlich nichts mehr Neues zu erwarten ist.

Unicous
2014-09-28, 12:14:54
Afaik geht das bei den alten Karten über das PCIE-Interface und wird halt zur Brücke gerootet. Die haben 1 GB/s, bidirektional.
Der Unterschied ist das es ohne XDMA nur sehr umständlich und langsam über die CPU geht, deshalb die Brücke.


Und Nvidia in Form von Tom Peterson behauptet, dass die SLI-Bridge weiterhin Vorteile bringt und sie auf absehbare Zeit weiter genutzt wird.:wink:

Er ist natürlich nicht darauf eingegangen, was für Vorteile das dann genau sind, aber naja wir müssen Nvidia da einfach mal glauben.

Es wäre aber schon interessant, ob es diese Vorteile gibt, oder ob es nur ein ein Nachteil für Nvidia wäre, weil die Architektur dafür nicht ausgelegt ist.


@memoal

Ich wüsste nicht was das Preisgefüge und die Lagerbestände eines Retail-Produktes in Italien mit einer Architekturdiskussion zu tun haben sollten.

Skysnake
2014-09-28, 12:17:50
Naja, ein möglicher Vorteil wäre eine eventuell deterministische Latenz. Mit PCI-E musste da gar nicht erst anfangen so was zu versuchen.

Aber keine Ahnung, wies da genau aussieht. nVidia sagte dazu, wie zu sooo vielem, ja mal wieder nichts. Bei AMD sahs ja genauso aus.

memoal
2014-09-28, 12:18:36
@Unicous
Ich wüsste nicht was Nvidias Bridgelösung in einem Spekulationsthread seitens AMD Hardware zu suchen hätte, dafür gibt es den entsprechenden Thread Maxwell GM204 unter Technologie.

ndrs
2014-09-28, 12:22:35
Afaik geht das bei den alten Karten über das PCIE-Interface und wird halt zur Brücke gerootet. Die haben 1 GB/s, bidirektional.
Wie soll ich mir das denn vorstellen? Hängt da noch ein Switch-IC zwischen GPU, PCIe und CF-Brücke? Von der Geschwindigkeit wären das zwei PCIe 2.0 Lanes. Läuft dann der Slot nur noch mit x14 (Soweit ich weiß gehen doch nur die festen 2er Potenzen. Dann wäre es sogar ein Rückfall auf x8)? Bei einem billigen Board, was eh nur zweimal x8 bietet wäre das ja fatal. Ich kann mir das absolut nicht vorstellen. Hat da jemand einen Link zu einer Technik-Erklärung parat?

@Unicous, @memoal: könnt ihr mal aufhören euch als Möchtegern-Mods aufzuführen? Bewerbt euch als solcher oder meldet die Posts einfach. Bei Bedarf wird sich schon jemand melden. Aber das ständige "Das interessiert hier keinen" nervt einfach, vorallem weil es immer nur zwischen euch beiden so abgeht. Nehmt euch ein Zimmer.

Hübie
2014-09-28, 12:28:58
Weiß nicht ob da zwei Lanes extra drangebaut wurden oder ob ein IC dazwischen hängt. War die Aussage eines AMD'lers(-Ingenieur?) vor längerer Zeit über Tahiti.

Skysnake
2014-09-28, 12:31:03
Wie schon gesagt, dazu gibt es weder von AMD geschweige denn von nVidia eine Doku zu. Das wird es wohl auch nie geben. Wenn du also etwas über die Funktionalität wissen willst, fang an in der Entwicklungsabteilung von AMD/nVidia zu arbeiten, ansonsten wirste nie etwas davon wohl erfahren.

memoal
2014-09-28, 12:33:52
Wie soll ich mir das denn vorstellen? Hängt da noch ein Switch-IC zwischen GPU, PCIe und CF-Brücke? Von der Geschwindigkeit wären das zwei PCIe 2.0 Lanes. Läuft dann der Slot nur noch mit x14 (Soweit ich weiß gehen doch nur die festen 2er Potenzen. Dann wäre es sogar ein Rückfall auf x8)? Bei einem billigen Board, was eh nur zweimal x8 bietet wäre das ja fatal. Ich kann mir das absolut nicht vorstellen. Hat da jemand einen Link zu einer Technik-Erklärung parat?

@Unicous, @memoal: könnt ihr mal aufhören euch als Möchtegern-Mods aufzuführen? Bewerbt euch als solcher oder meldet die Posts einfach. Bei Bedarf wird sich schon jemand melden. Aber das ständige "Das interessiert hier keinen" nervt einfach, vorallem weil es immer nur zwischen euch beiden so abgeht. Nehmt euch ein Zimmer.
1. http://www.planet3dnow.de/cms/6943-amd-nennt-weitere-details-zur-xdma-technologie-fuer-crossfire-gespanne/
2. Nee, hab nur auf dem Level geantwortet. Mod, nein danke.

ndrs
2014-09-28, 17:52:43
1. http://www.planet3dnow.de/cms/6943-amd-nennt-weitere-details-zur-xdma-technologie-fuer-crossfire-gespanne/

Da steht rein garnicht zur Funktionsweise von CrossFire mit Brücke drin.
2. Nee, hab nur auf dem Level geantwortet.
Nun, genau das zeichnet eher ein beleidigtes Kleinkind als jemanden der versucht ein Gewisses Niveau zu halten aus.

Ailuros
2014-09-28, 21:58:09
Zurück zum Thema bitte.

memoal
2014-09-28, 22:13:34
Da steht rein garnicht zur Funktionsweise von CrossFire mit Brücke drin.
All dies geschieht ohne Interaktion mit der CPU oder unnötiges Umherkopieren zwischen den GPUs und dem Arbeitsspeicher.
Dann hast du ein Verständnisproblem. Den Rest solltest du vielleicht bei/oder unter ATI suchen, ab der X1xxx Serie oder so. AMD hat das Ganze einfach in AMD CrossfireX umbenannt.

Der Rest, naja, wenn du meinst.

PS: Hübie könnte dir da vielleicht weiterhelfen, sein Level ist wohl dahingehend höher. Der hat sich auf planet3dnow reichlich an den Threads zu ATIs CrossfireX beteiligt, so ab 2008/2009. Ein Whitepaper oder sowas bekommt man nicht ohne Passwort, also angemeldet zu sein. Solltest du Zugriff haben, kannst du ja mal bei AMD anfragen.

ndrs
2014-09-28, 23:10:18
Es ging ursprünglich um die benötigte Die-Area für die Pads der Brücke. Ich verstehe nicht, was der von dir zitierte Satz damit zu tun hat oder wo sonst dazu was im P3DN-Artikel stand.

Ansonsten haben die andern ja schon gepostet (Edit: falls doch, nehme ich gern PNs an), dass es dazu wohl keine öffentlichen Infos gibt, womit auch Ailuros jetzt seine Ruhe bekommt :)

Hübie
2014-09-28, 23:41:54
Also viel Platz wirds nicht einnehmen. XDMA ist jedoch auch nicht richtig (gar nicht) dokumentiert. Somit läuft das ins Leere. Ich habe mal ein paar die shots "studiert", aber da kann man nicht viel vom PCIE-Interface ableiten.
Wäre jetzt natürlich schon interessant herauszufinden wo die angeblichen Vorteile liegen wenn man das nach wie vor mit einer Brücke löst. Hatte mir von XDMA allerdings auch mehr erhofft muss ich sagen. Immerhin ist das direkte GPU-Kommunikation. Das is im Desktop ja nicht selbstverständlich.
Edit: Der Vorteil könnte sein, dass die Brücke schneller taktet und somit geringe Latenzen aufweist, was für framepacing interessant wäre.

ndrs
2014-09-29, 10:48:44
Hatte mir von XDMA allerdings auch mehr erhofft muss ich sagen.
War es das vorher nicht?

Immerhin ist das direkte GPU-Kommunikation.
Wenn ich das richtig verstanden habe, schreibt die andere GPU in den VRAM des Masters. Ganz direkt ist es also nicht, aber das nimmt sich wohl nicht so viel :D

Edit: Der Vorteil könnte sein, dass die Brücke schneller taktet und somit geringe Latenzen aufweist, was für framepacing interessant wäre.
Tja, nur komischerweise hat man doch genau zur Einführung von XDMA mit verringertem Microruckeln geworben.

Ich glaube ehrlichgesagt, dass die ganzen Begründungen vonwegen Vorteilen mehr oder weniger Ausflüchte sind, weil der Aufbau der GPU sonst deutlich komplizierter wäre. Eine Brücke wäre ein dritter Teilnehmer, dem die MMU zugriff auf den Speicher geben müsste (neben PCIe von der CPU und der GPU selbst), was verwaltungstechnisch wohl etwas komplizierter wäre. Zusätzlich spart man sich noch die zusätzliche Pad-Area (Ich wunterstelle jetzt mal, dass die I/Os nicht geswitcht werden)

Was Performance angeht kann ich für eine dedizierte Brücke auch nur Vorteile sehen. Eigene Leitungen, wo die CPU nicht reinpfuscht, die möglichkeit abseits von PCIe ein proprietäres Protokoll zu fahren...

PS: Ich melde das ganze direkt mal an die Mods. Vielleicht kann das einer in den passenden Thread verschieben
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=549590 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=549590&highlight=crossfire)

Timbaloo
2014-09-30, 09:04:19
http://www.techpowerup.com/205811/amd-tonga-silicon-features-384-bit-wide-memory-interface.html

DrumDub
2014-09-30, 10:18:40
http://www.techpowerup.com/205811/amd-tonga-silicon-features-384-bit-wide-memory-interface.html hmm... versteh den vortiel des ganzen jetzt nicht so ganz, wenn man eh nur maximal 2048 sps hat. tonga hängt ja nicht an der bandbreite selbst bei 256 bit dank den neuen kompressionsalgorithmen.

StefanV
2014-09-30, 11:52:22
Edit: Der Vorteil könnte sein, dass die Brücke schneller taktet und somit geringe Latenzen aufweist, was für framepacing interessant wäre.
Sicher, dass das geht?

Die CF/SLI Brücken sind ja auch schon 'nen paar Jährchen alt, da besteht durchaus die Möglichkeit, dass die ganzen Verbindungen für heutige Anwendungen gar nicht mehr so toll sind und dass das Brückenlose CF durchaus Vorteile bringen kann...

differenzdiskriminator
2014-09-30, 11:56:47
hmm... versteh den vortiel des ganzen jetzt nicht so ganz, wenn man eh nur maximal 2048 sps hat. tonga hängt ja nicht an der bandbreite selbst bei 256 bit dank den neuen kompressionsalgorithmen.
Professionell könnte das anders aussehen, eventuell auch mehr Speicher.

Macht aber trotzdem irgendwie keinen Sinn.

Hübie
2014-09-30, 18:53:11
Sicher, dass das geht?

Die CF/SLI Brücken sind ja auch schon 'nen paar Jährchen alt, da besteht durchaus die Möglichkeit, dass die ganzen Verbindungen für heutige Anwendungen gar nicht mehr so toll sind und dass das Brückenlose CF durchaus Vorteile bringen kann...

Nein, sicher bin ich natürlich nicht. Reine Spekulation. Aber wer sagt dass dort seit sagen wir G80 nichts geändert wurde ;) Kann also durchaus sein dass die Kommunikation ähnlich wie im PKW ein low-bandwidth-low-latency-bus is.

Unicous
2014-10-09, 01:35:08
Ich bin gerade über die Theorie bei S|A gestolpert, dass Tonga ja ein logisches Produkt für den iMac wäre. Der Thread an sich ist zwar nicht bemerkenswert und sinniert darüber, dass AMD binning für Apple betreibt um ihnen low TDP Chips liefern zu können und Tonga PRO deswegen so ineffizient ist:rolleyes:... aber der Umstand, dass es keine volle Tonga SKU gibt könnte schon darauf fußen, dass AMD erst einmal Apple den Vortritt lässt und später (2015?) eine volle SKU unter dem 300 Series Brand launched. Vllt. aber auch nur vllt. bekommt ja der iMac einen niedrig taktenden Tonga XT.:cool:

Unicous
2014-10-16, 20:20:20
Jetzt isses raus. TongaXT im iMac.

Nakai
2014-10-16, 20:23:14
Da frage ich mich, was AMD da noch alles für Apple eingebaut hat. :freak:

Selbst für 32 CUs ist die Diesize zu groß.

Unicous
2014-10-16, 20:24:37
Selbst für 32 CUs ist die Diesize zu groß.

Du hast gerade krass Tahiti gedisst.:eek:

"Tahiti, du bist fett."



Apple verlangt übrigens $250 Aufpreis vom M290X (2GB) auf den M295X(4GB):freak:

Skysnake
2014-10-16, 21:01:37
Und das könnte eventuell auch ein Grund dafür sein, das es keine 4GB Version im Retail gibt. Apple wollte es eventuell nicht, um ein Alleinstellungsmerkmal zu haben. :ka:

Ansonsten muss man sich anschauen, wie Tonga im Apple performt. Kann durchaus sein, dass der Retailmarkt halt die Resterampe ist. Apple will ja große Volumen und wird ziemlich genau vorstellungen haben, was Sie wollen und was nicht.

Unicous
2014-10-16, 21:07:55
Warum Alleinstellungmerkmal?

Sie nutzen den nicht von AMD gelaunchten M295X, der höchstwahrscheinlich TongaXT ist, das ist Alleinstellungsmerkmal genug. AMD hat gesagt, dass es den Herstellern frei steht 4GB Versionen (von Tonga Pro) zu verkaufen und dass die wahrscheinlich "später" kommen.

AMD brauchte einfach die Chips für die iMacs. Apple lässt nicht mit sich spaßen, wenn man nicht liefern kann und lässt dich im Zweifelsfall am ausgestreckten Arm verhungern, wenn du Probleme hast (siehe Saphirglashersteller).

Blediator16
2014-10-16, 21:17:57
Ich habe bis jetzt nur bei reddit gelese, aber ich habe von allen Kommentaren über die GPU Wahl absolut nur negatives gelesen. Wenn mans nüchtern betrachtet, dann wäre Maxwell zu diesem Zeitpunkt Strom und Leistungstechnisch die viel bessere Wahl gewesen.

differenzdiskriminator
2014-10-16, 21:23:11
Wenn mans nüchtern betrachtet, dann wäre Maxwell zu diesem Zeitpunkt Strom und Leistungstechnisch die viel bessere Wahl gewesen.
Verkauft NVIDIA aber lieber selbst, als für viel Rabatt an Apple.

Durchaus eine logische Wahl.

M4xw0lf
2014-10-16, 21:30:48
Ich habe bis jetzt nur bei reddit gelese, aber ich habe von allen Kommentaren über die GPU Wahl absolut nur negatives gelesen. Wenn mans nüchtern betrachtet, dann wäre Maxwell zu diesem Zeitpunkt Strom und Leistungstechnisch die viel bessere Wahl gewesen.

Offensichtlich ist Maxwell zu spät dran und/oder Apple ist nicht bereit Nvidias Preise zu zahlen.

Kartenlehrling
2014-10-16, 22:28:54
AMD Radeon R9 M295X

Ich bin auf jedenfall gespannt auf die weitern technischen Werte, war der Desktop R9285 vielleicht doch nur "Abfallprodukt" soo wie die HD5830 Karte?

ach die gibts wohl schon lange ...

samm
2014-10-16, 22:42:38
Jup, Bild ist vom Juni oder so ;)

Nakai
2014-10-16, 22:47:28
Du hast gerade krass Tahiti gedisst.:eek:

"Tahiti, du bist fett."


Ja, Tahiti ist auch zu fett gewesen. Tahitis CUs sind etwa 5,5mm² groß, von Hawaii/Bonaire/Pitcairn eher 4,5mm² bis 4,8mm². Tahiti war aber die erste Revision von GCN. Hawaii hat eine deutlich höhere Packdichte gehabt, aber selbst Pitcairn/Bonaire/Capeverde hatten deutlich kleinere CUs.

AMD will sich ja als Custom Chip-Hersteller profilieren. Mich würde es nicht wundern, wenn da bestimmte Apple-spezifische Sachen verbaut sind.

Unicous
2014-10-16, 22:50:12
AMD will sich ja als Custom Chip-Hersteller profilieren. Mich würde es nicht wundern, wenn da bestimmte Apple-spezifische Sachen verbaut sind.

Mich hingegen würde es seeehr wundern. Selbst AMD bestellt nicht auf gut Glück eine Maske extra für Apple nur weil Hochwohlgeboren ein paar Extras eingebaut haben will.

Skysnake
2014-10-16, 22:54:32
Ich habe bis jetzt nur bei reddit gelese, aber ich habe von allen Kommentaren über die GPU Wahl absolut nur negatives gelesen. Wenn mans nüchtern betrachtet, dann wäre Maxwell zu diesem Zeitpunkt Strom und Leistungstechnisch die viel bessere Wahl gewesen.
nicht zwingend. Der OpenCL Support von nVidia ist unterirdisch. Apple steht aber auf OpenCL. Zudem hat man im MAC die FirePros drin, man hat also synnergien.

Man sollte das wirklich nicht aus den Augen verlieren. Apple ist zwar groß und kann sich vieles Leisten, aber ohne Not supporten die auch nicht mehr als zwingend notwendig, zumal Sie eben auch "ein gleichbleibendes Erlebnis" verkaufen wollen.

Apple hat doch schon lange/nie High-End Hardware verbaut, und gekauft wurde es dennoch. Das Packet+Feeling stimmt halt für die Käufer.

Hübie
2014-10-16, 23:34:03
Ja, Tahiti ist auch zu fett gewesen. Tahitis CUs sind etwa 5,5mm² groß, von Hawaii/Bonaire/Pitcairn eher 4,5mm² bis 4,8mm². Tahiti war aber die erste Revision von GCN. Hawaii hat eine deutlich höhere Packdichte gehabt, aber selbst Pitcairn/Bonaire/Capeverde hatten deutlich kleinere CUs.

AMD will sich ja als Custom Chip-Hersteller profilieren. Mich würde es nicht wundern, wenn da bestimmte Apple-spezifische Sachen verbaut sind.

Und was wäre so eine "Apple-spezifische-Sache"?? :| Afaik haben die in der Hinsicht nix, aber auch gar nix was es nicht schon gibt, gab oder substituiert werden könnte... :freak:

Unicous
2014-10-17, 00:57:25
Apple behauptet übrigens der iMac hätte bis zu 3,5 TeraFLOPS (die 285 hat ja nur 3,29 TF).

(2048*2*854)/100k=3,49


Kommt gut hin oder.:biggrin:

Locuza
2014-10-17, 01:32:01
vs. 2,2 TF der alten R9 M290X oder 3,2 TF von einer Geforce GTX 980M.

Unicous
2014-10-17, 01:53:50
Hmmm. Es stellt sich aber die Frage wie das MI nun aussieht. 4 GB würde ja bedeuten, dass man doch bei 256Bit bleibt (außer man macht Frankenstein'sches Clamshell Gefrickel). Das Ding wird daran verhungern.

Dawn on Titan
2014-10-17, 07:19:57
Nö, Tonga ist recht effizient. Wartet doch mal ab, was das Ding in einem Mac alles zeigen kann.

reaperrr
2014-10-17, 13:29:52
Hmmm. Es stellt sich aber die Frage wie das MI nun aussieht. 4 GB würde ja bedeuten, dass man doch bei 256Bit bleibt (außer man macht Frankenstein'sches Clamshell Gefrickel). Das Ding wird daran verhungern.
Nein, wird es nicht. Der Chip taktet nur mit 800 MHz, sollte trotz 32 CUs also eher einen Tick langsamer als die 285 sein, und die ist kein bisschen bandbreitenlimitiert.

Unicous
2014-10-17, 13:56:31
Nein, wird es nicht. Der Chip taktet nur mit 800 MHz, sollte trotz 32 CUs also eher einen Tick langsamer als die 285 sein, und die ist kein bisschen bandbreitenlimitiert.

Wie wäre es mit einer Quelle? Und wie kommt Apple auf die 3,5 TF?:rolleyes:

reaperrr
2014-10-17, 14:55:35
Wie wäre es mit einer Quelle? Und wie kommt Apple auf die 3,5 TF?:rolleyes:
Stand in einem Link, der im Forum von entweder beyond3d oder semiaccurate gepostet wurde, aber wie es dann immer so ist, finde ich den natürlich gerade nicht wieder :rolleyes:

Ist aber im Prinzip auch egal, 3,5 TF entsprechen bei 32 CUs nämlich auch nur 856 MHz, heißt 6% mehr theoretische ALU/TMU-Leistung, aber 6,7% weniger Front- und Backend-Leistung. Die Speicherbandbreite wird also auch hier ausreichen.

Unicous
2014-10-17, 15:09:45
Du meinst sicherlich diesen (einzigen) Eintrag vom Juni:

http://www.ozone3d.net/gpudb/gpu.php?which=14990&v=2

Es gibt noch einen zweiten Eintrag (Juli)

http://www.ozone3d.net/gpudb/gpu.php?which=24250&v=2

cl_device_max_clock_frequency 723

Daher würde ich mich auf die aus einem Eintrag kolportierten Taktfrequenzen nicht so einfach verlassen.

Tonga Pro knabbert jetzt schon an der Bandbreite warum sollte dieses Problemchen sich nicht vergrößern wenn 4 CUs hinzukommen?

reaperrr
2014-10-17, 16:24:43
Tonga Pro knabbert jetzt schon an der Bandbreite warum sollte dieses Problemchen sich nicht vergrößern wenn 4 CUs hinzukommen?
Zumindest laut cb bringt ein auf effektiv 6 GHz erhöhter Speichtakt der 285 so gut wie nichts, von knabbern kann man da nicht wirklich sprechen.

Nightspider
2014-10-17, 16:28:43
Ich frage mich auch gerade was ihr für Probleme mit der Bandbreite habt.

Die R9 285 profitiert kaum von höherem VRAM-Takt ergo ist nicht bandbreitenlimitiert.

Zumindest laut einem Test den ich gelesen habe. Abgesehen davon kann es sein das der Chip im Vollausbau die Daten besser komprimiert wie bei Maxwell und somit sogar noch Bandbreite gespart wird.

Gipsel
2014-10-17, 16:40:38
Abgesehen davon kann es sein das der Chip im Vollausbau die Daten besser komprimiert wie bei Maxwell und somit sogar noch Bandbreite gespart wird.Der Vollausbau wird die Daten nicht besser oder schlechter komprimieren als Tonga Pro. ;)

Mit mehr CUs (bei entsprechendem Takt) wird der Chip insgesamt ein wenig schneller, so daß man dann tatsächlich etwas mehr in Bandbreitenlimits laufen könnte. Aber die Tests mit Tonga Pro zeigen eigentlich, daß das meist kein wirkliches Problem darstellt. TongaXT könnte bei hohem Kerntakt vielleicht minimal mehr Speichertakt vertragen, aber viel mehr ist da zum einen kaum möglich noch ist es offenbar nötig.

Agent117
2014-10-17, 17:05:28
Sehe ich genauso, vlt sehen wir einen Vollausbau mit maximal 6 Ghz

Wobei ich mich schon frage, wozu man dann ein 384 Bit breites Interface eingebaut hat (hat AMD ja angeblich bei einem Event in Indien oder so gesagt)

Compute fällt weg, da Hawai nach Dave Bauman der Compute Chip ist.

Bleiben mal wieder nur noch die um 1Mrd zuvielen Transistoren, die das irgendwie erfordern könnten und vlt mit zukünftigen Treibern in der 300er Serie was zu tun bekommen.

OBrian
2014-10-18, 22:35:37
So ganz glaube ich noch nicht an die 384 bit SI, sowas verteuert die Kartenproduktion nur, das paßt nicht so ganz zu der längerfristigen Marktpositionierung von Tonga. Möglicherweise hat der "Typ in Indien" nur gemeint, das SI sei so gut wie ein 384 bit SI (wegen der Kompression), und das ist irgendwie Stille-Post-mäßig falsch rübergekommen.

Ich würde noch eine Tonga-Variante mit 2048 Shadern und 4 GB im Markt positionieren, die hat nicht gleich so einen großen Abstand zu der 285, daß wieder eine Riesenlücke entsteht (es geht ja immer darum, genau sowas zu vermeiden). Und darüber bleibt eben erstmal Hawaii im Vollausbau stehen.

Kartenlehrling
2014-10-18, 23:28:10
... sehe gerade das es schon im DX12 thread geposte und diskutiert wurde ....

HOT
2014-10-20, 10:03:15
Hm, bezüglich Hawaii ist mir mal ein Gedanke gekommen: vielleicht kommt kein 295(X) bzw. Maui, weil Hawaii Rev.B (was ja Maui wahrscheinlich ist) zurückgezogen wurde. Der könnte ein ähnliches Powermanagement mit ähnlich feiner Granularität und Powertargets wie beim GM204 verpasst bekommen und kommt dafür erst Frühjahr 2015. Das wär ja ne relativ kleine Änderung mit großer Wirkung. Das Lineup 2015 wäre dann TongaB (370(X)), MauiB (380(X)) und Fiji, alles 28nm. Vorgesehen war sicherlich Tonga und Maui als 285(X) und 295(X) zu bringen, was man sich jetzt eben spart bis Fiji soweit ist. Dafür gibts dann Tonga und Maui in der 3xx Serie mit besserem Powermanagement.
Zudem wird oft vergessen, dass man mit HBM erstmal auf GloFo festgenagelt ist, denn die Fertigung beschränkt sich ja auf die 3 Firmen Hynix, AMD und GloFo. Ich könnt mir vorstellen, dass AMD zum Ende von 2015 einen 20nm-(FinFET?)-GloFo-Chip mit HBM bringt und das Teil dann Bermuda nennt. Für Tonga/Maui/Fiji ist HBM pure Träumerei meiner Ansicht nach. Die kommen alle wie gehabt mit GDDR5 (4/6/8GB) und von TSMC.
Bezüglich Tongas 384Bit muss man noch erwähnen, dass das im kleine Package, indem er z.Z. verpackt wird gar nicht möglich ist, 384Bit anzubinden. Das muss aber nicht heißen, dass der Chip mit neuem Package das nicht könnte.

Außerdem hab ich noch ne wilde Theorie: Wenn Tonga wirklich voll HSA-Fähig ist, muss er eine CPU(!) beinhalten, da reine, diskrete GPUs aus dem vollen HSA-Programm gestrichen wurden (tauchten in neueren Folien einfach nicht mehr auf, war wohl einfach zu kompliziert umzusetzen). Es würde mich nicht überraschen, wenn Tonga ein Puma-Modul enthält, das könnte Transistorentechnisch nämlich passen. Zudem wäre es schlau, denn es würde HSA auf allen Intel-Plattformen ermöglichen.

Skysnake
2014-10-20, 14:45:29
Power-Management integrierst du auf Chipebene nicht "mal eben" so. Das musst/solltest du quasi von Anfang an in den Designprozess integrieren.

|MatMan|
2014-10-20, 15:59:48
Maxwells Effizienz kommt auch nicht nur vom Powermanagement. Vergleicht man bei THG (http://www.tomshardware.de/maxwell-gtx-970-effizienz-benchmarks-power-target,testberichte-241648-7.html) die GeForces unter compute im starken Powerlimit ist die 970 OC immernoch ~20% effizienter als 780 OC und 780 Ti OC (und AMD nochmal deutlich effizienter).

Natürlich ist der Vergleich der OC Karten nicht perfekt, aber ein Anhaltspunkt. Besser wäre eine Vergleich einer 970 bzw. 980 @stock gegen GK104 und GK110 @stock.

Gleichzeitig belegt der Benchmark auch, dass mit besserem Powermanagement bei Hawaii noch viel zu holen ist. Wobei der Benchmark evtl. Hawaii besser liegt als GM104/GK110.

HOT
2014-10-20, 16:06:20
Power-Management integrierst du auf Chipebene nicht "mal eben" so. Das musst/solltest du quasi von Anfang an in den Designprozess integrieren.
Dann eben nicht mal eben so.

Agent117
2014-10-20, 18:07:29
Maxwells Effizienz kommt auch nicht nur vom Powermanagement. Vergleicht man bei THG (http://www.tomshardware.de/maxwell-gtx-970-effizienz-benchmarks-power-target,testberichte-241648-7.html) die GeForces unter compute im starken Powerlimit ist die 970 OC immernoch ~20% effizienter als 780 OC und 780 Ti OC (und AMD nochmal deutlich effizienter).


Das ist richtig, aber Compute kann man mit Spielen nicht so richtig vergleichen, da hauen auch vorallem Sachen wie Cache-Größe und Organisation innerhalb der CUs deutlich rein.

Komisch an dem sehr interessanten Artikel ist vor allem die geringe Leistungsaufnahme der übertakteten GK110 Karten in Spielen; die Hawaiis waren bei den bisherigen mir bekannten Test deutlich weniger ineffizient verglichen mit GK110.

Zu Maxwell kann man anhand des Tests nur sagen, dass zumindest bei Spielen fast nur verbesserte Stromsparmechanismen zur gesteigerten Effizienz beitragen, beim Übertakten und höheren Powertargets fällt man auf GK110 Niveau ab, was die Effizienz betrifft, wobei sich eine GTX980 da etwas besser schlagen sollte als die getestete GTX970.

Weiterhin kann man anhand des Test auch sehen, dass ascheinend viele schlecht ausgelastete Shader verglichen mit wenigen gut ausgelasteten Shadern bei gleicher Performance, gleichen Takt und gleicher Spannung nur geringfügig weniger effizient arbeiten.

Heißt wiederum auch, dass AMD, um effizienzmäßig gleichzuziehen in erster Linie nicht die Einheiten besser auslasten, sondern vorallem das Powermanagement deutlich verbessern muss.

Hinsichtlich Compute und DP-Leistung kann es da sogar sinvoller sein, viele, in Spielen eher ineffiziente Shadereinheiten zu verbauen. (bei gleicher Chipfläche und an der Kontrolllogik sowie Frontend sparen)

reaperrr
2014-10-20, 22:14:23
Hinsichtlich Compute und DP-Leistung kann es da sogar sinvoller sein, viele, in Spielen eher ineffiziente Shadereinheiten zu verbauen. (bei gleicher Chipfläche und an der Kontrolllogik sowie Frontend sparen)
Tun sie doch streng genommen auch schon. Hawaii ist trotz doppelt so breitem Speicherinterface, 40% mehr ALUs/TMUs und viel mehr DP-Leistung nur 10% größer als GM204.

Thunder99
2014-10-21, 09:11:00
Aber Tonga wiederum ist derzeit mit der geboteten Leistung "zu groß"

|MatMan|
2014-10-21, 18:10:12
Das ist richtig, aber Compute kann man mit Spielen nicht so richtig vergleichen, da hauen auch vorallem Sachen wie Cache-Größe und Organisation innerhalb der CUs deutlich rein.
Naja der Test ist in single precision, also auch das was Spiele verwenden. Der Hardware sollte es ja größtenteils erstmal egal sein ob da ein Compute-Shader eines Spiels läuft oder eine reine GPGPU Anwendung. Von daher sollte das in gewisser Weise schon auf compute-lastige Spiele übertragbar sein.

Zu Maxwell kann man anhand des Tests nur sagen, dass zumindest bei Spielen fast nur verbesserte Stromsparmechanismen zur gesteigerten Effizienz beitragen, beim Übertakten und höheren Powertargets fällt man auf GK110 Niveau ab, was die Effizienz betrifft, wobei sich eine GTX980 da etwas besser schlagen sollte als die getestete GTX970.
Das kann schon sein, aber sicher bin ich da noch nicht. Dazu müsste man evtl. synthetische Test wie Füllraten-Test oder ähnliches (3DMark?) im Detail anschauen, die eben auf maximale Auslastung getrimmt sind. Selbst wenn sich bei TMUs usw. nichts getan hat, wird in Spielen wohl die Compute-Effizienz immer wichtiger werden und auch entsprechend durchschlagen. Wie man bei THG sieht hat sich da scheinbar etwas getan. Wenn nicht, hätte GM200 ein großes Problem...
Die höheren Powertargets sind schlecht für die Effizienz, daher wäre der Vergleich @stock interessanter.


Hinsichtlich Compute und DP-Leistung kann es da sogar sinvoller sein, viele, in Spielen eher ineffiziente Shadereinheiten zu verbauen. (bei gleicher Chipfläche und an der Kontrolllogik sowie Frontend sparen)
Allgemein kann man das nicht sagen. Im Vergleich zum Luxmark ist der SiSoft Benchmark sicherlich auf maximale Auslastung optimiert. Bei realen Problemen muss man da fast immer Kompromisse eingehen und dann nützen die weniger flexiblen Einheiten unter Umständen nichts. Es hängt also wie so oft von der Aufgabe ab, was besser ist...
Wichtig ist Power-Effizienz (auch wenn das einige hier nicht einsehen), wie man die erreicht ist egal. Wenn AMD einen ähnlichen Sprung wie Maxwell hinlegen kann, dann umso besser für uns alle! Innerhalb von Volcaninc Islands wird das wohl leider nichts mehr, sonst hätten wir das IMO schon mit Tonga gesehen.

Agent117
2014-10-21, 21:02:25
Allgemein kann man das nicht sagen. Im Vergleich zum Luxmark ist der SiSoft Benchmark sicherlich auf maximale Auslastung optimiert. Bei realen Problemen muss man da fast immer Kompromisse eingehen und dann nützen die weniger flexiblen Einheiten unter Umständen nichts. Es hängt also wie so oft von der Aufgabe ab, was besser ist...

Da geb ich dir zwar recht; ich bezog meine Aussage aber vorallem auf den professionellen Markt und den Einsatz in Supercomputern, wo AMD ja viel Marktanteil gewinnen will und auch schon gewann.
Da gibt es in der Regel keine Auslastungsprobleme, erst recht nicht bei DP-Berechnungen.
Unter dem Aspekt könnte es dann tatsächlich besser sein, die FPS pro Shader bei Spielen zu vernachlässigen.
Zumal ja auch eine DP-Rate von 1:2 bei AMD das maximal (sinnvoll) mögliche darstellt. Nvidia kann von ihren diskreten Einheiten da auch mehr verbauen. (Wahrscheinlich nur mit sehr großen Verrenkungen; müsste mir mal genau anschauen was die sich in den CUs alles teilen.)


Wichtig ist Power-Effizienz (auch wenn das einige hier nicht einsehen), wie man die erreicht ist egal. Wenn AMD einen ähnlichen Sprung wie Maxwell hinlegen kann, dann umso besser für uns alle! Innerhalb von Volcaninc Islands wird das wohl leider nichts mehr, sonst hätten wir das IMO schon mit Tonga gesehen.

Ich denke auch dass das nichts wird leider. In dem weiter oben verlinkten Artikel kann man klar sehen, wie die Geforces deutlich besser Stromsparen. Sieht man an den deutlich weiter nach unten ausschlagenden Lastspitzen, die im Mittel unter 100W liegen; das erreicht AMD leider nicht. Auch Tonga verhält sich da leider nicht besser, wie man hier sehen kann. http://www.tomshardware.de/amd-radeon-r9-285-tonga-gpu,testberichte-241633-11.html

Auch dass die R9 390X einen Hybrid Wasserkühler bekommen soll deutet auf keine mit Maxwell vergleichbare Effizienzsteigerung hin.

Auch interessant ist, dass die GTX 780Ti da oftmals deutlich effizienter als die GTX 780 ist. Wurde der GK110B (oder vlt sogar GK210??) da nochmal hinsichtlich der Powerstages verbesserz oder verfeinert und das erst jetzt mit neueren Treibern nach den Maxwell Release aktiviert?

Agent117
2014-10-27, 12:31:04
Angeblicher Benchmark einer R9 M295X.

http://www.kbench.com/?q=node/141099

Auf den ersten Blick nicht sehr aussagekräftig. Was wurde da gebencht?
Die daten in der tabelle sind auch bullshit R9 275X war mal ein gerücht.

Vlt kann jemand der mehr erfahrung mit fernöstlichen Seiten hat da mehr zu sagen.

Unicous
2014-10-27, 12:51:15
Die M295X soll bei genau 850 MHz takten und wenn da noch nicht einmal die Cinebench Version steht (laut übersetzten Text scheint das der abgebildete Test in dem Bild zu sein), kann man das in der Pfeife rauchen.



Hier gibt es ein paar auch nicht sonderlich aussagekräftige Benches.

http://www.barefeats.com/imac5k3.html

fondness
2014-10-27, 15:29:51
GPU-Z 0.8.0 bringt Unterstützung für eine AMD Topaz-GPU.
http://www.techpowerup.com/206553/techpowerup-gpu-z-v0-8-0-released.html

Godmode
2014-10-27, 16:08:14
GPU-Z 0.8.0 bringt Unterstützung für eine AMD Topaz-GPU.
http://www.techpowerup.com/206553/techpowerup-gpu-z-v0-8-0-released.html

Was soll Topaz sein?

fondness
2014-10-27, 16:19:59
Eine mobil-GPU, spekuliert wird Iceland-Ableger.

y33H@
2014-10-27, 16:20:51
Die M295X kommt auf 855 MHz, da Apple selbst 3,5 TFLOPS angibt.

Unicous
2014-10-27, 16:29:39
Die M295X kommt auf 855 MHz, da Apple selbst 3,5 TFLOPS angibt.

Weil Apple 3,5 TFLOPS angibt sind es automatisch 855 MHz?

Häh?

Apple rundet bei jedem Scheiß auf oder kreiert sich Szenarien wo sie dann 89x Leistungsverbesserung zum Vorgänger deklarieren können, da kommt es auf die 5MHz nicht an. Zumal es eher ungewöhnlich ist in ungeraden Schritten zu takten. (edit: Ok. Vllt. nicht gerade ungewöhnlich ,aber vergleichsweise unhäufiger)

Glatte 850 MHz macht deutlich mehr Sinn. (Oder wahlweise 854 oder 856 MHz).

Wenn du eine zuverlässige Quelle hast, kannst du sie ja gerne angeben. Der Typ mit den Benchmarks oben, sagt jedenfalls 850 MHz.

AnarchX
2014-10-27, 18:15:01
Was soll Topaz sein?
Eine mobil-GPU, spekuliert wird Iceland-Ableger.

Da ist GPU-Z aber spät dran, die Device-IDs gab es schon vor bald einem halben Jahr: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10202009#post10202009

Wohl ein aktueller Oland mit dem neuesten AMD Feature Set.

Nakai
2014-10-27, 19:52:47
Ich frag mich ernsthaft, wieso AMD immer noch bei Oland bleibt. Der Chip ist eigentlich ein Witz. Man hätte ihn auf 512 SPs anwachsen lassen sollen, einfach, um ihn mit Kaveri/Carrizo zu kombinieren.

AnarchX
2014-10-27, 20:02:40
Bei SiSoft gibt es mittlerweile auch ein DP Ergebnis der W7100: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d994d0f0b6dfadc898ea85a5f2c5f4c4f4d2b588a594b2c0fdcdeb82 bf8aacc4f9ccea92af9eb8ddb885b593e0dde5&l=en

GP (GPU/CPU/APU) Financial Analysis (High/Double Precision)
AMD FirePro W7100 (1792SP 28C 920MHz, 8GB DDR5 5GHz 256-bit) (OpenCL) 95.5kOPTS 28CU 920MHz

Das sieht nach 1/8 SP-Durchsatz aus. Oder doch 1/4.

M4xw0lf
2014-10-27, 20:06:34
Bei SiSoft gibt es mittlerweile auch ein DP Ergebnis der W7100: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d994d0f0b6dfadc898ea85a5f2c5f4c4f4d2b588a594b2c0fdcdeb82 bf8aacc4f9ccea92af9eb8ddb885b593e0dde5&l=en


Das sieht nach 1/8 SP-Durchsatz aus.

Weder 1/8 noch 1/4 ist sonderlich nahe dran. Das Ergebnis beträgt 1/6 vom SP-Wert, sehr schräg. Kann ich mir nur als SP: DP 4:1 plus verringerten Takt erklären.

AnarchX
2014-10-27, 20:10:40
Eventuell doch 1/4. Bei der W8100 liegt das Verhältnis auch rechnerisch bei 1/3, obwohl es 1/2 sein sollte: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d994d0f0b6dfadc898ea85a5f2cafbcbfbddba87aa9bbdcff2c2e48d b085a3cbf6c3e59da091b7d2b78aba9cefd2ea&l=en

fondness
2014-10-27, 20:24:43
Selber DP Durchsatz wie Tahiti würde natürlich auch die Die-Size erklären. Denn dann wäre der Chip ja wirklich ein vollwertiger Tahiti plus breiterem Frontend und diversen anderen Verbesserungen bei sogar leicht gesunkener Die-Size. Der Sinn eines solchen Chips erschließt sich mir zwar nicht ganz aber okay.

Agent117
2014-10-27, 20:42:02
Selber DP Durchsatz wie Tahiti würde natürlich auch die Die-Size erklären. Denn dann wäre der Chip ja wirklich ein vollwertiger Tahiti plus breiterem Frontend und diversen anderen Verbesserungen bei sogar leicht gesunkener Die-Size. Der Sinn eines solchen Chips erschließt sich mir zwar nicht ganz aber okay.

Vlt hat man Thaiti ja einfach in der Mitte aufgeschnitten, genau bei 8CUs, und am linken und rechten CU Strang jweils eine Shader Engine reingefummelt:D

Kennt sich hier einer im Chipdesign ein biszchen aus und könnte sagen, ob man Entwicklungsaufwand und -kosten sparen kann, wenn man einen bestehenden Chip wie Thaiti redesigned und dabei wesentliche Strukturen wie zum Beispiel die CUs, bis auf die Verknüpfung mit nun 4 Shader Engines, unangetastet lässt oder auch den Speichercontroller so lässt. (Anscheinend sinds ja 1/4 DP-rate und 384Bit soll AMD angeblich mal bestätigt haben)

Bei den mittlerweile bestimmt sehr geringen 28nm Waferkosten war möglichst geringe DIE-Size dann vlt nicht so wichtig. (Und man kann Tonga auch für professionelle Zwecke besser einsetzen)

reaperrr
2014-10-27, 20:49:18
Da ist GPU-Z aber spät dran, die Device-IDs gab es schon vor bald einem halben Jahr: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10202009#post10202009

Wohl ein aktueller Oland mit dem neuesten AMD Feature Set.
Ich tippe auf 8 CUs, aber nur 64-bit SI.

Das schmale Interface würde die Boardkosten auf Hainan-Niveau lassen, während die Leistung vor allem dank DCC eher in Oland-Regionen läge. Die 2 zusätzlichen CUs würde man dann nutzen, um ordentliche Leistung mit niedrigerer Taktrate + Spannung zu erreichen zwecks besserer Effizienz.

So könnte AMD Hainan und Oland mit einem einzigen Chip ersetzen, der von den Specs auch besser zu Kaveri und Carrizo passt.

Schaffe89
2014-10-28, 13:56:18
Sieht für mich so aus, als würde AMD alles dafür vorbereiten Maxwell mit Tonga anzugreifen.
Die Applekarte wird wohl Januar die Bühne betreten, was fallende Preis ein Italien schon lange anzeigen.
Der Zusammenhang des Siegeszuges von AMD wird immer klarer.

Tonga wird sich wohl zwischen die GTX 970 und GTX 980 schieben.
Tonga ist imho bei ~855 mhz wohl gleichschnell wie eine 1050 mhz r9 280x, das sind 25% mehr Takt.

Sollte AMD es schaffen aus Tonga 1100 mhz zu pressen, liegt man auf r9 290x Niveau, wenn nicht gar darüber.:usad:

y33H@
2014-10-28, 15:13:01
Benches der M295X: http://arstechnica.com/apple/2014/10/the-retina-imac-and-its-5k-display-as-a-gaming-machine/

U.a. 3DMark Firestrike und Alien Isolation, wobei die R9 bei letzterem kaum schneller als die 780M ist.

Schaffe89
2014-10-28, 15:32:20
Sind viel zu wenig benches um das einzuschätzen.

-/\-CruNcher-/\-
2014-10-28, 15:49:59
Die 285 machte schon einen ordentlichen Eindruck gegen die 760 aber wie gesagt 1 volles Jahr zu spät 2013 hätten sie damit richtig abräumen können, jetzt hat Nvidia viele Probleme gefixed und die 960 wird sie wieder in kürze in den boden stampfen :)

Zumal haben sie viele 460/560/660/760 user jetzt schon dazu gekriegt zu 970 zu wechseln mit einem guten Angebot (im vergleich zur 780 /ti) dem einfach super schwer zu wiederstehen ist vor allem für Nvidia verhältnisse, das war einfach ein genialer Schachzug der noch größere konsequenzen haben wird ;)

Als wie die 960 nachzügler selbst und das nicht nur in eine Richtung

Menace
2014-10-28, 16:36:12
[...]und die 960 wird sie wieder in kürze in den boden stampfen :)


:rolleyes:

...das war einfach ein genialer Schachzug der noch größere konsequenzen haben wird ;)


Über die Genialität von nvidia müssen wir ja nicht sprechen [in diesem Thread, da komplett offtopic], aber welche größere Konsequenzen wird es haben? Stirbt dann endlich AMD wie schon vor Jahren angekündigt? Oder gibt es andere Neuigkeiten? :eek:

Menace
2014-10-28, 16:39:51
Alien Isolation, wobei die R9 bei letzterem kaum schneller als die 780M ist.

Mit dem "non Retina" hat das nichts zu tun?

Edit: Im Text steht: "and then again on the Retina iMac with the same settings but at 3840x1440 resolution". Kapiere ich nicht, ist das jetzt die gleiche Auflösung oder nicht?

y33H@
2014-10-28, 17:24:04
Wenn über den Benches jeweils 25x14 und UHD steht, hoffe ich doch mal sehr, dass apples to apples verglichen wurde ...

Menace
2014-10-28, 18:00:42
Mein Fehler, ich versäumte die unteren Diagramme anzuklicken.

basix
2014-10-28, 19:36:41
GPU-Z Shot Tonga 2048sp:
http://cdn.arstechnica.net/wp-content/uploads/2014/10/gpu-z-imac.png

Von folgender Seite:
http://arstechnica.com/apple/2014/10/the-retina-imac-and-its-5k-display-as-a-gaming-machine/

Screemer
2014-10-29, 12:23:48
also hat tonga ja zumindest schon mal 2048 shadereinheiten. wurde ja soweit schon spekuliert. also ist ja zumindest ein kleiner teil des zusätzlichen die-spaces geklärt. vielleicht gibts ja noch mehr ;)

-/\-CruNcher-/\-
2014-10-29, 12:42:13
Wenn jetzt jemand eine Bios Unlock möglichkeit findet ;)

Kartenlehrling
2014-10-29, 12:51:41
Was mir aufgefallen ist und auch von den deutschen Presse viel zu wenig Bedeutung erfahren hat, ist der neue Kompressionsalgorithmus der AMD und Nvidia absofort nutzten werden.
Ich würde gern mehr davon erfahren, und was es für uns bedeute mit Speicherausbau und Bildqualität.

Mir kann keiner erzählen das es ein verlustfrei Kompression gibt hat es noch nie bei Audio und Video sowieso nicht, etwas bleib immer auf der Strecke.
Bei der veröffentlichung der R9285 wurde das soo nebenbei erwähnt und bei Nvidias Maxwell gehen sie damit auch nicht haussieren.

-/\-CruNcher-/\-
2014-10-29, 12:54:38
Natürlich es ist eine Delta Kompression keine Intra die ist absolut verlustfrei damit erreichst du halt nicht den selben level aber du willst ja nur reduzieren ohne verlust solche Delta Kompression kanst du auch direkt in der Software nutzen muss nicht unbedingt in der Hardware sein ist aber nicer (weniger overhead) und weniger overhead ist immer besser ergo alles in Hardware vor allen fixed function ist besser :)

ndrs
2014-10-29, 13:22:03
Ich würde gern mehr davon erfahren, und was es für uns bedeute mit Speicherausbau und Bildqualität.
Bleibt beides gleich. Der Speicher muss reserviert werden, da bei verlustfreier Kompression keine Kompressionsrate zugesichert werden kann. Im schlimmsten Fall bleibt die Datenmenge gleich. Bildqualität ändert sich nicht, da verlustfrei.

Mir kann keiner erzählen das es ein verlustfrei Kompression gibt hat es noch nie bei Audio und Video sowieso nicht, etwas bleib immer auf der Strecke.
Da liegst du leider vollkommen daneben. Wenn eine Darstellungsweise von Daten Redundanz enthält, was hier der Fall ist, kann man natürlich verlustfrei komprimieren.
Nur mal ein paar einfache Beispiele:
http://de.wikipedia.org/wiki/Free_Lossless_Audio_Codec
http://de.wikipedia.org/wiki/Portable_Network_Graphics
http://de.wikipedia.org/wiki/Graphics_Interchange_Format
Bei Video ist mir grad nichts bekannt. Eine triviale (wenn auch nicht gerade optimale) Lösung sollte sich aus einer einfachen Kombination aus FLAC und GIF erzeugen lassen.

M4xw0lf
2014-10-29, 13:23:24
Was mir aufgefallen ist und auch von den deutschen Presse viel zu wenig Bedeutung erfahren hat, ist der neue Kompressionsalgorithmus der AMD und Nvidia absofort nutzten werden.
Ich würde gern mehr davon erfahren, und was es für uns bedeute mit Speicherausbau und Bildqualität.

Mir kann keiner erzählen das es ein verlustfrei Kompression gibt hat es noch nie bei Audio und Video sowieso nicht, etwas bleib immer auf der Strecke.
Bei der veröffentlichung der R9285 wurde das soo nebenbei erwähnt und bei Nvidias Maxwell gehen sie damit auch nicht haussieren.

Eieiei.

differenzdiskriminator
2014-10-29, 13:23:45
Mir kann keiner erzählen das es ein verlustfrei Kompression gibt hat es noch nie bei Audio und Video sowieso nicht, etwas bleib immer auf der Strecke.
Quatsch, natürlich kannst du digitale Daten verlustfrei komprimieren.

y33H@
2014-10-29, 15:25:27
Kompression zugunsten der Speicherbandbreite ist doch uralt ...

ndrs
2014-10-29, 16:11:06
Bei Texturkompression hast du recht. Hier ging es wohl aber um den Framebuffer.

samm
2014-10-29, 16:23:42
Da liegst du leider vollkommen daneben. Wenn eine Darstellungsweise von Daten Redundanz enthält, was hier der Fall ist, kann man natürlich verlustfrei komprimieren.
Nur mal ein paar einfache Beispiele:
http://de.wikipedia.org/wiki/Free_Lossless_Audio_Codec
http://de.wikipedia.org/wiki/Portable_Network_Graphics
http://de.wikipedia.org/wiki/Graphics_Interchange_FormatWas noch alltäglicheres wie zip und ähnliches nicht vergessen :biggrin:

ndrs
2014-10-29, 16:47:15
Was noch alltäglicheres wie zip und ähnliches nicht vergessen :biggrin:
Oh, ja, richtig. Das wär etwas "schwierig", wenn sich die Daten verändern :D
Übrigens, kurze OT Quizzfrage zu dem Thema: Wie hoch ist der Informationsgehalt einer Momentaufnahme eines Pong-Spiels? (Natürlich verlustfrei komprimiert)
Antwort im Spoiler
0,5 bit. Link zum Paper finde ich grad nicht.

differenzdiskriminator
2014-10-29, 16:52:21
Wie hoch ist der Informationsgehalt einer Momentaufnahme eines Pong-Spiels? (Natürlich verlustfrei komprimiert)
Kommt darauf an, ob ich das Spielfeld als "Information" werte, oder ob ich es als gegeben ansehe und nur die Position der zwei Spielerbalken + Ball übertrage.

samm
2014-10-29, 16:54:21
Echt? So gering trotz dreier Positionen (welcher "Koordinatendichte"/Auflösung auch immer) und einer Richtung? Unter der Annahme, dass die "Paddel" und der "Puck" keine Beschleunigung kannten.

Naitsabes
2014-10-29, 19:12:11
Ich denke eher, dass hier wieder mit einem temporalen delta oder so gearbeitet wird - also die Änderung zum Bildes zuvor
Richtung brauchst du nicht zwingend, weil es ja nur die Momentanaufnahme ist.