PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

dildo4u
2013-10-01, 19:38:20
Battlefield 4 Beta-Test: 16 Grafikkarten mit Geforce 331.40 Beta und Catalyst 13.10 Beta V2 im Benchmark (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/)

Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)

MfG,
Raff
Kommen keine Tests mit DX11.1?

S940
2013-10-01, 20:03:55
Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)
Wieso? Dafür, dass das ohne Treiber-Optimierungen läuft, finde ich die Leistung ganz ok. Es wurde zwar der Beta-Treiber verwendet, aber laut Beschreibung gibts die BF4-Optimierung nur für 32bit (wieso auch immer :freak:)



AMD Catalyst 13.10 Beta 2 includes all of the features/fixes found in AMD Catalyst 13.10 Beta



Includes a 32-bit single GPU, and a AMD Crossfire™ game profile for Battlefield 4

Laut Bildunterschrift testet PCGH aber mit x64 -> ergo ist die Leistung absolut in Ordnung. Warten wir mal auf den 64bit-Treiber.

horn 12
2013-10-01, 20:29:11
Die R9 290, sprich der kleine Bruder der R9 290X und erstere auch nur mit 3GB GDDR5 wäre schonmal echt ein Fail für AMD.
Beschnitten kann der Chip schon sein. aber die Speichermenge sollte wohl identisch aufschlagen.
Zudem herrscht die Möglichkeit die Karte nicht zu schnell werden zu lassen.
Bis dato waren doch meistens die 2 Top Karten mit selber Speichermenge am Markt.

Felixxz2
2013-10-01, 20:59:55
Battlefield 4 Beta-Test: 16 Grafikkarten mit Geforce 331.40 Beta und Catalyst 13.10 Beta V2 im Benchmark (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/)

Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)

MfG,
Raff

Sie haben ja auch nicht davon gesprochen, dass sie Titan mit Tahiti und DX11 verspotten....sondern mit Hawaii und Mantle :wink:

Duplex
2013-10-01, 21:56:48
BF4 Tests sollte man erstmal ignorieren, bringt doch nichts wenn man nur in einem Titel die Nr.1 sein kann.
Skyrim, Metro, Crysis, Far Cry3, dann werden wir sehen wer den längeren hat, außerdem ist Titan nicht der Vollausbau.

Crysis 3 FullHD mit SSAA
47% schneller als 7970Ghz
http://abload.de/thumb/crysis31080pssaagtu70.jpg (http://abload.de/image.php?img=crysis31080pssaagtu70.jpg)

FC3 FullHD mit SSAA
63% schneller als 7970Ghz
http://abload.de/thumb/dc3ssaac3uy1.jpg (http://abload.de/image.php?img=dc3ssaac3uy1.jpg)

http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-780-im-test/28/

Mit SSAA ist Titan deutlich schneller als die 7970GHz!
Hawaii wird es nicht einfach haben!

Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)
Dachte ich mir!

StefanV
2013-10-01, 22:34:49
Was mich wundert: Bei Crysis ist die 7970 Standard nur ZWEI Prozent langsamer als die GHz?!

Ähm, ERROR?!

reaperrr
2013-10-01, 22:58:12
Battlefield 4 Beta-Test: 16 Grafikkarten mit Geforce 331.40 Beta und Catalyst 13.10 Beta V2 im Benchmark (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/)

Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)

MfG,
Raff
Zum "verspotten" sicher, aber schlecht sind diese Ergebnisse ja nun wirklich nicht. Das sieht für AMD-Verhältnisse sogar recht gut aus.
7970 GE bei den wichtigeren Minimum-FPS konstant vor der 770, in 2560x1600 dann auch bei den avg. FPS. 7950 Boost klar vor der 760, 7870 erstaunlich nah dran an letzterer. Dazu liegt die Titan bei min. FPS nichtmal 15% vor der 7970 GE.

Bei den Min.-FPS wird die 290X Titan höchstwahrscheinlich schlagen. Ohne Mantle.

Felixxz2
2013-10-01, 23:40:31
Versteh ich auch nich. Tahiti schneidet recht gut ab in BF4. Man möchte da mal wieder was konstruieren.

@Duplex

Wow, deine Cherrypicks sind ja der Hammer. Große Klasse. In Dirt Showdown ist ne normale 7970 schneller als Titan. Und jetzt? In Abenteurr auf dem Ponyhof 5 ist die 7870 drölftausend % schneller als Titan SLI. Who cares?

Es gibt nichts ärmeres als Cherrypicks, vor allem solche unfassbar schlechten wie deine (Titan hat ne SSAA Stärke, trotzdemunspielbare fps :ugly:

Felixxz2
2013-10-02, 01:39:53
Schon jemand gepostet dass BF4 bei der GPU14 auf einer 290X in 5760x1080 bei vermutlich 60fps, aber zumindest sehr flüssig lief?
Laut PCGH Benches würde eine Titan das mit ~30fps packen bei Ultra+4xMSAA. Settings sind nat leider unbekannt.

N0Thing
2013-10-02, 01:49:54
Schon jemand gepostet dass BF4 bei der GPU14 auf einer 290X in 5760x1080 bei vermutlich 60fps, aber zumindest sehr flüssig lief?
Laut PCGH Benches würde eine Titan das mit ~30fps packen bei Ultra+4xMSAA. Settings sind nat leider unbekannt.

Solange man die Settings nicht kennt, könnte eine GTX 780 auch locker 60fps bei 5760x1080 schaffen. Oder zumindest sehr flüssige fps auf den Bildschirm zaubern. Aber das ist wohl eher ein Vergleich zwischen Kirschen und Pflaumen.

Felixxz2
2013-10-02, 01:52:06
Klar, ohne Setzings ist das ein wenig witzlos. Wenn man allerdings von Ultra und 4xMSAA bei 60fps ausgeht, KÖNNTE das mit viel gutem Willen ein Mantle Fingerzeig sein.

dlux
2013-10-02, 05:35:21
Battlefield 4 Beta-Test: 16 Grafikkarten mit Geforce 331.40 Beta und Catalyst 13.10 Beta V2 im Benchmark (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/)


Sieht ganz gut aus für AMD, obwohl die Treiber-Optimierung für x64 noch auf sich warten lässt (AMD braucht immer einige Tage länger als Nvidia... :rolleyes:)

Die FPS sind nicht sehr konstant und brechen relativ stark ein bei Nvidia (abgesehen von dem Titanchen und der GTX 780). Hier würde man ein Ruckeln viel eher wahrnehmen als bei einer AMD Grafikkarte, die ziemlich konstante FPS liefern. Mal schauen, ob Nvidia hier noch was optimieren kann.


Mit DX11.0 – man sieht, dass AMD Mantle braucht, um irgendwas zu "verspotten". ;)

MfG,
Raff

Da bin ich auf die Tests mit DirectX 11.1 gespannt - da können die Nvidia Grafikkarten aber leider nicht mitspielen. :frown:

(;D)

Die R9 290, sprich der kleine Bruder der R9 290X und erstere auch nur mit 3GB GDDR5 wäre schonmal echt ein Fail für AMD.
Das ist ein Bug. Bei den Titanchens gibts das problem auch. Klick (http://www.3dmark.com/fs/590592)

Tesseract
2013-10-02, 05:45:59
7970 GE bei den wichtigeren Minimum-FPS konstant vor der 770, in 2560x1600 dann auch bei den avg. FPS. 7950 Boost klar vor der 760, 7870 erstaunlich nah dran an letzterer. Dazu liegt die Titan bei min. FPS nichtmal 15% vor der 7970 GE.

Bei den Min.-FPS wird die 290X Titan höchstwahrscheinlich schlagen. Ohne Mantle.

min-fps sind nicht wichtig sondern ein vollkommen irrelevantes maß. wäre es ein 5%- oder 10%-quantil sähe das anders aus.

Felixxz2
2013-10-02, 05:49:33
min-fps sind nicht wichtig sondern ein vollkommen irrelevantes maß. wäre es ein 5%- oder 10%-fraktil sähe das anders aus.

Seit wann denn das?

Tesseract
2013-10-02, 05:56:12
Seit wann denn das?

seit immer für jeden der was davon versteht. mir ist seit jeher unerklärlich warum man sowas wie min-fps angibt statt einem statistisch robusteren maß.

Nightspider
2013-10-02, 06:25:21
Was ist denn ein statisch robusteres maß?
Als Gamer, der schnelle Egoshooter zockt will man halt wissen auf welchen Wert die FPS fallen könnnen, in Extremsituationen.

horn 12
2013-10-02, 06:38:57
DIE Size der R9 290X GPU ?
http://www.rage3d.com/board/showthread.php?t=34002700&page=30

Tesseract
2013-10-02, 06:39:55
Was ist denn ein statisch robusteres maß?

wäre es ein 5%- oder 10%-quantil sähe das anders aus.
erklärung (http://de.wikipedia.org/wiki/Fraktil)

Felixxz2
2013-10-02, 06:51:21
Du spielst auf die statistische Verteilung der Franerates an? Die ist egal, selsbt wenn das spiel nur in 1% der Fälle dropt und der drop zief genug ist, nervts.

V2.0
2013-10-02, 06:56:43
Man muss bedenken dass die R9-280 (also die 7970 GE) dann gegen die 760 antritt und die sieht schon jetzt lächerlich gegen die 7970GE aus. Wenn der Vorteil der R9-290X, wie zu erwarten ohne Mantle, bereits uaf einen ähnlichen niveau liegt, dann dürfte die AMD mit Mantle 30-50% schneller sein. Imho erleben wir gerade eine Revolution am GPU Markt, AMD ist auf den Weg zur Marktdominanz, ohne AMD GPU wird man nicht mehr Ultra-Settings zocken können.

Tesseract
2013-10-02, 07:24:54
Du spielst auf die statistische Verteilung der Franerates an? Die ist egal, selsbt wenn das spiel nur in 1% der Fälle dropt und der drop zief genug ist, nervts. es geht darum, dass eine karte A schlechtere min-fps haben kann als eine karte B, obwohl karte B über den ganzen test hinweg das schlechtere frameratendropverhalten zeigt.
im optimalfall hängen diese beiden faktoren zusammen, im nicht-optimalen fall können diese beiden faktoren überhaupt nichts miteinander zu tun haben. die selbe problematik hat man z.B. bei microrucklern, die man an avg-fps oder min-fps einfach nicht sehen kann. bei inter-quantil-abständen könnte man das z.B. sehr wohl wenn diese gut gewählt sind.

diese statistischen maße existieren nicht ohne grund.

dlux
2013-10-02, 08:17:58
es geht darum, dass eine karte A schlechtere min-fps haben kann als eine karte B, obwohl karte B über den ganzen test hinweg das schlechtere frameratendropverhalten zeigt.
Das schlechtere Framedropverhalten zweier Karten wird wohl die Karte haben, die das schlechtere Minimum-FPS bzw. das schlechtere Verhältnis zwischen Durchschnitts- und Minimum-FPS hat. Das ist hier nun mal bei Nvidia der Fall.

Da braucht man keine Quantile um das zu wissen. Man kann das Framedropverhalten mit Quantilen oder Frameverläufen lediglich relativ gut bildlich darstellen. Was selbstverständlich zu begrüßen ist.


im optimalfall hängen diese beiden faktoren zusammen, im nicht-optimalen fall können diese beiden faktoren überhaupt nichts miteinander zu tun haben. die selbe problematik hat man z.B. bei microrucklern, die man an avg-fps oder min-fps einfach nicht sehen kann. bei inter-quantil-abständen könnte man das z.B. sehr wohl wenn diese gut gewählt sind.

Du musst die Framelatenzen messen um Mikroruckler aufzudecken, da helfen dir Quantile (Mit FPS-Daten gefüttert) auch nicht weiter - oder zumindest nur sehr bedingt.

Tesseract
2013-10-02, 08:42:43
Das schlechtere Framedropverhalten zweier Karten wird wohl die Karte haben, die das schlechtere Minimum-FPS bzw. das schlechtere Verhältnis zwischen Durchschnitts- und Minimum-FPS hat. Das ist hier nun mal bei Nvidia der Fall.
nein, das muss absolut nicht der fall sein. schon garnicht in einem spiel in dem die last über die zeit sehr stark schwankt.

Man kann das Framedropverhalten mit Quantilen oder Frameverläufen lediglich relativ gut bildlich darstellen. Was selbstverständlich zu begrüßen ist.
ein quantil ist ein einzelner wert wie min-fps auch (genau genommen ist min-fps das 0%-quantil). damit kann man nicht mehr und nicht weniger darstellen aber der wert ist im prinzip genau das, was man mit min-fps erreichen will, nur besser.

Du musst die Framelatenzen messen um Mikroruckler aufzudecken, da helfen dir Quantile (Mit FPS-Daten gefüttert) auch nicht weiter - oder zumindest nur sehr bedingt.
ich sage auch nicht, dass quantil(abstände) das beste ist um microruckler zu beschreiben, aber sie werden eher etwas aufzeigen als min/max/average, die sowas einfach schlucken.

ilibilly
2013-10-02, 09:05:15
Imho erleben wir gerade eine Revolution am GPU Markt, AMD ist auf den Weg zur Marktdominanz, ohne AMD GPU wird man nicht mehr Ultra-Settings zocken können.

Quatsch einfach 2xtitans sli schon sieht amd alt aus :)

y33H@
2013-10-02, 09:08:50
Imho erleben wir gerade eine Revolution am GPU Markt, AMD ist auf den Weg zur Marktdominanz, ohne AMD GPU wird man nicht mehr Ultra-Settings zocken können.IMHO in allen Ehren, aber was du manchmal von dir gibst ... als ob es sich die Devs erlauben, künftig grob die Hälfte des PC-Marktes zu ignorieren.

pest
2013-10-02, 09:18:20
Du musst die Framelatenzen messen um Mikroruckler aufzudecken, da helfen dir Quantile (Mit FPS-Daten gefüttert) auch nicht weiter - oder zumindest nur sehr bedingt.

Und wie, bitte den Frappo-Thread durchlesen

ein 95%-Zeit Quantil sagt dir sehr viel.

Gipsel
2013-10-02, 09:19:50
DIE Size der R9 290X GPU ?
http://www.rage3d.com/board/showthread.php?t=34002700&page=30Hat nicht AMD die Diesize schon in irgendeinem Interview mit 438mm² beziffert?

Ätznatron
2013-10-02, 09:24:49
IMHO in allen Ehren, aber was du manchmal von dir gibst ... als ob es sich die Devs erlauben, künftig grob die Hälfte des PC-Marktes zu ignorieren.

Ignorieren nicht unbedingt, aber das es zu zeitlichen Verzögerungen beim Bedienen des Nicht-AMD-Marktes kommen kann, kann ich mir persönlich ziemlich gut vorstellen.

Und wenn ich mir so Rockstar (GTA-Serie) anschaue, die erlauben sich, den gesamten PC-Markt erst gehörig später nach den Konsolen zu bedienen.

So wichtig, wie er scheint, ist der PC-Markt dann offenbar doch nicht.

Skysnake
2013-10-02, 09:26:49
IMHO in allen Ehren, aber was du manchmal von dir gibst ... als ob es sich die Devs erlauben, künftig grob die Hälfte des PC-Marktes zu ignorieren.
Gar nicht drauf reagieren....

Selbst wenn er mal nen Körnchen Warhheit findet, setzt er danach son riesen Haufen Scheise daneben, das es auch egal ist...

Er ist einfach viel zu extrem. Mantle wird nen großer Vorteil sein, wenn es eingesetzt wird, aber eher für APUs.

mironicus
2013-10-02, 09:41:07
IMHO in allen Ehren, aber was du manchmal von dir gibst ... als ob es sich die Devs erlauben, künftig grob die Hälfte des PC-Marktes zu ignorieren.

Ich geh noch weiter: In 3-4 Jahren wird Mantle bereits die Standard-API bei der Entwicklung von neuen Spielen sein und DirectX weitgehend verdrängt haben (Multi-Spiele). :tongue::biggrin:

Ailuros
2013-10-02, 09:47:56
Bleibt abzusehen woher AMD genau die Resourcen finden wird so etwas zu finanzieren :rolleyes:

samm
2013-10-02, 10:07:53
Imho erleben wir gerade eine Revolution am GPU Markt, AMD ist auf den Weg zur Marktdominanz, ohne AMD GPU wird man nicht mehr Ultra-Settings zocken können.Imho versuchst du zu trollen - das von dir Beschriebene wäre definitiv nichts Gutes, und anhand der proprietären API auch nichts Wahrscheinliches. Wird Mantle auf allen OS und allen Konkurrenzarchitekturen nutzbar, ok, dann könnte es je nach Design DX/OGL ablösen und wäre eine starke IP für AMD. Die mit VI anstehende Graka-Refresh-Generation hingegen ist sicher keine Revolution, sondern eben einfach ein Refresh, und verdrängt somit sicherlich zum Glück auch nicht die Konkurrenz.

Iruwen
2013-10-02, 10:11:53
Ich geh noch weiter: In 3-4 Jahren wird Mantle bereits die Standard-API bei der Entwicklung von neuen Spielen sein und DirectX weitgehend verdrängt haben (Multi-Spiele). :tongue::biggrin:
Gut, dass nichtmal AMD selbst das glaubt :biggrin:

MR2
2013-10-02, 10:14:50
Bleibt abzusehen woher AMD genau die Resourcen finden wird so etwas zu finanzieren :rolleyes:
Bei angeblich bis zu 8millionen Dollar für alleine BF4 und mantle:-)
http://www.fudzilla.com/home/item/32673-amd-spent-millions-on-battlefield-4-deal

dlux
2013-10-02, 10:15:37
nein, das muss absolut nicht der fall sein. schon garnicht in einem spiel in dem die last über die zeit sehr stark schwankt.
Die Angabe der Minimum-FPS hat schon einen Sinn. Auch wenn du anderer Meinung bist.

Aber egal. Wir werden uns nicht einigen können und das Thema ist sowieso OT. Ohne einen neuen Thread mit Beispielen und Diskussion kommen wir eh nicht weiter.

Und wie, bitte den Frappo-Thread durchlesen

ein 95%-Zeit Quantil sagt dir sehr viel.
Mit Frametimes gefüttert - klar. Bestreitet auch keiner.

Ailuros
2013-10-02, 10:19:01
Bei angeblich bis zu 8millionen Dollar für alleine BF4 und mantle:-)
http://www.fudzilla.com/home/item/32673-amd-spent-millions-on-battlefield-4-deal

Ob es jetzt 5 oder 8Mio sind juckt mich wenig; wenn man aber theoretisch fuer jeden ISV bzw. Spiel solche Summen investieren muss dann wird die Rechnung langfristig nicht bescheiden sein. In anderen news:

http://www.fudzilla.com/home/item/32693-nvidia-spends-5-million-on-ubisoft-deal

V2.0
2013-10-02, 10:22:01
IMHO in allen Ehren, aber was du manchmal von dir gibst ... als ob es sich die Devs erlauben, künftig grob die Hälfte des PC-Marktes zu ignorieren.

Die Hälfte des PC Marktes sind bald noch 20% des Gesamtmarktes, wenn Mantle auf beiden next Gen Konsolen läuft. Ob man für diesen Teil noch großartig optimiert halte ich auf Dauer für fraglich, gerade weil im PC Markt sich ja auch der Hardwarebestand schnell ändert. Fängst Du heute ein Projekt an, kann es gut sein, dass es beim Retailstart gar keine Hälfte des PC Marktes ist, sondern nur noch 25%. Imho wird es vom Erfolg von Mantle für die Next Gen Konsolen ankommen. Wenn es sich da durchsetzt, wird es am PC Segment ganz von alleine relevant. Wenn ich mir nun die Vorzüge von Mantle und die Hardware der NextGen Konsolen (hier gerade die CPU Komponente) ansehe, dann hat es, sofern AMD es ordentlich zum laufen kriegt, schon massives Potential.

Matrix316
2013-10-02, 10:22:14
Ich geh noch weiter: In 3-4 Jahren wird Mantle bereits die Standard-API bei der Entwicklung von neuen Spielen sein und DirectX weitgehend verdrängt haben (Multi-Spiele). :tongue::biggrin:
Einerseits...aber andererseits: Wollen wir wirklich wieder dahin, dass jeder Grafikkartenhersteller seine eigene API hat??? Dafür gab es ja Direct X, dass man nicht Zusatzkarten und Dings und Bums oder die "richtige" Grafikkarte braucht, nur damit das Spiel optimal aussieht. WENN, dann sollen AMD und Nvidia sich auf EINEN Standard einigen. Gibt ja eh sonst keinen Hersteller mehr, der relevant wäre. Von mir aus Mantle, aber bitte dann von AMD und Nvidia.

MR2
2013-10-02, 10:32:04
Man müsste mal bei Microsoft nachfragen wie die Mantle sehen und ob sie ihr dx nicht etwas vernachlässigt haben.

Iruwen
2013-10-02, 10:42:43
Man müsste mal bei Microsoft nachfragen wie die Mantle sehen und ob sie ihr dx nicht etwas vernachlässigt haben.

Muss man sich mal ansehen wieviel Microsoft mit Spielen im PC-Markt verdient und wieviel mit der XBox. Ich glaub wohl die finden Mantle auch gut.

ilibilly
2013-10-02, 10:43:23
Ich denke das hauptschuld bei ms und directx zu suchen ist ,bei dx läufts halt nicht perfekt ansonsten bräuchte es keinen mantel.
Wenn mantle 20% oder mehr bringt hat es imho seine daseinsberechtigung .
Bin deshalb auf fie ersten dx vs mantle vergleiche gespannt.

tm0975
2013-10-02, 11:00:00
IMHO in allen Ehren, aber was du manchmal von dir gibst ... als ob es sich die Devs erlauben, künftig grob die Hälfte des PC-Marktes zu ignorieren.

Das geschiet doch schon seit Jahren, quasi durch lieblose Konsolen-Portierungen. Wenn sich das jetzt verbessert, und mit weniger Aufwand (da eine api) durchgängig und plattformunabhängig entwickelt wird, kann sich das möglicherweise recht gut für den pc auswirken. es wird alles nur einmal entwickelt und die konzentration kann auf die nutzung der möglichkeiten fokusiert werden. konsole medium, pc high und tablet low details, features etc. die 20% marktanteil die amd hat, haben in der vergangenheit niemanden interessiert. die 25% marktanteil, die nvidia maximal hat, am pc+konslen-markt werden auch in zukunft niemanden interessieren. wenn mantle ein erfolg wird, was ich vermute, dann wird derjenige erfolgreich sein im gpu markt, der das als erstes für tablets/smartphones anbietet. wenn nicht nvidia, dann irgenwer anders. gibt ja einige im hsa-konsortium.

Ich denke das hauptschuld bei ms und directx zu suchen ist ,bei dx läufts halt nicht perfekt ansonsten bräuchte es keinen mantel.
Wenn mantle 20% oder mehr bringt hat es imho seine daseinsberechtigung .
Bin deshalb auf fie ersten dx vs mantle vergleiche gespannt.

die daseinsberechtigung von mantle ergibt sich nicht aus der geschwindigkeit, sondern aus der vereinfachten entwicklung der spiele über geräte und os hinaus. konsole, pc und wahrscheinlich auch früher oder später tablets. windows, linux...

mironicus
2013-10-02, 11:00:33
Wenn man durch Mantle die Mindestframeraten aufgrund der verringerten CPU-Belastung minimieren kann, wäre das für mich schon genug.

Höhere Framerate als 60 sind mir egal, ich ärgere mich meistens über Framerateneinbrüche. Gutes Beispiel: Das letzte Need for Speed-Spiel.

S940
2013-10-02, 12:08:11
die daseinsberechtigung von mantle ergibt sich nicht aus der geschwindigkeit, sondern aus der vereinfachten entwicklung der spiele über geräte und os hinaus. konsole, pc und wahrscheinlich auch früher oder später tablets. windows, linux...
Beides ist wichtig, das eine (Cross-Platform) aus Programmierersicht, das andere aus Endanwendersicht (Mehrleistung).

Wie oft gabs mieße Konsolenports in der Vergangenheit? Mehr als ein schneller Abklatsch, nach dem Motto: "Läuft, aber fragt nicht wie" war halt wg. der schlechten Portabilität nicht drin, da es unverhältnismäßig teuer gewesen wäre.
Jetzt mit Mantle sollte das mit nem ähnlichen Port-Programmieraufwand deutlich bessere Ergebnisse liefern. Weniger Arbeit für die Coder, mehr Frames für die Spieler. Win-Win (hoffentlich) :)

dargo
2013-10-02, 12:12:22
min-fps sind nicht wichtig sondern ein vollkommen irrelevantes maß.
Erst recht bei einem Benchmark im Multiplayer. Ich hab da so meine Zweifel wegen exakter Reproduzierbarkeit.

tm0975
2013-10-02, 12:21:55
Beides ist wichtig, das eine (Cross-Platform) aus Programmierersicht, das andere aus Endanwendersicht (Mehrleistung).

Ich denke, die Endanwendersicht wird ganz allein kommen unabhängig von fps, da:
- möglicherweise mantle-version eher veröffentlicht werden
- möglicherweise mantle-version eine höhere umsetzungsqualität haben (dx-konsolenabklatsch hat nen schlchten ruf)
- möglicherweise mantle-version exklusiv ist
- möglicherweise mantle-version einen günstigeren verkaufspreis hat
- möglicherweise in absehbarer zeit nur noch mantle-version als spielebeigabe von amd kommen (würde ich so machen), da für die, die das spiel nicht haben wollen, ja immer noch eine weitergabe möglich wäre

Raff
2013-10-02, 12:24:51
Erst recht bei einem Benchmark im Multiplayer. Ich hab da so meine Zweifel wegen exakter Reproduzierbarkeit.

Falls es um die PCGH-BF4-Werte geht: Die stimmen so, zumindest im Mittel über 3 Runs pro Einstellung/Benchmarkwert, teils auf verschiedenen Servern. Natürlich ist hundertprozentige Exaktheit nicht möglich, aber klare Tendenzen.

MfG,
Raff

dargo
2013-10-02, 12:48:37
Falls es um die PCGH-BF4-Werte geht: Die stimmen so, zumindest im Mittel über 3 Runs pro Einstellung/Benchmarkwert, teils auf verschiedenen Servern. Natürlich ist hundertprozentige Exaktheit nicht möglich, aber klare Tendenzen.

Ich weiß schon wie stark im Singleplayer min.fps je nach Game und Szene abweichen können. Deshalb halte ich davon nichts, erst recht bei 20 Sekunden und ohne Frameverlauf. Sicher, dass die überhaupt bei euch in der selben Sekunde vorkommen?

Knuddelbearli
2013-10-02, 12:55:36
naaj 3 benches pro Ergebnis und AMD ist durchgängig vorne, denke da dürfte das Ergebnis wirklich nur minimal schwanken

Matrix316
2013-10-02, 12:57:18
Ich denke, die Endanwendersicht wird ganz allein kommen unabhängig von fps, da:
- möglicherweise mantle-version eher veröffentlicht werden
- möglicherweise mantle-version eine höhere umsetzungsqualität haben (dx-konsolenabklatsch hat nen schlchten ruf)
- möglicherweise mantle-version exklusiv ist
- möglicherweise mantle-version einen günstigeren verkaufspreis hat
- möglicherweise in absehbarer zeit nur noch mantle-version als spielebeigabe von amd kommen (würde ich so machen), da für die, die das spiel nicht haben wollen, ja immer noch eine weitergabe möglich wäre
Das Problem ist nur, dass es einem mit einer 550 Euro Geforce 780 nix bringt, wenn es wegen Mantl auf einer Radeon Karte schneller läuft und eher da ist.

Will man wirklich wieder Zustände wie zu Voodoo und 3DFX Zeiten?

Muss man in Zukunft zwei Rechner haben um alle PC spiele spielen zu können?

Macht man es nicht noch schwerer für den PC, wenn man diese Plattform genauso wie Konsolen aufteilt?

Der Vorteil des PCs ist doch vor allem die Kompatibilität. Es ist schon nicht gut, wenn AMD Karten neueres Direct X unterstützen als NVidia.

Schnitzl
2013-10-02, 13:23:38
Will man wirklich wieder Zustände wie zu Voodoo und 3DFX Zeiten?ernstgemeinte Frage: was war daran so schlecht? Ich weiss noch wie das war: Voodoo reingesteckt und die nächste 1-2 jahre sorgenfreies Spielen (wenn nicht länger)

Der Vorteil des PCs ist doch vor allem die Kompatibilität. Es ist schon nicht gut, wenn AMD Karten neueres Direct X unterstützen als NVidia.
Ja was macht nVidia? Seit fast 2 Jahren gibts nun GCN... es scheint fast als würde sich die Geschichte wiederholen: damals war es nVidia mit den Features und 3dfx mit den Verzögerungen - jetzt hat AMD mehr Features und nVidia Karten kommen verzögert.
Ich hoffe diesmal beisst keiner ins Gras ^^

pest
2013-10-02, 13:23:43
Mit Frametimes gefüttert - klar. Bestreitet auch keiner.

völlig irrelephant

95% der Zeit in [x fps, y fps] bzw. [x ms, y ms]

S940
2013-10-02, 13:28:13
Will man wirklich wieder Zustände wie zu Voodoo und 3DFX Zeiten?
Naja, es würde reichen, wenn nV es genauso macht.

Dann hätte man 2 APIs, die überall auf allen OS laufen werden, also auch nicht mehr als jetzt schon mit DX <> OpenGL.

Das Problem ist nur, dass das low-level APIs sind, das Programmieren also erstmal nen hohen Aufwand bedeutet. Das kostet und Nvidia wird das extra sponsorn müssen, da sich Mantle wg. der Konsolen besser/früher rechnet.

Aber das gehört nicht hier rein, dass ist Stoff für den Mantle-Thread.

@tm0975:
Ja solche Möglichkeiten gibts natürlich auch noch.

V2.0
2013-10-02, 13:32:55
Das Problem ist nur, dass es einem mit einer 550 Euro Geforce 780 nix bringt, wenn es wegen Mantl auf einer Radeon Karte schneller läuft und eher da ist.

Will man wirklich wieder Zustände wie zu Voodoo und 3DFX Zeiten?

Muss man in Zukunft zwei Rechner haben um alle PC spiele spielen zu können?

Macht man es nicht noch schwerer für den PC, wenn man diese Plattform genauso wie Konsolen aufteilt?

Der Vorteil des PCs ist doch vor allem die Kompatibilität. Es ist schon nicht gut, wenn AMD Karten neueres Direct X unterstützen als NVidia.


Da Mantle wohl auf beiden Konsolen läuft, braucht man am PC eben nur eine AMD GPU, die Mantle unterstüzt. Das wäre halt Glide, nur Glide dann auch als API auf allen Konsolen. Und da Mantle wohl sehr nah mit der xbox1 verwandt ist, wird MS auch nichts dagegen haben. Eher im Gegenteil, man bruacht DX kaum noch weiter entwicklen und kann es stärker auf den mobile Sektor auslegen. Für NV ist das halt schlecht.

Skysnake
2013-10-02, 13:36:59
Das Problem ist nur, dass es einem mit einer 550 Euro Geforce 780 nix bringt, wenn es wegen Mantl auf einer Radeon Karte schneller läuft und eher da ist.

Will man wirklich wieder Zustände wie zu Voodoo und 3DFX Zeiten?

Muss man in Zukunft zwei Rechner haben um alle PC spiele spielen zu können?

Macht man es nicht noch schwerer für den PC, wenn man diese Plattform genauso wie Konsolen aufteilt?

Der Vorteil des PCs ist doch vor allem die Kompatibilität. Es ist schon nicht gut, wenn AMD Karten neueres Direct X unterstützen als NVidia.
Naja, bisher lief es ja darauf hinaus, das man sich einfach auf den kleinsten gemeinsamen Nenner geeinigt hat aus Sicht der Gamedeveloper.

In großen Engines wie Frostbite, UE usw kann ich mir schon vorstellen, dass sich Mantle schnell durchsetzen könnte, und da spielt es auch nicht die! Rolle, das es nur für AMD Karten ist. Die wollen vorrangig erstmal ihre Engine verkaufen bzw eben viele eigene Games mit der Engine entwickeln. Da man das möglichst einfach will, wird man wohl auch kein DX direkt nutzen, sondern eine weitere Abstraktionsschicht darüber, eben die Game-Engine. Da spielt es dann aber keine Rolle, ob die Game-Engine-Funktionen eben auf DX oder auf Mantle oder auf Heinz-Müller aufsetzen.

Gerade Dice könnte sich mit Mantle schon absetzen, und die eigene Engine ins recht Licht rücken im Vergleich zur UE4(? Die auf die Smarin eben aufsetzt) Engine.

Bei angeblich bis zu 8millionen Dollar für alleine BF4 und mantle:-)
http://www.fudzilla.com/home/item/32673-amd-spent-millions-on-battlefield-4-deal
Wobei sich mir die Frage stellt, ob da jetzt schon die Implementierung in die Frostbite-Engine an sich enhalten ist, oder nicht. Wenn es in die eigentlich Frostbite-Engine ist, dann sind 8 Mille gar nicht sooooo viel. Man muss ja bedenken, wie viele Games mit der Entwickelt werden.

Ob es jetzt 5 oder 8Mio sind juckt mich wenig; wenn man aber theoretisch fuer jeden ISV bzw. Spiel solche Summen investieren muss dann wird die Rechnung langfristig nicht bescheiden sein. In anderen news:

http://www.fudzilla.com/home/item/32693-nvidia-spends-5-million-on-ubisoft-deal
Wie gesagt, die Frage ist, ob das wirklich NUR für das Spiel ist. Kann ich mir nicht so recht vorstellen, ich will es aber auch nicht verneinen, das man für die Implementierung in die Frstobite-Engine an sich nicht nochmal extra gezahlt hat. Je nachdem sind die 8 Mille halt doch ne ganze Stange Geld, oder halt sogar recht "billig".

Man muss halt sagen BF4 ist halt schon nen Hardwareseller. Der Werbeeffekt wird da nicht klein sein, und man hat halt exklusive Demos mit AMD Hardware usw usw.

Die Hälfte des PC Marktes sind bald noch 20% des Gesamtmarktes, wenn Mantle auf beiden next Gen Konsolen läuft. Ob man für diesen Teil noch großartig optimiert halte ich auf Dauer für fraglich, gerade weil im PC Markt sich ja auch der Hardwarebestand schnell ändert. Fängst Du heute ein Projekt an, kann es gut sein, dass es beim Retailstart gar keine Hälfte des PC Marktes ist, sondern nur noch 25%. Imho wird es vom Erfolg von Mantle für die Next Gen Konsolen ankommen. Wenn es sich da durchsetzt, wird es am PC Segment ganz von alleine relevant. Wenn ich mir nun die Vorzüge von Mantle und die Hardware der NextGen Konsolen (hier gerade die CPU Komponente) ansehe, dann hat es, sofern AMD es ordentlich zum laufen kriegt, schon massives Potential.
Der Knackpunkt wird doch sein, inwieweit Mantle auf den Konsolen mithalten kann mit den anderen APIs, und wie groß der Portierungsaufwand sein wird. Ich kann mir schon gut vorstellen, das man gerade für Multiplatformtitel Mantle einsetzen wird, sofern die Performance auf den Konsolen vergleichbar mit den "nativen" Konsolen-APIs ist. Für reine Konsolengames wird man aber sicherlich eher die anderen APIs verwenden, zumidest bei Studios, die direkt zu MS/Sony gehören, und eben als Systemseller fungieren sollen und das Optimum raus holen sollen.

Bei PS4+XBone Titel könnte isch auch Mantle etablieren, was dann dazu führen könnte, das ne Mantle Version für den PC mit nem halben Jahr oder so Verzug kommt, aber keine DX Version. Quasi nochmal die Leute richtig melken mit möglichst wenig Aufwand...

Das wird man aber alles sehen müssen, und es wird auch entscheidend davon abhängen, wie viel Mehraufwand Mantle ist und wie leicht die Portierung bei guter GEsamtperformance zwischen den einzelnen Platformen am Ende ist.

Einerseits...aber andererseits: Wollen wir wirklich wieder dahin, dass jeder Grafikkartenhersteller seine eigene API hat??? Dafür gab es ja Direct X, dass man nicht Zusatzkarten und Dings und Bums oder die "richtige" Grafikkarte braucht, nur damit das Spiel optimal aussieht. WENN, dann sollen AMD und Nvidia sich auf EINEN Standard einigen. Gibt ja eh sonst keinen Hersteller mehr, der relevant wäre. Von mir aus Mantle, aber bitte dann von AMD und Nvidia.
Nein, eigentlich wollen wir so etwas wie Mantle garantiert NICHT haben!

Wenn es aber im "Prinzip" nur für die großen Engines gedacht ist, dann ist es vielleicht gar nicht soooo schlecht. WICHTIG!!! ist halt, das man den DX/OpenGL Support nicht schleifen lässt, und das hängt eben davon ab, wieviele nicht Mantle Titel es überhaupt noch geben wird, und wie stark nVidia noch an DX/OpenGL festhält. Von mir aus können Sie DX ganz sterben lassen, und sich nur auf OpenGL konzentrieren, oder wenns sein muss auch andersrum, aber es MUSS! eine weitere API geben. Wenn nVidia jetzt auf die Idee kommt, sowohl DX, als auch OpenGL (was ich wegen Quadro mir NICHT vorstellen kann) sterben lassen sollte, um auch auf eigene propritäre API zu setzen, dann wäre das echt richtig richtig scheise...

Wenn Sie neben OpenGL&DX noch was wie Mantle bringen, könnte das bzgl den großen Engines aber doch den PC weiter nach vorne bringen. So recht kann ich mir das bei nVidia aber nicht vorstellen. Das sind halt auch wieder riesige Kosten die da anfallen, und die haben keine Konsolendeals, wo Sie das mit abwälzen können...

Ich denke das hauptschuld bei ms und directx zu suchen ist ,bei dx läufts halt nicht perfekt ansonsten bräuchte es keinen mantel.
Wenn mantle 20% oder mehr bringt hat es imho seine daseinsberechtigung .
Bin deshalb auf fie ersten dx vs mantle vergleiche gespannt.
Hmm....

Ich würde mich da SEHR zurückhalten jemandem alleinig die Schuld zu zu schieben. nVidia hat, zumindest habe ich den Eindruck, die letzten Zeit bei DX immer auf die Bremse gedrückt. Das hilft nem allgemeinen Standard halt auch nicht gerade weiter...

Und AMD ist hat eben schon seit 2 Jahren (ihre Aussage) an Mantle dran... Die werden also auch nicht DEN Elan gehabt haben, bei MS gegen nVidia aufzubegehren... Denen wird das wohl sogar relativ recht gewesen sein :down::mad:

Je schwächer/schlechter DX ist, desto besser steht nämlich Mantle da....

Beides ist wichtig, das eine (Cross-Platform) aus Programmierersicht, das andere aus Endanwendersicht (Mehrleistung).

Wie oft gabs mieße Konsolenports in der Vergangenheit? Mehr als ein schneller Abklatsch, nach dem Motto: "Läuft, aber fragt nicht wie" war halt wg. der schlechten Portabilität nicht drin, da es unverhältnismäßig teuer gewesen wäre.
Jetzt mit Mantle sollte das mit nem ähnlichen Port-Programmieraufwand deutlich bessere Ergebnisse liefern. Weniger Arbeit für die Coder, mehr Frames für die Spieler. Win-Win (hoffentlich) :)
Ja, das wird wirklich interessant zu sehen sein, und ich glaube das kann heute auch noch wirklich NIEMAND abschätzen, wie sich das entwickeln wird.

Schnitzl
2013-10-02, 13:51:26
Ich würde mich da SEHR zurückhalten jemandem alleinig die Schuld zu zu schieben. nVidia hat, zumindest habe ich den Eindruck, die letzten Zeit bei DX immer auf die Bremse gedrückt. Das hilft nem allgemeinen Standard halt auch nicht gerade weiter...
die Frage ist warum?
Ist nVidia auch schon einige zeit an einer eigenen Low-Level-API dran?
(kommt dann mit Maxwell?)

Skysnake
2013-10-02, 14:15:12
hm...

Glaub ich nicht so wirklich dran, wobei ihre "GPUs" mit CPU-Cores drin durchaus auch nach einer eigenen API schreien. So recht dran glauben tu ich aber nicht. Denn am Ende wird es halt nen relativ normaler SOC wohl werden, nur das man halt den Focus extrem auf den GPU-Part legt.

Iruwen
2013-10-02, 14:16:50
Die Frage vorher wäre: in welcher Form? Was haben sie denn gemacht (bzw. nicht gemacht)?

/e: eigentlich gehört das wieder eher in den Mantle Thread.

Chimel
2013-10-02, 14:38:42
Hat schon jemand was wegen dem Pre-order Bundle gehört?
Soll ja heute starten.

Superheld
2013-10-02, 14:51:42
http://abload.de/img/z9bsx2qrz.jpg (http://abload.de/image.php?img=z9bsx2qrz.jpg)
http://www.rage3d.com/board/showthread.php?t=34002700&page=30

tm0975
2013-10-02, 14:59:10
Will man wirklich wieder Zustände wie zu Voodoo und 3DFX Zeiten?

Muss man in Zukunft zwei Rechner haben um alle PC spiele spielen zu können?

Macht man es nicht noch schwerer für den PC, wenn man diese Plattform genauso wie Konsolen aufteilt?

Der Vorteil des PCs ist doch vor allem die Kompatibilität. Es ist schon nicht gut, wenn AMD Karten neueres Direct X unterstützen als NVidia.

abgesehen vom letzten punkt gebe ich dir überall recht. dass nvidia nicht hinterherkommt bei dx ist deren problem. allerdings, was die punkte da drüber betrifft, kann ihc amd voll und ganz verstehen. es gibt keine regularien, wie marktmißbrauch verhindert werden kann. im gegenteil, die strafen sind so gering, dass die vorteile beim marktmissbrauch grandios überwiegen. ich wäre für die zerschlagung von intel gewesen, bereits vor 15 jahren. und microsoft hätte man genauso auseinander nehmen müssen. es passiert aber nichts. darum versucht sich jeder in seinen eigenen standards und das einige ziel ist marktmacht, um dann preise diktieren zu können. und wenn ich sehe, wie bei CB intel hoch und runter empfohlen wird, muß ich sagen, dass sie ja auch noch recht bekommen für ihre entscheidungen, wettbewerber unfair vom markt frenzuhalten und sich mit dem geld daraus die fertigungs-infrastruktur zu kaufen, um dauerhaft vorteile zu haben.

del_4901
2013-10-02, 15:09:21
http://abload.de/img/z9bsx2qrz.jpg (http://abload.de/image.php?img=z9bsx2qrz.jpg)
http://www.rage3d.com/board/showthread.php?t=34002700&page=30
Nur 2 ... Laaaaaaangweilig ;)

Screemer
2013-10-02, 15:16:41
http://abload.de/img/z9bsx2qrz.jpg (http://abload.de/image.php?img=z9bsx2qrz.jpg)
http://www.rage3d.com/board/showthread.php?t=34002700&page=30
ähh seh ich da zweimal 8pin?

Sven77
2013-10-02, 15:23:58
Nur 2 ... Laaaaaaangweilig ;)

Gibt es Menschen die ein Triple Crossfire Setup fahren? ;D

Skysnake
2013-10-02, 15:37:44
Nein, das ist 8+6 Pin. Einfach mal die Leitungen am Kabel zählen ;)

StefanV
2013-10-02, 15:53:32
Nein, das ist 8+6 Pin. Einfach mal die Leitungen am Kabel zählen ;)
Das hilft relativ wenig, da einige Hersteller die zwei zusätzlichen Masseleitungen von 2 der drei Masseleitungen am Stecker abgreifen.

Da hast dann 6 Pins zur Grafikkarte aber einen 8pin Stecker...

Skysnake
2013-10-02, 16:02:26
Man sieht aber, dass das ein CoolerMaster NT ist, und die machen das meines Wissens nach nicht.

Zudem sieht man ja an dem anderen Kabel ja auch klar, dass das ein 8-Adriges Kabel ist. Also warum einmal 8Pol Stecker mit 8 Leitungen, und das andere mal mit 6 Leitungen machen? Das macht absolut keinen Sinn.

EDIT:
Es handelt sich dabei sicherlich um folgendes Kabel von CM:
http://www.avadirect.com/product_details_parts.asp?PRID=28114
http://www.ninjalane.com/images/cm_gold_1200/pcie_cable.jpg

ilibilly
2013-10-02, 16:49:37
Da Mantle wohl auf beiden Konsolen läuft, braucht man am PC eben nur eine AMD GPU, die Mantle unterstüzt. Das wäre halt Glide, nur Glide dann auch als API auf allen Konsolen. Und da Mantle wohl sehr nah mit der xbox1 verwandt ist, wird MS auch nichts dagegen haben. Eher im Gegenteil, man bruacht DX kaum noch weiter entwicklen und kann es stärker auf den mobile Sektor auslegen. Für NV ist das halt schlecht.

Glaub kaum das ms dran gefallen findet,dann gibts auf einmal steambox Rechner und Mantel als API dazu,das macht für viele Windows überflüssig,gibt genug Leute die auch am pc nur zocken ,Surfen und Emails checken ,das war's

V2.0
2013-10-02, 17:00:55
Glaub kaum das ms dran gefallen findet,dann gibts auf einmal steambox Rechner und Mantel als API dazu,das macht für viele Windows überflüssig,gibt genug Leute die auch am pc nur zocken ,Surfen und Emails checken ,das war's

Hätte ich auch gesagt, aber es scheint wohl so als ob die xbox1 API sehr nah mit Mantle verwandt ist. Was wäre nun aber wenn AMD als Ausgleich nicht für die Steambox bieten durfte. :eek:

Blediator16
2013-10-02, 17:09:15
Auf dem Bild schaut das wie Alu oder sowas aus. Dann dürften die Alufetischisten auch bedient sein :D

ilibilly
2013-10-02, 17:16:28
Hätte ich auch gesagt, aber es scheint wohl so als ob die xbox1 API sehr nah mit Mantle verwandt ist. Was wäre nun aber wenn AMD als Ausgleich nicht für die Steambox bieten durfte. :eek:

Wenn AMD schlau ist dann lassen sie sich nicht von ms Knechten,aber ms glaub ich würde alles tun um seine letze Melkkuh windows+Office zu verteidigen.
Nokia hat's versucht sie von Windows phone loszueisen und schwups sindse weg,könnte doch AMD auch blühen?
Sogt stehen die Aktien von AMD nicht

M4xw0lf
2013-10-02, 18:29:30
Wenn AMD schlau ist dann lassen sie sich nicht von ms Knechten,aber ms glaub ich würde alles tun um seine letze Melkkuh windows+Office zu verteidigen.
Nokia hat's versucht sie von Windows phone loszueisen und schwups sindse weg,könnte doch AMD auch blühen?
Sogt stehen die Aktien von AMD nicht
Nokia hatte seit einiger Zeit einen ex-MS Mann an der Spitze, der den Laden sturmreif gemanagt hat ;)

boxleitnerb
2013-10-02, 18:33:16
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5209248&viewfull=1#post5209248

64 ROPs.

Nitrojedi
2013-10-02, 18:37:13
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/28074-radeon-r290x-im-vorab-test-bei-techpowerup.html

Wurde das schon ausdiskutiert?

Tomb Raider min. fps sind natürlich schonmal Quatsch, wenn sie höher liegen als die Durchschnitts-fps.

MR2
2013-10-02, 18:47:32
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5209248&viewfull=1#post5209248

64 ROPs.

Da hat einfach irgendwer irgendwelche Zahlen hin geschrieben. Kann ich auch:-)

boxleitnerb
2013-10-02, 18:52:06
Erstens ist es nicht irgendwer und zweitens klingt das nicht ganz verkehrt ;)

Raff
2013-10-02, 18:53:26
Wer ist's denn?

MfG,
Raff

M4xw0lf
2013-10-02, 18:55:44
Wer ist's denn?

MfG,
Raff

Pedant"ich-werfe-mit-zahlen-um-mich-bis-ich-was-treffe"One

boxleitnerb
2013-10-02, 18:57:15
Lol, naja die Specs der GPU sind eine Sache - welche SKUs AMD wählt, ist ne andere.

MR2
2013-10-02, 18:59:42
Erstens ist es nicht irgendwer und zweitens klingt das nicht ganz verkehrt ;)
Sags doch gleich:-) Aber einfach kommentarlos stehen lassen....

horn 12
2013-10-02, 20:19:10
R9 290X vorbestellbar aber zu welchem Preis? :-)

http://www.aria.co.uk/Products/Components/Graphics+Cards/AMD+Radeon/Radeon+HD+R9+290X/Club+3D+R9+290X+Graphics+Card+%2B+FREE+Battlefield+4%21+?productId=57699&source=skinflint

boxleitnerb
2013-10-02, 20:20:24
Ein Schnäppchen! Vielleicht gibt es nur eine Karte pro Kontinent :freak:

horn 12
2013-10-02, 20:37:46
Ja, nur wo bleiben die Specs ?
Sollten jene nicht durchsickern so langsam mal, Karten sollten doch schon bei einigen im Rechner sein.
NDA hin oder her, pfeift drauf!

StefanV
2013-10-02, 20:48:05
R9 290X vorbestellbar aber zu welchem Preis? :-)

http://www.aria.co.uk/Products/Components/Graphics+Cards/AMD+Radeon/Radeon+HD+R9+290X/Club+3D+R9+290X+Graphics+Card+%2B+FREE+Battlefield+4%21+?productId=57699&source=skinflint
Placeholder Price...

Macht man, wenn man noch nicht weiß, was das kosten soll. Dann gibt man einen wahnsinnig hohen Preis an, nicht ungewöhnlich. Gerade wenn der Preis aus vielen neunen besteht...

john carmack
2013-10-02, 22:22:57
R9 290X vorbestellbar aber zu welchem Preis? :-)

http://www.aria.co.uk/Products/Components/Graphics+Cards/AMD+Radeon/Radeon+HD+R9+290X/Club+3D+R9+290X+Graphics+Card+%2B+FREE+Battlefield+4%21+?productId=57699&source=skinflint


;D Titan ist Kindergarten ;D

OBrian
2013-10-02, 23:20:33
Ja, nur wo bleiben die Specs ?
Sollten jene nicht durchsickern so langsam mal, Karten sollten doch schon bei einigen im Rechner sein.
NDA hin oder her, pfeift drauf!Bei AMD-Produkten sickert in letzter Zeit so irre wenig durch (gar nichts), daß ich vermute, die wenden bei NDA-Brechern übelste Methoden an. Gießen ihnen einen Betonfuß und stellen ihn in die Elbe auf 5 m Tiefe, oder brennen sein Haus mitsamt Familie nieder oder sowas. Da muß die nackte Angst herrschen. :eek:

horn 12
2013-10-02, 23:26:23
Nun, in einigen Stunden sollten wohl Shops die Karte listen, vielleicht schleicht sich ein Fehler ein und wir erfahren weitaus mehr in einigen Stunden, als AMD lieb ist :-)

maximus_hertus
2013-10-02, 23:38:36
Geh mal davon aus, dass die Shops keine technischen Daten haben (außer die von AMD auf dem Event genannten) und damit auch nichts leaken können :/

Drun4s
2013-10-03, 01:39:37
http://www.webhallen.com/se-sv/hardvara/184362-asus_radeon_r9-290x_4gb_battlefield_4_bundle_limited_edition__battlefield_4_premium#overview

Auch sehr günstig. ~843€

HarryHirsch
2013-10-03, 02:05:18
Ein Schnäppchen! Vielleicht gibt es nur eine Karte pro Kontinent :freak:

Da freut es sich. Das NV die Fanboys bis zum verrecken ausnimmt ist natürlich normal...

Und mit Sicherheit ist das nicht der Fixe Preis.

horn 12
2013-10-03, 06:46:56
Hier sind die Specs verlinkt.
Wurde aber wohl auch nur von anderen Seiten abgeschrieben, oder sollte dies echt passen ?

Kopiere es mal rein:

Specifikationer:
• GPU Codename - Hawaii
• GPU Process - 28nm
• Stream Processors - 2816
• TMUs - 176
• ROPs - 44
• Base Clock - 800 MHz
• Turbo Clock - 1000 MHz
• VRAM - 4GB GDDR5
• Memory Bus - 512-Bit
• Memory Clock - 1250 MHz (5GHz Effective)
• Memory Bandwidth - 320 GBps
• Power Configuration - 8+6 Pin
• PCB VRM - 5+1+1
• Die Size - 424mm2
• Transistors - 6 billion
• 3D Technology - DirectX 11.2, OpenGL 4.3 and Mantle
• Audio Technology - AMD TrueAudio

horn 12
2013-10-03, 07:11:53
http://videocardz.com/46303/amd-radeon-r9-290x-final-specifications-bf4-bundle-available-preorder

Der Base Takt 800 Mhz, Turbo 1000 Mhz (1Ghz) wundert mich aber sehr.
Bei hohen Temperaturen sollte die Karte dann wohl kaum über die 800 bis 850 Mhz hinauskommen, und mittels zweitem Schalter dann wohl dauerhaft ca. 1 Ghz anliegen ?!
Da bin ich mal echt gespannt was auf uns zukommt ...

Eggcake
2013-10-03, 07:25:43
;D Titan ist Kindergarten ;D
OMG, hast du nicht gesehen?! FREE Battlefield 4! Na wenn das kein gutes Angebot ist?! :)

An die Specs glaube ich nicht ganz.

boxleitnerb
2013-10-03, 08:04:21
Da freut es sich. Das NV die Fanboys bis zum verrecken ausnimmt ist natürlich normal...

Und mit Sicherheit ist das nicht der Fixe Preis.

Spass verstehst du wohl nicht...Fanboy :tongue:

Cyv
2013-10-03, 08:17:35
Hrm wann es wohl in den deutschen stores losgeht? Ich brauch 2 karten...
Ich werde für cf vermutlich zu ref-karten greifen, weil die die heiße luft aus dem gehäuse befördern...

john carmack
2013-10-03, 09:52:16
herlich wie sich die Kinder im CB Forum das Maul zerreißen :D

(del676)
2013-10-03, 10:06:34
Mein Gott, das sind Platzhalterpreise. Who cares.

Cyv
2013-10-03, 10:12:18
herlich wie sich die Kinder im CB Forum das Maul zerreißen :D
Hehe. Ja hab ich auch schon verfolgt xD

OBrian
2013-10-03, 11:02:14
Hier sind die Specs verlinkt.
Wurde aber wohl auch nur von anderen Seiten abgeschrieben, oder sollte dies echt passen ?

Kopiere es mal rein: [...]Kann nicht stimmen, weil wir zumindest die Diegröße inzwischen exakt und als offizielle Aussage kennen. Wenn das nicht stimmt, wieso dann der Rest? Ein paar Sachen stimmen wohl, aber eher rein zufällig, wie z.B. DX 11.2 oder daß GDDR5 verbaut ist.

dlux
2013-10-03, 11:26:51
Die Schreiber und Leser bei ComputerBase sind echt ein gutes Team... ;D

AMD Radeon R9 290X für 850 Euro vorbestellbar
Der Preis wurde mittlerweile nach oben "korrigiert", die R9 290X kostet jetzt €1150. Wollt ihr die News nicht aktualisieren @DeppenBase?

OBrian
2013-10-03, 12:17:12
naja, bei einem viel zu hohen Preis, der nur aus Neunen besteht, muß man natürlich von einem Platzhalter ausgehen. Aber wenn es erst "krumme" 7299 Kronen waren, die auch nur "unwesentlich" über den spekulierten 600$ liegen (Schweden hat ja eine noch höhere Umsatzsteuer als wir), könnte man durchaus einen ernsthaft angesetzen "Frühbucherrabatt" irgendwelcher unseriösen Shops vermuten. Daß das keinen ernsthaften Marktpreis darstellt, sollte aber auch klar sein.

MR2
2013-10-03, 12:18:01
Hehe. Ja hab ich auch schon verfolgt xD
Das mit der Volksverdummung stimmt schon. Entweder kommt das von den Flourtabletten bereits im Kindergartenalter...ich weiß nicht wie der Staat das macht. Da schreibt einer wieso das so ist, der nächste heult gleich wieder rum. Und derjenige hat genau so eine Stimme beim Wahlgang wie ich. Ich verstehs einfach nicht...;D

'Schade' daß heut Feiertag ist, deutsche Shops wie Alternate hätten wohl heut auch gelistet.

john carmack
2013-10-03, 13:20:40
Die Schreiber und Leser bei ComputerBase sind echt ein gutes Team... ;D


Der Preis wurde mittlerweile nach oben "korrigiert", die R9 290X kostet jetzt €1150. Wollt ihr die News nicht aktualisieren @DeppenBase?

;D

Die Seite an sich (CB) ist ja gar nicht so schlecht (Auch wenn die GraKa Tests und vor allem die Fazits!!! doch sehr Nvidia lastig sind) - Aber das Forum geht mal gar nicht! 90% von denen glaubt tatsächlich das der Preis bei ~900€ - 1000€ kleben bleibt. Diese armen Kinder. Die MOD´d tun ihr übriges dazu. Zu traurig...

Da fühl ich hier doch bestens aufgehoben - vor allem weil es hier Leute gibt die echt Ahnung von der Materie haben.
Dankeschön dafür an alle 3dc User und Supporter!!! (Das wollte ich schon immer mal sagen :smile: )

Back to topic:
Echt krass das AMD so lange dichthalten kann. Hätte ich nicht erwartet.
Ich zumndest freue mich schon auf ein paar offizielle Tests. Ich könnte mir wirklich vorstellen mal wieder eine AMD HighEnd Karte zu kaufen. 10% über Titan wäre Killer :D
Und wenn man sich vorstellt das Sapphire wahrscheinlich eine 8GB Toxic nachschieben wird könnte 3x4k Realität werden.
Sehr sehr schade das die Monitore noch so arschteuer sind.
Aber eine native 4k unterstüzuung der R9 sollte als gesichert gelten ;)

(del676)
2013-10-03, 13:29:07
Wenigstens macht CB noch selbst Tests, als nur rumzusurfen und ihren eigenen biased-Senf dazuzugeben. ;)

Duplex
2013-10-03, 13:30:54
@john carmack
"UHD" 3840x2160 kannste du vergessen, egal ob GTX780 oder 290X, mit einer Single GPU Karte wirst du keine hohen min FPS haben!
Das wird noch 2-3 Generationen dauern, die Leistung der 28nm Karten ist zu niedrig, vor 10nm wird das nichts!

Zergra
2013-10-03, 13:32:28
@john carmack
"UHD" 3840x2160 kannste du vergessen, egal ob GTX780 oder 290X, mit einer Single GPU Karte wirst du keine hohen min FPS haben!
Das wird noch 2-3 Generationen dauern, die Leistung der 28nm Karten ist zu niedrig, vor 10nm wird das nichts!
Also wohl eher 5-6 Generationen... und 2020 :D

Duplex
2013-10-03, 13:35:45
Kommt darauf an was welche AA Modi bei UHD eingeschaltet wird, doppelte bis 3Fache Leistung einer Titan muss man schon haben, bei 16nm TSMC erwarte ich Faktor 2 gegenüber Titan, das wird noch mehrere Jahre dauern.

Botcruscher
2013-10-03, 13:36:38
Die meisten Konsolenports und weniger aufwendigen PC-Spiele würde heute schon bestens in der Auflösung laufen. BF4 oder C3 müssen nicht immer die Referenz sein.

Duplex
2013-10-03, 13:37:57
Aber niemals in Ultra High Settings :eek::eek::eek:

Botcruscher
2013-10-03, 13:43:38
Ultra was? Das sind doch "nur" 2,66 mal mehr Pixel. Alles wo man heute jenseits der 160FPS rumgurkt geht. Davon gibt es mehr als genug.

R9 290X Graphics Card + FREE Battlefield 4!
Kommt da nicht noch das Spiele Paket mit drauf?

Specs sehen gut aus. Eigentlich was man schon lange erwartet hat.

uweskw
2013-10-03, 13:44:51
http://geizhals.at/eu/club-3d-radeon-r9-290x-club3dbf4290x-a1010467.html
sieht von den Specs doch garnicht verkehrt aus.

greetz
U.S.

Ailuros
2013-10-03, 13:48:59
Mist; doch 1:4 :mad:

Akkarin
2013-10-03, 13:49:53
Gibt es irgendwelche beweise ob es jetzt wirklich 1:4 ist oder wurde das geschätzt ? Wobei die 4.5 TFlops ja vermutlich auch nicht stimmen, von daher...

Ailuros
2013-10-03, 13:54:13
Gibt es irgendwelche beweise ob es jetzt wirklich 1:4 ist oder wurde das geschätzt ? Wobei die 4.5 TFlops ja vermutlich auch nicht stimmen, von daher...

Von uweskw Link oben:

Chip: Hawai XT • Chiptakt: 800MHz, Boost: 1000MHz • Speicher: 4GB GDDR5, 1250MHz, 512bit, 320GB/s • Shader-Einheiten/TMUs/ROPs: 2816/176/44 • Rechenleistung: 4505GFLOPS (Single), 1126GFLOPS (Double)• Fertigung: 28nm • Leistungsaufnahme: 250W (TDP), keine Angabe (Leerlauf) • DirectX: 11.2 • OpenGL: 4.3 • OpenCL: 1.2 • Shader Modell: 5.0 • Schnittstelle: PCIe 3.0 x16 • Bauweise: Dual-Slot • Kühlung: 1x Radial-Lüfter, Referenzdesign • Anschlüsse: 2x DVI, HDMI 1.4a, DisplayPort 1.2 • Externe Stromversorgung: 1x 8-Pin PCIe, 1x 6-Pin PCIe • Abmessungen: 274x38mm • Besonderheiten: TrueAudio, AMD Eyefinity, integrierter 7.1 HD Audiocontroller • Herstellergarantie: keine Angabe

2816 SPs * 2 FLOPs * 0.8 GHz = 4506 GFLOPs
4506 / 4 = 1126 GFLOPs FP64

Zergra
2013-10-03, 13:54:58
http://geizhals.at/eu/club-3d-radeon-r9-290x-club3dbf4290x-a1010467.html
sieht von den Specs doch garnicht verkehrt aus.

greetz
U.S.
Die Specs beziehen sich doch nur hierauf oder ?

http://www.techpowerup.com/gpudb/2460/radeon-r9-290x.html

Ailuros
2013-10-03, 13:57:28
Die Specs beziehen sich doch nur hierauf oder ?

http://www.techpowerup.com/gpudb/2460/radeon-r9-290x.html

Womoeglich; aber der folgende typo ist auch nett:

Compute Units: 11 :freak:

Akkarin
2013-10-03, 14:09:43
Habe mich auch auf den GH link bezogen. bei 800MHz machts schon sinn, das stimmt. Aber die frage bleibt halt immernoch ob das reine Schätzwerte sind oder richtige Leaks/Informationen.

boxleitnerb
2013-10-03, 14:14:03
800 find ich etwas niedrig. Nicht unmöglich für Worst Cases, aber ich denke, die Karte wird im normalen Spielebetrieb eher bei 900 MHz liegen.

Zergra
2013-10-03, 14:18:15
Habe mich auch auf den GH link bezogen. bei 800MHz machts schon sinn, das stimmt. Aber die frage bleibt halt immernoch ob das reine Schätzwerte sind oder richtige Leaks/Informationen.
GH hat die Werte wohl nur von Tech abgeschrieben...Sonst würden sie keine Verlinkung einfügen

Raff
2013-10-03, 14:19:26
@john carmack
"UHD" 3840x2160 kannste du vergessen, egal ob GTX780 oder 290X, mit einer Single GPU Karte wirst du keine hohen min FPS haben!
Das wird noch 2-3 Generationen dauern, die Leistung der 28nm Karten ist zu niedrig, vor 10nm wird das nichts!

Jetzt hört doch mal mit diesen Pauschalaussagen auf. Ich spiele viele aktuelle Spiele in 3.840x2.400 mit FXAA/SMAA. Klar, dafür muss die Titan mit 1.200 MHz laufen und man muss mit Bildraten zwischen 20 und 40 zufrieden sein, aber es geht – nur eben nicht, wenn man 60+ Fps haben möchte.

MfG,
Raff

PS: In der AMD-Präsentation heißt's "5+ GFLOPs" und ihr glaubt nun Zeug bei Geizhals?

Akkarin
2013-10-03, 14:27:54
http://www.reddit.com/r/buildapc/comments/1nnci6/r9290x_to_retail_for_72999_per_newegg_source_code/

N0Thing
2013-10-03, 14:34:59
PS: In der AMD-Präsentation heißt's "5+ GFLOPs" und ihr glaubt nun Zeug bei Geizhals?

Der Bereich bei Geizhals reicht ja von 800-1000MHz und dann sind auch mehr als 5GFLOps drin. Und wenn die Werte von Vorserienmodellen sein sollten, reichen 900MHz Basistakt für >5GFLOPs. ;-)

ilibilly
2013-10-03, 14:38:34
Mist; doch 1:4 :mad:

Was hat's damit auf sich?
Besonders im Vergleich zu Tahiti?
Sorry bin in der Hinsicht eher ein dau

Raff
2013-10-03, 14:40:34
Verhältnis der Rechenleistung Single vs. Double Precision. Ist für Spiele irrelevant, hier zählt SP-Durchsatz. Bei Tahiti ist's 4:1 (SP: DP).

MfG,
Raff

dargo
2013-10-03, 14:56:54
http://geizhals.at/eu/club-3d-radeon-r9-290x-club3dbf4290x-a1010467.html
sieht von den Specs doch garnicht verkehrt aus.

greetz
U.S.
Ich finds eher langweilig. 25% Boost ist doch krank. :freak: Und @800Mhz ist das Ding gähn...

ilibilly
2013-10-03, 15:10:49
Verhältnis der Rechenleistung Single vs. Double Precision. Ist für Spiele irrelevant, hier zählt SP-Durchsatz. Bei Tahiti ist's 4:1 (SP: DP).

MfG,
Raff

Danke ,also eher Wurscht für die meisten Käufer

Duplex
2013-10-03, 15:14:06
Jetzt hört doch mal mit diesen Pauschalaussagen auf. Ich spiele viele aktuelle Spiele in 3.840x2.400 mit FXAA/SMAA. Klar, dafür muss die Titan mit 1.200 MHz laufen und man muss mit Bildraten zwischen 20 und 40 zufrieden sein, aber es geht – nur eben nicht, wenn man 60+ Fps haben möchte.
Schön für dich, aber 20-40 FPS sind echt lächerlich und keine Rede wert.

Duplex
2013-10-03, 15:16:45
Was hat's damit auf sich?
Besonders im Vergleich zu Tahiti?
Sorry bin in der Hinsicht eher ein dau
Hawaii wird im Profi Markt ein Reinfall, genau wie die Audio Präsentation :D:D

boxleitnerb
2013-10-03, 15:25:06
Hawaii wird im Profi Markt ein Reinfall, genau wie die Audio Präsentation :D:D

Nope, 1:2 ;)
Halt nur für FirePro.

MR2
2013-10-03, 15:32:24
Nope, 1:2 ;)
Halt nur für FirePro.

boxi, das war die Rettung für heute:D

boxleitnerb
2013-10-03, 15:34:15
Naja, dass die Architektur theoretisch 1:2 kann, ist ja nix Neues.

mironicus
2013-10-03, 15:35:29
Schön für dich, aber 20-40 FPS sind echt lächerlich und keine Rede wert.

Und da liegt bestimmt die Stärke der neuen AMD-Karte. Es würde mich nicht wundern, wenn BF4 die 60 FPS in UHD erreicht (und dank Mantle), während die Titan bei 15-35 Frames dahinruckelt (für 60 fps braucht man dann zwei Titan). ;D:biggrin:

Skysnake
2013-10-03, 15:47:36
http://geizhals.at/eu/club-3d-radeon-r9-290x-club3dbf4290x-a1010467.html
sieht von den Specs doch garnicht verkehrt aus.

greetz
U.S.
Das passt doch vorne und hinten nicht. darauf sollte man nichts geben

Mist; doch 1:4 :mad:
Da ist im Moment noch gar nichts klar. Das sind keine offiziellen Daten. Allein die Angabe mit <5TFlops ist ja bekanntlich falsch

PS: In der AMD-Präsentation heißt's "5+ GFLOPs" und ihr glaubt nun Zeug bei Geizhals?
Danke ;)

kruemelmonster
2013-10-03, 15:50:22
Genau, und obwohl CPU als auch GPU stärker ausgelastet werden sollen beeinflusst dass die erreichbaren Taktraten innerhalb des TDP-Limits kein Stück, dank Mantle laufen AMD+AMD Systeme doppelt so schnell bei halbem Stromverbrauch eines Intel+NV Systems.

"Der Hypetrain steht abfahrbereit auf Gleis 3, alle Passagiere einsteigen bitte."

Ailuros
2013-10-03, 15:51:13
Schön für dich, aber 20-40 FPS sind echt lächerlich und keine Rede wert.

Neben der Geschmacksache, braucht man unter normalen Umstaenden in wasauchimmer-sims nicht wirklich mehr.

F5.Nuh
2013-10-03, 15:52:27
Also habe mich hier nicht eingelesen jedoch eine kurze Frage. Möchte eine HD 7970 kaufen... jedoch sehr unschlüssig, da jetzt demnächst (wann genau) die neuen Modelle von ATI vorgestellt werden.

Meint ihr bis 250€ ist da was besseres dabei als die HD 7970 3gb Vram?

Botcruscher
2013-10-03, 15:55:17
Meint ihr bis 250€ ist da was besseres dabei als die HD 7970 3gb Vram?

Nö. Die umbenannte 7970 wird sich da einfinden.

PS: Für die 3840x2160 fehlt doch eh der Monitor. Bis man den für sub 500€ kaufen kann vergeht noch viel Zeit.

-/\-CruNcher-/\-
2013-10-03, 15:55:50
Genau, und obwohl CPU als auch GPU stärker ausgelastet werden sollen beeinflusst dass die erreichbaren Taktraten innerhalb des TDP-Limits kein Stück, dank Mantle laufen AMD+AMD Systeme doppelt so schnell bei halbem Stromverbrauch eines Intel+NV Systems.

"Der Hypetrain steht abfahrbereit auf Gleis 3, alle Passagiere einsteigen bitte."

Und genau hier wird es interessant ob Nvidia das mit Maxwell ordentlich kompensieren kann, mit einem Launch Titel aber 50 % unter Windows das will ich erstmal live sehen ;)

Neben der Geschmacksache, braucht man unter normalen Umstaenden in wasauchimmer-sims nicht wirklich mehr.
Vor allem wenn man sich überlegt das alles nur so mit Post FX shadern alla Hollywood zugeklatscht wird und wir die sachen dann mit 60 FPS spielen wollen macht doch irgendwie 0 sinn fürs richtige Motion Blur Hollywood feeling, für VR wieder was anderes aber da simuliere ich ja auch keine Hollywood Film Kamera Linse wie bei den meisten Games heute noch üblich ;)

kruemelmonster
2013-10-03, 16:02:38
Es wird schon im Dezember interessant wenn das BF4 Mantle Update draussen ist, dann wird man sehen wie sich Taktraten im Boostmodus, Temperaturen, Stromverbrauch und erreichte fps zwischen AMD/Mantle und AMD/DX11 sowie NV/DX11 verhalten.

dargo
2013-10-03, 16:05:37
Da ist im Moment noch gar nichts klar. Das sind keine offiziellen Daten. Allein die Angabe mit <5TFlops ist ja bekanntlich falsch

Warum? Wenn man sich auf den niedrigen Basistakt bezieht passt das doch.

Raff
2013-10-03, 16:07:45
Und da liegt bestimmt die Stärke der neuen AMD-Karte. Es würde mich nicht wundern, wenn BF4 die 60 FPS in UHD erreicht (und dank Mantle), während die Titan bei 15-35 Frames dahinruckelt (für 60 fps braucht man dann zwei Titan). ;D:biggrin:

Ich habe keine Zweifel daran, dass Hawaii in Hi-Res ordentlich austeilt, aber tendenziell sehe ich die oft hervorgehobene Hi-Res-Stärke etwas bröckeln: 40 Prozent mehr Shader-Bums bei 100 Prozent mehr Front-End wird vor allem dafür sorgen, dass man in Full HD (und darunter) Boden gut macht.

MfG,
Raff

Gebrechlichkeit
2013-10-03, 16:09:34
Hmm.. irgendwie schwachbruestig die "neue" GCN2.0 Serie. Erst recht wenn das top modell den gleichen Preis-tag wie eine 780GTX verpasst bekommen wird?

AMD hat ca.5+ Monate gebraucht um auf die Titan/780GTX eine adaequate Antwort zu finden... ehrlich habe ich mehr erwartet, die ist teilweise langsamer als die Titan (paar Games). Und warum man das TrueAudio nur der HighEnd und Low-End GPU vorbehaelt....... ist mir schleierhaft.

Hoffentlich stimmen die Preise wenigstens (€).

Botcruscher
2013-10-03, 16:11:40
Warum? Wenn man sich auf den niedrigen Basistakt bezieht passt das doch.
Bei Titan sind ja auch nur die 837MHz angegeben.

-/\-CruNcher-/\-
2013-10-03, 16:13:41
Es wird schon im Dezember interessant wenn das BF4 Mantle Update draussen ist, dann wird man sehen wie sich Taktraten im Boostmodus, Temperaturen, Stromverbrauch und erreichte fps zwischen AMD/Mantle und AMD/DX11 sowie NV/DX11 verhalten.

Ja abwarten wie gesagt wir wissen auch nicht ob die Arbeiten an Glide jemals eingestellt worden sind oder ob man immernoch 2 drei leute in der R&D Abteilung daran hat arbeiten lassen ;)

Raff
2013-10-03, 16:14:14
Ja abwarten wie gesagt wir wissen auch nicht ob die Arbeiten an Glide jemals eingestellt worden sind oder ob man immernoch 2 drei leute in der R&D daran hat arbeiten lassen ;)

LOL. Glide 4.0 – aber nur für Linux? :freak:

MfG,
Raff

Iruwen
2013-10-03, 16:28:51
LOL. Glide 4.0 – aber nur für Linux? :freak:

MfG,
Raff

Für BeOS. Das einzig wahre OS.

-/\-CruNcher-/\-
2013-10-03, 16:36:31
Haiku, man wird doch noch träumen dürfen ;)

http://www.youtube.com/watch?v=yAc-NDR35Sk
http://www.youtube.com/watch?v=72pOHR1XN6U
http://www.youtube.com/watch?v=Qv6twfh2SgI
http://www.youtube.com/watch?v=Cnyo9PwnAyc&feature=player_detailpage#t=85
http://www.youtube.com/watch?v=JzEmckuEIoI

Felixxz2
2013-10-03, 17:31:04
Hab auch grad nicht schlecht geschaut, dass die CBler den Preis wirklich ernst nehmen :D.

robbitop
2013-10-03, 17:39:12
Ich finde, Hawai ist eine gute Leistung, wenn es so kommt, wie es aussieht. Mit < 80 % der Kernfläche wie GK110 eine leicht höhere Leistung + höhere GPGPU Leistung zu schaffen ist schon sehr nett.

AMD hätte eine High End Karte gleich zu Anfang bringen sollen - aber seit R600 ist man ja sehr defensiv und tastet sich sehr langsam heran.

Felixxz2
2013-10-03, 17:49:46
Wieso bringt AMD Hawaii nicht eig mit ebenfalls ~550mm²?
Da hätte nVidia nichts drauf antworten können und 28nm ist doch ausgereift genug.

Ailuros
2013-10-03, 17:53:31
Ich finde, Hawai ist eine gute Leistung, wenn es so kommt, wie es aussieht. Mit < 80 % der Kernfläche wie GK110 eine leicht höhere Leistung + höhere GPGPU Leistung zu schaffen ist schon sehr nett.

Die Leistung ist nur hoeher wenn man mehr Strom verbraucht. GK110 hat ca. 15% mehr Transistoren, nur die area Vergleiche sind mir zu steril.

AMD hätte eine High End Karte gleich zu Anfang bringen sollen - aber seit R600 ist man ja sehr defensiv und tastet sich sehr langsam heran.

Da sie Tahiti schon am Anfang so teuer verkauft haben, will ich mir nicht vorstellen was sie stattdessen fuer eine Hawaii verlangt haetten und wann sie es genau in anstaendigen Mengen unter 28HP aufs Laufband bringen koennen. Thesen sind ja schoen und gut aber GK110 kam ganze 9 Monate nach Tahiti in die Produktion in ziemlich kleinen Mengen eben nur fuer HPC.

Wieso bringt AMD Hawaii nicht eig mit ebenfalls ~550mm²?
Da hätte nVidia nichts drauf antworten können und 28nm ist doch ausgereift genug.

Und dann haette AMD auch $999 fuer den Boliden verlangt und es gab fuer alle ein Happy End :eek:

M4xw0lf
2013-10-03, 18:41:51
Wieso bringt AMD Hawaii nicht eig mit ebenfalls ~550mm²?
Da hätte nVidia nichts drauf antworten können und 28nm ist doch ausgereift genug.
Achtung Sprichwort: Ein gutes Pferd springt nur so hoch wie es muss! ^^

Nakai
2013-10-03, 18:45:06
Naja, dass die Architektur theoretisch 1:2 kann, ist ja nix Neues.

DP1:2 basst hald echt gut. Halber Durchsatz, doppelte Größe, taugt.
Die Frage, die ich mir stelle, welchen Takt fährt man? DP1:2 ist einfach krank bei 2816SPs und etwa 1GHz Takt.

Man ist bei etwa 10(DP) GFLOPs/Watt.

Wenn Mantle auch bei Compute eingesetzt wird, dann hätte man endlich Zugriff auf alle GCN-Features.:)
Und was ist mit OpenCL 2.0 und HSA? Meine Güte, die sollen endlich den Vorhang fallen lassen...

dlux
2013-10-03, 18:48:29
Wieso bringt AMD Hawaii nicht eig mit ebenfalls ~550mm²?
Da hätte nVidia nichts drauf antworten können und 28nm ist doch ausgereift genug.
Eine Titan Ultra für €600 wäre wirklich amüsant. :biggrin:

Aber wahrscheinlich kommt die Antwort erst mit Maxwell.

Die Leistung ist nur hoeher wenn man mehr Strom verbrauchtNicht unbedingt.

Ailuros
2013-10-03, 19:21:05
Nicht unbedingt.

Es war nicht generell sondern spezifisch fuer diesen Fall gemeint. Das Ding ist nur schneller im turbo modus.

Blediator16
2013-10-03, 19:28:21
Steht Maxwell unmittelbar bevor und ist das eine Wunderarchitektur oder wieso fällt ständig Maxwell im Context des bevorstehenden AMD releases?

Ailuros
2013-10-03, 19:31:16
Steht Maxwell unmittelbar bevor und ist das eine Wunderarchitektur oder wieso fällt ständig Maxwell im Context des bevorstehenden AMD releases?

Weil Maxwell Kaffee wie Abwaschwasser schmeckt :D

Jetzt mal im Ernst ist es in solchen Faellen nicht stets ueblich? Mich wundert nur dass ich noch keinen "ja wart aber fuer GCN3.0 ab" Schmarren gelesen habe...

mironicus
2013-10-03, 19:41:21
Es war nicht generell sondern spezifisch fuer diesen Fall gemeint. Das Ding ist nur schneller im turbo modus.

Gut für AMD das es jetzt kälter wird, da werden die Reviews besonders gut werden da dann immer der Turbo greift. :freak:

Ailuros
2013-10-03, 19:44:08
Mir ist egal was sich jeder vorstellen will. Es ist stets eine gesunde Portion an Logik und Nuechternheit in solchen Faellen geboten.

boxleitnerb
2013-10-03, 19:44:21
Gut für AMD das es jetzt kälter wird, da werden die Reviews besonders gut werden da dann immer der Turbo greift. :freak:

Das hat im Februar ja schon bei Titan nicht geklappt...jedenfalls hierzulande ;)

john carmack
2013-10-03, 19:45:47
Weil Maxwell Kaffee wie Abwaschwasser schmeckt :D

Jetzt mal im Ernst ist es in solchen Faellen nicht stets ueblich? Mich wundert nur dass ich noch keinen "ja wart aber fuer GCN3.0 ab" Schmarren gelesen habe...

neee... ich warte auf Nvidia Volta :freak:
Üblich ja - aber völlig unangebracht und überflüssig!


Genau so das mittlerweile ein Tag vergangen ist und das CB Forum immer noch über ~900€ diskutiert.
Das da nicht von anfang an ein paar klärende Worte auf der Homepage darüber in den Artikel mit eingeflossen sind...?! :rolleyes:

Ailuros
2013-10-03, 19:47:25
neee... ich warte auf Nvidia Volta :freak:
Üblich ja - aber völlig unangebracht und überflüssig!

So viel zur Logik und Nuechternheit....:rolleyes:

OBrian
2013-10-03, 19:49:06
Steht Maxwell unmittelbar bevor und ist das eine Wunderarchitektur oder wieso fällt ständig Maxwell im Context des bevorstehenden AMD releases?
Von Maxwell wird gesagt, es solle in ca. einem halben Jahr kommen, frühestens. Und dann möglicherweise in 20nm schon. Wäre also sehr verwunderlich, wenn es damit dann nicht schnellere Karten gäbe. Aber wer solange warten will, hat es wohl eh nicht so nötig. Oder ist auf einen Hersteller festgelegt, und dann muß man eben dessen Zyklen einhalten. Jedenfalls ist bis dahin noch genug Zeit, einen weiteren Spekuthread mit zweihundert Seiten zu füllen. Aber nicht diesen.

mironicus
2013-10-03, 19:51:48
Es wäre eher verwunderlich, dass NVidia noch vor AMD eine neue Grafikkarte in einem kleineren Herstellungsprozess veröffentlicht.

Ailuros
2013-10-03, 19:55:01
Es gibt einen Maxwell thread; wenn dieser Anfang 2014 kommt dann wird er mit aller Wahrscheinlichkeit unter 28HPM hergestellt.

Zergra
2013-10-03, 21:04:05
Es gibt einen Maxwell thread; wenn dieser Anfang 2014 kommt dann wird er mit aller Wahrscheinlichkeit unter 28HPM hergestellt.
Ist vllt. auch besser für die Preise und Verfügbarkeit.
Maxwell könnte aber auch verschoben werden und dann im Juni in 20nm erscheinen...

Aber falscher Thread :D

Knuddelbearli
2013-10-03, 21:15:22
pfft Hawaii ist doch langweilig wartet nur auf gcn 3.0!

aufkrawall
2013-10-03, 21:21:19
Auf Hawaii muss NV keine neue Antwort im Gaming-Segment erfinden.
GK110 ist mehrfach absichtlich ausgebremst. Mittlerweile dürfte die Fertigung flutschen, da sind gut taktbare Chips drin (eventuell sogar vollaktiviert).
Notfalls lässt man dann den Lüfter default noch etwas höher drehen, stellt PT & TT großzügiger ein und dann sollten 1050Mhz drin sein.

Black-Scorpion
2013-10-03, 21:29:38
NV muss nie etwas. Die können alles und sind eh die besten.
Auf die Idee zu kommen das Hawaii vielleicht auch noch nicht am Ende ist kommt man natürlich nicht. :rolleyes:

Blediator16
2013-10-03, 21:31:06
Auf Hawaii muss NV keine neue Antwort im Gaming-Segment erfinden.
GK110 ist mehrfach absichtlich ausgebremst. Mittlerweile dürfte die Fertigung flutschen, da sind gut taktbare Chips drin (eventuell sogar vollaktiviert).
Notfalls lässt man dann den Lüfter default noch etwas höher drehen, stellt PT & TT großzügiger ein und dann sollten 1050Mhz drin sein.

Da musst man nicht drauf wetten. Von Tahiti hat man das selbe gesagt, weil der auch recht viel Potential verschenkt hat und gekommen ist eine OC Karte namens 7970gh edition.

boxleitnerb
2013-10-03, 21:38:32
NV muss nie etwas. Die können alles und sind eh die besten.
Auf die Idee zu kommen das Hawaii vielleicht auch noch nicht am Ende ist kommt man natürlich nicht. :rolleyes:

Du musst gar nicht die Augen rollen, wenn du mal logisch nachdenken würdest. Soweit ich weiß, gibt es bei der R290X keine versteckten CUs. Wenn Hawaii 28HPM nutzen sollte, ist auch das ein Vorteil. Die Wahrscheinlichkeit, dass Hawaii "am Ende" ist, ist somit einfach höher, da gibt es nichts dran zu rütteln.

Aber du kannst uns ja sicherlich erleuchten, welche Gedankengänge du hast...

Da musst man nicht drauf wetten. Von Tahiti hat man das selbe gesagt, weil der auch recht viel Potential verschenkt hat und gekommen ist eine OC Karte namens 7970gh edition.

Schlechter Vergleich - bei Tahiti hatte man noch Luft beim Verbrauch. Bei Hawaii wohl nicht mehr, wenn man die ca. 250W einhalten will. Man kann natürlich immer per Brute Force mit 300+W den Chip hochprügeln, das kann NV aber genauso.

fondness
2013-10-03, 21:41:50
DP1:2 basst hald echt gut. Halber Durchsatz, doppelte Größe, taugt.
Die Frage, die ich mir stelle, welchen Takt fährt man? DP1:2 ist einfach krank bei 2816SPs und etwa 1GHz Takt.

Man ist bei etwa 10(DP) GFLOPs/Watt.

Wenn Mantle auch bei Compute eingesetzt wird, dann hätte man endlich Zugriff auf alle GCN-Features.:)
Und was ist mit OpenCL 2.0 und HSA? Meine Güte, die sollen endlich den Vorhang fallen lassen...

Das wäre nämlich die eigentliche Sensation. 10(DP) GFLOPs/W wäre bei DP1:2 sogar noch konservativ geschätzt. Das strebt NV für Maxwell in 20nm an. Wenn man damit trotz deutlich kleinerem Die und höheren Featureset auch bei Spielen konkurrenzfähig zu GK110 ist, wäre das schon eine beachtliche Leistung. Aber ganz kann ich an das noch nicht glauben. DP1:2 erfordert enorm große Multiplier, ich sehe nicht wirklich wo diese Platz haben sollen neben all den anderen Verbesserungen.

boxleitnerb
2013-10-03, 21:51:05
Glaubt hier jemand ernsthaft an so hohe Taktraten bei DP-Last? Das sind Wunschträume, bei 225W TDP kann man das getrost vergessen. Da dürften es 750-800 MHz sein schätze ich.

fondness
2013-10-03, 21:52:33
Glaubt hier jemand ernsthaft an so hohe Taktraten bei DP-Last? Das sind Wunschträume, bei 225W TDP kann man das getrost vergessen. Da dürften es 750-800 MHz sein schätze ich.

Ohne dezidierte Einheiten spielt es für die GPU keine Rolle ob man SP oder DP berechnet. Tahiti taktet bei DP-Last auch nicht niedriger. Die Frage ist wie hoch die TDP der 290X ist, aber wenn man mal von 250W bei 1Ghz ausgeht sind das >11DP GFLOPs/Watt. Selbst wenn man dafür 280W benötigt wären es noch immer 10 DP GFLOPs/Watt.

boxleitnerb
2013-10-03, 21:57:28
Ohne dezidierte Einheiten spielt es für die GPU keine Rolle ob man SP oder DP berechnet. Tahiti taktet bei DP-Last auch nicht niedriger. Die Frage ist wie hoch die TDP der 290X ist, aber wenn man mal von 250W bei 1Ghz ausgeht sind das >11DP GFLOPs/Watt.

Warum soll das so sein?
Schau dir die S9000 an. 1792 Einheiten bei 900 MHz für 225W TDP - zum Spass hat man die Einheiten nicht abgeschaltet. Du glaubst, 2816 Einheiten bei 1 GHz sollen da auf einmal reinpassen? Ich nicht.

Nakai
2013-10-03, 22:08:53
Das wäre nämlich die eigentliche Sensation. 10(DP) GFLOPs/W wäre bei DP1:2 sogar noch konservativ geschätzt. Das strebt NV für Maxwell in 20nm an. Wenn man damit trotz deutlich kleinerem Die und höheren Featureset auch bei Spielen konkurrenzfähig zu GK110 ist, wäre das schon eine beachtliche Leistung. Aber ganz kann ich an das noch nicht glauben. DP1:2 erfordert enorm große Multiplier, ich sehe nicht wirklich wo diese Platz haben sollen neben all den anderen Verbesserungen.

AFAIK hatte Tahiti ne DP-Rate von 1:2 für ADDs und ne DP-Rate von 1:4 für MULs. Keine Ahnung, was bei Hawaii alles geändert wurde, aber wenn 2816SPs und 424mm² stimmen, dann hat AMD verdammt viel geändert. Einige Leute haben sich schon gewundert, wie das alles bei der Diesize zusammenpasst. Es wurde schon auf 20nm spekuliert, weil die Specs so überraschend sind. Ich gehe ja selber noch von DP 1:4 aus, weil der Brat sonst viel zu fett werden würde...

Warum soll das so sein?
Schau dir die S9000 an. 1792 Einheiten bei 900 MHz für 225W TDP - zum Spass hat man die Einheiten nicht abgeschaltet. Du glaubst, 2816 Einheiten bei 1 GHz sollen da auf einmal reinpassen? Ich nicht.

Welche eine DP-Rate von 3,58 GFLOPs/Watt hat.
Wenn Hawaii mit 2560SPs und 800Mhz kommt und DP von 1:2 hat, dann liegt man etwa auf 9,1GFLOPs/Watt, ansonsten bei etwa 4,55.
Beides wäre schon eine gute Verbesserung, Ersteres ziemlich dramatisch.

Nochmal @ Fondness:
Ohne dezidierte Einheiten spielt es für die GPU keine Rolle ob man SP oder DP berechnet. Tahiti taktet bei DP-Last auch nicht niedriger. Die Frage ist wie hoch die TDP der 290X ist, aber wenn man mal von 250W bei 1Ghz ausgeht sind das >11DP GFLOPs/Watt. Selbst wenn man dafür 280W benötigt wären es noch immer 10 DP GFLOPs/Watt.

Die 250W wird nicht bei 1GHz sein. Hawaii wird einen starken Boost haben. Ich denke wir werden immer bei etwa 900Mhz landen. Hawaii boostet ja nach Verbrauch/Temperatur.

horn 12
2013-10-03, 22:09:13
Gibt es bei R9 290 und R9 290X nur Refernz Design oder dann auch Alternativ Lüfterlösungen
Oder vorerst aussschliesslich Referenz Modelle!

Schaffe89
2013-10-03, 22:11:50
64 ROPs oder 44?

boxleitnerb
2013-10-03, 22:12:29
Welche eine DP-Rate von 3,58 GFLOPs/Watt hat.
Wenn Hawaii mit 2560SPs und 800Mhz kommt und DP von 1:2 hat, dann liegt man etwa auf 9,1GFLOPs/Watt, ansonsten bei etwa 4,55.
Beides wäre schon eine gute Verbesserung, Ersteres ziemlich dramatisch.


Wenn man Nvidia hier hätte nass machen können schon mit Tahiti, warum hat man es nicht getan? Warum erst später 1:2? Das ergibt für mich keinen Sinn, vor allem, weil die Architektur ja so auf Compute ausgelegt ist und es ja angeblich nicht mehr Strom verbraucht.

Edit:
Und hieß es nicht (Diskussion hier im Forum), Nvidia habe die dedizierten DP-Einheiten wegen Perf/W eingebaut und dafür mehr Fläche in Kauf genommen? Warum hätten sie das tun sollen, wenn man ja laut fondness so "einfach" ohne höhere Leistungsaufnahme die ALUs zusammenschalten kann für DP-Berechnungen. Das ergibt alles keinen Sinn. Entweder ist NVs Weg dann der Dämlichste, den man sich vorstellen kann. Oder AMDs DP-Lösung ist eben doch nicht "umsonst".

horn 12
2013-10-03, 22:14:32
Der 2-te Schalter könnte dann eventuell einen höheren Kern Takt um die 900 Mhz und den Boost Takt bis 1050 Mhz besitzen, diesmal jedoch mit Aufhebung der Powertunes (Sperre) welcher somit die Karte wohl auch lauter und vor Allem heisser lassen werden wird.

Nakai
2013-10-03, 22:21:25
Wenn man Nvidia hier hätte nass machen können schon mit Tahiti, warum hat man es nicht getan? Warum erst später 1:2? Das ergibt für mich keinen Sinn, vor allem, weil die Architektur ja so auf Compute ausgelegt ist und es ja angeblich nicht mehr Strom verbraucht.

IMO hat AMD NVidia mit GCN schon ordentlich nass gemacht. Man muss auch sagen, dass nicht alle beim ersten Wurf funktioniert und man hier und da Abstriche machen muss. Außerdem ist der HPC-Bereich nicht so "lässig" wie der Gaming-Bereich. Wenn da MaxTDP steht, dann meint man auch MaxTDP.
Es wurde beim GCN-Release schon gesagt, dass viele verschiedene DP-Konfigurationen möglich sind. Die Architektur von Hawaii hat man noch gar nicht offengelegt, was darauf schließen lässt, dass Einiges verändert wurde.

€:
Edit:
Und hieß es nicht (Diskussion hier im Forum), Nvidia habe die dedizierten DP-Einheiten wegen Perf/W eingebaut und dafür mehr Fläche in Kauf genommen? Warum hätten sie das tun sollen, wenn man ja laut fondness so "einfach" ohne höhere Leistungsaufnahme die ALUs zusammenschalten kann für DP-Berechnungen. Das ergibt alles keinen Sinn. Entweder ist NVs Weg dann der Dämlichste, den man sich vorstellen kann. Oder AMDs DP-Lösung ist eben doch nicht "umsonst".

Nvidia hat auch ein DP-Verhältnis von 1:3. Und natürlich kann man davon ausgehen, dass AMDs-Lösung nicht umsonst ist. Ich habe selber zwar viel zu wenig Ahnung von Chiparchitektur, aber es sollte klar sein, wenn man "diegleichen" Einheiten nimmt(und loopen lässt, für Präzision), muss diese Funktionalitäten implementiert sein. Bei AMDs Variante(und DP1:2)könnte man natürlich die gleichen Leitungen und sonstiges drumherum nehmen(halber Durchsatz; doppelt sogroße Werte). Wie das mit den Registern gelöst ist, kA, evtl sind zwei SP ein DP-Register, oder es werden extra Register verbaut(extra Verdrahtungen). Natürlich ist es kein bisschen kostenlos, aber wie es sich auf den Verbrauch, Chipgröße, etc... auswirkt, kann ich nicht sagen.
Ich hör hier auch lieber auf, weil es einfaches sinnfreies und substanzloses Rumlabern ist, meinerseits.

boxleitnerb
2013-10-03, 22:28:30
Nvidia hat auch ein DP-Verhältnis von 1:3. Und natürlich kann man davon ausgehen, dass AMDs-Lösung nicht umsonst ist. Ich habe selber zwar viel zu wenig Ahnung von Chiparchitektur, aber es sollte klar sein, wenn man "diegleichen" Einheiten nimmt(und loopen lässt, für Präzision), muss diese Funktionalitäten implementiert sein. Bei AMDs Variante(und DP1:2)könnte man natürlich die gleichen Leitungen und sonstiges drumherum nehmen(halber Durchsatz; doppelt sogroße Werte). Wie das mit den Registern gelöst ist, kA, evtl sind zwei SP ein DP-Register, oder es werden extra Register verbaut(extra Verdrahtungen). Natürlich ist es kein bisschen kostenlos, aber wie es sich auf den Verbrauch, Chipgröße, etc... auswirkt, kann ich nicht sagen.
Ich hör hier auch lieber auf, weil es einfaches sinnfreies und substanzloses Rumlabern ist, meinerseits.

Eben darauf wollte ich hinaus. Umsonst ist es ganz sicher nicht, deshalb kann man hier nicht einfach R290X als Vergleich hernehmen und anfangen, damit rumzurechnen. Ich kann mir auch nicht vorstellen, dass bei 1:4 genausoviele Transistoren schalten wie bei 1:2. Vielleicht kann Ailuros dazu was sagen, der könnte das wissen.

dlux
2013-10-03, 22:43:05
Du musst gar nicht die Augen rollen, wenn du mal logisch nachdenken würdest. Soweit ich weiß, gibt es bei der R290X keine versteckten CUs. Wenn Hawaii 28HPM nutzen sollte, ist auch das ein Vorteil. Die Wahrscheinlichkeit, dass Hawaii "am Ende" ist, ist somit einfach höher, da gibt es nichts dran zu rütteln.
Also du meinst es könnte eine Wunder-Titan mit 15 SMX (GK110 Vollausbau) und 28 HPm @ TSMC als Antwort auf Hawaii geben... Hmmmmm....

Und wieviel sollte Titans Nachfolger kosten? Auch €600? :D

Hugo78
2013-10-03, 22:53:50
Der aktuelle Titan mit 14SMX hat allein schon 35-40% Potential nur durch Takt.
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/GTX-Titan-Extrem-Overclocking-GTX-880-1076043/

StefanV
2013-10-03, 23:06:04
Der aktuelle Titan mit 14SMX hat allein schon 35-40% Potential nur durch Takt.
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/GTX-Titan-Extrem-Overclocking-GTX-880-1076043/
...was aber in der Praxis nicht wirklich machbar ist, da man sonst bei 300 oder 350W TDP landen würde...

Knuddelbearli
2013-10-03, 23:13:04
Und Hawaii lässt sich ja sicherlich nicht übertakten :freak:

Thaiti packte schon mal + 40% und da musste man nix modden,und denke mal Hawaii wird es ähnlich laufen hat ja nicht so einen extrem hohen Takt wie Thaiti XT2.

Aber nix genaues weiß man halt, noch, nicht, weshalb solche Vergleiche momentan einfach nur Schwachsinnig sind ...

Nakai
2013-10-03, 23:21:10
Eben darauf wollte ich hinaus. Umsonst ist es ganz sicher nicht, deshalb kann man hier nicht einfach R290X als Vergleich hernehmen und anfangen, damit rumzurechnen. Ich kann mir auch nicht vorstellen, dass bei 1:4 genausoviele Transistoren schalten wie bei 1:2. Vielleicht kann Ailuros dazu was sagen, der könnte das wissen.

Was mich hierbei interessieren würde ist der Stromverbrauch bei Tahiti und DP.
Tahiti hat eine DP-Rate von 1:4(ADD: 1:2; MUL: 1:4). Ein Double hat 64bit ein Float nur 32bit. Ergo müssten alle "Transferaktionen"(schreiben/lesen) bei DP nur halb so "reinhauen", wie bei SP. Die Belastung sollte niedriger sein, wenn man reines DP benutzt.

dlux
2013-10-03, 23:28:59
In celebration of the upcoming launches of two of the most important announcements in PC gaming this year, we’ve worked with EA to create the AMD Radeon R9 290X Battlefield 4 Limited Edition available, online for reservation starting today with select resellers and partners. There were only 8,000 of these made so make sure to add your name to the list before they’re all gone! Recommended AMD Radeon R9 290X pricing, specs and performance will be unveiled in the coming weeks. We haven’t released pricing and won’t comment on pricing seen on some e-tail outlets.
Kwelle (https://www.facebook.com/AMDGaming/posts/535192336553258)

Was von vornherein schon klar war. Preise und Benches gibts erst am 15. Oktober.

horn 12
2013-10-03, 23:34:29
@Nakai
Von welcher Performance gehst (falls die geleakten Specs stimmen/ sollten) von R9-290X und R9-290 in etwa aus ?
Kann man die R9 290 etwa mit Titan, das Topmodell ca. 10-15% über Titan sehen.

Die Aufstellung, wenn auch noch nicht von AMD bestätigt:
http://www.techpowerup.com/gpudb/2460/radeon-r9-290x.html

Nakai
2013-10-03, 23:54:01
@Nakai
Von welcher Performance gehst (falls die geleakten Specs stimmen/ sollten) von R9-290X und R9-290 in etwa aus ?
Kann man die R9 290 etwa mit Titan, das Topmodell ca. 10-15% über Titan sehen.

Puh, ne Gretchen Frage.
Also die geleakten Specs sagen wirklich nicht viel aus, da keinerlei Architekturdetails offengelegt wurden.

Ich machs mir einfach. Orientier dich an einem HD 7870 CF-Setup.
Da liegt man etwa 30-40% von den reinen FPS vor ner HD 7970GHz.

LadyWhirlwind
2013-10-04, 00:24:27
Die nächsten zwei Wochen werden wohl spannend werden :)

Knuddelbearli
2013-10-04, 04:38:33
290 <---> 780 eher die 290 langsamer als die 780
290X <---> Titan
290X mit 2t BIOS <---> 5-10% vor Titan
OC 290X <---> Titan mit Mod BIOS

wäre mein Tipp

boxleitnerb
2013-10-04, 08:45:31
Also du meinst es könnte eine Wunder-Titan mit 15 SMX (GK110 Vollausbau) und 28 HPm @ TSMC als Antwort auf Hawaii geben... Hmmmmm....

Und wieviel sollte Titans Nachfolger kosten? Auch €600? :D

Ne, glaub ich nicht, wobei ich aber nicht weiß, ob der Schritt von HP zu HPM zusätzliche Arbeit erfordert. Ich vermute es mal - selbst wenn es leicht ist, lohnt sich das kostenmäßig sicher nicht.

Aber 15 SMX mit 5-10% mehr Takt sind sicher drin unter 28HP.

Edit:
290X Verbrauch angeblich unterhalb 780/Titan. Trotz 300W TDP. Das ist jetzt schwer zu sagen, unter welchen Voraussetzungen, weil unterschiedliche Boosts bei beiden Karten ja gleich mal 50+W ausmachen können.

Skysnake
2013-10-04, 09:12:56
Ohne dezidierte Einheiten spielt es für die GPU keine Rolle ob man SP oder DP berechnet. Tahiti taktet bei DP-Last auch nicht niedriger. Die Frage ist wie hoch die TDP der 290X ist, aber wenn man mal von 250W bei 1Ghz ausgeht sind das >11DP GFLOPs/Watt. Selbst wenn man dafür 280W benötigt wären es noch immer 10 DP GFLOPs/Watt.
Bei 1:4 DP:SP ist der Verbrauch auch ziemlich ähnlich, weil man eigentlich kaum zusätzliche Transistoren braucht, und in den Addierern und Multiplizierern sogar insgesamt weniger Transistoren schalten muss. Bei 1:2 sieht es aber komplett anders aus. Da mus man ziemlich viele Transistoren für breitere Addierer und Multiplizierer verwenden.

Ansonsten, ja, bei 1:2 DP:SP wäre die Effizienz ziemlich abartig. Ich befürchte allerdings, das man in diesem Fall DP beschneiden wird bei den Radeons, oder halt nur wie bei nVidia nur mit anderen Taktraten 1:2 freischalten wird können. Die FirePro werden ziemlich sicher deutlich niedriger Takten.

Wenn man Nvidia hier hätte nass machen können schon mit Tahiti, warum hat man es nicht getan? Warum erst später 1:2? Das ergibt für mich keinen Sinn, vor allem, weil die Architektur ja so auf Compute ausgelegt ist und es ja angeblich nicht mehr Strom verbraucht.

Weil vielleicht Timings bei den 1:2 Mul Pfaden nicht getroffen wurden?

Weil man vielleicht den Chip nicht noch mehr aufblähen wollte für den Start und vor allem schon so viele Baustellen zum checken hatte, das man sich das nicht auch noch aufhalsen wollte?

Du musst ja bedenken, dass das die ersten Implementierungen von GCN sind und man dazu auch noch die ganzen Konsolendeals zu bedienen hatte und die APUs auch noch dazu... Wenigstens die Konsolendeals sind jetzt weggefallen. Das sollte auch wieder Ressourcen freigeschaufelt haben.


Edit:
Und hieß es nicht (Diskussion hier im Forum), Nvidia habe die dedizierten DP-Einheiten wegen Perf/W eingebaut und dafür mehr Fläche in Kauf genommen? Warum hätten sie das tun sollen, wenn man ja laut fondness so "einfach" ohne höhere Leistungsaufnahme die ALUs zusammenschalten kann für DP-Berechnungen. Das ergibt alles keinen Sinn. Entweder ist NVs Weg dann der Dämlichste, den man sich vorstellen kann. Oder AMDs DP-Lösung ist eben doch nicht "umsonst".
Bei 1:2 definitiv nicht. Da muss man schon einiges aufwenden. Was aber halt auch nicht 100% klar ist, ist ob nicht schon Tahiti 1:2 Mul auch konnte, aber das "einfach" kaputt war. Das wäre natürlich ziemlich doof für AMD auf der einen Seite, weil Sie so viel Potenzial liegen gelassen hätten, auf der anderen Seite wäre es gut, weil man für 1:2 keinen größeren DIE erwarten müsste. So recht dran glauben kann ich aber nicht. Da hätte man sicherlich schneller nen gefixten Chip gebracht, wobei natürlich auch nicht klar ist, wo denn genau das Problem eventuell gelegen hätte...

Die 1:2 DP:SP bei Add überrascht mich aber auf jeden Fall. Das war mir so bisher überhaupt nicht bekannt, oder ich habs einfach schlichtweg wieder vergessen gehabt...

Und bzgl nVidia und dedizierte Einheiten: Mehr als die Aussage von nem PR-Menschen gibt es dazu nicht... Und damit bleibt das sehr fragwürdig.


IMO hat AMD NVidia mit GCN schon ordentlich nass gemacht. Man muss auch sagen, dass nicht alle beim ersten Wurf funktioniert und man hier und da Abstriche machen muss. Außerdem ist der HPC-Bereich nicht so "lässig" wie der Gaming-Bereich. Wenn da MaxTDP steht, dann meint man auch MaxTDP.

Definitiv. Die 300W der S10000 wird ihnen so manchen Deal gekostet haben....

Was die Stromversorgung von vielen Servern anbelangt, sind die echt ziemlich erbärmlich ausgerüstet... Da sind 75W mehr schon ziemlich heftig, also jetzt komplett weg vom Thema der Kühlung, was natürlich auch nen riesen Thema íst, weil man eine stärkere Klimaanlage braucht usw usw.

Aber allein schon die Netzteile machen einem teils schon Probleme. Wenn das NT nicht genug Leistung bringt hat man verloren, und wenn die Aufteilung auf den einzelnen Rails nicht mitmacht, hat man genauso verloren... Da kommt ja niemand auf die Idee etwas außerhalb der Specs zu betreiben.


Nvidia hat auch ein DP-Verhältnis von 1:3. Und natürlich kann man davon ausgehen, dass AMDs-Lösung nicht umsonst ist. Ich habe selber zwar viel zu wenig Ahnung von Chiparchitektur, aber es sollte klar sein, wenn man "diegleichen" Einheiten nimmt(und loopen lässt, für Präzision), muss diese Funktionalitäten implementiert sein.
Ja, looping ist auch nicht umsonst. Dafür braucht es auch ein bischen Logik und Verschaltung. Bei 1:3 sollte das sogar noch relativ gut gehen, bei 1:2 kannst das aber vergessen. 2 Loops durch ne "einfache" SP Einheit reichen da nicht aus. Du musst die schlicht breiter machen.

Ich habs in einem anderen, oder wars diesem Thread (?) hier schon gepostet, aber ich wiederhol es mal:

Addiere/Subtrahieren:
-SP:23x23 Add
-DP:52x52 Add
<-Wie man sieht reicht hier ein zweifacher Loop nicht aus.

Multiplizieren:
-SP: 23x23 Mul & 8x8 Add
-DP: 52x52 Mul & 11x11 Add
<-Auch hier reicht ein zweifacher Loop nicht aus. Also zumindest für den Mul. Der Addierer schafft das an dieser Stelle.


Bei AMDs Variante(und DP1:2)könnte man natürlich die gleichen Leitungen und sonstiges drumherum nehmen(halber Durchsatz; doppelt sogroße Werte).
Nein kann man so einfach nicht, siehe oben.

Wie das mit den Registern gelöst ist, kA, evtl sind zwei SP ein DP-Register, oder es werden extra Register verbaut(extra Verdrahtungen).

Ja, das wird normal so gemacht. Dann hat man halt einen oberen und einen unteren Teil und gut ist. Man könnte, sofern man will, das sogar auf 8Bit Blöcke aufteilen, um Chars zu unterstützen auf Registerebene. Das ist bei GPUs aber eher ziemlich unwichtig, weshalb ich das nicht erwarten würde. Den Aufwand kann man sich sicherlich sparen ohne das jemand anfängt zu heulen. 32/64 Bit Unterteilung in den Registern gibt es aber sicherlich. 32 Bit musst du ja eh unterstützen und 64Bit ist dann einfach nur die Koppelung von zwei Registern. Das geht ohne Probleme. Da braucht man wohl so gut wie keine Hardware. Man kann sich da ja ein festes Mapping ausdenken, wie z.B. DP dürfen nur in ungeraden Registern anfangen ausdenken. Man muss dann "nur" noch sicherstellen, das SP und DP sich nicht gegenseitig in die Quere kommen, aber das muss man ja auch für SP. Von daher ist das eigentlich kein echtes Thema.


Natürlich ist es kein bisschen kostenlos, aber wie es sich auf den Verbrauch, Chipgröße, etc... auswirkt, kann ich nicht sagen.
Ich hör hier auch lieber auf, weil es einfaches sinnfreies und substanzloses Rumlabern ist, meinerseits.
Naja doch, kann man schon so ungefähr abschätzen. Wenn man Looping macht, oder die Addierer und Multiplizierer von jeweils zwei Einheiten zusammen schließt und dann den Rest halt noch dazu packt, dann muss man mindestens 13% mehr Transistoren in dem Bereich der ALUs, ohne! Register Decoder usw usw, verbauen. Real werden es wohl eher 20% sein. Das ist alles aber NICHT kostenlos.

fondness
2013-10-04, 10:01:00
Edit:
Und hieß es nicht (Diskussion hier im Forum), Nvidia habe die dedizierten DP-Einheiten wegen Perf/W eingebaut und dafür mehr Fläche in Kauf genommen? Warum hätten sie das tun sollen, wenn man ja laut fondness so "einfach" ohne höhere Leistungsaufnahme die ALUs zusammenschalten kann für DP-Berechnungen. Das ergibt alles keinen Sinn. Entweder ist NVs Weg dann der Dämlichste, den man sich vorstellen kann. Oder AMDs DP-Lösung ist eben doch nicht "umsonst".

Niemand hat behauptet das AMDs-Lösung "umsonst" ist, ich habe sogar mehrmals auf die großen Multiplier hingewiesen welche dafür notwendig sind und deshalb an 1:2 gezweifelt. Aber nett das du mir wie immer falsche Aussagen in den Mund legst und Unwahrheiten behauptest, weil du es wie so oft nicht schaffst eine Beitrag zu verfassen ohne persönlich zu werden. Es sollte nur für die Leistungsaufnahme keine wesentliche Rolle spielen, da man die selben Einheiten verwendet. Eine 7970 und jede andere Karte ohne dezidierte Einheiten taktet schließlich auch nicht herunter für DP-Berechungen. Aber werden wir eh bald sehen, selbst wenn es nur 800Mhz sind wäre das eine ziemliche Effizienzexplosion.

Knacki99
2013-10-04, 10:21:33
Chip: Hawaii XT
• Chiptakt: 800MHz, Boost: 1000MHz
• Speicher: 4GB GDDR5, 1250MHz, 512bit, 320GB/s
• Shader-Einheiten/TMUs/ROPs: 2816/176/44
• Rechenleistung: 4505GFLOPS (Single), 1126GFLOPS (Double)
• Fertigung: 28nm
• Leistungsaufnahme: 250W (TDP), keine Angabe (Leerlauf)
• DirectX: 11.2
• OpenGL: 4.3
• OpenCL: 1.2
• Shader Modell: 5.0
• Schnittstelle: PCIe 3.0 x16
• Bauweise: Dual-Slot
• Kühlung: 1x Radial-Lüfter, Referenzdesign
• Anschlüsse: 2x DVI, HDMI 1.4a, DisplayPort 1.2
• Externe Stromversorgung: 1x 8-Pin PCIe, 1x 6-Pin PCIe
• Abmessungen: 274x38mm
• Besonderheiten: TrueAudio, AMD Eyefinity, integrierter 7.1 HD Audiocontroller
• Herstellergarantie: keine Angabe

http://geizhals.de/eu/club-3d-radeon-r9-290x-club3dbf4290x-a1010467.html

Damit dürfte dann klar sein, das die 290X definiiv als Kontrahent für die Titan gedacht ist (DP). Erstaunlich finde ich den doch recht niedrigen Basistakt.

Skysnake
2013-10-04, 10:32:28
Das hatten wir doch schon

boxleitnerb
2013-10-04, 10:36:21
Niemand hat behauptet das AMDs-Lösung "umsonst" ist, ich habe sogar mehrmals auf die großen Multiplier hingewiesen welche dafür notwendig sind und deshalb an 1:2 gezweifelt. Aber nett das du mir wie immer falsche Aussagen in den Mund legst und Unwahrheiten behauptest, weil du es wie so oft nicht schaffst eine Beitrag zu verfassen ohne persönlich zu werden. Es sollte nur für die Leistungsaufnahme keine wesentliche Rolle spielen, da man die selben Einheiten verwendet. Eine 7970 und jede andere Karte ohne dezidierte Einheiten taktet schließlich auch nicht herunter für DP-Berechungen. Aber werden wir eh bald sehen, selbst wenn es nur 800Mhz sind wäre das eine ziemliche Effizienzexplosion.

Ich wurde nirgendwo persönlich, behaupte nicht so einen Unsinn. Tahiti kann kein 1:2, daher hinkt der Vergleich. Siehe Skysnakes Beitrag vorher.

Knacki99
2013-10-04, 10:40:46
Das hatten wir doch schon
Entging meiner Aufmerksamkeit.

Dural
2013-10-04, 10:46:48
Verstehe die Aufregen um diesen Chip nicht, er wird wohl mit GK110 gleichziehen das war es aber auch schon.

Die Interessante Frage ist doch, wo die 20nm GPUs bleiben. Jetzt noch eine 28nm GPU zu kaufen halte ich so wie so für einen Fehler :rolleyes:

Gipsel
2013-10-04, 10:59:13
Die 1:2 DP:SP bei Add überrascht mich aber auf jeden Fall. Das war mir so bisher überhaupt nicht bekannt, oder ich habs einfach schlichtweg wieder vergessen gehabt...Letzteres. ADDs waren bei AMD schon immer 1:2, d.h. solange die überhaupt DP konnten (seit dem seligen RV670).
Ich habs in einem anderen, oder wars diesem Thread (?) hier schon gepostet, aber ich wiederhol es mal:

Addiere/Subtrahieren:
-SP:23x23 Add
-DP:52x52 Add
<-Wie man sieht reicht hier ein zweifacher Loop nicht aus.

Multiplizieren:
-SP: 23x23 Mul & 8x8 Add
-DP: 52x52 Mul & 11x11 Add
<-Auch hier reicht ein zweifacher Loop nicht aus. Also zumindest für den Mul. Der Addierer schafft das an dieser Stelle.
Dazu sollte man sagen, daß Addierer erstmal linear mit der Bitanzahl skalieren (man muß nur zu Tricks greifen, damit er nicht langsamer wird), Multiplier aber prinzipiell mit dem Produkt der Größen der Mantissen. Das wurde ja schon ein paar mal erwähnt. Für 1:4 per Looping verbreitert man die Multiplier auf 27x27, für 1:2 auf 53x27. Für 1:2 bei ADDs per Looping reichen 27bit Adder für die Mantisse, deswegen sind die 1:2 bei ADDs beinahe umsonst.

Gipsel
2013-10-04, 11:05:26
Ja, das wird normal so gemacht. Dann hat man halt einen oberen und einen unteren Teil und gut ist. Man könnte, sofern man will, das sogar auf 8Bit Blöcke aufteilen, um Chars zu unterstützen auf Registerebene. Das ist bei GPUs aber eher ziemlich unwichtig, weshalb ich das nicht erwarten würde. Den Aufwand kann man sich sicherlich sparen ohne das jemand anfängt zu heulen. 32/64 Bit Unterteilung in den Registern gibt es aber sicherlich. 32 Bit musst du ja eh unterstützen und 64Bit ist dann einfach nur die Koppelung von zwei Registern. Das geht ohne Probleme. Da braucht man wohl so gut wie keine Hardware. Man kann sich da ja ein festes Mapping ausdenken, wie z.B. DP dürfen nur in ungeraden Registern anfangen ausdenken.GCN fetcht bei DP-Anweisungen immer zwei benachbarte 32Bit-Regs, in denen dann der 64Bit-Wert steht. Eine Bedingung, daß DP-Werte immer in geraden Registern anfangen müssen oder so, existiert nicht. Es geht also sowohl [v3,v4] als DP-Wert zu nehmen (in der Anweisung wird nur v3 angegeben, v4 ist implizit; "v" markiert die Vektorregister, die Zahl ist schlicht die Registernummer) als auch [v4,v5] (dann ist v4 in der Anweisung als Register angegeben). Die beiden Hälften müssen im RegFile nur direkt hintereinander stehen.

PCGH_Carsten
2013-10-04, 11:35:08
Die 1:2 DP:SP bei Add überrascht mich aber auf jeden Fall. Das war mir so bisher überhaupt nicht bekannt, oder ich habs einfach schlichtweg wieder vergessen gehabt...
tststs...

Und bzgl nVidia und dedizierte Einheiten: Mehr als die Aussage von nem PR-Menschen gibt es dazu nicht... Und damit bleibt das sehr fragwürdig.
Seit wann ist der/sind die Architecture-Leads PR-Menschen?

Nakai
2013-10-04, 12:35:14
@Skysnake:
Ich habs in einem anderen, oder wars diesem Thread (?) hier schon gepostet, aber ich wiederhol es mal:

Addiere/Subtrahieren:
-SP:23x23 Add
-DP:52x52 Add
<-Wie man sieht reicht hier ein zweifacher Loop nicht aus.

Multiplizieren:
-SP: 23x23 Mul & 8x8 Add
-DP: 52x52 Mul & 11x11 Add
<-Auch hier reicht ein zweifacher Loop nicht aus. Also zumindest für den Mul. Der Addierer schafft das an dieser Stelle.

Ich glaub es war in diesem Thread. :tongue:
Nur damit ich mal die Schreibweise raffe. Klar, bei ADD und MUL muss ich dementsprechend Mantisse oder Exponent betrachten. Bei ADD adde ich einfach die Mantissen miteinander(bei Float 23 und bei Double 52Bits; bei Overflow oder Underflow wird der Exponent inkremenentiert/dekrementiert).
Bei MUL ist es ja ähnlich, da muss ich Exponenten adden und die Mantissen multiplizieren(und dementsprechend Fälle berücksichtigen, für Underflow, Overflow und sonstigen numerischen Problemen).

Aber dann kommt Gipsel:
Für 1:4 per Looping verbreitert man die Multiplier auf 27x27, für 1:2 auf 53x27. Für 1:2 bei ADDs per Looping reichen 27bit Adder für die Mantisse, deswegen sind die 1:2 bei ADDs beinahe umsonst.

Warum jetzt auf 53x27 und nicht 53x53? Der Rest ist klar 2*27=54>53.
ADDs sind sowieso sehr billige Hardwareeinheiten. Viel Overhead wäre es ja nicht, wenn man die ADDs auf 32 hochlegen würde, dass man 32bit-Ints mit einem Pass ähnlich schnell durchjagen könnte.

€:
Seit wann ist der/sind die Architecture-Leads PR-Menschen?

Ja, da gabs ein Interview mit den Devs.

€2: @Gipsel:
Gnaaaahr...stimmt ich brauchs ja nur auf einer Seite, der Rest wäre Verschwendung...

Pick
2013-10-04, 13:12:26
Chip: Hawaii XT
• Rechenleistung: 4505GFLOPS (Single), 1126GFLOPS (Double)


http://cdn2.wccftech.com/wp-content/uploads/2013/09/AMD-Hawaii-5-Tflops-Compute-635x351.png

:confused::confused::confused:

y33H@
2013-10-04, 13:24:11
[...]Bei 800 MHz und 44 CUs kann das ja auch nichts werden. Es müssten dann 888+ MHz sein ... ich hörte 900 plus Boost.

Gipsel
2013-10-04, 13:54:17
ADDs sind sowieso sehr billige Hardwareeinheiten. Viel Overhead wäre es ja nicht, wenn man die ADDs auf 32 hochlegen würde, dass man 32bit-Ints mit einem Pass ähnlich schnell durchjagen könnte.Kann man auch. AMDs und nVs GPUs können beide 32Bit integer Adds mit voller Rate (bei Kepler haben die einen kleinen Latency Hit, der den Durchsatz wegen des statischen Scheduling auf 10/12 oder 83% vermindert).

Nakai
2013-10-04, 14:07:45
Kann man auch. AMDs konnten schon immer 32Bit ADDs mit voller Geschwindigkeit, nV seit Kepler (mit einem kleinen Latency-Hit, vorher waren bei nV nur 24Bit Integer adds full rate, 32bit adds waren langsamer, ist auch mit ein Grund, warum die nVs bei Kryptosachen [rein Integer] so abgestunken haben).

Also AMDs VLIW-Architekturen konnten, afaik, nur 24bit Int-ADDs mit voller Geschwindigkeit. Wird ein 32Bit Int-ADD verwendet, mussten alle 4 Slots der VLIW-Einheit verwendet werden. Wie es bei GCN aussieht...kA.

Knuddelbearli
2013-10-04, 14:16:06
naja man hat aber halt trotzdem doppelt soviel platz dazu Taktraten bisschen senken und schon passt trotzdem,

5600 Shader GCN Grafikkarte mit statt 900mhz dann mit 800 mhz bei selben verbrauch wie 2880 so grob

Gipsel
2013-10-04, 14:49:56
Also AMDs VLIW-Architekturen konnten, afaik, nur 24bit Int-ADDs mit voller Geschwindigkeit. Wird ein 32Bit Int-ADD verwendet, mussten alle 4 Slots der VLIW-Einheit verwendet werden. Wie es bei GCN aussieht...kA.Nee, AMDs konnten schon immer volle 32Bit bei Additionen, und das auch in allen 5 VLIW-Slots (nVs übrigens auch, habe das noch korrigiert im Post). 32Bit Multiplikationen wären auf den .t Slot beschränkt und 24Bit Integer-Multiplikationen (die einfach den auch für Float32 MULs genutzten Multiplier benutzt haben) wurden dann mit Cypress offiziell verfügbar (full rate, genau wie die fp32muls). Aber 32Bit Integer-Adds liefen immer mit voller Geschwindigkeit in allen Slots.

Nakai
2013-10-04, 15:34:15
Nee, AMDs konnten schon immer volle 32Bit bei Additionen, und das auch in allen 5 VLIW-Slots (nVs übrigens auch, habe das noch korrigiert im Post). 32Bit Multiplikationen wären auf den .t Slot beschränkt und 24Bit Integer-Multiplikationen (die einfach den auch für Float32 MULs genutzten Multiplier benutzt haben) wurden dann mit Cypress offiziell verfügbar (full rate, genau wie die fp32muls). Aber 32Bit Integer-Adds liefen immer mit voller Geschwindigkeit in allen Slots.

Ja, du hast vollkommen recht.
http://forum.beyond3d.com/showthread.php?p=1483729#post1483729
Ich hatte mich ja eigentlich auf deinen Beitrag bezogen...aber falsch in Erinnerung.;D

Zu 20nm TSMC:
Ich erwarte mir nicht soviel davon. Der Prozess sollte vor allem Flächenvorteile mit sich bringen. Geschwindigkeitsvorteile und Stromeinsparungen sind nicht sonderlich hoch. Sieht eher nach breiteren Designs mit kaum oder sogar niedrigeren Taktraten aus.

mboeller
2013-10-04, 16:03:16
naja man hat aber halt trotzdem doppelt soviel platz dazu Taktraten bisschen senken und schon passt trotzdem,

5600 Shader GCN Grafikkarte mit statt 900mhz dann mit 800 mhz bei selben verbrauch wie 2880 so grob


ich glaub das stimmt nicht. Ich lese die Folie so, dass man bei gleichem Power-Budget nur 30% mehr Shader unterbringen könnte. 1 Transistor scheint ja 30% weniger "Saft" zu brauchen gegenüber 28HPM (bei gleichem Takt).

Knuddelbearli
2013-10-04, 16:03:44
könnt ihr die DP Diskussion bitte in einen GCN GPGPU Technikthread verschieben / fortführen?

Knuddelbearli
2013-10-04, 16:05:56
ich glaub das stimmt nicht. Ich lese die Folie so, dass man bei gleichem Power-Budget nur 30% mehr Shader unterbringen könnte. 1 Transistor scheint ja 30% weniger "Saft" zu brauchen gegenüber 28HPM (bei gleichem Takt).

ja und nein deshalb sagte ich ja auch Takt senken

ein einfacher shrink braucht 30% weniger saft oder man kann ihn eben 15% schneller takten.
Von der Fläche geht sich wie immer aber beinahe eine Verdoppelung aus. also verbaut man doppelt soviele Einheiten und senkt einfach den Takt damit man auch die Spannung noch weiter senken kann

Skysnake
2013-10-04, 16:47:58
tststs...


Seit wann ist der/sind die Architecture-Leads PR-Menschen?
@Skysnake:


Ich glaub es war in diesem Thread. :tongue:
Nur damit ich mal die Schreibweise raffe. Klar, bei ADD und MUL muss ich dementsprechend Mantisse oder Exponent betrachten. Bei ADD adde ich einfach die Mantissen miteinander(bei Float 23 und bei Double 52Bits; bei Overflow oder Underflow wird der Exponent inkremenentiert/dekrementiert).
Bei MUL ist es ja ähnlich, da muss ich Exponenten adden und die Mantissen multiplizieren(und dementsprechend Fälle berücksichtigen, für Underflow, Overflow und sonstigen numerischen Problemen).

Ja, das ist das was man natürlich immer berücksichtigen muss. Deswegen werden ja längere Addierer auch immer schwieriger schnell genug zu bauen. Man muss halt im Zweifel einmal komplett den Overflow durchreichen.



Aber dann kommt Gipsel:


Warum jetzt auf 53x27 und nicht 53x53? Der Rest ist klar 2*27=54>53.
ADDs sind sowieso sehr billige Hardwareeinheiten. Viel Overhead wäre es ja nicht, wenn man die ADDs auf 32 hochlegen würde, dass man 32bit-Ints mit einem Pass ähnlich schnell durchjagen könnte.

Versteh ich jetzt auch NULL! Gipsel, klär mal bitte auf. Also sowohl die 53 Bit, als auch die asymmetrische Aufteilung :ugly: Das geht ja nicht. Das sind ja nur die breiten der beiden Operanten, und man will ja zwei DP-Floats miteinander multiplizieren und nichts anderes.


Ja, da gabs ein Interview mit den Devs.

Eins wo wirklich ne klare Aussage da war? Ich kenn wie gesagt nur WischiWaschi-Aussagen von echten Devs.

Umso besser. Dann wäre der Aufschlag für 20nm noch geringer pro Chip.

What :ugly:
Wenn Chips dank gereiftem Prozess billiger werden, ist das im Vergleich zu nem neuen Prozess, bei dem die Kosten gleich bleiben besser :ugly: Das erklärste aber mal bitte :ugly:

Gipsel
2013-10-04, 17:08:17
Versteh ich jetzt auch NULL! Gipsel, klär mal bitte auf. Also sowohl die 53 Bit, als auch die asymmetrische Aufteilung :ugly: Das geht ja nicht. Das sind ja nur die breiten der beiden Operanten, und man will ja zwei DP-Floats miteinander multiplizieren und nichts anderes.Die Mantisse ist effektiv 53Bit lang, auch wenn nur 52 gespeichert werden (1 Bit ist implizit), außerdem gibt es wohl sowieso noch ein oder zwei guard-bits. Aber das ist ja auch egal. Warum 53x27 reichen? Na ist doch einfach: im ersten Loop multipliziert man einen kompletten Operanden mit den low order bits des anderen, im zweiten dann mit den high order Bits und aus der Summe (man benötigt also einen Adder danach, der die beiden zueinander verschobenen Teilprodukte zusammenaddiert, aber der ist ja sowieso da wegen FMA) ergibt sich dann das Gesamtprodukt. Funktioniert genau wie bei der schriftlichen Multiplikation.

53*21 = 106 (53*2)
+ 53 (53*1)
=1113
Und das läßt sich auch noch beliebig kleiner unterteilen (okay, im dezimalen benötigt man dazu mehr Ziffern, aber rein prinzipiell). Also asymmetrische Multiplier sind vollkommen üblich. Mit kleineren 27x27 Multipliern benötigt man dann 4 Durchläufe (aber kommt in dem dezimalen Beispiel oben mit dem kleinen 1x1 aus).

Skysnake
2013-10-04, 17:16:13
Ah ja jetzt. Klar, wenn man teilsummen bildet ist das natürlich kein Ding. Dann braucht man aber halt, wie du schon richtig sagst eben nen FMA für den letzten Durchlauf, sonst ist man bei 3 Takten und nicht bei zwei.

Sorry, soweit hab ich jetzt nicht gedacht ;D

Ailuros
2013-10-04, 17:33:28
So Herrschafften fuer 28HPM/20nm/16nm finfet TSMC geht es hier weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=546540&page=3

Die DP Debatte ist zumindest IMHO nicht OT von dem was ich sehen kann. Es ist ein wichtiger Bestandteil von Hawaii egal ob der durchschnittliche Verbraucher nichts damit anfangen kann. In einem techno-Forum wird es auch solche Abzweigungen der Debatte geben und es ist Bestandteil des chips.

Nakai
2013-10-04, 18:48:36
Eins wo wirklich ne klare Aussage da war? Ich kenn wie gesagt nur WischiWaschi-Aussagen von echten Devs.


http://www.heise.de/newsticker/meldung/GTC-2012-Die-GK110-Schoepfer-ueber-Performance-und-zukuenftige-Herausforderungen-1578605.html

c't: Setzt Nvidia bei GK110 auf dedizierte Double-Precision-Einheiten oder arbeiten dafür mehrere Single-Precision-Kerne zusammen?

Danksin: Es gibt eigenständige Double-Precision-Einheiten.

Keine Ahnung, was die beiden Herren genau gemacht haben, aber es sind wohl tatsächliche Hardware-Devs.

€: Es ist auch gut so, dass NV die DP-Einheiten nicht für SP verwendet. Einerseits müssten die Werte in DP-Registern transportiert werden und andererseits wären die Operation, wenn es eine dynamischen Konversion von SP->DP->Exec->DP->SP gibt, für IEEE754-Compliance nachteilig. Für Spiele wäre das eh weniger relevant, für HPC, wenn die Ergebnisse eine maximale ULP-Toleranz haben müssten, nachteilig. Solche Rundungsproblematiken hatten wir schon bei der X87-FPU.

Ailuros
2013-10-04, 19:28:53
€: Es ist auch gut so, dass NV die DP-Einheiten nicht für SP verwendet. Einerseits müssten die Werte in DP-Registern transportiert werden und andererseits wären die Operation, wenn es eine dynamischen Konversion von SP->DP->Exec->DP->SP gibt, für IEEE754-Compliance nachteilig. Für Spiele wäre das eh weniger relevant, für HPC, wenn die Ergebnisse eine maximale ULP-Toleranz haben müssten, nachteilig. Solche Rundungsproblematiken hatten wir schon bei der X87-FPU.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9946140&postcount=557

:P

Gipsel
2013-10-04, 19:57:58
€: Es ist auch gut so, dass NV die DP-Einheiten nicht für SP verwendet. Einerseits müssten die Werte in DP-Registern transportiert werden und andererseits wären die Operation, wenn es eine dynamischen Konversion von SP->DP->Exec->DP->SP gibt, für IEEE754-Compliance nachteilig. Für Spiele wäre das eh weniger relevant, für HPC, wenn die Ergebnisse eine maximale ULP-Toleranz haben müssten, nachteilig. Solche Rundungsproblematiken hatten wir schon bei der X87-FPU.
Das ist doch überhaupt kein Problem. Die Register wissen nicht, was in ihnen steht. Ob jetzt zwei benachbarte Register zusammen einen DP-Wert halten oder nicht, ist dem Registerfile vollkommen egal. Die Interpretation der Werte macht die ALU je nach Befehl, der das Register adressiert. Das funktioniert bei GCN so, das funktioniert bei allen SIMD-Erweiterungen bei x86 so, das ist ziemlich universell.

Nakai
2013-10-04, 20:28:22
Das ist doch überhaupt kein Problem. Die Register wissen nicht, was in ihnen steht. Ob jetzt zwei benachbarte Register zusammen einen DP-Wert halten oder nicht, ist dem Registerfile vollkommen egal. Die Interpretation der Werte macht die ALU je nach Befehl, der das Register adressiert. Das funktioniert bei GCN so, das funktioniert bei allen SIMD-Erweiterungen bei x86 so, das ist ziemlich universell.

Ich hab keine Ahnung, wie NV das mit der Registerfile löst. Sicherlich wäre es am einfachsten, wenn es wie bei AMD gelöst ist.
Falls sie dedizierte DP-Einheiten haben, könnten sie auch dedizierte DP-Register haben. Das ist zwar irre unwahrscheinlich, aber da habe ich keine Ahnung.

Bei der X87-FPU wird alles auf einen internen Stack geschmissen(Push, Pop), welche je nach Einstellungen die Werte dynamisch ins interne Format konvertiert(32, 64, 80Bit). Kurz, wird die FPU auf 80bit-Modus eingestellt, wird ein jeglicher 32Bit-Float in ein 80Bit-Float konvertiert. Wird dann berechnet und zurückgepopt, wird der Wert aufs Ausgangsformat zurückkonvertiert. Das wird dann je nach Rundungs-Modus gerundet. Klar, dass man die X87-FPU nicht mehr einsetzt, die war ja als externer Co-Prozessor konzipiert. SSE ist da viel besser.

Gipsel
2013-10-04, 20:52:34
Ich hab keine Ahnung, wie NV das mit der Registerfile löst. Sicherlich wäre es am einfachsten, wenn es wie bei AMD gelöst ist.
Falls sie dedizierte DP-Einheiten haben, könnten sie auch dedizierte DP-Register haben. Das ist zwar irre unwahrscheinlich, aber da habe ich keine Ahnung.

Bei der X87-FPU wird alles auf einen internen Stack geschmissen(Push, Pop), welche je nach Einstellungen die Werte dynamisch ins interne Format konvertiert(32, 64, 80Bit). Kurz, wird die FPU auf 80bit-Modus eingestellt, wird ein jeglicher 32Bit-Float in ein 80Bit-Float konvertiert. Wird dann berechnet und zurückgepopt, wird der Wert aufs Ausgangsformat zurückkonvertiert. Das wird dann je nach Rundungs-Modus gerundet. Klar, dass man die X87-FPU nicht mehr einsetzt, die war ja als externer Co-Prozessor konzipiert. SSE ist da viel besser.
x87 ist so legacy, das kann man für die Vektorrechner der GPUs nicht wirklich als Beispiel nehmen. Aber in GPU-Code kann man haben alle Register immer schön 32bit und zwei davon zusammenhalten dann einen 64Bit-Wert. Das ist schlicht das einfachste. Auch bei SSE/AVX sind die Register immer gleich groß und es sitzen nur unterschiedlich viele Werte darin, je nachdem ob es SP oder DP ist (was auf GPUs nicht geht, weil die anders [praktisch "um 90°gedreht", wenn man sich die einzelnen Einträge der Vektoregister untereinander schreibt] adressiert werden). Als was die Werte interpretiert werden, entscheidet die Anweisung. Man kann also bei SSE irgendwelche SP-Werte in den Registern berechnen und dann mit den Werten im Register als DP-Werte weiterrechnen. Da kommt dann bloß in den allermeisten Fällen vollkommener Schrott (also nichts Sinnvolles) raus, da durch das Hintereinanderhängen zweier SP-Werte kaum ein bedeutungsvoller DP-Wert entsteht. Trotzdem kann sowas sehr selten als absolute low-level-Optimierung hilfreich sein.

StefanV
2013-10-04, 21:17:51
Bei der X87-FPU wird alles auf einen internen Stack geschmissen(Push, Pop), welche je nach Einstellungen die Werte dynamisch ins interne Format konvertiert(32, 64, 80Bit). Kurz, wird die FPU auf 80bit-Modus eingestellt, wird ein jeglicher 32Bit-Float in ein 80Bit-Float konvertiert. Wird dann berechnet und zurückgepopt, wird der Wert aufs Ausgangsformat zurückkonvertiert. Das wird dann je nach Rundungs-Modus gerundet. Klar, dass man die X87-FPU nicht mehr einsetzt, die war ja als externer Co-Prozessor konzipiert. SSE ist da viel besser.
Du machst den Fehler von 32bit auszugehen.
Geh mal von 16 bit aus, dann kommst easy auf 80bit, das sind nämlich 5 Register, eines mehr als bei 64bit...

Und das ist ja auch das Problem bei X86: Einige Dinge, die dort drin sind, sind 30 Jahre alt. Und damals haben einige Entscheidungen auch durchaus Sinn gemacht. Wie eben hier auf 80bit zu gehen und nicht auf 96 oder gar 128bit. Nur schauen einige Entscheidungen, die dann, als man sie traf, durchaus sinnvoll waren, im Nachhinein nicht mehr sonderlich toll aus...

Ganz nebenbei ist die x87 FPU auch eines der Dinge, die man im aktuellen Befehlssatz (AMD64) einfach mal quasi entsorgt hat, im 64bit Modus kann man (bzw sollte man) keinen x87 code ausführen...

Gipsel
2013-10-04, 21:35:40
Ganz nebenbei ist die x87 FPU auch eines der Dinge, die man im aktuellen Befehlssatz (AMD64) einfach mal quasi entsorgt hat, im 64bit Modus kann man (bzw sollte man) keinen x87 code ausführen...Funktionieren tut es natürlich trotzdem. :wink:

Nakai
2013-10-04, 21:58:08
Funktionieren tut es natürlich trotzdem. :wink:

Jap. ;)

Unter Linux 64bit gehts natürlich nicht mehr. Da ist man etwas konsequenter vorgegangen. Unter Visual Studio wird auch automatisch immer noch X87-FPU-Code verwendet, wenn man es nicht explizit so einstellt. Zum Glück optimiert der VC++-Compiler nicht so hart, wie der GCC. Da kann man ziemliche gleiche Ergebnisse bekommen, selbst zwischen X87 und SSE. Unter Linux gibts dann schon härtere numerische Unterschiede(GCC, O3).

AFAIR kann man mit Inline-Assembler(GCC) die interne Präzision der SSE und X87-FPU einstellen. Selbst bei SSE-Ausführung(sieht man ja am Dissasembly) gibts je nach Controlregistereinstellung(32bit, 64bit) auch numerische Unterschiede. Müsst ich nomal nachprüfen...
€: Könnte auch daran liegen, dass die X87-FPU-Funktionalitäten in die SSE-Einheit eingebaut wurden, aber wieder nur Mutmaßungen.

@StefanV:
Du machst den Fehler von 32bit auszugehen.
Geh mal von 16 bit aus, dann kommst easy auf 80bit, das sind nämlich 5 Register, eines mehr als bei 64bit...

Und das ist ja auch das Problem bei X86: Einige Dinge, die dort drin sind, sind 30 Jahre alt. Und damals haben einige Entscheidungen auch durchaus Sinn gemacht. Wie eben hier auf 80bit zu gehen und nicht auf 96 oder gar 128bit. Nur schauen einige Entscheidungen, die dann, als man sie traf, durchaus sinnvoll waren, im Nachhinein nicht mehr sonderlich toll aus...

Cool, das hab ich nicht gewusst.^^

Gipsel
2013-10-04, 22:24:17
Jap. ;)

Unter Linux 64bit gehts natürlich nicht mehr. Da ist man etwas konsequenter vorgegangen.Das geht noch überall. Nur muß man sich eventuell drauf einstellen, daß die x87er-Register bei einem Taskwechsel nicht gesichert werden. :freak:
Unter Visual Studio wird auch automatisch immer noch X87-FPU-Code verwendet, wenn man es nicht explizit so einstellt.Das kann ich kaum glauben. Mit x64-Target erzeugt er standardmäßig skalaren SSE-Code.
Zum Glück optimiert der VC++-Compiler nicht so hart, wie der GCC. Da kann man ziemliche gleiche Ergebnisse bekommen, selbst zwischen X87 und SSE. Unter Linux gibts dann schon härtere numerische Unterschiede(GCC, O3).Na mit O3 ist wahrscheinlich FTZ aktiviert und er führt auch unsichere numerische Optimierungen durch (wo nicht garantiert ist, daß das gleiche rauskommt, er setzt praktisch die Klammern anders). Keine Ahnung von GCC, aber schau mal ob du auch getrennte Optionen zu FTZ (flush to zero) und -fastmath bzw. -fp:fast oder wie auch immer die bei GCC heißen, findest.
AFAIR kann man mit Inline-Assembler(GCC) die interne Präzision der SSE und X87-FPU einstellen. Selbst bei SSE-Ausführung(sieht man ja am Dissasembly) gibts je nach Controlregistereinstellung(32bit, 64bit) auch numerische Unterschiede. Müsst ich nomal nachprüfen...Mach mal. Eigentlich sollten x87 und SSE getrennte Controlwörter haben, wenn ich mich jetzt nicht irre. Und man benötigt normalerweise auch kein Inline-Assembler, um das zu setzen. Zumindest bei VisualC gibt's dafür eine Funktion in der Runtime-Library (die haben ja sogar inline assembler Support für 64bit Targets rausgekickt :mad:). Aber wie gesagt, keine Ahnung mit GCC.

mczak
2013-10-04, 23:03:29
Na mit O3 ist wahrscheinlich FTZ aktiviert und er führt auch unsichere numerische Optimierungen durch (wo nicht garantiert ist, daß das gleiche rauskommt, er setzt praktisch die Klammern anders).

Das wäre mir neu. Alle die unsafe-math Optionen sind separat und nicht in normalen Optimierungsleveln enthalten.

Mach mal. Eigentlich sollten x87 und SSE getrennte Controlwörter haben, wenn ich mich jetzt nicht irre. Und man benötigt normalerweise auch kein Inline-Assembler, um das zu setzen. Zumindest bei VisualC gibt's dafür eine Funktion in der Runtime-Library (die haben ja sogar inline assembler Support für 64bit Targets rausgekickt :mad:). Aber wie gesagt, keine Ahnung mit GCC.
Das ist ein Riesenärgernis (imho) denn das funktioniert überall völlig anders, extrem schwierig sowas zu programmieren dass es auf verschiedenen OS mit verschiedenen Compilern läuft, auch wenn es letztlich bloss immer derselbe CPU-Befehl ist. Kommt noch dazu dass die saubere Erkennung ob nicht bloss FTZ sondern noch DAZ unterstützt wird NOCH komplizierter ist. Also ich rede jetzt von Runtime-Code um das zu erkennen. Das geht nur über speichern des FP-Stacks da kannst du dann nachschauen ob da das passende Bit gesetzt ist. Versuchst du es einfach so zu setzen und es wird nicht unterstützt kriegst du prompt eine Exception (betrifft allerdings bloss eine frühe Revision des P4 Willamette, sonst unterstützen das wohl sämtliche sse2-fähige CPUs). Und speichern des FP-Stacks geht z.B. mit msvc erst mit VC 2012... GCC unterstützt das wohl nicht direkt, aber der Einzeiler inline-asm funktioniert dafür auch mit uralt-Versionen.

Nakai
2013-10-04, 23:06:04
Das geht noch überall. Nur muß man sich eventuell drauf einstellen, daß die x87er-Register bei einem Taskwechsel nicht gesichert werden. :freak:


Ich hab selber weniger Linux/GCC-Erfahrung, wie ich eigentlich haben sollte.

Das kann ich kaum glauben. Mit x64-Target erzeugt er standardmäßig skalaren SSE-Code.

Ja, du hast recht. Sieht so aus, dass eine Win32-Anwendung generiert wird.;)
Windows 7 Prof 64bit.
IDE ist VS Ulitmate 32bit mit VS C++ Compiler.
Auf X64 umstellen...

Na mit O3 ist wahrscheinlich FTZ aktiviert und er führt auch unsichere numerische Optimierungen durch (wo nicht garantiert ist, daß das gleiche rauskommt, er setzt praktisch die Klammern anders). Keine Ahnung von GCC, aber schau mal ob du auch getrennte Optionen zu FTZ (flush to zero) und -fastmath bzw. -fp:fast oder wie auch immer die bei GCC heißen, findest.

Danke schön. Werd ich mir auf jeden Fall mal angucken.

Mach mal. Eigentlich sollten x87 und SSE getrennte Controlwörter haben, wenn ich mich jetzt nicht irre. Und man benötigt normalerweise auch kein Inline-Assembler, um das zu setzen. Zumindest bei VisualC gibt's dafür eine Funktion in der Runtime-Library (die haben ja sogar inline assembler Support für 64bit Targets rausgekickt ). Aber wie gesagt, keine Ahnung mit GCC.

Soweit ich weiß, wird unter VS das Controlregister noch anders maskiert. Zugriff aufs direkte Controlregister hat man nicht.
Guckt dir mal im VC-Verzeichnis die float.h an.

http://msdn.microsoft.com/de-de/library/e9b52ceh(v=vs.100).aspx

€:

Das ist ein Riesenärgernis (imho) denn das funktioniert überall völlig anders, extrem schwierig sowas zu programmieren dass es auf verschiedenen OS mit verschiedenen Compilern läuft, auch wenn es letztlich bloss immer derselbe CPU-Befehl ist. Kommt noch dazu dass die saubere Erkennung ob nicht bloss FTZ sondern noch DAZ unterstützt wird NOCH komplizierter ist. Also ich rede jetzt von Runtime-Code um das zu erkennen. Das geht nur über speichern des FP-Stacks da kannst du dann nachschauen ob da das passende Bit gesetzt ist. Versuchst du es einfach so zu setzen und es wird nicht unterstützt kriegst du prompt eine Exception (betrifft allerdings bloss eine frühe Revision des P4 Willamette, sonst unterstützen das wohl sämtliche sse2-fähige CPUs). Und speichern des FP-Stacks geht z.B. mit msvc erst mit VC 2012... GCC unterstützt das wohl nicht direkt, aber der Einzeiler inline-asm funktioniert dafür auch mit uralt-Versionen.

Kann ich empfeheln. Ist schon etwas alt.
http://christian-seiler.de/projekte/fpmath/

€: Können wir das mal auslagern? In einen extra Thread?

Skysnake
2013-10-04, 23:27:39
http://www.heise.de/newsticker/meldung/GTC-2012-Die-GK110-Schoepfer-ueber-Performance-und-zukuenftige-Herausforderungen-1578605.html



Keine Ahnung, was die beiden Herren genau gemacht haben, aber es sind wohl tatsächliche Hardware-Devs.

Ja, das Interview kenn ich sogar. Das ist aber mal wieder ne Nullaussage. Natürlich haben Sie eigenständige DP-Einheiten. DP braucht ja mehr als SP.... Genau das ist eigentlich der Punkt, an dem man Nachhacken müsste, wurde aber leider nicht gemacht.

Was ist denn "eigenständig"? Und warum hat er nicht explizit "dediziert" gesagt? Das sind halt genau so Formulierungen, bei denen man hellhörig werden sollte. Das schreit nach einem "Ja aber, wenn man jetzt genau hinschaut dann: ..."


€: Es ist auch gut so, dass NV die DP-Einheiten nicht für SP verwendet. Einerseits müssten die Werte in DP-Registern transportiert werden und andererseits wären die Operation, wenn es eine dynamischen Konversion von SP->DP->Exec->DP->SP gibt, für IEEE754-Compliance nachteilig. Für Spiele wäre das eh weniger relevant, für HPC, wenn die Ergebnisse eine maximale ULP-Toleranz haben müssten, nachteilig. Solche Rundungsproblematiken hatten wir schon bei der X87-FPU.
Dazu hat Gipsel ja alles gesagt ;)

Das wäre mir neu. Alle die unsafe-math Optionen sind separat und nicht in normalen Optimierungsleveln enthalten.

Absolut /sign!

O3 führt bei Single-Thread zu keinen anderen Ergebnissen als bei O0 oder sonst was. Erst wenn man --fastmath verwendet, dann kann bzw wird leicht etwas anderes rauskommen.

Wo man aufpassen muss mit O3 ist Multithread. Da kann es passieren, das Dinge so umsortiert werden, das bullshit raus kommt. Nen volatile usw hilft da aber schon um einfach die Reihenfolge der Befehle zu gewährleisten.


Das ist ein Riesenärgernis (imho) denn das funktioniert überall völlig anders, extrem schwierig sowas zu programmieren dass es auf verschiedenen OS mit verschiedenen Compilern läuft, auch wenn es letztlich bloss immer derselbe CPU-Befehl ist. Kommt noch dazu dass die saubere Erkennung ob nicht bloss FTZ sondern noch DAZ unterstützt wird NOCH komplizierter ist. Also ich rede jetzt von Runtime-Code um das zu erkennen. Das geht nur über speichern des FP-Stacks da kannst du dann nachschauen ob da das passende Bit gesetzt ist. Versuchst du es einfach so zu setzen und es wird nicht unterstützt kriegst du prompt eine Exception (betrifft allerdings bloss eine frühe Revision des P4 Willamette, sonst unterstützen das wohl sämtliche sse2-fähige CPUs). Und speichern des FP-Stacks geht z.B. mit msvc erst mit VC 2012... GCC unterstützt das wohl nicht direkt, aber der Einzeiler inline-asm funktioniert dafür auch mit uralt-Versionen.
Pah, versuch mal Programme die Autotools verwenden auf MIC zu portieren :freak:

DA gibts ganz "lustige" Sachen... Das artet teilweise zum reinsten "Glückspiel" aus, wenn du dazu noch in die tiefen der Kernel-Sourcen absteigen musst, und dir die drölfmillionen unterschiedlichen Versionen ein und derselben Funktion anschauen darfst auf den unterschiedlichen Architekturen, und keine Ahnung hast, was jetzt genau für MIC verwendet wird....

HTB|Bladerunner
2013-10-04, 23:52:35
http://cdn2.wccftech.com/wp-content/uploads/2013/09/AMD-Hawaii-5-Tflops-Compute-635x351.png

:confused::confused::confused:

Der Abbildung nach zu urteilen, müsste doch eigentlich die komplette R9 290er Serie über den 5 Tflops liegen und nicht nur die R9 290x. Demzufolge sollte sich die 290x wesentlich näher an der 6 Tflops-Marke befinden.

Wurde das in euren Berechnungen schon berücksichtigt? :D

Gipsel
2013-10-05, 00:08:34
Der Abbildung nach zu urteilen, müsste doch eigentlich die komplette R9 290er Serie über den 5 Tflops liegen und nicht nur die R9 290x. Demzufolge sollte sich die 290x wesentlich näher an der 6 Tflops-Marke befinden.

Wurde das in euren Berechnungen schon berücksichtigt? :D
2560 ALUs @ 1GHz wären 5,12 GFlop/s
2816 ALUs @ 1GHz wären 5,63 GFlop/s

Vielleicht sehen wir ja auch etwas wie damals bei den HD4800ern. Da wurde vom RV770 >1 TFlop/s gesagt und dann hatte die HD4850 schon 1 TFlop/s und die HD4870 1,2 TFlop/s. =)
;)

===========================
Edit:
Das wäre mir neu. Alle die unsafe-math Optionen sind separat und nicht in normalen Optimierungsleveln enthalten.Gerade mal nachgesehen, bis -O3 stimmt das, nur bei -Ofast ist es mit drin.
€: Können wir das mal auslagern? In einen extra Thread?
Sind wir jetzt damit nicht durch?

Skysnake
2013-10-05, 00:32:55
;)
Edit:
Gerade mal nachgesehen, bis -O3 stimmt das, nur bei -Ofast ist es mit drin.

Das nutzt man auch nicht, es sei denn man weiß SEHR genau was man macht und hat SEHR gute Gründe :tongue:

Coda
2013-10-05, 00:44:42
GCC macht ja mit O3 schon ganz schön übles Zeug (wenn auch alles standardkonform).

Beispielsweise ist es super aggressiv bei undefined behaviour und optimiert dann Code einfach sofort komplett weg, ist schließlich undefined. Das unterschiedliche Pointer nicht auf die selben Daten aliasen nimmt er auch an.

Da gab's teilweise schon ziemliche Kritik, weil es Zeug wegoptimiert, was sicherheitsrelevant war.

HTB|Bladerunner
2013-10-05, 00:45:16
;)
...
Ahh ok, die Seite habe ich wohl übersprungen.

Dann weitermachen... ;)

Skysnake
2013-10-05, 02:12:19
GCC macht ja mit O3 schon ganz schön übles Zeug (wenn auch alles standardkonform).

Beispielsweise ist es super aggressiv bei undefined behaviour und optimiert dann Code einfach sofort komplett weg, ist schließlich undefined. Das unterschiedliche Pointer nicht auf die selben Daten aliasen nimmt er auch an.

Ja die Optimierungen sind schon teilweise sehr "nett" ;D


Da gab's teilweise schon ziemliche Kritik, weil es Zeug wegoptimiert, was sicherheitsrelevant war.
Hab ich jetzt noch nicht von gehört. Bei Single-Thread Zeug mach ich mir da eigentlich keinen Kopf. Nur bei Multithread muss man teils aufpassen wie ein Schieshund. Im Prinzip weiß man ja aber, wo die kritischen Punkte sind und schaut sich die halt nochmal genau an.

R.I.P.
2013-10-05, 08:02:12
Jungs, ich bin auch wirklich neidisch, wenn man mit so viel Wissen umherwirft und die Aussenstehenden nur so dahingerafft werden. Ich könnte natürlich auch seitenlang über biochemische Vorgänge und genetische Manipulationen oder über meine letzte Publikation sprechen, aber das wäre genauso OT, wie Euer Geschwafel hier. Ich möchte mich ungern durch Seiten wühlen, um handfeste Infos über Hawaii zu entdecken. Könnt ihr das nicht über PN klären, oder im Technologie Bereich darüber diskutieren?

OBrian
2013-10-05, 11:21:52
Schau ins allererste Posting, da ist alles an Infos zusammengetragen. Alles auf den letzten soundsoviel Seiten ist recht informationsfrei, da hast Du nichts verpaßt. Es gab aber auch keine Infos, die man hätte hinschreiben können.

john carmack
2013-10-05, 13:20:31
:mad: immer noch nichts neues?

Zergra
2013-10-05, 13:25:44
:mad: immer noch nichts neues?
Sonst ist doch die ganze Spannung raus ;)

Matrix316
2013-10-05, 13:33:56
Gibt eigentlich nur drei Sachen die ich wissen will:

Wann kommts raus?
Wie viel schneller als Titan?
Wie ist der Preis?
:D

Zergra
2013-10-05, 14:02:12
Gibt eigentlich nur drei Sachen die ich wissen will:

Wann kommts raus?
Wie viel schneller als Titan?
Wie ist der Preis?
:D
15 Oktober oder ?
nicht Spürbar :D
599$ ?

schreiber
2013-10-05, 14:12:15
Sind nicht 800 Dollar im Gespräch?! Dachte, das wäre in einem Shop im BF4-Bundle aufgetaucht?!

M4xw0lf
2013-10-05, 14:19:29
Das sind alles nur Platzhalterpreise.

john carmack
2013-10-05, 15:07:21
Sind nicht 800 Dollar im Gespräch?! Dachte, das wäre in einem Shop im BF4-Bundle aufgetaucht?!

Jetzt fang bitte nicht so an wie die Kinder im CB Forum :D

AMD hat selbst gesagt das die R9 290X weniger als 600$ kosten wird!

Nakai
2013-10-05, 16:30:22
Also wer am ersten Tag die Karte kauft, zahlt sowieso nen Deppenaufschlag.

Ahja...

http://videocardz.com/46367/asus-msi-sapphire-powercolor-gigabyte-r9-200-lineups-pictures

Können die oder dürfen die keine guten Bilder machen? Genauere Shots vom PCB, Spawas und Stromanschlüsse?

http://videocardz.com/45324/possible-specs-of-the-amd-volcanic-islands-hawaii-gpu

€: Sieht immer mehr danach aus, dass die ROPs näher in die CUs wandern.
2560SPs -> 40CUs -> 40ROPs

€2: Alt...

boxleitnerb
2013-10-05, 16:40:24
Guck mal auf das Datum...davon stimmt nichts.

OBrian
2013-10-05, 18:31:41
http://videocardz.com/46367/asus-msi-sapphire-powercolor-gigabyte-r9-200-lineups-pictures

Können die oder dürfen die keine guten Bilder machen? Genauere Shots vom PCB, Spawas und Stromanschlüsse? Wohl eher Absicht, daß man nichts sieht, die Specs sind ja auch geschwärzt. Nur bei einer Karte kann man 8+6 Stromanschlüsse erkennen, aber das ist wohl eh eine Tahiti-Karte, also uninteressant.

dlux
2013-10-05, 19:51:11
AMD hat scheinbar das virale Marketing entdeckt.

Ailuros
2013-10-05, 22:26:14
AMD hat scheinbar das virale Marketing entdeckt.

...und Du die Kunst von 27 Inhaltslosen Posts.