PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Volcanic Islands (VI) - Hawaii, Maui, Iceland, Tonga - 2013/2014


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

OBrian
2013-10-12, 23:32:29
Nur solange es kein Mantle gibt :biggrin:
Erwarte mal von Mantle nicht zuviel in nächster Zeit. Kann sein, daß BF4 damit ganz gut läuft, aber das ist wohl ein Showcase, aber bis das von einer halbwegs nennenswerten Anzahl Spiele unterstützt wird, wird noch einige Zeit ins Land gehen. Bis dahin sind wir sowieso ne Kartengeneration weiter.

Langfristig ist es sicher hochinteressant, ich würde keine Microsoft-Aktien mehr für einen 5-Jahres-Horizont oder länger kaufen. Aber so schnell geht das alles nicht.

M4xw0lf
2013-10-12, 23:32:33
Offiziell ja, inoffiziell ...
Weniger kryptische Andeutungen, mehr Fakten :tongue:

Duplex
2013-10-12, 23:35:06
Pauschalisierung ftw! Tahiti ist zb schneller als GK104 pro Takt. Hawaii gegen GK110 muss sich noch zeigen.
Dafür braucht Tahiti für ein Gleichstand mit GK104 ganze 1/3 mehr Einheiten, da sieht man wer das bessere Frontend hat!

OBrian
2013-10-12, 23:35:23
@Nakai: Richtig. AMD schafft jetzt erstmal eine breite Hardwarebasis und macht den Entwicklern ein Angebot, genau wie mit Mantle. Wer jetzt ein neues Spiel anfängt zu entwickeln, setzt da evtl. drauf, wird aber erst in 2 bis zig (*hust*der Duke*hust*) Jahren fertig sein.

M4xw0lf
2013-10-12, 23:36:19
Dafür braucht Tahiti für ein Gleichstand 1/3 mehr Einheiten als GK104, da sieht man wer das bessere Frontend hat!
Und? Du sprachst von der Geschwindigkeit pro Takt ;)

HarryHirsch
2013-10-12, 23:37:02
Ich dachte die haben bisher nur DICE auf ihrer Seite...
Mantle...das ist noch lange kein Standard.


Interessant ist, dass AMD erklärt hat, man habe mit mehreren Entwicklern zusammen an Mantle gearbeitet - bisher hat sich aber nur DICE öffentlich immer wieder zu Mantle bekannt. Laut dem Wirtschaftsmagazin Forbes liegt dies daran, dass AMD und DICE bzw. EA einen zeitlich beschränkten Exklusivvertrag für die PR rund um Mantle abgeschlossen haben. Im November dürfen sich dann weitere Entwickler offen zu Mantle bekennen.

quelle: http://www.hartware.de/news_58893.html

Duplex
2013-10-12, 23:37:17
Und? Du sprachst von der Geschwindigkeit pro Takt ;)
Ich bezog mich in dem Beitrag aber nicht auf Tahiti, sondern auf GK110 vs. Hawaii.
Bis Mantle bei den Entwickler Einzug gefunden hat gibt es bereits 16nm Karten von Nvidia!

-/\-CruNcher-/\-
2013-10-12, 23:40:05
Eher ganz EA...

Inklusive Crytek aber Crytek hat in den Anfangszeiten soviel Nvidia optimiert das kann man nicht so leicht rausoptimieren ;)

Und wenn es hart auf hart kommt dann zieht Nvidia Glide wieder aus der Schublade ;)

Aber das ist alles kindisch wir haben die Standards aber immernoch wird hier exclusiv scheisse gebaut das gibt es einfach nicht vor allem da sich die Nvidia und AMD architektur ja jetzt nochmer ähneln als vorher

M4xw0lf
2013-10-12, 23:40:57
Ich bezog mich in dem Beitrag aber nicht auf Tahiti, sondern auf Kepler vs. Hawaii.
Kepler gegen Hawaii ist wie Obst gegen Banane. :freak:

HarryHirsch
2013-10-12, 23:44:16
Ich bezog mich in dem Beitrag aber nicht auf Tahiti, sondern auf GK110 vs. Hawaii.
Bis Mantle bei den Entwickler Einzug gefunden hat gibt es bereits 16nm Karten von Nvidia!

Ja, und von ATI gibt es immer noch 28nm Kärtchen.:freak:

S940
2013-10-12, 23:44:41
Erwarte mal von Mantle nicht zuviel in nächster Zeit.
Weniger kryptische Andeutungen, mehr Fakten :tongue:
Schon klar ihr 2, ich wollte Duplex Wunschdenken nur mein Wunschdenken entgegensetzen ;D
Aber jetzt wirds langweilig ^^

M4xw0lf
2013-10-12, 23:46:15
Ich bin milde enttäuscht dass immer noch keine kompletten Reviews geleakt wurden.

S940
2013-10-12, 23:47:12
Inklusive Crytek aber Crytek hat in den Anfangszeiten soviel Nvidia optimiert das kann man nicht so leicht rausoptimieren ;)
Na mit Mantle muss man doch sowieso fast alles selber neu von Grund aufbauen, die NV-Optimierungen für DX11 wären im Mantle-Port deshalb nicht mehr existent.
Ich bin milde enttäuscht dass immer noch keine kompletten Reviews geleakt wurden.Die gabs doch aus Korea oder haben die sich als Fake herausgestellt?

Duplex
2013-10-12, 23:51:28
Schon klar ihr 2, ich wollte Duplex Wunschdenken nur mein Wunschdenken entgegensetzen ;D
Diese Umsetzung sollte nicht schwierig sein, der Vollausbau von GK110 "15 SMX" existiert bereits, im Profi Segment gibt es diesen Chip bereits, soweit ich weiß ist die Leistungsaufnahme bei 2880 Shader nicht höher als die 225W Modelle.

GTX785 > 2688 Shader / 950 Mhz Boost
GTX Ultra > 2880 Shader / 1050 MHz Boost

Man sollte beim Top Modell nur auf einen besseren Kühler setzen.

M4xw0lf
2013-10-12, 23:53:51
Die gabs doch aus Korea oder haben die sich als Fake herausgestellt?
Nicht dass ich wüsste. Aber die sind ja schon wieder so lange her, dass wohl weder Hardware noch Treiber schon final waren...

aufkrawall
2013-10-12, 23:55:27
Nicht dass ich wüsste.
Genau so wenig wie du weißt, ob die irgendeinen Bezug zur Realität hatten. ;)

M4xw0lf
2013-10-12, 23:57:57
Genau so wenig wie du weißt, ob die irgendeinen Bezug zur Realität hatten. ;)
Sag ich ja.

HarryHirsch
2013-10-12, 23:59:23
Diese Umsetzung sollte nicht schwierig sein, der Vollausbau von GK110 "15 SMX" existiert bereits, im Profi Segment gibt es diesen Chip bereits, soweit ich weiß ist die Leistungsaufnahme bei 2880 Shader nicht höher als die 225W Modelle.

Man sollte beim Top Modell nur auf einen besseren Kühler setzen.

Die kosten dann 2 Scheine oder was? Die grünen sparen sicher schon. :freak:

horn 12
2013-10-12, 23:59:41
http://www.shopblt.com/search/order_id=%2521ORDERID%2521&s_max=25&t_all=1&s_all=R9+290

Krasse Unterschiede mit bis zu 100 Dollar!
Da soll sich einer noch auskennen :-(

Zergra
2013-10-13, 00:18:41
http://www.shopblt.com/search/order_id=%2521ORDERID%2521&s_max=25&t_all=1&s_all=R9+290

Krasse Unterschiede mit bis zu 100 Dollar!
Da soll sich einer noch auskennen :-(
Einfach ein paar Tage warten... und wir kennen ja den ungefähren Preis...

Felixxz2
2013-10-13, 03:36:39
Inklusive Crytek aber Crytek hat in den Anfangszeiten soviel Nvidia optimiert das kann man nicht so leicht rausoptimieren ;)

Und wenn es hart auf hart kommt dann zieht Nvidia Glide wieder aus der Schublade ;)


Nö Frostbite eben. Das sind schon ne Menge Spiele. Glide hätte keine Konsolen, ergo keine Chance.

Ich bezog mich in dem Beitrag aber nicht auf Tahiti, sondern auf GK110 vs. Hawaii.
Bis Mantle bei den Entwickler Einzug gefunden hat gibt es bereits 16nm Karten von Nvidia!

Wahrscheinlich....15 Spiele waren es AFAIK die mit der Frostbite kommen, 2014 werdens wohl mehr...wann kommt 16nm? 2016? Außerdem bringt AMD ja auch 16nm Karten.

Dafür braucht Tahiti für ein Gleichstand mit GK104 ganze 1/3 mehr Einheiten, da sieht man wer das bessere Frontend hat!

Aber nur 1/6 mehr Fläche, die eig vor allem für GPGPU draufgeht. Tahiti nutzt ca. 1800 Shader in Games, so wahnsinnig wenig ist das nicht. Und die 680 hat halt eben eine enorm bescheiden Compute Performance.

schreiber
2013-10-13, 04:13:34
Wahrscheinlich....15 Spiele waren es AFAIK die mit der Frostbite kommen, 2014 werdens wohl mehr...
http://en.wikipedia.org/wiki/Frostbite_(game_engine)
Was fehlt denn da alles in dieser Liste?!

Es wurden 5 Partner gezeigt, die bei Mantle mitarbeiten wollen. Und davon war sonst eigentlich nur Eidos bekannt.

Coda
2013-10-13, 04:33:16
Na mit Mantle muss man doch sowieso fast alles selber neu von Grund aufbauen
Muss man nicht. Und es ist sowieso Blech was er geredet hat.

Felixxz2
2013-10-13, 05:22:24
http://en.wikipedia.org/wiki/Frostbite_(game_engine)
Was fehlt denn da alles in dieser Liste?!

Es wurden 5 Partner gezeigt, die bei Mantle mitarbeiten wollen. Und davon war sonst eigentlich nur Eidos bekannt.

AMD hat gesagt es sind die genannten + weitere unangekündigte Titel in der Entwicklung mit der Frostbite und die Gesamtzahl der Spiele liegt bei 15. Eben die aus der List + unangekündigte.

(del676)
2013-10-13, 09:55:02
Wahrscheinlich zaehlen die 4-5 DLCs von BF4 einzeln dazu. :P

Iruwen
2013-10-13, 11:33:07
Oder so Perlen wie ein neues MoH. Yay.

S940
2013-10-13, 11:53:30
Muss man nicht. Und es ist sowieso Blech was er geredet hat.Letzteres ist klar, aber ersteres? Wenn man nicht alles neu machen muss, dann doch zumindest irgendeine Zwischenschicht zw. low-level Mantle und dem "alten" DX11-Code?

Oder ist das salopp ausgedrückt ein Kinderspiel, da es viele Ähnlichkeiten gibt? Ok na dann ...

Botcruscher
2013-10-13, 11:59:09
Oder so Perlen wie ein neues MoH. Yay.
Beschwere dich nicht über die Hersteller wenn es die Konsumenten kaufen.

Gipsel
2013-10-13, 12:12:41
Letzteres ist klar, aber ersteres? Wenn man nicht alles neu machen muss, dann doch zumindest irgendeine Zwischenschicht zw. low-level Mantle und dem "alten" DX11-Code?

Oder ist das salopp ausgedrückt ein Kinderspiel, da es viele Ähnlichkeiten gibt? Ok na dann ...Ich denke, daß Coda darauf anspielt, daß bei die meisten Engines die benutzte API abstrahieren. Also ja, man muß nur die "Zwischenschicht" anpassen, nicht alles komplett.

fondness
2013-10-13, 12:31:11
Mittlerweile sind bei Geizhals doch bereits ein paar Hawaii-Karten gelistet. Die 290 ab 473EUR und die 290X ab 600EUR: http://geizhals.at/eu/?cat=gra16_512&xf=1440_R9+290X~1440_R9+290#xf_top

w0mbat
2013-10-13, 14:28:57
Ich würde etwas warten und dann eine 270X kaufen.

S940
2013-10-13, 14:53:09
Ich denke, daß Coda darauf anspielt, daß bei die meisten Engines die benutzte API abstrahieren. Also ja, man muß nur die "Zwischenschicht" anpassen, nicht alles komplett.
Ah ok, wenn die sowieso schon abstrahiert sind, wirds in der Tat einfacher. Danke wusste ich noch nicht.

Weiss man ungefähr, welche Studios sowas nutzen? Dachte bisher, dass Mantle wg. des (fälschlicherweise) angenommenen Programmieraufwands nur was für große Studios wäre.
Hätten aber auch die kleineren Studios solche Abstraktionslayer, dann wäre Mantle auch was für sie.

Falls es die Abstraktion aber im Moment auch schon nur bei den großen Engines gibt (eben weil das dann ein Mordsaufwand ist ^^), dann änderte sich an der ursprünglichen Überlegung nichts.

@w0mbat:
Nöö ... jetzt 7950 im Ausverkauf für unter 200 Euro kaufen und tüchtig übertakten.

Skysnake
2013-10-13, 15:20:47
Wofür brauche ich True Audio...

Schön für dich :tongue:

Genau das Gleiche kann man aber auch über PhysX sagen, von daher ist es halt so ne Sache.


Warte mal bis der Vollausbau von GK110 kommt, dann wird AMD als erstes Preissenkungen Ankündigen.
Klar, wenn nVidia wieder ne "neue" 1k€ Karte bringt, macht sich AMD gleich ins Hemd :ugly:

Ich bezog mich in dem Beitrag aber nicht auf Tahiti, sondern auf GK110 vs. Hawaii.
Bis Mantle bei den Entwickler Einzug gefunden hat gibt es bereits 16nm Karten von Nvidia!
Schwachsinn hoch 10. Mantle wird mit BF4 noch dieses Jahr den Einzug in den Markt schaffen, und das eben nicht mit irgend einem 0815 Spiel, sondern einem richtigen Blockbuster, der sich wie geschnitten Brot verkaufen wird.

Ich denke, daß Coda darauf anspielt, daß bei die meisten Engines die benutzte API abstrahieren. Also ja, man muß nur die "Zwischenschicht" anpassen, nicht alles komplett.
Ja, das hat er sicherlich gemeint, zumindest habe ich das so verstanden.

Zudem hies es doch, wenn ich mich nicht falsch erinnere, das man die ShaderLanguage aus DX supportet. DX Code läuft also wahrscheinlich sogar nativ unter Mantle. Ich könnte es mir zumindest gut vorstellen, dass die Mantle API auch DX Shadercode frisst. Man müsste also "nur" den Setup-Prozess bei machen, und halt die Sachen, die wirklich Peformancekritisch sind.

Aber alles nur spekulation. Zu Mantle gibt es ja noch keine echten Infos.

Iruwen
2013-10-13, 15:50:09
Schwachsinn hoch 10. Mantle wird mit BF4 noch dieses Jahr den Einzug in den Markt schaffen, und das eben nicht mit irgend einem 0815 Spiel, sondern einem richtigen Blockbuster, der sich wie geschnitten Brot verkaufen wird.

Und DICE mit einem Spiel = alle Entwickler, aha. AMD selbst sagt, dass Mantle längst nicht für alle geeignet ist.

S940
2013-10-13, 15:51:35
Zudem hies es doch, wenn ich mich nicht falsch erinnere, das man die ShaderLanguage aus DX supportet. DX Code läuft also wahrscheinlich sogar nativ unter Mantle.
Ah stimmt .. hatte ich ganz vergessen. Das war ne off. Info auf den DICE-Folien, Danke.

Skysnake
2013-10-13, 16:10:31
Und DICE mit einem Spiel = alle Entwickler, aha. AMD selbst sagt, dass Mantle längst nicht für alle geeignet ist.
Die Frostbite-Enginge ist keine 0815 Engine, die nur in 1-2 Spielen verwendet wird. Vor allem kommt halt eben heuer noch ein Blockbuster-Game damit raus.

Ergo kann man schon davon sprechen, das Mantle bei den Entwicklern! angekommen ist. Wie lang es dauert, bis es breitflächig auch bei den Usern ankommt ist eine andere Frage, noch wichtiger aber ist die Frage, ob es sich durchsetzt.

Duplex
2013-10-13, 16:12:38
Klar, wenn nVidia wieder ne "neue" 1k€ Karte bringt, macht sich AMD gleich ins Hemd :ugly:

Nvidia kann AMD in jedem Preisbereich unter Druck setzen, Nvidia ist größer als AMD und verdient permanent mehr Geld als AMD :smile:
AMD hat seit 2012 bis jetzt über 1,2 Milliarden Verlust gemacht, die können sich nicht mehr viel erlauben, Nvidia wird kurzen Prozess machen!

Schwachsinn hoch 10. Mantle wird mit BF4 noch dieses Jahr den Einzug in den Markt schaffen, und das eben nicht mit irgend einem 0815 Spiel, sondern einem richtigen Blockbuster, der sich wie geschnitten Brot verkaufen wird.
Klar, durch Mantle wird AMD plötzlich 50% schneller als Titan, jetzt bekommt Nvidia plötzlich Angst...träum weiter, bringt doch nichts wenn 1-2 Games auf Mantle setzen, AMD profitiert nur wenn Mantle zum Einsatz kommt, ansonsten wird der Vollausbau von GK110 AMDs Hawaii wieder alt aussehen lassen :D:D

-/\-CruNcher-/\-
2013-10-13, 16:14:37
Skysnake naja wenn ich mir so die jetzige Performance statistik anschaue ;)

CryEngine, Unreal Engine , Idtech 5 und andere kommt Nvidia ganz gut weg ja selbst bei TressFX in CDE (nach dem Nvidia treiber patch) ohne ne Eigene API rauschsiesen zu müssen

Da sehe ich es eher Negativ wenn AMD einen eigenen Layer brauch um Performance rauszudrücken im Prinzip will doch EA/DICE nur einen Kommerzielen Vorteil rausschlagen zwischen ihrem Konsolenporting für sich ;)
andere werden da natürlich nachziehen :D

Persönlich bin ich noch nicht auf den AMD umstieg überzeugt worden nicht mit der jetzigen Generation deren startup ziemlich bescheiden ist, warte noch bis nach Weihnachten was sich da tut ;)

@Duplex
Du solltest dir diesen kurzen prozess gegen AMD nicht wünschen das ist quatsch und Fanboy blabla AMD hat einen guten stand mit ihrer HSA strategie :)

mboeller
2013-10-13, 17:01:41
A
Falls es die Abstraktion aber im Moment auch schon nur bei den großen Engines gibt (eben weil das dann ein Mordsaufwand ist ^^), dann änderte sich an der ursprünglichen Überlegung nichts.



du scheinst wie ein paar andere die XBone zu vergessen. Wenn, wie von anandtech angesprochen, sich Mantle sehr stark an die Entwicklungsumgebung für die XBone anlehnt dann wurde die allermeiste Arbeit ja schon erledigt.

Deshalb sollte man die ersten weiteren Mantle-Games nach dem "BF4 Prototyp" auch schon ziemlich bald sehen (IMHO 3-6 Monate).

S940
2013-10-13, 17:31:00
Hmm stimmt auch wieder ... hab nicht drangedacht, da ja nicht sicher ist, wie stark Mantle und XBox-Coding jetzt wirklich zusammenhängen.
Aber vermutlich wird man schon nen hohen Verwandtschaftsgrad annehmen können.

Danke fürs Erinnern.

Skysnake
2013-10-13, 17:33:22
Nvidia kann AMD in jedem Preisbereich unter Druck setzen, Nvidia ist größer als AMD und verdient permanent mehr Geld als AMD :smile:
AMD hat seit 2012 bis jetzt über 1,2 Milliarden Verlust gemacht, die können sich nicht mehr viel erlauben, Nvidia wird kurzen Prozess machen!

Jaja, AMD ist kurz vorm Krepieren, und dich würde es wahrscheinlich sogar noch freuen, wenn es wirklich eintreten würde, wovon Sie aber weit weg sind. :freak:


Klar, durch Mantle wird AMD plötzlich 50% schneller als Titan, jetzt bekommt Nvidia plötzlich Angst...träum weiter, bringt doch nichts wenn 1-2 Games auf Mantle setzen, AMD profitiert nur wenn Mantle zum Einsatz kommt, ansonsten wird der Vollausbau von GK110 AMDs Hawaii wieder alt aussehen lassen :D:D
Wer hat davon gesprochen?

Und Gegenfrage, was interessieren die 1-2 GPU-PhysX Games pro Jahr schon :rolleyes:

Oder was interessiert die ein oder zwei Games wie z.B. Starcraft, bei denen AMD richtig abkackt?

Mit der Argumentation interessiert niemanden irgendwas...

Mantle wird genau so viel oder wenig Einfluss haben wie GPU-PhysX. Gleiches gilt für das Audiozeugs.

Gibt genug Leute, die sich ne nVidia wegen GPU-PhysX in spielen wie Batman kaufen, und genauso wird es genug Leute geben, die sich ne AMD holen, weil in DICE Spielen Sie TrueAudio und eben nen Performancevorteil durch Mantle bekommen.

Skysnake naja wenn ich mir so die jetzige Performance statistik anschaue ;)

Ja und? nVidia kann noch nen GK110 als Vollausbau bringen, aber wenn die das Ding für weniger 500-600€ bringen, dann machen Sie sich lächerlich, und ziehen auch ziemlich viel Aggression auf sich. Zudem würden Sie eisch ihre eigene Marge verhageln. nVidia hat lang genug von ihrer Preispolitik die Früchte erhalten, jetzt müssen Sie halt auch in den sauren Apfel beisen. Umbringen wird Sie das aber sicherlich nicht.


CryEngine, Unreal Engine , Idtech 5 und andere kommt Nvidia ganz gut weg ja selbst bei TressFX in CDE (nach dem Nvidia treiber patch) ohne ne Eigene API rauschsiesen zu müssen

Da sehe ich es eher Negativ wenn AMD einen eigenen Layer brauch um Performance rauszudrücken im Prinzip will doch EA/DICE nur einen Kommerzielen Vorteil rausschlagen zwischen ihrem Konsolenporting für sich ;)
andere werden da natürlich nachziehen :D

Naja, was heist brauchen? Was der Layer am Ende wirklich bringt, wird sich zeigen müssen. Man macht sich halt auf jeden Fall ein Stück unabhängig. Das ist ja ein großes Problem von AMD, und das nicht erst seit gestern, das die Hardware viel mehr kann, als wirklich genutzt wird. Wer dafür jetzt am Ende verantwortlich ist, mag ich nicht beurteilen wollen. Da wird wohl jeder sein Pfund dazu beitragen.

Das DICE und jeder andere Hersteller nur auf die eigene Tasche schaut, sollte eigentlich nichts Neues sein :ugly: Wir können am Ende nur eventuell davon profitieren. Die Frage ist halt wie groß, und was nVidia dagegen machen kann.

Eine eigene API ist halt ein Kampf mit ungleichen Mitteln. Genau sowas hatte ich befürchtet als bekannt wurde, das AMD ALLE neuen Konsolen beliefert.... Für nVidia aber auch für uns kann das in einigen Jahren noch ziemlich doof werden. Wenn Mantle wirklich vernünftig eingesetzt wird, dann kann nVidia nicht wirklich viel dagegen machen, außer halt größere Chips. Das schlägt aber am Ende auf die Marge.... Für AMD mag das gut sein, und für die Käufer am Anfang auch, aber auf Dauer ist sowas schlecht für dem Markt. Ein Kampf mit ungleichen Waffen ist halt assig...


Persönlich bin ich noch nicht auf den AMD umstieg überzeugt worden nicht mit der jetzigen Generation deren startup ziemlich bescheiden ist, warte noch bis nach Weihnachten was sich da tut ;)

@Duplex
Du solltest dir diesen kurzen prozess gegen AMD nicht wünschen das ist quatsch und Fanboy blabla AMD hat einen guten stand mit ihrer HSA strategie :)
Insgeheim hoffe ich, dass Sie damit ein bischen auf die Fresse fliegen. Es ist für den Markt an sich auf lange Sicht einfach nicht gut!

S940
2013-10-13, 17:48:06
Insgeheim hoffe ich, dass Sie damit ein bischen auf die Fresse fliegen. Es ist für den Markt an sich auf lange Sicht einfach nicht gut!Meinst Du jetzt HSA aus dem Zitat? Das ist doch frei, das ist ok, wenn dann ist Mantle das Problem.

Hübie
2013-10-13, 18:08:00
Jaja, AMD ist kurz vorm Krepieren, und dich würde es wahrscheinlich sogar noch freuen, wenn es wirklich eintreten würde, wovon Sie aber weit weg sind. :freak:


Wer hat davon gesprochen?

Und Gegenfrage, was interessieren die 1-2 GPU-PhysX Games pro Jahr schon :rolleyes:

Oder was interessiert die ein oder zwei Games wie z.B. Starcraft, bei denen AMD richtig abkackt?

Mit der Argumentation interessiert niemanden irgendwas...

Mantle wird genau so viel oder wenig Einfluss haben wie GPU-PhysX. Gleiches gilt für das Audiozeugs.

Gibt genug Leute, die sich ne nVidia wegen GPU-PhysX in spielen wie Batman kaufen, und genauso wird es genug Leute geben, die sich ne AMD holen, weil in DICE Spielen Sie TrueAudio und eben nen Performancevorteil durch Mantle bekommen.


Ja und? nVidia kann noch nen GK110 als Vollausbau bringen, aber wenn die das Ding für weniger 500-600€ bringen, dann machen Sie sich lächerlich, und ziehen auch ziemlich viel Aggression auf sich. Zudem würden Sie eisch ihre eigene Marge verhageln. nVidia hat lang genug von ihrer Preispolitik die Früchte erhalten, jetzt müssen Sie halt auch in den sauren Apfel beisen. Umbringen wird Sie das aber sicherlich nicht.


Naja, was heist brauchen? Was der Layer am Ende wirklich bringt, wird sich zeigen müssen. Man macht sich halt auf jeden Fall ein Stück unabhängig. Das ist ja ein großes Problem von AMD, und das nicht erst seit gestern, das die Hardware viel mehr kann, als wirklich genutzt wird. Wer dafür jetzt am Ende verantwortlich ist, mag ich nicht beurteilen wollen. Da wird wohl jeder sein Pfund dazu beitragen.

Das DICE und jeder andere Hersteller nur auf die eigene Tasche schaut, sollte eigentlich nichts Neues sein :ugly: Wir können am Ende nur eventuell davon profitieren. Die Frage ist halt wie groß, und was nVidia dagegen machen kann.

Eine eigene API ist halt ein Kampf mit ungleichen Mitteln. Genau sowas hatte ich befürchtet als bekannt wurde, das AMD ALLE neuen Konsolen beliefert.... Für nVidia aber auch für uns kann das in einigen Jahren noch ziemlich doof werden. Wenn Mantle wirklich vernünftig eingesetzt wird, dann kann nVidia nicht wirklich viel dagegen machen, außer halt größere Chips. Das schlägt aber am Ende auf die Marge.... Für AMD mag das gut sein, und für die Käufer am Anfang auch, aber auf Dauer ist sowas schlecht für dem Markt. Ein Kampf mit ungleichen Waffen ist halt assig...


Insgeheim hoffe ich, dass Sie damit ein bischen auf die Fresse fliegen. Es ist für den Markt an sich auf lange Sicht einfach nicht gut!

Amen, skysnake. Du verfasst ja immer recht viele, umfangreiche und manchmal unsinnige Beiträge aber dieser hier hat Gewicht. Er sagt das aus was ich ebenfalls denke. Also lassen wir das so stehen :) :up:

Schönen Sonntag noch :smile:

tm0975
2013-10-13, 18:08:32
Warum sehen die ganzen Nvidia-Fans Mantle so kritisch? Hat es Intel geschadet, AMD64 zu lizenzieren bzw zu übernehmen? nein. im gegenteil. sie haben damit ihren popo gerettet und stehen heute besser den je da, mit dem AMD-knowhow. ich wette, dass mindestens Intel über kurz oder lang auch bei Mantle mitmachen wird und wenn Nvidia nicht ganz blöd ist, springen sie einfach auf den Zug mit auf. AMD ist doch schon immer viel zu nett gewesen zum Wettbewerb.

M4xw0lf
2013-10-13, 18:15:56
Ich glaube nach wie vor nicht wirklich an den Einstieg von Intel und NV - wie low level bzw. close to the metal kann eine API denn noch sein, wenn wieder zig verschiedene Architekturen und Techlevel damit abgedeckt sein müssen? (Also ernste Frage jetzt, ich hab keinen Plan ;) )

mironicus
2013-10-13, 18:16:44
Insgeheim hoffe ich, dass Sie damit ein bischen auf die Fresse fliegen. Es ist für den Markt an sich auf lange Sicht einfach nicht gut!

Jeder nutzt das was er hat um Marktanteile zu gewinnen. Das kann ich AMD jetzt nicht übel nehmen. In der Natur überlebt auch nur der Stärkere. Und solange sie nicht so überheblich wie NVidia werden - um so besser.

Iruwen
2013-10-13, 18:43:34
Warum sehen die ganzen Nvidia-Fans Mantle so kritisch?
Als Opportunist ist mir Mantle relativ egal, wenn es wirklich flächendeckend durchschlägt kommt meine nächste oder übernächste Karte halt wieder von AMD. Ich würde nur den Inspector hart vermissen, da muss AMD preis-/leistungsmäßig schon kräftig vorlegen.

In der Natur überlebt auch nur der Stärkere.
Nein der Anpassungsfähigere - Survival of the Fittest </klugschiss> :cool:

Skysnake
2013-10-13, 18:50:23
Meinst Du jetzt HSA aus dem Zitat? Das ist doch frei, das ist ok, wenn dann ist Mantle das Problem.
Ja, damit war nur Mantle gemeint, weil Sie dabei ihre Marktmacht durch die Konsolendeals versuchen durch zu drücken.

Wobei ich eben davon ausgehe, das AMD nVidia und auch Intel nicht frühzeitig eingebunden hat UND ihnen auch nicht wirklich faire Teilhabe ermöglicht, genau wie es andersrum mit GPU-PhysX war/ist.

Wobei Mantle schon noch ein größere Kaliber ist meiner MEinung nach. Ohne GPU-PhysX lebt es sich ganz gut, weil eh fast nirgends eingesetzt, bei Mantle wird das wohl anders aussehen, weil es ganz allgemeiner ist. Selbst wenn es nur bei den 15 DICE/Frostbite Spielen bleibt, ist das viel mehr als mit GPU-PhysX.

Mantle ist halt echt so ne Sache, selbst wenn Sie nVidia sofort vollen Zugang gewähren würden, würde nVidia sicherlich 1-2 Jahre brauchen, um halbwegs gleich zu ziehen. Das ist schon ziemlich link, was AMD da von langer Hand geplant hat... :down:

Warum sehen die ganzen Nvidia-Fans Mantle so kritisch? Hat es Intel geschadet, AMD64 zu lizenzieren bzw zu übernehmen? nein. im gegenteil. sie haben damit ihren popo gerettet und stehen heute besser den je da, mit dem AMD-knowhow. ich wette, dass mindestens Intel über kurz oder lang auch bei Mantle mitmachen wird und wenn Nvidia nicht ganz blöd ist, springen sie einfach auf den Zug mit auf. AMD ist doch schon immer viel zu nett gewesen zum Wettbewerb.
Du kannst nVidia nicht mit Intel vergleichen. nVidia braucht ein zichfaches der Zeit um so was in ihre Designs zu implementieren im Vergleich zu Intel.

Zudem war die 64 Bit Technik so WAYNE über eine ganz lange Zeit. Das konnte man also wirklich verkraften. Mit Mantle ist die Zeit sicherlich viel viel kürzer. Es gibt definitiv in einigen Monaten schon Software die darauf setzt. Das war bei 64BIt Technik ganz anders.

Ich will da wirklich nicht in der Position stecken, entscheiden zu müssen, ob man sich Mantle anschließt, oder versucht was eigenes zu machen. Mit beidem kann man richtig auf die Fresse fliegen, einfach weil es Zeit braucht.

StefanV
2013-10-13, 18:52:44
Warum sehen die ganzen Nvidia-Fans Mantle so kritisch?
Weil wir (noch) nicht wissen, wie nah es an der Architektur ist...


Hat es Intel geschadet, AMD64 zu lizenzieren bzw zu übernehmen?
Nö, das ist aber auch (mehr oder minder) 'ne andere Baustelle...

Nur ist Intel auch von der Mentalität 'nen anderer Laden...

S940
2013-10-13, 19:06:21
Mantle ist halt echt so ne Sache, selbst wenn Sie nVidia sofort vollen Zugang gewähren würden, würde nVidia sicherlich 1-2 Jahre brauchen, um halbwegs gleich zu ziehen. Das ist schon ziemlich link, was AMD da von langer Hand geplant hat... :down:
Ja ich freu mich auch über das endlich gute AMD-Management :biggrin:

Im Ernst: Wenn sie das beim Abschluss der Konsolendeals vor 1-2 Jahren auch schon auf dem Radar gehabt haben, dann Hut ab ...

Langfristig könnte es natürlich übel werden, wenn AMD quasi zum Grafik-Intel wird, aber solange es keine Rauchzeichen von Nvidia gibt warten wirs mal ab ... das sind dort auch ziemliche Kämpfer, mal schauen was ihnen einfallen wird *G*

Matrix316
2013-10-13, 19:10:28
Warum sehen die ganzen Nvidia-Fans Mantle so kritisch? Hat es Intel geschadet, AMD64 zu lizenzieren bzw zu übernehmen? nein. im gegenteil. sie haben damit ihren popo gerettet und stehen heute besser den je da, mit dem AMD-knowhow. ich wette, dass mindestens Intel über kurz oder lang auch bei Mantle mitmachen wird und wenn Nvidia nicht ganz blöd ist, springen sie einfach auf den Zug mit auf. AMD ist doch schon immer viel zu nett gewesen zum Wettbewerb.
Ich glaube viele haben Angst, dass Nvidia ihr eigenes Mantl machen und Game X nur mit AMD Karten richtig gut läuft und Game Y nur mit Nvidia.

-/\-CruNcher-/\-
2013-10-13, 19:10:47
@Skysnake
ich würde mir um die Konsolen keine sorge machen die werden von der Mobile Entwicklung schnell überrollt werden und siehe da Nvidia ist direkt dort am mitstreiten ;)

@Matrix316
Glaube das will keiner wirklich von beiden, man kann den Entwicklern nicht alles öffnen und das volle potential zugänglich machen zumal einige ja schon die Sicherheitsproblematik sehr richtig in betracht gezogen haben :)
Und wenn die Performance extreme bei einem abbreist währe der Markt in Gefahr es muss sich immer in Balance halten und darf nur über den Preis und eventuele zusatz features die die einen brauchen und die anderen nicht gehen.
Glaube nicht das diese Balance mit Mantle sonderlich in Gefahr ist :)

boxleitnerb
2013-10-13, 19:15:33
Angeblich gibt es Kapazitätsprobleme. AMD hat ne ganze Ladung Karten von Asus für die Reviewer kaufen müssen, weil sie keine eigenen haben. Und die AIBs wissen selbst noch nicht, wann sie ihre Karten verkaufen dürfen. Erst war der 15. angepeilt für die Reviews und den Launch, das hat sich jetzt aber verschoben auf "unbekannt". Am 15. wird es also keine Tests geben, rechnet eher mit der Woche drauf oder evtl. noch später.

Locuza
2013-10-13, 19:25:04
Wobei Mantle schon noch ein größere Kaliber ist meiner MEinung nach. Ohne GPU-PhysX lebt es sich ganz gut, weil eh fast nirgends einge

Mantle ist halt echt so ne Sache, selbst wenn Sie nVidia sofort vollen Zugang gewähren würden, würde nVidia sicherlich 1-2 Jahre brauchen, um halbwegs gleich zu ziehen. Das ist schon ziemlich link, was AMD da von langer Hand geplant hat... :down:

Mantle ist dann aber auch eine andere Sache, wenn es nur Performance bringt, dann bietet es nicht den gleichen Mehrwert wie PhysX, was optisch exklusiv ist.

AMD hat doch verlauten lassen, dass sie das SDK und alles dazugehörige in 1-2 Jahren veröffentlichen wollen, also zeitlich hat AMD sicherlich ein nettes Polster.


Langfristig könnte es natürlich übel werden, wenn AMD quasi zum Grafik-Intel wird, aber solange es keine Rauchzeichen von Nvidia gibt warten wirs mal ab ... das sind dort auch ziemliche Kämpfer, mal schauen was ihnen einfallen wird *G*
Nvidia hat gerade mehr als genug Marktanteile und von den Einnahmen ganz zu schweigen. AMD hat die schwächste Marktposition von allen, was gerade beim Potential von AMD ziemlich traurig ist.
Ich würde es begrüßen wenn AMD endlich wieder eine stärkere Position einnehmen könnte.

Erst war der 15. angepeilt für die Reviews und den Launch, das hat sich jetzt aber verschoben auf "unbekannt". Am 15. wird es also keine Tests geben, rechnet eher mit der Woche drauf oder evtl. noch später.
If true then mega meh.
Das wäre einfach nicht okay. :frown:

Duplex
2013-10-13, 19:26:39
Angeblich gibt es Kapazitätsprobleme.
Das haben die aber sehr spät erkannt, könnte eine Ausrede sein weil man vielleicht ein neues Bios mit mehr Boost bastelt?
GK110 Ultra lässt grüßen.

//differentRob
2013-10-13, 19:30:25
Ich glaube viele haben Angst, dass Nvidia ihr eigenes Mantl machen und Game X nur mit AMD Karten richtig gut läuft und Game Y nur mit Nvidia.

und wo soll nVidia hier den Markt haben?
AMD hat 70-75% vom relevanten Gamermarkt in den nächsten 5-7 Jahren unter ihrem "HW-Monopol".

Ob sich da nun noch ein Entwickler findet der ohne beträchtliche finanzieller Unterstützung eine nVidia API unterstützt?
Meine BWL Kenntnisse sagen hier: N E I N! Nvidia muss Mantle quasi mit mehr Hardware "erschlagen".


AMD hat das ganze sehr klever hinbekommen mit den nextConsole Deals. Aus unternehmerischer Sicht gebührt hier AMD mal grosse Hochachtung.

Viel wichtiger ist mir bei der ganzen Frage eigentlich, was Microsoft nun mit DX macht! ;)

Duplex
2013-10-13, 19:31:55
Aus unternehmerischer Sicht gebührt hier AMD mal grosse Hochachtung.
Viel wichtiger in einem Unternehmen sind die Quartals Ergebnisse, in ca. 1 Woche gibt es die Q3/13 Ergebnisse von AMD, abwarten.

horn 12
2013-10-13, 19:33:20
@Box

Woher weisst du dies bitte?
Keine Karten am 15-ten und auch keine Testberichte.
Dies wäre mehr als nur dreist!

boxleitnerb
2013-10-13, 19:34:01
Eigene Quelle.

Duplex
2013-10-13, 19:34:22
Vielleicht haben die Redaktionen bereits den GK110 Vollausbau und testen, stellt euch vor Titan Ultra kommt noch vor Hawaii raus :D:D

Skysnake
2013-10-13, 19:35:08
@Skysnake
ich würde mir um die Konsolen keine sorge machen die werden von der Mobile Entwicklung schnell überrollt werden und siehe da Nvidia ist direkt dort am mitstreiten ;)

Genau DA ist es doch aber noch viel fataler, weil Mantle potenzial hat die Effizienz eines Systems zu steigern. Einfach weil weniger Overhead anfällt und die Karte daher weniger idle Cycles hat, die aber eben voll mit der Clock laufen.

Und da haste halt echt Probleme mit Hardware gegen Softwareoptimierungen an zu kommen. Das ist richtig schnell richtig teuer.

Mantle ist dann aber auch eine andere Sache, wenn es nur Performance bringt, dann bietet es nicht den gleichen Mehrwert wie PhysX, was optisch exklusiv ist.

Du musst bedenken, dass die meisten Leute keine 500€ GPU kaufen. Die kaufen mid- oder lowrange. APUs profitieren massiv davon, und eben auch die kleinen GPUs. Wenn da jetzt durch Mantle bei nem Blockbuster wie BF4, was eben extrem viele Leute spielen, und wegen dem genug auf aufrüsten werden, mit ner 200€ Karte läuft, und bei nVidia mit den gleichen Frameraten erst mit ner 300€ Karte, dann wird das viel ausmachen.

Wenn jetzt sogar ne große APU dazu geeignet ist BF4 mit deutlich höheren Einstellungen zu zocken als bei der Intel-Konkurrenz, dann weiste was deutlich in der Gunst der Käufer zunehmen wird.

Für viele heist halt Mehrleistung mehr FPS bei gleicher Quali/Details, oder eben bei gleicher FPS mehr Quali/Details. Das ist in meinen Augen ein deutlich größerer Vorteil als GPU-PhysX, für das man ja eh erstmal genug Leistung haben muss.


Nvidia hat gerade mehr als genug Marktanteile und von den Einnahmen ganz zu schweigen. AMD hat die schwächste Marktposition von allen, was gerade beim Potential von AMD ziemlich traurig ist.
Ich würde es begrüßen wenn AMD endlich wieder eine stärkere Position einnehmen könnte.

Aber NUR! wenn man PC-only betrachtet. Wenn man den Gesamtmarkt betrachtet, dann hat AMD durch die Konsolendeals ganz klar die Nase vorne, und am Ende wird es auf die Dev-rels hinauslaufen.

boxleitnerb
2013-10-13, 19:36:34
Vielleicht haben die Redaktionen bereits den GK110 Vollausbau und testen, stellt euch vor Titan Ultra kommt noch vor Hawaii raus :D:D

Träum weiter ;)
Nvidia wartet auf AMD, die wissen wahrscheinlich selbst noch nicht so genau, wie sie reagieren sollen (Preissenkung, Titan Ultra, ...?).

Duplex
2013-10-13, 19:37:24
Langfristig könnte es natürlich übel werden, wenn AMD quasi zum Grafik-Intel wird, aber solange es keine Rauchzeichen von Nvidia gibt warten wirs mal ab ... das sind dort auch ziemliche Kämpfer, mal schauen was ihnen einfallen wird *G*
Abwarten, zu optimistisch würde ich nicht sein, bisher betrug bei AMD der Gewinn im GPU Markt nur 3% vom Umsatz.

//differentRob
2013-10-13, 19:37:33
Viel wichtiger in einem Unternehmen sind die Quartals Ergebnisse, in ca. 1 Woche gibt es die Q3/13 Ergebnisse von AMD, abwarten.


Nun gut, die dürften ja wohl noch nicht entzücken :redface:
Bin aber davon überzeugt, dass AMD in den nächsten Jahren mit unter der Konsolen Deals wieder ne 0 sieht.

Und die Titan Ultra würde ja nur die theorie "mit Hardware erschlagen" stützen.
wäre da nicht der abartige Preis ;)

Tesseract
2013-10-13, 19:37:58
ich würde mir um die Konsolen keine sorge machen die werden von der Mobile Entwicklung schnell überrollt werden und siehe da Nvidia ist direkt dort am mitstreiten ;)
man muss nicht alles, was irgendwelche ahnungslosen analysten von sich geben, unreflektiert nachplappern. konsolen und mobile geräte haben kaum überschneidungen. wer bis jetzt eine konsole hatte wird sicher nicht deswegen die nächste generation nicht kaufen weil auf seinem smartphone angry birds 12 läuft.

smartphones und tablets kannibalisiern höchstens teilweise flashgames und handheld-konsolen.

-/\-CruNcher-/\-
2013-10-13, 19:38:08
und wo soll nVidia hier den Markt haben?
AMD hat 70-75% vom relevanten Gamermarkt in den nächsten 5-7 Jahren unter ihrem "HW-Monopol".

Ob sich da nun noch ein Entwickler findet der ohne beträchtliche finanzieller Unterstützung eine nVidia API unterstützt?
Meine BWL Kenntnisse sagen hier: N E I N! Nvidia muss Mantle quasi mit mehr Hardware "erschlagen".


AMD hat das ganze sehr klever hinbekommen mit den nextConsole Deals. Aus unternehmerischer Sicht gebührt hier AMD mal grosse Hochachtung.

Viel wichtiger ist mir bei der ganzen Frage eigentlich, was Microsoft nun mit DX macht! ;)

Was sollen sie damit machen es ist soweit Final ob es eine neue DirectX version geben wird weiss niemand so richtig :)

Duplex
2013-10-13, 19:39:16
Nvidia wartet auf AMD, die wissen wahrscheinlich selbst noch nicht so genau, wie sie reagieren sollen (Preissenkung, Titan Ultra, ...?).
Der GK110 Vollausbau mit 15 SMX aka 2880 Shader Chip existiert ja bereits im Profi Markt, man muss nur den Boost Takt 15-20% erhöhen und einen besseren Kühler montieren.

boxleitnerb
2013-10-13, 19:43:34
Der GK110 Vollausbau mit 15 SMX aka 2880 Shader Chip existiert ja bereits im Profi Markt, man muss nur den Boost Takt 15-20% erhöhen und einen besseren Kühler montieren.

Erste Frage: Schon lieferbar? Bisher gabs ein paar Folien, das wars.
Zweite Frage: Wo kriegt man so flott einen besseren Kühler her?

Weißt du, wieviel Arbeit Nvidia in den Kühler gesteckt hat??? Guck mal hier:
http://www.tomshardware.com/reviews/nvidia-history-geforce-gtx-690,3605.html
http://abload.de/img/finish-samples-1kcsty.jpg (http://abload.de/image.php?img=finish-samples-1kcsty.jpg)

Tesseract
2013-10-13, 19:46:56
Zweite Frage: Wo kriegt man so flott einen besseren Kühler her?
mit einem ähnlichen konzept einfach auf triple-slot gehen.

M4xw0lf
2013-10-13, 19:48:25
Erste Frage: Schon lieferbar? Bisher gabs ein paar Folien, das wars.
Zweite Frage: Wo kriegt man so flott einen besseren Kühler her?

Weißt du, wieviel Arbeit Nvidia in den Kühler gesteckt hat??? Guck mal hier:
http://www.tomshardware.com/reviews/nvidia-history-geforce-gtx-690,3605.html
http://abload.de/img/finish-samples-1kcsty.jpg (http://abload.de/image.php?img=finish-samples-1kcsty.jpg)
Das sind doch nur Designmuster und die haben nichts mit der Leistung des Kühlers zu tun.

Skysnake
2013-10-13, 19:50:37
mit einem ähnlichen konzept einfach auf triple-slot gehen.
Das wirst du aber als Ref-Design nicht durchgesetzt bekommen. Da wäre Thermi-Reloaded-Shitstorm unausweichlich.

boxleitnerb
2013-10-13, 19:52:06
Das sind doch nur Designmuster und die haben nichts mit der Leistung des Kühlers zu tun.

Vielleicht wollen sie es ja nochmal ändern :freak:
Sowas zaubert man halt nicht einfach mal so aus dem Ärmel. Triple-Slot verbietet sich von selbst wegen SLI. 3-way muss gehen, besser 4-way.

Locuza
2013-10-13, 19:53:06
APUs profitieren massiv davon, und eben auch die kleinen GPUs. Wenn da jetzt durch Mantle bei nem Blockbuster wie BF4, was eben extrem viele Leute spielen, und wegen dem genug auf aufrüsten werden, mit ner 200€ Karte läuft, und bei nVidia mit den gleichen Frameraten erst mit ner 300€ Karte, dann wird das viel ausmachen.

Aber NUR! wenn man PC-only betrachtet. Wenn man den Gesamtmarkt betrachtet, dann hat AMD durch die Konsolendeals ganz klar die Nase vorne, und am Ende wird es auf die Dev-rels hinauslaufen.
Die einzigen APUs die von Mantle profitieren werden sind Kabini und Kaveri, ersteres schließen wir mal gleich automatisch aus.
Das ist sehr langfristige Angelegenheit.

Potential gibt es wie immer, aber was am Ende daraus wird ist die gute Frage.
Ich will noch ein Jahr lang zweifeln, ob sich dank der Konsolen so viele Spiele-IPs pro Jahr mit Mantle zeigen werden.

Aber immerhin gibt es Thief, Lichdom, Murdered und Star Citizen mit True Audio und BF4 mit Mantle.
Das ist immerhin schon eine ganze Hand voll Spiele IPs mit exklusiven AMD Vorteilen.

Tesseract
2013-10-13, 19:53:35
Das wirst du aber als Ref-Design nicht durchgesetzt bekommen. Da wäre Thermi-Reloaded-Shitstorm unausweichlich.

für eine ultra-high-end-karte? warum nicht? die meisten (alle?) SLI-boards haben sowieso 3 slots abstand und mit fast doppelt so viel platz für den kühler könnte man schon sehr nette. leise konstruktionen bauen, vor allem was die exhaustion betrifft.

horn 12
2013-10-13, 19:54:52
Bitte bleibt beim Thema: Hawai
Dank Euch!

OBrian
2013-10-13, 19:56:46
Naja, Zeit hatten sie ja genug. Seit der GK110 fertig ist, werden sie eine Karte mit Vollausbau in der Schublade haben. Ist ja nicht so, daß sie vor drei Wochen plötzlich gemerkt haben "oh kacke, AMD bringt was Neues, wir müssen irgendwas tun"

horn 12
2013-10-13, 20:06:48
@Box

KEIN NDA Brecher in Sicht falls dies stimmen sollte das AMD die Karten nicht mal am 15.ten präsentieren will!
Dies hätte sich AMD redlich verdient, vergeigen doch jedes Mal den Launch!

StefanV
2013-10-13, 20:09:50
Zweite Frage: Wo kriegt man so flott einen besseren Kühler her?
Warum wird der Titan KÜhler immer als so super toll hingestellt?!

Klar, wenn man keinerlei Toleranzen annimmt, sind leise DHE Kühler durchaus möglich, wie bei der 8800GTX/768...

Duplex
2013-10-13, 20:13:14
Naja, Zeit hatten sie ja genug. Seit der GK110 fertig ist, werden sie eine Karte mit Vollausbau in der Schublade haben. Ist ja nicht so, daß sie vor drei Wochen plötzlich gemerkt haben "oh kacke, AMD bringt was Neues, wir müssen irgendwas tun"
Denkbar wäre auch das eine neue Revision von GK110 kommt, 2880 Shader & <10% weniger Leistungsaufnahme, damit wäre der Chip auch etwas kühler.
15% mehr Leistung kann man sehr schnell ohne Probleme drauflegen, mit mehr Energie geht sogar deutlich mehr http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/GTX-Titan-Extrem-Overclocking-GTX-880-1076043/

boxleitnerb
2013-10-13, 20:15:53
Warum wird der Titan KÜhler immer als so super toll hingestellt?!

Klar, wenn man keinerlei Toleranzen annimmt, sind leise DHE Kühler durchaus möglich, wie bei der 8800GTX/768...

Leseverständnis...es ging um einen "besseren" Kühler - über die Qualität/Leistung des Kühlers an sich wurde nichts gesagt. Und Tatsache ist, dass der Kühler für einen Referenzkühler wirklich sehr gut ist.

StefanV
2013-10-13, 20:38:47
Dennoch ist es mir unverständlich, warum ihr hier immer die ganze Zeit die nVidia (Referenz) Kühler so sehr huldigt. Und das tut ihr bei wirklich jeder Gelegenheit!
Gut, es ist ein DHE Kühler, aber die Teile haben derbe Nachteile. Sprich sie haben einen relativ hohen Luftwiderstand und sind daher auch auf einen hohen Luftstrom angewiesen und daher laut.
Klar kann man den Luftwiderstand z.B. durch Löcher verringern, nur führt das eben auch dazu, dass man die (heiße!) Luft einfach mal gegen andere Stekkarten bläst und z.T. auch das Gehäuse stark aufheizt (wie das Celsius 670 Case, von der 8800GTX)...

Und der Kühler der 8800GTX schafft das Teil auf gerad mal 85°C zu halten, obwohl der Lüfter schon bei 100% liegt und das bei einem offenen Case!

Letztendlich sind gute Designs eben das, was die ganzen OEMs drauf klatschen. Hier könnte man die MSI R9 280X (http://ht4u.net/reviews/2013/amds_radeon_r-serie-grafikkarten_r9_270x_und_280x_und_r7_260x_im_test/index13.php) besonders hervorheben, da der Kühler diese Gerätes eine recht hohe Oberfläche hat und die Lüfter schön groß sind...

Der Kühler der HIS 7970 ist auch ganz OK, von der Oberfläche. Leider scheiters aber an zu kleinen Lüftern, die auch qualitativ nicht besonders sind (sehr laute Lagergeräusche im idle)...

boxleitnerb
2013-10-13, 20:44:09
Wer ist "ihr"???
Zudem ist das doch überhaupt nicht wahr. Es ging hier nur darum, dass ein voller GK110 wohl einen besseren Kühler braucht und dass man den nicht einfach so herbeizaubern kann. Mehr nicht.

LSSJBroly
2013-10-13, 20:45:43
Es ging hier nur darum, dass ein voller GK110 wohl einen besseren Kühler braucht und dass man den nicht einfach so herbeizaubern kann. Mehr nicht.

Sehe ich auch so. Und wenn es mit 79°C leise nicht geht, setzte Nvidia halt das Temp-Target auf 85°C und erreicht dann wieder hohe taktraten bei einer angenehmen lautstärke...


In sachen Referenzdesigns ist der Titan-Kühler zurzeit das beste, was es gibt. Das andere Custom designs besser sein können, ist auch klar. Allerdings sind Axial-Designs auch nicht das allheilmittel, auch da gibt es Situationen, wo ein DHE-Design effizeinter arbeitet.

boxleitnerb
2013-10-13, 20:55:05
Naja die Frage - und hier kommen wir auf AMD zurück - ist ja die:
Was ist geschickter?

a) Niedriges TempTarget -> niedriger Takt und Leistungsaufnahme, aber der Kühler muss relativ gesehen auch mehr arbeiten als wenn bei gleichem Takt 90°C erlaubt wäre
b) Hohes TempTarget -> höherer Takt und Verbrauch, dafür z.B. 10°C mehr Spielraum

Ob sich das nicht aufhebt?

Tesseract
2013-10-13, 21:02:20
Gut, es ist ein DHE Kühler, aber die Teile haben derbe Nachteile.
DHE sind darauf ausgelegt möglichst autark zu sein. man kann 2 DHE-karten zwischen andere karten stecken und sie kommen damit relativ gut klar. die OEM-konstruktionen sind immer ganz toll wenn sie alleine auf dem offenen test bench liegen aber ab da geht es dann los: in einen tower einbauen? ein paar grad mehr. andere karten wie eine soundkarte drin haben? noch ein paar grad mehr. oder gar eine zweite graka daneben einbauen? noch ein paar grad mehr.
und plötzlich ist die OEM-karte, die am test bench noch 25° kühler war als die DHE, auf 100° und throttelt rum. ganz großes kino.

dass es bei AMD in der vergangenheit kaum brauchbare DHE gab ist sicher kein vorteil.

Superheld
2013-10-13, 21:14:01
According to the information we received from manufacturer AMD has postponed the launch of the Radeon R9 290X.

http://videocardz.com/46729/amd-radeon-r9-290-series-launch-postponed


hoffentlich nur abgeschriem von Boxleitnerb..;(

LSSJBroly
2013-10-13, 21:16:56
a) Niedriges TempTarget -> niedriger Takt und Leistungsaufnahme, aber der Kühler muss relativ gesehen auch mehr arbeiten als wenn bei gleichem Takt 90°C erlaubt wäre
b) Hohes TempTarget -> höherer Takt und Verbrauch, dafür z.B. 10°C mehr Spielraum

Ob sich das nicht aufhebt?

Ich würde eher Option b) wählen. Da wäre das Ding warscheinlich schneller und etwas leiser.


DHE sind darauf ausgelegt möglichst autark zu sein. man kann 2 DHE-karten zwischen andere karten stecken und sie kommen damit relativ gut klar. die OEM-konstruktionen sind immer ganz toll wenn sie alleine auf dem offenen test bench liegen aber ab da geht es dann los: in einen tower einbauen? ein paar grad mehr. andere karten wie eine soundkarte drin haben? noch ein paar grad mehr. oder gar eine zweite graka daneben einbauen? noch ein paar grad mehr.
und plötzlich ist die OEM-karte, die am test bench noch 25° kühler war als die DHE, auf 100° und throttelt rum. ganz großes kino.

dass es bei AMD in der vergangenheit kaum brauchbare DHE gab ist sicher kein vorteil.
So sehe ich das auch.

boxleitnerb
2013-10-13, 21:22:20
10W? Zwischen 80 und 94 Grad liegen bei GK110 60+W...

LSSJBroly
2013-10-13, 21:36:30
Gut, den Boost vergessen, die Spannung/der Takt schraubt sich ja nach oben. Dann kommen 60 watt gut hin, ja :)

boxleitnerb
2013-10-13, 21:45:13
Ja Moment, hier ging es um Stock, nicht schon übertaktet. Bei Computerbase z.B. taktet die Karte mit 863-915 MHz, da dürften nur ca. 1.0V anliegen. Bei 94°C gibts dann gleich 993 MHz bei vermutlich 1.162V. Bei Titan verhält es sich ganz ähnlich.
Bei dir sind es nur +8% mehr Spannung, dort ca. 16%. Das haut natürlich rein.

Ich hab mit Titan z.B. Folgendes gemessen:
810 MHz@0.987V = 315W (System)
1006 MHz@1.162V = 382W

Knappe 70W sind das.

matty2580
2013-10-13, 21:50:06
Under Embargo Until 15 October, 2013 @ 12:51 AM EST

Also -6h, dann ca. 7:00 Uhr am Dienstag Morgen ist mit den Tests zu rechnen?

boxleitnerb
2013-10-13, 21:51:12
Das bezieht sich erstmal nur auf die Folien. Wie oft noch - es wird am 15. keine Tests geben!

horn 12
2013-10-13, 21:52:28
@Boxleitnerbox

Was ist nun an dem Gerücht drann?
Mindfactory hat ja komplett Systeme und wird diese auch morgen raushauen, oder blockiert auch da AMD den Verkauf der R9 290X Karten
Wollen wohl R9 290X und R9 290 zeitgleich verfügbar haben, kann es daher kommen das Launch wackelt ?

Dies kann echt nur AMD, immer dasselbe mit dem Totalen Vergeigen von Grafikkarten!
Hoffe AMD bekommt´s ordentlich auf die Fresse, und stehen eine Titan Ultra nach mit der R9 290X
So nicht AMD !!

Vielleicht schafft ein Endkunde AMD ordentlich eins auszuwischen!

LSSJBroly
2013-10-13, 21:53:09
Bei Computerbase z.B. taktet die Karte mit 863-915 MHz, da dürften nur ca. 1.0V anliegen. Bei 94°C gibts dann gleich 993 MHz bei vermutlich 1.162V. Bei Titan verhält es sich ganz ähnlich.
Bei dir sind es nur +8% mehr Spannung, dort ca. 16%. Das haut natürlich rein.

Die 10 Watt bezogen sich einzig auf die höhere Temperatur (und daraufhin mehr Leckströme im Chip), nicht auf mehr Spannung. Hätte ich deutlicher machen müssen, bzw. hatte ich den GPU-Boost da vergessen:D

Dass mehr Spannung deutlich mehr Leistungsaufnahme fordert, ist ja klar;). Und klar, ein höheres Temp-Target verursacht ja auch mehr Takt und spannung.


Interessant ist ja weiterhin, wie hoch AMD ihr Powertune auf standard setzen. 250 Watt wären wohl ebenfalls warscheinlich - +20% würden 300 Watt ergeben.
Und dann eben, wie viel Spannung AMD da stock für die 1.000MHz draufknallt.

boxleitnerb
2013-10-13, 21:55:24
Ich kenne jemanden bei MF, dem hab ich vorhin ne Mail geschrieben. Aber soweit ich weiß, haben die Tester eben noch keine Karten. Da musst du nicht 10x fragen, mehr weiß ich nicht und mehr kann ich nicht sagen.
Ich kenne bloß noch ein Video von LinusTechTips, da ist klar eine Karte zu sehen, höchstwahrscheinlich eine 290 oder 290X. Wo der die her hat, keine Ahnung.

@LSSJBroly:
Ja der Boost ist das Problem. Die Temperatur selbst ist kaum ein Faktor im Vergleich dazu.

horn 12
2013-10-13, 21:59:53
Da sollen jene die Karte testen und das NDA brechen um AMD ordentlich mal eins auszuwischen! Haben es redlich verdient!
Jene verarschen uns Endkunden immer wieder!

PS: Bin stocksauer und die 7950-er Karte heute in den MP gestellt!

Felixxz2
2013-10-13, 22:01:28
Du sagst also niemand hat Karten? Wie kannst du das z.B. für die USA wissen?

@horn

Warum so sauer? Nur weil evtl der Test ne Woche später kommt? Come on....

horn 12
2013-10-13, 22:03:49
NDA BRECHER aus Fernost - Los es ist Zeit AMD in den Ruin zu treiben!

boxleitnerb
2013-10-13, 22:08:35
Du sagst also niemand hat Karten? Wie kannst du das z.B. für die USA wissen?


Es wäre doch arg merkwürdig, wenn deutschte Reviewer keine Karten hätten, amerikanische aber schon. Ein, zwei Tage Unterschied beim Verschicken würde ich noch verstehen, aber bisher war es doch immer so, dass die Tests alle zeitgleich veröffentlicht wurden. Wenn die Amis übermorgen Tests raushauen, ist irgendwas gewaltig schiefgelaufen, denn hier in Deutschland wirst du davon nichts sehen.

Edit:
Kann jemand horn mal eine Beruhigungspille geben? :D

aufkrawall
2013-10-13, 22:08:35
Man, bei dir und AMD ist das aber auch ein Wechselbad der Gefühle. :freak:

matty2580
2013-10-13, 22:09:12
Das grenzt an Spam Horn 12.
Wenn sich die Tests verschieben ist das ärgerlich, aber kein Weltuntergang. ^^

maximus_hertus
2013-10-13, 22:10:46
NDA BRECHER aus Fernost - Los es ist Zeit AMD in den Ruin zu treiben!

Why? Was ist dein Problem? Hat AMD einen NICHT öffentlichen datierten Launch wohl verschoben, wow.

Vor allem, du hast doch eine 7950? Ist sie so langsam? Oder warum brauchst du jetzt sofort die 290?

Abgesehen davon ist AMD wohl kurz vor dem Desaster - Mantle ist wohl ihre letzte Chance nochmal was zu erreichen. Auf jeden Fall war die HD7000-Serie eine Katastrophe für AMD (Marge, Marktanteile, etc.).

horn 12
2013-10-13, 22:11:23
Langsam werde ich ruhiger, aber Karte ist im Verkauf.
Muss nun die Karte wieder raushauen, wenn AMD nicht in die Pushen kommt!
Hoffe doch sehr an die Leute bei MF!

Ronny145
2013-10-13, 23:41:38
UPDATE
Short after posting this story we received more information. According to it the release date is close to the official launch of Battlefield 4. Although I cannot confirm it (just) yet.


Das wäre noch etwa 2 Wochen hin. Schade.

OBrian
2013-10-13, 23:51:25
AMD hofft wohl, daß Nvidia seine Antwort zu früh preisgibt, so daß AMD dann mit dem Preis reagieren kann. So eine Art "wer zuerst blinzelt" Situation. Halte ich zwar für Stuß, denn der Preis wird sowieso im Markt gebildet und nicht durch die UVP; aber was hab ich schon Ahnung von den Feinheiten der hohen Marketingkunst *hüstel*

Oder es ist zu kleinen Verzögerungen in der Logistik gekommen und man möchte sich nicht wieder dem Vorwurf eines Paperlaunches aussetzen. Besser zwei Wochen später launchen als zwei Wochen lang nach Launch nichts im Handel zu haben.

Thunder99
2013-10-14, 01:20:13
@horn12

Nur weil dir es nicht in den Kram passt dass das Review (angeblich) verschoben wurde muss man nicht ein Shitstorm machen! Kepp :cool: . Und nebenbei hat AMD offiziell den 15. als Release Termin genannt? ;)

Haldi
2013-10-14, 01:58:12
Cool.... mein Acc hier funktioniert noch xD

Also nun wissen wir auch wieso das Datum des NDA ende bei AMD immer unter NDA steht.
War nie 15ter als Datum angegeben! Also wird es auch nicht verschoben! Es haben sich nur die Gerüchte das es am 15ten fällt als Falsch erwiesen.


@Felix,
Es gibt da so ein ding... nennt sich Internet, mit dem kann man mit Leuten rund um die Erde kommunizieren ohne dafür im Minutentarif dafür berappen zu müssen.

Also ich wäre Stark überrascht wenn bestimmte Seiten morgen Tests raus hauen und die anderen einfach Leer ausgehen.

Felixxz2
2013-10-14, 02:07:23
Witzig. Wenn Box natürlich Kontakte zu allen großen US-Seiten hat.....was aber laut seinen Aussagen eher nicht so ist.
Wenns stimmen würde wärs aber lustig. Denn außer hier im 3DC hat das wohl sonst bei PCGh oder CB niemand gepostet. Die Leute da würden sich schön wundern.

asdf25
2013-10-14, 03:56:03
https://twitter.com/amd_roy/status/389492380853735424

horn 12
2013-10-14, 04:53:37
Na was nun.
Ist ein AMD Promoter und jener sagt Launch und Termin wird eingehalten, bleibt also 15. Oktober, morgen Dienstag!
Wen man wohl mehr trauen kann ?

horn 12
2013-10-14, 04:58:36
Witzig. Wenn Box natürlich Kontakte zu allen großen US-Seiten hat.....was aber laut seinen Aussagen eher nicht so ist.
Wenns stimmen würde wärs aber lustig. Denn außer hier im 3DC hat das wohl sonst bei PCGh oder CB niemand gepostet. Die Leute da würden sich schön wundern.

Doch Volker von CB hatte gesagt dass es am 15-ten KEINE Karten geben werde, erst eine Woche+ später.
PS: Bin wieder ruhiger geworden :-)

Felixxz2
2013-10-14, 06:02:16
Er hat aber nicht gesagt, dass es keinen Test geben wird. Genauso wenig wie Raff.

M4xw0lf
2013-10-14, 07:08:14
Wenn der AMD-Mensch sagt, der Launch wurde nicht verschoben, dann war der 15. Oktober vielleicht doch von vornherein nur für die Folien... :(

horn 12
2013-10-14, 07:40:35
Schon mal Positiv:

Unlocked Voltage
Power Tune 2.0
Blower fan Design

http://videocardz.com/images/2013/10/XFX-290X.jpg

boxleitnerb
2013-10-14, 08:22:10
Doch Volker von CB hatte gesagt dass es am 15-ten KEINE Karten geben werde, erst eine Woche+ später.


Wo hatte er das gesagt? Bin dort nicht mehr so im Forum unterwegs.

M4xw0lf
2013-10-14, 08:24:57
Schon mal Positiv:

Unlocked Voltage
Power Tune 2.0
Blower fan Design

http://videocardz.com/images/2013/10/XFX-290X.jpg

Ähm yay...
Blower fan design: Radialbrüllkühler
Powertune 2.0: Takt springt fröhlich hin und her wie es ihm gefällt
Unlocked Voltage ist hier das einzig positive, was aber auch wieder nur für einen geringen Teil der Käufer relevant ist ;)

matty2580
2013-10-14, 09:11:32
Denn außer hier im 3DC hat das wohl sonst bei PCGh oder CB niemand gepostet. Die Leute da würden sich schön wundern.
Ich habe es in meine User-News (http://extreme.pcgameshardware.de/user-news/289180-leak-zur-neuen-grafikkarten-generation-von-amd-hawaii-21.html#post5744260) bei PCGH übernommen. Bin mir aber noch unsicher ob das alles so stimmt.
Vermutlich wird AMD wieder einmal "nur" die Testsamples sehr spät verschicken.

Felixxz2
2013-10-14, 10:33:57
Ich glaub auch nich wirklich dran. Wieso sollte man für nen 438mm2 Chip in 28nm ao schlrchte Yields haben, dass man nichtmal Reviewer beliefern kann!?

Raff was sagst du denn dazu? Kannst du dir sowas vorstellen? Oder 'glaubst' du an AMD?

M4xw0lf
2013-10-14, 10:38:47
Da die Teile schon überall gelistet sind, glaube ich nicht dass es an Problemen der Verfügbarkeit liegt. Eher Treibergeschichten oder es soll tatsächlich gleichzeitig mit dem BF4-Launch stattfinden, für mehr Aufmerksamkeit oder so.

Darkness
2013-10-14, 10:46:30
Man könnte glatt meinen Nvidia und ATI sind zwei Religionen so wie es hier abgeht teilweise.....

Mal ne andere Frage am Rande: Weis man eigentlich schon wieviel cm die Referenzboards von R290 und R290X in etwa sind ? ..... mein Gehäuse ist nicht das größte :(

LSSJBroly
2013-10-14, 10:50:37
Mal ne andere Frage am Rande: Weis man eigentlich schon wieviel cm die Referenzboards von R290 und R290X in etwa sind ? ..... mein Gehäuse ist nicht das größte :(

Die Karten werden wohl wie immer um die 27, 5cm lang sein.

Darkness
2013-10-14, 11:06:38
Die Karten werden wohl wie immer um die 27, 5cm lang sein.

Sehr schön, dann passts genau ^^

john carmack
2013-10-14, 11:23:41
Man könnte glatt meinen Nvidia und ATI sind zwei Religionen so wie es hier abgeht teilweise.....

Mal ne andere Frage am Rande: Weis man eigentlich schon wieviel cm die Referenzboards von R290 und R290X in etwa sind ? ..... mein Gehäuse ist nicht das größte :(


Ich verstehe das auch nicht wie man "seine" Marke bis aufs Blut verteidigen kann und dem Konkurenten nicht zugesteht das er auch mal was gutes auf die Beine gestellt hat.
Davon mal abgesehen, das es unglaublich anmaßend ist zu behaupten das eine Technologie besser funktionieren würde wie man es selbst für richtig hält und sich somit über "1000" Ingenieure von AMD, Nvidia, Intel... stellt.
Diese Leute haben verdammt nochmal ihre absolut berechtigten Gründe warum zB. ein Chache 1MB groß sein soll und muss! und nicht 1,5MB oder 2MB!

Das ist wirklich so kindisch. Wie im Kindergarten wo das eine Kind dem anderen sein Spielzeug weg genommen hat...
Sehr traurig das es Leute gibt die es nicht schaffen ihren Verstand einzuschalten!
Auf der anderen Seite bräuchte ich auch hier manchmal auch kein "Popcorn" :D was auch recht schade wäre.

So... und jetzt noch 18,5std warten :P

Superheld
2013-10-14, 11:26:54
So... und jetzt noch 18,5std warten :P

vllt gibt nur die Folien zu sehen, der 15. stand ja dort druf:(
http://abload.de/img/1jkkjm.jpg (http://abload.de/image.php?img=1jkkjm.jpg)

It seems 290X reviews - 10/24/2013 and 290
10/31/2013, but not final dates yet, i think http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5210924&viewfull=1#post5210924

Ich glaub...:rolleyes:

mboeller
2013-10-14, 11:35:54
vielleicht wartet AMD ja auf eine Beta von Mantle-BF4?

Wäre doch klug, oder? Wenn man Nvidia einen "Arschtritt" verpassen kann dann doch gleich richtig und ein Mantle-BF4 wäre doch die richtige "Schmiere" :)

[dzp]Viper
2013-10-14, 11:55:12
vielleicht wartet AMD ja auf eine Beta von Mantle-BF4?

Wäre doch klug, oder? Wenn man Nvidia einen "Arschtritt" verpassen kann dann doch gleich richtig und ein Mantle-BF4 wäre doch die richtige "Schmiere" :)


Das wäre auf alle Fälle kein schlechter taktischer Zug.. der erste Eindruck zählt halt am meisten ;)

john carmack
2013-10-14, 12:11:12
Bin überhaupt mal gespannt wie sich das "neue" CF ohne Brücke auf die MR auswirken wird.

Das MR reduziert (bzw. positiv beeinflusst werden) werden hat AMD ja gesagt.
Nun kann das aber nur 0,5% besser sein aber auch 50%.

Selbt bei nur 0,1% hatte AMD nicht gelogen... Denn besser wäre es ja, wenn auch nur minimal.

dildo4u
2013-10-14, 12:15:10
Selbt bei nur 0,1% hatte AMD nicht gelogen... Denn besser wäre es ja, wenn auch nur minimal.
Warum sollte man für AMD solche Ausreden erfinden?Es sollte ne Menge bringen ansonsten hat sich die Investition es zu entwickeln auch nicht gelohnt.

AnarchX
2013-10-14, 12:21:12
Hier schreibt auch jemand etwas über OEM-Lieferprobleme: http://we.poppur.com/thread-2160048-1-1.html
... und die 280X wurde wohl etwas abgeschwächt, damit die 290 einen höheren Abstand hat. Der OEM-Preis soll wohl "überraschend" sein.

Bilder eines HIS Samples: http://www.expreview.com/album/28801.html

john carmack
2013-10-14, 12:29:56
Warum sollte man für AMD solche Ausreden erfinden?Es sollte ne Menge bringen ansonsten hat sich die Investition es zu entwickeln auch nicht gelohnt.


Echt? Hab ich gar nicht mitbekommen...
Wird die 290er etwa zur EierlegendenWollMilchSau?

Mantle
CF ohne Brücke + FramePacing Treiber
DSP (TrueAudio)
Schneller als Titan
Günstiger als die 780
Neuer Referenz-Kühler
DX11.2
.
.
.
Hab ich was vergessen? =)

dildo4u
2013-10-14, 12:34:23
Echt? Hab ich gar nicht mitbekommen...
Wird die 290er etwa zur EierlegendenWollMilchSau?

Mantle
CF ohne Brücke + FramePacing Treiber
DSP (TrueAudio)
Schneller als Titan
Günstiger als die 780
Neuer Referenz-Kühler
.
.
.
Hab ich was vergessen? =)
Kühler ist vermutlich wieder Müll,sie ist teurer als GTX780,nach den ersten Listungen und Speed laut AMD langsamer als Titan und GTX 780.

http://geizhals.de/?cat=gra16_512&xf=132_2048~1440_R9+290X#xf_top

R290X 8000
http://scr3.golem.de/screenshots/1309/Radeon-Launch/thumb620/Radeons.png

Titan 9300
GTX780 8600
R290X 8300?
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r7-260x-r9-270x-und-280x-im-test/16/

Bissel verschoben die bessere CPU scheint 300 Punkte zu bringen(Siehe R280 Bench) bleibt aber dabei R290X unter GTX780 und Titan.

Superheld
2013-10-14, 12:34:43
glaub ich nicht, wahrscheinlich alles erfunden :D

dildo4u
2013-10-14, 12:39:42
Was glaubst du nicht die Folie ist von AMD die Listungen von den Shops.

[dzp]Viper
2013-10-14, 12:42:06
Kühler ist vermutlich wieder Müll,sie ist teurer als GTX780,nach den ersten Listungen und Speed laut AMD langsamer als Titan und GTX 780.

http://geizhals.de/?cat=gra16_512&xf=132_2048~1440_R9+290X#xf_top

R290X 8000
http://scr3.golem.de/screenshots/1309/Radeon-Launch/thumb620/Radeons.png

Titan 9300
GTX780 8600
R290X 8300?
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r7-260x-r9-270x-und-280x-im-test/16/

Bissel verschoben die bessere CPU scheint 300 Punkte zu bringen(Siehe R280 Bench) bleibt aber dabei R290X unter GTX780 und Titan.

1) Die Preise sind noch keine "echten" Preise. Die "echten" Preise werden sich auf dem richtigen Niveau erst ein paar Tage nach dem richtigen Release einpendeln. Aktuell sind die Preise sehr hoch da man hofft die, die auf die Graka richtig scharf sind, abschröpfen zu können.
Die Titan war vor ihrem Release auch 100-200€ teuer als 2-3 Tage nach dem Release.

2. Du machst die allgemeine Spieleperformance von Firestrike-Benchmark abhängig?? :ugly:
Momentan scheint es eher so zu sein, dass die 290x minimal schneller als die Titan wird (Spieletechnisch gesehen.. )

dildo4u
2013-10-14, 12:43:24
Viper;9957604']

2. Du machst die allgemeine Spieleperformance von Firestrike-Benchmark abhängig?? :ugly:
Momentan scheint es eher so zu sein, dass die 290x minimal schneller als die Titan wird (Spieletechnisch gesehen.. )
Das ist das einzige was 100% verlässlich ist zur Zeit da direkt von AMD.

[dzp]Viper
2013-10-14, 12:44:37
Das ist das einzige was 100% verlässlich ist zur Zeit da direkt von AMD.
Und wieso schliesst du dann davon auf die Spieleperformance? :ugly:

LSSJBroly
2013-10-14, 12:48:20
Viper;9957610']Und wieso schliesst du dann davon auf die Spieleperformance? :ugly:

Interessanterweise ist der 3dmark firestrike ein ganz guter Indikator für die allgemeine gaming-Performance. Eine Titan ist da rund 25 bis 30 % schneller als die 7970 GE. Und so sieht das auch in games aus.

M4xw0lf
2013-10-14, 12:48:23
Das ist das einzige was 100% verlässlich ist zur Zeit da direkt von AMD.
Das Diagramm ist nach oben nicht klar begrenzt, gell ;)

dildo4u
2013-10-14, 12:49:14
Viper;9957610']Und wieso schliesst du dann davon auf die Spieleperformance? :ugly:

AMD scheint mit dem neuen Treiber die 3D Mark Performance auf selbe Level wie die Games geholt zu haben R280 liegt leicht vor GTX 770.

Der Bench geht jetzt sogar ganz leicht Richtung AMD laut CB ist die GTX 770 in Game's minimal schneller.(In der selben Auflösung wie der normale Firestrike bench)
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-r7-260x-r9-270x-und-280x-im-test/6/

Duplex
2013-10-14, 12:59:07
Wenn die R9 290X 30% gegenüber der 7970Ghz zulegt, dann ist man in Firestrike mit der Titan gleichauf.

boxleitnerb
2013-10-14, 13:03:35
Was glaubst du nicht die Folie ist von AMD die Listungen von den Shops.

Die Skala bei der 290X ist aber nicht zu Ende, sondern nach oben offen. Man sieht doch den Blur ganz oben, während die anderen Balken hart abgeschnitten sind.

Nakai
2013-10-14, 13:15:35
Wieso immer Firestrike? AMD Karten sind da irgendwie immer schlechter dran, als in den Spielen. Nvidias Titan oder GTX780 sind teilweise schon ziemlich in Schlagreichweite der 280X und der 7970GHz, da fehlt wirklich nicht viel. Und ja es ist natürlich Rosinenpickerei, aber imo sind in den meisten Benches die AMD-Karten im Schnitt schneller als äquivalente Nvidia-Karten.
Vor allem die 280X Toxic (1150MHz Turbo) kommt schon sehr nah an GTX780-Niveau. AMD wird ihre Hawaii-Karten definitiv höher als die Toxic ansetzen. Wäre R9 290 kaum schneller als die HD7970GHz würden wir keine so schnellen übertakteten R9 280X-Karten sehen. In hohen Einstellungen(SSAA, 5760+) gibt's für AMD noch einen guten Schub.

290X ~ Titan
290 ~ GTX780

Ahja, man sieht auch, dass GK110/GK180 noch einen draufsetzen könnte.

dildo4u
2013-10-14, 13:17:21
Wieso immer Firestrike? AMD Karten sind da irgendwie immer schlechter dran, als in den Spielen.
Nicht mehr scheint per Treiber gefixt.

Felixxz2
2013-10-14, 13:25:30
Aber wie schon 10000x gesagt, hat AMD keinen Firestrikewert genannt. Langsamer als 780 ist ja auch völliger BS, dann wäre man kaum vor einer 7970GHz.

Allgemein ist Firestrike aber ein sehr guter Indikator. Spiegelt ziemlich genau die Durschnittslage in Games wieder.

boxleitnerb
2013-10-14, 13:27:18
Wieso immer Firestrike? AMD Karten sind da irgendwie immer schlechter dran, als in den Spielen. Nvidias Titan oder GTX780 sind teilweise schon ziemlich in Schlagreichweite der 280X und der 7970GHz, da fehlt wirklich nicht viel. Und ja es ist natürlich Rosinenpickerei, aber imo sind in den meisten Benches die AMD-Karten im Schnitt schneller als äquivalente Nvidia-Karten.
Vor allem die 280X Toxic (1150MHz Turbo) kommt schon sehr nah an GTX780-Niveau. AMD wird ihre Hawaii-Karten definitiv höher als die Toxic ansetzen. Wäre R9 290 kaum schneller als die HD7970GHz würden wir keine so schnellen übertakteten R9 280X-Karten sehen. In hohen Einstellungen(SSAA, 5760+) gibt's für AMD noch einen guten Schub.

290X ~ Titan
290 ~ GTX780

Ahja, man sieht auch, dass GK110/GK180 noch einen draufsetzen könnte.

Weil Firestrike die Performance innerhalb einer technologischen Generation gut abbildet. Man muss halt bei einem IHV bleiben und darf beim Extreme Preset ins VRAM-Limit rennen, dann passt es. Sprich, für Vergleiche AMD GCN vs AMD GCN ist es geeignet, für GCN vs Kepler oder Kepler vs Fermi nicht.
Wenn du OC-Modelle betrachtest, die gibt es von der GTX 780 auch ;)

Felixxz2
2013-10-14, 13:36:43
Nein eben nicht. Firestrike ist sehr gut geeignet für Vergleiche zwischen Kepler und GCN. Siehe aktuelle 280X Tests. Ist aber völlig OT, es gibt keine offiziellen Firestrikewerte für die 290X, damit EOD.

Botcruscher
2013-10-14, 13:41:41
Das ist das einzige was 100% verlässlich ist zur Zeit da direkt von AMD.

Ich sehe auf der Folie keine 8000. Das die Karte jenseits der Skala steht ist kein Zufall.
PS: Der letzte Balken verläuft nach oben und ist nicht sauber abgeschnitten wie bei allen anderen Karten.

Haldi
2013-10-14, 13:42:18
btw Firestrike Performance und so...
Ein kollege von mir hat die 7970ghz Matrix version auf 1250mhz und einen 4770K, das ergibt auch 9300 punkte in Firestrike.

Es gab ja schon iwo mal leaks von möglichen 290(x?) karten die so um die 8300 rum waren.

Cyv
2013-10-14, 13:43:13
So langsam werd ich ungeduldig. Meine 7970 schafft es zwar den 27" 2560x1440 zu befeuern, aber am wochenende kommen noch 2 27"er hinzu. Für 7680x1440 hätte ich gerne 2x 290x :( Eine zweite 7970 wird wenig bringen und lohnt aktuell nicht zu kaufen. 2x gtx 780 hat mir zu wenig vram, langsam sollte amd mal mit den infos rausrücken...:(

Schaffe89
2013-10-14, 13:46:53
Kühler ist vermutlich wieder Müll,sie ist teurer als GTX780,nach den ersten Listungen und Speed laut AMD langsamer als Titan und GTX 780.

Was soll das Getrolle eigentlich mit den Firestrike Werten?
Die wurden abgeschnitten, du Spezialist und btw die 290 ist sicher nicht teurer wie ne GTX 780, völliger Unsinn, man steigt nicht MOnate nach dem KOnkurrenten mit ner neuen Karte ein und überbietet im Preis und unterbietet in der Leistung.

Karten sind schon gelistet, ergo erwarte ich auch morgen Tests, vielleicht gibts diesmal einfach ne neue Strategie um so lange dicht zu halten.

Nakai
2013-10-14, 13:48:06
Weil Firestrike die Performance innerhalb einer technologischen Generation gut abbildet. Man muss halt bei einem IHV bleiben und darf beim Extreme Preset ins VRAM-Limit rennen, dann passt es. Sprich, für Vergleiche AMD GCN vs AMD GCN ist es geeignet, für GCN vs Kepler oder Kepler vs Fermi nicht.
Wenn du OC-Modelle betrachtest, die gibt es von der GTX 780 auch ;)

Natürlich gibt es die. ;)
Aber mal im Ernst, Hawaii hat fast überall(bis auf Bandbreite) mindestens 40%+ auf Tahiti. Wenn die 290X nicht 30%+ auf 280X bringt, muss ich mir ernsthaft überlegen einen Besen nicht zu fressen. Für mich steht außer Frage, ob die 290X gegen Titan ankommt.

So oder so, sehen wir so schnell eh keine neuen Karten. GK180 kommt bald, aber dann? Es sieht nicht so aus, dass AMD und Nvidia sehr bald neue Chips/Karten bringen. Da sehen wir erst wieder was in etwa 8 Monate oder so.

mfg

€: Man muss auch wirklich sagen, dass Nvidia mit GK110 nicht sehr weit gegangen ist. Wohl oder übel limitiert hier das TDP. Mal gucken ob GK180 mehr bringt. Ich erwarte eigentlich nicht viel...

Schaffe89
2013-10-14, 13:57:39
Ich hab grad mal ICQ angeschmissen und nen Mitarbeiter bei ne mittelgroßen Kette zur 290x gefragt.
Die Karte kommen noch diese Woche Freitag rein und werden dann ausgeliefert.
Glaubt da wirklich jemand an den 24. Oktober? Halten die die Karten im Lager solange zurück?

Er sagt, dass sie in der Regel die Karten zu einem Launch nur sehr wenige Tage lagern, höchstens 1 oder 2 Tage.

Ich tippe auf nen Launch noch diese Woche, es gibt ja auch schon mehrere Listungen, das war mAn bisher noch nie der Fall.

@ boxleitnerb

Ich glaube dich verarscht da jemand. :D

Doch Volker von CB hatte gesagt dass es am 15-ten KEINE Karten geben werde, erst eine Woche+ später.

Wo hat er das gesagt? Ich meion wahrscheinlich haben die Tester noch keine Karten, bekommen sie wohl aber morgen, eben zum NDA Fall der Folien.
Wenn die Distributoren schon Karten haben und Filialen gar am Freitag schon, warum sollen dann Tester diese Woche keine bekommen?

Das ist irgendwie bescheuert.

Also ich kauf mir dann am Freitag eine Karte.:freak:

PS: Vielleicht setzt AMD ja auf Mundpropaganda statt auf Tests? :D

LSSJBroly
2013-10-14, 14:11:11
Aber mal im Ernst, Hawaii hat fast überall(bis auf Bandbreite) mindestens 40%+ auf Tahiti. Wenn die 290X nicht 30%+ auf 280X bringt, muss ich mir ernsthaft überlegen einen Besen nicht zu fressen.

Die Titan hat auch mehr als 50% Rechenleistung und speicherbandbreite gegenüber der GTX 680 (beide mit durchschnittlichem boost), ist aber trotzdem in WQHD selten schneller als 35 bis 40%.

Dazu kommt noch bei Hawaii, dass die Bandbreite ein limitierender Faktor werden kann.

Was ich damit sagen will, ist, dass die reinen Spezifikationen noch nicht allzu viel über die richtige Performance aussagen.

Felixxz2
2013-10-14, 14:22:43
Titan hat aber wie Tahiti einen schwachen Rasterizer. Natürlich kann man 50% Mehreinheiten auch Auslasten, ist ja kein Gesetz, dass mehr als 2000 Shader ineffizient werden. Hawaii hat ein dickes Frontend, viele ROPs, genügend Bandbreite und sollte seine Shader eigentlich auch auf die Straße bringen. Sieht dir Pitcairn CF an ;)

Nakai
2013-10-14, 14:33:23
Naja Hawaii ist ja etwas mehr als ein doppelter Pitcairn. Pitcairn hat ne Diesize von 212mm², Hawaii hat 438mm². Bei etwa 6,1 Milliarden Transistoren hat man eine Packdichte von etwa 14MillTrans/mm². Das ist abartig hoch. Ich hab ja schonmal geschrieben, dass wohl Pitcairns bessere Packdichte maßgeblich dem kleineren SI geschuldet ist. Hawaii ist da definitiv darüber und ich erwarte da noch einige Überraschungen(DP1:2, Architekturmodifikationen). Pitcairn hat nur 2,8 Milliarden Tranistoren. Hawaii ist definitv mehr als nur ein doppelter Pitcairn, also kein reiner Gaming-Chip(DP:SP 1:16).

Felixxz2
2013-10-14, 14:36:21
Klar aber selbst ein 7870 CF ist schon auf Titan Niveau. Also sollte Hawaii Titan eig mit leichtigkeit schlagen können.

M4xw0lf
2013-10-14, 14:42:07
Klar aber selbst ein 7870 CF ist schon auf Titan Niveau. Also sollte Hawaii Titan eig mit leichtigkeit schlagen können.
Wenn beim mehr als verdoppelten Chip eine schlechtere Skalierung als bei Pitcairn-CF rauskäme, dann wäre schon einiges schiefgelaufen. 7870-CF Performance ist ziemlich genau das, was ich erwarte, mit Tendenz zu mehr. Kommt natürlich darauf an ob Hawaii mit dem durchgängig 1GHz Takt von Pitcairn XT mithalten kann ohne manuelle Eingriffe in den Treiber.

Felixxz2
2013-10-14, 14:46:35
Ein Pitcairn CF wäre bei 1GHz aber nur die 290 ohne X bei ebenfalls 1GHz und eben auf Titan Niveau! Eine 290X bei 1GHz sollte da nochmal ne gute Schippe drauf legen, da mehr Shader und kein CF. Auf jeden Fall muss die 290X die Titan schlagen, sonst hat man in Sachen Leistung/Einheiten wirklich was falsch gemacht.

Coda
2013-10-14, 14:47:48
Titan hat aber wie Tahiti einen schwachen Rasterizer.
Wat? Wie kommst du darauf? Das Ding hat 5 davon und einen absolut absurden Durchsatz, selbst mit kleinen Dreiecken.

M4xw0lf
2013-10-14, 14:49:01
Ein Pitcairn CF wäre bei 1GHz aber nur die 290 ohne X bei ebenfalls 1GHz und eben auf Titan Niveau! Eine 290X bei 1GHz sollte da nochmal ne gute Schippe drauf legen, da mehr Shader und kein CF. Auf jeden Fall muss die 290X die Titan schlagen, sonst hat man in Sachen Leistung/Einheiten wirklich was falsch gemacht.
Die 2816 Shader reißens nicht raus - das sind nur 10% mehr gegenüber der 290 bzw ggüber Pitcairn XT CF. Deswegen sag ich ja, auf den Takt kommts an.

john carmack
2013-10-14, 14:50:27
Lieferbar in 3-7 Tagen. Passt schon

http://www.innova24.biz/item/computer-und-navigation/grafikkarten-pci-e/msi-r9-290x-4096mb-gddr5-r9290x4096mbgddr5--1291139.htm

LSSJBroly
2013-10-14, 14:50:38
Wat? Wie kommst du darauf? Das Ding hat 5 davon und einen absolut absurden Durchsatz, selbst mit kleinen Dreiecken.

Jup, das ding kommt auf fast 6 Mrd Dreiecke pro Sekunde. Die 290x soll auf 4 Mrd kommen. ..

john carmack
2013-10-14, 14:53:39
Ein Pitcairn CF wäre bei 1GHz aber nur die 290 ohne X bei ebenfalls 1GHz und eben auf Titan Niveau! Eine 290X bei 1GHz sollte da nochmal ne gute Schippe drauf legen, da mehr Shader und kein CF. Auf jeden Fall muss die 290X die Titan schlagen, sonst hat man in Sachen Leistung/Einheiten wirklich was falsch gemacht.


Echt?
Kenne mich mit CF nicht so aus. Hab es noch nie verbaut.

Ist ein Pitcairn CF @ 1Ghz auf Titan Niveau?

Dann ist die 290X ein Stück schneller als eine Titan

M4xw0lf
2013-10-14, 14:53:57
Lieferbar in 3-7 Tagen. Passt schon

http://www.innova24.biz/item/computer-und-navigation/grafikkarten-pci-e/msi-r9-290x-4096mb-gddr5-r9290x4096mbgddr5--1291139.htm
Na wenn AMD einen ganz harten hard Launch vorhat, dann warten sie vielleicht doch noch ne Woche ^^

Felixxz2
2013-10-14, 14:54:05
Die 2816 Shader reißens nicht raus - das sind nur 10% mehr gegenüber der 290 bzw ggüber Pitcairn XT CF. Deswegen sag ich ja, auf den Takt kommts an.

Wenn man aber schon mit einem Pitcairn CF an der Titan kratzt bzw. gleich auf liegt, dann sind die 10% aber entscheident.

Wat? Wie kommst du darauf? Das Ding hat 5 davon und einen absolut absurden Durchsatz, selbst mit kleinen Dreiecken.

AFAIK hat Titan zwar 5 Rasterizer aber nur mit 8 Pixeln/Takt/Rasterizer, was eben nur 25% mehr als auf GK104 sind. Bin natürlich jetzt nicht so in die Praxis involviert, hab jetzt nur die theoretischen Werte übertragen. Da wäre Hawaii mit 64 Pixeln/Takt deutlich vorn.

@ John Carmack
Bei guter Skalierung (+80%) liegen Pitcairn CF und Titan gleich auf.

Superheld
2013-10-14, 14:56:00
290x~6 Transen.
titan~7 Transen.

;)

Gipsel
2013-10-14, 14:57:26
Jup, das ding kommt auf fast 6 Mrd Dreiecke pro Sekunde.Mach da mal <5 Mrd. draus! ;)
Die 290x soll auf 4 Mrd kommen. ..Das ist auch nicht in jeder Situation gut zu vergleichen. Die Radeons scheinen etwas simpler zu funktionieren, sie erreichen zwar offenbar (anders als nV) ihren nominellen Durchsatz unabhängig davon, ob die Dreiecke gerastert werden müssen oder nicht (Culling, weil sie z.B. verdeckt sind oder nicht im Blickfeld sind, kann Dreiecke nach dem Setup verwerfen), allerdings bricht das wohl stärker ein, wenn es viele Vertexparameter gibt, iirc.

M4xw0lf
2013-10-14, 14:58:20
290x~6 Transen.
titan~7 Transen.

;)
Un nu? Von denen sind auf der Titan mindestens 500 Mio schon mal stillgelegt ;)

Ailuros
2013-10-14, 15:01:16
AFAIK hat Titan zwar 5 Rasterizer aber nur mit 8 Pixeln/Takt/Rasterizer, was eben nur 25% mehr als auf GK104 sind. Bin natürlich jetzt nicht so in die Praxis involviert, hab jetzt nur die theoretischen Werte übertragen. Da wäre Hawaii mit 64 Pixeln/Takt deutlich vorn.

Ich geh jetzt nicht in die absurden Einzelheiten wie bei den obrigen ein aber Dein originaler Satz:

Titan hat aber wie Tahiti einen schwachen Rasterizer.

...ist eben nach wie vor Bloedsinn. Weder hat Titan nur "eine" raster Einheit, noch sind sie in irgend einem heutigen Vergleich in irgendwelchen "schwachen" Region. Was jetzt Hawaii im Vergleich in Echtzeit auftischen kann gegen Titan bleibt abzusehen, aber entschuldige das Ding wird den GK110 so oder so auch nicht in den Boden stampfen koennen. Ergo nach all der Zeit ist Hawaii auch nicht das GPU Ueberwunder was wohl heisst dass wir alle schoen auf dem Teppich bleiben koennen.

Nakai
2013-10-14, 15:01:41
290x~6 Transen.
titan~7 Transen.

;)

Es ist müßig Transistorenvergleiche durchzuführen. Sicherlich hat das einige Relevanz, jedoch sind die Architekturen eh schon ziemlich verschieden(Redundanz, Verschaltungen, ). Ich bleibe am Ende immer bei der Diesize und da ist Hawaii ziemlich mickrig im Vergleich zu Titan, was nicht heißen muss, dass Hawaii profitabler ist. NV hat hald HPC als Steckenpferd und der Gamingmarkt bekommt, stark überzogen ausgedrückt, die Abfälle.;)

Ailuros
2013-10-14, 15:04:26
Es ist müßig Transistorenvergleiche durchzuführen. Sicherlich hat das einige Relevanz, jedoch sind die Architekturen eh schon ziemlich verschieden(Redundanz, Verschaltungen, ). Ich bleibe am Ende immer bei der Diesize und da ist Hawaii ziemlich mickrig im Vergleich zu Titan, was nicht heißen muss, dass Hawaii profitabler ist. NV hat hald HPC als Steckenpferd und der Gamingmarkt bekommt, stark überzogen ausgedrückt, die Abfälle.;)

Und selbst wenn der gamingmarkt die "Abfaelle" bekam hat NV trotz allem den Titan bei Wucherpreisen verkaufen koennen. Es steckt mir zwar immer noch im Hals, aber AMD koennte nicht soooo leicht $999 GPUs verkaufen.

LSSJBroly
2013-10-14, 15:06:09
Mach da mal <5 Mrd. draus! ;)


PCGH schreibt seit Titan-Release von knapp 6 Mrd bei 837 MHz. Kann natürlich ein Fehler sein.

Felixxz2
2013-10-14, 15:07:40
Mir klar, dass Titan nicht nur 1 Rasterizer hat....Fakt ist aber, dass 2x7850 schneller als Tahiti sind und Titan weit von +50% auf GK104 entfernt ist. Ein Punkt in den ellenlangen Diskussionen über die Gründe war bei Tahiti das Frontend mit nur 2 Rasterizern bei 32 Pixeln/Takt.

Wenn das aber nicht zutrifft, kannst du ja bestimmt aufklären woran das liegt.

Nakai
2013-10-14, 15:14:40
Und selbst wenn der gamingmarkt die "Abfaelle" bekam hat NV trotz allem den Titan bei Wucherpreisen verkaufen koennen. Es steckt mir zwar immer noch im Hals, aber AMD koennte nicht soooo leicht $999 GPUs verkaufen.

Das ist ein Faktum, dem man nicht Entgegenargumentieren kann. Bei NV steckt auch eine Taktik dahinter. Anstatt viel Redundanz im Chip reinzubauen, gibt es keine Redundanz, dafür mehr Einheiten. Im Laufe der Lebenszeit(bessere Yields, optimierter Prozess) sieht der Markt dann immer bessere Versionen. Dass der Käufer so abgestraft wird, ist natürlich negativ zu werten. Ich warte immer noch auf das dicke Ende...^^

Gipsel
2013-10-14, 15:17:02
PCGH schreibt seit Titan-Release von knapp 6 Mrd bei 837 MHz. Kann natürlich ein Fehler sein.Ist es auch. 5*0,837 GHz = 4,185 Mrd./s.

AnarchX
2013-10-14, 15:23:53
Ist es auch. 5*0,837 GHz = 4,185 Mrd./s.
14*0,5*~0,9 GHz = 6,3 Mrd./s. (http://www.hardware.fr/articles/887-8/performances-theoriques-geometrie.html)

Palpatin
2013-10-14, 15:28:33
http://forums.anandtech.com/showpost.php?p=35603073&postcount=333

Superheld
2013-10-14, 15:29:52
übertaktet -,- :smile:

es geht los;D

Gipsel
2013-10-14, 15:30:49
14*0,5*~0,9 GHz = 6,3 Mrd./s. (http://www.hardware.fr/articles/887-8/performances-theoriques-geometrie.html)
Die gar nicht gerastert werden. Wie gesagt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9957815#post9957815) nutzt nV ein etwas anderes System als AMD. Das Setup ist verteilt (jeder SMx hat eins, half rate, also ein Dreieck alle 2 Takte) aber es gibt eben nur 5 Rasterizer, die also in der Summe nur 5 Dreiecke pro Takt entgegennehmen können. Die Zahlen der culled Triangles messen das Setup und das Verwerfen der Dreiecke, davon landet kein einziges auf dem Bildschirm (und wird auch gar nicht gerastert).

mironicus
2013-10-14, 15:36:41
http://forums.anandtech.com/showpost.php?p=35603073&postcount=333

So in etwa hat man es doch erwartet... R290 schneller als GTX 780. R290X schneller als Titan (bei gleichem Takt und deutlich geringerem Speichertakt) - zwar nur geringfügig, aber mehr ist auch nicht notwendig.

Einer Ultra sollte AMD auch noch leicht kontern können - mit einer GHz Edition.

Felixxz2
2013-10-14, 15:38:52
Anscheinend taktet die 290X aber nur auf Titan niveau, da sie bei gleichem Takt (1100) leicht überlegen ist.

john carmack
2013-10-14, 15:57:07
Einer Ultra sollte AMD auch noch leicht kontern können - mit einer GHz Edition.

An so ein Szenario hab ich auch schon gedacht... Vielelicht Anfang Q2 2014?

Dann könnte auch eine 290X Ghz mit 5,5Gbps oder gar mit 6Gbps Speicher kommen (352GB/s oder 384GB/s)

7Gbps Speicher wie es die 770 hat glaube ich mal nicht dran.
Kann mir auch schwer Vorstellen das die 290X mit deaktivierten Einheiten daher kommt wie die Titan.

M4xw0lf
2013-10-14, 15:58:31
Ich glaube nicht dass das Speicherinterface so hohe Taktraten mitmacht, die Fläche lässt sich ja nicht umsonst einsparen.
In dem neuen Leak hier gerade läuft der Speicher @OC grade mal mit 1275 MHz / 5,1 Gbps !

Nightspider
2013-10-14, 15:59:50
Mal eine Frage:
Hier wurde gesagt, das der Speichercontroller in der GPU kleiner ausfällt bei der 290X im Gegensatz zur 7970, weil dieses für geringere Taktraten ausgelegt ist.

Würde die 290X also mit schnelleren VRAM Chips gar nichts anfangen können und könnte es sein das man den VRAM dann kaum übertakten kann bei der 290X ?

mironicus
2013-10-14, 16:00:05
http://forums.anandtech.com/showpost.php?p=35603192&postcount=335

john carmack
2013-10-14, 16:01:08
Mal eine Frage:
Hier wurde gesagt, das der Speichercontroller in der GPU kleiner ausfällt bei der 290X im Gegensatz zur 7970, weil dieses für geringere Taktraten ausgelegt ist.

Würde die 290X also mit schnelleren VRAM Chips gar nichts anfangen können und könnte es sein das man den VRAM dann kaum übertakten kann bei der 290X ?

hmmm... keine Ahnung.
In den Folien steht nur was von "high density SI"

AnarchX
2013-10-14, 16:04:10
Die gar nicht gerastert werden. Wie gesagt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9957815#post9957815) nutzt nV ein etwas anderes System als AMD. Das Setup ist verteilt (jeder SMx hat eins, half rate, also ein Dreieck alle 2 Takte) aber es gibt eben nur 5 Rasterizer, die also in der Summe nur 5 Dreiecke pro Takt entgegennehmen können. Die Zahlen der culled Triangles messen das Setup und das Verwerfen der Dreiecke, davon landet kein einziges auf dem Bildschirm (und wird auch gar nicht gerastert).
Trotz allem ist die Angabe von Carsten nicht völlig falsch.

Mal eine Frage:
Hier wurde gesagt, das der Speichercontroller in der GPU kleiner ausfällt bei der 290X im Gegensatz zur 7970, weil dieses für geringere Taktraten ausgelegt ist.

Würde die 290X also mit schnelleren VRAM Chips gar nichts anfangen können und könnte es sein das man den VRAM dann kaum übertakten kann bei der 290X ?
Momentan sind 6Gbps Chips auf der 290X verbaut. Aber die laufen wohl möglich im 5Gbps/1,35V Modus, wodurch das OCing eher eingeschränkt sein könnte (hier nur 25MHz (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9957862#post9957862)).
Mit 1,55V und hochwertigen PCBs kommt man vielleicht auch in Richtung 6Gbps, wie bei der 270X.

(del676)
2013-10-14, 16:06:36
Hmm.
80% schneller als eine standard 7950. Da ueberleg ich mir ernsthaft mein Crossfire in eine SGPU umzutauschen.

tm0975
2013-10-14, 16:11:37
Hmm.
80% schneller als eine standard 7950. Da ueberleg ich mir ernsthaft mein Crossfire in eine SGPU umzutauschen.

das endet doch eh wieder in einem R290X Crossfire :biggrin:;D:biggrin:

Die kleine Leistungsvorschau ist beeindruckend!

Gipsel
2013-10-14, 16:16:28
Anscheinend taktet die 290X aber nur auf Titan niveau, da sie bei gleichem Takt (1100) leicht überlegen ist.Je nachdem, wie Du mißt, boosted Titan in den Benchmarks ja auch dauerhaft auf ~1GHz. :rolleyes:

Trotz allem ist die Angabe von Carsten nicht völlig falsch.Falsch nicht, die Angabe betrifft nur nicht die Rasterizer (auf die sich Felixx/Coda/LSSJBroly bezogen) sondern das Setup. ;)

Felixxz2
2013-10-14, 16:20:54
Richtig. Alles sehr undurchsichtig mit diesen Boosts. Wschl takten beide einfach bei ~1Ghz in den Benches. Aber ich hätt mal gern ne Taktbereinigung.

Duplex
2013-10-14, 16:23:26
Der GK110 Vollausbau braucht um die 1050 MHz Boost damit man wieder die Nr.1 sein kann, selbst wenn die GTX Ultra mehr als Titan verbraucht sehe ich kein Problem, die Preispolitik sollte Nvidia aber überdenken.

Pick
2013-10-14, 16:31:21
290X - 7.1 Milliarden Transistoren?
http://www.techpowerup.com/192491/reference-radeon-r9-290x-taken-apart.html

Dural
2013-10-14, 16:40:09
Wenn das alles ist dürfte es NV leicht fallen die Karte mit dem GK180 zu übertrumpfen, erst recht wenn der Takt der 780i mit 1150MHz stimmt.

Ich hoffe aber das es jetzt einen Preiskrieg gibt. :biggrin:

OBrian
2013-10-14, 16:45:22
Der GK110 Vollausbau braucht um die 1050 MHz Boost damit man wieder die Nr.1 sein kann, selbst wenn die GTX Ultra mehr als Titan verbraucht sehe ich kein Problem, die Preispolitik sollte Nvidia aber überdenken.
Nein, das einzige, was Nvidia nicht überdenkt, ist die Preispolitik, denn die funktioniert. Hat man die teuerste Karte (die sowieso kaum jemand kauft), dann ist man automatisch eine "Premiummarke" und kann die kleineren Mainstreamkarten für etwas mehr absetzen. Was Nvidia an GK110-Chips nicht als überteuerte Titans verkaufen kann, geht eben in den professionellen Markt und wirft da noch mehr ab, aber große Mengen von GK110 wird NV eh nicht produzieren.

john carmack
2013-10-14, 16:50:04
http://pics.computerbase.de/5/2/7/6/4/14_m.jpg

Der GDDR5 Speicher ist ein:
Hynix H5GQ2H24AFR-R0C

http://www.skhynix.com/datasheet/img/H5GQ2H24AFR_Ordering_information_resize.jpg

den kann man bis zu 6Gbps OC ?!?!

Tobe1701
2013-10-14, 16:51:43
Tolle Wurst AMD, in 2 Wochen kommt das Mantle-Vorzeigegame mit BF4 und noch immer kann man als Aufrüstwilliger nix planen.
- wann kommt die 290er und wieviel schneller als die 280x ist sie
- was kostet sie
- wird es eine Neuauflage von Never Settle geben und wenn ja für welche Karten und womit
Erst einen heiß machen und dann...nix. Ich wünschte NV würde z.B. die 770er einfach 50€ vergünstigen und dann können sie launchen wann sie wollen :(

M4xw0lf
2013-10-14, 16:52:12
http://pics.computerbase.de/5/2/7/6/4/14_m.jpg

Der GDDR5 Speicher ist ein:
Hynix H5GQ2H24AFR-R0C

http://www.skhynix.com/datasheet/img/H5GQ2H24AFR_Ordering_information_resize.jpg

den kann man bis zu 6Gbps OC ?!?!

Die Speicherbausteine vielleicht.

john carmack
2013-10-14, 16:54:01
Die Speicherbausteine vielleicht.
Ja,
von was rede ich denn?! ;)

M4xw0lf
2013-10-14, 16:55:42
Ja,
von was rede ich denn?! ;)
Das weiß ich nicht so genau - auf einer Hawaii-Karte werden die Taktraten jedenfalls höchstwahrscheinlich nicht erreicht werden können, weil das SI nicht mitspielt.

AnarchX
2013-10-14, 16:58:30
http://pics.computerbase.de/5/2/7/6/4/14_m.jpg

Der GDDR5 Speicher ist ein:
Hynix H5GQ2H24AFR-R0C

http://www.skhynix.com/datasheet/img/H5GQ2H24AFR_Ordering_information_resize.jpg

den kann man bis zu 6Gbps OC ?!?!
Der 5Gbps/1,35V Modus dieser Chips bietet sich für die bekannten Specs an.
Da hängt es im Endeffekt davon ab, ob man die Speicherspannung erhöhen kann.

mironicus
2013-10-14, 16:58:50
Macht das die Karte nicht auch schon um einiges stromsparender, wenn der Speicher so niedrig taktet?

Es würde mich nicht wundern, wenn die R290x unter der 7970 GHz beim Verbrauch liegt.

Duplex
2013-10-14, 17:03:27
2x R9-290 @1.2Ghz OC für 800-900 Euro wäre Super, viel schneller als 2x Titan.

OBrian
2013-10-14, 17:03:39
@ mironicus: Wenn sie kaum drüber läge, wäre es schon eine deutliche Effizienzsteigerung. Zwar ist der RAM langsamer, aber dafür sind es auch ein Drittel mehr RAM-Chips, und die Diefläche ist auch größer (und beileibe nicht leer).

Duplex
2013-10-14, 17:13:35
Wenn das alles ist dürfte es NV leicht fallen die Karte mit dem GK180 zu übertrumpfen, erst recht wenn der Takt der 780i mit 1150MHz stimmt.
Eine R9-290 XXX Spezial Edition mit 1100 GPU wäre sicher auch noch möglich (evtl. auch mit 8GB), mit neuen Binning kann ich mir auch 1150 GPU vorstellen.
Hawaii ist im vergleich zu GK110 recht klein, man könnte ein 550mm² Chip mit 3584 Einheiten bauen, was würde Nvidia dann dagegen machen können?
Das Potential der 28nm Fertigung hat Nvidia mit GK110 bereits ausgenutzt, AMD noch nicht, 551 vs. 438mm².

MR2
2013-10-14, 17:19:28
@Tobe1701
Bei never settle tut sich was...
http://www.amd4u.com/radeonrewards/index_maintenance.html


bei cb hat einer bestätigt bekommen, daß seine 290x morgen rausgeht. Mal schauen.
" Zitat von Satzzeichen:
Ich hab die Bestätigung das meine r9 290x morgen das Lager verlässt "
Ist diese:
http://www.kmcomputer.de/sonstige/23235/powercolor-r9-290x-oc-4096mb-pci-e-2xdvi-hdmi

steht aber 5 Tage da

Raff
2013-10-14, 17:28:00
Hawaii ist im vergleich zu GK110 recht klein, man könnte ein 550mm² Chip mit 3584 Einheiten bauen, was würde Nvidia dann dagegen machen können?
Das Potential der 28nm Fertigung hat Nvidia mit GK110 bereits ausgenutzt, AMD noch nicht, 551 vs. 438mm².

Takt hoch. Mit ordentlicher Kühlung und 300 Watt TDP. Ausgehend von der jetzigen Titan sind +30 Prozent realistisch.

MfG,
Raff

Duplex
2013-10-14, 17:29:55
Takt hoch. Mit ordentlicher Kühlung und 300 Watt TDP.
Ja, 1050-1100 Boost mit 2880 Shader sind bei der TDP kein großes Problem.
Dann ist aber zu erwarten das AMD ebenfalls die Karte nochmal höher takten wird, R9 290 XXX.

Thomas Gräf
2013-10-14, 17:33:19
@Tobe1701
Bei never settle tut sich was...
http://www.amd4u.com/radeonrewards/index_maintenance.html


bei cb hat einer bestätigt bekommen, daß seine 290x morgen rausgeht. Mal schauen.
" Zitat von Satzzeichen:
Ich hab die Bestätigung das meine r9 290x morgen das Lager verlässt "

Grotesk, die User in den Foren benchen fleißig und AMD bereitet dann noch den weltweiten Launch vor...???
Hehe das gabs ja noch nie ;)

maximus_hertus
2013-10-14, 17:41:30
Errinert mich fatal an die RV770 / RV970 Launches - da gab es Userbenches teilweise eine Woche(!) vor Launchdatum.

MR2
2013-10-14, 17:42:47
Grotesk, die User in den Foren benchen fleißig und AMD bereitet dann noch den weltweiten Launch vor...???
Hehe das gabs ja noch nie ;)

Das gabs schon, AMD hatte dann den Launch Tag mal vorgelegt gehabt, weil die Karten schon rausgingen..
Aber diesmal wird das sicher nicht so, Ende der Woche wird das schon werden. Vielleicht gibts ja morgen Tests.

mboeller
2013-10-14, 17:45:17
Grotesk, die User in den Foren benchen fleißig und AMD bereitet dann noch den weltweiten Launch vor...???
Hehe das gabs ja noch nie ;)


doch; HD4870 ;)

Duplex
2013-10-14, 17:48:07
Schade das man im CPU Bereich 0 Erfolg hat, 6 Jahre nach K10 und immer noch nichts gescheites von AMD.
Es gibt im CPU Bereich kein Fortschritt mehr, die letzten Gen. Ivy & Haswell sind gegenüber Sandy ein lacher...

fondness
2013-10-14, 18:04:43
http://forums.anandtech.com/showpost.php?p=35603073&postcount=333

Na das sieht doch sehr gut aus. Damit braucht NV schon mindestens den Vollausbau um überhaupt gleichziehen zu können. Und selbst dann hat man keinen höhere Perf/Takt. Wenn sich ein GK180 nicht höher takten lässt sehe ich wenig Grund warum dieser Hawaii schlagen sollte.

Raff
2013-10-14, 18:09:02
Na das sieht doch sehr gut aus. Damit braucht NV schon mindestens den Vollausbau um überhaupt gleichziehen zu können. Und selbst dann hat man keinen höhere Perf/Takt. Wenn sich ein GK180 nicht höher takten lässt sehe ich wenig Grund warum dieser Hawaii schlagen sollte.

Sieht gut aus, yop. Aber das OC nicht: 1.275 MHz beim Speicher, d.h. nur 2.550 statt 2.500 MHz. :ugly:

MfG,
Raff

fondness
2013-10-14, 18:10:41
Sieht gut aus, yop. Aber das OC nicht: 1.275 MHz beim Speicher, d.h. nur 2.550 statt 2.500 MHz. :ugly:

MfG,
Raff

Naja Bandbreite hat man wohl genug mit dem 512-bit SI - der höhere Takt scheint gut durchzuschlagen. Zumindest nimmt der Abstand zur Titan mit OCing zu.

Sollte eine Titan-Ultra kommen muss AMD ev. besseren Speicher verbauen. Oder vielleicht kann man auch manuell die Speicherspannung erhöhen...

M4xw0lf
2013-10-14, 18:12:38
Naja Bandbreite hat man wohl genug mit dem 512-bit SI - der höhere Takt scheint gut durchzuschlagen. Sollte eine Titan-Ultra kommen muss AMD ev. besseren Speicher verbauen. Oder vielleicht kann man auch manuell die Speicherspannung erhöhen...
Vermutlich ist aber eben nicht der Speicher das Problem, sondern das dichtgepackte SI selbst.

fondness
2013-10-14, 18:13:27
Vermutlich ist aber eben nicht der Speicher das Problem, sondern das dichtgepackte SI selbst.

Mag sein, aber Pitcain schafft auch 1450Mhz, von daher sollte das auch mit Hawaii möglich sein.

-/\-CruNcher-/\-
2013-10-14, 18:15:43
Schade das man im CPU Bereich 0 Erfolg hat, 6 Jahre nach K10 und immer noch nichts gescheites von AMD.
Es gibt im CPU Bereich kein Fortschritt mehr, die letzten Gen. Ivy & Haswell sind gegenüber Sandy ein lacher...
Es gibt verdammt viele Detailverbesserungen mit denen Gamer zum teil allerdings nichts anfangen können zum anderen teil schon, ausserdem hat zu viel fortschritt die folge das man einfach zu bequem wird weil die Hardware wirds ja richten in dem sinne war die letzte Konsolengeneration sehr interessant was die alles in Bewegung gesetzt hat im Berreich Effizienzsteigerung ist schon beachtlich, auch wenn viele Gamer sie ja nur als den Porting Horror in Erinnerung haben. ;)

Raff
2013-10-14, 18:21:27
Mag sein, aber Pitcain schafft auch 1450Mhz, von daher sollte das auch mit Hawaii möglich sein.

Gute Pitkerne schaffen sogar bis zu 3.100 MHz. Einige "Curacao"-Karten laufen gar mit 3.000 MHz ab Werk und haben noch etwas Luft nach oben. Aber diese GPUs sind eben nicht Hawaii – neben dem Speicher und dessen Controller spielen wohl auch Geschichten wie das Platinendesign mit Signalproblemen rein.

MfG,
Raff

M4xw0lf
2013-10-14, 18:24:13
Gute Pitkerne schaffen sogar bis zu 3.100 MHz. Einige "Curacao"-Karten laufen gar mit 3.000 MHz ab Werk und haben noch etwas Luft nach oben. Aber diese GPUs sind eben nicht Hawaii – neben dem Speicher und dessen Controller spielen wohl auch Geschichten wie das Platinendesign mit Signalproblemen rein.

MfG,
Raff
... sprach Raff, der vermutlich schon die OC-Limits des Speichers in- und auswendig kennt :upara:

Schaffe89
2013-10-14, 18:24:24
Na das sieht doch sehr gut aus. Damit braucht NV schon mindestens den Vollausbau um überhaupt gleichziehen zu können. Und selbst dann hat man keinen höhere Perf/Takt. Wenn sich ein GK180 nicht höher takten lässt sehe ich wenig Grund warum dieser Hawaii schlagen sollte.

Das Performancerating, welches hier gepostet wurde ist im Schnitt sogar etwas Nvidialastig.
Und trotzdem ist hier die 290x bereits 10% vor der Titan.

Bei Computerbase liegen 770 und 280x exakt gleich auf, mit Vorteilen der 280x bei höheren Settings. Titan könnte bei CB im Schnitt bei 2560x1600 klar geschlagen werden (15%+) und selbst eine 290 ohne "X" könnte Titan @ stock erreichen.

-/\-CruNcher-/\-
2013-10-14, 18:28:24
Das Performancerating, welches hier gepostet wurde ist im Schnitt sogar etwas Nvidialastig.
Und trotzdem ist hier die 290x bereits 10% vor der Titan.

Bei Computerbase liegen 770 und 280x exakt gleich auf, mit Vorteilen der 280x bei höheren Settings. Titan könnte bei CB im Schnitt bei 2560x1600 klar geschlagen werden (15%+) und selbst eine 290 ohne "X" könnte Titan @ stock erreichen.

Jep in den meisten D3D Engines pendelt sich das anscheinend dort ein (es gibt aussnahmen die sind dann aber schon extreme eine ist Anvil Next), wenn man diese Game Benchmarks wirklich als zuverlässig ansehen kann

270x = 760 GTX
280x = 770 GTX

allerdings ist der Stromverbrauch nicht vollends schlüssig nachzuvolziehen und auch wirklich aussagekräftige DSP tests fehlen, das einzige was man sehr gut beurteilen kann ist die Synthetische Compute Performance und die ist definitiv sehr viel höher als Nvidias in diesem Preisberreich (noch).

Schaffe89
2013-10-14, 18:36:31
allerdings ist der Stromverbrauch nicht vollends schlüssig nachzuvolziehen

Hoffentlich gibt es umfangreiche Tests zu allen Partnerkarten.

AMD könnte seit langem innerhalb eines Nodes die schnellste Karte stellen, selbst eine Titan Ultra dürfte es gegen die 290x ziemlich schwer haben.

-/\-CruNcher-/\-
2013-10-14, 18:40:01
Daran glaub ich ehrlichgesagt nicht nicht von den jetzigen Daten her, und berrechnet man Nvidias Research Cycle deren Performancesteigerung die ansteht mit Maxwell wird Hardwaretechnisch selbst wenn AMD über Titan kommt dieser Vorsprung nicht von Langer dauer sein aber es wird user auf AMD seite ziehen und das ist auch gut so(vor allem alle die Earlyadopter hier) :)
Ohne AMDs pressure bei Compute würde Nvidia im Mainstream mit Maxwell nicht nachziehen und wenn AMD es schaft Nvidia zu Mantle zu bringen wo die Chancen aber sehr gering für stehen, wäre das für alle gut :)

Schaffe89
2013-10-14, 18:47:54
Maxwell in 28nm? Daran glaube ich nicht, eher vielleicht den kleinen Chip nochmal in 28 bringen, aber Nvidia steht aktuell eh gut da.

Dural
2013-10-14, 18:48:28
Ihr könnt schon % Rechnen?

Die 7950 ist 100% und nicht die Titan :rolleyes:
Wenn die Titan 100% wäre, wäre die 290X in dieser Tabelle 2-3% schneller (nein hab es nicht ausgerechnet)

Da wäre eine Titan mit 15 SMS schon gleich oder schneller, selbst ohne Takt Erhöhung.

M4xw0lf
2013-10-14, 18:52:00
Ihr könnt schon % Rechnen?

Die 7950 ist 100% und nicht die Titan :rolleyes:
Wenn die Titan 100% wäre, wäre die 290X in dieser Tabelle 2-3% schneller (nein hab es nicht ausgerechnet)

Da wäre eine Titan mit 15 SMS schon gleich oder schneller, selbst ohne Takt Erhöhung.
3,67% - ja, ich hab es ausgerechnet ^^

Dural
2013-10-14, 18:56:39
OK

Schon interessant das zwei verschiedene Chips so nahe zusammen sind.

Thomas Gräf
2013-10-14, 19:08:20
Stop stop Männer ;) also kann man spekulieren das 290x=50% schneller als 7970Ghz?
Wär ja erstmal traumhaft...

M4xw0lf
2013-10-14, 19:11:26
Stop stop Männer ;) also kann man spekulieren das 290x=50% schneller als 7970Ghz?
Wär ja erstmal traumhaft...
Nä, das nicht. Gegenüber der non-GHz könnte es grade so hinkommen.

OBrian
2013-10-14, 19:12:50
OK

Schon interessant das zwei verschiedene Chips so nahe zusammen sind.nee, wenn der eine schon lange vorher auf dem Markt ist. Dann muß der andere Hersteller seinen Chip nur exakt darauf einstellen.

Interessant wird nur, ob die Verteilung der Spiele genauso ist wie bei Tahiti gegen z.B. die 680 (d.h. Spiel X besser auf AMD, Spiel Y besser auf NV im Vergleich zum Durchschnitt), oder ob die Veränderungen wie überproportional stärkeres Frontend usw. das irgendwie verändern.

Und natürlich was Mantle bewirkt, aber BF4 wird wohl auf AMD gar nicht ohne Mantle laufen, d.h. man kann den Effekt "Mantle an/aus" nicht vom üblichen Effekt "AMD-/NV-Spiel" trennen.

Dural
2013-10-14, 19:13:46
hmm mit den zwei Tabellen könnte man jetzt auch noch den stock Takt +/- der 290X ausrechnen.

Wer hat Lust? ;D

ilibilly
2013-10-14, 19:30:49
Battlefield muss ja ohne Mantel laufen,Mantel Patch soll doch erst im Dezember kommt nicht zum b4 Launch,oder ist das schon wieder hinfällig?

boxleitnerb
2013-10-14, 19:50:56
Nein eben nicht. Firestrike ist sehr gut geeignet für Vergleiche zwischen Kepler und GCN. Siehe aktuelle 280X Tests. Ist aber völlig OT, es gibt keine offiziellen Firestrikewerte für die 290X, damit EOD.

Das war nicht immer so!

Wat? Wie kommst du darauf? Das Ding hat 5 davon und einen absolut absurden Durchsatz, selbst mit kleinen Dreiecken.

Sind bei allen Titans und 780ern nicht nur 4 GPCs aktiv? Ich hab noch keine mit 5 GPCs gesehen.

Skysnake
2013-10-14, 20:00:05
Mal eine Frage:
Hier wurde gesagt, das der Speichercontroller in der GPU kleiner ausfällt bei der 290X im Gegensatz zur 7970, weil dieses für geringere Taktraten ausgelegt ist.

Würde die 290X also mit schnelleren VRAM Chips gar nichts anfangen können und könnte es sein das man den VRAM dann kaum übertakten kann bei der 290X ?
Kann man so Pauschal nicht sagen. Ein kleineres Speicherinterface, also von der DIE-Size her, legt aber nahe, dass die SerDes kleiner sind, und damit wohl auch schwächer. Sie können also nicht ganz so starke Signale treiben.

Da spielt aber eben auch der RAM an sich mit rein, genau wie das Platinenlayout, das Package und auch die Frage, ob man jetzt den RAM-Controller nur einfach oder auch doppelt bestückt usw usw.


Gute Pitkerne schaffen sogar bis zu 3.100 MHz. Einige "Curacao"-Karten laufen gar mit 3.000 MHz ab Werk und haben noch etwas Luft nach oben. Aber diese GPUs sind eben nicht Hawaii – neben dem Speicher und dessen Controller spielen wohl auch Geschichten wie das Platinendesign mit Signalproblemen rein.

MfG,
Raff
Siehe oben, es sind sehr viele Faktoren die da reinspielen.

horn 12
2013-10-14, 20:11:01
@Was gibt's NEUES zum Launch, Termin noch diese Woche?

Lu
2013-10-14, 20:13:18
Offizieller Launch ist jetzt der 29. Okt. zusammen mit Battlefield 4.

Ätznatron
2013-10-14, 20:14:21
Das war nicht immer so!



Sind bei allen Titans und 780ern nicht nur 4 GPCs aktiv? Ich hab noch keine mit 5 GPCs gesehen.

Mir ist auch noch keine mit 5 über den Weg gelaufen.

Angepriesen werden sie ja mit 4 oder 5.

Na ja, offenbar 4 für die Frühkäufer (also alle bisherigen) und 5 dann, wenn es die Konkurrenzsituation erfordert. :biggrin:

LSSJBroly
2013-10-14, 20:14:57
Sind bei allen Titans und 780ern nicht nur 4 GPCs aktiv? Ich hab noch keine mit 5 GPCs gesehen.

Bei der Titan sinds 5 - da 14SMX. Die 780er haben wohl alle 4.

boxleitnerb
2013-10-14, 20:23:08
Bei der Titan sinds 5 - da 14SMX. Die 780er haben wohl alle 4.

Ganz sicher? Das kann man doch mit irgendeinem Benchmark testen, das mach ich - kann aber erst am Donnerstag.

@Benchmarks:
Scheint so, als hat AMD die Flaschenhälse alle gelöst. Man ist soviel schneller im Vergleich zu Titan wie man mehr Rohleistung hat, passt :)
Wenn eine Ultra rauskommt, dürfte es praktisch einen Gleichstand geben.

S940
2013-10-14, 20:42:20
Battlefield muss ja ohne Mantel laufen,Mantel Patch soll doch erst im Dezember kommt nicht zum b4 Launch,oder ist das schon wieder hinfällig?
Nein, aber ein paar Leute spekulierten wild über ne Mantle-Beta die AMD vielleicht eventuell schon ein bisschen zeigen könnte.

dargo
2013-10-14, 20:45:12
@Benchmarks:
Scheint so, als hat AMD die Flaschenhälse alle gelöst. Man ist soviel schneller im Vergleich zu Titan wie man mehr Rohleistung hat, passt :)

Du meinst R9 290X ist 24% schneller als die Titan? Das wäre natürlich nicht schlecht. Ist es aber nicht etwas zu hoch gegriffen?

boxleitnerb
2013-10-14, 20:48:29
Du meinst R9 290X ist 24% schneller als die Titan? Das wäre natürlich nicht schlecht. Ist es aber nicht etwas zu hoch gegriffen?

Ich bezog mich auf die OC-Benchmarks, wo beide bei ca. 1100 MHz liefen. Und ich bin in der Lage, einen Regler zu verschieben, danke. Ich gehe immer von Titan@ ~1 GHz aus ;)
Wenn Titan nicht von der Leine gelassen wird, könnten deine 20+% schon hinkommen - kommt halt drauf an, wie hoch die AMD boostet. Denke, da geht mit Powertune@ +20% auch noch ein paar Prozent, das würde ich genausowenig ignorieren.

Im Endeffekt wird AMD leicht vorne liegen schätze ich, eben wegen der paar Einheiten mehr.

Dural
2013-10-14, 21:09:45
wie kommst du darauf?

Titan hat doch quasi überall weniger Einheiten als die 290X.
Aber ja die beiden Chips liegen extrem nahe, bei den Einheiten, Leistung und Takt, gab es so was schon mal? Kann mich nicht daran erinnern.

boxleitnerb
2013-10-14, 21:12:27
Wie komme ich auf was?

Dural
2013-10-14, 21:13:33
das Hawaii effizienter / gleich ist wie GK110

boxleitnerb
2013-10-14, 21:16:24
Effizienter bzgl. was? R290X hat mehr Einheiten wie Titan, bei gleichem Takt wird er deshalb auch etwas flotter sein vermutlich.

(del676)
2013-10-14, 21:29:53
das endet doch eh wieder in einem R290X Crossfire :biggrin:;D:biggrin:

Natuerlich wirds das. :)

LSSJBroly
2013-10-14, 21:56:26
Ganz sicher? Das kann man doch mit irgendeinem Benchmark testen, das mach ich - kann aber erst am Donnerstag.

Ganz sicher - jedes GPC (GK110) besitzt drei SMX - bei 14SMX müssen zwingend 5 aktiv sein;)
http://abload.de/thumb/ffelshm.jpg (http://abload.de/image.php?img=ffelshm.jpg)


Zum testen der Fillrate:
http://www.3dcenter.org/download/fillrate-tester

Meine GTX 780 zeigt da stock auch etwa 27 bis 29 GPixel/s an.