Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD positioniert die Radeon Vega Frontier Edition gegen NVs Titan Xp


Leonidas
2017-06-16, 12:17:47
Link zur News:
https://www.3dcenter.org/news/amd-positioniert-die-radeon-vega-frontier-edition-gegen-nvidias-titan-xp

MartinRiggs
2017-06-16, 12:18:28
Na da bin ich ja mal gespannt ob das was wird.

Gast Ritis
2017-06-16, 12:54:29
Dass die Frontier Editions gegen die Titanen gesetzt werden war doch schon bei der Vorstellung klar.
Man hat deutlich gesagt es sind keine RX und oben drauf gabs 16GB VRAM und Positionierung in Produktion. Ganz klar Titan Segment also.

Was im Artikel leider schief geht sind die Spekulationen um die Leistung mit dem Fijii Vergleich auf Basis der Leistung je GHz.
Der Fijii war auf relativ weniger Gemoetrie und Rasterizing für 4k ausgelegt im Vergleich zu nVidias Lösungen. Beim Shading/Compute wollte man neue Ansätze. Der Gaming-Bereich hat dort die Prioritäten in Richtung nVidia laufen lassen, darauf basiert der 3DC Index Wert.
Wenn der Vega dort die Bottlenecks gegenüber Fijii wie angekündigt entschärft kann man Dreisatzrechnung mit GHz nicht mehr hernehmen, das kann dann einfach nicht mehr stimmen.

Im Crypto liegen die Compute Fähigkeiten von AMD und nVidia auch anders.
Was den Fijii und Vegas im Profi Bereich noch fehlt sind mangelnde OpenCL Software als alternative zu CUDA. Aber bei Adobe&Co könnte das schon passen.
Beim Gaming lösen DX12 und Vulkan langsam die Probleme der Auslastung im Shading/Compute für Fijii, bei Gemoetrie und ROPs wird man erst noch sehen was zusätzlich raus kommt.

Abwarten also.

Gast
2017-06-16, 15:27:39
Wenn die Spielekarte auch nur 8GB hat und evtl. nur 500€ kostet wäre diese trotzdem uninteressant für mich. Gerade in diesen Segement und Preisgefüge wünsche ich mir mindestens 12GB

Gast
2017-06-16, 15:59:50
Wenn es zum Launch der FE echt keine brauchbaren Treiber gibt mit denen man auch Games laufen lassen kann hab ich Angst um den Treiberzustand der Consumer Vega nen Monat später. AMD hat es langsam endlich geschaft das Image der schlechten Treiber mit Crimson und co. abzuschütteln das währe im nu wieder dahin.

maximus_hertus
2017-06-16, 19:01:08
Gegenüber der Frontier Karte muss die Gaming Vega nur 8 GiB befeuern, das dürfte durchaus einige Watt sparen. An irgendwelchen TDPs von < 300 W muss man sich nicht lange aufhalten (siehe RX 480 mit "150W TDP"). Wenn es eine Gaming Variante mit Wakü gibt, wird diese auch die 1600 MHz stemmen. Vielleicht sogar noch mehr.

In ca. 6 Wochen sind wir schlauer.

MrSpadge
2017-06-16, 22:32:52
@fehlender Spiele-Treiber: das kann AMD auch machen, um die Werte noch nicht offenlegen zu müssen - warum auch immer. "Treiber nicht fertig" ist nicht der einzige mögliche Grund dafür.

@Leistungsaufnahme durch RAM: ähm, eine bessere Energieeffizienz ist gerade das, wofür man HBM gebaut hat. Außerdem sind die Transferraten etc. gleich, d.h. es kommt nur der Leerlaufverbrauch von 8 GB relativ langsam getaktetem RAM hinzu. Das wäre selbst bei GDDR5 nicht viel.

MrS

Kulasko
2017-06-17, 01:12:17
Könnte diese sehr hohe Leistungsaufnahme eventuell dadurch zustande kommen, dass AMD ähnliche Verbesserungen wie Nvidia mit Maxwell vorgenommen haben, die aber unter z.B. OpenCL eventuell nicht mehr ziehen?
Ich meine mich an einen Test erinnern zu können, bei der die GTX 980 unter Vollast fröhlich 300 Watt gezogen hat...
Ansonsten wäre die Leistung zwar vermutlich toll, aber auch nur wieder mit der Brechstange erreicht.

MrSpadge
2017-06-17, 23:44:32
Tile based rendering hilft in Compute überhaupt nicht - das geht direkt in Richtung deinr Frage. Über die Auswirkungen der sonstigen Architekturänderungen können wir mangels Daten noch nicht viel sagen. Ich nehme an, dass die Karte selten 375 W erreichen wird, das Power Limit ihr aber diesen Verbrauch gestattet.

MrS

Gast
2017-06-18, 15:50:29
Nachdem Koduri ja bereits erwähnt hat, dass die Vorserienboards 6 + 8 Pin verwendeten und man weil die Karte eben mehr braucht für die Serienboards auf 8 + 8 umgestiegen ist, darf man wohl von einem Realverbrauch von über 300W ausgehen.

Wahrscheinlich nur geringfügig so dass die Boards mit 6 + 8 Pin wohl auch lauffähig wären, aber das PR-Desaster von der 480 wollte man wohl vermeiden.

Da die Wassergekühlte Version eine höhere Board Power aufweist, kann man wohl auch davon ausgehen, dass die luftgekühlte die 1600MHz in der Realität nicht lange halten wird können.

Gast
2017-06-19, 19:50:06
Nachdem Koduri ja bereits erwähnt hat, dass die Vorserienboards 6 + 8 Pin verwendeten und man weil die Karte eben mehr braucht für die Serienboards auf 8 + 8 umgestiegen ist, darf man wohl von einem Realverbrauch von über 300W ausgehen.

Einfach enttäuschend...das Gelaber wir haben da zwei Pins mehr für die Kundschaft verbaut ist doch nur hohl. AMD kann nur so schnell wie nVidia sein, wenn sie massig 12V Connector-Pins zusätzlich verbauen. Wer soll das alles wieder wegkühlen? Das ganze HBM-Gelaber mit sparsam usw ist doch auch nur Marketing, weil man sonst nicht reissen könnte.

Wahrscheinlich wird man Consumer Vega daher so beschnieden das er gerade mal die 1080 packt, seinen Pseudo-Kracher hat man ja in Form der Frontier. Die kauft doch soweiso keiner, 1799 Euro für eine AMD Karte die nicht der Pro-Series angehört, wer soll das AMD abkaufen. Die Pro Duo war ruck zuck auf 899 gefallen. Koduri hat vollkommen den Sinn zur Realität verloren. Das kann man so mit Applekunden durchziehen.

Der Großteil wird jetzt einfach zur 1080ti greifen (wenn er das nicht schon gemacht hat). nVidia hat es mal wieder geschafft, weil AMD einfach nichts hat um dort gegen zu halten. Man sollte GCN mal langsam überdenken. Altbackene+Stromhungrige Shaderarchitektur (da kann man noch soviel Softwaregedöns drumrum stricken). Zumal das alles nur Ausreden sind, später, ja später bekommt ihr die Leistung. Da glaube ich schon lange nicht mehr dran. Seit Fiji eh nicht mehr.

Apple und Konsolenhersteller nehemen die Hardware bei ihrem Sweetspot ab und da kommt es nicht unbedingt auf maximales Leistungsvermögeneiner Architektur an, den Rest für Consumerkonkurrenz strickt AMD dann nur über exorbitante Leistungsaufnahme zurecht, weil man die Hardware im Stocksetting schon an ihr maximales Leistungsvermögen und drüber weg treibt.

Koduri muss endlich weg, der soll wieder zu Apple gehen, da ist der gut aufgehoben mit seinem lächerlichen Gespinst! Da kann man auch so einen Hype um mittelmässige Hardwareaustattung durchziehen. Mir kommt der in Vorführungen immer so vor, als hätte der gerade eine ordentliche Portion Koks geschnaubt. Zum Teil weiss der gar nicht wovon der gerade redet und auch nicht wo er gerade beim Thema war. Das ist massive Unsicherheit...,wenn das keine Verwirrtheit sein soll.

Cyphermaster
2017-06-20, 14:50:53
Einfach enttäuschend...das Gelaber wir haben da zwei Pins mehr für die Kundschaft verbaut ist doch nur hohl. AMD kann nur so schnell wie nVidia sein, wenn sie massig 12V Connector-Pins zusätzlich verbauen. Wer soll das alles wieder wegkühlen? Das ganze HBM-Gelaber mit sparsam usw ist doch auch nur Marketing, weil man sonst nicht reissen könnte. (...)Bitte bedenken, daß Compute-Anwendungen != Gaming sind. Bei Compute muß alles berechnet werden, während beim Gaming je nach Güte der Erkennung mehr oder minder viele Berechnungen von verdeckten/nicht sichtbaren Dingen entfallen könnten - sonst wäre es ja gar nicht möglich, über Furmark usw. mehr als in Spielen an Leistung abzufordern bzw. Abwärme zu generieren. Sieht man ja auch am Mining-Boom für AMD-Karten.

Die Verhältnisse sind also nicht auf die Gaming-Performance übertragbar.

MrSpadge
2017-06-21, 00:31:30
Das ganze HBM-Gelaber mit sparsam usw ist doch auch nur Marketing, weil man sonst nicht reissen könnte.
Ja sicher, AMD hat jahrelang daran entwickelt und nimmt nun die höheren Kosten und Einschränkungen bei der Speichergröße auf sich, obwohl es überhaupt nichts bringt. Und.. bei Vega tun sie es schon wieder! Meine Fresse, was für Deppen! Die raffen aber auch gar nichts. Hätten sie mal lieber hier im Forum gelesen, statt dreistellige Millionenbeträge in die F&E zu stecken.

(natürlich ist der HMB/2 sparsamer. Das reicht nur nicht, wenn der Rest des Chips der Konkurrenz derart hinterherhängt)

Man sollte GCN mal langsam überdenken.
Ja, genau! Also ich hätte ja mit GCN 5 mal ein bisschen was grundlegend verändert. Die größte Änderung seit GCN1! Zu blöd, dass sie das nicht... äh, moment mal... :hammer:

MrS

Gast
2017-06-21, 10:22:17
Bitte bedenken, daß Compute-Anwendungen != Gaming sind. Bei Compute muß alles berechnet werden, während beim Gaming je nach Güte der Erkennung mehr oder minder viele Berechnungen von verdeckten/nicht sichtbaren Dingen entfallen könnten - sonst wäre es ja gar nicht möglich, über Furmark usw. mehr als in Spielen an Leistung abzufordern bzw. Abwärme zu generieren. Sieht man ja auch am Mining-Boom für AMD-Karten.

Die Verhältnisse sind also nicht auf die Gaming-Performance übertragbar.
das ist doch eine ähnliche ausrede, was hat das mit compute zu tun? nv bekommt das ja auch hin und ist deutlich SPARSAMER und SCHNELLER. zuletzt zählt das visuelle ergebnis! wenn compute durch die entwickler kaum genutzt wird ist das einfach nur ein unnützer kropf, der derzeit dazu führt das man amd karten nicht kaufen kann. das mag amd zwar gefallen aber wie will man so anteile im gamingbereich zurückerobern? sein wir mal ehrlich, wenn es den miningboom nicht gäbe lägen die regale mit polaris voll die amd kaum los wird. compute ist deren notnagel um überhaupt was zu verkaufen und das gedöns loszuwerden. man kann die absatzzahlen dann auch nicht ernst nehmen, weil sie mit gaming absolut nichts zu tun haben. 90% sind wohl schon seit längerem ins mining abgeflossen, wer weiss wie lange schon. amd ist im bereich gaming gpu so weit weg von dem was sie ursprünglich wollten, dass man sich langsam mal sorgen machen sollte...ich glaube die wollen mit nvidias gamingsparte keine konkurrenz weil sie genau wissen das sie sowieso verlieren. egal wo und wie. compute ist bei dem thema nur eine ausrede, um sich das thema schönzureden. immer wieder wird das rausgekramt wenns mal nicht so läuft wie angekündigt oder beabsichtigt. ein strohmannargument nichts weiter! compute muss weder energiehungrig noch lahm sein, genau das gegenteil ist der fall.

AMD-Gast
2017-06-23, 11:07:02
Koduri muss endlich weg, der soll wieder zu Apple gehen, da ist der gut aufgehoben mit seinem lächerlichen Gespinst!
Ich finde er redet sehr konzentriert, fast 40 min lang, was weder besonders lächerlich ist, noch steht er irgendwie neben sich. Er ist nur sehr freundlich, was in bestimmten Nationen zum normalen Umgangston gehört und Ausdruck von Höflichkeit ist (die auch übertrieben wirken kann). Er erklärt alles sehr ausführlich und sachlich/fachlich, warum sollte AMD auf so einen Mann verzichten?

https://youtu.be/FwcUMZLvjYw

Du solltest Dich mal fragen, wer hier einem Gespinst hinterherjagt. Natürlich ist es ein Unterschied vor der Weltpresse ein Produkt zu präsentieren und dabei seinen eigenen Bereich nach außen zu repräsentieren oder vor drei-vier Leuten (Redakteuren) einen Vortrag zu halten, dabei gezielt Fragen zu beantworten. Lausche mal seinen Worten! Vielleicht kannst Du ja was mitnehmen.