PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD stellt die Navi-Grafikkarten Radeon RX 5700 & RX 5700 XT vor


Leonidas
2019-06-11, 07:54:57
Link zur News:
https://www.3dcenter.org/news/amd-stellt-die-navi-grafikkarten-radeon-rx-5700-radeon-rx-5700-xt-vor

Heatwave
2019-06-11, 08:17:14
AMD hat allerdings nicht die TDP sondern die TBP angegeben.

MadCat
2019-06-11, 09:08:06
Hi,

mal gespannt, wie die Lederjacke mit "Super"-Karten diesen dünnen Vorsprung ggü. 2060 und 2070 wieder zunichte macht - und wie da die Preislagen werden.

Leonidas
2019-06-11, 09:36:05
AMD hat allerdings nicht die TDP sondern die TBP angegeben.


Stimmt natürlich. Ich korrigiere.





mal gespannt, wie die Lederjacke mit "Super"-Karten diesen dünnen Vorsprung ggü. 2060 und 2070 wieder zunichte macht - und wie da die Preislagen werden.



Angesichts dieses dünnen Vorsprungs sehe ich nicht, wieso NV überhaupt kontern sollte.

Iscaran
2019-06-11, 09:48:36
Passt doch. Die neue RDNA ist im Performance-Segment gut aufgestellt.

5700 =+- RTX 2060
5700 XT = +- RTX 2070

Die 5700XT wird bei 449$ UVP bei uns dann preislich auf Augenhöhe mit der RTX 2070 sein,

Die 5700 wird etwas teurere als die 2060 sein - bietet aber auch etwas mehr an Leistung.

Das Problem der Performance/Watt wurde deutlich entschärft wenn auch noch Luft nach oben ist :-).

Ich freu mich auf Sommer.

etp_inxession
2019-06-11, 10:55:13
Preise wurden durch Mining gehoben und durch nVidia gnadenlos hoch gehalten ....

AMD kann sich hier anpassen.

Die GPU Sparte wird sicher auf längere Zeit nicht die Stückzahlen abwerfen wie Ryzen und deswegen eher still im Hintergrund optimiert werden.

Ob nun eine "Super" Edition kommt oder nicht ..

Die Preise lassen Abwanderungsgedanken Richtung Konsolen aufkommen, und dann eben schlichtweg direkt zu AMD.

Deshalb ist es eine Win Win Situation für AMD. Aber auch für nVidia. So richtig unter Zugzwang ist keiner.

Ryzen bringt Geld.
Die Konsolen lassen nicht mehr ewig auf sich warten ..
Im PC GPU Bereich verdient nVidia sich eine goldene Nase, auf Basis nahezu perfekter PR.

Navi ist nicht Fisch nicht Fleisch, aber eben Konkurrenz.
Und das nimmt AMD gern mit.

Ich würde tendenziell auch eher eine Navi kaufen als eine RTX.
Aktuell aber allerdings eher die Sapphire Pulse Vega 56 zu 260 €

Gast
2019-06-11, 11:06:23
225w sind „schlimmer“ als vermutet.
Damit besteht keine Hoffnung für eine große navi mehr die irgendwie konkurrenzfähig ist .

Navi ist für AMD sicher ein Schritt nach vorn, gemessen was am Markt seit Jahren aber zu welchen Preisen verfügbar ist eher uninteressant.

Ravenhearth
2019-06-11, 11:27:23
Wie erwartet, trägt der Navi-Chip (zu einer genaueren Angabe ließ sich AMD leider nicht hinreißen, aber vermutlich handelt es sich um "Navi 10") [...]
Sowohl CB als auch anandtech sprechen explizit von Navi10.
Die Konkurrenz-Angebote von nVidia kommen hierbei allerdings mit 120 Watt (GeForce RTX 2060) bzw. 175 Watt (GeForce RTX 2070) aus [...]
Die 2060 hat 160W, 120W haben 1660 und 1660 Ti. ;)

Mit 160 vs. 180W und 11% mehr Leistung liegt die 5700 bei der Effizienz praktisch auf dem gleichen Level wie die 2060.

Grafikspachtel
2019-06-11, 11:51:57
mal gespannt, wie die Lederjacke mit "Super"-Karten diesen dünnen Vorsprung ggü. 2060 und 2070 wieder zunichte macht - und wie da die Preislagen werden.

Sollte die Ankündigung nicht schon zur Computex stattfinden?
Wann wird Novideo denn nun "Super"?
Irgendwann zur E3?

Popeljoe
2019-06-11, 12:09:37
Hm, 379$ ist wahrhaftig nicht mein Preissegment. Aber die Vega 56 fällt ja momentan im Preis doch sehr. Mal sehen.

maximus_hertus
2019-06-11, 12:15:20
Sollte die Ankündigung nicht schon zur Computex stattfinden?
Wann wird Novideo denn nun "Super"?
Irgendwann zur E3?

Yup, zur E3 2020 :D

nVidia muss sich noch von dem Schock erholen, da man eigentlich nichts machen muss ;)

Grafikspachtel
2019-06-11, 12:32:59
Schon ziemlich clever von der Lederjacke.
Geschlagene 9 Monate nach Turing trottelt AMD mit Navi um die Ecke: Trotz 7nm-Vorteil marginal schneller (~10%) und marginal günstiger (~50$) als die 2070.

Die finalen Specs wartet Huang einfach lässig ab und springt dann genau so hoch wie er muss, um Navis (hauchdünnen) Vorteil noch vor dem Marktstart einzuebnen:
Knallt eine Handvoll Shader zusätzlich drauf, tauft das Ding "super" und fertig ist die Laube. Fast 1 Jahr post Turingstart sollten diese höherklassigen Chips praktisch von selbst anfallen.
Preise kann er - nachdem AMD die Karten auf den Tisch gelegt hat - so stehen lassen wie sie sind. Why not?

...und die neue "Supermittelklasse" beginnt nach wie vor bei 500€.
Danke, Novideo.

Also mein Interesse an Navi hat sich bei den Mondpreisen von selbst erledigt.
Vielleicht in 'nem Jahr, wenn Nvidia 7nm-Line-Up Konkurrenz macht und TSMCs Fertigung effizienter und günstiger geworden ist...
Wenn Polaris (232mm²) für 175€ angeboten werden kann, bin ich erst dann wieder an Navi (251mm²) interessiert, wenn sich der Preis in einem angemessenen Rahmen eingependelt hat (225€-275€)

Vega56 hingegen schaut jeden Tag besser aus.
Momentan sind 250€ (sic!) geboten. +20€ für eine Variante mit vernünftigem Kühler.
Wie tief mag Vegas Preis wohl realistischerweise sinken?

Birdman
2019-06-11, 12:46:28
Vielleicht in 'nem Jahr, wenn Novideos 7nm Line-Up raus ist und TSMCs 7nm-Fertigung effizienter und günstiger geworden ist...
:freak: <---- das bist Du wenn Du glaubst dass nVidia dies zugunsten von tieferen Preisen und nicht höheren Margen rausschlagen wird :D

Ich habe mich auch damit abgefunden, dass ich aufgrund der Preis Entwicklung/Strukturen in den letzten 10 Jahren, von einem ehemaligen Enthusiast, zum High-End, Mainstream und nun wohl bald Entry-Level Käufer geworden bin.

Kickstart
2019-06-11, 12:48:49
Sind das, bis auf weiteres, die einzigen neuen Karten von AMD?
Oder anders gefragt: Ab wann wird es denn Navi Karten geben die unter 300€ kosten und maximal 150 Watt ziehen?

Aroas
2019-06-11, 12:52:04
Wenn AMD mir die RX 5700 für 300€ anbieten würde, würd ich die sofort kaufen. So wirds erstmal nichts.
Mal schauen, wann die Straßenpreise dann die 300€ Marke knacken. Mehr will ich einfach nicht für ne GPU ausgeben. Nö!

Gast
2019-06-11, 12:52:57
Es wird noch ein Golden Sample geben. +75-100MHz beim Takt (5700XTX?) Der Boost liegt dann in Referenz über 2GHz. Mit goldenen DHE Kühleramplikationen zum 50-zigten

Dino-Fossil
2019-06-11, 12:59:17
Mir gefällt, dass Navi offenbar in Bezug auf Performance pro CU/Shader und bei der Taktbarkeit einen großen Sprung darstellt.
Allerdings liegt die Karte außerhalb meiner preislichen Interessenlage. Warte eigentlich auf einen echten Polaris-Nachfolger - Mittelklasse-GPU (deutlich) unter 300€ und max 150W. Bisher scheint Navi das nicht zu bieten.

Übrigens ist hier noch ein Fehler im Artikel:
Die Konkurrenz-Angebote von nVidia kommen hierbei allerdings mit 120 Watt (GeForce RTX 2060) bzw. 175 Watt (GeForce RTX 2070) aus, wenngleich jene wie gesagt etwas langsamer sind

Die 2060 hat 160W laut nVidia.

konkretor
2019-06-11, 13:04:54
Ich hab heute noch abgewartet was den da so kommt von AMD.

Für 7 nm doch etwas enttäuschend.

Denke mit einer Vega56 kann man gut sein alt System unter 300 € aufrüsten und ist für die nächsten 3 Jahre in Full HD prima bedient.


Habe mir vorhin im Abverkauf noch ne Vega 56 geholt für 269
ASUS AREZ Strix Radeon RX Vega 56 OC Gaming

Am 1.4.2019 hat die Karte noch 400 € gekostet, da macht man nix falsch, wenn man eh gerade aufrüsten will.
So wirklichen zwang habe ich nicht wirklich, die Fury mit 4 GB Ram verrichtet nach wie vor ihren Dienst ohne Probleme.

Gast
2019-06-11, 13:09:28
Ich freue mich darüber, das 5700/XT und 2060/70 bei Leistung und Strombedarf gleich liegen. Ich hoffe, das noch ein Ableger mit halbierter Anzahl an Shadern kommt. Die genannten liegen weit ausserhalb meines Budgets (selbst wenn die Händlerpreise drunter liegen). Ein Ersatz für meine 7870 muss her :D

Gast
2019-06-11, 13:21:26
AMD bietet den Polaris Nachfolger für 449$ an ganz großes Kino.

Wer jetzt immernoch meint AMD ist ja so viel sozialer als die Konkurenz blahbla ..

Gast
2019-06-11, 13:23:13
Allerdings liegt die Karte außerhalb meiner preislichen Interessenlage. Warte eigentlich auf einen echten Polaris-Nachfolger - Mittelklasse-GPU (deutlich) unter 300€ und max 150W. Bisher scheint Navi das nicht zu bieten.

Übrigens ist hier noch ein Fehler im Artikel:


Die 2060 hat 160W laut nVidia.
Die 2070 hat 185 und unter Gaming zieht sie tatsächlich bis zu 205W. Wo Leo diese Werte immer her hat, keine Ahnung!

Zudem wird die non A Die 175W Karte mit 1620MHz angegeben, alles was darüber liegt braucht auch eine höhere Voltage und damit mehr Strom, weil Turing VCore limitiert daher kommt.

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/31.html

Gast
2019-06-11, 13:47:28
Wenn AMD mir die RX 5700 für 300€ anbieten würde, würd ich die sofort kaufen. So wirds erstmal nichts.
Mal schauen, wann die Straßenpreise dann die 300€ Marke knacken. Mehr will ich einfach nicht für ne GPU ausgeben. Nö!

Naja, bei der UVP wird der Preis der 5700 vielleicht 1 Monat nach dem Launch bei grob 300€ sein. Die UVP Angaben waren nur beim Mining Boom wirklich relevant. Die RX590 hatte auch 279$ UVP beim Launch, die RedDragon war beim Start für 225€ zu haben... Auf die 5700 umgemünzt könnte deren Startpreis bei grob 330€ liegen und nach dem ersten größeren Ansturm der Käufer wandert sie dann Richtung 300€. Vor allem, wenn die Custom Karten kommen sollte die Referenz-Karte merklich fallen. Kommt natürlich auch immer auf die Tests drauf an, und wie sie da abschneidet, aber 300€ Straßenpreis für die kleinere 5700 sollte grob 1 Monat nach dem Launch durchaus drin sein...

TightNX
2019-06-11, 13:48:55
Also nee... Ich hatte gehofft, die kleinere 5700er würde preislich im Feld der 1660Ti antreten. Ist eine klare Mainstream-Karte für unter $300 wirklich zu viel verlangt? $379 für die XT, das wäre ein Wort, aber so macht das alles keinen Spaß mehr.

Ich habe mich auch damit abgefunden, dass ich aufgrund der Preis Entwicklung/Strukturen in den letzten 10 Jahren, von einem ehemaligen Enthusiast, zum High-End, Mainstream und nun wohl bald Entry-Level Käufer geworden bin.
This!

Leonidas
2019-06-11, 14:02:34
Sowohl CB als auch anandtech sprechen explizit von Navi10.


Habe ich auch gelesen. Ich hab alles von extra mehrfach durchgelesen, um die Stelle zu finden, wo die sagen, woher die Info stammt. Da dies nirgendwo notiert wird, bleibt es vorerst vakant. In den AMD-Unterlagen wird es auch nirgendwo erwähnt.



Die 2060 hat 160W, 120W haben 1660 und 1660 Ti. ;)


Gedankenfehler, fixe ich.

Leonidas
2019-06-11, 14:07:11
Sind das, bis auf weiteres, die einzigen neuen Karten von AMD?
Oder anders gefragt: Ab wann wird es denn Navi Karten geben die unter 300€ kosten und maximal 150 Watt ziehen?


Derzeit unklar, weil keine echten Infos hierzu vorliegen. Sprich: Mit Glück im Herbst, mit Pech später.





Die 2070 hat 185 und unter Gaming zieht sie tatsächlich bis zu 205W.


Die Ref. kommt auf einen durchschnittlichen Spiele-Stromverbrauch von ~174 Watt, die FE auf ~191 Watt. TDPs (GCP) liegen bei 175 bzw. 185 Watt.




Wo Leo diese Werte immer her hat, keine Ahnung!


Aus dem Lesen und Verrechnen aller Artikel zum Thema.

Grafikspachtel
2019-06-11, 15:08:31
Naja, bei der UVP wird der Preis der 5700 vielleicht 1 Monat nach dem Launch bei grob 300€ sein. [...]
Die RX590 hatte auch 279$ UVP beim Launch, die RedDragon war beim Start für 225€ zu haben.

Du bist drollig.
Die RX590 war der Re-Refresh von Polaris. Geschlagene 2 Jahre und 4 Monate (und 2 Mining-Massenpsychosen) später endlich mal zu Nicht-Mondpreisen (Ich glaube die Original-Polaris UVP war ~229$)

RX480 (https://www.techpowerup.com/gpu-specs/radeon-rx-480.c2848) = Juli 2016
RX580 (https://www.techpowerup.com/gpu-specs/radeon-rx-580.c2938) = April 2017
RX590 (https://www.techpowerup.com/gpu-specs/radeon-rx-590.c3322) = November 2018

Auf Navi übertragen heißt das, dass wir brauchbare Preise* gegen Ende des Jahres 2021 erwarten dürfen :freak:

* Brauchbarer Preis sei definiert als Preis(NaviXT) ≤ 275€

aufkrawall
2019-06-11, 15:12:23
AMD bietet den Polaris Nachfolger für 449$ an ganz großes Kino.

Wer jetzt immernoch meint AMD ist ja so viel sozialer als die Konkurenz blahbla ..
Ist allerdings auch möglich, dass man Nvidias Konter und den möglicherweise dadurch entstehenden Preiskampf entsprechend mit eingepreist hat.

Screemer
2019-06-11, 15:29:11
(Ich glaube die Original-Polaris UVP war ~229$)

$229 bei 8gb und $199 für die 4gb 480er. alles in der blower variante.

Grafikspachtel
2019-06-11, 15:30:48
Ist allerdings auch möglich, dass man Nvidias Konter und den möglicherweise dadurch entstehenden Preiskampf entsprechend mit eingepreist hat.
Die 2070 gibt es real von 460€-600€.
Addiere bei Navis UVP noch die dt. Mehrwertsteuer und den Launchdeppenbonus. Insbesondere, wenn Du einen anständigen Lüfter haben willst. Dann bist Du da locker drüber, wenn nicht sogar bei 500€.
Wenn Novideo eine super2070 hinterherschiebt, die marginal schneller als NaviXT ist, könnten sie ganz lässig auch nochmal den Preis erhöhen.
Vom Mondpreis zum Marspreis.
Super.

Dino-Fossil
2019-06-11, 15:31:43
Ist allerdings auch möglich, dass man Nvidias Konter und den möglicherweise dadurch entstehenden Preiskampf entsprechend mit eingepreist hat.

Möglich, ja. Wobei Navi vom Marktsegment her auch etwas höher einsteigt, als Polaris damals - der war klar Mittelklasse. Navi kratzt (wie 2060 und 2070) am High-End, bzw. gehört da schon dazu.
Daher sehe ich die aktuellen Navi-Karten einfach nicht als (geistigen) Polaris-Nachfolger - aber vielleicht kommt das noch, irgendwann.

Addiere bei Navis UVP noch die dt. Mehrwertsteuer und den Launchdeppenbonus. Dann bist Du da locker drüber, wenn nicht sogar bei 500€
Und ziehe die Umrechnung $ -> € wieder ab. Der Launch-Aufschlag wird nicht lange anhalten, von daher...

Gast
2019-06-11, 15:42:13
"Vielmehr ist wichtig, das AMD mit der Navi- bzw. der RDNA-Architektur nunmehr dieselbe Performance aus seinen Shader-Einheiten herausholt wie eben nVidia" ist Quatsch. Sofern das Ergebnis in fps bei gleichem Stromverbrauch identisch ist, interessiert die Zahl nicht die Bohne.

Die Verbräuche sind erneut enttäuschend.

Gast
2019-06-11, 16:21:39
Die 2070 hat 185 und unter Gaming zieht sie tatsächlich bis zu 205W. Wo Leo diese Werte immer her hat, keine Ahnung!

Zudem wird die non A Die 175W Karte mit 1620MHz angegeben, alles was darüber liegt braucht auch eine höhere Voltage und damit mehr Strom, weil Turing VCore limitiert daher kommt.

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2070_Founders_Edition/31.html

Selten so einen Schwachsinn gelesen , Man kann Truning sogar noch undervolten bei höherem Takt soviel zur "Voltagewall" , Da merkt man das du noch nie ne Turing oder sogar Pascal in den Händen hattest den sinnloser Spannungsaufschlag hilft bei beiden nicht und ist eher kontraproduktiv da du permanent unnötigerweise ins PW Limit rennst und die Temp hochtreibst.

Wenn ich verlinke geb ich nicht Quellen an die besser schätzen sondern wirklich die Leistungsaufnahme mit geeignetem Equpment auf industriesdt. messen und auch mit diesem umgehen können.

Siehe unten ,non A 08/15 Karten bei 165-185W sowie ne FE unter 190W

https://www.tomshw.de/2018/12/05/kfa2-geforce-rtx-2070-ex-preiswert-muss-nicht-billig-sein-dafuer-aber-leise-und-kuehl-igorslab/4/
https://www.tomshw.de/2018/10/16/palit-geforce-rtx-2070-dual-im-ersten-test/


https://www.tomshw.de/2018/10/16/nvidia-rtx-2070-ti-founders-edition-im-test-komplizierte-gleichung-mit-vielen-unbekannten/16/

Gast Ritis
2019-06-11, 17:36:06
Ich verstehe gar nicht was es zu mäkeln gibt. Wenn der Index von Leo wirklich in etwa so eintrifft werden die Preise je Leistung von heute bei GTX1080 und RTX2070 doch deutlich unterboten. So weit wäre man dann auch nicht mehr weg im Leistung/Watt Verhältnis.

Ich würde mich allerdings wundern wenn die kleine RX5700 wirklich so schnell im Mittel gemessen wird. Die Einschätzung überrascht erst mal.

Zudem spielt AMD die Karte Bildqualität und Input-Latenz. Vielleicht gibt es ja wirklich am Ende trotz fehlenden RT-Cores ein paar Eigenschaften mehr, die für die AMD GPUs sprechen. FreeSync(2) ist bislang zumindest noch nicht ganz weg gefallen...
Diese neuen Scaling-Filter könnten ein Spiel recht gelungen auf höhere Auflösungen bringen, gerade bei den Konsolen. Wobei die wohl mit RDNA2 kommen wegen der Raytracing HW.

Die Optimierung auf die neue Arch, das Caching usw. ist auch noch eine Wundertüte....

Gast
2019-06-11, 18:51:40
Ziemlich arme Vorstellung:~200W, deutlich unter 2GHz trotz 7nm. Und mangels Raytracingbeschleunigung kauft man hier Technik die in 1,5 Jahren durch Konsolen zum gleichen Preis mit 8C Zen2 obsolet ist.
Wer keine Ansprüche hat kauft eine RX5x0 8G unter 200€, alle anderen RTX. Die wohl durch Super noch besser aufgestellt werden.

Gast
2019-06-11, 19:00:38
Wenn Polaris (232mm²) für 175€ angeboten werden kann, bin ich erst dann wieder an Navi (251mm²) interessiert, wenn sich der Preis in einem angemessenen Rahmen eingependelt hat (225€-275€)



7nm ist per area doppelt so teuer als 14/12nm, der Preis scheint also angemessen zu sein.

Platos
2019-06-11, 19:51:51
Ziemlich arme Vorstellung:~200W, deutlich unter 2GHz trotz 7nm. Und mangels Raytracingbeschleunigung kauft man hier Technik die in 1,5 Jahren durch Konsolen zum gleichen Preis mit 8C Zen2 obsolet ist.
Wer keine Ansprüche hat kauft eine RX5x0 8G unter 200€, alle anderen RTX. Die wohl durch Super noch besser aufgestellt werden.

Noch besser ? Die waren noch nie gut... Aber bei der Konsole stimm ich zu. Jetzt Grafikkarten zu kaufen, ist m.M.n höchst unklug (Ausser man wechselt sowieso jede Generation).

Gast
2019-06-11, 20:14:17
Selten so einen Schwachsinn gelesen , Man kann Truning sogar noch undervolten bei höherem Takt soviel zur "Voltagewall" , Da merkt man das du noch nie ne Turing oder sogar Pascal in den Händen hattest den sinnloser Spannungsaufschlag hilft bei beiden nicht und ist eher kontraproduktiv da du permanent unnötigerweise ins PW Limit rennst und die Temp hochtreibst.

Wenn ich verlinke geb ich nicht Quellen an die besser schätzen sondern wirklich die Leistungsaufnahme mit geeignetem Equpment auf industriesdt. messen und auch mit diesem umgehen können.

Siehe unten ,non A 08/15 Karten bei 165-185W sowie ne FE unter 190W

https://www.tomshw.de/2018/12/05/kfa2-geforce-rtx-2070-ex-preiswert-muss-nicht-billig-sein-dafuer-aber-leise-und-kuehl-igorslab/4/
https://www.tomshw.de/2018/10/16/palit-geforce-rtx-2070-dual-im-ersten-test/

https://www.tomshw.de/2018/10/16/nvidia-rtx-2070-ti-founders-edition-im-test-komplizierte-gleichung-mit-vielen-unbekannten/16/
Vorher lesen, wenn Du schon etwas verlinkst was nicht *geschätzt* sein soll, so wie bei techpowerup - deren Equipment mehr kostet und auf höherem Niveau agiert als Igor's! Danke schon mal für die Blumen. Igor hat eine 2070 sogar mit over 220w gemessen, und warum soll ich etwas undervolten wenn AMD auch nicht undervolted vermessen wird? Um den eignen Bias zu rechtfertigen?

Allerdings war mein damaliges Testmuster ein Chip mit sehr hoher Güte und unterdurchschnittlicher Leistungsaufnahme, so dass der Vergleich vielleicht etwas hinken mag...

@Leo
Seit wann rechnet man die Verbräuche einer Karte aus allen Testszenarien zusammen und subsumiert sie zu einem tatsächlichen? Wo sich die Testszenarien und Szenen merklich unterscheiden. Das ist auf diese Weise überhaupt nicht möglich und wenn Du das so machst, sagt es nichts darüber aus. Das ist wenn eher ein relativer Wert, wobei Relativität von der Häufung eines Zustandes abhängig gemacht wird (Torture, Gaminglast usw.). Das kann in diesem speziellen Fall, aber nichts aussagen weil alle was anderes testen. 175w - sind dann nichts weiter als Average und Herstellerangaben sollte man grundsätzlich hinterfragen!

Genau solche Werte sind daran Schuld, dass Anwender nach kurzer Zeit mit langer Nase zu Hause sitzen, weil ihr Netzteil zu klein dimensioniert ist. Pascal und Turing altern diesbezüglich ziemlich schnell, so wie alles ab 16nm.


@Gast
Wer hier keine Ahnung von Turing oder Pascal hat, steht auf einem anderem Blatt Papier. Aufmerksame Leser werden bemerken, dass dieser Shitstorm irgendwelcher Spez'si von der PCGH hier herüber schwappt. Wäre schön wenn die Moderation drauf achtet und eine gewisse Wortwahl, wenn ich mit einem Kindergarten diskutieren will, mache ich das auch dort.

Es geht nicht um eine "Voltagewall" (wenn es sowas überhaupt gibt), sondern darum das die Chips seit längerem VCore gebinned werden. Das liegt an FinFet. Das Verfahren erlaubt unter 12nm eine Ziel-VCore von 0,750mV bei 1400-1500 MHz! Und da sind alle Hersteller weit drüber. Nicht umsonst kommt Turing mit 3 Profilen ala Powergating daher. NVidia ging lange Zeit über die Waferfläche um effizient zu sein, was bei gerößeren Chips eher nicht machbar ist, wenn es preislich noch ansprechend sein soll.

Die 2070 werden mit späterem Biosupdate deutlich über 175 ziehen um mit Navi konkurrenzfähig zu sein ([RT mal aussen vor], weil das jetzt schon bloss Anhaltswerte sind die nVidia angibt), kommen noch Einheiten dazu (Super) wird man genauso wie AMD bei 225w TBP landen. Die haben sicher mit einer FE verglichen, weil das vermutlich die Referenz ist.

Es wird keine undervolted Hardeware verglichen, sondern so wie sie im Serienzustand im Markt ankommt, da könnte man sogar die von den IHVs verschickten (binned) Testsample gerne herausrechnen. Damit jetzt anzufangen wäre ziemlich unfair, wenn man jahrelang auf der Effizienz bestimmter Hersteller umhergeritten ist, die man langsam at acta legen kann. Scheint auch kein direkter Verdienst von Nvidia gewesen zu sein, sondern eher TSMC, was der User teuer bezahlt hat.

edit: ...insgesamt wäre es wünschenswert den persönlichen Anteil aus einer Diskussion herauszulassen. Mache das drüben bei der PCGH, oder wo auch immer - aber bitte nicht hier!

Das Zusammerechnen unterschiedlicher Lastzustände ergibt keinen genauen Wert, der der max TDP oder TBP entsprechen würde. Das weiss sicher auch Leo, wenn soetwas Aussagekraft haben soll. Es ist teilweise völlig unbekannt welche Szenarien zur Ermittlung der Werte in Anwendung kommen (techpowerup testet unterschiedliche Lastzustände und gibt sie auch so an), andere rechnen alles schon zusammen und teilen einfach einen Durchschnittswert mit, den Leo seinerseits nochmals zur Ermittlung eines Durchschnitts heranzieht und einfach irgendwelche Durchschnittswerte zusammen zu rechnen, macht es nicht besser, weil das die realen Werte völlig verfälscht. Schon dann, wenn es keinen gemeinsamen Standard der IHVs für diese Angaben gibt.

Fällt mir schon länger auf, dass dies so ist und zum Teil erheblich von realen Werten im Markt befindlicher Hardware abweicht. Das kommt davon, weil man nicht (mehr) selbst testet.

Gast
2019-06-11, 20:44:19
Mir sind die alle grob 100$ zu teuer. Ueber die NVidia Wucherpreise brauchen wir gar nicht reden. Da kaufe ich mir doch lieber etwas gebrauchtes bei ebay oder kaufe ne 570 4G fuer 115 Euro als Uebergangsloesung fuer ein bis zwei Jahre und kaufe dann das "echte" neue Chipdesign, wenn denn dann die Preise passen... ^^

Gast
2019-06-11, 22:04:42
Noch besser ? Die waren noch nie gut... Aber bei der Konsole stimm ich zu. Jetzt Grafikkarten zu kaufen, ist m.M.n höchst unklug (Ausser man wechselt sowieso jede Generation).

Konsolen klingen ja erstmal verlockend, und bieten auch verdammt viel Hardware pro Euro.

Nur zahlst du einen guten Teil davon mit deutlich teureren Spielen innerhalb der Lebensdauer einer Konsole drauf.
Insbesondere wenn du auch noch online spielen willst musst du bei den Konsolen extra Zahlen, was am PC gratis ist, von der fehlenden Flexibilität will ich gar nicht reden.

Gast
2019-06-12, 03:18:41
Vorher lesen, wenn Du schon etwas verlinkst was nicht *geschätzt* sein soll, so wie bei techpowerup - deren Equipment mehr kostet und auf höherem Niveau agiert als Igor's! Danke schon mal für die Blumen. Igor hat eine 2070 sogar mit over 220w gemessen, und warum soll ich etwas undervolten wenn AMD auch nicht undervolted vermessen wird? Um den eignen Bias zu rechtfertigen?



@Leo
Seit wann rechnet man die Verbräuche einer Karte aus allen Testszenarien zusammen und subsumiert sie zu einem tatsächlichen? Wo sich die Testszenarien und Szenen merklich unterscheiden. Das ist auf diese Weise überhaupt nicht möglich und wenn Du das so machst, sagt es nichts darüber aus. Das ist wenn eher ein relativer Wert, wobei Relativität von der Häufung eines Zustandes abhängig gemacht wird (Torture, Gaminglast usw.). Das kann in diesem speziellen Fall, aber nichts aussagen weil alle was anderes testen. 175w - sind dann nichts weiter als Average und Herstellerangaben sollte man grundsätzlich hinterfragen!

Genau solche Werte sind daran Schuld, dass Anwender nach kurzer Zeit mit langer Nase zu Hause sitzen, weil ihr Netzteil zu klein dimensioniert ist. Pascal und Turing altern diesbezüglich ziemlich schnell, so wie alles ab 16nm.


@Gast
Wer hier keine Ahnung von Turing oder Pascal hat, steht auf einem anderem Blatt Papier. Aufmerksame Leser werden bemerken, dass dieser Shitstorm irgendwelcher Spez'si von der PCGH hier herüber schwappt. Wäre schön wenn die Moderation drauf achtet und eine gewisse Wortwahl, wenn ich mit einem Kindergarten diskutieren will, mache ich das auch dort.

Es geht nicht um eine "Voltagewall" (wenn es sowas überhaupt gibt), sondern darum das die Chips seit längerem VCore gebinned werden. Das liegt an FinFet. Das Verfahren erlaubt unter 12nm eine Ziel-VCore von 0,750mV bei 1400-1500 MHz! Und da sind alle Hersteller weit drüber. Nicht umsonst kommt Turing mit 3 Profilen ala Powergating daher. NVidia ging lange Zeit über die Waferfläche um effizient zu sein, was bei gerößeren Chips eher nicht machbar ist, wenn es preislich noch ansprechend sein soll.

Die 2070 werden mit späterem Biosupdate deutlich über 175 ziehen um mit Navi konkurrenzfähig zu sein ([RT mal aussen vor], weil das jetzt schon bloss Anhaltswerte sind die nVidia angibt), kommen noch Einheiten dazu (Super) wird man genauso wie AMD bei 225w TBP landen. Die haben sicher mit einer FE verglichen, weil das vermutlich die Referenz ist.

Es wird keine undervolted Hardeware verglichen, sondern so wie sie im Serienzustand im Markt ankommt, da könnte man sogar die von den IHVs verschickten (binned) Testsample gerne herausrechnen. Damit jetzt anzufangen wäre ziemlich unfair, wenn man jahrelang auf der Effizienz bestimmter Hersteller umhergeritten ist, die man langsam at acta legen kann. Scheint auch kein direkter Verdienst von Nvidia gewesen zu sein, sondern eher TSMC, was der User teuer bezahlt hat.

edit: ...insgesamt wäre es wünschenswert den persönlichen Anteil aus einer Diskussion herauszulassen. Mache das drüben bei der PCGH, oder wo auch immer - aber bitte nicht hier!

Das Zusammerechnen unterschiedlicher Lastzustände ergibt keinen genauen Wert, der der max TDP oder TBP entsprechen würde. Das weiss sicher auch Leo, wenn soetwas Aussagekraft haben soll. Es ist teilweise völlig unbekannt welche Szenarien zur Ermittlung der Werte in Anwendung kommen (techpowerup testet unterschiedliche Lastzustände und gibt sie auch so an), andere rechnen alles schon zusammen und teilen einfach einen Durchschnittswert mit, den Leo seinerseits nochmals zur Ermittlung eines Durchschnitts heranzieht und einfach irgendwelche Durchschnittswerte zusammen zu rechnen, macht es nicht besser, weil das die realen Werte völlig verfälscht. Schon dann, wenn es keinen gemeinsamen Standard der IHVs für diese Angaben gibt.

Fällt mir schon länger auf, dass dies so ist und zum Teil erheblich von realen Werten im Markt befindlicher Hardware abweicht. Das kommt davon, weil man nicht (mehr) selbst testet.

Im Gegensatz zu dir Spezi und deinen öminösen vorhersagen hab ich Beispiele für verschiedene sample des min a Chip von Low bis top angegeben , klar kann man ne rtx2070 finden die 220w um mehr schluckt das hat aber nix mehr mit Stock zu tun.

Bloß weil TPU nen Teures Multimeter hat heist das nix, die haben nicht nur einmal Mist gebaut beim Verbrauch

Gast
2019-06-12, 03:50:18
Als man bei NV mitgekriegt hat was AMD da auf den Markt bringen will blieb den wohl erstmal nur ungläubiges Staunen.

Selbst die Konkurrenz hat wohl unter den Vorzeichen „7nm neue Arch ohne HPC Gerümpel , kleine Chips , moderater Takt ,256 Bit SI , Platz Vorteil durch fehlen von TC„ nicht damit gerechnet das man immer noch mehr säuft als 2016er Pascals bei vergleichbarer Größe und Takt , Leistungsmäßig nix neues bringt dafür aber beim ansetzen des UVP versucht gleichzuziehen .

Sorry aber wenn man es mit nem fullnode Vorteil nichtmal Schaft mit nem Produkt von 2016 gleich zu ziehen dann is der Drops gelutscht.

Leonidas
2019-06-12, 05:40:44
@Leo
Seit wann rechnet man die Verbräuche einer Karte aus allen Testszenarien zusammen und subsumiert sie zu einem tatsächlichen? Wo sich die Testszenarien und Szenen merklich unterscheiden.


Da habe ich mich wohl mißverständlich ausgedrückt. Ich bilde einfach einen Mittelwert aus den Stromverbrauchs-Messungen der verschiedenen Webseiten. Jede Webseite hat da ihre eigene Herangehensweise, da kommen dann durchaus auch mal Ausreißer vor - welche aber heutzutage seltener werden, dem limitierenden Power-Limit sei Dank. Die benutzten Werte sind (sofern es mehrere gibt) üblicherweise Durchschnitts-Verbrauchswerte oder obere Verbrauchswerte, aber niemals Peaks oder gar Torture-Tests. Aber wie gesagt: Trotz unterschiedlicher Herangehensweise gleichen sich heutzutage die Meßwerte der einzelnen Webseite. Die eigentliche Kunst liegt inzwischen eher darin Karten zu erkennen, die ein per default höheres Power-Limit haben (ohne das die betreffende Webseite dies mit einem Sterbenswort erwähnen würde). Meßergebnisse und Durchschnittsrechnung siehe beispielsweise hier (gaaanz unten):
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-vii/launch-analyse-amd-radeon-vii-seite-2

Gast
2019-06-12, 16:19:01
AMD wird wohl nie begreifen das sie nicht das image besitzen ihre "fine Wine" Hardware zu nVidia Preisen zu verkaufen.
Die RX5700 kann ja noch nicht mal Raytracing, wie kommt man auf den Gedanken das man sich damit Preislich auf Augenhöhe mit nVidia Positionieren kann?

disap.ed
2019-06-13, 15:07:18
Ziemlich arme Vorstellung:~200W, deutlich unter 2GHz trotz 7nm. Und mangels Raytracingbeschleunigung kauft man hier Technik die in 1,5 Jahren durch Konsolen zum gleichen Preis mit 8C Zen2 obsolet ist.
Wer keine Ansprüche hat kauft eine RX5x0 8G unter 200€, alle anderen RTX. Die wohl durch Super noch besser aufgestellt werden.

Raytracing ist doch in dieser Leistungsregion sowieso komplett uninteressant, die Performance der 2080 wird da die Mindestanforderung sein.
Nicht umsonst wurde die 5070 in 1440p gebenchmarkt, die möchte doch gar nicht im 4K 120fps RT-Markt wildern.

maximus_hertus
2019-06-13, 15:50:56
Als man bei NV mitgekriegt hat was AMD da auf den Markt bringen will blieb den wohl erstmal nur ungläubiges Staunen.

Selbst die Konkurrenz hat wohl unter den Vorzeichen „7nm neue Arch ohne HPC Gerümpel , kleine Chips , moderater Takt ,256 Bit SI , Platz Vorteil durch fehlen von TC„ nicht damit gerechnet das man immer noch mehr säuft als 2016er Pascals bei vergleichbarer Größe und Takt , Leistungsmäßig nix neues bringt dafür aber beim ansetzen des UVP versucht gleichzuziehen .

Sorry aber wenn man es mit nem fullnode Vorteil nichtmal Schaft mit nem Produkt von 2016 gleich zu ziehen dann is der Drops gelutscht.

Du glaubst wirklich das der Grafikkartenmarkt ein "Faktenbasierter" Markt ist, bei dem das bessere Produkt gekauft wird? Genau das Gegenteil ist der Fall.

Beide Seiten haben eine Fanboy-Basis sowie gewisse Käuferschichten, die der andere nicht bedienen kann bzw. will.

Ansonsten sollte man sich mal von den Nodes verabschieden. Die Zeiten der PErformanceverdoppelung durch einen neuen Node sind schon länger vorbei.

Wer einen Sportwagen haben möchte, muss entsprechend Sportwagenpreise bezahlen. Wem eine Familienkutsche reicht, der kann für überschaubares Geld gute AMD KArten erwerben. Am Ende ist es dem Käufer sowas von egal, wie die KArte produziert worden ist. Sie muss für möglichst wenig Kohle möglichst viele fps hinbekommen, dazu nicht extrem laut und kein 300W Schlucker. Ob am Ende 180 oder 220W interssiert fast niemanden.

maximus_hertus
2019-06-13, 15:52:00
AMD wird wohl nie begreifen das sie nicht das image besitzen ihre "fine Wine" Hardware zu nVidia Preisen zu verkaufen.
Die RX5700 kann ja noch nicht mal Raytracing, wie kommt man auf den Gedanken das man sich damit Preislich auf Augenhöhe mit nVidia Positionieren kann?

Marktwirtschaft 4 the win. Entweder sie können es oder die PReise werden sehr schnell stark fallen. Wir werden es ja in sehr naher Zukunft sehen.

Gast
2019-06-13, 18:03:07
Ob am Ende 180 oder 220W interssiert fast niemanden.

Doch, maßgeblich Leute die weiter oben ins Regal greifen und sich Alternativen zur RTX2080/TI oder sogar darüber wünschen. Oder mal etwas Wetbewerb damit sich hier mehr tut als die üblichen Stufen die NV liefert .

Wenn man aber mit der neuen Gen 220W für GTX1080/RTX2070 Leistung Braucht dann ist nach oben kaum mehr Luft .
Die 5700er an sich passt zwar nicht in diese Zielgruppe ziegt dieser aber das man auch dieses mal von AMD nix erwarten brauch.
Dabei sind gerade diese Entusiasten jene welche Stimmung machen sei es nun im Foren oder im Freundiskreis.

Grafikspachtel
2019-06-15, 15:33:26
qVy_X3TNUAU
Wunderschön. aTV arbeitet heraus wie AMDs Marketingabteilung Navis Performance mit der Vega56 vergleicht, den Verbrauch aber mit der übelsten Powersau, Vega64.

grobi
2019-06-15, 15:58:16
Es ist langsam soweit das einem seine Graka kaputt gehen kann und man in der gleichen Leistungsklasse ersetzt zu einem noch immer recht hohen Preis. Ich will seit 2 Jahren die Leistung verdoppelt sehen zu meiner GTX1080 und ich werde noch weiter warten müssen.

mfg grobi

Linmoum
2019-06-15, 16:34:45
https://youtu.be/qVy_X3TNUAU
Wunderschön. aTV arbeitet heraus wie AMDs Marketingabteilung Navis Performance mit der Vega56 vergleicht, den Verbrauch aber mit der übelsten Powersau, Vega64.
Adored arbeitet da gar nichts heraus, da er nicht einmal in der Lage dazu ist, die Footnotes zu lesen. Traurig. Noch trauriger ist nur, dass seine Lemminge nicht einmal das interessiert. Er präsentiert ja alles so toll und das zählt.

Denniss
2019-06-15, 18:19:38
Adored arbeitet da gar nichts heraus, da er nicht einmal in der Lage dazu ist, die Footnotes zu lesen. Traurig. Noch trauriger ist nur, dass seine Lemminge nicht einmal das interessiert. Er präsentiert ja alles so toll und das zählt.Clickbait halt - die arme Sau muß auch von was leben ......

Gast
2019-06-15, 21:01:53
Doch, maßgeblich Leute die weiter oben ins Regal greifen und sich Alternativen zur RTX2080/TI oder sogar darüber wünschen. Oder mal etwas Wetbewerb damit sich hier mehr tut als die üblichen Stufen die NV liefert .

Wenn man aber mit der neuen Gen 220W für GTX1080/RTX2070 Leistung Braucht dann ist nach oben kaum mehr Luft .
Die 5700er an sich passt zwar nicht in diese Zielgruppe ziegt dieser aber das man auch dieses mal von AMD nix erwarten brauch.
Dabei sind gerade diese Entusiasten jene welche Stimmung machen sei es nun im Foren oder im Freundiskreis.
Die heißen *Enthusiast*, da machen wirkliche übrigens keinerlei Stimmung, denn die gibt es in beiden Lagern. Stimmung machen irgendwelche *Forenspinner* die keine Ahung von Hardware haben und wozu man sie gebrauchen kann. Da gehen AMD und nVidia nämlich ziemlich unterschiedliche Wege.

Es ist offziell das AMD b.a.w. keine Enthusiasthardware mehr liefern will (2080ti), weil man es selbst so mitgeteilt hat. Der Markt ist für mehrere Mitbewerber auch viel zu klein, als das dies für eine Firma wie AMD Sinn ergeben würde. Es bleibt also so wie es ist und deine selbsternannten Enthusiasten zahlen weiter Mondpreise.

Enthusiast zu sein bedeutet nicht, Geld zu besitzen um Hardware egal zu welchem Preis finanzieren zu können. Das bedeutet viel mehr, vor allem einen Haufen Verantwortung für die gesamte Community und einem Hersteller auch mal zu zeigen das es so nicht geht. Der I-Phone 1k Gen anzugehören, bedeutet nicht Enthusiast zu sein. Das sind lediglich Alleinstellungsmerkmale nach denen man jappst, um sich von anderen abzubeben. Hat also mit wirklichen Enthusiastentum überhaupt nichts zu tun. Genauso argumentiert man in Foren übrigens, von nVidias Marketing befeuert...desto teurer die Hardware desto wichtiger bin ich und vermeintlich um so qualifizierter. Das erreicht mittlerweile lächerliche Züge in einigen Foren.

Gast
2019-06-16, 01:37:23
Die heißen *Enthusiast*, da machen wirkliche übrigens keinerlei Stimmung, denn die gibt es in beiden Lagern. Stimmung machen irgendwelche *Forenspinner* die keine Ahung von Hardware haben und wozu man sie gebrauchen kann. Da gehen AMD und nVidia nämlich ziemlich unterschiedliche Wege.

Es ist offziell das AMD b.a.w. keine Enthusiasthardware mehr liefern will (2080ti), weil man es selbst so mitgeteilt hat. Der Markt ist für mehrere Mitbewerber auch viel zu klein, als das dies für eine Firma wie AMD Sinn ergeben würde. Es bleibt also so wie es ist und deine selbsternannten Enthusiasten zahlen weiter Mondpreise.

Enthusiast zu sein bedeutet nicht, Geld zu besitzen um Hardware egal zu welchem Preis finanzieren zu können. Das bedeutet viel mehr, vor allem einen Haufen Verantwortung für die gesamte Community und einem Hersteller auch mal zu zeigen das es so nicht geht. Der I-Phone 1k Gen anzugehören, bedeutet nicht Enthusiast zu sein. Das sind lediglich Alleinstellungsmerkmale nach denen man jappst, um sich von anderen abzubeben. Hat also mit wirklichen Enthusiastentum überhaupt nichts zu tun. Genauso argumentiert man in Foren übrigens, von nVidias Marketing befeuert...desto teurer die Hardware desto wichtiger bin ich und vermeintlich um so qualifizierter. Das erreicht mittlerweile lächerliche Züge in einigen Foren.

Das einzig lächerliche ist diese ellenlange Hasstierade ohne Fakten dafür aber mit reihenweise Unterstellungen und Stellungnahmen im Namen einer Firma , da frag ich mich wer hier denn Farbfilter verschluckt hat .

Was passiert wenn man den Oberklasse Bereich nicht mehr beliefern kann könnte man in den letzten 5 Jahren beobachten . Das Ergebnis ist für sowohl für die Sohn. Entusiasten als auch für potentielle Käufer in den einstiegsklassen spürbar.
Der Gradient zwischen den zwei verbliebenen Mitspielern ist zu groß geworden da AMD nicht liefern konnte für richtige Konkurenz.

Die 5700 wird wieder massiv über den Preis gehen müssen wie schon Polaris weil man es immer noch nicht Schaft die Produkte des Mitbewerbers des Jahres 2016 deutlich hinter sich zu lassen.