PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon VII: 699$ ab 7. Februar 2019 mit 16GB HBM2


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17

SKYNET
2019-01-24, 17:07:42
Vor alle scheint ihm nicht klar, wie es bei Nvidia aussehen würde, wenn sie jetzt einfach nur Turing oder Pascal auf 7nm shrinken würden. Auch das würde kein Wunder geben.


würde sogar tippen das der leistungssprung geringer als bei AMD ausfallen würde, aufgrund das der chip so fett ist...

mkh79
2019-01-24, 17:08:00
Ich bin sehr auf die R7 gespannt und froh, dass AMD die Vega auf 7nm doch noch bringt. Wenn sie die Leistung der 2080 erreicht, werde ich sie mir mal anschauen, die Leistung genügt mir und ich kann mich von der 2080TI wieder trennen (und ich bekomme wieder ein bisschen Geld zurück).
DIE ist nämlich wirklich eine Enttäuschung :(

dargo
2019-01-24, 17:20:17
bei 50% würde ne 64CU VII sich aber schon ner 2080Ti(non FE) duelieren...

als LCE dürfte sie dann die FE als gegenspieler haben...

also total gähn, ich weiss...
Ich sehe eine RTX 2080TI FE bei CB in 4k 55% vor meiner V64 @OC (nichts weiter ist die LCE).
https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/3/#diagramm-performancerating-fps-3840-2160

Für 699$ sicherlich schon etwas interessanter aber immer noch kein must have.

SKYNET
2019-01-24, 19:03:49
Ich sehe eine RTX 2080TI FE bei CB in 4k 55% vor meiner V64 @OC (nichts weiter ist die LCE).
https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/3/#diagramm-performancerating-fps-3840-2160

Für 699$ sicherlich schon etwas interessanter aber immer noch kein must have.


und wie du sicher gelesen hast, habe ich non-FE geschrieben, die mal locker 8-10% langsamer als die FE ist... :tongue:

Digidi
2019-01-24, 19:26:18
Takt gehört zum Design dazu. Schau dir Nvidia an: Eine GTX 1060 hat gefühlt "keine" Recheneinheiten, sondern einen winzigen Chip, taktet aber dafür mit fast 2 GHz und ist daher so schnell wie eine Radeon mit beinahe doppelt so vielen Einheiten @ 1,5 GHz. Leistung ist das Produkt aus Einheiten und Takt.

Das hätte man bei Vega 20 theoretisch auch haben können: Die Breite der GPU bleibt unverändert (Speicherschnittstelle ausgenommen), aber die Höhe wird drastisch vergrößert. Anscheinend ist es aber mit großen Verrenkungen verbunden, ein bestehendes Design nachträglich auf hohe Frequenzen zu trimmen. Wenn Vega 20 bei 300 Watt tatsächlich nur im 1,7-GHz-Bereich herumdümpelt, wäre das schon schwach. Bei Polaris hat man ähnliche Taktsprünge mit einem wesentlich rückständigeren Fertigungsverfahren geschafft. Vielleicht wird 7 nm auch erst mit DUV potent.

MfG,
Raff

Der P10 hat mehr Rohleistung und wenn man sich Spiele anschaut die AMD mal richtig auslasten dann hat ein GP106 keine chance.

Fragman
2019-01-25, 07:09:28
Glaubst du wirklich Nvidia wird beim Nachfolger @7nm weiter bis 754mm² gehen? Dann bist du ganz schön naiv.

Man wird bis knapp über 500 gehen.
Was das für die Preise heissen wird, muss man sehen. Aber 800 bis 1000 euro sind wohl gesetzt, auch von AMD, wie man dank Vega2 schon erahnen kann. Sie machen es jedenfalls nicht billiger im High End, das wissen wir jetzt.

Und wir können für AMD nur hoffen, das VegaII keine Vorschau auf 7nm ist was Navi betrifft. Die 1800Mhz Turbo für VII, die im Raum stehen, sind aktuell wirklich sehr wenig. Eine 2080 geht ohne Probleme schon auf 2000. Deshalb hoffe ich mal, deren Arch ist da einfach am Ende und sie können für Navi mehr rausholen, mehr als beim Wechsel von Polaris auf Vega natürlich, das ist einfach nötig.

SKYNET
2019-01-25, 10:13:44
Man wird bis knapp über 500 gehen.
Was das für die Preise heissen wird, muss man sehen. Aber 800 bis 1000 euro sind wohl gesetzt, auch von AMD, wie man dank Vega2 schon erahnen kann. Sie machen es jedenfalls nicht billiger im High End, das wissen wir jetzt.

Und wir können für AMD nur hoffen, das VegaII keine Vorschau auf 7nm ist was Navi betrifft. Die 1800Mhz Turbo für VII, die im Raum stehen, sind aktuell wirklich sehr wenig. Eine 2080 geht ohne Probleme schon auf 2000. Deshalb hoffe ich mal, deren Arch ist da einfach am Ende und sie können für Navi mehr rausholen, mehr als beim Wechsel von Polaris auf Vega natürlich, das ist einfach nötig.


also ich sehe da nix von 2000... mit max powerlimit 1890MHz für die FE...

https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40

dargo
2019-01-25, 10:34:10
also ich sehe da nix von 2000... mit max powerlimit 1890MHz für die FE...

https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40
Du kennst es ja... bei Nvidia wird immer maximaler OC rausgekramt und das ganze dann mit minimalen Stromverbrauch garniert. ;D

gbm31
2019-01-25, 10:38:12
Trotzdem.

Bei Sapphire wird die Pulse mit 1512MHz Boost angegeben und erreicht sinnvoll (uv/oc und wirklich! stabil) 1540-1580MHz (je nach Last).

Die VII wird mit 1750MHz Boost angegeben, könnte also bei 1800MHz rauskommen... Das ist nicht so wirklich sehr weit weg von guten V64 (LCE 1677MHz)...

Ich lasse mich ja gerne überraschen.

Fragman
2019-01-25, 10:44:34
Du kennst es ja... bei Nvidia wird immer maximaler OC rausgekramt und das ganze dann mit minimalen Stromverbrauch garniert. ;D

Könnt ihr mal mit dem trollen aufhören?
Ihr wisst es selbst doch besser, warum sind solche Kommentare nötig?

Natürlich ist der Stromverbrauch dann Mist, genauso wie bei AMD. Aber Käufer dieser Produkte interessiert der nicht und zum anderen fahren die meisten OC. Denn Käufer dieser Produkte, in dem Preisbereich, wissen was sie kaufen und die nutzen das auch entsprechend, egal ob nv oder AMD.

SKYNET
2019-01-25, 10:49:48
Trotzdem.

Bei Sapphire wird die Pulse mit 1512MHz Boost angegeben und erreicht sinnvoll (uv/oc und wirklich! stabil) 1540-1580MHz (je nach Last).

Die VII wird mit 1750MHz Boost angegeben, könnte also bei 1800MHz rauskommen... Das ist nicht so wirklich sehr weit weg von guten V64...

Ich lasse mich ja gerne überraschen.

es ist eine referenzkarte... und entsprechend kannst die auch nur mit referenz vergleichen... V64 hatte 1536MHz boost als FE(herstellerangabe)... die customs hatten 1611MHz als max(nitro+) bzw. 1677MHz(LCE)... heisst die customs der VII werden nachher wohl um die 1900Mhz boost haben, mit OC und UV dürften dann wohl die 2000 locker fallen und luft nach oben haben... 2200 würd ich gerne sehen... dann sollte man ner 2080Ti(non FE) schon verdammt nahe kommen.

wie immer halt... also ich muss nicht behaupten meine 1080Ti sei ein stromsparwunder, das ding säuft alleine mehr als der rest vom PC + 2. rechner zusammen... :ulol: dafür hatte ich jetzt im winter noch nie kalte füsse am rechner(das kleine ding steht genau neben meinen füssen, und die warme luft wird als heizlüfter genutzt ;D )

gbm31
2019-01-25, 11:10:26
... mit OC und UV dürften dann wohl die 2000 locker fallen und luft nach oben haben......


Ernsthaft? Welche Vega lief denn je mit so viel mehr Takt?

Das ist Hype Train pas excellence.

Cyphermaster
2019-01-25, 11:12:00
Und wir können für AMD nur hoffen, das VegaII keine Vorschau auf 7nm ist was Navi betrifft. Die 1800Mhz Turbo für VII, die im Raum stehen, sind aktuell wirklich sehr wenig.Dafür gibt es keinerlei Anhaltspunkt. Navi ist eine komplett geänderte Architektur, während Vega-II nur ein nicht weiter optimierter Shrink ist, und damit genau wie Vega(-I) mit sehr hohen Chiptakten seine Probleme hat. Daß unter diesen suboptimalen Voraussetzungen nur etwa die Hälfte des theoretisch möglichen Takt-Verbesserungspotentials des Fertigungsschritts auf 7nm (+25% Takt bei gleichem Verbrauch oder 50% weniger Verbrauch bei gleichem Takt) rausgeholt wurde, ist daher doch wenig überraschend.

SKYNET
2019-01-25, 11:23:15
Ernsthaft? Welche Vega lief denn je mit so viel mehr Takt?

Das ist Hype Train pas excellence.


wir reden von der VII

BlacKi
2019-01-25, 11:25:47
er redet vom geister hypetrain^^

gbm31
2019-01-25, 11:27:29
wir reden von der VII

Die nichts anderes ist als Vega 1 auf 7nm. Mit allen Haken und Ösen. Kein Wundertreiber, keine grundsätzlichen Design-Unterschiede.
Allenfalls kleine kosmetische Verbesserungen.

Siehe auch Cyphermasters Post über deinem.

Daredevil
2019-01-25, 11:29:45
Du sagst das jetzt so, dass es keine großen Unterschiede gibt. :<
Alleine schon die DIE Fläche ist schon ein relativ großer Unterschied, welcher auch anders gekühlt werden möchte.

SKYNET
2019-01-25, 11:30:51
Die nichts anderes ist als Vega 1 auf 7nm. Mit allen Haken und Ösen. Kein Wundertreiber, keine grundsätzlichen Design-Unterschiede.
Allenfalls kleine kosmetische Verbesserungen.

Siehe auch Cyphermasters Post über deinem.

knapp 300MHz mehr max. boost bei der VII ggü. der V64... wird also auch entsprechend beim OC wohl so ausfallen, und da liegen die meisten V64 bei 1700-1750MHz... ;)

gbm31
2019-01-25, 11:40:08
knapp 300MHz mehr max. boost bei der VII ggü. der V64... wird also auch entsprechend beim OC wohl so ausfallen, und da liegen die meisten V64 bei 1700-1750MHz... ;)


Oh Leute! Ernsthaft jetzt! Ist ja schon fast wie mit horn reden...

Ich hab meine Pulse verglichen im Auslieferungszustand und entsprechend mit oc und uv an sinnvoller Grenze.

Die V64 in 14nm erreicht entsprechend getuned 1750MHz (und eine LCE 1677MHz im Auslieferungszustand, auch entsprechend getuned, halt mit Brechstange und Monsterkühlung statt oc und uv)

Deswegen schreibe ich ja dass die VII mit den offiziellen Boost-Angaben nicht so weit davon weg ist.

Und wenn die Vega Architektur innerhalb der Strukturbreite 14nm schon nicht mehr als 100Mhz rausholt zwischen überfahren und sinnvoll ausgefahren, woher soll das eine 7nm holen, wenn sie im Vergleich zur 14nm gar nicht so viel schneller angesetzt wird?

Meint ihr nicht AMD würde das voll ausnutzen, wenn es möglich wäre, um damit auch die 2080Ti zu gefährden?

Von mir aus grade so 1900MHz, aber diese sicheren 2000 und sogar drüber sehe ich einfach nicht.

Und zur Kühlung: die neue Kühlung der VII einmal als FE verkaufen und dann doch wieder als neu und leistungsfähig hinstellen - da solltet ihr euch mal einig werden.

Sie kann definitiv mehr als die alte FE-Blower. Und selbst damit werden nur 1750MHz Boost verkauft.

SKYNET
2019-01-25, 11:45:39
Oh Leute! Ernsthaft jetzt! Ist ja schon fast wie mit horn reden...

Ich hab meine Pulse verglichen im Auslieferungszustand und entsprechend mit oc und uv an sinnvoller Grenze.

Die V64 in 14nm erreicht entsprechend getuned 1750MHz (und eine LCE 1677MHz im Auslieferungszustand, auch entsprechend getuned, halt mit Brechstange und Monsterkühlung statt oc und uv)

Deswegen schreibe ich ja dass die VII mit den offiziellen Boost-Angaben nicht so weit davon weg ist.

Und wenn die Vega Architektur innerhalb der Strukturbreite 14nm schon nicht mehr als 100Mhz rausholt zwischen überfahren und sinnvoll ausgefahren, woher soll das eine 7nm holen, wenn sie im Vergleich zur 14nm gar nicht so viel schneller angesetzt wird?

Meint ihr nicht AMD würde das voll ausnutzen, wenn es möglich wäre, um damit auch die 2080Ti zu gefährden?

Von mir aus grade so 1900MHz, aber diese sicheren 2000 und sogar drüber sehe ich einfach nicht.

Und zur Kühlung: die neue Kühlung der VII einmal als FE verkaufen und dann doch wieder als neu und leistungsfähig hinstellen - da solltet ihr euch mal einig werden.

Sie kann definitiv mehr als die alte FE-Blower. Und selbst damit werden nur 1750MHz Boost verkauft.

ich bleibe dabei, 2000MHz sehe ich als realistisch... obs so kommt, sehen wir am 7.2. ;)

Hakim
2019-01-25, 11:59:18
Nur 2 ghz? Nicht mehr 2.2 oder gar 2.4?

Fragman
2019-01-25, 12:01:18
Dafür gibt es keinerlei Anhaltspunkt. Navi ist eine komplett geänderte Architektur, während Vega-II nur ein nicht weiter optimierter Shrink ist, und damit genau wie Vega(-I) mit sehr hohen Chiptakten seine Probleme hat. Daß unter diesen suboptimalen Voraussetzungen nur etwa die Hälfte des theoretisch möglichen Takt-Verbesserungspotentials des Fertigungsschritts auf 7nm (+25% Takt bei gleichem Verbrauch oder 50% weniger Verbrauch bei gleichem Takt) rausgeholt wurde, ist daher doch wenig überraschend.

Jep, da bin ich bei Dir. Deshalb schreib ich auch, ich hoffe, das Navi das deutlich besser macht und VegaII kein Benchmark sein wird. ;)

aufkrawall
2019-01-25, 12:14:30
Wenn man den Taktsprung bei Polaris 30 gesehen hat, kommen mir 2GHz gar nicht so unrealistisch vor. Hey, it's 7nm TSMC. Drauf wetten würd ich aber auch nicht, Hawaii hatte als HPC-Chip hohen Takt gehasst.

HTB|Bladerunner
2019-01-25, 13:01:57
Ist eigentlich schon bekannt weshalb sich AMD mit der "neuen" Namensgebung (Radeon 7) praktisch komplett von der Produktbezeichnung "VEGA" distanziert? Was sich unter der Haube befindet sollte natürlich klar sein... Stattdessen erstellt AMD aber wieder ein neues Namensschema, welches mit "VEGA" und/oder "RX" nichts zu tun hat?!

Daredevil
2019-01-25, 13:07:01
Kein Plan, soweit ich weiß nicht.
Ich habe ja auch noch darauf getippt, dass Vega als Namensgebung fortbestehen wird, vielleicht wird es das ja auch, oder eben auch nicht.

Ryzen und Radeon passen halt namentlich auch gut zueinander, gerade wenn man es halt staffelt, wie Ryzen eben auch.
Radeon ist zudem noch der altbekannte gute Name, den man schon lange kennt, wie eben Athlon auch.

Ryzen 3
Ryzen 5
Ryzen 7
Leicht verständlich.

Radeon RX 480
Radeon RX 580
Radeon RX 590
Radeon RX Vega 56
Radeon RX Vega 64
What the fuck.

Radeon 3
Radeon 5
Radeon 7
Leicht verständlich.

Maybe deswegen.

SKYNET
2019-01-25, 14:01:11
VII in geizhals gelistet:
https://geizhals.de/?fs=radeon+Vega2&in=

Cyphermaster
2019-01-25, 14:27:29
Ist eigentlich schon bekannt weshalb sich AMD mit der "neuen" Namensgebung (Radeon 7) praktisch komplett von der Produktbezeichnung "VEGA" distanziert?
Dafür, daß genügend Leute aus "Vega II", in Foren usw. eben gerne abgekürzt "V II", als false friend eine römische 7 herauslesen, kann AMD doch nix, niemand distanziert sich von "Vega" - im Gegenteil, "Vega II" ist ja geschützte Wort-/Bildmarke. /Edit: Ich möchte gar nicht wissen, wohin man ein "Vega 2", abgekürzt "V2" dann wieder hin interpretiert hätte... :rolleyes:

arcanum
2019-01-25, 14:36:18
Dafür, daß genügend Leute aus "Vega II", in Foren usw. eben gerne abgekürzt "V II", als false friend eine römische 7 herauslesen, kann AMD doch nix, niemand distanziert sich von "Vega" - im Gegenteil, "Vega II" ist ja geschützte Wort-/Bildmarke. /Edit: Ich möchte gar nicht wissen, wohin man ein "Vega 2", abgekürzt "V2" dann wieder hin interpretiert hätte... :rolleyes:

amd benützt doch selbst überall die schreibweise VII und nicht etwa V II. da klingt die argumentation mit VII = 7 (nm?) schlüssiger als das gar nicht genutzte V II. selbst vega ii finde ich auf der amd-seite nirgends ausgeschrieben.

xiao didi *
2019-01-25, 14:49:51
Dafür, daß genügend Leute aus "Vega II", in Foren usw. eben gerne abgekürzt "V II", als false friend eine römische 7 herauslesen, kann AMD doch nix, niemand distanziert sich von "Vega" - im Gegenteil, "Vega II" ist ja geschützte Wort-/Bildmarke.
Lisa nennt die Karte selbst Radeon 7. Ab 54:40:
bibZyMjY2K4

PS: Zeitstempel funktionieren wohl leider nicht mit der Einbettung. Bemerkenswerterweise jedoch in der Beitragsvorschau.

x-force
2019-01-25, 14:53:53
an der karte gibt es deutlich interessantere aspekte als den namen :upicard:

Cyphermaster
2019-01-25, 15:01:37
amd benützt doch selbst überall die schreibweise VII und nicht etwa V II. da klingt die argumentation mit VII = 7 (nm?) schlüssiger als das gar nicht genutzte V II. selbst vega ii finde ich auf der amd-seite nirgends ausgeschrieben.
AMD hat auf seinen Folien die Karte immer als Radeon Vega betitelt/zugeordnet, eine Vega-"7" müßte dann "Radeon Vega VII" bzw. "Radeon V-VII"geschrieben werden. Zudem ist keinerlei neues/alternatives Namensschema zu den bekannten auch nur irgendwo von AMD erwähnt. Darüber hinaus paßt die Zuordnung des Fertigungsprozesses schon deshalb nicht, weil es mal das gesamte Spektrum in 7nm geben wird. Es würde also keinen Sinn machen, eine einzige Karte als DIE "Radeon 7" zu beschreiben, wenn man später vom Low-End bis Enthusiast-Segment alle Karten so betiteln müßte.

Da wäre die Analogie zu den Ryzen 3/5/7 noch stringenter in der Logik, dann würde man aber trotzdem zumindest ein Suffix (Ryzen 7 gibt es auch nicht nur einen) nutzen, und ebenfalls eine arabische Ziffer.

Die logischste Auslegung ist immer noch, daß die Vega-II eben VII (vielleicht hätte man rückblickend besser V/II oder V-II machen sollen :rolleyes:) im Sinne Vega-2 ist. So macht es auch Sinn, daß man kein Suffix oder die CUs dazu nimmt ("VII/60" analog zu V56 und V64), weil es keine weiteren Vegas mehr geben wird, sondern den Ersatz durch Navi.

HTB|Bladerunner
2019-01-25, 15:05:39
an der karte gibt es deutlich interessantere aspekte als den namen :upicard:
Momentan nicht. ;)
In 2 Wochen sieht die Sache natürlich anders aus.

Oder man kann natürlich mit dem VII vs Turing Längenvergleich weitermachen...

Cyphermaster
2019-01-25, 15:09:49
Lisa nennt die Karte selbst Radeon 7. Ab 54:40:
https://youtu.be/bibZyMjY2K4
Sie spricht aber auch von einer GPU "for Gamers and Creators", was die MI50 mit rein nimmt. So ganz stringent ist das also so oder so nicht. Ein offizielles neues Namensschema hat man jedenfalls nicht vorgestellt.

Linmoum
2019-01-25, 15:17:01
Das Teil heißt Radeon VII (7) und fertig. Next pls, gibt sinnvolleres zum diskutieren.

Zergra
2019-01-25, 16:47:06
Das Teil heißt Radeon VII (7) und fertig. Next pls, gibt sinnvolleres zum diskutieren.
Die 7 ist doch für das Release Datum, das hat doch nix mit der Fertigung zu tun :freak:

=Floi=
2019-01-25, 20:39:08
knapp 300MHz mehr max. boost bei der VII ggü. der V64... wird also auch entsprechend beim OC wohl so ausfallen, und da liegen die meisten V64 bei 1700-1750MHz... ;)

Vega skalierte sehr schlecht mit dem tank. Hier muss man erstmal rausfinden, ob die doppelte ram bandbreite wirklich das bringt was man sich erhofft. (als kunde)
Vegas powerlimit ging duch die decke und ich frage mich noch immer, ob die damaligen 400 watt wirklich dauerfest sind. Es gab so winige customs und es muss ja einen grund haben, warum die die finger davon gekassen haben.


Reden wir jetzt wieder von 400watt?

V7 bostet bei 300w auf deine werte und mehr sollte man sich hier nicht erhoffen. Der boost wird wohl dank 7nm, dem powerbudget dauerhaft anliegen und das wird auch noch ein paar prozent bringen, aber wunder sollte man auch nicht erwarten.

Linmoum
2019-01-25, 20:46:16
Deswegen untervoltet man ja auch.

Screemer
2019-01-25, 20:51:40
Die 7 ist doch für das Release Datum, das hat doch nix mit der Fertigung zu tun :freak:
bei ner 7nm gpu wird die VII sicher nichts mit dem fertigungsverfahren zu tun haben. wirklich komisch, dass man manche marketing namenfindungen auch noch erklären muss. VII = VEGA2 = VEGA 7nm und noch dazu release am 7ten. mehr wortspiel ist doch wirklich kaum noch möglich.

horn 12
2019-01-25, 21:03:59
https://twitter.com/KOMACHI_ENSAKA/status/1088408007736619008

Release am 07 Februar aber Reviews wohl bedeutend früher ? … ?

Daredevil
2019-01-25, 21:20:47
Wie steht's bei AMD eigentlich um den Multimonitorbetrieb mit Monitoren verschiedener Auflösungen?

Bei nVidia braucht man ja den nvinspector, um die Leistungsaufnahme (via P-States) reduzieren zu können.

Hat man so was auch bei AMD noch nötig?
Kleine Korrektur.
Wenn du GSync benutzt ( z.B. an einem Freesync Monitor ), bekommt man das anscheinend bei Nvidia jetzt auch auf die Reihe.
Siehe hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11909731#post11909731

aufkrawall
2019-01-25, 21:33:46
Nur funktionieren die Stromsparmodi mit einer GTX 1060 in 4k leider absolut ätzend, was die Ruckelfreiheit des Desktops angeht. Ständig geht es kurz in den Boost-State während des Surfens, und wenn der den Speichertakt wieder in den Idle-Modus absenkt, gibts einen kleinen Ruckler. An sich nicht weiter schlimm, wenn es nicht ständig passieren würde.

Dural
2019-01-25, 22:15:38
Ich glaube nicht das wir die 2ghz mit stock karten sehen werden, würde die karte das locker aus dem ärmel schütteln würde man doch schon längst in AMDs marketing die zahl 2ghz sehen.

Ich tippe auf um die 1900mhz.

Ex3cut3r
2019-01-25, 22:55:03
Mit Max PT 350W und guter Kühlung werden vermutlich 2,0 ghz möglich sein, ist dann aber natürlich nicht so vernünfig, bin eher gespannt, was Nvidia an Taktraten mit 7nm rausquetscht? 2500mhz möglich?

-=Popeye=-
2019-01-25, 23:28:20
Bin echt gespannt was die Karte so reißt.

Der Performance Level dürfte je nach Spiel so bei GTX1080Ti/RTX2080 liegen, was ich persönlich garnicht so scheiße finde (auch wenn ich nicht wechseln würde).

Nah dran klingt schonmal gut.

Raff
2019-01-25, 23:30:14
knapp 300MHz mehr max. boost bei der VII ggü. der V64... wird also auch entsprechend beim OC wohl so ausfallen, und da liegen die meisten V64 bei 1700-1750MHz... ;)

Äääh. Nein. Die meisten liegen eher bei 1.600 MHz, wenn du 4K-Stabilität haben willst. 1,7+ GHz kriegst du nur mit Wasserkühlung und bei einem ekelhaften Durst hin. Das kann bei der Seven nur besser sein. ;)

https://twitter.com/KOMACHI_ENSAKA/status/1088408007736619008

Release am 07 Februar aber Reviews wohl bedeutend früher ? … ?

Wäre "bedeutend früher" nicht sowas wie heute?

MfG,
Raff

horn 12
2019-01-25, 23:35:30
Weiss nicht, denke Mittwoch bis Freitag nächster Woche
Mit UV sollten wohl die 1875 bis 1925 Mhz möglich sein, und da ca. zwischen RTX 2080 und 2080TI liegen, Näher jedoch an Ersterer.

-=Popeye=-
2019-01-25, 23:48:56
RTX 2080 Ti Performance träum weiter.

Wenn bei der Karte im Schnitt RTX2080 Performance raus kommt ist das schon gut (mit VRAM Vorteil für AMD) .

Linmoum
2019-01-25, 23:57:48
Dass man mit UV bei gleichzeitigem OC eine 2080 im Schnitt hinter sich lässt, halte ich gar nicht mal für abwegig. Das sollte man als Maximum aber auch dabei belassen und nicht wieder in Fanboy-Manier von utopischen Wundern träumen.

SKYNET
2019-01-26, 03:09:12
Äääh. Nein. Die meisten liegen eher bei 1.600 MHz, wenn du 4K-Stabilität haben willst. 1,7+ GHz kriegst du nur mit Wasserkühlung und bei einem ekelhaften Durst hin. Das kann bei der Seven nur besser sein. ;)



Wäre "bedeutend früher" nicht sowas wie heute?

MfG,
Raff

och, die meisten nitros bewegen sich zwischen 1650 und 1750MHz... das ist schon recht ordentlich für lukü ;)

und der durst ist mir puppe... meine 1080Ti frisst auch weit über 400W wenn ich den framelimiter abstelle... :biggrin: kaufe ja kein 750W netzteil wenn ich es nicht auch nutzen will ;)

BeetleatWar1977
2019-01-26, 07:14:03
Das mit dem Boosttakt ist so ne Sache - ist irgendwo vermerkt bei was?

mal 2 Bilder wie hoch meine 2 Vega 56 hier Boosten.... Oberer Wert die Gigabyte unten Referenz:

https://abload.de/img/starwarsbattlefrontiiklj4y.jpg

https://abload.de/img/battletech_2019_01_26trj1z.jpg

horn 12
2019-01-26, 07:29:37
In Game, nicht Startbildschirm, also unter dauernder Last, am Besten noch unter 4K

Zergra
2019-01-26, 10:09:02
Die Karte wird die 1,8Ghz @ Stock @4k garantiert nicht halten. Bin mir auch relativ sicher das die 2080GTX nicht erreicht wird...

robbitop
2019-01-26, 10:19:25
Wenn sich bei V20 nicht etwas geändert hat, was taktnormiert deutlich mehr Leistung bringt, wird man im breiten Schnitt sicherlich nicht ganz an die 2080 herankommen.

maximus_hertus
2019-01-26, 10:38:20
Die Karte wird die 1,8Ghz @ Stock @4k garantiert nicht halten. Bin mir auch relativ sicher das die 2080GTX nicht erreicht wird...

Das hat doch AMD schon bestätigt, dass die 1,8 GHz nur ein Peak Wert sind und 1,75 GHz der erwartete (Dauer)Boost sind.

2 GHz halte ich für den Alltag für eher unwahrscheinlich (als stabiler 24/7 OC). 1850-1900 sind da imo realistischer.

SKYNET
2019-01-26, 11:04:59
horn hatte glaube ich was gesagt von "reviews früher"... also ich kann aus 100% sicherer quelle sagen: quatsch, offizielle(unabhängige) benchmarks gibts erst am 7.2.... ob irgendwer leaked steht dann auf nem anderen blatt.

basix
2019-01-26, 12:02:41
7.2. macht ja auch Sinn: 7nm umd Vega "2" ;) Das Datum hat zu viel Namens-Bedeutung als dass man es ohne Not vorverschieeben würde.

SKYNET
2019-01-26, 12:06:57
7.2. macht ja auch Sinn: 7nm umd Vega "2" ;) Das Datum hat zu viel Namens-Bedeutung als dass man es ohne Not vorverschieeben würde.


allerdings sind unboxings und bilder schon ab dem 4.2. erlaubt ;)

Bellspinder
2019-01-26, 13:12:14
Die 2080 wird aber auch schon um die 700€ gehandelt. Selber Preis, höhere Leistung.

AMD bringt also eine Karte, die in etwa (evtl. etwas mehr) die Leistung einer 2070 bringt, aber satte 200 Euro teurer ist und höchst wahrscheinlich wieder deutlich mehr Strom verbraucht. Dafür hab ich dann 16GB ultraschnellen Speicher, aber wofür? RTX kann das Ding nicht und bis die 16Gigs in Games beansprucht werden, ist schon wieder die übernächste Generation an Grafikkarten da. Außer fürs Kryptomining oder für Fanboys sehe ich keinen wirklich Platz für die Radeon 7.2

Was ich nicht ganz verstehe ist: Meinem Laienverständnis nach sind die Vegas den Pascals/Turings auf dem Papier sogar überlegen. Sie haben weit höhere Speicherbandbreiten, weit mehr Shader ect. aber bringen diese Leistung aus irgendeinem Grund nicht in die Games.

SKYNET
2019-01-26, 13:19:36
Die 2080 wird aber auch schon um die 700€ gehandelt. Selber Preis, höhere Leistung.

AMD bringt also eine Karte, die in etwa (evtl. etwas mehr) die Leistung einer 2070 bringt, aber 200 Euro teurer ist und höchst wahrscheinlich wieder deutlich mehr Strom verbraucht. Dafür hab ich dann 16GB ultraschnellen Speicher, aber wofür? RTX kann das Ding nicht und bis die 16Gigs in Games beansprucht werden, ist schon wieder die übernächste Generation an Grafikkarten da.

Außer fürs Kryptomining oder für Fanboys sehe ich keinen wirklich Platz für die Radeon 7.2

also es brauchen inzwischen deutlich mehr spiele 8GB+ in 1440p als es spiele mit RT gibt... :P

was also wohl eher überflüssig ist, 16GB speicher, die tatsächlich durchweg nutzbar sind, jetzt schon... oder nen "feature" das grade mal in einem game genutzt werden kann, und selbst da nur mit einschnitten :)

aufkrawall
2019-01-26, 13:23:54
also es brauchen inzwischen deutlich mehr spiele 8GB+ in 1440p als es spiele mit RT gibt... :P

Ich würde sagen, das hält sich die Waage.

Bellspinder
2019-01-26, 13:33:12
Ich spiele gerade Total War Warhammer 2 auf der Radeon RX 580 8GB in 1440p downgesamplet auf 1080p mit Ultra Texturen und der VRAM wird zu 6.2 GB voll.

Es ist zwar echt an der Grenze, slowdowns hier und da, aber man kann es spielen. Nette Anekdote: Wenn ich eine fast doppelt so schnelle und doppelt so teure hochmoderne RTX 2060 hätte, dann wäre ich in dem Spiel bereits im Speicherlimit und hätte zwar mehr FPS aber üble Nachladeruckler. :freak:

aufkrawall
2019-01-26, 13:38:44
Wenn ich eine fast doppelt so schnelle und doppelt so teure hochmoderne RTX 2060 hätte, dann wäre ich in dem Spiel bereits im Speicherlimit und hätte zwar mehr FPS aber üble Nachladeruckler. :freak:
Nicht zwingend, alloziert heißt nicht zwangsweise benötigt. Die von dir beschriebenen Performance-Probleme sind eine Möglichkeit, neben einwandfreier Funktion oder Texturen heimlich in niedrigerer Auflösung gestreamt.
Weiß man erst, wenn man es ausprobiert hat.

Kann auch Unterschiede zwischen AMD & NV geben, 8GB AMD reichen z.B. in RotTR DX12 im Gegensatz zu Nvidia 8GB aus (siehe DX12-Thread).

Fragman
2019-01-26, 13:48:18
Kann auch Unterschiede zwischen AMD & NV geben, 8GB AMD reichen z.B. in RotTR DX12 im Gegensatz zu Nvidia 8GB aus (siehe DX12-Thread).

Wenn Navi als Midrange Karte im Sommer mit nur 8GB erscheint, dazu knapp VII Leistung liefert, ist die Diskussion zum Thema 16gb sowieso beendet. Die kann man dann in 1,5 jahren fortführen, wenn AMD und nv mit neuen Highend Karten kommen.

dargo
2019-01-26, 16:00:40
Wenn Navi als Midrange Karte im Sommer mit nur 8GB erscheint, dazu knapp VII Leistung liefert, ist die Diskussion zum Thema 16gb sowieso beendet.
Ich frage mich gerade wie du auf den Trichter kommst?

SKYNET
2019-01-26, 16:05:05
Ich frage mich gerade wie du auf den Trichter kommst?


dito, wird wohl irgendwo zwischen V56 und V64 liegen...

Hakim
2019-01-26, 17:10:00
Wenn es sich mit der 2060 anlegen soll, sollte es in dem Bereich liegen

Screemer
2019-01-26, 17:42:11
What? Die 2060 liegt auf v56 Niveau mit viel Daumenpeilung vielleicht 5-7% drüber im Schnitt. Da packt V2 wohl noch Mal +-25% drauf.

BlacKi
2019-01-26, 17:45:09
für navi wohl passend

maximus_hertus
2019-01-26, 17:49:11
AMD bringt also eine Karte, die in etwa (evtl. etwas mehr) die Leistung einer 2070 bringt, aber satte 200 Euro teurer ist und höchst wahrscheinlich wieder deutlich mehr Strom verbraucht. Dafür hab ich dann 16GB ultraschnellen Speicher, aber wofür? RTX kann das Ding nicht und bis die 16Gigs in Games beansprucht werden, ist schon wieder die übernächste Generation an Grafikkarten da. Außer fürs Kryptomining oder für Fanboys sehe ich keinen wirklich Platz für die Radeon 7.2

Was ich nicht ganz verstehe ist: Meinem Laienverständnis nach sind die Vegas den Pascals/Turings auf dem Papier sogar überlegen. Sie haben weit höhere Speicherbandbreiten, weit mehr Shader ect. aber bringen diese Leistung aus irgendeinem Grund nicht in die Games.

1. Wie kommst du auf 2070 Leistung? Die 2070 liegt gerade mal 3-5% vor der Vega 64 (laut CB Rating, 99th Percentile => https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/3/#diagramm-rating-99th-percentile-frametimes-in-fps-1920-1080). Selbst beim Durchschnitt sind es nur 7-9%.

Die offiziellen Benchmarks sprechen von knapp +30% von der Radeon VII im Vergleich zur Vega 64. Ergo sollte die Radeon VII rund 20%(!!) vor(!) der 2070 raus kommen. Bzw. rund 5% hinter der 2080.

Ansonsten bitte Links zu deinen "Fakten"...


2. RTX ist ja schön und gut, aber erst 5nm Geforces werden es wohl einigermaßen hinbekommen. Die 2080 Ti bekommt ja schon ohne RTX kaum auf 60fps @ 4K. Mit RTX wird es wohl noch ewig dauern, bis wir 60+ fps in 4K sehen.


3. 16GB wird eher nützlich als die zu geringe RTX Leistung. Beides aber keine must have Features. Obwohl - siehe erste Titan Karte mit 6GB, obwohl zu dem Zeitpunkt noch 2 GB üblich waren. Nach 1-2 Jahren waren die 2GB Karten am Ende, die Titan konnte noch viele Jahre alles auf hoch flüssig rendern.


4. Stromverbrauch ist dank der RTX Karten kein großes Argument mehr. Ob 230-250W oder 295W ist dann auch nicht mehr der große Unterschied. Bei Pascal und 175 zu 295W war das noch deutlich. Aber hier sind es gerade mal 20-25%.


5. Wenn ich 700+ Euro ausgebe (in 2019), dann bitte mehr als 8GB. 8GB sind im Vergleich zur 1080 Ti ein krasses(!) Downgrade.


6. Man wird sehen wie der Markt die Radeon VII aufnehmen wird :)

JVC
2019-01-26, 18:08:15
Ein Hitt wäre es wenn sie HDMI 2.1 unterstützen würde :eek:

Dann würde ich wechseln und nen neuen 65" 4K Samsung Qled mit VRR holen ^^
( hmm VRR 2.1 will AMD ja unterstützen also ginge auch jetzt schon ^^
Verdammt wieso hat mein Qled kein VRR update bekommen :mad:)

Aber wahrscheinlich warte ich mal bis Anfang 2020
und schau dann wie weit 8K so ist.
(hätte hald schon jetzt gerne gescheites VRR am Fernseher und NV:P schaffts ja nicht)

Man kauft immer zu früh, egal was man abwartet ....

m.f.g. JVC

Ex3cut3r
2019-01-26, 18:14:25
1. Wie kommst du auf 2070 Leistung? Die 2070 liegt gerade mal 3-5% vor der Vega 64 (laut CB Rating, 99th Percentile => https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/3/#diagramm-rating-99th-percentile-frametimes-in-fps-1920-1080). Selbst beim Durchschnitt sind es nur 7-9%.

Die offiziellen Benchmarks sprechen von knapp +30% von der Radeon VII im Vergleich zur Vega 64. Ergo sollte die Radeon VII rund 20%(!!) vor(!) der 2070 raus kommen. Bzw. rund 5% hinter der 2080.

Ansonsten bitte Links zu deinen "Fakten"...


2. RTX ist ja schön und gut, aber erst 5nm Geforces werden es wohl einigermaßen hinbekommen. Die 2080 Ti bekommt ja schon ohne RTX kaum auf 60fps @ 4K. Mit RTX wird es wohl noch ewig dauern, bis wir 60+ fps in 4K sehen.


3. 16GB wird eher nützlich als die zu geringe RTX Leistung. Beides aber keine must have Features. Obwohl - siehe erste Titan Karte mit 6GB, obwohl zu dem Zeitpunkt noch 2 GB üblich waren. Nach 1-2 Jahren waren die 2GB Karten am Ende, die Titan konnte noch viele Jahre alles auf hoch flüssig rendern.


4. Stromverbrauch ist dank der RTX Karten kein großes Argument mehr. Ob 230-250W oder 295W ist dann auch nicht mehr der große Unterschied. Bei Pascal und 175 zu 295W war das noch deutlich. Aber hier sind es gerade mal 20-25%.


5. Wenn ich 700+ Euro ausgebe (in 2019), dann bitte mehr als 8GB. 8GB sind im Vergleich zur 1080 Ti ein krasses(!) Downgrade.


6. Man wird sehen wie der Markt die Radeon VII aufnehmen wird :)

Nicht so laut, lass die AMD Jungs hier wie immer in Ihrer Welt leben,

https://abload.de/img/sanstitre-27bk46.jpg

Eine RTX 2060 mit Max OC überflügelt eine Vega 64, bietet im Vergleich eine Effizienz die Ihres gleichen sucht, aber die Karte hat ja nur ganze 2GB weniger, und ist daher laut den ganzen Expterten hier vollkommen unbrauchbar, egal ob Games (bei mir in 3440x1440) "nur" 3,5 - 6GB fressen. Ist unbrauchbar und schluss :facepalm: :facepalm:

Vega 64 ist im Vergleich zur 2060 eine Karte von einer anderen Zeit, obwohl nur 1 Jahr zwischen ihnen liegt. AMD ist technologisch so weit abgeschlagen, das ist nicht mehr feierlich, aber Hauptsache AMD rockt "weiter"

Jaa, ne is klar.

dildo4u
2019-01-26, 18:21:15
Die Karte bringt sie immerhin bis zu 700€,das ist schon nicht schlecht ist im Prinzip wie im CPU Bereich nur der 9900k ist wirklich überlegen und im GPU Bereich die 2080 Ti.Hätte NV statt RTX mehr Cuda Cores verbaut sehe es deutlich schlechter aus.

Linmoum
2019-01-26, 18:23:50
Nicht so laut, lass die AMD Jungs hier wie immer in Ihrer Welt leben,

https://abload.de/img/sanstitre-27bk46.jpg

Eine RTX 2060 mit Max OC überflügelt eine Vega 64, bietet im Vergleich eine Effizienz die Ihres gleichen sucht, aber die Karte hat ja nur ganze 2GB weniger, und ist daher laut den ganzen Expterten hier vollkommen unbrauchbar, egal ob Games (bei mir in 3440x1440) "nur" 3,5 - 6GB fressen. Ist unbrauchbar und schluss :facepalm: :facepalm:
Stimmt, eine Ref. Vega64 wird von einer OC 2060 "überflügelt". Bezeichnend, wenn man ausschließlich mit Avg. fps argumentiert. Richtig sinnlos.


https://i.gyazo.com/514b09b84948c5b0a5c68b8741c63153.png

JVC
2019-01-26, 18:24:16
@Ex3cut3r
( Ädit: ach bei dem bin ich ja schon auf ignor ^^)

Sei doch glücklich mit deinen 8GB und dem noch mehr Speicherplatz brauchendem RT.
Ich bin es dann mit 16GB und sogar ohne RT ;)

Ich finde deine Motivation durchaus edel, uns vor AMD beschützen zu wollen ...
Aber Ich an deiner stelle wäre froh, das überhaupt noch wer diese "miese" Konkurrenz kauft :wink:

m.f.g. JVC

Daredevil
2019-01-26, 18:24:48
@Ex3cut3r
Warum sollte eine RTX2060 eine Effizienz haben, die "seinesgleichen" sucht? Die bricht doch nicht besonders raus aus der Nvidia Kette.

Dort im Bild sieht man nur eine Vega 64 Ref, welche sowohl eine schlechte Spannungsversorgung, ein um 10-20% höheren Verbrauch, eine schlechte Kühlung als auch eine schlechte Performance bietet wie gleichteure Custom Modelle.

Und die 6GB Ram sind nun einmal die Haftung zur Straße.
Wenn du die einmal verlierst in den Geschwindigkeiten, die man üblich fährt in der Performance Klasse fährt, fliegst du aus der Kurve.
Graka RAM kann man zum Teil auffangen mit Ingame Settings, aber manchmal auch nicht und somit hat man dann einen großen Anker am Bein.

Linmoum
2019-01-26, 18:32:17
Ist halt immer noch in Mode, Customs (in diesem Fall ja sogar noch mit OC) mit den schlechten Referenzdesigns zu vergleichen und absurde Fazits zu ziehen. Bin eher schockiert, dass das selbst in einem Forum wie dem 3dcenter immer wieder der Fall ist.

Ex3cut3r
2019-01-26, 18:44:52
Na klar, immer nur ausreden, war aber klar. Die CB Benches sprechen bände, mehr braucht man nicht zu sagen. Nvidia weiß schon, warum Sie solche Preise verlangen können, AMD ist technologisch einfach zu weit abgehängt, das wird Jahre + Fehler von Nvidia brauchen, um da wieder überhaupt in die Nähe zu kommen.

aufkrawall
2019-01-26, 18:48:27
Ändert nichts daran, dass die V64 bei den 1% Low fps nicht schlechter ist. Lass beim Trollen wenigstens die Fantasieargumente weg. ;)

Raff
2019-01-26, 18:49:31
Es ist und bleibt Stochern im Nebel. Ja, wir haben diesen Mittelwert von +28,6 Prozent. Was zun Nachdenken, denn das hilft immer recht effektiv gegen Hype:

- Die +28,6 % beziehen sich auf Radeon VII vs. RX Vega 64 – aber was denn für eine? LCE, Custom-Design oder gar ReferenzvAirsion? Letztere ist natürlich ein ganz einfaches Ziel, weil heiß und powerlimitiert. Blöd: Ihre Leistung wird von hochgezüchteten V56-Partnerkarten erreicht.
- Die +28,6 % beinhalten mit Fallout 76 einen fetten Ausreißer, der den Schnitt anhebt und mindestens fragwürdig ist. Da Hitman 2 in die andere Richtung aus dem Rahmen fällt (falsches Level mit CPU-Limit gebencht), kann man das mal drinlassen.
- Die +28,6 % beziehen sich rein auf die Ultra-HD-Auflösung. Warum wohl? Weil hier die Stärken der R7 am besten herauskommen. Noch besser wäre wohl 5K. Die Performance in verbreitetem Full-HDetris dürfte aber ganz anders aussehen. Nicht, dass das für eine derart teure Grafikkarte relevant wäre, aber für einen Index/Mittelwert ist es das. AMD bewirbt in der öffentlichen Präsentation jedenfalls sinngemäß High-Fps WQHD, flüssiges UWQHD und gut nutzbares UHD.

MfG,
Raff

JVC
2019-01-26, 19:00:24
- Die +28,6 % beziehen sich auf Radeon VII vs. RX Vega 64 – aber was denn für eine? LCE, Custom-Design oder gar ReferenzvAirsion? Letztere ist natürlich ein ganz einfaches Ziel, weil heiß und powerlimitiert. Blöd: Ihre Leistung wird von hochgezüchteten V56-Partnerkarten erreicht.

MfG,
Raff

Ich dachte das sei mittlerweile normal :confused:
Bei NV war doch auch fast überall 10FE gegen 20FE !

Und das wo bei der 20 das FE ausdrücklich ne OC variante ist
und gerade die 1080Ti FE bekanntlich stark durch ihre schwache Kühlung ausgebremst wird.

m.f.g. JVC

Raff
2019-01-26, 19:04:47
Nun, es steht trotzdem nicht dabei. Das ist also ungefähr so viel wert wie 99,9 Prozent der Benchmarks im Web, wo keine Taktraten angegeben werden. Dabei ist eine Grafikkarte gerne in einer Range von 10 Prozent unterwegs, abhängig von der Marktpositionierung der jeweiligen Custom-Designs. Da kann man viel annehmen, aber in Wahrheit kann es trotzdem anders aussehen. Besser ist, die Kinder beim Namen zu nennen. :)

Na klar, immer nur ausreden, war aber klar. Die CB Benches sprechen bände, mehr braucht man nicht zu sagen. Nvidia weiß schon, warum Sie solche Preise verlangen können, AMD ist technologisch einfach zu weit abgehängt, das wird Jahre + Fehler von Nvidia brauchen, um da wieder überhaupt in die Nähe zu kommen.

Den "Fehler" hat Nvidia doch bereits begangen: Viel Kernfläche für die Zukunft, wenig für die Gegenwart. Das wird sich voraussichtlich in Jahren auszahlen, aber im Hier und Jetzt ist Turing eben kaum schneller als sein Vorgänger. Nur deswegen hat AMD seinen Vega 20 überhaupt ins Consumer-Segment portiert. Wäre Turing ein klassisches Rasterisierungsbiest wie Pascal mit entsprechendem Bump, hätte man gar nicht antreten müssen. Jetzt oder nie.

MfG,
Raff

maximus_hertus
2019-01-26, 19:14:07
Nicht so laut, lass die AMD Jungs hier wie immer in Ihrer Welt leben,

https://abload.de/img/sanstitre-27bk46.jpg

Eine RTX 2060 mit Max OC überflügelt eine Vega 64, bietet im Vergleich eine Effizienz die Ihres gleichen sucht, aber die Karte hat ja nur ganze 2GB weniger, und ist daher laut den ganzen Expterten hier vollkommen unbrauchbar, egal ob Games (bei mir in 3440x1440) "nur" 3,5 - 6GB fressen. Ist unbrauchbar und schluss :facepalm: :facepalm:

Vega 64 ist im Vergleich zur 2060 eine Karte von einer anderen Zeit, obwohl nur 1 Jahr zwischen ihnen liegt. AMD ist technologisch so weit abgeschlagen, das ist nicht mehr feierlich, aber Hauptsache AMD rockt "weiter"

Jaa, ne is klar.

Was hast du gegessen?

Da ist jemand massiv angefressen ;)


1. Klar, bei Performance / Watt ist nVidia scheinbar uneinholbar vorne.
2. Was habe ich davon, dass ich eine unglaubliche, nie dagewesene Energieeffizienz habe und es mangels Speicher anfängt zu Ruckeln? Siehe Deus Ex, siehe Final Fantasy XV, siehe CoD WWII

ComputerBase hat sich die Frametimes (denn diese machen hakende Nachladevorgänge in den Speicher sofort sichtbar) in Call of Duty: WWII und Final Fantasy XV (ohne Textur-Pack) angesehen und diese mit denen einer GeForce RTX 2070 verglichen. Sämtliche dieser Messwerte sind während der normalen Tests aufgezeichnet worden – es wurde nichts für einen höheren Speicherverbrauch geändert beziehungsweise konstruiert.
Call of Duty: WWII zeigt auf einer GeForce RTX 2060 sowohl in 1.920 × 1.080 als auch in 2.560 × 1.440 unregelmäßige Frametimes, die sich in gelegentlich auftretenden Peaks äußern. In 1.920 × 1.080 sind diese interessanterweise sogar deutlich größer als in 2.560 × 1.440, obwohl letzteres eigentlich mehr Speicher benötigt. Hier ist es denkbar, dass durch die schneller aufeinanderfolgenden Frames in Full HD auch öfter auf den Speicher zugegriffen werden muss. Und wenn dieser bereits in Full HD limitiert, tritt das Problem natürlich auch häufiger auf, als in höheren Auflösungen.

Davon unabhängig zeigt die GeForce RTX 2070 mit 8 GB Speicher dieses Verhalten nicht. Die Frametimes sind deutlich sauberer, wenn auch nicht perfekt. Auf einer GeForce RTX 2060 stockt die Testsequenz dagegen vor allem in Full HD massiv – Call of Duty: WWII ist so nicht wirklich spielbar. In dem Fall müssten die Texturdetails reduziert werden.
Final Fantasy XV zeigt dann das klassische Verhalten. Es sind kleinere Ausreißer bei den Frametimes in Full HD zu erkennen und deutlich größere in 2.560 × 1.440. Trotz 60 FPS stockt die GeForce RTX 2060 in der hohen Auflösung störend, während die GeForce RTX 2070 problemlos durch dieselbe Sequenz rennt. Und das hochauflösende Textur-Pack des Spiels wurde in dem Fall noch nicht mal installiert. Auch hier müssen auf der neuen Turing-Grafikkarte die Texturdetails reduziert werden.

Auch Battlefield V rennt in DirectX 12 schnell ins Speicherlimit

Während des Testens ist zudem aufgefallen, dass die GeForce RTX 2060 mit Battlefield V in Probleme gerät, wenn die DirectX-12-API und eine höhere Auflösung als 1.920 × 1.080 genutzt werden. Bereits mit einer um 25 Prozent höheren Auflösung als Full HD (erreicht per Ingame-Downsampling) verliert das Spiel massiv an Performance. Wer zusätzlich Raytracing aktiviert (das den Speicherverbrauch weiter erhöht), sieht dann nur noch eine Ruckelorgie. Eine GeForce RTX 2070 erreicht in demselben Szenario noch mühelos mehr als 60 FPS. Daran ändert auch der Schalter für die Speicherbeschränkung im Spiel nichts.

Es wird in Zukunft auch nicht besser. Für 400-450 Euro suboptimal. Für diesen Kurs würde ich zumindest 2, besser 3 Jahre „Ruhe“ haben. Stand jetzt ist selbst Ultra in Full HD zu viel. Falls man natürlich nicht die Speicherfresser spielt ist es natürlich kein Problem.

Fazit: Allgemein ist die 2060 sehr auf Kante genäht und man wird wohl kaum bis 2020 durchhalten, ohne Kompromisse eingehen zu müssen.
Falls man aber (zufällig) nur Speicherschonende Games spielt, kann man natürlich lange viel Spaß haben. Die Energieeffizienz ist klasse, jedoch der Preis mit 400-460 Euro sehr, sehr hoch (für eine Mittelklasse Karte).

JVC
2019-01-26, 19:27:40
Nun, es steht trotzdem nicht dabei. Das ist also ungefähr so viel wert wie 99,9 Prozent der Benchmarks im Web, wo keine Taktraten angegeben werden. Dabei ist eine Grafikkarte gerne in einer Range von 10 Prozent unterwegs, abhängig von der Marktpositionierung der jeweiligen Custom-Designs. Da kann man viel annehmen, aber in Wahrheit kann es trotzdem anders aussehen. Besser ist, die Kinder beim Namen zu nennen. :)
MfG,
Raff

Ich nenn mal was beim Nahmen.

https://benchmark.unigine.com/leaderboards/superposition/1.0/4k-optimized/single-gpu/page-3

Platz 140(2037 MHz), 148(2126 MHz), 151(2126 MHz), 175(2075 MHz), 178(2126 MHz), ....
belegen 1080 Ti´s und die haben es alle geschafft sich unter die 2080 Ti´s zu mischen ;)

m.f.g. JVC

p.s.: Sry AMD Freunde, für das OT

Linmoum
2019-01-26, 19:28:40
Na klar, immer nur ausreden, war aber klar. Die CB Benches sprechen bände, mehr braucht man nicht zu sagen.
Hast meinen Beitrag davor wohl bewusst ignoriert. Schade, dass man eine "Diskussion" startet und dann keine Lust mehr hat diese fortzuführen und trotzig wird, weil die eigene Argumentation entkräftet bzw. für fragwürdig erachtet wird.


- Die +28,6 % beziehen sich rein auf die Ultra-HD-Auflösung. Warum wohl? Weil hier die Stärken der R7 am besten herauskommen. Noch besser wäre wohl 5K. Die Performance in verbreitetem Full-HDetris dürfte aber ganz anders aussehen. Nicht, dass das für eine derart teure Grafikkarte relevant wäre, aber für einen Index/Mittelwert ist es das. AMD bewirbt in der öffentlichen Präsentation jedenfalls sinngemäß High-Fps WQHD, flüssiges UWQHD und gut nutzbares UHD.
In dem Zusammenhang mal was Allgemeines, was ich mir bei euch schon länger wünsche bzw. für sinnvoll halte: Gedenkt ihr, euren "AiO-Index" auch mal separat je nach Auflösung aufzusplitten? Wenn man z.B. in UHD unterwegs ist und sich Benchmarks anschauen will, das aber noch mit FHD und WQHD vermischt wird, dann ist das immer etwas suboptimal.

Kann ja auch ein Praktikant übernehmen, die einzelnen Werte werdet ihr ja da haben. :D

Raff
2019-01-26, 19:34:57
Ich nenn mal was beim Nahmen.

https://benchmark.unigine.com/leaderboards/superposition/1.0/4k-optimized/single-gpu/page-3

Platz 140(2037 MHz), 148(2126 MHz), 151(2126 MHz), 175(2075 MHz), 178(2126 MHz), ....
belegen 1080 Ti´s und die haben es alle geschafft sich unter die 2080 Ti´s zu mischen ;)

m.f.g. JVC

p.s.: Sry AMD Freunde, für das OT

Solche Ranglisten sind natürlich cool, aber alles andere als präzise. Warum ist eine Karte mit 2.037 MHz vor einer mit 2.126 MHz? Weil der GPU-Benchmark zu viel Wert auf die CPU legt? Weil der Nutzer den Texturfilter auf LQ stellt oder gar das LOD hochcheatet? Will sagen: Man kann viel vergleichen und in der großen Summe kommt das wohl auch hin, aber präzise, valide Messungen können nur auf ein und demselben System stattfinden. Mit Taktangaben.

In dem Zusammenhang mal was Allgemeines, was ich mir bei euch schon länger wünsche bzw. für sinnvoll halte: Gedenkt ihr, euren "AiO-Index" auch mal separat je nach Auflösung aufzusplitten? Wenn man z.B. in UHD unterwegs ist und sich Benchmarks anschauen will, das aber noch mit FHD und WQHD vermischt wird, dann ist das immer etwas suboptimal.

Kann ja auch ein Praktikant übernehmen, die einzelnen Werte werdet ihr ja da haben. :D

Prakti... wat? ;)

Leider muss ich dich enttäuschen, das ist bis auf Weiteres nicht geplant. Denn das ist ein Mehrwert für das monatliche Printerzeugnis. Dort findest du neben dem "AiO-Index" (hehe) auch Einzelindizes der 20 Grafikkarten für FHD, WQHD, UHD sowie OpenCL. Und natürlich alle Average-Fps. Guckst du Bild. :) Außerhalb der frostig-gemeinen Real-Life-Paywall gibt's nur den Gesamtindex.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65493&d=1548527945

MfG,
Raff

maximus_hertus
2019-01-26, 19:35:01
In dem Zusammenhang mal was Allgemeines, was ich mir bei euch schon länger wünsche bzw. für sinnvoll halte: Gedenkt ihr, euren "AiO-Index" auch mal separat je nach Auflösung aufzusplitten? Wenn man z.B. in UHD unterwegs ist und sich Benchmarks anschauen will, das aber noch mit FHD und WQHD vermischt wird, dann ist das immer etwas suboptimal.

Kann ja auch ein Praktikant übernehmen, die einzelnen Werte werdet ihr ja da haben. :D

Zumindest in der Print Ausgabe gibt es separate Indexe für die Auflösungen (1080p, 1440p, 4K).

Edit: Da war ich zu langsam ;)

JVC
2019-01-26, 19:39:28
@Raff

Noch besser finde ich es sogar das, eine Titan V(2167 MHz) mit Platz 5 alle anderen 2080Ti´s schlägt :ulol:

Platz 6. dann die erste 2080Ti (2205 MHz)

Ich will nur sagen das die "FE vs FE Lüge" auf vielen Seiten noch immer gepflegt wird
und somit solch Leuten wie Ex3cut3r einen Nährboden gibt.

Tu ist und bleibt für mich Preis/Leistungstechnisch Müll.

m.f.g. JVC

Andron
2019-01-26, 19:58:43
Es ist und bleibt Stochern im Nebel. Ja, wir haben diesen Mittelwert von +28,6 Prozent. Was zun Nachdenken, denn das hilft immer recht effektiv gegen Hype:

- Die +28,6 % beziehen sich auf Radeon VII vs. RX Vega 64 – aber was denn für eine? LCE, Custom-Design oder gar ReferenzvAirsion? Letztere ist natürlich ein ganz einfaches Ziel, weil heiß und powerlimitiert. Blöd: Ihre Leistung wird von hochgezüchteten V56-Partnerkarten erreicht.


Sicher wissen werden wir es mit den ersten erscheinenden Tests (Du sehr wahscheinlich schon früher). Allerdings wurden einige der Spiele mit internen Benchmarks auf einer Referenz-Vega 64 nachgemessen und es kamen ziemlich genau die AMD-Werte dabei raus:

https://www.youtube.com/watch?v=n1hWG-u9iBM&t=47s

Würde auch am meisten Sinn ergeben, denn warum sollte man im Falle eines Vergleichs mit einer LC oder Custom diesen Umstand unerwähnt lassen? Damit schmälert man nur die in solchen Präsentationen so wichtigen Vergleichsbalken und Prozentangaben.

Wenn es am Ende doch einen größeren Performancesprung gibt als angenommen, um so besser. Aber ohne jegliche Hinweise darauf zu hoffen, wie es schon wieder einige tun, steigert nur wieder die Erwartungshaltung und die Enttäuschung im Fall des Nichteintretens.

Linmoum
2019-01-26, 20:16:41
Prakti... wat? ;)

Leider muss ich dich enttäuschen, das ist bis auf Weiteres nicht geplant. Denn das ist ein Mehrwert für das monatliche Printerzeugnis. Dort findest du neben dem "AiO-Index" (hehe) auch Einzelindizes der 20 Grafikkarten für FHD, WQHD, UHD sowie OpenCL. Und natürlich alle Average-Fps. Guckst du Bild. :) Außerhalb der frostig-gemeinen Real-Life-Paywall gibt's nur den Gesamtindex.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65493&d=1548527945

MfG,
Raff
Pff, mein hart verdientes Geld wollt ihr mir also aus der Tasche ziehen. Mal schauen, ob's nach der VII noch reicht. :D

maximus_hertus
2019-01-26, 20:21:42
Mal ehrlich, "Stochern im Nebel"? Nicht wirklich.

Warum sollte AMD eine Nicht Referenz Vega als Vergleich her nehmen? Man würde das neue Produkt abwerten. Das macht gar keinen Sinn.

Am Ende wird es doch eh darauf hinauslaufen: knapp an der RTX 2080 gescheitert, rund 50-70W höherer Verbrauch, dafür 16GB VRAM und rund 100-200 Euro günstiger (im Vergleich zu einer Strix 2080 / MS Gaming 2080 etc).

Gewinner: alle Spieler, alle Knden. Man hat wieder eine Wahl im High End Markt. Zum ersten mal nach (vielen) Jahren (sofern die Karten auch wirklich lieferbar sind).

Daredevil
2019-01-26, 20:27:36
Man könnte auch strategisch vorgehen und Nvidia im glauben lassen, dass es eine Ref ist. ;)
Zudem haben wir hier auch noch ziemlich junge Treiber...

Ich könnte mir vorstellen, dass wir hier den gleichen Effekt haben wie bei Vega 64 Custom und GTX1080 Custom.
Die GTX ist generell leicht schneller, AMD kann aber in einem geringen Anteil seine Muskeln spielen lassen, dafür wird die AMD halt eben auch unterm Strich günstiger.

Ex3cut3r
2019-01-26, 20:34:40
Stimmt, eine Ref. Vega64 wird von einer OC 2060 "überflügelt". Bezeichnend, wenn man ausschließlich mit Avg. fps argumentiert. Richtig sinnlos.


https://i.gyazo.com/514b09b84948c5b0a5c68b8741c63153.png

Wahnsinn 2% trotz der 6GB (komisch, denn laut den Experten hier, reichen 6GB ja schon heute nicht mehr), so ein Quatsch. RX Vega 64 ist nach 1 Jahr schon eine Steinzeit Karte, ähnliches wird der Radeon 7 blühen, wenn Nvidia mit 7nm mal richtig aufräumt, leider wird das ähnlich teurer wie Turing wenn nicht sogar noch teurer, aber das geheule hier sogar im 3Dcenter wird wieder sehr groß sein. Und bei RT hat Nvidia sowieso einen nicht einholbaren Stand erreicht, wird die nächsten 10 Jahre was das angeht, sehr bitter, denn RT wird die kommende Jahre ein Game Changer werden, nur wird dann halt RT auf Nvidia 3 mal schneller laufen, wie Tess schon heute.

Daredevil
2019-01-26, 20:53:51
Das Ding ist halt, dass du Prophezeiungen hier sprichst gegen sachlich belegte Argumente.
Zahlen, Daten und Fakten wiegen hier dann doch mehr als " RT wird die kommende Jahre ein Game Changer werden, nur wird dann halt RT auf Nvidia 3 mal schneller laufen".

Screemer
2019-01-26, 21:07:58
Beim Verbraucher würd ich eher noch Mal 30-40w drauf legen.

w0mbat
2019-01-26, 21:25:17
Ganz ehrlich, Navi muss gut werden, sonst sehe ich schwarz. Klar, eine Radeon VII ist ganz nett für 4K, aber bei 300W und wahrscheinlich < RTX 2080 Leistung wird das auch wieder nur was für Leute die gerne Hardware kaufen.

Bei Polaris sehen wir dass AMD was kann, jetzt muss Navi AMD eben ins Jahr 2019 holen.

dargo
2019-01-26, 21:33:59
Es ist und bleibt Stochern im Nebel. Ja, wir haben diesen Mittelwert von +28,6 Prozent. Was zun Nachdenken, denn das hilft immer recht effektiv gegen Hype:

- Die +28,6 % beziehen sich auf Radeon VII vs. RX Vega 64 – aber was denn für eine? LCE, Custom-Design oder gar ReferenzvAirsion? Letztere ist natürlich ein ganz einfaches Ziel, weil heiß und powerlimitiert. Blöd: Ihre Leistung wird von hochgezüchteten V56-Partnerkarten erreicht.
- Die +28,6 % beinhalten mit Fallout 76 einen fetten Ausreißer, der den Schnitt anhebt und mindestens fragwürdig ist. Da Hitman 2 in die andere Richtung aus dem Rahmen fällt (falsches Level mit CPU-Limit gebencht), kann man das mal drinlassen.
- Die +28,6 % beziehen sich rein auf die Ultra-HD-Auflösung. Warum wohl? Weil hier die Stärken der R7 am besten herauskommen. Noch besser wäre wohl 5K. Die Performance in verbreitetem Full-HDetris dürfte aber ganz anders aussehen. Nicht, dass das für eine derart teure Grafikkarte relevant wäre, aber für einen Index/Mittelwert ist es das. AMD bewirbt in der öffentlichen Präsentation jedenfalls sinngemäß High-Fps WQHD, flüssiges UWQHD und gut nutzbares UHD.

MfG,
Raff
Hab nachgedacht. :D

Vergliechen wurde entweder mit einer Referenz oder eine Custom die nicht bei der ASIC-Power "explodiert". Mit LCE auf keinen Fall. AMD hatte dieses Bild hier u.a. geliefert.

https://scr3.golem.de/screenshots/1901/Radeon-Vega-VII/thumb620/%20Radeon-Vega-VII-06.png

Leider weiß man dabei nicht ob es eine RTX2080 FE oder eine Custom ist, wir wollen hier aber keine Korinthenkackerei betreiben. Zum Vergleich mal zwei Benchmarks mit FC5.
https://www.techspot.com/review/1701-geforce-rtx-2080/
https://www.anandtech.com/show/13346/the-nvidia-geforce-rtx-2080-ti-and-2080-founders-edition-review/7

Bei Techspot heißt es +24% für RTX2080 vs. V64 Referenz. Bei anandtech heißt es +22% für RTX2080 Custom oder +27% für RTX2080 FE.

Insofern tippe ich auf V64 Referenz. Das würde sich dann recht gut mit den +~28% bei Radeon VII vs. V64 decken.

btw.
Wollst du jetzt eine RTX2080 und Radeon VII anhand von 1080p Benches bewerten? :uconf3: Da bist du schon öfter im relativ großen CPU-Limit, erst recht mit Bananensoftware @Assassin’s Creed und Konsorten mit DX11.

aufkrawall
2019-01-26, 21:34:11
nur wird dann halt RT auf Nvidia 3 mal schneller laufen, wie Tess schon heute.
Dass RT die nächsten Jahre so unbedeutend bleiben wird wie lächerlich hohe Tess-Faktoren, könnte sogar hinkommen. ;D
(Dass Tess auf Nvidia allgemein 3x schneller wäre, ist allerdings eine völlige Schwachsinns-Ausage. Du steigerst dich da gerade in was rein, kann das sein?)

Daredevil
2019-01-26, 21:39:21
Wenn man in 2/3 Spielen laut AMD EIN FPS schneller ist als die Konkurrenz, könnte man auch davon ausgehen, dass sie haargenau auf das Level designed worden ist, damit man einfach gleichziehen kann. Wobei die drei Spiele Vega I ja eh ganz gut liegen.

dargo
2019-01-26, 21:40:24
Die GTX ist generell leicht schneller, AMD kann aber in einem geringen Anteil seine Muskeln spielen lassen, dafür wird die AMD halt eben auch unterm Strich günstiger.
Mit dem günstiger wirds schwierig bei 699$ UVP. Die 2080 bekommst du aktuell ab 650€.

Daredevil
2019-01-26, 21:44:26
Warten wir mal die Preise in zwei Wochen und in Zwei Monaten ab. :)
UVP ist bei AMD ja tendenziell immer etwas schwammig.

maximus_hertus
2019-01-26, 21:47:45
Wahnsinn 2% trotz der 6GB (komisch, denn laut den Experten hier, reichen 6GB ja schon heute nicht mehr), so ein Quatsch. RX Vega 64 ist nach 1 Jahr schon eine Steinzeit Karte, ähnliches wird der Radeon 7 blühen, wenn Nvidia mit 7nm mal richtig aufräumt, leider wird das ähnlich teurer wie Turing wenn nicht sogar noch teurer, aber das geheule hier sogar im 3Dcenter wird wieder sehr groß sein. Und bei RT hat Nvidia sowieso einen nicht einholbaren Stand erreicht, wird die nächsten 10 Jahre was das angeht, sehr bitter, denn RT wird die kommende Jahre ein Game Changer werden, nur wird dann halt RT auf Nvidia 3 mal schneller laufen, wie Tess schon heute.

Warum ist Vega eine Steinzeit Karte? ISt sie zu schnell, was ja nicht sein darf? Oder hast du keinen Bock auf sachliche Argumentationen?

Du benimmst dich ja wie der HSV in der Buli (vor dem Abstieg): Pöbeln, mit Geld um sich werfen und Realitätsverweigerung ;) Bis der Abstieg kam ;)

nV hat mit Turing, Stand heute(!), "versagt". Nur wenn Tensor Cores, RTXX, DLSS spätestens 2020 durchstarten, wird es sich gelohnt haben. Ansonsten hat man AMD die riesengroße Möglichkeit gelassen, wieder im High End MArkt mitzuspielen. Selbst wenn man mehr Verbraucht, etwas weniger fps liefert => die Karte wird ihre Käufer finden.

Wird AMD damit nV "gefährlich" werden? Natürlich nicht. Wird nV auch in 10 JAhren der dominierende MArktführer sein => sehr wahrscheinlich ja. Von daher keep calm :)

dargo
2019-01-26, 21:48:54
Wenn man in 2/3 Spielen laut AMD EIN FPS schneller ist als die Konkurrenz, könnte man auch davon ausgehen, dass sie haargenau auf das Level designed worden ist, damit man einfach gleichziehen kann. Wobei die drei Spiele Vega I ja eh ganz gut liegen.
Jetzt tut wieder nicht so als ob AMD sich da nur die Rosinen rausgepickt hätte.

uviGDQfkEgo

Es wird wie immer vom Spieleparcour abhängen was da letztendlich im Schnitt rauskommt. Wollt ihr jetzt ernsthaft hier über +/-5% schwadronieren? Manche haben echt langerweile.

PS: V56 = Sapphire Pulse

maximus_hertus
2019-01-26, 21:51:47
Mit dem günstiger wirds schwierig bei 699$ UVP. Die 2080 bekommst du aktuell ab 650€.

Jein. Man muss die Tests der VII abwarten, aber ich hoffe auf eine echte Silent Karte. Auf dem Niveau der MSI Gaming / ASUS Strix. Diese liegen dann bei 800 - 900 Euro.

Es steht und fällt mit den Reviews. Die VII muss wirklich einen richtig guten Kühler haben, sonst wird es schwierig.

Daredevil
2019-01-26, 22:08:20
Das Problem mit dem Silent ist, dass die Karte einen fetten Kühler hat, die DIE Fläche aber deutlich kleiner geworden ist. Das bedeutet, dass die Wärme eben schwieriger abtransportiert werden kann, wie eben bei CPUs auch.
Aus eigener Erfahrung kann ich aktuell bei der 2080ti sagen, dass sie einen deutlich schlechteren Kühler hat ( Knapp 300g weniger Gewicht ) als die Nitro+ und einen Lüfter weniger, trotzdem sind die Core Temps und rpm niedriger. ( Leiser ist sie allerdings nicht. )
Ich denke mal, dass das zum großen Teil an der gleichen TDP in Verbindung mit der größeren DIE zusammen hängt.

Vega II 331mm²
Vega I 484mm²
2080 545mm²
2080ti 754mm²

Da müssen die sich was einfallen lassen, wenn die da 300w rüber rattern wollen, wenn als Nachbar noch vier HBM Chips liegen.

Jetzt tut wieder nicht so als ob AMD sich da nur die Rosinen rausgepickt hätte.

Tu ich nicht.
Ich wollte nur damit vermuten, dass wenn AMD Zahlen präsentiert, so so nah an der Konkurrenz sind, dass die haargenau die Radeon VII da hin designed haben wo sie sein soll.
Das bedeutet für mich aus Marketing Sicht, dass sie nicht 50€ mehr kostet und dabei 10% langsamer ist, 16GB HBM2 hin oder her.

Entweder ist sie:
1. Schneller und teurer
2. Langsamer und günstiger
3. Genau gleich schnell und genau so teuer ( Bzw. sogar ein wenig günstiger, weil man Raytracing nun mal als Argument eliminieren muss )

Ich tippe eher auf 2 mit attraktiven Preisen, so wie bei AMD üblich in letzter Zeit.

Dural
2019-01-26, 22:40:43
6,5% mehr rohpower :rolleyes:

Hier tuen einige so, als würde vega1 komplett an der bandbreite hängen, komisch finde ich nur das quasi die selben bis vor kurzem behauptet haben das vega1 genug bandbreite hat :rolleyes:

Wenn man halt keine ahnung hat, muss man seine meinung halt nach der fahne ausrichten :wink:

Stretcher
2019-01-26, 22:41:49
Nicht, dass das für eine derart teure Grafikkarte relevant wäre...
Hust, Full HD nicht relevant? Schon mal von High FPS Gaming statt High Res Gaming gehört?
Geschmackssache, höhere Auflösung zieht nicht jeder hohen FPS vor.

Hast meinen Beitrag davor wohl bewusst ignoriert. Schade, dass man eine "Diskussion" startet und dann keine Lust mehr hat diese fortzuführen und trotzig wird, weil die eigene Argumentation entkräftet bzw. für fragwürdig erachtet wird.

Fraglich warum die Percentile bei CB so niedrig sind, scheint aber kein generelles Phänomen zu sein.
HardwareUnboxed hat bei den Percentilen und 32 Spielen keine Probleme.

Das 3DC ermittelt 10% mehr Performance Vega56 vs RTX 2060. OC Potenzial dürfte die 2060 10 bis 15% haben.
Da kommt man auch nur mit einer maximal übertakteten Vega 56 heran, also die Argumentation kann man sich glaube ich sparen.
.

=Floi=
2019-01-26, 22:42:52
Bin echt gespannt was die Karte so reißt.

Der Performance Level dürfte je nach Spiel so bei GTX1080Ti/RTX2080 liegen, was ich persönlich garnicht so scheiße finde (auch wenn ich nicht wechseln würde).


dafür ist auch der preis höher!

SKYNET
2019-01-27, 00:16:18
Nicht so laut, lass die AMD Jungs hier wie immer in Ihrer Welt leben,

https://abload.de/img/sanstitre-27bk46.jpg

Eine RTX 2060 mit Max OC überflügelt eine Vega 64, bietet im Vergleich eine Effizienz die Ihres gleichen sucht, aber die Karte hat ja nur ganze 2GB weniger, und ist daher laut den ganzen Expterten hier vollkommen unbrauchbar, egal ob Games (bei mir in 3440x1440) "nur" 3,5 - 6GB fressen. Ist unbrauchbar und schluss :facepalm: :facepalm:

Vega 64 ist im Vergleich zur 2060 eine Karte von einer anderen Zeit, obwohl nur 1 Jahr zwischen ihnen liegt. AMD ist technologisch so weit abgeschlagen, das ist nicht mehr feierlich, aber Hauptsache AMD rockt "weiter"

Jaa, ne is klar.


komisch, bei den 99th ist die V64FE 1% schneller als die getaktete 2060 in dem von dir gezogenen screenshot:
https://www.computerbase.de/2019-01/nvidia-geforce-rtx-2060-test/3/

komm doch mal wieder wenn die gelernt hast richtig zu trollen, weil dein style ist unteres kindergarten level und wird selbst von leuten durchschaut die dumm sind wie brot. :P

BlacKi
2019-01-27, 00:22:11
ist doch egal welche karte besser abschneidet, was zählt ist doch wieviel spiele dabei sind:ulol:

Voodoo6000
2019-01-27, 00:48:42
Fast RTX 2080 Leistung ist schon mal gut. Die Preise der werde sicherlich noch sinken. Wenn AMD die Karte langfristig etwas günstiger als eine RTX 2080 anbieten kann wird VEGA schon seine Käufer finden.
Wahnsinn 2% trotz der 6GB (komisch, denn laut den Experten hier, reichen 6GB ja schon heute nicht mehr), so ein Quatsch.
Spätestens wenn nächstes Jahr die neuen Konsolen erscheinen wird es mit 6 GB extrem knapp werden.

Ex3cut3r
2019-01-27, 02:12:58
Fast RTX 2080 Leistung ist schon mal gut. Die Preise der werde sicherlich noch sinken. Wenn AMD die Karte langfristig etwas günstiger als eine RTX 2080 anbieten kann wird VEGA schon seine Käufer finden.

Spätestens wenn nächstes Jahr die neuen Konsolen erscheinen wird es mit 6 GB extrem knapp werden.

Mit 8 dann auch, mit 11 wahrscheinlich auch, und nun?

Taigatrommel
2019-01-27, 04:06:28
Mit dem günstiger wirds schwierig bei 699$ UVP. Die 2080 bekommst du aktuell ab 650€.
In Sonderangeboten sind teils sogar noch weniger drin. Wenn ich mich nicht völlig irre, dann gab es letztens ein kleines Kontingent einer KFA² 2080 für 630,-€ im Mindstar. Klar, die meisten <700,-€ Karten sind Customs mit eher "gewöhnlichen" Kühlern, doch man kann auch jetzt noch nicht abschätzen, wie gut der neue Radeon Kühler sein wird. Er ragt zwar, ähnlich wie diverse High-End Lösungen, deutlich in der Höhe heraus, doch bleibt es eben bei einem striktem Dual-Slot Design.

Ich bin wirklich gespannt, wie gut sich der Kühler schlagen wird, eine Besserung zum DHE Design ist es allemal, allerdings wird er IMHO einem guten Customdesign á la Sapphire Nitro+ oder Powercolor Red Devil nicht das Wasser reichen können.

Gibt es eigentlich Informationen, ob am Speichertakt etwas gedreht wurde? Werden die 945 MHz beibehalten oder wird man wohl höher gehen? Je nachdem welchen Speicher man hatte, waren ja 1000 MHz kein Problem, guter Samsung Speicher macht auch 1100 MHz mit.


Zur Speichermenge kann ich nur sagen: Die 8 GB sind bei diversen Radeon Karten schon seit Jahren verbaut, da mutet es schon sehr merkwürdig an, dass nVidia hier eine entsprechend teure Karte mit "nur" 6 GB verbaut auf den Markt bringt. Wäre dies ein direkter (preislicher) Nachfolger der 1060 gewesen, was ja nun wohl die 1660 wird, hätte ich da irgendwo Verständnis für gehabt, doch so empfinde ich die Kritik als absolut berechtigt. Gerade wer sich jetzt eine Karte kaufen will, welche die nächsten 2-4 Jahre im Rechner werkeln soll, wird da sicher zweimal hinschauen.

maximus_hertus
2019-01-27, 04:07:52
Mit 8 dann auch, mit 11 wahrscheinlich auch, und nun?

Und nun? Die Welt geht unter. Der wahre Spieler wartet auf die 3GB RTX Karte.

Daredevil
2019-01-27, 04:38:59
Gibt es eigentlich Informationen, ob am Speichertakt etwas gedreht wurde? Werden die 945 MHz beibehalten oder wird man wohl höher gehen? Je nachdem welchen Speicher man hatte, waren ja 1000 MHz kein Problem, guter Samsung Speicher macht auch 1100 MHz mit.

Da man ja 1024Gbit bewirbt und Vega 64 484 GB/s Bandbreite hat, wird der Takt wohl auf 1Ghz gefixt sein.

crux2005
2019-01-27, 04:52:38
Die ersten Anthem Benchmarks sehen nicht gut für Vega aus. Da helfen der 7 auch keine +30% gegenüber 64. Ja, es ist eine Demo, nicht finaler Code, nur avg. FPS Werte etc. aber die Werte geben einen Vorgeschmack auf die Leistungsverteilung in den ersten Monaten. Bin gespannt wie es in der Final aussieht.

https://www.techpowerup.com/251874/anthem-vip-demo-benchmarked-on-all-geforce-rtx-vega-cards
https://www.techpowerup.com/img/rKLA6e18tFpDWfvE.jpg

btw: erst in 4K ist die V64 gleich auf mit RTX 2060.

Spätestens wenn nächstes Jahr die neuen Konsolen erscheinen wird es mit 6 GB extrem knapp werden.

Falls sie 2020 kommen. :wink:

Daredevil
2019-01-27, 05:38:02
Moment mal.
Die "Benchmark" Werte der 14nm Referenz Generation von 2017, getestet anhand der VIP-Demo eines Spiels, welches mit Nvidia Karten vertrieben wird und welches erst in einem Monat auf den Markt kommt, gibt uns einen Vorgeschmack, wo sich die neue 7nm Generation Vega II in den ersten Monaten von der Leistung her verteilen wird?

Ok. :D

Digidi
2019-01-27, 06:43:14
Die ersten Anthem Benchmarks sehen nicht gut für Vega aus. Da helfen der 7 auch keine +30% gegenüber 64. Ja, es ist eine Demo, nicht finaler Code, nur avg. FPS Werte etc. aber die Werte geben einen Vorgeschmack auf die Leistungsverteilung in den ersten Monaten. Bin gespannt wie es in der Final aussieht.

https://www.techpowerup.com/251874/anthem-vip-demo-benchmarked-on-all-geforce-rtx-vega-cards
https://www.techpowerup.com/img/rKLA6e18tFpDWfvE.jpg

btw: erst in 4K ist die V64 gleich auf mit RTX 2060.



Falls sie 2020 kommen. :wink:

Ein Spiel das havy Nvidia Funktionen benutzt wehn wunderte?!

Fragman
2019-01-27, 10:25:45
Beim Preis muss man auch erstmal abwarten, ob die Karte überhaupt bei den 699€ raus kommt. Ich glaub da eher an 749€, im schlimmsten Fall sogar 799€. Wie das mit Turing lief, wissen wir alle, von Vega brauchen wir gar nicht erst zu reden.


Was RT angeht, ich seh da mittlerweile Chancen das Navi das doch schon haben könnte. Sollten die Konsolen das haben, und davon kann man ja schon fast ausgehen, wird Navi damit sicher ausgestattet sein. Su hat ja Andeutungen gemacht, ich denke, das hätte sie so nicht gesagt, wenn da nicht auch bald etwas kommt. Das sie sich bei dem Thema so zurück gehalten hat, könnte auch am Release von VegaII liegen. Spekulation meinerseits, aber RT ist sicher nicht so unwichtig, wie einige hier es gerne hätten. ;)

Ätznatron
2019-01-27, 10:45:28
Spekulation meinerseits, aber RT ist sicher nicht so unwichtig, wie einige hier es gerne hätten. ;)

So richtig unwichtig ist es sicher nicht und könnte innerhalb der nächsten Jahre durchaus sogar eine gewisse Relevanz erlangen.

Frühestens wird das aber erst dann der Fall sein, wenn auch die Mittelklassekarten dafür leistungsstark genug geworden sind, über eine entsprechende Speicherausstattung verfügen, und dadurch die FPS-Einbußen nicht mehr ganz so krass sind wie jetzt.

Also vielleicht in ein, zwei Grafikkartengenerationen...

Raff
2019-01-27, 10:52:06
Die ersten Anthem Benchmarks sehen nicht gut für Vega aus. Da helfen der 7 auch keine +30% gegenüber 64. Ja, es ist eine Demo, nicht finaler Code, nur avg. FPS Werte etc. aber die Werte geben einen Vorgeschmack auf die Leistungsverteilung in den ersten Monaten. Bin gespannt wie es in der Final aussieht.

https://www.techpowerup.com/251874/anthem-vip-demo-benchmarked-on-all-geforce-rtx-vega-cards
https://www.techpowerup.com/img/rKLA6e18tFpDWfvE.jpg

btw: erst in 4K ist die V64 gleich auf mit RTX 2060.

Frostbite ist schon witzig. Kommen die Spiele direkt vom Federführer DICE, läuft alles wie Butter und man sieht die Radeons überdurchschnittlich performen (Battlefield 5/Battlefront 2). Kommt ein Spiel von einem anderen Entwickler, performt die Engine entweder grundsätzlich eine Etage tiefer/ineffizienter (u. a. Need for Speed Payback) oder mag Geforce-GPUs mehr. Gerade Bioware scheint nur mit Nvidia-Chips zu arbeiten (siehe Mass Effect Andromeda). Eine unfertige Demo ist aber natürlich kein Maßstab, aber durchaus interessant. Die Frage ist auch, wie reproduzierbar man dieses Multiplayer-Spiel benchen kann.

MfG,
Raff

dildo4u
2019-01-27, 11:01:10
Die nehmen keine Rücksicht auf CPU Last da es im Gegensatz zu BF5 nicht mit 60FPS auf Konsole läuft.Vega rockt dann wenn der Entwickler die CPU Last bewusst senkt,mit ein Grund warum Black Ops 4 so gut läuft obwohl es DX11 nutzt.

Fragman
2019-01-27, 11:02:32
So richtig unwichtig ist es sicher nicht und könnte innerhalb der nächsten Jahre durchaus sogar eine gewisse Relevanz erlangen.

Frühestens wird das aber erst dann der Fall sein, wenn auch die Mittelklassekarten dafür leistungsstark genug geworden sind, über eine entsprechende Speicherausstattung verfügen, und dadurch die FPS-Einbußen nicht mehr ganz so krass sind wie jetzt.

Also vielleicht in ein, zwei Grafikkartengenerationen...

Performanceeinbussen hast du immer, die gehen auch nicht weg. Das wird nur jedesmal mit mehr Rohpower der GPU's ausgeglichen (Rechenleistung und vor allem Bandbreite). Wenn man sich heute RT anschaut, dann ist das schon nutzbar. Das ist, ich sags nochmal, kein Vergleich zu Techs von vor 18 Jahren, bei denen die erste Implementierung schon nicht optimal war für Devs oder die Limitierungen der Leistung so stark war, das man erstmal 2 Full Node Shrinks warten musste, damit die Performance passt. Das ist hier nicht der Fall. Nach dazu kann man das Feature, wie Dice gezeigt hat, sehr gut Skalieren, so das selbst Mittelklasse GPU's das nutzen können.
Deshalb glaube ich, das Navi das hat. Vielleicht nicht auf dem Leistungslevel einer 2080TI, aber auf dem einer 2070 sollte drin sein.

Ätznatron
2019-01-27, 11:20:00
Das wird nur jedesmal mit mehr Rohpower der GPU's ausgeglichen (Rechenleistung und vor allem Bandbreite).

Und diese Steigerung der Rohpower ist zwingend.

Die momentane Situation: Das Performancelevel einer 2070 reicht bei weitem nicht, selbst das einer 2080 ist zumindest zweifelhaft (beide Karten zählen für mich zur aktuellen Mittelklasse).

Pirx
2019-01-27, 11:36:57
Da die Karten mittlerweile durch die Bank ein sehr hohes Leistungsniveau haben wird nach neuen Verkaufsargumenten gesucht um den Konsum irgendwie am Laufen zu halten, egal, wie sinnvoll das ist.

Fragman
2019-01-27, 11:40:02
Das Performancelevel einer 2070 reicht bei weitem nicht,

Natürlich wird das reichen. Die neuen Konsolen werden bei der Leistung auf kaum mehr kommen. Man könnte ein paar mehr RT Cores dazu denken, aber das wars dann auch. Bei der Kritik an der Leistung dreht es sich doch um 4K bei 120Hz und max Details, vielleicht sogar noch Downsampling. Aber wer hier glaubt denn ernshaft, das das ein Standard für die Konsolen werden wird? Die Rasterizer Leistung, die man dafür bräuchte, ist sicher noch mind 3 Jahre oder so weg (wenn wir mal 5nm als requirement dafür annehmen), von RT reden wir da noch gar nicht.
Das ist dann auch das realistische Szenario für VegaII mit den 16GB in dem die Karte punkten kann, in 2 Jahren.

Ätznatron
2019-01-27, 11:42:37
Klar, lässt man Raytracing weg, ist die Leistung mehr als ausreichend.

mironicus
2019-01-27, 11:46:05
Ich frage mich, wie eine Vega II ca. 30% schneller sein soll als eine Vega 1 bei weniger Ausführungseinheiten und nur geringfügig höherem Takt? Hoffentlich werden eine Vielzahl von Tests nicht eher bestätigen, dass sich die Vega II kaum von der Vega I absetzt und der hohe Preis damit nicht gerechtfertigt ist.

Screemer
2019-01-27, 11:47:48
Und diese Steigerung der Rohpower ist zwingend.

Die momentane Situation: Das Performancelevel einer 2070 reicht bei weitem nicht, selbst das einer 2080 ist zumindest zweifelhaft (beide Karten zählen für mich zur aktuellen Mittelklasse).
Dann läuft in deiner Klasseneinteilung aber was erheblich aus der Spur. Für was reicht denn das Performancelevel nicht? Für alle Regler auf Anschlag? Stimmt. Das hat es aber früher auch nicht. Woher kommt nur dieser Anspruch, dass Software immer mit allen Goodies auf Performance- und Enthusiasthardware laufen muss? Liegt das evtl. daran, dass aktuell keine "wirklichen" Sprünge bei der visuellen Qualitat sichtbar sind und sich die Nutzer so auf highfps, highresolution und anderes stützen müssen/wollen?

Ich habe auch das Gefühl, dass viele mittlerweile so Jung oder so alt und verkalkt sind, dass die Erinnerung sie massiv trügt.

Linmoum
2019-01-27, 11:57:13
Ich frage mich, wie eine Vega II ca. 30% schneller sein soll als eine Vega 1 bei weniger Ausführungseinheiten und nur geringfügig höherem Takt? Hoffentlich werden eine Vielzahl von Tests nicht eher bestätigen, dass sich die Vega II kaum von der Vega I absetzt und der hohe Preis damit nicht gerechtfertigt ist.
Mehr als die doppelte Bandbreite und nur geringfügig höher ist der Takt sicher auch nicht, wenn man das Referenzdesign als Vergleich heranzieht. Es hat schon seinen Grund, warum AMD die Karte für UHD bewirbt und auch in der Auflösung die Benchmarks durchgeführt hat. ;) Da dürfte das, mit dem kleinen Abzug weil Hersteller-Benches, schon hinhauen. In FHD sieht's sicher anders aus.

Ätznatron
2019-01-27, 12:02:24
Die einzige Karte, die für mich momentan auf Enthusiastenlevel ist, ist die Titan.
Dann die Oberklasse ab 1080Ti bzw. 2080Ti, der Rest darf sich um Mittel-oder Einsteigerklasse prügeln.

Ein für mich wichtiges Kriterium bei meiner Einteilung ist der Speicherausbau. Trotzdem wird der bei eventuell fehlender Rohpower auch nicht helfen, eine, sagen wir mal, 16 GB Karte in die Oberklassen- oder Enthusiastenkategorie zu hieven.

Screemer
2019-01-27, 12:09:13
Die einzige Karte, die für mich momentan auf Enthusiastenlevel ist, ist die Titan.
Dann die Oberklasse ab 1080Ti bzw. 2080Ti, der Rest darf sich um Mittel-oder Einsteigerklasse prügeln.

Ein für mich wichtiges Kriterium (neben Treiberqualität u.ä.) bei meiner Einteilung ist der Speicherausbau. Trotzdem wird der bei eventuell fehlender Rohpower auch nicht helfen, eine, sagen wir mal, 16 GB Karte in die Oberklassen- oder Enthusiastenkategorie zu hieven.
Du solltest wirklich Mal an deiner Einteilung feilen. Du verwendest Begrifflichkeiten die es seit Jahren gibt und benutzt die nach deinem eigenen Gutdünken. Das ist schlicht falsch und für eine ordentliche Diskussion völlig fehl ab Platz.

Ätznatron
2019-01-27, 12:15:27
Wie sieht denn die politisch korrekte Einteilung aus?

Der_Korken
2019-01-27, 12:23:25
Die ersten Anthem Benchmarks sehen nicht gut für Vega aus. Da helfen der 7 auch keine +30% gegenüber 64. Ja, es ist eine Demo, nicht finaler Code, nur avg. FPS Werte etc. aber die Werte geben einen Vorgeschmack auf die Leistungsverteilung in den ersten Monaten. Bin gespannt wie es in der Final aussieht.

https://www.techpowerup.com/251874/anthem-vip-demo-benchmarked-on-all-geforce-rtx-vega-cards
https://www.techpowerup.com/img/rKLA6e18tFpDWfvE.jpg

Die 590 performt eigentlich sehr solide, die 1070 ist gerade mal 25% schneller. Das Duell gegen die 1060 dürfte sie also klar gewinnen. Nur Vega läuft unter aller Kanone. Allerdings sollte man noch auf Release-Treiber warten, da Nvidia näher an der Quelle saß und bestimmt schon ordentlich optimiert hat.

Screemer
2019-01-27, 12:26:29
Wie sieht denn die politisch korrekte Einteilung aus?

Das hat nichts mit Politik zu tun. War aber fast klar, dass sowas in der Art kommt. Es gibt schlicht und ergreifend eine mehr oder weniger feste Einteilung des Marktes und der damit verbundenen Begrifflichkeiten. Da ändern auch deine persönlichen Befindlichkeiten nichts daran und eine Nutzung der korrekten Termini würde helfen die Diskussion in einem sachlichen Rahmen zu halten.

Tldr: behalte deinen bias für dich.

crux2005
2019-01-27, 19:18:26
Moment mal.
Die "Benchmark" Werte der 14nm Referenz Generation von 2017, getestet anhand der VIP-Demo eines Spiels, welches mit Nvidia Karten vertrieben wird und welches erst in einem Monat auf den Markt kommt, gibt uns einen Vorgeschmack, wo sich die neue 7nm Generation Vega II in den ersten Monaten von der Leistung her verteilen wird?

Ok. :D

Nein. Nur auf die Leistung von AMD Vega Karten in Anthem.

Frostbite ist schon witzig. Kommen die Spiele direkt vom Federführer DICE, läuft alles wie Butter und man sieht die Radeons überdurchschnittlich performen (Battlefield 5/Battlefront 2). Kommt ein Spiel von einem anderen Entwickler, performt die Engine entweder grundsätzlich eine Etage tiefer/ineffizienter (u. a. Need for Speed Payback) oder mag Geforce-GPUs mehr. Gerade Bioware scheint nur mit Nvidia-Chips zu arbeiten (siehe Mass Effect Andromeda). Eine unfertige Demo ist aber natürlich kein Maßstab, aber durchaus interessant. Die Frage ist auch, wie reproduzierbar man dieses Multiplayer-Spiel benchen kann.

MfG,
Raff

Korrekt.

Anhand der FPS und was JaniC geschrieben hat (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11909978#post11909978) würde ich sagen sie haben Fort Tarsis @ Bazaar gebencht. Sollte gut reproduzierbar sein.

Linmoum
2019-01-27, 19:37:04
Nein. Nur auf die Leistung von AMD Karten in Anthem.
Ergibt keinen Sinn, da die 590 (mit Ausnahme UHD) normal bzw. teils sogar überdurchschnittlich in Relation zu Turing performt.

horn 12
2019-01-27, 19:40:16
https://www.youtube.com/watch?v=j1c1QXlW-tY&feature=youtu.be

SKYNET
2019-01-27, 19:48:40
LOs geht's

Erste Benchmarks :-)
Sieht verdammt gut aus!

https://www.youtube.com/watch?v=j1c1QXlW-tY&feature=youtu.be

keine benchmarks, wie schön am anfang des videos steht... :rolleyes:

Sven77
2019-01-27, 19:51:33
LOs geht's

Erste Benchmarks :-)
Sieht verdammt gut aus!

https://www.youtube.com/watch?v=j1c1QXlW-tY&feature=youtu.be

HbvYeLxMKN8

Taigatrommel
2019-01-27, 19:52:28
LOs geht's

Erste Benchmarks :-)
Sieht verdammt gut aus!

https://www.youtube.com/watch?v=j1c1QXlW-tY&feature=youtu.be
Was heißt denn hier "und los geht's"? Das Video hat lediglich die von AMD veröffentlichten Werte genommen, ist zudem bereits seit gut zwei Wochen verfügbar. Es gibt nichts neues, nur das man eben von einem angepassten Testsystem mit einer Custom RTX 2080 direkt als Vergleich eingeblendet hat. Selbst in der Beschreibung bzw. in den Kommentaren gibt der Ersteller das an.

Digidi
2019-01-27, 20:35:10
Was heißt denn hier "und los geht's"? Das Video hat lediglich die von AMD veröffentlichten Werte genommen, ist zudem bereits seit gut zwei Wochen verfügbar. Es gibt nichts neues, nur das man eben von einem angepassten Testsystem mit einer Custom RTX 2080 direkt als Vergleich eingeblendet hat. Selbst in der Beschreibung bzw. in den Kommentaren gibt der Ersteller das an.

Das Teil ist eher Fake. Bei Shado of the Tombraider wäre eines der Spiele wo ich sicher sagen würde das eine Radeon 7 vorne liegt. Aber in dem Video ist es weit hinten....

Thunderburne
2019-01-27, 20:45:15
Allein das BF5 angeblich 54 FPS haben soll bei der RTX2080 und AMD selbst 61 gemessen hat.... looool

Tesseract
2019-01-27, 20:54:02
i7 8600K @ 3.4GHz (~i7 7700K)

:facepalm:

Matrix316
2019-01-27, 21:16:02
Ich verstehe nicht so ganz die, welche AMD bashen, dass sie nur an die 2080 rankommen.

Man darf nicht vergessen: Selbst Nvidia muss eine 1200 Euro Karte machen um die 1080TI von vor ein paar Jahren zu übertreffen - und die 2080 kostet auch nicht weniger als die 1080TI von vor 2 Jahren - mit der gleichen Performance.

BlacKi
2019-01-27, 21:35:15
Ich verstehe nicht so ganz die, welche AMD bashen, dass sie nur an die 2080 rankommen.

Man darf nicht vergessen: Selbst Nvidia muss eine 1200 Euro Karte machen um die 1080TI von vor ein paar Jahren zu übertreffen - und die 2080 kostet auch nicht weniger als die 1080TI von vor 2 Jahren - mit der gleichen Performance.
das kommt nicht ganz hin. denn die preise haben sich nicht geändert sondern nur die namen. mitte 2019 (knapp 2 jahre später) wird die 2080ti auch das kosten was die 1080ti gekostet hat. ihr verschiebt die dinge nur so das sie zu eurer sichtweise passt.

das die r7 nun 700€ kostet und liegt allerdings daran das die karte nunmal einfach viel kostet in der herstellung und amd schon lange sich an der preispolitik von nv anlehnt.

robbitop
2019-01-27, 21:38:03
Wenn all die Transistoren von den Turingkarten für Rasterizing investiert worden wären, würde wahrscheinlich schon TU104 die 1080ti nass machen.

das kommt nicht ganz hin. denn die preise haben sich nicht geändert sondern nur die namen. mitte 2019 (knapp 2 jahre später) wird die 2080ti auch das kosten was die 1080ti gekostet hat. ihr verschiebt die dinge nur so das sie zu eurer sichtweise passt.

das die r7 nun 700€ kostet und liegt allerdings daran das die karte nunmal einfach viel kostet in der herstellung und amd schon lange sich an der preispolitik von nv anlehnt.

Nichtsdestotrotz wird das PL immer schlechter. Es gibt immer weniger Mehrleistung für immer mehr Geld. Leider.

Waren schöne Zeiten als man noch alle 18-24M doppelte Leistung zum gleichen Preis bekommen hat. Heute gibts gefühlt nach dutlich längerem Warten nur noch moderat höhere Leistung jedoch zu höherem Preis.

Ich hoffe, dass es besser wird, wenn Intel NV etwas Konkurrenz machen. Ggf wird AMD mit Arcturus und ggf Navi auch etwas konkurrenzfähiger.

-=Popeye=-
2019-01-27, 21:50:21
Das Problem ist das Intel erst einmal da aufschlagen muß wo AMD heute ist.

Und was die aktuellen Preise angeht, ja die sind zu hoch.

Screemer
2019-01-27, 21:51:06
Nichtsdestotrotz wird das PL immer schlechter. Es gibt immer weniger Mehrleistung für immer mehr Geld. Leider.

Waren schöne Zeiten als man noch alle 18-24M doppelte Leistung zum gleichen Preis bekommen hat. Heute gibts gefühlt nach dutlich längerem Warten nur noch moderat höhere Leistung jedoch zu höherem Preis.

Ich hoffe, dass es besser wird, wenn Intel NV etwas Konkurrenz machen. Ggf wird AMD mit Arcturus und ggf Navi auch etwas konkurrenzfähiger.
Wie kannst du das nur schreiben? Dabei lässt du einfach so viele Aspekte weg die dir nicht in den Kram passen. -> willst du näheres wissen klicke hier! (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11910472#post11910472)

Matrix316
2019-01-27, 22:20:06
das kommt nicht ganz hin. denn die preise haben sich nicht geändert sondern nur die namen. mitte 2019 (knapp 2 jahre später) wird die 2080ti auch das kosten was die 1080ti gekostet hat. ihr verschiebt die dinge nur so das sie zu eurer sichtweise passt.

das die r7 nun 700€ kostet und liegt allerdings daran das die karte nunmal einfach viel kostet in der herstellung und amd schon lange sich an der preispolitik von nv anlehnt.
Hmm, die 1080TI wurde aber für 8xx Euro released und die 2080 TI für ca. 1300.

Ich hab ca. 5 Monate nach Release cs. 750 für die Gigabyte Auros bezahlt.

Meinst du 5 Monate nach Release kostet die 2080TI auch nur 750? Das glaube ich nicht... es sei denn... AMD bringt eine Vega die mit der 2080TI mithalten kann für 900 Euro und reduziert die Radeon VII auf 500-600 oder so. Dann kommen wir glaube ich ins Geschäft.

Allerdings hatte die 1080TI im Vergleich zur 1080 soweit ich das sehe deutlich mehr Performance Vorsprung als die 2080TI zur 2080. Normalerweise müsste die 2080TI so schnell wie die RTX sein zum Preis der 2080.

pixeljetstream
2019-01-27, 22:56:21
BlacKi spielt auf die relative Zeit nach Release der Architektur an. Die 2080ti entspricht da eher der Pascal Titan die mit der 1080 rauskam und auch ähnlich teuer war.

dargo
2019-01-28, 01:35:58
das kommt nicht ganz hin. denn die preise haben sich nicht geändert sondern nur die namen.
Stimmt... RTX 2080TI bewegt sich in Preisregionen alter Titanen und die Radeon VII spielt dann in der Gegend der RTX 2080 mit. Also passt alles wie immer. ;)

Edit:
Nee... halt, der Vram wurde reduziert. :ulol:

=Floi=
2019-01-28, 02:43:18
Waren schöne Zeiten als man noch alle 18-24M doppelte Leistung zum gleichen Preis bekommen hat. Heute gibts gefühlt nach dutlich längerem Warten nur noch moderat höhere Leistung jedoch zu höherem Preis.


ist das P/L wirklich schlechter, wenn die karte länger hällt und auch noch verkaufbar ist?!

Damals konnte man mit einer 2 jahre alten karte nichts mehr zocken und bei der neuen reichte die leistung oft auch nicht für die ganz neuen titel. Gekauft um sie wegzuwerfen. :wink:
Mid range war oft auch eher mau. Eine 1070er war da vergleichsweise gut.

Eine Vega 7 wird 4 jahre halten. Nicht für ultra quality und 4k, aber für normale user. Der vram wird ihr nicht ausgehen und sonst ist man mit der shaderleistung auch gut dabei.

Daredevil
2019-01-28, 03:32:15
Nochmal was zu den 16GB.
Ich habe mich hier in Performance Regionen der GTX1080ti bewegt bei 4434x2494 und spielbaren 70fps in Frostpunk.
Bei 5120x1440 war definitiv schicht im Schacht.

Da wurde gut gescheffelt. :<
https://abload.de/img/zutzzjk9n.gif

Bellspinder
2019-01-28, 07:24:38
Da wurde gut gescheffelt. :<


Du hast die 2080Ti auf 710MV undervoldet?! :eek:
Ich kann mir nicht vorstellen das die von Hause aus so wenig Strom braucht.

robbitop
2019-01-28, 07:52:43
Wie kannst du das nur schreiben? Dabei lässt du einfach so viele Aspekte weg die dir nicht in den Kram passen. -> willst du näheres wissen klicke hier! (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11910472#post11910472)

Irgendwoher müssen die immer besser werdenden Margenund Jahresgewinne ja kommen. Gut für die Aktionäre. :)
Eines ist Fakt. Es gibt im GPU Markt zu wenig Wettbewerb. Und das ist immer ungünstig für den Konsumenten. Insofern wäre ein gesunder Markt mit 2 oder besser 3 ähnlich starken Mitspielern doch mal wieder was Feines.
Man sah ja im CPU Markt was seit Ryzen passiert ist. :)

ist das P/L wirklich schlechter, wenn die karte länger hällt und auch noch verkaufbar ist?!

Damals konnte man mit einer 2 jahre alten karte nichts mehr zocken und bei der neuen reichte die leistung oft auch nicht für die ganz neuen titel. Gekauft um sie wegzuwerfen. :wink:
Mid range war oft auch eher mau. Eine 1070er war da vergleichsweise gut.

Eine Vega 7 wird 4 jahre halten. Nicht für ultra quality und 4k, aber für normale user. Der vram wird ihr nicht ausgehen und sonst ist man mit der shaderleistung auch gut dabei.

Die Karten halten ja nur länger, weil es so weniger Performancefortschritt gibt. Das hat für mich nichts mit PL zu tun, nur weil der Gradient der Anforderungen der SW heute geringer ist.

Fragman
2019-01-28, 08:13:46
Man sah ja im CPU Markt was seit Ryzen passiert ist. :)


Das ist richtig, aber im GPU Markt sind wir lange nicht an dem Punkt angekommen, an dem Intel heute steht, deren Gewinne pro CPU sind ja extrem. Und am Beispiel von VegaII sieht man ja, das es AMD nicht besser kann. Der Preis, wenn man den Gerüchten glauben schenken darf, ist ja auch auf Kante genäht. Soviel Spielraum für Preissenkungen in diesem Leistungsbereich, ist wohl nicht vorhanden.
Mal schauen ob neue Archs da was reissen können. Navi wird zeigen müssen, was Preis/Leistungstechnisch möglich sein wird. Unter der Vorraussetzung, die Arch ist dann auch repräsentativ dafür. ;)

Bellspinder
2019-01-28, 08:16:31
Die Karten halten ja nur länger, weil es so weniger Performancefortschritt gibt. Das hat für mich nichts mit PL zu tun, nur weil der Gradient der Anforderungen der SW heute geringer ist.

Die allermeiste Leistung geht doch für irgendwelche Tesselation/shading Effekte, Partikeleffekte und Schattenspielerein drauf, die in vielen Fällen das Spiel auch kaum hübscher machen, aber brutal viel Leistung kosten. Ich finde ein Spiel lebt zu 80% von den Texturen. Sind die hoher Auflösung und künstlerisch passend und gut gemacht, dann sieht das Spiel top aus, auch wenn es vielleicht keine real time super soft shadows oder Tiefenschärfeneffekte hat. Seltsamerweise tut sich hier relativ wenig in den letzten Jahren, dafür haben sich die Bewegungsanimationen enorm verbessert, glaubhafte Bewegungen der Charaktere machen unglaublich viel aus und da steckt meiner Meinung nach -neben der Physik- das größte Potential drin, um Games wirklich immersive und realitätsnah zu machen.

Die Animationen brauchen keine Hardwareleistung. Ebenso die Texturen. Die brauchen blos Speicher und Bandbreite.

Fragman
2019-01-28, 08:21:41
Das Skinning bei Animationen braucht schon Hardwareleistung, das wird ja dynamisch berechnet. Da gabs bei der G1 damals sogar extra Hardwareoptimierungen, auch wenn die noch zu langsam und rudimentär waren.

Bellspinder
2019-01-28, 08:29:40
Das Skinning bei Animationen braucht schon Hardwareleistung, das wird ja dynamisch berechnet.

Mag schon sein, aber das ist ein Witz im Vergleich zu anderen Dingen. Wenn ich in Kingdom Come z.B. die Tesselation des Bodens von High auf Ultra stelle, dann muss ich den Unterschied mit der Lupe suchen, die Frames droppen aber direkt mal um 10%. Und das ist nur ein Beispiel.

robbitop
2019-01-28, 08:39:09
Das ist richtig, aber im GPU Markt sind wir lange nicht an dem Punkt angekommen, an dem Intel heute steht, deren Gewinne pro CPU sind ja extrem. Und am Beispiel von VegaII sieht man ja, das es AMD nicht besser kann. Der Preis, wenn man den Gerüchten glauben schenken darf, ist ja auch auf Kante genäht. Soviel Spielraum für Preissenkungen in diesem Leistungsbereich, ist wohl nicht vorhanden.
Mal schauen ob neue Archs da was reissen können. Navi wird zeigen müssen, was Preis/Leistungstechnisch möglich sein wird. Unter der Vorraussetzung, die Arch ist dann auch repräsentativ dafür. ;)

Schau dir die Gewinnspannen von NV an. Bzw die Marge gem Aktienbericht. Da ist also noch viel Speck. Da geht noch einiges an PL, wenn wieder harter Wettbewerb da ist.

AMD kann aktuell nicht besser. Ggf ändert sich das aber wieder. Und ggf bringt Intel mittel bis langfristig ja auch was gutes.

SKYNET
2019-01-28, 13:04:20
Igor hat seine VII bekommen:
jyrEZvvDsw0

Pirx
2019-01-28, 13:23:06
Igor hat Apostrophenüberschuss

aufkrawall
2019-01-28, 13:29:19
Weitere relevante Information: Igor läuft zu Hause in Hosenträgern rum.

BlacKi
2019-01-28, 13:40:51
und einen starken ostdeutschen akzent^^

Dino-Fossil
2019-01-28, 13:49:30
Am Ende sind es zwei KFA^2 RTX 2080 (Ti) und Igor trollt ein bisschen :ugly:

Stretcher
2019-01-28, 14:26:54
Die 8gb der 2070, Vega 64, 2080 sind ganz offensichtlich zu wenig für eine gute 3 Jahres Versorgung.
Gerade bei der neuen Generation hätte Nvidia das Portfolio so aufbauen sollen:

RTX 2080 Ti 16GB
RTX 2080 12GB
RTX 2070 10GB
RTX 2060 8GB

Sven77
2019-01-28, 14:39:18
und einen starken ostdeutschen akzent^^

bis da war er mir sympathisch :D (jk)

Mortalvision
2019-01-28, 15:29:30
vom heutigen computerbase:

Update 28.01.2019 14:41 Uhr Forum »
Von PowerColor gibt es ebenfalls erste Listungen der Karten, Spezifikationen liegen noch nicht vor. Einen Unterschied gibt es aber bereits: Die Modelle AXVII 16GBHBM2-2D2H/OC und AXVII 16GBHBM2-2D2HD/OC könnten die ersten Varianten sein, die etwas mehr Takt als die Referenz bieten, worauf das OC in der Bezeichnung hindeutet.

Raff
2019-01-28, 15:32:13
bis da war er mir sympathisch :D (jk)

Onkel Igor ist auf jeden Fall ein netter. Was da wohl in der Kiste ist?

MfG,
Raff

Linmoum
2019-01-28, 15:39:52
... fragte er und guckte grinsend auf die ebenfalls neben ihm stehende Kiste. ;D

Mortalvision
2019-01-28, 15:44:12
2D2HD klingt nach 2,5 slot Lösung. Kennt wer Powercolor Produktcodes genauer?

oder das zweite D steht für (Red) Devil?

dargo
2019-01-28, 16:01:29
vom heutigen computerbase:
Ich frage mich langsam was dieser Quatsch mit den OC-Karten überhaupt soll? Seit wann gibt es den Wattman im Treiber wo jeder Hans das PT selbst verschieben kann? Nichts weiter ist OC... 100% PT + X%.

Thunderburne
2019-01-28, 16:29:18
Muss man halt schauen vielleicht sticht die PowerColor am Ende gerade wegen dem BIOS am Ende heraus und ermöglicht am Ende die höchste Leistungsaufnahme von den Ref Karten.
Da ja kein BIOS Switch auf den Karten sein soll würde ich mir das schon wünschen.

Langlay
2019-01-28, 16:52:07
Muss man halt schauen vielleicht sticht die PowerColor am Ende gerade wegen dem BIOS am Ende heraus und ermöglicht am Ende die höchste Leistungsaufnahme von den Ref Karten.
Da ja kein BIOS Switch auf den Karten sein soll würde ich mir das schon wünschen.


Wenn das läuft wie bei den anderen Vega Karten, kannst du das Powerlimit durch die Decke treiben. Ich kann meine Vega56 mit >>300W ASIC Power betreiben wenn ich lustig bin. Ist also kein Argument für ne OC Karte.

hlynska
2019-01-28, 17:46:03
OC = overCLOCKING, nicht overHEATING ;)

Langlay
2019-01-28, 18:02:59
OC = overCLOCKING, nicht overHEATING ;)

Selbst mit 400W ASIC ist es kein Problem das Teil mit Wakü zu Kühlen. Wird dann wahrscheinlich immernoch kühler sein als die meisten Karten mit Luftkühlung und Stockpowerlimit.

BeetleatWar1977
2019-01-28, 18:48:34
Weitere relevante Information: Igor läuft zu Hause in Hosenträgern rum.
Und die Karl May Sammlung steht im Hintergrund^^

Dural
2019-01-28, 19:18:53
Die 8gb der 2070, Vega 64, 2080 sind ganz offensichtlich zu wenig für eine gute 3 Jahres Versorgung.
Gerade bei der neuen Generation hätte Nvidia das Portfolio so aufbauen sollen:

RTX 2080 Ti 16GB
RTX 2080 12GB
RTX 2070 10GB
RTX 2060 8GB

Und wir machen uns die speicher bestückung wie es uns gerade gefällt. Die hardware anforderung ist doch völlig egal ;)

BlacKi
2019-01-28, 19:35:46
Und wir machen uns die speicher bestückung wie es uns gerade gefällt. Die hardware anforderung ist doch völlig egal ;)
bei 22gb bei der 2080ti hätten die leute locker 1500-1700€ gezahlt, bei der 2080 mit 16gb bestimmt auch bis zu 1000€, aber mit dem vorhandenen speicher wie er verbaut wurde hat man beim kauf einfach bauchschmerzen.

Zergra
2019-01-28, 21:26:42
Habe mich jetzt doch gegen eine VII entschieden, für am Ende mindestens 800€ inkl. FC Block ist mir das dann doch zuviel gewesen. Habe mich für eine Titan X (Pascal) entschieden. Bin trotzdem mal gespannt, wie die Karten sich dann schlagen. So ne VII hätte echt was, aber der Unterschied lohnt sich für mich einfach nicht...

horn 12
2019-01-28, 21:30:09
Abwarten
Igor hat seine bekommen

gnomi
2019-01-29, 06:53:21
Ich bin auch mal sehr gespannt.
Die Karte könnte denke ich die 2080 langfristig ärgern.
Leider finde ich den Sprung von einer 1080 kommend definitiv zu klein.
Und dann ist da der etwas hohe Verbrauch und eine Architektur, die am Ende angelangt zu sein scheint.
Aber ich denke, nvidia wird wegen der Karte die 3080 Mitte bis Ende 2019 dann entsprechend noch attraktiver machen müssen. :wink:

horn 12
2019-01-29, 07:02:45
Meinst wohl Anfang bis Frühjahr/Sommer 2020
2019 wird schwer werden für Nvidia im 7nm Prozess, welchen auch immer sie auszuwählen scheinen.

gnomi
2019-01-29, 07:09:02
Jo, möglicherweise war ich zu optimistisch.
Kann gut sein. Frühestens Ende 2020 rechne ich auch mit neuen Konsolen...

Leonidas
2019-01-29, 09:33:01
Fertigungskosten laut Fudzilla bei (angeblich) 650$. Erscheint mir aber eher als per-Daumen-Rechnung als denn wirklich belastbar:
https://www.fudzilla.com/news/graphics/48020-radeon-vii-production-cost-650

Fragman
2019-01-29, 09:46:07
Das heisst, die verkaufen die Karte zum Selbstkostenpreis?
Kann ich nur schwer glauben, denn mit Marketing und Vertriebskosten sind die doch locker über dem angepeilten Verkaufspreis?

Palpatin
2019-01-29, 09:50:52
Die 320$ für die HBM könnten deutlich zu hoch gegriffen sein. Aktuell befinden sich alle Speicherpreise (RAM, SSD etc) im Sturzflug. Da wohl auch die Nachfrage nach NV Karten mit HBM2 bröckelt könnte es gut sein das AMD für die Radeon 7 den Speicher zu weit besseren Konditionen bekommt als für die Vega 56 und 64 Karten.
Weiss nicht ob hier schon verlinkt aber der 3dmark leak sieht ganz gut aus:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/48456-3dmark-ergebnisse-der-radeon-vii-aufgetaucht.html

Linmoum
2019-01-29, 09:58:27
Achja, Fudzilla. Denselben Quatsch haben sie schon damals bei Vega verbreitet.

SKYNET
2019-01-29, 10:24:22
Fertigungskosten laut Fudzilla bei (angeblich) 650$. Erscheint mir aber eher als per-Daumen-Rechnung als denn wirklich belastbar:
https://www.fudzilla.com/news/graphics/48020-radeon-vii-production-cost-650

der chip selber wird wohl kaum mehr kosten als nen V64, und wenn ich mir anschaue das es customs für um die 400 taler gibt, und der hersteller(asus strix zb. 429€), und händler ja auch was verdienen wollen, und AMD die sicherlich nicht zum selbstkostenpreis abgibt.... gehe mal von 10% marge beim händler und ebenso bei asus aus, heisst 281.50€(429 -19% -10% -10%) bzw. $322 kostet die karte asus regalfertig verpackt, dann kostet nen 8GB kit HBM2 $150, bleiben $172 über, in den 172 sind drinnen: verpackung, zubehör, pcb samt sämtlichen bauteilen und die GPU selber...ergo kann man davon ausgehen das die GPIU selber um die $90 kostet... der VII lassen wirs nen wenig mehr sein, sagen wir mal $120... heisst die marge dürfte deutlich fetter ausfallen, hersteller(AMD, NV, intel) kalkulieren ja generell so, das sie später noch reduzieren können, ohne draufzahlen zu müssen bzw. immer noch gewinn machen :)

Thomas Gräf
2019-01-29, 10:25:27
Wann fällt eigentlich das NDA?

SKYNET
2019-01-29, 10:28:57
4.2. dürfen bilder(von der ganzen graka) onlinegestellt werden, 7.2. teardowns, , details, benches, bilder von der platine usw.

Thomas Gräf
2019-01-29, 10:46:29
Oha is ja nich mehr lang bis dahin. :smile:

SKYNET
2019-01-29, 10:53:11
3dmark ergebniss:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/48456-3dmark-ergebnisse-der-radeon-vii-aufgetaucht.html

Zergra
2019-01-29, 10:55:37
der chip selber wird wohl kaum mehr kosten als nen V64,

Das glaube ich wohl kaum, die 7nm Fertigung ist noch ganz am Anfang und die kosten sind wesentlich höher als eine schon ewig laufende Fertigung. Da kannst du eher von 50-100% mehr für den Chip alleine rechnen. Der HBM wird dagegen günstiger pro GB sein als bei Vega 1.

SKYNET
2019-01-29, 11:03:53
Das glaube ich wohl kaum, die 7nm Fertigung ist noch ganz am Anfang und die kosten sind wesentlich höher als eine schon ewig laufende Fertigung. Da kannst du eher von 50-100% mehr für den Chip alleine rechnen. Der HBM wird dagegen günstiger pro GB sein als bei Vega 1.


die vega2 produktion läuft bereits seit 5 monaten...

und das gut genug, das man GPUs für den gaming sektor abzwacken kann, vom deutlich gewinnträchtigeren porfessionellen sektor.

deutet also kaum auf ne schlechte ausbeute hin, entsprechend günstig wirds dann auch.

einfach mal 1+1 zusammen zählen ;)

Pirx
2019-01-29, 19:09:49
mit 2700X und 9900K

https://www.3dmark.com/compare/fs/18067351/fs/18071203#

https://twitter.com/TUM_APISAK/status/1090234791889235968

Zergra
2019-01-29, 19:15:27
deutet also kaum auf ne schlechte ausbeute hin, entsprechend günstig wirds dann auch.

Und warum verkauft man dann nicht den Vollausbau ? Die Produktion ist eben doch nicht so toll.

Die 7nm Produktion ist unabhängig davon wesentlich teuer als eine alte. Die Waferkosten liegen fast beim doppelten... klar der Chip ist etwas kleiner, aber am Ende trotzdem noch eine Ecke teurer.

Linmoum
2019-01-29, 19:23:26
Und warum verkauft man dann nicht den Vollausbau ? Die Produktion ist eben doch nicht so toll.
Weil der Vollausbau für die Mi60 gebraucht wird und dort auch deutlich sinnvoller ist.

Zu so einem frühen Zeitpunk bereits einen 7nm-Ableger für den Consumer-Markt bringen zu können zeigt eigentlich, dass 7nm gut laufen.

Nightspider
2019-01-29, 19:39:08
TSMC konnte doch die 7nm Fabs nicht auslasten. Vielleicht konnte AMD da noch einen etwas günstigeren Deal landen, so das die Radeon 7 etwas profitabel ist, zumal es ja eh nur salvage Chips sind.

Daredevil
2019-01-29, 19:39:56
Das glaube ich wohl kaum, die 7nm Fertigung ist noch ganz am Anfang und die kosten sind wesentlich höher als eine schon ewig laufende Fertigung. Da kannst du eher von 50-100% mehr für den Chip alleine rechnen. Der HBM wird dagegen günstiger pro GB sein als bei Vega 1.
50% mehr Kosten bei 36% kleinerem DIE gleicht sich doch aus, mh?

Zergra
2019-01-29, 19:44:18
50% mehr Kosten bei 36% kleinerem DIE gleicht sich doch aus, mh?

Wenn es den 50% wären ja, sind aber wohl eher 100%. Vega 2 wird ziemlich sicher teurer sein, dazu noch der HBM2... Vega 2 ist Preislich jedenfalls relativ stark auf kante genäht. Aber gut genaue Zahlen werden wir eh nicht bekommen.

crux2005
2019-01-29, 20:27:02
Zwischen den Zeilen ist doch ablesbar das AMD die Radeon VII nicht gebracht hätte, wäre da nicht der Zen(+) Erfolg. Also Profitabel wird das ding nicht sein.

Screemer
2019-01-29, 20:33:20
Zwischen den Zeilen ist eher zu lesen, dass AMD v20 nicht im Consumermarkt gebracht hätte, wenn NV ordentlich drauf gepackt hätte.

Achill
2019-01-29, 20:40:21
Zwischen den Zeilen ist eher zu lesen, dass AMD v20 nicht im Consumermarkt gebracht hätte, wenn NV ordentlich drauf gepackt hätte.

This!

Grendizer
2019-01-29, 20:46:25
Zwischen den Zeilen ist eher zu lesen, dass AMD v20 nicht im Consumermarkt gebracht hätte, wenn NV ordentlich drauf gepackt hätte.


Dadurch das nVidia total überzogene Preise für die 2080 ausgerufen hatte, ist das Produkt möglich. Das ist doch nur ein Lebenszeichen und wir haben doch schon jetzt die Situation, das eine 2080 günstiger ist als eine VII.(KFA2 2080 = 649 Euro). Wenn die Karte in der Performance knapp unter einer 2080 liegt, im Preis aber 50-80 Euro drüber, dann sprechen nur die 16 Gb für die Karte.

Keine Ahnung ob das reicht.... wobei ich aber auch nicht an eine lange Verfügbarkeit glaube.

Screemer
2019-01-29, 21:00:51
Für mehr als "hey wir sind noch da" wird es nicht reichen. Bei 600€ würde ich sofort kaufen. Dass das aber utopisch ist sollte klar sein. Ich hätte auch lieber einen komplett entschlacken und kleinen vXY ohne den ganzen hpc-balast gesehen. Gleiche Performance, weniger die-size, billiger und wegen mir auch mit nur 8gb vram.

Thunderburne
2019-01-30, 10:05:26
https://www.techpowerup.com/251997/amd-radeon-vii-3d-mark-final-fantasy-xv-benchmarks-surface-beats-and-loses-to-rtx-2080

Da spiegelt sich der Timespye wieder es wird halt Titel geben wo es runter nach RTX 2070 geht.

Wäre schön wen noch OC satt möglich wäre auf der 7.

pilzsammler2002
2019-01-30, 10:17:19
Den Final Fantasy benchmark kann man als Nvidia/AMD vergelich aber nicht wirklich ernst nehmen... :freak:

Thunderburne
2019-01-30, 10:23:31
Den Final Fantasy benchmark kann man als Nvidia/AMD vergelich aber nicht wirklich ernst nehmen... :freak:
Es gibt halt auch andere Titel die NV liegen und wo eine deutlich größere Performance Lücke klaft.

dildo4u
2019-01-30, 10:33:29
Es ist immerhin ein echtes Game,es kommt wie immer drauf an was man Zocken will.Es gibt auch andere Games die so grottig Performen z.b Fortnite und andere Unreal Games.AMD besättigt das ja sogar Fortnite schafft nicht mal 4k/60.

46fps laut den veröffentlichen Werten.

https://www.computerbase.de/2019-01/amd-radeon-7-benchmarks/

2080 liegt über 60.

https://youtu.be/o9eN1HRRDdM?t=325

SKYNET
2019-01-30, 10:35:24
Für mehr als "hey wir sind noch da" wird es nicht reichen. Bei 600€ würde ich sofort kaufen. Dass das aber utopisch ist sollte klar sein. Ich hätte auch lieber einen komplett entschlacken und kleinen vXY ohne den ganzen hpc-balast gesehen. Gleiche Performance, weniger die-size, billiger und wegen mir auch mit nur 8gb vram.


8GB vram, wirklich? wir sind in 2019 angekommen, da überhaupt karten mit weniger als 11GB in der 600€ klasse anzubieten, finde ich ne frechheit und kundenverarsche.

aber die datacenter zeigen ja auf wohin NVs reise bei der GPU sparte gehen wird... im freien fall nach unten, MI50 und MI60 haben da NV ordentlich marktanteile abgegraben:


Zudem konnte AMD einen Rekordumsatz von Grafik-Chips für das Data-Center erwirtschaften. Das werteten Analysten positiv, nachdem sowohl Intel als auch Nvidia auf ein schwächeres Wachstum in den Server-Zentren hingewiesen haben.

und das kann man als guten indiz nehmen, das AMD das bessere P/L verhältnis hat, und so wirds auch im home sektor sein.

die VII wird die 2080 schön deklassieren, und ich hoffe inständig das AMD eine VII 64 bringt, mit selektierten DIEs die allesamt 2100MHz laufen und der HBM2 auf 1050MHz... sollte dann langen das man der 2080Ti an der rosette kitzeln kann... das ganze dann für 849€ und schon ist der zug für RTX abgefahren ;D

Sven77
2019-01-30, 10:38:08
Man soll doch am frühen morgen nicht schon saufen..

dargo
2019-01-30, 10:40:09
Ich frage mich gerade warum Hitman 2 da so stark aus der Reihe tanzt? :uponder: Ich meine 7,5% ist ja fast nichts.

dildo4u
2019-01-30, 10:40:52
Ich frage mich gerade warum Hitman 2 da so stark aus der Reihe tanzt? :uponder: Ich meine 7,5% ist ja fast nichts.
CPU Limit bei Teil zwei wurde der DX12 Modus gestrichen.

dargo
2019-01-30, 10:42:15
CPU-Limit bei 53fps? WTF?

SKYNET
2019-01-30, 10:43:46
CPU-Limit bei 53fps? WTF?

wurde halt kein ryzen 3800 genommen für den test, sondern deren system mit 7700k, 2x 8GB DDR4 3000...

das der stellenweise am limit knüppelt, ist klar.

dargo
2019-01-30, 10:46:43
Also derjenige, der das getestet hatte sollte eigentlich kompetent genug sein um eine Testszene zu finden die nicht so derbe im CPU-Limit hängt. Sollte man jedenfalls von ausgehen.

btw.
FH4 legt mit 16% auch eher mager zu. Und das ist garantiert kein CPU-Limit.

dildo4u
2019-01-30, 10:48:01
Die Werte können stimmen wenn sie durch eine Menschenmenge laufen.


https://youtu.be/s-tYs8YN0NY?t=35

SKYNET
2019-01-30, 10:52:25
Also derjenige, der das getestet hatte sollte eigentlich kompetent genug sein um eine Testszene zu finden die nicht so derbe im CPU-Limit hängt. Sollte man jedenfalls von ausgehen.

btw.
FH4 legt mit 16% auch eher mager zu. Und das ist garantiert kein CPU-Limit.


hätte es auch besser gefunden, wenn sie nen 9900k mit 2080 FE gegen den 3800X und die VII hätten antreten lassen, aber wäre evtl. ein wenig unfair gewesen ggü. dem intel/nv system ;D

wäre ich mir nicht so sicher, der 7700k ist nicht übertaktet gewesen... also bei spätestens 4.5GHz schluss.

robbitop
2019-01-30, 11:29:39
Die Ergebnisse werden vermutlich massiv schwanken. Spielt Bandbreite eine große Rolle, wird die V7 viel Vorteil daraus ziehen. Wenn nicht, wird der Vorsprung kleiner sein. Die Rohleistung der V7 ist immerhin nicht großrtig höher als bei V64.

Screemer
2019-01-30, 12:13:15
Mich würde auch nicht wundern wenn v20 taktnormiert, sich nicht mehr als 5% von V10 absetzen kann.

robbitop
2019-01-30, 12:46:24
In nicht bandbreitenlimitierten Szenen? Ja würde mich dann auch nicht wundern.
In bandbreitenkritischen Szenen scheint es ja einiges zu bringen.

Screemer
2019-01-30, 12:50:08
Korrekt. So war das gemeint. Bandbreite ist mit 4 stacks auf jeden Fall genug vorhanden.

SKYNET
2019-01-30, 13:59:55
Die Ergebnisse werden vermutlich massiv schwanken. Spielt Bandbreite eine große Rolle, wird die V7 viel Vorteil daraus ziehen. Wenn nicht, wird der Vorsprung kleiner sein. Die Rohleistung der V7 ist immerhin nicht großrtig höher als bei V64.

wäre halt die frage... wir wissen halt noch nix... und meine quelle will auch noch nix sagen, obwohl schon alles weiss :mad:


muss wohl härter bohren :upara:

aufkrawall
2019-01-30, 14:24:51
wäre ich mir nicht so sicher, der 7700k ist nicht übertaktet gewesen... also bei spätestens 4.5GHz schluss.
Und? Dir ist schon klar, dass die Spiele-Performance etwa die eines 2600X mit optimiertem RAM ist?

Im DX12-Thread meinten ja Leute/Redakteure, das fehlende DX12 in dem Spiel wäre nur halb so schlimmm...

SKYNET
2019-01-30, 14:45:50
Und? Dir ist schon klar, dass die Spiele-Performance etwa die eines 2600X mit optimiertem RAM ist?

Im DX12-Thread meinten ja Leute/Redakteure, das fehlende DX12 in dem Spiel wäre nur halb so schlimmm...


avr frames ist nen standard 2700X mit C16 2933 speicher so schnell wie nen 7700k mit 2666er und C16, in min frames sogar schneller, beim 2600X sind weniger avr frames als der 7700k, aber gleich viel min frames.... man müsste nen guten 2500X erwischen, den auf 4.5GHz prügeln mit standard speicher und dann schauen... kostet aber leider soviel wien 2600X :ulol:


DX12 wenns richtig gemacht ist, geht ab, siehe SotTR... gibt ja nen performanceboost sondersgleichen, darum verstehe ich nicht das irgendwer sagt "ist ja nicht schlimm wenns fehlt" :upara:

Thunderburne
2019-01-30, 16:05:29
http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/News/AMD-Radeon-VII-Powercolor-plant-zwei-Custom-Designs-1274327/

Daredevil
2019-01-30, 16:25:09
Ich befürchte nichts gutes, wenn man ein Custom Design anbieten will anstatt einem Custom Design. :X
Aber egal, go Sapphire und 3x 8 Pin!

SKYNET
2019-01-30, 16:32:44
Ich befürchte nichts gutes, wenn man ein Custom Design anbieten will anstatt einem Custom Design. :X
Aber egal, go Sapphire und 3x 8 Pin!

:upara: stehe grad auf dem schlauch :upara:

Bellspinder
2019-01-30, 18:18:41
3x8 pin? :freak: Wow. Die übernächste Generation braucht dann eine eigene Steckdose oder wie. Die Vegas erscheinen mir wie ein Ford Mustang, Pascals/Turings sind wie ein Porsche Hybrid. Fahren würde ich beides ;)

Zergra
2019-01-30, 18:21:24
3x8 pin? :freak: Wow. Die übernächste Generation braucht dann eine eigene Steckdose oder wie. Die Vegas erscheinen mir wie ein Ford Mustang, Pascals/Turings sind wie ein Porsche Hybrid. Fahren würde ich beides ;)
Wau... wie schnell Gerüchte entstehen :rolleyes:

maximus_hertus
2019-01-30, 18:56:38
3x8 pin? :freak: Wow. Die übernächste Generation braucht dann eine eigene Steckdose oder wie. Die Vegas erscheinen mir wie ein Ford Mustang, Pascals/Turings sind wie ein Porsche Hybrid. Fahren würde ich beides ;)

Vega 3x8 Pin = Böse. Turing 3x8 Pin = Effizienzwunder? Das musst du mir erklären....

Zur Info: die MSI Lightning 2080 Ti hat 3x8 Pin.

Daredevil
2019-01-30, 19:00:43
Wau... wie schnell Gerüchte entstehen :rolleyes:
Was, die hat 4x 6Pin? UFF! :D

Thunderburne
2019-01-30, 20:24:18
Vega 3x8 Pin = Böse. Turing 3x8 Pin = Effizienzwunder? Das musst du mir erklären....

Zur Info: die MSI Lightning 2080 Ti hat 3x8 Pin.
Nu ja 7nm vs 12nm und ca 25+% schneller die Turing 2080TI... such den Fehler selbst. :wink:
Hätte NV noch die extra Cores weggelassen würde eine noch größere Lücke klaffen.
Wen man dann noch fair wäre und NV jetzt eine Karte in 7nm bringen würde es der Absoluten Vernichtung gleichen.
Ob Navi da was ändern kann muss man dann mal sehen wobei der kleine Navi sollte in etwa Vega 64 GTX1080 Leistung erhalten.
Da muss zwingend ein neues Design her.

Ich finde es dennoch gut das AMD bei der Oberklasse mitmischt jedoch finde ich es schade das die VEGA 7 ab und an in den Leistung Bereich einer 2070 abrutschen wird.
Ich hoffe ja auf ein gutes OC Spektrum es wäre echt schade wen da z. B unter Wasser schon bei 1900 MHz das Ende erreicht werden würde ich hoffe auf viel Takt..
Den mir ist der Stromverbrauch eigentlich fast egal wen es dann sehr schnell wird.

Digidi
2019-01-30, 23:49:31
Ich finde es dennoch gut das AMD bei der Oberklasse mitmischt jedoch finde ich es schade das die VEGA 7 ab und an in den Leistung Bereich einer 2070 abrutschen wird.
I.

Und bei manchen wird man 2080ti Performance erreichen. Wann lerne die Leute das auch die Software von den Entwicklern angepasst werden muss. Spiele wie ARK und ProjectCars die wissentlich nur für NVIDIA entwickelt wurden lass ich liegen, auch wenn mich das Gameplay reizt.

Thunderburne
2019-01-31, 05:45:43
Ich versteh ganz genau was du meinst und höre das nicht das erste mal.
Nur muss ich aus diesem Grund auf Spiele verzichten?
Ist es nicht auch ehr so das AMD selbst mal die Füsse in den Teer schlagen muss!
Das geht schon seit ein Paar Jahren so die anderen sind schuld... die wollen doch mein Geld dann können sie sich auch bewegen!
Ich weiß da AMD den Fokus aktuell mehr auf den CPUs hatte was ja auch wie es scheint eine Super Entscheidung war um Kohle locker zu machen .
Ich hoffe das in naher Zukunft AMD auch wieder so ein Klasse Wurf bei den GPUs gelingt... aber das hoffen geht halt schon eine Weile.
Die Hardware war von Beginn an an der Software vorbei da AMD sich mit diesem Design breiter aufstellen wollte um beide Märkte zu bedienen da die Software aber nur mühselig hinterher zieht ist es wie es ist und man ist maximal gleich auf mit der RTX2080.
Grusss

Mortalvision
2019-01-31, 06:09:37
oh, dann denkt aber bitte auch an Vulkan.

Blutmaul
2019-01-31, 07:53:30
Meine Meinung nach ist die VII eine Lückenbüsserkarte, die man mit dem Augenmerk auf 4K-60Hz-Gaming auf den Markt bringt, wo sie vermutlich eine gewisse überschaubare Nischenmarktberechtigung hat.

Unter dem Augenmerk muß man die Karte betrachten, testen, bewerten.

Für mich: Sie liegt ausserhalb meines Preisfensters und 4K-Gaming kommt bei mir irgendwann zukünftig mal - daher kein Kaufwunsch und nur leichte Neugier auf Tests.

Thunderburne
2019-01-31, 07:56:28
oh, dann denkt aber bitte auch an Vulkan.
Warum sollte man Vulkan auch vergessen???
https://www.guru3d.com/articles-pages/strange-brigade-pc-graphics-performance-benchmark-review,6.html
Nur sehe ich da das z. B

deekey777
2019-01-31, 09:23:27
oh, dann denkt aber bitte auch an Vulkan.
An die Kinder! Denkt bitte an die Kinder"

Warum sollte man Vulkan auch vergessen???
https://www.guru3d.com/articles-pages/strange-brigade-pc-graphics-performance-benchmark-review,6.html
Nur sehe ich da das z. B

Was genau siehst du da?

AMD Radeon VII Benchmarks Apparently Leak: Stiff Competition for RTX 2080 (https://www.tomshardware.com/news/amd-radeon-vii-vs-nvidia-rtx-2080-leaked-benchmarks,38529.html)

Zergra
2019-01-31, 11:10:46
Gibt wohl erstmal keine custom Karten...

https://www.computerbase.de/2019-01/radeon-vii-powercolor-statement-custom-designs/

Linmoum
2019-01-31, 12:05:17
Ist doch schon seit langem klar.

Dural
2019-01-31, 12:33:15
Die Stückzahlen sind doch viel zu gering das sich das lohnen würde.

Der Kühler der Ref. sieht jetzt auch nicht mega schlecht aus, von dem her dürfte das egal sein.

Rampage 2
2019-01-31, 12:52:39
Glaubt ihr, dass Nvidia den Preis der 2080 anpasst, falls Radeon VII konkurrenzfähige Leistung liefert?

R2

Zergra
2019-01-31, 12:54:18
Glaubt ihr, dass Nvidia den Preis der 2080 anpasst, falls Radeon VII konkurrenzfähige Leistung liefert?

R2


Nein wieso? Die 2080 ist doch teilweise günstiger als die UVP von vega 2.
Sieht auch aktuell so aus, als wenn die Vega etwas langsamer wird als die 2080.

Rampage 2
2019-01-31, 13:02:24
Nein wieso? Die 2080 ist doch teilweise günstiger als die UVP von vega 2.
Sieht auch aktuell so aus, als wenn die Vega etwas langsamer wird als die 2080.

Blöd:(

Ich hatte halt gehofft, wenn der Preis der 2080 runtergeht, dann würde auch der Preis der 2070 sinken... (fast 600€ für eine gute Custom-2070 ist einfach Wucher)

Aber selbst wenn die Radeon etwas langsamer wäre, würden den Käufer in dieser Leistungsklasse die 16GB VRAM viel mehr interessieren, oder nicht?

R2

Raff
2019-01-31, 13:09:30
Leistungsvorschau zur Radeon VII: Eine exklusive Simulation (http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/Specials/Leistungsvorschau-zur-Radeon-VII-1274401/)

€dit: Das ist ein "scheiß Bezahlartikel" (siehe Posting unter mir). Vielleicht mag mal jemand reinspitzen, denn Laterpay heißt "Erst lesen, dann zahlen". Ich spame das nur herum, weil das ein Online-First ist (Heftartikel live, bevor das Heft als Ganzes verfügbar ist). Und jetzt bannt mich, wenn ihr das für nötig haltet. Aber erwartet nicht, dass ich dieses Forum dann wieder besuche.

MfG,
Raff

Bellspinder
2019-01-31, 14:41:06
Es gibt keine guten Schwaben. Es gibt Schwaben und wenn sie im Schwabenland bleiben würden wäre ja alles gut. :rolleyes:

AMD verpasst entweder immer den Zeitpunkt oder Nvidia spielt sie regelmäßig gekonnt aus. Die Radeon VII hätte als Konkurrent der 1080ti mächtig Eindruck gemacht und den Markt aufrollen können, jetzt gegen die Turings ists n bisschen dünn. Genauso die Navis, warum erst im Frühsommer? Dann startet man mit frischer UVP, während die 2070er/2080er sich schon preistechnisch nach unten bewegt haben. Aufgrund der teuren Speicherchips wird man es auch schwer haben wirklich konkurrenzfähige Preise abzurufen. Also letztlich landen wir vom Performanceverhältnis wieder da wo wir mit dieser Generation auch schon in etwa waren, nur dass sich das Pendel eher noch ein kleines Stück mehr richtung Nvidia bewegt hat. (außer Navi wird eine ganz große Wurst, aber wenn es die VII schon nicht wird...)

Kennt sich jemand aus und weiß, was AMD bewogen hat nicht auch auf GDDR6 Speicher zu setzen wie Nvidia? Der scheint mir doch deutlich günstiger zu sein und letztlich bringen die HBM's ihre Bandbreite ja offenbar nicht in die Games, sonst wären sie ja überlegen -sind sie aber eben nicht, nur teurer. Ich erinnere mich noch an meine alte Radeon X800 XT PE. Das war noch eine Zeit, da warst du ein Vollidiot wenn du die nicht gekauft hast. Das war noch Ati!

Savay
2019-01-31, 14:47:03
nur dass sich das Pendel eher noch ein kleines Stück mehr richtung Nvidia bewegt hat.

Hääh??! Der V10 in Form der V64 kam doch deutlich verspätet nach der 1080 auf dem Markt!
Hier liegt jetzt faktisch deutlich weniger Zeit dazwischen in der AMD nix vergleichbares am Markt hat. :rolleyes:

Also irgendwas passt hier nicht so ganz zusammen...weil der relative Abstand prinzipiell annähernd gleich zu bleiben scheint, AMD die Lücke aber deutlich früher schließt!

Das die Ti`s in den letzten 3 Gens nicht erreicht wurden ist bei der Betrachtung doch nüchtern gesehen sowieso absolut wurscht...ist eh nur ein homöopathischer Markt...und die neue Generation generell einfach nur absurd überteuert.
Der gefühlte Unterschied ist hier mal wieder offensichtlich größer als der tatsächliche.

Cyphermaster
2019-01-31, 15:05:45
AMD verpasst entweder immer den Zeitpunkt oder Nvidia spielt sie regelmäßig gekonnt aus. Die Radeon VII hätte als Konkurrent der 1080ti mächtig Eindruck gemacht und den Markt aufrollen können, jetzt gegen die Turings ists n bisschen dünn.Dafür hätte der 7nm-Prozeß früher reif sein müssen - und dann hätte man nicht nur ein Produkt so gefertigt, sondern alle... VII ist kein schon immer geplantes, sondern ein kurzfristig eingeschobenes Produkt. AMD verpaßt keinen Zeitpunkt, sondern hat in den letzten Generationen einfach nicht die Sprünge gemacht, die man sich in Relation zu nVidia vorgestellt/vorgenommen hatte.
Kennt sich jemand aus und weiß, was AMD bewogen hat nicht auch auf GDDR6 Speicher zu setzen wie Nvidia? Der scheint mir doch deutlich günstiger zu sein und letztlich bringen die HBO's ihre Bandbreite ja offenbar nicht in die Games, sonst wären sie ja überlegen -sind sie aber eben nicht, nur teurer.
Die Entscheidung für HBM für das obere Segment fiel, als noch nicht klar war, wie sich HBM in Relation zu GDDR entwickeln würde. Vermutlich also schlicht damals etwas verschätzt und angenommen, daß GDDR mit entsprechend hoher Leistung, wie HBM konzeptbedingt eben bietet, nicht so schnell so viel billiger im Vergleich werden wird.