PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse AMD Radeon VII


Leonidas
2019-02-12, 20:51:35
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-vii

Iscaran
2019-02-12, 21:45:13
Diese Vergleichsbilder mit den Balken über die einzelnen Reviewergebnisse finde ich gut !

So sieht man gleich wie "konsistent" die Ergebnisse sind.

CB hat ja diesmal wirklich den Hahn abgeschossen - Worst Case Seite (für AMD) in allen Bereichen....war glaub ich noch nie so. Der Parcours/Settings/SaveGames bei CB scheint wohl in der Tat den Roten nicht zu schmecken.

Lowkey
2019-02-12, 22:50:16
Bei CB hat sich doch indirekt entschuldigt :)

Die Preise sollen im März fallen bzw. mindestens 729 Euro wären dann machbar. Eventuell läuft irgendwann das aktuelle Spielebundle aus.

Wenn man aktuell die Vega 56 unter 300 Euro sieht, dann ist ein Preisnachlass über kurz oder lang auch bei der VII machbar. Fury war teuer und nie unter 300 Euro wirklich vertreten.

Für die Grafik auf Seite 3 gibt es einen Oskar.

Gast
2019-02-12, 23:28:31
Mit dem Morpheus-Kühler bekommt man die Junktion-Temperatur offenbar auf 60°C runter und den Chip auf ~2 Ghz.
http://extreme.pcgameshardware.de/grafikkarten/530829-amd-radeon-vii-laberthread-post9728063.html

Für ein höheres Powerlimit gibt es ebenfalls eine Lösung:
http://extreme.pcgameshardware.de/overclocking-grafikkarten/531140-radeon-vii-overclocking-undervolting-2.html#post9728014

Gast
2019-02-13, 00:07:56
3 Seiten Ausreden , Begründungen und abwälzen der gemessenen Ergebnisse auf Fertigung Finanzen und den Spagat der Architektur.

Computerbase hatte wenigstens die Eier in ihrer Überschrift Vega 7 als das was sie im aktuellen Zustand ist zu bezeichnen , laut langsam ,heiß ,hungrig zu teuer und nicht lieferbar mit 16 GB Vram.

In Zeiten in denen es in ist für den Underdog zu sein eine Seltenheit.

AMD macht uns hier ein Angebot das bis auf den Vram in keiner Disziplin nach Fakten beim gaming konkurrenzfähig ist.

Früher wurden Fails wie FX5800, 2900xt , volari V8 , rage furymaxx usw..
wenigstens in Test noch auseinander genommen , heute streichelt man sie lieber tot weil sie von AMD kommen dem schwächeren der beiden duopolgiganten.


Wenn etwas so wie die Vega 7 auf den Markt geworfen wird dann gehört das deutlichsten abgestraft.

Man Stelle sich eine RTX mit solchem Kühler und Noise lvl vor die quasi ohne UV nicht vernünftig nutzbar ist . Der shitstorm wäre zu Recht riesig.

morbidmorgis
2019-02-13, 02:13:37
Bin ich jetzt völlig blind oder fehlt in dem "Einleitungstext" der Link zum ganzen Artikel wie sonst üblich?

Erst links über die Navigation auf "Artikel" bin ich fündig geworden.

Kulasko
2019-02-13, 03:13:56
Ich wundere mich schon etwas, wie AMD mit so wenig Bedarf rechnen kann.
Gut, die Karte ist teuer und im Gegensatz zu früheren AMD-Generationen ist das P/L Verhältnis relativ zu Nvidia nicht besser und absolut gesehen wirklich nicht gut, anscheinend gibt es auf der anderen Seite aber immer mehr Leute, die mehr richtung AMD tendieren (oder Nvidia aufgrund der Geschäftspraktiken gleich ganz ausschließen) und sich über neues High End freuen.

Gleichzeitig kommt die wohl auch bei Workstation-Benutzern ganz gut an. Wendell von Level1Techs hatte auf Twitter einige lobende Worte übrig. (https://twitter.com/tekwendell/status/1093918194354524160)
Hoffen wir mal, dass es sich nicht wieder um ein Produktionsproblem handelt.

Leonidas
2019-02-13, 04:38:31
Bin ich jetzt völlig blind oder fehlt in dem "Einleitungstext" der Link zum ganzen Artikel wie sonst üblich?


Fehler gefixt.





CB hat ja diesmal wirklich den Hahn abgeschossen - Worst Case Seite (für AMD) in allen Bereichen....war glaub ich noch nie so. Der Parcours/Settings/SaveGames bei CB scheint wohl in der Tat den Roten nicht zu schmecken.


Wobei CB sicherlich mit die solidesten Ergebnisse von allen sind, daran liegt es also nicht. Aber daran besteht ja der Sinne dieser Benchmark-Auswertung: Resultatsschwankungen in alle Richtungen hin auszugleichen.





AMD macht uns hier ein Angebot das bis auf den Vram in keiner Disziplin nach Fakten beim gaming konkurrenzfähig ist.


+4% bei nominell selben Listenpreis ist für mich weit weg von der Klassifizierung "nicht konkurrenzfähig". Bei 4% Differenz frage ich eher, ob man das wirklich als "Differenz" betrachten kann. Der Preisunterschied stört natürlich, aber andererseits ist die RTX2080 auch schon Monate auf dem Markt, das hat diesbezüglich seine Vorteile.





Man Stelle sich eine RTX mit solchem Kühler und Noise lvl vor die quasi ohne UV nicht vernünftig nutzbar ist . Der shitstorm wäre zu Recht riesig.


Eine sehr interessante Fragestellung. Was wäre, wenn AMD RT gebracht hätte und NV dagegen die 16 GB? Ich glaube, die Enthusiasten-Kreise wären voll von "unter 16 GB geht gar nix mehr" Aussagen.

Iscaran
2019-02-13, 09:15:03
Wobei CB sicherlich mit die solidesten Ergebnisse von allen sind, daran liegt es also nicht.


Das wage ich zu bezweifeln. Siehe auch Diskussion beim CB-Test selbst. Zumindest in dem hier vorliegenden Test.

CB war mal bekannt für ihre guten Tests - aber ich fürchte das ist schon einige Zeit her.


Aber daran besteht ja der Sinne dieser Benchmark-Auswertung: Resultatsschwankungen in alle Richtungen hin auszugleichen.


Deswegen gehe ich auch immer hierher - eben weil man mal einen Überblick über ALLE(viele) Tests auf einmal hat.

Raff
2019-02-13, 09:21:48
Diese Vergleichsbilder mit den Balken über die einzelnen Reviewergebnisse finde ich gut !

So sieht man gleich wie "konsistent" die Ergebnisse sind.

CB hat ja diesmal wirklich den Hahn abgeschossen - Worst Case Seite (für AMD) in allen Bereichen....war glaub ich noch nie so. Der Parcours/Settings/SaveGames bei CB scheint wohl in der Tat den Roten nicht zu schmecken.

Die Standard-Benchmark-Parküre ;) der großen Seiten wurden vor vielen Monaten zusammengestellt und werden aus Konsistenz-/Vergleichsgründen lange beibehalten. Natürlich könnte man auch wild durchwechseln und jedes neue Spiel einbauen, allerdings würden die Tester dann nichts anderes machen, als nachzutesten. Dann gibt es keine Texte mehr und nicht eine Randbetrachtung. Letztere vermisse ich in der Launch-Analyse übrigens etwas. Compute, 5K, sonstwas? :)

MfG,
Raff

Ferenzo
2019-02-13, 09:24:05
Super Test, auch die schöne Einleitung mit der Pipecleaner Historie fand ich lesenswert. Danke :smile:

Iscaran
2019-02-13, 09:26:19
Was wäre, wenn AMD RT gebracht hätte und NV dagegen die 16 GB? Ich glaube, die Enthusiasten-Kreise wären voll von "unter 16 GB geht gar nix mehr" Aussagen.


Vor allem wenn man bedenkt, dass das vorgestellte Hybrid-RT ja MEHR VRAM braucht als normales Rendering :-). Sinn von 8GB auf der Karte die auf dem Niveau einer 1080 Ti liegt + RT (das ein VRAM-Fresser Feature ist ?) und dann den VRAM von 11 => 8 kappen...GJ!

Lowkey
2019-02-13, 09:48:31
Wobei CB sicherlich mit die solidesten Ergebnisse von allen sind, daran liegt es also nicht. Aber daran besteht ja der Sinne dieser Benchmark-Auswertung: ResultatsRealitätsschwankungen in alle Richtungen hin auszugleichen.




ohh unsere Ergebnisse weichen zu stark ab. Wir müssen nachtesten (https://www.computerbase.de/2019-02/amd-radeon-vii-sonder-test/).

y33H@
2019-02-13, 09:52:26
Leistungsaufnahme einer RTX 2070 Referenz bei Golem sind 174 Watt.

https://www.golem.de/news/geforce-rtx-2070-im-test-diese-turing-karte-ist-ihr-geld-wert-1810-136973-3.html

basix
2019-02-13, 10:20:27
Danke für den Bericht :up:

Interessant auch die Retrospektive auf RV740 und Co. :)

Gast Ritis
2019-02-13, 10:21:46
Endlich ist klar belegt, dass die Vega-Architektur primär erst mal nur am Takt krankte. Die Performance skaliert mit dem real gehaltenen Takt sehr gut und steht dann mit nVidia auf Augenhöhe.

Die Bandbreite im VRAM hilft, ist aber unter 4k Auflösung nicht Match-Entscheidend, Framerates sind zumindest stabieler. VRAM Bandbreite hilft ab 4k und auch für VR ist diese Radeon also sehr gut aufgestellt. Je nachdem was man für Anforderungen hat die 1. oder 2. Wahl gegenüber den nVidias.

Der Nachteil von Vega liegt in der Effizienz des Designes, das wird auch nie besser sein können als bei der Konkurrenz solange das Scheduling auf der GPU in HW läuft und nicht auf die CPU ausgelagert werden kann.
Im Umkehrschluss müsste man dann aber auch nicht so abhängig von der Thread-Performance der CPU sein. Leider fehlen dazu die Tests!

Die GCN-Arch hat m.M. weiter Potential wenn die das Scheduling und Auslastung der GPU deutlich verbessern könnten. Von Bulldozer auf Zen hat das zumindest mal geklappt. Navi wird zeigen wo man sich verbessern will.

Zu den Prozentpunkten aus den Reviews ist noch zu sagen dass man doch wenigstens die gegimpten 3dMark TimeSpy und FF15 Benches mal rausrechnen sollte, auch die 3dMark VR Benches sind RT-lastig. Dort hat sich ohnehin schon gegenüber den GTX Varianten gezeigt, dass das nur mit RT-Cores von nVidia einen Performance-Kick gibt. Aber wer heute Raytracing will kann momentan eh nur eine RTX nehmen. Das muss man schon separat betrachten, in einem eigenen Index. Benches in denen eine 1080Ti gegenüber der RTX2080 deutlich zurück fällt sollte man erst mal für nen separaten RT-Performance Index aussortieren.

Leute, die in Foren gegen eine angeblich zu schlechte Radeon VII anschreien um die RTX2080 oder gar RTX2070 zu verteidigen erinnern mich and die GTX1060 Besitzer, die gegen RX480/580 gewettert hatten. Rückblickend ziemlich peinlich und unnötig. ;)

y33H@
2019-02-13, 11:03:31
Was haben die VR-Tests des 3DMark mit Raytracing (RT-Cores) zu tun?

Gibt's für dieses angebliche Software Scheduling bei Nvidia eigentlich einen Beleg? Mag sein, dass die Geforce Karten mit mehr Kernen besser skalieren, aber die meisten Nutzer haben eben auch 4+ Cores.

Gast
2019-02-13, 11:06:58
"spannender Benchmark-Gegner = GTX 1080 Ti"?
Mal auf den Status der Karte geschaut? Oder Verfügbarkeit? Oder gar Preis?

Das war ja wohl nichts, Leo.
Der Rest ist weitgehend in Ordnung.

Gast
2019-02-13, 11:16:46
Gibt es eigentlich inzwischen Resultate von der Division 2 Beta auf der R7?
Das Spiel soll ja auf AMD Hardware optimiert sein, da würde mich interessieren was diese Anpassungen noch herausholen können.

Gast Ritis
2019-02-13, 13:05:34
Was haben die VR-Tests des 3DMark mit Raytracing (RT-Cores) zu tun?

Gibt's für dieses angebliche Software Scheduling bei Nvidia eigentlich einen Beleg? Mag sein, dass die Geforce Karten mit mehr Kernen besser skalieren, aber die meisten Nutzer haben eben auch 4+ Cores.

In den Manuals zu den 3DMarks steht eigentlich ganz klar dass RayMarching genutzt wird.
The volume illumination pass uses ray marching to solve volumetric illumination for one spotlight.

Ich bin bei eklatanten Leistungszuwächsen bei RTX Karten relativ sicher, dass nVidia da die RT-Cores dafür einsetzen kann. Die üblichen Rasterpfade sind gegenüber der 1080Ti nicht allein in der Lage extreme Sprünge zu erklären.

Belastbare Belege für das Softwarescheduling bei nVidia hat die Firma AFAIK nie vorgelegt. In meinen Augen sprachen allein die hohen Zugewinne/Abhängigkeit von CPU Singlethreadleistung und gute Optimierbarkeit via Treiber bzw. Software sehr dafür. Geringe Latenzen, hoher Takt bei bis zu 2 Cores, Intel war immer notwendig. Nvidia konnte nach meiner Erinnerung bei Rückständen zum Launch im Treiber bislang immer gut nachlegen, ohne Patches der Gameentwickler.

Aber das ist aber nicht so wichtig, wichtig sind aber Tests über die Abhängikeit von CPUs, bei welcher CPU-Klasse und GHz sich da jeweils die Frameverläufe nicht negativ bzw. weiter positiv verändern. Wenn sich das mit DX12/Vulkan in Luft auflöst ist eh alles gut. Weniger wie 6C+HT sollte ja niemand mehr im Gaming einsetzten ;)

FlashBFE
2019-02-13, 13:25:54
Guter Artikel. Ziemlich ausgewogen mit Vor- und Nachteilen. Gerade auch die Unterscheidung von 2080 Ref oder FE machen viele Testberichte nicht oder nur im Nebensatz. Oft wird gegen die FE getestet, aber dann der Preispunkt der günstigsten verfügbaren 2080 herangezogen. Das Spielebundle der VII wird auch nicht immer erwähnt, was aber auch einen (Geld-)Wert hat. Eigentlich sind 2080 und VII ziemlich gute Konkurrenten mit dem Umstand, dass die VII ein bisschen später kam und nun schon wieder ausverkauft ist.

Ein kleiner indirekter Nachteil fällt mir noch ein: NV unterstützt jetzt auch zumindest teilweise Adaptive-Sync, wodurch der FreeSync-Vorteil von AMD wegfällt.

y33H@
2019-02-13, 14:00:45
In den Manuals zu den 3DMarks steht eigentlich ganz klar dass RayMarching genutzt wird. Ich bin bei eklatanten Leistungszuwächsen bei RTX Karten relativ sicher, dass nVidia da die RT-Cores dafür einsetzen kann. Die üblichen Rasterpfade sind gegenüber der 1080Ti nicht allein in der Lage extreme Sprünge zu erklären.Das eine hat mit dem anderen nichts zu tun, zumal die VR-Tests ja paar Jahre (Ende 2016) auf dem Buckel haben.

Belastbare Belege für das Softwarescheduling bei nVidia hat die Firma AFAIK nie vorgelegt. In meinen Augen sprachen allein die hohen Zugewinne/Abhängigkeit von CPU Singlethreadleistung und gute Optimierbarkeit via Treiber bzw. Software sehr dafür. Geringe Latenzen, hoher Takt bei bis zu 2 Cores, Intel war immer notwendig. Nvidia konnte nach meiner Erinnerung bei Rückständen zum Launch im Treiber bislang immer gut nachlegen, ohne Patches der Gameentwickler. Wenn es nicht belegt ist, dann sollte es als Behauptung gekennzeichnet und nicht als Fakt dargestellt werden!

Iscaran
2019-02-13, 14:31:58
@Leonidas:

Ich glaube du hast ein Tippfehler (oder Rechenfehler) bei den Werten der 2080-FE

Rechne ich den Mittelwert aus den erreichten Benchmarkwerten mit den Zahlen wie sie da stehen ergibt sich ein Mittel von 106.4% und NICHT 107.4 % !

Die Standarabweichung ist 2.9%.

Also (106.4+-2.9)%.

Die anderen Spalten habe ich nicht nachgerechnet nur diese eine weil ich im Kopf auf eine andere Zahl kam und dachte ich läge daneben hab ichs nochmal genau nachgerechnet.

Gast Ritis
2019-02-13, 14:46:31
Das eine hat mit dem anderen nichts zu tun, zumal die VR-Tests ja paar Jahre (Ende 2016) auf dem Buckel haben.
Wenn es nicht belegt ist, dann sollte es als Behauptung gekennzeichnet und nicht als Fakt dargestellt werden!

TimeSpy und diese VR Benchmarks wurden veröffentlicht als die Designentscheidungen für Raytracing bei nVidia längst feststanden.

Behauptungen aus Erfahrung kennzeichne ich nie, ich schreibe meine Meinung so wie alle anderen auch. Heute wird ja selbst auf Newsseiten nicht mal mehr Kommentar von Artikeln getrennt. ;) Wenn ich etwas belegen will poste ich Links.

Zumindest ist die Kommentarfunktion in erster Linie noch Kommentar. Also per Definition sozusagen.

FlashBFE
2019-02-13, 15:21:24
@Leonidas:

Ich glaube du hast ein Tippfehler (oder Rechenfehler) bei den Werten der 2080-FE

Rechne ich den Mittelwert aus den erreichten Benchmarkwerten mit den Zahlen wie sie da stehen ergibt sich ein Mittel von 106.4% und NICHT 107.4 % !

Die Standarabweichung ist 2.9%.

Also (106.4+-2.9)%.

Die anderen Spalten habe ich nicht nachgerechnet nur diese eine weil ich im Kopf auf eine andere Zahl kam und dachte ich läge daneben hab ichs nochmal genau nachgerechnet.

Er wichtet jeden Test nochmal einzeln, je nach Anzahl der Einzelbenchmarks pro Test und eventuell auch anderen Kriterien. Ich fand das schon immer ziemlich intransparent und angreifbar, aber es ist eben sein geheimes Excel-Voodoo. ;)

Iscaran
2019-02-13, 15:27:22
Er wichtet jeden Test nochmal einzeln, je nach Anzahl der Einzelbenchmarks pro Test und eventuell auch anderen Kriterien.


Oh - danke für den Hinweis. Gerade auch nochmal das "kleingedruckte" gesehen dass er eine Wichtung vornimmt. Schade dass Leonidas die Wichtungsfaktoren nicht darstellt.

Wichte ich mit der Anzahl Tests der Seiten bekomme ich aber auch nur 107.0 statt 107.4 % (bei 219 Tests gesamt). Also muss der Gewichtungsfaktor noch ein anderer Sein als nur Zahl der Tests.

Naja so oder so ist es nur eine Kleinigkeit um die es sich vom arithmethischen Mittel verschiebt.

Gast
2019-02-13, 17:25:53
Eine sehr interessante Fragestellung. Was wäre, wenn AMD RT gebracht hätte und NV dagegen die 16 GB? Ich glaube, die Enthusiasten-Kreise wären voll von "unter 16 GB geht gar nix mehr" Aussagen.

Warum sollte es?
Es ändert nichts am Sachverhalt , nur weil NVIDA mit 16GB auf der Karte steht aber die restlichen Disziplienen wie Perfromance,Leistungsaufnahme,Temperaturentwicklung,Lautstärke und Preis nicht konkurenzfähig sind.
Es ist genauso richtig das RT zurzeit wenig Mehrwert bietet aber irgendwer muss halt mal anfangen und Fläche für solche Spielchen opfern ohne das man massive Abstriche bei der Leistungsaufnahme oder Performance zum Vorgänger inkauf nehmen muss.
Wenn ich vom Autor solche Kommentare und Sandkastenlogikbomben lese dann frag ich mich wo das tief rote Biasmeter wie bei anderen hier vertretenen Moderatoren in der Sig bleibt?

Das Problem ist nicht das AMD RT nicht gebracht hat sondern selbst mit dickem Prozessvorteil + HBM nichtmal das traditionelle Rendern auf einem konkurenzfähigem Level hinbekommt. Man hat sogar noch die Frechheit bei unverhältnissmässig hohen 300W Verbrauch und nicht gerade günstigem UVP von 729€ eine Kühlösung auf die Karte zu schnallen sowie mit einem Läufterprofil zu versehen das man denk man steht bei Delta in der Hochdrezahltestabteilung.
Wenn diese mehrfachen Fehlgriffe mit dem Argument hey die haben aber doppelten Vram ausgeglichen werden können dann frag ich ob hier überhaupt die Gesamtheit der Karte gewertet wird oder nur die GB 16Vram 5fach gewichtet.

y33H@
2019-02-13, 18:31:14
TimeSpy und diese VR Benchmarks wurden veröffentlicht als die Designentscheidungen für Raytracing bei nVidia längst feststanden. Mag sein, dennoch ist Ray Marching uralt und hat erstmal nichts mit den RT-Cores zu tun.

Gast
2019-02-13, 21:42:20
Sehr schöne Zusammenfassung, aus der 7 ist mehr gewaorden als ich je vermutet hätte. Gerade neuere Spiele und optmiert scheinen ihr zu liegen. Profi Sachen sowieso.

RT ist bisher nur ein Kropf der die Entwcikler viel Zeit und Mühe kostet, wo man sich früher über DX12 beschwerte muss man heute klotzen wenn RTX und NGX noch dazu kommt. Ob das auf Dauer gut geht ist zu bezweifeln. Die Spiele sehen ohne auch ausreichend gut aus.

Läßt ja auf Navi hoffen. Zu kaufen kriegt man keine, überall vergriffen. AMD hatte also mit 16GB den richtigen Riecher.

Verdammt.^^

Flusher
2019-02-13, 22:13:39
Die Standard-Benchmark-Parküre ;) der großen Seiten wurden vor vielen Monaten zusammengestellt und werden aus Konsistenz-/Vergleichsgründen lange beibehalten. Natürlich könnte man auch wild durchwechseln und jedes neue Spiel einbauen, allerdings würden die Tester dann nichts anderes machen, als nachzutesten. Dann gibt es keine Texte mehr und nicht eine Randbetrachtung. Letztere vermisse ich in der Launch-Analyse übrigens etwas. Compute, 5K, sonstwas? :)

MfG,
Raff

Was ich hingegen im Fazit vermisse ist neben der Nennung der besseren Preise bei der 2080, auch das erweiterte Featureset - RT, DLSS, TensorCores...

Klar jedes für sich ist sicher nicht einer großen Rede wert, und die Durchschlagskraft muss sich auch noch unter Beweis stellen, aber zusammengenommen, ist die 2080 dann einfach das rundere Produkt.

Gast Ritis
2019-02-13, 23:30:05
Mag sein, dennoch ist Ray Marching uralt und hat erstmal nichts mit den RT-Cores zu tun.
Aus dem Whitepaper:

RT Cores accelerate Bounding Volume Hierarchy (BVH) traversal and ray/triangle intersection testing (ray casting) functions.
Das BVH ist nichts anderes als nVidias eigene Methode für RayMarching.
Bitte in die Materie einlesen, es scheint bei dir grobe Missverständnisse zu geben. Einen RayMarching Shader durch einen eigenen angepassten zu ersetzen der die RT Cores nutzt sollte für den NVIDIA Treiber kein Problem sein.

Das ist aber nicht die richtige Frage. Die Frage wäre eher warum in aller Welt ein VR Benchmark für Rastergraphik überhaupt Ray Marching einsetzt. Aktuelle VR Titel machen das nicht, diese VR Benches sind eigentlich völlig irrelevant die Leistung in VR Toptiteln zu bewerten...

Leonidas
2019-02-14, 03:46:07
ohh unsere Ergebnisse weichen zu stark ab. Wir müssen nachtesten (https://www.computerbase.de/2019-02/amd-radeon-vii-sonder-test/).



Genau das soll es eben nicht sein. Ich will da den einzelnen Testern nicht zu nahe treten. Ich werte aus, was vorhanden ist. Das Ergebnis findet sich von alleine. Bei 18 ausgewerteten Tests macht es im übrigen nur eine Nachkomma-Differenz, ob ich die CB weglassen (es also nur 17 Tests sind).




Leistungsaufnahme einer RTX 2070 Referenz bei Golem sind 174 Watt.

https://www.golem.de/news/geforce-rtx-2070-im-test-diese-turing-karte-ist-ihr-geld-wert-1810-136973-3.html


Übersehen, danke, ich trage es nach.






Rechne ich den Mittelwert aus den erreichten Benchmarkwerten mit den Zahlen wie sie da stehen ergibt sich ein Mittel von 106.4% und NICHT 107.4 % !
Die Standarabweichung ist 2.9%.
Also (106.4+-2.9)%.


Da kommt kein einfaches Mittel zum Einsatz. Es wird ein geometrisches Mittel über alle Testquellen gelegt, über die gesamte Tabelle. Das garantiert, das alle Ergebnisse immer zurückrechenbar sind und unter jedem Viewpoint (egal welche Karte als 100% definiert ist) immer wieder dieselben Relationen herauskommen.

Die Gewichtung selber ist dagegen fast nicht von Belang, hat meist nur einen Effekt im Nachkommabereich.





Was ich hingegen im Fazit vermisse ist neben der Nennung der besseren Preise bei der 2080, auch das erweiterte Featureset - RT, DLSS, TensorCores...



Ich bin mit Fazit und Text ebenfalls nicht wirklich zufrieden. Es sollte einfach nur fertig werden, da ist dann leider nicht jeder mögliche Gedanke eingeflossen.

Gast Ritis
2019-02-14, 16:16:56
Hier noch ein guter kurzer Artikel für ambitionierte Amateure Nvidias RTX besser zu verstehen...
https://www.pc-better.com/titan-v-dxr-analysis/
;D


Wenn man etwas mehr Ahnung hat und haben will ist es besser man geht durch die Whitepapers und die ersten Kapitel der Developer Guidelines zu RTX von nVidia.

Gast
2019-02-14, 19:25:44
Als Pluspunkte gibt es daneben die gleich 16 GB Grafikkartenspeicher sowie die feine Undervolting-Eignung, als Negativpunkte darf man die schwache Übertaktungseignung sowie die hohe Lautstärke des Referenzdesigns zählen.

Ob eine vorhandene Übertaktungseignung positiv zu bewerten ist könnte man ja noch Diskutieren, im Endeffekt bedeutet es schließlich, dass eine Karte out of the box nicht ihr volles Potential entfaltet.

Undervolting-Eignung ist dagegen ein klarer und dicker Minuspunkt, da es nichts anderes bedeutet, als dass die Karte wie sie geliefert wird viel zu viel Strom frisst.

Ich will, dass ein Produkt für das ich hunderte Euro ausgebe schon vom Hersteller und mit Garantie in einem Zustand ankommt, dass es gut performt und nicht übermäßig Energie braucht. Ein Produkt sollte so bewertet werden, und nicht wie man es nach Bastelarbeit vielleicht hinbekommt.

db(A)
2019-02-14, 22:32:07
@Leonidas

Trotzdem - ein wunderbarer Artikel mit der mit Abstand besten Übersicht der Leistung der Radeon VII. Ich persönlich tue mir mit meiner Entscheidungsfindung durch Deine Analysen wesentlich leichter als durch das Lesen der Einzeltests.
Klar, jetzt kommen die restlichen Nachtests mit UV und OC. Vielleicht solltest Du mit einer Änderung und Ergänzung des Textes und des Fazits solange warten, bis da neue oder gefestigte Erkenntnisse entstehen. So hätte Dein Artikel im ganzen noch mehr Gewicht durch neue Inhalte.
Mach' Dir keinen Kopp - hervorragende Arbeit!

Lehdro
2019-02-15, 14:22:41
Undervolting-Eignung ist dagegen ein klarer und dicker Minuspunkt, da es nichts anderes bedeutet, als dass die Karte wie sie geliefert wird viel zu viel Strom frisst.
Hallo Tellerrand: Eine 1050 Ti wurde zurecht für die erreichte Performance im eng gestecktem Powerkorsett gelobt. Jetzt der Knaller: Auch die 1050 Ti konnte ich noch super undervolten. Und das soll dann negativ sein?

Ich will, dass ein Produkt für das ich hunderte Euro ausgebe schon vom Hersteller und mit Garantie in einem Zustand ankommt, dass es gut performt und nicht übermäßig Energie braucht. Ein Produkt sollte so bewertet werden, und nicht wie man es nach Bastelarbeit vielleicht hinbekommt.
Es wird so bewertet wie es kommt. Eventuell mögliche Eignung zum Undervolten ist ein ZUSÄTZLICHER Punkt. Stell dir zwei Karten vor:

- eine Radeon VII die man nicht undervolten kann weil es kein Tool gibt was das unterstützt
- eine Radeon VII die im Treiber einen Undervolting Button (2 Clicks = 40W Ersparnis) hat = die Radeon VII die in der Realität existiert!

Die soll ich jetzt gleichwertig bewerten vom Stromverbrauch und Lautstärke, ok, aber insgesamt ist die UV fähige Karte definitiv höher zu werten. Wenn du das anders siehst bist du nicht objektiv.

Gast
2019-02-15, 15:39:04
Hallo Tellerrand: Eine 1050 Ti wurde zurecht für die erreichte Performance im eng gestecktem Powerkorsett gelobt. Jetzt der Knaller: Auch die 1050 Ti konnte ich noch super undervolten. Und das soll dann negativ sein?

Es wird so bewertet wie es kommt. Eventuell mögliche Eignung zum Undervolten ist ein ZUSÄTZLICHER Punkt. Stell dir zwei Karten vor:

- eine Radeon VII die man nicht undervolten kann weil es kein Tool gibt was das unterstützt
- eine Radeon VII die im Treiber einen Undervolting Button (2 Clicks = 40W Ersparnis) hat = die Radeon VII die in der Realität existiert!

Die soll ich jetzt gleichwertig bewerten vom Stromverbrauch und Lautstärke, ok, aber insgesamt ist die UV fähige Karte definitiv höher zu werten. Wenn du das anders siehst bist du nicht objektiv.

Wenn man die Karte quasi Undervolten muss um in erträgliche/Konkurenzfähige/dem Stand der Technik entsprechende ( such dir was aus ) Lautsträke& Abwärme sowie Leistungsaufnahmeregionen zu kommen dann ist die Möglichkeit dieses überhaupt zu können sicher von Vorteil.
Dieses aber im Vergleich zu den am Markt befindlichen Lösungen die das alles gleich oder sogar besser im Stockzustand können und "on top" vergleichbares UV-Potential bieten als positiv Argument im Artikel für die Karte zu werten eine verzehrte Darstellung.

Lehdro
2019-02-15, 22:51:51
Wenn man die Karte quasi Undervolten muss um in erträgliche/Konkurenzfähige/dem Stand der Technik entsprechende ( such dir was aus ) Lautsträke& Abwärme sowie Leistungsaufnahmeregionen zu kommen dann ist die Möglichkeit dieses überhaupt zu können sicher von Vorteil.
Dieses aber im Vergleich zu den am Markt befindlichen Lösungen die das alles gleich oder sogar besser im Stockzustand können und "on top" vergleichbares UV-Potential bieten als positiv Argument im Artikel für die Karte zu werten eine verzehrte Darstellung.
Also sollen wir es entweder nicht erwähnen oder lieber negativ werten? Läuft bei dir mit der Objektivität.

Daredevil
2019-02-15, 22:59:23
UV Eignung gibt es im Grunde bei jeder Karte, das ist nun mal kein Pluspunkt.
Man kann schon dabei schreiben "Mit UV ist die Karte halt nicht so scheiße, sondern okay", aber das bedeutet eben auch, dass mit UV andere jetzt schon gute Karten noch besser werden. Sprich der Abstand zum besseren Modell steigt in keinem Fall.

Man kann also auch bei einer 2080ti dabei schreiben, dass sie mit UV 80w spart bei gleicher Leistung oder sie 10% Leistung einbüßt bei 100w weniger Aufnahme. Mit der Karte hat man aber kein Mitleid, um sie auf "Okay" trimmen zu müssen.
Wo gibt es RTX2080 UV Tests? Das betrifft immer nur Vega, weil Stock Referenz Vega weit weg von "gut" ist.

Gast
2019-02-15, 23:14:15
Also sollen wir es entweder nicht erwähnen oder lieber negativ werten? Läuft bei dir mit der Objektivität.

Nein einfach die Brille abnehmen und die Situation im im real existierenden Umfeld und nicht isoliert betrachten. Bei klar positiven Eigenschaften schaffst man es komischerweise doch auch.
Es ist bezeichnend das jemand der einen Zustand der einseitigen Betrachtung verteitigt und andere für mangelnde Objektivität rügt.

Lehdro
2019-02-16, 01:17:58
UV Eignung gibt es im Grunde bei jeder Karte, das ist nun mal kein Pluspunkt.
Zwei Sachen:
- bei AMD gibt es im Treiber einen UV Button, wortwörtlich 2 Klicks
- UV ist nicht gleich UV


Man kann schon dabei schreiben "Mit UV ist die Karte halt nicht so scheiße, sondern okay", aber das bedeutet eben auch, dass mit UV andere jetzt schon gute Karten noch besser werden. Sprich der Abstand zum besseren Modell steigt in keinem Fall.
UV ist nicht gleich UV.
Wenn Karte A im Schnitt um 0,1V UV werden kann wird sie den Abstand auf Karte N die nur um 0,05V UV werden kann definitiv verringern. Simple Physik.


Das betrifft immer nur Vega, weil Stock Referenz Vega weit weg von "gut" ist.
Ja, kreidet das mal den Presseleutchen an. Gleiches Recht für alle Karten.

Trotzdem würde ich wohl behaupten dass das gerade bei AMD Karten so krass gut geht weil AMD dort keine Feinabstimmung vorab vornimmt. Das Potenzial ist quasi immer größer als bei NV. Von daher logisch dass dort auch die Versuchung größer ist, weil der Gewinn größer ist.

Gast
2019-02-16, 10:49:53
Zwei Sachen:
- bei AMD gibt es im Treiber einen UV Button, wortwörtlich 2 Klicks
- UV ist nicht gleich UV


UV ist nicht gleich UV.
Wenn Karte A im Schnitt um 0,1V UV werden kann wird sie den Abstand auf Karte N die nur um 0,05V UV werden kann definitiv verringern. Simple Physik.


Ja, kreidet das mal den Presseleutchen an. Gleiches Recht für alle Karten.

Trotzdem würde ich wohl behaupten dass das gerade bei AMD Karten so krass gut geht weil AMD dort keine Feinabstimmung vorab vornimmt. Das Potenzial ist quasi immer größer als bei NV. Von daher logisch dass dort auch die Versuchung größer ist, weil der Gewinn größer ist.

Behaupten kann man viel , Pascal und Turing Karten lassen sich im selben Rahmen UVen , aber wenn Mans halt nicht gegenüber stellt und vergleicht kommen genau solche Märchen heraus und Vega wird im für eine Eigenschaft die weder ein Alleinstellungsmerkmal noch besonders gut geht positiv gewertet während bei Mitbewerber Produkten nichtmal zu Sprache kommt das diese das genauso können , geschweige denn dafür ein „pro“ einfahren können.

Es bestreitet keiner das man Vega uven kann und das sich das positiv auf die betriebsparameter auswirkt, das Problem hier ist die darstellen des selben als tolles Feature was nur bei Vega Anwendung findet und die Karten in die Nähe zur Stock Konkurrenz bringen kann.

So eine Darstellung nenne ich neunmal stark verzehrt

Lehdro
2019-02-17, 01:27:15
Behaupten kann man viel , Pascal und Turing Karten lassen sich im selben Rahmen UVen
Wieviele Pascals hast du UVed? Ich kann aus der Erfahrung her von 5 Stück berichten - nur eine lies sich mal eben um 0,1 V bei selben Takt UVen - allerdings nur weil da eine Wakü draufgeschraubt ist - nämlich meine eigene Titan X. Die 1060, 1050Ti und die 1070 gingen zwar auch gut zu UVen, allerdings sind 0,04 V-0,07 V doch noch ein Stückchen von 0,1 V entfernt. Meine Vega 56 und die 64 von einem Freund gingen da auch deutlich mehr in die Richtung -0,1 V+ - sowas ist bei AMD zwecks der fehlenden Feinabstimmung nunmal die Norm. Selbst die RX 470 hat knapp -0,09 V mitgemacht und lief danach trotz leichtem OC endlich nicht mehr ins Powerlimit.

aber wenn Mans halt nicht gegenüber stellt und vergleicht kommen genau solche Märchen heraus und Vega wird im für eine Eigenschaft die weder ein Alleinstellungsmerkmal noch besonders gut geht positiv gewertet während bei Mitbewerber Produkten nichtmal zu Sprache kommt das diese das genauso können , geschweige denn dafür ein „pro“ einfahren können..
Ich habe damit Erfahrung, du anscheinend nicht. UV geht nunmal traditionell bei AMD besser.


So eine Darstellung nenne ich neunmal stark verzehrt
Jaja, sicher. Nur weil ich dir aufzeige das AMDs herangehensweise nunmal ein zweischneidiges Schwert ist, da man einen durchaus hohen Verbrauch out of the box aufweist, kann man doch genauso gut erwähnen dass deswegen auch ein kleines Trostpflaster existiert: AMD näht die Voltage nunmal nicht auf Kante, sondern lässt ordentlich Luft. Das die UV "Funktion" sogar mittlerweile mithilfe eines simplen Schalters in den Treiber gewandert ist unterstützt das doch nur noch. Sowas hat NV ohne 3rd Party Tools nicht einmal.

Gast
2019-02-17, 04:01:54
Wieviele Pascals hast du UVed? Ich kann aus der Erfahrung her von 5 Stück berichten - nur eine lies sich mal eben um 0,1 V bei selben Takt UVen - allerdings nur weil da eine Wakü draufgeschraubt ist - nämlich meine eigene Titan X. Die 1060, 1050Ti und die 1070 gingen zwar auch gut zu UVen, allerdings sind 0,04 V-0,07 V doch noch ein Stückchen von 0,1 V entfernt. Meine Vega 56 und die 64 von einem Freund gingen da auch deutlich mehr in die Richtung -0,1 V+ - sowas ist bei AMD zwecks der fehlenden Feinabstimmung nunmal die Norm. Selbst die RX 470 hat knapp -0,09 V mitgemacht und lief danach trotz leichtem OC endlich nicht mehr ins Powerlimit.

Ich habe damit Erfahrung, du anscheinend nicht. UV geht nunmal traditionell bei AMD besser.


Jaja, sicher. Nur weil ich dir aufzeige das AMDs herangehensweise nunmal ein zweischneidiges Schwert ist, da man einen durchaus hohen Verbrauch out of the box aufweist, kann man doch genauso gut erwähnen dass deswegen auch ein kleines Trostpflaster existiert: AMD näht die Voltage nunmal nicht auf Kante, sondern lässt ordentlich Luft. Das die UV "Funktion" sogar mittlerweile mithilfe eines simplen Schalters in den Treiber gewandert ist unterstützt das doch nur noch. Sowas hat NV ohne 3rd Party Tools nicht einmal.

1080 bei 1875 mhz von 1.062v auf 0,850 v sind mal Schlappe 0,212v
1060 1860mhz von 1,05v auf 0,85v ( -0,2v)wobei die 1860MHz hier sogar OC sind die erreicht die Stock Karte mit ihrem profil nicht( werte jeweils warm unter Luft)

Und ich bin nicht der einzige der ne 1080 auf 150w oder ne 1070 auf 120w nageln ohne Einschränkungen bei der Leistung kann wenn du selbst hier im 3dcenter mal suchst .

Gast
2019-02-17, 15:15:11
Keine Ahnung was du da bei Pascal gemacht hast aber deine Ergebnisse sind gelinde gesagt mit dem was die Meisten im Schnitt erreichen unter aller Sau.

Und bevor ich mich als großen Checker hinstelle und anderen vorwerfe keine Ahnung zu haben ( im übrigen immer ein super Argument bei Diskusionen ) sollte ich mich evtl. erst einmal umsehen wo im Feld ich mich mit meinen Ergebnissen bewege und Selbstreflektion betreiben.

Ich kenne keine Pascal dei nicht wenigstens ~2GHz @ 1,00V macht -0,062 V + ~200 Mhz wenn man`s aufs 1080er Ref Model bezieht.

Ich kene auch Keine die mehr als 0,875V für ~1850Mhz brauchte -0,187V bei dauerhaften halten des MAX boost durch nichterreichen des PW Limit bezogen auf Ref. Die besten Modelle schafften das auch knapp unter 0,85V was mal ebend 0,2V weniger sind.

Bisher selbst in den Fingern gehabt hab aber teils nicht mein Besitz :

EVGA 1080 FTW ( 2016er noch im Besitz)
EVGA 1080 SC ( 2017er )
2x1080 Ti FE ( beides in 2017er war nen SLI Setup )
Zotac 1070 Mini ( 2018er )
Gainward 1060 Dual ( 2016er noch im Besitz )

Bei der Stückzahl und Streung über Hersteller und Zeitraum is es recht unwahrscheinlich das ich hier nur Sahnestücke hatte.

Ich hatte noch keine Turing selbst in der Hand was ich aber bisher gelesen/gesehen habe bewegt sich in etwas niedrigerem Spannungsrahmen für vergleichbare Taktraten bis ~2Ghz.

Also ich seh da bei weitem keine schlechteren UV Eigenschaften wie bei z.B. Vega und genau deshalb finde ich diese Argument, aber Vega kann man ja UVen dann wird sie im Bereich, Verbrauch,Abwärme,Taktstabilität sowie je nach "Kühler Lautstärke" konkurenzfähig und hat noch Potential hier gibts nen dicken Pluspunkt einfach nur eine Verzehrte Darstellung.

Paar Quellen mit Ergebnissen zu Pascal:

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=574892
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=589265
http://extreme.pcgameshardware.de/overclocking-grafikkarten/472166-gtx-1080-ti-over-undervolting-overclocking-80.html?
https://www.youtube.com/watch?v=XZtOYbTq1gA

Hier Turing:

https://youtu.be/5a1GIrSd8Es?t=2100
https://www.youtube.com/watch?v=3XjyBWPqtM4
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=589265
https://www.hardwareluxx.de/community/f140/gtx1070-undervolting-1151477.html

Lehdro
2019-02-18, 16:14:37
1080 bei 1875 mhz von 1.062v auf 0,850 v sind mal Schlappe 0,212v
1060 1860mhz von 1,05v auf 0,85v ( -0,2v)wobei die 1860MHz hier sogar OC sind die erreicht die Stock Karte mit ihrem profil nicht( werte jeweils warm unter Luft)

Und ich bin nicht der einzige der ne 1080 auf 150w oder ne 1070 auf 120w nageln ohne Einschränkungen bei der Leistung kann wenn du selbst hier im 3dcenter mal suchst .
Keine Ahnung was du da bei Pascal gemacht hast aber deine Ergebnisse sind gelinde gesagt mit dem was die Meisten im Schnitt erreichen unter aller Sau.

Und bevor ich mich als großen Checker hinstelle und anderen vorwerfe keine Ahnung zu haben ( im übrigen immer ein super Argument bei Diskusionen ) sollte ich mich evtl. erst einmal umsehen wo im Feld ich mich mit meinen Ergebnissen bewege und Selbstreflektion betreiben.

Ich kenne keine Pascal dei nicht wenigstens ~2GHz @ 1,00V macht -0,062 V + ~200 Mhz wenn man`s aufs 1080er Ref Model bezieht.

Ich kene auch Keine die mehr als 0,875V für ~1850Mhz brauchte -0,187V bei dauerhaften halten des MAX boost durch nichterreichen des PW Limit bezogen auf Ref. Die besten Modelle schafften das auch knapp unter 0,85V was mal ebend 0,2V weniger sind.

Uuiuiu, direkt die Obstabteilung mal anrufen, Äpfel und Birnen.

Mit UV meine ich simples UV mit einem offset OHNE die Taktraten anzufassen. Da boostet die Karte dann vielleicht mal ein paar Stufen höher (zb wegen der Temperatur), aber nichts was massiv in die Powertable eingreift. UV halt und nicht UV+OC etc.

Ich weiß ja nicht was ihr so mit UV meint, aber den Curve Editor meine ich bestimmt nicht. Ich rede die ganze Zeit bei der Radeon VII von einem UV Schalter (2 Klicks) im Treiber und ihr kommt jetzt hier mit dem Curve Editor angerannt - netter Vergleich. Kann man dann bei der Radeon VII die einzelnen Powerstages auch noch anpassen (einfacheres Tool kommt sicherlich noch), dann kann man das gegenüber dem Curve Editor vergleichen - aber das ist und bleibt eine ganz andere Ebene als eine offizielle Treiberfunktion.

Mal so als Denkansporn: Meine Titan X boostet stock mit Wakü auf knapp 1900 MHz mit 1,062V. UV geht ca mit 0,962V klar bei den Taktraten - das sind keine 0,2 V oder 0,1 V+ laut meiner Rechnung. Mit offenem Powerlimit säuft sie dann auch mal 1,093V ohne große Mehrleistung, grandios (soll ich das jetzt als Basis nehmen um mir das schön zu rechnen?). Mit Curve Editor ist der Sweetspot hingegen 0,981V @ 2025 MHz, was deutlich besser ist als alles was man mit offset erreichen kann - allerdings auch deutlich mehr Fummelarbeit. Natürlich könnte ich jetzt den Takt einfach auf 18xx MHz festnageln und die Voltage auf 0,8xxV absenken, allerdings ist das dann kein einfaches UV mehr, sondern ein massiver Eingriff in die Boosttabelle via Curve Editor. Eben nichts was jeder mal so einfach machen kann - anders als eine Treiberfunktion die offiziell angeboten wird - kann nicht so schwer sein dazwischen zu differenzieren, oder?

gbm31
2019-02-18, 16:31:32
Ich kenne keine Pascal dei nicht wenigstens ~2GHz @ 1,00V macht -0,062 V + ~200 Mhz wenn man`s aufs 1080er Ref Model bezieht.

Ich kene auch Keine die mehr als 0,875V für ~1850Mhz brauchte -0,187V bei dauerhaften halten des MAX boost durch nichterreichen des PW Limit bezogen auf Ref. Die besten Modelle schafften das auch knapp unter 0,85V was mal ebend 0,2V weniger sind.

Der Oberchecker...

Meine 1070Ti FE:
Für überall stabile 1925MHz waren 1000mV nötig.
Unter 925mV gabs es keinen stabilen Betrieb ohne den default Takt zu senken.

Hört doch bitte auf mit 2-5 Karten Erfahrung gleich über hunderttausende von Chips urteilen zu können, das ist mehr als lächerlich!

Gast
2019-02-18, 17:19:26
Uuiuiu, direkt die Obstabteilung mal anrufen, Äpfel und Birnen.

Mit UV meine ich simples UV mit einem offset OHNE die Taktraten anzufassen. Da boostet die Karte dann vielleicht mal ein paar Stufen höher (zb wegen der Temperatur), aber nichts was massiv in die Powertable eingreift. UV halt und nicht UV+OC etc.

Ich weiß ja nicht was ihr so mit UV meint, aber den Curve Editor meine ich bestimmt nicht. Ich rede die ganze Zeit bei der Radeon VII von einem UV Schalter (2 Klicks) im Treiber und ihr kommt jetzt hier mit dem Curve Editor angerannt - netter Vergleich. Kann man dann bei der Radeon VII die einzelnen Powerstages auch noch anpassen (einfacheres Tool kommt sicherlich noch), dann kann man das gegenüber dem Curve Editor vergleichen - aber das ist und bleibt eine ganz andere Ebene als eine offizielle Treiberfunktion.

Mal so als Denkansporn: Meine Titan X boostet stock mit Wakü auf knapp 1900 MHz mit 1,062V. UV geht ca mit 0,962V klar bei den Taktraten - das sind keine 0,2 V oder 0,1 V+ laut meiner Rechnung. Mit offenem Powerlimit säuft sie dann auch mal 1,093V ohne große Mehrleistung, grandios (soll ich das jetzt als Basis nehmen um mir das schön zu rechnen?). Mit Curve Editor ist der Sweetspot hingegen 0,981V @ 2025 MHz, was deutlich besser ist als alles was man mit offset erreichen kann - allerdings auch deutlich mehr Fummelarbeit. Natürlich könnte ich jetzt den Takt einfach auf 18xx MHz festnageln und die Voltage auf 0,8xxV absenken, allerdings ist das dann kein einfaches UV mehr, sondern ein massiver Eingriff in die Boosttabelle via Curve Editor. Eben nichts was jeder mal so einfach machen kann - anders als eine Treiberfunktion die offiziell angeboten wird - kann nicht so schwer sein dazwischen zu differenzieren, oder?

Ach es sind nur die Werkzeuge genehm die dem wertem Herren in seine Auslegung von UV passen , komm lass gut sein, schenk ich dir, hast natürlich recht, erkenn es jetzt auch was ich mache ist kein UV ich greife in die Boostabelle ein sorry das ich das so hart verwechselt habe gelobe Besserung!!!

@HBM31 geb ich dir Recht wette sogar es gibt Tasks da ist der Takt selbst bei der Spannung nicht stabil gerade im Redering oder Computebereich und es gibt spiele da geht noch weniger Voltage , so is das halt probieren was für seinen persönlichen use case reicht.

Platos
2019-02-18, 19:12:00
Bei meinen 2 1080-er (einmal msi, einmal gigabyte), die ich hatte, konnte ich ohne Spannungsanhebung auf real ~2050Mhz takten. Da ich mich mit der Default-Taktrate nicht zufrieden gebe, habe ich aber (logischerweise) mit 2050Mhz nie grossen erfolg gehabt bei undervolting. Genau gesagt im 0,02-0,03v Bereich (Takrate von 2050MHz darf man aber nicht vergessen).

Eine 1060-er die ich hatte, war etwa auf dem selben Niveau. Ich nutze aber wie gesagt nicht den Default-Takt und untervolte dann, was ja eher der Punkt beim Undervolting ist.

Aber die Frage ist ja, was UV nvidida vs UV AMD dann schlussendlich darstellt. Es geht ja darum, dass die (High-End) AMD Karten der letzten Jahre Stromhungrig, Laut, heiss und z.T nicht mal die Taktraten halten können. Und selbst wenn man bei AMD 90-100mV untervolten kann und bei nvidida nur 60-80mv. Dann ist AMD in einigen fällen trotzdem erst nach dem UV gerade mal in der Region, wo nvidia z.T ohne UV ist.

Dazu kommt noch, dass bei AMD bei Vega die Verfügbarkeit von Customs unterirdisch war und jetzt bei der VegaVII nicht mal angekündigt.

Anmerkung: Die Ref.-Designs waren bei nvidia bis vor Turing aber auch meistens kacke und gerade bei Pascal konnten die Taktraten nicht gehalten werden. Aber die Ref.-Designs waren ja bekanntlich "immer" kacke (sowohl bei nvidida als auch AMD). Ergo gehts mir hier um Custom-Designs.