PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 14. Juni 2019


Leonidas
2019-06-15, 10:37:41
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-14-juni-2019

Schnoesel
2019-06-15, 10:47:50
@ Leo

Es wäre eventuell noch die Erwähnung wert, dass B550 Mainboards auch ohne PCIe4 Unterstüzung des Chipsatzes, PCIe4 von der CPU auf dem ersten M2 und ersten Graka Slot bieten könnten.

Leonidas
2019-06-15, 11:25:03
Das muß sogar zwingend rein. Sätze hinzugefügt zum Thema PCI Express 4.0 auf Ryzen 3000:

Dies gilt natürlich nur bezüglich der durch den Chipsatz selber bereitgestellten Kapazitäten – an den vom Prozessor selber kommenden 20 PCI Express 4.0 Lanes (16 für die Grafikkarte, 4 für eine M.2-SSD) ändert sich nichts.
Aber wie gesagt ist davon die grundsätzliche Fähigkeit zu PCI Express 4.0 bei Grafikkarte sowie erster SSD unbenommen.

Gast
2019-06-15, 12:04:06
Moin,

soll der Low-Cost-Chipsatz, wie im Artikel geschrieben, tatsächlich A320 heißen? Oder war hier ein zukünftiger A520 gemeint?

cat
2019-06-15, 12:27:52
Das Limitieren von AMD über die Chip-Power führt bisher auch dazu, dass im Limit eine Video-Encodierung ent-priorisiert wird und es zu Framedrops kommen kann.
Dieses Verhalten konnte ich allerdings bei Nvidia-Karten noch nicht bestätigen.

Ich habe ja ne große Menge an Maxwell II Karten bios-modifiziert und dort gab es neben dem Gesamt-Target auch ein Total-Limit und auch feste Limits für jeden PCIe-Connector und den PCI-Slot, alle waren milliwattgenau einstellbar.

Seit Pascal habe ich keinen Einblick mehr darin gehabt, aber diese Steuerung wird eher smarter denn blöder geworden sein.
----------------------------------------------------------

Beim TR4 und SP3 wird bei PCIe-Lanes und Strom die Pinbelegung ziemlich gleich sein.

Unterschiede werden haupsächlich beim Routing aus dem Sockel die nicht genutzte Sockel-Sockel-Fabric und die RAM-Channel sein.

Sofern die Chiplets nur übers I/O-Die verbunden sind hat die ganze Thematik vermutlich garkeine Schnittpunkte mit dem Sockel sondern ist komplett auf der CPU-Platine gelöst.
--------------------------------------------------------------------------------

Packdichte wird meistens für simpelste SRAM-Zellen angegeben.
Dort ist die Packdichte auch am vergleichbarsten und werbewirksam eine der Höchsten.

Durch die Erhöhung der Buffermenge in Navi ist auch eine Erhöhung der Packdichte erklärbar.
Diese Caches sind meißt SRAM.
[Zwischen dem alten L1 (jetzt L0) und L2 wurde nun eine neue L1-Stufe eingeführt.]

Auch wurde das Design nicht wie Vega "portiert" sondern vermutlich von Beginn an 7nm anvisiert.

Frage:
Die Größe des L2-Cache wurde für Navi noch nich kommuniziert oder ?

von Richthofen
2019-06-15, 14:25:58
Frage:
Die Größe des L2-Cache wurde für Navi noch nich kommuniziert oder ?


Sollten 4MB sein:
https://de.wikipedia.org/wiki/AMD-Radeon-5000-Serie

cat
2019-06-15, 16:19:34
jup passt, hatte ich schlicht überlesen, L1 ist 512 kB
https://hexus.net/media/uploaded/2019/6/2acaceff-ff7a-4d53-91ee-2cd71d23fd7e.PNG

Wenn ich alle Caches und Register für Vega64 und Navi40 zusammenreche komme ich bei:
Vega64 auf 26624 kB (ca. 416 kB CU/Cache-Verhältnis über den ganzen Chip)
Navi40 auf 19008 kB (ca. 475 kB CU/Cache-Verhältnis über den ganzen Chip)

Die Differenz liegt bei der Hinzunahme der:
Navi L1-Caches 4x 128 kB (Chip)
Verdopplung der Scalar Register auf 2x 4 kB (CU)
Verdopplung der Scalar Data Caches 2x 4 kB (CU)

gibt ca. +14,2% Caches und Register je CU für Navi.
Allein diese Erhöhung kann die Packdichten-Differenz erklären.

Gast
2019-06-15, 20:47:34
@Leo
Was haben Partner Cutsomerkarten mit dem Verbrauch einer Referenzkarte zu tun? Selbst wenn Wccftech eine Info haben zu haben sollte, stammt sie nur von einem industriellen Partner und die werden sich hüten etwas über AMD Basign Design Kit an Dritte Preis zu geben.

Die Karten die Du verlinkst oder Wccftech, sind allesamt kein Basic Design Kit. Die Angaben kann Nvidia daher in keinster Form als reale Grundlage für Vergleiche mit deren Referenz hernehmen und genau das muss man kritisieren. Um das abzuschließen, Igors Werte stimmen fast auf das Watt genau, ob das den grünen Foristen passt oder nicht egal. Mehr gibt dem auch nicht hinzuzufügen und zeigt eigentlich nur auf, wie dreist Nvidia derzeit den Markt mit solchen Fakenews manipuliert. Man sollte froh sein, dass AMD das nicht aufgreift und sich diesbezüglich gentelmanhaft verhält, (bisher jedenfalls).

Keine einzige Consumer 2070 verbraucht offizeill 175 Watt, die Mär kann man hier und Nvidia selbst gerne wieder einpacken. Es besteht auch kein Grund dafür, weil es ausser im Fall der FE den Partner überlassen wird und diese Info ist so sicher wie das Amen in der Kirche!

cat
2019-06-15, 22:36:49
Die Founders Edition der 2070 und 2080 liegen 10W mit dem Gesamt-Limit über einer theor. Basis-Version.
https://www.techpowerup.com/vgabios/204549/nvidia-rtx2070-8192-180831 185W
https://www.techpowerup.com/vgabios/203751/nvidia-rtx2080-8192-180828 225W

https://www.techpowerup.com/vgabios/208657/gigabyte-rtx2070-8192-181226 Gigabyte Windforce RTX 2070 175W

https://www.techpowerup.com/vgabios/209872/asus-rtx2080-8192-181022 ASUS 2080 DUAL 215W

Der springende Punkt bei der Gesamt-Power liefert dann das Ergebnis, dass eine 5700XT genausoviel frisst wie eine 2080 aber nur max. 10% schneller ist als eine 2070.
Eine 5700 non-XT vermutlich soviel frisst wie eine 2070 Basis-Version oder FE aber nicht deren Performance mitgehen kann.

Immerhin scheint durch die Bank die Effizienz von sämtlichen starken Pascal-Karten erreicht oder übertroffen zu werden.

MrSpadge
2019-06-15, 23:19:52
Hieraus erklärt sich, wieso wassergekühlte Grafikkarten auch mit exakt demselben Power-Limit und ohne das eine reguläre luftgekühlte Ausführung irgendwelche Temperatur-Probleme hätte, zumeist etwas schneller herauskommen.
Hinzu kommt als mögliche Erklärung, dass zumindest seit Pascal bei nVidia der Takt für alle 10°C mehr um 10 MHz abgesenkt wird. Ist auch physikalisch sinnvoll und man muss bei ner gut gekühlten Karte ja nicht vom schlechtesten Fall ausgehen. Damit alleine dürften WaKü-Karten ca. 20 - 30 MHz gegenüber luftgekühlten Karten gewinnen, auch wenn diese nicht wegen ihrer Temperatur gedrosselt werden.

Außerdem steigt der Stromverbrauch von Chips generell mit der Temperatur. Gerade bei dicken GPUs. Beim GT200 machte das schon ca, 20 W aus, wenn ich mich richtig erinnere (ist ein paar Jahre her..). Damit hat der besser gekühlte Chip bei gleichem Takt automatisch mehr Puffer bis zum Power Limit, d.h. er taktet hoch.

MrS

hmmm
2019-06-16, 00:59:39
Sorry, aber ich glaube du hast die Kernaussage von Igor's Lab nicht verstanden.

Die TDP die nvidia in der Folie schreibt, kann so im leben nicht stimmen.
Daher vergleicht nvidia _mal wieder_ Äpfel mit Birnen.

Gast
2019-06-16, 01:18:56
Was vermutlich bedeutet, falls die Werte der NV-Folie für die AMD nicht völlig aus der Luft gegriffen sind sondern tatsächlich die eingestellten ASIC-Limits sind, dass die kompletten Navi-Karten in der Realität mehr als ihre nominelle Board-Power brauchen werden.

Leonidas
2019-06-16, 05:02:34
Moin,
soll der Low-Cost-Chipsatz, wie im Artikel geschrieben, tatsächlich A320 heißen? Oder war hier ein zukünftiger A520 gemeint?


Es geht um den zukünftigen A520, nicht den vorhandenen A320. Ich fixe den Schreibfehler.




Was vermutlich bedeutet, falls die Werte der NV-Folie für die AMD nicht völlig aus der Luft gegriffen sind sondern tatsächlich die eingestellten ASIC-Limits sind, dass die kompletten Navi-Karten in der Realität mehr als ihre nominelle Board-Power brauchen werden.


Wenigstens einer, der meine (vielleich verschwubbelte) Rede wirklich begriffen hat: NVs angebliche Fake-Angabe zu AMD ist vermutlich korrekt und gibt schlicht AMDs Power-Limit wieder. Und das es bei der 5700Vanilla sehr knapp zur TBP wird, heißt wohl nur, das diese TBP in der Praxis gerissen wird.

hmmm
2019-06-16, 11:33:52
Was vermutlich bedeutet, falls die Werte der NV-Folie für die AMD nicht völlig aus der Luft gegriffen sind sondern tatsächlich die eingestellten ASIC-Limits sind, dass die kompletten Navi-Karten in der Realität mehr als ihre nominelle Board-Power brauchen werden.
Nein, denn wenn man bei den nvidia Karten die ASIC-Power (so wie bei AMD) angeben würde, dann wäre Nvidia (im verhältniss zur BoardPower!) nahezu gleich.
Und in der Realität sieht es doch gerade so aus, dass nvidias Partner sowieso schon die Board-Power "per design" überschreiten.
www.tomshw.de
Genau dieser hier ermittelte Wert wird auch in der Praxis nie überschritten (werden können), dafür sorgt nämlich die sehr aufmerksame und schnell regelnde Firmware. Nvidia macht es sich damit zwar ein wenig leicht, weil man davon ausgeht, dass aktuelle Grafikkarten eh nur noch die 12-V-Schienen extensiv nutzen, aber diesen Umstand machen sich dann gewissen Grafikkartenhersteller wieder zunutze, um faktisch mit der Versorgung einzelner Schaltungsblöcke über die 3.3-Volt-Schiene mehr Luft für die GPU zu lassen. Und wenn es, wie bei der MSI GeForce GTX 1650 Gaming X, etwas unter 5 Watt sind, weil man Dinge wie RGB und Gedöns nicht der Grafik zur Last legen möchte. Aber Kleinvieh macht auch Mist.

Gast
2019-06-16, 13:33:40
Wenigstens einer, der meine (vielleich verschwubbelte) Rede wirklich begriffen hat: NVs angebliche Fake-Angabe zu AMD ist vermutlich korrekt und gibt schlicht AMDs Power-Limit wieder. Und das es bei der 5700Vanilla sehr knapp zur TBP wird, heißt wohl nur, das diese TBP in der Praxis gerissen wird.
1. ...dann schreibst Du zu verworren. Deshalb versteht es niemand.
2. Was wundert Dich daran?

Typical Bord Power ist keine Angabe für die maximale Leistungsaufnahme und TDP war es auch noch nie. Schon dann nicht, wenn sich die Asicpower um bis zu 20% anheben lässt. Wie soll AMD oder jeder andere Hersteller das denn spezifizieren? Er weiß ja nicht was Du machst, wenn er dir ein bestimmtes Leistungspotential mitgibt, im Amerika muss t du alles expliziet benennen. Nvidia liegt doch selbst über diesen Werten (schießen sich also selbst ein Eigentor) und hat einfach Teile ihrer eigenen Architektur bei deren Festlegung plus Vergleichen weggelassen, man hat wohl für sich den Speichercontroller und das Phy+VRAM herausgerechnet und bei AMD draufgeschlagen. Navi ist aber erst mal kein Interposerdesign! Die Quelle scheint es dann schon mit einbezogen zu haben oder wer auch immer. Dann sind die Werte 150W oder 180W eher typical Boardpower, sowie 180W und 225W eher die Limits.

Dann lägen die Karten zwischen 150-180W und 180-225W, so wie die Radeon 7 zwischen 150-300W liegt (laut offizieller Angabe von AMD für die MI's)!

Typical Boardpower CPU?
9900k=95-125W!!!!!
(siehe TDP1 und TDP2!).

Typical Boardpower GPU:
Mid End Graphics Card ($125 to $250):
Load average=110 to 164 W
Idle=8 to 13 W

High End Graphics Card ($251 to $400):
load average=162 to 258 W
Idle=12 to 20 W

Das gibt es seit Jahren Leo! Warum ist man jetzt und diesem Fall darüber brüskiert? Nvidia hat rechnerisch und intern so einfach die Effizienz der Spannungsversorgung der eigenen Hardware auf 71,88% normiert. Wie soll das gehen, solche Werte sind sichtlich und völliger Humbug! Die lügen *mal wieder*, dass sich die Balken biegen! Zuletzt sollte man mit der Hardware vergleichen, die um Navi herauskommt und nicht mit irgendwelchen fiktivem Müll der Marketingabteilung, wobei sie sich in Argumentation und Angabe, auf nicht sichere Quellen berufen. Da kann man schon fast von Wettbewerbswidrigkeit sprechen.

Eine 2070 FE wurde bei techpowerup mit 195/205W Gaming (average/load) vermessen, nix zu sehen von 175/185 W Limits oder irgendeinem Wert darunter. Das Ganze dürfte in Abhängigkeit und der Empfindlichkeit des Bugcontrollers - der diese Werte der GPU überwacht und auswertet, festgemacht werden (im msec Bereich). Die Schaltung arbeitet absichtlich mit gewisser "Trägheit", weil alles andere der VRM und der GPU auf Dauer arg zusetzen würde.

Was Nvidia dort macht, ohne reale Werte nach Launch der Hardware des Mitbewerbers, liegt schon im Bereich der Rufschädigung. Darüber mag man ja in Amerika wohlwollend hinwegsehen, in Deutschland oder Europa aber auf keinen Fall, weil es im Wettbewerbsrecht strikt untersagt ist (Werbung egal in welcher Form), was dann Unterlassungsansprüche des Betroffenen nach sich ziehen kann, nämlich dann wenn es unwahr ist. Also distanziert man sich bis zur offiziellen Vorstellung der Hardware von solchen Aussagen. Tomshw hat in diesem Fall bereits nachvollziehbare Messergebnisse geliefert, die vermutlich beweisen das Nvidia hier absichtlich Fakewerte angibt. Das im Vorfeld des Launch der eigenen Hardware und unter Schaffung eines imaginären Wettbewerbsvorteil, der auf Falschaussagen beruhen könnte.

Wieder mal ein Pkt in Nvidia's langer Liste, der auf eine leichte Form von Größenwa*n schließen lässt! Denen scheint es mittlerweile schei*egal zu sein, was und wie sie es sagen. Vermutlich war's dann zum Schluss wieder der Praktikant, der da was falsch berechnet oder verstanden hat.

"Its not a fail, its a feature...".:rolleyes:

Gast
2019-06-16, 14:37:45
Ich habe Igors Artikel dreimal gelesen. Die von Leo gezogenen Schlüsse kann ich darin nicht nachvollziehen. Bei der TDP hat man AMD Phantasiezahlen untergejubelt. Der Unterschied zwischen der 2060 und der 5700 liegt laut Igor pi mal Daumen bei 10 (!) Watt. Bei leicht höherer Performance. Somit stellt man AMD grob falsch dar. Ich verstehe nicht, warum der Markt- und Performanceführer mit solchen Taschenspielertricks agieren muss. Es wäre wünschenswert, wenn diese Kritik auch im Artikel zum Ausdruck käme. Igors Sicht halte ich für gut nachvollziehbar und begründet.

Gast
2019-06-16, 15:41:59
Nein, denn wenn man bei den nvidia Karten die ASIC-Power (so wie bei AMD) angeben würde, dann wäre Nvidia (im verhältniss zur BoardPower!) nahezu gleich.

Wenn die Angaben der der NV-Folie zur ASIC-Power stimmen, kann die Board-Power bei AMD unmöglich stimmen, wie Igor schön gezeigt hat, da die Spannungswandler bei AMD dann mit einer technisch unmöglichen Effizienz arbeiten müssten.

Die einzig mögliche Variante, dass beides so irgendwie stimmt, wäre wenn das ASIC-Power-Limit in der Realiltät praktisch nie ausgereizt wird, weil beispielsweise die Temperatur, oder ein anderer Parameter schon vorher limitiert, was durchaus nicht unwahrscheinlich erscheint, so lange Nvidia auf DHE-Kühler im Referenzdesign hat wurde deren Boardpower in der Regel auch nie erreicht, weil vorher das Temperaturlimit erreicht wurde.

Abgesehen davon ist es natürlich ein Äpfel/Birnen-Vergleich, ich vermute mal, dass NV den Verbrauch von Speicher+Speicherinterface nicht der GPU zuordnet, und bei AMD das Speicherinterface durchaus in die GPU-Power mit einfließen wird.

Was ich ehrlich gesagt nicht verstehe, was bezweckt NV mit dieser Folie? Unkommentiert lässt diese eigentlich NV viel schlechter dastehen, weil es so aussieht als könnte AMD eine viel bessere Spannungsversorgung designen.

Erst wenn man das genauer betrachtet sieht es eben aus als würde AMD einen veräppeln, weil deren Boardpower unmöglich gleichzeitig mit der angegeben GPU-Power übereinstimmen kann.

Immerhin hat man bei AMD aus dem Polaris-Desaster gelernt und verwendet nun eine Stromversorgung die auch für die reale Leistungsaufnahme ausreichend ist.

Gast
2019-06-16, 19:28:03
1. ...dann schreibst Du zu verworren. Deshalb versteht es niemand.
2. Was wundert Dich daran?

Typical Bord Power ist keine Angabe für die maximale Leistungsaufnahme und TDP war es auch noch nie. Schon dann nicht, wenn sich die Asicpower um bis zu 20% anheben lässt. Wie soll AMD oder jeder andere Hersteller das denn spezifizieren? Er weiß ja nicht was Du machst, wenn er dir ein bestimmtes Leistungspotential mitgibt, im Amerika muss t du alles expliziet benennen. Nvidia liegt doch selbst über diesen Werten (schießen sich also selbst ein Eigentor) und hat einfach Teile ihrer eigenen Architektur bei deren Festlegung plus Vergleichen weggelassen, man hat wohl für sich den Speichercontroller und das Phy+VRAM herausgerechnet und bei AMD draufgeschlagen. Navi ist aber erst mal kein Interposerdesign! Die Quelle scheint es dann schon mit einbezogen zu haben oder wer auch immer. Dann sind die Werte 150W oder 180W eher typical Boardpower, sowie 180W und 225W eher die Limits.

Dann lägen die Karten zwischen 150-180W und 180-225W, so wie die Radeon 7 zwischen 150-300W liegt (laut offizieller Angabe von AMD für die MI's)!

Typical Boardpower CPU?
9900k=95-125W!!!!!
(siehe TDP1 und TDP2!).

Typical Boardpower GPU:
Mid End Graphics Card ($125 to $250):
Load average=110 to 164 W
Idle=8 to 13 W

High End Graphics Card ($251 to $400):
load average=162 to 258 W
Idle=12 to 20 W

Das gibt es seit Jahren Leo! Warum ist man jetzt und diesem Fall darüber brüskiert? Nvidia hat rechnerisch und intern so einfach die Effizienz der Spannungsversorgung der eigenen Hardware auf 71,88% normiert. Wie soll das gehen, solche Werte sind sichtlich und völliger Humbug! Die lügen *mal wieder*, dass sich die Balken biegen! Zuletzt sollte man mit der Hardware vergleichen, die um Navi herauskommt und nicht mit irgendwelchen fiktivem Müll der Marketingabteilung, wobei sie sich in Argumentation und Angabe, auf nicht sichere Quellen berufen. Da kann man schon fast von Wettbewerbswidrigkeit sprechen.

Eine 2070 FE wurde bei techpowerup mit 195/205W Gaming (average/load) vermessen, nix zu sehen von 175/185 W Limits oder irgendeinem Wert darunter. Das Ganze dürfte in Abhängigkeit und der Empfindlichkeit des Bugcontrollers - der diese Werte der GPU überwacht und auswertet, festgemacht werden (im msec Bereich). Die Schaltung arbeitet absichtlich mit gewisser "Trägheit", weil alles andere der VRM und der GPU auf Dauer arg zusetzen würde.

Was Nvidia dort macht, ohne reale Werte nach Launch der Hardware des Mitbewerbers, liegt schon im Bereich der Rufschädigung. Darüber mag man ja in Amerika wohlwollend hinwegsehen, in Deutschland oder Europa aber auf keinen Fall, weil es im Wettbewerbsrecht strikt untersagt ist (Werbung egal in welcher Form), was dann Unterlassungsansprüche des Betroffenen nach sich ziehen kann, nämlich dann wenn es unwahr ist. Also distanziert man sich bis zur offiziellen Vorstellung der Hardware von solchen Aussagen. Tomshw hat in diesem Fall bereits nachvollziehbare Messergebnisse geliefert, die vermutlich beweisen das Nvidia hier absichtlich Fakewerte angibt. Das im Vorfeld des Launch der eigenen Hardware und unter Schaffung eines imaginären Wettbewerbsvorteil, der auf Falschaussagen beruhen könnte.

Wieder mal ein Pkt in Nvidia's langer Liste, der auf eine leichte Form von Größenwa*n schließen lässt! Denen scheint es mittlerweile schei*egal zu sein, was und wie sie es sagen. Vermutlich war's dann zum Schluss wieder der Praktikant, der da was falsch berechnet oder verstanden hat.

"Its not a fail, its a feature...".:rolleyes:

Es wurden auch schon genung 2070FE unter 190w im tourture Test gemessen, klasse oder ? wir suchen uns Aussreiser aus eine ohne hin schon signifikant zu kleinen StichprobenAnzahl heraus und argumentieren anhand dieser extremwerte weiter mit unserer Bildzeitungslogik. , großes Kino! oder eher setzen sechs ?

Wer mit Werten um sich wirft sollte evtl. Auch damit umgehen können , sonst steht er am Ende da wie ein Maurer auf Statiker Kongress .

Birdman
2019-06-16, 20:09:45
Wenn die Angaben der der NV-Folie zur ASIC-Power stimmen, kann die Board-Power bei AMD unmöglich stimmen
Die Board-Power Werte kommen direkt und offiziell von AMD.
Es ist natürlich möglich dass AMD bei diesen Angaben nicht akkurat ist und die Karten im Total mehr verbraten als es diese Werte versprechen.
Warscheinlicher ist aber eher, dass die GPU weniger verbraucht, als es auf der nVidia Folie zu sehen ist.
Allenfalls hat hier nVidia bei den AMD Karten einfach die "ASIC" Power Werte genommen, welche aber halt nebst der GPU noch den Speicher umfassen. (so war es zumindest bisher bei den Radeon Karten der Fall)

Dann könnte man nVidia einfach vorwerden dass sie (absichtlich) so dumm waren, bei den AMD Karten einen falschen Wert zu verwenden. (der zwar begifflich das darstellt für was er hier verwendet wurde, in Realität aber halt was anderes ist)

Gast
2019-06-16, 20:37:59
Was man gut erkennt: Die 5700 scheint näher am Sweet Spot. Die XT erzeugt aus 25 % mehr Strom knappe 11 % mehr Leistung.

Lehdro
2019-06-16, 21:46:03
Was man gut erkennt: Die 5700 scheint näher am Sweet Spot. Die XT erzeugt aus 25 % mehr Strom knappe 11 % mehr Leistung.
Ist der Leistungsunterschied zwischen den beiden echt so gering? Kann ich mir ehrlich gesagt nicht vorstellen bei den Unterschieden - deutlich weniger Recheneinheiten und Takt.

Gast
2019-06-16, 21:49:17
Was man gut erkennt: Die 5700 scheint näher am Sweet Spot. Die XT erzeugt aus 25 % mehr Strom knappe 11 % mehr Leistung.

Also laut AMD-Folien sollte die XT knapp 20% schneller sein.
Da sind eigentlich 25% Mehrverbrauch noch im Rahmen.

Gast
2019-06-16, 22:33:45
Leos Hochrechnung ist 138 zu 154 Prozent UHD Performance. Und hochrechnen kann er ganz gut...

Gast-olletsag
2019-06-16, 23:26:35
Die Board-Power Werte kommen direkt und offiziell von AMD.
Nein kommen sie nicht. Sie kommen von einem Partner und gelten für deren Custommodelle.

Die Asicpower hat in dem Zusammenhang auch kaum Relevanz, da dies ein Wert ist der sich lediglich aus der anliegenden VCore errechnet und diese Werte gibt AMD real nicht genau an. Die ausgelesenen sind Fake und sind niedriger als man ausliest oder dann manuell per Tool vorgibt (WattMan usw.). Dahinter steckt auch eine bestimmte Absicht, bei Vega und Polaris. Dürfte daher bei Navi nicht anders sein.

Jeder der sich auch nur annähernd mit Vega und Polaris beschäftigt hat, weiß das.

Gast-olletsag
2019-06-16, 23:41:14
Es wurden auch schon genug 2070FE unter 190w im tourture Test gemessen...
Wenn man sie im offenem Aufbau bei 22°C Raumtemp testet normal. Stecke sie mal ins Gehäuse und heize sie lange genug auf. Es gibt übrigens keine einzige 175W "Referenz" Karte von nVidia und bei der Bestückung wird den Partner oft freie Hand gelassen. Unterschiede machen dann auch die Qualität der verwendeten Bauteile aus. Das kann auch bei der FE passieren wenn etwas aus geht, nimmt man dann was man hat.

Zu aller Erst wurde argumentiert, Navi verpulvert 375 Watt, weil das Engineering PCB 2x8 Pins PEG aufwies (erkannte man leicht an der Seriennummer des PCB das es dann doch nicht so kommt). In Referenz ist nichts davon zu sehen, wobei es dabei gar nicht so um die Stromaufnahme geht, sondern auch die verfügbaren Massepins.

Gast
2019-06-17, 00:15:42
Wenn man sie im offenem Aufbau bei 22°C Raumtemp testet normal. Stecke sie mal ins Gehäuse und heize sie lange genug auf. Es gibt übrigens keine einzige 175W "Referenz" Karte von nVidia und bei der Bestückung wird den Partner oft freie Hand gelassen. Unterschiede machen dann auch die Qualität der verwendeten Bauteile aus. Das kann auch bei der FE passieren wenn etwas aus geht, nimmt man dann was man hat.

Zu aller Erst wurde argumentiert, Navi verpulvert 375 Watt, weil das Engineering PCB 2x8 Pins PEG aufwies (erkannte man leicht an der Seriennummer des PCB das es dann doch nicht so kommt). In Referenz ist nichts davon zu sehen, wobei es dabei gar nicht so um die Stromaufnahme geht, sondern auch die verfügbaren Massepins.

Der Bezug zur Temperatur zeigt auf das du Nicht verstanden hast wie diese Werte entstehen .
Was Navi macht oder nicht ist mir komplett egal in diesem Zusammenhang.
Es gibt kein physisches Sample zum messen von daher Spar ich mir hier den Atem, der einzig Fakt zu Navi sind die von AMD genannten Zahlen welche jetzt nicht so der Kracher aber auch nicht Mega fail sind sind , vergleichbares gibts schon seit 2016 dafür aber immer noch nichts deutlich besseres von der Stange .

Gast
2019-06-17, 03:16:05
Die Asicpower hat in dem Zusammenhang auch kaum Relevanz, da dies ein Wert ist der sich lediglich aus der anliegenden VCore errechnet und diese Werte gibt AMD real nicht genau an.

Die Asicpower ist die einzige die bei AMD wirklich relevant ist, da diese als einzige gesteuert werden kann.

Die Powerregelung bei AMD setzt erst nach den Spannungswandlern ein, und steuert direkt wie viel Leistung die GPU aufnehmen darf.

Darum tut sich AMD auch so schwer mit einer Angabe der Boardpower, weil diese eben nicht geregelt wird. Geregelt wird einzig alleine die ASIC-Power, und die Boardpower ergibt sich dann daraus, und kann je nachdem wie effizient die Spannungswandler gerade real arbeiten schwanken.

hmmm
2019-06-17, 03:16:14
Nein kommen sie nicht. Sie kommen von einem Partner und gelten für deren Custommodelle.
Nein, sie sind von AMD. Wie sie allerdings zu nvidia gelangt sind, darüber kann ich nur asulieren(?) - quatsch ich meine: spekulieren.

Die Asicpower hat in dem Zusammenhang auch kaum Relevanz, da dies ein Wert ist der sich lediglich aus der anliegenden VCore errechnet und diese Werte gibt AMD real nicht genau an.
Unsinn. Der Wert steht zb "ganz deutlich" in der Firmware/Bios.


Die ausgelesenen sind Fake und sind niedriger als man ausliest oder dann manuell per Tool vorgibt (WattMan usw.). Dahinter steckt auch eine bestimmte Absicht, bei Vega und Polaris. Dürfte daher bei Navi nicht anders sein.
Wieder Unsinn. Das die "Ausgelesenen" Werte natürlich ungenauer sind als eine Messung mit "Laborequipment" ist wohl klar, ergibt sich ja schon alleine aus der Auslesefrequenz und der zeitlichen Varianz.
Aber "Ausgelesenen" Werte sind eben NICHT grundsätzlich/immer niedriger, dass SO zu behaupten ist einfach nur Stuss.
Jeder der sich auch nur annähernd mit Vega und Polaris beschäftigt hat, weiß das.
Dann mach das bitte mal!

Leonidas
2019-06-17, 05:33:47
Nein kommen sie nicht. Sie kommen von einem Partner und gelten für deren Custommodelle..


Sie kommen mit guter Wahrscheinlichkeit von einem Boardpartner. Der Rest ist jedoch rein spekulativ und wahrscheinlich unrichtig. Denn:
- Der Boardpartner hat noch keine Customdesigns, ergo kann er noch nicht solche Detailwerte dafür haben.
- Genannt zur offiziellen TBP dürften diese Werte zur ASIC-Power dem AMD-Standard ensprechen - weil ansonsten müsste man auch die TBP erhöhen.
- Der Boardpartner hat zu diesem frühen Zeitpunkt vermutlich schlicht das wiedergegeben, was AMD selber ihm gesagt hat, sprich es sind wahrscheinlich original AMD-Aussagen.

Gast-olletsag
2019-06-17, 11:37:31
Die Asicpower ist die einzige die bei AMD wirklich relevant ist, da diese als einzige gesteuert werden kann.
Wie kommst du auf so etwas? Wahrscheinlich haben hier ein paar Powertune immer noch nicht verstanden.

AMD gibt als höchsten Wert ein "outher Applikationslimit" an. Das Normalized TDP Limit darf, wenn es genug Spielraum bei den Temperaturen gibt und in der jeweiligen Domäne/State [P0-P7 DPM h State inklusive des Dynamischen TDP Management]) kurzzeitig überschritten werden, dürfte aber zu 90% im Alltag anliegen und oftmals je nach Güte der Bauteile noch darunter. Dieses Limit wird anhand von "Worst-Case" Szenarien, der "oberen Frequenzgrenze der GPU" inklusive dazugehöriger Spannung und bestimmter "Anwendungs-/Höchstleistungszuständen" bestimmt.

Es gibt keine "Asicpower" die die Gesamtaufnahme des Designs oder eine TPB allein bestimmt. Es werden Werte der Core Fabric als "GPU only Power Draw" angegeben, die zum Schutz des Sockels oder des Interposers dienen. Solange aber genug thermaler Headroom vorhanden ist, wird das nicht zum Problem (siehe Hotspots). Vllt. beschäftigt man sich erst damit, anstatt so steile Thesen aufzustellen. Selbst unter AFVS hat sich nicht viel an dieser Vorgehensweise geändert.

GPU only Power Draw wird ohne MC und VRAM angegeben, weil der Wert einzeln ausgelesen werden kann, aber nicht zur Bestimmung der Gesamtaufnahme ausschlaggebend ist. GPU only Power Draw liegt weit unter dem TDP Limit der Platine. Das maximale Limit der GPU steht fest, bevor sie verpflanzt wird, oder wie stellst du dir das vor? Partner könnten dort unterschiedliche Quali einkaufen. AMD geht so vor, damit alle und im Ausliefungszustand das vermeintlich gleiche Erhalten. Das beste Bsp. dafür ist Vega20, da sich diese GPU mit jeweils unterschiedlichem VCore Limit im Treiber anmeldet.

PS: @Leonidas, natürlich Spekulatius, so wie deine eigenen "Vermutungen".

Gast
2019-06-17, 14:15:06
Von AMD stammt lediglich die Angabe=up to 23% improved efficiency over Vega (at full load).

Das ergibt rechnerisch (vermutlich unter Boostclock), 228 Watt für die XT (Vega64 295W)und 162 Watt für die Pro (Vega56 210W). AMD hat keinerlei offizielle Wattangabe/TDP/TBP mitgeteilt. Da die Karten mit einem Base-/ Game-/ und Boostclock daherkommen, kann der Effizienzvorteil bei 27% im Mittel liegen. In Spielen lägen die Navi XT dann mit Gameclock (1755MHz) bei 210-215 Watt und die Navi Pro mit Gameclock (1625MHz) bei 150-160 Watt TBP und nicht Asicpower! Also auf den Werten der 2080 und 2070 in Spielen. Wobei in internen Benchmarks und unter DX12 Titel eine 2070 mit 175 Watt klar abgehängt wurde (BF5 +22% und Metro +15% @1440p). Da dürfte die XT dann schon auf non A 2080 Level agieren. Ich wundere mich über Super Nvidia daher nicht und auch nicht eine 2070ti mit abgespecktem non A TU104. Die Wollmilchsau könnte die Navi Pro werden, wie einst alias Tahiti Pro (7950/280).

Die 225 und 180 Watt als Limit müssen trotzdem nicht überschritten werden, wobei wir den Navi Sweetspot nicht kennen, der vermutlich irgendwo zwischen Base-/ und Gameclock liegt. Nach oben raus kostet wenig bekanntlich viel zu viel. Mal abwarten. Wenn man damit Polaris ablöst und das sieht so aus, ist das ein wirkliches Upgrade, kein Sidegrade wie von Pascal zu Turing - mit der Option in zu wenigen Titeln RT aktivieren zu können.

Wie Adored berichten sind auch die Preise angemessen und unteres Level wenn es um 7nm geht, die Waferkosten expolidieren mit +50% unter 7nm förmlich.

Die Angaben basieren also auf +23% Effizienz zu Vega.

Gast
2019-06-18, 14:29:18
Wie kommst du auf so etwas? Wahrscheinlich haben hier ein paar Powertune immer noch nicht verstanden.


Ich würde dir mal empfehlen bei tomshw nachzulesen, wie bei heutigen Grafikkarten die Steuerung von Takt/Leistungsaufnahme funktioniert.

Grob gesagt misst NV den Strom der in die Karte kommt und setzt dafür ein Limit, nach welchem der Takt geregelt wird. Dies stimmt deshalb fast mit der Leistung überein welche die gesamte Karte insgesamt aufnehmen kann (nur fast, weil nur 12V überwacht und geregelt wird, und alles was über 3,3V und 5V konsumiert wird nicht in die Rechnung mit einfließt, in der Realität fällt das aber nicht großartig ins Gewicht da über diese Schienen nur relativ wenig aufgenommen wird).

AMD misst dagegen den Strom aus den Spannungswandlern und regelt damit Takt/Leistungsaufnahme.
Damit kann es bei AMD nicht wirklich einen fixen Wert für die Boardpower geben, da eben jene weder gemessen noch geregelt wird.

Fakt ist es jedenfalls, dass die angegebenen Werte auf der Folie nicht wirklich stimmen können, da dies Spannungswandler mit einem unmöglichen Wirkungsgrad erfordern würde.

Die angegebene Boardpower kann nur stimmen, wenn die tatsächliche Leistungsaufnahme der GPU niedriger als angegeben ist.

Wenn es sich dabei wirklich um den Soll-Wert für die Regelung handelt, bleiben nicht viele Varianten über, denn dieser Soll-Wert darf nicht erreicht werden, ansonsten würde die angegebene Boardpower nicht eingehalten werden können.

Entweder liegt also der reale Wert der Leistungsaufnahme deutlich geringer, und die GPU wird vorher schon durch den maximalen Takt limitiert (eher unwahrscheinlich, wenn AMD nun neben dem max. auch einen "typischen" Takt unter Spielebedingungen angibt, der doch deutlich niedriger ist).

Oder die Kühlung bzw. deren Regelung ist für die maximal eingestellte Leistungsaufnahme unterdimensioniert, und limitiert damit effektiv den Takt und dadurch auch die Leistungsaufnahme schon vor dem Powerlimit.