PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 14./15. September 2019


Leonidas
2019-09-16, 10:40:55
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1415-september-2019

JVC
2019-09-16, 12:49:07
"Bislang hat keiner der Hardwaretester eine CPU gefunden, wo der maximale Boost-Takt mit der neuen AGESA-Version wirklich unterhalb von AMDs Spezifikation lag (abseits minimaler Differenzen, welche über "Spread Spectrum" erklärbar sind)."

Danke :) Thema erledigt ;)

Mich würde auch noch interessieren, ob mit diesem Bios dann auch PBO und die +200Mhz "XFR" richtig funktionieren !?
(sofern man niedrig genuge Temperaturen erreicht)

M.f.G. JVC

Gast
2019-09-16, 16:26:38
Da würde intel erneut über den eigenen Schatten springen. Nicht ohne Grund steht man wegen künstlicher Kastrierung der CPUs seit Jahren am Pranger. Aber man hat wohl keine Wahl. Daumen hoch.

Jetzt müssten nur noch die TDP-Angaben realistisch werden. Und intel entweder Freigaben für Überdehnung der offiziellen Spezifikationen erteilen/diese entsprechend anpassen oder das Ganze unterbinden. Dieses Gemauschel ist einfach dreist. Nein, es liegt nicht in der Verantwortung der MB-Hersteller. Die haben gar keine Wahl, wenn sie konkurreenzfähig bleiben wollen.

Leonidas
2019-09-16, 17:57:55
Jetzt müssten nur noch die TDP-Angaben realistisch werden.


Daran sollte man wirklich arbeiten, denn mittlerweile wird die Differenz zwischen Spec und Realität teilweise absurd.

JVC
2019-09-16, 18:06:04
Jetzt müssten nur noch die TDP-Angaben realistisch werden....

Jap, da wäre ich auch dafür :up:

Aber Intel hats vorgemacht und keinen hats "gestört" ...

M.f.G. JVC

Lowkey
2019-09-16, 18:11:25
Das sieht bei Intel eher so aus:

billiges Mainboard: TDP 95 ist immer an. Denn viel mehr läuft nicht.
teures Mainboard: beim aktivieren von XMP kommt die Abfrage, ob man alle Limits aushelbeln will. Somit hat man den grenzenlosen Verbrauch und dafür sind die Mainboards auch ausgelegt. Stichwort "letztes 1% Prozenz Mehrleistung".

Interessant an der Stelle: TDP auf 95watt, aber DDR4-4500mhz stellt per XMP die SA/IO Spannung eine Idee nach oben. Die Folge ist eine instabile CPU, die mit den paar Watt mehr nicht mehr umgehen kann um das TDP Limit per default zu erreichen.

Birdman
2019-09-16, 19:51:32
Aber Intel hats vorgemacht und keinen hats "gestört" ...
AMD hat 10 jahre füher damit begonnen, aber zur Bulldozer Architektur gab es so viele andere negative Punkte, dass dies gar nicht mehr entscheidend war.

Lehdro
2019-09-16, 22:15:04
teures Mainboard: beim aktivieren von XMP kommt die Abfrage, ob man alle Limits aushelbeln will.
Stimmt nicht. Selbst ohne XMP gibt es diverse Intel Boards die dir die Stock Settings verwehren wenn du sie nicht selber per Hand forcierst. Siehe den GN Test damals zur 9900K TDP und den verschiedenen Boards.

Intel ist was das angeht eine wahre Wundertüte.

MrSpadge
2019-09-16, 22:47:09
Dies erfordert neben der technischen Realisierung von Chiplets eben dann doch noch erhebliche Anstregungen, um das Vorhandenensein mehrere Grafikchips treiberseitig so zu kaschieren, das die damit betriebene Software letztlich nur "einen" Grafikchip sieht – und somit keine eigenen Anstregungen unternehmen muß, mehrere Grafikchips vernünftig auszulasten.
Klar, dass das gemacht werden muss. Aber warum soll das "noch erhebliche Anstrengungen" benötigen? Bei nVidia ist das z.B. jetzt schon so, dass die Software die GPCs als ziemlich unabhängige, große Organisationseinheiten des Chips sieht. Spielt aber für die Programmierung keine Rolle. Für ein Chiplet-Design müsste man jetzt nur z.B. jeden GPC + Cache auf je einen Chip packen und die Kommunikation ähnlich wie bisher laufen lassen. Evtl. auch einen Speichercontroller pro Chip. Plus einen I/O-Chip für den Rest.

Hardware-seitig muss man schon genau nachdenken, wie die Daten verschoben werden sollen. Unterschiedliche Latenzen tun nicht so weh wie bei CPUs, sollten aber trotzdem vermieden werden, und Datenübertragungen von Chip zu Chip kosten immer mehr Energie als auf dem Chip. Aber software-seitig sehe ich da echt kein Problem. Evtl. fasst man noch 2 oder 4 GPCs zu einem größeren Chiplet zusammen und packt eine Hierarchiestufe hinzu. Aber nach Außen wird das einfach wie bisher versteckt.

MrS

Gast
2019-09-17, 00:17:51
Intel ist was das angeht eine wahre Wundertüte.

Gleich wie bei AMD. Die Einzige Möglichkeit, dass ich meinen 2700X unter die 105W bringe ist Turbo komplett zu deaktivieren (und selbst da werden die 105W im Stresstest knapp gerissen).

Gast
2019-09-17, 00:22:51
Hardware-seitig muss man schon genau nachdenken, wie die Daten verschoben werden sollen. Unterschiedliche Latenzen tun nicht so weh wie bei CPUs, sollten aber trotzdem vermieden werden, und Datenübertragungen von Chip zu Chip kosten immer mehr Energie als auf dem Chip.


Das ist das Große Problem.

Was Nvidia-GPUs ab Maxwell so effizient macht ist die Minimierung an Daten die verschoben werden müssen, sowohl on-chip als auch off-chip.

Der Großteil der Energie wird in GPUs nicht bei den eigentlichen Berechnungen verbraten, sondern beim hin- und herschieben von Daten, und Daten auf längere Distanzen zu verschieben kostet eben noch mehr Energie.

Damit sich Chiplets auszahlen müsste anderswo entsprechend viel Energie Eingespart werden, damit man mit den Chiplets auch mehr Performance/Watt bekommen kann.

Jager
2019-09-17, 06:40:50
Klar, dass das gemacht werden muss. Aber warum soll das "noch erhebliche Anstrengungen" benötigen? Bei nVidia ist das z.B. jetzt schon so, dass die Software die GPCs als ziemlich unabhängige, große Organisationseinheiten des Chips sieht. Spielt aber für die Programmierung keine Rolle. Für ein Chiplet-Design müsste man jetzt nur z.B. jeden GPC + Cache auf je einen Chip packen und die Kommunikation ähnlich wie bisher laufen lassen. Evtl. auch einen Speichercontroller pro Chip. Plus einen I/O-Chip für den Rest.

Hardware-seitig muss man schon genau nachdenken, wie die Daten verschoben werden sollen. Unterschiedliche Latenzen tun nicht so weh wie bei CPUs, sollten aber trotzdem vermieden werden, und Datenübertragungen von Chip zu Chip kosten immer mehr Energie als auf dem Chip. Aber software-seitig sehe ich da echt kein Problem. Evtl. fasst man noch 2 oder 4 GPCs zu einem größeren Chiplet zusammen und packt eine Hierarchiestufe hinzu. Aber nach Außen wird das einfach wie bisher versteckt.

MrS


Ich denke genau dort sehen nVidia einfach keinen Vorteil eines Chiplets. Noch können sie problemlos die komplette GPU auf einem Die unterbringen, und so müssen sie sich mit keinen Chiplet-Problemen rumschlagen. NVidia sind ja bisher noch nichtmal auf die moderne 7 nm-Fertigung angewiesen, und wenn sie diese 2020 bringen dann werden die GPUs sicherlich wieder etwas kleiner. So können sie bei der RTX 40XX dann wieder einen großen 7 nm-Chip herausbringen. Danach kann man dasselbe in 5 nm wiederholen.

Ich denke nVidia werden die Notwendigkeit von Chiplets erst nutzen wenn sie die ganzen Transistoren nicht mehr auf einem Die unterbringen können. Also zB wenn sie einfach schneller werden müssen um neue Generationen zu verkaufen und das in zB 5 nm nicht mehr hinbekommen.

PS: Ich denke das gerade die breiten Datenbusse und deren Latenzen bei einem Chiplet schon zu gewissen Problemen führen werden. Ich bin da kein wirklicher Fachmann, aber bei so breiten Bussen ist es sehr wichtig wann welche Daten ankommen. Und GPUs takten heute ja auch sehr hoch. Da ist es vielleicht schneller alles auf einem Die unterzubringen und diesen so höher zu takten.

Ich begebe mich jetzt mal in die graue Vorzeit ;), aber soweit ich es noch weiß wollten 3Dfx dasselbe oder ähnliches mit dem Rampage-Chip erreichen. Das sollte 2001 die Voodoo 6 werden, nicht die Voodoo 5 6000! Der Rampage-Chip sollte einen Zusatzchip haben, den Sage der dann einen Pixelshader beherbergt hätte. 3Dfx haben diese Chippaarung nie zum laufen bekommen obwohl sich das damals auch sehr gut angehört hat. Die erste Grafikkarte auf der Geometrie, Pixel- und Vertexshader dann funktionierten war die Geforce 3, und da war alles auf einem Die.

Gast
2019-09-17, 07:43:28
AMD hat 10 jahre füher damit begonnen, aber zur Bulldozer Architektur gab es so viele andere negative Punkte, dass dies gar nicht mehr entscheidend war.
So ein Schwachsinn, die Bulldozer haben sich exakt an die vorgegebene TDP gehalten, diese meist sogar nicht erreicht. Bei Intel liegt man inzwischen massiv über der TDP, da kann man schon mal bei über 200W liegen (unter AVX). Das Entscheidende ist, dass Intel behauptet, die CPU hat eine TDP von 95W, in Wirklichkeit braucht man aber eben bis über 200W. Bei Bulldozer gab es zwar auch Stromschlucker, die hatten aber auch eine entsprechende TDP von bis zu 220W, es war also vom Hersteller klar kommuniziert, dass die Dinger so viel brauchen (Realverbrauch war dann je nach Modell von 170-200W).
So ganz nebenbei hat das bei Bulldozer auch durchaus einen logischen Grund, nämlich die 32nm Fertigung, die damals auch hoffnungslos hinter Intel's Fertigung war. Jeder FullNode brachte zumindest damals noch grob 50% weniger Verbrauch.

Leonidas
2019-09-17, 08:27:41
Der Großteil der Energie wird in GPUs nicht bei den eigentlichen Berechnungen verbraten, sondern beim hin- und herschieben von Daten, und Daten auf längere Distanzen zu verschieben kostet eben noch mehr Energie.


Genau deswegen hat NV auch recht viel von dem Interview über Interfaces und Datenströme gesprochen.

Lehdro
2019-09-17, 15:27:07
Gleich wie bei AMD. Die Einzige Möglichkeit, dass ich meinen 2700X unter die 105W bringe ist Turbo komplett zu deaktivieren (und selbst da werden die 105W im Stresstest knapp gerissen).
Liegt an der Definition von AMD, dort sind 105W TDP eher so max. 144W real afaik. Ist Beschiss, ja. Liegt unter anderem aber daran dass das bei Intel jahrelang auch niemand gestört hat während man über AMDs realistische TDP bei Bulldozer gelacht hat :mad:

Threadripper zum Beispiel hält sich sklavisch an seine TDP wenn man nichts anderes forciert.

Gast
2019-09-17, 17:53:31
Threadripper zum Beispiel hält sich sklavisch an seine TDP wenn man nichts anderes forciert.

Das hängt vom Mainboard ab, meines beispielsweise legt das Powerlimit Standardmäßig auf 999W :D

Gast
2019-09-18, 11:10:04
Gleich wie bei AMD. Die Einzige Möglichkeit, dass ich meinen 2700X unter die 105W bringe ist Turbo komplett zu deaktivieren (und selbst da werden die 105W im Stresstest knapp gerissen).
Und wie genau hast du das gemessen? Wenn sich das Board an die AMD Vorgabe hält, dann braucht er exakt 105W, auch mit Turbo.
Das hat z.B. Igor mal schön nachgemessen (mit entsprechendem Messaufbau). Leider halten sich manche Boardhersteller eher weniger an die Vorgaben. Der Test war auf einem MSI Board, bei Asus und Gigabyte sieht das aber wohl anders aus. Die brauchen beide mehr, ohne mehr Leistung zu liefern.

Gast
2019-09-18, 18:59:03
Und wie genau hast du das gemessen? Wenn sich das Board an die AMD Vorgabe hält, dann braucht er exakt 105W, auch mit Turbo.

HWInfo, und du kannst auch schön mit Ryzen Master auslesen, dass das Powerlimit vom Board mit 999W defakto deaktiviert ist (die Current-Limits sind auf sinnvolleren Werten).


Das hat z.B. Igor mal schön nachgemessen (mit entsprechendem Messaufbau). Leider halten sich manche Boardhersteller eher weniger an die Vorgaben.

Schon klar, das gleiche wie bei Intel. Wenn ein Board PL2 auf die TDP stellt hält sich die CPU auch penibel daran.

Wie bei Intel gibt es aber genügend Boards bei denen das nicht der Fall ist.

Lehdro
2019-09-18, 22:43:35
Das hängt vom Mainboard ab, meines beispielsweise legt das Powerlimit Standardmäßig auf 999W :D
Was für ein Quatsch, also das "Limit", nicht die Aussage.

Welches Mainboard? Wirklich alles auf default und nicht etwa "optimized"?
Mein MEG X399 Creation hält zb die Vorgaben wattgenau ein, Igor hatte damals beim TR Test genau dasselbe mit anderen Boards bestätigt.

Gast
2019-09-19, 14:45:32
Welches Mainboard? Wirklich alles auf default und nicht etwa "optimized"?

Asus PRIME X370-PRO.