PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Radeon RX Vega mit 300 Watt TDP, aber auch entsprechender Performance?


Leonidas
2017-06-23, 14:52:24
Link zur News:
https://www.3dcenter.org/news/radeon-rx-vega-mit-300-watt-tdp-aber-auch-entsprechender-performance

Gast
2017-06-23, 14:59:58
Ich dachte diese Ente wurde bereits durch ComputerBase entlarvt?
Laut deren Recherche hat man für ein holländisches Statement eine wilde englische Übersetzung für nen Aufreger kreiert.

Es soll wohl aber eher in der Aussage so sein, dass Vega viel verbrauchen kann (will ja auch als HighEnd ans Maximum gehen?), aber ohne jeglichen Hinweis auf Effizienz.

Gast
2017-06-23, 15:14:49
;D
die besagte Quelle hat dazu folgendes im Nachgang kommentiert:

"Ik ben er nog hoor, don't worry. Geen nda informatie die ik heb vrijgegeven en daarbij naar mijn mening niets spanneds, sommige hier hadden dit al van de reeds gereleasde kaarten kunnen uitrekenen. Maar ja click bate op websites werkt altijd de websites moeten toch hun banner inkomsten genereren :)"

Das kann man ja leicht als Deutscher gut übersetzen. Also alles nur Clickbaiting und sonst nix dran. Keine Wunder, keine Dramen.

Gipsel
2017-06-23, 19:55:15
Eine alternative Übersetzung wäre eben: "Verbraucht soviel wie nötig ist" (um das Performance-Ziel AMDs zu treffen).
Was das ist, bleibt auch danach offen.

Gast
2017-06-23, 21:34:49
Klingt stark nach Fiji, die Performance war ja auch nicht schlecht (wenn auch unter den Erwartungen), der Stromverbrauch allerdings exorbitant.

Gast
2017-06-23, 22:48:01
Klingt stark nach Fiji, die Performance war ja auch nicht schlecht (wenn auch unter den Erwartungen), der Stromverbrauch allerdings exorbitant.
Da wurde einfach was falsch übersetzt von Videocards (Gipsel geht doch schon drauf ein), sonst macht der ursprüngliche Verfasser kein wink-Smilie an seinen Post, wo er meint die Leistung stimmt trotz des Energiehungers. Was er damit meint hat er nicht weiter interpretiert. Also das Verhältnis aus Wattage zu fps muss daher stimmen.

Mal nochwas, auch wenns wehtut, bei 500-600+ aufwärts Euro/$ Karten beim Stromverbrauch umherzujammern ist einfach lächerlich, dass hier ist ein Enthusiastforum! Ich habe eine Fiji im Rechner, die unter 1080p nicht mal 200 Watt raushaut, unter 4K braucht sie dann 240 Watt, wo ist das Problem? Hat doch nichts mit der TBP oder max_Boardpower zu tun die AMD angibt. Das Teil ist in 28nm gefertigt und fast 2 Jahre alt. Gibt echt wichtigeres als sich über so einen Tünnüff zu echauffieren. Wenn AMD im Vorfeld angekündigt hätte, dass Vega super sparsam ist - würde ich das verstehen. Wenn sie an der ti vorbeizieht sind 300w gerechtfertigt. Ich denke das die Frontiers die Xp abzockt, da ist ja nicht nur spielen wichtig.

Auf solche Brocken klatsch sich jeder vernünftigt denkende Enthusiast doch sowieso einen Wakü drauf und quetscht das Teil voll aus, der Rest sind doch eh nur Möchtegernmitläufer, die jammern die Karte verbraucht zuviel. 10 oder 20 Euro Stromverbrauch mehr im Jahr machen bei solchen Boliden den Kohl auch nicht mehr fett. Das Gejammer immer...man kanns echt nicht mehr hören.:rolleyes:

Auf die ti's haut man sich ein 300Watt-Modbios und die Karte knallt dann locker 350Watt raus, wenn man ein vernünftiges Modell erwischt und bei AMD jammert man weil sie mehr 200W verbraucht. Unlogisch...immer die gleiche Leier, weils einfach keinen anderen Argumente gibt. Leistung kostet nun mal (egal ob am Chipdesign oder bei Leistungsaufnahme), dass muss nicht immer in Spiele-fps umgemünzt werden, AMD hat auch andere Stärken.

Als wenn ich den ganzen Tag auf meinen Stromzähler starren würde. Das Ding ist mir relativ egal, wer grün sein will soll sich irgendeine iGPU zulegen und damit glücklich werden.

hardtech
2017-06-23, 23:05:24
300w und selbst 350w scheinen mir für den trend der immer kleiner werdenden gehäuse zu viel des guten. So einen verbrauch bis 200w einer 1080 kann man noch leise kühlen. Darüber hinaus wird es sehr aufwendig, ohne wasser (ich mag es nicht!) einen leisen kleinen rechenknecht neben dem monitor auf dem schreibtisch zu betreiben.

Gast#5
2017-06-24, 00:27:09
Wenn AMD im Vorfeld angekündigt hätte, dass Vega super sparsam ist - würde ich das verstehen. Wenn sie an der ti vorbeizieht sind 300w gerechtfertigt. Ich denke das die Frontiers die Xp abzockt, da ist ja nicht nur spielen wichtig.
Gestern gab es im Forum der PCGH unter Frontiers 300w schon einen fetten Schlagabtausch. :popcorn: Atmosphäre inbegriffen, man befand sich wie in erster Reihe, war richtig geil da flogen die Fetzen sprichwörtlich. Frontiers und Vega wurden massiv verteidigt, auch was Deep-Learning und HPC-Performance von Instinct anging. Da muss wohl was gehen, wenn sich jetzt sogar zeitgleich noch Entwickler vor NDA-Fall zu Wort melden. Scheint so als würde Vega doch gefallen. Bei den Entwickler nimmt das Schicksal einer neuen Generation auch seinen Lauf.:wink:

Der Mod hat dann später aufgeräumt. Aber wie es so ist, AMD versteckt auch genug Infos wie hier auf der Vega RX Website. Zieh mal den Wattman hoch, dann siehst du was da rauskommt. Der Takt liegt wohl bei 1700 MHz wenn sich das bewahrheiten sollte, nicht umsonst haben sie das Feld ausgegraut. Dann darf sie bei mir schlucken :naughty:, mir egal.:ulol:

https://abload.de/thumb/radeonrxrhuc8.jpg (http://abload.de/image.php?img=radeonrxrhuc8.jpg)

Yeeaaahhh...gib mir Vega Raja.:massa:

cat
2017-06-24, 01:04:33
Ich hab mich mit mirselbst darauf geeinigt, dass die Referenzkarte per Specs in den 12V-Rails
Boardslot 5,5A
+6pin 6,25A
+ 8pin 12,5A
= 24,25A =291W
hat.
Und wird in Referenz je nach Anwendung bei guter Auslastung zwischen 250 und 275W verbrauchen, Alles höhere als Referenzkarte wäre für mich eine brutal krasse herbe Enttäuschung.


Bei 10% mehr-Ampere auf den PCIe-Steckern kämen OC Karten mit gleicher Steckerkombi auf
5,5A+6,875A+13,75A=26,125A = 313,5W

Falls auf 2x 8pin gewechselt wird ist da natürlich noch mehr möglich und auch okay sofern die Performance gescheid skaliert.

cat
2017-06-24, 01:10:53
so schlimm finde ich den Verbrauch in Games (durchschnittlich) bei FuryX überhaupt nicht.
246 Watt
https://www.techpowerup.com/reviews/Zotac/GeForce_GTX_1080_Ti_Amp_Extreme/29.html

Aber ich hatte mal ausgerechnet ab welchem Takt der riesige Fiji-Chip so wie er ist nichtmehr weiter skaliert. Ich meine es war bei 915-920MHz, ab da produziert mehr Takt eigentlich nurnoch Wärme, im Durchschnitt über mehrere Games.
Meiner Meinung nach liegt das an dem sehr hohen Verwaltungsaufwand im CommandProzessor und Treiber, das ist so unumgänglich weil die Architektur kaum self-Ballancing in Hardware kann und fast das komplette Frontend und die schlechte ROP-Anbindung weiteres verhindert.

Kleines Beispiel:
Die Texturbandbreite die FuryX mit HBM eigentlich stemmen müsste wird in synthetischen Tests bei weitem verfehlt.
Extrapoliert man die gemessene Bandbreite von einer 290X in diesen Tests hoch auf theoretische 512GB/s
traut man seinen Augen kaum, weil man ein perfektes Indiz dafür sieht, einen 100% Treffer ... und zwar folgenden:

Der Wert den eine theoretisch perfekt hochskalierte 290X haben müsste wird perfekt erreicht,
aber erst mit Kompression (die ja in Hawaii-Karten gänzlich fehlt).
Der erreichte Wert sind jedesmal exakt 76% der theoretischen max GB/s.

OHNE Kompression, erreicht durch das laden von Random-Texturen
fällt FuryX auf miese 65% zurrück.

Genau dieses wird wohl mit der Anbindung der ROP an den L2-Cache Geschichte sein.

cat
2017-06-24, 01:41:41
hier eine Tabelle damit
http://img.techpowerup.org/170623/gpu-bandwidth.png

exxo
2017-06-24, 02:50:18
Ich möchte nicht pedantisch erscheinen, aber man sollte bei elektrischen Geräten nicht von Stromverbrauch, sondern von Leistungsaufnahme reden.

Die Formel findet man hier:

https://en.wikipedia.org/wiki/Watt

Leistung in (A) wird mit der Spannung in Volt (V) multipliziert. Daraus ergibt sich eine Leistungsaufnahme in Watt (W).

Elektrische Geräte verbrauchen keinen elektrischen Strom (A) sondern wandeln diesen in Rechenleistung oder was auch nimmer um. Daher spricht der Physiker von Leistungsaufnahme.

Das ändern natürlich nichts daran das eine Grafikkarte xxx Watt an elektrischer Energie benötigt. Allerdings identifiziert die Benutzung des Begriffes "Stromverbrauch" jeden der diesen benutzt als jemanden, der in Physik nicht aufgepasst hat oder einen sehr schlechten Lehrer hat.

Warum reite ich darauf herum? Ganz einfach, wer den diesen Unterschied nicht kennt oder versteht, ist meistens auch nicht in der Lage zwischen Leistungsaufnahme und TDP zu unterscheiden

Und das kann man in diesem Forum eigentlich erwarten :biggrin:

Leonidas
2017-06-24, 07:00:46
Ich dachte diese Ente wurde bereits durch ComputerBase entlarvt?
Laut deren Recherche hat man für ein holländisches Statement eine wilde englische Übersetzung für nen Aufreger kreiert.

Es soll wohl aber eher in der Aussage so sein, dass Vega viel verbrauchen kann (will ja auch als HighEnd ans Maximum gehen?), aber ohne jeglichen Hinweis auf Effizienz.


Eine alternative Übersetzung wäre eben: "Verbraucht soviel wie nötig ist" (um das Performance-Ziel AMDs zu treffen).
Was das ist, bleibt auch danach offen.



So weit ich das gesehen habe, haben die Holländer nichts gegen die erstere Übersetzung. Die zweite Übersetzung erscheint mir dagegen wenig griffig - wieso sollte man eine solche Nichtaussage posten? Die Wahrheit könnte natürlich in der Mitte dessen liegen.

Gipsel
2017-06-24, 08:44:05
So weit ich das gesehen habe, haben die Holländer nichts gegen die erstere Übersetzung. Die zweite Übersetzung erscheint mir dagegen wenig griffig - wieso sollte man eine solche Nichtaussage posten?Weil man unter NDA steht und nichts Konkretes sagen darf (wie er in einem späteren Post im selber anmerkt)? Btw., ich habe einen Niederländer in meiner Arbeitsgruppe.
Die wahrscheinlichste Übersetzung (der Author hat vermutlich ein Komma nach dem "Tering" vergessen) wäre tatsächlich etwas wie "Liebe Güte, was die an Power braucht!" Auf die Anmerkung: "Das ist aber kein gutes Zeichen.", antwortet er dann: "Hängt davon ab, welche Performance man dafür bekommt :)".
Und später nennt er eben die Artikel über seinen Post Clickbaiting.

Leonidas
2017-06-24, 11:07:12
Die wahrscheinlichste Übersetzung (der Author hat vermutlich ein Komma nach dem "Tering" vergessen) wäre tatsächlich etwas wie "Liebe Güte, was die an Power braucht!" Auf die Anmerkung: "Das ist aber kein gutes Zeichen.", antwortet er dann: "Hängt davon ab, welche Performance man dafür bekommt :)".


So ähnlich übersetze ich das auch. Daher denke ich nicht, das die Übersetzung der CB korrekt ist.


Und später nennt er eben die Artikel über seinen Post Clickbaiting.


Womit er sicher nicht ganz Unrecht hat. Tut aber kaum was zur Sache. Ich kann aus der Aussage durchaus etwas rauslesen. Und die 3DC-Überschrift ist auch defensiv genug formuliert.

Gast
2017-06-24, 12:57:01
Ich möchte nicht pedantisch erscheinen, aber man sollte bei elektrischen Geräten nicht von Stromverbrauch, sondern von Leistungsaufnahme reden.

Die Formel findet man hier:

https://en.wikipedia.org/wiki/Watt

Leistung in (A) wird mit der Spannung in Volt (V) multipliziert. Daraus ergibt sich eine Leistungsaufnahme in Watt (W).

Elektrische Geräte verbrauchen keinen elektrischen Strom (A) sondern wandeln diesen in Rechenleistung oder was auch nimmer um. Daher spricht der Physiker von Leistungsaufnahme.

Das ändern natürlich nichts daran das eine Grafikkarte xxx Watt an elektrischer Energie benötigt. Allerdings identifiziert die Benutzung des Begriffes "Stromverbrauch" jeden der diesen benutzt als jemanden, der in Physik nicht aufgepasst hat oder einen sehr schlechten Lehrer hat.

Warum reite ich darauf herum? Ganz einfach, wer den diesen Unterschied nicht kennt oder versteht, ist meistens auch nicht in der Lage zwischen Leistungsaufnahme und TDP zu unterscheiden

Und das kann man in diesem Forum eigentlich erwarten :biggrin:
Letztlich definiert sich auch deine Formel an Talerchen, nämlich die, die der Strom-Zähler als Verbrauch in einer Mengenangabe ausweist und dort spricht man von Verbrauch. Ob du jetzt in Physik aufgepasst oder nicht ist völlig egal. Im Übrigen hat TDP oder TBP nichts mit der realen Leistungsaufnahme zu tun, wie wir wissen geht Energie nicht verloren und nicht alles was die Karte aufnimmt, wird dabei in Abwärme umgewandelt.

Wenn man also von Kosten für den Betrieb spricht, ist der Stromverbrauch laut Zähler schon eine relevante Größe (Anschaffungspreis und Betriebkosten) weil man letzteres nur in mathematischen Größen abrechnen kann, wenn man Leistungsaufnahme im Sinne von Herstellerreferenzen vergleichen will, passt es sicherlich nicht. Da hilft dir auch der Physiker nicht weiter, vor allem nicht der bei Wiki, sondern einfach nur klarer Menschenverstand.:biggrin:

Was der Einwurf soll frage ich mich echt, ist doch völlig offtopic. Jeder der hier unterwegs ist, weiss was damit gemeint ist, da muss man nicht den Oberlehrer raushängen lassen. Vor allem ist nicht jeder auf 3dcf Physiker. Es gibt hier auch einen Haufen Normalo-Nerds.:)

Ist das wieder so eine Art Versuch davon abzulenken das Vega doch mehr kann als alle annehmen? Solche Heinis kommen zur Zeit aus allen Ecken gekrochen.

AMD-Gast
2017-06-24, 13:14:27
Elektrische Geräte verbrauchen keinen elektrischen Strom (A) sondern wandeln diesen in Rechenleistung oder was auch nimmer um. Daher spricht der Physiker von Leistungsaufnahme.
Und der Techniker spricht von Leistungsaufnahme (in Watt) + zeitlicher Dauer der Auslastung (Zeit in min) = Verbrauch (in Kwh), auch Stromverbrauch in Währungen. Frag Dich mal wer Recht hat.

AMD-Gast
2017-06-24, 13:20:26
Womit er sicher nicht ganz Unrecht hat. Tut aber kaum was zur Sache. Ich kann aus der Aussage durchaus etwas rauslesen. Und die 3DC-Überschrift ist auch defensiv genug formuliert.
Wobei hier irgendwie aus Performance = Performa in der Überschrift geworden ist, wahrscheinlich weil die Software die Textgröße kappt?

Timbaloo
2017-06-24, 13:49:11
Elektrische Geräte verbrauchen keinen elektrischen Strom (A) sondern wandeln diesen in Rechenleistung oder was auch nimmer um.
Junge, junge, und du willst uns was über Physik erzählen.......

Gast
2017-06-24, 14:59:40
Im Übrigen hat TDP oder TBP nichts mit der realen Leistungsaufnahme zu tun, wie wir wissen geht Energie nicht verloren und nicht alles was die Karte aufnimmt, wird dabei in Abwärme umgewandelt.


Ähm weitestgehend schon.

Alles wird irgendwann zu Wärme bzw. Wärmesstrahlung.
Wenn man kleinlich ist könnte man noch sagen, dass über die Lüfter ein gewisses Maß der aufgenommenen Energie in Bewegungsenergie umgeweandelt wird und elektrische Signale die aus den Monitorausgängen eine geringe Menge Energie von der Karte wegtransportieren die zu dem Zeitpunkt keine Wärme- bzw. Strahlungsenergie ist.
Diese sind aber derart gering, dass man sie vernachlässigen kann und davon sprechen kann dass die Vollständige aufgenommene Energie in der Karte in Wärme bzw. Strahlung umgewandelt wird.

Und Koduri hat ja bereits mehr oder weniger bestätigt, dass alles (wesentlich) unter 300W ein Wunschtraum ist:
https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/dhqn7pu/

Im Grunde hat man damit auch eingestanden, dass die Verbrauchsziele nicht erreicht wurden, die Karten waren offenbar mit 8+6 geplant.
Das kann natürlich 2 Gründe haben: Entweder braucht die GPU einfach zu viel, oder die bessere Lösung, was auch zu AMD passen würde, die Taktraten wurden nochmal merklich gegenüber der ursprünglichen Planung angehoben. Letzteres würde immerhin eine gute Performance bedeuten.

Gipsel
2017-06-25, 00:00:28
hier eine Tabelle damit
http://img.techpowerup.org/170623/gpu-bandwidth.pngDiese Zahlen kursieren jedes Mal wieder und jedes Mal wird die gleiche falsche Schlußfolgerung gezogen. Langsam müßte sich doch mal rumgesprochen haben, daß die da nur einen Füllratentest mit einem 32bit-Framebuffer durchgeführt haben. Der ist aber bei AMD oft gar nicht bandbreitenlimitiert, sondern schlicht ROP-limitiert. somit kann man damit gar keine Aussage über die Effekte der Kompression treffen. Man schaue sich bitte die Füllratentests z.B. bei hardware.fr mit einem 64Bit-Framebuffer (und Blending) an und staune über ein völlig anderes Ergebnis.

AMD-Gast
2017-06-25, 00:58:50
Ähm weitestgehend schon.
Nein und warum? Weil Du versuchst den Grafikkarten einen Wirkungsgrad anzuhängen, den sie so nicht haben.

Alles wird irgendwann zu Wärme bzw. Wärmesstrahlung.
Nein, wenn dann schon in Reibung und wegen dissipativen Verlusten läßt sich Strom (elektrische Energie) nicht zu 100% in andere reine Energieformen umwandeln. Verloren geht trotzdem nichts, wie Du ja an der Thermodynamik bemerkst. Zudem vergißt Du völlig das die Grafikkarte auch ein Bild ausgibt.

Am Beispiel einer Glühlampe ist der Effekt am besten zu erklären, denn hier werden 5% der ursprünglichen elektrischen Energie in Licht umgewandelt, der Rest sind reine dissipative Verluste. Energie geht in jedem Fall nicht verloren und ist wandelbar, nur sollte man sich die Frage stellen in welchen Energieformen sie sich sinnvoll wandeln läßt. Vielleicht hilft da ja der Satz von Poynting und Energiebilanzen energetischer Systeme in der Elektrodynamik.

Mit Eurem Wirkungsgradvergleichen macht ihr Euch das viel zu einfach, Physiker hin oder her.

Gipsel
2017-06-25, 11:03:39
Und Koduri hat ja bereits mehr oder weniger bestätigt, dass alles (wesentlich) unter 300W ein Wunschtraum ist:
https://www.reddit.com/r/Amd/comments/6bklro/we_are_radeon_technologies_group_at_amd_and_were/dhqn7pu/

Im Grunde hat man damit auch eingestanden, dass die Verbrauchsziele nicht erreicht wurden, die Karten waren offenbar mit 8+6 geplant.Da interpretierst Du in das Statement aber ganz schön viel rein. Übrigens kommt z.B. die MI25 mit 8+6 Pin. ;)

=============================

Nein, wenn dann schon in Reibung und wegen dissipativen Verlusten läßt sich Strom (elektrische Energie) nicht zu 100% in andere reine Energieformen umwandeln.In Wärme schon, denn "Reibung und dissipative Verluste" enden typischerweise als Wärme.
Zudem vergißt Du völlig das die Grafikkarte auch ein Bild ausgibt.Das ist laut Spec maximal 5W (real meist weniger).
Am Beispiel einer Glühlampe ist der Effekt am besten zu erklären, denn hier werden 5% der ursprünglichen elektrischen Energie in Licht umgewandelt, der Rest sind reine dissipative Verluste.Also Wärme.
Bei einer CPU/GPU wird praktisch Alles an zugeführter Leistung in Wärme umgesetzt. Im Prinzip kannst Du theoretisch z.B. internen oder angeschlossenen Speicher in einen energetisch etwas höherliegenden (geordneten) Zustand überführen, aber die dazu nötige Energie ist absolut unerheblich und praktisch nicht meßbar (außerdem von der für das Schreiben nötigen Energie absolut überkompensiert).
Kurz: Als Heizung hat eine CPU/GPU praktisch 100% Wirkungsgrad (Alles wird in Wärme umgewandelt).

Und jetzt zurück zum Thema!

BlacKi
2017-06-25, 11:47:10
Im Grunde hat man damit auch eingestanden, dass die Verbrauchsziele nicht erreicht wurden, die Karten waren offenbar mit 8+6 geplant.
Das kann natürlich 2 Gründe haben: Entweder braucht die GPU einfach zu viel, oder die bessere Lösung, was auch zu AMD passen würde, die Taktraten wurden nochmal merklich gegenüber der ursprünglichen Planung angehoben. Letzteres würde immerhin eine gute Performance bedeuten.
solange du nicht gute performance definierst, kannst du nicht von einer '"besseren lösung" sprechen. ist die gute performance bei 300w -10% ggü. der 1080ti? oder wie meinst du das?

der hohe verbrauch spricht für mich dafür das man die 1080ti entweder nicht erreicht oder nur dank des hohen verbrauchs gerade so erreicht. aber nicht, das man deutlich schneller als die ti wäre.

Gast
2017-06-25, 14:25:11
Im Prinzip kannst Du theoretisch z.B. internen oder angeschlossenen Speicher in einen energetisch etwas höherliegenden (geordneten) Zustand überführen, aber die dazu nötige Energie ist absolut unerheblich und praktisch nicht meßbar (außerdem von der für das Schreiben nötigen Energie absolut überkompensiert).
Wenn sie nicht messbar wäre braucht AMD keinen HBM oder HBM2 um auf der anderen Seite Energie einzusparen. Exergieverluste (die auch durch Dissipation entstehen) sind von vorherein nicht verwendbare Energieanteile. Der Gast meinte mit seinem Glühlampenbeispiel wohl den nicht nutzbaren Teil der elektrischen Energie der schon von vornherein feststeht, denn die Glühbirne zeigt ihren Wirkungsgrad klar auf. Wenn 5% reichen um die Glühfaden zum leuchten zu bringen und den gewünschten Lichteffekt (Strahlungsenergie) zu erzeugen, werden die restlichen 95% rein für die Nutzung unrelevant und in andere Formen umgewandelt. Das sagt ja auch der Energieerhaltungssatz aus. Exergie und Anergie ergeben addiert Energie. Das heisst ein Teil der Energie ist schon von Anfang an nicht nutzbar und kann dann auch durch die GPU nicht in gewünschte Formen gewandelt werden. Sie wird in immer höhere Abwärme umgewandelt und desto mehr Energie ich zuführe, wird diese das Material oder den Glühfaden der Glühbirne irgendwann schmelzen lassen. An dem fixen Wert "300Watt" kann man daher nichts festmachen, der sagt nur aus wieviel Abwärme ein Kühlsystem abführen muss damit obiges nicht pasiert. NVidia schafft es ja auch aus weniger elektrischer Energie mehr fps zu erzeugen.


Bei einer CPU/GPU wird praktisch Alles an zugeführter Leistung in Wärme umgesetzt.
Der GPU werden keine 300Watt "Leistung" zugeführt. Die 300Watt sind reiner Ausdruck davon was an Wärme abgeführt werden muss, nicht wieviel Energie zugeführt wird. Ein Teil davon wird schon auf dem Weg zur GPU vernichtet, siehe auch Exergievernichtung und Entropieerzeugung.


Da interpretierst Du in das Statement aber ganz schön viel rein. Übrigens kommt z.B. die MI25 mit 8+6 Pin.
Die MI-25 kommt mit 300Watt und genau darüber wurde bei Vega bereichtet, dass bedeutet bei AMD nicht TDP sondern Typical Board Power (TBP) was mit dem Thermal Design Power rein gar nichts zu tun hat. Die Karte kann deutlich mehr aufnehmen als die Anschlüsse glauben machen, denn AMD rechnet sich da irgendeinen fixen Wert zurecht um einfach besser dazustehen. Was die Karte maximal aufnehmen kann hat damit rein gar nichts zu tun. AMD ignoriert die VRM und deren Wirkverluste ja vollkommen.
http://instinct.radeon.com/product/mi/radeon-instinct-mi25/

Watt ist nichts weiter als Energieumsatz pro Zeitspanne. Wie viel Energie dabei in relevante Formen umgewandelt wird gibt Watt nicht an. Woran will man dann ein Leistungsabbild von Vega festmachen? Die GPU ist kein rein ohmischer Widerstand, es wird nur gerne so dargestellt. Man müsste wahrscheinlich auch noch auftretende Scheinleistung berücksichtigen.

Gast
2017-06-25, 19:07:19
solange du nicht gute performance definierst, kannst du nicht von einer '"besseren lösung" sprechen. ist die gute performance bei 300w -10% ggü. der 1080ti? oder wie meinst du das?

Gute Performance wäre mindestens die 1080Ti, keinenfalls darunter.
Man darf nicht vergessen, dass aufgrund der Verzögerung Pascal nur der temporäre Gegner für Vega sein wird, der eigentliche wird Volta. Und Volta wird sicher nicht unter Pascal performen.
Alles unter 1080Ti wäre auf jeden Fall eine herbe Enttäuschung.

Ich gehe auch davon aus, dass die wohl recht kurzfristige Entscheidung für eine höheres Power-Budget daran liegt um die 1080Ti sicher zu schlagen.
Dafür wird man eben im Mittel nahe 300W und Spitzen darüber haben und da es schon bei der 480 nicht gerade gut angekommen ist, dass der reale Verbrauch über den Spezifikationen liegt geht man wohl auf Nummer Sicher.

Es würde auch wenig Sinn machen die Frontier Editon gegen den Titanen zu platzieren, wenn man nicht deren Performance erreichen kann, und sei es nur die Wassergekühlte Spezialedition mit 375W.

Da davon auszugehen ist, dass Volta wohl wieder mit der Mittelklasse im Highend startet, und das bei Nvidia üblicherweise eine Performance von +10-20% gegenüber dem alten Highend bedeutet, wäre es schon ganz gut wenn Vega in diesem Bereich landen könnte.

Gast
2017-06-25, 21:10:42
Nein, wenn dann schon in Reibung und wegen dissipativen Verlusten läßt sich Strom (elektrische Energie) nicht zu 100% in andere reine Energieformen umwandeln.


Reibung ist in dem Sinn keine Energieform sondern die Ursache, dass Energie, richtig geraten, in Wärme umgewandelt wird.

Gast
2017-06-26, 01:12:44
Reibung ist in dem Sinn keine Energieform sondern die Ursache, dass Energie, richtig geraten, in Wärme umgewandelt wird.
Wo schreibt er was davon das Reibung eine Energieform ist? Es geht dabei um Energiewandlung. Du solltest selbst aufhören zu raten und vor allem soviel Schrott zu schreiben.:rolleyes:


Als Heizung hat eine CPU/GPU praktisch 100% Wirkungsgrad (Alles wird in Wärme umgewandelt).

In Wärme schon, denn "Reibung und dissipative Verluste" enden typischerweise als Wärme.
Na klar - aber könntest du noch mal nachlesen was Dissipation bedeutet?

Dissipation ist Zerstreuung:

Dissipation der Energie ist der pro Zeiteinheit in Wärme umgesetzte und für das System "verloren gegangene Energieanteil".

Er meint sicher eine Form der Verlustleistung. Genau das sagen auch die 300w TBP aus. Daraus errechnet sich die Wirkleistung, wenn man den Anteil tatsächlich zugeführter Energie berücksichtig. Das hat rein gar nichts mit "umwandeln in Wärmeenergie zu 100% tun" und woran man einen Wirkungsgrad festmachen könnte. Die angegebene TDP ist "immer" niedriger als der tatsächliche Energiebedarf. Ich glaube du hast gerade zu "100%" einen Bock geschossen.

Timbaloo
2017-06-26, 01:52:28
Oh mein Gott, wozu ist das 3DC verkommen... nur noch Vollidioten... :(

Gipsel
2017-06-26, 02:02:05
Wenn sie nicht messbar wäre braucht AMD keinen HBM oder HBM2 um auf der anderen Seite Energie einzusparen.:facepalm:
Du hast offenbar überhaupt nicht verstanden, was ich schrieb. Lies nochmal nach!
Exergieverluste (die auch durch Dissipation entstehen) sind von vorherein nicht verwendbare Energieanteile. Der Gast meinte mit seinem Glühlampenbeispiel wohl den nicht nutzbaren Teil der elektrischen Energie der schon von vornherein feststeht, denn die Glühbirne zeigt ihren Wirkungsgrad klar auf. Wenn 5% reichen um die Glühfaden zum leuchten zu bringen und den gewünschten Lichteffekt (Strahlungsenergie) zu erzeugen, werden die restlichen 95% rein für die Nutzung unrelevant und in andere Formen umgewandelt. Das sagt ja auch der Energieerhaltungssatz aus. Exergie und Anergie ergeben addiert Energie. Das heisst ein Teil der Energie ist schon von Anfang an nicht nutzbar und kann dann auch durch die GPU nicht in gewünschte Formen gewandelt werden. Sie wird in immer höhere Abwärme umgewandelt und desto mehr Energie ich zuführe, wird diese das Material oder den Glühfaden der Glühbirne irgendwann schmelzen lassen. An dem fixen Wert "300Watt" kann man daher nichts festmachen, der sagt nur aus wieviel Abwärme ein Kühlsystem abführen muss damit obiges nicht pasiert. NVidia schafft es ja auch aus weniger elektrischer Energie mehr fps zu erzeugen.

Der GPU werden keine 300Watt "Leistung" zugeführt. Die 300Watt sind reiner Ausdruck davon was an Wärme abgeführt werden muss, nicht wieviel Energie zugeführt wird. Ein Teil davon wird schon auf dem Weg zur GPU vernichtet, siehe auch Exergievernichtung und Entropieerzeugung.Na dann mal raus mit der Sprache: Was ist die die nutzbare Arbeit, die eine GPU/CPU verrichtet (also was wäre die Differenz zwischen zugeführter Leistung und dissipierter Wärme)?
Das Entropieargument hatte ich etwas verklausuliert (Speicherzustände) schon erwähnt, genau wie daß das praktisch absolut irrelevant ist (setze mal Zahlen ein und rechne das aus! ;)).
Und was Du irgendwo auf dem Weg der Zuleitung "vernichtest", wird ebenfalls als Wärme dissipiert, das kannst Du also da locker mit drinbehalten. ;)
Die MI-25 kommt mit 300Watt und genau darüber wurde bei Vega bereichtet, dass bedeutet bei AMD nicht TDP sondern Typical Board Power (TBP) was mit dem Thermal Design Power rein gar nichts zu tun hat. Die Karte kann deutlich mehr aufnehmen als die Anschlüsse glauben machen, denn AMD rechnet sich da irgendeinen fixen Wert zurecht um einfach besser dazustehen. Was die Karte maximal aufnehmen kann hat damit rein gar nichts zu tun.Wann ist das bei Karten für das Profi- und Serversegment schon mal passiert?
AMD ignoriert die VRM und deren Wirkverluste ja vollkommen.
http://instinct.radeon.com/product/mi/radeon-instinct-mi25/Das dürfte ziemlich unmöglich sein. Und was soll mir der Link sagen?
Watt ist nichts weiter als Energieumsatz pro Zeitspanne. Wie viel Energie dabei in relevante Formen umgewandelt wird gibt Watt nicht an.Bei einer CPU/GPU ist das einzig relevante Wärme. Und doch, genau das gibt es an.
Woran will man dann ein Leistungsabbild von Vega festmachen? Die GPU ist kein rein ohmischer Widerstand, es wird nur gerne so dargestellt. Man müsste wahrscheinlich auch noch auftretende Scheinleistung berücksichtigen.;D
Ich sehe, da hat wer richtig Ahnung. :rolleyes:

============================


Als Heizung hat eine CPU/GPU praktisch 100% Wirkungsgrad (Alles wird in Wärme umgewandelt).

In Wärme schon, denn "Reibung und dissipative Verluste" enden typischerweise als Wärme.
Na klar - aber könntest du noch mal nachlesen was Dissipation bedeutet?

Dissipation ist Zerstreuung:
Dissipation der Energie ist der pro Zeiteinheit in Wärme umgesetzte und für das System "verloren gegangene Energieanteil".Sagt Dein Zitat (woher eigentlich?) nicht genau das Gleiche wie ich? :rolleyes:
Aber schön, daß Du mir da zustimmst.

Er meint sicher eine Form der Verlustleistung. Genau das sagen auch die 300w TBP aus. Daraus errechnet sich die Wirkleistung, wenn man den Anteil tatsächlich zugeführter Energie berücksichtig. Das hat rein gar nichts mit "umwandeln in Wärmeenergie zu 100% tun" und woran man einen Wirkungsgrad festmachen könnte. Die angegebene TDP ist "immer" niedriger als der tatsächliche Energiebedarf. Ich glaube du hast gerade zu "100%" einen Bock geschossen.Ich denke, das warst eher Du.
Was "wirkt" denn eine CPU/GPU außer irgendwo ein paar Bits zu kippen? Und ich habe bereits gesagt, daß die damit indirekt über die Entropie verbundene Energie absolut zu vernachlässigen ist (das ist bei Raumtemperatur irgendwas im Bereich von einem nW (nanoWatt) bei 100GB/s geschriebenen Daten, wenn ich das jetzt richtig überschlagen habe). In anderen Worten, der "entropische" Wirkungsgrad einer modernen GPU liegt irgendwo im Bereich von unter 10-11. Das heißt 99.999999999% der zugeführten Energie werden letztendlich in Wärme umgesetzt *). Das ist verdammt nah an 100% und zeigt, daß zumindest theoretisch noch jede Menge Platz für Energieeffizienzsteigerungen da ist, bevor man an das absolute Limit kommt.

Ich hoffe wirklich, damit ist diese sinnlose Diskussion beendet.

*): Und das auch nur kurzfristig. Der Speicher bleibt ja nicht in dem Zustand. Man ändert doch praktisch den selben Speicher immer wieder, wodurch diese entropische Wirkung nicht persistent ist.
=> am Ende sind es dann doch 100% in Wärme.

AMD-Gast
2017-06-26, 22:49:47
1.'Consumer RX will be much better optimized for all the top gaming titles and flavors of RX Vega will actually be faster than Frontier version'

2.'I grabbed an engineering board from the lab on the way to the Sunnyvale auditorium, and that boards works well with a 6 and an 8 pin. We decided to put two 8 pin connectors in the production boards to give our [B]Frontier users extra headroom.[/B'

Ich weiß ehrlich nicht was man da noch hinein interpretieren will. Die Frontier haben 8+8 weil es eine Serienstreuung gibt und AMD sicherlich bei einem 'Premium' Produkt immer die gleiche Leistung abliefern will. Wäre ja blöd, wenn die Platine dann zu früh ins Limit läuft, weil ihr die elektrische Energie fehlt. Man kann auch in Entwicklungsphasen nicht alle Szenarien durch testen.

Was für ein Shitstorm wegen eines Satzes.:confused:

Gast
2017-06-27, 12:36:17
die können einfach nicht genügend anpressdruck auf das interposergedöns ausüben. das ist so hauchdünn das es sonst zu brüchen führen kann. davor fürchten sich auch die meisten partner und dem brachialen aufwand den ein customkühler dann braucht. schon bei fiji war das so. das treibt die kosten immens in die höhe. dann lässt man die gpu lieber mit einem nullachtfünfzehn referenz materialmix bei gleichbleibend hoher leistungsaufnahme vor sich hin dödeln.

Gipsel
2017-06-27, 14:21:30
Dünn heißt typischerweise auch flexibel (sehr dünne Siliziumwafer kann man ziemlich stark verbiegen, ohne daß sie brechen, funktioniert mit dünnen Glasplättchen ja auch und mit noch dünneren Glasfasern noch besser ;)). Das alleine kann es eigentlich nicht sein. Brechen vielleicht die Lötverbindungen an den TSVs (sehr kleine Kupfer"säulen" mit Silber-Zinn-Lötpunkt obendrauf) schnell? Die sind ja relativ klein und auch nicht hoch, so daß man da Probleme mit der Verwendung von underfill (der das bei normalen Lötkontakten normalerweise stabilisiert) bekommt.

exxo
2017-06-28, 21:14:39
Ist das wieder so eine Art Versuch davon abzulenken das Vega doch mehr kann als alle annehmen? Solche Heinis kommen zur Zeit aus allen Ecken gekrochen.

Oha das war nun wirklich nicht mein Ansinnen :D

Gezielte Desinformation ist nicht mein Ding, ich werde weder von AMD bezahlt, noch bin ich übermäßig markenaffin.

Btw sehe ich den Rest deines Post halt etwas anders, aber darüber lässt sich sicherlich herzlich streiten...

Ich bezweifle übrigens das Vega ab Day One so toll wird wie sich das so manch einer schön hypt. AMD wird sicherlich Monate brauchen bis die Treiber den nötigen Feinschliff haben um das ggf. vorhandene Potenzial aus der Hardware zu quetschen. Vielleicht ist Potenzial vorhanden...