PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 29. Januar 2019


Leonidas
2019-01-30, 11:35:59
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-29-januar-2019

basix
2019-01-30, 12:37:52
Zum letzten Satz von dir: Es muss nicht unbedingt ein neues Fertigungsverfahren sein. Es kann ja auch über die Architektur eine entsprechende Mehrleistung generiert werden. Preis/Leistung und Performance/Watt ist entscheidend. Das Fertigungsverfahren an sich ist ja eigentlich egal.

Eine Architektur bedingte Mehrleistung ist bei Turing prinzipiell der Fall, aber eben leider nur in Randbereichen in heutigen Spielen (Raytracing, AI). Schafft man aber die Hohe Performance ebenfalls breit über alle Spiele, dürfte es kein Thema sein. Das ist wie in der News geschrieben ja auch das Hauptproblem (neben den hohen Preisen). Ob jetzt 12nm oder 7nm spielt hier im Kern aber nur eine untergeordnete Rolle. Maxwell hat in 28nm gezeigt, dass eben auch die Architektur eine sehr grosse Rolle spielt.

Ben Carter
2019-01-30, 15:56:33
Dass 35% Mehrleistung als zu wenig angesehen wird, liegt vielleicht auch an der Zeit zwischen Pascal und Turing. Wäre zwischen den beiden Generationen nur ein Jahr vergangen, wäre das sicherlich auch anders gesehen worden.

Gast
2019-01-30, 16:05:14
Selbst wenn AMD durch die Radeon VII keinerlei Gewinn im Verkauf erzielt, würde sich das durch die kostenlose Werbung in den Medien weltweit trotzdem lohnen. Eine vergleichbare Werbekampagne würde schließlich Millionen kosten.

cat
2019-01-30, 16:15:15
Wenn nvidia nicht im Top-End so großen Abstand zur Vega64 hätte, wäre nvidia bestimmt nicht das quasi Risiko eingegangen durch Zugabe von RT oder TensorCores die Krone abzugeben.

Wie man jetzt aus der Radeon VII Benchmarks erkennt wäre selbst einem Vega 7nm Vollausbau auf 2GHz kein Sieg auf breiter Front möglich.

Über die trotz 7nm unterirdische Effizienz brauch ich hier garnicht anfangen.

Der Zeitpunkt ist von Nvidia nicht schlecht gewählt.
---------------------------------------------------------

Ich hatte die Frank Azor, Alienware Geschichte bei der GameStar gesehen und dort wurde im letzten Satz das "AMD or Nvidia" fälschlicherweise mit "und" übersetzt.

Das "or" finde ich wirklich gut, weil Herr Azor quasi nur sagt eine 2080Ti dürfte vor Intel sicher sein.

Ich persönlich halte eine Radeon VII für von Intel aus dem Stand schlagbar.

Gast
2019-01-30, 18:12:49
Bis Intels Grafikkarte auf den Markt kommt vergeht noch einige Zeit.
2080Ti Performance wird dann bei Nvidia vermutlich die Mittelklasse sein, also jetzt nicht gerade eine Besondere Leistung.

Gast
2019-01-30, 19:55:45
Dass immer wieder auf die geringe Effizienz der VII angespielt wird, ist doch albern. Man vergisst zu gerne, dass es sich um eine nicht primär für Gamer entwickelte Architektur handelt. Und so effizient ist Turing auch nicht immer. Da geht der Stromverbrauch auch gern mal in den 300 Watt Bereich.

Gast
2019-01-30, 20:06:23
Vor ein paar Jahren als Intel noch einen großen Fertigungsvorsprung hatte gegenüber TSMC usw da hätte das gut gelingen können, man hätte die Konkurenz durch die Fertigung ausstechen können auch wenn man zumindest zu begin keine so gute Architektur gehabt hätte wie Amd und Nvidia mit ihren jahrzehntelangen Erfahrungen und Entwicklungsvorsprung. Jetzt so man von TSMC überholt wird glaube ich nicht das Intel es schafft preislich konkurenzfähig zu sein, zumindest nicht wenn am Ende auch noch Geld verdient werden soll.

Gast
2019-01-30, 22:11:52
Vor ein paar Jahren als Intel noch einen großen Fertigungsvorsprung hatte gegenüber TSMC usw da hätte das gut gelingen können, man hätte die Konkurenz durch die Fertigung ausstechen können auch wenn man zumindest zu begin keine so gute Architektur gehabt hätte wie Amd und Nvidia mit ihren jahrzehntelangen Erfahrungen und Entwicklungsvorsprung. Jetzt so man von TSMC überholt wird glaube ich nicht das Intel es schafft preislich konkurenzfähig zu sein, zumindest nicht wenn am Ende auch noch Geld verdient werden soll.

Da braucht es keinen der glaubt die Fakten liegen auf dem Tisch und der Gewinn ist weiterhin gross genug um sich Expertise und Know-how einzukaufen sollte sie nicht intern verfügbar sein.

Alle maulen über Intels 14 nm Chips , das die Konkurrenz hier auf 7 nm gehen muss für einen Performancegleichstand mit besserer Effizienz zeigt das diese CPUs und Fertigung wohl doch nicht so schlecht seien kann wie immer ausgemalt und proklamiert.

Platos
2019-01-30, 23:16:24
Dass 35% Mehrleistung als zu wenig angesehen wird, liegt vielleicht auch an der Zeit zwischen Pascal und Turing. Wäre zwischen den beiden Generationen nur ein Jahr vergangen, wäre das sicherlich auch anders gesehen worden.


Es gibt nur nicht 35% Mehrleistung für das selbe Geld. Es gibt im Grunde weniger. Die 2060 bietet 1070ti Perfomance mit weniger Speicher, die 2080 1080ti perfomance mit weniger speicher und die 2080ti ist so oder so überteuert. Die einzige Karte, die gerade noch so vertretbar ist, ist die 2070. Alles andere in der RTX 2000 Gen hat ein schlechteres PL. Natürlich ist da noch RT oben drauf, allerdings kann man damit nichts anfangen wärend der Turing-Gen. Jeder der das kauft, ist nur ein Sponsor. Selbst in der nächsten Gen von nvidida wird RT noch kein Standart sein. Dann wird es immer noch nicht mehr, als man an der Hand abzählen kann. Turing wird also in seiner Zeit keinen wirklich nutzen aus RT ziehen können, bis auf die wenigen Titel.

Ergo: Turing ist, bis auf die 2070, einfach sogar noch schlechter, als die vorherige Gen, aus sicht des Kunden. Und selbst bei der 2070 muss man 3 Augen zudrücken, um das einen (würdigen) Fortschritt zu nennen

MiamiNice
2019-01-30, 23:39:37
Es ist so eine einfache Rechnung :biggrin:

Leonidas
2019-01-31, 05:54:13
Est ist in jedem Fall erstaunlich ... NV hat jahrelang den Markt komplett bestimmt, nun bekommt man erstmals seit längerer Zeit echten Gegenwind (wenn auch nur geschäftlich).

etp_inxession
2019-01-31, 07:13:46
Intel hat es doch jahrelang vorgemacht, was passiert wenn man im TopEnd alleine da steht.

Man melkt den Kunden mit höheren Preisen und leichten Performance Steigerungen.

@cat ... eine GPU wird nicht einfach schnell mal entwickelt. RT zu integrieren ist eine Design Entscheidung die schon vor einigen Jahren getroffen wurde.

Ich finde es gut, das AMD aktuell nicht TopEnd liefern kann. Sollen die paar "Hanserl" die FPS Geilheit mit einer 2080ti und einer Intel CPU, das Geld dort lassen.

Für alle anderen stehen in jedem Segment auch AMD Alternativen zur Verfügung, sowohl GPU als auch CPU seitig. Und da spart man dann meist noch massiv Geld bei nur "messbar" weniger Leistung.

Das einzige was man AMD, und deren GPU Partner wirklich ankreiden muss, ist die Tatsache, das die Chips nicht am Effizienz Spot betrieben werden, sondern scheinbar an der sichersten Voltage.

Man kann die meisten AMD Karten so gut nach unten trimmen, das man auf Pascal Niveau liegt, was Verbrauch und Leistung betrifft. Da sieht man dann die fehlende Man Power seitens AMD.

Und die Faulheit der OEMs, diesen SweetSpot nicht bei den Customs selbst zu suchen und zu finden.

Timbaloo
2019-01-31, 08:49:54
Ich finde es gut, das AMD aktuell nicht TopEnd liefern kann.
Weil man dann sehen würde, dass AMD aktuell schlicht nicht preiseffizienter an deren oberen Ende des Lineups (Vega 64) ist?

Booby
2019-01-31, 18:21:34
Weil man dann sehen würde, dass AMD aktuell schlicht nicht preiseffizienter an deren oberen Ende des Lineups (Vega 64) ist?
Stimmt meiner Meinung nach nicht, eine Vega 56 ist für mich aktuell die beste Karte im 300-400€ Segment. Insbesondere wenn man sich eine Stunde Zeit nimmt und die Effizienz und Leistung auf 1080 Niveau hebt.

Gast
2019-01-31, 19:02:31
Dass immer wieder auf die geringe Effizienz der VII angespielt wird, ist doch albern.

Das soll ein Scherz sein oder? 300W für einen 300mm² chip in 7nm? Falls die TDP dem einigermaßen dem tatsächlichen Verbrauch entspricht ist das ein absolutes Desaster.

AMD kann damit gar keine echte high-end GPU mit ~500mm² bringen kann, ganz einfach weil das Teil dann um die 500W fressen würde.


Man vergisst zu gerne, dass es sich um eine nicht primär für Gamer entwickelte Architektur handelt.

Im Gegensatz zu Nvidia gibt es bei AMD keine nicht für Gamer entwickelte Architektur. Es handelt sich immer noch um Vega einer klar für Gaming entwickelten Architektur.


Und so effizient ist Turing auch nicht immer. Da geht der Stromverbrauch auch gern mal in den 300 Watt Bereich.

Ich sage nur 7nm gegenüber 12nm (bzw. 14nm+), dass Vega mit 7nm nicht mal die Effizienz von Turing in 12nm erreicht ist wie schon erwähnt ein absolutes desaster.
Wenn nicht wirtschaftliche Interessen dagegen wären, müsste es AMD eigentlich peinlich sein Vega 20 überhaupt zu veröffentlichen.

300W sind kein Problem, wenn die Performance dazu passt.

Gast
2019-01-31, 20:06:18
Naja... DP-Leistung unterschlägst Du mal eben. Zudem ist AMD Erster mit 7nm; Nvidia hat dort noch keine Erfahrung. Ein reiner Shrink KANN es nicht sein. Polemik ersetzt doch keine Argumente.

Ist es nicht eher peinlich, dass NV für vergleichbare Leistung die Chipfläche so massiv steigern musste?

cat
2019-01-31, 21:57:19
Alle paar Monate mit der Brechstange ein paar Prozent draufpacken.
Evtl. dabei ein paar teildefekte Radeon Pro Chips verwursten können.

1. Es ist noch Winter.
2. Strom ist nicht überall so teuer wie in Germany.

Lustig wie einige hier argumentieren, 300W TDP egal hauptsache fast so schnell wie Nvidia mit 180W.

Die Effizienz zeigt sich auch nach oben hin, AMD könnte mit 600W oder 1000W keine 2080Ti OC schlagen, weil der Chip entweder nichtmehr mit dem Takt skaliert oder verglüht, oder beides.

Gast
2019-02-01, 01:30:09
Dass 35% Mehrleistung als zu wenig angesehen wird, liegt vielleicht auch an der Zeit zwischen Pascal und Turing.
Dass das so gesehen wird, ist einfach Blödsinn und liegt an der derzeitigen unverhältnismäßigen Pro-AMD-Anti-Alles-Andere-Einstellung, die leider derzeit beinahe alle Kreise im Griff hat. Daher wird bei anderen Herstellern halt wirklich alles an jeder möglichen Stelle schlechtgeredet.

Realistisch betrachtet, sind 35% zwar für eine neue NVidia-Generation unterdurchschnittlich, aber das war's dann auch. Wenn man bedenkt, dass die Mehrleistung ohne neue Fertigung überwiegend aus Architektur-Verbesserungen ohne großartig gestiegenen Taktraten bei recht konstanten Leistungsaufnahmen kommt, ist das technisch sogar recht gut und noch ein Grund mehr, warum sich NVidia das Experiment überhaupt leisten konnte. (Neben der auf ganzer Linie enttäuschenden Vega-Generation).

Der einzige Konkurrent AMD liefert seit späten GCN-Zeiten auch nicht mehr, selbst wenn eine neue Fertigung mitgeholfen hat.
Vielleicht meint manch einer jetzt, dass der sehr große Schub von Maxwell zu Pascal, den es davor gab, der neue Maßstab sein muss. Dann sollte er das aber auch überall sein.

Die "normale" Mehrleistung von Turing ist okay. Das Problem ist das Verhältnis von bisherigem Nutzen zu Chipfläche bei den neuen Technologien. Weniger hätte man nicht wirklich machen können, wie man ja an den Ergebnissen sieht.

Gast
2019-02-01, 23:55:52
Naja... DP-Leistung unterschlägst Du mal eben.

Ist für Gaming irrelevant, da nicht aktiv, und das AMD die FP64 Units powergated traue ich sogar denen zu.


Zudem ist AMD Erster mit 7nm; Nvidia hat dort noch keine Erfahrung.

Und? Apples erster 7nm SoC zeigt auch enorme Effizienzsteigerungen, dass AMDs erster 7nm Chip so schlecht ist, ist alleine deren Schuld (bzw. genauer gesagt die erste GPU, bei den CPUs besteht ja durchaus noch Hoffnung, dass es deutlich besser aussieht)


Ein reiner Shrink KANN es nicht sein.
Was auch immer es ist, das (zu erwartende*) Ergebnis ist jedenfalls unterirdisch, nicht von der Performance, aber vom Verbrauch.
Da braucht man gar nicht zur Konkurrenz schauen, ein einfacher Vergleich zum Vorgänger reicht.

+25% verbesserte Energieeffizienz für 1,5 Fertigungsstufen ist einfach extrem schlecht, da kann man sich nichts mehr schönreden.

Die Performance ist da wo man sie für Vega@7nm erwarten konnte, nur konnte man sich das zu ~200W erwarten.

* Natürlich immer angesichts der aktuellen Vorhersagen, und während die Performance schon weitestgehend feststehen dürfte, wissen wir zum Verbrauch noch nichts außer der TDP. Sollte die TDP wider erwarten ein maximalwert sein der in der Praxis kaum erreicht wird und die reale Leistungsaufnahme weit darunter liegen, würde das natürlich auch die Bewertung von Vega 7 ändern. Nach den letzten Generationen die alle entweder an ihrem eingestellten Temperatur- oder Leistungslimit hängen, je nach vorhandener Kühlung, erscheint mir das allerdings sehr unwahrscheinlich und ich gehe von einem Verbrauch von ~300W bei einer Leistung im Bereich 1080Ti/RTX2080 aus, und das ist angesichts der eingesetzten Fertigung einfach nur schlecht.

Mann kann nur hoffen, dass AMD mit Navi endlich mal eine anständige Architektur hinbekommt, allein mir fehlt der Glaube. AMD hat mit Polaris-Architektur mehr Effizienz versprochen, herausgekommen sind hauptsächlich die Verbesserungen durch die Fertigung, von der Architektur hat sich kaum was getan. Man hat mit Vega große Verbesserungen der Architektur versprochen, herausgekommen ist im Vergleich zu Polaris kaum was.
Und jetzt mit Vega 7 erreicht man gegenüber dem 14nm Vega nicht mal die Hälfte was Polaris gegenüber dem 28nm Vorgänger erreicht hat.

AMD braucht dringend eine neue Architektur, GCN ist am Ende, das sieht man schon die letzten 3 Generationen.


Polemik ersetzt doch keine Argumente.


Die Argumente sind Schwarz auf Weiß. AMD erreicht einen Effizienzsprung von 25%, wobei man alleine durch die Fertigung mindestens 50% erwarten sollte. Dass AMD bei der Architektur hinterherhinkt ist klar, es ist immer noch Vega und wir wissen seit einigen Jahren recht gut was Vega kann und auch nicht kann, aber zumindest dass man den Vorteil der Fertigung voll mitnimmt hätte man erwarten können.