PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 4. Juni 2020


Leonidas
2020-06-05, 09:05:25
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-4-juni-2020

Lowkey
2020-06-05, 09:12:52
Intel muss seine HEDT komplett überarbeiten. Die verkaufen sich nicht mehr.

Intel stellt gerne zu CES neue CPUs vor. Das wäre dann 2021.

Nivida wird die 3000er Serie schon auf Big Navi auslegen bzw. sie wissen was kommt. Eventuell gibt es zum Marktstart mindestens die Ankündigung auf alle Produkte und keine Verzögerungstaktiken.

Mega-Zord
2020-06-05, 09:30:23
Ich wäre eigentlich schon erstaunt, wenn die zwei Jahre alte 2080 Ti geschlagen wird. Aber etwas Hoffnung, dass NV im Enthusiast-Segment wirklich unter Druck gesetzt wird, kann ja nicht schaden.

Aktuell kann ich mir sehr gut vorstellen, Anfang 2021 von Intel auf AMD umzusteigen. Aber eine Grafikkarte wird vermutlich wieder für viel zu viel Geld bei Nvidia gekauft.

Leonidas
2020-06-05, 09:38:33
Intel muss seine HEDT komplett überarbeiten. Die verkaufen sich nicht mehr.


Unbedingt. Aber es wird wohl nur unter Cove-Kernen gehen, weil die Skylake-Architektur unter 14nm einfach ausgereizt ist. Nur scheint Ice Lake SP wohl nicht ins HEDT-Segment zu kommen - oder erst 2021. Oder man kippt das alles komplett und konzentriert sich auf Sapphire Rapids - das ist faktisch Tiger Lake für Server. Nur mit wiederum der Frage: Schon ausreichend für HEDT?

Flusher
2020-06-05, 11:39:23
Link zu "AMD "Sienna Cichlid" Infos" verweist zu IgorsLab "AMD-Grafikkarten unter Linux übertakten oder modifizieren? Geht auch! "

Leonidas
2020-06-05, 12:20:23
Gefixt. Der korrekte Link lautet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12326279#post12326279

Gast
2020-06-05, 15:40:49
Es ist schon jetzt Enttäuschend. Es dauert einfach zu lange. Nach 2 Jahren wird dann endlich mal 2080 Ti Leistung erreicht. Und was ist mit Ampere? Wieder 2 Jahre warten?

Gast
2020-06-05, 15:55:46
Intel muss seine HEDT komplett überarbeiten. Die verkaufen sich nicht mehr.



Warum sind CSL-X Cpus so schlecht leiferbar und Xeons so absatzstark das man mit der Produktion nicht nach kommt?

So wie es momentan aussieht können Epyc und Xeon zusammen nichtmal vollständig den Markt sättigen.

Die Dinger gehen trotz aller Wiedrigkeiten wie Spectre ,Meltdown und in vielen belangen überlegender Konkurenz immernoch wie geschnitten Brot.

Langlay
2020-06-05, 16:29:16
Ich wäre eigentlich schon erstaunt, wenn die zwei Jahre alte 2080 Ti geschlagen wird.

Ne 2080TI is 35% schneller als ne Navi10. Wenn Navi21 mit doppelt soviel CUs unterm Strich nichtmal 35% schneller ist als Navi10, wäre das ein Desaster dann konnen sie die GPU Sparte auch gleich dicht machen. Das durfte dann allerdings auch für die Xbox und PS5 heissen das die nicht die Wurst vom Teller ziehen.

Wie gesagt ich würde BigNavi ~35% vor der 2080TI erwarten, allerdings glaub ich das die 3080ti unterm Strich schon etwas schneller wird als Navi21.

WedgeAntilles
2020-06-05, 16:49:35
Ne 2080TI is 35% schneller als ne Navi10. Wenn Navi21 mit doppelt soviel CUs unterm Strich nichtmal 35% schneller ist als Navi10, wäre das ein Desaster dann konnen sie die GPU Sparte auch gleich dicht machen. Das durfte dann allerdings auch für die Xbox und PS5 heissen das die nicht die Wurst vom Teller ziehen.

Wie gesagt ich würde BigNavi ~35% vor der 2080TI erwarten, allerdings glaub ich das die 3080ti unterm Strich schon etwas schneller wird als Navi21.

35% vor der TI ist aber schon sehr ambitioniert.

Wenn du bei 0.65 aktuell von der TI bist und auf 1.35 von der TI kommen willst ist dafür ein Performanceplus von 107% notwendig.

Falls Navi 21 53% schneller ist als Navi 10, ist sie auf TI Niveau.
Sie muss also schon 53% schneller sein um auf TI Niveau zu kommen (von 0,65 auf 1,0 ist ein Zuwach von 53%.)

Du darfst bei Performancerechnung nicht einfach absolute Prozentpunkte addieren sondern musst auf der Basis des sich ändernden Produkts ausgehen.


Vielleicht ist ein Performanceplus von fast 110% realistisch - keine Ahnung.
Ich habe aber eher das Gefühl, dass da eher gerechnet wird:
Aktuell 65% der Leistung der TI. Bei +60-70% Performancesteigerung ist man also auf 130% Performance der TI.
Und das ist halt falsch.

Gast
2020-06-05, 17:10:39
abei darf man einrechnen, das je nach Erscheinungstermin auch nur nVidias aktuelle Ti in Form der GeForce RTX 2080 Ti geschlagen werden soll. Besser wäre es natürlich, wenn man sich gleich an der kommenden Ampere-Ti misst, ob nun "GeForce RTX 3080 Ti" oder "GeForce RTX 3090" genannt – aber dies hat AMD wohlweislich nicht exakt ausspezifiziert. Vor allem sollte man seine eigenen Erwartungen besser nicht daran knüpfen, zu hohe Erwartungslagen enden erfahrungsgemäß in Enttäuschungen

Nachdem bei Nvidia das High-End Consumermodell und Titan so nahe zusammen sind, dass die Topmodelle vom Consumermodell in der Regel sogar die Titan schlagen ist diese Unterscheidung irrelevant.
Eine potentielle AMD-Karte die im Highend mitspielen kann ist zwangsläufig auch eine Konkurrenz zur Titan.

Allerdings wären deutlich mehr als 80 Shader-Cluster damit nicht zu füttern bzw. ist AMD somit zu allererst dazu gezwungen, bei der Bandbreiten-Effizienz ähnliches wie nVidia zu bieten, wenn man eben keine höhere Speicherbandbreite zur Verfügung hat

Angeblich will AMD ja weiterhin die Energieeffizienz deutlich erhöhen, das ist nur möglich wenn auch die Bandbreiteneffizienz deutlich zunimmt.

Wenn AMD wieder ganz oben mitspielen will, ist das nur möglich wenn die Bandbreiteneffizienz auf ein vergleichbares Niveau von Nvidia kommt, oder eben mit HBM, mit dem man deutlich mehr Bits pro Joule übertragen kann.

Wenn man das nicht schafft, dann ist es auch unmöglich, dass AMD mit Nvidias Highend mithalten kann, es sei denn man tritt mit 450W gegen Nvidias 300W an.

Gast
2020-06-05, 17:31:16
Ne 2080TI is 35% schneller als ne Navi10.

Viel weiter kann man mit den Informationen die von AMD aktuell bestätigt sind eigentlich nicht kommen.

Von AMD bestätigt ist ein Ziel ist +50% Energieeffizienz.

Wenn wir nun von einer Board TDP von 300W ausgehen, weil wir haben jetzt ja ein Highend-Modell, ausgehen sollten wir rechnerisch bei exakt der doppelten Performance einer 5700XT landen.

Ausgehend von einer 2080Ti landen wir also bei 0,65*2 = 1,3 facher 2080Ti Performance.

Je nachdem wo die endgültige Board-TDP landet kann das natürlich noch etwas nach oben oder unten korrigiert werden, aber großartig mehr als 35% Mehrperformance über der 2080Ti sind mit den bereits bestätigten Informationen nicht realistisch.

Gast
2020-06-05, 18:51:16
aber großartig mehr als 35% Mehrperformance über der 2080Ti sind mit den bereits bestätigten Informationen nicht realistisch.
Naja, wie viel mehr wird denn die 3080TI (oder 3090) gegenüber der 2080TI liefern? Der Sprung von 1080TI zu 2080TI war eher kleiner, wieso sollte er jetzt so viel größer sein. Entsprechend würde AMD da durchaus in einer ähnlichen Liga spielen, wenn das alles so hin geht.

Nazar
2020-06-05, 20:50:38
Viel weiter kann man mit den Informationen die von AMD aktuell bestätigt sind eigentlich nicht kommen.

Von AMD bestätigt ist ein Ziel ist +50% Energieeffizienz.

Wenn wir nun von einer Board TDP von 300W ausgehen, weil wir haben jetzt ja ein Highend-Modell, ausgehen sollten wir rechnerisch bei exakt der doppelten Performance einer 5700XT landen.

Ausgehend von einer 2080Ti landen wir also bei 0,65*2 = 1,3 facher 2080Ti Performance.

Je nachdem wo die endgültige Board-TDP landet kann das natürlich noch etwas nach oben oder unten korrigiert werden, aber großartig mehr als 35% Mehrperformance über der 2080Ti sind mit den bereits bestätigten Informationen nicht realistisch.

+50% Energieeffizienz bezogen auf was?
Genau! Das weiß nur AMD! ;)
Es kann sein, dass AMD sich intern ein Ziel gesetzt hat und, dass dieses Ziel vollkommen losgelöst von alten Schuhen ist und rein gar nichts mit uns bekannten Daten zu tun hat.
+50% Energieeffizienz bezogen auf die Rechneneinheiten, die Leistung im Verhältnis der maximalen Frequenz, etc.? So viele Variablen. Wie kannst du dir da so sicher sein?

Ich hätte gerne mal einen Link zu diesen bekannten von AMD bestätigten Spezifikationen, welche so eine Vorhersage, wie die deine, zulassen. Soweit mir bekannt ist, ist da noch rein gar nichts besätigt, mit dem man die mögliche LEistungsausbeute vorhersagen könnte!
Oder verhält es sich in etwas so wie bei den angeblich in Beton gemeißelten Spezifikationen der kommen nV GPU? :freak:
Oh, ein Wunder, auch da ist rein gar nichts wirklich besätigt und je nach Chip-Design, kann es auch ganz anders kommen. :wink:

Für AMD wäre es fatal, wenn Sie dieses Mal nur auf auf das Niveau einer 2080TI OC kommen würden und ich hoffe für AMD, dass sie etwas ähnlich performantes wie im CPU Sektor liefern können und mindestens auf dem Niveau einer 3090 landen.
Die Hoffnung stirbt bekanntlich zum Schluss. :biggrin:

amdfanuwe
2020-06-05, 22:00:24
Ja, ja, ist schon so ne Sache mit den Prozenten.
Wie kommt ihr auf 65% für Navi bezüglich einer TI?
Das hieße, eine TI wäre 53% schneller als Navi 10.
Ist sie aber nicht, sind grad mal 40% laut CB.
D.h.: Navi liegt bei 72% einer TI.
Um bei 135% einer TI zu landen, müßte Navi 87% zulegen.
0,72 * 1,87 = 1,35.

Gast
2020-06-06, 00:47:07
+50% Energieeffizienz bezogen auf was?
Genau! Das weiß nur AMD! ;)
Es kann sein, dass AMD sich intern ein Ziel gesetzt hat und, dass dieses Ziel vollkommen losgelöst von alten Schuhen ist und rein gar nichts mit uns bekannten Daten zu tun hat.
+50% Energieeffizienz bezogen auf die Rechneneinheiten, die Leistung im Verhältnis der maximalen Frequenz, etc.? So viele Variablen. Wie kannst du dir da so sicher sein?

Das ist alles völlig irrelevant.
AMD prognostiziert +50% Energieeffizienz von RDNA1 auf RDNA2.
Ob man das jetzt mit 4GHz Takt erreicht und dabei die Anzahl der Recheneinheiten zurückschraubt, oder aber den Takt drastisch auf 500MHz reduziert und dafür die Anzahl an Recheneinheiten extrem in die Höhe schraubt oder irgendwas dazwischen ist vollkommen egal, wichtig ist was am Ende herauskommt.

Nachdem AMD die selben Prognosen für RDNA1 ausgehend von Vega gemacht hat, kann man davon ausgehen, dass AMD das für sie so rechnet um auf möglichst große Zahlen zu kommen, also von 5700XT ausgeht, und nicht von der 5700 die schon eine höhere Effizienz aufweist und damit für RDNA2 eine höhere absolute Performance versprechen würde.
Die Prognosen die AMD damals zur RDNA1 angegeben hat kommen nur annähernd hin wenn man von Vega64 ausgeht.

Ausgehend von diesen AMD Prognosen kann man sich die Performance schon mal in etwa ausrechnen, klar sind das nur Prognosen bei denen man sicher mal +-10% danebenliegen kann.

Aber man kann mal die Größenordnung einschätzen und die sollte im irgendwo im Bereich von +25% bis +40% zur 2080Ti liegen.

Ziemlich sicher nicht nur knapp vor der 2080Ti und auch kaum mehr als 50% vorne.

Langlay
2020-06-06, 01:56:19
35% vor der TI ist aber schon sehr ambitioniert.

Wenn du bei 0.65 aktuell von der TI bist und auf 1.35 von der TI kommen willst ist dafür ein Performanceplus von 107% notwendig.

Falls Navi 21 53% schneller ist als Navi 10, ist sie auf TI Niveau.
Sie muss also schon 53% schneller sein um auf TI Niveau zu kommen (von 0,65 auf 1,0 ist ein Zuwach von 53%.)

Du darfst bei Performancerechnung nicht einfach absolute Prozentpunkte addieren sondern musst auf der Basis des sich ändernden Produkts ausgehen.


Vielleicht ist ein Performanceplus von fast 110% realistisch - keine Ahnung.
Ich habe aber eher das Gefühl, dass da eher gerechnet wird:
Aktuell 65% der Leistung der TI. Bei +60-70% Performancesteigerung ist man also auf 130% Performance der TI.
Und das ist halt falsch.

Ich weiss nicht was du gelesen hast, ich hab keine Rechnung gemacht.

Im 1. Absatz gehts darum wenn Navi21 am Ende keine 35% auf Navi10 drauflegt und auch nicht die 2080ti schlägt dann kann man die GPU Sparte quasi auch dichtmachen aus Gamersicht.

Und im 2. Absatz geb ich nur meine Einschätzung ab das ich vermute Big Navi landet 35% vor der 2080ti. Ich hab nirgendwo irgendeine Rechnung angestellt.


Davonab ging ich in der Basis von Navi10 aus. Also Navi10 100% oder 1 , 2080ti 135% oder 1.35 und Big Navi müsste demzufolge bei ~180% oder 1.8 landen meiner Schätzung nach. Big Navi kann halt je nach Takt und IPC etwas stärker oder schwächer ausfallen, aber imo sollte das schon grob der Bereich sein wo wir Bignavi erwarten können.

Gast
2020-06-06, 02:30:23
Tja und wenn. Die 50% zum Großteil durch den betriebspunkt kommen und auch das SI nicht verdoppelt wird ist doppelter Navi nicht doppelte Leistung.

Möglich ist alles von unter 2080ti bis hin zu drüber .
In Anbetracht dessen das der 7 nm Bonus schon verjubelt wurde sehe die conservativen Schätzungen als realistischer an.

Was auf seiten von nv passiert ist als es den letzten großen Shrink gab wissen wir noch mit Pascal gabs dick mehr Takt , paar mehr schader und ne ordentliche Kelle Leistung .
Ich drücke uns die Daumen das beide klotzen und nicht kleckern

Leonidas
2020-06-06, 05:08:48
Warum sind CSL-X Cpus so schlecht leiferbar und Xeons so absatzstark das man mit der Produktion nicht nach kommt?


Erklärt sich gegenseitig. Die Chips sind dieselben. Intel gibt sie lieber in die Xeon-Linie, weil die verkaufen sich - und da sich Core X nicht verkauft, braucht es dort auch keine Lieferungen.





Ne 2080TI is 35% schneller als ne Navi10


Lt. 3DC 4K Perf.Index (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019#4k) sind es eher denn +46%

WedgeAntilles
2020-06-06, 10:30:59
Davonab ging ich in der Basis von Navi10 aus. Also Navi10 100% oder 1 , 2080ti 135% oder 1.35 und Big Navi müsste demzufolge bei ~180% oder 1.8 landen meiner Schätzung nach. Big Navi kann halt je nach Takt und IPC etwas stärker oder schwächer ausfallen, aber imo sollte das schon grob der Bereich sein wo wir Bignavi erwarten können.

Du hast völlig recht, ich hatte irgendwie in deinem Posting gelesen, Navi 10 wäre 35% langsamer.
Dabei hattest du geschrieben 2080TI wäre 35% schneller.
Damit ist meine Hinweis natürlich völlig Quark.
Sehr peinlich. Wenn man jemanden auf Fehler hinweist und dabei nicht bemerkt, dass man selber derjenige ist der nicht lesen kann.
Sorry.

(Edit: Wieviel die 2080TI jetzt schneller ist, spielt hier übrigens keine Rolle. Ich hatte bei meiner Rechnung - in der ich Langlay fälschlicherweise einen Fehler unterstellt habe - einfach die Zahlen übernommen.)

amdfanuwe
2020-06-06, 10:41:05
Und nach Full HD Index eher 29%.
Irgendwo zwischen 25% und 50% liegt die Wahrheit.

Langlay
2020-06-06, 11:06:27
Lt. 3DC 4K Perf.Index (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2019#4k) sind es eher denn +46%

Ja, ich bin vom dem Wert von https://www.techpowerup.com/gpu-specs/radeon-rx-5700-xt.c3339 ausgegangen. Ist halt FullHd da ist die 5700XT etwas stärker als in 4K. Wo nun genau die Wahrheit liegt muss dann jeder für sich selber entscheiden.

Popeljoe
2020-06-06, 11:15:47
Was für ein Preis wird eigentlich für Big Navi angenommen?
Ähnlich wie 2080 TI? AMD hat ja seine Preispolitik im letzten Jahr deutlich geändert, daher meine Frage. ;)

MiamiNice
2020-06-06, 11:38:21
Wenn das Teil so stark wird wie angenommen tippe ich auf 999€ bis 1199€ für Big Navi.

Badesalz
2020-06-06, 12:21:18
Es ist schon jetzt Enttäuschend. Es dauert einfach zu lange. Nach 2 Jahren wird dann endlich mal 2080 Ti Leistung erreicht. Und was ist mit Ampere? Wieder 2 Jahre warten?Machst du selbst was mit dem Rechner oder schaust du nur zu? Fehlt dir die Dramaturgie eines WM-Finals? Oder fehlt dir Leistung? Wenn dir Leistung fehlt und die von AMD nicht geboten wird, holst du dir eine 3000er NV und niemand wird dich dafür verachten.
Wenn du nur ein heulender AMD-Fanboy bist, geh zum Friseur. Die haben wieder auf und immer ein Ohr für deine Nöten. Da warst du bestimmt auch schon, als nach dem Launch die 2000er mit ihrer P/L nicht begründen konnten warum du deine 1080Ti auf Ebay entsorgen solltest. Richtig?

@all
Wenn das leicht über Midrange (innerhalb der eigenen Reihe) die Leistung einer 2080Ti bietet, zum einen merkbar attraktiveren Preis als jene und als NV mit entsprechenden 3000ern, ohne diese TDP-Peinlichkeiten, dann dürfte es einen Ruck auf Steam geben. Also mit der Kundschaft, mit der man das echte Geld verdient...

Duelle um die Weltmeisterschaft interessieren nur Topend-Enthusiasten und Zuschauer. Der einzige Einfluss den sie auf normale PC-Gamer haben ist zu nerven.

iamthebear
2020-06-06, 13:16:38
Was man bei den ganzen Vergleichen von High End GPUs nicht außer Acht lassen darf ist DLSS 2.0 In Zukunft werden wohl alle Spiele mit hohen Hardwareanforderungen DLSS 2.0 unterstützen, was bedeutet, dass 4K Qualität fast mit der Performance von Full HD erzeugt werden kann.
Jetzt ist die Frage, ob AMD hier auch etwas vergleichbares bieten kann, wobei AMD den Nachteil des fehlenden Supports der Spielehersteller hat und somit dies rein im Treiber bzw. der Hardware lösen muss.

Popeljoe
2020-06-06, 13:57:32
Jetzt ist die Frage, ob AMD hier auch etwas vergleichbares bieten kann, wobei AMD den Nachteil des fehlenden Supports der Spielehersteller hat und somit dies rein im Treiber bzw. der Hardware lösen muss.
Ich könnte mir vorstellen, dass AMD durch den besseren Support der Hersteller bei den Konsolen, diesen Nachteil zumindest verringern kann.
Aber für big Navi um die 1000€? Wow! Wenn das nicht Enthusaiast Level ist, dann weiß ich auch nicht mehr. Das Segment, mit dem man maximale Leute erreicht, dürfte eher so bei 500-600€ liegen. Aber dafür wird die ganz große Navi Karte wohl kaum weggehen. Aber eine Nummer kleiner, mit der Performance einer 2080 Super: das könnte passen.

iamthebear
2020-06-06, 14:45:09
1.) Wenn AMD es mit vernünftigen Mitteln schafft eine Karte auf den Markt zu bringen, die die 2080 Ti schlägt, dann schaffen sie es auch Nvidia bei der 2060-2080 beim Preis/Leistungsverhältnis Konkurrenz zu machen.
Wenn sie es nicht schaffen trotz Ausreizen der technisch vernünftigen Möglichkeiten die 2080 Ti zu schlagen, dann werden sie auch im unteren Bereich nicht wirklich angreifen können, da sie nicht den nötigen Deckungsbeitrag haben, um in eine Preisschlacht zu gehen siehe Radeon VII.

2.) Stimmt wenn die Schnittstellen bei Konsolen und PC gleich sind, dann kann man sicher einige Spielehersteller dazu motivieren hier zu optimieren.
Wahrscheinlich haben die Konsolen sogar viel mehr Bedarf an einer DLSS Alternative, da mit typischer Konsolenhardware 4K nicht durchgehend bei brauchbaren FPS zu halten sind und gleichzeitig jeder aktuelle Fernseher heute 4K unterstützt, während dies bei dem durchschnittlichen Monitor nicht der Fall ist bzw. auch mangels Größe wirklich benötigt wird.

JVC
2020-06-06, 15:15:39
Duelle um die Weltmeisterschaft interessieren nur Topend-Enthusiasten und Zuschauer.
Der einzige Einfluss den sie auf normale PC-Gamer haben, ist zu nerven.
Schöner Satz, gefällt mir :)

... In Zukunft werden wohl alle Spiele mit hohen Hardwareanforderungen DLSS 2.0 unterstützen,

Können die kommenden Konsolen DLSS 2.0 ?

Das was die Konsolen können wird auf jeden Fall großflächiger unterstützt...

M.f.G. JVC

Gast
2020-06-06, 15:35:25
Ja, ich bin vom dem Wert von https://www.techpowerup.com/gpu-specs/radeon-rx-5700-xt.c3339 ausgegangen. Ist halt FullHd da ist die 5700XT etwas stärker als in 4K. Wo nun genau die Wahrheit liegt muss dann jeder für sich selber entscheiden.

Die "Wahrheit" wenn es um GPU-Leistung geht ist immer in der höheren Auflösung zu suchen, ganz einfach weil es in 1080p immer wieder das eine oder andere CPU-Limit gibt, und damit die 2080Ti ihre Vorteile nicht vollständig ausspielen kann, auch gegenüber der eigenen Architektur.

Wenn wir über GPU-Leistung reden sollten wir das CPU-Limit soweit als möglich ausschalten.

Badesalz
2020-06-06, 16:08:54
Was man bei den ganzen Vergleichen von High End GPUs nicht außer Acht lassen darf ist DLSS 2.0 In Zukunft werden wohl alle Spiele mit hohen Hardwareanforderungen DLSS 2.0 unterstützen, was bedeutet, dass 4K Qualität fast mit der Performance von Full HD erzeugt werden kann.FHD "Performance" mit und durch FHD Bildquali vielerorts. Die Mehr-FPS kommen auch diesmal nicht durch Its Magic! zustande. Das dann gepaart mit Mush-Shader (VRS). Das wird richtig schön werden...

Jetzt ist die Frage, ob AMD hier auch etwas vergleichbares bieten kannWohl nicht. Sie gehen aktuell den umgekehrten Weg und versuchen die Bildqualität zu erhöhen. Keine Treibercheats bezüglich Quali in Spieleoptimierungen, dann RIS, jetzt versucht man die guten Grenzen von CAS auszuloten. Das ist alles halt eher auf die Masse gerichtet, die dann mit FHD mit bisschen Feeling von 2k, und mit 2k mit bisschen Feeling von 4k spielen kann. Ohne sich einen >340€ Monitor kaufen zu müssen (bis auf den PD2700U vielleicht)

Mal sehen. Mehr als die Flucht nach vorn mit Renderquali haben sie ja eh nicht ;) Mush-Shader werden sie auch können. Bisher trommeln sie dafür jedenfalls aber nicht so halslaut wie NV.

@all
Was mir grad auffällt ist eine 3090. Könnte bedeuten, könnte, daß man das marketingtechnisch braucht um erst mit der fetteren Ausführung von GA102 für den gebührenden Abstand zu AMD sorgen. Heißt für mich, AMD wird spürbar verkürzen. Mal sehen halt wie gesagt, wieviel TDP sie dafür brauchen.

Was PCGH aus der Information dagegen zusammenbastelt hat die Qualität derer Berichte zu ComedyLake :facepalm:

Langlay
2020-06-06, 21:25:00
Die "Wahrheit" wenn es um GPU-Leistung geht ist immer in der höheren Auflösung zu suchen, ganz einfach weil es in 1080p immer wieder das eine oder andere CPU-Limit gibt, und damit die 2080Ti ihre Vorteile nicht vollständig ausspielen kann, auch gegenüber der eigenen Architektur.



Wenn ich aber nur Fullhd spiele, ist mir relativ egal ob die eine oder andere Karte in 4k 10% schneller is als in 1080p. Daher darf das jeder gerne für sich selber entscheiden. Ändert man Ende auch nicht gross was in an der Aussage. Zumindest solange wir rumspekulieren ohne alle Fakten ( Takt, Bandbreite usw.) zu kennen.

Gast
2020-06-06, 22:03:59
Wenn ich aber nur Fullhd spiele, ist mir relativ egal ob die eine oder andere Karte in 4k 10% schneller is als in 1080p.


Dann bist du eben nicht die Zielgruppe für derart performante Karten, kein Problem, ich frage mich dann aber warum dich überhaupt deren Performance interessiert.



Zumindest solange wir rumspekulieren ohne alle Fakten ( Takt, Bandbreite usw.) zu kennen.

Diese Fakten (Takt, Bandbreite usw.) sind vollkommen irrelevant, das einzige was zählt ist Performance und die kann man sich eben mit den bekannten Werten für die Performance der Vorgängergeneration und der prognostizierten Effizienzverbesserung schön ausrechnen.

Die einzig unbekannte Variable ist die Ziel-Boardpower, je nachdem wo diese liegt landet man eben etwas höher oder niedriger.

Badesalz
2020-06-06, 23:19:22
Dann bist du eben nicht die Zielgruppe für derart performante Karten, kein Problem, ich frage mich dann aber warum dich überhaupt deren Performance interessiert.Weil sich die Midranges davon ableiten?

Diese Fakten (Takt, Bandbreite usw.) sind vollkommen irrelevant, das einzige was zählt ist Performance und die kann man sich eben mit den bekannten Werten für die Performance der Vorgängergeneration und der prognostizierten Effizienzverbesserung schön ausrechnen.Geht doch. Endlich fähige Leute hier! Was macht denn so die 6600XT in RDR2?

Die einzig unbekannte Variable ist die Ziel-Boardpower, je nachdem wo diese liegt landet man eben etwas höher oder niedriger.Sagen wir mal, beim Powertarget von 160W.

Gast
2020-06-06, 23:24:37
Und nach Full HD Index eher 29%.
Irgendwo zwischen 25% und 50% liegt die Wahrheit.

Sowas passiert halt wenn man mit nem Ryzen oder nen CFL mit ddr 2666 bencht.
Aber mit solchen Aussagen passt du gut ins HWLX die bestimmen GPU Leistung konstant im CPU Limit seit gut nem Jahr mit ihrem neuen für den Einsatzzweck deplaziertem Testsystem.

Gast
2020-06-06, 23:28:57
Ich könnte mir vorstellen, dass AMD durch den besseren Support der Hersteller bei den Konsolen, diesen Nachteil zumindest verringern kann.
....

NAch 7 Jahren AMD in den beiden großen Konsolen hat sich die Theorie nicht bestätigt, unwahrscheinlich das sich das jetzt dreht.

Langlay
2020-06-06, 23:54:01
Dann bist du eben nicht die Zielgruppe für derart performante Karten, kein Problem, ich frage mich dann aber warum dich überhaupt deren Performance interessiert.


Ich spiele nicht in Fullhd. War eigentlich auch nur als Beispiel angebracht, das es in dem Fall nicht die Universelle Wahrheit gibt.

NAch 7 Jahren AMD in den beiden großen Konsolen hat sich die Theorie nicht bestätigt, unwahrscheinlich das sich das jetzt dreht.

Woher weisst du wie es aussieht wenn es die Konsolen so nicht geben würde?

Leonidas
2020-06-07, 05:26:14
Können die kommenden Konsolen DLSS 2.0 ?
Das was die Konsolen können wird auf jeden Fall großflächiger unterstützt...


Können es die Konsolen, können es auch AMDs PC-Grafikkarten.

Gast
2020-06-07, 20:08:18
Können die kommenden Konsolen DLSS 2.0 ?



Das wird Nvidia wohl kaum zulassen.

Was natürlich nicht heißt, das man nicht eine eigene AI-Basierte Image Reconstruction entwickeln kann die auf beliebiger Hardware läuft.

Nvidia hat da aber sicher einiges an Vorsprung, bis DLSS so gut wurde wie jetzt funktioniert hat es auch seine Zeit gedauert, und das müssen andere die ein vergleichbares Verfahren entwickeln erst mal aufholen.
Die zweite Frage ist natürlich auch wie performant das ohne explizite Hardware alá Tensor Cores ist.

Gast
2020-06-07, 20:14:32
Ich spiele nicht in Fullhd. War eigentlich auch nur als Beispiel angebracht, das es in dem Fall nicht die Universelle Wahrheit gibt.


Es gibt eine "universelle Wahrheit" wie viel schneller Grafikkarte A gegenüber Grafikkarte B ist und je höher die Auflösung ist die wir testen, desto näher kommen wir dieser "universellen Wahrheit".

Wenn Grafikkarte A um 50% schneller als Grafikkarte B ist und wir das in 4k Messen können, ist die Grafikkarte A auch in FullHD immer noch 50% schneller als Grafikkarte B, auch wenn vielleicht aufgrund von CPU-Limits nur mehr 25% effektiv ankommen.

Wie relevant dann dieser Vorsprung ist hängt natürlich vom Einzelfall ab, fakt ist aber dass die Grafikkarte A in diesem Fall 50% schneller ist, auch wenn wir das in FullHD noch nicht sehen.

In einem hypotetischen zukünftigen Spiel, das wesentlich mehr Berechnungen pro Pixel macht wird die Karte dann vielleicht auch in FullHD ihre 50% Vorsprung zeigen können.

Für die Kaufentscheidung im hier und jetzt spielt das natürlich nur eine untergeordnete Rolle wenn man vielleicht nie höher als FullHD spielt, ändert aber nichts daran dass der tatsächliche Vorsprung der Grafikkarte A 50% ist und nicht nur 25%.

Gast
2020-06-08, 19:21:45
Wenn Grafikkarte A um 50% schneller als Grafikkarte B ist und wir das in 4k Messen können, ist die Grafikkarte A auch in FullHD immer noch 50% schneller als Grafikkarte B, auch wenn vielleicht aufgrund von CPU-Limits nur mehr 25% effektiv ankommen.
Nein, das kann man so nicht sagen. Vega ist ja z.B. auch in 4k deutlich stärker als in FullHD. Die haben einfach enorm viel Rechenleistung, die aber bei FullHD nicht genutzt werden kann. Das hat aber nichts mit CPU Limit zu tun, sondern liegt auch an der Architektur.

Gast
2020-06-09, 00:39:13
Nein, das kann man so nicht sagen. Vega ist ja z.B. auch in 4k deutlich stärker als in FullHD. Die haben einfach enorm viel Rechenleistung, die aber bei FullHD nicht genutzt werden kann. Das hat aber nichts mit CPU Limit zu tun, sondern liegt auch an der Architektur.

Doch hat es , genau das ist der Grund .
4K verschieb den Leistungsbereichvin Regionen wo der GPU die Luft ausgeht bevor das CPU bottelneck Zum tragen kommt.

Die FPS werden ja in 4 k nicht mehr , die gpu bricht nur scheinbar nicht so stark ein weil sie in FHD durch das CPU bottleneck nicht das zeigen kann was eigentlich drin wäre.

Leonidas
2020-06-09, 03:28:17
Jein, würde ich anders sehen. Gerade Vega läuft in FHD und 4K anders, auch wenn man es schafft ganz ohne CPU-Limit zu agieren. Die Architektur ist einfach für 4K austariert, nicht für FHD.

Etwas anderes trifft aber zu: Die gezeigte 4K-Performance ist langfristig die FHD-Performance, bis auf kleinere Abweichungen. Eine jetzt gekaufte FHD-Grafikkarte wird in 4-5 Jahren etwa diese Performance-Charakteristik zeigen, welche sie *jetzt* unter 4K aufweist.

Gast
2020-06-09, 22:13:40
Das hat aber nichts mit CPU Limit zu tun, sondern liegt auch an der Architektur.

Das hat durchaus was mit CPU-Limit zu tun, nur nicht unbedingt rein mit dem CPU-Limit der Anwendung sondern auch mit dem CPU-Limit vom Grafiktreiber.

Badesalz
2020-06-09, 23:10:54
"gerade da im PC-Bereich aufgrund des (durch PCI Express) nach oben gehenden Stromverbrauchs inzwischen überlegt werden muß, wo die neueren PCI-Express-Normen noch jeweils Sinn machen"

Den verstehe ich leider nicht. Verbraucht PCIe (selbst?) 2.0 mehr als 3.0? Oder 3.0 als 4.0?

Gast
2020-06-10, 00:40:49
Den verstehe ich leider nicht. Verbraucht PCIe (selbst?) 2.0 mehr als 3.0? Oder 3.0 als 4.0?

Zumindest will AMD uns weismachen, dass das der Grund ist warum X570 so ein Stromfresser ist, was aber defakto von der8auer schon widerlegt wurde.

Leonidas
2020-06-10, 03:45:52
Den verstehe ich leider nicht. Verbraucht PCIe (selbst?) 2.0 mehr als 3.0? Oder 3.0 als 4.0?


Logo. Mehr Bandbreite wird irgendwo zu mehr Stromkosten führen. Letztlich wird meistens schlicht der Takt erhöht, was dann zu höherem Aufwand beim Treiben dieser Taktraten führt. Zwar ist der Anteil von PCIe an den Gesamt-Stromkosten einer Gfx gering, aber bei geringeren TDP-Limits wie im Mobile-Bereich wird es dann relativ gesehen mehr.

Badesalz
2020-06-10, 09:56:03
Ah. Ich habs. Da fehlte der Satz, daß dafür was das zu bringen sheint, es sich nichtmal lohnt auch nur 1W mehr dafür zu verschwenden ;)

Ja PCIe ist bisschen problematisch in der Nachvollziehbarkeit der Entwicklung geworden, weil 4.0 halt ewig gedauert hat. Und auch 3.0 nicht gleich den Ruck bracht oder bringt - wenn es überhaupt noch möglich nur rein die Schnittstelle zu vergleichen, weil Leute die sich drum Gedanken machen, eh Grakas mit 6GB und mehr Vram haben.
Ab 8GB herrscht nicht so eine Not an der Schnittstelle.

Allerdings verbindet man mit PCIe bisschen mehr als nur Graka und die Möglichkeit da mit 1 oder 2 Lines zu arbeiten hat vielleicht auch energetisch einen Vorteil gegenüber 4x 3.0 Lines.

Auch 8x und 16x kann sich das ggf. aber auch noch auswirken, wenn PC-Games so gebaut sind wie sie auf PS5 und XBSX funktionieren sollen.

Spätestens aber ab PCIe 4.0 interessiert mich das aber vorerst nicht mehr weiter :rolleyes:

Ciao.

Leonidas
2020-06-10, 11:04:03
Ah. Ich habs. Da fehlte der Satz, daß dafür was das zu bringen sheint, es sich nichtmal lohnt auch nur 1W mehr dafür zu verschwenden ;)


Nagel auf den Kopf getroffen. PCIe 5.0 & 6.0 werden für geringe Performance-Ansprüche derart irrelevant, das sich auch das 1W mehr nicht lohnt.

Gast
2020-06-10, 20:42:30
Nagel auf den Kopf getroffen. PCIe 5.0 & 6.0 werden für geringe Performance-Ansprüche derart irrelevant, das sich auch das 1W mehr nicht lohnt.

Naja das ist die Frage, schon heute können ja wenn die Bandbreite nicht benötigt wird, einzelne Lanes abgeschaltet werden. Da könnte es durchaus sein, dass vielleicht mit 1 Lane von PCIe 5 oder 6 immer noch die aktuelle Bandbreite von PCIe 8x erreicht wird und dabei sogar weniger Energie verbraucht wird.

Leonidas
2020-06-11, 03:33:01
Genau darauf will ich ja hinaus. Man wird PCIe 5/6 eher zur Einsparung nutzen als zu mehr Rohpower.

Gast
2020-06-12, 01:50:53
Hm wobei ich jetzt mal in Frage stelle, ob jetzt weniger Lanes oder ein niedrigerer Standard sparsamer ist.
Zumindest schaltet meine Grafikkarte im Windows auf 16x PCIe1.1 zurück anstatt auf beispielsweise 4x 3.0

Leonidas
2020-06-12, 03:43:31
Dies ist eine Stromsparmaßnahme auf Basis der vorhandenen HW. Augenscheinlich ist da der niedrigere Takt günstiger - oder es ist einfacher zu realiseren. Macht für ein Desktop-System auch nicht viel aus.

Interessanter wird es dann, wenn man dies auf Hardware-Ebene einsparen will. Da kann man schlecht PCIe 1.1 x16 bieten - sondern wird lieber PCIe 3.0 x8 nehmen. Verkauft sich besser bzw. erstere Variante wird glatt ausgelacht.