PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 17. März 2021


Leonidas
2021-03-18, 09:15:18
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-17-maerz-2021

y33H@
2021-03-18, 09:49:42
Bei Minecraft RTX nutzt PCGH genau die krasse Map, die am meisten Speicher zieht - bei den anderen ist das nicht der Fall.

Raff
2021-03-18, 09:58:17
IIRC ist Neon District auch ziemlich gemein, habe ich aber eine Weile nicht mehr geladen. Patches seit dem RTX-Beta-Release vor fast einem Jahr haben auch ein paar Dinge begradigt - Temples and Totems bleibt aber gemein.

Aber ja, da steht ja explizit, dass VRAM-Worstcases getestet werden.

MfG
Raff

y33H@
2021-03-18, 10:07:11
Kannst ja mal alle RTX Maps vermessen :biggrin:

Gast
2021-03-18, 10:11:10
Allerdings ist diese Schätzung auch wirklich nur das – eine Schätzung basierend auf den vorhandenen Chips, nicht basierend auf irgendwelchen belastbaren Daten zum M1X selber.

Vor allem sind selbst die Daten zum M1X (ja sogar dessen Name) rein geraten.

Angesichts der Effizenz und relativ kleinen Siliziumfläche welche die Icestorm Kerne beanspruchen wäre ein 8+4 Design auf jeden fall überraschend.

Raff
2021-03-18, 10:13:24
Dafür hat selbst der längste Tag zu wenige Wachstunden. :ugly:

MfG
Raff

Legendenkiller
2021-03-18, 10:29:55
die 3060Ti/8GB war ja auch nie für Gamer gedacht ;-)

6/8Gbyte war 2016, bei der 1060 und 1070 Stand der Technik. Heute passt das nur noch für Mainstreamkarte unter 300€.

Peinlich ist es eher bei der 3070 mit 8 Gbyte .. seit 3 Generation die selbe Speichermenge anzubieten ist einfach nur frech.

Andererseits wurde die 3070 von allen Testern Super bewertet...
Kein einziger Tester hat sie weger der 8 Gbyte echt abgewertet.

Raff
2021-03-18, 10:32:52
Das milde Abstinken in der Gegenwart (VRAM-Worstcases) und das voraussichtlich fiese Abstinken in Zukunft lässt sich nun mal nicht seriös in Noten pressen -> Leistung der Gegenwart bewerten und mit Bonustests sowie Prosa ergänzen. Letztere werden jedoch von erstaunlich vielen "Lalala, wenn ich die Augen zumache, reicht der Speicher ewig"-Leuten ignoriert. Schon immer.

MfG
Raff

Kleebl00d
2021-03-18, 11:20:41
Notebookcheck berichten zudem über eine Performance-Schätzung zum Apple M1X Prozessor, einer verbesserten Version des M1-Prozessors für leistungshungrigere Geräte. (...) was angesichts der hohen IPC der jüngsten Apple-Prozessoren durchaus eine Bedrohung selbst für die ausgewachsenen PC-Prozessoren von AMD & Intel ergeben dürfte.

Der wichtige Part, der mir da fehlt, ist, dass es sich bei der Apple-Cpu um einen Prozessor auf ARM-Basis handelt. Dass der in einigen Fällen schneller und dabei stromsparender als reine Desktop-CPUs sein kann liegt doch in der Natur der Dinge.
Dafür sind Intel- und AMD-Prozessoren deutlich breiter aufgestellt.

Krass überspitzt könnte ich (mit ordentlich Aufwand) ein FPGA bauen (lassen), welcher in einer ausgewählten Paradedisziplin alles dagewesene in den Schatten stellt. Der kann dann zwar links und rechts davon nichts, aber in Benchmarks wäre das total beeindruckend. Aber eben insgesamt nicht sehr aussagekräftig.

y33H@
2021-03-18, 11:29:36
ARM ist nicht prinzipiell effizienter oder sparsamer als x86.

Kleebl00d
2021-03-18, 11:56:38
ARM ist nicht prinzipiell effizienter oder sparsamer als x86.
So wollte ich das nicht verstanden haben.
Aber dass eine spezialisiertere in manchen Fällen effizienter/sparsamer als eine breitere Architektur sein kann finde ich nicht verwunderlich.

Platos
2021-03-18, 12:39:42
Das milde Abstinken in der Gegenwart (VRAM-Worstcases) und das voraussichtlich fiese Abstinken in Zukunft lässt sich nun mal nicht seriös in Noten pressen -> Leistung der Gegenwart bewerten und mit Bonustests sowie Prosa ergänzen. Letztere werden jedoch von erstaunlich vielen "Lalala, wenn ich die Augen zumache, reicht der Speicher ewig"-Leuten ignoriert. Schon immer.

MfG
Raff

Gibt ja jetzt schon Spiele im Falle deines Tests, die manche Grafikkarten alt aussehen lassen. Warum also nicht mal einfach schlecht bewerten, was dem Produkt dann auch gerecht wird ?

Also im Falle der 3060Ti.

Übrigens: Die 3060 dürfte doch dann der 3070 in manchen Spielen ziemlich nahe kommen, nicht ?

Raff
2021-03-18, 12:49:02
Gibt ja jetzt schon Spiele im Falle deines Tests, die manche Grafikkarten alt aussehen lassen. Warum also nicht mal einfach schlecht bewerten, was dem Produkt dann auch gerecht wird ?

Also im Falle der 3060Ti.

Übrigens: Die 3060 dürfte doch dann der 3070 in manchen Spielen ziemlich nahe kommen, nicht ?

Ich formuliere es mal diplomatisch: Die perspektivische Wahrnehmung, die ich in Tests einzupflegen gedenke, stößt nicht überall auf Gegenliebe. Und am Ende sollte sich eine Kaufberatung auf die zu 99,9 Prozent vorherrschende Gegenwart beziehen, nicht auf handgepflückte, visionäre Worstcases.

Was PCGH angeht, so wirkt sich die Speicherkapazität einer Grafikkarte in den benoteten Tests auf die Ausstattungsnote aus (neben der Leistung, sofern im Index abgebildet), was einen guten Kompromiss darstellt.

MfG
Raff

Gast
2021-03-18, 12:49:48
So wollte ich das nicht verstanden haben.
Aber dass eine spezialisiertere in manchen Fällen effizienter/sparsamer als eine breitere Architektur sein kann finde ich nicht verwunderlich.

M1 ist nicht breit? Was denn dann?

amdfanuwe
2021-03-18, 12:59:10
12GB vs 8GB fand ich diesen Absatz aus dem CB 6700X Test interessant:
Die 12 GB Speicher der AMD-Grafikkarte sind besser für Raytracing geeignet als die 8 GB bei der GeForce RTX 3060 Ti und der GeForce RTX 3070. So schneidet die GeForce RTX 3060 Ti in Call of Duty: Black Ops Cold War zwar bei den Durchschnitts-FPS in Full HD um 15 Prozent besser ab, bei den Perzentil-FPS liegt aber plötzlich die AMD-Grafikkarte um 26 Prozent vorne und überholt gar spielend die GeForce RTX 3070 – weil die Nvidia-Grafikkarten mit 8 GB unter starken Rucklern leiden, die es bei der AMD-Konkurrenz nicht gibt.

y33H@
2021-03-18, 13:00:37
Aber dass eine spezialisiertere in manchen Fällen effizienter/sparsamer als eine breitere Architektur sein kann finde ich nicht verwunderlich.Dem stimme ich absolut zu, gerade was NPU-Workloads anbelangt.

Übrigens: Die 3060 dürfte doch dann der 3070 in manchen Spielen ziemlich nahe kommen, nicht ?Ich hab da so ein zwei Fälle, ja:

74634 74635

Platos
2021-03-18, 13:10:08
@Raff: Ja, man muss wohl schauen, wie man fährt, damit man auch weiterhin die Tests machen kann.

@y33H: Interessant, im ersten Fall nimmt es die 3060 sogar mit der 6800XT und 3080 auf.

Edit: Erstaunlich finde ich auch, dass die 6800 nur knapp auf 3070 Niveau ist, obwohl si 16GB hat. Der Flight Simlator muss wohl anscheinend extrem schlecht auf AMD Grafikkarten laufen, wenn die 3060 mit 12GB besser läuft, wie die 6800XT, die 6800 aber dann nur knapp gleich gut wie die 3070 ist.

Blase
2021-03-18, 13:17:16
Ich formuliere es mal diplomatisch: Die perspektivische Wahrnehmung, die ich in Tests einzupflegen gedenke, stößt nicht überall auf Gegenliebe. Und am Ende sollte sich eine Kaufberatung auf die zu 99,9 Prozent vorherrschende Gegenwart beziehen, nicht auf handgepflückte, visionäre Worstcases. [...]

Also ich empfinde die aktuelle "Praxis" als passend. Getestet wird im Hier und Jetzt. Alles andere ist Glaskugel-Leserei.

Perspektivisch will ich natürlich gerne in einem extra Absatz - wie es ja auch gängige Praxis ist - darüber "informiert" werden, dass die Speichermenge absehbar an ihre Grenzen stößt.

Und wenn das dann noch mit einigen Worst-Case-Szenarien untermauert wird, in welchen man vielleicht besser fairer Weise darauf hin weißt, dass das 99.x der Spieler da draußen aktuell wahrscheinlich aber nicht betrifft (WENN es denn so ist), dann ist das doch eine vollständige Abbildung des IST-Zustandes mit einer realistischen Einschätzung für die Zukunft. EDIT: Aber dann bitte keine eher "theoretischen" Benchmarks, wo die allgemeine Framerate ohnehin so niedrig ist, dass ein Spieler in der Praxis diese Einstellungen sowieso nicht fahren würde. Bei 10 zu 15 Frames avg interessiert es nicht, dass der Mehrspeicher hier 50 Prozent schneller ist. Das wirkt dann arg konstruiert, ohne praktischen Nutzen...

Damit sollten dann doch alle glücklich sein. Und ob diese "Zukunft" dann noch in die Lebenszeit MEINER Grafikkarte kommt - oder ich ohnehin dann schon auf die nächste Generation schiele - beantwortet dann jeder für sich...

Mir geht lediglich einfach... sorry ... dieses "Speicherkrüppel" und sonstiges Gehabe / Gelaber auf die Nüsse (nicht auf dich bezogen, aber generell). Ja, einige der aktuellen Karten hätten gerne mehr RAM haben dürfen und ja, unter ausgesuchten Benchmarks kann man das heute schon beobachten und ja, für die Zukunft sieht das natürlich nicht besser aus, .... aber deswegen sind das trotzdem tolle Karten für die allermeisten Leute da draußen. Kann man persönlich für sich anders sehen und bewerten, aber dieses absolut Pauschale ist eine Seuche unserer Zeit. Ich kann's nicht mehr hören...

MfG Blase

rudl
2021-03-18, 16:51:36
Der Unterschied wird in der Praxis noch viel viel extremer sein, insbesondere mit Pci-e 3.0 Systemen!

Gast
2021-03-18, 16:56:17
So wollte ich das nicht verstanden haben.
Aber dass eine spezialisiertere in manchen Fällen effizienter/sparsamer als eine breitere Architektur sein kann finde ich nicht verwunderlich.


ARM ist aber genauso eine General Purpose Architektur wie x86, und keine Spezialarchitektur die bestimmte Fälle besonders effizient abbildet.

Abgesehen davon sind gerade spezialisierte Architekturen besonders Breit ausgelegt.

Iscaran
2021-03-18, 19:42:57
Edit: Erstaunlich finde ich auch, dass die 6800 nur knapp auf 3070 Niveau ist, obwohl si 16GB hat. Der Flight Simlator muss wohl anscheinend extrem schlecht auf AMD Grafikkarten laufen, wenn die 3060 mit 12GB besser läuft, wie die 6800XT, die 6800 aber dann nur knapp gleich gut wie die 3070 ist.

Nicht ganz erstaunlich, vermutlich sehen wir hier wieder das DX11 "single-thread" limit, das nvidia mit ihrem "Drivermagic" partiell aufhebt...

Dokumentiert schon in unzähligen Fällen wo die GPU-Leistung nur mit steigender "Single-Core" bzw. IPC Leistung skaliert...und nicht mit der Anzahl der Kerne*Takt.
Ein Beispiel weil ich es grad aktuell im Kopf habe: Valheim@DX11
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12626094#post12626094

Buddy Casino
2021-03-18, 21:06:53
ARM ist nicht prinzipiell effizienter oder sparsamer als x86.

Stimmt asymptotisch, aber nicht ganz. Es ist um einiges abenteuerlicher einen x86/x64 instruction decoder zu bauen der genauso breit arbeitet wie der des M1, aufgrund der sehr variablen Länge der Instruktionen und der vielen möglichen Präfixe. Wenn was einfacher zu implementieren ist wird es halt eher gemacht.

Gast
2021-03-18, 21:38:45
Vom eh schon als Sonderfall ausgeklammerten Wolfenstein abgessehen überspringt nur Godfall bei der 3060Ti 60fps - average, nicht P1.
Man würde also selbst da mit reduzierter Einstellung spielen.
Mithin ist die Festlegung auf mind. 8GB für FullHD mit diesem Test nicht möglich. Punkt.

MD_Enigma
2021-03-18, 21:39:14
Unabhängig von der ARM/X86 diskussion fällt mir gerade auf, was für ein krasser Schachtug es von Apple war, Intel die kalte Schulter zu zeigen und auf eine eigene Plattform zu setzten. Wie auch immer Apple wusste, dass Intel sehenden Auges ins verderben rennt.

Buddy Casino
2021-03-18, 23:12:40
Wie auch immer Apple wusste, dass Intel sehenden Auges ins verderben rennt.

Apple hat die Entscheidung nicht getroffen weil sie das vorausgesehen haben, sondern weil Intel konsistent über die Jahre hinweg nicht so liefern konnte wie Apple sich das gewünscht hat, vor allem im Mobil-Segment. Verzögerungen und extrem unspektakuläre Verbesserungen Jahr für Jahr passen nicht zu Apple's Release-Politik, da haben sie es halt selbst gemacht.

Den eigenen ARM Prozessor haben sie über viele Jahre hinweg entwickelt, und es hat sehr lange gedauert bis sie sich getraut haben das Teil in die Macbooks einzubauen, nämlich erst als der Beweis wirklich erbracht war dass er schnell genug ist. Insofern eigentlich sehr bedacht und vorsichtig.

Leonidas
2021-03-19, 03:13:45
Sehe ich genauso. Apple hat langfristig die passenden Ressourcen aufgebaut und erst dann, als alles passte - Intels Versagen und die eigene Performance-Projektion - Nägel mit Köpfen gemacht. Da gab es einige andere, die wollten von 0 auf 100 - und sind gescheitert.

Ferenzo
2021-03-19, 07:10:27
@topic MX1:

so ist die Situation eben heute, hätte Intel damals bessere Entscheidungen getroffen bzw. nicht so auf die Bremse getreten (ob absichtlich oder unabsichtlich), wäre Apple vielleicht bei Intel geblieben, aber vielleicht hätte AMD das nicht überlebt, der gap wäre riesig geworden und wir hätten Zen vielleicht gar nicht mehr gesehen.

/Spekulation off

Ich hatte es schonmal an anderer Stelle geschrieben, findes es aber immer noch verwunderlich, dass Apple die Marktführer der x86 Arch mal so in der Leistungskrone angreifen kann (zumindest nicht so weit weg ist). Klar hat Apple Zeit investiert, aber das machen die beiden anderen ja auch jedes Jahr?

Vielleicht ist es auch Intel möglich, ordentliche GPUs in den Markt zu entlassen und dem geneigten Betrachter fällt einfach nur auf, dass unser Duopol doch nicht so Fortschritts treibend ist, wie man denkt. Da ging die letzten 5 Jahre auch zu wenig...

Spannend das alles :wink:

MD_Enigma
2021-03-19, 08:24:14
Apple hat die Entscheidung nicht getroffen weil sie das vorausgesehen haben, sondern weil Intel konsistent über die Jahre hinweg nicht so liefern konnte wie Apple sich das gewünscht hat, vor allem im Mobil-Segment. Verzögerungen und extrem unspektakuläre Verbesserungen Jahr für Jahr passen nicht zu Apple's Release-Politik, da haben sie es halt selbst gemacht.

Meinte ich ja. Die Entwicklungszyklen sind lange. Es müsste also um Broadwell herum die Entscheidung getroffen worden sein. Damals sah ich intel mit 10nm/architektur nicht auf dem Holzweg. Das kam ja erst Jahre später bei mir durch.

Gast
2021-03-19, 08:51:28
Meinte ich ja. Die Entwicklungszyklen sind lange. Es müsste also um Broadwell herum die Entscheidung getroffen worden sein. Damals sah ich intel mit 10nm/architektur nicht auf dem Holzweg. Das kam ja erst Jahre später bei mir durch.


Laut einem angeblichen Ex-Intel-Mitarbeiter muss die Entscheidung wohl so mit Skylake gefallen sein.

Das Teil war angeblich dermaßen Buggy, und Apple hat den Großteil davon aufgedeckt, der in Intels QA einfach so durchgerutscht ist.

Grundsätzlich konnte hier Apple durchaus recht kurzfristig reagieren, sie haben ihre CPU Architektur ja prinzipiell für ihre mobilen Geräte und nicht für MacBooks entwickelt. Hätten sie die Performanceziele nicht geschafft wäre ja nicht viel verloren gewesen und sie hätten weiter bei Intel bleiben können, und gleichzeitig hätte man die Entwicklungskosten nicht in den Sand gesetzt, da das Silizium ja durchaus für IPad/IPhone immer noch gut war.

Die Entscheidung die Architektur auf Desktop-Level weiter zu entwickeln muss wohl um den Zeitraum des A10 passiert sein.

MasterElwood
2021-03-19, 08:58:14
"Danach wird AMDs DLSS-Kontrahent "FidelityFX Super Resolution" offiziell mit "FSR" abgekürzt und soll nunmehr innerhalb dieses Jahres erscheinen. Der Nachsatz von "we believe we can do that this year" zeigt dabei allerdings eher in die Richtung, dass man sich sicher ist, diese Arbeit noch vor Jahresende mit einem zählbaren Ergebnis abschließen zu können – sprich, zwischen den Zeilen deutet sich hiermit ein Termin eher zum Jahresende 2021 an. Damit dürfte AMDs FSR wohl erst im Jahr 2022 zu einem zählbaren DLSS-Kontrahenten und für die dann nachfolgende RDNA3-Generation Geschäfts-wirksam werden."

Genau was ich schon damals bei der Vorstellung gesagt habe: AMD hat allen suggeriert "wir haben in Kürze auch sowas" - damit keiner DLSS als Entscheidungsgrundlage zugunsten NV in Betracht zieht - und damit sie ihre maue RT-Performance damit schönreden können.

Reine Lüge - weil die können keinen erzählen dass sie damals noch nicht abschätzen konnten dass es nicht 4 - sondern rund 14 Monate dauert!

Soviel zu den "guten" Roten :tongue:

Gast
2021-03-19, 10:40:13
"Danach wird AMDs DLSS-Kontrahent "FidelityFX Super Resolution" offiziell mit "FSR" abgekürzt und soll nunmehr innerhalb dieses Jahres erscheinen. Der Nachsatz von "we believe we can do that this year" zeigt dabei allerdings eher in die Richtung, dass man sich sicher ist, diese Arbeit noch vor Jahresende mit einem zählbaren Ergebnis abschließen zu können – sprich, zwischen den Zeilen deutet sich hiermit ein Termin eher zum Jahresende 2021 an. Damit dürfte AMDs FSR wohl erst im Jahr 2022 zu einem zählbaren DLSS-Kontrahenten und für die dann nachfolgende RDNA3-Generation Geschäfts-wirksam werden."

Das klingt auch eher nach "wir bemühen uns noch heuer was zu bringen, haben aber absolut keine Ahnung ob es sich ausgeht".

WedgeAntilles
2021-03-19, 10:43:31
"we believe we can do this" ist übrigens keineswegs mit "wir sind sicher das dieses Jahr zu schaffen" zu übersetzen.
"we believe" ist eine schwammige Formulierung, die teils Glaube ("wir schaffen das") aber eben teils auch nicht mehr als reine Hoffnung "hoffentlich klappt es") ausdrückt.

Es besteht die Chance, dass es Ende des Jahres klappt - mehr aber nicht.

Eine deutlich offensivere Ausdrucksweise wäre z.B. gewesen:
"we are sure we can do this"

Sehr viel mehr als 50-50, dass das dieses Jahr noch kommt würde ich auf Basis eines "we believe we can do this" nicht geben.

Leonidas
2021-03-19, 15:23:07
Stimmt. In jedem Fall betrifft es nicht mit RDNA1 zu den Anfangs- und Hochzeiten.

Lehdro
2021-03-19, 16:21:33
Reine Lüge - weil die können keinen erzählen dass sie damals noch nicht abschätzen konnten dass es nicht 4 - sondern rund 14 Monate dauert!

Soviel zu den "guten" Roten :tongue:
Wann und wie genau hat AMD gesagt dass deren Fidelitydingsbums in 4 Monaten rauskommt und woher weißt du es rund 14 Monate dauert?

Sicher das nicht du gerade lügst?