PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 15. Oktober 2020


Leonidas
2020-10-16, 08:37:02
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-15-oktober-2020

Mega-Zord
2020-10-16, 11:56:02
Für eine Top-3090 würde ich ja durchaus 1,5k hinlegen, aber dafür wird es die wohl nicht geben. Ich warte immer noch auf kurze wassergekühlte Karten. knapp 400 Watt möchte ich nämlich nicht in einem µATX-Case kühlen, da ist bei der 2080 Ti im Sommer schon mehr als grenzwertig.

Knuddelbearli
2020-10-16, 11:57:58
Also ich finde deine Preis Argumentation bedenklich Leonidas, du gehst damit direkt NV auf dem Leim. Einfach eine Karte Absurd teuer machen, die aber nicht zuviel bietet, weshalb sich die Leute eh nicht so aufregen da man einfach die günstigere nehmen kann, und schon kann man sich die Preise darunter alle schönreden ....

Buddy Casino
2020-10-16, 12:50:08
Für eine Top-3090 würde ich ja durchaus 1,5k hinlegen, aber dafür wird es die wohl nicht geben. Ich warte immer noch auf kurze wassergekühlte Karten. knapp 400 Watt möchte ich nämlich nicht in einem µATX-Case kühlen, da ist bei der 2080 Ti im Sommer schon mehr als grenzwertig.

Tipp: in das FormD T1 (https://formdworks.com/products/t1) passt eine 3090 und zwei 240 rads, jeweils für CPU und GPU. https://www.reddit.com/r/sffpc/comments/j6trbe/how_to_fit_2x240_radiator_in_the_10l_formd_t1/

Kleiner und kühler geht es nicht. Luftgekühlte GPU funktioniert übrigens auch noch gut.

Mega-Zord
2020-10-16, 13:16:43
Tipp: in das FormD T1 (https://formdworks.com/products/t1) passt eine 3090 und zwei 240 rads, jeweils für CPU und GPU. https://www.reddit.com/r/sffpc/comments/j6trbe/how_to_fit_2x240_radiator_in_the_10l_formd_t1/

Kleiner und kühler geht es nicht. Luftgekühlte GPU funktioniert übrigens auch noch gut.

Ist der PCIe-Riser denn 4.0-tauglich? Das Teil sieht in der Tat interessant aus.

Gast Ritis
2020-10-16, 13:45:33
So wie Imagination Tech das Chiplet Design umgesetzt hat ist es für die Applikation nur eine (1) GPU, es gibt einen Master, der die Jobs verteilt bzw. die Einheiten mit den Shadern pullen vom vorhandenen Arbeitsvorrat für das Tile-based Rendering die Tiles. Die Entwickler sehen davon nichts und wundern sich höchstens über eine FPS-Grenze wegen der Chiplet-Latenzen.

Die geplante GPU wird auch für Gaming angepriesen, allerdings für Cloud-Anbieter.
The “Fantasy” series will be widely used in mainstream infrastructure deployment such as desktop rendering, 5G datacenter, cloud gaming, cloud office, cloud education and much more.
Dass man anhand der TeraFlops kaum auf Performance im Rendering schliessen kann, höchstens grobe Einschätzung, sollte mittlerweile klar sein.
Die Tiled-Renderer waren sonst eigentlich überdurchschnittlich schnell gemessen an Chipgrösse und Takt. Was mit 4 Chiplets geht wird im nächsten Design in einem Jahr vielleicht auch mit 8 Chiplets, oder 4 doppelt so grossen Chiplets gehen... Ich finde es super, aber DX11 und älter wird damit nichts werden. DX12 und Vulkan sollte aber gut klappen, Intel wird es kaum anders ergehen...

Gast
2020-10-16, 14:32:53
Ich schliesse mich der Einschaetzung bezueglich B-Series an. Allerdings habe ich da noch ein paar Anmerkungen:

Wir kennen das MCP Design nicht. Es kann durchaus sein, dass die Chips wie ein einziges funktionieren koennen, es also eine Art I/O Die gibt und es gar kein Anwendungssoftwaresupport dafuer geben muss. GPUs sind ja durchaus sehr modular aufgebaut. Es ist vermutlich vor allem eine Frage der Caches und wie die Last verteilt wird. AMD scheint ja auch in Zukunft etwas in die Richtung geplant zu haben.

MCP macht im Mobile keinen grossen Sinn AFAIK. Immerhin will man ja moeglichst wenig Platz verbrauchen, also macht es sinn alles in einem Die unterzubekommen was geht. Also man will dort SoC und nicht etwas SoM aehnliches. Erst recht nicht mehere Dies fuer eine GPU. Bei Desktops und Nettops sieht es da wiederum anders aus. Dort spielt Platzverbrauch und auch Leistungsaufnahme wiederum keine so grosse Rolle.

Was momentan fuer mich gegen Einsatz unter Windows spricht ist eigentlich vor allem ein Fakt: Als unterstuetzte Plattform wird nur Linux und Android genannt. Das war "damals" als wir das vorletzte mal Power VR mit der Kyro II auf dem Desktop gesehen haben anders. Da gab es aussschliesslich Windows support. Mit dem Intel "Desaster" gab es zwar auch einen Windows Treiber fuer deren SoC, aber der war aus meiner Sicht nie wirklich production ready. Grund liegt einfach darin das Power VR AFAIK wenn ueberhaupt nur einen Prototype Treiber zur Verfuegung stellt und die eigentliche Arbeit dann das produzierende Unternehmen uebernehmen muss. Und wir alle wissen das Intel nicht unbedingt gut darin ist GPU Treiber zu schreiben, geschweige denn sie zu optimieren. ;)

Aber gehen wir mal davon aus das es jemanden gibt der Windows Treiber schreiben kann und es auch gut macht. Dann gaebe es eine Windows Plattform die wir gar nicht auf dem Schirm haben: Windows + Arm. Und da waeren wir wieder bei Nettops.

Kriegsgeier
2020-10-16, 14:57:16
kann mir einer folgendes erklären?
Wie kann eine RTX 3080 10GB und eine RTX 3080 20GB den gleichen Performanceindex haben und das noch bei 4K?!

Ich dachte, dass gewisse FPS bei genau höheren Auflösungen direkt vom Speicher abhängen...

Sprich eine RTX 3080 20GB wird in vielen Szenarien noch Speicher haben und somit stabilere und vor Allem höhere FPS als eine RTX 3080 mit 10GB!

Daher finde ich den gleichen Performanceindex völlig daneben - oder ich habe das mit dem MEHR SPEICHER nicht verstanden...

WOZU DANN ÜBERHAUPT MEHR GRAFIKSPEICHER?! LOL

Danke für die Aufklärung

Gast
2020-10-16, 15:06:12
@Kriegsgeier, es ist nicht die Auflösung die signifikant Speicher frisst sondern es sind die Texturen.

Gast
2020-10-16, 15:22:24
Kleiner und kühler geht es nicht. Luftgekühlte GPU funktioniert übrigens auch noch gut.

Ich bastel gerade an nem Custom Dan A4 mit 3x80mm Radi (60mm dick). K.a. was dabei raus kommt und ob sich mein Vorhaben von 100W CPU + 300W GPU damit kuehlen laesst ohne das das Wasser anfaengt zu sieden. :D Aber von der Kuehlflaeche/-volumen her ist es theoretisch sogar dem 2x 2x120 (20mm) ueberlegen:

240x80x60 = 1152000
240x120x20 = 576000

Allerdings schaufeln die 3x 80x25mm Luefter, auch auf voller Drehzahl (ich habe Noctua gewaehlt), nicht gerade viel Luft. Das ist definitiv ein Pluspunkt fuer 120mm Radiatoren und entsprechend grosse Luefter. :D

Mein Bauchgefuehl sagt mir das ich einen Schnellkochtopf baue. :D

Ätznatron
2020-10-16, 15:39:16
Weil die Leistung der Karten identisch ist.

Wenn der speicherschwächeren Karte der Speicher ausgeht, dann allerdings wirst du den Unterschied zur Karte mit größerem Speicher sehr wohl auch an den FPS bemerken (eventuell müsste dann der Performanceindex angepasst werden).

Die Auflösung hat übrigens nur einen eher geringen Anteil am Speicherbedarf. Bei Karten mit derart viel Speicher ist das nahezu vernachlässigbar.

JVC
2020-10-16, 15:40:47
WOZU DANN ÜBERHAUPT MEHR GRAFIKSPEICHER?!

Danke für die Aufklärung

Bessere/abwechslungsreiche Texturen benötigen mehr RAM.
Solange der Speicher ausreicht ist die 20GB vermutlich nicht schneller.
Erst wenn 10GB überlaufen und stottern, ist die 20GB "schneller"(geht nicht in die Knie).
(wobei moderne Spiele einfach immer "hässlicher" werden wen der RAM ausgeht)

Zu viel RAM ist nur teuer, aber zu wenig RAM = "Game Over" m.M.
(außer man steht nur auf viel FPS und hält nix von Optik)

M.f.G. JVC

WedgeAntilles
2020-10-16, 15:48:09
Zu viel RAM ist nur teuer, aber zu wenig RAM = "Game Over" m.M.
(außer man steht nur auf viel FPS und hält nix von Optik)

M.f.G. JVC

Ist das noch ein valides Argument, falls BigNavi bei RT schwächelt?

"Game over" "nix von Optik" ist halt auch überhaupt nicht übertrieben formuliert. :rolleyes:

Aber ja, für jemandem bei dem die Welt untergeht falls mal eine Textur etwas schlechter ist, bei dem immer alles perfekt aussehen muss - für den ist die 3080 mit 10GB in der Tat nix.
Da muss es die 3080 mit 20GB sein. Alternativ die 3090 natürlich.
BigNavi könnte für denjenigen allerdings auch nix sein - sollte RT schwächeln. Wäre dann ja ein Abstrich bei der Optik der völlig unzumutbar ist.

Komischerweise gilt der "perfekte Optik" Anspruch da aber vermutlich nicht, gell?

JVC
2020-10-16, 15:50:27
@WedgeAntilles Ist ja auch nur meine Meinung ;)

RT gefällt mir im Moment noch nicht...
Wie bei DLSS bin ich froh wenn man es ausschalten kann ^^

Manche brauchen 144HZ oder sogar mehr...
Und wieder andere haben lieber "Eye-Candy" bei 30-60Fps ;)

M.f.G. JVC

WedgeAntilles
2020-10-16, 15:53:05
@WedgeAntilles Ist ja auch nur meine Meinung ;)

RT gefällt mir im Moment noch nicht...
Wie bei DLSS bin ich froh wenn man es ausschalten kann ^^

M.f.G. JVC

Ich sage ja auch nicht, dass du unrecht hast - je nach Ansprüchen SIND 10GB zu gering.
Aber so absolut pauschal ist halt einfach übertrieben. Da macht man Leuten nur unnötig Angst.
Ja, man muss sich bewusst sein, was eine 10GB Karte bedeutet.

Aber ein "nicht spielbar" oder ein Grafik Low trifft es halt nicht.
Zwischen: Low Graphic und "absolut perfekt" gibt es eine seeehr große Bandbreite :)

y33H@
2020-10-16, 16:01:03
Gemäß Heise soll die kürzlich von Chipdesigner Imagination Technologies (ImgTec) vorgestellte PowerVR B-Series an Grafikchips auch für einen Gaming-Einsatz auf dem Desktop gedacht sein. Dies ist eine vergleichsweise mutige Aussage, denn in der angeführten ImgTec-Pressemitteilung findet sich das Wort "Gaming" überhaupt nicht. Auch in der (gestern schon verlinkten) Technik-Beschreibung zur PowerVR B-Series seitens Golem ist diese oder eine ähnliche Wortwahl nicht zu finden.
Im Text findet sich "Cloud Gaming" doppelt ... Strg+F ^^

https://www.imgtec.com/news/press-release/innosilicon-selects-imaginations-new-bxt-multi-core-gpu-ip-for-cloud-computing/

Tru
2020-10-16, 16:05:54
Innosilicon hat in der eigenen Mitteilung zudem einen anderen Wortlaut:

"Innosilicon will introduce the first worldwide high-performance discrete GPU card with Imagination's new best-in-class BXT multi-core architecture applied for desktop and data center applications."

https://www.innosilicon.com/html/news/45.html

JVC
2020-10-16, 16:06:01
Ja, man muss sich bewusst sein, was eine 10GB Karte bedeutet.

jup.

Ich halte die 3080 10GB für die perfekte "Low Res-High Fps" Karte.
(gibt ja einige die gerne mit reduzierten Details spielen...)

Und die 3080 20Gb ziemlich gut für 4K 60HZ.
Wobei mir die 16GB von N21 auch reichen würden.
(mal schauen welche dann effizienter und günstiger ist)

M.f.G. JVC

Gast
2020-10-16, 16:13:26
Der Chiplets-Ansatz ist zwar technologisch hochinteressant, dürfte aber letztlich zu der Problematik führen, dass diese Beschleuniger kaum für übliche PC-Grafik Einsatz finden können, da dort inzwischen (unter DirectX 12 wie Vulkan) alle MultiChip-Lösungen vom Spieleentwickler selbstätig mit eigenem Support bedacht werden müssen.

Für herkömmliche Rastergrafik ist das in der Tat ein Problem, aber fürs Raytracing (der C-Series) hingegen brauchts noch nicht einmal SLI-Brücken. Das skaliert sogar mit 8 GPUs:
https://www.youtube.com/watch?v=Zw3vwCBOjQ0

Würde man den 28nm GR6500 mit 0,3 GRays/s von 600 Mhz auf 2Ghz und von 25mm² auf 781,25mm² in 7nm skalieren, käme man insbesondere dank Coherency Gathering (https://www.youtube.com/watch?v=tOdaU0u9c3U&t=18m) auf ~125 GRays/s. Das würde für 1004 Rays pro Pixel unter 1080p@60fps reichen.
Mit 8 solcher GPUs in einer Workstation wie im Video oben käme man dann auf 1 TRays/s. Das würde für 502 Rays pro Pixel unter 8K@60fps reichen. :cool:
https://www.imgtec.com/blog/coherency-gathering-in-ray-tracing-the-benefits-of-hardware-ray-tracking/

"The answer is next year, now that we are reaching these higher levels of performance, we can confirm that we will be delivering an industry-leading “Level 4” ray tracing solution in IMG C-Series. We recently established the six levels of the Ray Tracing Levels System and you can read our recent white paper to learn more about these."
https://www.imgtec.com/blog/img-b-series-multi-core-revolution/
https://www.imgtec.com/blog/introducing-the-ray-tracing-levels-system-and-what-it-will-mean-for-gaming/
https://www.imgtec.com/whitepapers/ray-tracing-levels-system/

Buddy Casino
2020-10-16, 19:24:46
Ist der PCIe-Riser denn 4.0-tauglich? Das Teil sieht in der Tat interessant aus.
Aktuell wird noch der PCIe 3.0 Riser ausgeliefert, eine 4.0 Version gibts später. Bei einer 3080/3090 ist aber eh kein Performance-Unterschied meßbar.

Geldmann3
2020-10-16, 23:23:47
Ich vermute schon, dass die 20GB Karte in 4k@maxed out ein paar Prozent schneller ist. Vielleicht 3% oder ähnlich. In der Vergangenheit war zum Release oft sogar die Karte mit weniger Speicher die leicht schnellere, doch die 3080 kratzt in einigen Games bereits so sehr am Limit, dass etwas mehr Luft nach oben helfen sollte. Beispielsweise im FS2020 oder in Crysis Remastered und wenn man intern höhere Auflösungen als 4k anstrebt erst recht.

Ätznatron
2020-10-16, 23:40:30
Sobald der 10 GB-Karte der Speicher ausgeht, ist der wahrscheinliche Vorteil der 20 GB-Karte gar nicht mehr zu beziffern.

Und der reduziert sich dann nicht auf die einseitige Fixierung auf die FPS, auf 3% oder so.

Der Speicher macht dann den Unterschied zwischem nervig ruckelgeplagtem, oder rundem und smoothen Spielerlebnis.

Buddy Casino
2020-10-17, 00:22:43
jup.

Ich halte die 3080 10GB für die perfekte "Low Res-High Fps" Karte.
(gibt ja einige die gerne mit reduzierten Details spielen...)

Und die 3080 20Gb ziemlich gut für 4K 60HZ.

Die Frage ist, werden Spielentwickler den Aufwand betreiben, für den kleinen Nischenmarkt der 20GB 3080 Besitzer oder 16GB Navis extra hochaufgelöste Texturen bereit zu stellen? Die NextGen Konsolen haben 16GB RAM, da wird das Betriebssystem und die Game Engine einiges davon belegen, 10GB scheinen mir da ganz passend.

Oder bedeutet die schnelle SSD dass die Texturen besser werden?

Ätznatron
2020-10-17, 06:42:11
Die Frage ist, werden Spielentwickler den Aufwand betreiben, für den kleinen Nischenmarkt der 20GB 3080 Besitzer oder 16GB Navis extra hochaufgelöste Texturen bereit zu stellen? Die NextGen Konsolen haben 16GB RAM, da wird das Betriebssystem und die Game Engine einiges davon belegen, 10GB scheinen mir da ganz passend.

Oder bedeutet die schnelle SSD dass die Texturen besser werden?

Man muss doch nicht auf den Entwickler warten. Wenn ein Spiel die Möglichkeit bietet, nachträglich bspw. bessere Texturen einzupflegen, kann man diese auch selbst erstellen.

Darüber hinaus gibt es zahlreiche Anlaufstellen wie bspw. Nexus Mods (https://www.nexusmods.com/), wo man fündig werden kann.

Der große Speicher ist also eher ein Angebot an Modder, als dass er in der Realität üblicherweise tatsächlich notwendig wäre.

Es gibt natürlich bereits jetzt Beispiele, in denen auch ohne Mods selbst die 11GB einer 2080ti nicht mehr wirklich reichen.

Leonidas
2020-10-17, 10:47:07
Also ich finde deine Preis Argumentation bedenklich Leonidas, du gehst damit direkt NV auf dem Leim.


Kann man so sehen. Ich dachte eher aus Richtung der 3090er-Interessenten. Für die wäre die 3080/20GB doch viel besser.





Die geplante GPU wird auch für Gaming angepriesen, allerdings für Cloud-Anbieter.


Danke für den Hinweis, das macht es klarer.





Wie kann eine RTX 3080 10GB und eine RTX 3080 20GB den gleichen Performanceindex haben und das noch bei 4K?! Ich dachte, dass gewisse FPS bei genau höheren Auflösungen direkt vom Speicher abhängen...


Derzeit bei der RTX3080/10G aber noch nicht. 1-2 Spiele dürften minimal reagieren, was den Index kaum beeinflußt. DERZEIT werden mehr als 10G nicht benötigt.





WOZU DANN ÜBERHAUPT MEHR GRAFIKSPEICHER?! LOL


Reine Wette auf die Zukunft.





Im Text findet sich "Cloud Gaming" doppelt ... Strg+F ^^
https://www.imgtec.com/news/press-release/innosilicon-selects-imaginations-new-bxt-multi-core-gpu-ip-for-cloud-computing/


Genau das hab ich gemacht. Erhrlich. Muß meine Suchfunktion oder sonstwas gesponnen haben. Dummer Mist.

Gast Ritis
2020-10-17, 10:49:05
Ich schliesse mich der Einschaetzung bezueglich B-Series an. Allerdings habe ich da noch ein paar Anmerkungen:

Wir kennen das MCP Design nicht. Es kann durchaus sein, dass die Chips wie ein einziges funktionieren koennen, es also eine Art I/O Die gibt und es gar kein Anwendungssoftwaresupport dafuer geben muss..

Steht eigentlich genug in den Dokus von der Website.

In effect, the cores are loosely coupled, only sharing command and tile buffer lists in memory
and sharing the workload between them. As each core is designed as a full independent GPU it contains all the functionality required to self-manage and execute workloads based on priority.
The fundamental change to previous layouts is that instead of a single core directly working on a workload we now have multiple GPU instances sharing command streams and jointly finishing the work as quickly as possible. By working on distinct regions of the work (the render target) in each GPU core our bandwidth efficiency is maintained, as each core continues to work on a coherent region
of the screen, thus ensuring maximal cache hit efficiency. A similar approach also applies to other processing types, including geometry and compute processing, which can be assigned to different GPU cores for processing.

Anandtech hat auch über Details geschrieben.

Ätznatron
2020-10-17, 11:20:50
Derzeit bei der RTX3080/10G aber noch nicht. 1-2 Spiele dürften minimal reagieren, was den Index kaum beeinflußt. DERZEIT werden mehr als 10G nicht benötigt.


Dann frag mal HisN.


Eine Aussage wie "DERZEIT werden mehr als 10G nicht benötigt" ist Unsinn.

Leonidas
2020-10-17, 11:25:40
Wir werden es im Dezember sehen, um wieviel schneller die 20G auf gleichem Takt/TDP ist. Schon aus rein mathematischer Sicht ist mir klar, das selbst +10% unter einzelnen Spieletiteln am Gesamt-Index nur um Rahmen von +0,5% was ändert.

Ich beuge mich aber gern den dann entstehenden Fakten. Wenn besseres herauskommt als von mir erwartet - kein Problem.

Ätznatron
2020-10-17, 11:31:17
Man darf sich halt nicht auf die FPS fixieren.

Um den Vorteil von großem VRAM zu erfahren, bedarf es schon etwas mehr.

Schau dir mal auf CB nur die neuesten Beiträge auf der letzten Seite dieses Threads (https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/page-291#post-24754611) an, und du weisst, wie weit du mit 10GB kommst.

Buddy Casino
2020-10-17, 13:57:44
Schau dir mal auf CB nur die neuesten Beiträge auf der letzten Seite dieses Threads (https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/page-291#post-24754611) an, und du weisst, wie weit du mit 10GB kommst.

Ok da wird es endlich mal konkret! Auf 3DC lese ich immer nur abstrakte Aussagen à la "könnte knapp werden, wer weiß, die Zukunft, bla". Die 17GB VRAM in Horizon Zero Dawn sind auf jeden Fall schon mal ein Datenpunkt, und das memory-fragmentation Argument ergibt auch Sinn.

WedgeAntilles
2020-10-17, 14:30:43
17GB Vram - ist damit jede GraKa mit unter 20GB unbrauchbar?

Ätznatron
2020-10-17, 14:58:07
Wenn du diese Settings benutzen und die damit erzielte Qualität haben möchtest: Ja, da sind Karten mit <20GB suboptimal.

Unbrauchbar ist ein zu hartes Wort. Bedingt brauchbar trifft es da besser.

Gast
2020-10-17, 19:43:46
Wir werden es im Dezember sehen, um wieviel schneller die 20G auf gleichem Takt/TDP ist. Schon aus rein mathematischer Sicht ist mir klar, das selbst +10% unter einzelnen Spieletiteln am Gesamt-Index nur um Rahmen von +0,5% was ändert.

Der Index ist hier aber überhaupt nicht hilfreich.

Beim VRAM gibt es ja im wesentlichen nur 2 Zustände. Entweder er reicht bei beiden Karten aus, dann gibt es 0 Unterschiede.

Oder er reicht bei der kleineren Karte eben nicht aus, dann wird es aber sehr schnell unbrauchbar.

Es gibt nur ein sehr schmales Band, in dem der VRAM gerade so nicht ausreicht, aber das Ergebnis trotzdem noch brauchbare Frameraten, und die Karte mit mehr VRAM dann im Wesentlichen nur etwas schneller ist.

Nur in diesem schmalen Bereich machen irgendwelche Performancevergleiche mit Index überhaupt Sinn, ansonsten ist die Aussage, der VRAM ist ausreichend oder er reicht eben nicht aus.

Gast
2020-10-17, 22:17:46
kann mir einer folgendes erklären?
Wie kann eine RTX 3080 10GB und eine RTX 3080 20GB den gleichen Performanceindex haben und das noch bei 4K?!

Ich dachte, dass gewisse FPS bei genau höheren Auflösungen direkt vom Speicher abhängen...

Sprich eine RTX 3080 20GB wird in vielen Szenarien noch Speicher haben und somit stabilere und vor Allem höhere FPS als eine RTX 3080 mit 10GB!

Daher finde ich den gleichen Performanceindex völlig daneben - oder ich habe das mit dem MEHR SPEICHER nicht verstanden...

WOZU DANN ÜBERHAUPT MEHR GRAFIKSPEICHER?! LOL

Danke für die Aufklärung

Vielleicht liegt es daran, dass exorbitant großer Grafikspeicher ein moderner Fetisch ist. Dies gilt zumindest in Kreisen welche sich in Hardwareforen herumdrücken.
Ich denke man kommt mit 4GB hin, 6GB sind ausreichend, mit 8GB ist man safe für eine ganze Zeit. 10GB sind mehr als genug.
Darüber hinaus beginnt der Glaube an Voodoo.
Raytracing verringert übrigens die Notwendigkeit von viel Speicher.

Lehdro
2020-10-17, 23:55:11
Vielleicht liegt es daran, dass exorbitant großer Grafikspeicher ein moderner Fetisch ist. Dies gilt zumindest in Kreisen welche sich in Hardwareforen herumdrücken.
Ich denke man kommt mit 4GB hin, 6GB sind ausreichend, mit 8GB ist man safe für eine ganze Zeit. 10GB sind mehr als genug.
Darüber hinaus beginnt der Glaube an Voodoo.
Raytracing verringert übrigens die Notwendigkeit von viel Speicher.
Hast du dafür auch Quellen? So ziemlich jeder Test hat Schwächen im High Res Bereich bei der 3080 aufgezeigt, die nicht auf fehlende Rohleistung zurückgehen. Ich zitiere mal stellvertretend PCGH:
Aber genau dieser Puffer fehlt der Geforce RTX 3080 mit 10 GiByte. Speicherfresser wie Horizon: Zero Dawn, Ghost Recon Breakpoint und Wolfenstein Youngblood zeigen schon jetzt, wohin die Reise geht. Raytracing verschlimmert die Sache durch nochmals erhöhten Speicherbedarf, in vielen RTX-Titeln stellen schon jetzt 8 GiByte das Minimum dar, Minecraft RTX zeigt gar, wie man 10 und 11 GiByte zum Bersten bringt. Und das ist erst der Anfang, die Vorhut einer neuen Spiele-Generation.

Leonidas
2020-10-18, 04:21:50
Nur in diesem schmalen Bereich machen irgendwelche Performancevergleiche mit Index überhaupt Sinn, ansonsten ist die Aussage, der VRAM ist ausreichend oder er reicht eben nicht aus.


Ganz genau ausgedrückt. Deswegen versuche ich auch, diese VRAM-Geschichte nicht im Index abzubilden. Dies ist eine Frage, die mehrheitlich außerhalb dessen steht.

Ätznatron
2020-10-18, 08:28:46
Damit ist der 3DCenter-Leistungsindex kein brauchbarer Indikator mehr für die tatsächliche Leistungsfähigkeit von Grafikkarten, da diese halt eben auch vom Speicherausbau abhängt.

Leonidas
2020-10-18, 09:34:41
Nein. Weil der Speicherausbau ein unkalkulierbarer Faktor ist. Jener kann auch die Performance auf 1% runterdrücken. Das will man sicherlich nicht per Index ausdrücken.

Ätznatron
2020-10-18, 09:53:12
Nein. Weil der Speicherausbau ein unkalkulierbarer Faktor ist. Jener kann auch die Performance auf 1% runterdrücken. Das will man sicherlich nicht per Index ausdrücken.

Die Argumentation kann ich nachvollziehen, trotzdem bildet ein so eingeschränkter Index nicht die Realität ab.

Wenn fehlender Speicher die Performance in den Keller zieht, dann ist das halt so und sollte berücksichtigt werden.

Gast
2020-10-18, 22:53:28
Die Argumentation kann ich nachvollziehen, trotzdem bildet ein so eingeschränkter Index nicht die Realität ab.


Ein Index kann auch niemals die Realität abbilden, sondern immer nur eine starke Vereinfachung dieser sein.

Wenn wir jetzt 2 Spiele nehmen, in einem Spiel haben beide Karten ausreichend Grafikspeicher und beide Karten sind gleich schnell.

Im anderen Spiel reicht der Speicher der kleineren Karte nicht mehr aus und die größere ist doppelt so schnell.

Im "Index" wäre die Karte mit mehr Speicher jetzt 50% schneller.

Diese Aussage ist aber unsinnig, die Karte ist weder generell um 0% noch um 50% noch um 100% schneller.

Gast
2020-10-19, 10:22:25
Der Index war schon immer eine Momentaufnahme. Es war schon immer so das Karten mit rein unterschiedlicher Speichermenge meisten im Index auf Augenhoehe waren. Sowohl in der vorherigen Einschaetzung als auch nach Release. Es kam lediglich dann zu Differenzen wenn aktuelle Spieletitel die Differenz in den Benchmarks bemerkbar gemacht haben oder, und das war sehr oft der Fall, auch andere Hardware Differenzen ihren Teil beitrugen. Oft genug waren die Versionen mit weniger Speicher auch niedriger getaktet. Beispiel: RX 580 4G mit 1750MHz und die RX 580 8G mit 2000Mhz.

Wenn man sich jede Generation kauft dann spielt die Menge eigentlich keine Rolle. Aber ein taktischer Kaeufer, der so eine Karte auch mindestens 3-5 Jahre nutzen will, der will, dass sie in Zukunft nicht durch zu wenig Speicher ausgebremst wird. Vor allem bei derart teuren Karten. In einen neuen >= 8C PC baue ich ja auch keine 128GB SSD und 2x4GB Ram ein. Denn beides mag aktuell noch ausreichen, ist aber langfristig total unterdimensioniert.