Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 29. November 2022
Leonidas
2022-11-30, 06:36:56
Link zur News:
https://www.3dcenter.org/news/news-des-29-november-2022
Da Portal kein FSR unterstützt, wird es für AMD-Hardware hier schwer bis unmöglich werden, noch mitzuhalten. Rein von der durchschnittlichen RayTracing-Performance ausgehend interpoliert könnten AMDs Spitzen-Modelle aber vielleicht noch mit der GeForce RTX 3060 auf DLSS2 unter der Minimum-Anforderung konkurrieren.
PortalRTX ist kein "Portal mit Raytracing Effekten", es ist Portal mit Raytracing-Only.
Damit wird die vielfache Raytracing-Leistung der NV-Beschleuniger deutlich mehr Einfluss auf die finale Framerate haben als es in Raster-Spielen mit 1 oder 2 angeflanschten RT-Effekten, deren Gesamtperformance immer noch maßgeblich von der Rasterleistung beeinflusst wird.
Vielmehr ist hier eher eine Skalierung von vergleichbaren Projekten wie QuakeRTX oder MinecraftRTX zu erwarten.
GDDR6W ist ergo nur die Möglichkeit, mit (räumlich) weniger Speicherchips auszukommen, weil eben jeweils zwei davon übereinander gepappt werden und sich somit der belegte Platz auf der Platine halbiert. Genau nur das – die Platzreduktion auf der Platine – ist der ganze Clou von GDDR6W, an den restlichen technischen Daten ändert sich nichts.
Solle das nicht auch breitere Speicherinterfaces günstiger machen?
Insofern könnte es durchaus effektiv die Speicherbandbreite erhöhen, ganz einfach indem breitere Interfaces verbaut werden.
Solle das nicht auch breitere Speicherinterfaces günstiger machen?
Insofern könnte es durchaus effektiv die Speicherbandbreite erhöhen, ganz einfach indem breitere Interfaces verbaut werden.
Ich könnte mir durchaus vorstellen, dass man früher oder später versucht, den GDDR6W mit der GPU auf eine Trägerplatine zu bringen (ähnlich HBM). Dadurch könnte man ein erheblich einfacheres PCB für das Grafik-Board vorsehen, weil da ja "nur noch" Spannungsversorgung, PCIe und Video-Output drüber müssen und nicht mehr die komplexen Leitungsbahnen der Speicher. Dadurch hätte man auch kurze Wege, was mehr Takt beim VRAM ermöglichen könnte. Wieso nicht einen GDDR6W direkt neben dem MCD? Oder später mal drauf gestapelt?
anddill
2022-11-30, 08:55:13
Dann würde es aber mehr Sinn machen gleich auf HBM zu setzen. Der ist genau für diesen Zweck entwickelt worden.
Leonidas
2022-11-30, 09:00:57
Solle das nicht auch breitere Speicherinterfaces günstiger machen?
Nein. Technisch sind zwei GDDR6-Chips zusammengepappt 1x GDDR6W. Die Interfaces bleiben gleich, 2x32 Bit. Auf Grafikchip-Seite ändert sich auch nix. Günstiger wird da nix.
Nur die Platine kann günstiger werden, weil halb so viel Platz für Speicherchips draufgeht.
Kleebl00d
2022-11-30, 09:08:04
Nur die Platine kann günstiger werden, weil halb so viel Platz für Speicherchips draufgeht.
Ich lehn mich mal aus dem Fenster und behaupte, dass der Gast darauf hinaus wollte. Die Platine wird ja nicht nur wegen des eingesparten Platzes günstiger sondern auch, weil sich die Leiterbahnen darunter potentiell gehörig vereinfachen - statt einer Leitung zwei nebeneinander designen ist vergleichsweise einfach machbar, verglichen mit einem zweiten Set an Leiterbahnen die man zu einer anderen Position auf dem Board verlegen muss.
MD_Enigma
2022-11-30, 09:47:33
Technisch sind zwei GDDR6-Chips zusammengepappt 1x GDDR6W.
Also eher etwas für Mobile als Desktop.
Pumpi74
2022-11-30, 10:20:19
Die Platinen könnten bis zu 5cm kürzer werden und der Ram würde sich auch kostengünstiger in eine hochwertige Kühlung einbauen lassen. Desto kleiner die Vaporchamber desto billiger. Des weiteren könnte am Ende der Grafikkarte mehr heiße Luft im PassThru Verfahren abgeführt werden. Was die Effizienz der Kühlung nochmal steigert. Sind schon ein paar Vorteile.
Leonidas
2022-11-30, 10:32:06
Denkbar, dass man das nutzt. Nachteil ist halt immer, das der maximale Takt etwas niedriger liegt. Aber für Profi-Karten dürfte es das wohl geben, dort besteht immer das Problem, so viele Speicherchips unterzubringen.
greeny
2022-11-30, 11:01:53
Zwei neue Meteoriten-Minerale entdeckt []
[Scinexx]
Nein. Technisch sind zwei GDDR6-Chips zusammengepappt 1x GDDR6W.
Da mehr Leitungen zu einem einzelnen Speicherchip gehen, dürfte das Routing durchs PCB um einiges einfacher sein.
Die Interfaces bleiben gleich, 2x32 Bit. Auf Grafikchip-Seite ändert sich auch nix. Günstiger wird da nix.
Würde mich nicht wundern wenn das PHY-Interface auch optimiert wird.
Complicated
2022-11-30, 12:38:02
Portal RTX enthält alles was man bei RT eigentlich nicht sehen möchte.
Bei allem Jubel um Reflexionen und Beleuchtung, kann es ja nicht sein, dass Puzzle-/Game-Elemente nicht mehr wie ursprünglich verfügbar/erkennbar sind.
Berniyh
2022-11-30, 12:44:36
Portal RTX enthält alles was man bei RT eigentlich nicht sehen möchte.
Bei allem Jubel um Reflexionen und Beleuchtung, kann es ja nicht sein, dass Puzzle-/Game-Elemente nicht mehr wie ursprünglich verfügbar/erkennbar sind.
Ich frag mich vor allem, was das denn jetzt soll.
Ich meine für eine RTX Version von Portal werde ich mir jetzt bestimmt nicht eine Nvidia GPU kaufen.
Und zudem lebt Portal ja auch eh nicht von der Grafik, sondern vom Spielekonzept. RTX ist da im Grunde einfach nur Ressourcenverschwendung.
(gut, das mag man sicher anders sehen)
Complicated
2022-11-30, 12:57:40
Es ist ein guter Marketingzug mit der kostenlosen Version und den unnützen Leistungsanforderungen. Mal sehen wie viele Redaktionen das kostenlose Spiel in den RT-Bench-Parcour einbinden.
Troyan
2022-11-30, 13:14:18
Hast du ein Problem damit, dass das Spiel eingebunden wird? Hat letzte Woche 1€ gekostet.
aceCrasher
2022-11-30, 13:14:18
Ich frag mich vor allem, was das denn jetzt soll.
Ich meine für eine RTX Version von Portal werde ich mir jetzt bestimmt nicht eine Nvidia GPU kaufen.
Und zudem lebt Portal ja auch eh nicht von der Grafik, sondern vom Spielekonzept. RTX ist da im Grunde einfach nur Ressourcenverschwendung.
(gut, das mag man sicher anders sehen)
Nur weil ein Spiel vom Spielkonzept lebt, heißt das ja noch nicht dass die Grafik plötzlich egal ist. Gerade bei Spielen mit einem realistischen Artstil wie Portal. Je realistischer ein Spiel aussieht, desto leichter fällt es mir mich in seiner Welt zu verlieren. Portal non-RTX ist eins meiner absoluten Lieblingsspiele, zu besserer Grafik sage ich trotzdem nie nein.
Hast du ein Problem damit, dass das Spiel eingebunden wird? Hat letzte Woche 1€ gekostet.
Also ich habe damit ein Problem.
AMD ist darin unterirdisch, so ein Spiel darf selbstverständlich in keinen Benchmark rein.
Ich frag mich vor allem, was das denn jetzt soll.
Letzte Woche, Gestern oder Morgen hättest du kein Problem damit gehabt?
Ich meine für eine RTX Version von Portal werde ich mir jetzt bestimmt nicht eine Nvidia GPU kaufen.
Verlangt ja auch keiner von dir, aber dürfen die, die eine RTX haben diese auch nutzen oder brauchen die dein Einverständnis um es zu nutzen?
Und zudem lebt Portal ja auch eh nicht von der Grafik, sondern vom Spielekonzept. RTX ist da im Grunde einfach nur Ressourcenverschwendung.
Also nur noch Text-Adventures, weil alles andere ist Ressourcenverschwendung? Aber auch nur noch mit Papier und Stift, nein, die armen Bäume ... Spiele bitte nur noch denken, wegen der Ressourcen!
Nachteil ist halt immer, das der maximale Takt etwas niedriger liegt. Aber für Profi-Karten dürfte es das wohl geben, dort besteht immer das Problem, so viele Speicherchips unterzubringen.
Wieso genau ist der Speichertakt niedriger? Wenn der VRAM direkt neben der GPU platziert ist, hat man kurze Leiterbahnen und somit eher mehr Takt. Und aktiv in den Kühler der GPU eingebunden, sollten auch die Temperaturen kein Thema sein, sofern der Kühler nicht unterdimensioniert ist.
Oder anders ausgedrückt: Wenn der Kühler die GPU unter Last bei vielleicht 80°C Oberflächentemperatur hält, dann hat der Kühler effektiv gesehen vielleicht 65-70°C an der Oberfläche zum Die (das Delta kommt durch Übertragungsverluste). Den Ram würde man dann also auf vielleicht 70-75°C kühlen können, was bei GDDR6 kein Thema sein sollte.
Oder wo siehst du da die Probleme bezüglich Takt?
Lehdro
2022-11-30, 13:56:13
Ich würde es schön finden wenn technische Details bitte nicht flappsig auf Intels Marketingniveau (Stichwort: "glued together") heruntergebrochen werden würden. GDDR6W ist sicherlich mehr als ein simples "zusammenpappen", technisch eher vergleichbar mit gestapeltem NAND-Flash, oder 3D Chiplets (oder AMDs 3D V-Cache) - da spricht auch keiner von "Klötzchentürmen" die man "einfach so aufeinanderlegt".
Leonidas
2022-11-30, 14:02:36
PortalRTX ist kein "Portal mit Raytracing Effekten", es ist Portal mit Raytracing-Only.
[Scinexx]
Beides gefixt.
Oder wo siehst du da die Probleme bezüglich Takt?
Samsung hatte es selber so angegeben. Ist wahrscheinlich ein Temperatur- bzw. Kühlungs-Problem.
Ich würde es schön finden wenn technische Details bitte nicht flappsig auf Intels Marketingniveau (Stichwort: "glued together") heruntergebrochen werden würden.
Das mit "zusammengepappt" ist keineswegs bösartig gemeint. Es ist nur sofort erkennbar, worum es geht - und das es vor allem eben keine neue Speichersorte mit mehr Bandbreite ist.
Samsung hatte es selber so angegeben. Ist wahrscheinlich ein Temperatur- bzw. Kühlungs-Problem.
Wo genau? Bei HWL (worauf ja verlinkt wird) steht nur, dass Samsung 24GBit/s angibt, was ihrem aktuell schnellsten GDDR6 entspricht.
Was Samsung laut HWL allerdings gesagt hat: "Gegenüber HBM soll GDDR6W auch den Vorteil haben, dass es weniger Kompromisse aufgrund der Wärmeentwicklung im Speicherchip selbst gibt." Kann also kein Temperaturproblem sein, zumindest nicht im Vergleich zu HBM.
Ich frag mich vor allem, was das denn jetzt soll.
Gerade das Portalrendering ist prädestiniert für Raytracing, wenn man sieht wie sich durch die Portale die Beleuchtung ausbreitet.
Ich meine für eine RTX Version von Portal werde ich mir jetzt bestimmt nicht eine Nvidia GPU kaufen.
Angeblich gibt es schon ein paar RTX-Karten in Spielerrechnern.
Ich würde mir auch keine RTX-Grafikkarte dafür kaufen, aber ich werde es gerne auf meiner vorhandenen RTX-Grafikkarte spielen.
Ich meine für eine RTX Version von Portal werde ich mir jetzt bestimmt nicht eine Nvidia GPU kaufen.
Glaubst du es gibt viele Leute, die sich nur wegen einem einzigen Spiel eine Grafikkarte kaufen?
Ich glaube die meisten Leute kaufen eine neue Grafikkarte, wenn die alte einfach zu langsam geworden ist.
Da ist vielleicht ein Spiel dann der finale Auslöser für den Kauf - aber nur wegen einem Spiel?
Portal reiht sich eben in die Reige der Spiele ein bei der es heißt: nvidia GPU war zwar teuer, aber dafür kann ich alles zocken.
Und wenn einem Portal gefällt hat man damit noch mal ein paar Stunden seinen Spass.
Das ist der Wohlfühlfaktor bei Nvidia, wofür die Leute eben auch 10% Aufpreis gerne bezahlen.
Complicated
2022-11-30, 16:25:51
Hast du ein Problem damit, dass das Spiel eingebunden wird? Hat letzte Woche 1€ gekostet.
Ja, denn der Port verändert das Gameplay und ist schlecht umgesetzt.
Das ist für mich eine ganz schlechte Umsetzung von Raytracing. Es erinnert mich an den Tesselierten Himmel in Metro, nur um die 64x-Tesselation Leistung von Nvidia in Benchmarks besser da stehen zu lassen.
Gerade das Portalrendering ist prädestiniert für Raytracing, wenn man sieht wie sich durch die Portale die Beleuchtung ausbreitet.Ach ja? Du meinst wenn das ganze übertriebene Licht aus den Portalen streamt und Puzzle-Elemente nicht mehr sichtbar sind weil weg "getraced"?
E5rM3MJCHZg
eBldBRkr1TQ
Berniyh
2022-11-30, 16:26:49
Nur weil ein Spiel vom Spielkonzept lebt, heißt das ja noch nicht dass die Grafik plötzlich egal ist. Gerade bei Spielen mit einem realistischen Artstil wie Portal. Je realistischer ein Spiel aussieht, desto leichter fällt es mir mich in seiner Welt zu verlieren. Portal non-RTX ist eins meiner absoluten Lieblingsspiele, zu besserer Grafik sage ich trotzdem nie nein.
Natürlich hat man nichts gegen bessere Grafik. Das würde ich auch nicht bestreiten.
In der Portalwelt kann man sich aber auch mit der etwas angestaubten Engine wunderbar verlieren. Portal zeigt sehr gut, dass es nicht (Edit: nicht nur) die Darstellungstechnik ist, welche ein Spiel großartig machen, sondern das ganze Drumherum.
Tatsächlich finde ich, dass der etwas "klinische" Look der Source Engine sogar sehr gut zur Atmosphäre passt, aber das ist natürlich subjektiv.
In jedem Fall sehe ich keine Motivation mir deshalb eine RTX zu holen.
Letzte Woche, Gestern oder Morgen hättest du kein Problem damit gehabt?
Verlangt ja auch keiner von dir, aber dürfen die, die eine RTX haben diese auch nutzen oder brauchen die dein Einverständnis um es zu nutzen?
Meine Güte, Kommentare sind das hier … :rolleyes:
Also nur noch Text-Adventures, weil alles andere ist Ressourcenverschwendung? Aber auch nur noch mit Papier und Stift, nein, die armen Bäume ... Spiele bitte nur noch denken, wegen der Ressourcen!
Laber keinen Quatsch.
Tatsächlich könnte man Raytracing dafür aber schon kritisieren. Der Rechenaufwand, den man dafür betreiben muss ist enorm. Das ist quasi Grafik in Brute Force.
Intelligent ist das nicht wirklich und die Quittung dafür sieht man ja in den Benchmarks.
Als wenn man ein Auto mit Kufen statt mit Rädern bauen würde und das dann mit einem 5000 PS Motor kompensiert …
Complicated
2022-11-30, 16:34:49
Als wenn man ein Auto mit Kufen statt mit Rädern bauen würde und das dann mit einem 5000 PS Motor kompensiert …
Das trifft es recht gut - trotz Autovergleich :biggrin:
Freestaler
2022-11-30, 19:41:42
Portal und "realismus" zusammen zu bringen geht mir zu weit. Für das ist doch die gesamte Grafik auch mit RTX 20 Jahre zurück. Minimum. Dx8 level aua.
Ps: VW Golf 1 Baujahr letztes Jahrtausend mit Tesla Batterie. Bringt nichts.
Ja, denn der Port verändert das Gameplay und ist schlecht umgesetzt.
Das ist für mich eine ganz schlechte Umsetzung von Raytracing. Es erinnert mich an den Tesselierten Himmel in Metro, nur um die 64x-Tesselation Leistung von Nvidia in Benchmarks besser da stehen zu lassen.
Ja, die Spielehersteller sabotieren AMD, weil sie tolle Grafik ins Spiel einbauen. 4k Texturen sabotieren hingegen Nvidia, weil die grundsätzlich weniger Speicher zur Verfügung haben? Ultra Texturen JETZT verbieten!
Laber keinen Quatsch.
Tatsächlich könnte man Raytracing dafür aber schon kritisieren. Der Rechenaufwand, den man dafür betreiben muss ist enorm. Das ist quasi Grafik in Brute Force.
Intelligent ist das nicht wirklich und die Quittung dafür sieht man ja in den Benchmarks.
Als wenn man ein Auto mit Kufen statt mit Rädern bauen würde und das dann mit einem 5000 PS Motor kompensiert …
Das gleiche lässt sich von dynamischem Licht sagen, von Schatten, von jeder Form des AA, von hohen Texturauflösungen, von viel LoD, alles frisst enorme Ressourcen und bietet in den wenigsten Fällen irgendeine Form von Mehrwert abgesehen von "schön". Alles schlägt sich negativ in Benchmarks wieder und alles wird durch Leistung wettgemacht. Ich bin auch der Meinung, dass alles ab Turok nur noch schwachsinnig war. Der Stand von damals sollte für alle Zeit ausreichend sein.
Kann man vielleicht akzeptieren, dass Tech-Demos schon immer ein Ding waren? Es ist umsonst, Nvidia hat Techniker abgestellt die Valve dieses DLC ermöglicht haben. Entweder es läuft bei dir oder nicht. Entweder du machst es an oder nicht. Niemand ist gezwungen es zu "kaufen", niemand ist gezwungen es zu "aktivieren" und niemand ist gezwungen es zu "spielen".
Complicated
2022-12-01, 10:21:47
Ja, die Spielehersteller sabotieren AMD, weil sie tolle Grafik ins Spiel einbauen. 4k Texturen sabotieren hingegen Nvidia, weil die grundsätzlich weniger Speicher zur Verfügung haben? Ultra Texturen JETZT verbieten!
Völlig am Thema vorbei - was hat das mit AMD zu tun? Das sieht auf Nvidia mit RT schlechter aus als zuvor + Spiegelungen dazu gepackt. Wo sich je etwas in der Realen Welt auf Betonboden so spiegelt, muss mir mal jemand erklären.
Dass Nvidia das gerne genau so macht ist ja nachgewiesenen bei jeder Technologie die sie für sich selbst neu erfinden und FFUs verwenden. PhysX, Tesselation, GSync jetzt RT - nichts neues und immer wieder zu beobachten.
Für alles gibt es offene Standards. Nvidias RT wird den selben Weg gehen.
Berniyh
2022-12-01, 11:07:02
Das gleiche lässt sich von dynamischem Licht sagen, von Schatten, von jeder Form des AA, von hohen Texturauflösungen, von viel LoD, alles frisst enorme Ressourcen und bietet in den wenigsten Fällen irgendeine Form von Mehrwert abgesehen von "schön". Alles schlägt sich negativ in Benchmarks wieder und alles wird durch Leistung wettgemacht. Ich bin auch der Meinung, dass alles ab Turok nur noch schwachsinnig war. Der Stand von damals sollte für alle Zeit ausreichend sein.
Aber nichts davon frisst Ressourcen auf dem Level wie Raytracing.
Raytracing an sich ist ein ziemlich alter Hut, das gibt es schon seit Ewigkeiten.
Es hat schon seine Gründe, warum man das aber bisher nicht eingesetzt hat, einfach, weil es ziemlich bescheuert gewesen wäre.
Und bei all den anderen Dingen die du nennst hat man das mit den Ressourcen auch eingesehen, zumindest teilweise, und sich dann eben Technologien überlegt wie man es mit vertretbarem Ressourcenaufwand umsetzen kann … oder halt auch wieder streicht.
Das was da derzeit mit Raytracing betrieben wird ist jedenfalls nicht gerade intelligent, sondern eher hanebüchen.
Muss man mal abwarten, in welche Richtung es sich entwickelt. Wahrscheinlich irgendein Hybridansatz.
Kann man vielleicht akzeptieren, dass Tech-Demos schon immer ein Ding waren? Es ist umsonst, Nvidia hat Techniker abgestellt die Valve dieses DLC ermöglicht haben. Entweder es läuft bei dir oder nicht. Entweder du machst es an oder nicht. Niemand ist gezwungen es zu "kaufen", niemand ist gezwungen es zu "aktivieren" und niemand ist gezwungen es zu "spielen".
Kann man vielleicht akzeptieren, dass manche von diesen Tech Demos nicht begeistert sind?
Wer hat denn behauptet, dass ich Leuten verbieten will das zu kaufen oder installieren?
Du konstruierst hier etwas das nicht existiert. Mir ist es völlig egal, ob du oder sonst jemand das installiert.
Es überzeugt mich einfach nicht.
Völlig am Thema vorbei - was hat das mit AMD zu tun? Das sieht auf Nvidia mit RT schlechter aus als zuvor + Spiegelungen dazu gepackt. Wo sich je etwas in der Realen Welt auf Betonboden so spiegelt, muss mir mal jemand erklären.
Und was hat Tesselation jetzt damit zu tun? Du darfst einfach andere Themen einwerfen um Nvidia ins böse Licht zu schieben, aber Andere dürfen nicht andere Themen einwerfen? Eine Spiegelung passt dir nicht und ein Youtuber mit 10 Abonnenten hat ein böses Video gemacht, SUPER! Dann muss das KOSTENLOSE DLC für Portal ja richtiger Müll sein! Installier es halt nicht! Was verlierst du? Spiel das Spiel mit der alten Grafik! Es ist ja nicht wie bei Warcraft 3, dass das alte Spiel durch Reforged gelöscht wird.
Und schau dir an was AMD mit TressFX gemacht hat, zeitgleich zu Hairworks! Nvidia hat Hairworks auf Nvidia Hardware optimiert und AMD hat TressFX auf AMD Hardware optimiert. Es ist auf beiden Seiten exakt das selbe Spiel.
Aber nichts davon frisst Ressourcen auf dem Level wie Raytracing.
Raytracing an sich ist ein ziemlich alter Hut, das gibt es schon seit Ewigkeiten.
Es hat schon seine Gründe, warum man das aber bisher nicht eingesetzt hat, einfach, weil es ziemlich bescheuert gewesen wäre.
Und auch Schatten haben mal enorm Ressourcen gefressen und dynamische Lichter, ich habe die Gamestar und PC Games noch hier liegen in denen das bei Deus Ex und Deus Ex 2 besprochen wurde. Und auch Schatten und dynamische Lichter gab es schon vor Deus Ex2 ... war zu der Zeit auch schon ein alter Hut, irgendwann musste irgendwer den ersten Schritt machen! Die Hardwareanforderungen waren damals auch enorm, trotzdem will heute niemand mehr diese Features missen!
Und bei all den anderen Dingen die du nennst hat man das mit den Ressourcen auch eingesehen, zumindest teilweise, und sich dann eben Technologien überlegt wie man es mit vertretbarem Ressourcenaufwand umsetzen kann … oder halt auch wieder streicht.
Das was da derzeit mit Raytracing betrieben wird ist jedenfalls nicht gerade intelligent, sondern eher hanebüchen.
Muss man mal abwarten, in welche Richtung es sich entwickelt. Wahrscheinlich irgendein Hybridansatz.
Okay, weil du es gekonnt ignoriert hast: TECH DEMO! Der "Hybridansatz" den du ansprichst existiert in jedem Spiel mit RT und läuft auf bezahlbarer Hardware flüssig. Diese TECH DEMO zeigt was möglich ist! Das Maximum ausgereizt!
Kann man vielleicht akzeptieren, dass manche von diesen Tech Demos nicht begeistert sind?
Wer hat denn behauptet, dass ich Leuten verbieten will das zu kaufen oder installieren?
Du konstruierst hier etwas das nicht existiert. Mir ist es völlig egal, ob du oder sonst jemand das installiert.
Es überzeugt mich einfach nicht.
Deine Posts hatten direkt den Inhalt, dass Nvidia dieses Free DLC nicht hätte produzieren sollen/dürfen ... Also nein, ich konstruiere mir hier nichts!
Ach ja? Du meinst wenn das ganze übertriebene Licht aus den Portalen streamt und Puzzle-Elemente nicht mehr sichtbar sind weil weg "getraced"?
https://youtu.be/E5rM3MJCHZg
https://youtu.be/eBldBRkr1TQ
Was für random "Kritiken" wobei Kritik eigentlich schon viel zu wohlwollend ist, es sind viel mehr Raunzereien "es sieht nicht mehr aus wie damals, also ist es scheiße".
"Die Wände sind nicht mehr aus Beton, also ist das ganze Spiel scheiße".
Das Spiel hat keine fake Farbstich mehr, also ist alles scheiße.
Und der andere macht sich ja komplett lächerlich, weil die Wandmaterialen anders sind kann er angeblich nicht mehr erkennen auf welchen Portalen möglich sind und auf welchen nicht? Und die riesen buttons kann er angeblich nicht mehr erkennen weil sie nun transluzent sind? Vielleicht sollte er zum Augenarzt oder gleich das Spielen sein lassen.
Und einig sind sie sich auch nicht, bei einem sind die Metalloberflächen awesome beim anderen komplett zu vergessen.
Und anscheinend hast auch du die videos selbst nicht mal gesehen sondern einfach mal ein paar random videos aus einer Youtube-Suche gepostet die PortalRTX kritisieren, weil die Kritik in diesen ist genau das Gegenteil, dass die Portale viel zu wenig licht austrahlen, und nicht wie du sagst viel zu viel. Dem stimme ich im übrigen nicht zu, die Portale selbst sollen gar kein Licht erzeugen sondern einfach 1:1 das Licht von der anderen Seite Transportieren, was sie auch machen.
Das Art-Design ist nicht mehr das selbe, das muss es aber auch nicht, und macht nicht per se das Spiel schlechter.
Complicated
2022-12-01, 13:07:32
Und was hat Tesselation jetzt damit zu tun? Du darfst einfach andere Themen einwerfen um Nvidia ins böse Licht zu schieben, aber Andere dürfen nicht andere Themen einwerfen?
Die Themen zeigen wie Nvidia das erneut angeht und das Vorgehen auch noch von Leuten wie Dir dann schön geredet wird. Erneut. Jedesmal aufs Neue.
Und anscheinend hast auch du die videos selbst nicht mal gesehen sondern einfach mal ein paar random videos aus einer Youtube-Suche gepostet die PortalRTX kritisieren, weil die Kritik in diesen ist genau das Gegenteil, dass die Portale viel zu wenig licht austrahlen, und nicht wie du sagst viel zu viel. Deine Vermutungen sind falsch bzgl. was ich getan oder unterlassen habe - und jetzt? Damit hast Du auch keine Argumente mehr vorgebracht die etwas anderes als Deine Meinung enthalten.
Andere sind anderer Meinung, wie Du damit umgehst ist weder sachlich noch irgendwie gehaltvoll.
Berniyh
2022-12-01, 13:26:46
Okay, weil du es gekonnt ignoriert hast: TECH DEMO! Der "Hybridansatz" den du ansprichst existiert in jedem Spiel mit RT und läuft auf bezahlbarer Hardware flüssig. Diese TECH DEMO zeigt was möglich ist! Das Maximum ausgereizt!
Das bezog sich überhaupt nicht auf diesen speziellen Fall …
Deine Posts hatten direkt den Inhalt, dass Nvidia dieses Free DLC nicht hätte produzieren sollen/dürfen ... Also nein, ich konstruiere mir hier nichts!
Quark. Meine Posts sagen, dass ich nicht verstehe warum man das jetzt macht. Mit Portal.
Portal ist ziemlich gut gealtert, das kann man heute ohne Probleme anwerfen und zocken ohne Augenkrebs zu bekommen.
Ich kenne auch eine, die das Anfang des Jahres mal durchgespielt hat und war begeistert. Von der Grafik war da überhaupt keine Rede. Da stehen andere Dinge im Vordergrund.
Aber, wo du es angesprochen hast: Deus Ex!
Deus Ex war eines der besten Games, die ich jemals gespielt habe. Da könnten sich so einige Spiele heutzutage eine Scheibe von abschneiden.
Das ist aber eines der Spiele, die kann man heute echt nicht mehr mit ansehen, im Gegensatz zu Half-Life* oder Portal ist das echt nicht gut gealtert, sondern sieht aus heutiger Sicht einfach nur potthässlich aus.
Und ein wesentlicher Teil davon ist auch die Beleuchtung. Zumal die Beleuchtung in dem spiel auch eine große Rolle spielt, denn man schleicht (je nach Spielweise) doch recht viel herum.
Da würde sich die Arbeit – ggf. auch mit Raytracing – vermutlich wirklich lohnen. Und in dem Fall würde evtl. auch ich mal den einen oder anderen Gedanken an Raytracing finden.
*Ich weiß, dass es von Half-Life aufgehübschte Versionen gibt und darüber bin ich auch dankbar.
KhanRKerensky
2022-12-01, 16:09:26
Zum GDDR6W mein Gedankengang: Ziel ist es doch wohl eindeutig Platz zu sparen, sprich: Erhöhung der Dichte. Das Package wird nicht (signifikant) größer werden sonst könnte man sich das Ganze sparen. Ergo: Feineres Grid fürs BGA und damit würde ich erstmal höhere Kosten (kleinere Toleranzen, mehr Layer) fürs PCB erwarten, ABER: Zielgruppe sind Geräte mit beschränktem Platz also Laptops/Handhelds. Dort werden sowieso schon feine PCBs mit vielen Layern verwendet. Unter der GPU ist das Fanout warscheinlich sowieso schon die Hölle und die Gesammtzahl der Kontake und Leitungen ändert sich auch nicht. Burnout im PCB-Layout Department wird warscheinlich häufiger aber preislich wird sich da nicht sonderlich viel ändern.
Mit halb so vielem Chips fürs gleiche Speicherinterface werden die Chips auch etwas weiter an an die GPU rücken können (Designziel: Höhere Dichte) und die Leitungen werden warscheinlich kürzer. Das erlaubt geringeren Stromverbrauch, korrekt? Wird in mobilen Geräten auch gerne gesehen.
Ich wüde das ganze als Mobile-Package bezeichnen. Insgesammt kleiner und warscheinlich ein wenig stromsparender. Keine neue Technologie, sondern nur eine neue Verpackung (Package/IC-Gehäuse) um den Mobile-Markt besser bediehnen zu können. Samsung hat warscheinlich gesehen das dort Nachholbedarf besteht. Eigener Standard: Instant Marktführer.
(und nachdem ich die News nochmal gelesen habe... das steht dort eigentlich auch schon so :P )
Leonidas
2022-12-02, 04:40:24
Wo genau? Bei HWL (worauf ja verlinkt wird) steht nur, dass Samsung 24GBit/s angibt, was ihrem aktuell schnellsten GDDR6 entspricht..
24 GBit/sec bei normalen GDDR6, aber nur 22 GBit/sec bei GDDR6W.
Habe inzwischen noch andere Meldungen hierzu gelesen. Nach deren Aussage: Thermisches Problem. Der untere der beiden Speicherchips wird einfach wärmer, deswegen Zurückhaltung beim Max-Takt. Ist ja auch nicht schlimm, weder im Mobile- als auch Profi-Segment braucht man den Max-Takt beim Speicher unbedingt.
basix
2022-12-02, 16:20:14
Nein. Technisch sind zwei GDDR6-Chips zusammengepappt 1x GDDR6W. Die Interfaces bleiben gleich, 2x32 Bit. Auf Grafikchip-Seite ändert sich auch nix. Günstiger wird da nix.
Nur die Platine kann günstiger werden, weil halb so viel Platz für Speicherchips draufgeht.
Ist die Frage, ob mit GDDR6W so breitere SI realistisch werden oder nicht. Mit z.B. 512bit könnte man immerhin 1.3x Bandbreite erreichen.
Leonidas
2022-12-03, 02:36:28
Nein. Auf Grafikchip-Seite ändert sich nichts. Ob man 512 Bit GDDR6 oder 512 Bit GDDR6W macht, ändert nichts an den Problemen eines 512-Bit-Interfaces im Grafikchip selber. Die Verdrahtung auf der Platine wird minimal einfacher, der benötigte Platz für Speicherchips auf der Platine halbiert sich. Ansonsten kein Unterschied.
Nein. Auf Grafikchip-Seite ändert sich nichts.
Sicher dass das PHY-Interface identisch ist?
Ob man 512 Bit GDDR6 oder 512 Bit GDDR6W macht, ändert nichts an den Problemen eines 512-Bit-Interfaces im Grafikchip selber.
Ein 512bit Interface ist für eine GPU nicht prinzipiell ein Problem, es braucht "nur" mehr Platz.
Und insbesondere bei einem Chiplet-Design mit externen Interface wie bei RDNA3 dürfte es ziemlich egal sein ob man da ein paar von den günstigen Cache-Chiplets mehr einbaut.
Die Verdrahtung auf der Platine wird minimal einfacher, der benötigte Platz für Speicherchips auf der Platine halbiert sich.
Genau die aufwändige Platine ist es ja, die große Speicherinterfaces unrentabel macht.
Complicated
2022-12-04, 15:15:02
Es ist viel mehr die Kostenfrage auf den Chips, durch den Platz, den ein schlechter zu skalierendes Interface einnimmt. Und eben auch die Kosten einer aufwendigeren Platine. Doch das sind zwei verschiedene Unternehmen, die diese jeweiligen Kosten tragen müssen. Der Chiphersteller und der Platinenhersteller sind selten die selben Unternehmen. Und warum sollte ein Chiphersteller seine technischen Lösungen mit dem Kostenfaktor der Platinenhersteller abgleichen? Sicherlich ist das irgendwann ein Argument, doch eben nicht am Limit des machbaren - da wird der Chiphersteller zunächst seine eigene Wirtschaftlichkeit herstellen wollen, vor den Interessen des Platinenherstellers (Kunden). Wenn die Konkurrenz nachzieht wird es dann wichtig, sobald die TCO mit einer Konkurrenz abgeglichen werden kann, sprich Wettbewerb entsteht.
Leonidas
2022-12-05, 03:17:22
Sicher dass das PHY-Interface identisch ist?
Ja, am Grafikchip ändert sich 0,0 etwas.
Selbst das Interface der Speicherchips ist identisch. Es sind wirklich nur 2 übereinander gepappte GDDR6, mit jeweils getrennten Interfaces. Logisch gesehen sind es weiterhin 2 Speicherchips, die keineswegs miteinander agieren (Ausnahme: Clamshell).
Es sind wirklich nur 2 übereinander gepappte GDDR6, mit jeweils getrennten Interfaces.
Wenn die Speicherchips nicht größer werden muss man aber trotzdem die zusätzlichen Leitungen für das 2. Interface unterbringen. Die logische Schlussfolgerung wäre dann, dass man die Pins enger packen muss, und eigentlich sollte das dann auch auf der Gegenseite in der GPU entsprechend der Fall sein.
Logisch gesehen sind es weiterhin 2 Speicherchips, die keineswegs miteinander agieren (Ausnahme: Clamshell).
Bei Clamshell interagieren die Speicherchips auch nicht miteinander, es gibt lediglich einen zusätzlichen Pin der immer jeweils einen Speicherchip "einschaltet" und den anderen ausschaltet.
Clamshell ist eigentlich das genaue Gegenteil, es gibt keine 2 Interfaces, sondern es wird das selbe für beide Speicherchips benutzt, mit der 1 zusätzlichen Leitung die immer den richtigen aktiviert.
Wenn man aber 2 Interfaces auf dem selben Platz unterbringen will, müssen die Interfaces selbst normalerweise kleiner werden, und dann wäre das auch auf GPU-Seite der Fall.
Leonidas
2022-12-05, 08:38:21
Ich denke nicht, das die Interfaces auf GPU-Seite anders sind - weil damit würde man sich auf GDDR6W festlegen und könnte kein GDDR6 mehr nutzen. Diese Einschränkung wird man kaum machen, ergo bleibt das Interface gleich. Zudem ist es aus logischer Sicht auf GPU-Seite sowieso gleich: Es sind 2x 32-Bit-Interfaces. Ob die nun zu zwei GDDR6-Chips führen oder zu einem GDDR6W-Doppeldecker, kann dem Grafikchip egal sein.
Ich denke nicht, das die Interfaces auf GPU-Seite anders sind - weil damit würde man sich auf GDDR6W festlegen und könnte kein GDDR6 mehr nutzen.
Das ist eben die Frage, ob man ein komplett neues Interface spezifiziert, oder die Kompatibilität zu GDDR6 behalten will.
Da GDDR6W aber in jedem Fall die günstigere Lösung sein sollte spricht eigentlich nicht viel dagegen, mit der GDDR6 Kompatibilität zu brechen, und dafür auch ein neues und damit kleineres Interface zu spezifizieren.
Zudem ist es aus logischer Sicht auf GPU-Seite sowieso gleich: Es sind 2x 32-Bit-Interfaces. Ob die nun zu zwei GDDR6-Chips führen oder zu einem GDDR6W-Doppeldecker, kann dem Grafikchip egal sein.
Das Speicherinterface besteht in der GPU aus mehreren teilen, einmal der Memorycontroller, welcher auch mit der Prozesstechnologie skaliert. Dem ist es logischerweise egal wie die Speicherchips dahinter angeschlossen werden, der ändert sich nicht.
Dann gibt es noch das PHY-Interface, dessen Aufbau wenig bis gar nicht mit dem Fertigungsprozess skaliert, und von der Spezifikation des Speicherstandards abhängt. Diese Spezifikation könnte man mit GDDR6W durchaus modernisieren.
Leonidas
2022-12-05, 15:06:40
Ich denke nicht, dass das Spar-Potential auf Grafikchip-Seite derart groß ausfallen kann, dass man sich diese Kompatibilität verbaut. Auf Grafikchip-Seite muß man immer flexibel denken und darf sich nicht gewisse Anwendungsmöglichkeiten und Einsatzzwecke zu leichtfertig verbauen.
Davon abgesehen gehe ich nach wie vor davon aus, dass der Unterschied auf Grafikchip-Seite 0,0 ist. Warum sollte da auch ein Unterschied sein? Es sind vielfache von 32-Bit-Interfaces für GDDR6. GDDR6W ist weder elektrisch noch mechanisch anders, nur das Package der kompletten Speicherchips ist anders. Das interessiert auf Chip-Seite niemanden.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.