Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Dampf
2020-11-08, 16:06:45
Watch Dogs ist auch nur ein Port, denkst du da wird das texture streaming wirklich genutzt? auf keinen Fall.
Für den PC gilt aber das selbe. Entsprechend ist der Vergleich sehr fair.
aufkrawall
2020-11-08, 16:13:52
Vielleicht laufen diverse Spiele ja auch so scheiße auf dem PC, gerade weil sie wegen der VRAM-Krüppel rumgeizen müssen?
Dampf
2020-11-08, 16:16:17
Vielleicht laufen diverse Spiele ja auch so scheiße auf dem PC, gerade weil sie wegen der VRAM-Krüppel rumgeizen müssen?
Nö. Watch Dogs geizt nicht rum, das hat high quality Texturen. Auf den Konsolen scheint es noch nicht möglich sein. Wenn man wegen "VRAM Krüppeln" sparen würde, dann würde es die Option für das HD Texture Pack nicht geben!
Mit RT sind 60 FPS schwer zu erreichen wegen dem Engine CPU Limit, der VRAM hat damit nix zu tun!
aufkrawall
2020-11-08, 16:20:18
Nö. Watch Dogs geizt nicht rum, das hat high quality Texturen.
Mit Ausfällen und nimmt sich eher vergleichsweise wenig VRAM. Jede zusätzliche Entwicklerstunde, die auf eine Senkung des Verbrauchs abzielt, fehlt anderweitig.
Dampf
2020-11-08, 16:25:33
Mit Ausfällen und nimmt sich eher vergleichsweise wenig VRAM. Jede zusätzliche Entwicklerstunde, die auf eine Senkung des Verbrauchs abzielt, fehlt anderweitig.
Die sehr rar gesät sind! Watch Dogs nimmt sich viel VRAM im Gegensatz zu anderen Spielen, 8.7 GB in 4K auf Ultra sind schon ordentlich. Aber nur mit dem Texturen-Pack, ohne nimmt es sich wirklich nicht viel.
Soll das heißen Texturen sollen gar nicht mehr optimiert werden? Das ist aber gar nicht gut für die neuen Konsolen, die Series X hat doch jetzt bewiesen, dass der effektive VRAM in CPU intensiven Spielen deutlich weniger als 10 GB sind. Der VRAM Anstieg ist schon durch die Mid-Gen Konsolen gekommen, musst du wissen, von 9 GB mit der One X auf 13.5GB ist jetzt kein großer Anstieg!
In Zukunft werden Entwickler deutlich mehr Optimierungsaufwand in Texturen stecken, damit wir für den selben VRAM Verbrauch feinste Next Gen Texturen bekommen, Stichwort Sampler Feedback!
TheAntitheist
2020-11-08, 17:56:51
Die sehr rar gesät sind! Watch Dogs nimmt sich viel VRAM im Gegensatz zu anderen Spielen, 8.7 GB in 4K auf Ultra sind schon ordentlich. Aber nur mit dem Texturen-Pack, ohne nimmt es sich wirklich nicht viel.
Soll das heißen Texturen sollen gar nicht mehr optimiert werden? Das ist aber gar nicht gut für die neuen Konsolen, die Series X hat doch jetzt bewiesen, dass der effektive VRAM in CPU intensiven Spielen deutlich weniger als 10 GB sind. Der VRAM Anstieg ist schon durch die Mid-Gen Konsolen gekommen, musst du wissen, von 9 GB mit der One X auf 13.5GB ist jetzt kein großer Anstieg!
In Zukunft werden Entwickler deutlich mehr Optimierungsaufwand in Texturen stecken, damit wir für den selben VRAM Verbrauch feinste Next Gen Texturen bekommen, Stichwort Sampler Feedback!
Natürlich werden Texturen optimiert, nur brauchst du für so eine riesen Stadt einefach viel mehr Texturen... und vllt nutzen sie weniger Trim-textures damit mehr Abwechslung rein kommt.
Dampf
2020-11-08, 19:00:17
Darum gings mir nicht, Krawall meinte die Zeit die Devs mit Optimierung der Texturen verbringt, könnte man besser in andere Dinge stecken, dem hab ich widersprochen.
aufkrawall
2020-11-08, 20:07:31
Gib dann bitte Bescheid, sobald Spiele am PC sinnvoll neuartige Features zur Ressourcen-Einsparung einsetzen werden. Bis dahin kauf ich mir aber lieber mehr VRAM...
Dampf
2020-11-08, 20:21:54
Naja auf der Series X wird das ja auch noch nicht eingesetzt, zumindest nicht bei Watch Dogs.
Solange das so bleibt, ist es ja ok.
Badesalz
2020-11-08, 22:43:06
wenn man in mit 1440p/>=30fps zufrieden ist bei reduzierten details, dann hast du recht. es kommen konsolen-spiele mit dyn 4k/30fps für 12tflops rdna2 raus und dieses target wird sich mit sicherheit nicht auf cross-gen titel beschränken.Nun... Wenn ich mir so den HZD Port anschaue, brauchst du für den PC 24Tflops für dein "dyn 4k/30" Erlebnis... :wink:
Dann wirst du grundsätzlich nicht primär (sekundär schon ;)) Tflosp brauchen, oder Schubkarren an VRAM, sondern NVMEs die mehrere GB/s nativ machen.
Du geilst dich an den falschen Sachen auf ;)
Cyberfries
2020-11-09, 08:37:05
kopite7kimi berichtet von einem weiteren nVidia-Schluckspecht (https://twitter.com/kopite7kimi/status/1325592401780432897):
RTX 3050, GA107-300, 2304FP32, 90W TGP
Der kleinste Chip, abgespeckt von 20 auf 18SM, und dennoch 90w?
Bei 18SM würde ich nichts Kleineres mehr erwarten, sprich: keine Ampere-Karte ohne Stromstecker.
Leistung vermute ich oberhalb der 1660, ein echter Nachfolger für 1650/1050ti ist die Karte aber leider nicht.
Nazar
2020-11-09, 11:39:32
Wenn jemand die Strix 90° gedreht (hochkant) einbauen will - das funktioniert nicht! Der Kühler versagt dann komplett :mad:
Betrifft das nur diese Karte?
Ich kann mir wegen der Kühltechnik vorstellen, dass das alle Karten betrifft, die auf dieses "Verdampferdesign" setzen.
Das Kühlmittel wird, wenn die Karte vertikal eingebaut wird, immer nach unten laufen, wo die Wärme erst ganz zum Schluss ankommt.
Wird wohl alle nV Karten betreffen, die dieses Prinzip anwenden aber eventuell können andere Besitzer, die die Karte auch vertikal im Gehäuse sitzen haben, mehr dazu sagen?
BlacKi
2020-11-09, 12:15:27
Betrifft das nur diese Karte?
Ich kann mir wegen der Kühltechnik vorstellen, dass das alle Karten betrifft, die auf dieses "Verdampferdesign" setzen.
Das Kühlmittel wird, wenn die Karte vertikal eingebaut wird, immer nach unten laufen, wo die Wärme erst ganz zum Schluss ankommt.
Wird wohl alle nV Karten betreffen, die dieses Prinzip anwenden aber eventuell können andere Besitzer, die die Karte auch vertikal im Gehäuse sitzen haben, mehr dazu sagen?
die strix hat vaporchamper? sieht nicht so aus. die anordnung der heatpipes sieht auch normal aus.
https://dlcdnimgs.asus.com/websites/global/products/5vo7eearabkhvaxd/img/img_maxcontact.png
Nazar
2020-11-09, 14:08:08
die strix hat vaporchamper? sieht nicht so aus. die anordnung der heatpipes sieht auch normal aus.
https://dlcdnimgs.asus.com/websites/global/products/5vo7eearabkhvaxd/img/img_maxcontact.png
Ich habe das "Verdampfer" nicht ohne Grund in Häkchen gesetzt. ;)
Bei den Heatpipes wird auch Flüssigkeit in Dampf umgewandelt und dieser wird über die Kühlung wieder verflüssigt oder sehe ich das falsch? :confused:
Sardaukar.nsn
2020-11-09, 19:23:32
Eine Ampere Vaporchamber gibt es auf dem asiatischen Markt z.B. von iGame...
https://img2.quasarzone.com/editor/2020/10/08/fdc034d9179bff1463aa952241ba4b6e.jpg
wobei das Ding eh ne ganz spezielle Karte ist
https://img2.quasarzone.com/editor/2020/10/08/05e3dc117adc6968ca650d23d9218a80.jpg
Eingentlich schade das solch durchgeknallte Modelle den Asiaten vorbehalten sind... https://quasarzone.com/bbs/qc_qsz/views/560288
https://img2.quasarzone.com/editor/2020/10/08/05e3dc117adc6968ca650d23d9218a80.jpg
Undertaker
2020-11-09, 21:14:19
kopite7kimi berichtet von einem weiteren nVidia-Schluckspecht (https://twitter.com/kopite7kimi/status/1325592401780432897):
Der kleinste Chip, abgespeckt von 20 auf 18SM, und dennoch 90w?
Bei 18SM würde ich nichts Kleineres mehr erwarten, sprich: keine Ampere-Karte ohne Stromstecker.
Leistung vermute ich oberhalb der 1660, ein echter Nachfolger für 1650/1050ti ist die Karte aber leider nicht.
Schluckspecht ist wohl der falsche Begriff für eine Karte, die bei einer zu erwartenden Performance zwischen der GTX 1660 Ti (120 W) und RTX 2060 (160 W) herauskommt. Oder anders gesagt: Das wird ein ganz erheblicher Leistungssprung in dieser Verbrauchsklasse bzw. eine signifikante Verbrauchssenkung für diese Performance. Was hast du denn bitteschön erwartet? :confused:
Lehdro
2020-11-10, 16:03:14
Was hast du denn bitteschön erwartet? :confused:
Das die kleinste Karte keinen Stromstecker braucht.
Die GTX 1050 & 1050 TI brauchten keinen 6 Pol.
Die GTX 1650 brauchte keinen Stromanschluss, die 1650 Super hingegen schon.
Nun kommt die 3050 und man braucht anscheinend schon dafür einen Stromstecker. Es scheint also keine Karte zu kommen die das 75W Feld beackert, es sei denn es kommen solche Vollfails ala GT 1030 als GT 3030 raus. Uff.
Undertaker
2020-11-10, 19:18:38
"Kleinste Karte" ist in meinen Augen eine ziemlich unsinnige Kategorisierung und gänzlich Quatsch mit Blick auf die Energieeffizienz. Ob eine Karte objektiv "zu viel" zieht, hängt nun einmal von der gebotenen Performance ab.
Wenn man nun aus irgendwelchen Gründen eine Karte <75W braucht - was ich faktisch nur für Embedded-Anwendungen im Industriebereich sehe -, muss man eben auf entsprechende Modelle in dieser Klasse warten. Und die werden kommen. Ich habe hier diverse Tesla T4 am laufen, kosten zwar 2k€/Stück aber bieten dafür einen fast vollen TU104 und 16GB GDDR6 bei 70W. :D
r3ptil3
2020-11-10, 19:34:08
RTX 3080 Ti im Januar 2021?
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-to-launch-in-january-2021
Mit 20Gb und der Performance, sehr interessant. Wird dann wahrscheinlich preislich mit der 6900 XT konkurrieren.
Die Verfügbarkeit wird's dann wohl ausmachen.
Slipknot79
2020-11-11, 00:30:37
3080Ti eher bei 1400EUR ansetzen.
6900XT bei 1200-1300EUR, eher 1300. :redface:
Fragman
2020-11-11, 09:57:10
300 mehr duerten die realistischen Strassenpreise sein, gute Customs dann nochmal 100 mehr im Fall von nv. Dazu wird immer das Lied des tollen Releases gesungen und wie erfolgreich sich die vielen vielen Karten verkaufen weil alle eine haben wollen. Aber leider, also wirklich leider, uebertrifft die Nachfrage bei weitem die sehr hohe Anzahl produzierter Karten und deshalb muessen sich einige wenige etwas laenger gedulden. 🤣
Igzorn
2020-11-11, 10:32:41
3080Ti eher bei 1400EUR ansetzen.
6900XT bei 1200-1300EUR, eher 1300. :redface:
Wenn ich sowas lese stellt sich mir immer die frage ob sich einige total überzogene Preise wünschen.
arcanum
2020-11-11, 11:00:33
Wenn ich sowas lese stellt sich mir immer die frage ob sich einige total überzogene Preise wünschen.
hat nichts mit wunsch sondern mehr mit der realität zu tun. die nachfrage nach elektro-gütern ist weltweit immens. von der playstation 5 z.b. wurden innerhalb von 24 stunden mehr als 5 millionen einheiten vorbestellt und damit das ganze verfügbare kontingent für die erstauslieferung.
mittlerweile sind auch viele scalper unterwegs die mehrfach einheiten kaufen um sie mit aufschlag zu verkaufen. im schlimmsten fall halten die handler zusätzlich ware zurück, um sie dann mit aufschlag zu verkaufen oder passen ihre preise einfach an ebay und co. an.
Dampf
2020-11-12, 11:39:29
Godfall braucht nur 6-8 GB VRAM in 4K max settings
https://www.reddit.com/r/nvidia/comments/jspy61/godfall_requires_only_6gb8gb_vram_at_4k_maxed_out/
why_me
2020-11-12, 12:01:03
Sind keine Max Settings ;)
Epic kann man weiter drehen, vermute da gibt es noch ultra?! Fidelity FX ist aus...
BlacKi
2020-11-12, 12:12:49
Fidelity FX ist aus...
das saved doch eher vram, je nach konfiguration. ausserdem würde sich der entwickler lieber ins bein schießen als es mit ner 5700xt ruckeln zu lassen. vl gibts nachträglich ein texturpack, aber das wars dann wohl auch.
dargo
2020-11-12, 12:29:28
Godfall braucht nur 6-8 GB VRAM in 4K max settings
https://www.reddit.com/r/nvidia/comments/jspy61/godfall_requires_only_6gb8gb_vram_at_4k_maxed_out/
Das Video hast du schon geschaut?
lY9OSdebKcc
Ob die 12GB tatsächlich gebraucht werden wird sich zeigen müssen.
Dampf
2020-11-12, 12:33:12
Das Video hast du schon geschaut?
https://youtu.be/lY9OSdebKcc
Ob die 12GB tatsächlich gebraucht werden wird sich zeigen müssen.
Das ist interessant.
Warum steigt die VRAM Allocation so sehr an, wenn man FidelityFX LPM aktiviert?
Weshalb braucht ein HDR Tonemapper so viel VRAM...?
Aber egal, ohne diese Funktion ist die VRAM Allocation gering und die Funktion hat auch keinen Einfluss auf die Texturqualität, so gesehen kann man das getrost deaktivieren und diese 12 GB als PR-Gag abstempeln. Denn in dem Video, wo gesagt wird, 12 GB werden benötigt, ging es um die Texturqualität und die ist auch in dem Benchmark mit den 6-8 GB auf Epic gesetzt.
@why_me nein, Epic ist bei allen UE4 Games die höchste Stufe.
Troyan
2020-11-12, 12:40:12
Läuft sogar auf einer 8GB 3070 in 4K:https://www.youtube.com/watch?v=RSqpy4n540s&feature=emb_logo
Immerhin ist das Geld von AMD real, Verkäufe sind im Vorfeld nicht.
dargo
2020-11-12, 12:54:54
Das ist interessant.
Warum steigt die VRAM Allocation so sehr an, wenn man FidelityFX LPM aktiviert?
Keine Ahnung, müsste erst geklärt werden was genau dieses Feature macht.
Dampf
2020-11-12, 12:57:41
Keine Ahnung, müsste erst geklärt werden was genau dieses Feature macht.
Hier https://gpuopen.com/fidelityfx-lpm/
Ist wohl AMD's HDR Implementation
dildo4u
2020-11-12, 12:59:38
Läuft sogar auf einer 8GB 3070 in 4K:https://www.youtube.com/watch?v=RSqpy4n540s&feature=emb_logo
Immerhin ist das Geld von AMD real, Verkäufe sind im Vorfeld nicht.
RT scheint noch nicht drin zu sein, Mal sehen ob es dann mehr will.
dargo
2020-11-12, 13:04:24
Hier https://gpuopen.com/fidelityfx-lpm/
Ist wohl AMD's HDR Implementation
Ah... dann gibt es wohl bei zu wenig Vram keine max. Details. Ergo kein HDR und bessere Kontraste soweit ich das verstanden habe.
Dampf
2020-11-12, 13:23:26
RT scheint noch nicht drin zu sein, Mal sehen ob es dann mehr will.
Naja, so viel macht RT auch nicht aus. Zwischen 400-800 MB ungefähr. Immer noch weit weg von 12 GB!
Dural
2020-11-12, 17:47:23
Eigentlich müsste NV jetzt noch eine 3090Ti bringen, GA102 Full / 20Gbps Speicher / 400Watt.
Die 3080Ti wird der Verkauf der 3090 praktisch zum Stillstand bringen. Wobei es auch eine 3090Ti schwer haben wird, aber hier könnte man wenigstens sagen alles auf Max.
Olliver
2020-11-12, 18:34:43
3090Ti macht nur 2.4% und 10.752 statt 10.496 Cores.
Nehme ich gerne, aber mehr als messen wird man den Unterschied nicht können,
Gut anfühlen wird es sich, weil der Chip dann komplett wäre.
Wann kann ich die Karte haben? ;-)
SentinelBorg
2020-11-13, 00:52:46
Nvidia wird AMDs "SAM" wie erwartet auch unterstützen:
https://twitter.com/GamersNexus/status/1327006795253084161?s=20
From NVIDIA, re:SAM: “The capability for resizable BAR is part of the PCI Express spec. NVIDIA hardware supports this functionality and will enable it on Ampere GPUs through future software updates. We have it working internally and are seeing similar performance results."
ChaosTM
2020-11-13, 10:30:39
NVIDIA is Working on Technology Similar to AMD's Smart Access Memory (https://www.techpowerup.com/274589/nvidia-is-working-on-technology-similar-to-amds-smart-access-memory)
War klar :)
@sentinel - hab deinen Post übersehen..
Und später heißt es wieder, NV hats erfunden ^^
(auf VRR/Adaptive-Sync *schiel*)
M.f.G. JVC
ChaosTM
2020-11-13, 10:51:44
Das nicht, aber NV wird die Verwendung an die unnötige Gforce Experience binden .. ;)
Das nicht, aber NV wird die Verwendung an die unnötige Gforce Experience binden .. ;)
Ich nutze nur "freie Treiber".
Sollte mich NV zu so etwas zwingen, dann wars das für Mich für NV.
M.f.G. JVC
basix
2020-11-13, 11:16:38
Leider anscheinend nur für Ampere. Schade für die vielen Turing und vor allem Pascal Besitzer. Aber für Nvidia ein willkommenes Mittel damit sich Ampere etwas besser von den Vorgängern absetzen kann. Die 3070 wäre damit definitv schneller als eine 2080 Ti FE ;) Und wenn GeForce Experience dazu notwendig ist -> Nö, will ich nicht.
Mich interessiert eher, welche CPU Plattformen schlussendlich von SAM und Resizable BAR profitieren werden. Zen 2? Intel? Bei allen neuen Plattformen und CPUs (RKL, ADL, Zen 4 usw.) wird es vermutlich dabei sein.
BlacKi
2020-11-13, 12:05:34
mit dem wegfall des nda, gibts sicher mehr infos. igor schreibt, das er nicht mehr schreiben darf.
ich glaub das alle platformen die ein bios update erhalten werden auch tauglich sein werden. es scheint eine seit 2008 eingebaute option zu sein, die man per biosupdate freischalten kann. https://www.igorslab.de/b550-oder-x570-neuer-ryzen-und-das-hoffen-auf-die-radeon-6800-xt-warum-viele-ihr-windows-wohl-neu-installieren-muessen/
ich weiß es nicht, aber wenn das die "software" oder der treiber unterstützt, dann wäre es zumindest auf allen karten lauffähig die mit den kommenden nv treibern unterstützt werden, also theoretisch maxwell oder gar kepler?
Birdman
2020-11-13, 12:19:04
Wird dann interessant zu beobachten sein, wie/wo SAM/BAR überall funktioniert und was denn nun genau alles die Stolpersteine sind wo es eben nicht geht™
GPU Treiber ist ja schonmal klar, aber dann? Chipset, BIOS/Firmware, CPU?
AMD hat dazu ja noch keine spezifischen Infos rausgehauen, wieso das ganze bei Ihnen aktuell nur bei 5xxx CPUs auf 5xx Chipsets unterstützt wird.
BlacKi
2020-11-13, 12:37:41
Wird dann interessant zu beobachten sein, wie/wo SAM/BAR überall funktioniert und was denn nun genau alles die Stolpersteine sind wo es eben nicht geht™
GPU Treiber ist ja schonmal klar, aber dann? Chipset, BIOS/Firmware, CPU?
AMD hat dazu ja noch keine spezifischen Infos rausgehauen, wieso das ganze bei Ihnen aktuell nur bei 5xxx CPUs auf 5xx Chipsets unterstützt wird.
ich denke, nur dort kann man es garantieren. gleichzeitig nutzt man diese ungewisseheit fürs marketing. mich stört nur, das man das nicht direkt kommuniziert.
stell dir mal vor, du willst dir eine 6900xt holen und willst natürlich auch SAM. jetzt stößt du deinen alten 16kerner den du für teuer geld gekauft hast, wegen pci4.0 und zukunftstauglichkeit, ab, und dann kommt ein update 4 wochen später für deine alte mainboard/cpu config und hast dir wegen SAM eine neue cpu gekauft.
klar so funktioniert marketing^^ aber hätte man gleich richtig kommuniziert das man das feature nachträglich auch auf alte boards freischaltet, dann könnte man viel ärger im vorfeld vermeiden.
basix
2020-11-13, 12:38:51
GPU Treiber ist ja schonmal klar, aber dann? Chipset, BIOS/Firmware, CPU?
AMD hat dazu ja noch keine spezifischen Infos rausgehauen, wieso das ganze bei Ihnen aktuell nur bei 5xxx CPUs auf 5xx Chipsets unterstützt wird.
Noch 5 Tage warten, dann sollten wir es wissen ;) Die meisten Reviewer werden das Thema SAM genau unter die Lupe nehmen. Daraus lässt sich dann auch für die Nvidia GPUs etwas ableiten, inwieweit die Technologie wie/wo funktionieren wird.
Dural
2020-11-13, 14:37:12
AMD hat dazu ja noch keine spezifischen Infos rausgehauen, wieso das ganze bei Ihnen aktuell nur bei 5xxx CPUs auf 5xx Chipsets unterstützt wird.
Ernsthaft?
Die wollen damit neue Hardware verkaufen, alles andere ist denen egal.
Ich nutze nur "freie Treiber".
Sollte mich NV zu so etwas zwingen, dann wars das für Mich für NV.
M.f.G. JVC
AMD zwingt dich eine neue CPU, GPU und MB zukaufen :rolleyes::rolleyes::rolleyes::rolleyes::rolleyes:
basix
2020-11-13, 14:49:00
AMD zwingt dich eine neue CPU, GPU und MB zukaufen :rolleyes::rolleyes::rolleyes::rolleyes::rolleyes:
AMD ist hier OT. Ausserdem ist keine deiner Aussagen belegt. Es kann sein, dass auch ältere CPUs das Feature unterstützen - allenfalls etwas zeitversetzt. Es kann technische Gründe geben, wieso es mit älterer HW nicht geht. Es kann sein wie du es etwas harsch ausgedrückt hast (= Produktpolitik). Bevor dies also nicht detailliert begründet werden kann, sind solche Aussagen unnütz. Freuen wir uns doch lieber darüber, dass Nvidia das Feature auch bringt (vorläufig wohl nur auf Ampere, leider). Das bringt uns hier nämlich einen Nutzen ;)
Und wenn es nur für Ampere kommt aber ältere GPUs es auch könnten: Dann zieht dein Argument wieder, aber auf der grünen Seite ;)
Hakim
2020-11-13, 14:58:10
Ich würde mich freuen wenn es nv auch auf älteren Plattformen unterstützen würde, das würde AMD dann auch dazu bewegen den Schritt zu gehen, abwarten
BlacKi
2020-11-13, 15:03:25
Ich würde mich freuen wenn es nv auch auf älteren Plattformen unterstützen würde, das würde AMD dann auch dazu bewegen den Schritt zu gehen, abwarten
das liegt allerdings nicht alleine an nv oder amds grafikkarten. du brauchst mindestens ein mainboard bios update. wieviele boards das noch erhalten ist fragwürdig.
SentinelBorg
2020-11-13, 15:11:37
das liegt allerdings nicht alleine an nv oder amds grafikkarten. du brauchst mindestens ein mainboard bios update. wieviele boards das noch erhalten ist fragwürdig.
Korrekt, OS (64 Bit, EFI an/aus, CSM usw.) und BIOS sind eigentlich die Hauptknackpunkte. Wobei es auch durchaus möglich ist, dass das ganze auf dem ein oder anderen aktuellen System jetzt bereits aktuell funktionieren würde. Es ist einfach nur etwas, was im Consumer Bereich bisher einfach nicht genutzt wurde.
Und zum Thema "wer hats erfunden". Also Nvidia benutzt large BAR schon länger bei Tesla Karten. Ist jetzt also nichts neues für sie.
Dural
2020-11-13, 16:26:33
Nicht belegt? AMD hat doch schon längst gesagt das man neue Hardware kaufen muss, eventuell wird es noch eine Unterstützung für Ryzen 3000 geben.
maximus_hertus
2020-11-13, 16:31:11
Nicht belegt? AMD hat doch schon längst gesagt das man neue Hardware kaufen muss, eventuell wird es noch eine Unterstützung für Ryzen 3000 geben.
Da wir im Ampere Thread sind: Muss ich also eine neue AMD CPU und MB kaufen, um Ampere nutzen zu können? Oder wie ist das jetzt gemeint?
arcanum
2020-11-13, 16:37:19
Da wir im Ampere Thread sind: Muss ich also eine neue AMD CPU und MB kaufen, um Ampere nutzen zu können? Oder wie ist das jetzt gemeint?
es geht um den BAR support (SAM bei AMD), den es nur für die x570/b550 chipsätze geben wird. das sind bisher die einzigen (consumer) plattformen die nur in kombination mit zen3 BAR/SAM unterstützen werden.
nvidia wird den support per treiber nachliefern und von intel gibt es hinsichtlich BAR support bislang keine aussagen, kommt aber wahrscheinlich spätestens und exklusiv mit rocket lake.
BlacKi
2020-11-13, 17:24:17
Nicht belegt? AMD hat doch schon längst gesagt das man neue Hardware kaufen muss, eventuell wird es noch eine Unterstützung für Ryzen 3000 geben.nein. lediglich das die 5000er cpus und die aktuellen boards das unterstützen. das was du meinst hat man lediglich daraus abgeleitet.
iggy sagt er darf nicht reden. lasst uns einfach noch die wenigen tage abwarten, dann wirds konkret. amd nennt da feature um bios nichtmal SAM , sondern ReSiBAR
BigBangBacket
2020-11-13, 17:53:25
Ein wundervolles Beispiel was gesunde Konkurrenz bringt.
NVIDIA hätte es die nächsten 10 Jahre nicht in den Treiber gepackt wenn AMD es jetzt nicht gemacht hätte.
Find ich gut
TheAntitheist
2020-11-13, 20:02:46
AMD ist hier OT. Ausserdem ist keine deiner Aussagen belegt. Es kann sein, dass auch ältere CPUs das Feature unterstützen - allenfalls etwas zeitversetzt. Es kann technische Gründe geben, wieso es mit älterer HW nicht geht. Es kann sein wie du es etwas harsch ausgedrückt hast (= Produktpolitik). Bevor dies also nicht detailliert begründet werden kann, sind solche Aussagen unnütz. Freuen wir uns doch lieber darüber, dass Nvidia das Feature auch bringt (vorläufig wohl nur auf Ampere, leider). Das bringt uns hier nämlich einen Nutzen ;)
Und wenn es nur für Ampere kommt aber ältere GPUs es auch könnten: Dann zieht dein Argument wieder, aber auf der grünen Seite ;)
doch es ist belegt, es benötigt einfach kein x570 noch ein ryzen 5xxx, AMD will einfach nur $$$. Das freundliche AMD ist tot
Linmoum
2020-11-13, 20:07:32
Dass trotzdem eine Validierung stattfinden muss, wird natürlich unterschlagen. Warum wohl? Hmmmm. Hat seine Gründe, warum es auch von Nvidia erst später kommen wird.
Und warum eigentlich nur für Ampere? Wenn es doch so einfach geht, könnten sie Turing ja gleich mitmachen. Hmmmm. Oder aber es funktioniert eben doch nicht so mir nichts dir nichts mit allen möglichen Produkten bzw. Kombinationen und muss entsprechend validiert sein.
Vielleicht mal nachdenken.
SKYNET
2020-11-13, 21:08:04
Dass trotzdem eine Validierung stattfinden muss, wird natürlich unterschlagen. Warum wohl? Hmmmm. Hat seine Gründe, warum es auch von Nvidia erst später kommen wird.
Und warum eigentlich nur für Ampere? Wenn es doch so einfach geht, könnten sie Turing ja gleich mitmachen. Hmmmm. Oder aber es funktioniert eben doch nicht so mir nichts dir nichts mit allen möglichen Produkten bzw. Kombinationen und muss entsprechend validiert sein.
Vielleicht mal nachdenken.
rein theoretisch würds mit jeder karte gehen die PCIe 3.0 hat... theoretisch... oder NV will einfach den boost nur für ampere freigeben... warum sollte man auch ne pascal oder turing je nach game um >10% beschleunigen :freak:
SentinelBorg
2020-11-13, 21:41:49
Wenn es auch ein Updates des Karten BIOS dazu braucht, dann müssten die ganzen Hersteller auch noch mitziehen. Das ist mit Ampere natürlich einfacher, als jetzt noch bereits lange verkaufte Vorgängermodelle upzudaten. Denke auch, dass das gehen würde. Aber sie wollen natürlich auch alle was verkaufen. ^^
Grendizer
2020-11-14, 14:25:14
Am 20.11.2020 09:00 Uhr wird wohl MSI eine GeForce RTX 3080 Ti GAMING X TRIO ankündigen.
Zumindest wenn man dem einzigen vernünftig klingenden Produkt in der Umfrage bei Igor glauben darf.
https://www.igorslab.de/msi-kuendigt-einen-game-changer-an-und-tut-dabei-recht-geheimnisvoll/
Screemer
2020-11-14, 14:32:35
hat ja lang gedauert bis der nv die nächste arschkarte ihren kunden gegenüber zückt ;D
Fragman
2020-11-14, 14:46:15
Im Moment sind ja alle Hersteller bemüht, etwas anzukündigen.
Aber mal schauen wie lange es noch dauert, bis endlich kleine Memes von langen Gesichtern der Kunden mit auf den Anzeigen landen.
Daredevil
2020-11-14, 14:47:30
Meinste, ne 3080ti?
Würde eher Richtung "Lighning" oder ein anderes Premium Modell der MSI 3090 gehen. ^^
Adam D.
2020-11-14, 15:35:26
Meinste, ne 3080ti?
Würde eher Richtung "Lighning" oder ein anderes Premium Modell der MSI 3090 gehen. ^^
Zwar ist NV in ihrer "Verzweiflung" eine Menge zuzutrauen, aber wenn da was angekündigt wird Richtung 3080Ti, dann wohl eher um den 8.12. rum.
ZeXes
2020-11-14, 21:32:19
Erstmal ein freundliches Hallo an die Member dieses Forum. Der neue hier.
Dann.., ich freue mich das NVIDIA endlich ins schwitzen kommt. Von Fiji an hatte NVIDIA ja im High End Segment keine richtige Konkurrenz mehr und hat sich dann man mit Turing ordentlich ausgeruht.
Aus der Ruhe heraus hat man anscheinend den gleichen Fehler gemacht, wie intel und AMD unterschätzt und kriegt jetzt die verdiente Standpauke.
Ich hoffe die RX 6800er Grafikkarten Generation wird sich gut verkaufen, damit AMD dem High-End Segment auch in Zukunft treu bleiben wird und NVIDIA auch in Zukunft ordentlich Dampf machen kann.
Ein lebendiger Zweikampf (bald Dreikampf mit intel?) kann uns Gamern nur zu gute kommen.
Lehdro
2020-11-15, 12:30:44
"Kleinste Karte" ist in meinen Augen eine ziemlich unsinnige Kategorisierung und gänzlich Quatsch mit Blick auf die Energieeffizienz. Ob eine Karte objektiv "zu viel" zieht, hängt nun einmal von der gebotenen Performance ab.
Toll. Es geht aber nicht um die Energieeffizienz, sondern um den Fakt das man einen 6 Pol. Stecker braucht. Diese Karten waren nur zudem immer das quasi effizienteste was man bekam, von der aktuellen Generation.
Wenn man nun aus irgendwelchen Gründen eine Karte <75W braucht - was ich faktisch nur für Embedded-Anwendungen im Industriebereich sehe -,
Tellerrand erweitern. Schau dir mal die Verkaufszahlen der Karten in dem Bereich an, das ist ein riesiger Markt der genau auf solche Karten schielt:
GTX 1050 Ti (https://www.mindfactory.de/search_result.php?search_query=1050+ti) >25k Verkauft
Zum Vergleich: In einem ähnlichen Zeitraum hat MF über 100k R5 3600 verkauft. Das heißt mal salopp gesprochen: Es gibt eine Menge PCs mit solch einer Karte im Einsatz...
[...]muss man eben auf entsprechende Modelle in dieser Klasse warten. Und die werden kommen.
Was soll denn da noch kommen, wenn schon die Vanilla 3050 einen 6 Pol. braucht? Eine GT 1030 wurde nicht aktiv von NV fürs Gaming beworben, nein, es wurde sogar extra bei der Nomenklatur ein Sprung nach unten gemacht (GT statt GTX) um diese 3D Bremsen abzugrenzen. Kommt da nun eine GTX statt GT 3030? Unwahrscheinlich. NV wird dieses Segment wohl vorerst mit Altlasten bedienen, das ist schade.
sven2.0
2020-11-15, 12:43:21
hat ja lang gedauert bis der nv die nächste arschkarte ihren kunden gegenüber zückt ;D
Größeres Sortiment = Arschkarte?
Screemer
2020-11-15, 17:06:03
Größeres Sortiment = Arschkarte?
ja ne ist klar ;D
r3ptil3
2020-11-15, 18:58:14
Am 20.11.2020 09:00 Uhr wird wohl MSI eine GeForce RTX 3080 Ti GAMING X TRIO ankündigen.
Zumindest wenn man dem einzigen vernünftig klingenden Produkt in der Umfrage bei Igor glauben darf.
https://www.igorslab.de/msi-kuendigt-einen-game-changer-an-und-tut-dabei-recht-geheimnisvoll/
Und wieso könnte das nicht eine normale RTX 3080 sein als "Suprim" Edition?
Geleaktes Bild der RTX 3080 Suprim:
https://www.pcgameshardware.de/screenshots/1280x/2020/11/MSI-GeForce-RTX-3080-SUPRIMX-1-pcgh.jpg
Bild von Igor:
https://www.igorslab.de/wp-content/uploads/2020/11/MSI-Pixel.jpg
Man achte zudem auf die weisse Bezeichnung unterhalb von "RTX" - das ist keine TI.
horn 12
2020-11-15, 19:08:16
Oh Igor
Nimmt sich oft zu wichtig :-))
https://videocardz.com/newz/msi-geforce-rtx-3080-suprim-x-pictured
Neosix
2020-11-16, 07:18:40
Ist eigentlich irgend was bekannt, ob es von der 3060TI eine FE Version geben wird?
Da ich bei der 3070 leer ausging, muss ich gucken ob ich "ein Stockwerk tiefer" was kriege. Ist vielleicht eh besser so, hätte ein doofes Gefühl wenn die GPU über 200Watt verballert. Ist eigentlich nicht meine Leistungs/Preisklasse.
DrumDub
2020-11-16, 15:08:06
was ein monster. :eek:
Ampere: Nvidia rüstet A100 mit 80 GB HBM2e aus (CB) (https://www.computerbase.de/2020-11/nvidia-ampere-a100-80gb-gpu/)
Gouvernator
2020-11-16, 15:47:57
Gott sei Dank geht es beim Speicher irgendwie weiter. Mit 16K DSR braucht man schon jetzt eigentlich 40Gb.
Troyan
2020-11-16, 19:26:36
Videocardz leakt paar Sachen zur 3060TI:https://videocardz.com/newz/nvidia-official-geforce-rtx-3060-ti-performance-leaked
Sollte die Folie stimmen, dann mindesten 2080 Super Leistung. Wobei man abwarten sollte, da die 3070 auch nur ~25% schneller als die 2080S ist.
Undertaker
2020-11-16, 20:29:38
Toll. Es geht aber nicht um die Energieeffizienz, sondern um den Fakt das man einen 6 Pol. Stecker braucht. Diese Karten waren nur zudem immer das quasi effizienteste was man bekam, von der aktuellen Generation.
Tellerrand erweitern. Schau dir mal die Verkaufszahlen der Karten in dem Bereich an, das ist ein riesiger Markt der genau auf solche Karten schielt:
GTX 1050 Ti (https://www.mindfactory.de/search_result.php?search_query=1050+ti) >25k Verkauft
Zum Vergleich: In einem ähnlichen Zeitraum hat MF über 100k R5 3600 verkauft. Das heißt mal salopp gesprochen: Es gibt eine Menge PCs mit solch einer Karte im Einsatz...
Der Markt schielt auf die Preisklasse und nicht vorrangig auf den PCIe-Stecker. Oder woraus leitest du ab, das der Stecker oder die 15 Watt Mehrverbrauch in dieser Klasse nun plötzlich ein sonderliches Problem darstellen? Darum poche ich auch so auf die signifikante Effizienzsteigerung der RTX 3050, denn davon haben die Kunden wirklich etwas.
Was soll denn da noch kommen, wenn schon die Vanilla 3050 einen 6 Pol. braucht? Eine GT 1030 wurde nicht aktiv von NV fürs Gaming beworben, nein, es wurde sogar extra bei der Nomenklatur ein Sprung nach unten gemacht (GT statt GTX) um diese 3D Bremsen abzugrenzen. Kommt da nun eine GTX statt GT 3030? Unwahrscheinlich. NV wird dieses Segment wohl vorerst mit Altlasten bedienen, das ist schade.
Ich negiere, dass es überhaupt ein relevantes Segment "zwingend ohne PCIe-Stecker" gibt. Ansonsten ist die Steigerung der Leistungsaufnahme ein allgemeines Bild der aktuellen Generation. Kann man im oberen Bereich durchaus kritisch sehen wenn das eigene Netzteil nicht mehr ausreicht (oder eben ein Modell kleiner kaufen), bei 75 vs. 90W halte ich das aber für übertriebe Empörung. Als Geek mit Spezialanforderungen kannst du auch immer noch manuell eingreifen und den Verbrauch reduzieren.
Slipknot79
2020-11-17, 00:58:21
was ein monster. :eek:
Ampere: Nvidia rüstet A100 mit 80 GB HBM2e aus (CB) (https://www.computerbase.de/2020-11/nvidia-ampere-a100-80gb-gpu/)
Gabs in der A100 Community auch nen kack-VRAM-capacity #aufschrei, dass NV reagiert hat? :redface:
crux2005
2020-11-17, 01:11:46
Am 20.11.2020 09:00 Uhr wird wohl MSI eine GeForce RTX 3080 Ti GAMING X TRIO ankündigen.
Zumindest wenn man dem einzigen vernünftig klingenden Produkt in der Umfrage bei Igor glauben darf.
https://www.igorslab.de/msi-kuendigt-einen-game-changer-an-und-tut-dabei-recht-geheimnisvoll/
Es wird sicher keine 3080 Ti vorgestellt. ;D
MSI stellt ihre SUPRIM Serie vor. https://videocardz.com/newz/msi-geforce-rtx-3090-suprim-x-photos-leaked
Edit: haben schon vor mir welche geschrieben.
basix
2020-11-17, 08:32:16
Gabs in der A100 Community auch nen kack-VRAM-capacity #aufschrei, dass NV reagiert hat? :redface:
;D
Zwei Dinge: Die User benötigen generell so viel Speicher wie möglich auf den Beschleunigern und AMD bringt mit MI100 einen Konkurrenten raus ;)
ChaosTM
2020-11-17, 08:38:32
Gabs in der A100 Community auch nen kack-VRAM-capacity #aufschrei, dass NV reagiert hat? :redface:
Dort spart NV auch nicht sinnlos mit Speicher. Bei den Margen auch nicht nötig ;)
Dural
2020-11-19, 11:51:42
Wo bleibt die 3070Ti 16GB mit vollem GA104???
Das würde für die 6800LE reichen, für mich unbegreiflich wie so NV die storniert hat.
Gut NV geht wohl davon aus das ihre 3070 trotzdem deutlich besser verkauft wird.
dildo4u
2020-11-19, 11:55:19
War die 2060 mit 6GB nicht die meist verkaufte RTX Karte trotz 5700 8GB für den selben Preis?
So lange die Verkäufe nicht massiv einbrechen werden sie die bessere Marge mitnehmen.
r3ptil3
2020-11-19, 11:56:10
Wo bleibt die 3070Ti 16GB mit vollem GA104???
Das würde für die 6800LE reichen, für mich unbegreiflich wie so NV die storniert hat.
Gut NV geht wohl davon aus das ihre 3070 trotzdem deutlich besser verkauft wird.
Also für mich war/ist das so:
3070 mit 16Gb und 3080 mit 20Gb geplant, AMD Specs wurden deutlicher und die Leistung transparenter. Was macht Nvidia? Streicht die beiden Karten, da keine Mehrleistung, nur mehr Speicher. Was folgt? 3070 Ti und 3080 Ti mit mehr Leistung/Speicher.
ShinyMcShine
2020-11-19, 12:00:28
Wo bleibt die 3070Ti 16GB mit vollem GA104???
Das würde für die 6800LE reichen, für mich unbegreiflich wie so NV die storniert hat.
Gut NV geht wohl davon aus das ihre 3070 trotzdem deutlich besser verkauft wird.
Die kommt in dieser Serie bestimmt nicht mehr. Das wird für den SUPER Refresh nächstes Jahr aufgehoben. NVIDIA kann sowieso nicht liefern...
Damit habe ich mich schon abgefunden und meine GTX1080 in mein neues Zen 3 System übernommen...
WedgeAntilles
2020-11-19, 12:47:54
Also für mich war/ist das so:
3070 mit 16Gb und 3080 mit 20Gb geplant, AMD Specs wurden deutlicher und die Leistung transparenter. Was macht Nvidia? Streicht die beiden Karten, da keine Mehrleistung, nur mehr Speicher. Was folgt? 3070 Ti und 3080 Ti mit mehr Leistung/Speicher.
Mal sehen ob Nvidia jetzt wieder alles umwirft - nachdem Ampere ja nicht mehr Leistung braucht sondern "nur" mehr Speicher und natürlich Verfügbarkeit.
12GB 3070 und 15GB der 3080 wären jeweils perfekte Karten.
Wenn Nvidia eine 3070 mit 16GB und eine 3080 mit 20GB bringt ist das auch ok (aber eigetnlich sogar "zuviel" Ram)
600 Euro bzw. 800 Euro für die FoundersEdition dieser beiden Varianten und alles ist tutti.
Das war aber eigentlich schon länger klar.
Keine Ahnung warum Nvidia hier sich so dermaßen unfähig anstellt. :confused:
Oder kann es für die 3080 noch nicht angekündigt werden, weil noch nicht ganz klar ist ab wann es 2GB Chips für GDDR6X gibt? Januar? Oder doch erst Februar? Oder noch später?
Und man nicht schon eine 3070 mit 16GB bringen will, wenn die 3080 nur 10GB hat und es die 20GB Version noch nicht gibt?
Oder kann Nvidia auch auf Sicht von 2 Monaten nix liefern, so dass eine größere Nachfrage bei anderen Kartenvarianten völlig irrelevant ist da alles was produziert wird sowieso verkauft wird?
:confused:
BlacKi
2020-11-19, 12:57:59
Keine Ahnung warum Nvidia hier sich so dermaßen unfähig anstellt. :confused:
Oder kann Nvidia auch auf Sicht von 2 Monaten nix liefern, so dass eine größere Nachfrage bei anderen Kartenvarianten völlig irrelevant ist da alles was produziert wird sowieso verkauft wird?
das frage ich mich auch. ich mein, es sieht aktuell so aus als stolpern sie über ihre eigene füße. dabei war amd gerade dabei nv zur seite zustubsen, waren aber zu langsam...
ich mein, die können doch mit den lieferzahlen doch nicht zufrieden sein. dabei ist die marge der 3080 mit 699$ wohl schon nicht besonders hoch(im vergleich zur 2080ti).
ich glaub dahinter steckt samsung.
Fragman
2020-11-19, 14:05:01
ich glaub dahinter steckt samsung.
Dürfte wohl generell ein Problem der knappen Fertigungskapazitäten auf allen Seiten sein. Wenn die jetzt 1 Jahr brauchen um die erste Welle der Nachfrage zu befriedigen, dann sind wir wohl eher froh, das die Hardwareanforderungen nicht explodiert sind wie angenommen.
BlacKi
2020-11-19, 14:48:21
Dürfte wohl generell ein Problem der knappen Fertigungskapazitäten auf allen Seiten sein. Wenn die jetzt 1 Jahr brauchen um die erste Welle der Nachfrage zu befriedigen, dann sind wir wohl eher froh, das die Hardwareanforderungen nicht explodiert sind wie angenommen.
tsmc war doch schon immer ein beliebter prozess und die kapazitäten waren schon immer im voraus ausgebucht. wenn da die lieferzahlen nicht stimmen dann stimmt entweder die ausbeute nicht, oder man hat mit zu wenig im vorfeld geplant. die wussten also schon im vorraus das man nur diese kapazitäten hat. der wegfall von huawei kapazitäten hat nicht wirklich geholfen IMHO.
Fragman
2020-11-19, 15:37:23
Naja, AMD allein braucht ja enorme Mengen (nv ja auch für deren Profichips).
Die bedienen aktuell Server und Desktopprodukte mit CPU's und GPU's, dazu kommen die Konsolen, die zig Mio Chips benötigen und offensichtlich schaffen sie es nicht zu liefern (Server wird sicher Vorrang haben dank der Verträge).
Das war sicher abzusehen. Entweder hat man gepokert und sich verkalkuliert,
was sie immer gern mit der hohen Nachfrage begründen (die paar Zahlen die wir kennen scheinen das aber nicht zu belegen). Die andere Vermutung wäre eine recht schlechte Ausbeute.
Gehört hab ich davon bisher noch nichts (was aber nichts heißt :D). Deshalb glaub ich eher, sie haben sich bei der Nachfrage verspekuliert und stehen jetzt dumm da oder es ging nicht anders weil Kapazitäten fehlen.
Was bei nv lief wissen wir auch nicht wirklich. Aktuell sieht es ja danach aus, das man sich verspekuliert hat, die Produktlinie abändert um darauf zu reagieren.
Sollte dann in 2 Monaten klar sein, das vielleicht Samsung das alleinige Problem war oder noch obendrauf kommt, gibts entweder ein paar mehr Karten oder weiterhin lange Gesichter.
So oder so wird keiner wirklich was liefern können und sämtliche UVP Preise das Papier nicht Wert auf dem sie standen.
Wo sind die News zu den Einweihungsfeiern neuer Fabriken?
Die wechseln jetzt schon langsam zu 5nm, weg von den 7nm. Also keine Ahnung wer da langfristig (die nächsten 2 Jahre) was liefern soll. Sieht so oder so recht düster aus. :confused:
Olliver
2020-11-19, 19:11:06
Da der Performanceunterschied der 3090 zur 3080 ja viel geringer war als theoretisch zu erwarten, frage ich mich ob da mit zukünftigen Spielen und Treibern noch etwas zu erwarten ist?
woodsdog
2020-11-19, 20:47:10
Da der Performanceunterschied der 3090 zur 3080 ja viel geringer war als theoretisch zu erwarten, frage ich mich ob da mit zukünftigen Spielen und Treibern noch etwas zu erwarten ist?
Und was erwartest du denn so theoretisch anhand der Rohleistung?
die 3090 hat 20ish% mehr Rechenleistung und Bandbreite und ist je nach Game so 10-15% schneller so fern der 3080 der Speicher nicht ausgeht.
Dafür darf die 3090 aber nur 10ish% mehr Strom saufen bevor sie ins Powerlimit rennt und muss damit mehr Einheiten und 2,4 Mal so viel durstigen RAM versorgen.
ich würde sagen 10-15% mehr ist schon ziemlich prima in der Konstellation.
Olliver
2020-11-19, 21:41:33
Ich habe vorhin einen Test gelesen, da waren es im Schnitt nur 10% und teilweise auch nur 2% Vorsprung, daher die Frage.
Ich dachte, wenn die Karte nicht ins CPU Limit rennt, sollte man relativ nahe an die Hardwareunterschiede rankommen, oder es lässt sich noch etwas optimieren.
BlacKi
2020-11-19, 22:07:35
du musst verstehen, die 3090 hat zwar mehr rechenpower und mehr bandbreite, aber das wird alles durch powertarget eingebremst. bei gleichen taktraten wirst du schon deine 15+% mehr speed erhalten, dann brauchst du aber eben auch 400w+.
Birdman
2020-11-19, 23:50:30
Warten wir mal ab was die 6800XT macht.
11% mehr Rechengleistung, gleiche Bandbreite, gleiches Powerlimit....
Falls die Karte gleich oder besser skalieren sollte als die 3090, dann wäre das eine ziemliche Blamage für nVidia.
Platos
2020-11-20, 00:15:21
Was hat jetzt die 6800XT mit der 3090 zu tun ? Wenn schon die 6900.
Olliver
2020-11-20, 00:46:04
du musst verstehen, die 3090 hat zwar mehr rechenpower und mehr bandbreite, aber das wird alles durch powertarget eingebremst. bei gleichen taktraten wirst du schon deine 15+% mehr speed erhalten, dann brauchst du aber eben auch 400w+.
https://www.pcgameshardware.de/3DMark-Software-122260/Specials/3DMark-Raytracing-Version-1361115/
Hier gibt es dann tatsächlich die 20%
Auch wenn ich nicht vorzugsweise 3Dmark zocke, ist es schön zu sehen, dass hier wirklich das mehr an Rohleistung umgesetzt wird.
crux2005
2020-11-20, 01:15:47
Was hat jetzt die 6800XT mit der 3090 zu tun ? Wenn schon die 6900.
Es ist offensichtlich das er die 6900 XT meinte.
Dural
2020-11-20, 11:12:52
Die 3090 braucht 400Watt um vernünftig arbeiten zu können.
Dürfte halt am Speicher liegen, die 14GB mehr gegenüber der 3080 machen sich sicher bemerkbar.
Die 6900XT wird Gerademal 3080 Leistung haben. Also ich finde es sehr komisch das AMD bei der 6900XT das PT nicht erhöht hat, gut die 6800XT zieht ja auch ihre 320Watt. Bleibt zu hoffen das die 6900XT etwas besser selektiert sind.
BlacKi
2020-11-20, 11:18:05
@dural
das liegt nicht alleine am speicher wie soll eine 3090 ihre ca 20% mehr rohleistung mit nur 9% mehr PT auf die straße bringen können? die braucht dazu dann einfach ebenfalls +20%
mehr PT gegenüber der 3080. dann skaliert die rohleistung auch wie zu erwarten.
Wenn Nvidia eine 3070 mit 16GB und eine 3080 mit 20GB bringt ist das auch ok (aber eigetnlich sogar "zuviel" Ram)
warum keine 3070ti mit 192bit gddr6x und 12 gb?^^ oder 224bit gddr6 mit 14gb?
dargo
2020-11-20, 11:26:25
Die 6900XT wird Gerademal 3080 Leistung haben.
Genau... besonders bei den 1440p Zockern.
https://youtu.be/-Y26liH-poM?t=642
Aber nach deiner Prognose sollte ja ein 80CU N21 gerade mal die RTX 3070 erreichen. :ulol3:
Also ich finde es sehr komisch das AMD bei der 6900XT das PT nicht erhöht hat, gut die 6800XT zieht ja auch ihre 320Watt.
Ich nicht... denn diesmal hat Nvidia das Schlucker-Image spätestens beim GA102. Und bezüglich Stromverbrauch verdrehst du wieder mit Absicht die Fakten?
1440p = 288W
2160p = 296-299W
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/4/#abschnitt_leistungsaufnahme_desktop_youtube_und_spiele
https://www.igorslab.de/radeon-rx-6800-und-rx-6800-xt-im-test-gefuehlter-gleichstand-aber-mit-unterschieden-im-detail/14/
WedgeAntilles
2020-11-20, 11:27:50
warum keine 3070ti mit 192bit gddr6x und 12 gb?^^ oder 224bit gddr6 mit 14gb?
Ich hatte mein Beispiel gewählt, weil es technisch wohl am einfachsten ist.
Statt 1GB Chips 2GB Chips verbauen, fertig.
Als Laie glaube ich, dass das quasi keinerlei Aufwand ist, es muss ja nur ein anderes Bauteil eingebaut werden.
Alles andere ist vermutlich aufwändiger.
Oder täusche ich mich da?
Und wir brauchen auch nicht für alle 10% eine eigene Karte - dann ist die 6800 halt 10% schneller als die 3070, so what?
Mit RT ist die 3070 um 10% schneller. Das nimmt sich doch alles nicht wahnsinnig viel.
Mit RT + DLSS ist die 3070 noch mal schneller.
Die 3070 hat zu wenig Ram, und die einfachste Lösung um das zu beheben wären eben 2GB Chips.
woodsdog
2020-11-20, 14:09:02
Die 6900XT wird Gerademal 3080 Leistung haben.
Wieso schreitet hier eigentlich nicht mal die Moderation bei solchem offensichtlichen Fanboy-Getrolle und shit stirring ein? Nervt unendlich immer wieder die selben Typen mit dem Mist. Man muss ja nur in diverse andere Threads schauen das hier wissentlich solcher Mist geschrieben wird. :P
BlacKi
2020-11-20, 14:29:23
Ich hatte mein Beispiel gewählt, weil es technisch wohl am einfachsten ist.
Statt 1GB Chips 2GB Chips verbauen, fertig.
Als Laie glaube ich, dass das quasi keinerlei Aufwand ist, es muss ja nur ein anderes Bauteil eingebaut werden.
Alles andere ist vermutlich aufwändiger.
Oder täusche ich mich da?
Und wir brauchen auch nicht für alle 10% eine eigene Karte - dann ist die 6800 halt 10% schneller als die 3070, so what?
Mit RT ist die 3070 um 10% schneller. Das nimmt sich doch alles nicht wahnsinnig viel.
Mit RT + DLSS ist die 3070 noch mal schneller.
Die 3070 hat zu wenig Ram, und die einfachste Lösung um das zu beheben wären eben 2GB Chips.
es war bezogen auf das zuviel ram und deren kosten.
Blediator16
2020-11-20, 15:40:09
Wieso schreitet hier eigentlich nicht mal die Moderation bei solchem offensichtlichen Fanboy-Getrolle und shit stirring ein? Nervt unendlich immer wieder die selben Typen mit dem Mist. Man muss ja nur in diverse andere Threads schauen das hier wissentlich solcher Mist geschrieben wird. :P
So wie die AMD Karten maximal 3070 erreichen werden. Lauter Lügen und Provokationen. Einfach melden.
Kann mir mal jemand sagen, wie ich einen normalen Idle-Verbrauch hinbekomme :redface:
reaperrr
2020-11-20, 16:03:16
Die 3070 hat zu wenig Ram, und die einfachste Lösung um das zu beheben wären eben 2GB Chips.
Ich denke, es wird eher noch einen "richtige" 3070 Ti auf Basis eines neuen und leicht beschnittenen GA103 kommen.
7296 oder 7424 aktive (von 7680 physisch vorhandenen) FP32 ALUs, 320bit SI (Vollausbau), 10GB GDDR6 @ 16 Gbps.
Glatte 300W TDP, rund 15-20% schneller als 3070 (etwas ausgebremst dadurch, dass die Anzahl an GPCs und ROPs gleich bleibt).
Wird NV dann voraussichtlich für 599$ bringen.
Sollte die 6800 meistens schlagen, und für Textur- und Bildschirm-Auflösungen, wo mehr als 10 GB wirklich was bringen, sind wahrscheinlich beide zu langsam, und vereinzelte Ausnahmen machen den Kohl nicht fett.
Cyberfries
2020-11-21, 11:21:40
Wo bleibt die 3070Ti 16GB mit vollem GA104???
Laut kopite7kimi (https://twitter.com/kopite7kimi/status/1329618479633162240) kommt die 3070Ti auf Ga103 mit 58SM.
maybe, RTX 3070 Ti
GA103-300-A1
7424 FP32
320bit GD6X
Wäre das der letztes Jahr geleakte Ga103 mit 60SM wäre das beinahe der Vollausbau.
Dazu passen auch die 320bit GDDR6X.
Aber auch diese Variante behebt nVidias Speicherdilemma nicht, das erlaubt wieder nur 10 oder 20GB.
Gerade bei schnellem GDDR6X sollten doch 16GB an 256bit ausreichen?
@reaperrr
Ziemlich gut getippt.
woodsdog
2020-11-21, 11:25:19
Kann mir mal jemand sagen, wie ich einen normalen Idle-Verbrauch hinbekomme :redface:
Dein RAM läuft doppelt so schnell im Idle wie ich bisher bei anderen GA102 sehen konnte. Ist das Stock? Irgendwelche Browser offen etc?
Hier hatte ich schon einen Thread zu dem Thema auf gemacht https://www.forum-3dcenter.org/vbulletin/showthread.php?t=603149
Daredevil
2020-11-21, 11:56:26
Kann mir mal jemand sagen, wie ich einen normalen Idle-Verbrauch hinbekomme :redface:
GSync/Freesync möglich?
Das hatte bei mir großen Einfluss auf den Idle Verbrauch
woodsdog
2020-11-21, 14:25:45
GSync/Freesync möglich?
Das hatte bei mir großen Einfluss auf den Idle Verbrauch
Das macht zumindest in meinem Setup mit klassischen GSync via Modul im TFT exakt 0 Watt Unterschied.
prinz_valium_2
2020-11-21, 20:15:37
Sieht so aus als ob die 3060TI, 3070TI und 3080TI die guten Karten sein werden.
Die 3070, 3080 und 3090 sind eher mist.
Also würde ich sagen haben alle Glück gehabt, die keine bekommen haben oder es erst gar nicht versucht.
Denniss
2020-11-21, 21:25:15
Das Spielchen gabs doch schon mal mit den aufgesuperten Karten .....
Linmoum
2020-11-21, 21:52:13
Sieht so aus als ob die 3060TI, 3070TI und 3080TI die guten Karten sein werden.
Die 3070, 3080 und 3090 sind eher mist.
Also würde ich sagen haben alle Glück gehabt, die keine bekommen haben oder es erst gar nicht versucht.Das ergibt keinen Sinn.
Die 3060Ti ist eine 3070 mit gleich viel Speicher, dafür aber weniger SM und geringerer Performance bei logischerweise niedrigerem Preis. Völlig normal also.
Die 3070Ti soll vagen Gerüchten nach (laut kimi wurden zwei angedachte Varianten einer solchen auch schon gecancelt) eine 3080 mit gleich viel Speicher, dafür aber weniger SM und geringerer Performance bei logischerweise niedrigerem Preis sein. Wäre also völlig normal.
Bei der 3080Ti ist die Situation genauso unklar. Angeblich 20GiB, aber ansonsten? Doch genauso viele SM wie die 3090, doch nur wie die 3080 oder etwas dazwischen? Who knows. Eigentlich mühselig, so oft wie NV angeblich schon Pläne umgeworfen haben soll.
prinz_valium_2
2020-11-21, 23:24:38
Das ergibt keinen Sinn.
Die 3060Ti ist eine 3070 mit gleich viel Speicher, dafür aber weniger SM und geringerer Performance bei logischerweise niedrigerem Preis. Völlig normal also.
Die 3070Ti soll vagen Gerüchten nach (laut kimi wurden zwei angedachte Varianten einer solchen auch schon gecancelt) eine 3080 mit gleich viel Speicher, dafür aber weniger SM und geringerer Performance bei logischerweise niedrigerem Preis sein. Wäre also völlig normal.
Bei der 3080Ti ist die Situation genauso unklar. Angeblich 20GiB, aber ansonsten? Doch genauso viele SM wie die 3090, doch nur wie die 3080 oder etwas dazwischen? Who knows. Eigentlich mühselig, so oft wie NV angeblich schon Pläne umgeworfen haben soll.
3060TI deutlich besseres P/L als 3070
3070TI deutlich besseres P/L als 3080
3080TI deutlich besseres P/L als 3090
Kein Jahr Verspätung und auch keine Abstriche beim Speicher zur nächst größeren.
Also alles nicht normal und wie sonst.
-/\-CruNcher-/\-
2020-11-21, 23:47:30
Genau... besonders bei den 1440p Zockern.
https://youtu.be/-Y26liH-poM?t=642
Aber nach deiner Prognose sollte ja ein 80CU N21 gerade mal die RTX 3070 erreichen. :ulol3:
Stimmt ja fast aber nur in der Hybrid Performance ;)
overall ist die 6800XT balance mal wieder fürn Popo und es stand klar die 6800 im Entwicklungsfocus
die 6800 XT schön undervolten aber nicht zu sehr am limit lieber bischen Power sparen aber ohne das die Frametimes zu sehr wegbrechen wobei das nicht so einfach wird mit höherem RT load, ich seh schon Nvidias Reflections extreme auf maximum strahlen das AMD auch schön wegbricht :D
Und warten wir mal ab was Nvidia da noch so alles zaubert bei exclusive titeln wo anders visuel optimiert werden muss für AMDs Konsolentarget.
Laut kopite7kimi (https://twitter.com/kopite7kimi/status/1329618479633162240) kommt die 3070Ti auf Ga103 mit 58SM.
Wäre das der letztes Jahr geleakte Ga103 mit 60SM wäre das beinahe der Vollausbau.
Dazu passen auch die 320bit GDDR6X.
Aber auch diese Variante behebt nVidias Speicherdilemma nicht, das erlaubt wieder nur 10 oder 20GB.
Gerade bei schnellem GDDR6X sollten doch 16GB an 256bit ausreichen?
@reaperrr
Ziemlich gut getippt.
Die 58 SMs ist wohl ziemlich klar, der rest jedoch nicht. GA103 wird aber 6x12 GPCs aufgebaut sein, die 3080 Super wird also ziemlich sicher 70 SMs haben und die 3070 Super eben 58. Ich tippe auch darauf, dass die 3080 Super 320Bit mit 20GB bringen wird, aber die 3070 Super nur 256Bit 6X mit 16GB.
Linmoum
2020-11-22, 00:04:55
3060TI deutlich besseres P/L als 3070
3070TI deutlich besseres P/L als 3080
3080TI deutlich besseres P/L als 3090
Kein Jahr Verspätung und auch keine Abstriche beim Speicher zur nächst größeren.
Also alles nicht normal und wie sonst.Interessant, dass du von allem schon genaue Ausstattung, Performance und Preise kennst. Erzähle uns mehr.
Davon ab hatte auch die 2070 kein Jahr Verspätung, sondern kam einen Monat nach der 2080 - mit genauso 8GiB Speicher und besserer P/L. Also doch, wäre nicht neu und normal.
w0mbat
2020-11-22, 14:04:26
Das war ja auch schon bei Turing so. 2060, 2070 und 2080 waren eher meh, die "Super" Karten waren dann das deutlich bessere Angebot. Nur die 2080 Ti war OK. Zwar sehr teuer, aber auch ohne Kompromiss.
Ist jetzt genauso. Die 3090 ist arschteuer, aber ne rundum gute Karte (wenn man in 4K spielt). 3080 und 3070 sind VRAM Krüppl. Ne 3080 mit 20GB und ne 3070 mit 16GB wären OK. Aber für alles unter 4K macht eh BigNavi mehr Sinn: schneller, ausreichend VRAM und sparsamer.
Troyan
2020-11-22, 14:06:58
Stimmt, wenn man auf Raytracing verzichtet, was in 1080p und 1440p komplett nutzbar auf einer 3070 und 3080 ist.
Heißt also: BigNavi ist langsamer, zu viel VRAM und ineffizienter. Ja, macht absolut mehr Sinn. Not.
Thunder99
2020-11-22, 16:06:00
Stimmt, wenn man auf Raytracing verzichtet, was in 1080p und 1440p komplett nutzbar auf einer 3070 und 3080 ist.
Heißt also: BigNavi ist langsamer, zu viel VRAM und ineffizienter. Ja, macht absolut mehr Sinn. Not.
Ist auch auf Navi nutzbar, wenn auch mit deutlicher weniger FPS. RT ist nicht alles und die Zeit wird es zeigen wie sich Navi positionieren wird bei RT (immer deutlich langsamer oder nur vertretbar langsamer)
Wieso bringt Nvidia nicht GA104 full mit 16Gbit 16GB Speicher raus und ne 3800TI 20GB mit einer TDP von 270W? Somit wäre der Abstand zur 3090 gewahrt und es gebe eine super Abstufung.
3070 8GB
3070Ti 16GB
3080 10GB
3080Ti 20GB
3090 24GB
Für jedem Geldbeutel was dabei
woodsdog
2020-11-22, 20:21:49
RT wird zu Lebzeiten der Karten eh eine optionale Geschichte bleiben. Mit Troyans Logik muss man auch mit Turing somit auf RT verzichten. Vor 8 Wochen noch ließ er seine Fahne in die andere Richtung wehen, von daher einfach das Fanboy-Gesabbel ignorieren.
Troyan
2020-11-22, 23:30:09
Ist auch auf Navi nutzbar, wenn auch mit deutlicher weniger FPS. RT ist nicht alles und die Zeit wird es zeigen wie sich Navi positionieren wird bei RT (immer deutlich langsamer oder nur vertretbar langsamer)
Wenn 1080p für dich nutzbar ist, ja.
Ansonsten ist es nicht nutzbar. Hier Worst Case in Call of Duty Cold War mit Raytracing:
https://cdn.mos.cms.futurecdn.net/ULveYytexj7B5Dsgs6k3ug-970-80.png.webp
https://cdn.mos.cms.futurecdn.net/PRWEwS5NQZBAT5xAEHxYVh-970-80.png.webp
https://www.tomshardware.com/news/the-amd-radeon-rx-6800-xt-and-rx-6800-review
50% mehr Leistung ist eben der Unterschied zwischen "nutzbar" und "nicht nutzbar".
MikePayne
2020-11-22, 23:57:05
Wenn 1080p für dich nutzbar ist, ja.
Ansonsten ist es nicht nutzbar. Hier Worst Case in Call of Duty Cold War mit Raytracing:
https://cdn.mos.cms.futurecdn.net/ULveYytexj7B5Dsgs6k3ug-970-80.png.webp
https://cdn.mos.cms.futurecdn.net/PRWEwS5NQZBAT5xAEHxYVh-970-80.png.webp
https://www.tomshardware.com/news/the-amd-radeon-rx-6800-xt-and-rx-6800-review
50% mehr Leistung ist eben der Unterschied zwischen "nutzbar" und "nicht nutzbar".
Wer RT im MP anschaltet ist selbst schuld (Frametimes + fps drop). Egal welcher Hersteller. Die RT Performance ist bei beiden Herstellern mangelhaft.
RT wird zu Lebzeiten der Karten eh eine optionale Geschichte bleiben. Mit Troyans Logik muss man auch mit Turing somit auf RT verzichten. Vor 8 Wochen noch ließ er seine Fahne in die andere Richtung wehen, von daher einfach das Fanboy-Gesabbel ignorieren.
:up:
Olliver
2020-11-23, 10:28:59
"Egal welcher Hersteller. Die RT Performance ist bei beiden Herstellern mangelhaft."
Diese Aussage suggeriert, dass die Performance ähnlich wäre.
Eine 99th Differenz von 65.5 zu 33.7 Fps, ist für mich allerdings eher der Unterschied zwischen smooth und stottern.
Beim Durchschnitt auf 2560x1440 unter DXR bedeuten die 50% bei mir eventuell,
ob freesync/Gsync noch stotterfrei funktioniert,
bei meiner Vega VII ist das unter 40Fps nicht mehr der Fall.
Wir wissen nicht, wie die Performance im optimierten Zustand ist. Bisher gibt es einige Titel, die für NV optimierte RT-Shader haben, aber keine, die AMD optimierte Shader haben, wenn man von Godfall mal absieht, da ist es halt umgekehrt. Wenn einer dieser Spielehersteller eine optimierte Version für beide Hersteller liefert, kann man auch endlich mal Vergleiche ziehen, vorher ist das müßig.
Cyberpunk macht offenbar eine für AMD optimierte Version, wenn das RT für die 6xxx-Serie freigeschaltet wird, können wir ja sehen, wie schnell oder langsam AMDs RT wirklich ist.
Jetzt zu behaupte "AMDs RT ist 50% langsamer" kann das NV-Fanboyherz zwar wärmen, hat aber u.U. eben nichts mit der Relität zu tun.
dildo4u
2020-11-23, 11:04:11
Call of Duty 2020 wurde schon an RDNA 2 angepasst, die PC Version wird nur höhere Settings haben, die XBox Serie X und die PS5 können RT in dem Game.
Olliver
2020-11-23, 11:14:00
Wir werden sehen, speziell von der 6900 ist ja noch etwas zu erwarten.
Die 50% waren allerdings der Schnitt aus 10 RT spielen, also wohl allen derzeitigen.
Cyberpunk, gestern habe ich noch gelesen, dass es laut einer Aussage vom 20.11, für AMD doch nicht von Release an funktioniert, sondern gepatcht werden muss.
dildo4u
2020-11-23, 11:17:21
Wir werden sehen, speziell von der 6900 ist ja noch etwas zu erwarten.
Ja wobei 3080 Speed ja nicht reicht da deutlich teurer, leider erwarte ich daher die 3080 mit 20GB bei 1000€.
Wir werden sehen, speziell von der 6900 ist ja noch etwas zu erwarten.
Die 50% waren allerdings der Schnitt aus 10 RT spielen, also wohl allen derzeitigen.
Cyberpunk, gestern habe ich noch gelesen, dass es laut einer Aussage vom 20.11, für AMD doch nicht von Release an funktioniert, sondern gepatcht werden muss.
Jo, 100% NV-Optimiert, 0% AMD-Optimiert. Das ist halt der Vorteil, wenn man schon länger auf dem Markt ist.
dildo4u
Die PC-Version scheint mir doch wenig mit der Konsolen-Variante zu tun zu haben und scheint mir ziemlich von NV-Anpassungen durchseucht zu sein. Da wird natürlich auch mit den ersetzten Shadern für RT so sein, es gibt ja auch mehr RT als auf den Konsolen. Wenn man die Konsolenvariante auf RDNA2 nutzen könnte, wäre das ja wahrscheinlich gut, scheint aber nicht so zu sein. Vielleicht kommt da noch ein Patch für die PC-Variante.
Ich sag ja nicht, dass die AMDs nicht langsamer sind, das sind sie zimelich sicher mit RT, ich bezweifle nur, dass man sich davon jetzt schon ein Bild machen kann.
robbitop
2020-11-23, 12:47:54
Ich vermute, dass sich die Situation mit Einbeziehung der HW beider Vendors verbessern wird. Es sieht für mich aber nach einem inhärenten Nachteil aus, dass AMD eben nur einen Teil beschleunigt.
Bei DF hat man sich mit der XSX eine Stelle von Watch Dogs mit RT angeschaut und die PC Version genauso konfiguriert.
https://www.youtube.com/watch?v=_BN_wjO2M9Q
Es gab sogar die Konsolen Presets im Config File. Die XSX war ein kleines Stück unter dem Niveau der 2060 Super - und das ist sie außerhalb von RT eigentlich nicht. Da liegt sie eher auf >2080 Niveau.
Und ich gehe mal bei einem Konsolenrelease davon aus, dass zumindest ein gewisses Optimierungsniveau umgesetzt ist.
Wie gesagt: da ist noch Potenzial - aber es scheint sich abzuzeichnen, dass RDNA2 zumindest was RT angeht ggü der NV HW Lösung noch deutliche Nachteile zu haben scheint.
Ich gehe aber davon aus, dass man das in der nächsten Iteration mit freiwerdendem Transistorbudget fixen wird in dem man einen größeren Teil per FF Units beschleunigt.
Dural
2020-11-23, 13:32:49
Schon lustig wie sich einige den navi2 schön reden müssen. Als bekannt wurde das die navi2 mit 16gb kommen war alles andere nebensächlich, 16gb brauchte man von da an zwingend!
Jetzt wo die fakten da sind, ist navi2 die ultimative 1080p und 1440p karte! Wer braucht schon 4k und RT?! Kein wort mehr wegen den auch so wichtigen 16gb und rt wird jetzt in der lebenszeit der karten keine relevanz mehr haben. Aber die 16gb waren zuvor die ultimative eigenschaft für eine lange lebensdauer!
Und auch die vergleiche mit turing finde ich süess, die rt leistung war nicht ausreichend für einige herren, und jetzt kommt die aussage turing hatte ja auch nicht mehr rt leistung als navi2 jetzt. Schon sehr süess wie die fahnen gleich nach dem wind drehen.
Für mich ist navi2 einer der grössten flops seit jahren, viel versprochen, viel technik aber ausgerechnet dort wo man die leistung im 2020+ braucht (4k und rt) versagen die chips. Eigentlich eine komplette fehlentwicklung, da es keine vernünftigen grund für die karten gibt. Die 3080 ist ganz klar die bessere karte, und das sogar mit 10gb... was für eine ironie wo ich hier mehrfach davor gewarnt habe nur auf gb und mhz zu schauen.
Dampf
2020-11-23, 13:45:24
Die RT Leistung von Navi2 ist absolut nutzbar. Man muss halt mal die Settings richtig anpassen und nicht nur blind auf Ultra zocken, was eh meistens nichts bringt.
Nvidia war halt seiner Zeit deutlich voraus damals mit den RT Cores und jetzt DLSS 2.0, aber das muss jetzt nicht heißen, dass AMD hier einen schlechten Job gemacht hat.
Die RT Leistung von Navi2 ist absolut nutzbar. Man muss halt mal die Settings richtig anpassen und nicht nur blind auf Ultra zocken, was eh meistens nichts bringt.
Nvidia war halt seiner Zeit deutlich voraus damals mit den RT Cores und jetzt DLSS 2.0, aber das muss jetzt nicht heißen, dass AMD hier einen schlechten Job gemacht hat.
War i.Ü. ja auch so angekündigt. AMD hat immer gesagt, dass RT für Radeon nur für die Beschleunigung bestimmter Effekte taugt, aber keine global zu betrachtende Sache ist, sondern lediglich als Addon für die Rasterizergrafik. AMD plante damals volle RT nur über Cloud nutzbar zu machen. Das war natürlich auch mumpitz, der Wandel der Hardware ist aber eingeleitet. NV hat da einfach ne andere Zielsetzung gehabt, die sich jetzt auszahlt. Interessant wird sein, wie stark RT bei Konsolenports erweitert wird, damit Geforces auch mehr davon profitieren.
Des Weiteren würde ich Robbi da voll zustimmen.
Edit: Übrigens sehen die RT-Tests bei CB für Troyans Beispiel ganz anders aus auf der Radeon, da sieht man, dass auch hier noch was nicht stimmt. Hier ist nämlich die 6800 bei WQHD über der 3070 angesiedelt, die XT ein paar % unter der 3080. Erst bei FullHD wird der Abstand bei RT größer.
Dampf
2020-11-23, 14:01:26
Interessant wird sein, wie stark RT bei Konsolenports erweitert wird, damit Geforces auch mehr davon profitieren.
Des Weiteren würde ich Robbi da voll zustimmen.
Ich hoffe ja das Gegenteil wird der Fall sein, zumindest auf niedrigeren Einstellungen. Die Raytracing Settings bei Watch Dogs Legion sind ja auf dem PC selbst auf Mittel teils deutlich aufwendiger als die der Konsolen. Für Einsteiger-RTX und auch AMD GPUs könnte man die Settings ja für das Low Preset übernehmen und damit den Performance-Einbruch mit Raytracing deutlich abfedern. Von den Optimierungen der Konsolen wird sicherlich auch der PC profitieren. Das RT auf den Konsolen sieht ja für die meisten Spieler gut genug aus.
Bin ja dafür, die RT Settings umzubenennen und damit die negative Assoziation von schlechter Bildqualität zu entfernen , denn sobald RT an ist macht es einen deutlichen Unterschied ganz gleich welches Setting. Könnte ja so aussehen: Low wird zu High, Medium zu Ultra und Hoch zu Extrem.
Gratzner
2020-11-23, 14:17:37
Schon lustig wie sich einige den navi2 schön reden müssen. Als bekannt wurde das die navi2 mit 16gb kommen war alles andere nebensächlich, 16gb brauchte man von da an zwingend!
Jetzt wo die fakten da sind, ist navi2 die ultimative 1080p und 1440p karte! Wer braucht schon 4k und RT?! Kein wort mehr wegen den auch so wichtigen 16gb und rt wird jetzt in der lebenszeit der karten keine relevanz mehr haben. Aber die 16gb waren zuvor die ultimative eigenschaft für eine lange lebensdauer!
Und auch die vergleiche mit turing finde ich süess, die rt leistung war nicht ausreichend für einige herren, und jetzt kommt die aussage turing hatte ja auch nicht mehr rt leistung als navi2 jetzt. Schon sehr süess wie die fahnen gleich nach dem wind drehen.
Für mich ist navi2 einer der grössten flops seit jahren, viel versprochen, viel technik aber ausgerechnet dort wo man die leistung im 2020+ braucht (4k und rt) versagen die chips. Eigentlich eine komplette fehlentwicklung, da es keine vernünftigen grund für die karten gibt. Die 3080 ist ganz klar die bessere karte, und das sogar mit 10gb... was für eine ironie wo ich hier mehrfach davor gewarnt habe nur auf gb und mhz zu schauen.
Warum bist Du so extrem Aggressiv? Du regst dich ja nur um vollkommen irrelevanten Navi-Spekulationen auf (die natürlich assoziiert haben das Du deine präferierte Firma nicht mehr den längsten Balken hat). Bist ja aggressiver als ein Gorilla auf Paarungssuche (hast du diesbezüglich Probleme oder warum bist du so extremst aggressiv und wütend?).
Davon ab basiert deine Argumention darauf, das natives 4k und RT auf höchsten Einstellungen der unverzichtbare heilige Gral sei, alle Karten unter der 3080 (daher auch die 3070 etc) unbrauchbar seien. Mich würde interessieren, wie in deinem Weltbild Gamer mit FullHD/WQHD oder welche RT nicht allzu wichtig finden, nur überleben können?
MikePayne
2020-11-23, 15:46:07
Schon lustig wie sich einige den navi2 schön reden müssen. Als bekannt wurde das die navi2 mit 16gb kommen war alles andere nebensächlich, 16gb brauchte man von da an zwingend!
Jetzt wo die fakten da sind, ist navi2 die ultimative 1080p und 1440p karte! Wer braucht schon 4k und RT?! Kein wort mehr wegen den auch so wichtigen 16gb und rt wird jetzt in der lebenszeit der karten keine relevanz mehr haben. Aber die 16gb waren zuvor die ultimative eigenschaft für eine lange lebensdauer!
Und auch die vergleiche mit turing finde ich süess, die rt leistung war nicht ausreichend für einige herren, und jetzt kommt die aussage turing hatte ja auch nicht mehr rt leistung als navi2 jetzt. Schon sehr süess wie die fahnen gleich nach dem wind drehen.
Für mich ist navi2 einer der grössten flops seit jahren, viel versprochen, viel technik aber ausgerechnet dort wo man die leistung im 2020+ braucht (4k und rt) versagen die chips. Eigentlich eine komplette fehlentwicklung, da es keine vernünftigen grund für die karten gibt. Die 3080 ist ganz klar die bessere karte, und das sogar mit 10gb... was für eine ironie wo ich hier mehrfach davor gewarnt habe nur auf gb und mhz zu schauen.
Nächster auf Ignore.
Du laberst rum - stornierst deine dicke nv karte kurz vor Navi release - um dann wieder weiter volle breitseite zu geben.
Und wer hier von Fehlentwicklung redet, hat den letzten Schuss nicht mehr gehört.
rentex
2020-11-23, 16:16:12
Hm, BigNavi ist durchaus ein Erfolg für AMD. Die 4K Schwäche ist aber leoder da, was es durchaus zu einem Manko für die Karte macht. Die 16GB wurden ja nicht umsonst verbaut...
Hm, BigNavi ist durchaus ein Erfolg für AMD. Die 4K Schwäche ist aber leoder da, was es durchaus zu einem Manko für die Karte macht. Die 16GB wurden ja nicht umsonst verbaut...
Die 16GB haben ja primär nichts mit der Auflösung zu tun, sondern sind ne Investition in die Zukunft. Ich find das immer albern, das mit UHD gleichzusetzen. Außerdem ist der Abstand zwar da, aber nur klein. Je kleiner die Auflösung, desto besser die Hitrate des Caches, desto besser performt BN ggü. den Geforces. Das ist also keine UHD-Schwäche, sondern eine Stärke in kleineren Auflösungen, die Skalierung ist anders bei BN. Ich verwende bis auf Weiteres WQHD, da ich bisher keinen bezahlbaren UHD-Monitor, der meinen Ansprüchen genügt, gefunden habe, geschweige denn einer auch nur entfernt in Sicht wäre. Daher wird auf absehbare Zeit auch diese Auflösung mein Primärziel sein und das wird für den ganz großen Teil der Spieler auch so sein, da sie sicherlich gerne 144Hz hätten aber keine >1000€ für einen Monitor zahlen werden (die dann oft auch noch ne beschissene Inputlatenz haben :freak:).
dargo
2020-11-23, 16:28:30
Call of Duty Black Ops Cold War... Nextgen mit Raytracing. :ulol3:
w4c4ihAkVJU
Troyan
2020-11-23, 16:33:26
Die 16GB haben ja primär nichts mit der Auflösung zu tun, sondern sind ne Investition in die Zukunft. Ich find das immer albern, das mit UHD gleichzusetzen. Außerdem ist der Abstand zwar da, aber nur klein. Je kleiner die Auflösung, desto besser die Hitrate des Caches, desto besser performt BN ggü. den Geforces. Das ist also keine UHD-Schwäche, sondern eine Stärke in kleineren Auflösungen, die Skalierung ist anders bei BN. Ich verwende bis auf Weiteres WQHD, da ich bisher keinen bezahlbaren UHD-Monitor, der meinen Ansprüchen genügt, gefunden habe geschweige denn einer auch nur entfernt in Sicht wäre. Daher wird auf Absehbare Zeit auch diese Auflösung mein Primärziel sein.
Aha. Deswegen ist eine RTX3070 näher an der 6800XT je geringer die Auflösung wird. :ucrazy3:
ChaosTM
2020-11-23, 16:35:54
schwere Entscheidung ob RT oder not .. ;)
Blediator16
2020-11-23, 16:37:36
Nächster auf Ignore.
Du laberst rum - stornierst deine dicke nv karte kurz vor Navi release - um dann wieder weiter volle breitseite zu geben.
Und wer hier von Fehlentwicklung redet, hat den letzten Schuss nicht mehr gehört.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12415276#post12415276
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12427439#post12427439
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12428025#post12428025
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12446398#post12446398
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12453834#post12453834
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12458034#post12458034
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12460378#post12460378
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12461149#post12461149
In chronologischer Reihenfolge alt-neu.
Keine Lust mehr die Posts von dem Clown zu stalken. Die Beispiele sollten wohl reichen.
Das perverseste ist, dass AMD an Intel und NV so nah ist wie seit einer Dekade nicht mehr. CPUs und GPUs nicht lieferbar und hier wird sich über Kleinigkeiten gestritten :D
Aha. Deswegen ist eine RTX3070 näher an der 6800XT je geringer die Auflösung wird. :ucrazy3:
Das wird einfach an der Art liegen, wie das implementiert ist. Die Hardware unterscheidet sich ja.
robbitop
2020-11-23, 17:01:58
4K Schwäche sehe ich eigentlich nicht dominant. Was ich sehe, ist dass GA102 seine hohe Rohleistung pro SM vor allem in höheren Auflösungen besser ausgelastet bekommt. Bei niedrigeren Auflösungen gibt es dann andere Bottlenecks.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_benchmarks_in_3840__2160
1440P
2080 TI FE=100%
6800XT=121%
3080 FE=128%
2160p
2080TI FE=100%
6800XT=123%
3080 FE= 131%
Der Abstand zu Turing ist in beiden Auflösungen im Rahmen der Messgenauigkeit doch relativ gleich. Eher als eine eindeutige 4K Schwäche würde ich sagen hat GA102 eine geringfügige Schwäche bei niedrigen Auflösungen (so enorm sind die Differenzen ja auch dort nicht). Das ist nunmal architekturbedingt - man hat die FPUs pro SM verdoppelt - das kostet nicht extrem viel Transistoren - aber bedingt dann andere Flaschenhälse.
Und 6% Differenz in 4K zwischen der 6800XT und der 3080FE ist jetzt auch nicht unbedingt die Welt. Das ist messbar aber kaum spürbar.
Viel mehr empfinde ich die bessere Raytracing Hardware und das gut funktionierende DLSS als deutlicheren Vorteil im Moment.
edit: interessant, dass GA104 eher andersherum skaliert. Würde mich interessieren, ob es hier noch einen anderen Flaschenhals gibt bei GA104, der bei hohen Auflösungen kritisch wird. TU102 verhält sich übrigens fast identisch zur GA104. Irgendeinen Bottleneck scheint es bei GA102 noch zu geben.
edit2: Ggf. kommt bei 1080p auch ein Teil-CPU-Limit zum Tragen und der NV Treiber ist eventuell etwas besser bei der Ausnutzung der CPU?
dargo
2020-11-23, 17:10:41
4K Schwäche sehe ich eigentlich nicht dominant. Was ich sehe, ist dass GA102 seine hohe Rohleistung pro SM vor allem in höheren Auflösungen besser ausgelastet bekommt. Bei niedrigeren Auflösungen gibt es dann andere Bottlenecks.
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/3/#abschnitt_benchmarks_in_3840__2160
1440P
2080 TI FE=100%
6800XT=123% 121%
3080 FE=137% 128%
2160p
2080TI FE=100%
6800XT=121% 123%
3080 FE= 137% 131%
fixed ;)
robbitop
2020-11-23, 17:14:53
fixed ;)
Dankeschön :) Hab's direkt editiert.
dargo
2020-11-23, 17:20:37
Es ist auch ziemlich davon abhängig welche Games man testet. Bei HU sieht es nämlich so aus.
https://youtu.be/ZtxrrrkkTjc?t=759
1440P
2080 TI FE=100%
6800XT=126%
3080 FE=122%
2160p
2080TI FE=100%
6800XT=126%
3080 FE= 132%
Edit:
Um es zu komplettieren...
1080P
2080 TI FE=100%
6800XT=123%
3080 FE=116%
Ravenhearth
2020-11-23, 17:22:02
Wie gesagt: da ist noch Potenzial - aber es scheint sich abzuzeichnen, dass RDNA2 zumindest was RT angeht ggü der NV HW Lösung noch deutliche Nachteile zu haben scheint.
Ich gehe aber davon aus, dass man das in der nächsten Iteration mit freiwerdendem Transistorbudget fixen wird in dem man einen größeren Teil per FF Units beschleunigt.
Nvidia hatte da zum Ampere-Launch eine lustige Folie, die zwei RT-Implementierungen gegenüberstellt, und AMDs Ansatz sieht der "Minimal Architecture" verdächtig ähnlich :redface:
https://www.techpowerup.com/review/nvidia-geforce-ampere-architecture-board-design-gaming-tech-software/images/raytracing-acceleration.jpg
aufkrawall
2020-11-23, 17:59:53
fixed ;)
Ah, lol. Die 6800 XT ist in 4k ziemlich genau so weit vor der 2080 Ti wie in 1440p, aber hier wird ständig was von 4k-Schwäche gelabert.
Gibt wohl eher eine Verständnis-Schwäche bei nicht wenigen Usern...
dargo
2020-11-23, 18:04:53
Ah, lol. Die 6800 XT ist in 4k ziemlich genau so weit vor der 2080 Ti wie in 1440p, aber hier wird ständig was von 4k-Schwäche gelabert.
Gibt wohl eher eine Verständnis-Schwäche bei nicht wenigen Usern...
Du kennst das doch... anstatt die Schwäche im eigenen Lager zu erkennen ist es einfacher die "Schwäche" bei der Konkurrenz zu suchen. :D
Olliver
2020-11-23, 20:13:35
Schon lustig wie sich einige den navi2 schön reden müssen. Als bekannt wurde das die navi2 mit 16gb kommen war alles andere nebensächlich, 16gb brauchte man von da an zwingend!
Jetzt wo die fakten da sind, ist navi2 die ultimative 1080p und 1440p karte! Wer braucht schon 4k und RT?! Kein wort mehr wegen den auch so wichtigen 16gb und rt wird jetzt in der lebenszeit der karten keine relevanz mehr haben. Aber die 16gb waren zuvor die ultimative eigenschaft für eine lange lebensdauer!
Und auch die vergleiche mit turing finde ich süess, die rt leistung war nicht ausreichend für einige herren, und jetzt kommt die aussage turing hatte ja auch nicht mehr rt leistung als navi2 jetzt. Schon sehr süess wie die fahnen gleich nach dem wind drehen.
Für mich ist navi2 einer der grössten flops seit jahren, viel versprochen, viel technik aber ausgerechnet dort wo man die leistung im 2020+ braucht (4k und rt) versagen die chips. Eigentlich eine komplette fehlentwicklung, da es keine vernünftigen grund für die karten gibt. Die 3080 ist ganz klar die bessere karte, und das sogar mit 10gb... was für eine ironie wo ich hier mehrfach davor gewarnt habe nur auf gb und mhz zu schauen.
Schade dass du so unsachlich argumentierst.
Big Navi ist doch kein Flop, weil Nvidia bei RT schneller ist.
Und die 4K Schwäche ist doch nicht mehr als dass sich das Verhältnis bei 4K ein wenig zugunsten von Nvidia dreht.
Die 6900 wird außer in RT klar vermutlich schneller als die 3080 sein und die 3080Ti wird sicherlich nicht weniger kosten als die 6900XT.
Das heißt für 1000€ bekommt man beide nicht.
Also eigentlich alles sehr spannend was die unterschiedlichen Ansätze angeht.
Ist der zweite jetzt ein Flop und muss man Leute verbal vor den Kopf hauen?
Olliver
2020-11-23, 20:32:37
Call of Duty Black Ops Cold War... Nextgen mit Raytracing. :ulol3:
https://youtu.be/w4c4ihAkVJU
Ehrlich gesagt finde ich den Unterschied von HDR 10 auf meinem Monitor erheblich größer.
Auch bei meinen Spielen auf der 3090 haut mich RTX nicht so vom Hocker.
Vielleicht ist das normale Rendering schon zu gut.
Oder ich muss wieder neu gucken lernen.
dildo4u
2020-11-26, 04:28:14
3060 TI im 3Dmark.
https://videocardz.com/newz/nvidia-geforce-rtx-3060-ti-3dmark-fire-strike-and-time-spy-scores-leaked
MasterElwood
2020-11-26, 06:03:09
Ah, lol. Die 6800 XT ist in 4k ziemlich genau so weit vor der 2080 Ti wie in 1440p, aber hier wird ständig was von 4k-Schwäche gelabert.
Gibt wohl eher eine Verständnis-Schwäche bei nicht wenigen Usern...
Hat wohl eher damit zu tun dass sich stärkere Karten weiter absetzen je höher die Auflösung ist. Sind zwei Karten in 1440p und 2160p mit gleichen Abstand auseinander - ist es also nur logisch von einer 4K Schwäche zu sprechen.
Olliver
2020-11-26, 10:34:39
Mann sollte halt übereinkommen in Relation zu welchem Wert man eine Performance bestimmt.
So nimmt halt jeder gerade willkürlich den Bezug, der seine Argumentation zu stützen scheint,
auch wenn eine Diskussion dann sinnlos wird.
Traditionell wird ja eine übertaktete Karte, in Relation zu einem andere nicht übertakteten Modell gesetzt und dann gesagt: siehste, ist genauso gut.
Korvaun
2020-11-27, 09:35:23
Hatten wir das schon? Cryptominer kaufen massig Ampere Karten...
https://www.resetera.com/threads/nvidia-reportedly-sold-175-million-worth-of-ampere-gpus-to-crypto-miners.333824/
Wenn das auch nur annähernd stimmt wissen wir nu warum nix auf den "normalen" Markt kommt...
TheAntitheist
2020-11-27, 18:37:11
Schade dass du so unsachlich argumentierst.
Big Navi ist doch kein Flop, weil Nvidia bei RT schneller ist.
Und die 4K Schwäche ist doch nicht mehr als dass sich das Verhältnis bei 4K ein wenig zugunsten von Nvidia dreht.
Die 6900 wird außer in RT klar vermutlich schneller als die 3080 sein und die 3080Ti wird sicherlich nicht weniger kosten als die 6900XT.
Das heißt für 1000€ bekommt man beide nicht.
Also eigentlich alles sehr spannend was die unterschiedlichen Ansätze angeht.
Ist der zweite jetzt ein Flop und muss man Leute verbal vor den Kopf hauen?
Ich denke es war so gemeint:
Nvidia opfert mehr fläche für RT, Tensor Kerne und Speicherinterface, dazu noch weniger takt wegen der schlechteren Fertigung und dennoch sind sie schneller. AMD hat aufgeholt aber da fehlt am Ende noch einiges. RT und DLSS Vorteil wird nur wachsen und das Fertigungsthema wird sich auch irgendwann klären. Dennoch hat AMD für das Geld was sie haben einen guten Job gemacht, das steht ausser Frage.
Thunder99
2020-11-27, 21:21:55
Verbrauchen mehr Strom, sind nicht immer schneller und haben weniger VRAM. Abseits von RT ist eher Nvidia am Zug! :freak:
Freuen wir uns, das Nvidia regieren muss um Konkurrenzfähig zu bleiben. Weit Vorne sind sie diesmal nicht mehr sondern insgesamt auf Augenhöhe mit Vor und Nachteilen
TheAntitheist
2020-11-27, 21:58:54
Verbrauchen mehr Strom, sind nicht immer schneller und haben weniger VRAM. Abseits von RT ist eher Nvidia am Zug! :freak:
Freuen wir uns, das Nvidia regieren muss um Konkurrenzfähig zu bleiben. Weit Vorne sind sie diesmal nicht mehr sondern insgesamt auf Augenhöhe mit Vor und Nachteilen
3090 hat mehr VRAM, der Mehrverbrauch ist einerseits so minimal, zweitens eher Samsung schuld und da sie auch ein dickeres Speicherinterface nutzen auch klar. Nvidia hat Cuda, RT Voice, NVENC, DLSS... also du erzählst wieder ganz viel Müll.
die 3070 ist auf Augenhöhe mit einer 6800XT mit Raytracing in 4k... DAS ist wohl krass genug um die Power der Ampere Generation zu zeigen. Dazu kommt ja noch das bald DLSS nicht mehr am ende der Pipeline kommt (10% mehr Leistung) und SAM kommt ja och noch... eigentlich ist nur der geringe VRAM der einzige Nachteil der 3080.
SKYNET
2020-11-27, 22:03:26
eigentlich ist nur der geringe VRAM der einzige Nachteil der 3080.
und genau das wird ihr in zukunft mit RT das genick brechen... RT will speicher... und das nicht zu knapp
Fragman
2020-11-27, 22:22:12
Über den Speicher können wir alle in ein paar Jahren nochmal diskutieren, wenn es denn genug Karten gab, damit sich die mit entsprechend "Mehr" Speicher auch verbreiten konnten um ihre Vorteile auszuspielen.
Aktuell und noch auf lange Zeit hin ist diese Diskussion rein akademisch.
Wer heute weniger als 24GB kauft, ist froh überhaupt was bekommen zu haben. :freak: :biggrin:
Langlay
2020-11-27, 22:23:59
die 3070 ist auf Augenhöhe mit einer 6800XT mit Raytracing in 4k... DAS ist wohl krass genug um die Power der Ampere Generation zu zeigen.
Das Nvidia in RT stärker ist beschreitet ja auch niemand. Das Problem ist nur das RT auch auf Nvidiakarten zu langsam ist. Und unterhalb von 4K sind die neuen AMD Karten schon sehr stark. Und die wenigsten Leute werden auf 4K spielen. Die breite Masse ist halt in 1080p o. 1440p unterwegs. Und ohne RT kommt die 3070 nichtmal in die nähe von der 6800XT.
Und ein DLSS Gegenstück kommt ja auch noch von AMD.
Troyan
2020-11-27, 22:32:32
Wenn die wenigsten in 4K spielen, dann ist Raytracing mit einer 3080 komplett nutzbar. Also kugeln sich die AMD Karten selbst aus dem Rennen. Hier mal aus Call of Duty Cold War:
https://www.purepc.pl/call-of-duty-black-ops-cold-war-test-wydajnosci-ray-tracing-i-dlss?page=0,12
Selbst mit Raytracing@Ultra gegen Raytracing@On(Medium) ist die 3080 17% schneller.
Langlay
2020-11-27, 22:36:13
Und 30% langsamer als ohne RTX.
In CoD wenn die die Wahl hab zwischen 120 FPS ohne RTX und 80 FPS mit RTX. Da brauch ich keine 3 Sekunden überlegen und RTX ist Off. Der Performancemalus ist einfach zu hoch für das Gebotene.
Troyan
2020-11-27, 22:38:05
Das ist kein Argument. In 4K ist Raytracing in vielen Spielen zu langsam bzw. muss deutlich reduziert werden. In 1080p/1440p ist es komplett nutzbar. Dann nimmt man eben DLSS dazu und fertig.
Langlay
2020-11-27, 22:39:33
Das ist kein Argument. In 4K ist Raytracing in vielen Spielen zu langsam bzw. muss deutlich reduziert werden. In 1080p/1440p ist es komplett nutzbar. Dann nimmt man eben DLSS dazu und fertig.
Das ist deine Meinung. Meine Meinung ist dort anders. RTX ist sicherlich toll in 5 Jahren. Jetzt isset ne Spielerei, die zuviel Performance kostet.
BlacKi
2020-11-28, 03:08:50
Das ist deine Meinung. Meine Meinung ist dort anders. RTX ist sicherlich toll in 5 Jahren. Jetzt isset ne Spielerei, die zuviel Performance kostet.
das wird 5 jahren noch viel rechenaufwand sein der viel leistung kostet. du wirst nur keine option mehr haben, denn die entwickler werden das in ihre spiele mit einbauen und die performance so abstimmen das es auch mit RT passt.
da wir nun allerdings wohl bei 4k sehr lange bleiben werden, wohl ähnlich wie 1080p, wird eben nichtmehr die ganze performance in die auflösung gehen, was bedeutet das die performance wieder in die optik gesteckt wird, wie zb. RT.
Langlay
2020-11-28, 03:24:35
Natürlich wird Raytracing auch in 5 Jahren noch verhältnismässig viel Leistung kosten, aber es wird halt schnell genug sein für hohe Auflösungen und high FPS. Das kann es aktuell halt noch nicht. Mit Biegen und Brechen (DLSS) geht eins von beidem.
dildo4u
2020-11-28, 04:51:30
Es gibt nicht das RT Call of Duty läuft flott auf der PS5, also die Hälfte einer 6800 XT.
https://youtu.be/fNWrNV-F-TA
Außerdem muss man abwarten was AMD mit Super Resolution liefert wenn sie 1440p hochrechnen können gibt es mehr Möglichkeiten.
robbitop
2020-11-28, 09:21:33
IMO wird RT oft falsch verstanden. Als Feature was X Leistung kostet und irgendwann billiger wird. Dem ist nicht so. Es wird so wie der Rest der Aspekte der 3D Grafik im Aufwand mitwachsen. RT ist der nächste Schritt der 3D Grafikevolution. Wie vor 19 Jahren Pixelshader. Wenn man sich heute bei modernen Renderpipelines anschaut was passiert, dann ist mittlerweile der Großteil der Dauer bestehend aus arithmetischer Berechnung für Beleuchtung, Reflektionen, Schatten, PP etc. Alles shading. Der reine Geometrie und Texturteil ist dagegen winzig.
Das wird mit RT nicht anders sein. Es wird ja aktuell nur auf Sparflamme genutzt. Reduzierte Reflektionsauflösung, rays pro Pixel, nur bestimmte Effekte etc pp. Vieles wird noch gar nicht davon berührt. Das wird sich IMO mittelfristig ändern. Schritt für Schritt. Es wird schnell der Punkt kommen, wo es zum inhärenten Bestandteil moderner 3D Grafik wird, die nicht mehr abschaltbar sein wird. Die „Kosten“ werden dann nur nicht mehr separat zu betrachten sein. Und kein Mensch wird das noch wissen wollen und niemand wird es missen wollen. So wie nur einige Jahre später mit den Pixelshadern. Es braucht nur ein wenig Weitblick.
Alle IHVs werden entsprechend die Hardware optimieren, um das möglichst gut umsetzen zu können.
NV hat jetzt in der Pionierzeit einen Vorsprung. Es ist aber absehbar, dass das nach zunehmender Verbreitung von RT Intel und AMD (und Apple und PowerVR und Qualcomm usw) ihre Hardware anpassen und man mittelfristig in der Hinsicht wieder Parität herrscht.
Bis dahin sind Navi und Ampere aber längst altes Eisen. :)
Auch das war ähnlich bei den ersten Generationen von Pixelshader Hardware. :)
dargo
2020-11-28, 09:28:55
Es wird schnell der Punkt kommen, wo es zum inhärenten Bestandteil moderner 3D Grafik wird, die nicht mehr abschaltbar sein wird. Die „Kosten“ werden dann nur nicht mehr separat zu betrachten sein.
fixed ;)
Ein PC ist keine Konsole wo du "schnell" (selbst hier schleppt man die alten Sachen für Zeitraum X mit wegen Abwärtskompatibilität) mal umschwenken kannst. Da reicht nur der Blick auf den Wechsel von high level API auf low level API. :ulol: Es wird übrigens mindestens ein Jahr dauern bis wir ein besseres Bild über die tatsächliche RT-Performance von RDNA2 bekommen. Spieleentwicklung braucht eben seine Zeit. Die RT-Implementierungen die bisher in die Spiele kamen hatten praktisch alle nur Nvidia Hardware im Fokus. Und die Massenware an RT-Hardware die den Markt fluten sollte ist noch gar nicht mal released worden (Navi 22, RTX 3060 etc.). :freak: Die aktuellen Lieferschwierigkeiten beider IHVs bzw. der Fertiger TSMC/Samsung erschweren das ganze nochmal zusätzlich.
Dampf
2020-11-28, 09:58:04
fixed ;)
Ein PC ist keine Konsole wo du "schnell" (selbst hier schleppt man die alten Sachen für Zeitraum X mit wegen Abwärtskompatibilität) mal umschwenken kannst. Da reicht nur der Blick auf den Wechsel von high level API auf low level API. :ulol: Es wird übrigens mindestens ein Jahr dauern bis wir ein besseres Bild über die tatsächliche RT-Performance von RDNA2 bekommen. Spieleentwicklung braucht eben seine Zeit. Die RT-Implementierungen die bisher in die Spiele kamen hatten praktisch alle nur Nvidia Hardware im Fokus. Und die Massenware an RT-Hardware die den Markt fluten sollte ist noch gar nicht mal released worden (Navi 22, RTX 3060 etc.). :freak: Die aktuellen Lieferschwierigkeiten beider IHVs bzw. der Fertiger TSMC/Samsung erschweren das ganze nochmal zusätzlich.
Der Wechsel von High auf Low API war mit einem hohen Entwicklungsaufwand verbunden und damit wurden die Entwicklungskosten deutlich erhöht. Bei RT ist es gerade umgekehrt, es spart erheblich Zeit und Entwicklungskosten. Das kann man so also nicht vergleichen! Für Entwickler ist RT also rein aus Prinzip deutlich attraktiver!
RT wird sehr schnell Standard werden. Ich rechne mit 2, höchstens 3 Jahren also zum Ende der Cross Gen.
Dein Argument mit der Massenware an RT-Hardware ist imo nicht relevant, denn DXR kann man auch per Software auf wirklich jeder GPU emulieren. Ist zwar langsam, aber es funktioniert, man schließt also keinen aus. Zudem hat man zum Ende der Cross Gen eine wahre Flut an RT-Hardware, nämlich RDNA2, RDNA3, Hopper, Ampere, Turing, die Next Gen Konsolen... Sicher gehen dann ein paar Karten verloren die DXR nicht packen, wie zum Beispiel sowas wie eine GTX 780, 970, RX 460 oder sonst was, aber das holen dann die gesparten Entwicklungskosten von Raytracing wieder locker rein.
dargo
2020-11-28, 10:08:57
Der Wechsel von High auf Low API war mit einem hohen Entwicklungsaufwand verbunden und damit wurden die Entwicklungskosten deutlich erhöht. Bei RT ist es gerade umgekehrt, es spart erheblich Zeit und Entwicklungskosten. Das kann man so also nicht vergleichen! Für Entwickler ist RT also rein aus Prinzip deutlich attraktiver!
Ich habe es dir schon mal gesagt... es ist bullshit solange die Abwärtskompatibilität beibehalten werden muss! Aktuell ist es nichts weiter als Mehraufwand und das wird erstmal in der langen Übergangszeit so bleiben.
Dein Argument mit der Massenware an RT-Hardware ist imo nicht relevant, denn DXR kann man auch per Software auf wirklich jeder GPU emulieren. Ist zwar langsam, aber es funktioniert, man schließt also keinen aus.
Genau... die Gamer werden diese Spiele dann bestimmt kaufen wenn sie sehen, dass sie eine Diashow bekommen. :facepalm:
Die Spiele bleiben diese gesamte Konsolengeneration noch im ganz normalen Rasterizermode mit RT als Addon, alles andere ist total illusorisch. RT ist also immer Mehraufwand. Für RT als Ersatz für ganze Featuregruppen ist RDNA2 nicht gebaut.
dildo4u
2020-11-28, 10:13:31
Es gibt jetzt schon eine RT Konsole für 300€, es gibt kein Grund z.b Schatten nicht mit RT darzustellen sobald man die alten Konsolen abschneidet.
Es gibt jetzt schon eine RT Konsole für 300€, es gibt kein Grund z.b Schatten nicht mit RT darzustellen sobald man die alten Konsolen abschneidet.
Klar, Performance. So ein Unfug. Man wird nicht die gesamte Verschattung mit RT nutzen, sondern nur punktuell, denn die Konsole, insbesondere die S, ist schlichweg zu langsam. Es bleibt den Entwicklern nichts anderes übrig, als das Spiel "klassisch" zu designen und können sich nachher überlegen, wie viel Performance man durch RT-Features opfern kann. MMn wird das wie immer dazu führen, dass, sobald diese Konsolengeneration an ihre Leistungsgrenze stößt, RT kaum noch eingesetzt wird, weil der Performanceverlust schlichtweg zu groß ist. Ich sag ja, RT in diese Generation als großen Durchbruch zu feiern und jetzt zu behaupten, dass jetzt alles einfacher wird ist schlichtweg Unfug. Und was den PC-Markt angeht: Wir haben gesehen, wie lange das bei den LL-APIs gedauert hat, bis sich hier was Neues durchsetzt - und das ging noch unglaublich schnell! PS6 und XBox Next sind die Adressaten für Spiele mit starker RT-Nutzung, bei denen man viele alte Zöpfe abschneiden wird, vorher brauchst damit gar nicht anfangen.
dildo4u
2020-11-28, 10:20:36
Die PS5 kann RT Schatten in 4k60fps in Call of Duty kein Plan wie das dann nicht auf der Serie S in 1080p gehen soll.
https://youtu.be/Yj0yqqu3t_E?t=415
Lowkey
2020-11-28, 10:23:04
In 2-3 Monaten mit 6500XT und 3050TI haben wir das gesamte Portfolie mit RT und die Konsolen mit RT. Dann ist RT eigentlich Bestandteil eines jeden Ultra Quality Settings. Dann könnten die Nvidia-freundlichen Testseiten nur noch mit RT testen.
gnomi
2020-11-28, 10:23:48
Stimmt beides.
RT hat sich bereits durchgesetzt. Mit den neuen Konsolen und allen aktuellen GPU Chips ist das beschlossen.
Wie weit die Effekte gehen, ist jedoch ein anderes Thema.
Hier wird es noch lange Fallbacks geben. Oder kein RT. Oder gar RT mit DX 11 bisschen exotischer.
Das wird so lange passieren, wie noch viel Geld mit der letzten Generation gemacht wird und die Spiele hier auch erscheinen.
Wahrscheinlich eine halbe Generation. Eine Series S versucht sogar schon schneller, One/One S Besitzer zum Wechsel zu verleiten. Die Refresh Konsolen werden das nochmals beschleunigen. Wenn die Installationsbasis zu klein wird, kommen AAA Titel dann nicht mehr.
Dampf
2020-11-28, 10:27:56
PS6 und XBox Next sind die Adressaten für Spiele mit starker RT-Nutzung, bei denen man viele alte Zöpfe abschneiden wird, vorher brauchst damit gar nicht anfangen.
Ich habe schon mit ein paar Entwicklern gesprochen, die dir vehement widersprechen würden.
Aber egal, man wird es ja dann sehen :wink:
Bedenke, es geht nicht um Path Tracing sondern darum, wie Dildo schon sagte, spezifische Effekte wie Schatten durch RT zu ersetzen.
TheAntitheist
2020-11-28, 10:50:14
Das Nvidia in RT stärker ist beschreitet ja auch niemand. Das Problem ist nur das RT auch auf Nvidiakarten zu langsam ist. Und unterhalb von 4K sind die neuen AMD Karten schon sehr stark. Und die wenigsten Leute werden auf 4K spielen. Die breite Masse ist halt in 1080p o. 1440p unterwegs. Und ohne RT kommt die 3070 nichtmal in die nähe von der 6800XT.
Und ein DLSS Gegenstück kommt ja auch noch von AMD.
RTX und zu langsam kann man einfach nicht so generalisieren, es kommt halt drauf an wie viele rays benutzt werden und wofür... es ist genug power für GI und licht und das bringt extrem viel immersion und grafische Qualität. Reflexionen sind eher eine performanceverschwendung. das DLSS von AMD läuft aber über die Shader, heißt es wird die Leistung der Karten reduzieren. Bei Nvidia kommt aber noch ein ordentlicher Boost dazu in zukunft.
pixeljetstream
2020-11-28, 11:31:13
Es ist imo überfällig diese Diskussion in einen eigenen thread auszulagern. Die Spekulation wie sich die Grafik Technologie weiterentwickelt kommt immer wieder auf in allen Threads.
Nüchtern betrachtet kann man sagen je mehr dynamische globale Beleuchtungseffekte, desto aufwändiger weil mehr shading information sowie die Interaktion dazwischen berechnet werden muss.
Das ist der grundsätzliche Haupttreiber der Kosten. Je mehr man information jenseits des Bildraums braucht, desto mehr muss extra berechnet werden.
Wie dies im Detail geschieht und wie man darauf zugreift was da am effizientesten ist ändert sich über die Jahre, aber es sollte logisch sein dass Spezial Hardware wichtiger Teil der Lösung ist.
Und es sollte auch klar sein, dass unabhängig von RT Hardware diese Evolution, mehr globale Beleuchtung und damit deutlich mehr Berechnungen so oder so im Gange wäre.
w0mbat
2020-11-28, 11:35:50
RTX und zu langsam [...]
Was ist "RTX"?
Freestaler
2020-11-28, 11:41:13
Ihr glaubt noch immer das RT nur ne frage von ein paar weniger Generation ist bis es breit eingesetzt werden kann? Euch ist klar das dazu rt nicht 2x, nicht 5x sondern 100 fach mehr braucht.
dildo4u
2020-11-28, 11:42:21
Ihr glaubt noch immer das RT nur ne frage von ein paar weniger Generation ist bis es breit eingesetzt werden kann? Euch ist klar das dazu rt nicht 2x, nicht 5x sondern 100 fach mehr braucht.
Hybrid Ansätze laufen Heute auf den Konsolen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12515963&postcount=14177
Dampf
2020-11-28, 11:42:54
Ihr glaubt noch immer das RT nur ne frage von ein paar weniger Generation ist bis es breit eingesetzt werden kann? Euch ist klar das dazu rt nicht 2x, nicht 5x sondern 100 fach mehr braucht.
Völliger Unsinn.
Wie schon gesagt wurde, es gibt nicht "das" RT.
Troyan
2020-11-28, 11:43:17
Ihr glaubt noch immer das RT nur ne frage von ein paar weniger Generation ist bis es breit eingesetzt werden kann? Euch ist klar das dazu rt nicht 2x, nicht 5x sondern 100 fach mehr braucht.
Hä? BF5 ist zwei Jahre alt. Und lüppt mit einer 3070 in 1440p.
TheAntitheist
2020-11-28, 11:47:00
Was ist "RTX"?
offensichtlich vertippt... meinte natürlich nur RT, aber danke für deinen Input :rolleyes:
Freestaler
2020-11-28, 12:30:49
RT ist nicht 2 Jahre alt. Raytracing hatten wir schon im letzten Jahrtausend. Nichtmal in HW ist erst seit 2 Jahren. Hier wird mit Pixelshader vergliche und nicht den hybridenansatz ;-). Bis RT wie PS durchschlägt wird es xfach an Generationen gehen.
pixeljetstream
2020-11-28, 12:37:49
Ihr glaubt noch immer das RT nur ne frage von ein paar weniger Generation ist bis es breit eingesetzt werden kann? Euch ist klar das dazu rt nicht 2x, nicht 5x sondern 100 fach mehr braucht.
Wie konnte Pixar dann in renderman von reyes (ein Rasterisierungsverfahren) zu raytracing umsteigen ohne dass CPUs magisch um Faktor 100 schneller wurden oder ihre Kosten um derartige Faktoren explodierten?
Worauf beruht deine These.
Wieso klammerst du den Hybridansatz aus? Und de facto haben alle großen Hersteller nächstes Jahr Hardware mit RT Beschleunigung. Sicher ist es nicht das Ende der Evolution, aber das ist es ja nirgends.
IMO müsste zum nächsten Konsolen cycle das Thema RT oder allgemeiner Traversal Beschleunigung durch sein. 7 Jahre sind 3 Generationen in etwa.
2001 erste Hardware mit pixelshadern, 2005 und 2006 die Xbox 360 und PS3 mit ordentlicher hw dafür. Wenn man Nintendo dazu zählt hatten die erst mit der Wii U 2012 Pixel shader bekommen ;)
GF3 zu GF7 in PS3 sind auch ein paar Generationen. Bzw. R200 zu R500 bei AMD.
Ist doch super spannend, die letzten Jahre die Verbesserung der Materialien, mit PBR sieht das meiste schon sehr plausibel aus, und nun die nächsten Jahre richtig globale Beleuchtung. Und hoffentlich auch noch mehr Dynamik bei der Umgebung/Interaktion.
PS es wäre echt gut wenn ein Moderator konsequent das alles in einen dedizierten thread schiebt.
WedgeAntilles
2020-11-28, 14:24:59
Ihr glaubt noch immer das RT nur ne frage von ein paar weniger Generation ist bis es breit eingesetzt werden kann? Euch ist klar das dazu rt nicht 2x, nicht 5x sondern 100 fach mehr braucht.
Schwachsinn.
Schau dir mal z.B. das Thema Schatten + AA an.
Da hieß es am Anfang auch: Braucht viel zu viel Leistung.
Dann erhöhte sich die Rohleistung deutlich und man konnte sich den Verbrauch für Schatten und Co leisten.
Braucht Schatten heute weniger Rechenleistung als früher? Nein, natürlich nicht.
Aber wenn du z.B. 500 Frames ohne Schatten hast und 250 mit Schatten nimmst du natürlich die 250 Frames mit Schatten.
Für RT gilt das gleiche - RT wird immer prozentual Leistung kosten.
Aber je mehr Leistung da ist, desto irrelevanter ist es, wenn davon ein ordentlicher Prozentsatz für Schönheit draufheit.
Klar, wenn ich ohne RT 80 Frames habe und mit RT 40 Frames - dann ist der TradeOff evt. nicht ideal.
Aber wenn ich ohne RT 160 Frames habe und mit RT 80 Frames - warum genau soll ich auf RT verzichten?
Wie gesagt, schau mal in der Vergangenheit wie sich optische Features entwickelt haben.
BlacKi
2020-11-28, 14:31:48
Ich habe es dir schon mal gesagt... es ist bullshit solange die Abwärtskompatibilität beibehalten werden muss! Aktuell ist es nichts weiter als Mehraufwand und das wird erstmal in der langen Übergangszeit so bleiben.
ja, aber der grund für mehraufwand ist die abwärtskompatibilität, nicht RT. manche spieleentwickler werden den alten scheiß früher abstoßen als andere, weil sie den mehrwaufwand nicht mehr tragen wollen. das wird so in 4-5 jahren sein, ab da sind dann einfach neuere karten pflicht, so wie damals mit dem wechsel von dx9 auf dx10.
Dampf
2020-11-28, 14:37:33
ja, aber der grund für mehraufwand ist die abwärtskompatibilität, nicht RT. manche spieleentwickler werden den alten scheiß früher abstoßen als andere, weil sie den mehrwaufwand nicht mehr tragen wollen. das wird so in 4-5 jahren sein, ab da sind dann einfach neuere karten pflicht, so wie damals mit dem wechsel von dx9 auf dx10.
4A Games hat schon angekündigt, dass das Next Gen Metro wohl voll auf den Hybrid-RT Ansatz setzen wird. Ich sehe viele Spieleentwickler werden dem Ansatz folgen.
dargo
2020-11-28, 17:44:40
Hoffentlich investieren die mehr ins Gameplay. Metro Exodus war stinklangweilig, bin fast eingepennt. Für 1€ hatte ich es angespielt, selten sowas langweiliges erlebt.
Hoffentlich investieren die mehr ins Gameplay. Metro Exodus war stinklangweilig, bin fast eingepennt. Für 1€ hatte ich es angespielt, selten sowas langweiliges erlebt.
Exodus bietet das typische Metro-Gameplay und das ist auch gut so. Wenn du die Vorgänger kennst, hättest du wissen müssen was dich erwartet.
=Floi=
2020-11-29, 03:06:11
warum genau soll ich auf RT verzichten?
NV übertreibt es einfach wieder. Wo die hand anlegen, kann man es gleich vergessen.
Bei physx hatte man auch ewig einen super hohen delay und viel zu wenige fps, dafür übertriebene physik.
Bei den haaren ist es das selbe.
Bei RT spiegelt dann auch alles übertrieben...
Ich habe auch jetzt ohne RT schon super gute spiegelungen. (GTA5) Ich will keinen ersatz, der optimierten spiegelungen, sondern eine erweiterung!
Mit hirn angewendet und anfangs noch mit geringem impact und delay, wenn es MP ist.
Geht auch nicht von einer 3090er aus, sondern von den vielen 2060ern und 2070ern.
Fragman
2020-11-29, 11:00:19
sondern eine erweiterung!
Das Thema wurde doch jetzt in diversen Threads immer wieder erklärt.
Solltest es da keine neueren Erkenntnisse geben oder Durchbrüche in Form von "magical algorithms", wird sich auch nichts an dem Aufwand ändern, den man für sowas und andere Dinge betreiben müsste, Software und Hardware betreffend.
Das Thema ist einfach durch (hat man auch sehr gut an der UE5 Demo gesehen, die nichts neues bietet).
dargo
2020-11-29, 11:03:48
:confused:
Das Thema RT fängt doch 2021+ erst mal richtig an dank Konsolen und RDNA2.
w0mbat
2020-11-29, 11:35:47
Ich denke, mit den RTX 5k und den RX 8k Karten wird RT wirklich mainstream nutzbar. Also noch zwei Generationen.
Dampf
2020-11-29, 11:38:44
Durch ist da wirklich nix, sieht man an dem neuen Denoiser von Nvidia der jetzt mit sogar schon mit 0.5 Strahlen pro Pixel gute Ergebnisse erzielt. Und RTXGI beispielsweise arbeitet mit einem sehr cleveren Hybrid-Approach, der die Performance schont. Wenn mal das mal mit der UE4 RT GI vergleicht, liegen da Welten dazwischen sowohl von der Grafikqualität als auch von der Performance.
Und vielleicht kommt ja irgendwann mein heißersehnter AI-Denoiser, der dann sogar aus sagen wir 0.2rpp gute Ergebnisse zaubert und die Shader-Core Performance schont dank der Ausführung auf den Tensor Cores.
Da wird sich definitiv noch einiges tun, vor allem aber auch dank den Konsolen und RDNA2 wie Dargo schon geschrieben hat.
MiamiNice
2020-11-29, 11:52:41
Exodus bietet das typische Metro-Gameplay und das ist auch gut so. Wenn du die Vorgänger kennst, hättest du wissen müssen was dich erwartet.
Da ich es gerade noch mal spiele: Exodus unterscheidet sich schon massiv von den Teilen davor. Alleine schon das die Welt recht „open“ ist, ist anders. Ganz zu schweigen von dem Story technischen „Gutmensch“ Geblubber ingame welches jederzeit präsent ist.
ZeXes
2020-11-29, 11:53:06
RTX ist halt noch eine neue Technik im PC Consumer Hardware Bereich. Es dauert halt etwas neues und dann noch so großes richtig zu implementieren .
Gehe auch von aus das mit den 2024er Grafikkarten spätestens das richtig zum laufen gebracht werden wird. Zumal die Entwicklungen bei DLSS und co. auch nicht still steht.
Denke das wird schon alles sehr gut werden.
Olliver
2020-11-30, 10:30:31
NV übertreibt es einfach wieder. Wo die hand anlegen, kann man es gleich vergessen.
Bei physx hatte man auch ewig einen super hohen delay und viel zu wenige fps, dafür übertriebene physik.
Bei den haaren ist es das selbe.
Bei RT spiegelt dann auch alles übertrieben...
Ich habe auch jetzt ohne RT schon super gute spiegelungen. (GTA5) Ich will keinen ersatz, der optimierten spiegelungen, sondern eine erweiterung!
Mit hirn angewendet und anfangs noch mit geringem impact und delay, wenn es MP ist.
Geht auch nicht von einer 3090er aus, sondern von den vielen 2060ern und 2070ern.
Ist es tatsächlich nvidia die übertreiben, oder sind es die game devs?
RT muss ja nicht aussehen wie bei Control, wo alles spiegelt und wenn du RT ausschaltest, sieht es billig aus, weil sie sich um normales shading zu wenig bemüht haben.
basix
2020-11-30, 10:43:35
Da wird sich definitiv noch einiges tun, vor allem aber auch dank den Konsolen und RDNA2 wie Dargo schon geschrieben hat.
Aufgrund RDNA2, Turing, Ampere und Xe-HPG werden wir in Zukunft durchgängig über alle Performance Segmente Raytracing in HW sehen, auf PC wie auch Konsolen. Allenfalls sogar ein wenig auf Mobile aufgrund Samsungs RDNA-Deal mit AMD, mal sehen.
Durch diese sehr breit werdende HW-Unterstützung lohnt sich also der SW-Entwicklungsaufwand und entsprechend gehen dort mehr RnD-Mittel rein. Eine starke Verbesserung auf diesem Gebiet ist also zu erwarten. Und da Real Time Raytracing noch relativ neu ist (Betonung hier auf Real Time) wird es hier also relativ schnell relativ grosse Verbesserungen geben. Das kombiniert mit Techniken wie DLSS (welche auch noch relativ neu sind für Real Time) mit ebenfalls noch steiler Lernkurve sowie stark zunehmender Verbreitung, ergibt das eine schöne und relativ steile "Trajectory" für die nächsten paar Jahre.
Raytracing, variable Auflösung und DLSS sind zusammengenommen wirklich ein schönes Paket. Damit kann man deutlich besser und einfacher in Richtung maximale Bildqualität bei gegebener Performance optimieren. Und da wie oben beschrieben ein Grossteil noch in den Kinderschuhen steckt, erwarte ich grössere Steigerungen als wir es uns in den letzten paar Jahren gewohnt waren. Um es in den Worten von Two Minutes Papers zu sagen: "What a time to be alive!" ;)
TheAntitheist
2020-11-30, 20:07:50
Ist es tatsächlich nvidia die übertreiben, oder sind es die game devs?
RT muss ja nicht aussehen wie bei Control, wo alles spiegelt und wenn du RT ausschaltest, sieht es billig aus, weil sie sich um normales shading zu wenig bemüht haben.
Die Devs sollten einfach nur soviel rays nutzen wie es Sinn macht. Für die Beleuchtung ist es halt deutlich Sinnvoller meiner Meinung nach. Der optische Effekt ist größer als bei Reflexionen und es kostet, so wie es aussieht sogar weniger Leistung bei den jetzigen Implementationen.
Wie sieht es nun eigentlich genau aus, zwecks "Nachfolgern". Gerade gelesen, dass ne 3080Ti ne Ente war und nu wieder ne 3080 (non-Ti) mit 20GB kommen soll ....
Dieses ständige Hin- und Her erinnert doch sehr an Zeiten von ATIs R200 (Radeon 8500). Es ist wirklich nur peinlich - wäre echt mal cool, wenn Leo sich mal dem NV-Crap annehmen würde :)
Hm - schon scheiße, wenn man so gar nicht reagieren kann: Preis der 3090 viel zu hoch (und verliert selbst OCed :confused: viele Benchmarks gegen ne 6800XT OCed). Sprich Hardwareschrott angebunden an 24GB ;D
Da ich es gerade noch mal spiele: Exodus unterscheidet sich schon massiv von den Teilen davor. Alleine schon das die Welt recht „open“ ist, ist anders.
Bitte nicht Leveldesign mit Gameplay verwechseln.
Wie sieht es nun eigentlich genau aus, zwecks "Nachfolgern". Gerade gelesen, dass ne 3080Ti ne Ente war und nu wieder ne 3080 (non-Ti) mit 20GB kommen soll ....
Dieses ständige Hin- und Her erinnert doch sehr an Zeiten von ATIs R200 (Radeon 8500). Es ist wirklich nur peinlich - wäre echt mal cool, wenn Leo sich mal dem NV-Crap annehmen würde :)
Hm - schon scheiße, wenn man so gar nicht reagieren kann: Preis der 3090 viel zu hoch (und verliert selbst OCed :confused: viele Benchmarks gegen ne 6800XT OCed). Sprich Hardwareschrott angebunden an 24GB ;D
Der "Hardware-Schrott" dreht leider Kreise um die 6800 XT bei reinen RT-Workloads und ist speicherseitig zweifellos unkaputtbar.
MfG
Raff
SKYNET
2020-12-01, 00:10:23
speicherseitig zweifellos unkaputtbar.
MfG
Raff
FFXV in 8K maxout high res pack? :uponder:
pixeljetstream
2020-12-01, 00:12:13
... und ist speicherseitig zweifellos unkaputtbar.
MfG
Raff
Na die RTX A6000 hat noch ein klein wenig mehr Speicher ;)
FFXV in 8K maxout high res pack? :uponder:
Unkaputtbar (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/RTX-3090-Vergleich-8K-Benchmarks-1358438/). Man kriegt in nutzbaren Auflösungen nicht mal 20 GiB voll. Übrigens läuft DLSS sogar in 6K mittels DSR - das sieht recht geil aus, denn das spieleigene TAA ist eher meh. In 8K geht DLSS dann kaputt; damit hat das Neural Network wohl nicht gerechnet. :ulol:
MfG
Raff
Thunder99
2020-12-01, 10:39:30
Made my day ;D @Raff
Es bleibt echt spannend was als Konter kommt zu Navi 21. 3070Ti und 3080Ti? Wäre mehr als logisch aber ob machbar? Je mehr wir um dunklen gehalten werden, desto eher wird ne 3070 und 3080 gekauft, wenn überhaupt verfügbar :freak:
Vor Ostern erwarte ich Klarheit.
Wird alles auf GA103 angepasst sein, was da kommt. Von daher glaub ich auch nicht mehr an eine 3080Ti. Anscheinend ist der 102er mit seiner problematisch für die Kartenhersteller gewölbten Oberfläche und Produktions/Packaging-Problemen ein eher kleiner Markt vorbehalten in Zukunft. Das wird sich auf die 3090 und Profizeug (da sicherlich auch eine stärker gesalvagte Variante) vorbehalten mMn.
Dann gibts vom 103er dann auch eine 20GB-Variante, für die die mehr Speicher wollen für ein paar € mehr und gut. Der 103er ist NVs 102er-Ersatz mit gutem Yield und unproblematischem Package.
NV scheint auch längerfristig an den geringen Speichermengen festhalten zu wollen, also werden wir als Großteil des Marktes auch in 21 hinein 8 und 10GB-Varianten in großen Stückzahlen sehen.
Packaging-Probleme? Habe ich etwas verpasst?
MfG
Raff
Dural
2020-12-01, 12:39:17
Könnt ihr mal mit dem Blödsinn aufhören?
Die Samsung Chips sind gar nicht so schlecht wie hier einige tuen, und auch die Ausbeute dürfte sogar ganz nett sein.
GA103 kommt nur, wenn er überhaupt kommt, weil der GA102 auf der 3080 stark beschnitten ist. Es macht keinen sinn einen grossen Chip dafür zu nehmen. Spricht übrigens auch wieder dafür das der Prozess ganz ok ist.
Das einzige was mir bei Ampere nach wie vor stört ist der GDDR6X Speicher.
Packaging-Probleme? Habe ich etwas verpasst?
MfG
Raff
https://www.igorslab.de/wp-content/uploads/2020/12/Haarlineal.jpg
Da hat Igor schon einiges zu geschrieben. Die 102er betrifft das wohl recht stark.
Dural
Da stimme ich zu, ich denke auch, dass Samsung ein sehr guter Deal war für NV und es da auch weder Probleme mit dem Yield noch mit der Performance hat. Auch die Packdichte ist ja sehr gut. Hinzu kommt, dass man bei 8LPP weniger in Auslastungsprobleme kommen wird und über 2021 problemlos massig Chips liefern kann. Daher verbanne ich dieses "NV geht nach TSMC wegen 7nm"-Gefasel mal ins Land der Märchen und Träume.
Aber der GA103 kommt aus Kosten- und Yield-Gründen, nichts anderes. Der wird dem Einsatz des GA102 stark reduzieren, so um 3/4. Was stört dich am Speicher? Mich stört daran eigentlich nur, dass er noch nicht als 16Gb-Variante lieferbar ist, ansonsten ist doch alles gut?!
Rampage 2
2020-12-01, 12:48:52
Unkaputtbar (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/RTX-3090-Vergleich-8K-Benchmarks-1358438/). Man kriegt in nutzbaren Auflösungen nicht mal 20 GiB voll.
Welches Spiel ist denn aktuell/bis jetzt der schlimmste Speicherfresser - etwa das Beispiel, das Skynet genannt hat? Reichen 16GB Grafikspeicher für 1440p @ 2x2 DSR?
R2
Hakim
2020-12-01, 14:30:39
Wird jetzt gleich die 3060ti vorgestellt oder erst morgen?
dildo4u
2020-12-01, 14:31:54
Morgen.
https://videocardz.com/newz/msi-geforce-rtx-3060-ti-gaming-trio-and-ventus-series-pictured-and-detailed
Hakim
2020-12-01, 14:32:57
In Kommentaren bei igor hört sich das für die fe für heute an
dildo4u
2020-12-01, 14:34:27
Könnte sein Custom ein Tag nach FE wie bei der 3070.
CB hat nur ein Termin für Morgen.
https://www.computerbase.de/kalender/
Hakim
2020-12-01, 14:39:40
ka warum igor meint heute, ich hatte auch den 2. Dezember im Kopf
dildo4u
2020-12-01, 14:43:42
https://twitter.com/VideoCardz/status/1333697420484616195
Laut dem Tests Heute Verkauf Morgen.
Timbaloo
2020-12-01, 14:58:22
Gibt es mittlerweile was neues zum GA106? Mein letzter Stand war Gerücht 12GB-Variante Anfang Q1/21.
Thunder99
2020-12-01, 14:59:44
Sicher nicht 12GB wenn alle anderen Karten weniger Speicher haben (bis auf 3090)
r3ptil3
2020-12-01, 19:37:17
Uralte Meldung, aber gerade in einem anderen Thread nochmals das Thema kurz angestossen:
Nvidia to shift RTX 30 GPUs to TSMC 7nm in 2021, says report (https://hexus.net/tech/news/graphics/146170-nvidia-shift-rtx-30-gpus-tsmc-7nm-2021-says-report/)
War/ist da was dran, stand heute, oder nicht?
Platos
2020-12-01, 20:00:50
Gab doch mal ne News von Leonidas in der Stand, dass einem bekanntem Leaker nichts bekannt ist davon. Also eher nein.
Denniss
2020-12-01, 23:37:08
und wo soll TSMC die Kapazität dafür herzaubern? Die laufen ja jetzt schon auf gefühlt 110% und kommen trotzdem nicht hinterher.
Neosix
2020-12-02, 00:04:48
Uralte Meldung, aber gerade in einem anderen Thread nochmals das Thema kurz angestossen:
Nvidia to shift RTX 30 GPUs to TSMC 7nm in 2021, says report (https://hexus.net/tech/news/graphics/146170-nvidia-shift-rtx-30-gpus-tsmc-7nm-2021-says-report/)
War/ist da was dran, stand heute, oder nicht?
Fake, es wurde von Nvidia mehr oder weniger schon offen Kommuniziert das ein Amper Refresh/Super release 2021 weiterhin 8Nm Samsung benutzen wird. Also vor 2022 wird es kein TSMC Switch geben.
SKYNET
2020-12-02, 00:19:01
Unkaputtbar (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/RTX-3090-Vergleich-8K-Benchmarks-1358438/). Man kriegt in nutzbaren Auflösungen nicht mal 20 GiB voll. Übrigens läuft DLSS sogar in 6K mittels DSR - das sieht recht geil aus, denn das spieleigene TAA ist eher meh. In 8K geht DLSS dann kaputt; damit hat das Neural Network wohl nicht gerechnet. :ulol:
MfG
Raff
FFXV frisst mehr speicher als die getesteten... das sprengt ja in 1920*1200 schon 11GB spielend :freak:
Daredevil
2020-12-02, 01:07:04
Es spielt keiner mehr FFXV, oder willst du das Beispiel bis zur Rente bringen? ^^
Fressen ist ja auch so ne Sache, bis der Speicher voll ist, ist man 2 Stunden mitm Auto hin und her gefahren.
mironicus
2020-12-02, 09:31:18
Theoretisch sollte durch DirectStorage die Menge des VRAM in Zukunft nicht mehr so wichtig sein, oder?
basix
2020-12-02, 09:37:04
VRAM wird immer noch genau gleich wichtig sein. Nur erhält man einen "Speichermultiplikator". Was heute 16GB sind sind mit DirectStorage vielleicht 8GB. Und wenn man mehr effektiven Speicherplatz zur Verfügung hat, wird der aber auch benutzt werden. Am Ende ändert sich nicht so viel für den User, ausser dass generell weniger Speicher für die selbe Bildqualität ausreicht. Bei mehr Bildqualität, höheren Sichtweiten usw. braucht es aber wie immer einfach genug VRAM, die SSD kann VRAM niemals ersetzen.
FFXV frisst mehr speicher als die getesteten... das sprengt ja in 1920*1200 schon 11GB spielend :freak:
Mein Text war auf FF15 bezogen und das Spiel wird hinter meinem Link getestet. ;)
MfG
Raff
Cyberfries
2020-12-03, 09:18:09
Ob die RTX A5000 einen Ausblick auf Ga103 liefert?
kopite7kimi (https://twitter.com/kopite7kimi/status/1334402639916720128) berichtet von 8192 FP32 bei 250W, das entspricht 64 SM.
Das könnte ein abgespeckter Ga102 sein, was allerdings bei Profi-Karten eher unüblich wäre.
Techpowerup (https://www.techpowerup.com/gpu-specs/rtx-a5000.c3748) behauptet A5000 basiere auf Ga103, wobei deren Daten öfters falsch als richtig sind.
FALLS A5000 auf Ga103 im Vollausbau basiert ist die Konfiguration auf jeden Fall sehr merkwürdig.
Das lässt eigentlich nur 8 GPC mit je 8SM zu (Ga102 nur 7 GPC), 64SM sind deutlich weniger als erwartet.
Hat nVidia bei den GPC den Flaschenhals bei den eigenen Flaggschiffen erkannt?
Auch 384bit überraschen.
Dann noch die spekulierte 3070ti mit gleich 58SM, lässt wenig Platz für eine Ga103-3080Super.
Vielleicht einfach wieder eine Techpowerup-Ente.
Seit wann spielt das für Quadros ne Rolle, ob die gesalvaged sind? Das sind ganz normale 102er. NV kann die so salvagen, wie sie wollen, da ist kein Aufbau abzulesen. Dass das ein 102 ist, sieht man auch im 384Bit-Interface. Das hat rein gar nichts mit dem 103er zu tun, dafür wäre es auch noch zu früh.
gruntzmaker
2020-12-04, 22:27:33
VRAM wird immer noch genau gleich wichtig sein. Nur erhält man einen "Speichermultiplikator". Was heute 16GB sind sind mit DirectStorage vielleicht 8GB. Und wenn man mehr effektiven Speicherplatz zur Verfügung hat, wird der aber auch benutzt werden. Am Ende ändert sich nicht so viel für den User, ausser dass generell weniger Speicher für die selbe Bildqualität ausreicht. Bei mehr Bildqualität, höheren Sichtweiten usw. braucht es aber wie immer einfach genug VRAM, die SSD kann VRAM niemals ersetzen.
So groß wird der Nutzen eher nicht sein, dass er den vorhandenen VRAM effektiv verdoppelt.
Ich war versucht, Direct Storage in meinen Überlegungen für mein PC Upgrade einzubeziehen.
Bei der 3070 sind die 8GiByte nämlich genau das, was mich vom Kauf zurück hält.
[Der Umstand ärgert mich schon sehr, NVIDIA macht sich mit der Knauserei auch angreifbar - siehe Godfall mit dessen 12 GByte Anforderungen für 4k]
Der letzte Satz von Deinem Post stimmt wohl, da muss man nicht einmal ein Fachmann sein.
Direct Storage wird daran nicht viel ändern.
Aber nun gut die 3070Ti (10 GiByte wohl Gerüchten zufolge) ist ja quasi schon bestätigt ;).
basix
2020-12-05, 09:34:29
So groß wird der Nutzen eher nicht sein, dass er den vorhandenen VRAM effektiv verdoppelt.
War auch ein sehr einfaches Beispiel ;) Mit den DX12U Karten kommt aber automatisch auch Sampler Feedback Streaming mit. Wenn diese zwei Features zusammenspielen darf man schon einen Multiplikator im Bereich 2x erwarten.
woodsdog
2020-12-05, 11:31:31
Na sicher wird das passieren :rolleyes:
Gouvernator
2020-12-05, 12:52:10
Welches Spiel ist denn aktuell/bis jetzt der schlimmste Speicherfresser - etwa das Beispiel, das Skynet genannt hat? Reichen 16GB Grafikspeicher für 1440p @ 2x2 DSR?
R2
16Gb ist unter 8K sehr wenig. Games aus 2017 wie Middle-Earth Shadow of War genehmigen sich so 14Gb. Neuere marschieren in Richtung 18Gb. Bei solcher Auflösung braucht man auch viel größere Toleranzwerte wo sich der VRAM Verbrauch einpendelt. Plötzlich kann eine Szene auftauchen die mir nix dir nix +2Gb mehr VRAM belegt. Je höher die Auflösung und je neuer das Game desto größeres Polster muss man haben. Und diese 16Gb sind gerade so ausreichend um überhaupt irgendwas zum Laufen zu bekommen - mit Null Polster.
Es gab ja bis jetzt kaum Grafikkarten um das alles zu testen. Habe gerade geschaut, ab 2018 war Volta CEO Edition mit 32Gb verfügbar und anschließend die Titan RTX für 3000€ mit 24Gb.
Dampf
2020-12-05, 13:18:34
Na sicher wird das passieren :rolleyes:
Die Xbox Konsolen sind nach diesem Prinzip gebaut worden, deswegen hat man nur 8 bzw 13 GB shared RAM bei Series S und X. Der Aufpreis von mehr RAM muss man so nicht zahlen, wenn dank SFS der effektive RAM durch deutlich bessere Nutzung der vorhanden Resourcen um den Faktor 2-3x erhöht wird.
pixeljetstream
2020-12-05, 13:20:29
Es gab ja bis jetzt kaum Grafikkarten um das alles zu testen. Habe gerade geschaut, ab 2018 war Volta CEO Edition mit 32Gb verfügbar und anschließend die Titan RTX für 3000€ mit 24Gb.
Ging schon bissl vorher los, 2016 gabs Karten mit 16 und 24 GB von NV. Bei AMD 2014 eine mit 16 und ab 2016 dann 32.
Gouvernator
2020-12-05, 14:38:46
Naja zu damaligen Zeit war TV-seitig nicht mal 4K/60 üblich gewesen. Höchstens 4K mit DSR. Weil HDMI 2.0 erst 2013 vorgestellt wurde. Wenn ich mir das so überlege, dann sind jetzige durchgehende 30 FPS/8K Nativ mit 24Gb RTX3090 ziemliches Technik-Wunder.
Eigentlich unfassbar wie sich das zusammengetroffen hat. Die erste strake 24Gb GPU, mit den ersten 8K/60 TVs und gleichzeitiger HDMI 2.1 Einführung.
Die Games aus der Zeit zum 4K Übergang sind heute ein Vollgenuss in 8K. Dank oben genannter Zusammenführung.
woodsdog
2020-12-05, 14:43:52
Die Xbox Konsolen sind nach diesem Prinzip gebaut worden, deswegen hat man nur 8 bzw 13 GB shared RAM bei Series S und X. Der Aufpreis von mehr RAM muss man so nicht zahlen, wenn dank SFS der effektive RAM durch deutlich bessere Nutzung der vorhanden Resourcen um den Faktor 2-3x erhöht wird.
Unsinn, dass wird zur Lebzeit der Karte genau 0 eine Rolle spielen, dafür ist auf PC die installierte Basis VIIIIEEEEL zu träge. Bei Konsolen sehe ich ein, dass die Optimierungsspielraum an der Stelle haben weil die Hardware feststeht... aber selbst dort kommt true Next-gen Software welche nicht nur den generellen SSD Speedup mitnimmt wann? XMas 2022? 2023?
2-3 mal "mehr" effektiven RAM durch SFS glaub ich erst wenn ich's seh. Erinnert an die tollen Versprechen von Softram :biggrin:
woodsdog
2020-12-05, 14:45:10
Naja zu damaligen Zeit war TV-seitig nicht mal 4K/60 üblich gewesen. Höchstens 4K mit DSR. Weil HDMI 2.0 erst 2013 vorgestellt wurde. Wenn ich mir das so überlege, dann sind jetzige durchgehende 30 FPS/8K Nativ mit 24Gb RTX3090 ziemliches Technik-Wunder.
Eigentlich unfassbar wie sich das zusammengetroffen hat. Die erste strake 24Gb GPU, mit den ersten 8K/60 TVs und gleichzeitiger HDMI 2.1 Einführung.
Die Games aus der Zeit zum 4K Übergang sind heute ein Vollgenuss in 8K. Dank oben genannter Zusammenführung.
Ja, dein Last-Gen Konsolen Geruckel mit <=30 FPS ist sicher ein Vollgenuss ;D
Gouvernator
2020-12-05, 15:16:50
Ja, dein Last-Gen Konsolen Geruckel mit <=30 FPS ist sicher ein Vollgenuss ;D
Lol, mit Quake 4@Sikkmod sieht es next-gen'iger aus in 8K, als die beiden neuen Konsolen zusammengenommen. Von viel neueren Titeln gar nicht zu reden. Ihr könnt die Macht von bewegten 30MP noch gar nicht erkennen.;)
Rampage 2
2020-12-05, 15:50:53
16Gb ist unter 8K sehr wenig. Games aus 2017 wie Middle-Earth Shadow of War genehmigen sich so 14Gb. Neuere marschieren in Richtung 18Gb.
Ich hatte ja auch explizit von 1440p @ 2x2 DSR, also effektiv 2880p, gesprochen;)
Also ich kann mir nur sehr schwer vorstellen, dass 16GB Grafikspeicher in den nächsten 5 Jahren für 2880p nicht ausreichen werden:rolleyes:
R2
Gouvernator
2020-12-05, 15:58:56
Das ist für mich nur Pfennigzählerei. Man muss immer in großen Schritten denken 4k-->8k-->16K. Und für 8K sind 16Gb heute schon zu klein. Den Rest kann jeder für sich interpolieren.
Undertaker
2020-12-05, 16:38:31
Lol, mit Quake 4@Sikkmod sieht es next-gen'iger aus in 8K, als die beiden neuen Konsolen zusammengenommen. Von viel neueren Titeln gar nicht zu reden. Ihr könnt die Macht von bewegten 30MP noch gar nicht erkennen.;)
Dem muss ich ganz klar widersprechen. Selbst auf 65" (was mir zum Zocken schon zu groß wäre, kleiner habe ich 8K aber noch nicht erlebt) ist der optische Gewinn minimalst bzw. überwiegend vollkommen unsichtbar. Sinnloser als hier kann man Rechenleistung aktuell nicht investieren. Viermal mehr Rechenleistung für optische Schmankerl plus 4K schlägt 8K bei jeglichem Gaming-Content.
In Filmen hätte ich dagegen nichts gegen 8K, schlicht deshalb weil man hier keine Abstriche an anderer Stelle machen muss (höhere Leistungsaufnahme lasse ich jetzt mal außen vor), aktuelle Kompressionsverfahren und Internetbandbreiten dafür mehr als geeignet sind und künftig auch Displays von >=75" verbreiteter werden.
Platos
2020-12-05, 17:36:48
Dann hast du vlt. einfach schlechte(re) Augen. Ich sehe sehr wohl einen grossen Unterschied zwischen 4k und 8k.
Aber in Filmen dann 8k wollen, obwohl gerade in Games der Vorteil von 8k viel grösser ist...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.