PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 6. Oktober 2020


Leonidas
2020-10-07, 08:11:12
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-6-oktober-2020

Dalai-lamer
2020-10-07, 09:02:32
Wow, RTX 3080 Performance, mit 16 GB Speicher. Selbst für 1000€ werden die aus den Händen gerissen.

Bester Kompromiss, leider habe ich einen GSYNC Monitor... Im Notfall steige ich eben doch früher auf Ultrawide um ;)

Lowkey
2020-10-07, 09:07:39
Die 3080 10gb hat dank der 10gb heute schon messbare Nachteile gegenüber einer 16gb AMD Karte. Und dann haut Nvidia die 20gb Version Anfang 2021 raus. Alle 3080 10gb Besitzer ärgern sich leicht, aber Nvidia hat in der Vergangenheit schon ähnliche Aktionen gebracht.

Dalai-lamer
2020-10-07, 09:12:26
Man sollte zur Zeit wirklich nur eine 3080 10 GB kaufen falls man wirklich gar keine Geduld hat.
Dieses Jahr ist wirklich spannend-

JVC
2020-10-07, 09:18:11
"N21 = ~275W = 2080Ti. ~+40% perf."

+16Gb und einem vernünftigen 3 stelligen Preis = gekauft.

Bei "nur" 275Watt bleibt vielleicht auch etwas mehr OC Spielraum.
(immerhin 100Watt Spielraum bis die 2x8 limitieren)

M.f.G. JVC

Gast Ritis
2020-10-07, 12:16:28
Ich denke mit dem verzögerten 3070-Start hat Nvidia die Möglichkeit genommen AMD in der Präsentation der neuen GPUs die eigene Mittelklasse schon mit Benchmarkbalken dagegenzustellen. Neben besserer Verfügbarkeit zum Launch geht man auch potentiellen guten Gegenargumenten aus dem Weg.

"Nvidia jebaited AMD" könnte eine Taktik gewesen sein, die ist dann doch spätestens mit dem relativ schlechten Skalieren der FPS Leistung im Verhältnis zu der TFLOPs Leistung der Amperes nicht aufgegangen ist.

Es hängt alles an dem Frage wie gut RDNA2 mit doppelten CUs und verbesserter IPC gegenüber RDNA1 skaliert obwohl die Speicherbandbreite nur moderat ansteigt bzw. pro CU sinkt. Und dann auch noch RT-Performance als Marketing-Schlachtfeld.

AMD wird aber kaum die Leistung von Ampere vorausgeahnt haben sondern so etwas wie die kolportierten 40% auf 2080Ti angenommen haben. Schliesslich war man mit der 5700XT auch nicht zu weit weg, bzw. per Shader in etwa auf Augenhöhe, nur halt ohne RT.

etp_inxession
2020-10-07, 12:28:09
Mittlerweile hoffe ich das AMD nicht groß posaunt am Vorstellungstermin, sondern ruhig und sachlich den Launch verkündet.

nV hat sich komplett aus der Spur manövriert mit Ampere.
Wird dennoch gekauft ohne Ende, weil Sie Marketing halt echt verstehen.

Täglich eine neue News in allen Redaktionen... immer schön den Hype weiter anstacheln. Zudem die Hersteller in den Sozialen Medien mit ihrer täglichen Wasserstandsmeldung, wann denn die nächste Lieferung ankommen wird ... BlaBlubb.

Alles genau so gewollt und hin getriggert.

Hatte ursprünglich echt Bock auf eine 3070 ...

Mittlerweile wirds zu 90 % eine Navy Flounder.

nV´s NDA Mist mach ich nicht mit.

Gast
2020-10-07, 12:56:49
Die 3080 10gb hat dank der 10gb heute schon messbare Nachteile gegenüber einer 16gb AMD Karte. Und dann haut Nvidia die 20gb Version Anfang 2021 raus. Alle 3080 10gb Besitzer ärgern sich leicht, aber Nvidia hat in der Vergangenheit schon ähnliche Aktionen gebracht.

Echt? Sag mal an wo es diese "messbaren Nachteile" genau gibt ... Und wieviele Nvidia Käufer haben sich bei dir höchstpersönlich gemeldet um ihren Unmut kund zu tun? Öffentlich bekommt man davon nämlich irgendwie nichts mit.

Können wir bitte bei realen Szenarien bleiben? So ganz ohne Lügen und maßlosen Übertreibungen?

Wäre das mal eventuell angebracht, nachdem die letzten 5 KILLER Generationen von AMD Grafikkarten gnadenlos gefloppt sind?

Ich werde das Gefühl nicht los, dass AMD Fans drauf aus sind, dass AMD mit der neuen Generation wieder vor die Wand fährt. Wie sonst lässt sich dieser wirklich treudoofe übertriebene und unglaubwürdige Hype erklären?

Leonidas berichtet in diesen News von NEGATIVEN Performancegerüchten und ihr wertet diese, als wäre es die Wiedergeburt von Jesus! Habt ihr die NEws nicht verstanden? Oder wollt ihr derzeit nur eure dämliche MEinung in die Welt posaunen? Und diese Meinung ist wirklich dämlich ...

Gast-On
2020-10-07, 13:56:31
AMD wird aber kaum die Leistung von Ampere vorausgeahnt haben sondern so etwas wie die kolportierten 40% auf 2080Ti angenommen haben. Schliesslich war man mit der 5700XT auch nicht zu weit weg, bzw. per Shader in etwa auf Augenhöhe, nur halt ohne RT.
Überraschend war wohl auch die Einführung einer neuen Leistungsklasse, und zwar elektrischen und thermischen. Dass die Performance-pro-Watt ausgehend von Turing und der Spezifikationen des Samsung 8nm Prozesses nur moderat steigt, konnte man hingegen erwarten.
Mit der RTX3090 hat NVidia die Performance-Krone relativ sicher. Bedingung für die gute Aufnahme unter der Zielgruppe war, dass das Marketing gute Arbeit leistet und den enormen elektrischen Leistungshunger nicht zum Thema werden lässt.

Gast
2020-10-07, 14:07:30
nV´s NDA Mist mach ich nicht mit.

AMD hat keine NDAs, muss man wissen!

maximus_hertus
2020-10-07, 14:11:01
Am Ende wird es doch eh auf sowas hinauslaufen:

Top-Karte: Zwischen 3070 und 3080, mal näher bei der einen, mal näher bei der anderen und in Einzelbenches auch mal vor der 3080, im Schnitt dann halt zwischen 70 und 80.
Ca. 300W TDP, damit etwas schlechtere Perf / Watt, aber trotzdem gut. 16GB VRAM, 599-649 USD/EUR.

Salvage: 3070 Performance, evtl. minimal dahinter, 250-275W, 16GB, 499 USD/EUR.

Dritte Karte im Bunde: rund 20% schneller als die 5700XT (also ca. 2080S oder minimal drüber), 12GB, 225-250W, 399 USD/EUR.

Die 5700XT wird auf 329 USD/EUR im Preis gesenkt.

Die 5600XT wird auf 249 USD/EUR gesenkt.


Fertig ist das Gaming Portfolio für Ende 2020 / Anfang 2021.

Buddy Casino
2020-10-07, 15:11:58
Die 3080 10gb hat dank der 10gb heute schon messbare Nachteile gegenüber einer 16gb AMD Karte.

Ich höre immer dass 10GB nicht reichen, habe das aber noch nie mit Zahlen belegt gesehen. Hast du einen Link auf Lager?

Gastein
2020-10-07, 16:22:52
Am Ende wird es doch eh auf sowas hinauslaufen:
...
Fertig ist das Gaming Portfolio für Ende 2020 / Anfang 2021.

Möglich, aber IMO nur wenn mit DLSS gemessen.

Ansonsten könnte man im simplen Rasterizing doch über dem Niveau 3080 landen und mit den anderen Modellen jew. über dem Nvidia Kontrahenten.

Complicated
2020-10-07, 16:59:25
lol...was für eine Unlogik: AMD hat sich an GA104 orientiert und da GA104 jetzt RX 3070 bedient ist Big Navi auch auf dem Niveau. Als ob AMD da irgendwie daran gekoppelt ist wie gut oder schlecht deren Ampere Chips letztendlich ausfallen.

AMD hat ein Performance-Plus kalkuliert das Sie als Ziel gesetzt haben, es ändert sich nichts daran, wenn Nvidia dieses Performanceplus erst mit GA102 anstatt GA104 erreicht. Zumindest nicht für AMD. Und Nvidias "Konter" wird sein, dass sie einen Tag nach RDNA2 günstigere Modelle anbieten, diesmal möglichst länger als 15min. Da helfen 2 Wochen.

Gast
2020-10-07, 18:48:28
Und Nvidias "Konter" wird sein, dass sie einen Tag nach RDNA2 günstigere Modelle anbieten, diesmal möglichst länger als 15min. Da helfen 2 Wochen.

...und die zu dem Zeitpunkt vorgestellten Konkurrenzprodukte (selbst wenn man sie noch nicht sofort bestellen können wird).

Gast
2020-10-07, 19:23:20
Echt? Sag mal an wo es diese "messbaren Nachteile" genau gibt ... Und wieviele Nvidia Käufer haben sich bei dir höchstpersönlich gemeldet um ihren Unmut kund zu tun? Öffentlich bekommt man davon nämlich irgendwie nichts mit.

Können wir bitte bei realen Szenarien bleiben? So ganz ohne Lügen und maßlosen Übertreibungen?

Wäre das mal eventuell angebracht, nachdem die letzten 5 KILLER Generationen von AMD Grafikkarten gnadenlos gefloppt sind?

Ich werde das Gefühl nicht los, dass AMD Fans drauf aus sind, dass AMD mit der neuen Generation wieder vor die Wand fährt. Wie sonst lässt sich dieser wirklich treudoofe übertriebene und unglaubwürdige Hype erklären?

Leonidas berichtet in diesen News von NEGATIVEN Performancegerüchten und ihr wertet diese, als wäre es die Wiedergeburt von Jesus! Habt ihr die NEws nicht verstanden? Oder wollt ihr derzeit nur eure dämliche MEinung in die Welt posaunen? Und diese Meinung ist wirklich dämlich ...

Ja, wie schon des öfteren erwähnt: die letzten Generationen waren nicht das Gelbe vom Ei. Aber das wird sich ja jetzt ändern. Denn der Hype ist weder übertrieben noch unglaubwürdig, er ist einfach echt. Warte einfach den 28.10. ab. ;)


...
Und selbst wenn AMDs eigene Performance-Zielsetzung nicht gänzlich oder nur in den AMD-eigenen Benchmarks erreicht wird, ergibt selbst ein Aufschlag von +35% auf die GeForce RTX 2080 Ti immer noch eine Performance leicht oberhalb der GeForce RTX 3080.


... ich weiss ja nicht, wo DU da negative Permormancegerüchte herausliest, aber diese Meinung dürftest du ganz exklusiv haben.
Navi21 wird nach Leonidas' Meldung die 3080 knapp schlagen können, zumindest aber gleichauf liegen. Bei *weniger* TDP und *mehr* Speicher bei voraussichtlich *gleichem* Preispunkt hat die 3080 damit leider verloren.
Selbst NV-Hardcore-Fans dürften das nun langsam einsehen.

p.s. Du solltest die NV-Brille mal ablegen. Ohne sieht man meist klarer. ;)

Gast
2020-10-07, 19:45:33
Bei "nur" 275Watt bleibt vielleicht auch etwas mehr OC Spielraum.
(immerhin 100Watt Spielraum bis die 2x8 limitieren)



Wenn die 275W wirklich Boardpower meinen. Da AMD zumindest bisher nur die GPU-Power regelt (und diese demzufolge die echten Limits sind), beziehen sich geleakte Angaben oft nur auf die reine GPU-Power.

maximus_hertus
2020-10-07, 20:29:49
Es passiert schon wieder, der Radeon Hype Train, der dann in gut einem Monat sowas von entgleisen wird.

Warum erwartet man bei jeder neuen AMD Gen den totalen Überflieger?
Es passiert nicht. Gen für Gen, aber es werden jedes mal maximale Erwartungen geschürt.

Stay calm. Big Navi wird sicherlich näher an der Spitze dran sein, aber warum muss man jetzt alles überhypen?

nVidia ist nicht Intel ;)

iamthebear
2020-10-07, 20:34:55
Die Frage ist, ob es überhaupt noch viel Sinn macht Benchmarks ohne DLSS zu vergleichen, wenn es in Zukunft wohl so gut wie jeder AAA Titel zum Release unterstützen wird. Zumindest der DLSS Quality Mode wird wohl überall eingesetzt werden.

Was die 10GB angeht: Natürlich ist das ein Thema aber derzeit gibt es noch keine Spiele, die davon wirklich profitieren unter realistischen Einstellungen. Für mich ist die Referenz hier "Sehr hoch". Wenn Ultra Details rucken, dann stellt man halt eine Stufe runter. Wichtig ist, dass man flüssige Frameraten über 60fps hat.

maximus_hertus
2020-10-07, 21:20:58
Ist das so? Haben alle Publisher offiziell(!) angekündigt, DLSS zum Standard in quasi jedem Spiel zu machen?

So wie (damals) PhysX und Co?

Auch hier muss man die Entwicklung abwarten.

Gast
2020-10-07, 22:58:00
Ist das so? Haben alle Publisher offiziell(!) angekündigt, DLSS zum Standard in quasi jedem Spiel zu machen?


Alle sicher nicht und alle werden es auch nicht, aber alleine dadurch dass die Unreal Engine es integriert wird schon verdammt viel abgedeckt.

DLSS ist einfach viel zu gut um es zu ignorieren.

Gast
2020-10-08, 03:08:08
Die Frage ist, ob es überhaupt noch viel Sinn macht Benchmarks ohne DLSS zu vergleichen

Bei dem Pixelmatsch und Artefakten die DLSS verursachen?!

Ne Danke.

Wer sowas fordert sollte das Geld nicht in eine Grafikkarte investieren, sondern in eine Brille.

Leonidas
2020-10-08, 05:05:04
Ich denke mit dem verzögerten 3070-Start hat Nvidia die Möglichkeit genommen AMD in der Präsentation der neuen GPUs die eigene Mittelklasse schon mit Benchmarkbalken dagegenzustellen.


Überlegenswerter Punkt.




Top-Karte: im Schnitt dann halt zwischen 70 und 80.


Aufgrund des erwartbare hohen Abstands zwische 3070 & 3080 (+35-45%) sind mir Aussagen wie "zwischen 3070 & 3080" viel zu ungenau. Das kann letztlich alles bedeuten. Das sollte man dann schon genauer angeben, in welche tendentielle Richtung es geht.




Wenn die 275W wirklich Boardpower meinen. Da AMD zumindest bisher nur die GPU-Power regelt (und diese demzufolge die echten Limits sind), beziehen sich geleakte Angaben oft nur auf die reine GPU-Power.


Zuletzt hatte AMD umgeschwenkt und gibt keine GPU-Power mehr an, sondern die Board-Power. Kann natürlich in Vorabgerüchten trotzdem anders sein, keine Gewähr.

etp_inxession
2020-10-08, 07:13:02
AMD hat keine NDAs, muss man wissen!

Nun ja ... wer den Unterschied zwischen dem nVidia Maulkorb und AMD´s Produkt NDA´s nicht kennt, sollte mal lieber still sein.

Es passiert schon wieder, der Radeon Hype Train, ...


Definitv kurios, in den Foren hofft man auf AMD und der Hype soll am Boden bleiben.

nVidia generiert einen unfassbaren Hype und die Karten werden Ihnen aus den Händen gerissen, obwohl Sie nicht wirklich prickelnd sind.

Ätznatron
2020-10-08, 07:49:51
nVidia generiert einen unfassbaren Hype und die Karten werden Ihnen aus den Händen gerissen, obwohl Sie nicht wirklich prickelnd sind.

"Aus den Händen gerissen" ist ein zu starkes Wort. Dass die wenigen produzierten Exemplare schnell verkauft sind, wundert doch nicht wirklich.

Ein Indikator für Erfolg ist es sicher nicht.

Gast
2020-10-08, 08:00:03
nVidia generiert einen unfassbaren Hype und die Karten werden Ihnen aus den Händen gerissen, obwohl Sie nicht wirklich prickelnd sind.
Sehe ich aktuell ähnlich. Bei 23% mehr Verbrauch holt man 32% mehr Leistung heraus, obwohl im Vorfeld (zugegeben eher selten) von "doppelt so schnell" die Rede war und die meisten von +60% gegenüber Turing sprachen. Finde ich jetzt nicht so überragend.
Allerdings hat AMD bisher auch noch nichts gezeigt. Entsprechend ist bei denen noch alles drin, von begeistern bis enttäuschen.
Dass AMD sich einen Chip als Ziel gesetzt hat, ist doch eigentlich Schwachsinn, woher soll AMD in der Entwicklung wissen, wie schnell ein noch nicht fertiger GA104 wird? Die nehmen die Vorgänger Generation und schlagen da X Prozent drauf. Vermutlich ist X ein Mittelwert, Median oder ähnliches aus den Steigerungen der letzten Generationen. Und schon hat man seine Zielsetzung.
Entsprechend kann ich mir schon vorstellen, dass AMD mit dem Topmodell vor der 3080 landen will (vielleicht im Optimum +40% auf die 2080TI?).
Viel interessaner finde ich, wie der Verbrauch aussehen wird. AMD wollte ja +50% Energieeffizienz gegenüber RDNA1 (vermutlich 5700XT, da das die Ineffizienteste ist). Da Nvidia (bisher) die Effizienz nur leicht gesteigert hat, müsste AMD in dem Bereich eigentlich überholen (was dann auch einen Vorteil bei den Mobile GPUs bedeuten würde). Das ist für mich viel interessanter als die maximale Leistung. Selbst wenn man in der Leistung kanpp hinter einer 3080 landen würde, wenn der Verbrauch dafür deutlich niedriger ist, hat man ja auch ein Argument, denn das Gesamtpaket muss halt passen...

Gast
2020-10-08, 08:07:56
Bei dem Pixelmatsch und Artefakten die DLSS verursachen?!

Ne Danke.

Wer sowas fordert sollte das Geld nicht in eine Grafikkarte investieren, sondern in eine Brille.


Wenn man keine Ahnung hat ...

BigKid
2020-10-08, 08:13:38
Bei dem Pixelmatsch und Artefakten die DLSS verursachen?!

Ne Danke.

Wer sowas fordert sollte das Geld nicht in eine Grafikkarte investieren, sondern in eine Brille.
DLSS ist einer der interessantesten Ansätze um Rechenpower zu sparen der letzten Jahre. Es ist ein AI Upsampling mit Kantenglättung das gleichzeitig/dadurch Rechenpower spart.
Du willst auf keinen Fall jemals Bildquali für Rechenpower aufgeben?
Dann ist es halt nix für dich.
In vielen Fällen sieht DLLS besser aus als die Alternative (Auflösung Reduzieren oder Regler nach Links). Und das Ganze entwickelt sich ja auch noch weiter...

Es gibt zig Situation wo das einfach absolut Sinn macht:
- du willst vor allem stabile/max fps
- du zockst auf nem Laptop und da reicht die Power einfach nicht
- du willst die Lebenszeit deiner GPU um ein paar Monate strecken

Aber die Forderung NUR noch mit DLSS zu vergleichen halte ich aber für Schrott... Das klingt schon wieder nach Fanboyism weil AMD aktuell noch nix hat...
Aber ein paar spezielle Benchmarks pro Spiel vielleicht mit der schwächsten Karte (RTX2060) und dann Mittelfeld (RTX3080) mit Max@4k kann hilfreich sein...

Zurück zu Topic: Fan Brille sollte man immer absetzen... Ich denke auch das AMD diesmal wirklich was spannendes in der Pipeline hat und hoffe das NVIDIA mal wieder unter Druck kommt damit sie sich wieder mehr anstrengen ;)

Mr.Smith
2020-10-08, 08:31:57
Wow, RTX 3080 Performance, mit 16 GB Speicher. Selbst für 1000€ werden die aus den Händen gerissen.


Im Dezember kannst du das mit 20GB haben.
Denk zumindest dass eine RTX 3080 eine RTX 3080 Performance bieten wird.

Ätznatron
2020-10-08, 09:33:00
Im Dezember kannst du das mit 20GB..
Denk zumindest dass eine RTX 3080 eine RTX 3080 Performance bieten wird.

Sie wäre auf jeden Fall eine bessere Kaufoption als das VRAM-schwache Schwesterchen, selbst wenn sie leistungsmäßig nicht ganz auf deren Höhe sein sollte.

WedgeAntilles
2020-10-08, 09:35:16
Ist das so? Haben alle Publisher offiziell(!) angekündigt, DLSS zum Standard in quasi jedem Spiel zu machen?

So wie (damals) PhysX und Co?

Auch hier muss man die Entwicklung abwarten.

Völlig richtig.
Allerdings sehe ich in einer Technik, die deine Frames halt mal um was, 30%, 40%?, steigert als sehr attraktiv an.
Die Chance, dass sich das durchsetzt, ist denke ich deutlich höher als bei PhysX.

Klar, es steht und fällt mit dem Implementierungsaufwand.
Aber falls der halbwegs überschaubar ist, wäre ein Entwickler ja dämlich sich damit NICHT zu befassen und es zu implementieren.
Klar, am Anfang hat man immer Berührungsängste, aber das kann dann schnell eine Lawine werden.

Zumal man ja als Entwickler sogar sagen könnte: Wenn ich DLSS habe brauche ich den Rest nicht ganz so perfekt zu polieren um die letzten Frames rauszukitzeln. Wenn ich durch DLSS eh schon mehr Frames habe spare ich mir die Arbeit mit der Optimierung halt ein bisschen.
Unterm Strich habe ich dann vielleicht sogar weniger Arbeit und mit DLSS trotzdem mehr Frames als bisher.
Das wird natürlich nicht jeder machen.
Es wäre aber auch nicht das erstemal, dass Entwickler wenig optimieren. Je mehr von einer Ressource verfügbar ist, desto verschwenderischer geht man damit um.

Aber klar, ob es sich wirklich durchsetzt kann man heute nicht sicher sagen.
Und ganz sicher wird es nicht in den nächsten Monaten passieren, das dauert länger.
Wenn man alle 1-2 Jahre sowieso ne neue GraKa kauft ist DLSS wohl nicht sonderlich entscheidend.
Wenn man seine GraKa aber 4 Jahre oder länger hat? Dann halte ich DLSS schon für eine Wette, die gute Gewinnchancen verspricht.

Complicated
2020-10-08, 10:05:15
Völlig richtig.
Allerdings sehe ich in einer Technik, die deine Frames halt mal um was, 30%, 40%?, steigert als sehr attraktiv an.
Die Chance, dass sich das durchsetzt, ist denke ich deutlich höher als bei PhysX.Ein Problem das bei AMDs vielleicht gar existiert - warum sollte DLSS besser sein wenn es mit RIS besser aussieht bei AMD und die selben FPS ausspuckt?

Ätznatron
2020-10-08, 10:19:10
Ein Problem das bei AMDs vielleicht gar existiert - warum sollte DLSS besser sein wenn es mit RIS besser aussieht bei AMD und die selben FPS ausspuckt?

Oder wegen ausreichend vorhandenem VRAM in der Prioritätenliste ganz weit unten steht?

Gast
2020-10-08, 11:05:03
Am Ende wird es doch eh auf sowas hinauslaufen:

Top-Karte: Zwischen 3070 und 3080

Falsch, zwischen 3080 und 3090 ohne RT, weil man eben von +40% auf 2080ti bei 3080ti (aka 3090) ausgegangen ist.

Gast
2020-10-08, 11:09:38
Oder wegen ausreichend vorhandenem VRAM in der Prioritätenliste ganz weit unten steht?

Weil die 6000er Reihe natürlich IMMER genug Rechenleistung auffahren wird, damit das Feature nicht benötigt wird ... AMD Fanboys Sheeeesh

Gast
2020-10-08, 11:58:53
Zuletzt hatte AMD umgeschwenkt und gibt keine GPU-Power mehr an, sondern die Board-Power. Kann natürlich in Vorabgerüchten trotzdem anders sein, keine Gewähr.

In Marketingunterlagen ja, aber intern wird in der Regel das tatsächliche Powerlimit kommuniziert, was sich zumindest bisher immer nur auf die GPU bezogen hat. Und bei derartigen Leaks, wenn diese echt sind, hat üblicherweise ein Insider irgendeine Zahl aufgeschnappt, die dann auf welche Wege auch immer veröffentlicht wird.

Es könnte natürlich auch sein, dass die nächste Radeon-Generation auch auf eine Aufwändigere Überwachung der Boardpower setzt und andererseits klingen 275W für die reine GPU-Power arg hoch, da müsste die Boardpower dann schon gegen 400W gehen.

Und angesichts der aktuellen Gerüchtelage ist es nicht gerade unwahrscheinlich, dass AMD zumindest etwas effizienter als Nvidia Ampere sein wird.

Andererseits, wenn was dran ist was Igor aufgeschnappt hat, war Big Navi ja angeblich für 275W Boardpower gedacht, kann damit aber die 3080 nicht ganz erreichen, und es gibt intern die Überlegung ob man diesen nicht über die 3080 pushen sollte.

Gast
2020-10-08, 12:06:11
Bei dem Pixelmatsch und Artefakten die DLSS verursachen?!


Echtzeitrendering ist immer und wird auch immer in Kompromiss aus Bildqualität und Performance.

DLSS ist in der 2.0 Variante dabei der größte Fortschritt beim Verhältnis Bildqualität:Performance seit der Einführung der bilinearen Filterung mit der ersten Voodoo.

Mit DLSS kann man entweder bei gleicher Bildqualität eine massiv bessere Performance erreichen oder umgekehrt bei gleicher Performance eine deutlich höhere Bildqualität.

Das einzige "Problem" das Nvidia mit DLSS hat, ist dass es die ganz schnellen Grafikkarten teilweise fast obsolet macht. Mit DLSS haut das CPU-Limit noch stärker rein, und die schnellsten Karten können sich noch weniger absetzen.

Legendenkiller
2020-10-08, 14:02:01
DLSS muss doch aber vom Spiel unterstützt werden oder ?


Aktuell haben das nur AAA Titel, die ich aber nicht spiele.

Und ich glaub kaum das ein Factorio mit DLSS 4k auch nur annähernd so gut aussieht wie echte 4k.

Complicated
2020-10-08, 14:11:34
Weil die 6000er Reihe natürlich IMMER genug Rechenleistung auffahren wird, damit das Feature nicht benötigt wird ... AMD Fanboys SheeeeshWeil das das einzige Feature ist, welches Bildqualität reduziert und upsamplen kann um FPS zu bekommen?

Nvidia hat kein RSI und kann jetzt alles das nicht, was AMD damit kann?
Alle Vergleiche die ich bisher gesehen habe 4k nativ/AMD 4k Upsampling+RSI/Nvidia 4k DLSS
haben Nvidia nicht als die bessere Lösung aussehen lassen.

Gast
2020-10-08, 15:01:10
Im Dezember kannst du das mit 20GB haben.
...

DER war gut. :)
Du meinst, wenn es jetzt schon weit und breit keine 3080/10GB gibt (was definitiv die schlechtere Karte ist), dann sind wenigstens beim Launch der 20GB (also der besseren) vernünftige Stückzahlen am Start?
Ich fall gleich vom Stuhl vor lachen... Oder meintest du Dezember 2021? Ok, das mag dann hinhauen.

maximus_hertus
2020-10-08, 15:05:51
Falsch, zwischen 3080 und 3090 ohne RT, weil man eben von +40% auf 2080ti bei 3080ti (aka 3090) ausgegangen ist.

Ist das so? Ist das offiziell? Nur weil es eine Twitter Nachricht gibt, in der behauptet wird, dass es +40% zur 2080 Ti sind, muss das am Ende nicht der finale Stand sein. Evtl. ist das eine Liquid 400W Edition für 1399?

Mit zwischen 3070 und 3080 meine ich:

Bei einem AMD freundlichen Parcours: rund 10% langsamer als die 3080
Bei einem nV freundlichen Parcours: eher 15-20% langsamer als die 3080

Bezogen auf eine rund 600-650 Euro Variante.


Falls es eine Liquid / limited / XTXXX Variante gibt, kann man da natürlich noch ein paar % rausprügeln.


Zu DLSS: Es ist eine sehr(!) interessante Technik, die ich Klasse finde! Aber: so lange nicht zumindest eine Mehrheit der Spiele es drin haben ist es nur ein nettes nice to have, aber ohne große Bedeutung.

WedgeAntilles
2020-10-08, 15:32:07
Zu DLSS: Es ist eine sehr(!) interessante Technik, die ich Klasse finde! Aber: so lange nicht zumindest eine Mehrheit der Spiele es drin haben ist es nur ein nettes nice to have, aber ohne große Bedeutung.

Gleiches gilt ja auch für mehr als 10GB Vram.

Bei DLSS kommt es halt drauf an - wie ich schrieb - wie lange man die Karte haben will.
1-2 Jahre? Wohl eher nicht so wichtig.
4 Jahre und mehr? Dann könnte DLSS schon heute ein sehr wichtiger Kaufgrund sein.

Jetzt nicht auf dich bezogen, sondern ganz Allgemein:
Für die Fanboys gilt halt: Das was die eigene Firma hat (und die andere nicht / weniger hat), ist unglaublich wichtig.
Was die eigene Firma nicht hat und nur der Feind ist völlig unwichtig.

Gilt ja auch für Leistung:
Hat die FREMDE Karte 25% mehr Performance, ist das nicht so dramatisch. Den Unterschied von 25% kann man vernachlässigen, merkt man sowieso nicht.

Hat die EIGENE Karte 5% mehr Performance, sind diese 5% ein Meilenstein und die fremde Karte wurde deklassiert.


Reichlich ermüdend das Ganze.

Gast
2020-10-08, 16:02:55
Weil das das einzige Feature ist, welches Bildqualität reduziert und upsamplen kann um FPS zu bekommen?

Nvidia hat kein RSI und kann jetzt alles das nicht, was AMD damit kann?
Alle Vergleiche die ich bisher gesehen habe 4k nativ/AMD 4k Upsampling+RSI/Nvidia 4k DLSS
haben Nvidia nicht als die bessere Lösung aussehen lassen.

Bist du etwas Banane im Kopf? DU hast doch behauptet, dass AMD dieses Feature nicht braucht und deshalb niedrige Priorität hat!

Von AMD RSI haben wir natürlich schon sooooooo viel gesehen. Bei Nvidia die ganze Zeit krakeelen, dass man den Nvidia Diagrammen nicht trauen soll, aber wenn es zu AMD kommt ist da natürlich nichts geschönt oder Best-Case-Scenario ... Was für ein extremer Heuchler bist du denn bitte?

Lehdro
2020-10-08, 16:46:22
Zu AMD RIS gibt es doch schon mehr als genug Bildvergleichtests, die Technik gibt es seit einem Jahr:

https://www.pcgameshardware.de/Radeon-RX-5700-XT-Grafikkarte-274775/Specials/Radeon-Image-Sharpening-Test-1293637/
https://www.igorslab.de/ultimativer-visueller-vergleich-zwischen-amd-ris-nvidia-dlss-und-freestyle/
https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/

Und NV hat sehr wohl etwas ähnliches:

https://www.techspot.com/review/1903-dlss-vs-freestyle-vs-ris/
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Treiber-Image-Sharpening-Reshade-G-Sync-Null-1335743/

Meine Meinung: Schärfung (RIS/Freestyle) und DLSS 2.0 können parallel existieren, allerdings bringt DLSS 2.0 mehr an den Tisch, erfordert aber explizite Softwareunterstützung. RIS war damals ohne DX11 Unterstützung allerdings auch eher mager, wurde das schon nachgeliefert?
DLSS 1.0 hingegen kann getrost sterben gehen.

Complicated
2020-10-08, 17:18:01
Bist du etwas Banane im Kopf? DU hast doch behauptet, dass AMD dieses Feature nicht braucht und deshalb niedrige Priorität hat! Zitier das mal wo ich das schreibe.

Gast
2020-10-08, 17:51:46
Nvidia hat kein RSI und kann jetzt alles das nicht, was AMD damit kann?

Überraschung Nvidia hat praktisch das selbe in Geforce Expierience und mittlerweile auch im Treiber.


Alle Vergleiche die ich bisher gesehen habe 4k nativ/AMD 4k Upsampling+RSI/Nvidia 4k DLSS
haben Nvidia nicht als die bessere Lösung aussehen lassen.

Hast du DLSS live gesehen? Wenn nein bilde dir kein Urteil darüber.

RIS, und auch das Nvidia Äquivalent ist absolut kein vergleich dazu. Das sind reine Schärfefilter, die prinzipbedingt nur vorhandene Details betonen können. DLSS erzeugt echte Details.

Gast
2020-10-08, 18:02:29
Ein Problem das bei AMDs vielleicht gar existiert - warum sollte DLSS besser sein wenn es mit RIS besser aussieht bei AMD und die selben FPS ausspuckt?

DLSS 2.0 sieht im Quality Mode um Welten besser aus als nativ und ist damit auch noch schneller.

RIS macht genau das Gegenteil weil es Artefakte noch verstärkt, im Gegensatz zu DLSS was kaum Artefakte zeigt.

Complicated
2020-10-08, 19:20:32
Völlig sinnlose Diskussion - wo kann man den DLSS "live" sehen?
Im Olympiastadion du Dampfplauderer?

https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/

https://static.techspot.com/articles-info/1873/images/F-17.jpg

Gast
2020-10-08, 21:31:17
Völlig sinnlose Diskussion - wo kann man den DLSS "live" sehen?

Indem man sich eine Turing-Karte, oder falls möglich natürlich auch Ampere einbaut.


https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/

https://static.techspot.com/articles-info/1873/images/F-17.jpg

Zum hunderttausendsten mal, Metro verwendet noch DLSS 1.0, und ja DLSS 1.0 sieht geringfügig schlechter als die selbe native Auflösung aus, nicht aber wenn man dazu die Performance betrachtet, da man ja bei gleicher Performance eine höhere Auflösung einstellen kann. DLSS 1.0 war je nach Umsetzung schrott (Battlefield) bis gut (Tomb Raider), aber definitiv kein Game Changer.

DLSS 2.0 sieht in der Quality-Einstellung besser aus als native Auflösung mit TAA, teilweise sogar extrem viel besser, und bietet dafür auch noch deutlich mehr Speedup als DLSS 1.0.

DLSS 2.0 ist ein Game Changer und mit großem Abstand das beste Feature, das Grafikkarten des letzten Jahrzehntes gebracht haben, Raytracing kann man dem gegenüber eigentlich vernachlässigen.

Gast
2020-10-08, 21:35:58
https://static.techspot.com/articles-info/1873/images/F-17.jpg

Und btw. in deinem Vergleich sieht selbst DLSS deutlich besser aus als Native und erst recht als das Sharpening-Bild, und das obwohl es sich nur um 1.0 handelt.

Die Äste der Bäume sind im native Bild kaum definiert, zerfransen im geschärften Bild, wie nicht anders zu erwarten komplett, und sind im DLSS Bild mit Abstand am besten.

Und DLSS muss man vor allem auch in Bewegung gesehen haben, TAA könnte durchaus die Detaildefinition von DLSS bringen, würde dann aber in Bewegung brutal flimmern. DLSS erreicht eine bessere Detaildefinition, und dabei in Bewegung sogar noch eine höhere Bildruhe als TAA in gängigen Settings.

Gast
2020-10-09, 08:16:11
Schärfe kann man bei Nvidia doch schon seit Jahren in Freestyle hoch und runter drehen ... Das soll das neue AMD Killerfeature sein? :D

Gast
2020-10-09, 09:10:11
Kurios, AMD zeigt Benchmarks der neuen 6000er Reihe, die 10% unter der 3080 liegen, das obwohl man mit der 6000er doch das Speicher "Desaster" von Nvidia eliminiert hat? Mit einer Leistungsstärkeren CPU wohlgemerkt!

Und die AMD Fanboys in den Foren feiern die Ergebnisse ... und auch hier wird man die Ergebnisse im Forum feiern!

"Jaaaa, die AMD Karte ist fast so schnell wie die Konkurrenz, bietet nicht annähernd die selben Features, hat aber fett mehr Speicher!"

Selbst die von AMD Cherrypicked Benchmarks sprechen für Nvidia!

Auf einem anderen Gebiet hingegen so fortschrittlich ... den 5900X werde ich mir gönnen!

Berniyh
2020-10-09, 09:28:28
Kurios, AMD zeigt Benchmarks der neuen 6000er Reihe, die 10% unter der 3080 liegen, das obwohl man mit der 6000er doch das Speicher "Desaster" von Nvidia eliminiert hat? Mit einer Leistungsstärkeren CPU wohlgemerkt!

Und die AMD Fanboys in den Foren feiern die Ergebnisse ... und auch hier wird man die Ergebnisse im Forum feiern!

"Jaaaa, die AMD Karte ist fast so schnell wie die Konkurrenz, bietet nicht annähernd die selben Features, hat aber fett mehr Speicher!"

Selbst die von AMD Cherrypicked Benchmarks sprechen für Nvidia!
Naja, so toll ausgewählt kann das eigentlich kaum sein. UE4 war zuletzt immer die Achillesferse von AMD Karten (eine 5700 XT ist da typischerweise langsamer als eine 1080 Ti), ich bezweifle, dass sich das mit RDNA2 ins Gegenteil verdreht hat.

Aber ich stimme insofern zu: bislang ist da wenig Grund zum Feiern, denn man weiß ja so gut wie nichts um diese Benchmarks vernünftig einzuordnen.
z.B. auch nicht mit welcher TDP die Karte läuft.
Wenn sie so schnell ist wie eine 3080, aber deutlich weniger schluckt, dann ist schon massiv was gewonnen.
Wenn die aber ähnlich wie die 3080 ans Limit geprügelt wurde, dann würde ich das auch nicht unbedingt feiern.

von Richthofen
2020-10-09, 16:44:35
Die Äste im DLSS Modus sehen aus wie von Bob Ross gemalt. Die beiden anderen Bilder wirken natürlicher. Alles in allem seh ich trotzdem kaum Unterschiede. DLSS 2.0 ist von den Ergebnissen her eine feine Sache. Befürchte falls Big Navi schnell wird und auch RT ganz ok ist - die Vorgaben von Ampere sind jetzt nicht überwältigend - wird nV da stark auf der DLSS-Schiene rumreiten.

Gast
2020-10-09, 20:51:28
Wollt ihr euch vielleicht mal überlegen wieviel Sinn eure Diskussion über DLSS 1.0 überhaupt macht? Sucht euch 2.0 Bilder um es zu vergleichen ... Und wer dann noch behauptet Nativ oder RSI würde besser aussehen ist einfach nur ein Lügner. Fakt.

Complicated
2020-10-09, 21:46:36
Warum nicht einfach mal abwarten was AMD jetzt bringt. Auch AMD hat ja nicht aufgehört zu entwickeln. Man wird sehen ob AMDs Ansatz bessere Qualität bietet. DLSS 2.0 jedenfalls überzeugt mich nicht und ich finde das Bild flacher und einer gewissen Tiefendarstellung beraubt.