PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Hauwech
2020-06-25, 11:16:48
Ich glaube das mit dem "wie gehabt" bezog sich eher auf die Platine selbst. Also wahrscheinlich eher in Richtung rechteckig als diesen V-Ausschnitt?

BlacKi
2020-06-25, 11:21:37
Quatsch, der sagt nur, dass die Stromversorgung dem erhöhten Bedarf, der durch die Tensor-Cores zusätzlich zum Rendering entsteht jetzt Rechnung trägt. Daher auch die hohen TDP-Angaben.
was absoluter quatsch ist, wenn die spannung der tensor cores nicht anders ist. bisher scheinen die tensorcores dieselbe spannung zu haben wie die cudacores. da macht ein shared powerlimit absolut sinn.

wenn die cudacores nicht genutzt werden, bleibst den tensor cores powerlimit offen.

wenn die tensor cores nicht genutzt werden, haben die cudacores feuer frei.

das ist die beste lösung um maximale leistung aus einem festgelegten powerlimit zu erzeugen. jetzt kommt iggy und sagt es umgekehrt, ohne es weiter auszuführen...

vl war das absicht, also ein indirekter stubbser, um die community darauf hinzuweisen, das die tensor cores eine andere spannung bekommen werden als die cudacores. das ist die einzigste möglichkeit die ich mir noch vorstellen kann.

Edit: ich hätte das video fertig sehen sollen... er sabbelt aber auch 22min...

Timbaloo
2020-06-25, 12:33:58
Edit: ich hätte das video fertig sehen sollen... er sabbelt aber auch 22min...
Wie kann man sich den Rotz ernsthaft anschauen?

Dampf
2020-06-25, 13:15:32
Die TC müssen immer etwas vom Power Budget abzwacken, von Luft und Liebe funktionieren die nicht. Daran ändert auch eine separate Power Line nichts. Wäre sie aber separat, dann müssten doch die TC ein festes Power Budget bekommen, bei Turing können sie die Leistung jedoch an die CUDA Cores abgeben, wenn sie weniger genutzt werden.

Also ich sehe den Approach von Igor als eher hinderlich an. Aber er hat deutlich mehr Ahnung von Elektronik als ich, vielleicht versteh ich da was falsch.

Leonidas
2020-06-25, 13:28:30
Ich glaube nicht, das sich NV eine Schaltung einfallen läßt, die Leistung links liegen läßt. Davon abgesehen gab es doch kürzlich hier die Aussage, das TC im GeForce-Bereich nur für DLSS benutzt wird. So lange sich dies nicht ändert, muß man da keine große Arbeit reinstecken. TC ist ein Feature fürs Profi-Gedöns.

Sweepi
2020-06-25, 14:09:36
OT


NV hat es immer noch nicht geschafft ne neue moderne Oberfläche für den Treiber hinzubekommen.

Stimmt schon, aber wenn ich mir auf meinen NB das aktuelle AMD Panel anschaue, nehme ich lieber den Win2000/XP look vom nVidia control panel / nVidia Inspektor :D

Wenn da was neues kommt, bin ich gespannt ob und wie lange das dann braucht um auf (mein) Linux zu kommen.

BlacKi
2020-06-25, 14:15:31
gab es doch kürzlich hier die Aussage, das TC im GeForce-Bereich nur für DLSS benutzt wird. So lange sich dies nicht ändert, muß man da keine große Arbeit reinstecken.
das ändert sich in ein paar monaten. wie ich schon sagte, glaube ich, das wir keine neuen dlss games und nachträgliche dlss features bis zum release von gaming ampere sehen werden. damit man der next gen das voll zuschreiben kann, full momentum with ampere. nach ampere könnte es durchaus sein, das 50% der AAA spiele dlss untersützen werden, vl sogar mehr.

mit getrennter spannungsversorgung könnte man beide teile der gpu mit unterschiedlicher spannung versorgen, d.h. zb. das erhöht die effizienz.

Troyan
2020-06-25, 14:17:21
Huh? Die meisten AAA-Spiele wurden verschoben. Und Cyberpunk, Watch Dogs 2, Vampires 2 etc. werden alle mit DLSS kommen. Das hat doch nichts mit Ampere zu tun.

Timbaloo
2020-06-25, 14:43:01
Haben die TC selbst bei Nutzung von DLSS überhaupt einen signifikanten Anteil an der Leistungsaufnahme? Sprich: Wäre da überhaupt viel zu holen?

BlacKi
2020-06-25, 14:51:52
Haben die TC selbst bei Nutzung von DLSS überhaupt einen signifikanten Anteil an der Leistungsaufnahme? Sprich: Wäre da überhaupt viel zu holen?
there you go!
deshalb schaut man igors rotz:biggrin:

made my day;D

Timbaloo
2020-06-25, 15:18:55
Ich schaue generell keine 20 Minuten Videos deren Inhalt sich auf 1-2 Seiten Text mit Bild fassen liessen und auch sinnvoll in einer Diskussion zitierbar wären. Es ist der Krebs der Online-Diskussionskultur irgendwelche Links zu YT-Videos hinzurotzen.

Dural
2020-06-25, 15:26:41
Die Spannungsversorgung wird sicher aufgeteilt sein, aber das liegt nicht an den Tensor Cores sondern schlicht und ergreifend an den 350W und den geringen Platzverhältnisse.

Das vorgehen sieht man zb. bei den Tesla Produkten ja schon länger.

BlacKi
2020-06-25, 15:37:20
Ich schaue generell keine 20 Minuten Videos deren Inhalt sich auf 1-2 Seiten Text mit Bild fassen liessen und auch sinnvoll in einer Diskussion zitierbar wären. Es ist der Krebs der Online-Diskussionskultur irgendwelche Links zu YT-Videos hinzurotzen.
hier timestamp
https://youtu.be/H1C5V_hi38s?t=150

Die Spannungsversorgung wird sicher aufgeteilt sein, aber das liegt nicht an den Tensor Cores sondern schlicht und ergreifend an den 350W und den geringen Platzverhältnisse.

Das vorgehen sieht man zb. bei den Tesla Produkten ja schon länger.
aufgeteilt in was, wenn nicht zwischen tensor cores und cudacores? die aufteilung macht keinen sinn, es sei denn man bekommt es nicht anders hin das man die prioritäten nicht richtig verteilt bekommt, oder man will unterschiedliche spannungen betreiben.

ob man nun 350w zusammen für cudacores und tensor cores braucht, oder ob man 250w cudacores + 100w tensor cores braucht, so sind es dieselben platzverhältnisse.

JVC
2020-06-25, 15:39:23
DLSS ist also gar nicht mehr "so vor free" ?

M.f.G. JVC

hlynska
2020-06-25, 15:41:53
Du kannst es doch auch auf einer einzigen Seite auf dessen Homepage lesen. Verstehe die Aufregung jetzt nicht wirklich. Sogar unterm Video stand ein Link für die, die nur lesen wollen :D

Dampf
2020-06-25, 15:42:19
DLSS ist also gar nicht mehr "so vor free" ?

M.f.G. JVC

Es kostet nicht viel, rund 7-12%

BlacKi
2020-06-25, 15:45:28
DLSS ist also gar nicht mehr "so vor free" ?

M.f.G. JVC
es sind kerne die rechnen und die brauchen saft. die bedienen sich am powerlimit. for free war die nutzung noch nie. wer sagt denn sowas?

Du kannst es doch auch auf einer einzigen Seite auf dessen Homepage lesen. Verstehe die Aufregung jetzt nicht wirklich. Sogar unterm Video stand ein Link für die, die nur lesen wollen :D
das stimmt, danke an die erinnnerung. wieder mal zeit gespart das nächste mal^^

Dural
2020-06-25, 16:21:38
Ich meine Aufgeteilt auf dem PCB, aber immer noch eine Stromversorgung wie man es halt kennt.

Sieht man ja zb. auf MB, manche haben nur links, und manche haben links und oben.

Dank Dreieck PCB dürfte das auch kaum anders machbar sein?! Ich bin auf die Lösung gespannt.

hlynska
2020-06-25, 16:22:37
Ist doch praktisch wenn man das für Schnellleser und Videofetischisten gleichzeitig bekommt. Jeder pickt sich raus, was er braucht.

War übrigens lustig zu sehen, wie man sich verbiegen muss, wenn man etwas weiß, es aber nicht sagen darf, um keinen Liebesentzug zu riskieren. "Gedöns"-Spannung klingt mir sehr nach Miscellaneous und damit auch nach einer lustigen Verballhornung aller sonstigen GPU-Mitesser. :D

Oddzz
2020-06-25, 16:50:26
Ich schaue generell keine 20 Minuten Videos deren Inhalt sich auf 1-2 Seiten Text mit Bild fassen liessen und auch sinnvoll in einer Diskussion zitierbar wären. Es ist der Krebs der Online-Diskussionskultur irgendwelche Links zu YT-Videos hinzurotzen.
https://www.igorslab.de/braucht-nvidia-fuer-ampere-neue-loesungen-fuer-die-spannungsversorgung-aktuelles-turing-design-als-moeglicher-flaschenhals/

Igor veröffentlicht doch immer seine Artikel auf seiner Seite bevor er seine Videos publik macht?! Und die werden auch immer als erstes in der Videobeschreibung verlinkt.

TheGood
2020-06-25, 17:50:31
Du kannst es doch auch auf einer einzigen Seite auf dessen Homepage lesen. Verstehe die Aufregung jetzt nicht wirklich. Sogar unterm Video stand ein Link für die, die nur lesen wollen :D
Du weisst doch "Lesen bildet" aber manchen wollen das halt ned ;)

Die sagen auch der Inhalt ist rotz ohne ihn sich zu gemüte zu führen und dann im selben Atemzug von Diskussionskutlur zur reden ist schon sehr dreist. Bzw. hat echtes Trump niveau.

Ich mag da jetzt jemandem unrecht tun, aber so kommt es halt an...

hlynska
2020-06-25, 18:48:26
Was willst Du, Forenkultur hat ja auch nichts mit Kultur zu tun. Das ist meist nur pures Verbalmobbing zur Sozialhygiene (Ventil-Funktion) :D

Timbaloo
2020-06-26, 07:36:07
Sorry, aber ihr verlinkt die Videos, nicht den Artikel. Warum nicht einfach den Artikel verlinken?

BlacKi
2020-06-26, 11:18:30
weil wir videos kucken.

y33H@
2020-06-26, 12:53:37
Ich habe da gar nicht die Zeit für, jedes Video mit 20 min ^^

Troyan
2020-06-26, 13:02:43
Schaut man sich Cyberpunk an, sieht man ja, dass 30% Mehrleistung wohl kaum relevant für die Zukunft ist. Damit kommt eine "3070" für 500€ ja nichtmal auf 2080TI Niveau.

Dural
2020-06-26, 13:43:07
Ich Wette das Cyberpunk gerade mit Ampere ziemlich gut funktionieren wird.

Ich freue mich schon auf die Verschwörungs Theorien :freak:

mironicus
2020-06-26, 14:35:20
Bei der PCGH gibt es eine "Werbung" die die exklusiven NVidia-Features von Cyberpunk 2077 anpreist.
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/News/Raytracing-Geforce-Now-1353023/

Womit will NVidia eigentlich in Zukunft werben, wenn sie kein Alleinstellungsmerkmal mehr besitzen, nachdem AMD und die Konsolen diese Features auch haben werden? Was macht NVidia wenn es keinen nennenswerten Unterschied zwischen Cyberpunk auf einer PS5 (mit entsprechendem Patch) und einem PC mit Ampere-Grafikkarte gibt?

basix
2020-06-26, 14:35:28
Ich Wette das Cyberpunk gerade mit Ampere ziemlich gut funktionieren wird.

Das glaube ich auch. Nochmal schneller beschleunigtes DXR (DXR 1.1 und schnellere RTX HW) und DLSS 2.0 (schnellere Tensor Cores) wird bei dem Titel gut einschlagen. Vor allem wenn man den Gerüchten bezüglich 1080p @ 30fps mit einer High End Karte glauben schenkt. Mit DLSS 2.0 könnte man das auf 4K upscalen und die schnellste Ampere Karte erreicht allenfalls 60fps. Bei 1440p mit der selben Grundauflösung von 1080p wenn wir Glück haben noch etwas mehr fps.

x-force
2020-06-26, 14:39:52
Was macht NVidia wenn es keinen nennenswerten Unterschied zwischen Cyberpunk auf einer PS5 (mit entsprechendem Patch) und einem PC mit Ampere-Grafikkarte gibt?

das wird nicht passieren, oder meinst du, wenn du keinen erkennen kannst?

vielleicht legen sie den käufern einen gutschein für den optiker bei?

Troyan
2020-06-26, 14:40:19
Bei der PCGH gibt es eine "Werbung" die die exklusiven NVidia-Features von Cyberpunk 2077 anpreist.
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/News/Raytracing-Geforce-Now-1353023/

Womit will NVidia eigentlich in Zukunft werben, wenn sie kein Alleinstellungsmerkmal mehr besitzen, nachdem AMD und die Konsolen diese Features auch haben werden? Was macht NVidia wenn es keinen nennenswerten Unterschied zwischen Cyberpunk auf einer PS5 (mit entsprechendem Patch) und einem PC mit Ampere-Grafikkarte gibt?

Hä? PS5 ist eine Konsole. Läuft Cyperpunk mit 1080p/30FPS auf einer 2080TI, dann wären das 1080p mit 20FPS auf einer PS5. ;D

Ampere wird einfach schneller sein. Mit DLSS dann noch deutlich mehr.

mironicus
2020-06-26, 14:45:02
Ich gehe eher davon aus, daß eine RTX 2080 Ti ausreicht, damit Cyberpunk in 4K und mindestens 30 FPS inkl. DLSS 2.0 und höchstens Raytracing-Einstellungen laufen wird, vielleicht sind da sogar auch schon 60 fps möglich.

Und auf den Konsolen wird es auch mindestens nativ in 4K30 laufen. Das wird spannend.

x-force
2020-06-26, 14:54:45
Und auf den Konsolen wird es auch mindestens nativ in 4K30 laufen. Das wird spannend.

;D

MiamiNice
2020-06-26, 14:55:17
Ich denke Du hast Tagträume ;)

€: Mist zu spät ��
€2: Wahrscheinlich wird man mit einer 2080TI nicht mal mit RTX on spielen können. Bzw. nur auf RTX low.

Ex3cut3r
2020-06-26, 14:56:05
Erstmal überhaupt abwarten, wie das Game wird, kann sein das Sie es verkacken. Die vielen Verschiebungen deuten schon mal nicht gut. Ich wette sogar das noch eine Verschiebung auf Anfang 2021 bevor steht. Und ob das Setting/Welt mir so gut gefällt wie das Witcher Universum weiß ich auch noch gar nicht.

mironicus
2020-06-26, 15:03:34
Ich denke Du hast Tagträume ;)

€: Mist zu spät ��
€2: Wahrscheinlich wird man mit einer 2080TI nicht mal mit RTX on spielen können.

Dieses Spiel ist bestimmt nicht für Ampere-Karten optimiert, sondern ausgehend von der Geschwindigkeit von Turing-Karten. Dank DLSS wird man mit hohen Raytracing-Settings auch in 4K spielen können. Auf RTX 2070 und RTX 2080 in 1440P. Es wäre Unsinn, die Bedingungen so hoch zu schrauben und damit die Turing-Karten völlig zu entwerten.

WedgeAntilles
2020-06-26, 15:20:46
Erstmal überhaupt abwarten, wie das Game wird, kann sein das Sie es verkacken. Die vielen Verschiebungen deuten schon mal nicht gut.
Ja, TW 2 + 3 waren ja auch ganz miese Spiele :wink:

CDPR hat doch die beiden letzten großen Titel ein bzw. zweimal verschoben.
Ergebnis: Zwei phantastische Spiele.
Das die gleiche Verschiebung für Cyberpunk jetzt ein schlechtes Zeichen sein soll finde ich etwas weit hergeholt.


Ich frage mich, ob die Verschiebung auch was damit zu tun hat, dass die neuen GraKas im September noch nicht in den Regalen sind.
Mitte November könnte es aber durchaus welche geben - zumindest die Spitzenmodelle.

Wenn jetzt die Youtuber, Tester und Co das neue Cyberpunkt auf der neuen 3080TI spielen, haben sie eine bessere Grafik und mehr FPS = besseres Spielerlebnis.
Das wird sich natürlich auch in der Begeisterung niederschlagen. Hype!
Und die Videos sehen schöner aus und locken dadurch sicherlich nicht gerade weniger Käufer an.

Für die GraKa-Verkäufer und Sony/Microsoft ist es eigentlich auch gut.
Gibt ja keinerlei Launchtitel die interessant sind.
Jetzt mit Cyberpunk gibt es vielleicht schon eine nennenswerte Gruppe, die unter anderem wegen Cyberpunkt aufrüstet und eine neue GraKa (oder Konsole) kauft.

BlacKi
2020-06-26, 15:24:32
ich glaub die verschiebungen könnten zum teil auch mit den next gen konsolen zu tun haben. man hat ja im stream gesagt, das die neuen konsolen gleich am ersten tag einen next gen patch bekommen für das spiel.

Ex3cut3r
2020-06-26, 15:28:21
Ja, TW 2 + 3 waren ja auch ganz miese Spiele :wink:

Es sind auch nur Menschen, niemand ist unfehlbar. Ich geh den Hype jedenfalls nicht mit. Das rls. Gameplay hat mich jetzt nicht soooo tangiert. KA warum andere vom Stuhl fallen. :confused:

Und was interessieren mich irgendwelche Konsolen? Gehen mir am Arsch vorbei. ;D

dildo4u
2020-06-26, 15:28:41
Nein der richtige Next Gen Patch kommt später, und Sony hat Spiderman das war eins der meist verkauften PS4 Games.

https://www.vg247.com/2020/06/19/cyberpunk-2077-free-robust-upgrade-ps5-xbox-series-x/


gHzuHo80U2M

MiamiNice
2020-06-26, 15:47:09
Dieses Spiel ist bestimmt nicht für Ampere-Karten optimiert, sondern ausgehend von der Geschwindigkeit von Turing-Karten. Dank DLSS wird man mit hohen Raytracing-Settings auch in 4K spielen können. Auf RTX 2070 und RTX 2080 in 1440P. Es wäre Unsinn, die Bedingungen so hoch zu schrauben und damit die Turing-Karten völlig zu entwerten.

Das kannst Du meiner Meinung nach vergessen. Ampere wird ein RT Monster, oder anderes gesagt, laut Gerüchten steigert Ampere die RT Leistung um 200%. Cyberpunk kommt pünktlich zum Release von Ampere. Imo haben nicht Sony und Co. auf die Entwickler Druck gemacht zwecks Verschiebung, sondern NV. Das da eine Partnerschaft existiert zeigt schon die 2080TI in der Cyberpunk Edition. Zufälle gibt es meiner Meinung nach nicht. NV ist aktiv beteildigt und wird mit diesem Spiel zeigen wollen was deren Karten können. Da man aktuell die RT Performance kaum greifen kann und man es vor allem überhaupt erstmal für die Spielerschaft interessant machen muss, Ampere halt maßgeblich an die dieser Stelle zulegt, kann man, imo, eher davon ausgehen das NV sogar Bremsen einbauen lässt um Turing künstlich auszubremsen., falls es noch damit spielbar ist. Wäre ja auch nicht das erste mal das so etwas läuft.

NV will die neuen Karten über die RT Performance verkaufen von der dato heute, 90% aller Käufer denken, es ist weniger als ein Gimmick. Cyberpunk wird und soll genau diese Wahrnehmung ändern. Mich würde es arg wundern wenn mit Turing mehr als RTX low geht.

Ex3cut3r
2020-06-26, 16:27:05
Wird man ja sehen. Aber eins ist sicher. Auf Pascal wird wohl einstellig laufen mit RTX On.

mironicus
2020-06-26, 16:38:13
Wenn NVidia dafür verantwortlich wäre, das Spiel absichtlich zu verzögern gäbe es ein Shitstorm sondergleichen. Für den Erfolg des Spiels selbst ist es total unwichtig, speziell auf NVidia-Hardware angepaßt zu sein. Das Bewerben von exklusiven Features in ein PC-Spiel ist nur ein Bonbon obendrauf für Besitzer dieser speziellen Karten.

Für die Marktdurchdringung von Spielen mit Raytracing werden demnächst schon die neuen Konsolen sorgen, da wird für PC-Spieler auch etwas abfallen.

MiamiNice
2020-06-26, 17:17:26
Wenn NVidia dafür verantwortlich wäre, das Spiel absichtlich zu verzögern gäbe es ein Shitstorm sondergleichen.

Das werden wir niemals offiziel erfahren.


Für den Erfolg des Spiels selbst ist es total unwichtig, speziell auf NVidia-Hardware angepaßt zu sein.

Aber für NV ist das sehr wichtig für den Erfolg von Ampere auf dem PC.


Das Bewerben von exklusiven Features in ein PC-Spiel ist nur ein Bonbon obendrauf für Besitzer dieser speziellen Karten.

Die ganze Ampere Gen wird RTX unterstützen. Das Feature muss breit beworben werden, damit auch alle brav Ampere kaufen.


Für die Marktdurchdringung von Spielen mit Raytracing werden demnächst schon die neuen Konsolen sorgen, da wird für PC-Spieler auch etwas abfallen.

Kein Spiel, in nächster Zeit, hat den Halo Effekt wie eben Cyberpunk. Und mit Konsolenports braucht man PC Spielern doch eh nicht kommen.

Wird man ja sehen. Aber eins ist sicher. Auf Pascal wird wohl einstellig laufen mit RTX On.

Auf Pascal wird das wohl gar nicht laufen mit RTX on, selbst mit off wird das sicher zäh auf Ultra Details. Cyberpunk ist ja quasi der Titel für den viele aufrüsten würden, also kann man da die Messlatte auch schön hoch ansetzen. Man will ja schließlich HW verkaufen.


-----


https://www.nvidia.com/de-de/geforce/news/cyberpunk-2077-ray-tracing-dlss-geforce-now-screenshots-trailer/

Neben dem fantastischen, unübertroffenen Gameplay von CDPR glänzt Cyberpunk 2077 auch durch atemberaubend schöne, hochmoderne Grafik mit beispielloser Detailgenauigkeit und beeindruckenden Sehenswürdigkeiten. Und auf dem PC sieht all dies noch besser aus dank der technischen Partnerschaft zwischen NVIDIA und CD PROJEKT RED, die vier immersive Raytracing-Effekte zusammen mit der leistungssteigernden NVIDIA DLSS 2.0-Technologie ins Spiel bringt. Und Cyberpunk 2077 wird ab dem Tag der Veröffentlichung auf GeForce NOW spielbar sein

Diffuse Beleuchtung mit Raytracing
Reflexionen mit Raytracing
Umgebungsverdeckung mit Raytracing
Schatten mit Raytracing

Würde mich nicht wundern wenn Turing für irgendwas da oben zu langsam ist.

---

Ich denke man ist ein wenig naiv wenn man der Meinung ist das NV da nicht seinen Vorteil draus ziehen will.

Linmoum
2020-06-26, 17:26:01
Aber für NV ist das sehr wichtig für den Erfolg von Ampere auf dem PC.Wenn es Ampere auf absehbare Zeit erstmal nur als GA102 geben wird, dann ist das komplett zu vernachlässigen. Der Käuferkreis in diesem potentiellen Preissegment ist lächerlich klein, wenn man den gesamten Markt betrachtet.

x-force
2020-06-26, 17:26:32
Würde mich nicht wundern wenn Turing für irgendwas da oben zu langsam ist.

wenn sie es über niedriegere präzison lösen, wäre es schöner

Daredevil
2020-06-26, 17:28:09
CD PROJEKT RED kann sich allerdings auch schlecht mit AMD verpartnern, weil es kein Raytracing bei AMD gibt. ( 26.06.2020 )

Ergo:
https://www.igamesnews.com/wp-content/uploads/2020/02/NVIDIA-RTX-2080-Ti-Cyberpunk-2077-Edition-1000x600.jpg

MiamiNice
2020-06-26, 17:31:09
Wenn es Ampere auf absehbare Zeit erstmal nur als GA102 geben wird, dann ist das komplett zu vernachlässigen. Der Käuferkreis in diesem potentiellen Preissegment ist lächerlich klein, wenn man den gesamten Markt betrachtet.


Die werfen doch die kleineren Chips dann Anfang nächsten Jahres nach. Wir wissen doch das mit dem Effekt/Erfolg der großen Karten, die kleinen Karten verkauft werden. Das würde NV massiv in die Hände spielen, gerade bei den kleinen Karten. Die Leute würden regelrecht drauf warten und die kleinen Karten wären dann u.U. für Monate ausverkauft.

Aber wie gesagt, ist nur meine Theorie bzw. Spekulatius :)

pixeljetstream
2020-06-26, 17:55:27
Und was soll NV diese Aktion kosten? Für etwas was nach Release laut dir nichtmal exclusive wäre (bignavi/Konsolen hat ja auch RT). Du musst Dir das ja genau überlegt haben um diese Theorie hier zu vertreten.

MiamiNice
2020-06-26, 17:59:50
Und was soll NV diese Aktion kosten? Für etwas was nach Release laut dir nichtmal exclusive wäre (bignavi/Konsolen hat ja auch RT). Du musst Dir das ja genau überlegt haben um diese Theorie hier zu vertreten.

Keine Ahnung was NV diese Aktion kosten würde. Ich denke wir wissen alle wie unsere Gesellschaft funktioniert und ich halte derlei Aktionen für absolut allgegenwärtig. Gerade von so großen Firmen, mit dem Umsatz und Aktionären im Rücken.

Ich halte unsere Gesellschaft für alsolut schlecht und für maximal Profit orientiert. Und bisher lag ich eigentlich nie so schlecht. Einfach immer der Spur des Geldes nach :)

€: Eigentlich sogar lustig. Meiner Meinung nach steuern wir in etwa auf eine Zukunft zu, die uns der Cyberpunk (generell, nicht das Spiel) aufzeigt.

€2: Weil es gerade so schön passt: https://www.computerbase.de/2020-06/akklaim-turok-namensaenderung-schauspieler/

Ex3cut3r
2020-06-26, 18:35:55
Das werden wir niemals offiziel erfahren.
Auf Pascal wird das wohl gar nicht laufen mit RTX on, selbst mit off wird das sicher zäh auf Ultra Details. Cyberpunk ist ja quasi der Titel für den viele aufrüsten würden, also kann man da die Messlatte auch schön hoch ansetzen. Man will ja schließlich HW verkaufen.

Ähhh doch, Nvidia hat DXR auch für Pascal vor etwas über einem Jahr freigeschaltet. Nur toll laufen tut Metro damit nicht. Für leidensfähige vlt. zockbar.

QQY_rtX0VmU

SKYNET
2020-06-26, 20:20:34
Ähhh doch, Nvidia hat DXR auch für Pascal vor etwas über einem Jahr freigeschaltet. Nur toll laufen tut Metro damit nicht. Für leidensfähige vlt. zockbar.

https://youtu.be/QQY_rtX0VmU


in 1080p dürfte das sogar durchweg über 30fps bleiben, somit spielbar... aber nur high, ultra kanste evtl. in 720p nutzen :freak:

TheGood
2020-06-27, 06:33:58
Das kannst Du meiner Meinung nach vergessen. Ampere wird ein RT Monster, oder anderes gesagt, laut Gerüchten steigert Ampere die RT Leistung um 200%. Cyberpunk kommt pünktlich zum Release von Ampere. Imo haben nicht Sony und Co. auf die Entwickler Druck gemacht zwecks Verschiebung, sondern NV. Das da eine Partnerschaft existiert zeigt schon die 2080TI in der Cyberpunk Edition. Zufälle gibt es meiner Meinung nach nicht. NV ist aktiv beteildigt und wird mit diesem Spiel zeigen wollen was deren Karten können. Da man aktuell die RT Performance kaum greifen kann und man es vor allem überhaupt erstmal für die Spielerschaft interessant machen muss, Ampere halt maßgeblich an die dieser Stelle zulegt, kann man, imo, eher davon ausgehen das NV sogar Bremsen einbauen lässt um Turing künstlich auszubremsen., falls es noch damit spielbar ist. Wäre ja auch nicht das erste mal das so etwas läuft.

NV will die neuen Karten über die RT Performance verkaufen von der dato heute, 90% aller Käufer denken, es ist weniger als ein Gimmick. Cyberpunk wird und soll genau diese Wahrnehmung ändern. Mich würde es arg wundern wenn mit Turing mehr als RTX low geht.

Bei den Previews die ich gelesen haben klanng das eher danach, ah RTX is ON aber wikrlich gemerkt hab ich es nicht. Das ist vermutlich leier die Wahrnehmung vom Großteil der Spieler. Ob Cyberpunk hierdran was ändern wird?
Klar ist jetzt alles super realistisch , aber der hallo wach effekt war bisher meistens nur dann da wenn man es mit den Effekten masslos übertrieben hat. Denn keiner der Effekte ist wirklich neu und einzigartig, nur die Qualität wurde zum Teil stark gesteigert. Das menschliche Auge lässt sich dafür einfach viel zu leicht austricksen.



Ansonsten gehe ich auch davon aus dass da ordentlich GEld geflossen ist, aber ehrlich, mir ist das wurscht . Es soll der Firma gut tun, Nvidia hat genug davon

Sweepi
2020-06-28, 12:06:16
Ob es zu Ampere auch einen x08 Chip geben wird? Bei Turing ist der ja ausgefallen.
Idee: Karte mir der niedrigsten TDP für den HTCP / die Workstation, hat aber alle Features und moderne Schnittstellen.

Hab rausgesucht, wie das bei den vorherigem Generationen gelaufen ist:

GK208 (1.0 B 28nm)
--
GT630 20130529 25W
GT635 20130219 35W
GT640 20130529 49W
-- renaming / refreshes as GT705/710/720/730 2014-2016 --

GM108 (?? 28nm) (GM108 does not have NVENC hardware encoder support.)
--
GT945A 201602xx 33W
GM204 20140918 (17 months before)

GP108 (1.8B Samsung 14LLP)
--
GT1030 20180312 20W
GT1030 20170312 30W
GP104 20160527 (10 months before)


TU117 (4.7B TSMC 12FFN) (old Volta NVENC)
--
GTX1650 20190423 75W
TU104 20180920 (7 months before)



GM108 ist komisch, kam sehr spät und war dann doch Maxwell 1.0. GP108 war der letzte wirklich kleine Chip und kam 10 Monate nach GP104 (GTX1080).

Ghost1nTh3GPU
2020-06-28, 12:13:48
Ein 64-Bit GDDR6 Chip wäre mit >100GBs schon ein nette Option für Notebooks und wäre Tigerlake/Renoir/VanGogh überlegen. Und wie du schon gepostet hast, braucht man auch wieder einen kleinen Chip mit aktuellem Decoder/Encoser und HDMI/DP.

Mit DLSS könnte man da vielleicht auch noch eine vernünftige 1080p60 Leistung bieten.

KarlKastor
2020-06-28, 18:57:34
Wird bestimmt kommen. Mit GP108 braucht man nicht ankommen wenn Tiger Lake auf dem Markt ist. Also entweder GP107 oder TU117. Aber da lässt sich sicherlich was deutlich effizienteres als GP107 und günstiger herzustellendes als TU117 ermöglichen.
64 Bit GDDR6 und 768-1024 SP in 8LPP vielleicht, sollten schon was mit Respektabstand zu Tiger Lake ermöglichen.

HOT
2020-06-29, 07:48:11
Gibt doch TU117 65x schon mit PCIe4 für Tiger Lake:
https://www.notebookcheck.com/NVIDIA-plant-einen-MX350-Nachfolger-auf-Turing-Basis-um-gegen-Intels-Tiger-Lake-Xe-DG1-iGPU-anzutreten-Die-Leistung-liegt-auf-dem-Niveau-der-GTX-1650-inklusive-PCIe-Gen4-Support.453597.0.html

Der wird wohl einfach bleiben, man braucht keinen 108er.

Und da ich den Käse mit Cyberpunk schon wieder hier lese: Das Spiel ist nicht fertig und man wird auch bis September nicht fertig, die Verschiebung hat genau 0 mit NV zu tun.

WedgeAntilles
2020-06-29, 09:45:16
Und da ich den Käse mit Cyberpunk schon wieder hier lese: Das Spiel ist nicht fertig und man wird auch bis September nicht fertig, die Verschiebung hat genau 0 mit NV zu tun.

Generell denke ich schon, dass die Verfügbarkeit der neuen Hardware auch ein Gesichtspunkt bei der Verschiebung war.
Nicht im Sinne, dass Nvidia oder wer auch immer dafür gezahlt hat.
Aber: Wenn Cyberpunk zu einem Zeitpunkt auf den Markt kommt, an dem es die neuen Konsolen, Ampere und evt. auch BigNavi gibt bedeutet das, dass mehr Spieler das Spiel in besserer Qualität und mit mehr FPS spielen können.
Und natürlich beeinflusst das die Reviews, die Videos, Let's play und so weiter.

Klar, für die Konsolen kommt der Patch mit der Anpassung erst im Januar - trotzdem wird es auf der PS5 natürlich besser laufen als auf der PS4. Und sei es weil 60FPS statt 30FPS -> Besseres Spielgefühl.

Beim PC hängt es natürlich auch mit davon ab, was es für GraKas gibt.
Nur die 3080, 3080TI, Titan? Dann ist die Gruppe der Spieler die davon einen Nutzen hat eher gering. Da diese Karten kaum jemand kauft, da zu teuer.
Was aber, falls es schon ne 3070 und BigNavi gibt? Dann erweitert sich die Spielergruppe massiv.
Und: Selbst wenn nur die 3080 aufwärts im Handel ist: Die bekannten Youtuber werden garantiert die neueste GraKa haben.
Sprich der Hype der von diesen Leuten kommt, die Videos die die ins Netzstellen, werden besser aussehen und flüssiger laufen.

Das sorgt selbstverständlich für bessere Presse, bessere Metacritic und so weiter.

Ich sage nicht, dass das der einzige Grund für die Verschiebung ist - die werden die zusätzliche Zeit auch so sehr gut gebrauchen können.

Aber die Hardwareseite ist ein zusätzlicher Bonus.
Eigentlich wäre es sogar idiotisch, im September zu releasen.

MiamiNice
2020-06-29, 10:03:39
Und jetzt denk Deinen Gedanken noch ein kleines Stück weiter. Streamer und YT Guys haben i.d.R. die neuste dicke HW. Sprich die werden auf einer 3080TI spielen ab Release. RTX on natürlich.
Anfang nächsten Jahres kommen dann die kleinen Ampere Chips - und in dieser Gen werden alle Karten RTX unterstützen. Zu welcher Karte greifen die Leute wenn sie RTX on haben wollen?
Ziel erfüllt würde ich sagen.
NV ist Partner von CD Projekt - wer an einen Zufall glaut ist imo naiv :)

WedgeAntilles
2020-06-29, 10:16:30
Und jetzt denk Deinen Gedanken noch ein kleines Stück weiter. Streamer und YT Guys haben i.d.R. die neuste dicke HW. Sprich die werden auf einer 3080TI spielen ab Release. RTX on natürlich.
Anfang nächsten Jahres kommen dann die kleinen Ampere Chips - und in dieser Gen werden alle Karten RTX unterstützen. Zu welcher Karte greifen die Leute wenn sie RTX on haben wollen?
Ziel erfüllt würde ich sagen.
NV ist Partner von CD Projekt - wer an einen Zufall glaut ist imo naiv :)

Ach die sind Partner?
Dann erhöht sich die Wkeit natürlich, dass Geld geflossen ist.
Für Nvidia ist es definitiv eine Art Systemseller für ihre Ampere Generation.
Und wie ausgeführt profitiert auch CDPR (selbst ohne finanziellen Anreiz), weil das Spiel halt einfach besser wahrgenommen wird.

MiamiNice
2020-06-29, 10:28:26
Es müsste nicht mal unbedingt Geld in barer Form geflossen sein. NV könnte auch z.b. Spezialisten gestellt haben für die RTX Effekte. Wenn man den RTX Level so gekoppelt hat das eine 3080TI gerade so RTX "high" schafft, ergeben sich automatisch noch weitere Synergieeffekte für NV. Und das auch gegen AMD die ja von der Render Rohleistung nah rankommen werden diese Gen. Allerdings wohl nicht bei der RT Leistung. Da könnte man sich noch ein 2. Standbein aufbauen. Wer seit Jahren von Gamer GPUs spricht, spricht automatisch von NV. Wer nach Cyberpunk von RTX spricht, spricht dann auch automatisch von NV ^^

Das sind so Sachen die unterbewusst in den Köpfen der Gamer bleiben.

Und btw. ich bin ein großer NV Freund, sie begleiten mich seit der ersten Karte überhaupt. Trotzdem glaube ich nicht an Zufälle :)
Das ist kein NV Bashing meinerseits!

Edit:
Ein anderes Thema ist:
Habt ihr gelesen wie das Spiel aktuell läuft?
Auf ner 2080TI mit RTX on bei um 30 Fps.
Es konnte durchaus sein das das Spiel erst kommt wennn es überhaupt eine GPU am Markt gibt mit der man die volle Grafikpracht zeigen kann.

HOT
2020-06-29, 10:32:56
Was für RTX-Effekte :freak:.
Das Spiel nutzt RT für Verschattung, Beuchtung und Spiegelungen. Und CDP betont ja selber, dass deren eigene DXR-Implementation extrem effizient ist, effizienter als alles, was was bisher erreicht wurde. Ob NV da überhaupt nachgeholfen hat wag ich mal zu beweifeln. Ich glaube, dass die technisch so fit sind, dass sie das sehr gut selbst hinbekommen. NV (wie die anderen Hersteller auch) wird als Andockstelle für die Entwickler fungiert haben, das wars aber auch.
Ob das als Bundle erscheint werden wir sehen, ich glaub das nicht. Das wird einfach davon abhängen, was CDP dafür haben will, denn die sind nicht angewiesen auf die Hardware, umgekehrt wird ein Schuh daraus. Und in welchem Programm die letztendlich erscheinen muss ja keinen Einfluss auf die Entwicklung haben, das war bisher sehr selten der Fall. Jeglicher Zusammenhang zum Start des Spieles und zur eigentlichen Entwicklung sind mMn komplett herbeifantasiert.

Nazar
2020-06-29, 11:16:52
Was wenn alle Gerüchte zur Rohleistung der neuen nV GPU sogar das Maximale darstellen? Also maximal 30% Mehrleistung als der Vorgänger und die Übertaktbarkeit auch noch mies ist? Also dass man diese 30% nicht mal schafft, wenn eine 2080Ti übertaktet ist?
In so einem Fall benötigt nV ein Verkaufsargument.
RTX ist viel zu unauffällig, um damit alleine Werbung betreiben zu können. Außer absoluten Freaks juckt RTX niemanden und stellt kein Verkaufsargument da. Also wer sollte sich einen neue GPU von nV kaufen, wenn der Rohleistungsvorsprung "unterirdisch" ist und man mit RTX absolut nichts am Hut hat?
Geschickter wäre es, wenn man nun ein absolutes Megaspiel hätte, welches auch noch so "optimiert" werden könnte, dass gerade RTX als der Vorteil "sichtbar" ist, gleichzeitig aber extra, ähnlich wie bei Metro, eine "Optimierung" stattfindet, dass, wenn RTX off ist, das Spiel optisch deutlich verliert, auch wenn es gar nicht nötig wäre? Man also den "Vorteil" von RTX künstlich "herausarbeitet?
Ein neues Spiel, das angeblich "alle" wollen und das jetzt nur noch mit RTX+DLSS gut läuft und eine tolle Optik bietet!? Das wäre dann das Verkaufsargument für die neue GPU Generation von nV.
Und, man kann sogar dem "Gegner" noch eine stecken, da die Konsolen dann zwar auch CP2077 laufen lassen können aber eben nicht so optisch "optimiert" prachtvoll.
So eine Option würde alle eventuellen Nachteile der neuen GPU Generation zu einem Vorteil werden lassen.
Selbst wenn AMD gleichziehen könnte -oder sogar eine bessere "Rohleistung" bieten würde- wäre nV erst einmal fein raus.
Und selbst bei älteren Spielen reicht die Leistung der neuen Karten -ein wenig größer als die der 2080Ti- locker für 4K in Ultra BQ aus.
Es wäre also geradezu ein Muss für nV alles zu tun, um CP2077 für die kommenden Grafikbeschleuniger zu optimieren und damit die Verschiebung der Veröffentlichung heraus zu zögern, um alle Karten selber in der Hand zu halten.

Natürlich ist das reine Spekulation aber es passt wirklich so perfekt und wenn ich wetten müsste, wäre das die Wette, auf die ich setzen würde.
Das klingt so unglaublich, dass es einfach passen muss. :freak:

MiamiNice
2020-06-29, 11:18:37
This ��
Es liegt einfach dermaßen auf der Hand, das man gar nichts anderes denken kann.

HOT
2020-06-29, 11:36:21
Aber genau dafür ist 2077 mMn einfach zu unaffällig bei den RT-Effekten. Das ersetzt eben die bisherige kunstvoll erstellte Beleuchtung durch echte, aber dem Normalanwender wird das wenig auffallen, da sind die Spieglungen das auffälligste, das ist aber genau das, was im Eifer des Gefechtes zuerst ignoriert wird, siehe BF5.
Meiner Ansicht nach ist der Detailgrad sogar erschreckend gering und der LOD viel zu heftig in den bisher gezeigten Videos, was aber auch am Optimierungsstand liegen wird.

Wex
2020-06-29, 11:53:33
muss ja nicht nur RT sein, wahrscheinlich ist dann auch noch DLSS bis ans maximum optimiert.

MiamiNice
2020-06-29, 11:58:01
Ich denke 2077 wird mit Abstand das Spiel mit den höchsten RTX Anforderungen. Wir werden sehen. Aktuell läuft es mit RTX on auf 30 Fps mit einer 2080Ti. Das lässt schon ein wenig blicken wohin die Reise geht. Und wo steht das wir bis jetzt was mit RTX high gesehen haben? ^^

mironicus
2020-06-29, 12:05:00
Meiner Ansicht nach ist der Detailgrad sogar erschreckend gering und der LOD viel zu heftig in den bisher gezeigten Videos, was aber auch am Optimierungsstand liegen wird.

Das ist eher ein typisches Merkmal für ein Last Gen Open World-Spiel, das Game muß ja auch auf Rechnern mit langsamen Festplatten laufen. :freak:

HOT
2020-06-29, 12:06:36
MiamiNice
Genau, das ist ja auch der Fortschritt. Man hat eben echte Lichtquellen, echte Schatten usw. Das sieht natürlich gut aus, wenn da alles andere auch stimmt, das darf man nicht missverstehen ;). Es ist eben nur nicht unbedingt direkt ein wow damit verbunden ;).

Daredevil
2020-06-29, 12:13:29
Es geht auch gar nicht darum, ob und wie RTX bei Cyberpunk gut aussieht/wie es performt, es geht darum, dass man Cyberpunk als Vermarktungspunkt nehmen kann, weil es nämlich next Hyped Game ist.

Es ist ein "Halo" Produkt ( Danke AMD für die Bezeichnung :D ) und wenn das mit Nvidia in Verbindung gebracht wird, dann reicht das.
Dann läuft ne 2080ti halt bei WQHD@60fps, oder 4K@30-40fps. So what. Ist trotzdem spielbar und wenn man halt der geilste im Teamspeak sein möchte, verkauft man sein Auto und schmeißt n WaKü Block auf ne Titan.

Crysis lief auch überall scheiße, trotzdem wird es heute immer noch als Referenz genommen, weil es fordernd war und das Marketing sein übriges getan hat. ( Zudem war es hübsch und wurde massiv gehyped. :> )

MiamiNice
2020-06-29, 12:17:44
Wo wir bei Crysis sind.
Demnächst heißt es dann: "Can it run Cyberpunk"

HOT
2020-06-29, 12:21:37
Wenn normale Schatten und normales HBAO+ genutzt wird läuft bestimmt super flüssig :D. Das kommt ja auch noch für XB1 und PS4.

WedgeAntilles
2020-06-29, 12:36:51
Aber genau dafür ist 2077 mMn einfach zu unaffällig bei den RT-Effekten. Das ersetzt eben die bisherige kunstvoll erstellte Beleuchtung durch echte, aber dem Normalanwender wird das wenig auffallen, da sind die Spieglungen das auffälligste, das ist aber genau das, was im Eifer des Gefechtes zuerst ignoriert wird, siehe BF5.


Das ist zwar richtig, nur: Ist es überhaupt sooo wichtig?
CP sieht gut aus (ja, es gibt ein paar Details, die nicht perfekt sind. Mir z.B. gefällt die Haut an vielen Stellen nicht so).

Wir sind uns einig, die Youtuber alle mit RTX on spielen, mit ner Ampere 3080 bzw. eher 3080TI.
Die Zuschauer sehen dann ein Spiel, das ihnen sehr gut gefällt.
Überall heißt es, RTX, RTX, RTX.
Ob RTX jetzt für das schöne Aussehen überhaupt unverzichtbar ist?
Wer weiß das schon?

Die Zuschauer verbinden tolle Grafik von CP mit RTX.
Und glauben, dass sie RTX brauchen.

Natürlich nicht alle.
Ich weiß auch nicht ob ich den Einfluss von Let's play und den ganzen Youtubern überschätze.

Aber man braucht ja auch nicht alle überzeugen, wenn ein paar hunderttausend sich beeinflussen lassen, sich durch Mund zu Mund Propaganda das weiter verbreitet - da lassen sich schon diverse GraKas verkaufen.


Edit: Daredevil hat das ganze sehr viel kürzer und prägnanter auf den Punkt gebraucht, während ich hier einen halben Roman geschrieben habe :D

MiamiNice
2020-06-29, 12:51:35
Dann läuft ne 2080ti halt bei WQHD@60fps, oder 4K@30-40fps

Ich tippe auf FHD bei 30FPS mit RTX on für die 2080TI.
Selbst die kleinste Ampere Karte dürfte mehr RTX Power als die 2080Ti haben.

Daredevil
2020-06-29, 12:54:07
WedgeAntilles
Genau, das kommt auch noch dazu.
Der "haben wollen" Faktor bei Grafikkarten.

Wenn ich feucht werde bei einer Titan, sie mir aber nicht leisten kann, kaufe ich mir mal eine 2070S, weil die "auch irgendwie sowas kann", aber nicht so geil. Oder vielleicht eine 2060S, völlig egal. Was nicht passieren wird, dass man sich dann auf einmal eine AMD Karte holt, wenn man eine Titan toll findet. ( Premium Feeling )

Wenn ich nen Audi R8 geil finde, finde ich nicht nur den R8, sondern auch Audi geil. Dann kaufe ich mir nen schicken A3 und bin glücklich, wechsel aber bestimmt nicht zu einem Golf.

@MiamiNice
Meine Glaskugel ist nicht aufgeladen. :>
"Sollte" und "Dürfte" sind so zwei Dinge, mit denen ich nicht arbeiten kann, weil man das schlecht begründen kann aktuell.
Ich "glaube" aber nicht, dass eine 2080ti auf einmal altes Eisen wird und man nur FullHD bekommt. :)

MiamiNice
2020-06-29, 12:57:51
2080TI zu 3080TI sollen es 200% mehr RTX Power sein. "Sollen".
Wenn man davon ausgeht - warum sollte die Leistung nicht abgerufen werden können vom Spiel? Gerade mit Blick auf AMD und Halo Produkt.
Und mit DLSS wird das dann schon noch spielbar sein auf der Alteisen Karte 2080TI. Deren RTX Power war doch von Anfang an nur ein Gimmick und jeder Käufer wusste das schon beim Kauf.
Und wenn wir uns erinnern: Wie viele Spiele haben den RTX Level runterschrauben müssen um überhaupt lauffähig auf einer 2080Ti zu sein? ^^ Die hat ja nicht mal für die erste vorsichtige RTX Implementierung seitens der Hersteller gereicht.
Wie die Karte wohl bei einem Spiel performen wird dessen Einsatzzweck es ist RTX populär zu machen?

Für mein Gefühl werden 2080TI Nutzer auf 720p oder 1080p mit RTX on und DLSS spielen.

Daredevil
2020-06-29, 13:36:09
200% mehr RTX Power bedeutet aber nicht, dass man 200% mehr fps in jedem RTX Game bekommt.
Jedes Spiel skaliert unterschiedlich und nicht immer ist die Karte gleich ausgelastet, gerade bei RTX on.
Deswegen ist „RTX Power“ ein schwieriges Maß.

Ich glaube seit Battlefield und —-Minecraft—- kennt jeder schon RTX. :C

HOT
2020-06-29, 14:08:07
Wichtiger ist, dass DXR on nicht mehr soviel Impact auf die normale Spieleleistung hat. Das kann man so sowieso so nicht messen.

MiamiNice
2020-06-29, 14:13:37
Ich glaube seit Battlefield und —-Minecraft—- kennt jeder schon RTX. :C

Man weiß was es ist aber wird großflächig als unnützes Gimmick betrachtet. Das soll und wird sich ändern.

Troyan
2020-06-29, 19:03:10
Galax bringt eine GTX1650 mit TU106 Chip: https://videocardz.com/newz/galax-reveals-geforce-gtx-1650-ultra-with-tu106-125-gpu

Müssen die Lager wohl noch geleert werden, bevor Ampere kommt.

SKYNET
2020-06-29, 22:37:18
Wo wir bei Crysis sind.
Demnächst heißt es dann: "Can it run Cyberpunk"

jede wette ne 1080Ti wie unsere kann das game in 1440p locker in 60fps wiedergeben... ohne RT versteht sich.

MiamiNice
2020-06-29, 22:38:41
jede wette ne 1080Ti wie unsere kann das game in 1440p locker in 60fps wiedergeben... ohne RT versteht sich.

Meine 1080TI wird das Spiel nicht sehen. Das kann sich mit meiner 3080TI anfreunden :wink:

Sweepi
2020-06-29, 23:03:26
Ist der aktuelle Stand nicht: Launch mit Titan & 3080, 3080 Ti kommt später?

Passt jedoch meiner Meinung nach nicht dazu, das die Titan wesentlich langsamen Speicher haben soll als die 3080 Ti.

Triniter
2020-06-30, 09:30:40
Was für ein Setup zum Launch kommt ist aktuell wirklich das spannendste Thema. Ich hoffe ernsthaft es kommt ein Kracher der meine 1080ti würdig ersetzt und auch wieder recht lange ausreicht.

Dural
2020-06-30, 09:58:50
Galax bringt eine GTX1650 mit TU106 Chip: https://videocardz.com/newz/galax-reveals-geforce-gtx-1650-ultra-with-tu106-125-gpu

Müssen die Lager wohl noch geleert werden, bevor Ampere kommt.

Krass, 60% der GPU deaktiviert :freak:

Kann mich nicht erinnern das es so was schon einmal gab.

Aber wegen Ampere?!? Die Leistungsklasse von 3070, 3080 und höher dürfte kaum in Konkurrenz zu TU106 stehen. Da scheint mir auch was darunter relativ bald zu kommen.

Sweepi
2020-06-30, 10:09:15
Ich hoffe auch, dass da ein Kracher kommt, die 2080Ti ist schon verkauft :D

Leonidas
2020-06-30, 10:57:51
Galax bringt eine GTX1650 mit TU106 Chip: https://videocardz.com/newz/galax-reveals-geforce-gtx-1650-ultra-with-tu106-125-gpu


Interessanterweise mit +12% Performancegewinn gegenüber einer normalen GTX1650GD6:
https://twitter.com/TUM_APISAK/status/1277604388631048198

Könnte natürlich am höheren Power-Limit liegen (90W anstatt 75W).

HOT
2020-06-30, 10:57:52
Dural
Klar, Verwertung des allerletzten Schrotts hats bei allen Herstellern immer mal wieder gegeben. Das hat mal so gar nix mit Ampere zu tun. Dass immer solche Verbindungen herbeifantasiert werden.


Ich würd auch sagen, die launchen zuerst die Titan oder zuerst die 3080, ich tippe mal auf die Titan und einen gemeinsamen Launch von 3080 und 3090 später.
Dass die Titan langsameren Speicher nutzt um auf Samsung 18GT/s 2GB-Chips zurückgreifen zu können, sollte mittlerweile offensichtlich sein. Der schnelle X-RAM wird sicherlich wieder von Micron kommen und nur 1GB unterstützen. Sobald 2GB-Chips des schnelleren Speichers verfügbar wird, kann man ja einfach die Titan aktualisieren.

HOT
2020-06-30, 11:09:17
Man launcht erst die Titan, die ist dann für nen Monat oder zwei die schnellste Karte und dann kombiniert die anderen beiden, die dann den Gaming-Markt abdecken, während die Titan eben zuerst alles und ab dann eben den semi-professionellen Markt abdeckt. Vielleicht ist der X-Speicher auch einfach noch nicht so stark verfügbar, um alles jetzt zu launchen, dann sammelt man erst mal und nutzt erst die Titan mit klassischem GDDR6. Es sollte absolut klar sein, dass die 3090 die schnellste Gaming-Karte wird. Ein paar Monate später gibts dann vllt. auch 2GB-X-Chips und dann refresht man die Titan, dann wäre sie wieder die schnellste.
NV ist ja daran gebunden, was auch machbar ist. Wenn es nicht anders geht, dann muss die Titan eben so lange hinter der 3090 zurückstecken, ich nehme an, deshalb heißt das Ding auch 3090.

X-Bow
2020-06-30, 11:32:51
Ich glaube noch nicht an den X-Speicher da man einfach noch keine Spezifikation durch JEDEC findet.
Ich vermute eher das alle Karten GDDR6 haben werden und nur duch das Backdrillverfahren die Signalqaulität gut genug wird für die 21GBps.
Bei der Titan wird durch die beidseitige Bestückung kein Backdrill möglich sein, ergo auch nur 17GBps.

MiamiNice
2020-06-30, 11:37:16
Als erstes die Titan zu bringen kann sich NV nicht erlauben. Das gäbe eine Shitstorm.

HOT
2020-06-30, 11:39:07
Wieso das?

X-Bow
Den Speicher gibts als 2GB-Chips. Keine Doppelbestückung nötig.

gnomi
2020-06-30, 12:11:33
Eventuell kommt erst einmal nur eine 3080.
Den Rest behält man in der Hinterhand...

JVC
2020-06-30, 12:21:31
Eventuell kommt erst einmal nur eine 3080.
Den Rest behält man in der Hinterhand...
... und wartet auf AMD.

Ich hätte ja gesagt, wenn man denkt das für AMD die 3080 genügt,
dann kommt die als erstes...
(aber scheinbar ist sich selbst NV, da nicht ganz so sicher)

M.f.G. JVC

Sweepi
2020-06-30, 13:15:16
Man launcht erst die Titan, die ist dann für nen Monat oder zwei die schnellste Karte und dann kombiniert die anderen beiden, die dann den Gaming-Markt abdecken, während die Titan eben zuerst alles und ab dann eben den semi-professionellen Markt abdeckt.
Also nVidia releast 3080 & Titan, und nach RDNA2 kommt dann die 3080 Ti aka 3090, die in Games aufgrund des schneller Speichers gut schneller als die Titan ist? Kann ich mir nicht vorstellen.
Vll wenn sie beim Titan Release die 3080 Ti aka 3090 ankündigen / anteasern (-> und (damit) klarstellen, das die Titan rein für den semi-professionellen Markt gedacht ist).

Fragman
2020-06-30, 13:32:56
AMD wird hier überschätzt, was wohl am Namen "BigNavi" liegt. Daraus ableitent spekulieren einige wie nv sich verhalten wird. Dafür ists viel zu spät da die Produkte schon länger stehen.

Ich glaub auch nicht, das die 3 Produkte so eng beieinander liegen werden. Die Titan nehme ich mal vorsichtig davon wieder aus, einfach weil sie einen anderen Markt bedienen wird und für Spieler so oder so uninteressant ist (deshalb wird die auch nicht zuerst gelaunchet, macht ja Null Sinn).
Generell dürfte für die meisten diese Diskussion am Budget vorbei gehen, BigNavi inklusive.
Wichtiger ist ja eher was auf Höhe der x070 und drunter abfällt, gerade auch im Hinblick auf die Leistungsfähigkeit der neuen Konsolen. Da muss die neue x070 ja eigentlich auf dem aktuellen 2080TI Level liegen. Damit dürften dann aber die meisten Performanceprojektionen schon hinfällig sein. Außer natürlich und das schreib ich ja auch immer wieder gern, die Preise werden anders aussehen, als viele erwarten. Dann muss die neue x070 nicht dieses Level erreichen.

robbitop
2020-06-30, 13:44:33
Eventuell kommt erst einmal nur eine 3080.
Den Rest behält man in der Hinterhand...
Kann aber sein, dass man sich damit keinen Gefallen tut. Bei Turing gab es gleich die 2080ti, weil die 2080 in den meisten Spielen kaum schneller war als die 1080ti. Ähnliches kann ich mir hier auch vorstellen.

Dural
2020-06-30, 14:02:02
Dural
Klar, Verwertung des allerletzten Schrotts hats bei allen Herstellern immer mal wieder gegeben. Das hat mal so gar nix mit Ampere zu tun. Dass immer solche Verbindungen herbeifantasiert werden.


Beispiele? 61%?

gnomi
2020-06-30, 14:03:39
RTX und DLSS sind ja mittlerweile noch höher zu gewichten als zum Release der 2080.
Wenn eine 3080 hier 80-100% schneller als eine 2080 ist, könnte sie Käufer aller bisheriger Grafikkarten ansprechen.
Neben Cyberpunk sehen wir sicher auch die ersten neuen Konsolenspiele/Multiplattformspiele mit entsprechenden Features.
Dann will man auf jeden Fall eine Karte, die hier möglichst schnell ist und das mit Leichtigkeit schafft.
2080 TI Käufer würden eventuell noch etwas warten, weil nur bisschen langsamer, aber dann käme ja die 3080 TI natürlich über 1000 Euro nachgeschoben...

X-Bow
2020-06-30, 14:21:55
X-Bow
Den Speicher gibts als 2GB-Chips. Keine Doppelbestückung nötig.

Ja und? Das eine schließt doch das andere nicht aus.

HOT
2020-06-30, 14:25:45
Ja und? Das eine schließt doch das andere nicht aus.
Doch tut es. Denn sowohl Kosten als auch Stromverbrauch spricht für Standard 2GB RAM. NV verbaut übrigens schon seit Launch Turing 2GB RAM auf Quadros.

Beispiele? 61%?
Das mag sogar das extremste Beispiel sein, die Richtung ist aber klar. Schrottverwertung. Da der Chip sehr groß ist, gibts auch hohe Deaktivierungsraten.

X-Bow
2020-06-30, 15:01:12
Doch tut es. Denn sowohl Kosten als auch Stromverbrauch spricht für Standard 2GB RAM. NV verbaut übrigens schon seit Launch Turing 2GB RAM auf Quadros.

Ach Du kennst schon das exakte Design vom PCB? Na dann sag an. :rolleyes:

JVC
2020-06-30, 16:24:25
RTX und DLSS sind ja mittlerweile noch höher zu gewichten als zum Release der 2080.

Zu proprietär. Bin gespannt, ob sie überhaupt in der Form erhalten bleiben...

Wir werden vermutlich die ganzen "Konsolenfeatures" am PC bekommen...
(die bleiben m.M.n. wesentlich eher erhalten als "neuer Standard")

M.f.G. JVC

Edgecrusher86
2020-06-30, 17:24:13
Um nochmals zurück zum möglichen PCB Layout der FE zu kommen.
Würde man sich bei der Spannungsversorgung beim A100 SMX4 Layout bedienen, wäre das wohl deutlich kompakter zu gestalten - selbst mit GDDR6(X).
Ich habe mal die 3080er Version aus dem Netz genommen und etwas umgestaltet für eine mögliche RTX 3090 oder TITAN RTX "II" mit der VRAM Anordnung, wie Igor sie nannte.


https://abload.de/thumb/igor-3090kompaktjkjck.jpg (https://abload.de/image.php?img=igor-3090kompaktjkjck.jpg) & https://abload.de/thumb/igor06knd.jpg (https://abload.de/image.php?img=igor06knd.jpg)

Nur etwas Spekulatius. :D

MiamiNice
2020-06-30, 17:28:57
Zu proprietär. Bin gespannt, ob sie überhaupt in der Form erhalten bleiben...

Wir werden vermutlich die ganzen "Konsolenfeatures" am PC bekommen...
(die bleiben m.M.n. wesentlich eher erhalten als "neuer Standard")

M.f.G. JVC


Ist das Dein ernst?
Bisher sehe ich eher Konsolen die sich immer mehr an den PC angleichen.

€: Zur gestrigen Diskussion wie schnell eine 2080TI in Cyberpunk sein wird und wie viel RTX Leistung eine Ampere basierte GPU raushauen muss und wird:

https://www.xboxdynasty.de/news/cyberpunk-2077/pc-preview-des-rollenspiels-lief-in-1080p-mit-raytracing-auf-einer-rtx-2080ti-grafikkarte/

et voilà ;)

Fragman
2020-06-30, 17:43:36
Den Performance"wert" kann man eh vergessen 5 Monate vor Release.
Noch dazu würde auch Ampere nichts dran ändern können. Dazu müsste der Chip ja generell 3 mal schneller sein als Turing. Ich hoffe jetzt kommt keiner auf die Idee, einen Hypetrain zu starten. ;)

MiamiNice
2020-06-30, 17:48:58
Das ist nicht korrekt. Der RTX Teil darf die Renderleistung nicht mehr so kastrieren und ich würde darauf wetten das Ampere genau mit diesem Ziel desingt wurde. NV ist Tech Partner von dem Game. Es wird auf der 3080TI oder 3090 laufen wie geschmiert, mit allen RTX Effekten. Wetten? :wink:

rentex
2020-06-30, 18:00:41
5 Monate vor Release, sind 2,5 Monate nach dem ursprünglichen Releasedatum...ich bezweifle ganz stark, das die Engine bis jetzt nicht optimiert worden ist.

Sweepi
2020-06-30, 18:08:16
Kann DLSS 2.0 jetzt eigentlich auch Downsampling anstatt Performance erhöhen?

Maorga
2020-06-30, 18:57:57
Um nochmals zurück zum möglichen PCB Layout ...

https://abload.de/thumb/igor-3090kompaktjkjck.jpg (https://abload.de/image.php?img=igor-3090kompaktjkjck.jpg) & https://abload.de/thumb/igor06knd.jpg (https://abload.de/image.php?img=igor06knd.jpg)

Nur etwas Spekulatius. :D

Warum sollte das PCB so aussehen, ich mein rechts die Einkerbung ist total sinnfrei - reine Verschwendung.

Edgecrusher86
2020-06-30, 19:12:03
Du hast die Fotos der vermeintlichen 3080 FE als ES und dem Kühler mit Heatpipes schon gesehen, oder nicht?

https://videocardz.com/newz/nvidia-geforce-rtx-3080-pictured
https://videocardz.com/newz/nvidia-geforce-rtx-3080-heatsink-leaked

Ich persönlich würde es auch klassisch halten. :D
Knappe 26,7cm für Highend, 24cm darunter für die 70er und 21,3cm bei einer 60 und 50er zum Bleistift - alles ohne V-Ausschnitt.

Huang möchte wohl, dass sich die Referenz-Karten in allen Belangen optisch absetzen von dem Rest.
Da die RTX 3080 ja wohl auch auf den großen GA102 setzt (Cut auf 68/84SM vermutlich), dürften die Karten darüber auch das kurze 21,3cm PCB nutzen.

=Floi=
2020-06-30, 20:15:26
Knappe 26,7cm für Highend, 24cm darunter für die 70er und 21,3cm bei einer 60 und 50er zum Bleistift - alles ohne V-Ausschnitt.


;D :ugly:

OgrEGT
2020-06-30, 21:15:09
Könnte doch auch sein dass das PCB klassisch gerade ist ohne Ausschnitt. Dann verdeckt es einen Teil des hinteren Lüfters nur. Der Ausschnitt basiert nur auf der Annahme dass das PCB den hinteren Lüfter komplett frei lassen muss...

Edgecrusher86
2020-06-30, 21:22:16
;D :ugly:

Es war nur eindeutig gemeint! :D


Könnte doch auch sein dass das PCB klassisch gerade ist ohne Ausschnitt. Dann verdeckt es einen Teil des hinteren Lüfters nur. Der Ausschnitt basiert nur auf der Annahme dass das PCB den hinteren Lüfter komplett frei lassen muss...

So sieht es zumindest in diesem Fall aus, ja:

https://abload.de/thumb/bigyjjf8.png (https://abload.de/image.php?img=bigyjjf8.png)

Mal sehen, ob das so in der Praxis und durch die Bank umgesetzt wird.

Monsta
2020-06-30, 21:54:54
Ich bin mal auf die Preise gespannt.
Als die Ps4 released wurde hat Nvidia zur Überraschung die 970er für ca. 300€ in den Markt gelassen. Customs für ca.350€.

Das war Euro/Fps der Hammer und eine gute Konkurenz zu den Konsolen. Es hat Jahre gedauert bis man für weniger Geld mehr Fps bekommen hat. Der mining Hype war da nicht ganz unschuldig.

Falls die Konsolen wirklich wieder ab 399€ kommen, macht es wenig Sinn nur ne 800€ 3080 zu bringen. Da werden viele lieber ne Ps5/Xbox kaufen.

robbitop
2020-06-30, 22:01:16
RTX und DLSS sind ja mittlerweile noch höher zu gewichten als zum Release der 2080.
Wenn eine 3080 hier 80-100% schneller als eine 2080 ist, könnte sie Käufer aller bisheriger Grafikkarten ansprechen.
Neben Cyberpunk sehen wir sicher auch die ersten neuen Konsolenspiele/Multiplattformspiele mit entsprechenden Features.
Dann will man auf jeden Fall eine Karte, die hier möglichst schnell ist und das mit Leichtigkeit schafft.
2080 TI Käufer würden eventuell noch etwas warten, weil nur bisschen langsamer, aber dann käme ja die 3080 TI natürlich über 1000 Euro nachgeschoben...
DLSS und RTX sind auch zum Ampere Release nur in der Minderheit von Spielen implementiert. Wo sie es nicht sind, entfällt der Vorteil. Die neue Karte sollte schon in voller Breite des Benchmarkparcours souverän eine 2080 ti schlagen.

Ich würde darauf tippen, dass auch eine Version mit 8x SMs releast werden wird.

=Floi=
2020-06-30, 22:07:54
Könnte doch auch sein dass das PCB klassisch gerade ist ohne Ausschnitt. Dann verdeckt es einen Teil des hinteren Lüfters nur. Der Ausschnitt basiert nur auf der Annahme dass das PCB den hinteren Lüfter komplett frei lassen muss...

Igor hat das V design schon als käse abgeschmettert. Ist wohl sehr gut gerendert laut ihm.
Am ende führt nichts an den custom karten vorbei und was an leistung rauskommt, muss man sich einfach anschauen. So lange die nicht den vram richtig erhöhen, bin ich sowieso raus.

MiamiNice
2020-06-30, 22:11:51
Ich bin mal auf die Preise gespannt.
Als die Ps4 released wurde hat Nvidia zur Überraschung die 970er für ca. 300€ in den Markt gelassen. Customs für ca.350€.

Das war Euro/Fps der Hammer und eine gute Konkurenz zu den Konsolen. Es hat Jahre gedauert bis man für weniger Geld mehr Fps bekommen hat. Der mining Hype war da nicht ganz unschuldig.

Falls die Konsolen wirklich wieder ab 399€ kommen, macht es wenig Sinn nur ne 800€ 3080 zu bringen. Da werden viele lieber ne Ps5/Xbox kaufen.

Die Argumentation hat Leo auch schon auf der Webseite genutzt. Ich verstehe den Hintergrund einfach nicht. Wenn ich einen PC zuhause stehen habe und mit so einer Karte liebäugle - dann ist eine Konsole auf gar keinen Fall ein Ersatz dafür. Lezten Endes sind die "next Gen" (lol) Konsolen nichts anderes als ein Sidegrade für einen PC Gamer. Da Teile haben doch kaum Power gemessen am aktuellen PC (erst recht wen Ampere dann da ist). Und diese Gen wird es sicher auch nichts mit 399€, sonst hätte sich MS direkt die kleine Version gespart. Da werden wohl eher 499€ oder mehr dran stehen. Für verdongelte Last Gen PC HW. Total unsexy.

Monsta
2020-06-30, 22:20:45
Die Argumentation hat Leo auch schon auf der Webseite genutzt. Ich verstehe den Hintergrund einfach nicht. Wenn ich einen PC zuhause stehen habe und mit so einer Karte liebäugle - dann ist eine Konsole auf gar keinen Fall ein Ersatz dafür. Lezten Endes sind die "next Gen" (lol) Konsolen nichts anderes als ein Sidegrade für einen PC Gamer. Da Teile haben doch kaum Power gemessen am aktuellen PC (erst recht wen Ampere dann da ist). Und diese Gen wird es sicher auch nichts mit 399€, sonst hätte sich MS direkt die kleine Version gespart. Da werden wohl eher 499€ oder mehr dran stehen. Für verdongelte Last Gen PC HW. Total unsexy.

Der Großteil der Pc Spieler kaufen doch nur Gpu´s bis max 400€. Natürlich stellt sich da die Frage Xbox/Ps5 oder ne 2070.
Da hat die Konsole doch mehr Leistung. Mit der 2070 werden das dann 15 Fps bei 1080p und Rtx;D bei Cyberpunk

crux2005
2020-06-30, 22:38:27
Ohne RTX ist Cyberpunk 2077 nicht spielbar? /i

Fragman
2020-06-30, 22:46:16
Ich sehe das genauso, man kann keine 800€ aufrufen, wenn die Konsole nebenann 500 kostet und eine ähnliche Leistung bietet. Deshalb glaube ich auch nicht an die Horrorpreise, die sich einige ausmalen. Das macht einfach keinen Sinn denn nv ist nicht in derselben Lage wie Intel vor 6 Jahren.

MiamiNice
2020-06-30, 22:49:03
Der Großteil der Pc Spieler kaufen doch nur Gpu´s bis max 400€. Natürlich stellt sich da die Frage Xbox/Ps5 oder ne 2070.
Da hat die Konsole doch mehr Leistung. Mit der 2070 werden das dann 15 Fps bei 1080p und Rtx;D bei Cyberpunk

Man hat ja schon eine HW Basis die einen gewissen Wert darstellt. Warum sollte man das brach liegen lassen, wenn man selbst mit einer 500€ Ampere Karte mehr bekommt als mit einer 500€ Konsole. Plus natürlich die gewohnten Freiheiten, + M+T, + all die anderen Games die man natürlich schon hat und spielt. Mates dürfte man auch auf dem PC haben, wenn man vom PC kommt. Eine Konsole bietet einem PC Spieler doch nichts, wenn man schon in der Welt ist.
Als generell 2. Medium habe ich da Verständnis für, aber komplett wechseln weil die Karte nen Hunderter mehr kostet als eine Konsole? Sehe ich nicht.

PS: Zumal, wenn man nicht ganz dämlich ist, auch die Folgekosten kalkuliert werden. Die generelle Online Maut bei den Konsolen und die extra Spiele Maut natürlich. Eine Konsole ist viel teurer im Unterhalt.

Monsta
2020-06-30, 22:50:01
Ohne RTX ist Cyberpunk 2077 nicht spielbar? /i

Wenn die Konsolen Rtx haben, sollte der Pc das für einen ähnlichen Kurs auch liefern.

Monsta
2020-06-30, 22:56:00
Man hat ja schon eine HW Basis die einen gewissen Wert darstellt. Warum sollte man das brach liegen lassen, wenn man selbst mit einer 500€ Ampere Karte mehr bekommt als mit einer 500€ Konsole. Plus natürlich die gewohnten Freiheiten, + M+T, + all die anderen Games die man natürlich schon hat und spielt. Mates dürfte man auch auf dem PC haben, wenn man vom PC kommt. Eine Konsole bietet einem PC Spieler doch nichts, wenn man schon in der Welt ist.
Als generell 2. Medium habe ich da Verstädnis für, aber komplett wechseln weil die Karte nen Hunderter mehr kostet als eine Konsole? Sehe ich nicht.

Was heisst hier komplett wechslen, ich verschrotte doch nicht meinen Pc nur weil ich ne Ps5 kaufe. Aber ich schiebe den Gpu kauf einfach auf. Ich habe schon immer einen Pc und Konsole.
btw ich spiele auch auf dem Pc mit Controler. Die spiele sind so easy, da zocke ich lieber im Liegen. Auch Competive bei Shootern.

Der_Korken
2020-06-30, 23:00:41
Man hat ja schon eine HW Basis die einen gewissen Wert darstellt. Warum sollte man das brach liegen lassen, wenn man selbst mit einer 500€ Ampere Karte mehr bekommt als mit einer 500€ Konsole.

Wenn die 500€-Graka weniger Leistung hat als die 500€-Konsole, wo man noch den ganzen Rest dazubekommt (inkl. 8 Zen2-Kerne), werden sich es viele sicherlich überlegen, ob es wirklich ein PC zum zocken sein muss. Diejenigen die schon nen bertakteten 8-Kerner, ein 300€-Board und 2080 im Rechner kaufen natürlich trotzdem die überteuerten Grakas, weil die einfach jeden Preis zahlen.

MiamiNice
2020-06-30, 23:03:03
Ich besitze auch beides, kann das trotzdem nicht nachvollziehen. Selbst mit einer gebrauchten Turing Karte wäre man noch besser in den Spielen unterwegs als mit einer Next Gen Konsole. Und man kann auch in seinem Medium bleiben, nicht jeder ist in 2 Welten zuhause. Für neue Gamer sehe ich das so wie ihr. Aber als PC Gamer steige ich nicht um, wenn ich die Vorteile am PC schätzen gelernt habe. Nicht wegen einer teurern GPU wenn der Vorgänger schon besser ist als die Konsole.

Ex3cut3r
2020-06-30, 23:08:45
Ich frage mich wirklich was aus dem 3Dcenter geworden? Seit wann sind wir eine Konsolen Hochburg geworden? Hier wird ernsthaft darüber diskutiert warum ein PCler sich diesmal eine Konsole anschaffen sollte? Im "Next Gen" Konsolen Speku Thread ist es ja die gleiche Quatsch Diskussion. Mit einem Controller zu zocken ist einfach pure Misshandlung von Gaming. Sry, aber das geht gar nicht, wie unpräzise das ist. Ultrawide, 144hz, 100FPS+, G-Sync/Freesync, Mods, Reshade, M+T, richtiges 4K, gibt es alles nicht auf der Konsole. Warum sollte man sich so etwas freiwillig an tun? Es es klar, dass man als PCLer wenn eine neue Konsolon Gen, vor der Tür steht, seinen PC Upgraded, sprich MB, RAM, CPU, SSD + GPU alle paar Jahre (optional) Wo ist das Problem? Man hat auch wieder lange Ruhe.

Konsole....größter Quatsch...vlt. für Schüler interessant, aber jeder Erwachsener mit Job sollte in einen PC investieren.

Der_Korken
2020-06-30, 23:16:47
Habe ich in meinem Post von mir selber gesprochen? Nein.

Ansonsten ist "mit einer gebrauchten Turing Karte wäre man noch besser in den Spielen unterwegs als mit einer Next Gen Konsole" doch Quark, weil eine RDNA2 GPU mit 36CUs@2,2Ghz oder mit 52CUs@1,8Ghz jede 2070S nass machen wird. Dass die Konsolen damit großen Preisdruck auf Ampere/Navi2X ausüben werden, liegt für mich auf der Hand.

Raff
2020-06-30, 23:27:45
Kann DLSS 2.0 jetzt eigentlich auch Downsampling anstatt Performance erhöhen?

Mit DLSS 2.0 kannst du dem Algo jede beliebige Auflösung vorsetzen, auch jenseits von Ultra HD -> DLSS mit Downsampling aka OGSSAA im Eigenbau (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/). :)

MfG
Raff

Monsta
2020-06-30, 23:31:58
Ich frage mich wirklich was aus dem 3Dcenter geworden? Seit wann sind wir eine Konsolen Hochburg geworden? Hier wird ernsthaft darüber diskutiert warum ein PCler sich diesmal eine Konsole anschaffen sollte? Im "Next Gen" Konsolen Speku Thread ist es ja die gleiche Quatsch Diskussion. Mit einem Controller zu zocken ist einfach pure Misshandlung von Gaming. Sry, aber das geht gar nicht, wie unpräzise das ist. Ultrawide, 144hz, 100FPS+, G-Sync/Freesync, Mods, Reshade, M+T, richtiges 4K, gibt es alles nicht auf der Konsole. Warum sollte man sich so etwas freiwillig an tun? Es es klar, dass man als PCLer wenn eine neue Konsolon Gen, vor der Tür steht, seinen PC Upgraded, sprich MB, RAM, CPU, SSD + GPU alle paar Jahre (optional) Wo ist das Problem? Man hat auch wieder lange Ruhe.

Konsole....größter Quatsch...vlt. für Schüler interessant, aber jeder Erwachsener mit Job sollte in einen PC investieren.

Ich weiß ja nicht in welchen Kreisen Du Dich bewegst. Als ich jung war hatten wir alle Pc´s. Aber seit dem wir verheiratet und Kinder haben, haben sich alle ne Konsole gekauft. Ein paar haben noch nen Pc. Aber irgendwie stirbt das aus. Aber wir sind da wohl nicht mehr so die Zielgruppe.
Wir sind mitte 40, und da hat es weniger mit Geld zu tun sondern eher aus Prinzip ob man sich nen upgrade kauft.

MiamiNice
2020-06-30, 23:37:17
Dass die Konsolen damit großen Preisdruck auf Ampere/Navi2X ausüben werden, liegt für mich auf der Hand.

Ich bin zwar nicht bei euch, aber schlecht finden würde ich das jetzt auch nicht. Ist doch super wenn HW günstiger wird. Mehr Geld für die schönen Dinge, abseits des digitalen Lebens.
Hoffentlich kommt es so wie von euch skizziert :smile:

Nazar
2020-07-01, 01:17:40
Mit DLSS 2.0 kannst du dem Algo jede beliebige Auflösung vorsetzen, auch jenseits von Ultra HD -> DLSS mit Downsampling aka OGSSAA im Eigenbau (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/). :)

MfG
Raff

Ohne eine Deep Learning, passiert erst einmal rein gar nichts und das ist eben die Krux an der ganzen Sache. Es ist ausschließlich für nV GPU Beschleuniger gemacht.
So schön DLSS auch sein kann, ist es wieder mal ein Alleingang von nV und so lange das so bleiben wird, wird DLSS ebenso ein "Verkaufsschlager" werden wie PhysX.
Ich werde das als Nutzer nicht unterstützen. Wer, außer einem Idiot, sägt den Ast ab auf dem er sitzt? Jeder kann froh sein, dass es AMD noch gibt und nur wenn Technologien gemeinsam vorangetrieben werden, werden sie auch Erfolg haben (Gsync wurde erst ein Erfolg mit der Kompatibilität von Freesync) oder wir zahlen bald noch mehr für GPUs.

crux2005
2020-07-01, 04:23:46
Wenn die Konsolen Rtx haben, sollte der Pc das für einen ähnlichen Kurs auch liefern.

Der PC liefert es doch. Auf was willst du hinaus? Wieder nur trollen wie deine ursprüngliches Aussage?

Mit der 2070 werden das dann 15 Fps bei 1080p und Rtx;D bei Cyberpunk

TheAntitheist
2020-07-01, 05:50:23
Ohne eine Deep Learning, passiert erst einmal rein gar nichts und das ist eben die Krux an der ganzen Sache. Es ist ausschließlich für nV GPU Beschleuniger gemacht.
So schön DLSS auch sein kann, ist es wieder mal ein Alleingang von nV und so lange das so bleiben wird, wird DLSS ebenso ein "Verkaufsschlager" werden wie PhysX.
Ich werde das als Nutzer nicht unterstützen. Wer, außer einem Idiot, sägt den Ast ab auf dem er sitzt? Jeder kann froh sein, dass es AMD noch gibt und nur wenn Technologien gemeinsam vorangetrieben werden, werden sie auch Erfolg haben (Gsync wurde erst ein Erfolg mit der Kompatibilität von Freesync) oder wir zahlen bald noch mehr für GPUs.
ohne RTX und Gsync hätte AMD niemals freesync oder ihre eigene RTX version gebracht...

pixeljetstream
2020-07-01, 07:48:17
Ohne eine Deep Learning, passiert erst einmal rein gar nichts und das ist eben die Krux an der ganzen Sache. Es ist ausschließlich für nV GPU Beschleuniger gemacht.
So schön DLSS auch sein kann, ist es wieder mal ein Alleingang von nV

Wie wird Fortschritt finanziert? Das wirtschaftliche System funktioniert halt nach risk/reward Prinzip. Ein Hersteller probiert was neues (finanzielles Risiko alleine) es kann klappen oder nicht (DLSS 1 war nicht tragbar, DLSS 2 ist es).
Die "ersten" bei solchen Themen sind diejenigen die eben deutlich mehr bezahlen wegen der Grundlagenforschung, ergo wollen auch sie mit ihren Kunden davon zuerst profitieren. AMD's chiplets...

Wie der DLSS 2 Algorithmus funktioniert wurde öffentlich erklärt (Eingaben/Ausgaben also das was eine api wäre). Allgemein sind die Frameworks zu deep learning, viele Research paper auch offen. Das Thema ist ja nicht erst seit gestern groß im kommen.
Wenn andere Hersteller hier nicht investieren, kann man doch nicht denen, die es tun die Schuld geben? Wenn NV gar nichts neues bringen würde, würde ich die Aufregung eher verstehen, nach dem Motto was wird aus dem Geld gemacht, aber mit Turing sah man doch dass haufenweise in neue Features investiert wurde.

Die exakte Implementierung ist halt nicht offen. Aber du bekommst von anderen Herstellern ja auch nicht die engine sourcen der top games, die Implementierungsdetails der Hardware etc.

Und an den neuen Konsolen sieht man doch, dass es nie wirklich lange dauert bis der Markt mitzieht, wenn etwas als wertvoll erachtet wird (dx12 ultimate bildet die Feature von Turing ab, Metal hat nun auch raytracing wie dxr1.1 etc.)

dargo
2020-07-01, 08:32:30
ohne RTX und Gsync hätte AMD niemals freesync oder ihre eigene RTX version gebracht...
Bullshit³.

Mangel76
2020-07-01, 08:37:39
ohne RTX und Gsync hätte AMD niemals freesync oder ihre eigene RTX version gebracht...

Du glaubst doch nicht wirklich, dass AMD erst seit der Veröffentlichung von Touring an RT arbeitet?

Korvaun
2020-07-01, 08:39:39
Gerade 2020 ist Preis aber durchaus ein Argument. PS4/XOne sind ja "Uralt-Tech" und sehen trotzdem teilweise noch sehr gut aus (TLOU2/Day Gone/GOW/RDR2), gerade auch auf PS4Pro/XoneX. Und da legt die neue Gen ne gewaltige Schippe oben drauf. Die neuen Konsolen sind bei erscheinen praktisch besser als alle PC unterhalb einer 2080 (fürs spielen). Da muss sich auch nV Gedanken machen wer 600€+ ausgeben soll nur für ne Graka um PS5/XSX sicher zu übertrumpfen.

Klar, der Abstand wird in den nächsten Jahren schnell wieder größer, aben diese Jahr ist es problematisch. Dazu noch so Dinge wie GamePass und es könnten schon ne Menge Leute ins grübeln kommen ;)

basix
2020-07-01, 08:41:08
ohne RTX und Gsync hätte AMD niemals freesync oder ihre eigene RTX version gebracht...

Alles klar, Insider ;)

VRR gibt es schon seit langer Zeit im Notebook. Nvidia hat sicher mit G-Sync den ersten Schritt gemacht und Druck aufgebaut. Aber dass das niemals von AMD gekommen wäre? Ich bezweifle es. Konkurrenten am Markt versuchen immer und überall einen Marktvorteil zu erhaschen, schlussendlich war es mMn nur eine Frage der Zeit.

Und bei RTX ist es zu naheliegend, sodass sowas irgendwann onehin gekommen wäre. Wiederum hat hier Nvidia den ersten Schritt gemacht und Druck aufgebaut. Aber schon beim Design der PS4(!) wurde über Raytracing Beschleunigung nachgedacht. Und Raytracing Support baut man nicht einfach so in einem halben Jahr die GPU-Architektur ein (Turing Release September 2018; RDNA2 Tapeout laut Gerüchten im Herbst 2019, ergo Design Freeze ca. im Frühling 2019). Das wäre also so oder so gekommen.

In beiden Fällen hat Nvidia vorgespurt und AMD musste nachziehen oder hat zumindest ihre eigenen Anstrengungen intensiviert. In beiden Fällen sind die Technologien aber nachvollziehbar eine Evolution.

Edit:
dargo und Mangel76 waren schneller ;)

MiamiNice
2020-07-01, 08:44:51
Wenn andere Hersteller hier nicht investieren, kann man doch nicht denen, die es tun die Schuld geben? Wenn NV gar nichts neues bringen würde, würde ich die Aufregung eher verstehen, nach dem Motto was wird aus dem Geld gemacht, aber mit Turing sah man doch dass haufenweise in neue Features investiert wurde.

Das sehe ich tatsächlich ganz ähnlich. NV ist nicht Intel und hat sich die Aktien vergolden lassen obwohl AMD seit Jahren nichts wirklich tolles liefert. NV hat stetig die Leistung erhöht, ja auch die Preise angezogen, aber der Markt ist nicht stehen geblieben. Wie sollte das laufen ohne einen Alleingang zu unternehmen?
Ohne NV sähe es heute ganz schön düster aus am PC Spielemarkt.

pixeljetstream
2020-07-01, 08:49:55
Du glaubst doch nicht wirklich, dass AMD erst seit der Veröffentlichung von Touring an RT arbeitet?
Es geht nicht um "daran arbeitet" (Radeon rays etc. Zeigt ja das RT bei AMD auch Thema war/ist), es geht um das finanzielle Risiko das in der Hardware auch umzusetzen. Das Risiko ist dank dxr und der Existenz einer hw Implementierung im Desktop nun geringer. Für Imagination ging die Rechnung vor nur paar Jahren nicht auf.

Ich sehe es wie basix, viele Dinge schwirren umher und manches davon wird dann halt gemacht. Das muss nicht immer brandneu sein. Machine learning oder raytracing sind ja auch uralte topics, aber irgendwer wagt halt dann größere Umsetzungen zuerst.

Monsta
2020-07-01, 08:55:18
Der PC liefert es doch. Auf was willst du hinaus? Wieder nur trollen wie deine ursprüngliches Aussage?

Im aktuellen Build von Cyberpunkt liefert eine 2080ti 30Fps und Rtx on. Sicher ist da noch was zu holen. Aber eine 2070 ohne super wird da kaum spielbare Frames liefern.

Ich glaube die neuen Karten hauen da voll einen raus. Die Rtx Performance soll ja massiv ausgebaut worden sein.

basix
2020-07-01, 09:16:31
Ohne NV sähe es heute ganz schön düster aus am PC Spielemarkt.

Bei Nvidia muss ich persönlich in zwei Felder differenzieren.

Im ersten Feld, Technologie, bringen sie wirklich laufend interessante Dinge. CUDA, cupy, Physx, G-Sync, RTX, DLSS, auch bei Gameworks / Hairworks hat es ein paar coole Sachen dabei. Tensor Cores und RT-Einheiten, GDDR5X, Mesh Shader usw. sind alles Innovationen.

Im zweiten Feld, Produktpolitik, sieht es mMn nicht so dolle aus. Sehr starke Tendenz in Richtung Vendor-Lock. Viele der oben genannten Technologien waren/sind proprietär und funktionieren nur mit Nvidia (einigermassen nachvollziehbar, aber nicht immer). Gameworks-Bestandteile mit unnütz hohen Tesselation Faktoren. GeForce Experience fast schon als Zwang gab es auch mal. DX12 erst ab Turing wirklich sauber unterstützt. Bei DX10.2+ war es ebenfalls ein Trauerspiel. Viele Grafikkarten mit eher knapp bemessenem Speicher, womit sie oftmals (zu) früh ausgemustert werden müssen. GTX 970 mit 3.5GB. Hohe und stark angezogene Grafikkarten Preise (Nivida war zwar schon immer teuerer als AMD). Und da gibt es sicher noch mehr Beispiele ;) Einziges sehr positives Gegenbeispiel: DXR und vieles aus DX12 Ultimate. Da wurde sehr viel von Nvidia vorgespurt und wird nun für alle zugänglich.

HOT
2020-07-01, 09:38:59
Na ja, Risiko gab es da nicht wirklich. Das war eher purer Opportunismus (was völlig ok ist, wenn man von Innovationen profitieren will). Aber die Weichen für RT wurden durch M$ ja schon 2015 gestellt, seitdem läuft ja auch die Entwicklung der Konsolen SoCs und seit dem ist der Weg zu RT glasklar vorgegeben. Das sieht man ja auch daran, dass Microsoft DXR direkt zum Start fertig hatte. Das fällt ja nicht vom Himmel.
i.Ü. sind die Konsolen SoCs (also RDNA2) vielleicht ein Jahr später ins Tapeout gegangen als Turing, da gibts nicht viel Zeitdifferenz.

Das eigentliche Risiko kann man nur so verstehen, dass RT die Rasterleistung limitiert, also ein anderer Grafikchip dabei rumgekommen wär. Da man das aber gut hinbekommen hat, ist ja alles gut gegangen. Man hat es eben mit Fläche bezahlt, aber das war bei den Margen kein Problem. Nichtsdestotrotz ist Turing nicht mehr als ein Einblick in die RT-Welt, der Spass kommt erst noch.

robbitop
2020-07-01, 10:18:47
Im aktuellen Build von Cyberpunkt liefert eine 2080ti 30Fps und Rtx on. Sicher ist da noch was zu holen. Aber eine 2070 ohne super wird da kaum spielbare Frames liefern.

Ich glaube die neuen Karten hauen da voll einen raus. Die Rtx Performance soll ja massiv ausgebaut worden sein.
Mwn 30 fps bei 4K. Das ist ja schon eine recht hohe Auflösung und der Detailgrad kostet nunmal. Stillstand bei den Details pro Pixel will man ja auch nicht.

Linmoum
2020-07-01, 10:30:20
Mwn 30 fps bei 4K.Nope, weit entfernt von UHD.

Wir spielen in Full HD - ein Umstand, den wir erst einmal ein wenig verdauen müssen, angesichts der RTX 2080 Ti im Alienware-Präsentationsrechner sollte bei der Pixeldichte eigentlich ein wenig mehr drin sein. Noch dazu ist DLSS zugeschaltet, die interne Renderauflösung beziffert also nochmals weniger als 1.920 × 1080 Pixel. Doch ist auch Raytracing aktiv, in unserer Preview-Version in Form von Schatten, Umgebungsverdeckung sowie Indirekter Beleuchtung (Ray Traced Diffuse Illumination).

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Preview-Raytracing-1352917/

Ex3cut3r
2020-07-01, 10:42:56
Und wie hoch war die FPS Rate bei PCGH? 60FPS? Dann reichts für UHD, RT, DLSS, für 30 FPS.

Glaube Nativ ohne RT ist vorzuziehen. Aber RT für die Beleuchtung ist nach Metro und Control eigentlich ein Must have Feature. :redface:

Von DLSS 2.0 @ 21:9 Auflösung (3440x1440) bin ich in Control nicht überzeugt, sieht IMO immer noch Kacke aus (kenne es live, nicht YouTube) Wolfenstein das neuste habe ich nicht, deswegen kann ich zu DLSS 2.0 dort nichts sagen.

Für die volle Dröhnung 3440x1440 Nativ, RTX, 16xAF @ mehr als 30 FPS, braucht es wohl Ampere.

Linmoum
2020-07-01, 10:50:16
Zu fps und Performance hatte Phil sich in den Kommentaren geäußert. Da muss sich viel tun, falls Turing für entsprechende Settings dann überhaupt brauchbar sein wird.

Nein, kein Framerate-Counter. Aber zumindest an einer Stelle ist die Performance auch längerfristig auf ~30 Fps oder sogar knapp darunter gefallen, das kann ich sehen und auch am Controller merken. Außerdem ruckelt das Spiel aktuell häufiger, vor allem beim Fahren. Den Rest der Zeit lief's ganz okay, aber meines Erachtens nicht oder nur relativ selten mit 60 Fps oder mehr.

https://extreme.pcgameshardware.de/news-kommentare-zu-rollenspielen-und-adventures/571699-vorschau-zu-cyberpunk-2077-mit-raytracing-und-dlss-befreit-durch-die-strassen-von-night-city-3.html#post10365450

Ex3cut3r
2020-07-01, 10:52:19
Cool, danke für deine Recherche. Die Stelle die Phil beschreibt, erscheint mir so das Novigrad vom Witcher 3. Das wird IMO auch ganz schön CPU Lastig an solchen Stellen werden, wer IMO keine aktuelle CPU/RAM hat, wird sich noch wundern.

dargo
2020-07-01, 10:53:20
Ich glaube die neuen Karten hauen da voll einen raus. Die Rtx Performance soll ja massiv ausgebaut worden sein.
Aha... und das weißt du woher?

Cool, danke für deine Recherche. Die Stelle die Phil beschreibt, erscheint mir so das Novigrad vom Witcher 3. Das wird IMO auch ganz schön CPU Lastig an solchen Stellen werden, wer IMO keine aktuelle CPU/RAM hat, wird sich noch wundern.
CPU-lastig mit DX12? Dann sollten die Entwickler nochmal nachsitzen.

MiamiNice
2020-07-01, 10:55:50
Die Frage sollte eher lauten warum Du es nicht weißt.

Ex3cut3r
2020-07-01, 11:02:12
CPU-lastig mit DX12? Dann sollten die Entwickler nochmal nachsitzen.
Ja. Die Welt erscheint riesiger als alles was es bisher gab. Dazu wird man das LOD am PC auch hochschrauben können. DX12 muss es wohl haben, weil so eine Komplexe Welt mit zig an Polygonen überhaupt nicht realisierbar wäre.

Linmoum
2020-07-01, 11:03:49
DX12 hat es weil Raytracing. ;)

Dampf
2020-07-01, 11:07:14
Zu fps und Performance hatte Phil sich in den Kommentaren geäußert. Da muss sich viel tun, falls Turing für entsprechende Settings dann überhaupt brauchbar sein wird.

Nein, kein Framerate-Counter. Aber zumindest an einer Stelle ist die Performance auch längerfristig auf ~30 Fps oder sogar knapp darunter gefallen, das kann ich sehen und auch am Controller merken. Außerdem ruckelt das Spiel aktuell häufiger, vor allem beim Fahren. Den Rest der Zeit lief's ganz okay, aber meines Erachtens nicht oder nur relativ selten mit 60 Fps oder mehr.

https://extreme.pcgameshardware.de/news-kommentare-zu-rollenspielen-und-adventures/571699-vorschau-zu-cyberpunk-2077-mit-raytracing-und-dlss-befreit-durch-die-strassen-von-night-city-3.html#post10365450

Es ist noch sehr viel Zeit bis zum Release, der jetzige Release ist kein Indikator wie es in Zukunft laufen wird. Hat Phil ja auch oft im Artikel und im Forum beschrieben.

Wir wissen nichts, es ist sogar möglich dass es derzeit rein softwarebasiert läuft, also ohne Hardware-Beschleunigung von den RT Cores.

Ex3cut3r
2020-07-01, 11:09:23
DX12 hat es weil Raytracing. ;)

Ja. Natürlich. Mit DX11 wäre es das Spiel aber sowieso hoffnungslos CPU limitiert.

Dural
2020-07-01, 11:24:39
Du glaubst doch nicht wirklich, dass AMD erst seit der Veröffentlichung von Touring an RT arbeitet?

Nein, weil es AMD schlicht deutlich vorher mitbekommen haben muss. :rolleyes:

Bullshit³.

Zu 100% ist es so, AMD ist seit Jahren nicht dafür bekannt etwas Vorwärts zu bringen. Es gibt zig Beispiele wo AMD immer wieder nach gezogen hat (Oder musste)

Als NV an Turing mit RT angefangen hat war das Thema RT bei AMD ziemlich sicher nicht so präsent.

dargo
2020-07-01, 11:30:29
Zu 100% ist es so, AMD ist seit Jahren nicht dafür bekannt etwas Vorwärts zu bringen. Es gibt zig Beispiele wo AMD immer wieder nach gezogen hat (Oder musste)

Ja... ganz bestimmt. :comfort2:

Ex3cut3r
2020-07-01, 11:35:08
Beide ergänzen sich doch IMO. Nvidia hat ja auch irgendwann Freesync freigeschaltet.

davidzo
2020-07-01, 11:51:04
Zu 100% ist es so, AMD ist seit Jahren nicht dafür bekannt etwas Vorwärts zu bringen. Es gibt zig Beispiele wo AMD immer wieder nach gezogen hat (Oder musste)

Als NV an Turing mit RT angefangen hat war das Thema RT bei AMD ziemlich sicher nicht so präsent.

Was für ein dummer Kommentar.
Da hat jemand anscheinend ein äußerst schlechtes Lanzeitgedächtnis.
Das ist überhaupt nicht so zu generalisieren, es gab diverse Generationen wo AMD technologisch früher dran war bzw. mit modernen Features vorgelegt hat. R200 vs nv20, R300 vs NV25, r500 xenos vs ?, r580 vs G71, GCN/Tahiti vs G200,...

Package Innovationen wie HBM zählen natürlich auch nicht.

- Man hat in dem Zeitraum Schlichtweg andere Projekte und Entwicklungsziele gehabt als nvidia. Keine Wertung.

Mangel76
2020-07-01, 12:04:49
Es geht nicht um "daran arbeitet" (Radeon rays etc. Zeigt ja das RT bei AMD auch Thema war/ist), es geht um das finanzielle Risiko das in der Hardware auch umzusetzen. Das Risiko ist dank dxr und der Existenz einer hw Implementierung im Desktop nun geringer. Für Imagination ging die Rechnung vor nur paar Jahren nicht auf.

Ich hatte doch nur auf diesen Post geantwortet:
ohne RTX und Gsync hätte AMD niemals freesync oder ihre eigene RTX version gebracht...

Darin wird suggeriert, dass AMD immer nur das nachmacht, was NVIDIA vormacht. Dem ist aber nicht so, denn AMD arbeitet eben schon viel länger an RT, wie man ja an den Konsolen sieht. Für die neue Generation war das schon lange geplant und ist nicht erst durch Touring angestoßen wurde. Manchmal habe ich eher das Gefühl, dass im Hintergrund sehr viel Zusammenarbeit passiert mit AMD, NVIDIA und Microsoft, z.B. über die Arbeit an DX12. Und während AMD dann offene Standards anstrebt (z.B. VRR), macht NVIDIA lieber was eigenes (GSync) oder ist halt ein bisschen schneller mit der Veröffentlichung (RTX) um hier noch das ein oder andere Alleinstellungsmerkmal zu generieren. Daran ist zunächst ja nichts schlimmes, schließlich investiert NVIDIA ja viel Geld in diese Entwicklungen und ist dann auch mal schneller als AMD. Das heißt aber umgekehrt nicht, dass es diese Dinge ohne NVIDIA nie gegeben hätte. AMD hatte in den letzten Jahren halt sehr wenig Geld für R&D übrig, RDNA1 ist eher ein Zwischenschritt bei der Entwicklung der Konsolen-GPUs, für die RT schon lange feststand. Daher wäre es sicherlich gekommen, halt nur etwas später.

Ich glaube auch nicht, dass DXR so ein großes Risiko für NVIDIA war, Imagination ist da ein ganz anderer Fall und nicht vergleichbar. Sicher hätte man nochmal einen Pascal 2.0 bringen können, über den sich viele gefreut hätten. Aber DXR ist spätestens bei Ampere ein "MUSS" wegen der Konsolen. Da war es wohl langfristig erfolgversprechender, hier den Vorreiter zu geben und RT in den Köpfen der Kunden fest mit NVIDIA RTX zu verbinden. Das mag vielleicht kurzfristig ein paar Leute abgeschreckt haben, die eben nicht 1200€ für nur 20-25% mehr Leistung ausgeben wollten, aber langfristig ist damit der Wert der Marke und die Kundenbindung deutlich höher.

MiamiNice
2020-07-01, 13:45:15
Liest sich bestechend logisch und passt auch viel besser in mein Weltbild. Aber auch wenn es so gelaufen ist, bricht das, für mich, keinen Zacken aus NVs Krone. Es ist nur legitim die eigenen Produkte mit Alleinstellungsmerkmalen zu versehen. Das AMD offene Standards anstrebt - passiert ja imo auch eher aus der Not heraus, um zu "punkten", bei den Menschen mit "Robin Hood Gen".
Das wahre Problem ist doch der absolute Fokus auf das Monetäre - und da tragen wir alle zu bei. Man kann einer Firma nicht vorwerfen Profit machen zu wollen. Auch sind NVs Mittel noch sehr human ggü. anderen Firmen z.b. Samsung.

=Floi=
2020-07-01, 13:54:01
propretär bedeutet auch, dass man der herr im eigenen haus ist. Gerade bei gsync wollte man die 110% lösung haben. Andere firmen mit denen man zusammenarbeitet haben oft andere vorstellungen.
Wäre man böse, könnte man die kronos group als negatives beispiel nennen, da MS hier schneller reagieren kann.
Es gibt viele und gute open source beispiele, aber entwicklung kostet auch geld und der erfolg guter produkte beruht auch auf ihrem technischen vorsprung. Adobe könnte man hier nennen, wo alles produkte ineinandergreifen und sich der hohe mietpreis bei entsprechender firmengröße rechnet, weil der MA damit in der gesamten chain produktiver ist.
Darüber könnte man einen eigenen thread aufmachen.


Ich würde fast behaupten, dass 20-25% des kaufpreises einer GPU mittlerweile in den softwaresupport fliessen.

Sweepi
2020-07-01, 14:48:31
@Raff

Ah, die Auflösung via DSR hochdrehen + DLSS 2.0 funktioniert in jeder Auflösung. Nicht dran gedacht :D. Freue mich drauf! Hoffentlich funktioniert es auch unter Linux.

pixeljetstream
2020-07-01, 15:18:01
Es wäre gut weniger schwarz/weiß zu denken in beide Richtungen.
Trotz des Tals durch das AMD gegangen ist, sind sie in Schlagdistanz geblieben und sie hatten auch viel Innovation mit GCN gebracht, sonst hätten die Konsolenspiele nicht auch nach Jahren noch gut liefern können. Sehr gute Leute arbeiten bei beiden, bei NV halt mehr und mit stärkeren Fokus auf Themen rund um GPU mit ganzheitlicheren Lösungen (wesentlich mehr Forschung was man an den papers bei Konferenzen, oder diversen Frameworks ja objektiv sagen kann).

Das war/ist eben zum Teil eine andere Ausrichtung, das meine ich jetzt wertungsfrei. Beide Firmen unterliegen den gleichen Gesetzen des Marktes. Und beide passen ihre Strategien, Personal etc. entsprechend an. Es ist nicht so fest wie das manche hier suggerieren (x macht immer y) und die Flexibilität im handeln ist auch immer eingeschränkt.

Dural
2020-07-01, 18:01:10
Was für ein dummer Kommentar.
Da hat jemand anscheinend ein äußerst schlechtes Lanzeitgedächtnis.
Das ist überhaupt nicht so zu generalisieren, es gab diverse Generationen wo AMD technologisch früher dran war bzw. mit modernen Features vorgelegt hat. R200 vs nv20, R300 vs NV25, r500 xenos vs ?, r580 vs G71, GCN/Tahiti vs G200,...

Package Innovationen wie HBM zählen natürlich auch nicht.

- Man hat in dem Zeitraum Schlichtweg andere Projekte und Entwicklungsziele gehabt als nvidia. Keine Wertung.

:freak:

Ich frage mich gerade wer ein schlechtes Gedächtnis hat. Und als Beispiele kommen Chips praktisch alle über 10 Jahre alt, das meiste noch direkt unter Ati.

Und was GCN mit Tesla/G200 zu tun hat musst du mir erst mal erklären. Das Gegenstück von GCN ist Kepler.

HBM? Ganz komisch dies zu nennen, war es doch NV der den ersten wirklich brauchbaren HBM(2) Chip gebracht hat. Ich kann auch gleich GDDR5X in den Raum Werfen, NV hat von Anfang an gesagt das HBM1 ein Flop sei und sich auf HBM2 und GDDR5X konzentriert.

So wie zum Thema Gedächtnis. ;)

Langlay
2020-07-01, 18:17:47
HBM? Ganz komisch dies zu nennen, war es doch NV der den ersten wirklich brauchbaren HBM(2) Chip gebracht hat. Ich kann auch gleich GDDR5X in den Raum Werfen, NV hat von Anfang an gesagt das HBM1 ein Flop sei und sich auf HBM2 und GDDR5X konzentriert.


Und was brauchbar ist entscheidet wer? Fiji hätte es ohne HBM nicht gegeben. Und zumindest die Fury Nano war schon ne ganz nette Karte.

Mit dem Argument könnte ich auch Argumentieren : wir haben noch keine brauchbare Grafikkarte für Raytracing.

crux2005
2020-07-01, 19:02:50
Im aktuellen Build von Cyberpunkt liefert eine 2080ti 30Fps und Rtx on. Sicher ist da noch was zu holen. Aber eine 2070 ohne super wird da kaum spielbare Frames liefern.

Ich glaube die neuen Karten hauen da voll einen raus. Die Rtx Performance soll ja massiv ausgebaut worden sein.

Erst Konsole, dann Ampere. :confused: RTX in SotTR oder BFV lief am Anfang auch sehr schlecht und jetzt läuft es viel besser.

Du glaubst nicht wirklich das die next-gen Konsolen Cyberpunk 2077 in 4K mit DXR Ultra und Ultra Details stemmen. Checkerboarded 4K oder dynamic Res., medium-high details und "medium" DXR ist eher realistisch. Und natürlich 30 FPS

Monsta
2020-07-01, 19:19:45
Erst Konsole, dann Ampere. :confused: RTX in SotTR oder BFV lief am Anfang auch sehr schlecht und jetzt läuft es viel besser.

Du glaubst nicht wirklich das die next-gen Konsolen Cyberpunk 2077 in 4K mit DXR Ultra und Ultra Details stemmen. Checkerboarded 4K oder dynamic Res., medium-high details und "medium" DXR ist eher realistisch. Und natürlich 30 FPS

Du musst schon den gesammten zusammenhang lesen, falls Nvidia lediglich eine 3080 released, ist quasi ne 2070 die Konurrenz zu den Konsolen.

Und aktuell liefert eine 2080ti Rtx in FullHD @30Fps in Cyberpunk , da ist eine 2070 unspielbar.
Falls das auf den Konsolen ordenlich läuft wird das enormen Preisdruck auf Nvidia ausüben. Darum ging es mir.

crux2005
2020-07-01, 19:25:49
Und aktuell liefert eine 2080ti Rtx in FullHD @30Fps in Cyberpunk , da ist eine 2070 unspielbar.
Falls das auf den Konsolen ordenlich läuft wird das enormen Preisdruck auf Nvidia ausüben. Darum ging es mir.

Beides ist Falsch.

Habe keine Lust mehr zu schreiben wenn du es bis jetzt nicht verstehen wolltest. :(

Monsta
2020-07-01, 19:34:28
Beides ist Falsch.

Habe keine Lust mehr zu schreiben wenn du es bis jetzt nicht verstehen wolltest. :(

Kannst ja gerne selber lesen.

https://happygamer.com/update-cyberpunk-2077-preview-tested-at-1080p-with-dlss-2-0-enabled-on-an-rtx-2080ti-built-pc-71681/

y33H@
2020-07-01, 20:07:48
Adobe Premiere hat was drin, Adobe Lightroom auch und Da Vinci Resolve - um ein paar zu nennen.

rentex
2020-07-02, 06:03:49
Beides ist Falsch.

Habe keine Lust mehr zu schreiben wenn du es bis jetzt nicht verstehen wolltest. :(

Dann gib uns bitte mal den "Beweis" das es anders ist...

HOT
2020-07-02, 08:22:31
Erst Konsole, dann Ampere. :confused: RTX in SotTR oder BFV lief am Anfang auch sehr schlecht und jetzt läuft es viel besser.

Du glaubst nicht wirklich das die next-gen Konsolen Cyberpunk 2077 in 4K mit DXR Ultra und Ultra Details stemmen. Checkerboarded 4K oder dynamic Res., medium-high details und "medium" DXR ist eher realistisch. Und natürlich 30 FPS


https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Technik-Interview-Raytracing-1353245/

Wenn man das Interview verfolgt, wird man feststellen, dass Cyberpunk auf den Konsolen überhaupt nicht mit RT kommt, sondern erst mal im Kompatiblitätsmodus zu den alten Konsolen läuft. Cyberpunk ist also definitiv ein Last-Gen-Spiel für die last-gen-Konsolen (was der ursrpüngliche Launch im April auch nahe legt), das nachträglich auf RT umgebastelt wurde. Man hat RT nur dort eingesetzt, wo es technisch, ohne riesen Probleme zu bekommen, auch machbar war.

Und da muss ich meine eigenen Schlussfolgerungen ziehen:
Offenbar, wenn man zwischen den Zeilen liest, ist die RT-Implementation tatsächlich auf NVs Wunsch eingefügt worden und da muss mMn wirklich im Hintergrund viel Geld geflossen sein. Auch die Verzögerungen sind teilweise auf die nachträgliche RT-Implementation zurückzuführen und man ist immer noch am optimieren und fügt hier und da noch Effekte ein. Ich muss zugeben, jetzt stinkt das Ganze doch gewaltig nach einer RTX-Launchaktion, was ich vorher nicht für möglich hielt. Da das Ganze wieder komplett auf NV optimiert wird und die Konsolen außen vor bleiben, denke ich, dass es auf N21 wie Grüze laufen wird anfangs und das ist dann die neue Referenz... Gute und sicherlich teure NV-PR-Aktion.

Wenn ich da jetzt Schlussfolgerungen ziehen würde, würde ich sagen, die 3080 und 3090 starten am 19.11.2020 zusammen mit Cyberpunk und entsprechenden Editions und die Titan wird sicherlich schon im September oder gar Ende August das Licht der Welt erblicken. Die kleineren Chips sind eh erst in 21 soweit, dafür war das Tape Out einfach zu spät.

Nach Kopite7kimi sind alle Produkte der 30x0-Generation ganz sicher in 8 LPP produziert, die Sache steht also auch so gut wie fest.

Sunrise
2020-07-02, 08:30:38
Es ist ja leider nichts Neues, dass NV solche Wege geht, wenn die Konkurrenz erstarkt. Man muss sich eben abgrenzen, und NV muss Alleinstellungsmerkmale schaffen. Man hat ja jahrelang entwickelt, aus wirtschaftlicher Sicht verständlich.

Die Meinungsmache passiert (der erste Eindruck zählt) vor allem am Anfang einer neuen Generation. Cyberpunk ist nunmal medial auch stark präsent (gewesen), u.a. weil ja auch MS da stark mitgemischt hat (Keanu Reeves).

Ich hoffe das wird nicht wieder so eine dreckige Schlammschlacht wie damals. Denn im Gegensatz dazu was NV denkt, hilft es uns nicht, wenn sich dadurch wieder Inseln bilden. Es hilft wirklich niemandem, außer dem Geldbeutel des Herstellers.

Dennoch freue ich mich auf Ende des Jahres, weil unser Technikherz wieder Neues zu sehen bekommt, und das passiert dann wahrscheinlich Schlag auf Schlag. Es ist viel zu still, ich will endlich ein paar Fakten.

rentex
2020-07-02, 08:48:45
@Hot Volle Zustimmung.

MiamiNice
2020-07-02, 08:53:16
So langsam kommen wir doch alle auf den selben Nenner :up:

JVC
2020-07-02, 09:30:03
Passt Alles schön langsam zusammen :)

Läuft halt grad nicht so perfekt für Gaming NV. (abgeblitzt bei TSMC)
Ich bin auf die Rohleistung gespannt (hätte aber schon gerne mehr als 12Gb)
und was sie dafür verlangen werden. (vielleicht überrascht NV ja beim Preis)

M.f.G. JVC

Edgecrusher86
2020-07-02, 12:41:52
@Raff

Ah, die Auflösung via DSR hochdrehen + DLSS 2.0 funktioniert in jeder Auflösung. Nicht dran gedacht :D. Freue mich drauf! Hoffentlich funktioniert es auch unter Linux.

[TOOL] Custom DSR Tool
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=593534
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=593534

Da geht dann sicher noch ewas mit Orbs Tool. ;D
Zum Beispiel mit 3440x1440 als Basis

DSR 16,00x - 4,00 x 4,00) - 13760x5760
https://abload.de/thumb/customzgkd4.png (https://abload.de/image.php?img=customzgkd4.png)

ES geht auch noch mehr, wenn man etwa 1,5 x 1,5 als Basis nimmt und dann händisch die 1 mit einer 4 pro Achse tauscht - mit UWQHD nativ ist man dann noch unterhalb 16K ->
DSR 20,25x (4,5 x 4,5) - 15480x6480
https://abload.de/thumb/5b5kja.png (https://abload.de/image.php?img=5b5kja.png)

Auswählbar am Beispiel PCars 2, was bekanntlich kein DLSS bietet:
https://abload.de/thumb/unbenanntm9j4f.png (https://abload.de/image.php?img=unbenanntm9j4f.png)

In 11919x4899 waren die 11GB VRAM dann schon zumeist gefüllt und man hat quasi ein Standbild - je nach Perspektive geht es mit Pascal auf 0 fps - Settings gleich wie oben. :freak:
https://abload.de/thumb/6lxj90.jpg (https://abload.de/image.php?img=6lxj90.jpg)
Teilausschnitt, damit es als JPG unterhalb 10MB bleibt - im Original als PNG sind's 95MB.


Ja, mit Ampere und 24GB macht so etwas sicher noch deutlich mehr Spaß - am besten im NVLink. :biggrin:

y33H@
2020-07-02, 12:48:19
Läuft halt grad nicht so perfekt für Gaming NV. (abgeblitzt bei TSMC)Hört doch auf sowas als Fakt darzustellen ... Nvidia ist Kunde bei TSMC ...

HOT
2020-07-02, 12:49:58
Das stimmt. Warum man hier Samsung verwendet kann vielerlei Gründe haben.

Relic
2020-07-02, 12:56:06
Das stimmt. Warum man hier Samsung verwendet kann vielerlei Gründe haben.
Eigentlich nur 2:

Kosten
Kapazitäten

Langlay
2020-07-02, 13:04:57
Hört doch auf sowas als Fakt darzustellen ... Nvidia ist Kunde bei TSMC ...

Naja, abgeblitzt ist sicherlich das falsche Wort, aber das der Konkurent vom Nvidia, beim wichtigsten Chipfertiger der Welt, der grössere Kunde ist und wohl mehr good will bekommt, die Situation ist tatsächlich neu für Nvidia.

MiamiNice
2020-07-02, 13:07:33
Naja, abgeblitzt ist sicherlich das falsche Wort, aber das der Konkurent vom Nvidia, beim wichtigsten Chipfertiger der Welt, der grössere Kunde ist und wohl mehr good will bekommt, die Situation ist tatsächlich neu für Nvidia.


Gibt es dafür Belege? Ich würde meinen AMD produziert nur kleine Chips und NV die großen und teils in Risiko Fertigung. Ich weiß nicht wie die Kosten gestaffelt sind könnte mir aber vorstellen das AMD das größere Volumen hat aber NV mehr Umsatz generiert.

Troyan
2020-07-02, 13:08:41
Naja, abgeblitzt ist sicherlich das falsche Wort, aber das der Konkurent vom Nvidia, beim wichtigsten Chipfertiger der Welt, der grössere Kunde ist und wohl mehr good will bekommt, die Situation ist tatsächlich neu für Nvidia.

Deswegen produziert nVidia GA100 bei TSMC? ;D
Apple ist auch riesig. Oder meinst du AMD mit den paar Chips? Dann müsste man laut lachen.

Gibt es dafür Belege? Ich würde meinen AMD produziert nur kleine Chips und NV die großen und teils in Risiko Fertigung. Ich weiß nicht wie die Kosten gestaffelt sind könnte mir aber vorstellen das AMD das größere Volumen hat aber NV mehr Umsatz generiert.

Volumen von nVidia bei TSMC ist riesig. Mit GA100 und NVSwitch benötigen die Wafer sondersgleichen. Dagegen ist AMD und die Abnahmemenge ein kleines Licht.

MiamiNice
2020-07-02, 13:17:29
Aber das Volumen von AMD kann auch nicht so klein sein. All die Chiplets auf jeder verkaufen Zen CPU dürften in Summe nicht sooo wenig sein. Aber halt einfach, in Relation zu GA100 Chips, zu produzieren mit wenig Ausschuss.

BlacKi
2020-07-02, 13:22:13
ASUS GeForce RTX 3080 Ti ROG STRIX
https://cdn.wccftech.com/wp-content/uploads/2020/07/ASUS-GeForce-RTX-3080-Ti-Graphics-Card_NVIDIA-GeForce-RTX-30-Series_Ampere-GPU_1-740x439.jpg
quelle videocardz
alles klar, nov.? ich tippe auf august /september.

MiamiNice
2020-07-02, 13:25:59
Bäm! Cooler Fund Blacki :up:

BlacKi
2020-07-02, 13:28:02
ich war nur der erste der den VCZ leak gepostet hat.

Langlay
2020-07-02, 13:35:52
Gibt es dafür Belege? Ich würde meinen AMD produziert nur kleine Chips und NV die großen und teils in Risiko Fertigung. Ich weiß nicht wie die Kosten gestaffelt sind könnte mir aber vorstellen das AMD das größere Volumen hat aber NV mehr Umsatz generiert.


https://www.pcgameshardware.de/CPU-CPU-154106/News/TSMC-macht-mit-Ryzen-mehr-Geld-1341296/


https://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/51891-amd-wird-2020-bei-tsmc-grossabnehmer-fuer-7-nm-wafer.html


https://www.igorslab.de/ausverkauft-nvidia-und-amd-kaufen-die-gesamte-ueberschuessige-kapazitaet-bei-tsmc-fuer-gpus-und-cpus/

AMD produziert derzeit recht viel bei TSMC, Matiesse Chiplets, die Zen2 APUs , Navi10. Im 2. Halbjahr soll AMD TSMCs grösster 7nm Kunde sein.

Deswegen produziert nVidia GA100 bei TSMC? ;D
Apple ist auch riesig. Oder meinst du AMD mit den paar Chips? Dann müsste man laut lachen.


Apple wechselt auf 5nm für die ist 7nm ein alter Hut.

Volumen von nVidia bei TSMC ist riesig. Mit GA100 und NVSwitch benötigen die Wafer sondersgleichen. Dagegen ist AMD und die Abnahmemenge ein kleines Licht.

Bullshit. Sonst wäre nicht AMD mit 20+% aller Wafer grösster 7nm Kunde vom TSMC.

amdfanuwe
2020-07-02, 13:42:35
AMD hat ca. 30% Marktanteil bei GPU.
Mit Big Navi wird AMD den noch steigern und fast soviele GPU Chips bei TSMC ordern wie auch Nvidia benötigt. Die paar Server GPUs reißen es auch nicht raus.
Dazu CPU Chiplets, APUs und die Konsolen Chips.
Dagegen steht Nvidia als kleiner Kunde da.

HOT
2020-07-02, 13:43:33
Das ist ja auch kein Wunder, 6 statt 2 Grafikchips, alte Zen2 CCDs werden im Markt bleiben während Zen3 CCDs neu hinzukommen und 14/12nm-Chips (Raven, Zeppelin-basierte, Polaris) weitgehend wegfalllen. Die Konsolenchips sind da noch gar nicht eingerechnet.

Edgecrusher86
2020-07-02, 13:51:39
https://abload.de/img/neu3bj2u.png

https://mobile.twitter.com/kopite7kimi/status/1278509225958764544

Nichts wirklich Neues - ob das mit dem Veröffentlichgsdatum ins Blaue geraten ist oder nicht, wird zu sehen sein. Komplett ausschließen kann man es sicherlich nicht, dass im September ausgeliefert wird.

JVC
2020-07-02, 14:05:04
Hört doch auf sowas als Fakt darzustellen ... Nvidia ist Kunde bei TSMC ...
Bitte genau lesen. Ich sagte Gaming NV...

ab·blit·zen = bei jemandem(TSMC) mit etwas(Gaming Karten) keine Gegenliebe finden.

War aber auch nicht böse, oder hämisch gemeint.
Ich finde es ja auch schade, das NV bei Gaming anscheinend nur Samsung 8LPP verwendet.
(ich nehme dafür aber an (hoffe darauf), das es günstiger als erwartet werden könnte)

M.f.G. JVC

BlacKi
2020-07-02, 14:11:08
@jvc nicht nur das, sondern auch die verfügbarkeit könnte das verbessern.

themawechsel: nochmals zum leak, glaubt ihr das ist ein aufgebessertes echtes, oder ein render bild.

ich meine zu erkennen, jenachdem ob das nur der kühler oder die gesammte karte ist, dass das PCB auch hier sehr kurz erscheint. möglich wäre auch, das es eine kühlplatte oder gar eine vaporchamber ist und kein pcb. letzteres glaub ich eher.

sieht auf jedenfall komisch aus, wie damals bei der vega pulse und dem nv fe leak von letztens.

JVC
2020-07-02, 14:26:40
@ Bild
Täuscht das oder fehlt das Teil zum ins Mobo stecken?

Sieht für mich gezoomt auf dem 65"er, eher nach nem Fake aus ...

M.f.G. JVC

[MK2]Mythos
2020-07-02, 14:29:44
Entweder fake oder ganz schlecht irgendwo ausgeschnitten. Aber links sieht man die Slotblende, wenn man die berücksichtigt, wird das ein gigantisches Stück Grafikkarte.

Edgecrusher86
2020-07-02, 14:30:41
Das muss wohl nur der reine Kühler sein inkl. Bodenplatte/Chamber - ein PCB erkenne ich nicht - man kann ja auch auf der linken Seite durch die Lamellen schauen. Es könnte gerendert sein.

E: Stimmt, die Slotblende ist zu sehen. Vermutlich entsprechend ausgeschnitten das Ganze.

E2: Die Maße der 2080 Ti Strix OC sind 30x13cm. Bilder von TPU:

https://abload.de/img/cooler2qvket.jpg

https://abload.de/img/cooler3nxjth.jpg

https://www.techpowerup.com/review/asus-geforce-rtx-2080-ti-strix-oc/4.html

E3: Also sofern die 21 Gbps ein Problem darstellen sollten, würde doch sicherlich auch 20 Gbps mehr als ausreichend sein.
Bei 384-bit hätte man 960 GB/s - 55,8% mehr an Bandbreite als die Standard 2080 Ti aufwies.

JVC
2020-07-02, 14:38:51
Der mittlere Lüfter hat bei Asus normal den Asus-Schriftzug in der Mitte.
(viele viele Bilder angeschaut. da steht immer Asus am Lüfter, auch bei den "ROG" Karten)

Bei dem Bild steht aber ROG am mittleren Lüfter...

M.f.G. JVC

Daredevil
2020-07-02, 14:57:46
Sieht doch auch nicht anders aus wie die 250/300w Lösungen von MSI.
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fwww.evetech.co.za%2Frepository%2FProductImages%2Fmsi-rtx-2080-gaming-x-trio-oc-edition-graphics-card-1000px-0002-v1.jpg&f=1&nofb=1

Ist im Rahmen des Möglichen und jetzt nicht irgendwie Augen öffnend für die Informationslage.

Edit: NVLink würde fehlen, wenn man die Kappe links nicht abmachen kann, das wäre was neues. :)

r3ptil3
2020-07-02, 15:03:22
Für mich heisst das indirekt auch im Spätsommer sind die Karten verfügbar - sehr gut.

HOT
2020-07-02, 15:54:52
ASUS GeForce RTX 3080 Ti ROG STRIX
https://cdn.wccftech.com/wp-content/uploads/2020/07/ASUS-GeForce-RTX-3080-Ti-Graphics-Card_NVIDIA-GeForce-RTX-30-Series_Ampere-GPU_1-740x439.jpg
quelle videocardz
alles klar, nov.? ich tippe auf august /september.
Jo August Launch, September Verfügbarkeit würde gut passen. November war ja nur auf den Cyberpunk-Launch gemünzt, das findet aber offensichtlich nicht statt ;).

OgrEGT
2020-07-02, 16:10:32
Das "3080Ti" Label ist aber sehr klein und an einer Stelle platziert, dass es, wenn die Karte eingebaut ist, nicht wirklich gut sichtbar wäre...

Sweepi
2020-07-02, 16:18:54
DSR 20,25x (4,5 x 4,5) - 15480x6480

Nice :D

gibts src zu dem Tool?

Rampage 2
2020-07-02, 16:32:54
https://abload.de/img/neu3bj2u.png

https://mobile.twitter.com/kopite7kimi/status/1278509225958764544


Und wieder nur maximal 12GB VRAM für die größte GA102-Salvage-Lösung:facepalm:

Das bedeutet dann im Umkehrschluss, dass die kleineren Lösungen wie z.B. die 3080 weniger als 12GB VRAM haben werden:upicard::upicard::upicard: (sofern sich die Gerüchte um die 20GB-Version der 3080 als falsch erweisen)

Ich kann nur hoffen, dass AMD bei der Performance etwas Konkurrenzfähiges abliefert - um NV dann über die Speichermenge (16GB, 24GB) das Genick zu brechen in der Käufergunst:P

R2

Hauwech
2020-07-02, 16:41:09
Und wieder nur maximal 12GB VRAM für die größte GA102-Salvage-Lösung:facepalm:

Das bedeutet dann im Umkehrschluss, dass die kleineren Lösungen wie z.B. die 3080 weniger als 12GB VRAM haben werden:upicard::upicard::upicard: (sofern sich die Gerüchte um die 20GB-Version der 3080 als falsch erweisen)

Ich kann nur hoffen, dass AMD bei der Performance etwas Konkurrenzfähiges abliefert - um NV dann über die Speichermenge (16GB, 24GB) das Genick zu brechen in der Käufergunst:P

R2

Also sind alle Spiele unter 11/12GB Vram unspielbar? :frown:

Edgecrusher86
2020-07-02, 16:42:12
Ja, 10GB dann wohl für die 3080. Dann muss man zukünftig wohl ordentlich DLSS implementieren, damit der VRAM auch in 4K+ immer langt. :rolleyes:


Nice :D

gibts src zu dem Tool?

In der Tat - es bräuchte nur deutlich mehr Rohleistung und VRAM, haha. Wenn man dann maximal 15 fps sieht je nach Titel und Auflösung mit Big Pascal, oft auch einstellig.
Also über 5x Zuwachs sollten es schon sein, haha. :D

Den Source Code meinst du?
Also auf Github hat er es nicht, nur hier im 3DC.

Ich hab mal mit dem LG 5k Ultrafine 10240*5760 in WoW auf einem 2017er MBP mit AMD 560 eingestellt. War geil, wenn auch bei 3 fps :D

Haha, ja, Optik so glatt wie vor allem früher mit SGSSAA hat schon was, frisst leider richtig. ;D

Sweepi
2020-07-02, 17:28:42
Ich hab mal mit dem LG 5k Ultrafine 10240*5760 in WoW auf einem 2017er MBP mit AMD 560 eingestellt. War geil, wenn auch bei 3 fps :D

MiamiNice
2020-07-02, 18:02:04
Ich kann nur hoffen, dass AMD bei der Performance etwas Konkurrenzfähiges abliefert - um NV dann über die Speichermenge (16GB, 24GB) das Genick zu brechen in der Käufergunst:P


Eventuell könnte das sogar passieren - ich würde sagen es steht und fällt damit wie schnell AMD in RTX ist - dafür hat NV schon vorgesorgt.

Das "3080Ti" Label ist aber sehr klein und an einer Stelle platziert, dass es, wenn die Karte eingebaut ist, nicht wirklich gut sichtbar wäre...

Finde ich auch. Sieht nicht nach einer Release Karte aus. Sogar eher nach Fake bei genauem hinsehen.
Die Karte sieht zu unsexy aus, irgendwie. Nicht spektakulär genug.

TheAntitheist
2020-07-02, 19:28:16
Ja, 10GB dann wohl für die 3080. Dann muss man zukünftig wohl ordentlich DLSS implementieren, damit der VRAM auch in 4K+ immer langt. :rolleyes:
die 500MB die 4k mehr beanspruchen, machen den Kohl auch nicht fett...
ist halt ein dummes Argument, Content brauch viel mehr Speicher als die Auflösung bei einem Defered Renderer.

SKYNET
2020-07-02, 20:22:16
Die Karte sieht zu unsexy aus, irgendwie. Nicht spektakulär genug.

wie immer bei den strix karten, aber warts ab wenn die christbaumbeleuchtung eingeschaltet wird...

Edgecrusher86
2020-07-02, 20:26:22
Naja, es gibt schon einige Titel, die auch 10GB in 4K knacken - manche sind über drei Jahre alt. GR: Wildlands etwa - ohne so etwas wie ein extra HD-Textur-Paket.
Kann man nicht verallgemeinern. Nach der Logik für 4K 8GB schicken, die nächsten zwei Jahre. ;)

MiamiNice
2020-07-02, 20:30:58
Aber jetzt mal Butter bei die Fische Leuts - wer braucht hier wirklich mehr als 12GB VRAM? Ich empfinde mich selber schon als einen eher mehr hardcore Gamer, meine 11GB VRAM waren die letzten Jahre nie ein Problem. Nie.

Ravenhearth
2020-07-02, 20:45:27
Next-Gen steht vor der Tür.

Linmoum
2020-07-02, 21:09:35
Aber jetzt mal Butter bei die Fische Leuts - wer braucht hier wirklich mehr als 12GB VRAM? Ich empfinde mich selber schon als einen eher mehr hardcore Gamer, meine 11GB VRAM waren die letzten Jahre nie ein Problem. Nie."Die letzten Jahre" war Raytracing auch noch nicht an der Tagesordnung und wenn, dann nicht in UHD und voller Pracht. Das kann sich ggf. mit den kommenden GPUs ändern - und dann? Raytracing braucht Bandbreite und Speicher. Warum also bei potentiell vierstelligen Preisen mit 12GiB rumgeizen? Aus welchem Grund sollte man a) sagen ("Raytracing voll Porno!!") aber gleichzeitig b) machen (einen entscheidenden Faktor für a) beschneiden)?

Davon ab spielst du iirc ja auch nicht in UHD. Keine Ahnung, ob sich das mit Ampere bei dir dann ändert. Wenn ja, wirst du nächstes Jahr des Öfteren trauern, dass du nicht alles volles Rohr nutzen kannst, weil's am Speicher krankt. Ob mit oder ohne RT. ;)

Korvaun
2020-07-02, 21:22:15
1.) Speicher kostet ...

und wichtiger

2.) nV baut keine "zu" zukunftssicheren Grakas, denn du sollst ja auch bei erscheinen sofort die nächste Gen kaufen ;)

Fragman
2020-07-02, 21:26:10
Man wird den Speicher nicht brauchen.
Das ist die einfache Erklärung. Die Gründe sind bekannt, Optimierungen beim RT (inklusive DLSS2) und dann der Umbau der Konsolen der sicher auch auf den PC in Teilen so Einzug halten wird, machen mehr als 12GB erst einmal nicht nötig. Wozu sollte man mehr verbauen, wenns teurer ist und keinen Nutzen hat?
Man spart wo es geht, das betrifft die Software und eben auch die Hardware. Eigentlich sollte man doch froh sein, das ein Kostentreiber aus der Gleichung entfernt wurde.

[MK2]Mythos
2020-07-02, 21:32:59
Im HighEnd geht es nicht ums brauchen, sodern ums haben. Und im Herbst 2020 wird es sicherlich viele Interessenten geben, die nicht weniger als 12GB akzeptieren werden. Ich blicke jedenfalls nicht auf die vergangenen Jahre zurück um meinen VRAM Bedarf zu beurteilen. So eine Grafikkarte kaufen die meisten sich für 2+ Jahre und da darf dann gerne geklotzt und nicht gekleckert werden.

Fragman
2020-07-02, 21:44:30
Naja, jetzt wird ein Sprung kommen, auch der neuen Konsolen wegen. Die haben halt auch nur 10GB und sind für 4K geplant. Das reicht auch in 2 Jahren noch. Und wer mehr will, wie gesagt, da gibts die Titan.

Irgendwas muss sich generell ja geändert haben. Nv hat vor 5-6 Jahren noch mit 24 bis 32 für heute gerechnet. Aber das scheint halt nicht nötig zu sein. Wir werden sehen was AMD bieten wird. Wenn sie zb 16 bringen und das hat einen realen Vorteil, wird nv spätestens bei den Refreshes nachziehen müssen, schon der Nummern wegen.

[MK2]Mythos
2020-07-02, 21:47:34
Naja, jetzt wird ein Sprung kommen, auch der neuen Konsolen wegen. Die haben halt auch nur 10GB und sind für 4K geplant. Das reicht auch in 2 Jahren noch. Und wer mehr will, wie gesagt, da gibts die Titan.

Irgendwas muss sich generell ja geändert haben. Nv hat vor 5-6 Jahren noch mit 24 bis 32 für heute gerechnet. Aber das scheint halt nicht nötig zu sein. Wir werden sehen was AMD bieten wird. Wenn sie zb 16 bringen und das hat einen realen Vorteil, wird nv spätestens bei den Refreshes nachziehen müssen, schon der Nummern wegen.
Wenn AMD mit 16Gb kommt, wovon ich schwer ausgehe, müssen die zumindest zur Zeit gar nicht mal einen Mehrwert ggü NV bieten. Es reicht doch schon wenn die AMD Lösung ähnlich schnell bzw preislich entsprechend attraktiv gestaltet ist, dann werden die Leute zu AMD greifen. Gut, außer natürlich die... "Markentreuen"

BlacKi
2020-07-02, 21:52:19
die spieleentwickler nehmen sich das was die masse der grafikkarten hat. wir können 20 jahre bei 8-12gb bleiben. fortschritt entsteht bei den spielen eben aber bei dem upgrade der hardware.

Fragman
2020-07-02, 21:52:55
Extreme Spekulation:
AMD muss mehr verbauen, da sie zb für RT keine entsprechenden Optimierungen ala DLSS haben (was ich aber nicht glaube) und einfach mehr Speicher vorhalten müssen.

Wenn AMD die Preise attraktiv gestaltet, dann deutet das eher darauf hin, das die Performance nicht ganz so gut ist und man halt über mehr Speicher geht. Wäre ok, so hat man die Wahl.

Möglich auch, das nv dachte das AMD nicht mehr bringt als sie selber.

Aber selbst im Spekuthread ist mir das schon zuviel Spekulation. :D

crux2005
2020-07-02, 21:59:52
NV will einfach nicht mehr verbauen als sie müssen. Wenn die Kunden nicht zufrieden sind, sollen sie nicht kaufen. Aber das werden sie nicht und auch diese ganze Debatte über VRAM Kapazitäten bringt nichts.

Fragman
2020-07-02, 22:13:08
Naja, sehen wir das realistisch. Schon bei Turing hat man gesagt, das wird zu wenig. Bei den neuen Konsolen hat man gesagt, das wird zu wenig. Bei Turing wissen wir, das es reicht, bei den Konsolen kann man davon ausgehen das es reichen wird, siehe UE5 Demo, die noch an ganz anderen Dingen hängt als nur Speicher.
Da kommt der Sprung, zusammen mit RT, den zb Blacki fordert.

Ich hab damit keine Probleme, solange der Speicher reichen wird und nicht limitiert. Hätte ich gern mehr? Ja, zum rendern zb, aber zum reinen Gamen werden die 10 bis 12 wohl reichen, wie es aktuell aussieht.

=Floi=
2020-07-02, 22:29:17
Aber jetzt mal Butter bei die Fische Leuts - wer braucht hier wirklich mehr als 12GB VRAM? Ich empfinde mich selber schon als einen eher mehr hardcore Gamer, meine 11GB VRAM waren die letzten Jahre nie ein Problem. Nie.

sagt der 9900k verteidiger. ;D
Es gibt hald leute die eine 1300€ karte nicht nach zwei wochen tauschen...
und selbst wenn, wäre der verkaufspreis mit mehr ram auch besser.

Zergra
2020-07-02, 22:35:03
Genau wie der Kaufpreis mit mehr RAM vermutlich noch höher wäre.... da tut sich am Ende nicht viel.

Voodoo6000
2020-07-02, 22:58:51
So teuer ist VRAM aber nicht, für mich wären 12 GB bei der 3080 Ti jedenfalls eine herbe Enttäuschung. Es gibt Spiele wie X-Plane die schon heute mehr als 12 GB nutzen. AMD hat es vor 1,5 Jahren geschafft 16 GB HBM Speicher für 699$ anzubieten. Für vermutlich weit über 1000€ muss Ende 2020 einfach mehr als 12 GB Speicher drin sein.

TheAntitheist
2020-07-02, 23:01:26
Mythos;12354554']Wenn AMD mit 16Gb kommt, wovon ich schwer ausgehe, müssen die zumindest zur Zeit gar nicht mal einen Mehrwert ggü NV bieten. Es reicht doch schon wenn die AMD Lösung ähnlich schnell bzw preislich entsprechend attraktiv gestaltet ist, dann werden die Leute zu AMD greifen. Gut, außer natürlich die... "Markentreuen"
dafür fehlen AMD aber noch ganz schön viele features

SKYNET
2020-07-02, 23:08:38
dafür fehlen AMD aber noch ganz schön viele features


na, dann mal raus welche das wären!? weil was ähnliches wie DLSS haben sie bestimmt schon in der mache und wird mit RDNA2 kommen...

Raff
2020-07-02, 23:17:29
Manche hier scheinen echt vergessen zu haben, was immer beim Wechsel von einer zur nächsten Konsolengeneration passiert ist. Die neuen Spiele laufen auf alter Hardware einfach nicht gut. Dem begegnet man entweder mit (Detail-)Verzicht, sprudelndem Hass ... oder man kauft Hardware, die nicht auf Kante genäht ist. Das ist ziemlich eklig, wenn die Hersteller kein Produkt haben, das dies erlaubt (oder, noch schlimmer und ein recht neues Problem: es gibt eines, aber das kostet so viel wie ein Gebrauchtwagen). Erinnert sich noch jemand an Watch Dogs? Falls nein: Das war das Spiel, das 2014, so viel Gegenwind es auch bekam, technisch extrem fortschrittlich war und bombig aussehen konnte, wenn man die Hardware dafür hatte. 3 oder 4 GiByte Grafikspeicher? Roffelkartoffel, ohne Titan-Grafikkarte war das mit Ultra-Details eher uncool.

Das Gleiche in NEU wird in spätestens sechs Monaten passieren. Neue Spiele, neue Anforderungen ... und da ist das deutliche, an bisherigen RTX-Spielen ablesbare Speicherbedarfsplus noch gar nicht eingerechnet. Bringt Nvidia Grafikkarten mit 12 GiByte, passt das - wie bei Turing - einfach nicht zur Suggestion, dass man es beim RTRT ernst meint. Alle Spiele, die nicht bloß ein paar Schatten casten, brauchen signifikant mehr Grafikspeicher, wobei ausgerechnet (das bloß schein-hässliche) Minecraft RTX die Turing-Fässchen zum Überlaufen bringt. Wenn echt (auch) 8-GiByte-Amperes mit doppelter RT-Leistung kommen, ist das einfach nur banane. 16 GiByte würden hingegen Pi mal Daumen ziemlich gut passen, wenn man nicht schon wieder auf Messers Schneide herumtanzen möchte.

MfG
Raff

HOT
2020-07-02, 23:33:08
Absolut super Statement, ich versuch seit nem halben Jahr das zu sagen, das spricht mir aus der Seele. Unter 16GB kauf ich gar nichts und ich würd jedem dringend empfehlen das ebenfalls nicht zu tun. Und glaubt jaaaa nicht, dass die nächstes Jahr nicht mit doppelten Speichermengen als Refresh um die Ecke kommen wenn das durch die Spiele nötig werden sollte und euch mal fröhlich gef... haben, dass ihr schön noch mal kaufen könnt oder dauernd an den Details schrauben könnt, ich meine damit ganz klar beide Hersteller i.Ü. Die Zeit für 8 GB ist vorbei und das ist wirklich reine, REINE Kostenoptimierung auf euch teuer zu stehen kommt, dass man jetzt immer noch nicht mehr Speicher anbieten wird. Da hilft nur eins: Finger weg von solchen Produkten, damit die das wirklich mal lernen. Oder anders: Wenn man 8 GB hat und neue Produkte mit 8 oder 10GB kommen lohnt sich der Kauf auch rein wirtschaftlich einfach nicht, denn die alten GPUs sind dafür meist auch einfach nicht langsam genug. Und wenn nächstes Jahr echte next-Gen-Spiele kommen bieten die GPU-Hersteller einfach die Karten mit 2GB Speicherchips an und fertig, das ist für die ein Klacks.

Und das Argument, das die Konsolen wenig mehr-Speicher haben zieht nicht. a.) haben die immerhin doppelt soviel wie vorher und davon gehr der Löwenanteil in den VRAM, also faktisch sind das dann 1 1/2x mehr VRAM und b.) gibts noch die SSD-Technik, mit der man massiv Speicher sparen kann, was auf dem PC eben so nicht funktioniert.

Dampf
2020-07-02, 23:57:39
Nur braucht DLSS selber Speicher ggü gleicher Auflösung ohne DLSS. DLSS als Optimierung zu bezeichnen die VRAM spart ist nicht ganz richtig.


Das kann ich so nicht bestätigen. Hab dazu schon einige Tests durchgeführt.

Bei Control z.B. spart man im Vergleich zur nativem Auflösung deutlich an Speicher, allerdings ist die VRAM Allocation bei nativer Renderauflösung auch wieder geringer.

Bei Games wie Wolfenstein hingegen, ändert sich an der VRAM allocation gar nichts, d.h. der Speicherverbrauch ist so berechnet, dass er dem Render-Target für die DLSS Auflösung entspricht. Das kann aber auch an IDTech liegen.

Bedenkt, VRAM Allocation sagt nicht aus, wie viel Speicher wirklich benötigt wird,also sind diese Angaben mit Vorsicht zu genießen!

Die Zeit für 8 GB ist vorbei

Ist das so? Lockhart hat augenscheinlich nur die Hälfte an GPU-optimierten Speicher zur Verfügung und das ist die Budget Next Gen Konsole von Microsoft, die Next Gen Spiele über die ganze Generation abspielen wird.

8 GB wird da locker reichen.

crux2005
2020-07-03, 00:02:54
Manche hier scheinen echt vergessen zu haben, was immer beim Wechsel von einer zur nächsten Konsolengeneration passiert ist. Die neuen Spiele laufen auf alter Hardware einfach nicht gut. Dem begegnet man entweder mit (Detail-)Verzicht, sprudelndem Hass ... oder man kauft Hardware, die nicht auf Kante genäht ist. Das ist ziemlich eklig, wenn die Hersteller kein Produkt haben, das dies erlaubt (oder, noch schlimmer und ein recht neues Problem: es gibt eines, aber das kostet so viel wie ein Gebrauchtwagen). Erinnert sich noch jemand an Watch Dogs? Falls nein: Das war das Spiel, das 2014, so viel Gegenwind es auch bekam, technisch extrem fortschrittlich war und bombig aussehen konnte, wenn man die Hardware dafür hatte. 3 oder 4 GiByte Grafikspeicher? Roffelkartoffel, ohne Titan-Grafikkarte war das mit Ultra-Details eher uncool.

Das Gleiche in NEU wird in spätestens sechs Monaten passieren. Neue Spiele, neue Anforderungen ... und da ist das deutliche, an bisherigen RTX-Spielen ablesbare Speicherbedarfsplus noch gar nicht eingerechnet. Bringt Nvidia Grafikkarten mit 12 GiByte, passt das - wie bei Turing - einfach nicht zur Suggestion, dass man es beim RTRT ernst meint. Alle Spiele, die nicht bloß ein paar Schatten casten, brauchen signifikant mehr Grafikspeicher, wobei ausgerechnet (das bloß schein-hässliche) Minecraft RTX die Turing-Fässchen zum Überlaufen bringt. Wenn echt (auch) 8-GiByte-Amperes mit doppelter RT-Leistung kommen, ist das einfach nur banane. 16 GiByte würden hingegen Pi mal Daumen ziemlich gut passen, wenn man nicht schon wieder auf Messers Schneide herumtanzen möchte.

MfG
Raff

Bin einer anderen Meinung als du.

Der Sprung von PS3 -> PS4 hat auch 8x mehr RAM gebracht für die neue Konsole. Im Gegensatz dazu ist die Verdoppelung (2x) jetzt deutlich kleiner. Die Anforderungen der neuen Spiele werden steigen, keine Frage. Ich glaube aber was erst einmal steigen wird ist der RAM Verbrauch (bis jetzt haben 16 GB gereicht) und evtl. Anforderungen an SSD. Danach 1-2 Jahre langsam GPU Leistung und VRAM Verbrauch. Kann mich natürlich irren. Aber wenn NV jetzt erstmal 10 GB für 3080 und nur 12 GB für 3090 bringt wissen die IMHO was sie tun.

Das so etwas wie mit Watchdogs in 6 Monaten passieren wird ist schon reinstes Raten von dir. Ich glaube so etwas will sich kein großer Publisher mehr leisten. Die doppelte RTX Leistung seitens Ampere bezweifle ich auch stark. Aber vielleicht irre ich mich da auch. :)

Das kann ich so nicht bestätigen. Hab dazu schon einige Tests durchgeführt.

Bei Control z.B. spart man im Vergleich zur nativem Auflösung deutlich an Speicher, allerdings ist die VRAM Allocation bei nativer Renderauflösung auch wieder geringer.

Bei Games wie Wolfenstein hingegen, ändert sich an der VRAM allocation gar nichts, d.h. der Speicherverbrauch ist so berechnet, dass er dem Render-Target für die DLSS Auflösung entspricht. Das kann aber auch an IDTech liegen.

Bedenkt, VRAM Allocation sagt nicht aus, wie viel Speicher wirklich benötigt wird,also sind diese Angaben mit Vorsicht zu genießen!

OK, schlecht formuliert. DLSS als VRAM optimierende Maßnahme zu bezeichnen ist irreführend weil DLSS auch Speicher braucht.

Das ein upscale dank DLSS von 1080p auf 4K weniger VRAM braucht als 4K nativ ist schon richtig. Wenn allerdings die interne Auflösung von DLSS nahe an der finalen Auflösung ist, kann die Variante mit DLSS auch mehr VRAM brauchen.

Screemer
2020-07-03, 00:08:16
Ich glaub Raff hat schon mehr Blicke auf zukünftige Games gelegt als die meisten Diskutanten hier im Thread. Liegt halt evtl. an seinem Job :confused:

N0Thing
2020-07-03, 00:41:13
Aber jetzt mal Butter bei die Fische Leuts - wer braucht hier wirklich mehr als 12GB VRAM? Ich empfinde mich selber schon als einen eher mehr hardcore Gamer, meine 11GB VRAM waren die letzten Jahre nie ein Problem. Nie.

Für die aktuelle Generation der PS4 und Xbox One-Spiele, die auf den PC portiert werden, reichen 8GB in der Regel auch bei 4K aus, wenn keine extra Textur-DLCs für den PC hinzu kommen.
Das wird sich wie schon in der Vergangenheit in den nächsten 1-2-3 Jahren verschieben, sodass sowohl gerne mal mehr als 16GB RAM, als auch im Verlauf der Zeit mehr als 8GB VRAM für höchsten Details notwendig werden.


die spieleentwickler nehmen sich das was die masse der grafikkarten hat. wir können 20 jahre bei 8-12gb bleiben. fortschritt entsteht bei den spielen eben aber bei dem upgrade der hardware.

Jep und die Masse der Spieler nutzt in den meisten Genres die Konsolen, also wird wie bei jeder neuen Generation auch am PC in den entsprechenden Bereichen der Bedarf an RAM und VRAM Schritt für Schritt zunehmen, sobald die nächsten Konsolen auf den Markt kommen.

pixeljetstream
2020-07-03, 00:42:25
Zum Thema Speicher ein Denkanstoß: bei 448 GB/s ps5 sind das bei 60 FPS ca. 8 GB. Lass es mit Kompression bissl mehr sein die man pro frame überhaupt verarbeiten kann, mehr gibt der Bus nicht her.
Die Quadro rtx 8000 würde auf so 15 fps kommen mit ihrer Bandbreite einmal den gesamten 48 GB Speicher anzufassen.
Es ist natürlich nicht alles im vram aktives workingset, aber die ganzen modernen streaming/footprint... Techniken zielen ja auch darauf ab möglichst wenig waste zu haben.

Man kann also schon abschätzen welche Größen grob für was Sinn machen.

MiamiNice
2020-07-03, 00:46:19
Aber da muss man auch mal klar differenzieren, imo. Raff ist ein Journalist bei einer von zig deutschen Webseiten und nur einer von tausenden. Er hat Job bediengt sicher einen tieferen Einblick aber es ist mit Sicherheit nicht so, das Pontius Pilatus zu ihm kommt und erklärt wie die nächsten Jahre an Gaming Geschichte aussehen (sonst würden wir auch zig Artikel darüber sehen mit Eintrittsgeld). Letzten Endes rät es auch nur ins Grüne (der Rest in Blaue), wie eben auch ein Igor. Klar hat man Freunde hier und da aber der Markt ist einfach zu schnellebig als das da immer fundierte Infos rüber kommen können.

Die neuen Türstopper haben 16GB Ram und der wird geteilt zwischen Hauptspeicher und VRAM und es muss noch das OS reinpassen. Ergo bleibt am VRAM was über? 10GB? Wenn es hoch kommt? Da sollte man die Kirche, imo, mal im Dorf lassen. Und was die neuen Türstopper da an SSD Power bringen ist nichts was ein PC Gamer, mal eben, aus dem FF, aus einer RAM Disk zaubern könnte.

Die neuen Konsolen sind, meiner Meinung nach, absolut lächerlich was deren reine HW Power angeht. Und das vor allem auf der Speicherseite. Auf der GPU Seite können die ja immerhin mit einer 1080TI konkurrieren. Meine 1080TI ist btw. seit mitte 2016 in meinem Rechner. Gefühlt sind die neuen Konsolen schon jetzt End of Life.

12GB, ernsthaft, für mich kein Beinbruch. Zumal auch immer weiter die Kompression verbessert wird.

@Raff: Bitte nicht als Attacke verstehen, ich schätze Deine Arbeit sehr.

SKYNET
2020-07-03, 00:50:01
Aber da muss man auch mal klar differenzieren, imo. Raff ist ein Journalist bei einer von zig deutschen Webseiten und nur einer von tausenden. Er hat Job bediengt sicher einen tieferen Einblick aber es ist mit Sicherheit nicht so, das Pontius Pilatus zu ihm kommt und erklärt wie die nächsten Jahre an Gaming Geschichte aussehen (sonst würden wir auch zig Artikel darüber sehen mit Eintrittsgeld). Letzten Endes rät es auch nur ins Grüne (der Rest in Blaue), wie eben auch ein Igor. Klar hat man Freunde hier und da aber der Markt ist einfach zu schnelllebig als das da immer fundierte Infos rüber kommen können.

Die neuen Türstopper haben 16GB Ram und der wird geteilt zwischen Hauptspeicher und VRAM und es muss noch das OS reinpassen. Ergo bleibt am VRAM was über? 10GB? Wenn es hoch kommt? Da sollte man die Kirche, imo, mal im Dorf lassen. Und was die neuen Türstopper da an SSD Power bringen ist nichts was ein PC Gamer, mal eben, aus dem FF, aus einer RAM Disk zaubern könnte.

Die neuen Konsolen sind, meiner Meinung nach, absolut lächerlich was deren reine HW Power angeht. Und das vor allem auf der Speicherseite. Auf der GPU Seite können die ja immerhin mit einer 1080TI konkurrieren. Meine 1080TI ist btw. seit mitte 2016 in meinem Rechner. Gefühlt sind die neuen Konsolen schon jetzt End of Life.

12GB, ernsthaft, für mich kein Beinbruch. Zumal auch immer weiter die Kompression verbessert wird.

du vergisst aber, die texturen auf konsole sind grundsätzlich schlechter als auf dem PC... und das kostet ordentlich, unter 16GB wird man dieses jahr nix mehr holen im top-level segment... alles andere wäre nur kundenverarsche.

N0Thing
2020-07-03, 00:50:52
Zum Thema Speicher ein Denkanstoß: bei 448 GB/s ps5 sind das bei 60 FPS ca. 8 GB. Lass es mit Kompression bissl mehr sein die man pro frame überhaupt verarbeiten kann, mehr gibt der Bus nicht her.
Die Quadro rtx 8000 würde auf so 15 fps kommen mit ihrer Bandbreite einmal den gesamten 48 GB Speicher anzufassen.
Es ist natürlich nicht alles im vram aktives workingset, aber die ganzen modernen streaming/footprint... Techniken zielen ja auch darauf ab möglichst wenig waste zu haben.

Man kann also schon abschätzen welche Größen für was Sinn machen.

Du meinst also, dass mehr als 8GB nicht notwendig sind, weil eh nicht mehr effektiv pro Sekunde genutzt werden kann? Oder verstehe ich dich da falsch?

pixeljetstream
2020-07-03, 00:58:01
Effektiv hält der vram ja etwas mehr weil man nicht perfekt streamen kann. Sagen wir den Teil des Gebäudes das gerade nicht sichtbar war etc. Er ist dann einfach Cache und so sind mehr als 8GB dann auch praktisch. Mir geht es darum, dass diese Zahlen halt schon ins Verhältnis gebracht werden müssen zum Anwendungsfall. Bandbreite/framerate...
Also die Theorie dass der Bedarf trotz fester HW bei den Konsolen nun sich steigern wird, gibt es dennoch logische Grenzen weil am Ende ja alles irgendwie über den Bus muss.

Eine Szene wird dann detaillierter je mehr Daten einzigartig sind. Statt der gleichen Holztextur halt 10 verschiedene. Eine Szene im Bild kann aber theoretisch nie komplexer sein als wenn jedes Byte dafür einzigartig wäre. Ergo wieviele einzigartige Bytes schafft der Bus. Ich hoffe das ist halbwegs plausibel.

MiamiNice
2020-07-03, 01:01:39
du vergisst aber, die texturen auf konsole sind grundsätzlich schlechter als auf dem PC... und das kostet ordentlich, unter 16GB wird man dieses jahr nix mehr holen im top-level segment... alles andere wäre nur kundenverarsche.

Und Du vergisst das Streaming :wink:
Alle Daten immer im VRAM vorzuhalten ist gar nicht nötig. Sie müssen nur rechtzeitig dort sein und nicht immer.

Es ist doch einfach nur dem persönlichen Empfinden geschuldet so dermaßen auf VRAM zu pochen. Als ob eine GPU massiv an Leistung gewinnt wenn sie jetzt 16 statt 12Gb VRAM hat. Dem ist, imo, nicht so.

Linmoum
2020-07-03, 01:04:56
Aber da muss man auch mal klar differenzieren, imo. Raff ist ein Journalist bei einer von zig deutschen Webseiten und nur einer von tausenden. Er hat Job bediengt sicher einen tieferen Einblick aber es ist mit Sicherheit nicht so, das Pontius Pilatus zu ihm kommt und erklärt wie die nächsten Jahre an Gaming Geschichte aussehen (sonst würden wir auch zig Artikel darüber sehen mit Eintrittsgeld). Lezten Endes rät es auch nur ins Grüne (der Rest in Blaue), wie eben auch ein Igor. Klar hat man Freunde hier und da aber der Markt ist einfach zu schnellebig als das da immer fundierte Infos rüber kommen können.
Er rät nicht ins Blaue, insbesondere PCGH und Raff predigen das mit dem Speicher mantraartig seit gefühlten 20 Jahren und testen auch regelmäßig.

Die neuen Türstopper haben 16GB Ram und der wird geteilt zwischen Hauptspeicher und VRAM und es muss noch das OS reinpassen. Ergo bleibt am VRAM was über? 10GB? Wenn es hoch kommt? Da sollte man die Kirche, imo, mal im Dorf lassen. Und was die neuen Türstopper da an SSD Power bringen ist nichts was ein PC Gamer, mal eben, aus dem FF, aus einer RAM Disk zaubern könnte.Der Punkt ist, dass 11GiB einer 2080Ti schon jetzt überlaufen (können). Das hatte Raff letztens auch erst anhand von Minecraft (ja genau, das Spiel mit der eigentlich oldschool doofen Klötzchenoptik) dargelegt. Wo wir ja wieder bei dem Thema sind, was seit Turing vermehrt en vogue ist und was auch in den nächsten Monaten immer mehr en vogue wird. ;) Und wo von Ampere ja auch erwartet wird, dass dort die Leistung signifikant anzieht. Also Leistung, nicht der Speicher, den man ebenfalls braucht.

Die neuen Konsolen sind, meiner Meinung nach, absolut lächerlich was deren reine HW Power angeht. Und das vor allem auf der Speicherseite. Auf der GPU Seite können die ja immerhin mit einer 1080TI konkurrieren. Meine 1080TI ist btw. seit mitte 2016 in meinem Rechner. Gefühlt sind die neuen Konsolen schon jetzt End of Life.

12GB, ernsthaft, für mich kein Beinbruch. Zumal auch immer weiter die Kompression verbessert wird.Lächerlich ist eigentlich nur, wenn NV tatsächlich erneut beim Speicher geizt. Noch lächerlicher ist eigentlich nur, wenn man sich als Uber-Enthusiast gibt und sowas dann trotzdem schluckt. ;)

Ansonsten glaube ich kaum, dass du Zeitreisender bist und 2016 schon eine 1080Ti hattest. "End of Life", um es genauso überspitzt darzustellen wie du, werden schon nächstes Jahr Karten in UHD mit <=12GiB sein, primär bezogen auf Raytracing. Also in Verbindung mit "Rohleistung reicht, aber...", bevor jetzt wieder das Argument mit Detailreduzierung kommt.

MiamiNice
2020-07-03, 01:08:43
Ich bin absolut kein Enthusiast, ich bin ein Gamer. Ich habe auch nie etwas anderes behauptet. Der Uber-Enthusiast ist leider vor langer Zeit von uns gegangen :/ Aber recht hast Du, die 1080 kam Mitte 2016 in meine Kiste, die TI kam später.

Das hatte Raff letztens auch erst anhand von Minecraft

Das empfinde ich sehr trollmäßig. Man kann sicherlich auch ein Tetris so weit aufblasen das 50Gb VRAM nicht mehr ausreichen. Sehe ich das? Nein. <- Um es mal auf die Spitze zu treiben.
Und das mal ganz abgesehen von dem Fakt, das NV wirklich mit Speicher geizt.

€: Grafikhuren können sich ja eine Titan kaufen und dann mit temporal super Grid 100 Fach AA die Augen massieren. Ich, als reiner Gamer, brauche nur FPS. Ich würde sogar im Wireframe zoggen wenn das der K/D zuträglich ist. Um mal meinen Standpunkt zu skizzieren.

=Floi=
2020-07-03, 01:25:02
Effektiv hält der vram ja etwas mehr weil man nicht perfekt streamen kann. Sagen wir den Teil des Gebäudes das gerade nicht sichtbar war etc. Er ist dann einfach Cache und so sind mehr als 8GB dann auch praktisch.

Und das ist der witz, weil es bei solchen sachen die gerade ins bild kommen anfängt und bei irgendwelchen skins aufhört. Braucht das game irgendeine textur/datei aus dem festspeicher ist es im grunde schon zu spät. Es kann dort auch keine intelligente lösung geben, weil das ganze spielerlebnis zu variabel ist. Unregelmässige frametimes zeigen es leider zu oft.
Es wäre auch mal richtig genial, wenn der normale ram als streaming puffer genutzt werden könnte. :rolleyes:





Das empfinde ich sehr trollmäßig. Man kann sicherlich auch ein Tetris so weit aufblasen das 50Gb VRAM nicht mehr ausreichen. Sehe ich das? Nein. <- Um es mal auf die Spitze zu treiben.

bei MC siehst du die erweiterte sichtweite schon!

SKYNET
2020-07-03, 01:26:21
Ich bin absolut kein Enthusiast, ich bin ein Gamer. Ich habe auch nie etwas anderes behauptet. Der Uber-Enthusiast ist leider vor langer Zeit von uns gegangen :/ Aber recht hast Du, die 1080 kam Mitte 2016 in meine Kiste, die TI kam später.



Das empfinde ich sehr trollmäßig. Man kann sicherlich auch ein Tetris so weit aufblasen das 50Gb VRAM nicht mehr ausreichen. Sehe ich das? Nein. <- Um es mal auf die Spitze zu treiben.
Und das mal ganz abgesehen von dem Fakt, das NV wirklich mit Speicher geizt.

€: Grafikhuren können sich ja eine Titan kaufen und dann mit temporal super Grid 100 Fach AA die Augen massieren. Ich, als reiner Gamer, brauche nur FPS.


wenn du frames brauchst, kannst die ja auch ne 2080Ti in den rechner stopfen und auf 720p gehen, nur ist dafür dann deine CPU zu lahm :tongue:

ich will eyecandy, alles auf rechts, und da gibts jetzt schon nen haufen games die 1440p mehr als 8GB brauchen, oder es ruckelt halt ab und an beim nachladen... und klar kann mans auch so programmieren das 8GB langen, siehe doom eternal, allerdings hast da zb. auch nicht wie in anderen games massive vegetation, weil die kostet oftmals richtig speicher.

Linmoum
2020-07-03, 01:47:02
Das empfinde ich sehr trollmäßig. Man kann sicherlich auch ein Tetris so weit aufblasen das 50Gb VRAM nicht mehr ausreichen. Sehe ich das? Nein. <- Um es mal auf die Spitze zu treiben.Anhand dieser Aussage vermute ich recht stark, dass du es nie selbst gespielt hast. ;) Denn was du da schreibst ist halt einfach falsch.

Aber ich sehe schon, man kommt eh nicht auf einen grünen (höhö) Zweig mit manchen hier. Auch, wenn ich es als sehr traurig empfinde, dass man potentielle <=12GiB einer Next-Gen-GPU, die mit sehr hoher Wahrscheinlichkeit nicht "nur" 700€ kosten wird, noch irgendwie zu rechtfertigen versucht. Vor allem vor dem Hintergrund, dass es bereits seit 2017 in dieser Region 11GiB gibt.

Aber gut, muss jeder selbst wissen. Ich hoffe auf Konkurrenz, in welcher Form auch immer, und ich hoffe auf mehr als 12GiB abseits einer Titan. Wenn beide Hersteller nicht mehr anbieten, dann gibt's in der hohen Preisklasse eben auch kein Geld. Veräppeln können sie andere, finden sich genug dafür.

Korvaun
2020-07-03, 08:20:14
Wenn 10-12GB Graka-Speicher + 16GB RAM nicht reichen für 4k und gute-sehr gute Presets (in den nächsten 1-2 Jahren), dann ist das entsprechende Spiel einfach scheisse optimiert/die Engine einfach schlecht.

Sweepi
2020-07-03, 08:21:29
Zum Thema Speicher ein Denkanstoß: bei 448 GB/s ps5 sind das bei 60 FPS ca. 8 GB. Lass es mit Kompression bissl mehr sein die man pro frame überhaupt verarbeiten kann, mehr gibt der Bus nicht her.
Die Quadro rtx 8000 würde auf so 15 fps kommen mit ihrer Bandbreite einmal den gesamten 48 GB Speicher anzufassen.
Es ist natürlich nicht alles im vram aktives workingset, aber die ganzen modernen streaming/footprint... Techniken zielen ja auch darauf ab möglichst wenig waste zu haben.

Man kann also schon abschätzen welche Größen grob für was Sinn machen.


Mhh, ich habe ja noch nie eine Spiel - bzw Graphik API etc. aus der nähe gesehen, aber ich kann mir da keinen Reim drauf machen. Gegenbeispiel:

Ich schaue in einem Spiel nach Osten. Ich sehe den Sonnenaufgang über einem Weinberg. Richtung Norden steht eine steinerne Burg, Richtung Süden einige Häuser aus Holz.
Wenn ich mich nun nach rechts drehe, sehe ich die Häuser.
Drehe ich mich hingegen nach links, steht dort die Burg.
Damit es nicht zu ruckeln/nachladen kommt, muss die GPU, in dem Moment wo ich nach Osten schaue, bereits die Daten sowohl fuer die Burg als auch fuer die Häuser im VRAM haben. Aber: die GPU muss nie in der Lage sein, beides gleichzeitig zu lesen, sondern nur eins von beidem. Also kann man mehr Speicher zu Nutze machen, als man bei der anvisierten Framerate lesen kann.

Dampf
2020-07-03, 08:25:05
Der Punkt ist, dass 11GiB einer 2080Ti schon jetzt überlaufen (können). Das hatte Raff letztens auch erst anhand von Minecraft (ja genau, das Spiel mit der eigentlich oldschool doofen Klötzchenoptik) dargelegt.

Sehr schlechtes Beispiel. Minecraft nutzt Path Tracing was extrem leistungs und speicherintensiv ist, andere Games nutzen den Hybrid Approach. Also nix mit old-school Klötzchen, aufwendiger als MC Rtx kann ein game heute nicht sein.

Zudem ist die Software immer noch in der beta.

Und zu guter letzt ist das auch nur bei einer spezifischen Map der Fall, auf all den anderen bewegt sich die VRAM Allocation bei rund 3 GB.

dargo
2020-07-03, 08:32:25
Ich finde das immer bemerkenswert wenn irgend ein Softwaremüll aus dem letzten Jahrtausend (überspitzt) als Referenz herhalten muss, gleichzeitig 99,x% der Games ignoniert werden um die Speicherdiskussion wieder loszutreten. :uclap:

HOT
2020-07-03, 08:41:49
Leute, was das denn für ne bescheuerte Argumentation. Ich verstehe nicht, wie man gegen mehr Speicher sein kann, das halte ich schlichtweg für dämlich... Was soll das, das zu rechtfertigen, warum 10GB reichen. Das tun sie offensichtlich nicht, wenn man die Entwicklung der letzten Jahre berücksichtigt und jetzt mal 2 Jahre weiter denkt. Das wäre die 3. Generation ohne ordentliche Speichermengensteigerung, das ist schlichtweg inakzeptabel und nicht kaufenswert! Sich über nicht optimierte Titel aufregend ist einfach nicht zielführend und lenkt vom eigentlichen Thema ab.

Wenn 10-12GB Graka-Speicher + 16GB RAM nicht reichen für 4k und gute-sehr gute Presets (in den nächsten 1-2 Jahren), dann ist das entsprechende Spiel einfach scheisse optimiert/die Engine einfach schlecht.

Reisen großer BULLSHIT (nicht persönlich nehmen). Spiele die viel Speicher benötigen können das offensichtlich aus vielen Gründen tun.