Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
RT funktioniert auch über Vulkan und NV unterstützt Vulkan ...
https://devblogs.nvidia.com/vulkan-raytracing/
So wie ich das verstanden habe, benötigt Vulkan keine angepasste Hardware für RT.
(Somit würde AMD kein "eigenes Design" brauchen und könnte es,
rein über die Software, auch auf Konsolen funktionieren)
Theoretisch würde doch, für jede reflektierende Fläche, 1 berechneter Ray-Strahl ausreichen,
damit die Gpu weis, was sie wo und wie "spiegeln/kopieren" muss ?
K.A. ob bei Vulkan das ganze dann über die CPU "vor berechnet" wird
und die Graka die Info dann nur "umsetzt" ( fertig berechnet ) ...
Aber es wäre, denke ich, möglich mit sehr wenigen Rays optisch viel zu erreichen.
m.f.g. JVC
Savay
2018-12-04, 15:54:16
So wie ich das verstanden habe, benötigt Vulkan keine angepasste Hardware für RT.
Das gilt doch grundsätzlich auch für DXR oder nicht?! :wink:
Ich dachte RTX ist dann einfach das nV Framework zu DXR das es quasi auf die dedizierte HW übersetzt. :confused:
So wie ich das verstanden habe muss der Treiber quasi "nur" die Aufrufe annehmen und vermelden das er RT fähig ist...ob es dann im Hintergrund über normale Shader läuft oder nicht ist doch dann erstmal egal!?
DXR ist doch die DX12 Bezeichnung von RT ?
RTX ist NV´s eigene Bezeichnung für die eigene RT Hardware ?
Und Vulkan ermöglicht eben scheinbar rein Softwaretechnisch RT ?
K.A. ob ich da jetzt richtig liege oder Mist verzapfe ^^
( mein English ist echt mies ... leider )
m.f.g. JVC
p.s.: Ich würde mich echt freuen wenn DX12 voll auf die Schnauze fällt ...
Vulkan ist plattformübergreifend und ungebunden, würde ich viel besser finden ;)
aufkrawall
2018-12-04, 16:03:51
Es ist wie Savay gesagt hat. Außerdem sind die Vulkan-Extensions derzeit NV-exklusiv.
gravitationsfeld
2018-12-04, 16:12:49
Uniforms sind Variablen im global Scope wenn ich das hier richtig lese: https://www.khronos.org/opengl/wiki/Uniform_(GLSL)
Sowas gab es bisher nicht?
Das hat mit diesen uniforms nichts zu tun. Viele Begriffe werden dreimal benutzt.
AMD hat das uebrigens seit den ersten GCN-Chips.
Ach liebchen. Dazu muss man kein genie sein.
Das jemand wie du sich gegen solche simplen erkenntnisse sperrt, wundert auch niemanden.
"Jemand wie ich"? Was bin ich denn?
Ihr wisst gar nichts. Nichtmal ich weiss irgendwas. Das ist alles pure Spekulation und kein "Fakt".
Und schonmal ueberlegt wie weit im vorhinein die hardwareressourcen geplant werden muessen? Bei zulieferern? Fertigern? Wieviel geraete vor marktstart gefertigt werden muessen?
Meinst du im ernst die kommen 6 monate vorher an und sagen: hoer mal nv...wir brauchen in 3 monaten x millionen chips vom typ a, weil wir in 6 monaten x millionen neue konsolen verkaufen wollen? Glaubst du das im ernst?
Spar dir die antwort...wenns um Nv geht glaubst du alles.
Nein, sie kommen nicht 6 Monate vorher an. Bis Designs von der ersten Idee in fertigen Chips landen vergehen gut 5 Jahre. Wenn AMD Raytracing in der Pipeline hat, dann hat das intern schon einen grauen Bart. Falls das so ist, koennen Sony und Microsoft sehr wohl damit planen fur eine 7nm-Konsolen-Generation. Oder sie lassen es sein, weil es zu viel Die-Space kostet. Oder AMD hat nichts (fertig). Wir wissen es nicht.
Was jetzt der NV-Kommentar soll weiss ich echt nicht. Ich bin ziemlich kritisch was den Laden angeht?
Es ist wie Savay gesagt hat. Außerdem sind die Vulkan-Extensions derzeit NV-exklusiv.
Was anderes hab ich auch nicht geschrieben.
Seit wann ist was von Vulkan NV-exklusiv ?
"Vulkan bezeichnet eine Computergrafik-Programmierschnittstelle,
die quelloffen ist ..."
"Vulkan ist abgeleitet von AMD Mantle"
"AMD unterstützt Vulkan 1.0 deshalb auf allen CPU und Grafikprozessoren mit GCN-Architektur.
Vulkan 1.1 wird ab GCN ab der 2. Generation (1.2+) unterstützt."
https://de.wikipedia.org/wiki/Vulkan_(API)
"Vulkan 1.1.85 Released With Raytracing"
https://www.phoronix.com/scan.php?page=news_item&px=Vulkan-1.1.85-Released
"...this is currently a NVIDIA experimental extension ..."
"...there will likely be an official Vulkan ray-tracing extension backed by multiple vendors."
Da ist nix in Vulkan NV-exklusiv.
( oder übersehe ich was ? )
m.f.g. JVC
gravitationsfeld
2018-12-04, 16:21:46
Es ist wie Savay gesagt hat. Außerdem sind die Vulkan-Extensions derzeit NV-exklusiv.
So ein riesen Problem ist das nicht. AMD koennte die Extension ohne weiteres unterstuetzen, das ist praktisch eine eins zu eins Kopie von DXR.
Savay
2018-12-04, 16:24:06
DXR ist doch die DX12 Bezeichnung von RT ?
Ja.
RTX ist NV´s eigene Bezeichnung für die eigene RT Hardware ?
Jein...also nicht nur.
Es bezeichnet wohl auch die Softwareumgebung und nVs RT Implementierung und quasi das ganze drumherum.
Ich finds von der Bezeichnung irgendwie etwas Kuddelmuddel...aber es ist wie es ist.
Wird sich schon jemand was dabei gedacht haben...wahrscheinlich um maximale Verwirrung zu stiften. :biggrin:
BoMbY
2018-12-04, 16:47:09
Vulkan Extensions sind niemals Exklusiv, sie sind nur nicht (sofort oder automatisch) Teil des Standards. Jeder kann im Prinzip beliebige Extensions anlegen, und jeder kann die implementieren. Und möglicherweise werden die irgendwann zum Standard erklärt, und dann wird eventuell halt auch der Namensraum geändert.
Screemer
2018-12-04, 17:01:09
"Jemand wie ich"? Was bin ich denn?
Ihr wisst gar nichts. Nichtmal ich weiss irgendwas. Das ist alles pure Spekulation und kein "Fakt".
Was jetzt der NV-Kommentar soll weiss ich echt nicht. Ich bin ziemlich kritisch was den Laden angeht?
er hat doch gar nicht dich gequotet.
Ex3cut3r
2018-12-04, 17:06:28
essei es kommt sowas wie crysis raus... das selbst heute mit allen regler auf rechts(inkl. treiber) in 1920*1200 keine konstanten 60fps liefert mit ner 1080Ti die bis an die zähne getaktet ist ;D
und ja, ich weiss dass das game mieserabel geproggt ist, aber trotzdem sieht es für das alter immernoch verdammt gut aus.
Sowas wie Crysis wird es nie wíeder geben, das war der letze Dino, weil es von vorne rein nur für den PC Entwickelt wurde mit AAA Budget.
Bei Crysis 1 hängt man heut zu Tage immer im CPU Limit rum, weil es nur max 2 Kerne auslastet, war die GPU bei 99% @FHD? Wäre interessant wie sich da ein 8700k/9900k @ 5,0 ghz + DDR4 @ 4000mhz oder mehr schlägt.
crux2005
2018-12-04, 18:07:02
Ich frage mich wann DICE endlich an einer allgemeinen DX12-Optimierung anfängt zu arbeiten? Die Frametimes ohne DXR, welches nur die Probleme von DX12 verschleiert, sind immer noch kacke.
Haben sie doch. Manche Shader wurden verbessert.
gravitationsfeld
2018-12-04, 18:24:02
er hat doch gar nicht dich gequotet.
Da hast du recht.
wolik
2018-12-04, 18:57:36
Raytracing wird definitiv nicht verschwinden. Das hat sich in der Filmbranche auch durchgesetzt als man genuegend Rechenleistung hatte.
Dann red nicht von Fakten.
Filmbranche hat ein wichtige Vorteil :) Dort MUSS ein Frame nicht in 15ms berechnet werden :wink: In Gamebranche schon... (oder wenn wir von VR sprechen dann 4Kx2 120fps. Denk mal darüber nach. Aber VR ist doch kein Heilige Gral...)
Zu wenig RTX Leistung? :rolleyes: 1440p, RayTracing auf Ultra und 60+ FPS @ RTX 2080 Ti.
Abgesehen davon sind es andere Flaschenhälse die mehr FPS verhindern.
Bitte. Ich will mein 4K Monitor nicht downgraden!!! Und welches Qualität ? LOD RTX, keine fliegende Blätter in RT, etc. Gibts genug Videos.
Die Titan RTX ist mal wieder eine richtige Titan! Ein sehr nettes Stück Hardware das bestimmt auch viele Gamer anschaffen werden, schon nur wegen den 24GB Speicher.
Ok. Leistung ist nicht mehr Wichtig.:rolleyes: 24Gb. Yahoo ! Für 2700€.
Du scheinst von Entwicklungszyklen wenig Ahnung zu haben, wenn du allen Ernstes davon ausgehst, die nächste Konsolengeneration würde RT anbieten. Die Architekturentscheidungen sind lange getroffen, selbst die entsprechenden Zulieferverträge dürften bereits längstens gezeichnet werden.
Aber, red dir gerne weiter ein, es bestünde noch eine Wahrscheinlichkeit.
Das genau ist nämlich der Springende Punkt: Für den Grossteil des Gamermarkts (Konsolen) für den die Spieleschmieden produzieren, wird RT die nächsten 5-7 Jahre keine Rolle spielen.
Du darfst das schön finden oder nicht. Anzunehmen, das spielefirmen trotzdem relevant ressourcen in RT features investieren werden ist mehr als naiv.
Einfach erstaunlich das die 3DC Mitglieder sich vorstellen können das die NEXT Konsolen mit RTX kommen können. (Bestimmt NEXT Switch auch...)
mfg
tobi
Hallo Tobi. Hast du vor Titan RTX sein Eigen nennen ? (oder gleich Zwei)
Die Karte wird eher nicht von Gamern gekauft werden, außer der handvoll, die immer alles haben müssen, was neu ist.
Na klar. Mit Game Ready Treiber. Und Entwickler haben keines Geld für Quadro Karten. Arme Schlucker. :biggrin:
Man könnte die RTX Titan mit 24GB ja auch als Investition für die Zukunft ansehen, mit den 24GB sollte Sie lange ausreichen, man kauft sich die jetzt, und kauft dann 6 Jahre keine neue GPU. So hat man vlt. etwas gespart anstatt alle 2 Jahre das neue Topmodell für 1300€ zu kaufen. Für 1440p reicht Sie auch locker für 6 Jahre. :biggrin:
Hätte man noch bei FHD geblieben, dann hätte auch GTX 280 immer noch gereicht. 4K ist schon fast Standart. (RDR2 "versucht" in 4K zu zaubern) VR 4Kx2 90-120 FPS? Wie passt dort RTX ? 24Gb ist nicht alles... Trotz NVLink (was natürlich plus)
Rancor
2018-12-04, 19:24:27
Ach liebchen. Dazu muss man kein genie sein.
Das jemand wie du sich gegen solche simplen erkenntnisse sperrt, wundert auch niemanden.
Aber sojemand wie du ist doch ueber seinen herzenshardwarelieferanten so prima informiert. Hast du mal verfolgt mit was fuer einem vorlauf die entwicklungen zu einer neuen plattform anlaufen?
Schonmal ueberlegt, das softwareentwickler schon jetzt ziemlich genau wissen muessen wie die architektur aussieht? Weil natuerlich jede konsole zum marktstart exclusive titel haben muss, die auch einschlagen? Schon mal ueberlegt das natuerlich 1 bis 2 jahre vorher schon prototypen bestehen, die die architektur festlegen? Zu diversen testzwecken, zu durability tests, uat, etc?
Und schonmal ueberlegt wie weit im vorhinein die hardwareressourcen geplant werden muessen? Bei zulieferern? Fertigern? Wieviel geraete vor marktstart gefertigt werden muessen?
Meinst du im ernst die kommen 6 monate vorher an und sagen: hoer mal nv...wir brauchen in 3 monaten x millionen chips vom typ a, weil wir in 6 monaten x millionen neue konsolen verkaufen wollen? Glaubst du das im ernst?
Spar dir die antwort...wenns um Nv geht glaubst du alles.
Häh? Junge, was willst du von mir? Verwechselst du mich? Ich bin doch vollkommen bei dir, das die nächsten Konsolen sicherlich keine RTX Hardware haben werden. Das habe ich schon vor Ewigkeiten hier im Thread geschrieben.
Und ja schon lustig. Troyan bezeichnet mich als NVIDIA Hater hier , du als NVIDIA Fanboy ;D Frag doch mal PhuV was ich fürn Nvidia Fanboy bin :D Dieses Forum wird langsam verrückt. Hast du den Thread mal gelesen? Ich kritisieren hier Turing am laufende Bande, Kollege. Zu teuer, dafür zu langsam, RT kommt ne Generation zu früh und und und.... Komm mal runter.
wolik
2018-12-04, 19:33:22
Häh? Junge, was willst du von mir? Verwechselst du mich? Komm mal runter.
Dein Post war doch direkt unter Post von GSXR-1000. Ohne @...
Rancor
2018-12-04, 19:37:50
Dein Post war doch direkt unter Post von GSXR-1000. Ohne @...
Ja und jetzt? Ich habe lediglich gesagt, das er die DevKits sicher schon gesehen hat im Gegensatz zu jedem anderen hier. Von daher sollte man ihm nicht vorwerfen, keine Ahnung zu haben.
Das heisst aber doch nicht das ich glaube, das dort
1. Nvidia Hardware verbaut ist
2. und die Konsolen RT unterstützen
Ich bin mir ziemlich sicher das die Konsolen wieder auf AMD setzen werden, was auch vollkommen in Ordnung geht
dargo
2018-12-04, 19:40:32
Haben sie doch. Manche Shader wurden verbessert.
Dann müssen sie wesentlich mehr tun.
Ich bin mir ziemlich sicher das die Konsolen wieder auf AMD setzen werden, was auch vollkommen in Ordnung geht.
Es ist so gut wie sicher, das die Konsolen AMD Hardware verbaut haben werden.
Und AMD Hardware unterstützt Vulkan ...
Und somit ist theoretisch auch RT möglich.
( ohne spezielle Hardware dafür )
Es wären wahrscheinlich auch mit nur sehr wenigen gut überlegten Rays einige tolle Effekte möglich.
Ich halte es noch nicht für ausgeschlossen, das die Konsolen in irgendeiner Form RT nutzen können.
( die Programmierer müssen dafür nur auf Vulkan bauen und DX12 endlich zu Grabe tragen )
NV setzt scheinbar ja auch, auf drängen der Entwickler hin, auf Vulkan ;)
https://devblogs.nvidia.com/vulkan-raytracing/
"many developers want to embrace a more open approach using Vulkan,"
"This extension, called VK_NVX_raytracing, is a developer preview of our upcoming vendor extension for ray tracing on Vulkan."
Vielleicht erleben wir es ja tatsächlich noch, das NV offene Standards fördert/unterstützt :smile:
Würde ich gut finden, ich hab genug von Proprietärem scheiss.
m.f.g. JVC
p.s.: NV soll endlich Free-Sync freigeben !
( praktisch ist es möglich, nur NV will einfach noch nicht )
pp.s.: Falls sich Vulkan durchsetzt, sehe ich schwere Zeiten kommen für Microsoft.
ich finde es auch total falsch das Microsoft DX12 W10 only vermarktet.
Aus diesem Grund alleine habe ich schon kein W10.
Abgesehen davon das DX12 noch immer scheisse ist, Probleme macht.
( und meine 1080Ti sowieso besser mit DX11 kann )
Timbaloo
2018-12-04, 21:24:07
Ja, wäre schön wenn intel, NV, AMD und MS endlich ihren proprietären Scheiss aufgeben würden. Wird aber nicht passieren, weil jeder einzelne damit seine Pfründe sichert.
gravitationsfeld
2018-12-04, 21:26:48
Ich halte es noch nicht für ausgeschlossen, das die Konsolen in irgendeiner Form RT nutzen können.
( die Programmierer müssen dafür nur auf Vulkan bauen und DX12 endlich zu Grabe tragen )
Was haben Konsolen mit Vulkan zu tun?
Was haben Konsolen mit Vulkan zu tun?
Es würde ihnen nichts kosten, weil "for free" und Plattformübergreifend.
Spiele werden immer öfter vorrangig für Konsolen entwickelt ...
Vulkan könnte Konsolen und PC´s "vereinen".
DX12 auf Konsolen hieße doch auch W10 auf Konsolen, und das kostet dehnen sicherlich zu viel ...
Oder hab ich da jetzt nen Knopf im Gedankengang :confused:
m.f.g. JVC
p.s.: Ich habe keine Konsole und auch nie eine gehabt, k.a. was Konsolen so können und was nicht ^^
Aber die Hardware ist mittlerweile scheinbar schon recht PC ähnlich...
pixeljetstream
2018-12-04, 21:35:41
Vulkan/GL waren schon immer praktisch für HW Hersteller weil ohne Umweg/Hacks man neue HW Feature direkt anbieten kann.
Für bleeding edge Entwickler ist das sehr praktisch. Auch ist imo die API in Teilen etwas besser als dx12 weil man schon etwas gelernt hatte ;)
Ein großer business Motivator für Vulkan ist die cloud. Wenn die Spiele gestreamt werden will man als Anbieter keine Gebühr an MS für das OS zahlen.
@Bomby, vulkan implementieren kann jedes Mitglied. Wenn Du kein Mitglied bist, kannst Du wegen etwaigen notwendigen Patenten verklagt werden. Alle Mitglieder garantieren aber sich nicht für die Patente zu verklagen die sie bei der Ratifizierung des Standards offenlegen. Das ist die Rolle des Khronos IP Frameworks. Der Standard ist offen, weil jeder Mitglied werden kann gegen eine Gebühr. Als Endnutzer betrifft das alles einen nicht.
gravitationsfeld
2018-12-04, 21:37:31
Es würde ihnen nichts kosten, weil "for free" und Plattformübergreifend.
Keine Konsole ausser Switch unterstuetzt Vulkan und auch dort ist es langsamer als die native API.
Vulkan/GL waren schon immer praktisch für HW Hersteller weil ohne Umweg/Hacks man neue HW Feature direkt anbieten kann.
Für bleeding edge Entwickler ist das sehr praktisch. Auch ist imo die API in Teilen etwas besser als dx12 weil man schon etwas gelernt hatte ;)
Letztens hast du noch behauptet, dass Vulkan immer DX12 hinterher ist. Was denn nun?
Ja, wäre schön wenn intel, NV, AMD und MS endlich ihren proprietären Scheiss aufgeben würden. Wird aber nicht passieren, weil jeder einzelne damit seine Pfründe sichert.
Und eben weil jeder sein "eigenes Süppchen" kocht,
hat keiner einen echten Vorteil daraus ...
Das ist wie wenn ein Arbeiter seine "tricks und kniffe" vor allen geheim halten würde, nur um sich selbst unentbehrlich zu machen ...
So etwas hilft der Firma, der Entwicklung oder der Produktion auch weniger weiter als wie wenn er sich mitteilt und zusammenarbeitet ;)
Es ist eher ein Nachteil für alle, auch uns, da die Entwicklung langsamer voranschreitet als wie wenn alle an "einem Strang ziehen" würden.
Aber du hast Recht.
Leider hat Selbstlosigkeit/Teamwork zum wohle aller, in der Wirtschaft nichts verloren, da es gerade dort immer wieder Leute/Firmen gibt die das schamlos ausnutzen und sich, indem sie eine Errungenschaft verheimlichen, kurzfristig auf Kosten der anderen einen Vorteil verschaffen wollen.
Darum finde ich so eine "Gemeinschaft" wie Vulkan, extrem wichtig und gut für uns alle.
m.f.g. JVC
Keine Konsole ausser Switch unterstuetzt Vulkan und auch dort ist es langsamer als die native API.
Aber sie könnten es unterstützen, und darum hoffe ich, das sie es in Zukunft auch tun werden.
Wodurch nebenbei auch noch RT auf Konsolen ermöglicht werden könnte ;)
Und den Spieleentwicklern hilft es wahrscheinlich auch, wenn sie nur noch eine API unterstützen müssen.
gravitationsfeld
2018-12-04, 22:01:07
Man braucht kein Vulkan fuer Raytracing auf Konsolen. Ich glaube du hast da auch eine falsche Vorstellung, die Treiber implementieren Vulkan, es gibt da nicht irgendwo eine offene Bibliothek die dir Raytracing umsonst gibt.
Man braucht kein Vulkan fuer Raytracing auf Konsolen. Ich glaube du hast da auch eine falsche Vorstellung ...
Ok, ich wusste nicht das Konsolen auch so RT können.
Ich habe gar keine konkrete Vorstellung ...
Ich bin nur ein Laie der sich zu informieren versucht
und der mit den paar happen Wissen die er aufgabelt, etwas spekuliert ...
( der versucht, Erkenntnisse und Quellen zu teilen )
Ich bin immer an Fakten und Quellen interessiert.
( wenn es geht, bitte in Deutsch ;) )
Und ich würde es ganz einfach begrüßen, wenn die Hersteller mehr zusammenarbeiten würden.
( ich halte nichts von Zwängen oder Proprietärem )
m.f.g. JVC
gravitationsfeld
2018-12-04, 22:22:25
Ok, ich wusste nicht das Konsolen auch so RT können.
Koennen sie nicht, aber Vulkan ist auch kein Wundermittel um Raytracing zu bekommen. Ich versteh wirklich nicht worauf du hinaus willst.
Koennen sie nicht, aber Vulkan ist auch kein Wundermittel um Raytracing zu bekommen. Ich versteh wirklich nicht worauf du hinaus willst.
Aber Vulkan würde RT ermöglichen und den Spieleentwicklern das leben vereinfachen da Plattformübergreifend und eben "offen".
Oder gibt es einen einfacheren Weg "alle" zu "vereinen" ?
Wie gesagt.
Ich würde es ganz einfach begrüßen, wenn die Hersteller mehr zusammenarbeiten würden.
( ich halte nichts von Zwängen oder Proprietärem )
m.f.g. JVC
z.b.: Viele NV GPU Nutzer würden sich bestimmt freuen, wenn NV den VRR Standard unterstützen würde ...
Und ich freu mich eben weil NV jetzt Vulkan unterstützt.
gravitationsfeld
2018-12-04, 22:58:53
Aber Vulkan würde RT ermöglichen und den Spieleentwicklern das leben vereinfachen da Plattformübergreifend und eben "offen".
Oder gibt es einen einfacheren Weg "alle" zu "vereinen" ?
Das wird nicht passieren. Weder Microsoft noch Sony werden jemals Vulkan implementieren. Kannst du vergessen.
z.b.: Viele NV GPU Nutzer würden sich bestimmt freuen, wenn NV den VRR Standard unterstützen würde ...
Und ich freu mich eben weil NV jetzt Vulkan unterstützt.
NVIDIA hat schon immer Vulkan unterstuetzt.
Das wird nicht passieren. Weder Microsoft noch Sony werden jemals Vulkan implementieren. Kannst du vergessen.
"Nvidia Vulkan Treiber für Windows 10" https://www.chip.de/downloads/Nvidia-Vulkan-Treiber-fuer-Windows-10-Beta-64-Bit_89813011.html
(gibt's auch für W7/8 und natürlich auch für AMD Karten)
Also Microsoft unterstützt oder duldet Vulkan zu mindestens.
Oder wie hast du das gemeint :confused:
m.f.g. JVC
p.s: Wenn sich die Spieleprogrammierer zusammen tun würden und sich für Vulkan entscheiden würden,
dann würden es alle sicherlich ganz schnell unterstützen ^^
Nightspider
2018-12-04, 23:47:30
Sowas wie Crysis wird es nie wíeder geben, das war der letze Dino, weil es von vorne rein nur für den PC Entwickelt wurde mit AAA Budget.
Bei Crysis 1 hängt man heut zu Tage immer im CPU Limit rum, weil es nur max 2 Kerne auslastet, war die GPU bei 99% @FHD? Wäre interessant wie sich da ein 8700k/9900k @ 5,0 ghz + DDR4 @ 4000mhz oder mehr schlägt.
*hust* Star Citizen *hust*
Crysis 1 war nicht schlecht programmiert. Das erschien lange Zeit vor QuadCores, da war der Core2Duo gerade mal frisch auf dem Markt.
|MatMan|
2018-12-05, 00:00:02
Also Microsoft unterstützt oder duldet Vulkan zu mindestens.
Oder wie hast du das gemeint :confused
Er hat die Konsolen von Sony und Microsoft gemeint, da es um die zuletzt ging. D.h. XBOX und PS werden wohl nie Vulkan unterstützen.
Vulkan bietet nicht einfach so Raytracing für alle. Intel und AMD könnten das auch jetzt schon für DX12 anbieten. Machen sie aber nicht, weil sie keine Hardware dafür haben und es daher zu langsam wäre. Lieber unterstützen sie es gar nicht, als schlecht darin zu sein.
Ok ...
Um Konsolen ging es mir eigentlich nur nebenbei ^^
Ich wäre wiegesagt, einfach für einen einheitlichen offenen Standard für so viele Geräte wie möglich ;)
Und ich denke das man in ein Paar Jahren:
1. Wesentlich mehr Power für RT zur Verfügung hat und
2. Da noch sehr viel Optimierungsmöglichkeiten
für sinnvolleres nutzen der Leistung drin stecken.
( Ein Ray pro Spiegelnder Fläche sollte, übertrieben gesagt, schon ausreichen können)
Aber solange da nur NV im Alleingang losmarschiert, macht das nicht all zu viel sinn...
m.f.g. JVC
pixeljetstream
2018-12-05, 00:57:07
Letztens hast du noch behauptet, dass Vulkan immer DX12 hinterher ist. Was denn nun?
Der Standard ist langsamer, der Umfang der core Versionen, weil dann ein größerer Prozess nötig ist. Für kurzfristiges, macht man die Extensions als Hersteller allein, oder als EXT mit ein/zwei anderen.
Die Standardversion interessiert die Forscherteams oder manche Studios weniger, ist aber dennoch ein Manko für andere im Verhältnis zu DX.
Auch muss die hlsl Situation deutlich besser werden, aber denke da kommt auch Bewegung rein, wegen den streaming Plänen.
gravitationsfeld
2018-12-05, 03:59:52
Cool, erzaehl mir das dann noch mal wenn ich die ganzen Subgroup-Ops verwenden will die in SM 6 fehlen. Core Vulkan 1.1, unterstuetzt von allen IHVs.
Es ist und bleibt Bullshit. Das einzige was jemals langsamer kam war Raytracing weil Microsoft einen batzen Geld dafuer bezahlt hat. Ich kann den FUD nich mehr hoeren.
Dazu kommt die absolut grauenhafte Dokumentation von DX12. Das ist ein absoluter Witz.
Anstatt dass alle mal an einem Strang ziehen und einen offenen Standard unterstuetzen, der dieses Mal wirklich gut ist kriechen sie Microsoft immer mehr in den Arsch. Bei OpenGL hab ich es ja noch verstanden warum keiner Bock drauf hatte.
Timbaloo
2018-12-05, 07:27:06
Aber solange da nur NV im Alleingang losmarschiert, macht das nicht all zu viel sinn...
Der Logik folgend machte die Entwicklung von Mantle, ebenfalls als Alleingang gestartet, nicht viel Sinn? Auch wenn daraus dann Vulkan wurde, was aus deiner Sicht ja das Nonplusultra-Template für offene Standards zu sein scheint?
Der Logik folgend machte die Entwicklung von Mantle, ebenfalls als Alleingang gestartet, nicht viel Sinn? Auch wenn daraus dann Vulkan wurde, was aus deiner Sicht ja das Nonplusultra-Template für offene Standards zu sein scheint?
Vulkan ist für mich nicht das "Nonplusultra-Template"...
Wie sagt man so schön ... das geringste Übel, ist die beste Lösung ...
Ich finde hald "offene Standards" insofern gut, weil jeder beim verbessern mithelfen kann.
Von sogenannten "Black Box" Sachen, halte ich nur sehr wenig ...
( als Maschinenschlosser verbaue ich auch keine Sachen, bei denen ich
nicht weis was drinnen ist, oder was sie aushalten, wie qualitativ sie sind.
Da wird auch jedes Teil zuerst im Versuch nochmal zerlegt, getestet und erst dann für gut befunden, in der Serie verbaut. )
NV mag "Black Box" Sachen, weil sie gerne die Kontrolle haben.
( einen Ring um sie zu knechten ... )
Für Entwickler/Programmierer, ist so etwas aber weniger gut.
m.f.g. JVC
pixeljetstream
2018-12-05, 08:59:22
Cool, erzaehl mir das dann noch mal wenn ich die ganzen Subgroup-Ops verwenden will die in SM 6 fehlen. Core Vulkan 1.1, unterstuetzt von allen IHVs.
Es ist und bleibt Bullshit. Das einzige was jemals langsamer kam war Raytracing weil Microsoft einen batzen Geld dafuer bezahlt hat. Ich kann den FUD nich mehr hoeren.
Dazu kommt die absolut grauenhafte Dokumentation von DX12. Das ist ein absoluter Witz.
Anstatt dass alle mal an einem Strang ziehen und einen offenen Standard unterstuetzen, der dieses Mal wirklich gut ist kriechen sie Microsoft immer mehr in den Arsch. Bei OpenGL hab ich es ja noch verstanden warum keiner Bock drauf hatte.
Dx12 kam vor Vulkan 1.0, Vulkan 1.1 Features logischerweise auch später, SM6 war vor den subgroups da, die einzeln ein opt-in sind. Es gibt kein execute indirect und das bindless Modell ist auch "nur" EXT. Ich habe Erfahrung aus erster Hand wie das in Khronos abläuft und leider ist oft erst Handlungsbedarf der Entscheidung beschleunigt nachdem DX was hatte.
Unser Lieblingsgrabenkampf, du bist offensichtlich happy mit allem was geboten wird, aber deswegen muss man doch den Standardidierungsprozess nicht ignorieren. Im Endeffekt kann am langsameren Vorgehen auch was positives sein, dass manche Dinge besser designt wurden. Und es gibt auch Features die zuerst in VK waren (Renderpass, Multiview).
Je eher man die Dinge angeht die Probleme machen, desto besser. Es gibt leider nicht den einen Strang, weil VK mehrere Märkte abdeckt und hier direkte Konkurrenten sich zu Entscheidung durchringen müssen. Wir sind nicht bei Utopia, es geht am Ende immer ums Geld, irgendwer muss den Spaß ja finanzieren. Je bedeutender das cloud streaming, imo desto mehr Bewegung im high-end gaming.
Je eher HLSL für Vulkan mächtiger als für DX desto leichter (billiger) für die Mehrzahl der gaming Entwickler. Selbes mit bindless. Zu sagen alles super ist auch FUD. VK imo hat wegen des open-source stacks (renderdoc, spirv etc.) Ja gerade den mitmach-charakter, wo man die Leute motivieren soll die Gesamtsituation zu verbessern.
Long run sehe ich Vulkan auch klar im Vorteil. Du weißt, dass ich persönlich nur in GL/VK unterwegs bin, ich will auch, dass die API deutlich an Nutzern gewinnt :)
"Hitman 2: Beeindruckende Raytracing-Nachbildung im Techniktest"
http://www.pcgameshardware.de/Hitman-2-Spiel-6334/Specials/PC-Benchmark-Test-Review-Release-1269180/
"- interessanterweise kommt bei den feinen Echtzeitspiegelungen nicht etwa Nvidias Hybrid-Raytracing RTX zum Einsatz. IO Interactive hat einen anderen Weg gefunden, die Spiegelungen umzusetzen -"
"...denn "GTX 1080 Ti" ist nicht "GTX 1080 Ti", um nur ein Beispiel zu nennen..."
Die 1080Ti FE ist eben gut 10-15% langsamer ... so einen Hinweis, kann ich nur loben !
1080Ti vor der 2080 ...
2080Ti wieder mal ~22% vor der 1080Ti
( ist wohl nix mit den anfangs publizierten 47% und den danach gemessenen 35% ... )
( https://www.3dcenter.org/news/nvidia-prognostiziert-die-4k-performance-von-turing-mit-47-50-gegenueber-pascal )
Danke für den tollen Test Raff :up:
m.f.g. JVC
p.s.: Meine tolle 1080Ti wird definitiv nicht vor der 30xx Serie ersetzt.
( außer AMD kommt mit was feinem um die Ecke, Free-Sync wäre schon fein )
looking glass
2018-12-05, 13:39:48
Kurz mal eine ganz simple Frage, wenn ich nach 2070, 2080 etc. suche, finde ich eigentlich immer nur Versionen aus dem OC Bereich, gibt es eigentlich auch Karten mit Standardtakt zu kaufen?
Troyan
2018-12-05, 13:41:59
Die günstigeren Karten haben alle den Referenztakt, z.B. bei der 2070: https://geizhals.de/?cat=gra16_512&asuch=rtx2070&asd=on&bpmin=&bpmax=&v=e&hloc=at&hloc=de&filter=aktualisieren&plz=&dist=&mail=&sort=p&bl1_id=30
Standart Takt ist doch relativ. Meine rtx zum Beispiel ist mit 1635MHz Boost angegeben ... wenn sie kühl bleibt und die Targets nicht dazwischen funken taktet sie mit 2010MHz. Einfach so aus der Packung ;)
Bei Pascal ist es ähnlich.
looking glass
2018-12-05, 14:18:22
Mir geht es aber darum, das sie im idle wenig schluckt (gern unter 10 Watt, am liebsten so 7 Watt wie manche der 1070iger es erreichten), kühl genug bleibt, dabei in der Last nicht gleich beim Verbrauch völlig aus dem Ruder läuft und dabei halt bezahlbar ist - der Geizhalslink von oben mit 500 Ocken wäre perfekt.
Oder anders, ich scheiss auf die 10% Mehrleistung durch OC, ich habe andere Präferenzen.
Na dann UV und das Powertarget begrenzen wie gewünscht. Da sind sie alle gleich wenn es dir nur darum geht.
Savay
2018-12-05, 14:21:49
Dann kann man doch auch einfach das PT einschränken oder nicht?!
Bei modernen GPUs ist die Telemetrie so ausgefeilt, dass man sich quasi seinen Wunschchip zusammenfriemeln kann indem man allenfalls ein oder zwei Regler bemüht...oder (wenn vorhanden) auf ein Alternatives BIOS umschaltet.
Die müssen doch für sowas echt nicht noch Sondereditionen anbieten wo sich quasi nur irgendwelche Voreinstellungen unterscheiden.
Langsam muss man als Anwender mal von der Vorstellung runterkommen, dass ein Chip einen fixen Takt hätte und der Verbrauch daraufhin je nach Auslastung schwankt...mittlerweile ist es halt anders herum.
Die Leistungsaufnahme wird quasi fixiert (oder besser gedeckelt) und der Takt richtet sich dann halt nach der Auslastung.
Macht auch viel mehr Sinn (wenn das Design taktstabil und die Telemetrie robust genug ist)...entscheidend ist halt am Ende eh die elektrische Leistung die man reinsteckt...
looking glass
2018-12-05, 14:27:28
Sry aber die ganzen OC Versionen sind für mich die Sondereditionen, da die Chips halt "hand verlesen" sind, damit man sie eben hoch drehen kann, wenn man unbedingt will - jeder wie er will.
Mein Problem war halt, das ich immer nur über die OC Versionen stolpere und mich fragte, ob es überhaupt noch Standardversionen gibt.
Savay
2018-12-05, 14:28:42
Es gibt doch kein "OC" mehr im klassischen Sinne.
Die Leistung ist fix...der Takt Auslastungs- und Temperaturabhängig variabel. Das ist doch der Witz an den modernen Telemetrien!
Wenn du kein "OC" willst...drehst du einfach das PT runter...fertig ist...den Rest macht der Treiber/Chip von allein.
Deswegen bieten die Hersteller auch keine "Standardversion" an...lohnt sich doch einfach nicht, da sie idR eh ne potentere Kühllösung als die FEs anbieten (allein schon weil es leiser sein soll)...die verträgt dann idR aber auch ein höheres PT und dementsprechend ist dann auch der effektive Takt höher, weil sie den Spielraum natürlich ausnutzen wollen. Da ist auch nix "handverlesen"...grade bei der 2070 gibt es doch eh kein FE Design oder nicht?! Was genau ist dann da "OC" und was ist "Non-OC"?!
Und noch wichtiger: warum sollten sie das Potenzial liegen lassen?!
Der Anwender kann es doch später sowieso einfach so hin biegen wie es zu seinen Vorlieben passt.
SKYNET
2018-12-05, 14:33:05
Sowas wie Crysis wird es nie wíeder geben, das war der letze Dino, weil es von vorne rein nur für den PC Entwickelt wurde mit AAA Budget.
Bei Crysis 1 hängt man heut zu Tage immer im CPU Limit rum, weil es nur max 2 Kerne auslastet, war die GPU bei 99% @FHD? Wäre interessant wie sich da ein 8700k/9900k @ 5,0 ghz + DDR4 @ 4000mhz oder mehr schlägt.
muss ich mal schauen, denke aber dürfte kein CPU limit sein, da die lüfter durchweg leise gelaufen sind(gehäuse lüfter richten sich an die CPU temp), einzig die graka hat hochgedreht.
dildo4u
2018-12-05, 14:37:28
Sry aber die ganzen OC Versionen sind für mich die Sondereditionen, da die Chips halt "hand verlesen" sind, damit man sie eben hoch drehen kann, wenn man unbedingt will - jeder wie er will.
Mein Problem war halt, das ich immer nur über die OC Versionen stolpere und mich fragte, ob es überhaupt noch Standardversionen gibt.
Das wäre eine "Standard" Version deshalb steht dort 1 Click OC per Software,Nvidia verbietet Werks OC per Bios beim schlechter selektierten Chip.
http://www.kfa2.com/kfa2/graphics-card/20-series/kfa2-geforce-rtx-2070-ex.html
Troyan
2018-12-05, 14:39:31
Die Karten haben ebenfalls A-Chips. Da ist nichts verboten. Das sind einfach die Referenztaktraten. Wahrscheinlich bekommen die AIBs die Chips billiger, um den günstigeren Preis zu erreichen.
dildo4u
2018-12-05, 14:41:38
Die selektierung gibt es bei der 2070 nicht?
Mir geht es aber darum, das sie im idle wenig schluckt (gern unter 10 Watt, am liebsten so 7 Watt wie manche der 1070iger es erreichten), kühl genug bleibt, dabei in der Last nicht gleich beim Verbrauch völlig aus dem Ruder läuft und dabei halt bezahlbar ist - der Geizhalslink von oben mit 500 Ocken wäre perfekt.
Oder anders, ich scheiss auf die 10% Mehrleistung durch OC, ich habe andere Präferenzen.
Ja das ärgert mich an den NV Karten auch ... die ziehen immer Strom ...
Und mein PC läuft eigentlich immer wenn ich zuhause bin und nicht gerade schlafe.
Schalte immer nur den Monitor aus.
Bei meiner alten 390X reichte es den Monitor auszuschalten, dann wurde die Graka stromlos, richtig kalt ^^
( glaub das nannte sich "Zero Modus" bei AMD, k.a. ob das die neuen auch können )
Meine 1080Ti schaltet zwar die Lüfter aus, bleibt aber immer eine kleine Heizung :(
m.f.g. JVC
Troyan
2018-12-05, 14:54:12
Die selektierung gibt es bei der 2070 nicht?
Bis jetzt gibt es keine Bilder von "nicht" A-Chips - egal ob 2080 oder TI. Die Selektierung gibt es bestimmt, irgendwann.
/edit: Laut dem hier, gibt es wohl doch schon nicht A-Chips im Umlauf: https://www.reddit.com/r/nvidia/comments/a2tyze/999_evga_2080_ti_black_edition_my_overclocking/
Müsste eine der ersten sein.
=Floi=
2018-12-05, 15:05:36
hier ist ein video dazu
https://www.youtube.com/watch?v=eZJcXHOn42Y
you get what you pay for
dildo4u
2018-12-05, 15:15:07
Ist doch ok wenn es einem um den Möglichst geringen Verbrauch geht,die 2070 ist die einzige RTX die halbwegs unter 200 Watt bleibt.
Ich vermute erst 7nm wird das wieder komplett lösen meine 1070 bleibt immer unter 150.
SKYNET
2018-12-05, 15:18:50
Ist doch ok wenn es einem um den Möglichst geringen Verbrauch geht,die 2070 ist die einzige RTX die halbwegs unter 200 Watt bleibt.
Ich vermute erst 7nm wird das wieder komplett lösen meine 1070 bleibt immer unter 150.
mal undervoltet?
aufkrawall
2018-12-05, 16:36:54
meine 1070 bleibt immer unter 150.
Garantiert nicht.
SKYNET
2018-12-05, 16:44:46
Garantiert nicht.
kommt drauf an, wenn er sie manuell deckelt schon... die lastspitzen lasse ich bewusst mal aussen vor in dieser diskussion...
btw. bei 150W gedeckelt läuft meine 1080Ti mit 1780Mhz core bei 0.8V ;D
kleines biest isses :usex: aber erschreckend wie derbe der anstieg ist wenn ich sie auf 2150 hochdrehen lasse... :ulol: 400W peak mit grösseren ausreissern von 440W und mini lastspitzen jenseits von 550W X-D
karte verbraucht also doppelt soviel wie der getaktete 2700X + restliche system zusammen :ulol:
aufkrawall
2018-12-05, 16:46:16
Bei Aquanox in 800x600?
SKYNET
2018-12-05, 16:49:41
Bei Aquanox in 800x600?
furmark?
aufkrawall
2018-12-05, 16:56:41
furmark?
Und wie soll das stimmen können, wenn ich mit einer 1070 Ti @ 0,9V schon mit 180W in einem realen Spiel in die Drosselung laufe?
SKYNET
2018-12-05, 17:15:21
Und wie soll das stimmen können, wenn ich mit einer 1070 Ti @ 0,9V schon mit 180W in einem realen Spiel in die Drosselung laufe?
du weisst schon das 0.1V ne ganze menge mehr spannung ist, und je nach takt, geht das ordentlich nach oben mit der TDP... läuft ja nicht linear.
mironicus
2018-12-05, 18:29:29
Die Mobile GTX 1070 verbrauchen auch nur knapp 120 Watt, die laufen alle mit 0,85 Volt maximal.
gravitationsfeld
2018-12-05, 22:17:52
Dx12 kam vor Vulkan 1.0, Vulkan 1.1 Features logischerweise auch später, SM6 war vor den subgroups da, die einzeln ein opt-in sind.
SM6 fehlen gut 50% der Ops. Toll dass es frueher da war, Treiber gab es trotzdem ewig nicht und es ist unvollstaendig.
Troyan
2018-12-06, 22:55:55
Mobile RTX 2080 TI und 2070 bei Geekbench aufgetaucht: https://www.tomshardware.com/news/rtx-mobile-nvidia-2070-2080-ti,38206.html
Sollen angeblich zur CES kommen.
BoMbY
2018-12-07, 19:29:15
Kein OpenCL auf Turing (https://www.planet3dnow.de/vbulletin/threads/432256-OpenCL-auf-einer-GTX-2080ti-funktioniert-nicht) bisher? Kann das wirklich sein?
Timbaloo
2018-12-07, 19:59:12
Nein, kann nicht sein.
Troyan
2018-12-10, 11:57:26
weitere, angebliche, Leaks zur RTX2060: https://twitter.com/TUM_APISAK/status/1071949542990372864/photo/1
Daredevil
2018-12-10, 11:58:32
2080 vs 1080 im CPU Limit
D_STdSbNOwQ
Nicht super akademisch, aber schon interessant, dass Turing ab und an hinten liegt im absoluten CPU Limit.
Calypso
2018-12-10, 12:06:29
weitere, angebliche, Leaks zur RTX2060: https://twitter.com/TUM_APISAK/status/1071949542990372864/photo/1
jboah, auch 2019 nur 6 GB RAM für Mittelklasse?! :eek:
Ich würde ja vermuten, dass man langfristig mit ner 1070 mit 8 GB RAM besser fährt.
Bambuslooter
2018-12-10, 15:57:36
jboah, auch 2019 nur 6 GB RAM für Mittelklasse?! :eek:
Ich würde ja vermuten, dass man langfristig mit ner 1070 mit 8 GB RAM besser fährt.
Stimme zu mit meiner mobilen 1070.
Leistung zwischen Max-Q und normaler 1070 ist jetzt auch nicht berauschend bei den zu erwartenden Preisen.
Jetzt kriegt man 6 Kerne mit einer 1070 für 1,4k von MSI.
Klar die Karte ist alt, aber die 2070 wird keine Wunder vollbringen.
Zumal die Preise locker ab 2000€ mit der 2070 losgehen.
VirtualLink ist aber nicht an Board oder?
Weil die 35W zusätzlich wären im Laptop der Tod für die neue Gen.
Troyan
2018-12-10, 16:36:54
Videocardz hat ein Bild einer RTX 2060: https://videocardz.com/79237/gigabyte-geforce-rtx-2060-oc-pictured-features-1920-cuda-cores
1920 Cores... Das ist schon ein komisches Lineup bei denen.
1920 -> 2304 -> 2944 - drei verschiedene Chips für maximal 50% Unterschied...
AffenJack
2018-12-10, 17:31:41
Videocardz hat ein Bild einer RTX 2060: https://videocardz.com/79237/gigabyte-geforce-rtx-2060-oc-pictured-features-1920-cuda-cores
1920 Cores... Das ist schon ein komisches Lineup bei denen.
1920 -> 2304 -> 2944 - drei verschiedene Chips für maximal 50% Unterschied...
Drei Chips? Nope, dürfte eher ein Salvage TU106 werden. Da die 2070 der Vollausbau ist, braucht man definitiv einen Salvage. Ich schätze der Preis wird bei 399$ landen.
crux2005
2018-12-10, 18:51:54
2080 vs 1080 im CPU Limit
https://youtu.be/D_STdSbNOwQ
Nicht super akademisch, aber schon interessant, dass Turing ab und an hinten liegt im absoluten CPU Limit.
Interessant. :up:
Ex3cut3r
2018-12-10, 19:07:34
Bei CS weiß ich nicht was los ist, aber die RTX taktet nicht hoch, die läuft nur mit 1035 mhz, die 1080 immerhin mit 1734mhz. Aber KA ob das im CPU Limit eine Rolle spielt. Der Tomb Raider bencht taugt leider nicht, weil die ergebnisse einfach Mist sind, kann man selbst zuhause probieren, das ergebnis ist immer anders, und teilweise sind die min.fps total verschieden, besser wäre es gewesen ein Ingame Savegame zu laden und dann an der gleichen Stelle zu vergleichen.
Hakim
2018-12-10, 23:17:04
also bei der 1060 fand ich die 6GB noch ok, da vom Perf her etwa GTX980 Niveau aber mit mehr Speicher, aber jetzt Anfang 2019, und wenn die Karte etwa 1070 Niveau haben sollte finde ich 6GB schon etwas low, auch wenn die Zielgruppe derzeit immer noch meistens mit keine Probleme diesbezüglich haben sollte. Wenn die 2060 wirklich nur 6 GB haben sollte, würde ich derzeit eher auf das kommende AMD Gegenstück, 1070 oder doch 2070 tendieren.
Linmoum
2018-12-10, 23:27:48
Kurz und knapp: 6GB für eine Karte mit grob Vega56/1070Ti-Performance sind im Jahr 2019 absurd.
Aber gut, Nvidia halt. Kennt man ja mittlerweile. Werden sich genug Doofe finden, die das trotzdem kaufen. Und dann in 'nem Jahr rumweinen, warum das ständig fies ruckelt. Wobei, dafür muss man ja nicht einmal mehr warten, gibt schon heute genug Spiele, die auch 6GB ohne Kunst vollkriegen. Wenn man dann noch zu denjenigen gehört, die gerne ältere, Mod-freundliche Spiele zocken, kann's richtig bitter werden.
Hakim
2018-12-10, 23:52:16
hätten doch zumindest 224 Bit Anbindung mit 7 GB machen sollen statt 192 mit 6 GB :). Hätte man zumindest 1 GB mehr als die 1060. Ne mal im Ernst 6 GB für so eine Karte und vor allem wie sollen die abspeckversionen aussehen? Wieder 3GB?
Linmoum
2018-12-10, 23:59:20
Gibt dann im Mainstream bestimmt 4GB, das Downgrade hat man ja schon bei der 2080 vollzogen und wird es scheinbar auch bei der 2060 fortführen. Wer braucht schon 6GB wie bei der 1060, einfach 'ne 2050(Ti) mit 4GB bringen, merkt eh keiner.
reaperrr
2018-12-11, 00:15:56
Ne mal im Ernst 6 GB für so eine Karte und vor allem wie sollen die abspeckversionen aussehen? Wieder 3GB?
Wird einfach keine weiter abgespeckte 2060 geben. Ist ja anders als die 1060-6G bereits selbst ein Salvage-Chip, da braucht es keine weitere TU106-Karte darunter (dafür ist der Chip wahrscheinlich auch eh zu teuer in der Herstellung).
Unter der 2060 6GB wird dann direkt die 2050 Ti mit 4GB GDDR6 auf Basis eines kleineren Chips ohne RT kommen.
crux2005
2018-12-11, 00:18:57
Kurz und knapp: 6GB für eine Karte mit grob Vega56/1070Ti-Performance sind im Jahr 2019 absurd.
Aber gut, Nvidia halt. Kennt man ja mittlerweile. Werden sich genug Doofe finden, die das trotzdem kaufen. Und dann in 'nem Jahr rumweinen, warum das ständig fies ruckelt. Wobei, dafür muss man ja nicht einmal mehr warten, gibt schon heute genug Spiele, die auch 6GB ohne Kunst vollkriegen. Wenn man dann noch zu denjenigen gehört, die gerne ältere, Mod-freundliche Spiele zocken, kann's richtig bitter werden.
6 GiB VRAM reicht doch für eine 1080p Grafikkarte.
Außerdem brauchst du nicht mal vollen VRAM für Ruckler. Die sind automatisch im aktuellen Windows und nVidia Treiber enthalten.
Hätte lieber eine Lederjacke. :(
Hakim
2018-12-11, 00:29:11
6 GiB VRAM reicht doch für eine 1080p Grafikkarte.
Das stimmt schon, die meisten Leute die sich ne 60er Karte kaufen spielen vermutlich auch 1080p ohne Großartig in den Grafiksettings die Schieber nach rechts zu schieben, und wenns etwas ruckelt, schiebt man halt die Texturqualität einmal nach Links. Aber eine Karte auf Vega 56 und 70(ti) Niveau, sollte eigentlich schon 8 GB haben, zumindest mMn.
Linmoum
2018-12-11, 00:43:44
Was heißt reichen? Das Teil wird sich leistungsmäßig in der Nähe der 1070Ti platzieren, hat aber 2GB weniger und wird für eine xx60-GPU verhältnismäßig teurer.
Was macht man dann mit dem Mainstream? 1060 weiterlaufen lassen oder 'ne 2050(Ti) auf Turing-Basis bringen? Und reduziert man dort dann auch den VRAM im Vergleich zum preislichen Vorgänger?
Weiß echt nicht, warum sowas "reichen" sollte. 6GB für eine solche GPU sind im Jahr 2019 schlicht abenteuerlich, zumal man das auch schon unter FullHD ausreizen kann.
Tesseract
2018-12-11, 00:51:51
Wobei, dafür muss man ja nicht einmal mehr warten, gibt schon heute genug Spiele, die auch 6GB ohne Kunst vollkriegen.
welches spiel bekommt mit einstellungen die der leistungsklasse dieser karte entsprechen bitte 6GB voll?
Hakim
2018-12-11, 01:12:30
Ich glaube Shadow of the TR war bei den Ultra Einstellungen auf 1080p nah an der Grenze. So 5,2 bis 5,6GB soweit ich mich erinnere.
SKYNET
2018-12-11, 01:49:40
6 GiB VRAM reicht doch für eine 1080p Grafikkarte.
Außerdem brauchst du nicht mal vollen VRAM für Ruckler. Die sind automatisch im aktuellen Windows und nVidia Treiber enthalten.
Hätte lieber eine Lederjacke. :(
nö, langt nicht...
bei mir ruckelt nix...
crux2005
2018-12-11, 02:17:29
nö, langt nicht...
bei mir ruckelt nix...
Du bist auch 60 Hz Gamer. :)
Tesseract
2018-12-11, 02:29:08
Ich glaube Shadow of the TR war bei den Ultra Einstellungen auf 1080p nah an der Grenze. So 5,2 bis 5,6GB soweit ich mich erinnere.
ja, mit den texturen die für 4k auf den konsolen designt wurden und von denen man in 1080p und besonders mit den temporalen AA-modi nicht all zu viel hat. wenn man zu den personen gehört denen frameraten relativ egal sind und man auf einer mid-range-karte auf 4k <60fps in kauf nimmt ist man mit einer 6GB karte sicher falsch beraten. auf 1080p muss man das aber etwas differenzierter betrachten als nur "6GB reicht nicht", da steht dann die protenziell etwas höhere texturstufe gegen das was 8GB-konkurrenzmodelle eventuell in anderen bereichen weniger leisten.
Korvaun
2018-12-11, 07:05:00
Großer Chip und GDDR6 in der Mittelklasse is verdammt teuer, da muss nV halt irgendwie sparen um den Preis annehmbar zu bekommen. 2GB RAM weniger mach da schon was aus, auch wenns für den Kunden nicht so dolle ist...
Spasstiger
2018-12-11, 08:19:09
BF5 mit aktivem Raytracing hat offenbar einen doppelt so hohen VRAM-Bedarf wie ohne Raytracing (7 GB vs. 3,5 GB):
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11872378&postcount=211
Die nur 6 GiB VRAM der RTX 2060 könnten hier zusätzlich zur allgemein knappen Raytracing-Performance auf ein Niveau oder eine Bildqualitätsstufe limitieren, wo man lieber bei "RTX off" bleibt.
dildo4u
2018-12-11, 08:37:11
Dort wurde nirgends 1080p getestet.
Dural
2018-12-11, 09:32:23
Immer diese Sinnlosen Diskussionen :rolleyes:
Jeder der 1060 / 480 oder darüber hat wird sich die 2060 nicht mal anschauen, für alle darunter ist die 2060 sicherlich ein schönes Update, also genau diese User die jetzt 3-4GB Karten haben.
Calypso
2018-12-11, 09:34:33
Klar wäre so ne Karte von Interesse, aber ich als Mittelklassekartenkäufer nutze so eine Karte ein paar Jahre (länger) als andere und da sind 6 GB nicht zukunftweisend.
RT braucht viel RAM auf Turing und NV spart aber in die Speichermenge hinein? Das ist mal en echte Flop-Generation. Gut für NV, denn es wird trotzdem gekauft und übernächstes Jahr sind im ganzen Markt neue Karten nötig.
Es war aber auch klar, dass die 106er als salvage ja noch mal irgendwo eingesetzt werden muss. Eine 2060 mit 106 salvage war also naheliegend.
Dural
2018-12-11, 09:43:54
Was gibt es den für alternativen?
Die 590 ist klar langsamer, da bleibt noch die Vega56, ob die zukunftweisender ist steht noch in den Sternen + die ganzen Vega Nachteile.
Auf der NV Seite gibt es nur die 1070, da hat man eine Architektur die gegen Turing klar veraltet ist. Viel Spass damit.
Wer unbedingt 8GB haben will, muss halt zur 2070 greifen, das ist so wie so die rundeste aller Turing Karten (Ausser Titan)
Was denn für "ganze Vega Nachteile"? Hab ich was verpasst? Das Ding hat wenigstens 8GB (sogar mit Software-Option auf mehr). Aber ich stimme zu, die einzige Turing-Karte, die was taugt ist die 2070 (neben den völlig überteuerten Enthusiastenmodellen).
aufkrawall
2018-12-11, 10:29:01
Was denn für "ganze Vega Nachteile"? Hab ich was verpasst?
Zum Beispiel, dass Spiele mit den Creators Updates weniger stocken als mit Nvidia. Ups, ist ja ein Vorteil...
Ich finde Leistung sowie zusätzliche Features schon in Ordnung, aber der Preis macht das ganze direkt kaputt. (Raytracing auf 2060 mal dahingestellt) Hier muss wieder Konkurrenz aufkommen... ich schätze sobald AMD neue Grafikkarten vorstellt bzw. in Aussicht gibt wird es bei Nvidia eine Preisanpassung geben.
Meiner Meinung wird das ähnlich zu GTX1080 sein das jeder Chip eine Preiskategorie nach unten rutscht... (zumindest hoffe ich es ;) )
Meine GTX1060 reicht für z.B. BF V in WQHD mit angepassten Einstellungen aus!
Eigentlich wollte ich aufrüsten aber bei der aktuellen Situation, löst das nur Kopfschütteln aus!
Grüße
JSF
SKYNET
2018-12-11, 11:39:53
Du bist auch 60 Hz Gamer. :)
denke nicht das es dadran liegt... eher an ner unglücklichen hard-software kombi ;)
Mr.Bug
2018-12-11, 13:20:51
Was für ein unnützer Rohrkrepierer die 2060 doch ist - allen Ernstes nochmal mit lediglich 6 GB, für Raytracing vermutlich ohnehin zu langsam und auf Performanceniveau einer 1070! Da kauft man sich doch lieber letztere und hat noch gratis 8 GB Ram im Sale.
Allen Aufrüstern mein Beileid, fürchterlich mit dieser Generation.
Ex3cut3r
2018-12-11, 13:53:01
BF5 mit aktivem Raytracing hat offenbar einen doppelt so hohen VRAM-Bedarf wie ohne Raytracing (7 GB vs. 3,5 GB):
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11872378&postcount=211
Die nur 6 GiB VRAM der RTX 2060 könnten hier zusätzlich zur allgemein knappen Raytracing-Performance auf ein Niveau oder eine Bildqualitätsstufe limitieren, wo man lieber bei "RTX off" bleibt.
Stimmt. Aber ich habe in 3440x1440 getestet, in 1080 oder 1440p wird wohl etwas weniger sein, aber auch da bezweifle ich, dass die 6GB der RTX 2060 reichen wurden zumindest mit Texturen auf Max. :wink:
Was auch heftig ist, die CPU wird mit RT auch viel wichtiger (nochmals) und der RAM Verbraucht steigt auch heftig, von 7,5-8 auf 11-12GB. :freak:
Und das alles, bei einem MP Shooter wo ich sowieso eigentlich, wenn ich "ernst" spiele alles auf Low, außer Texturen stelle.
crux2005
2018-12-12, 01:21:45
denke nicht das es dadran liegt... eher an ner unglücklichen hard-software kombi ;)
Ahso. Deswegen haben die hier mit RTX 2080 lags im gegensatz zur GTX 1080 wo es flüssiger läuft:
https://www.youtube.com/watch?time_continue=2&v=D_STdSbNOwQ&t=17m31s
Razor
2018-12-12, 03:57:31
Eine 2060 mit 106 salvage war also naheliegend.
Kann mir mal jemand sagen, wo dieser Begriff "Salvage" schon wieder herkommt?
Will das die "Resteverwertung" von defekten und so teildeaktivierten Chips meinen?
Bei den Turings gibt es eine derartige "Resteverwertung" (noch?) nicht.
Und warum soll man ausgerechnet mit der "Verwertung" der 2070'er Reihe anfangen?
Überhaupt: warum ist man der Meinung, dass es überhaupt eine RTX 2060 geben wird?
Die blöden Gesichter möchte ich sehen, wenn draus schlicht eine GTX 2060 wird...
Ergo: kein RT, dafür aber vielleicht Tensore-Cores?
Würde den Chip doch gleich viel günstiger machen, oder?
Razor
mczak
2018-12-12, 04:46:49
Ergo: kein RT, dafür aber vielleicht Tensore-Cores?
Würde den Chip doch gleich viel günstiger machen, oder?
Keine Ahnung ob die RT-Cores wirklich so gross sind (also laut dem schönen Blockdiagramm beansprucht so ein RT-Core etwa 20% der SM-Fläche...). Von "viel" günstiger kann man also nicht unbedingt ausgehen. Ich gehe jedenfalls davon aus dass das am Ende weniger als 10% der Gesamtchipfläche sind.
=Floi=
2018-12-12, 05:56:04
Bei den Turings gibt es eine derartige "Resteverwertung" (noch?) nicht.
Und warum soll man ausgerechnet mit der "Verwertung" der 2070'er Reihe anfangen?
2080 und 2080ti für consumer sind keine vollen chips. kann man bei dem preis auch nicht erwarten.
dildo4u
2018-12-12, 06:00:17
Ahso. Deswegen haben die hier mit RTX 2080 lags im gegensatz zur GTX 1080 wo es flüssiger läuft:
https://www.youtube.com/watch?time_continue=2&v=D_STdSbNOwQ&t=17m31s
Das zeigt nur das Nvidia wirklich was umgebaut hat,man müsste vergleichen wie es nach ein paar Monaten Treiber Optimierung aussieht.
SKYNET
2018-12-12, 09:54:45
Ahso. Deswegen haben die hier mit RTX 2080 lags im gegensatz zur GTX 1080 wo es flüssiger läuft:
https://www.youtube.com/watch?time_continue=2&v=D_STdSbNOwQ&t=17m31s
sagte ja, unglückliche kombi... in dem fall heisst das unglück turing ;D :tongue:
edit: kanns evtl. sein das die mikroruckler daher kommen das die RT/tensioncores eine unglückliche anbindung an den rest der GPU haben? :confused:
Bambuslooter
2018-12-12, 11:11:58
Kann mir mal jemand sagen, wo dieser Begriff "Salvage" schon wieder herkommt?
Will das die "Resteverwertung" von defekten und so teildeaktivierten Chips meinen?
Bei den Turings gibt es eine derartige "Resteverwertung" (noch?) nicht.
Und warum soll man ausgerechnet mit der "Verwertung" der 2070'er Reihe anfangen?
Es ist ja seit vielen Generationen bekannt, wie die nvidia Chipeinteilung ist.
102 Highend
104 Performance
106 Mittelklasse
Jetzt kann man noch den Vergleich zu den Profikarten hinzuziehen und sieht das neuerdings alle Turingkarten quasi "Reste" sind.
Die Yieldrate in 12nm muss mies sein bei der Größe.
Profikarten erhalten die vollen Chips und wir als Consumer oftmals die teildefekten (Salvage) Chips. Nicht unbedingt verwerflich, wenn man denn fair bleiben würde.
Bis Pascal war die x80 Karte die volle 104er und die teildefekte 104er die x70 Karte. Bei Turing ist ja bekannt, dass die 2080 nun eine teildefekte ist und die 2070 leider den vollen 106er Chip verwendet auf den lange Zeit die x60 Karten basierten.
Anhand der Leistungssprünge auch gut zu vergleichen.
GTX 980 Kepler 104 = GTX 1060 Pascal 106 voll
GTX 980ti Kepler 102 = GTX 1070 Pascal 104 teildefekt
GTX 1080 Pascal 104 = 2070 Turing 106 voll
GTX 1080ti Pascal 102 = 2080 Turing 104 teildefekt
Ja an den zwei Beispielen siehst du warum man das scheisse finden kann.
Es gibt noch viel mehr Gegenüberstellungen aus den vorigen Jahren und Leistungsgruppen.
pixeljetstream
2018-12-12, 12:10:30
RTX in allegorithmic baking tools
https://www.allegorithmic.com/blog/new-substance-designer-release-your-life-made-easier
https://alg-website.s3.amazonaws.com/uploaded-media/bakers_rtx.webm
crux2005
2018-12-12, 19:45:59
Das zeigt nur das Nvidia wirklich was umgebaut hat,man müsste vergleichen wie es nach ein paar Monaten Treiber Optimierung aussieht.
Es zeigt nur das die nVidia Treiber hot shit sind. :mad:
pixeljetstream
2018-12-19, 14:39:03
Gerade veröffentlicht worden dx12 Mesh shader demo
https://devblogs.nvidia.com/using-turing-mesh-shaders-nvidia-asteroids-demo/
Und seit einiger Zeit gibt's auch das Vulkan sample https://github.com/nvpro-samples/gl_vk_meshlet_cadscene
Leonidas
2018-12-19, 15:35:08
2080 vs 1080 im CPU Limit
Nicht super akademisch, aber schon interessant, dass Turing ab und an hinten liegt im absoluten CPU Limit.
Deutete sich schon bei den allgemeinen Benchmarks an. Turing war dort unter FullHD etwas langsamer, wo man unter 4K etwas vorn lag. Sprich: Turing braucht mehr CPU-Power als Pascal. Franst sich wohl mit der Zeit aus, wenn dann mehr CPU-Power zur Verfügung steht.
PS:
Erster 3DMark-Wert zur GeForce RTX 2060 zeigt auf eine Performance nahe der GeForce GTX 1080 hin
https://www.3dcenter.org/news/erster-3dmark-wert-zur-geforce-rtx-2060-zeigt-auf-eine-performance-nahe-der-geforce-gtx-1080-hi
basix
2018-12-19, 15:54:15
Zur CPU-Performance: Vielleicht der Unterschied 2560 vs. 3072 Shader? Oder allgemein ein höher Optimierungsgrad bei Pascal da schon länger am Markt?
dildo4u
2018-12-19, 15:57:36
Das wird wie bei Vega sein sie hoffen einfach drauf das sich DX12/Vulkan besser durchsetzt.Was auch Sinn macht da sie ja darauf setzen das sich RT in den nästen Jahren verbreitet.
Shadow of the Tombraider ist z.b extrem CPU Lastig Turing rennt aber Kreise um Pascal in 1080p.
https://www.techspot.com/review/1727-nvidia-geforce-rtx-2070/page2.html
pixeljetstream
2018-12-19, 16:03:09
Paxwell ist schon ewig auf dem Markt. Eine der wichtigsten/teuersten Aufgaben des Treibers ist shader compilation. Was sich bei raytracing verschärfen kann (mehr shader) je nachdem wie es eingesetzt wird.
gravitationsfeld
2018-12-19, 17:55:29
Was hat Raytracing mit DX11-Treiber-Performance zu tun?
Gerade veröffentlicht worden dx12 Mesh shader demo
https://devblogs.nvidia.com/using-turing-mesh-shaders-nvidia-asteroids-demo/
Und seit einiger Zeit gibt's auch das Vulkan sample https://github.com/nvpro-samples/gl_vk_meshlet_cadscene
Benutzt das Asteroid-Demo Vulkan? Ich bekomm da "your GPU does not support mesh shaders" auf ner 2080. Braucht das Win 10 RS4?
Edit: Nevermind, ich hatte ne 1080 im Rechner :facepalm:
Digidi
2018-12-19, 19:44:02
Was hat Raytracing mit DX11-Treiber-Performance zu tun?
Benutzt das Asteroid-Demo Vulkan? Ich bekomm da "your GPU does not support mesh shaders" auf ner 2080. Braucht das Win 10 RS4?
Edit: Nevermind, ich hatte ne 1080 im Rechner :facepalm:
Gab es nicht extra die Vulkan Extension für Mesh Shader?
AffenJack
2018-12-19, 19:55:04
Gerade veröffentlicht worden dx12 Mesh shader demo
https://devblogs.nvidia.com/using-turing-mesh-shaders-nvidia-asteroids-demo/
Und seit einiger Zeit gibt's auch das Vulkan sample https://github.com/nvpro-samples/gl_vk_meshlet_cadscene
Wie geht das denn bei DX12? Nur Vulkan hat doch Extensions und DX12 untersützt Mesh Shader ja nicht? Oder ist das dann über NvAPI? Dachte aber das geht ab DX12 nicht mehr.
Hakim
2018-12-19, 19:57:13
PS:
TimeSpy-Wert zur GeForce RTX 2060 zeigt auf eine Performance nahe der GeForce GTX 1080 hin
https://www.3dcenter.org/news/timespy-wert-zur-geforce-rtx-2060-zeigt-auf-eine-performance-nahe-der-geforce-gtx-1080-hin
Ja schön und gut, aber die 6GB bleiben leider halt.
gravitationsfeld
2018-12-19, 20:27:59
Wie geht das denn bei DX12? Nur Vulkan hat doch Extensions und DX12 untersützt Mesh Shader ja nicht? Oder ist das dann über NvAPI? Dachte aber das geht ab DX12 nicht mehr.
NVAPI wohl fuer DX12. Vulkan und OpenGL haben Extensions.
SKYNET
2018-12-19, 22:07:36
Das wird wie bei Vega sein sie hoffen einfach drauf das sich DX12/Vulkan besser durchsetzt.Was auch Sinn macht da sie ja darauf setzen das sich RT in den nästen Jahren verbreitet.
Shadow of the Tombraider ist z.b extrem CPU Lastig Turing rennt aber Kreise um Pascal in 1080p.
https://www.techspot.com/review/1727-nvidia-geforce-rtx-2070/page2.html
rennt kreise? also ich sehe da immer ziemlichen gleichstand mit der drüberliegenden karte der vorgänger generation... und zwar in jeder auflösung.
Fetza
2018-12-20, 08:09:42
Hallo,
denkt ihr eine 2060 mit 6GB Ram wäre ein vernünftiges Upgrade von einer GTX 980? Mehr als 2560x1440 Auflösung müsste sie nicht drauf haben - aktuell nutze ich noch Full HD.
pixeljetstream
2018-12-20, 08:12:03
Was hat Raytracing mit DX11-Treiber-Performance zu tun?
Nichts. Waren zwei unabhängige Aussagen. Hätte Absatz in den Text einbauen sollen.
pixeljetstream
2018-12-20, 08:17:01
NVAPI wohl fuer DX12. Vulkan und OpenGL haben Extensions.
Ja wobei der nvapi Weg für das Feature definitiv scheiße ist als Entwickler (viele c style Funktionen). Ich hoffe wir können das Open-sourcing von hlsl Compiler nutzen um es "schön" in die Sprache zu integrieren, wie es bei GLSL der Fall war. Sowohl für natives dx12 als auch hlsl für VK wäre das super.
basix
2018-12-20, 09:30:17
Hallo,
denkt ihr eine 2060 mit 6GB Ram wäre ein vernünftiges Upgrade von einer GTX 980? Mehr als 2560x1440 Auflösung müsste sie nicht drauf haben - aktuell nutze ich noch Full HD.
ca. +60% Performance wenn die Angabe zur Performance auf Höhe 1080er stimmt. Diese werden beim Wechsel von FHD auf WQHD je nach Spiel ca. zur Hälfte oder fast komplett aufgebraucht werden. Sicher gangbar aber ohne gross Performance Verbesserung. Ausnahme sind Spiele welche den neuen GPUs besser schmecken (z.B. Wolfenstein 2). Von denen wird es sicher immer mehr geben. Als Alternative gäbe es eine 2070er für etwa 450 Euro im Angebot mit nochmals +2GB Speicher (Ratraycing in BF5 braucht anscheinend gut Speicher) und +10-15% Performance. Je nach Shop evtl. BF5 Key noch mit dabei. Falls also mal so ein 450 Euro Angebot aufpoppt würde ich mir das überlegen. Sonst würde mal auf die Testberichte warten und dann abwägen, welches das bessere Angebot ist. Bei 350 Euro vs. 550 Euro wäre die 2060er sicher besser was P/L angeht.
Wenn die RTX 2060 wirklich mit nur 6 GiB kommt, wird die RTX 2070 schlagartig (noch) attraktiver. Eine Vega 64, die dann wohl unter 400 Euro rangiert, wäre ebenfalls eine vergleichbar schnelle Wahl (bei doppelter Leistungsaufnahme). 2019 noch weniger als 8 GiB zum Spielen herzunehmen, wo's schon seit Jahren ein paar Spiele gibt, die mit 6 GiB stocken, ist keine schlaue Idee. :)
MfG,
Raff
dildo4u
2018-12-20, 10:12:39
Hat die 2060 nicht mher VRam Pro Cuda Cores als eine 2080 Ti?Die GPU Anforderungen steigen so stark das die 2600 eh nur eine 1080p Karte ist, zumindest wenn Man das neue Tomb Raider als Maßstab für 2019 nimmt,dort haben sie es sogar hinbekommen bei besserer Optik den VRAM Verbrauch zu senken.
SKYNET
2018-12-20, 10:13:34
2019 noch weniger als 8 GiB zum Spielen herzunehmen, wo's schon seit Jahren ein paar Spiele gibt, die mit 6 GiB stocken, ist keine schlaue Idee. :)
MfG,
Raff
gleich kommen wieder die besserwisser, die rumbrüllen das 6GB doch total langen... :rolleyes:
frag mich ja wirklich, wie tief man sein kopf im arsch von der lederjacke versenken kann, damit man nur noch soviel scheisse sieht, das die rationalität aussen vor bleibt :confused: :ulol:
Hat die 2060 nicht mher VRam Pro Cuda Cores als eine 2080 Ti?Die GPU Anforderungen steigen so stark das die 2600 eh nur eine 1080p Karte ist, zumindest wenn Man das neue Tomb Raider als Maßstab für 2019 nimmt,dort haben sie es sogar hinbekommen bei besserer Optik den VRAM Verbrauch zu senken.
Es werden auch wieder Spiele kommen, die nicht gut optimiert sind. Die kommen immer. Und dann sieht man mit einem Produkt wie der RTX 2060, sollte sie so kommen, alt aus. Um es deutlicher zu machen: 1060-Speicher, aber 1080-Rohleistung. Wie soll das passen? Daneben ist die RTX 2070 ein ausgewogenes Produkt.
Turing kann anscheinend nur mit GDDR6 umgehen, also führen Sparmaßnahmen nur über weggelassene Chips und entsprechende Verdrahtung. Igor hat dazu ein paar Ausführungen auf seiner Website gepostet. Doof für Nvidia, gut für AMD (die das gleiche Problem mit HBM haben).
MfG,
Raff
dildo4u
2018-12-20, 10:25:28
Ich gehe von den erst Grad wieder erstellen Tests zum RX590 Launch aus.Die 1060 scheint immer noch auf Level mit der 580 zu sein.Ich kann kein Trend erkennen,daß der VRam knapp wird was auch Sinn macht,da die Ports hauptsächlich die PS4 als Grundlage haben.
CB hat sogar in 1440p die selben Frametimes gemessen und dafür ist die GPU natürlich eh schon viel zu langsam.
https://www.computerbase.de/2018-11/amd-radeon-rx-590-test/3/#diagramm-rating-99th-percentile-frametimes-in-fps-2560-1440
Troyan
2018-12-20, 10:43:39
Wird er auch nicht. Die Konsolen limitieren. Und hier vor Allem die PS4. 6GB in 1440p sind an der Grenze, aber eben nicht zu wenig.
8GB bringen einen auch nichts, wenn man mit 30FPS oder weniger rumdümpelt. So eine Vega-Karte ist eben selbst für 1440p nutzlos, wie man an FF15 eindrucksvoll sehen kann.
SKYNET
2018-12-20, 10:59:27
Wird er auch nicht. Die Konsolen limitieren. Und hier vor Allem die PS4. 6GB in 1440p sind an der Grenze, aber eben nicht zu wenig.
8GB bringen einen auch nichts, wenn man mit 30FPS oder weniger rumdümpelt. So eine Vega-Karte ist eben selbst für 1440p nutzlos, wie man an FF15 eindrucksvoll sehen kann.
texturdetails haben nix mit den frames zutun... und für FFXV ist alles nutzlos unterhalb einer 1080Ti/2080Ti, wenn man die texturen voll aufdreht...
Rancor
2018-12-20, 11:15:40
Wird er auch nicht. Die Konsolen limitieren. Und hier vor Allem die PS4. 6GB in 1440p sind an der Grenze, aber eben nicht zu wenig.
8GB bringen einen auch nichts, wenn man mit 30FPS oder weniger rumdümpelt. So eine Vega-Karte ist eben selbst für 1440p nutzlos, wie man an FF15 eindrucksvoll sehen kann.
6 GB sind definitiv für 1440p zu wenig. Du laberst wieder einen Müll..
dildo4u
2018-12-20, 11:29:06
texturdetails haben nix mit den frames zutun... und für FFXV ist alles nutzlos unterhalb einer 1080Ti/2080Ti, wenn man die texturen voll aufdreht...
CB hat hier 70fps für die 2080 in 1440p mit 4k Texturpack.
https://www.computerbase.de/2018-12/final-fantasy-xv-nvidia-dlss-test/#diagramm-final-fantasy-xv-99th-frametimes
Daneben ist die RTX 2070 ein ausgewogenes Produkt.
Von der 2000er Gen ist ja wohl keine Karte ausgewogen was das Verhältnis Rohleistung<>Speicher angeht.
Und wenn die neuen Technologien eingesetzt werden erst recht nicht.
dildo4u
2018-12-20, 12:36:24
Ich dachte die Karten sind zu langsam für RT da müsst ihr euch mal entscheiden.Und DLSS senkt den Vram Verbrauch da von einer niedrigen Auflösung hochskaliert wird.
Die 2070 ist ohne RT halt ein ausgewogenes Produkt. Das passt doch gut. Wenn ich ne neue Grafikkarte bräuchte wäre die 2070 ne echt gute Wahl (abseits vom bekloppen GSync-Zwang, aber das ist ein anderes Thema). 6GB sind einfach ein Witz in der Preisklasse, da könnt ihr noch so viel schönreden, das ist und bleibt einfach KACKE. Man muss sich das überlegen, in dem Preisbereich war AMD schon 2015(!) mit mehr unterwegs, einfach lächerlich. Diese Einschränkung gibts ja völlig ohne Not, da hätte man auch 8 verbauen können, ohne dass NV da nen Zacken aus der Krone gebrochen wär, die reichen einfach Kostenoptimierung an euch Kunden weiter, dessen muss man sich einfach bewusst sein. Da ist ja Vega ne bessere Wahl in dem Preissegment trotz den hohen Stromverbrauchs.
SKYNET
2018-12-20, 14:38:05
Die 2070 ist ohne RT halt ein ausgewogenes Produkt. Das passt doch gut. Wenn ich ne neue Grafikkarte bräuchte wäre die 2070 ne echt gute Wahl (abseits vom bekloppen GSync-Zwang, aber das ist ein anderes Thema). 6GB sind einfach ein Witz in der Preisklasse, da könnt ihr noch so viel schönreden, das ist und bleibt einfach KACKE. Man muss sich das überlegen, in dem Preisbereich war AMD schon 2015(!) mit mehr unterwegs, einfach lächerlich. Diese Einschränkung gibts ja völlig ohne Not, da hätte man auch 8 verbauen können, ohne dass NV da nen Zacken aus der Krone gebrochen wär, die reichen einfach Kostenoptimierung an euch Kunden weiter, dessen muss man sich einfach bewusst sein. Da ist ja Vega ne bessere Wahl in dem Preissegment trotz den hohen Stromverbrauchs.
die 2070 ist halt wie die 1080 ne gute kompromiskarte, genug leistung, speicher 8GB in der leistungsregion noch akzeptabel(aber mehr trotzdem wünschenswert), aber halt ein wenig überteuert(100€ zuviel)... wäre die karte 100 billiger. würde die gekauft werden wie geschnitten brot.
Dural
2018-12-20, 14:57:09
Ehrlich gesagt verstehe ich das ständige VRam Theater schon lange nicht mehr.
Eine 2060 ist nicht in einer Klasse wo man generell alles Max Spielen kann, und die Textur Qualität kann man in praktisch jedem Spiel selber runter nehmen, in der Regel oft auch so das man keine grossen Unterschiede sieht. Sprich man wird immer eine Einstellung finden die halbwegs vernünftig läuft und man noch genügend FPS hat.
In der Geschichte der Grafikkarten gab es nur ganz wenige Grafikkarten die wirklich VRam Mangel hatten. Spontan kommt mir da die 8800GTS 320MB in den Sinn.
Und nur zur Erinnerung, die RX480/RX580 gibt es auch mit 4GB, die 1060 sogar mit nur 3GB.
Wer wirklich ein Problem wie so auch immer mit den 6GB hat, soll halt was anderes kaufen... :rolleyes:
SKYNET
2018-12-20, 15:06:30
Ehrlich gesagt verstehe ich das ständige VRam Theater schon lange nicht mehr.
Eine 2060 ist nicht in einer Klasse wo man generell alles Max Spielen kann, und die Textur Qualität kann man in praktisch jedem Spiel selber runter nehmen, in der Regel oft auch so das man keine grossen Unterschiede sieht. Sprich man wird immer eine Einstellung finden die halbwegs vernünftig läuft und man noch genügend FPS hat.
In der Geschichte der Grafikkarten gab es nur ganz wenige Grafikkarten die wirklich VRam Mangel hatten. Spontan kommt mir da die 8800GTS 320MB in den Sinn.
Und nur zur Erinnerung, die RX480/RX580 gibt es auch mit 4GB, die 1060 sogar mit nur 3GB.
Wer wirklich ein Problem wie so auch immer mit den 6GB hat, soll halt was anderes kaufen... :rolleyes:
naja, die 2060 wird sich wohl zwischen 1070 und 1070Ti einreihen, und da hat sie dann schon genug leistung das 6GB knapp werden können, klar wird man mit soner karte nicht voll AA/AF fahren können, aber 1440p und max texturen wären von der rohleistung locker drinnen.
Dural
2018-12-20, 15:13:34
Sorry, aber ich behaupte jetzt mal das 99% der 2060 Käufer so wie so nur auf 1080p Spiele.
Und 50% davon in Komplett Systemen wahrscheinlich nicht 1x ein ernsthaftes Spiel Starten ;)
SKYNET
2018-12-20, 15:22:03
Sorry, aber ich behaupte jetzt mal das 99% der 2060 Käufer so wie so nur auf 1080p Spiele.
Und 50% davon in Komplett Systemen wahrscheinlich nicht 1x ein ernsthaftes Spiel Starten ;)
ich spiele auch nur in 1920*1200 und trotzdem habe ich viele spiele die WEIT mehr als 6GB benötigen... und ja, ich weiss das wenn mehr speicher vorhanden ist, auch mehr reingefüllt wird, obwohls theoretisch mit weniger gleich laufen würde, aber gibt halt auch genug fälle wos dann nicht mehr so ist... und wenn ich nicht alles auf max fahren kann in der auflösung, muss halt ne neue graka her :eek: wird aber wohl noch 2 jahre dauern... obwohl da evtl. kommendes frühjahr der nach-nachfolger von meinem monitor ansteht mit 1440p, gehts evtl. schneller :freak:
Timbaloo
2018-12-20, 15:44:13
Kann man dieses Speichergeheule nicht in den Review-Thread auslagern? Mit Spekulationen hat es ja nicht überhaupt nichts mehr zu tun...
Dural
2018-12-20, 15:53:47
Also ich finde die 8GB bei der 2080 viel schlimmer als die 6GB der 2060.
Ich muss sagen die 2080 ist für den Preis und das noch mit Teildeaktivierter GPU die schlimmste Turing Karte. Das Preis/Leistungs Verhältnis ist da wirklich schlecht. Da würde ich auf jeden fall die billigste 2080TI bevorzugen!
Aber irgend wie habe ich gar kein Grosses Interesse mehr an Grafikkarten, meine 2070 liegt seit Wochen im Schrank und wird nicht verwendet.
Blediator16
2018-12-20, 16:26:35
Sorry, aber ich behaupte jetzt mal das 99% der 2060 Käufer so wie so nur auf 1080p Spiele.
Und 50% davon in Komplett Systemen wahrscheinlich nicht 1x ein ernsthaftes Spiel Starten ;)
Es wird am Ende eine Frage des Preises sein. Es kann nämlich auch sein, dass 99% der eigentlichen Mid Range Kunden aus dem Bereich rausfallen. Ich wäre ein Kandidat für die 2060, nachdem ich mir vor 1,5 Jahren eine 1060 6g gekauft habe. Nur war meine 1060 vor 1,5 Jahren bei ca 250€. Da wird die 2060 mit höchster Wahrscheinlichkeit in nächster Zeit nicht sein. Es kann sogar sein, dass diese sogar bei 400€ landen wird. ;D
Screemer
2018-12-20, 17:44:28
Es kann sogar sein, dass diese sogar bei 400€ landen wird. ;D
Ich würde Mal sagen, da kannst du gepflegt einen drauf lassen.
Fetza
2018-12-20, 19:08:56
ca. +60% Performance wenn die Angabe zur Performance auf Höhe 1080er stimmt. Diese werden beim Wechsel von FHD auf WQHD je nach Spiel ca. zur Hälfte oder fast komplett aufgebraucht werden. Sicher gangbar aber ohne gross Performance Verbesserung. Ausnahme sind Spiele welche den neuen GPUs besser schmecken (z.B. Wolfenstein 2). Von denen wird es sicher immer mehr geben. Als Alternative gäbe es eine 2070er für etwa 450 Euro im Angebot mit nochmals +2GB Speicher (Ratraycing in BF5 braucht anscheinend gut Speicher) und +10-15% Performance. Je nach Shop evtl. BF5 Key noch mit dabei. Falls also mal so ein 450 Euro Angebot aufpoppt würde ich mir das überlegen. Sonst würde mal auf die Testberichte warten und dann abwägen, welches das bessere Angebot ist. Bei 350 Euro vs. 550 Euro wäre die 2060er sicher besser was P/L angeht.
Danke, naja dann warte ich einfach mal bis Februar und schaue wie sich die Preise so eingependelt haben.
Raytracing scheint mir in Battlefield übrigens kein echtes Kaufargument zu sein. Aber gut, ist ja auch die Erstimplementierung dieser Technik in einem Spiel.
Wenn die RTX 2060 wirklich mit nur 6 GiB kommt, wird die RTX 2070 schlagartig (noch) attraktiver. Eine Vega 64, die dann wohl unter 400 Euro rangiert, wäre ebenfalls eine vergleichbar schnelle Wahl (bei doppelter Leistungsaufnahme). 2019 noch weniger als 8 GiB zum Spielen herzunehmen, wo's schon seit Jahren ein paar Spiele gibt, die mit 6 GiB stocken, ist keine schlaue Idee. :)
MfG,
Raff
AMD scheidet mittlerweile leider für mich aus, denn die Karten lassen eine gute Encodierung von Videos vermissen. An Turing interessiert mich gerade der verbesserte NVENC. Beim Streaming soll er sogar erstmals bessere Ergebnisse liefern als x264 im fast setting unter OBS. :-)
Geht NVENC eigentlich auch zusätzlich (stark) auf den RAM Verbrauch? Wenn ich mit meiner 980 streame bricht teilweise schon mal die Framerate um gut 20% ein.
aufkrawall
2018-12-20, 19:25:26
An Turing interessiert mich gerade der verbesserte NVENC. Beim Streaming soll er sogar erstmals bessere Ergebnisse liefern als x264 im fast setting unter OBS. :-)
Gibts denn zu dieser Behauptung Nvidias einen unabhängigen BQ-Vergleich?
Fetza
2018-12-20, 19:32:57
Gibts denn zu dieser Behauptung Nvidias einen unabhängigen BQ-Vergleich?
Keine Ahnung, das würde mich auch interessieren.
Als jemand der von seiner R9 290 auf eine GTX 980 gewechselt ist, kann ich dir sagen, Hawai GPU-Encodierung war und ist echt krass schlecht im Vergleich zu Maxwell. Mach mal auf Twitch einen 6000 bitrate mit 1080p und 60 FPS und vergleiche selbst. Auf Hawai: Graphikmüll; auf Maxwell vernünftige Bildqualität (natürlich trotzdem mit genügend Artefakten, je nach Darstellung, insgesamt aber noch gut ansehbar).
TheAntitheist
2018-12-20, 19:40:29
Keine Ahnung, das würde mich auch interessieren.
Als jemand der von seiner R9 290 auf eine GTX 980 gewechselt ist, kann ich dir sagen, Hawai GPU-Encodierung war und ist echt krass schlecht im Vergleich zu Maxwell. Mach mal auf Twitch einen 6000 bitrate mit 1080p und 60 FPS und vergleiche selbst. Auf Hawai: Graphikmüll; auf Maxwell vernünftige Bildqualität (natürlich trotzdem mit genügend Artefakten, je nach Darstellung, insgesamt aber noch gut ansehbar).
die x265 qualität ist in der Tat mit h264 zu vergleichen (fast) aber kein streaming anbieter unterstützt x265, von daher ist es dann auch scheiss egal
Fetza
2018-12-20, 22:26:30
die x265 qualität ist in der Tat mit h264 zu vergleichen (fast) aber kein streaming anbieter unterstützt x265, von daher ist es dann auch scheiss egal
Von x265 war aber nicht die Rede. ;) Es geht um x264, die Software-Encoder-Variante von OBS gegenüber h264 über NVENC.
aufkrawall
2018-12-20, 22:32:14
Ich nehme an, er meint die nvenc HEVC-Qualität vs. x264.
Fetza
2018-12-21, 02:01:00
Ich nehme an, er meint die nvenc HEVC-Qualität vs. x264.
Mag sein, aber da man damit nicht streamen kann - wie er ja bereits selbst ausgeführt hat - ist HEVC aktuell fürs Streaming irrelevant. Da geht es entweder immer über x264 und dann CPU-Encodierung oder eben GPU-Encodierung über NVENC/Quicksync/AMD Video Encoder mit h264.
Statt HEVC würde ich mich über eine baldige Unterstützung von VP9 auf Twitch und YouTube freuen. Aber hardwareseitigen Encodersupport bietet glaube ich dafür aktuell nicht mal Turing.
TheAntitheist
2018-12-21, 02:29:33
Von x265 war aber nicht die Rede. ;) Es geht um x264, die Software-Encoder-Variante von OBS gegenüber h264 über NVENC.
aber die Aussage von Nvdia ist, das hevc jetzt die qualität von h264 fast haben soll, jeder andere test sagt dies auch und ich ebenfalls.
gravitationsfeld
2018-12-21, 04:14:47
Natuerlich nur gegen x264 "fast". Aber trotzdem beachtlich.
AffenJack
2018-12-21, 09:59:03
Gerüchte über die kleineren Turingkarten:
https://videocardz.com/79425/expreview-nvidia-rumored-to-launch-geforce-gtx-11-series-gtx-1160-planned
Sollen angeblich als 1160 und kleiner launchen, um eine stärkere Abgrenzung zu den RT Karten zu haben. Basierend auf TU116 und beworben mit "Turing Shader", also Mesh Shader etc. Wahrscheinlich fliegt RT raus und vielleicht auch die Tensor Cores?
Adam D.
2018-12-21, 10:42:04
Gerüchte über die kleineren Turingkarten:
https://videocardz.com/79425/expreview-nvidia-rumored-to-launch-geforce-gtx-11-series-gtx-1160-planned
Sollen angeblich als 1160 und kleiner launchen, um eine stärkere Abgrenzung zu den RT Karten zu haben. Basierend auf TU116 und beworben mit "Turing Shader", also Mesh Shader etc. Wahrscheinlich fliegt RT raus und vielleicht auch die Tensor Cores?
Klingt plausibel, es wundert mich aber weiterhin, dass es überhaupt eine RTX2060 geben wird angesichts der eh schon knappen Performance bei den größeren Karten.
Troyan
2018-12-21, 10:49:47
RTX2060 basiert auf TU106. Ist also reine Abfallverwertung.
dildo4u
2018-12-21, 10:56:20
Man kann nach dem neuen BF5 Patch RT Ultra in 1080p nutzen mit der 2070.Vermutlich geht mit der 2060 Medium oder Low.
AffenJack
2018-12-21, 10:56:45
Klingt plausibel, es wundert mich aber weiterhin, dass es überhaupt eine RTX2060 geben wird angesichts der eh schon knappen Performance bei den größeren Karten.
Erstens Resteverwertung, wie Troyan schon schreibt. Zweitens sollte die Leistung für 1080p RT Low bei Singleplayergames durchaus ausreichen. Gerade macht die 2070 60 FPS in Medium in BFV, gib dem RT Pfad noch paar Patches, dann schafft das die 2060 mit Low auch. Für Multiplayer natürlich nix, aber für Single Player oftmals ausreichend. Besonders für Non-Shooter Spiele.
Adam D.
2018-12-21, 13:21:37
Erstens Resteverwertung, wie Troyan schon schreibt. Zweitens sollte die Leistung für 1080p RT Low bei Singleplayergames durchaus ausreichen. Gerade macht die 2070 60 FPS in Medium in BFV, gib dem RT Pfad noch paar Patches, dann schafft das die 2060 mit Low auch. Für Multiplayer natürlich nix, aber für Single Player oftmals ausreichend. Besonders für Non-Shooter Spiele.
Man muss wahrscheinlich einfach ein zweites Spiel abwarten, um ein halbwegs passendes Urteil fällen zu können. Wird auch vom Preis abhängen, wenn 350$ stimmen, wäre das schon ziemlich teuer... Die 1160 wird bestimmt nicht nur auf RT-Hardware verzichten, sondern bestimmt auch leistungstechnisch abgewertet und entsprechend bepreist. Wobei dann fraglich ist, ob sich da ein Upgrade von einer 1060 überhaupt lohnen kann.
Ex3cut3r
2018-12-21, 14:04:42
Die 2060 könnte interessant werden, für Leute unterhalb einer GTX 1060. Und für Leute die eine 1060 haben, wurde ich immer erst eine RTX 2070 ans Herz legen, ja kostet etwas mehr, aber dann spürt man auch immer einen Unterschied. ;)
Genauso für Leute die eine 1070 haben, macht imo erst wieder ab 2080er Sinn Umzurüsten (IMO)
AffenJack
2018-12-21, 14:27:26
Man muss wahrscheinlich einfach ein zweites Spiel abwarten, um ein halbwegs passendes Urteil fällen zu können. Wird auch vom Preis abhängen, wenn 350$ stimmen, wäre das schon ziemlich teuer... Die 1160 wird bestimmt nicht nur auf RT-Hardware verzichten, sondern bestimmt auch leistungstechnisch abgewertet und entsprechend bepreist. Wobei dann fraglich ist, ob sich da ein Upgrade von einer 1060 überhaupt lohnen kann.
Das Upgrade von einer 1060 wird sich natürlich nicht lohnen, aber es gibt genug Maxwellnutzer, die Upgrades wollen. Ne 2070 ist 80% schneller als ne 1060, 2060 dürfte sich irgendwo grob bei 55% schneller einordnen, 1160 dann so bei 25-30% schneller als die 1060.
Die 1160 dürfte den Aufbau haben, den die 1060 schon hatte. Hälfte der Shader von der 2080, also 1536 Shader mit 192 Bit Interface, analog zur 1060 mit der Hälfte der 2080 Shader. Außer man beschneidet das Interface noch mehr auf 128Bit. Richtig interessant wirds, ob nur RT Cores wegfällt und wie groß der Chip dann wird. Dann wird man mal einschätzen können, wieviel Platz das Zeug kostet.
Hakim
2018-12-21, 17:03:33
Man kann nach dem neuen BF5 Patch RT Ultra in 1080p nutzen mit der 2070.Vermutlich geht mit der 2060 Medium oder Low.
Wie schaut es beim vram verbrauch aus? Wenn man 1080p Max einstellt und RT auf Medium oder low
Ex3cut3r
2018-12-21, 18:01:41
Wie schaut es beim vram verbrauch aus? Wenn man 1080p Max einstellt und RT auf Medium oder low
Da kann ich dir Daten liefern, SP oder MP?
Aber bedenke, ich habe 8GB VRAM, wenn jetzt 7GB bei mir belegt werden, heißt das nicht, dass das Game die jetzt unbedingt braucht, und mit 6GB alles ruckelt, es gibt einen Unterschied zwischen, game belegt soviel wie da ist, und halt Game braucht soviel damit es nicht ruckelt, die Grenze bei BF5 was man unbedingt mitbringen sollte mit RT @ Low @ 1080p, weiß ich eben nicht.
Hakim
2018-12-21, 18:13:22
na dann wäre es Sinn frei. Dennoch nachdem was ich so gelesen und gesehen habe, könnte es knapp werden.
Ex3cut3r
2018-12-21, 18:36:22
Ok, alles klar. :smile:
TheGood
2018-12-22, 23:02:10
Die 2060 könnte interessant werden, für Leute unterhalb einer GTX 1060. Und für Leute die eine 1060 haben, wurde ich immer erst eine RTX 2070 ans Herz legen, ja kostet etwas mehr, aber dann spürt man auch immer einen Unterschied. ;)
Genauso für Leute die eine 1070 haben, macht imo erst wieder ab 2080er Sinn Umzurüsten (IMO)
Warum soll das interessant sein, bei 70% PReisaufschlag ?? Warum sollten ein 1060 Käufer mal ganz schnell eine Stufe höher einkaufen?
Das erschliesst sich mir nicht. Ausserdem wenn einer jetzt eine 6GB Karte hat, sollte er mindestens ne 8 GB karte kaufen.... Auf lange Sicht ist und bleibt das besser. Wer in 2 Jahren eh neu kauft, kann das Risiko eingehen.
Ex3cut3r
2018-12-22, 23:11:39
Weil diesmal der Leistungssprung sonst zu klein ist? Erst eine 2080 erreicht 1080Ti Leistung, und nicht eine 70er Karte wie all die Jahre davor. Das selbe Prinzip auch bei den "günstigeren" Karten. Und 8GB hat eine 2070 doch. :confused:
Als 1060 User auf eine 2060 ist quatsch, das ist nur eigentlich nur eine "1070" Und von einer 1060 auf 1070 wurde auch kein Mensch machen, deswegen gleich auf die 2070 rauf, das ist eine 1080 OC und man wurde wenigstens einen klaren Unterschied in den FPS bemerken. Ist doch logisch.
Hakim
2018-12-22, 23:56:52
Weil diesmal der Leistungssprung sonst zu klein ist? Erst eine 2080 erreicht 1080Ti Leistung, und nicht eine 70er Karte wie all die Jahre davor. Das selbe Prinzip auch bei den "günstigeren" Karten. Und 8GB hat eine 2070 doch. :confused:
Als 1060 User auf eine 2060 ist quatsch, das ist nur eigentlich nur eine "1070" Und von einer 1060 auf 1070 wurde auch kein Mensch machen, deswegen gleich auf die 2070 rauf, das ist eine 1080 OC und man wurde wenigstens einen klaren Unterschied in den FPS bemerken. Ist doch logisch.
Die Sache ist die als die, Leute die Midrange kaufen, bezahlen so für Polaris oder GP106 200-300€ (also kurz nach Launch). Wenn es eine Richtig gute Karte ist auch mal ticken mehr. Aber die 2070 kostet direkt mal um die ~500€ und aufwärts. Ist aktuell etwas Kacke iwie. Aber ähnliche Probs haben ja 1070er und aufwärts Besitzer auch. Ist derzeit Problematisch mit Grafikkarten Kauf.
Hätte die 2060 in etwa 1070ti + paar %, also nah an der 1080 Performance, wäre sie für mich sehr interessant, aber die 6 GB stören mich.
TheAntitheist
2018-12-23, 02:37:52
Weil diesmal der Leistungssprung sonst zu klein ist? Erst eine 2080 erreicht 1080Ti Leistung, und nicht eine 70er Karte wie all die Jahre davor. Das selbe Prinzip auch bei den "günstigeren" Karten. Und 8GB hat eine 2070 doch. :confused:
Als 1060 User auf eine 2060 ist quatsch, das ist nur eigentlich nur eine "1070" Und von einer 1060 auf 1070 wurde auch kein Mensch machen, deswegen gleich auf die 2070 rauf, das ist eine 1080 OC und man wurde wenigstens einen klaren Unterschied in den FPS bemerken. Ist doch logisch.
dann stell auf beiden raytracing an und guck dir den vergleich nochmal an... dein Vergleich ist fürn Arsch, aber ganz dicke.
Ex3cut3r
2018-12-23, 02:39:29
dann stell auf beiden raytracing an und guck dir den vergleich nochmal an... dein Vergleich ist fürn Arsch, aber ganz dicke.
:confused: Wieso? Wie viele Spiele gibt es aktuell mit RT? Genau eins, also was soll man mit RT? Selbst auf einer 2080Ti @ 1440p läuft das nicht mit 100FPS. RT taugt erst in 2 Generation weiter mindestens. Habe eine RTX 2080 und bin froh wenn der Scheiß aus ist, habe ich auch ganz sicher nicht wegen RT gekauft, sondern weil meine 1070 für 3440x1440 nicht genug Power hatte. Ganz einfach.
SKYNET
2018-12-23, 03:19:42
Wenn die RTX 2060 wirklich mit nur 6 GiB kommt, wird die RTX 2070 schlagartig (noch) attraktiver. Eine Vega 64, die dann wohl unter 400 Euro rangiert, wäre ebenfalls eine vergleichbar schnelle Wahl (bei doppelter Leistungsaufnahme). 2019 noch weniger als 8 GiB zum Spielen herzunehmen, wo's schon seit Jahren ein paar Spiele gibt, die mit 6 GiB stocken, ist keine schlaue Idee. :)
MfG,
Raff
eben mit jemanden unterhalten... wegen "nur weil bei ner karte wo vorhanden, automatisch mehr als 8gb genutzt werden, heisst es nicht das eine 8gb karte da nicht langt"... er meinte das automatisch das LOD reduziert wird um den speicherverbrauch zu reduzieren, kannst du das bestätigen?
Thunder99
2018-12-23, 10:38:59
Die Sache ist die als die, Leute die Midrange kaufen, bezahlen so für Polaris oder GP106 200-300€ (also kurz nach Launch). Wenn es eine Richtig gute Karte ist auch mal ticken mehr. Aber die 2070 kostet direkt mal um die ~500€ und aufwärts. Ist aktuell etwas Kacke iwie. Aber ähnliche Probs haben ja 1070er und aufwärts Besitzer auch. Ist derzeit Problematisch mit Grafikkarten Kauf.
Hätte die 2060 in etwa 1070ti + paar %, also nah an der 1080 Performance, wäre sie für mich sehr interessant, aber die 6 GB stören mich.
Ich finde es gut. Das verleitet mich nicht dazu eine neue Grafikarte zu kaufen ;)
eben mit jemanden unterhalten... wegen "nur weil bei ner karte wo vorhanden, automatisch mehr als 8gb genutzt werden, heisst es nicht das eine 8gb karte da nicht langt"... er meinte das automatisch das LOD reduziert wird um den speicherverbrauch zu reduzieren, kannst du das bestätigen?
Klar, das ist bei modernen Spielen alltäglich – das Streaming reduziert bei knappem Grafikspeicher die Texturqualität. Anstelle der vollen Auflösung werden MIP-Maps angezeigt. Passiert das, werden bereits Daten in den Hauptspeicher ausgelagert. Dort ist Platz, aber die Kopiererei kostet viel Zeit.
All das muss eine Grafikkarte mit zeitgemäßer Speicherkapazität nicht tun, die Texturdaten liegen lokal vor. Das Streaming kann ohne Umwege arbeiten, das Spiel sieht bestmöglich aus. Das Problem ist, dass der Übergang zwischen "alles super" und "Grafikkarte platzt" fließend ist. Lange bevor es ruckelt, wird es erst mal hässlicher. "Braucht" man den Speicher also zwingend oder ist das eine kosmetische Sache? ;)
MfG,
Raff
SKYNET
2018-12-23, 17:44:46
Klar, das ist bei modernen Spielen alltäglich – das Streaming reduziert bei knappem Grafikspeicher die Texturqualität. Anstelle der vollen Auflösung werden MIP-Maps angezeigt. Passiert das, werden bereits Daten in den Hauptspeicher ausgelagert. Dort ist Platz, aber die Kopiererei kostet viel Zeit.
All das muss eine Grafikkarte mit zeitgemäßer Speicherkapazität nicht tun, die Texturdaten liegen lokal vor. Das Streaming kann ohne Umwege arbeiten, das Spiel sieht bestmöglich aus. Das Problem ist, dass der Übergang zwischen "alles super" und "Grafikkarte platzt" fließend ist. Lange bevor es ruckelt, wird es erst mal hässlicher. "Braucht" man den Speicher also zwingend oder ist das eine kosmetische Sache? ;)
MfG,
Raff
danke, also heisst das, all die laberbacken die meinen 8GB sind ausreichend(oder sogar 6GB), leben mit hässlicher grafik, wärend wir mit 11/12GB in den genuss der vollen (textur)pracht ohne LOD "cheat" kommen :smile:
"eine 2080 ist zukunftssicher als eine 1080Ti"... ja ne is klar... sie ist einfach nur hässlicher ;D
Ex3cut3r
2018-12-23, 18:35:53
:facepalm:
Schlimm, wenn man keine Ahnung hat. Und alles falsch versteht. Das mit dem Texturen Matsch, gilt für 4GB Karten, nicht für 8GB.
BlacKi
2018-12-23, 19:42:06
danke, also heisst das, all die laberbacken die meinen 8GB sind ausreichend(oder sogar 6GB), leben mit hässlicher grafik, wärend wir mit 11/12GB in den genuss der vollen (textur)pracht ohne LOD "cheat" kommen :smile:
wenn nicht heute, dann vl morgen oder nächstes jahr. irgendwann schon.
das LOD plopping hat man ja auch mit einer 11gb karte. mit 8gb merkt man das eben früher und offensichtlicher.
dasselbe gilt bei zu wenig cpu leistung. wenn man mit 2c4t in division rumläuft merkt man recht schnell das streaming gut cpu leistung benötigt. das sieht richtig übel aus mit 2c4t auch wenn die fps noch gerade so spielbar sind.
SKYNET
2018-12-23, 20:15:25
:facepalm:
Schlimm, wenn man keine Ahnung hat. Und alles falsch versteht. Das mit dem Texturen Matsch, gilt für 4GB Karten, nicht für 8GB.
doch, wenn nen game bei mir 9GB belegt, es aber auf ner 8GB karte trotzdem noch gut läuft, findet bereits texturmatsch statt... oder willst du raff die kompetenz absprechen? :confused:
Ex3cut3r
2018-12-23, 20:33:04
Na dann, nenn mir mal ein Spiel, welches unbedingt 9GB voraussetzt? Bin schon gespannt, und komm nicht wieder mit deinen Lieblings Spiel FF15 an. :freak:
aufkrawall
2018-12-23, 20:34:09
doch, wenn nen game bei mir 9GB belegt, es aber auf ner 8GB karte trotzdem noch gut läuft, findet bereits texturmatsch statt...
Das ist einfach nur eine falsche Mutmaßung deinerseits, für die du keine Belege liefern kannst. Oder hast du mal Screenshots parat?
SKYNET
2018-12-23, 21:20:09
Das ist einfach nur eine falsche Mutmaßung deinerseits, für die du keine Belege liefern kannst. Oder hast du mal Screenshots parat?
kann man schlecht vergleichen, da die BQ auf meiner RX580 eh durchweg besser ist als auf der 1080Ti... wenn bräuchte ich ne 1080 oder 1070/Ti zum vergleich... wäre doch mal was für einen artikel für raff?
Ex3cut3r
2018-12-23, 21:23:45
Warum soll die BQ jetzt bei AMD besser sein? Was redest du da eigentlich?
Hast du schon zu viel an der Weihnachtsbowle genuckelt?
Troyan
2018-12-23, 21:23:55
Stimmt, die BQ deiner 580 ist so besser, dass der Texturmatsch noch besser aussieht.
Wurden schon einige Beispiele hier im Thread genannt #10193
Ex3cut3r
2018-12-23, 22:05:27
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11867114&postcount=10193
Der hier?
Komisch, ein paar Spiele habe ich gespielt. RotTR (7GB verbrauch) hatte ich mit 8GB @ 3440x1440 keine Probs im DX11 Modus. Wolfenstein (7,4) auch keine Probs, Mirrors Edge Catalyst (5GB) auch keine Probs. KA was Raff da so anders macht, aber das ist Blödsinn was er da behauptet.
Mein er vlt. in 4K und höher? Das kann vlt. sein, das weiß ich nicht, aber wer spielt schon groß in 4K bisher? Außer eine 2080Ti, sind alle Karten dafür zu langsam mit Max Details.
In Wolfenstein 2 ist übrigens die Textureinstellung nur fürs Streaming gedacht, die Texturen an sich sehen nicht besser aus. So viel dazu.
Dann spielst du einfach die "falschen" Spiele. :) Mit RotTR, CoD BO4, Wolfenstein 2, Need for Speed Payback und, etwas älter, Mirror's Edge Catalyst kann man 8-GiB-Karten wunderbar füllen oder gar töten.
MfG,
Raff
:biggrin:(y)
Timbaloo
2018-12-23, 22:29:52
Wir lernen: Wenn man von 8GB auf 11GB geht, wird die Bildqualität besser. Geht man dann aber wieder auf 8GB runter wir die Bildqualität nochmals besser. Mind = blown.
SKYNET
2018-12-23, 22:30:10
KA was Raff da so anders macht, aber das ist Blödsinn was er da behauptet.
outch... sorry, aber ich glaube raff hat ein "wenig" mehr ahnung von der materie, als du sie je hattest, hast oder haben werden wirst...
Ex3cut3r
2018-12-23, 22:35:26
Ja genau, alles klar.
gravitationsfeld
2018-12-23, 23:23:00
In Wolfenstein 2 ist übrigens die Textureinstellung nur fürs Streaming gedacht, die Texturen an sich sehen nicht besser aus. So viel dazu.
Bis zu einem bestimmten Punkt ist das korrekt. Wenn die Textur-Menge aber einfach nicht mehr in den eingestellten Pool passt wird es matschiger.
-=Popeye=-
2018-12-23, 23:56:12
Irgendwie muß man sich ja 800,-€ für eine 8GB Karte schön reden.
Fakt ist das diese in den meisten Spielen ausreichen aber eben nicht in jedem.
Ex3cut3r
2018-12-24, 00:46:56
Irgendwie muß man sich ja 800,-€ für eine 8GB Karte schön reden.
Fakt ist das diese in den meisten Spielen ausreichen aber eben nicht in jedem.
Ja genau, das wird es sein. :facepalm:
3440x1440, in jedem Game Max Details!!!! mit 16xAF und TAA wenn möglich.
https://abload.de/thumb/sottr_2018_12_12_16_5asf1r.jpg (https://abload.de/image.php?img=sottr_2018_12_12_16_5asf1r.jpg)
https://abload.de/thumb/acodyssey_2018_12_24_cjcso.jpg (https://abload.de/image.php?img=acodyssey_2018_12_24_cjcso.jpg)
https://abload.de/thumb/bfv_2018_12_24_14_41_j7fnm.jpg (https://abload.de/image.php?img=bfv_2018_12_24_14_41_j7fnm.jpg)
https://abload.de/thumb/hitman2_2018_12_24_00ewi85.jpg (https://abload.de/image.php?img=hitman2_2018_12_24_00ewi85.jpg)
Jetzt bist du dran? Wo reichen denn 8GB nicht?
-=Popeye=-
2018-12-24, 00:55:51
Ließ nochmal genau was ich geschrieben habe.
Du musst dich nicht angepisst fühlen, meine Aussage bezog sich ausschließlich auf 4k Gaming.
edit: btw... das 800,-€ für diese Karte zuviel sind weißt du selber
Ex3cut3r
2018-12-24, 01:11:55
Ließ nochmal genau was ich geschrieben habe.
Du musst dich nicht angepisst fühlen, meine Aussage bezog sich ausschließlich auf 4k Gaming.
edit: btw... das 800,-€ für diese Karte zuviel sind weißt du selber
Ach jetzt rudern wir schon zurück, auf einmal gehts um 4K Gaming, oben im Satz von dir, stand da aber nix von. Auch in 4K wird der VRAM nicht so demaßen ansteigen, wie ihr das denkt, da lach mir echt den Arsch ab, habt ihr eigentlich selbst den Afterburner immer am laufen? Wenn ja, dann müsstet ihr es eigentlich besser wissen, dass die Games alle gar nicht mehr so dermaßen viel Speicher brauchen, wie einige "Worst Case" Titel 2014-2015. Meistens sind nur 4GB belegt.
Hää wieso 800€? Ich habe wie schon mal gesagt "nur" 500€ gezahlt. Da ich meine alte 1070 (MSI Gaming X) für 320€ im Luxx verkauft habe. Und wieso 750-800€ auch so zu viel wären, ist mir ein Rätsel, wenn man das Geld übrig hat, etwas investieren will für sein Hobby, sind 800€ ein Witz, als normaler Single Arbeiter/Angestellter.
Die GPU frist nur 225W @ 93% PT ist mit 1350-1400RPM @ 2000-1950mhz + 7700mhz für den VRAM und ist sehr leise und kühl siehe Screenshots, welche 1080Ti kommt da ran? Ohne auf Wasser umzubauen? Gut, 8GB sind vlt. "wenig" in 2 Jahren, aber bis dahin habe ich eh schon wieder was anderes im Rechner stecken.
Lehdro
2018-12-24, 11:36:34
Hää wieso 800€? Ich habe wie schon mal gesagt "nur" 500€ gezahlt. Da ich meine alte 1070 (MSI Gaming X) für 320€ im Luxx verkauft habe. Und wieso 750-800€ auch so zu viel wären, ist mir ein Rätsel, wenn man das Geld übrig hat, etwas investieren will für sein Hobby, sind 800€ ein Witz, als normaler Single Arbeiter/Angestellter.
Was ist das denn für eine Milchmädchenrechnung und Rechtfertigung? Wenns danach geht habe ich für 2080 Leistung vor über 1,5 Jahren(!) nur 600 € gezahlt und 50% mehr VRAM bekommen. Man kann sich auch alles schönreden...
Die GPU frist nur 225W @ 93% PT ist mit 1350-1400RPM @ 2000-1950mhz + 7700mhz für den VRAM und ist sehr leise und kühl siehe Screenshots, welche 1080Ti kommt da ran? Ohne auf Wasser umzubauen?
In mindestens einem der Screenshots braucht sie schon deutlich mehr als deine fabulierten 93% PT, zudem wird sie in 4k sicherlich die 100% PT ausnutzen, das kann also kaum ein Argument sein. Wer kauft denn bitte schön seine GPU der Effizienz wegen auf dem vorhandenen Niveau nochmals - quasi als Sidegrade? Eine handoptimierte (Customcurve) 1080 Ti/Titan X(P) ist da kaum durstiger und langsamer, ich kann meine GPU auch auf rund 250W bei knapp über 2 GHz halten, wobei ich da eben noch deutlich mehr VRAM in Reserve habe...
Gut, 8GB sind vlt. "wenig" in 2 Jahren, aber bis dahin habe ich eh schon wieder was anderes im Rechner stecken.
Das ist sogar ein gutes Argument, was ich durchaus nachvollziehen kann: Wenn man eh plant in 2 Jahren upzugraden, gehen 8 GB voll in Ordnung. Trifft aber eben nicht auf jeden zu und was aber halt überhaupt gar nicht geht ist der Preis derzeit....
Ex3cut3r
2018-12-24, 14:21:58
Wieso Sidegrade? Ich bin von einer 1070 gewechselt, nicht von der 1080Ti oder Titan oder sonst was.
Das Springt immer mal etwas höher als die 93% eingestellten PT. Ist aber wohl nicht richtig, weil die GPU Z das nicht anzeigt. 4K Betreibe ich nicht interessiert mich auch nicht, meine nächste Auflösung wird 5120x2160 sein in ein paar Jahren.
Schon erschreckend, was man für einen Hate abbekommt, ihr könnt euch schon mal gefasst machen auf die 7nm Gen, ich sage nur eins, wird nochmal teurer! Freue mich schon wieder auf eurer Rumgewhine. ;D
Ansonsten lass das mal meine Sorge sein, was ich wie und wann kaufe.
Schöne Weihnachten mit der Family!
Verschenke ein iPhone XS Max 256 GB an meinen Vater, bin auf seine Reaktion gespannt, der hat momentan nur ein altes Samsung Galaxy S5.
BlacKi
2018-12-24, 14:36:06
doch, wenn nen game bei mir 9GB belegt, es aber auf ner 8GB karte trotzdem noch gut läuft, findet bereits texturmatsch statt... oder willst du raff die kompetenz absprechen? :confused:
das ist aber auch nicht richtig. vieles was im vram gespeichert ist könnte da raus. d.h. bei einer belegung von 9gb könnte auch 8gb vram für dieselbe BQ reichen. weil dieses risiko für ruckeln oder streaming lags keiner möchte, holt man sich karten mit ausreichend vram.
Jetzt bist du dran? Wo reichen denn 8GB nicht?
es wird schwer mit einem 8gb karte 8gb zu überschreiten, der treiber versucht das zu verhindern und lagert aus. das merkt man erst wenns ruckelt oder nicht mehr schnell genug laden kann sodass man matsch oder low LOD sieht.
Lowkey
2018-12-24, 14:45:52
Das hat Blacki recht. Das wurde hier bestimmt auch schon 100x gesagt.
Im direkten Vergleich zwischen meiner 1080 Ti und 2080 sehe ich nur die immense Qualitätsverbesserung bei der 2080 beim OC von GPU und Speicher, aber das deutlich reduzierte Spulenfiepen bei mehr als 60hz/fps. Jede Nvidia bei mir vor der 2080 hatte ein wahrnehmbares Fiepen ab 60fps. Dazu bekommt man den vermutlich aktuell besten USB-C Anschluss.
Die aktuellen Karten haben 4 6 8 oder 11gb. Ich sehe bei den wenigen Karten mit krummen 11gb keinen festen Standard. 8gb könnten längere Zeit ausreichend sein, aber das notwendige Speicherlimit prägen die kommenden Spielekonsolen. Bis dahin sind 8gb ausreichend - außer RT spielt in nächster Zeit eine Rolle und ich kann mir bei der PCGH Überschriften vorstellen wie "RT bei der 2080 am Limit/nicht mehr möglich".
Insofern steckt doch der Grafikkartenkauf auch wie der CPU Kauf in einer Krise. Unterhalb der 2080 Ti gibt es keine ideale Karte.
BlacKi
2018-12-24, 15:02:12
was mich stört, ist das die hersteller die Dram produktion stoppen, damit das Dram preis nicht weiter fällt. angesichts der 8gb 2080 widerspricht sich das IMO. einen focus der produktion auf gddr6 gibt es aber auch nicht.
sind die herstellungskosten von dram im allgemeinen zu teuer um einen weiteren preisverfall zu gewähren?
waren wir nicht schon bei günstigeren preisen?
warum wird die produktion gedrosselt?
Ex3cut3r
2018-12-24, 15:03:59
es wird schwer mit einem 8gb karte 8gb zu überschreiten, der treiber versucht das zu verhindern und lagert aus. das merkt man erst wenns ruckelt oder nicht mehr schnell genug laden kann sodass man matsch oder low LOD sieht.
Ja, hier gab es aber noch nie VRAM bedingtes Ruckeln. :redface:
basix
2018-12-24, 15:14:27
was mich stört, ist das die hersteller die Dram produktion stoppen, damit das Dram preis nicht weiter fällt. angesichts der 8gb 2080 widerspricht sich das IMO. einen focus der produktion auf gddr6 gibt es aber auch nicht.
sind die herstellungskosten von dram im allgemeinen zu teuer um einen weiteren preisverfall zu gewähren?
waren wir nicht schon bei günstigeren preisen?
warum wird die produktion gedrosselt?
Marge ist das Zauberwort. Die will man icht opfern wie damals um 2015/2016 rum. Momentan hat zum Beispiel Samsung irgendwas um 60+% Marge bei DRAM. Oder besser gesagt: Wie 2017/2018 weiterhin Rekordgewinne einfahren ;)
Für Konsumenten schlecht, aus betriebswirtschaftlicher Sicht verständlich. Leider passiert das momentan an fast allen Fronten der Elektronikindustrie (DRAM, Grafikkarten, CPUs, Smartphones, usw.). Preise werden hoch gehalten, um Gewinn zu machen. Und dies von allen Marktteilnehmern.
TheAntitheist
2018-12-24, 15:28:10
Ließ nochmal genau was ich geschrieben habe.
Du musst dich nicht angepisst fühlen, meine Aussage bezog sich ausschließlich auf 4k Gaming.
edit: btw... das 800,-€ für diese Karte zuviel sind weißt du selber
gemessen an der DIE größe eben nicht...
AffenJack
2018-12-24, 15:37:50
GTX2050/1150 scheint es auch wieder zu geben:
https://videocardz.com/79446/nvidia-geforce-gtx-2050-1150-could-feature-896-cuda-cores
Damit dürfte das Lineup so aussehen:
TU117 1150: 14 SMs, vorher GP107 6 SMs , 128 Bit beides
TU 116 1160: 24 SMs (spekuliert), vorher GP106 10 SMs, wahrsscheinlich 192 Bit beides
TU106 2060 und 2070, neuer Chip im Lineup für die Lücke, um noch RT anzubieten.
TU104: 48 SMs, 256 Bit, vorher GP104 20SMs, 256Bit
TU102: 72 SMs, 384 Bit, vorher GP102 30 SMs, 384 Bit
Skalierung der Chips bei Turing sieht genauso aus, wie bei Pascal und Maxwell. Verdopplung der Shader von TU116 zu TU104, dann 50% Steigerung zu TU102. TU117 wieder etwas mehr als ein halber TU116. Größte Änderungen diese Gen der Zwischenchip TU106, der zuviel Shader und Speicherinterface hat und wohl eingebaut wurde, da sich ab TU116 Raytracing nicht mehr lohnt.
So konstant wie Nvidia ihre Chips seit Maxwell skaliert, wird man wohl bei 7nm wieder nur einen Chip brauchen, um das gesamte Lineup wieder abzuschätzen.
BlacKi
2018-12-24, 15:44:32
Preise werden hoch gehalten, um Gewinn zu machen. Und dies von allen Marktteilnehmern.
das sind wohl die preisabsprachen die china den unternehmen vorwirft.
Lehdro
2018-12-24, 16:38:43
Wieso Sidegrade? Ich bin von einer 1070 gewechselt, nicht von der 1080Ti oder Titan oder sonst was.
Das Springt immer mal etwas höher als die 93% eingestellten PT. Ist aber wohl nicht richtig, weil die GPU Z das nicht anzeigt. 4K Betreibe ich nicht interessiert mich auch nicht, meine nächste Auflösung wird 5120x2160 sein in ein paar Jahren.
Schon erschreckend, was man für einen Hate abbekommt, ihr könnt euch schon mal gefasst machen auf die 7nm Gen, ich sage nur eins, wird nochmal teurer! Freue mich schon wieder auf eurer Rumgewhine. ;D
Ansonsten lass das mal meine Sorge sein, was ich wie und wann kaufe.
Schöne Weihnachten mit der Family!
Verschenke ein iPhone XS Max 256 GB an meinen Vater, bin auf seine Reaktion gespannt, der hat momentan nur ein altes Samsung Galaxy S5.
Was du so alles schreibst, meine Güte. Musst ja echt nen toller Hecht sein, aber dann mit ner 1070 und dann 2080 rumgurken :freak:
Ich bleibe trotzdem dabei: 2080 ist für den Preis ein Fail, 2070 oder 2080 Ti machen da viel mehr Sinn, da erstere immerhin Preis/Leistungsparität erreicht und noch extra Features mitbringt und letztere wirklich Highend ist und kein komischer Zwitter mit hochpreisiger nicht-Highendleistung.
Thunder99
2018-12-24, 18:40:38
Es gibt immer welche die es sich leisten (wollen). Die Preise sind aber dennoch aus meiner Sicht unverschämt.
Wenn es so weiter geht wird der Markt es schlucken oder der Markt wird kleiner. So ist es halt in der Marktwirtschaft.
BlacKi
2018-12-24, 19:34:02
Es gibt immer welche die es sich leisten (wollen). Die Preise sind aber dennoch aus meiner Sicht unverschämt.
Wenn es so weiter geht wird der Markt es schlucken oder der Markt wird kleiner. So ist es halt in der Marktwirtschaft.
ist halt die frage was gewollt ist. ich hätte gedacht, nv will geld verdienen. tja falsch gedacht, sie nehmen lieber den einbruch in kauf. rtx selbst ist nur das teilproblem, ich sehe den nicht verdoppelten speicher in der hauptverantwortung für den einbruch. eine 16gb 2080 für 800€ wäre vertretbar gewesen, eine 8gb version für 700€ dagegen nicht. mehr als 100€ unterschied wird der speicher kaum kosten.
Timbaloo
2018-12-24, 22:31:08
eine 16gb 2080 für 800€ wäre vertretbar gewesen, eine 8gb version für 700€ dagegen nicht. mehr als 100€ unterschied wird der speicher kaum kosten.
Auch an Weichnachten kann ein Realitätscheck nicht schaden. Schau dir mal die Speicherpreise an...
Edit: Ansonsten wünsche ich hier mal allen Beteiligten frohe Weihnachten :)
gravitationsfeld
2018-12-25, 00:12:46
8GB DDR4 kosten im Laden hier $50. GDDR6 duerfte teurer sein, aber wohl kaum 100%. Schon gar nicht zum Einkaufspreis.
Spasstiger
2018-12-25, 01:24:28
Ein einzelner GDDR6-Chip mit 8 GiBit (1 GiB) und einer internen Taktfrequenz von 1,75 GHz (entspricht 14 Gbps seriell, passend für die RTX 2080) kostet aktuell rund 23 US-$ im Einkauf: https://www.digikey.com/product-detail/en/micron-technology-inc/MT61K256M32JE-14-A-TR/MT61K256M32JE-14-ATR-ND/8510162
Macht über 160 € Aufpreis bei den Herstellkosten von 8 GiB auf 16 GiB.
/EDIT: Ok, ich muss mich korrigieren, in Fernost gibt's die Chips schon für die Hälfte:
https://www.components-mart.jp/product/Micron-Technology/MT61K256M32JE-14-A.html
Interessanterweise dort sogar günstiger als dieselbe Kapazität an 7-Gbps-GDDR5-Speicher.
BlacKi
2018-12-25, 01:44:10
und das sind noch nicht mal die preise die NV für die chips zahlt.
überlegt doch einmal was eine rx570 mit 8gb kostet. das können auch keine 100€ für 8gb gddr5 sein, das ist weniger.
SKYNET
2018-12-25, 10:44:09
Ein einzelner GDDR6-Chip mit 8 GiBit (1 GiB) und einer internen Taktfrequenz von 1,75 GHz (entspricht 14 Gbps seriell, passend für die RTX 2080) kostet aktuell rund 23 US-$ im Einkauf: https://www.digikey.com/product-detail/en/micron-technology-inc/MT61K256M32JE-14-A-TR/MT61K256M32JE-14-ATR-ND/8510162
Macht über 160 € Aufpreis bei den Herstellkosten von 8 GiB auf 16 GiB.
/EDIT: Ok, ich muss mich korrigieren, in Fernost gibt's die Chips schon für die Hälfte:
https://www.components-mart.jp/product/Micron-Technology/MT61K256M32JE-14-A.html
Interessanterweise dort sogar günstiger als dieselbe Kapazität an 7-Gbps-GDDR5-Speicher.
+Mengenrabatt von sicherlich nochmals 50%
Timbaloo
2018-12-25, 11:00:33
All das sind schöne Rechnungen, aber dass der Preis für GDDR explodiert ist kann man nicht einfach wegignorieren. Und irgendwelche ausgedachten Mengenrabatte ändern daran auch nichts. Von Verfügbarkeit von 16Gbit-Chips reden wir auch nicht, und ein 16-RAM-Chip-PCB ist nun auch nicht typisch für einen Gx104.
Ich würde auch gerne mehr Speicher bei den Karten sehen, aber die Realität kümmert sich dummerweise einen feuchten Scheiss um Gemecker in diesem Forum.
Betet um breite Verfügbarkeit von 16GBit-Chips und einen deutlichen Preisrutsch, sonst wird die Speicherdürre auch noch in 7nm weiterziehen.
AffenJack
2018-12-25, 11:11:40
8GB DDR4 kosten im Laden hier $50. GDDR6 duerfte teurer sein, aber wohl kaum 100%. Schon gar nicht zum Einkaufspreis.
Hoch taktender DDR4 kostet schon das doppelte und GDDR6 dürfte als nagelneues Produkt da noch ein gutes Stück drüber liegen. Mit Mengenrabatt mag man auch da unter Umständen bei 50$ für 8 GB GDDR6 liegen. Nur heißt das eben nicht, dass zusätzliche 8 GB auch nur 50$ kosten. Auf die großen Chips hat Samsung gerade noch ein Monopol und dürfte sich das ordentlich bezahlen lassen. Am Ende dürften 16 GB Produkte beim Consumer 100-150$ mehr kosten. Aber es ist scheiße, dass man dem Consumer nicht die Möglichkeit gibt selber zu entscheiden und beide Lösungen anbietet.
dildo4u
2018-12-25, 11:17:31
Ich meine die 2080 Ti ist die "billigste" Karte mit über 10GB,das sagt alles nicht mal AMD schluckt die Verluste für eine 16GB Karte mehr.
AMD hat gerade erst eine neue Vega Pro Karte für 1000€ mit 8GB gebracht,Vega FE wird schon lange nicht mehr hergestellt.
BlacKi
2018-12-25, 12:21:19
Hoch taktender DDR4 kostet schon das doppelte und GDDR6 dürfte als nagelneues Produkt da noch ein gutes Stück drüber liegen. Mit Mengenrabatt mag man auch da unter Umständen bei 50$ für 8 GB GDDR6 liegen. Nur heißt das eben nicht, dass zusätzliche 8 GB auch nur 50$ kosten. Auf die großen Chips hat Samsung gerade noch ein Monopol und dürfte sich das ordentlich bezahlen lassen. Am Ende dürften 16 GB Produkte beim Consumer 100-150$ mehr kosten. Aber es ist scheiße, dass man dem Consumer nicht die Möglichkeit gibt selber zu entscheiden und beide Lösungen anbietet.
für eine 2080ti mit 22gb hätte ich 1500€ hingelegt, aber für 11gb? nein danke. ach eigentlich bin ich ganz glücklich darüber, so muss ich mir nichtmal gedanken darum machen. die entscheidung, kaufen oder nicht kaufen, fällt mir diesmal sehr einfach. ist jetzt kein hate oder so, die karten triggern mich einfach nicht.
basix
2018-12-25, 13:07:59
All das sind schöne Rechnungen, aber dass der Preis für GDDR explodiert ist kann man nicht einfach wegignorieren. Und irgendwelche ausgedachten Mengenrabatte ändern daran auch nichts. Von Verfügbarkeit von 16Gbit-Chips reden wir auch nicht, und ein 16-RAM-Chip-PCB ist nun auch nicht typisch für einen Gx104.
Also wenn bei einem Distributor die Preise schon bei 11.70$ liegen, kannst du gut und gerne nochmals mindestens 30% für verhandelte Preise abziehen. Je nach Distributor und Komponente auch mal 50-70%. Wieso ich das weiss? Ich arbeite selber in einer Grossfirma und habe häufig mit Elektronikkomponenten-Preisen zu tun (es soll ja alles billiger zu produzieren sein...meiner Meinung nach auf lange Sicht ein unvorteilhafter Ansatz um zu sparen ;)). Die Hersteller geben erstens mal Rabatt und zweitens macht der Käufer Druck. Hat man eine reine Single Source und der Komponentenhersteller weiss das, hat man es natürlich als Käufer schwer ;) Im Falle von 16 GBit Speicher ist der Preis wohl sicher überproportional im Vergleich zu 8 GBit.
Aber als Zusammenfassung: 8 GByte GDDR6 mit 14 GBit/s werden beim Einkauf irgendwo im Bereich von 50-80$ kosten. Mehr definitiv nicht, weniger aber wohl auch nicht. Ich tippe auf etwas in der Mitte. 16GByte mit 16Gbit DRAM würde ich auf ca. 150$ schätzen. Bei Verkaufspreisen von 800 Euro für eine 2080 non-Ti würde das schon noch drin liegen ;) Nvidia und die Boardpartner wollen aber einfach die Margen von Pascal beibehalten. Ausserdem wird damit die 7nm Generation nachmals attraktiver aussehen.
BlacKi
2018-12-25, 13:38:42
Ausserdem wird damit die 7nm Generation nachmals attraktiver aussehen.
das ist zwar richtig, aber ich hätte es NV nicht zugetraut lieber verluste einzufahren, als etwas marge zu opfern.
die next gen bietet schon 7nm, da hätte man es eher verkraftet mal eine verdoppelung auszulassen.
wenn man die wahl gehabt hätte 8gb und 16gb, dann hätte sich keiner die 8gb version gekauft wenn man für 100$ aufpreis die speicherverdoppelung bekommt. oder die 16/22gb versionen wären unverhältnissmäßig teurer gewesen (es hätte trotzdem dafür käufer gegeben).
wer weiß, vl kommt die noch als refresh, während man 2020 die nächste chip generation plant.
bis 2020 halte ich es mit der 1080ti auch noch aus, auch wenn mich vl nächstes jahr eine 22gb 2080ti für 800€ schon jucken würde^^
Ex3cut3r
2018-12-25, 16:03:07
Was du so alles schreibst, meine Güte. Musst ja echt nen toller Hecht sein, aber dann mit ner 1070 und dann 2080 rumgurken :freak:
Frohen 1. Weinhachstag. Aber was meinst du bitte? Sind doch tolle Grafikkarten :smile:
Wenn du ein Problem hast, dann sag es einfach grade raus.
Lehdro
2018-12-25, 16:39:59
Aber was meinst du bitte? Sind doch tolle Grafikkarten :smile:
Wenn du ein Problem hast, dann sag es einfach grade raus.
Du schreibst das die 800 € für die 2080 ja fair seien, weil sie eh nur die Leute anspricht die es "ernst" mit dem Hobby meinen. Dazu sage ich nur: All diese Leute hatten schon ne 1080 TI oder besser, womit die 2080 einfach nur ein abartig schlechter Witz ist, da sie bis auf RT und DLSS, was bisher eher so halbausgegoren ist, NICHTS substanzielles zu bieten hat. Ich meine klar, wenn man unbedingt jetzt schon RT haben will, immer zugreifen! Aber für alle anderen gilt: Das Leistungsniveau der 2080 hatten wir schon einmal für weniger Geld aber mit mehr Speicherreserve - seit fast 2 Jahren. Die Karte ist und bleibt ein Witz für den derzeitigen Preispunkt. Das es auch anders geht zeigt NV ironischweise mit der 2070. Oder halt die absolute Poleposition mit der 2080 Ti, bei der dann sowieso jegliche Preisdiskussion ad absurdum geführt wird, da sie nunmal ein bisher unerreichbares Leistungsniveau darstellt. Somit steht die 2080 schon ziemlich beschissen in dem Lineup da und bedarf eigentlich keiner Diskussion - Preis um 100-150 € runter und alle wären zufrieden. Das NV dort eine Preiseskalation anfängt war aber eh vorher klar, da AMD nicht aus den Puschen kommt. Nur das NV das Leistungsniveau nur so minimal steigern konnte hat halt irgendwie die Karten krass entwertet. Würde eine 2080 eine 1080 Ti deutlichst schlagen, würde niemand über den Preis meckern, da dann nur noch der VRAM Nachteil als einziger relevanter Nachteil stehen bleiben würde - aber so ist es halt einfach nicht.
Ex3cut3r
2018-12-25, 18:26:48
Schön für dich, deine Meinung geht mir ehrlich am Arsch vorbei, ich habe die 2080 gekauft, weil ich mehr Leistung in 3440x1440 wollte, nicht wegen RTX oder sonstwas. Die Ti war Anfang Oktober nicht mehr wirklich lieferbar, außer zu Spottpreisen wie die z.B die MSI Gaming X 1080Ti für 850€, von daher war es wirklich egal, ob ich 800€ für die Ti oder die RTX zahle, VRAM sehe/sah ich keine Probleme. Und wie bereits gesagt, habe ich auch keine 800€ gezahlt, sondern effektiv nur 500€ (GTX 1070 Verkauf) In 1,5 Jahren kommt sowieso eine 7nm Karte rein.
BlacKi
2018-12-25, 18:51:16
wo keine 8gb vorhanden, werden auch nicht mehr als 8gb gebraucht. daher sehe ich auch keine "echten" probleme mit 8gb karten.
11/12gb sind noch lange nicht standard. solange nicht 16gb breit im markt verfügbar sind, werden auch nicht mehr als 8gb gebraucht. viele schieben das jetzt auf die konsolen, aber IMO ist sagt es mehr aus was derzeit im mid-highend bereich verfügbar ist. das war schon immer so. die was die konsolen angeht gab es schon 4gb vram nutzung mit nur 512mb nutzung im konsolenbereich.
Lehdro
2018-12-25, 19:22:10
Schön für dich, deine Meinung geht mir ehrlich am Arsch vorbei, ich habe die 2080 gekauft, weil ich mehr Leistung in 3440x1440 wollte, nicht wegen RTX oder sonstwas. Die Ti war Anfang Oktober nicht mehr wirklich lieferbar, außer zu Spottpreisen wie die z.B die MSI Gaming X 1080Ti für 850€, von daher war es wirklich egal, ob ich 800€ für die Ti oder die RTX zahle, VRAM sehe/sah ich keine Probleme. Und wie bereits gesagt, habe ich auch keine 800€ gezahlt, sondern effektiv nur 500€ (GTX 1070 Verkauf) In 1,5 Jahren kommt sowieso eine 7nm Karte rein.
Nochmal extra für dich im Klartext: Vor 1,5 Jahren (!) eine vernünftige 1080 TI hätte weniger gekostet und dasselbe geleistet. Deine 1070 wärste dann auch noch für mehr losgeworden - übrigens nette Milchmädchenrechnung immer noch ;)
Ex3cut3r
2018-12-25, 19:43:57
Was willst du eigentlich von mir? Beschwerst du dich wegen meinem Kauf allgemein? Das deswegen die Preise weiter steigen werden? Oder was soll das? Nix zu tun an Weihnachten? Bist du vereinsamt zuhause?
Eine 1080 Ti hatte mich damals vor 1,5 Jahren nicht interessiert. Ganz einfach.
Übrigens als Titan Käufer solltest du eigentlich ziemlich leise sein. :rolleyes:
Die Diskussion ist für mich beendet. Schöne Weihnachten noch, oder auch nicht.
Lehdro
2018-12-25, 20:55:37
Was willst du eigentlich von mir? Beschwerst du dich wegen meinem Kauf allgemein? Das deswegen die Preise weiter steigen werden? Oder was soll das?
Mache ich nicht. Ich habe dir nur aufgezeigt dass das eine komische Argumentation deinerseits war, deswegen meine Verwunderung dass du 800 Flocken für ne 2080 raushaust, aber vorher keine 1080 ti für weniger Geld abgepasst hast.
Nix zu tun an Weihnachten? Bist du vereinsamt zuhause?
Ja so krass richtig vereinsamt - so wie du. Oder auch nicht. Weiß man nicht...wusste aber auch nicht das an Weihnachten Postingverbot herrscht, sorry.
Eine 1080 Ti hatte mich damals vor 1,5 Jahren nicht interessiert. Ganz einfach.
Ok. Ist doch mal ne Ansage.
Übrigens als Titan Käufer solltest du eigentlich ziemlich leise sein. :rolleyes:
Habe die letzte nur gebraucht gekauft, neu gabs bei mir nur die Allererste ;)
Ex3cut3r
2018-12-25, 21:20:25
Mache ich nicht. Ich habe dir nur aufgezeigt dass das eine komische Argumentation deinerseits war, deswegen meine Verwunderung dass du 800 Flocken für ne 2080 raushaust, aber vorher keine 1080 ti für weniger Geld abgepasst hast.
Gut, hätten wir das auch geklärt, frohe Weihnachten. :ubeer:
Hakim
2018-12-25, 21:42:12
Leute kommt doch mal wieder runter, ist doch jedem selbst überlassen was er kauft und wofür Geld ausgibt. Da muss man sich auch nicht rechtfertigen was man kauft. Irgendwie komische Diskussionen hier.
crux2005
2018-12-25, 22:19:42
Ist hier leider Gottes schon eine Weile "normal" das man seinen Grafikkartenkauf rechtfertigen muss. Natürlich ist es dann nicht gestattet diese Marke zu kritisieren. :rolleyes:
Timbaloo
2018-12-25, 22:24:58
Eigentlich sollte sich in einem Speku-Forum keine Sau dafür interessieren ob sich jemand eine der Karten gekauft hat, sich vorstellen kann diese zu kaufen oder davon überhaupt nicht "angetriggert" ist. Stattdessen lese ich hier ständig irgendwelche Meinungen, aber Fakten oder zumindest stichhaltige Argumente? Nada.
Aber in einem Fanboy-dominierten Forum ist das halt so. Und die Technik geht unter. Wie auch das Niveau. Und letztlich das Forum selbst. "Fröhliche" Weihnachten....
woodsdog
2018-12-25, 22:45:51
Es nervt halt einfach nur noch wenn ständig argumentiert wird, man hätte doch nur 500ish Eur für ne 2080 bezahlt und das war der Hammer-Deal und überhaupt wenn man irgend einen Gebraucht-Preis der alten Hardware einrechnet.
Neue Graka - geil! Aber lass doch einfach das Gelaber....
Ex3cut3r
2018-12-25, 22:55:40
Entschuldig. Ich habe nur das gesagt, wie es für mich persönlich ist, ich habe nun mal effektiv "nur" 500€ gezahlt. Dafür kann ich doch nichts. Und vom "Hammerdeal" habe nirgends was gesagt.
Monsta
2018-12-26, 01:13:56
Entschuldig. Ich habe nur das gesagt, wie es für mich persönlich ist, ich habe nun mal effektiv "nur" 500€ gezahlt. Dafür kann ich doch nichts. Und vom "Hammerdeal" habe nirgends was gesagt.
Was ist den das für ne Rechnung, die 1070er musstes Du Doch auch mal kaufen.
Wenn das so ist habe ich meine Vega64 geschenkt bekommen, ich habe einfach nur 500€ weniger in dem Monat verdient, aber effektiv wars in dem Monat immer noch ein sattes Plus. ;D
Ex3cut3r
2018-12-26, 01:46:48
Checke ich nicht, die 1070 habe ich vor 2,5 Jahren (Juli 2016) gekauft, für 470€, die hat mir dann noch Ende September 2018 330€ eingebracht. Das "verdiente" Geld dann sofort in den RTX Kauf investiert 829-330= 499€ + 4,99€ Versand. ;)
Wo ist jetzt das Problem auch für dich wieder? :rolleyes: :rolleyes:
Schöne Sache das mit der Vega für dich.
Übrigens mein iPhone 7 Plus 128GB hatte ich auch zur selben Zeit verkauft, das hat mir sogar noch 480€ eingebracht. Das Geld habe ich dann 1 oder 2 Monate später in den Kauf eines iPhone XS MAX Grey 256GB investiert. Mann kann auch alte Sachen Verkaufen, solls geben, auch wenn das für manche anscheinend Hexen Magie ist.
Monsta
2018-12-26, 13:11:01
Checke ich nicht, die 1070 habe ich vor 2,5 Jahren (Juli 2016) gekauft, für 470€, die hat mir dann noch Ende September 2018 330€ eingebracht. Das "verdiente" Geld dann sofort in den RTX Kauf investiert 829-330= 499€ + 4,99€ Versand. ;)
Wo ist jetzt das Problem auch für dich wieder? :rolleyes: :rolleyes:
Schöne Sache das mit der Vega für dich.
Übrigens mein iPhone 7 Plus 128GB hatte ich auch zur selben Zeit verkauft, das hat mir sogar noch 480€ eingebracht. Das Geld habe ich dann 1 oder 2 Monate später in den Kauf eines iPhone XS MAX Grey 256GB investiert. Mann kann auch alte Sachen Verkaufen, solls geben, auch wenn das für manche anscheinend Hexen Magie ist.
Also wenn man was für 470€ kauft und dann für 330€ verkauft hat man nix verdient, sondern 140€ Verlust gemacht. Du rechnest Dir da was schön.
Als ob niemand hier weiß das man gebrauchte Gegenstände verkaufen kann. Hast Du vielleicht den Dunning-Kruger-Effekt?
BlacKi
2018-12-26, 13:42:23
ich sehe das ähnlich wie exe.
ich zahle auch keine grafikkartenpreise, ich zahle nur den wertverfall. so sehe ich ebenfalls meine käufe. so machen das die meisten hier.
das preisschild der karte selbst spielt für mich keine rolle.
x-force
2018-12-26, 14:29:23
milchmädchen lassen grüßen.
schließlich ist das kostenlose handy mit dickem vertrag ja auch für lau :D
Ex3cut3r
2018-12-26, 14:45:08
Kein Vertrag, schon komplett bezahlt. ;)
Ansonsten habe ich einen Billigen Mobilfunk Vertrag mit LTE für 15€ (Reicht mir). Aber das ist OT.
BlacKi
2018-12-26, 15:01:02
milchmädchen lassen grüßen.
das ist doch umgekehrt so. wenn du den verkauf aussen vor lässt, weißt du nicht was du an geld für pc hardware ausgibst.
mit dem kaufpreis alleine ist die rechnung doch unvollständig.
das sehe ich immer wenn sich leute neue autos kaufen. 20k€ auto gekauft, aber klammern den wertverfall komplett aus. haben angst vor hohen werkstattkosten ihres alten autos, kaufen sich dafür neue, die noch mehr an wert verlieren als die alten autos in der werkstatt lassen...
daher muss man das gesammtbild betrachten um die wahren kosten zu betrachten. dazugehören auch strom verbrauch, auch wenn das viele ausklammern.
-=Popeye=-
2018-12-26, 17:32:05
Ja genau, das wird es sein. :facepalm:
3440x1440, in jedem Game Max Details!!!! mit 16xAF und TAA wenn möglich.
https://abload.de/thumb/sottr_2018_12_12_16_5asf1r.jpg (https://abload.de/image.php?img=sottr_2018_12_12_16_5asf1r.jpg)
https://abload.de/thumb/acodyssey_2018_12_24_cjcso.jpg (https://abload.de/image.php?img=acodyssey_2018_12_24_cjcso.jpg)
https://abload.de/thumb/bfv_2018_12_24_14_41_j7fnm.jpg (https://abload.de/image.php?img=bfv_2018_12_24_14_41_j7fnm.jpg)
https://abload.de/thumb/hitman2_2018_12_24_00ewi85.jpg (https://abload.de/image.php?img=hitman2_2018_12_24_00ewi85.jpg)
Jetzt bist du dran? Wo reichen denn 8GB nicht?
:freak:
OUA1sCbSgFs
RyZFs6PmYSY
9x2QPRteBdA
Wer wieviel für was auch immer bezahlt hat ist völlig Wumpe, soll jeder kaufen was ihm/ihr gefällt und gut ist.
Hakim
2018-12-26, 17:41:36
Wusste gar nicht das ACO die Top Karten bei 4k so in die Knie zwingt. Vielleicht sollte ich mit dem Kauf noch warten bis ich eine neue Grafikkarte habe :)
Edit: sehe gerade ist ja die 21:9 Auflösung
Ex3cut3r
2018-12-26, 20:07:23
@-=Popeye=-
Resoultion Scale von 200% 3440x1440 = 6880x2880
Da ist es wohl logisch, dass man VRAM Verbrauch von über 8 GB sieht. :freak:
Für SoTTR hat er 4xSMAA aktiviert, welches 2xMSAA Anteile drin hat.
Suchst du jetzt extra Stellen, um mich mit meinen Aussagen mit dem VRAM @ 3440x1440 Nativ blöd aussehen zu lassen? Oder soll mir das jetzt sagen? :rolleyes:
Ansonsten viel Spaß beim suchen, wenn man sonst nix zu tun hat. :up:
crux2005
2018-12-27, 03:58:56
:freak:
https://youtu.be/OUA1sCbSgFs
https://youtu.be/RyZFs6PmYSY
https://youtu.be/9x2QPRteBdA
Wer wieviel für was auch immer bezahlt hat ist völlig Wumpe, soll jeder kaufen was ihm/ihr gefällt und gut ist.
Mit solchen low-FPS würde ich nicht zocken wollen. :freak:
dargo
2018-12-27, 11:48:21
Mit solchen low-FPS würde ich nicht zocken wollen. :freak:
Erstens das. Und zweitens frage ich mich bei den sinnlosen Diskussionen immer wieder wann endlich jeder begreift, dass ein Spiel X nicht unbedingt mehr als 8GB Speicher braucht nur weil die eigene Graka mit mehr als 8GB (in dem Fall 11GB) >8GB Verbrauch anzeigt? Bei mir liegt der Vram Verbrauch im Benchmark von SotTR in 4k mit max. Details bei max. 7,4GB.
Ex3cut3r
2018-12-27, 14:48:20
Erstens das. Und zweitens frage ich mich bei den sinnlosen Diskussionen immer wieder wann endlich jeder begreift, dass ein Spiel X nicht unbedingt mehr als 8GB Speicher braucht nur weil die eigene Graka mit mehr als 8GB (in dem Fall 11GB) >8GB Verbrauch anzeigt? Bei mir liegt der Vram Verbrauch im Benchmark von SotTR in 4k mit max. Details bei max. 7,4GB.
Tja, das habe ich auch schon gesagt, dann kam Skynet an, und meinte das Details weggelassen werden, weil Raff so etwas für 4GB gesagt hat, alles nachzulesen ein paar Seiten zurück. ;)
SKYNET
2018-12-27, 16:37:01
Erstens das. Und zweitens frage ich mich bei den sinnlosen Diskussionen immer wieder wann endlich jeder begreift, dass ein Spiel X nicht unbedingt mehr als 8GB Speicher braucht nur weil die eigene Graka mit mehr als 8GB (in dem Fall 11GB) >8GB Verbrauch anzeigt? Bei mir liegt der Vram Verbrauch im Benchmark von SotTR in 4k mit max. Details bei max. 7,4GB.
ja, und dafür wird das LOD runtergeschraubt wie blöde... klasse, "ja 8GB reichen, dass das bild dann matschig wird interessiert mich nicht, hauptsache ich habe recht nänänänäää" :rolleyes:
dargo
2018-12-27, 17:13:12
Ich bereue jetzt schon, dass ich mich eingemischt habe. Ich wünsche dir noch viel Spaß mit deinen Gleichgesinnten.
Ex3cut3r
2018-12-27, 17:16:40
Ich bereue jetzt schon, dass ich mich eingemischt habe. Ich wünsche dir noch viel Spaß mit deinen Gleichgesinnten.
:up: Stark, so hätte ich es auch machen sollen. :wink: :biggrin:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.