PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 [48]

dargo
2019-07-01, 14:10:00
Billig alleine macht keine gute Karte, die Vega 64/56 verballern viel Strom und es gibt daher nur wenige wirklich leise Designs;
Unsinn... das mag für den 08/15 Hans gelten der weder den Biosschalter noch den Treiber bedienen kann. Wir sind hier im 3DC und nicht beim 08/15 Hans. Jeder der sich halbwegs mit den Sachen auskennt bestimmt selbst was seine Vega verbraucht. Das gilt übrigens für jede moderne Grafikkarte. Egal ob da Vega, Turing, Pascal, Polaris oder was auch immer werkelt.

dildo4u
2019-07-01, 14:14:27
nö, nur 11% mehr Shader, dafür noch 33% mehr Speicherbandbreite und 10% mehr Takt.
Der Boost Takt ist geringer laut dem Videocardz Leak,Basis hat keine Bewandniss für Games.

Timbaloo
2019-07-01, 14:42:39
Unsinn... das mag für den 08/15 Hans gelten der weder den Biosschalter noch den Treiber bedienen kann. Wir sind hier im 3DC und nicht beim 08/15 Hans. Jeder der sich halbwegs mit den Sachen auskennt bestimmt selbst was seine Vega verbraucht. Das gilt übrigens für jede moderne Grafikkarte. Egal ob da Vega, Turing, Pascal, Polaris oder was auch immer werkelt.
Nur dass der 08/15-Hans halt 99% des Grafikkartenmarktes ausmacht.

Ich verstehe nicht wie man ein Schrottprodukt immer wieder schönreden will nur weil man es ja durch manuelle Anpassungen verbessern kann.

Und nein, eine Karte ist nicht toll weil sie in einem Betriebspunkt, in welchem sie nicht auf den Markt kommt, effizienter wäre als sie tatsächlich ist, so wie sie auf den Markt kommt.

Verglichen, bewertet und letztlich gekauft werden Karten wie sie ausgeliefert werden, nicht was irgendwelche Freaks mit zweifelhafter Methodik und Fachkenntnis in einem Bastler-Forum innerhalb der AMD-Liebhaber-Bubble solange predigen bis jeder der es nicht glaubt anerkannter Ketzer ist.

Vega 56/64 sind ineffizient. Navi wird nicht viel besser, weil AMD, mal wieder, die Karte prügeln muss um ungefähr die gleiche Leistung pro Transistor zu bekommen wie es der Konkurrent mit einem älteren Node hinbekommt, trotzt des ach so großen RT-Ballast...

aufkrawall
2019-07-01, 15:07:34
Den Chip näher am Optimum zu betreiben soll "zweifelhafte Methodik" sein? Ich lollte hart. Als ob bei Nvidia die Customs nicht völlig ineffizient betrieben würden. :rolleyes:
Und trotzdem ermöglicht die Firma unter Linux gar kein UV, einfach nur lachhaft...

tm0975
2019-07-01, 15:23:23
Verglichen, bewertet und letztlich gekauft werden Karten wie sie ausgeliefert werden, nicht was irgendwelche Freaks mit zweifelhafter Methodik und Fachkenntnis in einem Bastler-Forum innerhalb der AMD-Liebhaber-Bubble solange predigen bis jeder der es nicht glaubt anerkannter Ketzer ist..

genau, außer für blaue cpus sollte man eine außnahme machen:rolleyes:

Timbaloo
2019-07-01, 15:36:41
Den Chip näher am Optimum zu betreiben soll "zweifelhafte Methodik" sein? Ich lollte hart.
Du solltest weniger lolen sondern dich eher mit dem Begriff Methodik befassen. Denn deine Antwort ergibt einfach keinen Sinn.

Als ob bei Nvidia die Customs nicht völlig ineffizient betrieben würden. :rolleyes:
Kleiner Realitätscheck:
https://www.techpowerup.com/review/asus-geforce-rtx-2070-strix-oc/32.html
https://www.techpowerup.com/review/zotac-geforce-rtx-2070-amp-extreme/34.html
https://www.techpowerup.com/review/evga-geforce-rtx-2070-black/34.html
https://www.techpowerup.com/review/msi-geforce-rtx-2070-gaming-z/34.html

Aus dieser Stichprobe (ich nehme mal die 1440p) ergibt sich eine Effizienzverschlechterung der Customs von 1% (ASUS), 9% (ZOTAC), 4% (MSI), bzw. keiner Effizienzverschlechterung bei der EVGA welche als Custom-Variante ohne Werksübertaktung einen Sonderfall bietet. Selbst die ZOTAC als deutlicher Ausreisser ist noch deutlich effizienter als eine Vega VII. Nur mal um dein "völlig ineffizient" zu quantifizieren....

Und trotzdem ermöglicht die Firma unter Linux gar kein UV, einfach nur lachhaft...
Nicht nötig weil:

a) kein Problem (siehe oben)
b) Linux ;D

Linmoum
2019-07-01, 15:43:10
Nichts gegen TPU oder andere, aber wenn man mit (konkreten) Verbrauchswerten argumentiert dann sollte man auch die von Igor nehmen.

Und warum man jetzt so "abwertend" gegenüber Linux ist erschließt sich mir auch nicht. Aber gut, passt wohl anders nicht. Was nicht sein kann...

aufkrawall
2019-07-01, 15:58:32
Du solltest weniger lolen sondern dich eher mit dem Begriff Methodik befassen. Denn deine Antwort ergibt einfach keinen Sinn.

Liegt vielleicht daran, dass deine Ausgangsbehauptung mit der "zweifelhaften Methodik" ziemlich wirr rüberkommt.
Kann mir jemand erklären, was er damit meinen könnte?


Kleiner Realitätscheck:
https://www.techpowerup.com/review/asus-geforce-rtx-2070-strix-oc/32.html
https://www.techpowerup.com/review/zotac-geforce-rtx-2070-amp-extreme/34.html
https://www.techpowerup.com/review/evga-geforce-rtx-2070-black/34.html
https://www.techpowerup.com/review/msi-geforce-rtx-2070-gaming-z/34.html

Aus dieser Stichprobe (ich nehme mal die 1440p)
Was für 1440p? TPU meinen mit "Average (Gaming)" Metro: LL in 1080p.

Timbaloo
2019-07-01, 15:59:08
Nichts gegen TPU oder andere, aber wenn man mit (konkreten) Verbrauchswerten argumentiert dann sollte man auch die von Igor nehmen.
Du kannst gerne eine Gegenargumentation basierend auf den Tests von Igor aufstellen. Kannst du?

Und warum man jetzt so "abwertend" gegenüber Linux ist erschließt sich mir auch nicht. Aber gut, passt wohl anders nicht. Was nicht sein kann...
Weil Linux für Gaming einfach irrelevant ist.

aufkrawall
2019-07-01, 16:00:33
Weil Linux für Gaming einfach irrelevant ist.
1. Was auch an Posts wie deinen liegt.
2. Warum sollte nur Gaming von UV profitieren? Das Trollieren ging wohl mal arg nach hinten los...

dargo
2019-07-01, 16:02:30
Kleiner Realitätscheck:
https://www.techpowerup.com/review/asus-geforce-rtx-2070-strix-oc/32.html
https://www.techpowerup.com/review/zotac-geforce-rtx-2070-amp-extreme/34.html
https://www.techpowerup.com/review/evga-geforce-rtx-2070-black/34.html
https://www.techpowerup.com/review/msi-geforce-rtx-2070-gaming-z/34.html

Kleiner Realitätscheck für dich von mir, denn offenbar hast du es mit der Realität nicht so (vielleicht öffnet dir dies die Augen was guter Betriebspunkt ist, ich glaube aber nicht so recht dran).
https://www.computerbase.de/2018-11/geforce-rtx-2080-vergleich-test/3/#abschnitt_so_viel_watt_benoetigen_die_hoeheren_taktraten

Na hoffentlich kaufen sich die 99% der Spieler nicht die Customs sonst fallen sie ganz schön auf die Schnauze. Schließlich verbraucht eine RTX 2080 non FE 215W laut Nvidia. :rolleyes:

Bei Pascal war es auch nicht besser.
https://www.computerbase.de/2016-07/geforce-gtx-1080-partnerkarten-vergleich-test/2/#abschnitt_so_viel_watt_kosten_die_hoeheren_taktraten

Eine GTX 1080 lag bei 180W.

Rancor
2019-07-01, 16:09:42
AMD sollt bei NAVI darauf verzichten die Karten wieder mit völlig unnötigen Core Spannungen auszuliefern. Dann gäbe es diese Diskussion nämlich nicht.

Denn VEGA ist nicht per se ineffizient, sie sind @ Stock einfach nur schlecht konfiguriert.

dildo4u
2019-07-01, 16:12:33
Vega wird einfach nie ausgelastet daher kann man die Spannung beim Gameing so massiv senken wie immer das ist kein Argument für die GPU sondern dagegen.

aufkrawall
2019-07-01, 16:14:05
Natürlich sind sie ineffizient vs. Nvidia, aber das ist außerhalb von Notebooks und Mini-ITX einfach nicht ausschlaggebend, wenn man ehrlich ist. Klar wäre es für 0815-Anwender wünschenswert, wenn mehr Produkte vernünftig ootb konfiguriert wären. Aber dieses ständig sich dran Aufgegeile am Thema Effizienz...

Edit: Der crappige NV Linux-Treiber taktet übrigens durchs Fensterschubsen ~40s in den Boost-State, jedes Mal aufs Neue...

dargo
2019-07-01, 16:14:59
Vega wird einfach nie ausgelastet daher kann man die Spannung beim Gameing so massiv senken wie immer das ist kein Argument für die GPU sondern dagegen.
Erzähl doch keinen Blödsinn wieder. :rolleyes: Natürlich wird Vega in vielen Games gut ausgelastet. U.a. Division 2 (eigentlich fast alle DX12/Vulkan Titel). Und dennoch kann ich dort wunderbar undervolten.

Timbaloo
2019-07-01, 16:27:16
1. Was auch an Posts wie deinen liegt.
Ich habe vier Jahre lang praktisch exklusiv Linux auf dem Desktop gehabt. Ich glaube nicht, dass du diesen Teil deiner Argumentation weiterführen willst, denn da fliegst du bitterlichst auf die Schanuze.

2. Warum sollte nur Gaming von UV profitieren? Das Trollieren ging wohl mal arg nach hinten los...
Ach du redest von den Millionen CAD-Workstations und Renderfarmen wo höchstkompetente Fachinformatiker jede Karte einzeln optimieren? Ja, da hast du einen Punkt...

Kleiner Realitätscheck für dich von mir, denn offenbar hast du es mit der Realität nicht so (vielleicht öffnet dir dies die Augen was guter Betriebspunkt ist, ich glaube aber nicht so recht dran).
https://www.computerbase.de/2018-11/geforce-rtx-2080-vergleich-test/3/#abschnitt_so_viel_watt_benoetigen_die_hoeheren_taktraten
Danke für die Gegendarstellung. Aber es zeigt nur, dass es auch übertriebene Customs gibt, nicht aber wie aufkrawall impliziert, dass dies bei Customs die Regel ist.

gbm31
2019-07-01, 16:28:36
Vega wird einfach nie ausgelastet daher kann man die Spannung beim Gameing so massiv senken wie immer das ist kein Argument für die GPU sondern dagegen.

Was ein Quatsch - schon mal wenigstens von weitem eine werkeln gesehen?

aufkrawall
2019-07-01, 16:29:46
Ach du redest von den Millionen CAD-Workstations und Renderfarmen wo höchstkompetente Fachinformatiker jede Karte einzeln optimieren?

Nö, aber etwa CUDA im universitären Umfeld. Sei es auf einzelnen System im Institut oder das Privat-System, mit dem viele Leute auch arbeiten.

Timbaloo
2019-07-01, 16:48:12
Nö, aber etwa CUDA im universitären Umfeld. Sei es auf einzelnen System im Institut oder das Privat-System, mit dem viele Leute auch arbeiten.
Wo Custom-Gaming-Karten mit manuellem Undervolting zum Einsatz kommen? Im wissenschaftlichen Umfeld? Ist jetzt nicht wirklich dein Ernst?

Ich mag ja die kleinen Battles mit dir, aber beim Thema Linux verrennst du dich total.

JVC
2019-07-01, 16:53:24
https://gpu.userbenchmark.com/
Im Userrating-Ranking:
Platz 18. die erste RTX (2070)
Platz 19. Vega 56
Berücksichtigt man Timbaloo und seine "99%", Passt.

M.f.G. JVC

p.s.: ich bin so begeistert von W10, das ich echt schon überlegt habe mal Linux zu testen ...

Timbaloo
2019-07-01, 17:18:48
https://gpu.userbenchmark.com/
Im Userrating-Ranking:
Platz 18. die erste RTX (2070)
Platz 19. Vega 56
Berücksichtigt man Timbaloo und seine "99%", Passt.
Userrating? ;D

Im Ernst, liest du die Diskussion bevor du Links mit irgendwelchen Usermeinungen von einer Webseite die der 08/15-Anwender wahrscheinlich nichtmal kennt, geschweige denn dort irgendwas ausfüllt, als Argument hineinwirfst?

M.f.G. JVC

p.s.: ich bin so begeistert von W10, das ich echt schon überlegt habe mal Linux zu testen ...
Ist auf jeden Fall eine bereichernde Erfahrung (y)

dargo
2019-07-01, 17:49:43
Danke für die Gegendarstellung. Aber es zeigt nur, dass es auch übertriebene Customs gibt, nicht aber wie aufkrawall impliziert, dass dies bei Customs die Regel ist.
In erster Linie bestimmt immer der Partner bei den Customs was die Grafikkarte im Endeffekt verbrauchen darf. Das war nie einfacher als heute. Man dreht am Powerlimit und schon geht der Takt nach oben sowie der Verbrauch. Dann gibt es noch unterschiedliche Designs bei den Platinen die in gewisser Weise den Verbrauch auch bestimmen. Es gibt effiziente Boards und weniger effiziente.

JVC
2019-07-01, 18:02:31
@Timbaloo
https://www.userbenchmark.com/PCGame/FPS-Estimates-Battlefield-5-/3961/0.0.0.0.0 (Battlefield 5)
Wähle deine gewünschte Auflösung und den gewünschten Detailgrad ...
(oder such dir ein anderes Game, oben auf FPS klicken, 305 gibt's zur Auswahl)

Ich find die Seite gut und übersichtlich :up:

M.f.G. JVC

Timbaloo
2019-07-01, 19:03:09
Ich habe keinen blassen Schimmer was du mir sagen willst...

JVC
2019-07-01, 19:23:44
Ich find die Seite ganz einfach mittlerweile besser als die ganzen "Presse-Tests-Werbungen"
Man sieht schön mit welcher Hardware und welcher Auflösung und welcher Eistellung ...
(man muss hald ein wenig herummklicken und mehr tun als das Fazit zu lesen)

M.f.G. JVC

unl34shed
2019-07-01, 19:25:45
Die Taktraten von der RX 5700 sehen doch moderat aus, so ungünstig kann das nicht sein. Und die Super der 2060 kommt mit 8GB auch nicht über die RX 5700 TDP. Die Effizienz von Navi sieht, wenn man den Fertigungsvorteil mit berücksichtigt, eklatant schlecht aus gegen Turing.

Warum wird bei den Nvidia Karten eigentlich immer der Mehrverbrauch bei der CPU unterschlagen? Die Nvidia Treiber belasten die CPUs deutlich stärker als die AMD Treiber und erzeugen ihre Hitze einfach nur ein Paar cm neben der GPU.

Würde man das aber mit berücksichtigen könnte man halt auch nicht immer die Effizienz so loben....

dildo4u
2019-07-01, 19:35:22
Das gilt für ein paar wenige DX11 Games,die Masse dümpelt bei mir weit unter 50% CPU Last mit meinem 2600X.
Warum sollten auch selbst neue Games aktuelle PC CPUs Auslasten,wenn diese immer noch auf Konsolen mit 2Ghz CPUs von 2013 laufen müssen.

Birdman
2019-07-01, 19:38:05
Warum wird bei den Nvidia Karten eigentlich immer der Mehrverbrauch bei der CPU unterschlagen? Urban Legends?
Belegen kannst Du diese gewagte These sicher nicht, oder?

Zudem bedeutet eine bessere Auslastung nicht zwingend auch einen spürbar höheren Stromverbrauch. Sieht man schön an AMD GPUs bei DX11 vs DX12/Vulkan Games. Letzteres bietet i.d.R deutlich höhere Performance bei nur geringfüg gesteigertem Verbrauch. (wenn überhaupt)

BeetleatWar1977
2019-07-01, 19:40:37
Vega wird einfach nie ausgelastet daher kann man die Spannung beim Gameing so massiv senken wie immer das ist kein Argument für die GPU sondern dagegen.
https://i.imgur.com/9ZOgqGO.png


Deswegen kann ich bei OpenCL-Anwendungen hier auch wohl entweder ~5% mehr Takt oder weniger Spannung fahren als bei Games......


:facepalm:

dildo4u
2019-07-01, 19:47:28
Laut AMD ist Navi in Games mit 9.75 TFLops schneller als Vega 64 mit 12.7Tflops.
Klar gibt es Games die Vega gut Auslasten können das ist aber nicht die Masse,ansonsten wäre sie schon lange an der GTX 1080 Vorbeigeflogen.


https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440

sulak
2019-07-01, 20:00:47
Nur auf die Rechenleistung schauen bringt aber nichts. Eine 2080 FE hat auf dem Papier knapp 35% mehr davon als eine 2070 FE. In der Realität ist sie davon aber meilenweit entfernt.

Die Karten boosten (deutlich) höher als das, was Nvidia bzw. die Partner auf dem Papier angeben. Das trifft selbst auf die absoluten Low-Cost-Dinger wie eine Asus Turbo zu. Daher kann man bei Turing mit der reinen Rechenleistung auch nicht kalkulieren, da Takt auf dem Papier != realer Takt. Und zwar ein ordentliches Stück.

Jo, wurde mal in einem Video besprochen bei HardwareUnboxed, Premium Grafikkarten machen eigentlich nur mit dem Kühler noch ein Plus, wenn man nicht auf LED BlingBling steht ;D

tVX5sPR2-Mc

dildo4u
2019-07-01, 21:10:11
Compute Benchmarks:

2060 Super 24,8K

https://browser.geekbench.com/v4/compute/4231382

2070 Super 27k

https://browser.geekbench.com/v4/compute/4228084

2080 28,5k
2070 24,7K
2060 20,7k

https://browser.geekbench.com/opencl-benchmarks

dargo
2019-07-01, 21:17:33
Laut AMD ist Navi in Games mit 9.75 TFLops schneller als Vega 64 mit 12.7Tflops.
Klar gibt es Games die Vega gut Auslasten können das ist aber nicht die Masse,ansonsten wäre sie schon lange an der GTX 1080 Vorbeigeflogen.

Du redest nur wirres Zeug wie immer. Eine RTX 2080 hat ~10 TFLOPs und ist in der Regel auch schneller als eine GTX1080 TI mit ~12 TFLOPs. Wird deshalb Pascal nicht ausgelastet? Überlege beim nächsten Mal einfach was du schreibst bevor es wieder hier lächerlich wird.

dildo4u
2019-07-01, 21:21:29
Wo widerspricht das jetzt meinem Vergleich?Die neuere Architektur lässt sich besser mit Games Auslasten als die alte,nur das AMD halt erst auf Pascal Level ist mit Navi.
5700XT hat vermutlich 10% mehr Gameing Performance als eine 1080 bei 10% mehr Tflops.

pilzsammler2002
2019-07-02, 07:37:59
Der Trick ist nicht nur die Auslastung... Den größten Performance Gewinn hatten wir in den letzten Jahren ja meisten dank weniger Rechnen :D (mehr verwerfen/culling) :freak:

Das hat sich ja seit Maxwell+nachfolger so rauskristallisiert :D

HOT
2019-07-02, 08:13:51
Ausserdem wird bei Turing immer die Int Leistung unterschlagen.

robbitop
2019-07-02, 09:04:28
Wobei GCN pro CU immerhin 1x skalare INT ALU hat (1:64). RDNA hat 2x (1:32).
Das ist aber natürlich kein Vergleich zu Volta und Turing. Die haben ja genauso viele INT ALUs wie FPUs - also 1:1.

Die Frage ist natürlich, ob das in Spielen jetzt so viel Vorteil bringt. Es gab ein paar Spiele, die auf Turing und Volta besonders gut performten (siehe Quantum Break) und Spiele die kaum besser performten als auf Pascal (rohleistungsnomiert).

NV erzählte zum Turing Launch, dass sie ~35 (?) % INT Anteil in Spielen sahen.
Navi hat allerdings nur ~3% zusätzliche INT ALUs.

gmb
2019-07-02, 12:04:30
Warum wird bei den Nvidia Karten eigentlich immer der Mehrverbrauch bei der CPU unterschlagen? Die Nvidia Treiber belasten die CPUs deutlich stärker als die AMD Treiber und erzeugen ihre Hitze einfach nur ein Paar cm neben der GPU.


Wieso immer? Es gibt doch massig Verbrauchstests von Gesamtsystemen. Außerdem ist das doch ein Vorteil, wenn die performance und möglicherweise auch die Effizienz weiter steigt. Ich hätte jetzt nicht gedacht, dass man die schlechtere Performance im CPU Limit bei AMD denen noch als Vorteil auslegt, ja so kann man sich das auch schönreden. Und noch ein kleiner Hinweis, generell wird eine CPU mehr belastet, desto mehr fps die GPU erreichen kann in einem Spiel.

Grendizer
2019-07-02, 15:29:23
Die 2060 SE auf dem Niveau einer 1080, die 2070 SE auf dem Niveau der 1080 TI ... jetzt werden die Preise interessant.

https://www.computerbase.de/2019-07/geforce-rtx-2060-2070-super-test/2/#diagramm-f1-2019-3840-2160

Linmoum
2019-07-02, 15:38:28
Die 2070S FE zieht mehr als eine 2080 FE und ist langsamer. Wo wir die Tage ja erst die "Diskussion" über hochprügeln bei Nvidia hatten, was es ja nicht gibt. Nunja, damit hat sich das auch erledigt.

dildo4u
2019-07-02, 15:46:44
Wo zieht sie mehr bei CB und Techspot zieht sie weniger.

https://live.staticflickr.com/65535/48179779772_7bef3f48e9_b.jpg (https://flic.kr/p/2gptXY9)Power2 (https://flic.kr/p/2gptXY9) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.techspot.com/review/1865-geforce-rtx-super/

y33H@
2019-07-02, 15:48:48
Die 2070S zieht weniger als eine 2080 stock.

Linmoum
2019-07-02, 15:52:02
Bei Igor zieht sie minimal mehr und was Verbrauchsmessungen angeht sehe ich ihn als Referenz, nicht nur aufgrund des vorhandenen Equipments.

y33H@
2019-07-02, 16:12:42
Joa, das mag in dem Fall schlicht am Sample liegen, denn 225W sind klar über den hinterlegten 215W.

Loeschzwerg
2019-07-02, 16:21:50
Vielleicht kommt der TU104 bei einigen Karten/Samples auch schon aus Korea und nicht nur der TU106?!

y33H@
2019-07-02, 16:22:47
Sofern der Chip tatsächlich von Samsung ist und nicht nur Packaging in Südkorea ;D der von Igor ist aus Taiwan.

Loeschzwerg
2019-07-02, 16:28:51
Hehe, stimmt, das Packaging... Tjoa, dann hat sich das erledigt :)

HOT
2019-07-02, 16:30:48
Samsung allein wird die Turings nicht mit 11nm bedienen können. Die werden wenn dann beides verwenden, ähnlich wie Polaris.

Leonidas
2021-01-31, 08:16:16
TU104, TU106 & TU116:
https://twitter.com/FritzchensFritz/status/1355607152648482818

https://pbs.twimg.com/media/EtAVZOxXAAA_uXu?format=jpg

dildo4u
2021-11-27, 20:37:39
2060 12 GB soll mehr Cuda Cores bekommen.

https://videocardz.com/newz/nvidia-geforce-rtx-2060-12gb-to-feature-2176-cuda-cores-184w-tdp

basix
2021-11-29, 10:49:31
Was aus meiner Sicht auch Sinn macht. 2176 Shader-Cores sind immer noch Salvage von TU106, genau so wie 192bit Salvage sind. Yield bei TSMCs FFN12 wird genug hoch sein, dass man mehr oder minder alle Chips als 2060 12 GByte verkaufen kann. Dazu passt auch die etwas erhöhte TDP, damit man auch die "schlechten" Chips an den Mann bringen kann. Die normale 2060 und 2060S gehen dann wohl endgültig EOL.

Raff
2021-12-01, 15:31:59
In den Release Notes des ofenfrischen Treibers wird die RTX 2060 12GB offiziell genannt: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=609076

MfG
Raff

maximus_hertus
2021-12-07, 15:29:37
Sollte heute nicht die 12GB KArte in den Verkauf gehen?

Lehdro
2021-12-07, 15:35:19
Sollte heute nicht die 12GB KArte in den Verkauf gehen?
Ich habe bei kurzer Suche online auch gar nichts gefunden. Sehr kurioser Launch :confused:

dildo4u
2021-12-07, 16:41:11
Die wird eh für Preise über der 3060 weggehen.

https://abload.de/img/2021-12-07-15_29_36-191jie.png


https://videocardz.com/newz/nvidia-launches-geforce-rtx-2060-12gb-a-perfect-card-for-crypto-miners

Ex3cut3r
2021-12-07, 16:46:40
LOL. Sieht eher nach einem Produkt für Miner aus, Impressive, Very nice.

rl2AM3j3dIw

=Floi=
2021-12-07, 17:24:19
warum ist da das watt leistung verhältnis so gut?
Das ist ja irre gut. (zur 2070S) Shrink?

Slipknot79
2021-12-07, 22:27:54
Ich habe bei kurzer Suche online auch gar nichts gefunden. Sehr kurioser Launch :confused:


Wozu noch überhaupt was melden, geht ohnehin weg wie von selbst. (y)

DrFreaK666
2022-05-18, 12:01:18
Es kommt wohl eine GTX1630 um die 6400 zu bekämpfen
https://videocardz.com/newz/nvidia-preparing-geforce-gtx-1630-graphics-card-its-first-gtx-x30-model

Denniss
2022-05-18, 23:09:07
Also scheint nvidia die 6400 stärker oder gefährlicher einzuschätzen als viele Foristen.
Oder die Produktion der 1050 wird endgültig eingestellt und Ersatz muß her.

DrFreaK666
2022-05-19, 09:19:43
Die OEMs werden schon zum Neuestem greifen. Ist nur fraglich ob denen RT oder Videocodecs als Werbung wichtiger ist

Raff
2022-05-19, 09:42:01
Ist Speicher eigentlich echt aus der Mode gekommen? Früher musste man OEM-Karten nur mit absurd viel VRAM bestücken und die Dinger verkauften sich wie geschnitten Brot. FX 5200 mit 128 MiB. :ulol:

MfG
Raff

Ghost1nTh3GPU
2022-05-19, 10:06:03
Ist Speicher eigentlich echt aus der Mode gekommen? Früher musste man OEM-Karten nur mit absurd viel VRAM bestücken und die Dinger verkauften sich wie geschnitten Brot. FX 5200 mit 128 MiB. :ulol:


SDDRx ist halt selbst für diese Karten zu langsam und GDDR6 wohl zu teuer. Eine GTX 3060 aber verkauft man mit Speicherbonus, wo man auch krumm mit 8GB bestücken könnte.

Die GTX 1630 mit TU117 wäre von den Videofähigkeiten nur auf Volta Level. GA117 ist wohl noch etwas zu groß/teuer für Einsteigerkarten.

DrFreaK666
2022-05-19, 10:25:56
bin gespannt wie das aufgenommen wird
https://videocardz.com/newz/nvidia-geforce-gtx-1630-to-feature-512-cuda-cores-4gb-64-bit-memory-launches-may-31st

https://abload.de/thumb/screenshot_20220519_1vrjs3.jpg (https://abload.de/image.php?img=screenshot_20220519_1vrjs3.jpg)

Platos
2022-05-19, 12:00:00
Eig. ist doch schon die 1650 extrem schwach. Was soll die kosten?

Irgendwie total lahm.

DrFreaK666
2022-05-19, 12:12:07
wahrscheinlich in etwa so viel wie eine RX6400, wobei die RX6500XT nur ein paar Euro teurer ist. Beide Karten ergeben keinen Sinn. Höchstens im LP-Format, da kostet die günstigste 1650 220€ und die 6400 189€

davidzo
2022-05-19, 12:16:42
Also scheint nvidia die 6400 stärker oder gefährlicher einzuschätzen als viele Foristen.
Oder die Produktion der 1050 wird endgültig eingestellt und Ersatz muß her.

Stärker wohl nicht im Sinne von performance, sondern im Sinne von aggressiverem Preis.

In dieser Rubrik zählt nicht die Performance sondern in erster Linie der Preis und erst dann der Featurelevel.

Eine 1050ti ist weder besonders günstig in der Herstellung noch irgendwie attraktiv vom Featurelevel. Tu117 mit 64bit SI und GDDR6 ist das viel sinnvoller, wenn der auch an Navi24 nicht ganz an Neuheit/Features und Performance heranreicht.
Das Turing eine komplette Videoengine hat und Navi24 nicht wird vielen nicht bewusst sein, die sehen bloß die neuere Architekturfamilie und "RT".

Performancetechnisch ist das kein direkter counter, aber vermutlich wird man AMD preislich unterbieten, was in dem Marktbereich noch effektiver ist:
- Die 1650 ist mit 128bit GDDR5 und 896 Shadern in etwa gleichschnell wie die RX6400.
- 512 Shader und nur noch 64bit GDDR6 sind 25-33% weniger Rechenleistung und bzw. 25% weniger Bandbreite. Das wird für die RX6400 nicht mehr reichen.

Ex3cut3r
2022-05-19, 12:36:14
Die 1630 ist nochmal der Rest an Turing Chips, der irgendwann nochmal produziert wurde, um für Spieler etwas halbwegs günstiges anzubieten (RTX 2060 mit 12GB), und jetzt irgendwo bei Nvidia im Lager verrottet? Lächerlich.

Ampere hätte es IHMO mindestens sein müssen! Turing ist 4 Jahre alt. Oder kommt die Karte gar nicht nach Europa? Für sowas muss man schon wirklich ein sehr armer Schlucker sein, und wenn selbst wenn, rate ich lieber zum sparen und sich mindestens eine RTX 2060 mit 12GB oder eine RTX 3050 bzw. 6600 non XT zu kaufen. Als so eine 720p Low Settings Karte.

Thunder99
2022-05-19, 12:42:20
TU117 hat kein RT, haben ja nur die 10x Karten. Oder wurde da eine Ausnahme gemacht?

Ex3cut3r
2022-05-19, 12:44:39
Selbst wenn? Die 2 RT Cores werden überhaupt nix reißen. :biggrin:

DrFreaK666
2022-05-19, 13:34:48
Die 1630 ist nochmal der Rest an Turing Chips, der irgendwann nochmal produziert wurde, um für Spieler etwas halbwegs günstiges anzubieten (RTX 2060 mit 12GB), und jetzt irgendwo bei Nvidia im Lager verrottet? Lächerlich.

Ampere hätte es IHMO mindestens sein müssen! Turing ist 4 Jahre alt. Oder kommt die Karte gar nicht nach Europa? Für sowas muss man schon wirklich ein sehr armer Schlucker sein, und wenn selbst wenn, rate ich lieber zum sparen und sich mindestens eine RTX 2060 mit 12GB oder eine RTX 3050 bzw. 6600 non XT zu kaufen. Als so eine 720p Low Settings Karte.

Die Karte kaufen sich doch keine Gamer, auch wenn wir hier darüber diskutieren

dildo4u
2022-05-19, 13:46:53
Die 6400 hat doch kein Videoblock mher wenn die 1630 dort unbeschnitten ist wäre sie die Alternative für HTPC.

davidzo
2022-05-19, 14:03:11
Eben, genau so wenig wie bei Navi24 RT irgendeine praktische Relevanz hat.

Aber in dieser Klasse geht es eh nicht um Leistung sondern um Checklistenfeatures. In der Hinsicht spricht also mehr für die RX6400.
Wobei das Checklistenfeature "Nvidia discrete GPU" auch in 2022 immer noch Gold wert ist, viel mehr als das Checklistenfeature "AMD discrete GPU", ganz unabhängig der tatsächlichen Leistung.

Die Karte kaufen sich doch keine Gamer, auch wenn wir hier darüber diskutieren
Naja, in µSSF kann ich mir das schon vorstellen, so als casual wohnzimmer-PC oder für CS-Go /AoeII Lanparties. Klein und sparsam.

Loeschzwerg
2022-05-19, 14:37:06
Naja, in µSSF kann ich mir das schon vorstellen, so als casual wohnzimmer-PC oder für CS-Go /AoeII Lanparties. Klein und sparsam.

Da geht in 1080p sogar recht viel wenn man die Einstellungen sinnvoll bemüht. Emulation bis einschl. RPCS3 ist ebenfalls drin (RPCS3 ist eher die CPU wichtig).

Sollen die 75W TDP für die 1630 eigentlich gesetzt sein?! Das kann ich mir irgendwie nicht ganz vorstellen, außer man möchte die Karte durchgehend im Boost rennen lassen.

Ghost1nTh3GPU
2022-05-19, 14:39:16
Die 6400 hat doch kein Videoblock mher wenn die 1630 dort unbeschnitten ist wäre sie die Alternative für HTPC.

Encoder und AV1-Decoder fehlen Navi24, der TU117 kann auch kein AV1 decoder.

Bis auf den Raytracing-Bonus werden die Karten sich nicht viel nehmen.

DrFreaK666
2022-05-19, 17:38:59
Mit der 6400 kann man es allerdings als "Gamer-PC" verkaufen. Viel langsamer als meine 5500XT ist sie auch nicht (wenn der Unterbau nicht ausbremst (ok, sie hat weniger Speicher))

dildo4u
2022-05-20, 05:43:19
Encoder und AV1-Decoder fehlen Navi24, der TU117 kann auch kein AV1 decoder.

Bis auf den Raytracing-Bonus werden die Karten sich nicht viel nehmen.
Du kannst keine billige GPUs mit AV1 kaufen auch gibt es keine APU für den Desktop die das können.
Intel sollte das alles längst am Markt haben kann aber nicht liefern bzw die Treiber sind noch nicht bereit.

Linmoum
2022-06-12, 14:48:28
NVIDIA was planning to launch its GTX 1630 graphics card next week, but just a few days ago the company updated its embargo timeline for this model. According to our sources, NVIDIA has sent a letter to board partners with a new embargo date listed as ‘to be determined’. Internally it is explained as problems with securing the necessary components (not GPUs).https://videocardz.com/newz/nvidia-geforce-gtx-1630-delayed-rtx-40-series-launch-slips-by-a-month

Die 1630 ist erst einmal auf unbestimmte Zeit verschoben. Frage ich mich ja schon, an was genau es mangelt, dass der Launch derartig verzögert wird.

robbitop
2022-06-12, 14:54:41
Wer braucht diese SKU überhaupt? Bald ist Turing 2x Gens alt und dann auch noch unterste Kategorie.

Linmoum
2022-06-12, 15:01:41
Und was hat NV aktuelles unterhalb der 3050? Oder wie lange wird das bei Ada dauern bzw. wird es da überhaupt nach unten hin was geben bei den Kosten, die N5/N4 haben wird?

Brauchen tun das Leute, die im <200€/$, eigentlich eher sogar >150€/$ Segment ihre GPUs kaufen. Der Markt ist nicht klein.

robbitop
2022-06-12, 15:10:37
AMD hat mit der 6400 und 6500 deutlich bessere Produkte in der Kategorie. Aber ja bei NV fehlt definitiv ein Orodukt unter der ziemlich riesigen 3050 (chipfläche).

prinz_valium_2
2022-06-12, 15:40:12
Wer braucht diese SKU überhaupt? Bald ist Turing 2x Gens alt und dann auch noch unterste Kategorie.

Aber bis Ada in der klasse angekommen ist, dauert es doch auch noch mindestens ein Jahr. Aus der Sicher ergibt es schon Sinn. Wobei ich da aus Konsumentensicht immer eine gebrauchte alte Karte aus einer höheren Leistungsklasse empfehlen würde.

Auf jeden Fall scheint ADA ja auch so spät zu kommen, dass RDNA3 nicht mehr weit weg ist.

robbitop
2022-06-12, 15:44:41
Naja aber Turing ist dennoch dieses Jahr 4 Jahre alt. Selbst wenn Ada noch nicht ganz da ist. Alter Scheiss. Dann doch lieber jetzt eine kleine moderne Ampere GPU auflegen.

Radeonfreak
2022-06-12, 20:58:29
Nuja, meine OC 2080 Ti ist immer noch gut vorne mit dabei.

Slipknot79
2022-06-13, 00:47:50
Nuja, meine OC 2080 Ti ist immer noch gut vorne mit dabei.

+1
E high 5.

Bin aber schon auf Ada gespannt (y), wird ein dicker Performceboost. +100% und mehr, da lohnt sich ein Umstieg statt den sonst üblichen langweiligen +50% von einer Gen zur nächsten. (40 vs 60fps gähn)

Hott3X
2022-06-13, 07:03:06
Sitze hier auch noch auf meiner 2070s und will eigentlich auch auf Ada gehen. Nur wenn die Verbrauchswerte stimmen sehe ich irgendwie schwarz. Eigentlich will ich wieder in dem Bereich von max. 200Watt. Bei den Prognosen wird selbst eine 4060 das nicht schaffen. Wird auf jeden Fall spannend.

dildo4u
2022-06-13, 07:14:43
50% bessere Performance per Watt sollte Nvidia schon schaffen also 3080 Performance für 220 Watt oder so.300 Erwarte ich für die 4070.

Thunder99
2022-06-13, 08:30:21
Potential ist da.
Eine 2070S ist aber dank DLSS immer noch gut :)

Slipknot79
2022-06-13, 09:11:50
Sitze hier auch noch auf meiner 2070s und will eigentlich auch auf Ada gehen. Nur wenn die Verbrauchswerte stimmen sehe ich irgendwie schwarz. Eigentlich will ich wieder in dem Bereich von max. 200Watt. Bei den Prognosen wird selbst eine 4060 das nicht schaffen. Wird auf jeden Fall spannend.

Notfalls canst du undervolten. (y)

Dampf
2022-06-13, 09:42:48
Naja aber Turing ist dennoch dieses Jahr 4 Jahre alt. Selbst wenn Ada noch nicht ganz da ist. Alter Scheiss. Dann doch lieber jetzt eine kleine moderne Ampere GPU auflegen.

Von der Architektur her hat sich allerdings kaum was getan. Von daher kann man Turing ruhig länger behalten, vor allem weil die RT Beschleunigung besser ist als die von den Konsolen.

Wenn die Konsolen in einem Next Gen Game von 1080p auf 4K upscalen und 30 FPS liefern, sollte die 2070S mit DLSS auf Konsolen-Settings und in 1440p 60 FPS locker schaffen. Sie wird daher für 1440p gaming noch lange gut geeignet sein.

Linmoum
2022-06-28, 16:35:24
https://www.techpowerup.com/review/gainward-geforce-gtx-1630-ghost/31.html

Ich hoffe mal nicht, dass die spekulierten $150 von TPU zutreffend sind. Wenn man jetzt die Realität sieht, ist das tatsächlich mal eine Karte, die wirklich niemand braucht. Dagegen wirkt die 6400 wie ein Porsche.

Vielleicht für $80, wenn überhaupt.

prinz_valium_2
2022-06-28, 18:42:18
https://www.techpowerup.com/review/gainward-geforce-gtx-1630-ghost/31.html

Ich hoffe mal nicht, dass die spekulierten $150 von TPU zutreffend sind. Wenn man jetzt die Realität sieht, ist das tatsächlich mal eine Karte, die wirklich niemand braucht. Dagegen wirkt die 6400 wie ein Porsche.

Vielleicht für $80, wenn überhaupt.

Ist doch nette Ressourcen Verschwendung.
Einfach eine gebrauchte 1060 kaufen. Die kosten auch nicht mehr als 150€

https://pbs.twimg.com/media/FWWe7OxVUAE2MkP?format=png

Loeschzwerg
2022-06-28, 18:48:06
OC Modelle... Ganz wichtig bei so einer Art von Leistungsklasse :freak: Und natürlich dürfen die fetten Duallüfter nicht fehlen, sowie die "Metal Backplate" (fuuuu yeah!).

dargo
2022-06-28, 19:05:15
Bauernfängerei. :D

bbott
2022-06-28, 20:59:22
Bauernfängerei. :D
Das ist aber noch ganz schön tief gestapelt.

Gott1337
2022-06-28, 21:02:26
https://www.techpowerup.com/review/gainward-geforce-gtx-1630-ghost/31.html

Ich hoffe mal nicht, dass die spekulierten $150 von TPU zutreffend sind. Wenn man jetzt die Realität sieht, ist das tatsächlich mal eine Karte, die wirklich niemand braucht. Dagegen wirkt die 6400 wie ein Porsche.

Vielleicht für $80, wenn überhaupt.
in Spielen nehmen die sich aber kaum was https://www.youtube.com/watch?v=VCXMq2pFkLI bis auf Ausnahmen, Taktbereinigt wäre sogar die 1650 schneller xD. Beides GPUs brauch die Welt halt nicht, sind aber Vergleichbar und mit Nvidias besserem Speichermanagement... naja das ist da auch egal lol.
Dafür schluckt die Nvidia mehr. Turing in 12nm vs rdna2 in 6nm und es kommt fast das gleiche raus oO wenn die 1650 genauso viele Transistoren hätte wäre sie vllt sogar fixer xD

dargo
2022-06-29, 07:04:01
in Spielen nehmen die sich aber kaum was https://www.youtube.com/watch?v=VCXMq2pFkLI bis auf Ausnahmen, Taktbereinigt wäre sogar die 1650 schneller xD.
Was hat jetzt die GTX 1650 mit dem Thema zu tun? Es ging um die GTX 1630.

Pumpi74
2022-06-29, 09:59:34
Wer dieses Jahr noch ne Graka sucht mit der man bedingt 1440p zocken kann und die auch in ein paar Jahren noch zu gebrauchen ist dank reichlich Spicher der sollte dieses Angebot ernsthaft in Betracht ziehen :

https://www.notebooksbilliger.de/gigabyte+geforce+rtx+2060+d6+12g+grafikkarte+751811?nbbct=4001_geizhals

309€ !

Die GIGABYTE GeForce RTX 2060 D6 12G verfügt auch über das 0db Feature. Was bei den wenigsten 2060 12GB der Fall ist.

Wer an eine bezahlbare 4070 mit 10GB dieses Jahr glaubt wird sicherlich herb enttäuscht. Wenn die Effiziens deutlich besser ist als bei den Vorgängern dann werden die Teile auch wieder sehr begehrt bei den Minern sein. 1000€ Kurs für Ethereum reicht da immer noch aus.

Platos
2022-06-29, 10:45:26
Soll das ein Witz sein? :D Denn ein gutes Angebot ist das sicherlich nicht. Schau dir nochmal an, was eine 3060 kosten sollte ;)

Hoffentlich nur als Scherz gemeint.

P.s Nicht kaufen, viel zu teuer!

Pumpi74
2022-06-29, 10:54:43
Neu ist das Intel sein Versagen nun definitiv bewiesen hat mit seiner neuesten Graka. Von da wird so schnell kein Dealbreaker kommen. Und wer glaubt denn das AMD und nVidia demnächst viel LowBudget Zeugs raus hauen bei den begrenzten Kapazitäten ?

Lieber den Spatz jetzt in der Hand als in 3 Jahren erst die Taube zu feiern...

No Spass

aceCrasher
2022-06-29, 10:55:53
Wer dieses Jahr noch ne Graka sucht mit der man bedingt 1440p zocken kann und die auch in ein paar Jahren noch zu gebrauchen ist dank reichlich Spicher der sollte dieses Angebot ernsthaft in Betracht ziehen :

https://www.notebooksbilliger.de/gigabyte+geforce+rtx+2060+d6+12g+grafikkarte+751811?nbbct=4001_geizhals

309€ !

Die GIGABYTE GeForce RTX 2060 D6 12G verfügt auch über das 0db Feature. Was bei den wenigsten 2060 12GB der Fall ist.


Oder man kauft sich für weniger Geld eine sehr viel schnellere 6600.

Pumpi74
2022-06-29, 11:06:08
Man darf halt nicht vergessen das Speicher OC bei der 2060-12GB richtig rein haut, weil sie halt über Transferrate deutlich beschnitten wurde. Nicht über die Recheneinheiten. Lass die 6600 am Ende 10% schneller sein. Hat trotzdem nur 8GB Speicher und kostet keine 20€ weniger.

prinz_valium_2
2022-06-29, 15:51:07
$169 ist wohl der MSRP

Pumpi74
2022-06-29, 15:54:20
Plus Mehrwertsteuer, Plus Megainflation auf allem was von TSMC kommt ist gleich 300€.

Ex3cut3r
2022-06-29, 16:09:59
Diese Wucher Preisen bei frisch rls. Karten, zeigt mir eigentlich nur, dass auch die neue Top Gen, auch nicht grade billig wird. Ich glaube kaum, dass es eine 4080 für 719€ UVP geben wird. :biggrin:

Da müssen auch mal einige aufwachen, die immer noch drauf hoffen. ;D

Slipknot79
2022-06-29, 16:20:34
Das Hobby ist auch einfach zu horny, so dass auch +719EUR kein Problem sein werden. (y)
Die Shice wird kaum verfügbar sein. (y)

dildo4u
2023-12-14, 11:09:46
GTX auf Turing Basis geht EOL.


https://videocardz.com/newz/the-end-of-gtx-era-nvidia-geforce-gtx-16-series-to-be-discontinued-in-q1-2024

3050 6 GB scheint dann das kleinste Modell zu sein.

Raff
2023-12-14, 11:35:48
Okay, sieht man die RTX 3050 6GB als Nachfolger für GTX 16, ist das natürlich ein Fortschritt - der Name ist trotzdem irreführend und das Modell eine Technikbremse.

MfG
Raff