Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
Dural
2019-03-08, 11:28:36
Ich amüsiere mich wegen den ganzen AMD Boys die seit Monaten behaupten das die Karten keiner mehr kaufen will weil sie zu wenig Speicher haben und Turing so wie so ein Flop sei :freak: :freak: :freak:
Es war so OFFENSICHTLICH wenn man die AMD Preise anschaute.
Und ehrlich gesagt ist mir der Markt so was von egal, ich habe keine Aktien von AMD oder NV.
woodsdog
2019-03-08, 11:30:33
… und zeigt auch ganz deutlich was man mit einer 6GB in Zukunft alles noch machen kann.
Ich finde die Diskussion um den Speicher nur noch amüsant, vor allem wenn man sich überlegt das einen sehr grossen Teil nach wie vor zu den 6-8GB Karten greifen würden weil der Aufpreis für 12-16GB Karten (Würde es diese von NV geben) einfach zu gross wäre.
Die Vergangenheit hat dies immer ganz deutlich gezeigt.
EDIT:
Turing verkauft sich ja sooooooo schlecht ;D;D;D;D;D
Es zeigt sich mal wieder das einfach der Markt Aktuell einfach nicht gut ist, man hat die Lager mit Karten geflutet... NV Verdient wenigstens noch was, AMD muss wohl schon nahe an den Herstellungskosten verkaufen um das zeug nicht gleich Entsorgen zu müssen!
https://www.computerbase.de/2019-03/grafikkarten-absatz-marktanteil-q4-2018-jon-peddie/
Du trollst hier mal wieder in Grün rum... was sollen den AMD Käufer auch kaufen? Es gibt praktisch kein Upgrade abgesehen von der VII in Q1/2019. Jeder der eine 580/Vega wollte, hat längst eine oder besorgt sich auf dem Gebrauchtmarkt eine Karte.
Was der Markt in % gemacht hat sagt genau NULL über den Verkaufserfolg von Turing aus. wenn AMD 100 Karten Verkauft hat und NV 150 ist das dann ein Erfolg wenn die Lager brechend voll sind?
Der Grund für den Preisverfall von 20xx Karten ist sicher in dem großen Verkaufserfolg geschuldet. :freak:
Dural
2019-03-08, 11:33:20
Ich frage mich WER hier ständig und seit Monaten rum Trollt.
Ich hatte einfach mal wieder recht, und es war mehr als offensichtlich das der Markt komplett zusammen gebrochen ist.
Rancor
2019-03-08, 11:39:51
Es geht hier im Forum sowieso nur darum wer Recht hat :D Falls euch das noch nicht aufgefallen ist. Da aber jeder meint er hätte Recht gehabt, kommt da immer nur son Müll bei raus.
woodsdog
2019-03-08, 11:41:24
Ich frage mich WER hier ständig und seit Monaten rum Trollt.
Ich hatte einfach mal wieder recht, und es war mehr als offensichtlich das der Markt komplett zusammen gebrochen ist.
Das du das nicht siehst ist offenkundig. :rolleyes:
Anbei sehen wir den Preisverlauf eines Produkts, welches konkurrenzlos im Markt steht und sich glänzend verkauft.
Troll woanders.
Es ist mir ein Rätsel, wie man sich über einen derart kaputten Markt auch noch amüsieren kann. Das lässt sich fast nur mit Nvidia-Aktien oder einer Anstellung dort erklären.
MfG,
Raff
Das einzige, was diesem Markt helfen würde, ist Konkurrenz. Leider war die Käuferschicht bisher aber derart Markengeil, dass selbst das nicht viel hilft, das hat man in der Vergangenheit oft gesehen. Selbst Produkte wie die 9700 Pro und 5870, die ja nun wirklich dick im Vorteil waren damals, konnten da nichts dran ändern.
Mit Turing und seinem mittlerweile echt beschissenen Ruf könnte da evtl. endlich nachhaltig was daran ändern, leider aber hat AMD derzeit andere Prioritäten.
Die Käufer sind eben doch mittlerweile nicht mehr soo blöd und lassen die Speicherkrüppel offenbar doch da wo sie hingehören - es gibt noch Hoffnung.
w0mbat
2019-03-08, 14:20:31
@HOT: Welche mini-ITX Karte würdest du denn aktuell kaufen, die auch deutlich schneller als eine R9 290 ist? Da bleibt mMn nur der Speicherkrüppel GTX 1660 Ti übrig. Klar hätte ich gerne eine Navi GPU mit ähnlicher Leistung und 8GB, aber die gibt es nicht.
Das stimmt. Derzeit gehts eben nicht ohne Kompromisse.
Man darf das nicht missverstehen, die besten Karten auf dem Markt derzeit sind natürlich die 2070er. Das stimmt das Preis/Leistungsverhältnis und auch die Speichermenge und die AMDs sind dagegen natürlich nicht konkurrenzfähig, es sei denn man bekommt ne ordentliche Vega64 für ordentlich unter 400€. Das steht überhaupt nicht in Zweifel bei dieser Diskussion. Es geht allein um die 2060, 2080 und auch die 2080ti als UHD-Karte und es geht hier wirklich eigentlich nur um die Speichermenge.
Was auch missverständlich ist, ist, dass die VII keine Karte ist, die man hier einsortieren darf. Das ist ein völlig uninteressantes "Not-"Produkt, was unter fast keinen Umständen empfehlenswert ist, weil das Ding nur als sehr bescheidenes Referenzdesign kommt. Das Produkt hat ausschließlich einen Vorteil, das ist die Speichermenge. Aber es bleibt ein zweckentfremdeter GPGPU-Beschleuniger.
Das ist auch genau das, was man unter kaputtem Markt versteht. AMD ist nicht präsent, NV kann schalten und walten wie sie wollen, verkacken ne ganze Generation (12nm war einfach ne blöde Idee und die Speichermengen waren noch dämlicher), wälzen das auf die Hersteller ab, die z.T. Bauteile nicht bekommen, die aber nötig sind, siehe den THG-Bericht und nicht nur deshalb auf dem Zahnfleisch kriechen. Und dann gibts Leute wie Dural offensichtlich, die trotzdem alles verteigen müssen, wo die richtige Marke draufsteht. Das hier ist eine perfekte Repräsentation, was im Consumer-GPU-Markt falsch läuft.
Da kanns nur eine Empfehlung geben: Wenn es nichts interessantes gibt, nichts kaufen. Wenn das jetzt nicht drückt mit dem ITX-System, lässt man es einfach, bis es was passendes gibt.
aufkrawall
2019-03-08, 14:23:14
Merkt man als normaler Kunde aber nicht, da kein direkter Vergleich da ist.
Wenn man Ruckler nicht merkt, braucht man auch keinen Spiele-PC mit Oberklasse-Karte (die die 970 damals war). Schon Dying Light hat Anfang 2015 in WQHD Spikes gezeigt, die es mit der 980 nicht gab.
Du kannst dir ja deine Behums-Karte gerne schön reden, es hat aber nicht jeder deine Ansprüche oder spielt nur UE4 VR-Zeugs mit Grafik aus den 90ern.
Timbaloo
2019-03-08, 14:32:08
Trotzdem treten die angeblichen so großen Probleme mit der 970 wie es damals prognositizert wurde lange nicht in dem Maße auf. In spielbaren Settings wohlgemerkt. Eine 970 wäre mir für 1440p immer schon viel zu schwach gewesen. O.K. wer immer nur AAA-Konsolenports mit ZOMG-Ultra-Settings in ohnehin unspielbaren FPS zockt und dessen einziges Kriterium FPS-Varianz ist, der mag damit tatsächlich reale Probleme haben, komischerweise kenne ich keinen 970-Nutzer der klagt. Aber wahrscheinlich sind die halt alle nur unfähig es zu erkennen oder wollen sich ihre (4 Jahre alte ;D) Investition schönreden. Ist klar. :rolleyes:
Blediator16
2019-03-08, 15:01:59
Wenn man nur E Sport Titel spielt, dann hat man mit Sicherheit keine Probleme. Ich hatte bereits mit meiner 1060 OC Strix Probleme in einigen Singleplayer Titeln. :rolleyes:
rentex
2019-03-08, 15:12:46
Weil dein Argument schon bei dem Punkt "sehen gleich gut aus" hinkt. Das ist erstmal völlig subjektiv.
Nope. In dem Punkt braucht niemand das Versagen vieler Programmierer und Publisher zu entschuldigen. Es wird oft zu schnell und zu schmlampig released. Das ist Tatsache.
aufkrawall
2019-03-08, 15:22:34
(4 Jahre alte ;D)
Man kann sich an vieles gewöhnen, wenn man nicht so hohe Ansprüche hat.
Abgesehen davon wird die Karte halt kaum noch getestet, und auf die Schwäche hin ohenhin kaum.
Fragman
2019-03-08, 15:52:04
Man könnte hier Glauben, die 8GB Ram der 2080 oder die 6GB der 2060 sind der Untergang der Spielekultur und/oder der Ende des freien Willens des Konsumenten. Dabei weiss jeder, worauf er sich ein lässt.
Timbaloo
2019-03-08, 15:52:06
Bei mir läuft immer das Afterburner OSD mit...
Wenn man Ruckler nicht merkt, braucht man auch keinen Spiele-PC mit Oberklasse-Karte (die die 970 damals war). Schon Dying Light hat Anfang 2015 in WQHD Spikes gezeigt, die es mit der 980 nicht gab.
Du kannst dir ja deine Behums-Karte gerne schön reden, es hat aber nicht jeder deine Ansprüche oder spielt nur UE4 VR-Zeugs mit Grafik aus den 90ern.
Niemand braucht einen PC mit Oberklasse Karte. Das ist ein Luxus, den ich mir bei Neuanschaffungen gönne, weil ich es kann und will, und nicht weil ein Masterraceler ihn mir zugesteht. ;)
w0mbat
2019-03-09, 12:06:04
https://www.computerbase.de/2019-03/nvidia-gtx-1660-spezifikationen-partnerkarten/
GTX 1660 angeblich mit 1408 SM aber nur GDDR5 anstatt GDDR6.
dargo
2019-03-09, 12:29:55
GDDR5 passt hier ganz gut, dadurch kann NV bei 6GB bleiben. Billiger und man vergrößert den Abstand bei der Performance zur TI etwas. Von der Rohleistung her ist die non TI nur 7-8% langsamer. Wird dann wohl auf ca. -12% hinauslaufen.
w0mbat
2019-03-09, 12:55:22
Wenn der GDDR5 sich gut OCen lässt vielleicht eine gute Karte.
AffenJack
2019-03-09, 13:31:02
In ihrem Preisbereich sollte es ne gute Karte werden. Schätze knapp über der 590 und AMD wird sich gezwungen sehen, die noch etwas im Preis zu senken. Allerdings lohnt die 590 ja eh nicht und die 580 wird auch nach der 1660 wohl die Karte der Wahl sein vom P/L.
Freyberger
2019-03-09, 15:41:05
... gute Karte ...
Mit 6GB ists nicht mal für 1080p ne gute Karte. V-Ram-Krüppel bleibt V-Ram-Krüppel.
Unter 200€ vielleicht sinnvoll über das P/L.
w0mbat
2019-03-09, 15:46:18
Jetzt hör doch mal auf. Ja, es gibt schon ein paar Spiele die mit 6GB @1080p max Probleme mit den frametimes bekommen. Aber darunter fallen BFV mit RTX, was auf einer 1660 (Ti) nicht möglich ist, ein extem unoptimiertes CoD (ich erinner daran, dass CoD schon die 11GB einer 1080 Ti zum Überlaufen brachte), ein Final Fantasy Japan PC-Port und angeblich das neue Division 2.
Also eigentlich nur Division 2. Klar, 8GB wären besser und auch angebracht, aber das ist ein Kompromiss den man eingehen muss. Dafür hat man die absolut beste Effizienz.
dildo4u
2019-03-09, 15:55:18
Division 2 braucht nicht zwingend 8GB,der DX12 Pfad ist dort Buggy es laufen nach einer Weile auch 8GB Karten voll wenn man lange genug zockt.Natürlich kann es sein das die Final besser läuft.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11943253&postcount=2767
DX11 läuft ohne Probs.
ji4oWrlI4O8
w0mbat
2019-03-09, 19:02:15
OK, also aktuell quasi kein Spiel.
Freyberger
2019-03-09, 19:15:37
Selbst alte Spiele wie Deus Ex: MD sind betroffen.
Oder die Auswirkungen in Spielen wie Wolstenstein 2.
Oder Spiele die man ordentlich modden kann. Bis hin zum uralten Skyrim.
Mit dem man auch damals sehr gut Nvidias Speicherbetrug bei der GTX 970 nachweissen konnte.
Die Art und Weise der Realitätsverweigerung mancher hier erinnert mittlerweile an Einsteins "Spruch" über das Universum.
aufkrawall
2019-03-09, 19:39:28
Bis hin zum uralten Skyrim.
Kann man mit Skyrim SE übrigens noch viel besser, weil das nicht durch jeden Furz-Mod crasht. ;)
crux2005
2019-03-09, 20:29:29
Selbst alte Spiele wie Deus Ex: MD sind betroffen.
Oder die Auswirkungen in Spielen wie Wolstenstein 2.
Deus Ex: MD belegt in 1440p und Maximalen Details keine 6 GB. Wolfenstein 2 auch erst mit Mein Leben Texturen. Wird reden trotzdem noch von 1080p. :frown:
Also troll woanders.
mczak
2019-03-10, 02:36:18
Die 1660 dürfte ganz anständig sein, sollte jedenfalls genug schnell sein um auch die RX 590 knapp zu schlagen. Auch gegenüber der 1060 betrachtet ist klar dass die Karte schneller wird - hat ja 10% mehr Shadereinheiten (bei ähnlichem Takt), und die sind auch noch etwas leistungsfähiger (manchmal auch sehr deutlich leistungsfähiger, je nach Shader-Code).
Bei der Energieeffizienz dürfte die nicht ganz an die sehr gute 1660Ti rankommen, ich vermute mal die verbraucht so ziemlich das Gleiche ist dabei aber langsamer (würde mich nicht überraschen wenn die am Ende ziemlich genau zwischen der 1060 und der 1660Ti liegt). Aber natürlich ist die Karte bezüglich Energieeffizienz immer noch massiv besser als die RX 590.
Die RX 590 kann als quasi einziges Argument wohl bloss die 8GB Speicher entegegensetzen...
Freyberger
2019-03-10, 03:10:56
Deus Ex: MD belegt in 1440p und Maximalen Details keine 6 GB.
Also ich komm in 1080p mit Ultra Texturen mit ner GTX 1070 auf bis zu 7,4GB.
Und dann gibts ja noch unabhängige Tests die ganz klar bestätigen das 6GB für DE: MD zu wenig sind.
https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/3/#diagramm-deus-ex-mankind-divided-texturen-ultra-geforce-gtx-1060
6GB in der Preisklasse über 200€ sind reiner Dummenfang
crux2005
2019-03-10, 04:53:59
Also ich komm in 1080p mit Ultra Texturen mit ner GTX 1070 auf bis zu 7,4GB.
Und dann gibts ja noch unabhängige Tests die ganz klar bestätigen das 6GB für DE: MD zu wenig sind.
https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/3/#diagramm-deus-ex-mankind-divided-texturen-ultra-geforce-gtx-1060
6GB in der Preisklasse über 200€ sind reiner Dummenfang
Sicher. ;D
Save-Game geladen, in Prag rum gerant - max. 5,6 GB VRAM mit Ultra Texturen @ 1440p.
https://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/new/de_vram.png
https://gamegpu.com/action-/-fps-/-tps/deus-ex-mankind-divided-test-gpu
In Ultra, memory use goes up to 5.5 GB at 4K, which is not a lot considering that high-end cards today have 8 GB VRAM.
https://www.techpowerup.com/reviews/Performance_Analysis/Deus_Ex_Mankind_Divided/5.html
Leonidas
2019-03-10, 06:56:59
Turing verkauft sich ja sooooooo schlecht ;D;D;D;D;D
nVidia hat hier in einem Quartal (relativ) gewonnen, wo der Gesamtmarkt um -10,7% zurückging. Grob überschlagen dürfte nVidia da auch etwas dran verloren haben. Gegenüber früheren Launches, die in einer deutlichen Marktbelebung resultiert haben, ist dies kein Vergleich.
dildo4u
2019-03-10, 07:54:36
EDIT:
Turing verkauft sich ja sooooooo schlecht ;D;D;D;D;D
Es zeigt sich mal wieder das einfach der Markt Aktuell nicht gut ist, man hat die Lager mit Karten geflutet... NV verdient wenigstens noch was, AMD muss wohl schon nahe an den Herstellungskosten verkaufen um das zeug nicht gleich Entsorgen zu müssen!
https://www.computerbase.de/2019-03/grafikkarten-absatz-marktanteil-q4-2018-jon-peddie/
Manche Modelle gehen langsam ich glaube nicht das es die GTX 1080 paar Monate nach Launch mit 3 AAA Games gab.
https://www.nvidia.com/de-de/geforce/campaigns/rtx-triple-threat-bundle/?nvid=nv-int-tl-76057#cid=Internal_GEFORCE_DE_Triple_Threat_Bundle_GFHOME
Ein Game scheint normal gewesen zu sein.
https://www.geforce.com/whats-new/articles/gears-of-war-4-nvidia-geforce-gtx-bundle
https://www.geforce.com/whats-new/articles/watch-dogs-2-nvidia-geforce-gtx-bundle
Fragman
2019-03-10, 10:42:53
A
6GB in der Preisklasse über 200€ sind reiner Dummenfang
Letztlich entscheidet der Kunde, wofür er sein Geld aus gibt.
Bin nicht sicher, ob man alle als dumm bezeichnen kann und sollte. ;)
Hakim
2019-03-10, 12:28:12
Wenn man nach Spiel start im Menü alle Schieber nach rechts schieben will sollte sich sowieso keine 1660ti kaufen. Die 1660ti mit 6gb ist absolut in Ordnung für eine 1080p Karte. Bei der 2060 kann man streiten weil eben RTX zusätzlich vram schluckt
dargo
2019-03-10, 12:41:02
Division 2 braucht nicht zwingend 8GB,der DX12 Pfad ist dort Buggy es laufen nach einer Weile auch 8GB Karten voll wenn man lange genug zockt.
Der DX12 Renderer ist nicht buggy! Höchstens auf Geforce oder ganz speziell Pascal. Warum wird das immer verallgemeinert? Auf Radeon ist da gar nichts buggy. Ich kann natürlich nur für Vega 10 sprechen.
Die 1660 dürfte ganz anständig sein, sollte jedenfalls genug schnell sein um auch die RX 590 knapp zu schlagen. Auch gegenüber der 1060 betrachtet ist klar dass die Karte schneller wird - hat ja 10% mehr Shadereinheiten (bei ähnlichem Takt), und die sind auch noch etwas leistungsfähiger (manchmal auch sehr deutlich leistungsfähiger, je nach Shader-Code).
Davon würde ich nicht ausgehen. Eine 1660TI kann sich in Wolf 2 bsw. nicht besser von der 1070 absetzen. Vermutlich bricht ihr der stark kastrierte Cache in der Beziehung das Genick.
Bei der Energieeffizienz dürfte die nicht ganz an die sehr gute 1660Ti rankommen, ich vermute mal die verbraucht so ziemlich das Gleiche ist dabei aber langsamer (würde mich nicht überraschen wenn die am Ende ziemlich genau zwischen der 1060 und der 1660Ti liegt).
Ich würde doch auf ca. 10W weniger gegenüber der 1660TI tippen. Es sei denn der GDDR5 verbraucht etwas mehr als der GDDR6. Dann könnte sich das aufwiegen.
dargo
2019-03-10, 12:46:43
doppelpost
gravitationsfeld
2019-03-10, 16:57:37
Stimmt doch gar nicht, die 1660 Ti ist gut 20% schneller in Wolf 2 als die 1070
https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/8
Monsta
2019-03-10, 18:37:27
Hier sind es nur 10%, und die 99th sind mal richtig mau.
https://www.tomshardware.com/reviews/nvidia-geforce-gtx-1660-ti-turing,6002-3.html
liegt evtl am Ram, die 2060 ist auch kacke, und die hat ja auch die tollen 6Gb Ram :)
Leonidas
2019-03-11, 03:52:54
PCGH hatte zuletzt ganz krasse Zahlen zu Wolf II, wo 1660Ti und 2060 ganz dick gegenüber der 1070 schon unter FullHD verloren:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/GTX-1660-Ti-Test-1275780/3/
Ist aber so krass, das man es kaum werten kann (sprich: Ausnahme).
y33H@
2019-03-11, 07:16:47
Mein Leben plus Extrem Streaming offenbar, das ist freilich Quatsch.
dildo4u
2019-03-11, 07:43:41
PCGH hatte zuletzt ganz krasse Zahlen zu Wolf II, wo 1660Ti und 2060 ganz dick gegenüber der 1070 schon unter FullHD verloren:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/GTX-1660-Ti-Test-1275780/3/
Ist aber so krass, das man es kaum werten kann (sprich: Ausnahme).
Die Werte sind natürlich Unsinn wenn die 980 Ti mit 6GB so viel besser läuft.
In 1080p sollte 1660 Ti bei über 100fps liegen.
https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/8
dargo
2019-03-11, 15:11:04
Stimmt doch gar nicht, die 1660 Ti ist gut 20% schneller in Wolf 2 als die 1070
https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/8
Bei CB ist die 1660TI gleich schnell wie 1070FE.
https://www.computerbase.de/2019-02/geforce-gtx-1660-ti-test/3/#diagramm-wolfenstein-2-2560-1440
Womöglich doch stark von der Szene abhängig.
dildo4u
2019-03-11, 15:46:08
Wobei dort Vega 56 extrem schlecht aussieht was die den Frametimes angeht,und die hat genug Vram.Das Game ist sowas in inkonsistent ich erwarte das Besserungen mit Doom Eternal.
aufkrawall
2019-03-11, 16:26:27
Bei Anandtech ist die 1160 in WQHD bei 1% low fps nur minimal schneller als die 1070 bzw. als bei CB.
dargo
2019-03-11, 16:39:47
Da könnte wiederum in der Testszene der Speicher limitieren, ohne Streaming @max.
gravitationsfeld
2019-03-11, 17:33:16
Hier sind es nur 10%, und die 99th sind mal richtig mau.
https://www.tomshardware.com/reviews/nvidia-geforce-gtx-1660-ti-turing,6002-3.html
liegt evtl am Ram, die 2060 ist auch kacke, und die hat ja auch die tollen 6Gb Ram :)
Sorry, aber ich vertrau Anandtech mehr als Tom's Hardware. Es sind 20%. Das entspricht auch dem was ich gemessen habe.
Bei CB ist die 1660TI gleich schnell wie 1070FE.
https://www.computerbase.de/2019-02/geforce-gtx-1660-ti-test/3/#diagramm-wolfenstein-2-2560-1440
Womöglich doch stark von der Szene abhängig.
Wolf 2 benutzt die Engine komisch. Viel Geometrie, aber wenig Lichter und Decals. Geometrie geht nicht auf ALU.
crux2005
2019-03-11, 20:27:33
Wäre nicht das erste mal das CB ein "Fehler" beim Benchen unterlaufen ist.
dildo4u
2019-03-14, 14:08:16
0mPVgHSiiLA
Artikel auf der Website:
https://www.techspot.com/review/1811-nvidia-geforce-gtx-1060/
Best Value @ 220 Dollar? Okay, dann gibt's bei den Kollegen wohl keine AMD-Karten zu kaufen.
MfG,
Raff
w0mbat
2019-03-14, 14:22:32
AMD Karten sind in den USA und in Australien tatsächlich im Vergleich etwas teurer. Unsere 270€ V56er gibts dort zB auch nicht.
dildo4u
2019-03-14, 14:28:16
Bei der Karte kommt es extrem drauf an was man zockt Apex und Tomb Raider rennt außerordentlich gut ca 1070 Level laut Techspot andere Games wie BF5 nur 580 Level.
][immy
2019-03-14, 14:29:10
https://youtu.be/0mPVgHSiiLA
Artikel auf der Website:
https://www.techspot.com/review/1811-nvidia-geforce-gtx-1060/
nicht schlecht. Nur muss man wohl sagen, das die RX580 eigentlich kaum mehr für >200€ angeboten wird, eher darunter und die 1660 vermutlich dann bei >220€ landen wird.
Wird wohl noch ne Weile dauern bis sich die Preise bei der 1660 einpendeln.
Aber sieht wohl so aus, als wenn AMD die Preise erneut purzeln lassen muss um konkurrenzfähig zu sein.
Bei der Karte kommt es extrem drauf an was man zockt Apex und Tomb Raider rennt außerordentlich gut ca 1070 Level laut Techspot andere Games wie BF5 nur 580 Level.
zumal da nur BFV in DX11 gemessen wurde wodurch die RX580 dort ein wenig schlechter dasteht. Allerdings muss man ja auch sagen, das der DX12 Modus von BFV wohl noch etwas verbuggt ist.
Timbaloo
2019-03-14, 14:30:09
Aber aber Speicherküppel.
][immy
2019-03-14, 14:33:30
Aber aber Speicherküppel.
Wir bewegen uns eh darauf zu, das die Rechenleistung nur noch für 1080p ausreicht (z.B. bei den RX580er). Daher sind die 6gb auf Dauer wohl weniger das Problem. Aber ja, jetzt noch eine Karte mit weniger als 8GB zu kaufen hat nen faden Beigeschmack, aber letztlich werden die 2GB dann nicht so viel ausmachen. Vorher geht ihnen woanders die Puste aus.
Die Auflösung ist kein Argument. Texturen/Maps und Beleuchtung brauchen Speicher, unabhängig von den Bildpuffern. Wenn wir also ewig bei der aktuellen Qualität bleiben wollen, sind 6 GiB prima. Wenn wir aber Fortschritt haben wollen, wie das in der IT-Branche üblich ist, sollte das Kleinreden der Spar-/Verkrüppelei mal aufhören. 6 GiByte sind sooo 2016. Oder eigentlich schon 2012 (HD 7970 6GB ;)). Wirkt das jetzt alt und wenig? Ist es auch! Spätestens mit der nächsten Konsolengeneration stirbt alles, was jetzt auf Kante genäht ist.
MfG,
Raff
dargo
2019-03-14, 14:51:58
[immy;11949252']Allerdings muss man ja auch sagen, das der DX12 Modus von BFV wohl noch etwas verbuggt ist.
Da ist gar nichts vebuggt. Jedenfalls nicht bei mir mit einer Vega. Wenn der Shadercache ordentlich greift (und dieser kann über 2GB betragen!) läuft DX12 sehr ordentlich.
w0mbat
2019-03-14, 14:55:53
Mit meiner R9 290 läuft DX12 in BVF auch besser als DX11 mit FFR. Aber erst seit dem 1809 Update.
y33H@
2019-03-14, 16:43:41
Die Auflösung ist kein Argument. Texturen/Maps und Beleuchtung brauchen Speicher, unabhängig von den Bildpuffern. Wenn wir also ewig bei der aktuellen Qualität bleiben wollen, sind 6 GiB prima. Wenn wir aber Fortschritt haben wollen, wie das in der IT-Branche üblich ist, sollte das Kleinreden der Spar-/Verkrüppelei mal aufhören. 6 GiByte sind sooo 2016. Spätestens mit der nächsten Konsolengeneration stirbt alles, was jetzt auf Kante genäht ist.Zumindest die non-Ti ist für 1080p und Casual bzw E-Sport und bissi Singleplayer-Tamtam gedacht, da sind 6GB fein bis 2021/2022 und zur Not die Schatten/Texturen auf High statt Ultra. Bei ner 200-Euro-Karte finde ich Speicherkrüppel echt nimmer relevant, bei der RTX 2060 sieht das - gerade auch wegen Raytracing - freilich anders aus.
Platos
2019-03-14, 17:00:32
Die Auflösung ist kein Argument. Texturen/Maps und Beleuchtung brauchen Speicher, unabhängig von den Bildpuffern. Wenn wir also ewig bei der aktuellen Qualität bleiben wollen, sind 6 GiB prima. Wenn wir aber Fortschritt haben wollen, wie das in der IT-Branche üblich ist, sollte das Kleinreden der Spar-/Verkrüppelei mal aufhören. 6 GiByte sind sooo 2016. Oder eigentlich schon 2012 (HD 7970 6GB ;)). Wirkt das jetzt alt und wenig? Ist es auch! Spätestens mit der nächsten Konsolengeneration stirbt alles, was jetzt auf Kante genäht ist.
MfG,
Raff
Werden in Spielen 4k Texturen überhaupt in 4K berechnet, wenn die Spielauflösung niedriger ist (auch wenn man manuell die höchste Texturstufe eingestellt hat) ? Oder wird dann automatisch die Texturauflösung angepasst ?
Aber abgesehen davon: es gibt genug Tests da draussen, die beweisen, dass auf höherer Auflösung auch mehr Grafikspeicher belegt wird.
kunibätt
2019-03-14, 17:30:50
Texturauflösung ist unabhängig von der Bildschirmauflösung.
Die Auflösung ist kein Argument. Texturen/Maps und Beleuchtung brauchen Speicher, unabhängig von den Bildpuffern. Wenn wir also ewig bei der aktuellen Qualität bleiben wollen, sind 6 GiB prima. Wenn wir aber Fortschritt haben wollen, wie das in der IT-Branche üblich ist, sollte das Kleinreden der Spar-/Verkrüppelei mal aufhören. 6 GiByte sind sooo 2016. Oder eigentlich schon 2012 (HD 7970 6GB ;)). Wirkt das jetzt alt und wenig? Ist es auch! Spätestens mit der nächsten Konsolengeneration stirbt alles, was jetzt auf Kante genäht ist.
MfG,
Raff
Das trifft es 100%. Wenn die neuen Konsolen kommen und die gar 32GB mitbringen sollten (16 würde aber auch schon reichen), sind 6GB genau so schlecht wie 1 GB 2013/14. Es wird nicht mehr reichen. Auch 8GB wird knapp werden. Aber 6GB wird sehr sicher tödlich. Es wird einfach nicht mehr reichen, die Texturen herunterzustellen.
Ex3cut3r
2019-03-14, 17:57:00
Warum verbraucht eigentlich Metro Exodus trotz RT @ High und Ultra Details @ 3440x1440 nur 5GB? Und sieht dabei Göttlich aus? Also irgendwann ist auch mal gut, mit dem VRAM Schwachsinn in den Foren. :rolleyes:
maximus_hertus
2019-03-14, 18:15:35
Warum verbraucht eigentlich Metro Exodus trotz RT @ High und Ultra Details @ 3440x1440 nur 5GB? Und sieht dabei Göttlich aus? Also irgendwann ist auch mal gut, mit dem VRAM Schwachsinn in den Foren. :rolleyes:
:facepalm:
Es gibt noch andere Spiele. Am Ende ist es mir, dem Spieler, wurscht, warum etwas 6, 8 oder mehr GB braucht. Ich will das Spiel einfach nur flüssig spielen. Mit einer neuen Grafikkarte.
Klar würden 6GB noch sehr, sehr lange reichen, auch eine RTX 2080 könnte mit 4GB auskommen. Aber die Spiele sind halt nicht "todoptimiert". Wenn ich jetzt 300 oder gar 400+ Euro ausgebe, dann wird der Durchschnitts-Gamer die Karte 3+ Jahre behalten wollen, eher 4-5. Die GTX 970 / 960 ist immer noch sehr verbreitet. Die 4GB 960 ist dabei noch ok, die 2GB geht komplett baden.
Das gleiche wird wahrscheinlich mit der 2060 in 2020/2021 passieren. Es wird nicht über Nacht passieren, jedoch werden immer häufiger die Spiele erst mit 8GB sauber laufen.
Tesseract
2019-03-14, 18:16:53
Werden in Spielen 4k Texturen überhaupt in 4K berechnet, wenn die Spielauflösung niedriger ist (auch wenn man manuell die höchste Texturstufe eingestellt hat) ?
es gibt keine "4K texturen", das ist marketing blahblah. jede textur hat eine eigene auflösung und ob die texel (texturpixel) kleiner oder größer als der pixelraster sind hängt davon ab wie die textur im raum liegt. geht man in 800*600 nahe genug an die textur ran sind auch "4K texturen" unscharf. wenn man genug vram hat sind größere texturen immer besser, selbst auf 1080p.
reaperrr
2019-03-14, 21:43:23
[immy;11949252']nicht schlecht. Nur muss man wohl sagen, das die RX580 eigentlich kaum mehr für >200€ angeboten wird, eher darunter und die 1660 vermutlich dann bei >220€ landen wird.
Wird wohl noch ne Weile dauern bis sich die Preise bei der 1660 einpendeln.
Aber sieht wohl so aus, als wenn AMD die Preise erneut purzeln lassen muss um konkurrenzfähig zu sein.
Was aber eigentlich auch nicht das große Problem sein sollte.
TU116 ist ~50mm² oder auch über 20% größer als P10/20/30, dafür sind halt die PCB-, Speicher- und Kühlerkosten bei NV etwas niedriger.
Im Endeffekt sollte es für AMD kein Weltuntergang sein, die 590 für ~200 und die 580-8G bei ~170 rum anzubieten. NV wird nicht weiter runtergehen (wollen), da die Marge auch so schon ordentlich schlechter als bei der 1060-6G sein wird (größerer Chip, niedrigerer Preis).
Mandalore
2019-03-18, 22:22:51
Huh was ist denn hier los, sonst wird doch jede GTC von Herrn Lederjacke heiß verfolgt xD^^
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Raytracing-ohne-RT-Kerne-Monster-Pascal-GDC-2019-1277771/
Genau das ist einer der Hauptgründe, warum NV bei vielen so unsympathisch ist. Sowas hat eben immer Geschmäckle. Es zeigt ja eher wie eingeschränkt Pascal eigentlich ist... mit RPM und FP16 wär der Chip nur halb so groß, dann wärs kaum noch beeindruckend...
Fragman
2019-03-19, 15:16:42
Was meinst Du jetzt?
Das sie so einen Monsterchip hätten bauen sollen anstatt effektiver zu sein mit neuen Hardwareeinheiten?
][immy
2019-03-19, 15:31:38
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Raytracing-ohne-RT-Kerne-Monster-Pascal-GDC-2019-1277771/
Genau das ist einer der Hauptgründe, warum NV bei vielen so unsympathisch ist. Sowas hat eben immer Geschmäckle. Es zeigt ja eher wie eingeschränkt Pascal eigentlich ist... mit RPM und FP16 wär der Chip nur halb so groß, dann wärs kaum noch beeindruckend...
ob das wirklich so schlimm wird, wird man ja merken, sobald nvidia per Treiber die 1080er RT fähig macht bzw. AMD eventuell so etwas in den Treiber einbaut.
Wenn eine Vega56 für die Crytek Demo ausreichte, sollte dem eigentlich nichts im Wege stehen das auch AMD einen entsprechenden Treiber raus bringt.
Dann gäbe es zumindest mal eine Breite Basis an RT fähiger Hardware und die Entwickler könnte mal ein wenig damit rum spielen. Und das nvidia mit Ultra benched ist ja schon klar. Mich würden aber eher vergleiche bei Low-RT interessieren. Denn wie schon damals bei Tesslation bedeutet Ultra dann meist viel zu viel Rechenleistung opfern für nur noch minimale unterschiede (wenn man diese überhaupt noch sieht).
Wenn AMD und Intel entsprechende Treiber bringen, war der "Zwischenschritt" Turing ein Erfolg. Kein kommerzieller, aber ein technischer, als Türöffner. Spannend wird in der Tat die Performance. Ich denke mir mal, wenn es gut läuft, dass Vega in etwa auf Volta-Niveau rauskommt, natürlich auf die Rohleistung heruntergebrochen, davon hat GV100 ja mehr. Aber Pascal ist einfach zu sehr 2014, kann eben nicht entsprechende Rohleistung bereitstellen, um in RT irgendwas zu reißen.
Fragman
2019-03-19, 15:59:27
Das Crytek Voxel Zeugs ist nicht neu, kostet viel Leistung und bringt Probleme mit sich, für die es keine Lösung gibt, deshalb wird das kaum in Games eingesetzt. Die benötigte Leistung bekommt man nur mit dickeren Chips ala Volta oder noch deutlich größeren kompensiert.
NV hat jetzt, mit neuen Hardwareeinheiten, die Leistung deutlich gesteigert, ohne allzu viel mehr Chipfläche zu verbraten, im Verhältnis gesehen. Das allein sollte doch überzeugen. Stattdessen will man noch dickere Chips, redet hier von Volta, während man über die Turing Preise schimpft? :confused:
Dural
2019-03-19, 17:02:28
Ich frage mich die ganze Zeit was AMD das gekostet hat, jeder der denkt dass dies ein Zufall sei muss ziemlich naiv sein ;)
Das richtig coole an der Geschichte ist aber, das NV nur wenige Tage danach gleich kontert und jetzt alle Pascal Karten RT "können"
Ich würde mal sagen, dumm gelaufen für AMD, die Kohle hätten sie sich sparen können.
Noch lustiger finde ich ja noch das die ganzen Kids noch drauf reinfallen ;D
Da muss man schon einiges Verdrehen um das so hinbiegen zu können. Alle Achtung :D.
Fragman
Hm unlösbare Probleme? Da bin ich gespannt.
Und sicherlich kann man da DXR auch mit implementieren?
Fragman
2019-03-19, 18:08:07
Fragman
Hm unlösbare Probleme? Da bin ich gespannt.
Und sicherlich kann man da DXR auch mit implementieren?
Crytek hat das beschrieben.
Ich glaub, hier sitzt man dem Irrtum auf, das das Voxel Zeugs genau das gleiche ist wie "reines" RT? Und man klammert sich an die Hoffnung, das die 6-7 Jahre alte Tech jetzt alles ändern wird? Die Hoffnung hatte ich damals auch, nur wissen wir alle, was draus geworden ist, bis auf einzelne Anwendungen wie in dem einen Tomb Raider. Die UE Demo sah toll aus, nur hat man es kurz danach ja gleich wieder entfernt, da es so schlecht performt.
Allein schon die Tatsache, das man mehrere Sekunden prebaken muss, bei neuen Szenen, ist im Spielfluss ein nogo. Aber vielleicht kann hier einer der Programmierer hier mal etwas dazu sagen. :)
Nein, das Voxel-Zeug ist der Schlüssel, RT salonfähig zu bekommen.
rentex
2019-03-19, 20:12:21
Glaubt hier irgendwer ernsthaft, das Pascal ne brauchbare RT Performance hinlegt? Wirklich nicht!
aufkrawall
2019-03-19, 20:19:52
Anstatt Pascal-Nutzer mit Krüppel-Performance zu demütigen, sollten sie vielleicht mal die Spiele-Crashes, insbesondere mit RTX-Karten, fixen...
pixeljetstream
2019-03-26, 00:42:45
T4 Microbenchmarks
https://t.co/Rs4rNQiL8f?amp=1
x-force
2019-03-26, 02:32:49
T4 Microbenchmarks
https://t.co/Rs4rNQiL8f?amp=1
sowas bitte ab sofort bei jedem release direkt von amd und nvidia mitgeliefert :biggrin:
AMDoderNvidia
2019-03-26, 11:28:47
sowas bitte ab sofort bei jedem release direkt von amd und nvidia mitgeliefert :biggrin:
Und was leitest Du daraus ab? Es werden doch nur Eigenheiten in Richtung "Compute" herausgearbeitet, aber nicht zum Thema "Graphics". Frage wie nach der Rasterizerleistung usw. bleiben völlig außen vor.
Leonidas
2019-04-02, 07:21:06
Neuer Benchmark zur GeForce GTX 1650 sowie neuer Launchtermin (22. April):
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-1-april-2019
Der Benchmark sieht wesentlich besser aus als der letzte, die Performance kann knapp an das Niveau der GeForce GTX 970 herankommen (bzw. leicht drunter). Das ist dann deutlich mehr als bei der GeForce GTX 1050 Ti. Der Preispunkt (179$) passt allerdings nicht, so lange die GeForce GTX 1060 6GB für 200€ und teilweise für 180€ zu haben ist.
AffenJack
2019-04-02, 20:43:44
Der Preis dürfte auch nicht stimmen, ebenso wie übrigens dein Listenpreis für die 1660. Der liegt bei 219$ und nicht 229$. 229$ waren die Gerüchte, die es die ganze Zeit gab oder vll der ursprünglich angedachte Preis, bevor Nv den um 10$ gesenkt hat. Von den gleichen Spekulationen geht der 179$ Preis für die 1650 aus. Ich würde da auch eher 169$ erwarten. Rettet die Karte allerdings nun auch nicht.
Leonidas
2019-04-03, 07:24:02
Der liegt bei 219$ und nicht 229$. 229$ waren die Gerüchte, die es die ganze Zeit gab oder vll der ursprünglich angedachte Preis, bevor Nv den um 10$ gesenkt hat..
Korrekt. Die 229$ sind auch nur C&P von früher, die 219$ sind mir wohlbekannt. Wird gefixt.
Ob die GTX1650 für 179$ kommt, wird man noch sehen müssen. Der Preis wurde mehrfach genannt, stimmt für den Augenblick. Eventuell entscheidet sich NV auch noch einmal um, wäre eigentlich anzuraten.
Leonidas
2019-04-09, 08:05:34
Hier versucht jemand aus Die-Shots die Größe der RTX-Einheiten herauszubekommen:
https://www.reddit.com/r/hardware/comments/baajes/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/
https://www.reddit.com/r/nvidia/comments/baaqb0/rtx_adds_195mm2_per_tpc_tensors_125_rt_07/
Basis sind wieder die Die-Shots von Fritzchens Fritz:
Die-Shot TU106 (https://www.flickr.com/photos/130561288@N04/46357922535)
Die-Shot TU116 (https://www.flickr.com/photos/130561288@N04/47220396142)
Die nominell ermittelten Werte sind leicht anders als früher an dieser Stelle dargestellt, aber es führt zur gleichen grob 20%igen Differenz:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-4-maerz-2019
dildo4u
2019-04-11, 09:48:53
Einige 1650 Modelle kommen ohne 6 Pin Stromanschluss.
https://videocardz.com/newz/gainward-and-palit-geforce-gtx-1650-also-pictured
https://videocardz.com/newz/zotac-geforce-gtx-1650-leaked
Leonidas
2019-04-11, 09:56:57
Bin aufs Power-Limit (nicht die TDP) gespannt bzw. wie weit NV da die PCI-Express-Regeln ausnutzt. Bei der 1050Ti waren es nur 60W, ergo alles im grünen Bereich. Geht man wirklich bis auf 75 Watt Power-Limit hoch? Das wäre im Grenzbereich der PCI-Express-Norm.
y33H@
2019-04-11, 17:13:13
75W nur per 12V bezweifle ich.
mczak
2019-04-11, 18:26:50
Bin aufs Power-Limit (nicht die TDP) gespannt bzw. wie weit NV da die PCI-Express-Regeln ausnutzt. Bei der 1050Ti waren es nur 60W, ergo alles im grünen Bereich. Geht man wirklich bis auf 75 Watt Power-Limit hoch? Das wäre im Grenzbereich der PCI-Express-Norm.
Offizielle TDP bei der GTX 1050 wie auch der 1050 Ti waren doch 75W.
Macht doch alles Sinn, GTX 1660 / 1660Ti haben 120W TDP, genau gleich wie GTX 1060 3/6GB, der Chip darunter dann eben 75W. Genau gleich wie die 1660Ti etwa +30% mehr Performance erreicht (bei ~40% grösserem Chip und ~50% mehr Bandbreite, aber derselben TDP), wäre dann eben die GTX 1650 auch 30% schneller als die 1050Ti. Wobei wenn die tatsächlich gddr5 verwendet hat die wohl ein kleines Bandbreitenproblem (ist das überhaupt der Vollausbau oder kommt da noch eine Ti mit gddr6?).
Der Chip müsste dann elgentlich auch deutlich unter 200mm^2 bleiben (vielleicht so 180mm^2?).
Bin aufs Power-Limit (nicht die TDP) gespannt bzw. wie weit NV da die PCI-Express-Regeln ausnutzt. Bei der 1050Ti waren es nur 60W, ergo alles im grünen Bereich. Geht man wirklich bis auf 75 Watt Power-Limit hoch? Das wäre im Grenzbereich der PCI-Express-Norm.
Nein, drueber.
75W nur per 12V bezweifle ich.
Spezifiziert sind max. 5,5 A auf 12 V, ergo 66 W. Dazu kommen max. 3 A an 3,3 V und insgesamt duerfen es halt max. 75 W sein.
Leonidas
2019-04-12, 07:28:45
Genau das meine ich. 75 Watt Power-Limit dürfen eigentlich nicht sein ohne extra PCIE-Stecker. Die 75W TDP der 1050Ti sind Fake, da das Power-Limit sowieso nur bei 60W lag. Wie wird es nun bei der 1650? Ohne höheres Power-Limit wird es schwer, wirklich mehr als +30% zu bringen. Oder geht die Turing-Effizienz eventuell bei kleineren Chips nach oben?
dildo4u
2019-04-12, 07:35:27
Genau das meine ich. 75 Watt Power-Limit dürfen eigentlich nicht sein ohne extra PCIE-Stecker. Die 75W TDP der 1050Ti sind Fake, da das Power-Limit sowieso nur bei 60W lag. Wie wird es nun bei der 1650? Ohne höheres Power-Limit wird es schwer, wirklich mehr als +30% zu bringen. Oder geht die Turing-Effizienz eventuell bei kleineren Chips nach oben?
Vermutlich schafft sie 30% zur 1050,es ist ja keine 1650 Ti.
15% + zur 1050 ti passt zu den 180€,die 1050 Ti liegt bei rund 150.
Geforce GTX 1650: Turing-Ablöse der GTX 1050 Ti und langerwartete Konkurrenz zur RX 570 (http://www.pcgameshardware.de/Geforce-GTX-1650-Grafikkarte-269784/Tests/Review-1280120/)
Der neue TU117 sagt "hi". Leider noch ohne Benchmarks.
MfG,
Raff
mczak
2019-04-23, 16:27:21
Geforce GTX 1650: Turing-Ablöse der GTX 1050 Ti und langerwartete Konkurrenz zur RX 570 (http://www.pcgameshardware.de/Geforce-GTX-1650-Grafikkarte-269784/Tests/Review-1280120/)
Der neue TU117 sagt "hi". Leider noch ohne Benchmarks.
MfG,
Raff
Auch bei anandtech und Co. Aber auch ohne Benchmarks.
Interessant dass TU 117 in der GTX 1650 nicht in der Vollversion daherkommt - ich hatte da ja so eine wilde Vermutung hätte aber nicht wirklich gedacht dass es tatsächlich so kommt :biggrin:.
Daher ist der Chip auch etwas grösser als prognostiziert. Genau so gross wie GP106 ist jetzt nicht so überragend für den kleinsten Turing-Chip, aber andersherum muss man sagen dass der wohl in der Vollversion und mit gddr6 auch ungefähr die Geschwindigkeit einer GTX 1060 (sicher der 3GB Variante, aber möglicherweise auch der 6GB Variante) erreichen würde. Allerdings wohl nicht wenn man bei PEG-only Stromversorgung bleibt - schon die 1650 scheinen ja alle 6-pin Stromanschluss zu haben und zumeist auch TDP von 85W.
dildo4u
2019-04-23, 16:45:09
1650 Ti soll mit 580 Performance kommen.
https://wccftech.com/nvidia-geforce-gtx-1650-ti-custom-models-4-gb-leak/
mczak
2019-04-23, 16:56:57
1650 Ti soll mit 580 Performance kommen.
https://wccftech.com/nvidia-geforce-gtx-1650-ti-custom-models-4-gb-leak/
Wenn das stimmt dass die auch nur gddr5 Speicher haben wird (und ich habe da meine Zweifel) dann wird das kaum für RX 580 (oder alternativ GTX 1060 6GB) Performance reichen.
dildo4u
2019-04-23, 17:32:28
Schätze sie kommt bei der 1060 3GB raus.
https://www.techpowerup.com/forums/threads/nvidia-geforce-gtx-1650-released-tu117-896-cores-4-gb-gddr5-150.254827/#post-4035295
mczak
2019-04-23, 18:11:01
Hier gibt's schon komplette Benchmarks:
https://www.guru3d.com/articles_pages/zotac_geforce_gtx_1650_gaming_4gb_review,1.html
Wenn sich das so bestätigt, dann ist die Performance doch sehr enttäuschend. Da ist man im Durchschnitt selbst gegen die RX 470 komplett chancenlos, von GTX 1060 3GB oder RX 570 ganz zu schweigen.
(Eine 1650Ti wäre dementsprechend ebenfalls noch unter einer RX 570 anzusiedeln, die paar mehr Einheiten machen das nicht aus - ich sehe aber immer noch Potential für RX 580 Performance, die braucht aber _dringendst_ gddr6 Speicher und wohl auch etwas höheren Takt beziehungsweise TDP.)
Linmoum
2019-04-23, 18:16:52
Absurder Preis, wenn die Performance tatsächlich so stimmen sollte. Dass sie langsamer als die 570 wird war ja abzusehen, aber (teils) so heftig? Uff.
dildo4u
2019-04-23, 18:17:06
GTX 970 Performance für 70 Watt ist der Hammer Preise kann man immer anpassen.Die Dinger werden Killer Notebook Chips.
Linmoum
2019-04-23, 18:22:13
Selbst 120€/$ sind zu viel wenn man sieht, wie das Teil scheinbar gegen eine 570 abstinkt.
Und wir reden hier vom Desktop. Was bringt mir weniger Verbrauch, wenn die Performance im Verhältnis mies(er) ist? Mobile ist dann logischerweise wieder was anderes.
dildo4u
2019-04-23, 18:26:16
Das Ding ist imo für OEM Systeme gedacht,du musst eine ganz andere Klasse von Netzteil verbauen für eine RX 570.Da gleicht sich der Preisvorteil wieder aus.
Lehdro
2019-04-23, 18:26:44
Und schon ist klar warum NV den Preis gesenkt hat, "niedrig" ist der auch nur im Vergleich zur GTX 1050 Ti.
mczak
2019-04-23, 19:01:09
Weiteres Review: https://www.eteknix.com/asus-gtx-1650-phoenix-graphics-card-review/
Das Fazit da ist zwar deutlich besser, an den Zahlen aus den Benchmarks kann es aber eigentlich nicht liegen, die sind genau so mies :tongue:.
Noch ein paar Zahlen: https://www.gamestar.de/artikel/nvidia-geforce-gtx-1650-test,3343100,seite3.html
Da ist der Abstand etwas kleiner.
TPU review: https://www.techpowerup.com/reviews/MSI/GeForce_GTX_1650_Gaming_X/27.html - "nur" 10% im Durchschnitt langsamer (das ist eine der Karten mit 85W TDP). Im Prinzip ist Perf/Dollar gar nicht so schlecht - die RX 570 sind da eigentlich die Ausreisser...
Das Ding ist einfach kein Benchmarkprodukt, sondern etwas für Effizienzfetischisten (die nicht manuell undervolten können/dürfen).
MfG,
Raff
Linmoum
2019-04-23, 21:02:42
Wahrscheinlich gab's deswegen auch im Voraus keine Treiber. :D
Das Vorgehen ist verdächtig, aber nicht hieb- und stichfest belegbar. Ohne Treiber kann man schließlich auch nicht die grandiose Effizienz messen. ;)
TU117-Bestcases sind übrigens Stand jetzt Tropico 6 (GTX 1650 OC = RX 580 OC) und irgendwie auch The Division 2, wo die GTX 1650 die GTX 1050 Ti wie eine GT 1030 aussehen lässt (Turing-Benefits schlagen durch): Klick mich hart! (http://www.pcgameshardware.de/Geforce-GTX-1650-Grafikkarte-269784/Tests/Review-1280120/)
MfG,
Raff
Die Effizienz wird mal wieder konterkariert durch die OC-Testexemplare mit extra PCIe-Stecker.
Dazu ist der Marktpreis aktuell lächerlich.
Igor hat in seinem Review und Video die richtigen Worte gefunden.
Nvidia GeForce GTX 1650 - Fußhupe auf Steroiden mit gutem Ansatz aber sinnfreier Positionierung
mczak
2019-04-24, 13:54:50
TU117-Bestcases sind übrigens Stand jetzt Tropico 6 (GTX 1650 OC = RX 580 OC) und irgendwie auch The Division 2, wo die GTX 1650 die GTX 1050 Ti wie eine GT 1030 aussehen lässt (Turing-Benefits schlagen durch): Klick mich hart! (http://www.pcgameshardware.de/Geforce-GTX-1650-Grafikkarte-269784/Tests/Review-1280120/)
Bei Division 2 liegt das nicht an Turing, sondern an irgend einem Problem der 1050 Ti. Die ist hier extrem langsam auch gegenüber anderen Pascal Chips (GTX 1060).
GTA V geht auch gut gegenüber der RX 570. Ist aber auch zu erwarten, in dem Titel liegen ja nvidia Chips meist meilenweit voraus...
btw hat hier noch keiner erwähnt, aber das Teil hat einen abgespeckten Video Encoder. Nvidia gibt nvenc offiziell als "Volta" an bei der GTX 1650 Beschreibung, der entspricht wohl auch dem bei Pascal (kann keine H.265 B-Frames). Der nvdec hingegen kann alles was die anderen Turing-Karten auch beherrschen (mehr als Volta und Pascal): https://developer.nvidia.com/video-encode-decode-gpu-support-matrix
dildo4u
2019-04-24, 14:23:42
NV steckt den vollen Chip in Notebooks vermutlich um bessere Effizienz zu erzielen.
https://www.computerbase.de/2019-04/nvidia-geforce-gtx-1650-1660-ti-notebook/
Die 1050 hatte im Notebook noch Konkurrenz von der 560,die 1650 steht jetzt alleine da.
Loeschzwerg
2019-04-24, 16:57:53
Die Effizienz wird mal wieder konterkariert durch die OC-Testexemplare mit extra PCIe-Stecker.
Dazu ist der Marktpreis aktuell lächerlich.
So schaut's aus. Gäbe es eine Referenzkarte (also im Grunde eine OEM Karte) wäre die 1650 eine super Ergänzung. Ohne den ganzen Schnickschnack würde der Preis stimmen und die Leistungsaufnahme dort bleiben wo eigentlich angedacht.
y33H@
2019-04-24, 17:24:02
Von mir kommt morgen der Test der Zotac GTX 1650, das ist ein super schlichtes Teil ohne 6P-Anschluss mit 70 Watt.
dildo4u
2019-04-25, 06:53:11
PC Gamer hat sie auf Level mit der 970 wenn man Ultra Details nutzt.
https://www.pcgamer.com/nvidia-geforce-gtx-1650-review/
y33H@
2019-04-25, 14:46:37
Soa, hier nun: https://www.golem.de/news/geforce-gtx-1650-im-test-sparsam-schlank-speicherarm-1904-140759.html
Sind denn Single Slot, Low Profile oder Passive Karten angekündigt?
Auf Geizhals sind von 24 19 (https://geizhals.de/?cat=gra16_512&xf=9808_11904+-+GTX+1650) als übertaktet gelistet. Preise ab 160€. Fail!
MSABK
2019-04-25, 16:33:01
Soa, hier nun: https://www.golem.de/news/geforce-gtx-1650-im-test-sparsam-schlank-speicherarm-1904-140759.html
Der Stromverbrauch der AMD RX570 hat es aber in sich.:eek:
dargo
2019-04-25, 16:44:56
Hast du die letzten 2 Jahre unterm Stein verbracht? :D
btw.
Was ist denn bei dem Turing in BFV wieder kaputt? Bei 1% low in 1080p 28fps? WTF? An den 4GB kanns eigentlich nicht liegen, siehe 4GB RX570.
Die 1650 ist eher Konkurrenz für die RX 560 XT im asiatischen Markt wenn man sich die Performance anschaut.
https://www.computerbase.de/2019-03/amd-radeon-rx-560-xt-polaris-gpu/
Loeschzwerg
2019-04-25, 16:52:22
Soa, hier nun: https://www.golem.de/news/geforce-gtx-1650-im-test-sparsam-schlank-speicherarm-1904-140759.html
Danke für den Test der kleinen Karte ohne 6-Pin. Dein Fazit trifft es genau.
Für so eine Nische dürfte es gerne LowProfile Modelle geben (kommen evtl. noch), da wäre der Preis von 150€ auch akzeptabler.
y33H@
2019-04-25, 16:57:29
Was ist denn bei dem Turing in BFV wieder kaputt? Bei 1% low in 1080p 28fps? WTF? An den 4GB kanns eigentlich nicht liegen, siehe 4GB RX570.Betrifft die GTX 1050 Ti auch, also kein Turing- sondern eher ein Nvidia-Problem ^^
dildo4u
2019-04-25, 16:59:42
btw.
Was ist denn bei dem Turing in BFV wieder kaputt? Bei 1% low in 1080p 28fps? WTF? An den 4GB kanns eigentlich nicht liegen, siehe 4GB RX570.
DX12 frisst massiv mehr Vram vs DX11 auf Nvidia,kein Plan wie sich AMD Verhält.
dargo
2019-04-25, 17:03:48
DX12 frisst massiv mehr Vram vs DX11 auf Nvidia,kein Plan wie sich AMD Verhält.
Na offenbar anders, die 4GB RX570 liefert dort noch 50fps.
aufkrawall
2019-04-25, 17:10:13
Na offenbar anders, die 4GB RX570 liefert dort noch 50fps.
1. Möglichkeit: Das Spiel macht auf Nvidia Dinge so anders, dass mehr VRAM benötigt wird.
2. Möglichkeit: Eventuell wieder problematisches Verhalten von Nvidia bez. der VRAM-Reservierung des Windows-DWM und DX12-Spielen, hatte ich ja schon bei RotTR festgestellt.
3. Möglichkeit: Irgendein anderes Problem/Bug, und sei es das Nvidia Creators Update-Stottern.
Ex3cut3r
2019-04-25, 17:26:06
DX12 lief mal in Ordnung, hatte ich afaik auch im BF5 Thread mitgeteilt, aber der Witz war, mit dem nächsten Update und/oder Treiber war wieder alles im Arsch. Desweiteren stimmt es schon, dass sich DX12 etwas mehr VRAM gönnt, ist aber nicht soooo viel. Moment ich schau mal....
DX11: 4,2 GB
https://abload.de/thumb/bfv_2019_04_25_17_28_0qk1p.jpg (http://abload.de/image.php?img=bfv_2019_04_25_17_28_0qk1p.jpg)
DX12: 4,9 GB
https://abload.de/thumb/bfv_2019_04_25_17_30_4fjjv.jpg (http://abload.de/image.php?img=bfv_2019_04_25_17_30_4fjjv.jpg)
dildo4u
2019-04-25, 17:27:14
Ich sehe grad es frisst auch auf AMD mehr in DX12 sieht man in 1440p beim Golem Test.
aufkrawall
2019-04-25, 17:47:32
Der Stromverbrauch der AMD RX570 hat es aber in sich.:eek:
Ich komm mit der 580 Armor UV in Furmark bei 1440p/4xMSAA auf ca. 110W ASIC-Verbrauch (recht typisch für die meisten Spiele in WQHD), was am Wattmeter dann in ~180W Gesamtsystemverbrauch resultiert. Ist doch problemlos wegzukühlen. Gesamtsystem Idle-Verbrauch btw. ~30W.
robbitop
2019-04-26, 08:57:11
AMD steht generell etwas ungünstiger da was die Spannungskurve der GPUs für die jeweiligen Frequenzen angeht als NV. Daher erreicht man bei AMD GPUs höhere Differenzen in der Leistungsaufnahme durch UV. NV scheint besser in Bezug auf Binning und automatisiertes individuelles Einstellen der Spannungskurve zu sein. Bzw könnte ich mir vorstellen, dass AMD dies eventuell noch gar nicht pro individuellem Chip macht und daher größere Sicherheitsmargen in Bezug auf Spannung hat.
Dazu kommt, dass 12 nm ja auch noch einiges an Effizienz bringt. Die RX590 (12nm dito) geundervoltet und untertaktet auf 1650 Leistungsniveau (diese sollte man fairerweise auch so undervolten, dass keine Frequenz verloren geht und nicht gethrottelt wird) wird sicher ein Stück näher an TU117 herankommen. Ich würde aber annehmen, dass man ihn nicht ganz erreicht. NVs mArch ist im Moment einfach effizienter. Zusätzlich zum eigentlichen genannten Betriebspunkt.
aufkrawall
2019-04-26, 22:01:49
Ganz ohne Zweifel ist das so, ich kenne eine undervoltete GTX 1060 aus erster Hand. Diese zieht bei ~1,88GHz/0,9V in vielen Spielen häufig kaum mehr als ~110W Gesamtkartenverbrauch, häufig auch <100W. Da kann AMD natürlich bei Weitem nicht mithalten.
Ist mit Polaris aber halt spätestens mit UV für alles außer Mini-ITX und Notebooks egal, weil die paar Watt immer noch völlig unkritisch für jede Kühlung sind. Bei dem Thema ist dann schnell mal Heuchelei dabei. Insbesondere vor dem Hintergrund, dass RTX-Turing ebenfalls höhere TDPs als Pascal hat. Abwärme bleibt Abwärme.
Lehdro
2019-04-27, 03:20:38
AMD steht generell etwas ungünstiger da was die Spannungskurve der GPUs für die jeweiligen Frequenzen angeht als NV. Daher erreicht man bei AMD GPUs höhere Differenzen in der Leistungsaufnahme durch UV. NV scheint besser in Bezug auf Binning und automatisiertes individuelles Einstellen der Spannungskurve zu sein. Bzw könnte ich mir vorstellen, dass AMD dies eventuell noch gar nicht pro individuellem Chip macht und daher größere Sicherheitsmargen in Bezug auf Spannung hat.
Stimmt schon so. Dazu läuft Polaris leider meist völlig ausserhalb des Sweetspots, gerade die 590 ist ein Paradebeispiel dafür. Das war bei der RX 470 damals nicht ganz so krass...
BlacKi
2019-04-27, 09:55:29
und das wiederum liegt am geld. man könnte eine 590 sehr einfach auf 150 oder gar 120w drücken, aber dann würde sie keiner mehr kaufen oder amd dürfte nicht mehr als 150-170€ verlangen.
anders ausgedrückt: amd übertaktet die karten für den kunden und verlangt einen saftigen aufpreis dafür.
Leonidas
2019-04-27, 10:32:42
Von mir kommt morgen der Test der Zotac GTX 1650, das ist ein super schlichtes Teil ohne 6P-Anschluss mit 70 Watt.
Test ist wirklich gut. Kurz und prägnant - und trotzdem mit mehr Infos als viele lieblose andere Tests.
Eine Frage aber: Wo liegt nun wirklich das Power-Limit? Tatsächlich bei 75 Watt?
aufkrawall
2019-04-27, 11:04:30
Test ist wirklich gut. Kurz und prägnant - und trotzdem mit mehr Infos als viele lieblose andere Tests.
Eine Frage aber: Wo liegt nun wirklich das Power-Limit? Tatsächlich bei 75 Watt?
Die Karte läuft in der Realität offenbar immer unter 70W:
https://www.phoronix.com/scan.php?page=article&item=nvidia-gtx1650-linux&num=8
Häufig doppelte Perf/W der RX 560. :freak:
y33H@
2019-04-27, 11:12:53
Test ist wirklich gut. Kurz und prägnant - und trotzdem mit mehr Infos als viele lieblose andere Tests.
Eine Frage aber: Wo liegt nun wirklich das Power-Limit? Tatsächlich bei 75 Watt?Müsstet ich ggf auslesen, danke für das Lob.
Leonidas
2019-04-27, 11:46:41
Die Karte läuft in der Realität offenbar immer unter 70W:
https://www.phoronix.com/scan.php?page=article&item=nvidia-gtx1650-linux&num=8
Häufig doppelte Perf/W der RX 560. :freak:
Deswegen vermute ich ja ein reales Power-Limit von 70 Watt. Aber diese Vermutung verlangt natürlich nach einer Bestätigung.
aufkrawall
2019-04-27, 12:04:02
Bisher haben doch die Angaben von Nvidia dahingehend immer gestimmt?
Es ist ohnehin nur eine Art Empfehlung, weil es nur Custom Designs gibt. Dass die Hersteller aber die TDP unterhalb des Limits von NV setzen, würd ich mal als arg unwahrscheinlich einstufen.
Leonidas
2019-04-27, 13:50:15
Bisher haben doch die Angaben von Nvidia dahingehend immer gestimmt?
immer -> meistens
Die Power-Limits von 970/980 sowie 1050/1050Ti waren abweichend von deren TDP.
Bei der 1650 sieht es im übrigen lt. den Messungen von TechPowerUp (Palit Storm bei 66W unter Furmark) ganz nach einem regulären Power-Limit von 65 Watt aus. Ganz wie ich es vermutet habe - mehr wäre nämlich ohne extra Stromstecker nicht wirklich solide.
Den Specs nach sind es doch etwa 66W über den PCIe-Bus? Bei 75W bräche doch wieder ein Shitstorm wie damals bei der RX480 los.^^
aufkrawall
2019-04-27, 13:59:32
immer -> meistens
Die Power-Limits von 970/980 sowie 1050/1050Ti waren abweichend von deren TDP.
Quelle?
Bei der 1650 sieht es im übrigen lt. den Messungen von TechPowerUp (Palit Storm bei 66W unter Furmark) ganz nach einem regulären Power-Limit von 65 Watt aus. Ganz wie ich es vermutet habe - mehr wäre nämlich ohne extra Stromstecker nicht wirklich solide.
Warum sollen 75W über PCIe nicht solide sein?
Leonidas
2019-04-27, 14:05:49
970/980 hab ich nicht mehr im Kopf, war aber so. 1050/Ti hatten beiderseits ein Power-Limit von 60 Watt, das konnte man deutlich an den Stromverbrauchs-Messsungen sehen.
Warum es nicht solide wäre? Weil heutzutage (angeblich) die 3,3V-Schiene nicht mehr benutzt wird, alles aus der 12V-Schiene kommt. Jene bietet aber nur 66 Watt.
Warum sollen 75W über PCIe nicht solide sein?
Hat Igor mal schön ausgebreitet:
Was besagt die PEG-Norm eigentlich im Detail?
Für den x16-PCI-Express-Mainboard-Slot gibt es seit langem festgelegte Normen dafür, welche Ströme über die Pins der jeweiligen Spannungsschienen fließen dürfen. Eine Angabe in Watt ist hierbei allerdings nicht nur irreführend, sondern einfach falsch.
Die PCI-SIG definiert für den 12V-Mainboard-Anschluss eine maximale Stromstärke von 5,5 Ampere (siehe Grafik) mit einer maximalen Toleranz bei der Spannung von acht Prozent nach oben und unten. Genau diese Angabe führt dann auch dazu, dass man schnell mit 12 Volt multipliziert um entweder 66 Watt (Normwert) oder 71 Watt (maximal ausgenutzte Tolorenz) anzugeben, was insofern Unfug ist, weil es bei der Norm lediglich um die fließenden Ströme geht.
https://www.tomshw.de/2016/07/04/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig/2/
Leonidas
2019-04-27, 14:10:01
Natürlich, funktionieren tut es auch so. Es kommen hier ja auch noch die Reserven der Mobos hinzu. Aber warum sollte man irgendetwas riskieren, wenn man es sowieso nicht braucht? Eine 1650 auf Referenztakt verrichtet ihr Werk bei 64-66 Watt Spieleverbrauch. Wozu da das Power-Limit auf 75 Watt setzen?
aufkrawall
2019-04-27, 14:13:01
970/980 hab ich nicht mehr im Kopf, war aber so. 1050/Ti hatten beiderseits ein Power-Limit von 60 Watt, das konnte man deutlich an den Stromverbrauchs-Messsungen sehen.
Die TH-Messungen sagen das Gegenteil.
Warum es nicht solide wäre? Weil heutzutage (angeblich) die 3,3V-Schiene nicht mehr benutzt wird, alles aus der 12V-Schiene kommt. Jene bietet aber nur 66 Watt.
MSI 1050 Ti zieht bei TH 71W, tatsächlicher Verbrauch leicht unter der Drosselungs-Grenze ist typisch.
Edit: Ok, die hat einen NT-Stromanschluss.
:rolleyes:
Leonidas
2019-04-27, 14:14:23
Die TH-Messungen sagen das Gegenteil.
Eigentlich überhaupt nicht:
https://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten#gf900
Auch dort sind 970/980 klar oberhalb der TDP.
MSI 1050 Ti zieht bei TH 71W, tatsächlicher Verbrauch leicht unter der Drosselungs-Grenze ist typisch.
Edit: Ok, die hat einen NT-Stromanschluss.
Höchstwahrscheinlich werksübertaktete Version, wie sie gern in den Tests großer Hardwareseiten auftaucht. Ergibt leider keinerlei Relevanz für die Referenzausführung.
dargo
2019-04-27, 14:15:15
anders ausgedrückt: amd übertaktet die karten für den kunden und verlangt einen saftigen aufpreis dafür.
Na da hat sich AMD endlich mal was von Intel abgeschaut. :D
aufkrawall
2019-04-27, 14:26:15
Eigentlich überhaupt nicht:
https://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten#gf900
Auch dort sind 970/980 klar oberhalb der TDP.
Ah ja, tatsächlich. War mir gar nicht (mehr) bekannt, dass Nvidia offiziell von den TDP-Limits der Biose abweichende Quatsch-Angaben macht. Man muss wohl ein unseriöser Gebrauchtwagen-Verkäufer sein, um so etwas überhaupt für möglich zu halten bzw. darauf zu kommen. :freak:
Höchstwahrscheinlich werksübertaktete Version, wie sie gern in den Tests großer Hardwareseiten auftaucht. Ergibt leider keinerlei Relevanz für die Referenzausführung.
Gibt aber die TPU-Biosdatenbank, wo so einige 1050 Tis ohne Stromstecker genau 75W als Angabe haben:
https://www.techpowerup.com/vgabios/193401/msi-gtx1050ti-4096-170601
Leonidas
2019-04-27, 14:33:43
Gibt aber die TPU-Biosdatenbank, wo so einige 1050 Tis ohne Stromstecker genau 75W als Angabe haben:
https://www.techpowerup.com/vgabios/193401/msi-gtx1050ti-4096-170601
Sehr interessant. Aber bislang waren alle Messungen von bekannt non-OC-Varianten bei knapp 60W *. Die herausgesuchte Karte ist im übrigen Werks-OC, wenn auch nicht viel.
* Kann sein, das ich mich hier trotzdem irre und die 1050/Ti einfach nicht mehr benötigt hat.
Update:
Danke für euer aller Beharrlichkeit. Das PL der 1050/Ti liegt tatsächlich bei 75 Watt, auch wenn keine non-OC-Karte das annähernd erreicht.
Ah ja, tatsächlich. War mir gar nicht (mehr) bekannt, dass Nvidia offiziell von den TDP-Limits der Biose abweichende Quatsch-Angaben macht. Man muss wohl ein unseriöser Gebrauchtwagen-Verkäufer sein, um so etwas überhaupt für möglich zu halten bzw. darauf zu kommen. :freak:
Das waren seinerzeit die allerersten Karten mit aktiv durchgreifendem Power-Limit. Da war das alles noch nicht so eingefahren.
Igor hat eine 1650 zur Passivkarte umgebaut:
GeForce GTX 1650 Passive Cooling – Wir modden eine OC-Karte zur Silent-Karte und staunen! | igorsLAB (https://www.tomshw.de/2019/04/29/geforce-gtx-1650-passive-cooling-wir-modden-eine-oc-karte-zur-silent-karte-und-staunen-igorslab/)
Fazit: taugt
aufkrawall
2019-04-29, 11:57:37
Das waren seinerzeit die allerersten Karten mit aktiv durchgreifendem Power-Limit. Da war das alles noch nicht so eingefahren.
Das ist nicht korrekt, die PT-Limitierung hatte schon mit Kepler genau so gegriffen wie jetzt. NV hatte einfach mal wieder gelogen.
BlacKi
2019-04-29, 12:10:49
Na da hat sich AMD endlich mal was von Intel abgeschaut. :D
richtig, naja auch amd macht das schon sehr lange im cpu seg.. im cpu segment hat wenigstens der dau gamer etwas davon. naja, wenigstens ist noch potential im allcore vorhanden.
basix
2019-04-29, 19:40:46
Das ist nicht korrekt, die PT-Limitierung hatte schon mit Kepler genau so gegriffen wie jetzt. NV hatte einfach mal wieder gelogen.
Jop, das Powerlimit war einfach auf 180W anstatt 165W gestellt bei der 980er. Und die wurden ja perfekt gehalten.
pixeljetstream
2019-05-03, 11:39:46
weiß nicht ob schonmal verlinkt, aber guter Vortrag von Louis Bavoil über profiling etc. stellt auch schön die typischen Probleme bei GPU Programmierung da
Hat ein paar real-world use-cases (z.b Metro Exodus, BF V etc.)
https://www.gdcvault.com/search.php#&category=free&firstfocus=&keyword=bavoil&conference_id=208
man kann bei der Registrierung irgendwas eingeben
dildo4u
2019-05-08, 10:29:02
Paar Werte von 1650 im Notebook.
https://www.notebookcheck.com/Mobile-Nvidia-GeForce-GTX-1650-im-Performance-Test.420131.0.html
dildo4u
2019-05-23, 20:34:21
Schätze mal sie wollen Computex nicht komplett AMD überlassen.
LiLVZje9_nE
crux2005
2019-05-23, 20:36:45
RTX 2070 Super ;D
BlacKi
2019-05-23, 20:49:36
SUPER Big Format Gaming Display
Birdman
2019-05-23, 20:59:35
autsch, das kann doch nur ins Auge gehen.....
Mit einem "Super" im Namen wird halt soooo viel suggeriert und dann kommt doch eh nur so en scheiss wie super-bright LEDs auf den neusten Flender Editions, für noch bessere Ausleuchtung eines Computercases mit Fenstern...
BlacKi
2019-05-23, 21:01:31
SUPER High Dynamic Range
basix
2019-05-23, 21:23:51
Super RGB!
crux2005
2019-05-23, 22:11:56
Am ende Launchen sie eine neue Gen. in 7nm mit 16 GB VRAM. ;D
Naja, man darf noch Träumen.
Super Expensive. Das ist die Marschrichtung seit Jahren und daher kommt mir nix anderes in den Sinn.
MfG,
Raff
=Floi=
2019-05-23, 22:48:27
kann man eigentlich grob sagen eine neue architektur ist nach 12 monaten abgeschrieben?
Dadurch könnte man einen refresh günstiger anbieten.
Ex3cut3r
2019-05-23, 22:53:24
1650Ti! ;D Oder eine 2080Ti Super mit Vollausbau des TU102.
Und 12 GiByte. Das wäre tatsächlich sinnvoll.
MfG,
Raff
=Floi=
2019-05-24, 02:22:29
Und 12 GiByte. Das wäre tatsächlich sinnvoll.
MfG,
Raff
bei dem preisgefüge?
1500€?!
Was würde es bringen?
nordic_pegasus
2019-05-24, 06:37:23
bei dem preisgefüge?
1500€?!
Was würde es bringen?
eine RTX 2080 Ti "Super Edition" mit TU102 Vollausbau und 12GB für 1500 € wäre für mich interessanter als die aktuelle 2080Ti mit Krüppel-Chip und den unbesetzten Lötpunkten für den 12. Speicherchip für 1200 €.
Wenn dann noch HDMI 2.1 dabei wäre...
Nuvirus
2019-05-24, 07:42:20
Echte 8k wäre gerade für etwas ältere Games interessant aber auch für den TV Einsatz wäre neues HDMI sinnvoll nen PC/Notebook am PC will ich nicht mehr missen.
Vll ist das Super auch einfach nur ne Preissenkung und vll ne 2070Ti mit super Preis Leistung bzw. für NVIDIA Verhältnisse gutes PLV.
Nen Vollausbau und Preissenkung der aktuellen 2080Ti halte ich auch für realistisch.
Oder es kommt noch ein kleiner flotter Chip für Notebooks in 7nm bzw. wird angekündigt für die nahe Zukunft
Hugo78
2019-05-24, 08:41:13
Die RTX 2080 Super wird sich preislich und von der Leistung her, zwischen beiden vorhanden 2080 einordnen. Mit 10GB RAM @ 320bit.
Zergra
2019-05-24, 08:46:22
Wenn Navi schneller wird als die 2070 RTX, wäre eine 2070TI ziemlich wahrscheinlich.
Hugo78
2019-05-24, 08:57:26
Das wäre dann eine 2070 Ti. Dafür braucht es kein neuen PR Stunt mit dem 'Super'.
Linmoum
2019-05-24, 09:11:50
Braucht es für 'ne GPU zwischen 2080 und 2080Ti auch nicht
basix
2019-05-24, 09:32:30
Vielleicht heisst es ja nicht mehr Ti sondern "Super Charged". Oder auch Super GAU. Oder sie haben ein "p" vergessen und es gibt einfach gratis "supper" für alle. Sooo viele Möglichkeiten :D
arcanum
2019-05-24, 10:51:20
hoffentlich wird es ein super price cut.
Ihr glaubt auch an den Weihnachtsmann, oder? :D
MfG,
Raff
Zergra
2019-05-24, 11:06:04
Oder es wird eine 2080Ti mit super VIEL LEDs....
BlacKi
2019-05-24, 11:37:41
nichts konstruktives mehr? ich versuchs mal:
sieht nach einer kunststoff shroud aus. an eine gefräste aluminium shroud (in der größe?) glaub ich nicht. vorallendingen komplett schwarz glänzend.
ich würde tatsächlich auf ein externes gerät tippen. keine grafikkarte. auch kein direkter price cut.
eher monitor/fernseher, vl console?
MadPenguin
2019-05-24, 15:13:28
Fühle mich als GPU Kunde immer wieder verarscht:
Bis jetzt keine Konkurrenz, also melke ich ab was geht.
Variante 1: Super Price Cut (bei Nvidia? Hahaha)
Variante 2: Besserer Speicher und höhere Taktraten bei gleichem Preis -> nach 7 Monaten nach Urlaunch noch verträglich
Variante 2: Besserer Speicher und höhere Taktraten bei höherem Preis -> Hihi, typisch Nvidia
Daredevil
2019-05-24, 15:41:32
Natürlich der Tegra Nachfolger, der Super. Damit Super Mario World auf der Switch sahniger läuft. :D
Fragman
2019-05-24, 15:52:43
Fühle mich als GPU Kunde immer wieder verarscht:
Bis jetzt keine Konkurrenz, also melke ich ab was geht.
Variante 1: Super Price Cut (bei Nvidia? Hahaha)
Variante 2: Besserer Speicher und höhere Taktraten bei gleichem Preis -> nach 7 Monaten nach Urlaunch noch verträglich
Variante 2: Besserer Speicher und höhere Taktraten bei höherem Preis -> Hihi, typisch Nvidia
Kauf es doch nicht, ganz einfach.
Man muss das doch nicht mit machen. :confused:
AffenJack
2019-05-24, 15:56:22
Ich glaube auch eher an etwas aus der Tegrasparte. Es tauchen ja immer wieder Gerüchte über kleinere oder stärkere Switch auf. Da kann ich mir gut vorstellen, dass Nvidia da aus der Sparte auch erstmal selbst bringt. Neues Tegra Tablet oder was auch immer.
][immy
2019-05-24, 16:07:38
Ich würde auf eine Ankündigung eines 7nm Turing tippen. Kann mir nicht vorstellen, das sie AMD dort einen zu großen Vorsprung zulassen. Da sie ja auch nicht selbst fertigen dürfte das durchaus im Rahmen liegen, wenn sie ende des Jahres mit entsprechenden Produkten kommen.
Wie hoch die Frequenz wohl noch ginge mit 7nm bei Turing. Ist ja jetzt schon ziemlich taktfreudig.
Oder es wird einfach eine Super-Clocked edition.
Aber ist "Super" nicht als Marketing-Begriff längst out?
Linmoum
2019-05-24, 16:19:32
Kauf es doch nicht, ganz einfach.
Man muss das doch nicht mit machen. :confused:
Generell irgendwelche Praktiken mit "kauf halt nicht" zu rechtfertigen ist so ziemlich das blödeste, was es gibt.
Ansonsten denke ich nicht, dass das was mit Tegra zu tun haben wird. Außer, sie nutzen #GeForce nur aus Spaß für das Video.
BlacKi
2019-05-24, 16:19:46
[immy;12003448']Ich würde auf eine Ankündigung eines 7nm Turing tippen. Kann mir nicht vorstellen, das sie AMD dort einen zu großen Vorsprung zulassen.
welcher vorsprung?:biggrin: amd kann mit 7nm höchstens gleichziehen. vorrausgesetzt, navi bleibt unter 200w. preislich sind durch 7nm keine großen sprünge möglich.
Fragman
2019-05-24, 16:34:16
Generell irgendwelche Praktiken mit "kauf halt nicht" zu rechtfertigen ist so ziemlich das blödeste, was es gibt.
Geht ganz einfach, nicht kaufen und nv eine Mail schreiben, warum man nicht kauft. Wenn das viele machen, auch mehrfach und sich das in den Zahlen von denen nieder schlägt, ändern die auch ihr Verhalten.
][immy
2019-05-24, 16:35:56
welcher vorsprung?:biggrin: amd kann mit 7nm höchstens gleichziehen. vorrausgesetzt, navi bleibt unter 200w. preislich sind durch 7nm keine großen sprünge möglich.
wer redet denn bei nvidia noch über Preise? Die sind doch längst bei >1000€ angekommen für ihre High-End Karten.
Am Preis kann man sicherlich noch was hinter der 2080 TI platzieren mit 7nm ;)
=Floi=
2019-05-24, 16:38:09
Fühle mich als GPU Kunde immer wieder verarscht:
Bis jetzt keine Konkurrenz, also melke ich ab was geht
Da wurde eine menge geld reingesteckt und auch die hardware kostet mehr wie vorher. Eigentlich ist der refresh das optimieren der marge. ;)
meine 1080Ti war/ist die vorerst letzte NV karte... erst wenn der kopf der schlange abgeschlagen ist, also lederjacke weg, werde ich sicherlich mal wieder ne grüne karte kaufen,
und mit dem gelabere soll man dich ernst nehmen?
BlacKi
2019-05-24, 16:41:50
[immy;12003484']wer redet denn bei nvidia noch über Preise? Die sind doch längst bei >1000€ angekommen für ihre High-End Karten.
Am Preis kann man sicherlich noch was hinter der 2080 TI platzieren mit 7nm ;)
es wurde doch schon von nvidia indirekt mitgeteilt das man sich einen eigenen (wohl 6nm) prozess vorstellen könnte. aber nicht der 7nm prozess den amd fährt. ausserdem:
"Nvidia zu 7 nm: "Wir wollen nicht die zusätzlichen Kosten bezahlen, sondern Vorteile erzielen""
"Wir wollen nicht die zusätzlichen Kosten bezahlen, sondern Vorteile erzielen"
Der Spruch (von NV) ist echt das letzte...
Gerade wo sie bei Tu, die RTX-Kosten erstklassig abgewälzt haben...
("Vorteile" sollte man durch "mehr Gewinn" ersetzen)
m.f.g. JVC
TheGood
2019-05-24, 18:39:42
welcher vorsprung?:biggrin: amd kann mit 7nm höchstens gleichziehen. vorrausgesetzt, navi bleibt unter 200w. preislich sind durch 7nm keine großen sprünge möglich.
Die Mär vom preis, kann heute auch keiner mehr hören. Fakten Fakten Fakten....
BlacKi
2019-05-24, 18:45:28
wenn navi mit rtx2070 performance für 500$ kommt, sehe ich es als bestätigt an.
just4FunTA
2019-05-24, 18:55:22
ein turing refresh mit hdmi2.1 um navi zu kontern?
mironicus
2019-05-24, 19:03:23
Ich stelle mir eine "Super RTX 2080 Ti" vor mit vollem Chip und 12 GB VRAM zum gleichen Preis wie die jetzige RTX 2080 Ti, dessen UVP wiederum um 150 Euro fällt.
Dann noch eine "Super RTX 2070 Ti" als Konkurrent zum Navi-Chip, für 499 Euro. :D
=Floi=
2019-05-24, 19:04:21
Die Mär vom preis, kann heute auch keiner mehr hören. Fakten Fakten Fakten....
es ist bestätigt, dass der preis pro transistor durch den shrink nicht so stark sinkt oder gar stagniert. Derm yield dürfte auch noch schlechter sein.
von den günstigen karten kann amd auch nicht leben.
dildo4u
2019-06-01, 19:57:34
Es kommen Angeblich billigere schnellere Turing Modelle.
2060 250$,2070 400$,2080 600$.
https://wccftech.com/nvidia-super-lineup-will-consist-of-three-cards-faster-rtx-2060-2070-and-2080-variants-with-100-off-msrp-and-souped-up-gddr6/
Schnoesel
2019-06-01, 20:07:45
Höher getaktete RTX ein wenig günstiger? Imo nicht gerade beeindruckend zumal die 2080Ti wohl außen vor ist, aber gibt dem ein oder anderen evtl. den entscheidenden Ruck aufzurüsten.
Ex3cut3r
2019-06-01, 20:16:41
Speicher wurde halt bestimmt um 500 mhz erhöht. Nicht was man auch mal eben nicht mit einer Non "Super" im Afterburner einstellen könnte, einzig die Preissenkung ist "ok" ist aber wiederum nvidia untypisch nach nur fast 9 Monaten seit Turing Rls.
Ravenhearth
2019-06-01, 20:32:28
Es kommen Angeblich billigere schnellere Turing Modelle.
2060 250$,2070 400$,2080 600$.
https://wccftech.com/nvidia-super-lineup-will-consist-of-three-cards-faster-rtx-2060-2070-and-2080-variants-with-100-off-msrp-and-souped-up-gddr6/
Die $250 für die 2060 kann ich nur nicht ganz glauben, da finde ich $300 realistischer.
Sunrise
2019-06-01, 20:41:50
AMD den Wind aus den Segeln nehmen ohne viel Mehraufwand...klingt doch nach nem Plan.
Allerdings wäre es gut, wenn dann bald mal die richtigen Nachfolger anklopfen. Die könnte man dann wieder teuer verkaufen, da AMD da nicht mithalten kann.
dildo4u
2019-06-01, 20:43:40
Die $250 für die 2060 kann ich nur nicht ganz glauben, da finde ich $300 realistischer.
Möglich aber sie hat nur 6GB was mehr Spielraum lässt.
AffenJack
2019-06-01, 21:13:12
Ich glaube weder die kolporierten Preise, noch dass die alten RTX Karten EOL gehen. Eher ersetzen die neuen Karten die alten zum gleichen Preis und die alten Karten rutschen ein wenig tiefer, aber bestimmt gehts nicht so weit runter bei der 2060.
just4FunTA
2019-06-01, 21:42:38
Es kommen Angeblich billigere schnellere Turing Modelle.
2060 250$,2070 400$,2080 600$.
https://wccftech.com/nvidia-super-lineup-will-consist-of-three-cards-faster-rtx-2060-2070-and-2080-variants-with-100-off-msrp-and-souped-up-gddr6/
Das hört sich gut an, darf man dann mit HDMI 2.1 rechnen? Weil navi soll ja bald kommen aber ich traue dem ganzen nicht so recht über den Weg um von meiner gtx 1080 upzugraden.
AffenJack
2019-06-01, 21:43:38
Das hört sich gut an, darf man dann mit HDMI 2.1 rechnen? Weil navi soll ja bald kommen aber ich traue dem ganzen nicht so recht über den Weg um von meiner gtx 1080 upzugraden.
Sind die gleichen Chips, da kann man nicht einfach so HDMI 2.1 einbauen. Das wird es erst nächstes Jahr geben.
just4FunTA
2019-06-02, 00:50:51
Hmm ohne HDMI 2.1 bringt mir ein Upgrade nicht viel..
sulak
2019-06-02, 18:26:24
"RTX 2060 SUPER, RTX 2070 SUPER and RTX 2080 SUPER could retail for as low as $249, $399 and $599 respectively..."
Bei der 2080 könnten wohl 50-100€ eingespart werden, bei den anderen... eher nicht. Neue Grafikkarte die günstiger ist? Newa ;D
Custom RTX2070 mit gutem Lüfter, aka eine Palit SuperJetStream oder MSI Armor, ob die die 400-450€ Grenze erreichen?
just4FunTA
2019-06-02, 18:43:45
Verstehe die Aufregung nicht, 499€ für die rtx2080 wäre eine schöne Überraschung aber bei 599 wundere ich mich eher warum die noch so teuer sind..
y33H@
2019-06-03, 06:09:06
Was ist die Sache mit HDMI 2.1? bei den allermeisten Leuten hängt so eine Karte am PC-Display.
nordic_pegasus
2019-06-03, 07:01:55
Was ist die Sache mit HDMI 2.1? bei den allermeisten Leuten hängt so eine Karte am PC-Display.
gibt aber auch genug Leute, die gerne einen High-End PC mit einem neuen TV kombinieren wollen für 120Hz@UHD. Und dank VRR/ALLM wird PC-Gaming auf dem TV sicherlich nicht uninteressanter.
y33H@
2019-06-03, 11:08:52
ja, das ist mir klar - aber Nvidia wusste das und hat sich wohl entschieden diese Käufer zu ignorieren, daher wundere ich mich wieso immer die gleichen Leute die gleiche Frage stellen ^^
robbitop
2019-06-03, 11:12:32
NV wird schon nachziehen. Turing hat nur HDMI 2.0. Damit ist VRR möglich. Mit HDMI 2.1 wurde es aber richtig beworben. Bei Ampere(?) wird man es sicherlich liefern. Zumindest die HW dafür.
Liefert man es nicht direkt zum Launch wird man IMO mittelfristig nachgeben. Sobald genug TVs es unterstützen wird die Nachfrage danach schon steigen. Intel wird es mit Gen11 oder Xe auch unterstützen. Entsprechend wird der Druck steigen.
=Floi=
2019-06-03, 13:41:41
"RTX 2060 SUPER, RTX 2070 SUPER and RTX 2080 SUPER could retail for as low as $249, $399 and $599 respectively..."
https://www.youtube.com/watch?v=CHq2fzE4ryI
:freak:
Sonyfreak
2019-06-03, 14:14:13
Also eine GTX 2080 "SUPER" mit voller Shaderanzahl und 12GB RAM wie von Leo vorgeschlagen würde mir schon gefallen. :uponder:
mfg.
Sonyfreak
Ex3cut3r
2019-06-03, 14:25:32
Ja nee is klar, da wird einfach der VRAM auf +500 mhz hochgezogen sein, und fertig ist "super"
Wie 12GB bei einem 256 Bit Interface möglich sein sollen, muss man mir auch nochmal erklären. Oder solls wieder eine GTX 970 werden 3,5 + 0,5? Also 8GB + 4GB? Ja macht Sinn
crux2005
2019-06-03, 16:01:11
Wie 12GB bei einem 256 Bit Interface möglich sein sollen, muss man mir auch nochmal erklären. Oder solls wieder eine GTX 970 werden 3,5 + 0,5? Also 8GB + 4GB? Ja macht Sinn
RTX 2080 Ti Super
Ex3cut3r
2019-06-03, 16:17:39
Startseite gelesen? Leo spekuliert mit 3 Optionen. Und unter anderem eine 2080 non Ti Super mit 12 oder 16GB, 16GB gingen, wären dann aber mehr als bei der Ti. 12GB sollen bei 256 Bit wie gehen?
Desweiteren bezog ich mich auf Sonyfreak und der hat definitiv keine Ti gemeint.
Grüße
An mehr Speicher glaub ich nicht, da NV immer die Nachfolgegeneration im Blick haben wird und man weiß nie, wie sich die Speicherpreise entwickeln, erst recht, wenn das Ganze noch auf sich warten lässt, wie beispielsweise ein wahrscheinlicher 6FFN-Prozess.
Man wird denke ich schnelleren Speicher und optimiertere Taktraten anbieten, evtl. sogar ne 3000er-Generation daraus machen. Zudem könnte man die Chipklassen anders klassifizieren, z.B. einen TU104 im Vollausbau in den Markt bringen und aus einer x070 einen TU104 Salvage machen, man hätte das Potenzial überall ein paar mehr Shader aufzulegen.
crux2005
2019-06-03, 16:27:50
Startseite gelesen? Leo spekuliert mit 3 Optionen. Und unter anderem eine 2080 non Ti Super mit 12 oder 16GB, 16GB gingen, wären dann aber mehr als bei der Ti. 12GB sollen bei 256 Bit wie gehen?
Desweiteren bezog ich mich auf Sonyfreak und der hat definitiv keine Ti gemeint.
Grüße
Du aber auch nicht. :biggrin:
Dabei muß es nicht zwingend eine Speicherverdopplung geben, eventuell läßt nVidia hierfür zielgerichtet Speicherchips mit 1,5 GByte pro Chip fertigen, wie es die GDDR-Spezifikation schon seit GDDR5X ermöglicht.
Ex3cut3r
2019-06-03, 16:30:47
An mehr Speicher glaub ich nicht, da NV immer die Nachfolgegeneration im Blick haben wird und man weiß nie, wie sich die Speicherpreise entwickeln, erst recht, wenn das Ganze noch auf sich warten lässt, wie beispielsweise ein wahrscheinlicher 6FFN-Prozess.
Man wird denke ich schnelleren Speicher und optimiertere Taktraten anbieten, evtl. sogar ne 3000er-Generation daraus machen. Zudem könnte man die Chipklassen anders klassifizieren, z.B. einen TU104 im Vollausbau in den Markt bringen und aus einer x070 einen TU104 Salvage machen, man hätte das Potenzial überall ein paar mehr Shader aufzulegen.
Sehe ich genau so.
Du aber auch nicht. :biggrin:
An eine 1,5 GByte pro Chip glaube ich auch nicht. Das kam in Consumer Karten noch nie. Aber gut. Mal abwarten. Die 2080 und 2070 non Ti hätten damit mehr Speicher als die Ti. Nagut, Nvidia ist ja bekannterweise etwas verrückt. Bei der Ti dann auch gleich hoch auf 16GB? :uponder:
crux2005
2019-06-03, 16:36:15
Ich glaube auch nur an mehr Shader und Takt (dank besseren Yields).
An eine 1,5 GByte pro Chip glaube ich auch nicht. Das kam in Consumer Karten noch nie. Aber gut. Mal abwarten. Die 2080 und 2070 non Ti hätten damit mehr Speicher als die Ti. Nagut, Nvidia ist ja bekannterweise etwas verrückt. Bei der Ti dann auch gleich hoch auf 16GB? :uponder:
Die RTX Titan müsste dann auch mehr VRAM bekommen.
Wichtig ist es ja nur, die 2080 und die 2070 schneller zu machen und die 2060 deutlich billiger, denn die liegt mit Sicherheit wie Blei im Laden. So wäre dann als Refresh im Herbst eine 2080 Super mit 8GB 18Gbps GDDR6 denkbar, die volle 3072 Shader und ne höhere TDP hat. Damit würde man die VII und einen evtl. größeren Navi gut auf Abstand halten und man könnte die Preise erhalten. Als 2070 SE (Super Edition :D) würde dann ein 2560 Shader TU104 reichen, der ebenfalls etwas höhere TDP und 14 Gbps RAM behält.
Mit TU106 könnte man ne 2060 erhalten und eine Preiszone herabrutschen lassen und eine 2060 Ti mit 8GB neu einführen, die den bisherigen Preispunkt besetzt. Oder man macht das wie gesagt als 3000er-Refreshgeneration, da ist sich NV wahrscheinlich selbst noch nicht sicher :D.
Jupiter
2019-06-03, 17:30:46
Alles unterhalb der RTX 2080 Ti-Geschwindigkeit ist m.E. langsam und uninteressant. Die RTX 2080 ist mit den 8 GB VRAM auch schlecht balanciert.
Leonidas
2019-06-04, 12:41:35
Thema Preissenkungen beim "SUPER" Turing-Refresh:
Niemand hätte was gegen Preissenkungen, doch selbige drücken dann auch die Preise von GeForce GTX 1660 & 1660 Ti sowie eventuell auch der GeForce GTX 1650 nach unten. nVidia verliert hier massiv an durchschnittlichem Verkaufspreis - und es ist unsicher, ob man dafür genügend Stückzahlen generieren kann, um dies auszugleichen. Wenn nicht, wäre es ein heftiges Minusgeschäft für nVidia. Insofern sehe ich diese angebliche Preissenkung eher als in Frage zu stellen an.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-3-juni-2019
Das Problem ist, dass du toll viel Marktanteile haben kannst aber trotzdem nix verkaufst. Wenn die Preise nicht passen, dann kaufts eben keiner. Das ist ein bisschen untergegangen in deinem Artikel. Solange AMD nichts hat bleibt der Marktanteil natürlich (obwohl es ja bereits ne Gegenbewegung gab, trotz altem Krempel auf Seiten AMDs). Wenn Navi kommt und ausreichend verfügbar ist könnte sich das aber sehr schnell drehen. Die Preissenkung der 2600er ist absolut notwenig, aus mehreren Gründen. Die Preissenkung der größeren Modelle könnte wirklich auf einem Missverständnis basieren.
Fragman
2019-06-04, 12:56:18
Navi ist eine reine Zwischenlösung, die im nächsten Jahr durch mehr Leistung, Features und RAM abgelöst wird. Deshalb glaube ich nicht, das Navi groß einschlagen wird, da viele einfach nochmal ein Jahr warten werden. So günstig wird Navi ja nun auch nicht, das das ein no brain Kauf wäre bzw man damit die Käufer bekommt, die bei deutlich niedrigeren Preisen zuschlagen und nicht wissen, wie der Hersteller ihrer Grafikkarte heißt. Ausser natürlich, die bringen zeitnah low end Modelle.
Das kommt schlicht und ergreifend auf den Preis an, da ist es völlig egal ob Zwischenlösung oder nicht.
w0mbat
2019-06-04, 13:48:19
Wieso sollte Navi mit neuer Architektur, neuem Speicher und neuem 7nm Prozess eine "Zwischenlösung" sein? Und woher weiß Fragman schon die Preise?
wolik
2019-06-04, 13:55:08
nVidia Turing (Pascal-Erbe) Q3/18, 12nm, GDDR6 ?
Wird einer die überflüssige Beiträge in diese Thread zum Navi löschen? Mein bitte auch.
TheAntitheist
2019-06-04, 13:57:18
Wieso sollte Navi mit neuer Architektur, neuem Speicher und neuem 7nm Prozess eine "Zwischenlösung" sein? Und woher weiß Fragman schon die Preise?
naja das es eine Zwischenlösung ist, sollte klar sein, die PS5 wird ja schon mit einer verbesserten Variante kommen.
Wie gesagt es ist völlig egal ob Zwischenlösung oder nicht. Wenn die Preise angemessen niedrig sind muss NV reagieren. Daher gibts eben die neuen 2080 und 70. Die müssen halt so viel schneller sein, dass man entweder die Preise halten kann oder die Preise möglichst wenig nach unten verändern muss.
Und die 2060 hat nunmal das 6GB-Problem. Da geht nix über 300€ mMn.
Edit: Wenn es zur Einordnung der Refreshes geht ist hier gar nix OT.
w0mbat
2019-06-04, 14:24:00
naja das es eine Zwischenlösung ist, sollte klar sein, die PS5 wird ja schon mit einer verbesserten Variante kommen.
Aha, und das weißt du woher?
Aber hören wr jetzt mit dem OT auf, das sollte alles in den Navi Thread.
Leonidas
2019-06-04, 16:00:39
Das Problem ist, dass du toll viel Marktanteile haben kannst aber trotzdem nix verkaufst. Wenn die Preise nicht passen, dann kaufts eben keiner. Das ist ein bisschen untergegangen in deinem Artikel.
Ja, das hätte ich besser ausformulieren können.
In der Sache stimme ich allerdings nicht zu.
Die Frage ist doch eher: Wieviel Marktanteil realisiert NV einfach dadurch, das sie NV sind?! Weil sobald dieser Anteil nur ausreichend hoch ist, lohnt keine Preissenkung. Und ich glaube wir sind uns einig, wenn ich prophezeie, das selbst bei einem Spitzen-Navi und keiner Reaktion seitens NV die Overall-Marktanteile sich bestenfalls auf 65:35 zugunsten NV verschieben. NV sitzt bei der Masse der Käufer so dick im Sattel, da würde selbst ein klar schlechteres P/L-Verhältnis verziehen.
Bucklew
2019-06-04, 16:22:21
Exakte Preislagen hierzu gibt es allerdings noch nicht, die von WCCF Tech hierzu genannten Werte sind nur deren Spekulation – welche zudem mit 249$ für die GeForce RTX 2060 "SUPER", 399$ für die GeForce RTX 2070 "SUPER" sowie 599$$ für die GeForce RTX 2080 "SUPER" sehr aggressiv angesetzt ist.
Ich dachte die ganze Turing-Reihe sei komplett überteuert? Und nun sollen 100US$ weniger plötzlich "sehr aggressiv angesetzt" sein?
Irgendwie macht das insgesamt wenig Sinn. Wenn tatsächlich 100US$ weniger einen attraktiven Preis ausmachen (für den Kunden, so würde ich die Aussage mal interpretieren), dann kann Turing ab Start ja nicht so überteuert gewesen sein.
Ich formuliers mal anders: Wenn du lauter VWs im Sortiment hast und du verlierst gegen den Händler auf der anderen Strassenseite, der nur Isettas und Trabis im Angebot hast, kann das ja sein, dass dein Marktanteil konstant höher ist als der Trabihändler. Aber stell dir mal vor, der bekommt plötzlich Picantos und Twingos rein, dann siehste mit übertriebener Preispolitik schön alt aus. Dann bleiben deine Ups und Polos im Lager weil du nur noch Markenkäufer hast. Es geht aber gar nicht mal um die Konkurrenz als solchem. Dein Problem als VW-Händler kann durchaus sein, dass die Kunden, die du vorher schon befriedigt hast keinen Bock auf was Neues haben. Also bist du gezwungen das Ganze attraktiver zu machen oder du wirst anfälliger auf plötzlich auftretende Konkurrenz. Genau das ist halt Intel passiert. Die Konkurrenz hatte plötzlich Renault statt Trabant. Schade.
Klar, Autovergleiche hinken immer, aber ich hoffe es wird einigermaßen deutlich, dass die Bewertung des Marktes eben doch ein klein wenig komplexer ist.
robbitop
2019-06-04, 16:59:51
Eine neue mArch (und davon sprach Lisa) ist nur im unwahrscheinlichen Fall eine Zwischenlösung. Die Gerüchte sprechen vor allem von einer Zwischen/Hybridlösung, weil ihnen der Unterschied zwischen ISA und mArch nicht klar ist.
IMO wird Navi10 einfach der Polaris 10/20/30 Nachfolger und eine tu106 Wettbewerber. Später kommt sicherlich ein Navi (N20?) mit mehr Ausführungseinheiten um gegen 104 und ggf 102 anzutreten. Und ggf gibt es noch einen kleineren Navi (N14?) für tu116.
Complicated
2019-06-04, 17:39:10
Was Intel und Nvdia gemeisam haben mit Ihren Marktanteilen, ist dass es nicht so einfach ist plötzlich weniger Stückzahlen zu verkaufen. Es entsteht ein Teufelskreis, denn die Chips sind produziert und erhöhen die Stückkosten der verkauften Chips wenn der Überschuss dann in den Lagern für ausbleibende Bestellungen sorgt. Die Marktanteil bleiben erst einmal stabil, doch die Margen gehen den Bach runter....und ein Quartal später auch die Marktanteile mit weiter sinkenden Margen. Du musst den Überschuss los werden und es ist keine Leichtigkeit die richtige Balance zwischen Preis und Margen zu erwischen...
Leonidas
2019-06-04, 17:52:47
Ich dachte die ganze Turing-Reihe sei komplett überteuert? Und nun sollen 100US$ weniger plötzlich "sehr aggressiv angesetzt" sein?
Irgendwie macht das insgesamt wenig Sinn. Wenn tatsächlich 100US$ weniger einen attraktiven Preis ausmachen (für den Kunden, so würde ich die Aussage mal interpretieren), dann kann Turing ab Start ja nicht so überteuert gewesen sein.
Ich habe nix von "attraktiven" Preisen gesagt. Ich sagte die Preissenkung sei aggressiv - mehr nicht. Aggressiv ist eine Preissenkung auch dann, wenn sie nicht zu atttraktiven Preisen führt, dies ist alleine eine Frage, wie hoch der Preisabschlag ist. Und eine RTX 2060 von 349$ auf 249$ ist aggressiv, dies sind -29%.
Hott3X
2019-06-04, 18:11:42
Und eine RTX 2060 von 349$ auf 249$ ist aggressiv, dies sind -29%.
Vor allem, dass die 2060 damit günstiger wäre als die 1660TI. Ich glaube da irgendwie nicht dran.
Dural
2019-06-04, 18:49:51
Die 1660 wäre erst recht überteuert mit dem kleinen chip. Die könnte im preis ja auch fallen.
Bucklew
2019-06-04, 19:58:13
Ich habe nix von "attraktiven" Preisen gesagt. Ich sagte die Preissenkung sei aggressiv - mehr nicht. Aggressiv ist eine Preissenkung auch dann, wenn sie nicht zu atttraktiven Preisen führt, dies ist alleine eine Frage, wie hoch der Preisabschlag ist. Und eine RTX 2060 von 349$ auf 249$ ist aggressiv, dies sind -29%.
Dann hab ich das wohl falsch interpretiert.
Der Abschlag bei der 2070/2080 ist aber nicht so hoch, wie bei der 2060.
Vielleicht ist die Post-Turing Generation ja auch nicht so weit und so ein Preisdrop macht Sinn?
mczak
2019-06-04, 20:31:41
Die 1660 wäre erst recht überteuert mit dem kleinen chip. Die könnte im preis ja auch fallen.
"Klein" ist irgendwie anders. Der Core i9-9900k, der ist klein (und kostet das doppelte, und da ist nur der Chip dabei...) :biggrin:.
Aber logischerweise wird die 1660 nicht teurer sein als irgendwelche RTX 2060. Allenfalls würden die die preislich etwas näher zusammenrücken.
prinz_valium
2019-06-06, 14:24:54
Ich habe nix von "attraktiven" Preisen gesagt. Ich sagte die Preissenkung sei aggressiv - mehr nicht. Aggressiv ist eine Preissenkung auch dann, wenn sie nicht zu atttraktiven Preisen führt, dies ist alleine eine Frage, wie hoch der Preisabschlag ist. Und eine RTX 2060 von 349$ auf 249$ ist aggressiv, dies sind -29%.
Ich finde eine 2060 für $249 relativ attraktiv.
Wobei heute nicht mehr so sehr wie noch vor einem Jahr.
dildo4u
2019-06-07, 12:11:40
2080 Super ist angeblich der volle TU104 Chip und die 2060 Super soll 8GB bekommen.
https://live.staticflickr.com/65535/48018066161_6d2b8a8386_b.jpg (https://flic.kr/p/2gac99r)turingsuper (https://flic.kr/p/2gac99r) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://wccftech.com/nvidia-geforce-rtx-20-super-graphics-cards-specs-launch-leak/
KarlKastor
2019-06-07, 14:24:55
Die 2070 Super wäre demnach dann TU104.
mironicus
2019-06-07, 15:24:30
Ui, da werden sich RTX 2060-Besitzer mit 6GB aber ärgern. :)
Linmoum
2019-06-07, 15:37:47
Ach was, die ist doch dann immerhin schon sagenhafte 6 Monate auf dem Markt. Halb so wild.
Ex3cut3r
2019-06-07, 15:39:28
2080 Super ist angeblich der volle TU104 Chip und die 2060 Super soll 8GB bekommen.
https://live.staticflickr.com/65535/48018066161_6d2b8a8386_b.jpg (https://flic.kr/p/2gac99r)turingsuper (https://flic.kr/p/2gac99r) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://wccftech.com/nvidia-geforce-rtx-20-super-graphics-cards-specs-launch-leak/
Von 2944 Shader auf 3072, dass reißt es jetzt natürlich raus. :freak:
Ich warte lieber auf die neue 7nm Gen nächstes Jahr, aber für jeden der neukauft, natürlich eine gute Option.
w0mbat
2019-06-07, 16:01:01
Du hast ja auch schon eine 2080, natürlich lohnt sich das nicht für dich.
mironicus
2019-06-07, 16:31:13
Das lohnt sich ohnehin erst in 7 nm, ich werde dieses Jahr auch kein Laptop mit NVidia-Grafik kaufen, ein Upgrade von einer GTX 1070 auf RTX-Karten bringt so gut wie nichts.
TheGood
2019-06-07, 23:15:47
Man sieht mal wieder, Konkurrenz belebt das Geschäft und man kriegt dann vielleicht etwas mehr fürs Geschäft...
2080 Super ist angeblich der volle TU104 Chip und die 2060 Super soll 8GB bekommen.
https://live.staticflickr.com/65535/48018066161_6d2b8a8386_b.jpg (https://flic.kr/p/2gac99r)turingsuper (https://flic.kr/p/2gac99r) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://wccftech.com/nvidia-geforce-rtx-20-super-graphics-cards-specs-launch-leak/
Damit haben sich auch die geringen Preise erledigt. Man wird das genau gemacht haben um die Preise zu halten.
Warum fällt man da eigentlich immer darauf rein? Preise werden doch eh erst zum Launch angegeben, das was AMD das gemacht hat mit Preisangaben in einer frühen Präsentation ist doch total ungewöhnlich. Preise sind sonst nie vorher bekannt.
dildo4u
2019-06-08, 10:25:07
Die alten Karten könnten mit gesenkten Preisen erhalten bleiben,1070 gab es auch Parallel zur 1070 Ti.
Leonidas
2019-06-09, 05:09:12
Letzteres denke ich nicht. Das wären dann 6 Karten im Preisbereich von 300-700$. Zu viele - oder zumindest sehr ungewöhnlich.
Sunrise
2019-06-09, 10:45:03
Letzteres denke ich nicht. Das wären dann 6 Karten im Preisbereich von 300-700$. Zu viele - oder zumindest sehr ungewöhnlich.
Ja, das wäre maximal extrem kurzfristig denkbar wenn sie die Lager noch leeren wollen, aber der Fokus und die Wahrnehmung sollte möglichst auf den neuen Modellen liegen, man braucht etwas Attraktives gegen AMDs Navi. Jedenfalls solange NV nichts wirklich Neues präsentieren kann, und das wird wohl noch etwas dauern.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.