PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 [45] 46 47 48

pilzsammler2002
2019-02-20, 10:29:12
Turing Shader + GDDR6 + mehr Einheiten als 1060 + Günstiger in der Herstellung als 1070 + Wird sicher ein sehr gutes Preis/Leistungs Verhältnis haben, wenn nicht sogar das beste.

Ich sehe sehr viele Vorteile. Seit wann ist fortschritt den so uninteressant?
Vllt weil grob 1070 performance mit 6/3 GB :D
Das ist kein Fortschritt :freak:

HOT
2019-02-20, 10:45:44
Turing Shader + GDDR6 + mehr Einheiten als 1060 + Günstiger in der Herstellung als 1070 + Wird sicher ein sehr gutes Preis/Leistungs Verhältnis haben, wenn nicht sogar das beste.

Ich sehe sehr viele Vorteile. Seit wann ist fortschritt den so uninteressant?

Performance + Preis keinerlei Fortschritt, kaum billger für NV, schlechtere PCBs als 1070 im Durchschnitt und obendrein noch weniger RAM - wahnsinn... Man könnte fast auf die Idee kommen, dass man da mit ner 590 noch besser dran ist. Die ist zwar nicht so schnll, aber viel billiger und hat 8GB :freak:

Dural
2019-02-20, 11:19:31
Und von wo weist du das die 590 viel billiger ist?!?

279.- stehen für die 1660Ti im Raum, rate mal was der Preis der 590 ist... :freak:

rentex
2019-02-20, 12:34:49
Geizhals wirkt Wunder...Costums sind unter 279€.

dildo4u
2019-02-20, 12:36:50
Performance + Preis keinerlei Fortschritt, kaum billger für NV, schlechtere PCBs als 1070 im Durchschnitt und obendrein noch weniger RAM - wahnsinn... Man könnte fast auf die Idee kommen, dass man da mit ner 590 noch besser dran ist. Die ist zwar nicht so schnll, aber viel billiger und hat 8GB :freak:
AMD selbst sieht die 1660 Ti in Konkurrenz zu Vega 56,NV macht dort ein Reibach das es nicht mehr feierlich ist,und AMD muss jetzt HBM2 + 486mm Chip für unter 300€ verkaufen.

http://www.pcgameshardware.de/Radeon-RX-Vega-56-Grafikkarte-266624/News/AMD-MSI-Air-Boost-guenstig-kaufen-1275464/

Dural
2019-02-20, 12:41:32
Trotzdem ist laut AMD der UVP bei 279.- :rolleyes:

Die Karte wird klar schneller sein, wer da wegen 2GB zur 590 greift um vielleicht mal irgend ein Vorteil zu haben... anstelle in jedem Spiel mehr Leistung zu haben ist sagen wir mal mutig ;)

Dazu ziemlich sicher das bessere Per/Watt Verhältnis = Leiser und Kühler bei gleichem Aufwand.

Bevor wieder einer kommt, die Karte wird ziemlich sicher etwas mehr als die 590 kosten, das darf sie aber auch.


Das "dumme" für NV ist eigentlich nur, das sie sicher lieber ihre RTX Karten verkaufen würden...

JVC
2019-02-20, 12:48:15
... wer da wegen 2GB zur 590 greift um vielleicht mal irgend ein Vorteil zu haben... anstelle in jedem Spiel mehr Leistung zu haben ist sagen wir mal mutig ;)


Ich sehe es genau anders herum ;)
Wer jetzt noch zu weniger als 8gb greift, ist mutig, oder sehr genügsam :wink:

Ich finde es wesentlich schlimmer wenn mal der RAM ausgeht ...
Von guten Texturen lebt ein Spiel und die kosten hauptsächlich RAM ...

m.f.g. JVC

Timbaloo
2019-02-20, 12:51:09
Performance + Preis keinerlei Fortschritt, kaum billger für NV, schlechtere PCBs als 1070 im Durchschnitt und obendrein noch weniger RAM - wahnsinn... Man könnte fast auf die Idee kommen, dass man da mit ner 590 noch besser dran ist. Die ist zwar nicht so schnll, aber viel billiger und hat 8GB :freak:
Die RX 590 hat auch bald doppelt so viel Leistung wie die 1160 ti. Zumindest thermische Leistung...

Auch geil die 590 als Gegenstück zu "Performance + Preis keinerlei Fortschritt" zu nennen. Ist sie schließlich die in HW manifestierte Entwicklungsverweigerung von AMD im Grafikkartensegment.

JVC
2019-02-20, 12:57:48
Ist sie schließlich die in HW manifestierte Entwicklungsverweigerung von AMD im Grafikkartensegment.

Wie meinen ?
Wovor sträubt sich AMD ?

DLSS ist Müll. (der Weichzeichner interessiert mich herzlich wenig)
RTX ist noch nicht so weit. (wird sich sicher mal durchsetzen, wenn genug Leistung dafür übrig ist)
Und bei der Ram Bestückung, bremst maximal NV ...
(wobei man mit besseren Texturen schnell die Optik anheben könnte ohne viel mehr Leistung zu benötigen,
Textur Mods sprengen jetzt schon öfter 8GB und es gibt mittlerweile sogar Spiele die von Haus aus,
selbst unter FHD, mehr als 8GB sinnvoll nutzen können)

Dafür verweigert sich NV beim Free-Sync über HDMI !
(das ist wirklich ne unnötige bremse von NV, Fernseher werden immer besser und haben nur HDMI)

m.f.g. JVC

p.s.: Meine nächste Graka muss HDMI 2.1 unterstützen, ebenso wie der nächste Bildschirm/Fernseher. VRR+8K ich komme ;)
https://www.overclock3d.net/news/gpu_displays/hdmi_2_1_vrr_support_will_come_to_amd_radeon_rx_gpus_with_a_future_driver_update/1
"Radeon Software will add support for HDMI 2.1 Variable Refresh Rate (VRR) technology on Radeon RX products in an upcoming driver release."
Und Wann genau will NV HDMI 2.1 Kompatibilität bieten ? (können oder wollen sie das nicht ?)

Fragman
2019-02-20, 13:50:27
Und bei der Ram Bestückung, bremst maximal NV ...


Wer in dem Preissegment jetzt kauft, macht das sicher nicht, weil er die Karte solange nutzen will, bis 2 GB weniger Speicher eine Rolle spielen.
Auch spielt derjenige sicher nicht in Auflösungen, bei dem das eine Rolle spielt.
Derjenige will für sein Geld möglichst viel Leistung haben.



Zum Thema RTX hat Metro grad an Deiner Tür geklingelt...

dargo
2019-02-20, 14:00:59
Die 1660Ti wird der direkte Nachfolger der 1060 sein, also die Karte mit Abstand höchsten Marktanteil laut Steam, was daran soll bitte uninteressant sein?!?

Nur weil die ganzen möchte gern "Profis" auf Youtube ständig sagen wie uninteressant die Karte ist, weil es gleich schnelle alte Karten gibt (Sorry der Vergleich ist so was von Dumm…) sollte man zuerst selber mal etwas überlegen, den dann sollte einem auffallen das die 1660Ti Stückzahlmässig klar das zeug zum Bestseller hat.
Hmm... mal kurz überlegen. 2,5 Jahre später kommt der Nachfolger der 1060 immer noch mit 6GB Vram. Ziemlich unspannend. Die 1060 hatte als Nachfolger der 970 wenigstens auch mehr Speicher. Über 2,5 Jahre später kommt eine Turing mit der Leistung der 1070. Wieder ziemlich unspannend.
https://www.alternate.de/Palit/GeForce-GTX-1070-Jetstream-Grafikkarte/html/product/1280367?campaign=Grafikkarte/Palit/1280367

Und zu guter Letzt... TU116 hat weder RT-Cores noch Tensor-Cores. Im Metro-Thread versucht man mir zu erklären das Spiel würde ohne Raytracing komplett kacke aussehen. :uponder: DLSS unterstützen die Karten auch nicht.

btw.
Selbst für den IHV ist der TU116 kein großer Wurf. Das Ding ist so groß wie GP104 oder über 50% größer als GP106.

HOT
2019-02-20, 14:02:57
Wer redet dann davon, dass die RX590 ein Fortschritt ist? Das ist sie eben nicht, das ist aber auch ein Chip von Mitte 2016... Dass es bei Turing keinen Fortschritt gibt ist einfach nur traurig... und das auch noch abzufeiern ist schon reichlich daneben.

Der Chip ist weniger leistungsfähig als GP104 und fast genauso groß und hat nicht mal RT... als i-Tüpfelchen wird er auch noch mit zu wenig RAM garniert, hervorragendes Produkt, wirklich.

Rancor
2019-02-20, 14:04:24
Ich verstehe auch überhaupt nicht, warum NV hier mit 6GB hausieren geht.

dildo4u
2019-02-20, 14:05:51
Hmm... mal kurz überlegen. 2,5 Jahre später kommt der Nachfolger der 1060 immer noch mit 6GB Vram. Ziemlich unspannend. Die 1060 hatte als Nachfolger der 970 wenigstens auch mehr Speicher. Über 2,5 Jahre später kommt eine Turing mit der Leistung der 1070. Wieder ziemlich unspannend.
https://www.alternate.de/Palit/GeForce-GTX-1070-Jetstream-Grafikkarte/html/product/1280367?campaign=Grafikkarte/Palit/1280367

Und zu guter Letzt... TU116 hat weder RT-Cores noch Tensor-Cores. Im Metro-Thread versucht man mir zu erklären das Spiel würde ohne Raytracing komplett kacke aussehen. :uponder: DLSS unterstützen die Karten auch nicht.

btw.
Selbst für den IHV ist der TU116 kein großer Wurf. Das Ding ist so groß wie GP104 oder über 50% größer als GP106.

Du bist doch der Erste der die Schwächen von Pascal hervorhebt,Turing hat keine mehr,würde mich nicht Wundern wenn die 1660Ti unter Vulkan auf Level mit Vega 56 ist.

HOT
2019-02-20, 14:06:24
Träum weiter.


Klar ist natürlich auch, dass sich ein Vega für 250€ für AMD nicht rechnet. Das ist dann ein +/-0 Produkt, streite ich auch gar nicht ab. Ich mach mich über diese idiotische Produktpolitik von NV lusting.

dildo4u
2019-02-20, 14:10:03
Träum weiter.


Die 1070 ist schon dicht dran und Turing sollte besser laufen.

https://farm8.staticflickr.com/7828/32213984797_736e017d09_b.jpg (https://flic.kr/p/R5D6mZ)Wolf (https://flic.kr/p/R5D6mZ) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.techspot.com/review/1791-amd-radeon-vii-mega-benchmark/

Dural
2019-02-20, 14:50:58
Vor 20 Jahren + hat man Grafikkarten nach Speicher gekauft.

Heute scheinen wir wieder so weit zu sein ;)


Wie so ich eigentlich mit TU116 angefangen habe, RT und die Tensor Core scheinen doch erheblichen Platz zu verbrauchen. ca. 285mm2 gegen 445mm2 bei 1536 vs 2304 Core ist mal eine Ansage! :eek:

rentex
2019-02-20, 14:55:16
Das scheint keiner beantworten zu können oder zu wollen🤷*♂️

dargo
2019-02-20, 16:29:38
Klar ist natürlich auch, dass sich ein Vega für 250€ für AMD nicht rechnet. Das ist dann ein +/-0 Produkt, streite ich auch gar nicht ab.
Ich liebe die 3DC-Analysten. ;D Mich erinnert das an die Zeit bevor Ryzen kam. Da wurde auch von einigen prophezeit ein Sixcore würde nie so günstig verkauft werden können. Nur weil Intel vorher Mondpreise verlangt hatte heißt es nicht, dass der andere automatisch keine Marge mehr hat. Dito bei Nvidia vs. AMD. Aber du scheinst ja verlässliche Quellen zu haben was die einzelnen Komponenten AMD tatsächlich kosten. Lass uns daran teil haben. :)


Wie so ich eigentlich mit TU116 angefangen habe, RT und die Tensor Core scheinen doch erheblichen Platz zu verbrauchen. ca. 285mm2 gegen 445mm2 bei 1536 vs 2304 Core ist mal eine Ansage! :eek:
Was ist denn daran jetzt so :eek:? Wenn man sich die SM-Grafik (https://www.3dcenter.org/dateien/abbildungen/nVidia-Turing-Shader-Cluster.png) anschaut ist es nur die logische Konsequenz.

Ich verstehe auch überhaupt nicht, warum NV hier mit 6GB hausieren geht.
Eigentlich ganz einfach. Wenn du das obere Portfolio schon knapper bemessen tust geht es automatisch untenrum weiter. Welche Wahl hat denn NV bei 192Bit SI und 14Gbps GDDR6? Da hast du einfach nicht viele Möglichkeiten. Mit 12GB würden die Produkte über TU116 daneben etwas blöd ausschauen. Man hätte natürlich TU116 mit 8GB und 256Bit bringen können. Wäre wirklich ein rundes Produkt im Bereich von ~280€. Aber dann müsste NV wieder auf Marge verzichten. ;) Und die RTX2060 würde dann auch etwas blöd daneben ausschauen.

Hätte, hätte, Fahrradkette... es ist wie es ist.

Edit:
Bei GDDR6 fehlt aktuell einfach mehr Flexibilität. TU116 erreicht ja 336GB/s mit einem 192Bit SI. Gäbe es bsw. GDDR6 mit 11Gbps könnte NV einen TU116 mit 8GB und 352GB/s an einem 256Bit SI bringen. In dem Fall müsste natürlich der GDDR6 11Gbps Speicher einiges weniger kosten als der 14Gbps Speicher, ansonsten lohnt sich das wieder nicht. Das selbe könnte man dann mit der RTX2060 praktizieren.

Ex3cut3r
2019-02-20, 17:23:38
Die Sache ist doch total easy, nvidia hat "nur" 6GB verbaut, weil man am besten bei 7nm wieder zuschlagen soll, nvidia hätte nix davon wenn Sie jetzt 10GB verbaut hätten, und die Käufer sich 5 Jahre mit ihrem FHD Monitor zurück lehnen können, so wurde kein Wirtschaftsunternehmen agierien mit dem Ziel Gewinn zu machen, ganz einfach. AMD lässt sich ihre 16GB auch früstlich entlohnen, aber da hast du überhaupt keine alternative momentan, eine 12GB Vega 7 mit günstigen Preis, wurde wohl mehr Leute ansprechen.

=Floi=
2019-02-20, 18:00:26
Das "dumme" für NV ist eigentlich nur, das sie sicher lieber ihre RTX Karten verkaufen würden...

Ich hab mir vor 4 woche eine 980ti für 250€ gekauft. Wer die leistung haben will, konnte sie schon seit ewigkeiten kaufen. :freak:
Warum sollte man sich jetzt diese klasse kaufen, wenn sie schon durch die geniale 1070er bedient wurde?!

Die 1660 kann nur nix (besser)


edit
Ok, also 250W für die gleiche Leistung, nur das die 1660Ti eine modernere Architektur hat (Treiber Updates?) und für die gleiche Leistung nur 150W verbraucht, also ich weiß ja nicht.

ich will es nicht schönreden, nur war das für mich die lösung mit dem besten P/L. Nebenbei habe ich dadurch NV keinen ct bezahlt und das ist mir fast noch wichtiger.
So kann ich die nächste zeit aussitzen.
Doppelte performance würde über doppelten preis kosten.

Ex3cut3r
2019-02-20, 18:01:55
Ok, also 250W für die gleiche Leistung, nur das die 1660Ti eine modernere Architektur hat (Treiber Updates?) und für die gleiche Leistung nur 150W verbraucht, also ich weiß ja nicht.

JVC
2019-02-20, 18:36:55
... nvidia hätte nix davon wenn Sie jetzt 10GB verbaut hätten, und die Käufer sich 5 Jahre mit ihrem FHD Monitor zurück lehnen können ...


Stimmt NV hätte nix davon ... aber wir Kunden hätten was davon :wink:
(schön das du mal zugibst, das viel RAM durchaus Sinn macht)

Es stimmt auch das NV kein Wohlfahrtsunternehmen ist,
aber das sich NV auf unsere Kosten "die Taschen vollstopft" sehe ich auch nicht ein.
https://www.3dcenter.org/news/nvidia-geschaeftsergebnisse-q42018-das-rekordjahr-2018-endet-mit-einem-krachenden-quartalsrueck
"Aufgrund der Spitzen-Ergebnissen in den drei vorhergehenden Quartalen reicht es in der Gesamtrechnung für das Kalenderjahr 2018 (bei nVidia das Finanzjahr 2019) trotzdem für klare Umsatz- und Gewinnrekorde. Erstmals wurde dabei eine zweistellige Milliarden-Umsatzzahl mit 11,72 Mrd. Dollar erreicht, dies sind +20,7% gegenüber dem Vorjahr."

Also am Hungertuch nagt NV noch lange nicht.

Die könnten es sich sicherlich leisten, Tu um 30% günstiger anzubieten ohne Verlust zu schreiben ;)
(aber sie sind hald gierig und wollen die ganze Hand)

m.f.g. JVC

Dural
2019-02-20, 18:37:34
in turing optimierten spielen dreht selbige architektur kreise um maxwell plus halber verbrauch...

Monsta
2019-02-20, 20:00:06
in turing optimierten spielen dreht selbige architektur kreise um maxwell plus halber verbrauch...

Welcher Mensch auf dieser Erde kann sich so eine Grafikarte leisten aber hat nicht das Geld für den Strom?

Diese Diskussion ist mehr als lächerlich.

Dural
2019-02-20, 20:12:50
Da geb ich dir sogar recht, die diskussion ist definitiv lächerlich...

Das ganz komische ist ja wie viele an pascal festhalten wollen mit der begründung turing sei abzocke haha :freak: abzocke war gerade pascal mit seinen lächerlich kleinen Die und das ist sogar offiziel den nv verdient mit turing weniger, aber die meisten sind offensichtlich nicht so schlau um das zu sehen :rolleyes:

Monsta
2019-02-20, 20:22:18
Da geb ich dir sogar recht, die diskussion ist definitiv lächerlich...

Das ganz komische ist ja wie viele an pascal festhalten wollen mit der begründung turing sei abzocke haha :freak: abzocke war gerade pascal mit seinen lächerlich kleinen Die, aber die meisten sind offensichtlich nicht so schlaum um das zu sehen :rolleyes:

Ja das stimmt, ich fand Pascal auch ziemliech teuer, die 1160ti ist abgesehen vom Speicher das beste Produkt im Moment.
Mit 8Gb würde die sich mega gut verkaufen, aber vielleicht is es der Käuferschaft in der Preisklasse auch egal und die geht trotzdem gut weg.

dargo
2019-02-20, 20:26:25
Da geb ich dir sogar recht, die diskussion ist definitiv lächerlich...

Das ganz komische ist ja wie viele an pascal festhalten wollen mit der begründung turing sei abzocke haha :freak: abzocke war gerade pascal mit seinen lächerlich kleinen Die und das ist sogar offiziel den nv verdient mit turing weniger, aber die meisten sind offensichtlich nicht so schlau um das zu sehen :rolleyes:
Das klingt bei dir so als ob Pascal nur zum Release gekauft wurde, was auch lächerlich ist. Aktuell gibt es eine GTX1070 mit 8GB *hust* und guten Kühler für 289€. Oder eine V56 für 299€ im Mindstar mit guten Kühler.

Dural
2019-02-20, 20:32:40
Ja und? Alles abverkauf, gab es ja noch nie.

dargo
2019-02-20, 20:36:17
Naja... V56 ist bestimmt kein Abverkauf. Ich sehe noch keinen Ersatz bzw. Nachfolger. :wink:

=Floi=
2019-02-20, 23:08:34
Das ganz komische ist ja wie viele an pascal festhalten wollen mit der begründung turing sei abzocke haha :freak: abzocke war gerade pascal mit seinen lächerlich kleinen Die und das ist sogar offiziel den nv verdient mit turing weniger, aber die meisten sind offensichtlich nicht so schlau um das zu sehen :rolleyes:

was habe ich davon als kunde? Bei pascal passte das produkt. Wie groß der DIE ist ist für den kunden egal.
Ich sehe preissteigerungen um 40%, klar dass man hier pascal besser findet. Wir diskutierten hier mal von 50$ mehr pro gerneration. :rolleyes::freak:
Auch ist das build for OC in die hose gegangen. Marketing bullshit at its best. Nicht mal der lüfter ist bei turing ok. ;(

wo gab/gibt es einen pascal abverkauf? 1080 und 10180ti gab es nicht zum schnäppchenpreis!

Thunder99
2019-02-21, 00:03:28
Für eine gute 2080Ti >1200€ zu zahlen finde ich Abzocke. Eine gute 1080Ti gab es ab 730€. DIE Größe ist da relativ egal.

JVC
2019-02-21, 00:29:47
wo gab/gibt es einen pascal abverkauf? 1080 und 1080ti gab es nicht zum schnäppchenpreis!

https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-22-november-2018
"Nun sitzt nVidia in Umkehrung der Situation auf zu vielen Pascal-Chips, hat einige davon bereits abgeschrieben
(wahrscheinlich den GP102-Chip für die GeForce GTX 1080 Ti),"

Und die restlichen 1080 Chips haben sie für die 1070 Kastriert.

Gab also keinen 1080 oder 1080Ti Abverkauf.
(NV hat ja nix zu verschenken,
da verschrottet man noch lieber)

m.f.g. JVC

TheAntitheist
2019-02-21, 06:15:58
Für eine gute 2080Ti >1200€ zu zahlen finde ich Abzocke. Eine gute 1080Ti gab es ab 730€. DIE Größe ist da relativ egal.
Ahaaaa also muss man immer nur die Namen vergleichen?

was wäre denn wenn die 2080ti dann 2095ti heißen würde, DANN wäre es wieder okay für dich? Schon sehr Banane deine Aussagen... Natürlich geht es um DIE größen.

robbitop
2019-02-21, 06:35:47
Ich vermute, Thunder99 will darauf hinaus, dass das P/L nicht stimmt. Wäre die 2080ti 2x so schnell wie die 1080ti, wäre das ok.

So wie es jetzt ist, ist es mMn unschön. Bis vor ein paar Jahren gab es alle 18-24 Monate eine neue High End Karte mit 60-80% Mehrleistung als die alte Highendkarte zum vergleichbaren Preis. -> P/L verbesserte sich also pro Gen um +60-80%
Jetzt kostet die Highendkarte für 30 % mehr Leistung 70% mehr. Jetzt sinkt das P/L sogar.

Und ja: für den Endkunden ist egal, wie groß die GPU ist. Da entscheidet u.A. P/L

Fragman
2019-02-21, 06:37:19
Der Mining Hype hat die Preise kaputt gemacht, hier mit 730 Euro um sich zu werfen ist, sorry, lächerlich. Als ich eine Karte kaufen wollte, haben die Dinger mind 900 gekostet in einer brauchbaren Custom Version. Wenn man eine wirklich gute Custom haben wollte, musste man 1000 Euro auf den Tisch legen. Der "Abverkauf" nachher war dann schlechten Customs für 600 vorbehalten. Und da war Turing schon im Anmarsch. Wer also damals nicht gleich bei Release zugeschlagen hat, musste ordentlich was auf den Tisch legen, um eine 1080TI zu bekommen.

nordic_pegasus
2019-02-21, 07:01:58
p.s.: Meine nächste Graka muss HDMI 2.1 unterstützen, ebenso wie der nächste Bildschirm/Fernseher. VRR+8K ich komme ;)
https://www.overclock3d.net/news/gpu_displays/hdmi_2_1_vrr_support_will_come_to_amd_radeon_rx_gpus_with_a_future_driver_update/1
"Radeon Software will add support for HDMI 2.1 Variable Refresh Rate (VRR) technology on Radeon RX products in an upcoming driver release."
Und Wann genau will NV HDMI 2.1 Kompatibilität bieten ? (können oder wollen sie das nicht ?)

Bitte genau lesen, was AMD da ankündigt.

AMD wird das optionale HDMI 2.1 Feature "variable refresh rate" per Treiber-Update unterstützen. Allerdings wird AMD nicht per Treiber-Update aus den bestehenden HDMI2.0-Karten HDMI 2.1 Ausgänge zaubern. Die Bandbreite für 60Hz@8K bzw. 120HZ@4K ist in Hardware nicht vorhanden.

Und das ist für mich auch bei der Radeon VII ein großer Fauxpas. Zumal man die Radeon VII auf der gleichen CES angekündigt hat wie u.a. LG seine OLED TVs mit HDMI 2.1. Dies ist auch ein Grund, warum mich Turing so enttäuscht hat. Ich hatte zumindest auf HDMI2.1 ohne VRR gehofft.

Das einzige, was AMD hier ankündigt, ist dass man z.B. VRR@60Hz@4K unterstützen wird (z.B. für einige 2018er Samsung TVs).

Und das Nvidia VRR nicht unterstützt, ist marktpolitisch mit Gsync verbunden. Für mich genauso unverständlich wie für Dich.

robbitop
2019-02-21, 07:56:16
Ja dafür braucht es neue HW. Navi und Ampere? könnten diese mitbringe (volle hdmi2.1 bandbreite). Früher oder später wird NV auch vrr für hdmi freigeben. Spätestens wenn der Markt voller hdmi 2.1 Geräte ist. Um einen Wettbewerbsnachteil zu verhindern.

Thunder99
2019-02-21, 08:03:09
Ahaaaa also muss man immer nur die Namen vergleichen?

was wäre denn wenn die 2080ti dann 2095ti heißen würde, DANN wäre es wieder okay für dich? Schon sehr Banane deine Aussagen... Natürlich geht es um DIE größen.

Es geht um den Chip, nicht DIE Größe im generellen. Klar ist, dass ein großer Chip teuerer ist als ein kleiner Chip. Nvidia hat aber auch GT200 verkauft für unter 500€. Dieser war auch sehr groß :wink:.

2080Ti und 1080Ti basieren auf dem 102er Chip. Daher finde ich passt der Vergleich schon. Wenn man noch die Titan mit dazu nimmt hinkt der Vergleich ein wenig da die Titan total abgehoben ist...

Edith: @robbitop: Danke, darauf wollte ich hinaus :)

Käsetoast
2019-02-21, 08:13:42
Ist für mich unverständlich wie immer noch über Turing und seine Preise diskutiert werden kann. Die Preise sind vollkommen in Ordnung - ich weiß nicht wo der Mega Aufreger sein soll. Womit die Leute sich einfach mal abfinden müssen ist der Fakt, dass Turing eben nicht für Gamer entwickelt wurde. Der ganze Raytracing Kram zielt auf einen völlig anderen Markt ab wo Nvidia höchstwahrscheinlich einen riesen Reibach machen wird weil sie im professionellen Rendering tatsächlich viel Leistung zum kleinen Preis bieten können. Von daher: Turing bietet sogar viel für das Geld. Der Gamer hat nur nicht viel von der Raytracing Geschichte. Das macht Turing deshalb aber nicht schlecht oder überteuert - es ist einfach nur ein Chip der nicht mehr primär auf Gamer abzielt. Wen das stört, der darf sich darüber aufregen und dass Nvidia sich anscheinend weigert die RT freien 1660er Karten mal vernünftig aufzusetzen, also mit 8 GB und mehr Speicher und auch mit größerem Ausbau. Natürlich ist irgendwo verständlich warum Nvidia das nicht macht aber wenn schon große Kritik, dann doch eher in so einer Richtung...

Von daher nochmal meine Meinung: Für die Chipgröße ist der Preis in Ordnung. Ja, der gaming Performance Vorteil ist diese Generation nicht so groß. Das macht den Chip aber nicht überteuert - Nvidia hat diesmal den Fokus halt nicht aufs reine Gaming gelegt. Das kann man natürlich auch doof finden und das ist ja auch nachvollziehbar. Ich finde man sollte da aber nicht anfangen irgendwas zu erzählen von wegen Turing ist zu teuer...

Fragman
2019-02-21, 08:34:20
RT ist auch für Games, Deep Learning ist für Games und für beides gibts es eine API in Form von DX. AMD wird beides bringen, vielleicht schon mit Navi. Das Thema ist damit durch.

NV im speziellen will natürlich auch den Profi Markt abdecken, weil die, anders als AMD, keine CPU's haben und auf die Art auch in deren Gebiet wildern. Aber insgesamt wollen sie ihre GPU's verkaufen und dabei helfen auch neue Feature.

lilgefo~
2019-02-21, 08:41:03
Welcher Mensch auf dieser Erde kann sich so eine Grafikarte leisten aber hat nicht das Geld für den Strom?

Diese Diskussion ist mehr als lächerlich.

Der Verbrauch interessiert nicht wegen dem Strompreis, sondern wegen dem zu betreibenden Kühlaufwand. Weniger Verbrauch->weniger Abwärme->geringerer Kühlaufwand (platztechnisch und/oderfinanziell) & leiser

Calypso
2019-02-21, 08:49:17
wi eDu schon selbst schreibst - es ist DEINE Meinung. Eventuell stehst Du damit eben auch bissel alleine da.

Für mich ist Turing ein Gaming Chip und er ist viel zu teuer für das, was er leistet und was man nutzen kann....

Mangel76
2019-02-21, 09:42:35
Ist für mich unverständlich wie immer noch über Turing und seine Preise diskutiert werden kann. Die Preise sind vollkommen in Ordnung - ich weiß nicht wo der Mega Aufreger sein soll. Womit die Leute sich einfach mal abfinden müssen ist der Fakt, dass Turing eben nicht für Gamer entwickelt wurde. Der ganze Raytracing Kram zielt auf einen völlig anderen Markt ab wo Nvidia höchstwahrscheinlich einen riesen Reibach machen wird weil sie im professionellen Rendering tatsächlich viel Leistung zum kleinen Preis bieten können. Von daher: Turing bietet sogar viel für das Geld. Der Gamer hat nur nicht viel von der Raytracing Geschichte. Das macht Turing deshalb aber nicht schlecht oder überteuert - es ist einfach nur ein Chip der nicht mehr primär auf Gamer abzielt. Wen das stört, der darf sich darüber aufregen und dass Nvidia sich anscheinend weigert die RT freien 1660er Karten mal vernünftig aufzusetzen, also mit 8 GB und mehr Speicher und auch mit größerem Ausbau. Natürlich ist irgendwo verständlich warum Nvidia das nicht macht aber wenn schon große Kritik, dann doch eher in so einer Richtung...

Von daher nochmal meine Meinung: Für die Chipgröße ist der Preis in Ordnung. Ja, der gaming Performance Vorteil ist diese Generation nicht so groß. Das macht den Chip aber nicht überteuert - Nvidia hat diesmal den Fokus halt nicht aufs reine Gaming gelegt. Das kann man natürlich auch doof finden und das ist ja auch nachvollziehbar. Ich finde man sollte da aber nicht anfangen irgendwas zu erzählen von wegen Turing ist zu teuer...

Dann hat NVIDIA an der Zielgruppe "Gamer" vorbei entwickelt! Und natürlich kann man über Preise schimpfen, wenn man fürs gleiche Geld halt nicht mehr Leistung bekommt (2070/2080) bzw. für etwas Mehrleistung sehr viel mehr bezahlen muss (280Ti). Dem Gamer kann es total egal sein, was NVIDIA so alles mit der GPU abdecken wollte, völlig irrelevant aus Kundensicht. Ich muss eine Firma nicht in Schutz nehmen, die sich in den letzten Jahren dumm und dämlich verdient hat!

Das soll nicht heißen, dass RT fürs Gaming nicht wichtig ist bzw. werden wird! Aber jetzt zu argumentieren, Turing ist so teuer, weil es gar nicht fürs Gaming gedacht war, und wir Gamer sollten gefälligst die Klappe halten und die hohen Preise bezahlen, ist doch wohl völliger Schwachsinn aus Gamersicht! Wenn es so wäre, wie du sagst, dann hätten die Gamer allen Grund sich aufzuregen!

JVC
2019-02-21, 09:57:50
Wer also damals nicht gleich bei Release zugeschlagen hat, musste ordentlich was auf den Tisch legen, um eine 1080TI zu bekommen.

Am 23.03.2017 kahm die Gigabyte Aorus GeForce GTX 1080 Ti Xtreme Edition auf den Markt.
(für ~900.-)
Am 14.08.2017 hab ich sie für 820.- gekauft :smile:

Bis 11.01.2018 kostete sie dann unter 900.- erst danach explodierte der Preis. (rauf bis ~1200.- :eek:)
Erst am 10.07.2018 fiel der Preis wieder unter 900.-
Am 25.09.2018 fing sie an "auszulaufen" und kletterte wieder über 900.- ...

Knapp 7 Monate, der 18 Monate, war die Aorus Xtrem also unter "Listenpreis" zu bekommen.
(in Aktionen ging sie bis auf ~770.- runter)

Aber das ist nur die Preisentwicklung eines/meines Modelles.
https://geizhals.at/gigabyte-aorus-geforce-gtx-1080-ti-xtreme-edition-11g-gv-n108taorus-x-11gd-a1598560.html
Ist m.m.n. aber eine der besten 1080Ti´s :up:
Zu mindestens meine läuft, als gäbe es kein Morgen mehr ;D

Und die 1080Ti war denke ich auch nicht so betroffen von dem Miningboom.

m.f.g. JVC

p.s.: Auch die 1070 war von ihren ~22 Monaten Verfügbarkeit ~18 Monate unter dem Startpreis von 499.- zu haben.
https://geizhals.at/gigabyte-geforce-gtx-1070-g1-gaming-8g-gv-n1070g1-gaming-8gd-a1450713.html?hloc=at

Fragman
2019-02-21, 10:15:07
770 Euro passt doch, ich hab für die Asus 2080 OC 800 Euro gezahlt. Da gibt keinen Grund, noch über die Preise zu diskutieren. Das Niveau wurde schon bei Pascal erreicht und akzeptiert, wie Du zb zeigst. ;)

JVC
2019-02-21, 10:30:44
770 Euro passt doch, ich hab für die Asus 2080 OC 800 Euro gezahlt. Da gibt keinen Grund, noch über die Preise zu diskutieren. Das Niveau wurde schon bei Pascal erreicht und akzeptiert, wie Du zb zeigst. ;)

Falsch.

ich hab da ~800.- für ne high end extrem OC Karte gezahlt.

Wenn ich jetzt für die ~800.- einkaufen gehen wollte würde ich mit der 2080
nur gleiche Leistung gepaart mit noch weniger Ram bekommen ...
Und lege ich 50% Cash !!! drauf =1200.- (ein gutes Custom Modell)
bekomm ich grad mal ~20% mehr Leistung (ausgehend von meinem wirklich gutem 1080Ti Modell)
und sonnst nix was mich interessiert :( (nicht mal 1Gb mehr Ram gönnt uns NV)

Davon kommt meine Meinung das:
Tu das schlechteste Produkt ist, von der Preis/Leistung her, was NV je abgeliefert hat.

m.f.g. JVC

p.s.: Hätte die 2080Ti min +50% und min 12Gb Ram gehabt, wäre bis 1k ok gewesen für mich.
(wären ja auch schon eine Preissteigerung von 25%)
Hätte sie auch noch 16GB RAM zu den min +50% Leistung und HDMI 2.1,
wäre ich wahrscheinlich einer der Ersten gewesen die sich eine holen.

Timbaloo
2019-02-21, 10:42:06
Davon kommt meine Meinung das:
Tu das schlechteste Produkt ist, von der Preis/Leistung her, was NV je abgeliefert hat.
Und trotzdem noch besser als Preis/Performance der Konkurrenz (Vega VII). Bitter.

JVC
2019-02-21, 11:01:52
Und trotzdem noch besser als Preis/Performance der Konkurrenz (Vega VII). Bitter.

Die 7 unterstützt zu mindestens VRR besser und breiter als Tu. (HDMI 2.1)
Die 7 hat nützliche 16GB (die Mir n Hunni Aufpreis zu 8GB locker wert sind)
Und Preis/Performance ist ~gleich zu NV´s 2080.
http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/Tests/AMD-Benchmarks-mit-extremen-Einstellungen-5K-Compute-Tessellation-Undervolting-1274222/

Ich sehe da eher einen P/L gleichstand nur das die 7 doppelt soviel RAM hat :up:
(und ja, ich interessiere mich nur für 4K aufwärts)

m.f.g. JVC

Timbaloo
2019-02-21, 11:08:53
Jaja, und mit Undervolting, Kühlerabschleifen, Lüfterkurve optimieren und Wundertreiber wird alles gut.... gähn....

Ist ja gut, dass die Vega VII für dich ein tolles Produkt ist, die Realität ist, es ist ein absoluter Fail, nachzulesen in zig Reviews...

JVC
2019-02-21, 11:19:01
Ich finde eher die 2080 mit nur 8GB einen "Fail" ;)

Wichtig ist das Jeder findet, was er sucht.

Ich bin froh das ich ne 1080Ti habe mit der ich die momentane, beschissene Grafikkartensituation abwarten kann :smile:

Ich warte sowieso auf HDMI 2.1 , vorher lohnt bei mir ein Neukauf nicht.

m.f.g. JVC

p.s.:@Timbaloo Wie meinen ? ...
Da fehlt irgendwie noch ne Antwort auf ne Frage ... Danke

Dural
2019-02-21, 11:45:06
Nur für 4K? Die Karte ist für 4K zu lahm, und das sogar komplett ohne RT ;)

Die V7 hat genau wegen einem einzigen Grund 16GB Speicher, nämlich weil es eigentlich ein reiner HPC Chip ist. Da man dank HBM einfach nicht so flexibel ist, muss man sich mit den 16GB zufrieden geben und verdient wahrscheinlich keinen einzigen Dollar aktuell an der Karte. Überhaupt ist die Diskussion eh sinnlos, das Produkt ist so gut wie nicht lieferbar, man kann sich ja vorstellen wie so.

Geniale Strategie ;)

HOT
2019-02-21, 11:48:51
Das ist offensichtlicher BS. Wenn man eine 260€ ne 56 anbieten kann, wird man am der VII ordentlich was verdienen.

Aber richtig ist eben auch, das wird auch mMn nur ein Übergangsprodukt sein, bis N10 zur Verfügung steht. Die Verfügbarkeit wird denke ich nie so dolle sein.

Käsetoast
2019-02-21, 12:13:11
Dann hat NVIDIA an der Zielgruppe "Gamer" vorbei entwickelt! Und natürlich kann man über Preise schimpfen, wenn man fürs gleiche Geld halt nicht mehr Leistung bekommt (2070/2080) bzw. für etwas Mehrleistung sehr viel mehr bezahlen muss (280Ti).
Am Gamer vorbei entwickelt? Ein wenig vielleicht - ja. Ich denke man muss es aber eher so sehen: Turing ist halt ein Chip, den man auch für den Endkunden im Sinne des Gamers bringt. Ähnlich wie auch Vega II kein Chip explizit für Gamer ist, aber eben auch für diese angeboten wird...

Was das "nicht mehr Leistung" angeht, so stimmt das halt nicht. Du kriegst mit Turing eine um ein Vielfaches stärkere Raytracing Leistung. Zählt für dich nicht? Voll verständlich, aber unterm Strich irrelevant. Nur weil dir die Rasterizing Leistung wichtiger ist macht das den Chip jetzt nicht schlecht oder überteuert. Womit wir dann wieder am Anfang wären: Der Hauptfokus von Turing liegt auf dem Raytracing und das ist aus Gaming Sicht noch eine absolute Randerscheinung (natürlich auch mit dem Henne-Ei-Probem). Im Rendering Bereich ist Turing aber halt einfach Bombe. Du kannst dir so einen Raytracing Chip natürlich auch für's Gaming kaufen, musst aber eben in Kauf nehmen, dass dir der Raytracing Teil auf absehbare Zeit außer in Leuchtturm-Projekten nichts bringt. Deswegen ist aber wie gesagt Turing nicht zu teuer oder dergleichen...

Calypso
2019-02-21, 12:18:50
Du tust ja gerade so, als wäre Turing kein Gaming Chip - das sieht ja selbst nvidia anders

Daredevil
2019-02-21, 12:21:06
Es ist jetzt ja auch nicht so, als sei man gezwungen gewesen, den Aufpreis von RTX zu zahlen ( bei weniger Speicher. )
Jedem war ja freigestellt, sich das ganze zu schenken und zu einer GTX zu greifen und dort zum Teil deutlich weniger zu zahlen.
Zwar fehlte hier die Leistungs-Kategorie der 2080ti, aber die wäre dort ebenso wenig bezahlbar geworden.

Nvidia hat also nur bedingt am Gaming-Markt vorbei entwickelt. Sie haben neue Features etabliert, die vorher nicht da waren ( und wonach niemand gefragt hat ) und nehmen dafür eben einen Aufpreis. Das erfreut Technik interessierte Menschen, verärgert aber Leute, die einfach nur maximale Rohleistung wollten.
Irgendeinen Tod musste Nvidia also sterben. Entweder gehen sie den traditionellen Weg weiter mit dem Fokus auf Leistung, oder sie nutzen die schwache Konkurrenz ab 300€ aus, um das Experiment RTX zu starten. Da waren sie halt mutig und haben halt auch dementsprechend Gewinn und Fans geopfert, das muss halt manchmal sein.

Wenn Raytracing so ein großes Ding wird und Nvidia da Technologieführer bleibt, wollen Konsolen irgendwann auch mal auf den Zug aufspringen. Bei AMD ist da halt leider aktuell nichts zu holen.... so muss man das auch mal bedenken.

Timbaloo
2019-02-21, 12:22:57
p.s.:@Timbaloo
Da fehlt irgendwie noch ne Antwort auf ne Frage ... Danke
Rebrands oder Shrinks von veralteten, ineffizienten Archiktekuren ist keine sinnvolle Weiterentwicklung. Außer man achtet auf W/Perf. Dann sind alte, ineffizente Architekturen natürlich top. Wenn du natürlich gesteigerte Effizienz, Unterstützung von DX12 Features (DXR) usw. nicht als Weiterentwicklung akzeptierst, dann ja, mag dein Schwachfug "Sinn ergeben". ;D

Aber ja, mit Navi wird dann alles besser... wenn man wieder Undervolting, Kühlerabschleifen, Lüfterkurven anpassen und Beten auf Wundertreiber praktiziert...

robbitop
2019-02-21, 12:42:43
@Kaesetoast
Die Gewinnspannen von NV sprechen eine andere Sprache. Sicher werden Fertigungsverfahren teurer und sicher ist Turing deutlich teurer als Pacal pro Leistung wegen der höheren Chipgröße - aber ein nicht unwesentlicher Teil des Preises ist auf die Gewinnspanne zurückzuführen.

Allerdings kann man diese dem Hersteller nicht ankreiden. Mangels Wettbewerb kann man diese problemlos durchsetzen. Als Unternehmen völlig korrekt gehandelt.

Käsetoast
2019-02-21, 12:43:03
Du tust ja gerade so, als wäre Turing kein Gaming Chip - das sieht ja selbst nvidia anders
Da haben wir wohl zwei unterschiedliche Präsentationen der Lederjacke gesehen als er Turing erstmals vorgestellt hat. Worüber wurde da denn geredet? Raytracing hier, raytracing, wieviele Gigarays Turing hat, was das für die CGI Industrie bedeutet, wieviel so ein CPU basierte Renderfarm kostet, wieviel sie verbraucht, wie günstig und schnell das mit Turing wäre und was man von "RTX Servern" zu erwarten hat. Danach kam doch nur: Ach so - bei Spielen kann man das auch benutzen und bald kommen auch ganz, ganz viele Spiele, die das unterstützen...

Ich verstehe von daher nicht die Argumentation nicht, dass Turing schlecht bzw. teuer wäre. Das kommt halt davon, wenn man nur auf die Rasterizing Performance guckt und das als "Gaming" bezeichet. Das ist dann nämlich genau das Problem das du ansprichst. Klar werden die Desktop GeForce RTX Karten als Gaming Karten dargestellt. Ist ja auch das Schnellste, was man an Gaming Karten kaufen kann und im Consumer Markt ist der Anteil an potentielen Nutzern, die sich für so ein GPU-Raytracing-Rendering ernsthaft interessieren quasi gleich null...

Von daher erneut: Volles Verständnis für denjenigen, wem die gebotene Rasterizing Leistung für den Preis zu gering ist. Ich kann es auch gut verstehen, dass einen die "Techdemos" was Raytracing in z.B. BFV angeht nicht vom Hocker hauen. Aber so zu tun, als würde NVIDIA hier eine unverhältnismäßige Preiserhöhung praktizieren, oder als kriege man nichts für sein Geld kann ich nicht nachvollziehen, weil argumentativ nicht haltbar. Für die Chipgröße sind die Preise ok. Nicht besonders gut, aber auch nicht besonders schlecht, sondern der Chipgröße eigentlich ganz gut entsprechend. Man kauft halt einen Chip, der viele Transistoren für ein Feature aufwendet, das dem Gamer derzeit nicht wirklich was bringt. Eine satte Leistungssteigerung ist aber grundsätzlich da, nur dass man jetzt nicht mehr alle Transistoren für mehr Rasterizing Leistung anrechnen kann. Wer das als "Gaming" definiert - und das ist hier nunmal bei vielen der starken Kritiken an den Preisen & Co der Fall - sieht eben nur die halbe Wahrheit. Kritikwürdig fände ich da eher einen Ansatz wie warum NVIDIA nicht auch Turing ohne den Raytracing Part anbietet, also sowas wie eine 1880er Serie mit 8-12 GB und mehr Rasterizingeinheiten als bei den 1660ern. Gerade wegen dem Henne-Ei-Problem ist Raytracing in Gaming so gut wie nicht existent (und eigentlich auch erst so in der 2080 Ti Preisregion performant genug für ernsthafte Nutzung in Spielen). Da könnte man ansetzen, warum einem RTX aufgezwungen wird, anstatt es erstmal parallel laufen zu lassen und wieder einen "richtigen Gaming Chip" für die Rasterizing Anwendung zu liefern, anstatt eine Karte, die man der Rendering Industrie verkaufen will, quasi 1:1 an Gamer weiterzureichen...

Mangel76
2019-02-21, 12:48:00
Was das "nicht mehr Leistung" angeht, so stimmt das halt nicht. Du kriegst mit Turing eine um ein Vielfaches stärkere Raytracing Leistung. Zählt für dich nicht?


Du kannst dir so einen Raytracing Chip natürlich auch für's Gaming kaufen, musst aber eben in Kauf nehmen, dass dir der Raytracing Teil auf absehbare Zeit außer in Leuchtturm-Projekten nichts bringt.

w.z.b.w.

Damit hast du deine ursprüngliche Aussage ad absurdum geführt. Was interessiert den Gamer die RT-Leistung von Turing, die er zwar bezahlen muss, außer in den paar "Leuchtturm-Projekten" aber nicht nutzen kann?

Nochmal: RT ist höchstwahrscheinlich die Zukunft für Spielegrafik, was ich eindeutig begrüße! Aber zu sagen, dass RT nicht fürs Gaming in Turing integriert wurde, wir aber den Aufpreis zahlen müssen (wegen großer GPUs) ohne die Gegenleistung zu erhalten und darüber noch nicht mal meckern dürfen, ist eine ziemlich verdrehte Logik. Man kann auch anders argumentieren, von wegen "Hardwarebasis schaffen", "Entwicklung voranbringen", "Innovation in Gaminggrafik" u.s.w. mit dem üblichen Early-Bird-Aufschlag. Wer meint, mit diesen Aufschlägen NVIDIAs Bemühungen unterstützen zu müssen, kann gerne Turing kaufen, finde ich völlig nachvollziehbar. Aber als Gamer muss ich nichts bezahlen, was nicht für mich gedacht war und auch nicht wirklich genutzt werden kann. Natürlich hat man nicht immer die (Aus-)Wahl, aber wenigstens Meckern dürfen muss man doch :D

Käsetoast
2019-02-21, 13:07:59
Damit hast du deine ursprüngliche Aussage ad absurdum geführt.

[...]
wir aber den Aufpreis zahlen müssen (wegen großer GPUs) ohne die Gegenleistung zu erhalten und darüber noch nicht mal meckern dürfen, ist eine ziemlich verdrehte Logik.
Dann musst du mich missverstanden haben. Ich habe eigentlich sogar deutlich gesagt, dass es verständlich ist, wenn man meckert, dass einem Turing jetzt zu wenig Leistung liefert. Siehe auch den ganze "1880", 1660 Teil und so weiter. Sehr oft geht die Diskussion aber in die Richtung, dass NVIDIA überteuerte Chips anbietet und das ist argumentativ meiner Meinung nach bzw. sogar mehr als das, denn es ist ja sogar objektiv so, nicht der Fall. Wer sich für Turing interessiert muss eben eines im Kopf haben und zwar das hier:

https://abload.de/img/0ckjaaus7u6l4uh3lfxkd4.jpg (http://abload.de/image.php?img=0ckjaaus7u6l4uh3lfxkd4.jpg)

DAS ist Turing. Nicht "Wir wollen die Gaming Industrie revolutionieren!". Sondern einfach nur "Wir wollen von der 250 Milliarden Industrie eine Scheibe abschneiden!". Und wie macht man das? So:

https://www.tomshw.de/wp-content/uploads/2018/08/rtx-adoption-1024x450.png
https://www.tomshw.de/wp-content/uploads/2018/08/RTX8000-1024x497.png

Für uns Gamer heißt das dann, dass wir mit dem Spielzeug der Großen jetzt auch schon rumspielen dürfen. So gesehen die ganze Argumentation, dass Turing eben im Kern kein "Gaming" Chip ist, sondern nur wie ein Vega II an uns weitergerreicht wird, weil hey - schneller ist Turing ja ohne Zweifel auch im Rasterizing geworden. Das kann einem jetzt natürlich missfallen und selbstverständlich darf man das kritisieren, aber doch bitte nicht mit irgendwas von wegen "für die gebotene Leistung überteuert". Denn Leistung liefert Turing ganz ohne Zweifel. Nur vielleicht nicht die, die man gerade selber haben will, aber das ist dann kein Problem von Turing, sondern man ist nicht die Hauptzielgruppe ("Gaming" anyone?). Anstatt also irgendwie anzufangen auf den Preisen rumzuhacken und NVIDIA kriegt den Hals nicht zu und so weiter müsste man wenn die Kritik eher in die Richtung lenken, warum dem "Gamer" Turing in der Form aufgezwungen wird. Das es auch anders geht zeigt ja gerade die 1660er Serie. Die Leute müssten sich anfangen zu beschweren, warum es eben keine 1880er in Form der 2080 Ti ohne RT Einheiten etc. gibt oder dergleichen (einfach Turing mit mehr Rasterizing Einheiten als bei der 2080 Ti wäre ja möglich gewesen). SO müsste man halt argumentieren und nicht auf einem Chip und dessen Preis rumhacken, der für den Gamer Stand 2018/2019 halt nur wenig Nutzbares bringt...

Calypso
2019-02-21, 13:08:27
@Kaesetoast

hmmm, grübel grübel, wo wurde Turing noch mal vorgestellt - auf der ConsumerCom, ach nee, Gamescom


Und wenn man Turing als Gaming Chip ansieht, dann im Ganzen und nicht nur als Raterizer oder nur als RT. Aber im Ganzen ist eben nur Rasterizer Nutzbar, weil es (wie von Dir selbst auch bestätigt) nur Leuchtturmprojekte bzgl. RT gibt. Somit ist der Chip zu teuer, weil nvidia die Mehrkosten für eteas, was man kaum nutzen kann, eben bezahlt haben will. Aber anscheinend redet man bei Dir gegen ne grüne Wand, weshalb ich ab jetzt nicht mehr auf Dein Getrolle eingehen werde.

=Floi=
2019-02-21, 13:19:06
Es geht nicht um den chip, sondern um die karte.
zu wenig vram
nicht wartbarer kühler
powerlimit nicht frei
voller chip zu teuer.
käse mit den zwei chipgüten
Vram verglüht

Denkt mal an den G80!


AMD verkauft 8GB ab 170€

RLZ
2019-02-21, 13:34:05
Und wenn man Turing als Gaming Chip ansieht, dann im Ganzen und nicht nur als Raterizer oder nur als RT. Aber im Ganzen ist eben nur Rasterizer Nutzbar, weil es (wie von Dir selbst auch bestätigt) nur Leuchtturmprojekte bzgl. RT gibt. Somit ist der Chip zu teuer, weil nvidia die Mehrkosten für eteas, was man kaum nutzen kann, eben bezahlt haben will.
Trifft das nicht immer zu, wenn neue Hardware verbaut wird? Warum ist der "Aufschrei" bei RT nun so groß?

Käsetoast
2019-02-21, 13:38:49
hmmm, grübel grübel, wo wurde Turing noch mal vorgestellt - auf der ConsumerCom, ach nee, Gamescom
Wo ist da jetzt dein Argument? Man verkauft das Zeug an Gamer, warum also nicht auf einer Gaming Messe vorstellen? Willst du etwa implizieren, dass wenn man das auf der Computex vorgestellt hätte es kein Gaming Chip wäre? Ich glaube nicht, also verstehe ich nicht was du damit jetzt konkret beweisen willst. Dass das Ding an Gamer verkauft wird, wurde ja nie bestritten - was der Chip im Kern ist bzw. warum er so ausgelegt wurde wie er ist, wurde ja hinreichend dargestellt. Kern der Präsentation war eben NICHT ein "Wir haben Turing so gemacht um das Gaming neu zu erfinden!", sondern es wurde gezeigt, dass man Anteile in einem neuen Markt für sich gewinnen will, weil es da ordentlich Asche zu holen gibt.

Und wenn man Turing als Gaming Chip ansieht, dann im Ganzen und nicht nur als Raterizer oder nur als RT. Aber im Ganzen ist eben nur Rasterizer Nutzbar, weil es (wie von Dir selbst auch bestätigt) nur Leuchtturmprojekte bzgl. RT gibt. Somit ist der Chip zu teuer, weil nvidia die Mehrkosten für eteas, was man kaum nutzen kann, eben bezahlt haben will.
Als Nutzer bezahlt man die Herstellungs- und Entwicklungskosten von dem Ding. Wenn wir sagen, dass die Entwicklungskosten "wie immer" sind, muss man sich eben ansehen wie groß die Chips sind. Wenn man ausgehend von Pascal, seinen Die Größen und Preisen auf Turing skaliert, dann kommen für die Chipfläche die man kauft ein ähnlicher Preis raus (und es wurde Chipfläche nicht total ineffizient verballert). Man bekommt für seinen Preis also im Endeffekt anständig viel Chip geboten. Das ist meine Argumentation. Man kauft ja nun auch nicht die Katze im Sack. Man weiß ja, dass viel der Chipfläche für Tensor Gedöns und RT draufgeht. Wenn man nun also etwas kauft, das man nicht braucht, und sich dann beschwert halte ich das für widersinnig. Um die äußerst beliebten wenn oft auch unpassenden Autovergleiche heranzuziehen beschwere ich mich ja auch nicht darüber, dass das SUV so sauteuer ist wenn ich mich als Persönchen auch mit dem Mofa von A nach B durch die Stadt kutschiert kriege. Dann nutze ich den ganzen Stauraum etc. halt nicht. Aber jeder würde doch sagen, dass diese Kritik an den Haaren herbeigezogen ist - wenn du die Möglichkeiten eines SUV nicht nutzen willst, warum kaufst du es dann?

Kritikwürdig ist die zwangsverbundelung von Raytracing auf den Turing GPUs. Wir kriegen sie aber nunmal so, weil siehe die Bilder die ich im vorigen Beitrag aufgeführt habe. Der Gamer kriegt die CGI Renderkarten halt weitergereicht. Das es auch anders geht zeigt die 1660er Serie. DA muss die Kritik ansetzen. Turing ohne RT ist ja nicht nur möglich, sondern wurde sogar mit viel Aufwand an den Markt gebracht. Warum NVIDIA sich verweigert auch eine leistungsstarke Version anzubieten ist die Frage die lauthals gestellt werden sollte. Stattdessen einen Chip, der macht was er soll, und seinen Preis zu kritisieren halte ich nicht für sinnvoll. Ich denke ich habe das inzwischen auch hinreichend und ausführlich bzw. für jeden nachvollziehbar dargestellt...


Aber anscheinend redet man bei Dir gegen ne grüne Wand, weshalb ich ab jetzt nicht mehr auf Dein Getrolle eingehen werde.
Sorry, dass ich das nochmal herausstelle, aber das hat mir gerade den Tag versüßt. Hätte nicht gedacht, dass ich es mal erleben würde als einer der Grünen dargestellt zu werden. Als eingefleischter NVIDIA Kritiker, der versucht rot zu kaufen wenn möglich, fand ich das gerade recht amüsant. Danke dafür! :smile:

rentex
2019-02-21, 13:46:49
Kein Gamer hat vor den ersten News zu RTX, nach Raytracing in Spielen gefragt. Warum dafür jetzt zahlen, wenn dann sogar die verfügbaren Spiele die es unterstützen, Mangelware sind? Nvidia hat den Start dieser neuen Technologie ziemlich verk...! Ein bisschen mehr Zeit, hätte der ganzen Angelegenheit nicht geschadet und die Akzeptanz gesteigert.
Raytracing ist sexy, kein Thema! Aber sowas hinzulegen ist der Sache nicht förderlich.
@RLZ: Wenn neue HW (Gaming)verbaut wird, ist der Nutzen in der Regel ersichtlich (Reviews) und sofort da (nämlich in Form eines Leistungsplus und nicht in einem möglich bahnbrechenden Feature).

Käsetoast
2019-02-21, 13:56:14
Kein Gamer hat vor den ersten News zu RTX, nach Raytracing in Spielen gefragt. Warum dafür jetzt zahlen, wenn dann sogar die verfügbaren Spiele die es unterstützen, Mangelware sind? Nvidia hat den Start dieser neuen Technologie ziemlich verk...!
Naja, aber das ist doch das Henne Ei Problem. Wie sollen Hersteller etwas in ihr Spiel einbauen, das es noch gar nicht gibt und wie hätte Nvidia besser starten können wenn es keine Spiele gibt? Auf der Präsentation von Turing sah die Anzahl an Spielen mit RTX doch ganz ansehnlich aus. So gesehen finde ich, dass Nvidia da nicht ganz verkehrt gehandelt hat mit dem Start des ganzen. Es ist halt auch keine Technologie, die von jetzt auf gleich alles auf den Kopf stellt. Man wird da eher einen langen Atem brauchen und die jetzige Generation wird da für den Gamer eher mittelprächtig sein. Dass das so viel Chipfläche zieht tut preislich halt sehr weh - sonst könnte man es besser verschmerzen...

rentex
2019-02-21, 14:43:20
...deshalb auf den Nachfolger warten🤷*♂️

Käsetoast
2019-02-21, 14:56:12
Halte ich für eine gute Maßnahme - gerade mit einem Sprung wie bei 7nm vor der Türe... :smile:

rentex
2019-02-21, 15:18:55
Da lässt sich NV bis jetzt nicht aus, wann das in etwa zu erwarten ist.

Timbaloo
2019-02-21, 16:14:26
Na Mitte 2020 halt.

Mangel76
2019-02-21, 16:25:44
Dann musst du mich missverstanden haben. Ich habe eigentlich sogar deutlich gesagt, dass es verständlich ist, wenn man meckert, dass einem Turing jetzt zu wenig Leistung liefert.

Okay, dann habe ich das wohl falsch verstanden:
Ist für mich unverständlich wie immer noch über Turing und seine Preise diskutiert werden kann. Die Preise sind vollkommen in Ordnung - ich weiß nicht wo der Mega Aufreger sein soll.
...
Von daher nochmal meine Meinung: Für die Chipgröße ist der Preis in Ordnung. Ja, der gaming Performance Vorteil ist diese Generation nicht so groß. Das macht den Chip aber nicht überteuert - Nvidia hat diesmal den Fokus halt nicht aufs reine Gaming gelegt. Das kann man natürlich auch doof finden und das ist ja auch nachvollziehbar. Ich finde man sollte da aber nicht anfangen irgendwas zu erzählen von wegen Turing ist zu teuer...

Ist halt immer die Frage, aus welcher Perspektive man drauf schaut. Aus Shareholder-Sicht kann der Preis wohl nicht hoch genug sein. Aus Fortschritts-Sicht ist er vielleicht auch gerechtfertigt. Ich meine, ein funktionierendes RT kann die Optik von Games schon deutlich verbessern. Aus Sicht von Content-Entwicklern, die RT professionell nutzen, ist der Preis sicher auch gerechtfertigt, da kommt die Leistungssteigerung auch tatsächlich an. Leider haben wir Gamer (derzeit) nicht so viel davon. Schade eigentlich :biggrin:

pixeljetstream
2019-02-21, 19:10:48
Mal Propaganda posten ;)
https://www.develop3d.com/workstations/nvidia-quadro-rtx-4000-review-solidworks-visualize-vred-GPU-rendering-vray

(Auch wenn der Link nicht passt und ich mich wiederhole) Rt ist kein Abfall von provis. Das ist langfristig für Grafik allgemeinen gedacht, sonst hätte es das ja schon eher für Quadro (was ein Bruchteil von gaming ist) geben können, aber erst wenn etwas auch wichtig für die großen Bereiche ist erhöhen sich die Chancen dass es in den Chip kommt.
Dass beim Siggraph launch Event andere Sachen gezeigt werden sollte einleuchten. Raytracing Server hat NV schon paar Mal probiert auch ohne rtx ;)
Der Vorlauf für mehr Software im Bereich gaming war imo einfach zu kurz für soviel Neuland. Das macht den Release suboptimal, bei den letzten Generationen gab's diese Probleme nicht wirklich weil keine neuen großen Features.

Dural
2019-02-21, 19:55:25
Natürlich sind tensor und rt ein nebenprodukt der profi sparte, nv hat aber sicherlich richtig viel geld und zeit für rt in den geforce produkten investiert um das ganze angepasst und erweitert.

Turing ist seit zig jahren wirklich mal wieder eine interessante gpu architektur. Die meisten wollen oder besser gesagt können es einfach nicht einsehen.

Stattdessen schreien die ganzen kidis im netz nur nach vmemory wie vor 20 jahren hahaha wenn der eigene horizont halt eingeschränkt ist, ist das auch verständlich.

wolik
2019-02-21, 20:11:48
Ok. Nehmen wir an, dass das "Rtx ist kein Abfall von provis" Und wieviel % Spieler sind grade in die lage RT in Metro Exodus "erleben" (PS4 und Xbox Gamer nicht vergessen mit zu zählen) Nicht mal 1%. Und wieviel werden in 2 Jahren sein ? 3 bis 5% max. Oder? Ich rede nicht mal von der Preis. Nvidia mit RTX blickt wie 3Dfx mit Übermachtgefühl, tief in Abgrund.

dargo
2019-02-21, 20:19:09
Turing ist seit zig jahren wirklich mal wieder eine interessante gpu architektur. Die meisten wollen oder besser gesagt können es einfach nicht einsehen.

Ja... sehr interessant. *stichel* ;)

https://abload.de/img/dirt0ajfp.jpg

https://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/dirt-rally-2-0-test-gpu-cpu

RLZ
2019-02-21, 20:37:07
Kein Gamer hat vor den ersten News zu RTX, nach Raytracing in Spielen gefragt.
Gamer wissen nicht was sie wollen. Die Mehrheit will eigentlich nur den Status Quo erhalten und größere Zahlen.


@RLZ: Wenn neue HW (Gaming)verbaut wird, ist der Nutzen in der Regel ersichtlich (Reviews) und sofort da (nämlich in Form eines Leistungsplus und nicht in einem möglich bahnbrechenden Feature).
War dem Gamer direkt der Nutzen von DX10/11/12 ersichtlich? Da musste er auch jedesmal Jahre auf Vorteile warten.

dargo
2019-02-21, 20:44:45
Ja, das stimmt leider. Auf der PC-Plattform laufen die Uhren sehr langsam wenn man was "durchboxen" will.

RLZ
2019-02-21, 21:06:25
Ja, das stimmt leider. Auf der PC-Plattform laufen die Uhren sehr langsam wenn man was "durchboxen" will.
Was heißt durchboxen? Man setzt grundlegende Änderungen nicht mehr in 2-3 Monaten um. Das ist ein jahrelanger Lernprozess und Arbeitsaufwand für die Entwickler.

Dazu ist der Drang der Entwickler technische Spielereien umzusetzen halt begrenzt durch die Frage, wieviele Einheiten ich mehr für den notwendigen Arbeitsaufwand umgesetzt bekomme. Solange die Hardwarebasis klein ist, ist Druck zur Umsetzung auch klein. Es ist billiger andere Fehler machen zu lassen und später mit deren Erfahrung zu starten.

Fragman
2019-02-21, 21:45:11
War dem Gamer direkt der Nutzen von DX10/11/12 ersichtlich? Da musste er auch jedesmal Jahre auf Vorteile warten.

Eben, deshalb verstehe ich nicht, weshalb die Leute sowas immer wieder posten.
Man merkt schon, wie alt einige hier sind bzw wie jung. Die haben die Anfänge der 3D Karten nicht mit gemacht. Wieviele Feature, auch Hardware, da anfangs nicht brauchbar waren, da zu langsam, wissen einige hier nicht. Dagegen läuft RT wirklich gut, aber das hab ich nun schon einige male geschrieben. Naja, was übrig bleibt ist die Erkenntnis, das sobald Navi draussen ist und RT haben sollte, diese Sprüche von einem Tag auf den anderen verschwunden sein werden. ;D

=Floi=
2019-02-22, 03:30:06
Stattdessen schreien die ganzen kidis im netz nur nach vmemory wie vor 20 jahren hahaha wenn der eigene horizont halt eingeschränkt ist, ist das auch verständlich.

1. bin ich älter und weiser wie du :biggrin: 2. bedeutet mir mein geld auch etwas. :rolleyes:
Wenn die architektur so gut ist wie _du_ sagst, warum baut man ihr dann eine obsoleszenz ein?!
Vram ist nunmal der key für gute und günstige grafik, aber du als profi weißt das ja eh. Nebenbei ist das bei dem preis einfach ein witz. Wir reden nicht vom massenmarkt, sondern von karten wo die 100€ mehr auch egal gewesen wären. Genau wie beim kühler. Ein günstigerer (weniger overengineering) kühler wäre besser gewesen!



Turing hat wohl das volta problem des starken cpu-limits. Das dürfte mit der nächsten gen noch stärker werden.

rentex
2019-02-22, 05:51:53
@Fragman: 25 Jahre PC Erfahrung...ich kann die Lage durchaus gut einschätzen😉 Also komm mal runter. Wir werden RT in der breiten Masse, sehr lange nicht sehen.
Nur weil hier ne Minderheit auf Raytracing abgeht und sich solche Hardware leisten kann/möchte (ich persönlich kann es...so nebenbei) bedeuted es nicht gleich, das es Standard wird. Und jetzt darf schon AMD als Steigbügelhalter herhalten😂

Thunder99
2019-02-22, 06:45:58
Wird überhaupt die Tensor Cores benutzt? Bei Metro zumindest wird das Denoising über die Shader gemacht

nordic_pegasus
2019-02-22, 07:05:26
Trifft das nicht immer zu, wenn neue Hardware verbaut wird? Warum ist der "Aufschrei" bei RT nun so groß?

die Kombination aus dem zumindest aktuell nur bedingt nutzbaren Features DLSS/RT mit dem saftigen Preisanstieg, dem nur überschaubaren Leistungsgewinn in herkömmlichen Spielen und dem stagnierenden Speicherausbau hat bei Turing zu einem Shitstorm geführt, welchen viele als gerechtfertigt empfinden. Dazu noch ein nutzloser USB-C Port (wer nutzt VR?) und das ignorieren von HDMI2.1 / VRR@HDMI.

Kurz und knapp... Nvidia hat den Bogen überspannt. Ähnlich Apple mit der Preisspirale bei den iPhones.

Fragman
2019-02-22, 07:06:49
@Fragman: 25 Jahre PC Erfahrung...ich kann die Lage durchaus gut einschätzen😉 Also komm mal runter. Wir werden RT in der breiten Masse, sehr lange nicht sehen.
Nur weil hier ne Minderheit auf Raytracing abgeht und sich solche Hardware leisten kann/möchte (ich persönlich kann es...so nebenbei) bedeuted es nicht gleich, das es Standard wird. Und jetzt darf schon AMD als Steigbügelhalter herhalten😂

Hier wird immer so getan, als hatte nv da etwas eigenes geschaffen das man durch unlautere Methoden versucht durch zu setzen. Dabei hat man die API fertig, die Gameentwickler werden an Bord sein und AMD hat das auch schon bestätigt. Dieser rant gegen RT ist kindisch, da das Thema eben schon durch war, noch bevor Turing raus kam. Ich hab keine Ahnung, weshalb da von einigen so ein Theater gemacht wird. Weil AMD es aktuell nicht hat? Wie sollten sie auch, dazu braucht es eine neue Arch und die kommt erst mit Navi.

Das Argument mit der breiten Masse ist Unsinn, das zeigen die aktuellen RT Beispiele doch. Als ich mir damals die Voodoo gekauft hab, hatte ich nur ein Game, POD, das hab ich rauf und runter gespielt. Irgendwann kam halt Quake und etwas später HexenII, das wars. Wieso sollte man darauf verzichten, so etwas eher mit zu nehmen als "die breite Masse"? Du musst das nicht kaufen wenn Du nicht willst. Voodoo hat damals auch viel Geld gekostet. Ich seh ehrlich gesagt nicht das Problem.

rentex
2019-02-22, 07:19:44
Was sollen mir die aktuellen Beispiele zeigen? Die Masse hat auf die Verbreitung eines Features, sehr wohl eine Auswirkung (Reden wir weiter, wenn Konsolen Raytracing beherrschen. Da ist aber AMD nur vertreten). Und dann das ewige Beispiel mit den Voodoo Karten...der Markt, das allgemeine technologische Umfeld und das Kundenverhalten unterscheiden sich erheblich von Damals.
Gehatet wird hier gar nix, nur die Herangehensweise und das Gebahren von NV wird kritisiert...würde ich auch AMD, wenn sie was hätten und genauso handeln würden...ich besitze doch selber seit Jahren NV Karten, fällt "Fanboy" Gehabe wohl aus.
Anderseits denkenich, das wir nächstes Jahr mit der 7nm Fertigung der GPU, auf nem besseren Weg sind...dann erübrigen sich wohl einiges.

Fragman
2019-02-22, 08:01:16
Anderseits denkenich, das wir nächstes Jahr mit der 7nm Fertigung der GPU, auf nem besseren Weg sind...dann erübrigen sich wohl einiges.

Genau deshalb war jetzt der beste Zeitpunkt, das ein zu führen.
Neue Karten als solche waren nicht nötig, low, mid und high waren abgedeckt und man hätte noch 2 weitere Jahre überbrücken können.
Was 7nm bringen wird, kann man sich ja heute schon ausrechnen. Deshalb sollte man lieber realistisch bleiben und seine Erwartungen niedrig. ;)

rentex
2019-02-22, 08:21:36
Solte Turing nicht schon in 7nm erscheinen?

Linmoum
2019-02-22, 09:09:55
Turing soll für Samsungs 10nm geplant gewesen sein. Da das dann bekanntlich nichts geworden ist, musste man auf 12nm ausweichen.

Glaube nicht, dass Turing je für 7nm vorgesehen war.

Dural
2019-02-22, 09:56:52
Glaub ich nicht, Turing war schon immer für 12nm. Die GPUs haben sich aber sicher verspätet, ich denke die waren mehr für den Frühling 2018 bestimmt. Ich vermute nach wie vor sehr stark das wir in diesem Jahr noch was in 7nm von NV sehen werden.

SKYNET
2019-02-22, 10:18:03
Glaub ich nicht, Turing war schon immer für 12nm. Die GPUs haben sich aber sicher verspätet, ich denke die waren mehr für den Frühling 2018 bestimmt. Ich vermute nach wie vor sehr stark das wir in diesem Jahr noch was in 7nm von NV sehen werden.

bezweifel ich, dafür verkauft sich turing zu schlecht als das man das bedürfnis haben dürfte, da nen 7nm refresh zu bringen, desweiteren ist NV ja nicht unter zugzwang, leistungskrone haben sie ja inne, wird laufen wie bei den generationen davor... also vor 2020 kommt da nix... ausnahme könnte sein wenn AMD auf einmal wirklich die hose aufmacht und der "balken" auf einmal länger ist ;D

Fragman
2019-02-22, 10:53:47
... ausnahme könnte sein wenn AMD auf einmal wirklich die hose aufmacht und der "balken" auf einmal länger ist ;D

Das hat AMD doch jetzt erst gemacht mit VegaII.
Was anderes kommt vor Ende 2020 nicht (wenn Navi noch später kommt, wird sich arcturus wohl auch verschieben), was diesen Balken nochmals länger machen könnte, hat AMD selbst nun oft genug gesagt.

Leonidas
2019-02-22, 11:06:19
Das überhaupt nicht vom tu116 gesprochen wird...

Ich finde die gpu richtig interessant, erst recht zum vergleich mit den rtx turing.


Midrange-GPUs haben es beim 3DC schwer, im Speku-Forum noch schwerer. Nicht sexy genug für die meisten Diskutierenden, die längst besseres im Rechner haben.




Die könnten es sich sicherlich leisten, Tu um 30% günstiger anzubieten ohne Verlust zu schreiben ;)
(aber sie sind hald gierig und wollen die ganze Hand)


Alles korrekt, aber: Wer einmal solche Gewinnzahlen postet, macht Anleger & Börse gierig. Und vor allem CEO-mordlüstern, wenn die Gewinne dann plötzlich kleiner ausfallen sollte. NV ist hier Opfer des eigenen (mittelfristigen) Erfolges.





Womit die Leute sich einfach mal abfinden müssen ist der Fakt, dass Turing eben nicht für Gamer entwickelt wurde. Der ganze Raytracing Kram zielt auf einen völlig anderen Markt


Das sehe ich überhaupt nicht so. Turing und RT sind für Gaming entwickelt. NV hat diesen Entwicklungsschritt sicherlich schon seit langem im Auge - und bringt ihn jetzt, wo die Situation günstig ist. Der Nachteil, den RT NV derzeit bringt, wird sehr gut abgefedert durch AMDs aktuelle GPU-Schwäche. Sprich: In einem harten Wettbewerb könnte man RT kaum bringen, da es anfänglich nur Nachteile hat und die Vorteile sich erst in einigen Jahren ergeben. Aber RT ist klar für Gaming ausgerichtet: Es geht einfach darum, die Anforderungen für Spiele mal wieder richtig hochzureißen ... weil wenn nicht, dann würde echter Stillstand in der Grafikqualität und damit der benötigten Hardware drohen. Und das ist weit wichtiger als ein Nebengeschäft mit professionellem RT, egal wie lukrativ jenes sein möge. Noch ist Gaming bei NV der Hauptgeschäftszweig.

rentex
2019-02-22, 12:00:26
Denke das es 2020 wird, bis 7nm von NV genutzt wird. Und ja, da gebe ich Leonidas recht. NV hat Blut geleckt was die Preise angeht. Ein Dämpfer wäre willkommen.

Screemer
2019-02-22, 12:12:46
Ich hab gestern viss und Dog ein bisschen zugesehen. Da hab ich gleich gar keinen Bock mehr auf spielen. Joah die waren in pubg schon gut aber da könnte ich mir wenigstens vorstellen mal nen kill gegen sie zu holen. Beim Doc nicht so extrem aber viss und andere sind einfach krank.

w0mbat
2019-02-22, 12:28:35
TU116 bzw. die GTX 1660 Ti finde ich auch interessant, wenn sie folgende Bedingungen erfüllt: 1. Leistung auf der Höhe einer GTX 1070 und 2. es gibt Angebote für um die 250€.

dildo4u
2019-02-22, 12:31:16
Wird sie nach ein paar Wochen,die 2060 gibt es jetzt für 350 Launch bei 370€.

https://www.mindfactory.de/product_info.php/6GB-KFA2-GeForce-RTX-2060-1-Klick-OC-Aktiv-PCIe-3-0-x16--Retail-_1291338.html

Dural
2019-02-22, 12:42:47
Angenommen der tu116 ist 290mm2 gross, kostet RT beim tu106 ca. 60mm2, beim tu104 ca. 100mm2 und beim tu102 ca. 150mm2.
Angeblich hat der tu116 ja sogar tensor core, das werden wir heute noch erfahren.

Käsetoast
2019-02-22, 12:56:25
Das sehe ich überhaupt nicht so. Turing und RT sind für Gaming entwickelt. NV hat diesen Entwicklungsschritt sicherlich schon seit langem im Auge - und bringt ihn jetzt, wo die Situation günstig ist. Der Nachteil, den RT NV derzeit bringt, wird sehr gut abgefedert durch AMDs aktuelle GPU-Schwäche. Sprich: In einem harten Wettbewerb könnte man RT kaum bringen, da es anfänglich nur Nachteile hat und die Vorteile sich erst in einigen Jahren ergeben. Aber RT ist klar für Gaming ausgerichtet: Es geht einfach darum, die Anforderungen für Spiele mal wieder richtig hochzureißen ... weil wenn nicht, dann würde echter Stillstand in der Grafikqualität und damit der benötigten Hardware drohen. Und das ist weit wichtiger als ein Nebengeschäft mit professionellem RT, egal wie lukrativ jenes sein möge. Noch ist Gaming bei NV der Hauptgeschäftszweig.
Da gehe ich nur teilweise mit. AMDs Schwäche ist für RT jetzt natürlich ideal, wobei man das vor X-Jahren als mit der Turing Entwicklung angefangen wurde noch nicht absehen konnte. Das RT dem Gaming was bringt ist sicherlich auch richtig, aber ich denke nicht, dass die Entscheidung so gelaufen ist, dass der Fokus darin lag die Spiele technologisch voranzutreiben. Da wird der CGI Markt seit jeher im Fokus gestanden haben, denn dort kann man GPU RT mehr als gut gebrauchen, denn der Kostenvorteil ist ja enorm gegenüber einer CPU Berechnung. Ich sehe halt nicht, dass man das in der Form für Spiele geplant hat, um dann in einem Nebensatz zu sagen "Oh - und den 250 Mrd. $ Markt nehmen wir im Vorbeigehen auch mit.". Dafür spricht auch noch ein weiterer Aspekt und das ist die DIE Größe von Turing. Den 1080 Ti Nachfolger 800 mm² groß und 1250 $ teuer zu machen ist mit Sicherheit nichts, was mit Hinblick auf Gamer ein Preisbereich ist, den man für eine non-Titan Karte anstrebt mit entsprechendem Rattenschwanz an höheren Preisen für die restlichen, schwächeren Karten natürlich. Das spricht eben eher dafür, dass man genug Gigarays & Co brauchte um für die professionellen Rendering Server genug Dampf zu haben, wo die hohen Preise relativ schnuppe sind, weil gegenüber CPU Servern immer noch ein Mega Schnapper...

Als weiteren Punkt würde ich den Zeitpunkt aufführen, der gegen eine Turing RT = primär für's Gaming spricht und das ist der 7nm Prozess. Hier hätten sich die entsprechenden Probleme nämlich gut vermeiden lassen, wenn man den merkbar kleineren Prozess genutzt hätte, um den Flächenverbrauch der RT Einheiten aufzufangen. Das was auf der 2080 Ti an RT & Tensor Core viel Platz verbraucht wäre beim 12->7 nm Sprung deutlich weniger dramatisch ausgefallen und man müsste keine 800 mm² Chips verkaufen...

Ein weiterer Faktor, bei dem du eine Sache noch bedenken solltest wäre beim Thema "die Anforderungen für Spiele mal wieder richtig hochzureißen". Diesen Einwand fand ich sehr gut, aber in meinen Augen spricht er eher gegen deine Argumentation. Der Grund dafür ist schlichtweg "4k". Nicht umsonst bastelt Nvidia - auch wenn irgendwo nicht so ganz erfolgreich - an ihren 4k BFG Displays, oder nennen wir es eher "Fernseher"... :wink:
4k reißt die Anforderungen an Spiele aber mal sowas von hoch, so dass man RT als "künstliches" Hochreißen derzeit gar nicht bräuchte. Sieht man doch auch gut bei dem Feedback, das es bei Turing dann gab. Die Enttäuschung der Leute, die die 1250 $ bezahlt haben, war doch deutlich spürbar und sehr oft hat man "Aber der ganze RT Kram hilft mir bei 4k doch nicht! Ich will da mal vernünftige fps haben!" gehört. Was das angeht hat sich NVIDIA keinen Gefallen getan. Wäre Turing für Gamer als Hauptfokus gewesen, dann hätte man sowas wie die 1660 gebracht nur halt in leistungsstark. Dann hätte die 4k Fraktion (und das Thema 4k boomt derzeit ja ohne Zweifel) da was richtig Nettes zu kaufen gehabt. Das wäre weggegangen wie geschnitten Brot. Da jetzt schon RT zu bringen und die Leute, die nach mehr 4k Leistung lechzen ein wenig auf dem Trockenen sitzen zu lassen war keine gute Entscheidung und nicht umsonst gibt es sowas wie die 1660er Reihe überhaupt. Von daher ja: Die Anforderungen hochzureißen ist sicherlich etwas, das man betrachten sollte, nur passt dies bei RT momentan ja gerade nicht ins Bild, weil NVIDIA so versucht an zwei ganz verschiedenen Baustellen gleichzeitig nach oben zu reißen und sich damit ein wenig selbst in den Fuß schießt. RT erst beim 7nm Sprung einzubauen hätte diese Probleme merklich kaschiert. Hat man aber nicht gemacht, weil man jetzt schon den CGI Markt forcieren möchte, auch wenn man dem Gamer damit 1250 $ non-Titan Karten verkaufen muss für einen zweifelhaften Vorteil im Jahre 2018/2019. Der Fortschritt, den Turing für den Gamer bringt, ist halt an sich schon nicht berauschend - da dann aber auch noch 1250 $ für hinlegen...

Das alles spricht in meinen Augen gegen deine Argumentation...

][immy
2019-02-22, 13:19:52
Angenommen der tu116 ist 290mm2 gross, kostet RT beim tu106 ca. 60mm2, beim tu104 ca. 100mm2 und beim tu102 ca. 150mm2.
Angeblich hat der tu116 ja sogar tensor core, das werden wir heute noch erfahren.
ganz ehrlich, ich würde erwarten das sie ihre 1070er Restbestände nehmen und diese als 1660 chip verkaufen. Denn scheinbar hat nvidia ja so viel produziert, das ihre Lager voll sind.
Durch entsprechende Beschneidung der Hardware würden sie auch nicht der 2060er gefährlich werden. Vermutlich reicht dafür schon das Speicherinterface eines 1070er Chips zu reduzieren und die 6gb Speicher anzubinden.

Das sie jetzt extra noch einen neuen Chip auflegen für non RTX-Karten halte ich doch für sehr unwahrscheinlich, schon da man sich damit selbst genug Konkurrenz machen würde und es sich wohl nicht lohnen kann einen neuen Chip zu designen der die eigenen Features dann nicht kann, die man grad versucht zu vermarkten.

Dural
2019-02-22, 13:23:03
Das "problem" hätte es nicht kaschiert, sondern nur verzögert. Das in 12nm zu bringen ist klar überlegt, den der prozess ist ausgereift und günstig.

Und ob es in 12nm überhaupt möglich wäre eine gpu mit klar mehr leistung aber im TDP rahmen zu bleiben steht auch in den sternen, ich behaupte nein.

reaperrr
2019-02-22, 13:40:41
[immy;11933869']ganz ehrlich, ich würde erwarten das sie ihre 1070er Restbestände nehmen und diese als 1660 chip verkaufen. Denn scheinbar hat nvidia ja so viel produziert, das ihre Lager voll sind.
Durch entsprechende Beschneidung der Hardware würden sie auch nicht der 2060er gefährlich werden. Vermutlich reicht dafür schon das Speicherinterface eines 1070er Chips zu reduzieren und die 6gb Speicher anzubinden.

TU116 soll aber "Turing-Shader" haben, wenigstens etwas kleiner als GP104 sein, und GDDR6 haben, den GP104 noch nicht unterstützt.
Perf/W sollte auch besser als bei der 1070 sein. Auch wenn es von der Leistung je mm² kein nennenswerter Fortschritt ist, ich glaube trotzdem nicht, dass GP104 weiter recycelt wird.
Eher läuft die 1070 noch zu ähnlich Preisen weiter, bis sie abverkauft ist.

SKYNET
2019-02-22, 14:12:57
TU116 soll aber "Turing-Shader" haben, wenigstens etwas kleiner als GP104 sein, und GDDR6 haben, den GP104 noch nicht unterstützt.
Perf/W sollte auch besser als bei der 1070 sein. Auch wenn es von der Leistung je mm² kein nennenswerter Fortschritt ist, ich glaube trotzdem nicht, dass GP104 weiter recycelt wird.
Eher läuft die 1070 noch zu ähnlich Preisen weiter, bis sie abverkauft ist.

naja, mal sehen... evtl. unterhalb der 1660 O_o

Dural
2019-02-22, 14:16:50
Die Logik... es gibt keinen einzigen sinnvollen Grund einen alten Chip weiter zulaufen wenn der Nachfolger da ist, der sogar etwas kleiner ist.

Zudem macht das NV seit zig Jahren auch nicht mehr, im Gegensatz zum Mittbewerber wo ständig unbenannt wird. :rolleyes:

][immy
2019-02-22, 14:21:32
Die Logik... es gibt keinen einzigen sinnvollen Grund einen alten Chip weiter zulaufen wenn der Nachfolger da ist, der sogar etwas kleiner ist.

Zudem macht das NV seit zig Jahren auch nicht mehr, im Gegensatz zum Mittbewerber wo ständig unbenannt wird. :rolleyes:
In der Vergangenheit hat nvidia auch nicht riesige Mengen Chips auf Lager gehabt. Aber durch den kurzen mining-boom scheinen sie ja erhebliche Überkapazitäten geschaffen zu haben.

Dural
2019-02-22, 14:37:06
Ich habe weiter laufen gesagt, sprich in der Herstellung lassen. Das NV noch etwas Abverkauf macht, kann gut sein. Das meiste dürfte aber Mittlerweilen doch verkauft sein, Abverkauf wird in der Regel auch eher in China getätigt bei den grossen OEM.

JVC
2019-02-22, 20:42:01
Alles korrekt, aber: Wer einmal solche Gewinnzahlen postet, macht Anleger & Börse gierig. Und vor allem CEO-mordlüstern, wenn die Gewinne dann plötzlich kleiner ausfallen sollte. NV ist hier Opfer des eigenen (mittelfristigen) Erfolges.


Erfolg/Gier ... auf jeden fall, selbst Schuld.

Aber im Endeffekt bin ich froh das NV die Preise so massiv angehoben hat
und den Gewinn maximiert hat (mit verschrotten und so)
anstelle des Umsatzes (durch günstige Preise, kleinere Margen).

Dadurch haben AMD GPU´s überhaupt erst noch Luft zum atmen :wink:

Also kauft, kauft die tollen RTX Karten, günstiger wird's nimma :rolleyes:

m.f.g. JVC

Dural
2019-02-22, 22:26:30
Jemand eine idee wie so tu116 / 1660ti in metro und wolf2 so schwach abschneidet?

dildo4u
2019-02-22, 22:38:42
Möglich das der Vram bei Wolf nicht ganz reicht,die 2060 rockt auch nicht wirklich.Negativ fällt hier eher die 1070 auf.

https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/8

Dural
2019-02-22, 22:43:02
Wolf möglich, aber metro?

Freyberger
2019-02-22, 22:59:21
Auf Grund der dynamischen Skalierung macht ein Wolfen2 Test so gar keinen Sinn, aber gut ...

Timbaloo
2019-02-23, 12:38:29
Angenommen der tu116 ist 290mm2 gross, kostet RT beim tu106 ca. 60mm2, beim tu104 ca. 100mm2 und beim tu102 ca. 150mm2.
Angeblich hat der tu116 ja sogar tensor core, das werden wir heute noch erfahren.
Öhmmm, Rechnung?

RLZ
2019-02-23, 12:46:46
Jemand eine idee wie so tu116 / 1660ti in metro und wolf2 so schwach abschneidet?
Gibt es denn Informationen was noch beschnitten wurde? Sind die Caches noch gleich groß?

Timbaloo
2019-02-23, 13:05:05
Gibt es denn Informationen was noch beschnitten wurde? Sind die Caches noch gleich groß?
L2: 4MB vs 1.5MB

Quelle: https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/2

Freyberger
2019-02-23, 13:12:40
L2: 4MB vs 1.5MB

Quelle: https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/2


Danke für den Link.

ich bin doch tatsächlich von 3MB ausgegangen ...

RLZ
2019-02-23, 13:35:16
L2: 4MB vs 1.5MB
Damit sind gleich alle Vergleiche der Die Size hinfällig. :freak:

dargo
2019-02-23, 14:43:10
Damit sind gleich alle Vergleiche der Die Size hinfällig. :freak:
Inwiefern? Ohne Beschneidung vom Cache wäre das Teil noch einiges größer. Wen verwundert das jetzt? :)

Bösewicht
2019-02-23, 15:10:19
ein hoch auf die pcgh
https://www.youtube.com/watch?v=itzyH2c9434
Ein blick auf die Kommentare und fremdschämen ist um Faktor 10 höher als bei Donald Trump, das ist ein ganz neues Level, sagt man das nicht so?
Wie sie alle nach Raff schreien, mensch ihr diffamiert doch auch ohne euren Anführer alles kurz und klein, bei euch läuft es doch!

Erstaunlich wie die non-political-position 10% und die PCGH 30% ermittelt, aber vielleicht hat es auch ein gaaaanz klein wenig mit der Auswahl des Test-Materials zu tun? ^^
Echt kacke das ich 20 jahre lang die pcgames unterstützt habe, aber ihr könnt es ja wie amd machen, wenn euch keine sau mehr kaufen tut treibt die preise rauf ^^

dargo
2019-02-23, 15:27:33
Die Frametimes der Geforce sind @DX12 in BFV echt goil. :freak: Zum Glück kann man auf DX11 ausweichen.

Rancor
2019-02-23, 15:35:56
Die 1660TI ist die überflüssigste Karte die es gibt. Braucht kein Mensch

Timbaloo
2019-02-23, 16:09:28
Inwiefern? Ohne Beschneidung vom Cache wäre das Teil noch einiges größer. Wen verwundert das jetzt? :)
Ja, aber damit kommen auch keine unsinnigen Größen für RT-Kerne von 60mm² @ TU106 raus. Ich glaube das meinte auch RLZ.

pixeljetstream
2019-02-23, 16:16:07
Bingo, die Fläche von RT-cores wird maßlos überschätzt. Niemals würde man viel opfern für etwas was komplett neu ist und ohne content.
Die grundsätzliche Modernisierung kostet Fläche.

dargo
2019-02-23, 16:18:09
Es sind ja bei den RTX Karten nicht nur die RT-Cores. Die Tensor-Cores nehmen auch einiges an Fläche in Anspruch.

Timbaloo
2019-02-23, 16:20:08
Bingo, die Fläche von RT-cores wird maßlos überschätzt. Niemals würde man viel opfern für etwas was komplett neu ist und ohne content.
Die grundsätzliche Modernisierung kostet Fläche.
Ich weiss auch nicht warum sich das Gerücht so hartnäckig hält. Hilft natürlich auch nicht dass NV so mit Informationen zu Die-Größe der jeweiligen Komponenten geizt...

Es sind ja bei den RTX Karten nicht nur die RT-Cores. Die Tensor-Cores nehmen auch einiges an Fläche in Anspruch.
Wenn TU116 keine Tensor Kerne hat, dann können die bei TU106 auch nicht groß sein.

Spasstiger
2019-02-25, 21:23:26
TU116: 24s + 0r + 3m + 3g = 284
TU106: 36s + 36r + 4m + 3g = 445
TU104: 48s + 48r + 4m + 6g = 545
TU102: 72s + 72r + 6m + 6g = 754

=> Fläche pro
GPC-Overhead: g = 127/6 = 21,2
Memory-Controller (64 Bit) und Cache-Block (1 MiB): m = 68
RT-Core und Tensor-Core-Block: r = 113/48 = 2,35
Shader-Multiprozessor (exkl. RT/Tensor): s = 11/16 = 0,688

RT-Cores und Tensor-Cores pro SM größer als ein TU116-SM? Die Rechnung passt wohl nicht so gut. Geht aber zumindest auf.

Timbaloo
2019-02-25, 21:36:46
Ich würde ja die Rechnung hinterfragen, aber nachdem schon die Eingangsdaten falsch sind...

Spasstiger
2019-02-25, 21:45:02
Anregungen sind immer willkommen. Ich sehe zumindest schon eine fünfte Variable, der L2-Cache pro Memory Controller ist bei TU116 nämlich nur halb so groß wie bei den anderen Turing-Chips.

Datenquelle: https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/2

Registerfile skaliert 1:1 mit den SMs, gehört also dort mit dazu.

Etwas näher kommt dieses LGS, in dem der L2-Cache (c) und die Video- und Displayfunktionen (v) getrennt aufgeführt sind:
24s + 0r + 3m + 3g + 3c + 1v = 284
36s + 36r + 4m + 3g + 8c + 1v = 445
48s + 48r + 4m + 6g + 8c + 1v = 545
72s + 72r + 6m + 6g + 12c + 1v = 754

deekey777
2019-02-25, 22:08:34
Die TC wie auch die FP16-Cores sitzen in der SP-Partition, zumindest nach den Blockdiagrammen.

Spasstiger
2019-02-25, 22:15:09
Ich habe die in der Rechnung aber logisch rausgelöst und mit den RT-Cores verknüpft, um zwischen TU116 und den anderen Turing-Chips unterscheiden zu können.
Die Variable r beschreibt alles, was ein SM in Zusammenhang mit den Tensor Cores und den RT-Cores mitbringt. Die Variable s beschreibt den Rest eines SM.
Fläche SM @ TU116: 1s
Fläche SM @ TU102/TU104/TU106: 1s + 1r

P.S.: Mag jemand eine positive Lösung für das unterbestimmte LGS aus meinem Posting drüber suchen? Bin grad am Mobiltelefon und hab kein Matlab zur Hand.

pixeljetstream
2019-02-25, 22:39:29
http://boostclock.com/show/000250/gpu-rendering-nv-rtxon-gtx1080ti-rtx2080ti-titanv.html
Sieht man bissl wie sich die rtcores machen.

OC_Burner
2019-02-25, 23:36:20
Wenn die Post schnell unterwegs ist, gibt es im laufe der Woche vielleicht schon ein paar hausgemachte Infrarot Die-Shots zu TU106 & TU116. Das bringt dann doch nochmal ein bißchen mehr Klarheit ins Bild. Was mir allerdings nicht klar ist, wo genau die Tensorkerne liegen. Sind diese mit in den GPCs eingebettet oder liegen diese Zentral gelegen, innerhalb der GPU? Für TU102 gibt es schon ein IR Shot (https://flic.kr/p/2dxY2H3) und je nach Zählweise, kommt man durchaus auf 576 Tensor Cores im Zentrum des Chips.

mczak
2019-02-26, 01:07:13
Was mir allerdings nicht klar ist, wo genau die Tensorkerne liegen. Sind diese mit in den GPCs eingebettet oder liegen diese Zentral gelegen, innerhalb der GPU? Für TU102 gibt es schon ein IR Shot (https://flic.kr/p/2dxY2H3) und je nach Zählweise, kommt man durchaus auf 576 Tensor Cores im Zentrum des Chips.
Die Tensor-Cores sind ganz normal Teil eines SM - die sind genau so separat wie das int32 und fp32 dispatch sind... Insbesondere teilen die sich das register file, und auch für die 4 warp-scheduler (pro SM) ist das einfach ein separater Port wie das auch int32 und fp32 sind - deswegen sind ja eben die dedicated fp16 Einheiten von tu 116 tatsächlich im Prinzip einfach abgespeckte Tensor-"Kerne". Dass die Tensor-Einheiten da irgendwie separat in der Mitte der GPU sein sollen ist kompletter Unsinn.
Nicht ganz dasselbe gilt für die RT-Kerne, die sind ausserhalb der warp-scheduler angesiedelt, aber immer noch innerhalb eines SM. Damit haben die keinen direkten Zugriff auf die normalen Register. Vermutlich aber sehr wohl auf den L1 (wobei ich da nicht sicher bin). Die RT-Kerne sind so ähnlich Teil eines SM wie das die TMUs sind.
Wenn du also in einem tu 116 und einem tu 10x Die-Shot die Grösse eines SMs bestimmen kannst dann ist klar wieviel RT und Tensorkerne an Fläche brauchen. Wenn das Foto sehr gut ist und mit etwas Glück könnte man evtl. sogar bestimmen wieviel davon RT und wieviel davon Tensor ist (weil eben die Tensorkerne Teil einer 4x vorhandenen Struktur sein müssen die RT Kerne aber nicht).
Wenn die wilden Theorien da stimmen müsste so ein tu 116 SM dann um die ~6mm^2 sein und ein tu 10x SM um die ~8mm^2 (was doch ein enormer Unterschied wäre). Eine noch wildere Vermutung bezüglich Aufteilung in Tensor und RT wage ich jetzt aber definitiv nicht :-).

dildo4u
2019-02-26, 14:22:02
Termine und Preise für 1660 und 1650.


The sources said that Nvidia is slated to launch GTX 1660 on March 15 and GTX1650 on April 30, which will bear minimum price tags of US$229 and US$179, respectively.

https://www.digitimes.com/news/a20190226PD208.html

rentex
2019-02-26, 15:50:28
Jetza aber hama das Turing Line Up hoffentlich mal durch😂

JVC
2019-02-26, 16:09:11
Kommt nicht noch ne 1550(Ti) mit 2/4Gb oder so ?

Mein Fehler. Habe die 1650 gemeint ...

m.f.g. JVC

Bösewicht
2019-02-27, 05:34:56
ich hab mir jetzt ein paar mal an unterschiedlichen tagen Material zu DLSS rausgesucht un miteinander verglichen und Screenshots erstellt oder genommen und mit denen etwas gearbeitet.

Vor dem ersten Metro DLSS Update hab ich die DLSS Bilder ein wenig mit Filter Bearbeitet und bin zum Ergebnis gekommen das da noch viel Optimiert werden kann, inzwischen sieht das DLSS meinen bearbeiteten Bilder schon sehr viel ähnlicher.
Ich schätze es wird da noch eine weitere Steigerung kommen aber um ehrlich zu sein frag ich mich schon wo jetzt der Vorteil sein soll, mit diversen Filter dürfte ein ähnliches Ergebnis mit niedriger Auflösung auch möglich sein, sofern man die in/zwischen/selektive in die Berechnung stecken kann.

nordic_pegasus
2019-02-27, 07:11:46
Jetza aber hama das Turing Line Up hoffentlich mal durch😂
ich warte aber noch auf die Karte für 1080Ti/TitanX(P/p) Nutzer mit nennenswerter Mehrleistung und vernünftigem Preis 🤣

Fragman
2019-02-27, 07:58:27
ich warte aber noch auf die Karte für 1080Ti/TitanX(P/p) Nutzer mit nennenswerter Mehrleistung und vernünftigem Preis 🤣


https://www.alternate.de/html/product/1506201?gclid=EAIaIQobChMIs8Logavb4AIVHoezCh1eVgnqEAQYASABEgIj3PD_BwE :confused:

nordic_pegasus
2019-02-27, 08:06:19
https://www.alternate.de/html/product/1506201?gclid=EAIaIQobChMIs8Logavb4AIVHoezCh1eVgnqEAQYASABEgIj3PD_BwE :confused:

ich suche den vernünftigen Preis in Deinem Link... wobei ein Leben mit RT und DLSS einfach nur preislos ist 😒

Fragman
2019-02-27, 08:14:30
ich suche den vernünftigen Preis in Deinem Link... wobei ein Leben mit RT und DLSS einfach nur preislos ist 😒

Wie soll denn eine Titan preislich günstig sein, wenn die TI mittlerweile deren Platz eingenommen hat bei 1300 € und die Titan nochmals nach oben gerutscht ist? Vor allem bei den Chipgrössen und den Rammengen?
Und ich weiss nicht so recht, ob die 1080TI und alten Titan Preise so attraktiv waren.

Fragen wir mal so, was erwartest Du denn?
Titan TU Ausbau für 800€? Das deckt sicher nicht einmal die Produktionskosten.

HOT
2019-02-27, 08:51:50
Die Turing-Preise sind ganz schön in den Keller gegangen. Findet einfach nicht genug Käufer wie es aussieht.

dildo4u
2019-02-27, 09:06:40
Ich sehe keine niedrigen Preise,die 2080 kostet immer noch 650.Was immer noch 1080 Ti und nicht 1080 Preise sind.Macht auch kein Sinn billiger zu gehen da AMD kein Preisdruck mit der Radeon 7 erzeugt.

nordic_pegasus
2019-02-27, 09:14:39
Fragen wir mal so, was erwartest Du denn?
Titan TU Ausbau für 800€? Das deckt sicher nicht einmal die Produktionskosten.

wie HOT bereits angemerkt hat, sind die Verkaufszahlen bei Nvidia anscheinend nicht so rosig. Man sieht also, dass der Markt nicht bereit ist, dieses Preisgefüge zu bezahlen.

Ich hätte bei Turing inflationsbereinigte Preise von Pascal erwartet. Also die Preise vor der Mining-Blase und nach dem 1080Ti Release. D.h. ca. 500-600€ für die RTX 2080, 700-800 € für die 2080Ti und 1.300 € für die Titan RTX. Wobei ich einen Zuschlag bei der T-Rex wegen 24GB auf vielleicht 1.500€ noch akzeptabel fände.

Aber alles, was momentan bei Nvidia preislich aufgerufen wird, finde ich einfach nur abschreckend. Insbesondere die Verdoppelung des Preises bei Titan Xp zu Titan RTX ist nicht rational begründbar, außer man hätte auch 100% mehr Leistung bekommen.

Fragman
2019-02-27, 09:28:14
Auch hier nochmal, Turing ist technisch auf Kante genäht, schon allein daher kann es nicht der gleiche Preis wie Pascal sein. Die Reserven von Pascal hat man genutzt, dazu neue Tech integriert und das alles ohne neuen Fertigungsprozess. Wenn man dann schaut, wie riesig der TI Chip ist, kann man doch nicht ernsthaft 700-800 Euro Endkundenpreis erwarten. Da ist nv's Gewinnabsicht noch nicht mal reingerechnet. Turing ist das technisch machbare bei diesem Prozess. Zumindest wirtschaftlich sinnvoll machbar, größer bauen ginge natürlich schon.

Und das Argument, man müsste beim doppelten Preis auch doppelte Leistung bekommen, ist bei CPU's auch nicht der Fall. Man zahlt am oberen Ende immer verhältnismäßig mehr im Vergleich zur Mehrleistung.

Calypso
2019-02-27, 09:48:36
Das "auf Kante genäht" ist aber nvidias Entscheidung. Wenn durch RT und DLLS der Chip aufgebläht wird, man es aber nicht nutzen kann (weil nicht in allen Spielen verfügbar), was nutzt einem dann der große Chip? Nichts! Warum dafür zahlen? Weil nvidia es so will? Nee, dann kann man ebern auch sagen, Turing sei einem zu teuer.

nordic_pegasus
2019-02-27, 09:51:59
Allerdings spiegelt sich der Preisanstieg Pascal -> Turing (auch Anbetracht des langen Zeitraums zwischen beiden Veröffentlichungen) nicht im Leistungsanstieg wieder. Dazu noch der stagnierende Speicherausbau.

Wie ja mehrfach in diversen Threads erklärt wurde, sind nicht die RT/Tensor-Cores "schuld" an dem riesigen Chip der Tu102, sondern primär die sonstigen Architektur-Änderungen. Nur wo ist die Leistungssteigerung, welche ein solcher Monster-Chip haben müsste? Dem normalen Kunden, der nach 2,5 Jahren Pascal signifikante Mehrleistung in klassischen Rasterizing-Spielen haben möchte, kann man so die Turing-Preise nicht schmackhaft machen.

Turing ist für mich Nvidias Äquivalent zu Fiji. Eine technische Durchführbarkeitsstudie. Wenig praktischer Mehrwert für viel Geld.

Timbaloo
2019-02-27, 09:56:13
Wenn durch RT und DLLS der Chip aufgebläht wird
Nur weil man den Käse immer wiederholt wird er nicht wahrer.

rentex
2019-02-27, 10:06:42
Ja, die Preise sind nicht mehr lustig. Ich finde aber mittlerweile das sie bis jetzt durchaus mit der Einführung von RT gerechtfertigt sind (es gab ja auch einen Entwicklungsaufwand)! Auch wenn RT eine Minderheit der Gamer nutzt und es noch in der Verbreitung ist.
Der mögliche Turing Nachfolger (oder sogar der 7nm Refresh) wird da Entspannung (Preis/Performance/Nutzen) bringen. Und dann erst, sehe ich nen Grund ne 1080TI auszuwechseln.

nordic_pegasus
2019-02-27, 10:18:15
Der mögliche Turing Nachfolger (oder sogar der 7nm Refresh) wird da Entspannung (Preis/Performance/Nutzen) bringen.

Ich würde es mir wünschen, aber ich glaube nicht dran. Nvidia wird die gesunkenen Verkaufszahlen bei Turing als Grund nehmen, um das hohe Preisniveau zur Wahrung des Gewinns beim Nachfolger fortzuführen.

Es fehlt ein Korrektiv in Form eines ernsthaften Mitbewerbers.

Save us Intel Xe.

rentex
2019-02-27, 10:59:31
Ich würde es mir wünschen, aber ich glaube nicht dran. Nvidia wird die gesunkenen Verkaufszahlen bei Turing als Grund nehmen, um das hohe Preisniveau zur Wahrung des Gewinns beim Nachfolger fortzuführen.

Es fehlt ein Korrektiv in Form eines ernsthaften Mitbewerbers.

Save us Intel Xe.

Dann werden halt die Aufrüstintervalle immer länger🤷*♂️

Intel save us👏

Fragman
2019-02-27, 12:29:35
Allerdings spiegelt sich der Preisanstieg Pascal -> Turing (auch Anbetracht des langen Zeitraums zwischen beiden Veröffentlichungen) nicht im Leistungsanstieg wieder. Dazu noch der stagnierende Speicherausbau.

Wie ja mehrfach in diversen Threads erklärt wurde, sind nicht die RT/Tensor-Cores "schuld" an dem riesigen Chip der Tu102, sondern primär die sonstigen Architektur-Änderungen. Nur wo ist die Leistungssteigerung, welche ein solcher Monster-Chip haben müsste? Dem normalen Kunden, der nach 2,5 Jahren Pascal signifikante Mehrleistung in klassischen Rasterizing-Spielen haben möchte, kann man so die Turing-Preise nicht schmackhaft machen.

Turing ist für mich Nvidias Äquivalent zu Fiji. Eine technische Durchführbarkeitsstudie. Wenig praktischer Mehrwert für viel Geld.

Du reduzierst die Änderungen auf "klassische" Anwendungen. Dafür sind die Feature ja nur teilweise gemacht. Und natürlich muss man die Feature auch ansprechen, in aktuellen Games findet man das kaum, weil es ohne diese Hardwareteile ja gar nicht performant ginge.

Und ja, der Zeitpunkt war ungünstig auf der einen Seite, hohe Miningpreise, neuer Ram mit höheren Kosten, dickere Chips ohne neue Fertigung.
Andererseits war so auch Luft um RT zu pushen, denn die 1080TI ist schnell genug. Interessant, wird es im nächsten Jahr, wenn beide neue High End Karten zeigen.

nordic_pegasus
2019-02-27, 13:17:08
Nvidia hatte Anfang 2018 (zumindest bei mir) mit der Ankündigung der BFGD den Eindruck erweckt, dass man mit Turing (oder damals noch Gerüchte über Ampere) eher ein Rohleistungs-Monster in Richtung 120fps@UHD bringen will. Auch war nach Maxwell und Pascal die Erwartungshaltung bzgl. des nächsten Leistungssprungs hoch. Was dann aber mit Turing auf den Markt kam, hat wenig bis gar nichts mit dieser Erwartung gemein.

Auch wenn ich mich wiederhole, für mich ist der USB Type-C Anschluss an den Turing ein Sinnbild. Angesichts der fehlenden Marktdurchdringung von VR ein absolut unnützes Gimmick. Auf der anderen Seite hat Nvidia HDMI 2.1 ignoriert, was mich als Gaming@OLED-TV Nutzer echt ankotzt, wenn ich die Entwicklung auf der CES dieses Jahr betrachte. Wenn ich mir einen LG C9 dieses Jahr hole, fehlt mir nicht nur die Rohleistung für 120Hz@UHD, sondern auch die VGA mit passendem Ausgang.

Erinnert sich noch jemand aus den frühen Simpsons Staffeln an die Folge, in der Homer ein Auto für die Firma seines Halb-Bruders entwirft. So ähnlich kommt mir Turing vor. Oder eine andere Simpson Analogie: Turing ist die Antwort auf eine Frage, die nie gestellt wurde.

Fragman
2019-02-27, 13:19:17
Erinnert sich noch jemand aus den frühen Simpsons Staffeln an die Folge, in der Homer ein Auto für die Firma seines Halb-Bruders entwirft. So ähnlich kommt mir Turing vor. Oder eine andere Simpson Analogie: Turing ist die Antwort auf eine Frage, die nie gestellt wurde.

Naja, "the homer" war da noch eine andere Nummer. ;D

Bösewicht
2019-02-27, 13:59:33
der ganze markt ist in deutschland zurück gegangen, nichts anderes als die selbe Geschichte bei smartphones, die meisten brauchen eben keine 144hz 4k gedönz und bis zur nächsten konsolengeneration wird sich auch eigentlich nicht mehr so viel ändern.
wann kommen neue konsolen, in ziemlich genau 2 jahren? in 2 jahren würde ich diesen schwachsinn das mann 8gb ram benötigt sogar eventuell zusammen bis dahin :P

Dural
2019-02-27, 14:58:14
Dann wartet halt bis ende 2019, da könnt ihr eure RTX 3080 in 7nm sicherlich kaufen.

Wobei die wohl nicht wirklich mehr Leistung haben wird als eine Titan RTX aktuell, das Problem sind derzeit eigentlich nur die Preise... Und da sehe ich mit 7nm überhaupt keine Besserung in Sicht!

robbitop
2019-02-27, 16:03:51
Naja, eine 3080ti wird sicherlich schon ein gutes Stück mehr Leistung haben müssen als TU102. +50% sind da sicherlich nicht unrealistisch.

wolik
2019-02-27, 16:24:54
Nvidia hatte Anfang 2018 (zumindest bei mir) mit der Ankündigung der BFGD den Eindruck erweckt, dass man mit Turing (oder damals noch Gerüchte über Ampere) eher ein Rohleistungs-Monster in Richtung 120fps@UHD bringen will. Auch war nach Maxwell und Pascal die Erwartungshaltung bzgl. des nächsten Leistungssprungs hoch. Was dann aber mit Turing auf den Markt kam, hat wenig bis gar nichts mit dieser Erwartung gemein.

Auch wenn ich mich wiederhole, für mich ist der USB Type-C Anschluss an den Turing ein Sinnbild. Angesichts der fehlenden Marktdurchdringung von VR ein absolut unnützes Gimmick. Auf der anderen Seite hat Nvidia HDMI 2.1 ignoriert, was mich als Gaming@OLED-TV Nutzer echt ankotzt, wenn ich die Entwicklung auf der CES dieses Jahr betrachte. Wenn ich mir einen LG C9 dieses Jahr hole, fehlt mir nicht nur die Rohleistung für 120Hz@UHD, sondern auch die VGA mit passendem Ausgang.

Erinnert sich noch jemand aus den frühen Simpsons Staffeln an die Folge, in der Homer ein Auto für die Firma seines Halb-Bruders entwirft. So ähnlich kommt mir Turing vor. Oder eine andere Simpson Analogie: Turing ist die Antwort auf eine Frage, die nie gestellt wurde.
Und NVLink drauf bringen, und SLI beerdigen ? Heilige Gral... Das wird in Geschichte eingehen.

Dural
2019-02-27, 17:47:21
Naja, eine 3080ti wird sicherlich schon ein gutes Stück mehr Leistung haben müssen als TU102. +50% sind da sicherlich nicht unrealistisch.

Ich habe aber 3080 ohne Ti geschrieben ;)

Die 3080Ti wird sicherlich gut schneller sein, dürfte aber auch später kommen, die Vergangenheit hat das ganz klar gezeigt.

=Floi=
2019-02-27, 18:24:50
Naja, eine 3080ti wird sicherlich schon ein gutes Stück mehr Leistung haben müssen als TU102. +50% sind da sicherlich nicht unrealistisch.

ich bin da aufs cpu-limit gespannt. Das war bei volta schon ein thema.

Platos
2019-02-27, 22:52:48
Dann wartet halt bis ende 2019, da könnt ihr eure RTX 3080 in 7nm sicherlich kaufen.

Wobei die wohl nicht wirklich mehr Leistung haben wird als eine Titan RTX aktuell, das Problem sind derzeit eigentlich nur die Preise... Und da sehe ich mit 7nm überhaupt keine Besserung in Sicht!

Bei den PC Preisen (bzw. Hardware) in letzter Zeit, bin ich wirklich am überlegen, komplett auf Konsole umzusteigen (also wenn dann die PS5 kommt).

Momentan ist nichts bekannt, was nach 3nm kommt. Es wird immer teurer, "alte" Preise sind irgendwie nicht zu erwarten wärend dem aber die Konsolen weiterhin bezahlbar sind. Auch die Spiele auf der Konsole sind seit dem "Store-Zeitalter" nicht mehr so teuer. Es gibt immer wieder Angebote. Wer also nicht 10 Spiele im Jahr durchzockt, der wird in Zukunft wohl mit einer Konsole besser fahren (und auch ne gute Grafik haben dürfen), wenn (!) sich nicht eine grundlegend andere Technologie findet. Kohlenstoffröhren sind teuer in der Herstellung und meines Wissens nach momentan weit entfernt von einem Stand, mit dem man wirtschaftlich Chips Herstellen könnte.

Und ich denke, mit einer PS5 wird man optisch langsam an einen Punkt kommen, mit dem man (ich) sich "zufrieden" geben kann. Natives 4K und 60 FPS nach Wahl oder eben mehr Details.. (Ich glaube, mal gelesen zu haben, dass Microsoft auf höhere Framerate bei der Nex-Gen setzten will.)

robbitop
2019-02-28, 07:29:45
ich bin da aufs cpu-limit gespannt. Das war bei volta schon ein thema.
Auflösung hoch, schon ist das kein Thema mehr. Bei 4K @max Details haben die wenigsten Spiele ein CPU Limit bei einer anständigen CPU.

Mich würde sogar eher 5K interessieren. Mittels 2x2 DSR wäre das sicherlich was Feines für 1440p144Hz VRR Displays. Dafür wird aber auch die 3080ti of zu langsam sein.

Ergo: GPU Leistung kann man nie genug haben.

robbitop
2019-02-28, 07:31:02
Bei den PC Preisen (bzw. Hardware) in letzter Zeit, bin ich wirklich am überlegen, komplett auf Konsole umzusteigen (also wenn dann die PS5 kommt).

Momentan ist nichts bekannt, was nach 3nm kommt. Es wird immer teurer, "alte" Preise sind irgendwie nicht zu erwarten wärend dem aber die Konsolen weiterhin bezahlbar sind. Auch die Spiele auf der Konsole sind seit dem "Store-Zeitalter" nicht mehr so teuer. Es gibt immer wieder Angebote. Wer also nicht 10 Spiele im Jahr durchzockt, der wird in Zukunft wohl mit einer Konsole besser fahren (und auch ne gute Grafik haben dürfen), wenn (!) sich nicht eine grundlegend andere Technologie findet. Kohlenstoffröhren sind teuer in der Herstellung und meines Wissens nach momentan weit entfernt von einem Stand, mit dem man wirtschaftlich Chips Herstellen könnte.

Und ich denke, mit einer PS5 wird man optisch langsam an einen Punkt kommen, mit dem man (ich) sich "zufrieden" geben kann. Natives 4K und 60 FPS nach Wahl oder eben mehr Details.. (Ich glaube, mal gelesen zu haben, dass Microsoft auf höhere Framerate bei der Nex-Gen setzten will.)

Und dann kommt Ray Tracing...
Damit kann man optisch schon richtig geile Sachen machen. Aber das setzt einen dann von den spielbaren fps um gut 1-2 Generationen zurück...

Platos
2019-02-28, 19:44:04
Stimm, da hast du schon recht, aber die RT Cores etc. brauchen ja auch Fläche und werden von den Strukturgrössen behindert (werden), vorausgesezt, dass es nicht direkt nach 3nm eine grundlegend neue Materialtechnologie folgt.

Es scheint mir so, als würde das PC-Gaming immer mehr zu einem Enthusiastenspielzeug werden.

Wobei sich das ja "nur" auf die Grafikkarte bezieht. Mittels Multicore bei CPU gibts ja seit Zen wieder frischen Wind, SSDs werden immer billiger etc.

btw: Gibt es eig. irgendwelche (neue) Infos zu multi-Chip GPU? Das wäre ja noch eine gute Möglichkeit, wieder ordentlich Mehrperfomance zu generieren.

Tesseract
2019-02-28, 21:04:03
steck eine V56 (oder ähnliches) für <300€ in ein 8 jahre altes sandy bridge system und das ding wischt mit jeder aktuellen konsole den boden auf. nur weil über die jahre nach oben hin mehr komplexitätsklassen eingeschoben wurden heißt das nicht, dass man diese kaufen muss.

Leonidas
2019-03-04, 16:30:38
Die 1660TI ist die überflüssigste Karte die es gibt. Braucht kein Mensch


Interessanterweise gewinnt die 1660Ti fast jeden Perf/Preis- oder Perf/Stromverbrauch-Vergleich gegen alle im Umfeld liegende Karten (oder liegt nur um 1% zurück). Wenn die 1660Ti vieles nicht ist, so ist sie doch wenigstens effektiv und effizient.

dargo
2019-03-04, 16:35:11
Die tolle Effizienz nützt ihr offenbar auch nichts. Die Verkaufszahlen in DE sind nach 10 Tagen jedenfalls vernichtend.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+GTX+fuer+Gaming/GTX+1660+Ti.html

In der Preisklasse müssten die Zahlen deutlich höher sein.

Leonidas
2019-03-04, 16:38:36
Das ist dann desaströs für nVidia. Hier bezahlt man offenbar den schlechten Start der Turing-Generation nun auch im echten Midrange-Segment. NV bekommt nun das zu spüren, was bislang immer AMD abbekam: Wenn man keine überzeugenden HighEnd-Angebote hat, verkauft sich das Massenmarkt-Gerassel um so schlechter.

dildo4u
2019-03-04, 16:45:14
Mindfactory fehlt die Strix Version absurder weise sind die teuersten Karten die best verkauften,aber natürlich sieht Nvidia nix davon sondern Asus streicht das ein.


https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+2070.html

dargo
2019-03-04, 16:56:50
Das ist dann desaströs für nVidia. Hier bezahlt man offenbar den schlechten Start der Turing-Generation nun auch im echten Midrange-Segment. NV bekommt nun das zu spüren, was bislang immer AMD abbekam: Wenn man keine überzeugenden HighEnd-Angebote hat, verkauft sich das Massenmarkt-Gerassel um so schlechter.
Ich denke eher die Masse hat auch begriffen, dass 6GB 2019 schon verdammt grenzwertig sind. So ne Karte kauft man auch nicht nur für hier und jetzt sondern für die nächsten 2-3 Jahre, manchmal auch länger. Das sieht man auch an den Verkaufszahlen der RTX 2070 vs. RTX 2060.

Fragman
2019-03-04, 18:42:48
Ich denke eher die Masse hat auch begriffen, dass 6GB 2019 schon verdammt grenzwertig sind. So ne Karte kauft man auch nicht nur für hier und jetzt sondern für die nächsten 2-3 Jahre, manchmal auch länger. Das sieht man auch an den Verkaufszahlen der RTX 2070 vs. RTX 2060.

Die "Masse" interessiert sowas doch gar nicht, die wissen nichtmal, wovon Du redest. ;)

Rancor
2019-03-04, 18:59:18
So ist es. Man macht immer den Fehler und denkt das wir hier die normalen sind. Das ist nicht so. Wenn ich sehe wieviel Leute überhaupt keine Ahnung haben, aber mit Ihrem PC zocken.

Ich habe mal für 4 Jahre in einem PC "Fachgeschäft" gearbeitet und 95% der Leute die dahingehen hatten einfach keine Ahnung.

dargo
2019-03-04, 19:19:02
Die "Masse" interessiert sowas doch gar nicht, die wissen nichtmal, wovon Du redest. ;)
Dann erklär doch mal warum die GTX 1660TI wie Blei in den Regalen liegt? Ich sehe keinen Ansturm. Könnte natürlich auch sein, dass der 08/15 Hans mit seiner vorhandenen Karte für 1080p immer noch zufrieden ist und keinen Bedarf für ein Upgrade sieht.

w0mbat
2019-03-04, 19:24:04
Ich will eine 1660 Ti kaufen, aber mir ist sie noch 30-40€ zu teuer. So ab 250€ wird sie interessant.

Fragman
2019-03-04, 19:42:18
Dann erklär doch mal warum die GTX 1660TI wie Blei in den Regalen liegt? Ich sehe keinen Ansturm. Könnte natürlich auch sein, dass der 08/15 Hans mit seiner vorhandenen Karte für 1080p immer noch zufrieden ist und keinen Bedarf für ein Upgrade sieht.

Du sagst es ja selbst. Man dreht sich in dem Bereich im Kreis, dazu der wohl etwas zu hohe Preis. Hat jetzt aber nichts mit der Rammenge zu tun oder wie sehr der Kunde an dem Thema interessiert ist.

][immy
2019-03-04, 20:18:06
steck eine V56 (oder ähnliches) für <300€ in ein 8 jahre altes sandy bridge system und das ding wischt mit jeder aktuellen konsole den boden auf. nur weil über die jahre nach oben hin mehr komplexitätsklassen eingeschoben wurden heißt das nicht, dass man diese kaufen muss.
Nun, das kann ich so nicht ganz bestätigen. Ich bin von Ivy (core i5) auf Ryzen+ (2600) gewechselt und meine RX570 hat dadurch noch mal nen ordentlichen Schub bekommen (kann natürlich auch an dem gleichzeitigen Wechsel auf DDR4 gelegen haben). Besonders die Min-fps gehen hoch.
Ich kann mir zwar durchaus vorstellen, das solange kein CPU limit eintritt die V56 durchaus flott unterwegs ist, aber die dürfte quasi nur auf Sparflamme laufen. Aber ja, im Grunde reicht das ding noch um alles flüssig spielen zu können, war mir nur nicht weit genug in der Komfortzone und zudem hab ich mein 5 Jahre alte Mainboard + CPU + RAM Kombi noch gut verkaufen können.

Tesseract
2019-03-04, 21:28:11
wenn es um die frage geht wie teuer grakas im vergleich zu konsolen sind, dann muss man auch äpfel mit äpfel vergleichen und nicht völlig andere ansprüche an den PC als an die konsolen stellen wo die fps oft genug in den <20 bereich fallen. ich weiß echt nicht was manche hier für vorstellungen haben.
und nein, eine V56 läuft nicht auf sparflamme - schon garnicht auf auflösungen >1080p.

OC_Burner
2019-03-04, 23:00:25
Die Tensor-Cores sind ganz normal Teil eines SM - die sind genau so separat wie das int32 und fp32 dispatch sind... Insbesondere teilen die sich das register file, und auch für die 4 warp-scheduler (pro SM) ist das einfach ein separater Port wie das auch int32 und fp32 sind - deswegen sind ja eben die dedicated fp16 Einheiten von tu 116 tatsächlich im Prinzip einfach abgespeckte Tensor-"Kerne". Dass die Tensor-Einheiten da irgendwie separat in der Mitte der GPU sein sollen ist kompletter Unsinn.
Nicht ganz dasselbe gilt für die RT-Kerne, die sind ausserhalb der warp-scheduler angesiedelt, aber immer noch innerhalb eines SM. Damit haben die keinen direkten Zugriff auf die normalen Register. Vermutlich aber sehr wohl auf den L1 (wobei ich da nicht sicher bin). Die RT-Kerne sind so ähnlich Teil eines SM wie das die TMUs sind.
Wenn du also in einem tu 116 und einem tu 10x Die-Shot die Grösse eines SMs bestimmen kannst dann ist klar wieviel RT und Tensorkerne an Fläche brauchen. Wenn das Foto sehr gut ist und mit etwas Glück könnte man evtl. sogar bestimmen wieviel davon RT und wieviel davon Tensor ist (weil eben die Tensorkerne Teil einer 4x vorhandenen Struktur sein müssen die RT Kerne aber nicht).
Wenn die wilden Theorien da stimmen müsste so ein tu 116 SM dann um die ~6mm^2 sein und ein tu 10x SM um die ~8mm^2 (was doch ein enormer Unterschied wäre). Eine noch wildere Vermutung bezüglich Aufteilung in Tensor und RT wage ich jetzt aber definitiv nicht :-).


Ich bin beileibe kein Experte für den detaillierten Aufbau von GPUs und würde mich auch weit aus den Fenster lehnen beim Benennen irgendwelcher Einheiten anhand von Die-Shots. Für den groben Aufbau reicht es aber das war es dann auch schon. Deine Antwort und auch das geschriebene einiger Anderer hier, sind dann doch nochmal tiefergehendes Wissen. :)

Die-Shots zu TU106 (https://flic.kr/p/2dCutht) und TU116 (https://flic.kr/p/2eWGSD5) sind nun ebenfalls oben (EXIF Daten enthalten Größenangaben). Die GPCs lassen sich leicht identifizieren, die dazugehörigen SMs im Prinzip auch. Leider läßt sich aber immer nur die halbe SM Anzahl pro GPC ausfindig machen oder um genauer zu sein, 6 gleichförmige Strukturen pro GPC bei TU102/106 sowie 4 gleichförmige Strukturen bei TU116. Die Fläche beträgt für diese Bereiche ~7,8mm² (TU102/106) und ~6,5mm² (TU116).

Nimmt man ein kompletten GPC und teilt die berechnete Fläche durch die passende SM Anzahl (TU102/106 = ~6,04mm² oder TU116 = ~5,29mm²), kommt man auch nicht auf die postulierte Fläche pro SM. Wie gesagt, weit aus dem Fenster legen möchte ich mich nicht aber es darf gerne jemand anderes nachrechnen.

Auffallend ist, das sowohl TU106 als auch TU116 jeweils ein Interface für NVLink zu haben scheinen. Bei TU102 ist deutlich sichtbar das zwei NVLinks existieren. Interessanterweise scheinen sämtliche Pascalchips (nicht nur GP100) auch ein ähnliches Interface zu besitzen...

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65918&stc=1&d=1551735810

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65919&stc=1&d=1551735810

gravitationsfeld
2019-03-04, 23:48:01
Woran erkennst du was NVLink-PHYs und was GDDR6/PCIe ist?

gedi
2019-03-05, 00:31:39
Die "Masse" interessiert sowas doch gar nicht, die wissen nichtmal, wovon Du redest. ;)

Auf welchem Planeten lebst du denn? Den DAU interessiert die Architektur, RT und Konsorten nicht die Bohne. Das einzige mit dem der Massemarkt etwas anfangen kann ist der dedizierte Vram, welcher mit 6GB in 2019 geradezu lächerlich erscheint.

mczak
2019-03-05, 02:42:15
Ich bin beileibe kein Experte für den detaillierten Aufbau von GPUs und würde mich auch weit aus den Fenster lehnen beim Benennen irgendwelcher Einheiten anhand von Die-Shots. Für den groben Aufbau reicht es aber das war es dann auch schon. Deine Antwort und auch das geschriebene einiger Anderer hier, sind dann doch nochmal tiefergehendes Wissen. :)

Also ich bin da auch höchstens Armsessel-Experte :-).


Die GPCs lassen sich leicht identifizieren, die dazugehörigen SMs im Prinzip auch. Leider läßt sich aber immer nur die halbe SM Anzahl pro GPC ausfindig machen oder um genauer zu sein, 6 gleichförmige Strukturen pro GPC bei TU102/106 sowie 4 gleichförmige Strukturen bei TU116. Die Fläche beträgt für diese Bereiche ~7,8mm² (TU102/106) und ~6,5mm² (TU116).

Da es davon nur 6 bzw 4 gibt dürfte es sich um die TPC handeln - je 2 SM sind ja in einem TPC zusammengefasst. Scheint die einzelnen SM kann man da nicht ausmachen. Das ist wohl auch gar nicht so erstaunlich, bei Pascal waren die SM ja auch noch doppelt so gross (da gab's keine TPC mit je 2 SM).
Ich würde aber sagen da ist im Bild nicht alles markiert was dazugehört. z.B. der Block mittig rechts direkt neben dem grün markierten Block (bei tu 106) sehe ich auch 6 mal. Ich würde sagen sogar ein weiterer Block gehört da auch noch dazu (also praktisch alles innerhalb des GPC, mit Ausnahme der Blöcke ganz oben bzw. unten).


Nimmt man ein kompletten GPC und teilt die berechnete Fläche durch die passende SM Anzahl (TU102/106 = ~6,04mm² oder TU116 = ~5,29mm²), kommt man auch nicht auf die postulierte Fläche pro SM. Wie gesagt, weit aus dem Fenster legen möchte ich mich nicht aber es darf gerne jemand anderes nachrechnen.

Also wenn der Unterschied bei den TPC 1.4mm^2 ist wäre der Unterschied bei den SM 0.7mm^2, dann geht die Sache zumindest bezüglich der Differenzen ganz gut auf. Das ist dann doch deutlich weniger als ich zuletzt errechnet habe :-).
Mit den 2 zusätzlichen Blöcken wäre so ein SM dann um die 10/2 = 5mm^2 bei Tu 106 - das ist deutlich kleiner als ich geschätzt habe könnte aber schon hinkommen. Ist halt immer die Frage wieviel % in so einem GPC da TPCs (oder SMs) sind und wieviel "sonstiges".

Aber wie auch immer, bei 0.7mm^2 Unterschied pro SM wären wir dann wieder bei eigentlich viel vernünftiger scheinenden Zahlen was den Flächenverbrauch von RT und Tensorkernen angeht (würde so etwa ~25mm^2 bei Tu 106 entsprechen, bei Tu 116 reden wir dann also von einer Ersparnis so um die 20mm^2).
Wieso Tu 116 soviel kleiner ist ist dann aber unklar. Wenn ich das Bild so ansehe scheint Tu 106 etwas mehr ungenutzte Fläche zu haben, in Prozent der Gesamtfläche dürfte das aber kaum ein grosser Unterschied sein. Was mir aber noch auffällt ist die recht grosse Struktur bei Tu 106 direkt unter dem "200A" (16x irgendwas Struktur) - so etwas in der Art sehe ich bei Tu 106 nirgends. Das wären schon mal weitere ~10mm^2 oder so.

Die ROP-Blöcke sieht man auch ganz gut (sind grösser als ich gedacht habe) - bei Tu 106 die 2 Reihen unterhalb der GPC (je 2 links, 2 rechts), bei Tu 116 3 in einer Reihe oberhalb. Vermute ich mal...
Die unterste Reihe Blöcke sind bei beiden Chips quasi identisch, die laufen dann unter "Sonstiges" :biggrin:.


Auffallend ist, das sowohl TU106 als auch TU116 jeweils ein Interface für NVLink zu haben scheinen. Bei TU102 ist deutlich sichtbar das zwei NVLinks existieren. Interessanterweise scheinen sämtliche Pascalchips (nicht nur GP100) auch ein ähnliches Interface zu besitzen...

Also bezüglich i/o sehe ich da die 3 bzw. 4 gddr6 Partition, dazu das pcie interface (also ich zähle 5x4 lanes...), und noch jede Menge weiterer HSIO (1x16, und dazu noch 2x2). Aber vielleicht ist das ja auch was anderes :wink:

Fragman
2019-03-05, 07:57:24
Auf welchem Planeten lebst du denn? Den DAU interessiert die Architektur, RT und Konsorten nicht die Bohne.

Hab ich doch gesagt. :confused:

Das einzige mit dem der Massemarkt etwas anfangen kann ist der dedizierte Vram, welcher mit 6GB in 2019 geradezu lächerlich erscheint.

Nö, der weiss nicht einmal, was das ist.
Der fragt höchstens den Verkäufer um Rat.
Und ich stell mir grad den DAU im Laden vor, wie er gefragt wird, welche Grafiklösung denn bisher in seinem Rechner verbaut ist.
Und dann den Verkäufer, der sich freut, weil er leicht so seine ältere Hardware los wird. ;D

Platos
2019-03-05, 11:16:32
Ich denke eher die Masse hat auch begriffen, dass 6GB 2019 schon verdammt grenzwertig sind. So ne Karte kauft man auch nicht nur für hier und jetzt sondern für die nächsten 2-3 Jahre, manchmal auch länger. Das sieht man auch an den Verkaufszahlen der RTX 2070 vs. RTX 2060.

Die Sache ist doch wie folgt: 1% hat etwas mehr Ahnung (keine Spezialisten, aber kennen sich etwas aus). Von denen gibts ein paar Schreihälse, unter anderem bei Youtube. So und dann vlt. noch bekannte Youtuber, die auch ihren Einfluss haben.

Die 1% schreien so laut und überzeugend, dass von den 99% viele davon mitziehen und den bekannten Youtubern glaubt ja sowieso jeder.
Dann gibt es noch vlt. 10-20%, die sich auch mal selbst Youtube-Videos anschauen bezüglich GPUs. Die sehen aber nur Grafikkarte X gibt Y FPS.
Die restlichen 90-80% sind dann die, die über Bekannte oder Internet einfach das glauben, was das eine Prozent, Youtube oder die 10-20% sagen. Wobei natürlich nicht alle das selbe sagen.

So in etwa stelle ich mir das vor. Und die wenigstens (also nur die 1%) wissen wirklich, ob und was nötig ist. Mal ehrlich, selbst hier im Forum streitet man doch über sowas.

p.s Die Prozentangaben sind natürlich so nach Vorstellung sehr grob geschätzt.


wenn es um die frage geht wie teuer grakas im vergleich zu konsolen sind, dann muss man auch äpfel mit äpfel vergleichen und nicht völlig andere ansprüche an den PC als an die konsolen stellen wo die fps oft genug in den <20 bereich fallen. ich weiß echt nicht was manche hier für vorstellungen haben.
und nein, eine V56 läuft nicht auf sparflamme - schon garnicht auf auflösungen >1080p.

Also ich ging ja eig. davon aus, dass die nächste Konsole auch höhere Frameraten anbietet, so wie jetzt die PS4 Pro. So dass dann nur noch über 60FPS Spieler einen Grund für PC haben - oder eben für noch bessere Optik. Und ja, für 300 kriegt man 2 Jahre nach PS4 Pro Launch eine etwa gleichwertige Rechenleistung. Da hat man aber noch keine CPU, RAM, Mainboard und SSD und Gehäuse... In 2016 hat man dafür aber mehr bezahlt, als die ganze Konsole gekostet hat.

Ich habe mich aber übrigens hauptsächlich auf GPU Preise (auf High-End/Enthusiast) bezogen und deren Fortschritt. Also das man, wenn man ordentlich mehr Leistung als eine Konsole haben will, Heute umso mehr bezahlen muss, als früher. Es ging mir nie darum, wie teuer ein PC mit selber Leistung ist.

Dural
2019-03-06, 10:20:02
Dann erklär doch mal warum die GTX 1660TI wie Blei in den Regalen liegt? Ich sehe keinen Ansturm. Könnte natürlich auch sein, dass der 08/15 Hans mit seiner vorhandenen Karte für 1080p immer noch zufrieden ist und keinen Bedarf für ein Upgrade sieht.

https://store.steampowered.com/hwsurvey/videocard/

:freak::freak::freak:

rentex
2019-03-06, 10:50:37
https://store.steampowered.com/hwsurvey/videocard/

:freak::freak::freak:

Und nu?

mironicus
2019-03-06, 10:51:51
Wer in 4K zockt mit einer RTX 2080 Ti, ist da ein etwas älterer 5820K mit 4,3-4,4 GHz noch ein guter Unterbau, der die Karte mit dieser Auflösung nicht bremst?

BlacKi
2019-03-06, 10:58:24
meistens geht es noch, aber es gibt hier und da spiele, die ausgebremst werden könnten. für 60fps dürfte es reichen, für 75fps+ wohl nicht immer. grob gesagt.

mironicus
2019-03-06, 11:07:37
Gibt es irgendwelche Vorteile beim 5820K wegen der höheren Speicherbandbreite? Ich habe auch noch einen Core i7-5775c mit 4 GHz (mit dem 128 MB EDRAM).

Welches System wäre mit einer 2080Ti in 4K im Schnitt wohl schneller?

BlacKi
2019-03-06, 11:28:44
reichen dir die 60-75fps nicht? quadchannel bringt vl 1-2% in spielen, oft sogar garnichts. besser wäre dualchannel mit höchstmöglichem speichertakt. da krankt das 2014er system etwas. aber ein 5770c wäre wohl kaum schneller. fps technisch kommt wohl ungefähr dasselbe bei raus, vielleicht sogar langsamer.

basix
2019-03-06, 12:28:42
Also in 4K sollte ein 5820K nur sehr selten limitieren, selbst mit einer 2080 Ti. Ist bei mir ja auch in 1440p schon so (hatte vor dem 5960X einen 5820K). Wenn die CPU limitiert bin wie in alten Spielen dann bewege ich mich eher im 120fps Framelimiter was ja nicht schlimm ist. Ich wüsste auch kein Spiel, wo man nicht >80fps erreicht, meistens ist man >100fps unterwegs. Und in diesen Regionen ist eher die Grafikkarte am Limit.

dargo
2019-03-06, 16:47:52
https://store.steampowered.com/hwsurvey/videocard/

:freak::freak::freak:
Hast du dich gerade verschluckt oder was ist los?

HisN
2019-03-06, 17:21:14
Wer in 4K zockt mit einer RTX 2080 Ti, ist da ein etwas älterer 5820K mit 4,3-4,4 GHz noch ein guter Unterbau, der die Karte mit dieser Auflösung nicht bremst?


Hat das wirklich was mit dem Namen der Hardware zu tun was wo bremst?

Ich halte diese "Probleme" ja eher für selbstgemacht.

Noch nie aufgefallen was Du so alles selbst in der Hand hast?

https://abload.de/thumb/gta5_2017_06_22_17_54p2up5.jpg (http://abload.de/image.php?img=gta5_2017_06_22_17_54p2up5.jpg) https://abload.de/thumb/gta5_2017_06_22_17_50lyuan.jpg (http://abload.de/image.php?img=gta5_2017_06_22_17_50lyuan.jpg)

Spasstiger
2019-03-06, 22:37:16
Wer in 4K zockt mit einer RTX 2080 Ti, ist da ein etwas älterer 5820K mit 4,3-4,4 GHz noch ein guter Unterbau, der die Karte mit dieser Auflösung nicht bremst?
Ich betreibe den alten 5820K von Raff @ 4,2 GHz und hätte keine Skrupel, eine RTX 2080 Ti dazuzustecken. Skrupel hätte ich eher davor, über 1000 € für eine Grafikkarte auszugeben, deren Vorteile ich vielleicht 30 Stunden im Monat nutze.
Im Moment macht es noch die alte GTX 960 4 GiB von Raff, die ich eigentlich als Übergangskarte gedacht hatte.

HOT
2019-03-06, 22:45:33
Und da isses, das Turing-Desaster:
http://www.pcgameshardware.de/Tom-Clancys-The-Division-2-Spiel-61585/Specials/Open-Beta-Tech-Review-Benchmark-Test-1276738/
Reicht wohl doch net der Speicher, welch Überraschung.
Ich weiss, jetzt kommen wieder die ganzen "das ist ein Einzelfall!!!111elf"
Aber wir wissen doch alle, dass es nicht so ist...

1660 und 2060 nur mit DX11 und bescheidenen Frametimes nutzbar, 2080ti reicht trotz 1000€+ nicht für 4k - schade eigentlich.

dargo
2019-03-06, 23:03:45
Du weißt aber schon, dass das ne Beta war? Und, dass diese "Speicherlecks" offenbar nur Geforces @DX12 betreffen? Womöglich sogar nur Pascal? Ich hatte hier max. 6,7GB in 1440p mit ner Vega gesehen. 1440p ist zwar kein 4k. Aber wenn ich dort lese, dass selbst 12GB unter 4k nicht reichen dann leuten bei mir die Alarmglocken, dass dort irgendwas nicht stimmt. Entweder ist der Treiber noch fragwürdig oder die Applikation in Verbindung mit bestimmten GPUs.

Sorry, aber der Artikel ist einfach nur schlecht. Null Vergleich mit bsw. V10/V20/Turing.

Adam D.
2019-03-06, 23:21:16
Du weißt aber schon, dass das ne Beta war? Und, dass diese "Speicherlecks" offenbar nur Geforces @DX12 betreffen? Womöglich sogar nur Pascal? Ich hatte hier max. 6,7GB in 1440p mit ner Vega gesehen. 1440p ist zwar kein 4k. Aber wenn ich dort lese, dass selbst 12GB unter 4k nicht reichen dann leuten bei mir die Alarmglocken, dass dort irgendwas nicht stimmt. Entweder ist der Treiber noch fragwürdig oder die Applikation in Verbindung mit bestimmten GPUs.

Sorry, aber der Artikel ist einfach nur schlecht. Null Vergleich mit bsw. V10/V20/Turing.
Bin zwar eigentlich ein großer Fan von der PCGH, aber in dem Fall ist es schon etwas fragwürdig, solche Funde ohne irgendeine Form von Kontext einfach so stehen zu lassen. Meine V64 hat sich in UWQHD ca. 7GB genommen, wieso dann 4K auf einmal nicht mal mit 12GB klarkommen soll, erschließt sich mir nicht.

Timbaloo
2019-03-07, 08:44:24
Die PCGH kann man doch seit der Klickbait-Scheisse "BF5 nutzt gar keine RT-Einheiten!!!" nicht mehr als seriöse Quelle bezeichnen.

Mangel76
2019-03-07, 08:59:11
Bin zwar eigentlich ein großer Fan von der PCGH, aber in dem Fall ist es schon etwas fragwürdig, solche Funde ohne irgendeine Form von Kontext einfach so stehen zu lassen. Meine V64 hat sich in UWQHD ca. 7GB genommen, wieso dann 4K auf einmal nicht mal mit 12GB klarkommen soll, erschließt sich mir nicht.

Ihr habt schon gesehen, dass in der Überschrift "Zwischenfazit" steht und es nur um den Eindruck aus der Open Beta (=Kontext) geht? Am Ende wird auch klar darauf hingewiesen, dass es nach dem Start ausführliche Tests gibt? Der ganze Artikel gibt eben nur einen kurzen Eindruck über Änderungen seit der Closed Beta, über Fortschritte (Pascal) und noch bestehende Probleme (VRAM bei NVIDIA). Warum sollte man auch einen vollständigen Test machen, wenn 2 Wochen später das Spiel final erschient und vielleicht auch noch neue Treiber???

HOT
2019-03-07, 09:06:21
Es gibt ja auch nur einen Ausblick auf künftige Speicherverbräuche, das ist jetzt natürlich nicht repräsentativ. Aber es kann eben vernichtend werden für die Turings, das ist auf jeden Fall jetzt erwiesernermaßen eine echte Archillesferse, darum gehts.

Edit: fett. Für die, die nicht lesen können.

Timbaloo
2019-03-07, 09:08:27
Der "Artikel" bringt 0,0 Erkenntnis und "beweist" gar nichts. Geh woanders trollen.

Leonidas
2019-03-07, 09:42:57
Der Artikel weist auf eine mögliche Problematik hin. Man muß dann da auch nicht mehr reininterpretieren, als drinsteht - und "ernsthaftes Problem für Turing" oder "Speicher-Notstand!!!" steht nicht drin. Abwarten auf den Technik-Test zur finalen Spielversion mit angepassten Treibern.

HOT
2019-03-07, 09:57:49
Wohl eher abwarten, wie sich die Speicherverbräuche bei künftigen Top-Titeln entwickeln.

Raff
2019-03-07, 11:26:56
Ich bin wirklich froh, dass hier noch einige Leute lesen und verstehen können. :up: Das sind wertvolle Fertigkeiten, die leider vermehrt gegen "Überfliegen, Fehlinterpretieren & Flamen" ausgetauscht werden.

MfG,
Raff

Rancor
2019-03-07, 11:31:51
Es gibt ja auch nur einen Ausblick auf künftige Speicherverbräuche, das ist jetzt natürlich nicht repräsentativ. Aber es kann eben vernichtend werden für die Turings, das ist auf jeden Fall jetzt erwiesernermaßen eine echte Archillesferse, darum gehts.

Edit: fett. Für die, die nicht lesen können.

Und was soll man jetzt deiner Meinung nach tun? Alle Vega VII kaufen oder was? Das ist doch Quatsch. Bis 2020 wird man sich mit 8GB abfinden müssen.

Schnoesel
2019-03-07, 11:46:03
2020 hat Nvidia hoffentlich 16GB in ihrer 3080TI 7nm... Dieses rumgeiere mit dem Speicher nervt wirklich bei Nvidia.

Fragman
2019-03-07, 11:49:39
Glaubt hier wirklich jemand, das Spiele ab jetzt nur noch mit 16GB laufen, weil es eine Gamerkarte mit 16GB gibt, die weltweit eine Hand voll Leute haben? ;)
Das Thema wird erst mit den neuen Konsolen interessant.

Dural
2019-03-07, 11:55:31
16GB?

Viel zu wenige, alles unter einer Titan RTX mit 24GB geht gar nicht mehr. :freak:

Platos
2019-03-07, 12:08:22
2020 hat Nvidia hoffentlich 16GB in ihrer 3080TI 7nm... Dieses rumgeiere mit dem Speicher nervt wirklich bei Nvidia.


Alle 2 Gens gibts ne Erhöhung. Ist eig. schon seit einigen Gens. so. Ich persönlich würde dann immer nur bei einer Erhöhung GPUs kaufen. Turing ist disbezüglich eig. kein Spezialfall. Läuft so wie immer bei nvidia.

Mangel76
2019-03-07, 12:40:17
Alle 2 Gens gibts ne Erhöhung. Ist eig. schon seit einigen Gens. so. Ich persönlich würde dann immer nur bei einer Erhöhung GPUs kaufen. Turing ist disbezüglich eig. kein Spezialfall. Läuft so wie immer bei nvidia.

780Ti ... 3GB
980Ti ... 6GB
1080Ti...11GB
2080Ti...11GB

HOT
2019-03-07, 12:55:30
Und was soll man jetzt deiner Meinung nach tun? Alle Vega VII kaufen oder was? Das ist doch Quatsch. Bis 2020 wird man sich mit 8GB abfinden müssen.
Den Scheiss mit 6GB im Laden lassen!! was denn sonst. Die müssen merken, dass sie richtigen Bockmist gebaut haben.

Rancor
2019-03-07, 13:13:25
Es geht mir um die 8GB Karten. Also V56,64 RTX 2070/2080 usw.

dargo
2019-03-07, 13:15:59
Es gibt ja auch nur einen Ausblick auf künftige Speicherverbräuche, das ist jetzt natürlich nicht repräsentativ.
Nein, tut es nicht. Hättest du gelesen was ich geschrieben habe wüsstest du auch warum.

Glaubt hier wirklich jemand, das Spiele ab jetzt nur noch mit 16GB laufen, weil es eine Gamerkarte mit 16GB gibt, die weltweit eine Hand voll Leute haben? ;)

Ja... die PCGH. X-D

Übrigens genügen in Ultra HD unter DX12 mit maximalen Details phasenweise nicht einmal die 12 GiByte einer Titan X Pascal, 16 GiByte sollten es für absolut ruckelfreie Performance sein - ein Schelm, wer hier Optimierungen für die Radeon VII im Rahmen der AMD-Partnerschaft vermutet.

Fragman
2019-03-07, 13:17:06
Den Scheiss mit 6GB im Laden lassen!! was denn sonst. Die müssen merken, dass sie richtigen Bockmist gebaut haben.

Wobei das Problem ja weniger die Rammenge ist, sondern eher die Leistungsklasse. Aber das ist eine mehr generelle Diskussion ob man Refreshs denn wirklich immer braucht.

Platos
2019-03-07, 13:43:17
780Ti ... 3GB
980Ti ... 6GB
1080Ti...11GB
2080Ti...11GB

Falsch gesagt. Meinte eine Verdopplung, nicht simple Erhöhung, alle 2 Gens (Im Schnitt). Und das war bisher ne Faustregel, kein Gesetzt. Die 780TI hatte damals nur schon so wenig Speicher, dass es danach ne Verdopplung gab. Und das war auch ne komplett neue Serie. Die TI Gen. gabs damals das erste Mal. Die 780TI war ja auch fast das selbe wie ne 780.

xx50 1GB -> 2GB -> 4GB und nächste Gen 8GB
xx60 1.5GB ->2GB ->6GB und nächstes mal 12 GB (hier gabs eben ne Vervierfachung über 4 Gens, aber im Schnitt das Gleiche)
xx70 2GB ->4GB ->8GB und nächste Gen solltens 16GB sein
xx80 2GB ->4GB ->8GB und nächste Gen solltens 16GB sein

Also historisch gesehen ist es normal. In der nächsten Gen sollte es also eine Verdopplung geben.

HOT
2019-03-07, 13:56:03
Wobei das Problem ja weniger die Rammenge ist, sondern eher die Leistungsklasse. Aber das ist eine mehr generelle Diskussion ob man Refreshs denn wirklich immer braucht.
Bis 200€ wär 6GB ok, darüber ist es schlicht inakzeptabel heute.

dargo, a.) solltest du dir den PCGH Abschnitt selbst mal durchlesen b.) gehts hier bei D2 nur um ein Beispiel. Das ist jetzt aber genug durchgekaut worden.

Mangel76
2019-03-07, 15:44:49
Falsch gesagt. Meinte eine Verdopplung, nicht simple Erhöhung, alle 2 Gens (Im Schnitt). Und das war bisher ne Faustregel, kein Gesetzt. Die 780TI hatte damals nur schon so wenig Speicher, dass es danach ne Verdopplung gab. Und das war auch ne komplett neue Serie. Die TI Gen. gabs damals das erste Mal. Die 780TI war ja auch fast das selbe wie ne 780.

xx50 1GB -> 2GB -> 4GB und nächste Gen 8GB
xx60 1.5GB ->2GB ->6GB und nächstes mal 12 GB (hier gabs eben ne Vervierfachung über 4 Gens, aber im Schnitt das Gleiche)
xx70 2GB ->4GB ->8GB und nächste Gen solltens 16GB sein
xx80 2GB ->4GB ->8GB und nächste Gen solltens 16GB sein

Also historisch gesehen ist es normal. In der nächsten Gen sollte es also eine Verdopplung geben.

680 ... 2GB
780 ... 3GB
980 ... 4GB
1080...8GB
2080...8GB

es gibt da keine wirkliche Gesetzmäßigkeit, auch bei den xx80ern hat sich in den letzten Generationen der VRAM jeweils vergrößert, nur bei Turing eben gar nicht.

Platos
2019-03-07, 16:04:35
Ich habe mich ja korrigiert und eine Verdopplung alle 2 Gens im Schnitt angesprochen.

Was ja so auch stimmt.

HOT
2019-03-07, 16:36:11
Die 2080 bietet die Performance einer 1080ti, hat jedoch 3GB weniger. Die 2060 spielt in der Liga einer 1070, hat jedoch wiederum 2GB weniger. Turing ist speichertechnisch nicht nur eine Stagnation, Turing ist hier ein Rückschritt!
Das wird ja noch schlimmer mit mordernen Games, da der Abstand zwischen Turing und Pascal ja größer wird und nicht kleiner!

Timbaloo
2019-03-07, 16:43:02
Und es gibt noch immer kein reales Problem mit dem Speicher an dem HOT sich abfeiern kann, also wiederholt er Informationen die ein halbes Jahr alt sind :frown:

Man hat es schon hart als Radeon-Fanboy derzeit. Keine Innovation, hinterherhinken was Featureset angeht, grottenschlechte Performance und eigentlich müsste man Vega VII mit einem Noise-Cancelling-Kopfhörer statt irgendwelchen Spielen bundlen.

Mangel76
2019-03-07, 16:58:04
Und es gibt noch immer kein reales Problem mit dem Speicher an dem HOT sich abfeiern kann, also wiederholt er Informationen die ein halbes Jahr alt sind :frown:

Man hat es schon hart als Radeon-Fanboy derzeit. Keine Innovation, hinterherhinken was Featureset angeht, grottenschlechte Performance und eigentlich müsste man Vega VII mit einem Noise-Cancelling-Kopfhörer statt irgendwelchen Spielen bundlen.

Jo, ist echt hart, wenn beide große Hersteller nix bieten, was einen zum Aufrüsten verleiten könnte :(

HOT
2019-03-07, 17:03:09
Und es gibt noch immer kein reales Problem mit dem Speicher an dem HOT sich abfeiern kann, also wiederholt er Informationen die ein halbes Jahr alt sind :frown:

Man hat es schon hart als Radeon-Fanboy derzeit. Keine Innovation, hinterherhinken was Featureset angeht, grottenschlechte Performance und eigentlich müsste man Vega VII mit einem Noise-Cancelling-Kopfhörer statt irgendwelchen Spielen bundlen.

Ah jetzt wirds ja auch noch lustig ;D.
Na wie stellst du dir das denn vor, mit 6GB in 2020? Jetzt bin ich echt gespannt :D.

Na ja, klar ist die Info ein halbes Jahr als (na ja nicht ganz, ein Viertel triffts besser), klar war von Anfang an klar, dass der Speicher nicht reichen wird. Jetzt aber haben wir zum ersten mal nen konkreten Nachweils, dass das handfeste Nachteile mit sich bringen kann..

Timbaloo
2019-03-07, 17:25:02
Ah jetzt wirds ja auch noch lustig ;D.
Na wie stellst du dir das denn vor, mit 6GB in 2020? Jetzt bin ich echt gespannt :D.
Ich fahre mit dem sogenannten Speicherkrüppel GTX 970 heute noch recht gut. Die Prophezeiungen dass die Karte ja in einer fernen undefinierten Zukunft total wegen dem Speicher abkacken würde kann ich nicht bestätigen. Aber ich bin mir sicher, dass du mir mindestens einen Test (den du wahrscheinlich wieder nicht verstanden hast) zeigen kannst wie schlimm das doch alles sein müsste.

Ergo? Diese ganze Speicherrumlamentiererei ist der gleiche Zukunftsvorhersagerei-Bullshit wie "Wundertreiber", "alter Wein" und Konsorten. Aber ja, mit den Next-Gen-Konsolen geht dann die Welt unter, diesmal tatsächlich.... :rolleyes: :rolleyes: :rolleyes:

PS: Nicht falsch verstehen, wer der Meinung ist mehr Speicher zu brauchen kann gerne auf Turing verzichten. Habe ich auch getan... Aber hört bitte auf einen Technologie-Thread wie diesen immer wieder auf Speicher zu reduzieren, nur weil es ins Feindbild passt und im noch Rahmen der begrenzten persönlichen technischen Auffassungsgabe liegt.

RLZ
2019-03-07, 17:27:38
Ich fahre mit dem sogenannten Speicherkrüppel GTX 970 heute noch recht gut.
Dito. Es ist beeindruckend wie ich selbst WQHD noch keine großartige Einschränkung hinnehmen muss. Das Bashing gegen die GPU war ziemlich übertrieben.

w0mbat
2019-03-07, 17:32:03
Die ganze Situation ist doch Scheiße. Von AMD gibt es seit Polaris und Vega nichts neues mehr und Nvidia haut uns ihre Produkte mit extremen Preisen und wenig VRAM um die Ohren. Ich hoffe ja inständig, dass die sinkenden Absatzzahlen im GPU-Markt hier was bewirken.

Ich will eine neue GPU, aber das gestaltet sich schwierig. Bei RX 570/580/590 bzw. GTX 1060 ist mir der Sprung zu gering, ich hätte gerne Leistung ab V56/1070.

Jetzt könnte ich mir eine V56 kaufen, die gibt es aktell zu ganz guten Preisen. Aber sie verbraucht sehr viel, man muss quasi Zeit ins UV stecken und außerdem gibt es davon keine ITX Karten (ich hätte gern <180mm).

Eine GTX 1070 wäre auch eine Option, aber die Karten sind schon > 2 1/2 Jahre alt, ich will eine neue GPU Kaufen.

Radeon VII ist eine Vega in 7nm und dazu sehr teuer, die ganzen RTX Karten sind für ihre Preise auch sehr teuer. Ich hätte nichts gegen eine RTX 2080 für 700€, wenn sie denn deutlich schneller als eine 1080 Ti wäre und mit 16GB RAM kommt.

Die GTX 1660 Ti ist auch interessant, vor allem weil sie "relativ" günstig ist, ca. 1070 Performance, es gibt gute ITX Karten, sie ist extrem sparsam und die Pascal Architektur kann besser mit LL-APIs. Aber sie hab eben nur 6GB.

Navi kommt vielleicht gegen Ende des Jahres, der Pascal Nachfolger wahrscheinlich erst 2020. Ich will aber so lange eigentlich nicht warten.

Bei ner 1660 Ti mit 8GB für 250€ würde ich micht viel wohler fühlen. Aber das ist eben die aktuelle Lage, die Mining-Zeit hat den Markt langfristig kaputt gemacht und Nvidia weiß, dass sie machen können, was sie wollen.

Was ich jetzt machen kann:
1. In den sauren Apfel beißen und eine 1660 Ti kaufen.
2. Auf Navi warten und so lange mit der alten R9 290 rumdaddeln.

Beides doof.

maximus_hertus
2019-03-07, 17:41:06
Und es gibt noch immer kein reales Problem mit dem Speicher an dem HOT sich abfeiern kann, also wiederholt er Informationen die ein halbes Jahr alt sind :frown:

Man hat es schon hart als Radeon-Fanboy derzeit. Keine Innovation, hinterherhinken was Featureset angeht, grottenschlechte Performance und eigentlich müsste man Vega VII mit einem Noise-Cancelling-Kopfhörer statt irgendwelchen Spielen bundlen.

Es wird echt lahm mit den nV Fanboys :/

Zum xten mal =>


Z.B. Battlefield V:
Wer zusätzlich Raytracing aktiviert (das den Speicherverbrauch weiter erhöht), sieht dann nur noch eine Ruckelorgie. Eine GeForce RTX 2070 erreicht in demselben Szenario noch mühelos mehr als 60 FPS. Daran ändert auch der Schalter für die Speicherbeschränkung im Spiel nichts.

FF XV:
Trotz 60 FPS stockt die GeForce RTX 2060 in der hohen Auflösung störend, während die GeForce RTX 2070 problemlos durch dieselbe Sequenz rennt. Und das hochauflösende Textur-Pack des Spiels wurde in dem Fall noch nicht mal installiert. Auch hier müssen auf der neuen Turing-Grafikkarte die Texturdetails reduziert werden.

CoD WWII:
Call of Duty: WWII zeigt auf einer GeForce RTX 2060 sowohl in 1.920 × 1.080 als auch in 2.560 × 1.440 unregelmäßige Frametimes, [...] Davon unabhängig zeigt die GeForce RTX 2070 mit 8 GB Speicher dieses Verhalten nicht. Die Frametimes sind deutlich sauberer, wenn auch nicht perfekt. Auf einer GeForce RTX 2060 stockt die Testsequenz dagegen vor allem in Full HD massiv – Call of Duty: WWII ist so nicht wirklich spielbar. In dem Fall müssten die Texturdetails reduziert werden.

Jetzt kommt noch Division 2. Auch wenn ich hier noch die eine Woche bis zum Release warte und dann auf die 6GB "einhaue" oder halt nicht ;)


Willst du jetzt immer noch behaupten, dass 6GB immer ausreichen?

Bei einer Karte für bis zu 450 Euro MUSS(!) man erwarten dürfen, dass ALLE aktuellen Spiele in 1920 x 1080 in höchster Detailstufe flüssig laufen.

robbitop
2019-03-07, 17:47:09
Jo, ist echt hart, wenn beide große Hersteller nix bieten, was einen zum Aufrüsten verleiten könnte :(

So sehe ich das auch. Hätte gern einen Nachfolger für die 1080ti. Geld ist kein Problem. Aber die 2080ti ist einfach vom Sprung der Performance zu klein. Für 30-40% rüste ich nicht auf. Wakü leeren, Fullcover neu, befüllen, entlüftem. Kein Bock ... das muss sich richtig lohnen.
Deshalb warte ich auf die 3080ti (oder Radeon Äquivalent) und 16C Zen2/Icelake. Was halt ein amständiger Speung ist damit ich wieder 2-3 Jahre nicht rumfummeln muss.

Timbaloo
2019-03-07, 17:58:12
Willst du jetzt immer noch behaupten, dass 6GB immer ausreichen?
Nein, habe ich nie behauptet, ich sage nur, dass es kein reales Problem ist. Man spielt dann halt nicht mit Texturen auf Ultra z.B. in BF5 wenn man gleichzeitig RTX ON auf einer 2060 haben will. Ausser natürlich...

Bei einer Karte für bis zu 450 Euro MUSS(!) man erwarten dürfen, dass ALLE aktuellen Spiele in 1920 x 1080 in höchster Detailstufe flüssig laufen.
... man definiert einfach Kriterien nach den jeweiligen Bedürfnissen. "Nie irgendwas anpassen müssen" kann ja wohl kaum das Qualitätskriterien der Gilde sein welche gerade an Kühlern und SPannungen rumschraubt um sich das einzige Produkt mit 16GB schönzufrickeln.

maximus_hertus
2019-03-07, 18:52:40
Nein, habe ich nie behauptet, ich sage nur, dass es kein reales Problem ist. Man spielt dann halt nicht mit Texturen auf Ultra z.B. in BF5 wenn man gleichzeitig RTX ON auf einer 2060 haben will. Ausser natürlich...


... man definiert einfach Kriterien nach den jeweiligen Bedürfnissen. "Nie irgendwas anpassen müssen" kann ja wohl kaum das Qualitätskriterien der Gilde sein welche gerade an Kühlern und SPannungen rumschraubt um sich das einzige Produkt mit 16GB schönzufrickeln.

Echt jetzt? 1080p in Ultra Details ist schon zu viel? Für eine 400-450 Euro Karte?

Ja, es ist ein Problem. Der Grafikchip reicht locker für 60 und teilweise viel mehr fps, nur der Grafikspeicher ist zu knapp. Das ist ein Problem, die Karte wird durch den Speicher verkrüppelt (bei der Leistung). Hätte die 2060 8GB VRAM würden die von mir genannten Spiele butterweich laufen. Es ist nur und nur der zu knappe Grafikspeicher.

Wozu hat die 2060 so viel Rechenlesitung? Wenn man eh die Details reduziert, dann hätte man deutlich weniger Shader etc. einbauen können und die Karte dann für unter 300 Euro verkaufen können. Wozu die Rechenkraft? Das ergibt keinen Sinn.

Timbaloo
2019-03-07, 19:35:59
Echt jetzt? 1080p in Ultra Details ist schon zu viel? Für eine 400-450 Euro Karte?
Verschweige das RTX bei BF5 nicht. Ergo kannst du auch mit der tollen 16GB-Karte für 799€ (alternate.de) nicht höchste Details spielen, aber mit einer 349€-Karte ist das auf einmal ein Problem? Merkst du noch was?

w0mbat
2019-03-07, 19:53:10
RTX bei BFV ist natürlich eine Sonderheit und CoD hatte immer schon VRAM Probleme, genauso wie jedes CoD seit Jahren einen memory leak hat. Final Fantasy ist damit die Ausnahme, Division 2 kommt noch dazu.

Aber keine Frage, es immer immer mehr Spiele geben in denen man mit <8GB VRAM in Zukunft die Texturen und die Schatten reduzieren muss. Jetzt ist es vielleicht noch die Ausnahme, in einem jahr sind es dann aber vielleicht schon mehrere Spiele.

Schon bei der GTX 1060 war es ein Makel, aber bei der GTX 1660 Ti und vor allem der RTX 2060 wären 8GB schon wichtig gewesen.

Platos
2019-03-07, 20:17:24
Der Spruch mit " Mann muss nur Texture-Stufen zurückdrehen" ist ja sowieso das schlechteste Argument ever. Es geht hier nicht um eine Karte, wie eine GTX 1060, bei der nur in Einzelfällen/Spezialfällen mehr als 6GB nötig sind. Die RTX 2060 hat aber einfach zu viel Power, für die 6GB.

Bei einer GTX 1660 sieht das vlt. wieder ganz anders aus.

rentex
2019-03-07, 21:26:03
Um es mal anzusprechen: Da werden allgemein die Anforderungen an die Grakas hochgeschraubt, um weiter was verkaufen zu können. Nur weil schlecht programmiert, miese Fehlerbereinigung betrieben wird und dann noch sinnloser Weise irgendwelche hochtrabenden Effekte in Multiplayer Titeln integriert werden.
Und dann kloppen sich die Fanboys...irre🙄

w0mbat
2019-03-07, 21:33:34
Bei einer GTX 1660 sieht das vlt. wieder ganz anders aus.
Die 1660 Ti ist auf dem Niveau einer 1070, eine 2060 ist nur ca 15% schneller.

Platos
2019-03-07, 21:50:45
Die 1660 Ti ist auf dem Niveau einer 1070, eine 2060 ist nur ca 15% schneller.

Ohne Ti ;)

HisN
2019-03-07, 22:51:54
Um es mal anzusprechen: Da werden allgemein die Anforderungen an die Grakas hochgeschraubt, um weiter was verkaufen zu können. Nur weil schlecht programmiert, miese Fehlerbereinigung betrieben wird und dann noch sinnloser Weise irgendwelche hochtrabenden Effekte in Multiplayer Titeln integriert werden.
Und dann kloppen sich die Fanboys...irre��

Wenn man es überspitzt ist alles was nicht 144 FPs in UHD leistet auf einem 386SX16 und einer ISA-Graka "schlecht programmiert".
Hab ich jedenfalls das Gefühl bei jeder dieser Diskussionen. Irgend einer kommt immer mit "schlecht programmiert".

Null-Argument. Vor allem weil die wenigsten die dieses Argument bringen in einer Spiele-Bude als Programmierer arbeiten oder den Quellcode von den Programmen analysieren konnten.

maximus_hertus
2019-03-07, 23:22:56
Verschweige das RTX bei BF5 nicht. Ergo kannst du auch mit der tollen 16GB-Karte für 799€ (alternate.de) nicht höchste Details spielen, aber mit einer 349€-Karte ist das auf einmal ein Problem? Merkst du noch was?

Klar merke ich noch was. Ich habe mit keiner Silbe AMD erwähnt. Der beste (nV) hat sich nicht beim kleinen David zu orientieren. NV steht für Weltklasse. Punkt. Zumindest bis Turing. Turing ist die neue FX Serie. Zwar nicht der Brülllüfter, aber die Karten sind kaputt bzw haben das wahrscheinlich schlechteste Preis / Leistungsverhältnis in nVs Geschichte.

Sie sind zum Teil massiv unbalanciert.

Bitte, bitte lasst AMD raus. Die haben nach 2013 die GPU Sparte was High End angeht quasi aufgegeben. Lasst die Toten ruhen.

gravitationsfeld
2019-03-07, 23:45:43
Bitte, bitte lasst AMD raus. Die haben nach 2013 die GPU Sparte was High End angeht quasi aufgegeben. Lasst die Toten ruhen.
Die haben gar nichts aufgegeben. Die Resultate sind nur nicht wie gewuenscht.

Leonidas
2019-03-08, 03:54:56
680 ... 2GB
780 ... 3GB
980 ... 4GB
1080...8GB
2080...8GB

es gibt da keine wirkliche Gesetzmäßigkeit, auch bei den xx80ern hat sich in den letzten Generationen der VRAM jeweils vergrößert, nur bei Turing eben gar nicht.


Man sollte hierbei immer mit einrechnen, das manche "Erhöhung" auch rein eine Frage des zugrundliegenden Speicherinterfaces war. Die 3 GB der GeForce GTX 780 resultieren schlicht daraus, das es eine GK110-basierte Lösung war und daher sich diese Speichermenge automatisch anbot. Auch derzeit ist NV faktisch gefangen im Speicherinterface: Hätte die 2080 bereits ein 384-Bit-Interface, wären 12 GB gar keine Frage gewesen.

rentex
2019-03-08, 07:33:40
@HisN: Warum gibt es dann Titel die besser performen, als andere? Weniger Bug lastig und runder laufen? Die sehen dann auch noch gleich gut aus.🤷*♂️Und wer braucht 144 Hz zum zocken? Ebenfalls keine Argumente.

Rancor
2019-03-08, 07:50:24
@HisN: Warum gibt es dann Titel die besser performen, als andere? Weniger Bug lastig und runder laufen? Die sehen dann auch noch gleich gut aus.🤷*♂️Und wer braucht 144 Hz zum zocken? Ebenfalls keine Argumente.

Weil dein Argument schon bei dem Punkt "sehen gleich gut aus" hinkt. Das ist erstmal völlig subjektiv.

Raff
2019-03-08, 08:32:02
Dito. Es ist beeindruckend wie ich selbst WQHD noch keine großartige Einschränkung hinnehmen muss. Das Bashing gegen die GPU war ziemlich übertrieben.

Vorsicht, dünnes Eis. ;) Die Performance mag meist okay sein, aber ohne direkten Vergleich mit unverkrüppelten Karten meint man, dass einige Problemchen der GTX 970, wie Stocker oder Texturbrei, am Spiel liegen. Tatsächlich sind das aber Folgen der Kastration.

MfG,
Raff

Zergra
2019-03-08, 08:34:57
Was ich jetzt machen kann:
1. In den sauren Apfel beißen und eine 1660 Ti kaufen.
2. Auf Navi warten und so lange mit der alten R9 290 rumdaddeln.

Beides doof.

Hast recht ist alles nicht so toll, finde aber aktuell ist gebraucht eine 1080TI/Titan X teilweise schon sehr interessant. Viel Speicher und mit Glück für 450€ zu bekommen. Dafür bekommt man VegaII/2080RTX Leistung für viel weniger Geld und zum Teil auch mehr Speicher.

robbitop
2019-03-08, 08:58:20
Vorsicht, dünnes Eis. ;) Die Performance mag meist okay sein, aber ohne direkten Vergleich mit unverkrüppelten Karten meint man, dass einige Problemchen der GTX 970, wie Stocker oder Texturbrei, am Spiel liegen. Tatsächlich sind das aber Folgen der Kastration.

MfG,
Raff

Da hilft aber oft den Texturschieber ein Stück nach links zu ziehen. Haben aber eine Allergie gegen. ;)

Raff
2019-03-08, 09:03:33
Das hilft natürlich immer – ist aber kein gutes Argument dafür, dass sich der Speicherkrüppel ja so unfassbar gut gehalten hat. ;)

MfG,
Raff

Rancor
2019-03-08, 09:07:37
Naja wenn es hilft die Texturen von Ultra auf Hoch zu stellen, dann kann man das schon sagen. Oft sieht man ingame auch nicht wirklich einen Unterschied, es sei denn man geht direkt ran an das Objekt. Aber wer macht das schon im normalen Spiel?

Raff
2019-03-08, 09:12:14
Es geht (mir) darum, dass die GTX 970 besser dargestellt wird als sie ist. Man merkt die Folgen des Verkrüppelns nämlich. Folgen, die man bei "echten" 4-GiB-Karten schwächer abbekommt. Das Kernproblem ist, dass Balken hier nicht weiterhelfen, da geht es viel um Sehen und Fühlen.

MfG,
Raff

Rancor
2019-03-08, 09:18:02
Möglich, ich hatte nie eine 970. :D

BlacKi
2019-03-08, 10:27:17
bei mir war die 970 nie so lange geplant, sie flog 2016 raus und zu dem zeitpunkt war die 970 ca.15% mehr wert als die 4gb 290. obendrauf,mit OC auf 1400-1500 war sie letztlich deutlich schneller als die 290. der preisverfall trifft auch auf die rx480 8gb vs 1060 zu.

RLZ
2019-03-08, 10:31:53
Vorsicht, dünnes Eis. ;) Die Performance mag meist okay sein, aber ohne direkten Vergleich mit unverkrüppelten Karten meint man, dass einige Problemchen der GTX 970, wie Stocker oder Texturbrei, am Spiel liegen. Tatsächlich sind das aber Folgen der Kastration.
Merkt man als normaler Kunde aber nicht, da kein direkter Vergleich da ist. Wer auf Highend Performance aus ist, hätte eh längst aufgerüstet. Dass die Karte nach 5 Jahre aber immer noch problemlos tut, widerlegt für mich die Horrorgeschichten von damals aber deutlich.

Dural
2019-03-08, 10:57:35
… und zeigt auch ganz deutlich was man mit einer 6GB in Zukunft alles noch machen kann.

Ich finde die Diskussion um den Speicher nur noch amüsant, vor allem wenn man sich überlegt das einen sehr grossen Teil nach wie vor zu den 6-8GB Karten greifen würden weil der Aufpreis für 12-16GB Karten (Würde es diese von NV geben) einfach zu gross wäre.

Die Vergangenheit hat dies immer ganz deutlich gezeigt.


EDIT:
Turing verkauft sich ja sooooooo schlecht ;D;D;D;D;D
Es zeigt sich mal wieder das einfach der Markt Aktuell nicht gut ist, man hat die Lager mit Karten geflutet... NV verdient wenigstens noch was, AMD muss wohl schon nahe an den Herstellungskosten verkaufen um das zeug nicht gleich Entsorgen zu müssen!


Grafikkarten: AMD verliert im „schlechtesten Quartal seit über 10 Jahren


https://www.computerbase.de/2019-03/grafikkarten-absatz-marktanteil-q4-2018-jon-peddie/

Raff
2019-03-08, 11:23:47
Es ist mir ein Rätsel, wie man sich über einen derart kaputten Markt auch noch amüsieren kann. Das lässt sich fast nur mit Nvidia-Aktien oder einer Anstellung dort erklären.

MfG,
Raff