PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 [39] 40 41 42 43 44 45 46 47 48

Dural
2018-09-21, 14:33:18
Lotet AMD auch aus was geht oder wie so wurde dort die Vega auch teurer? :rolleyes:

Von den CPU Preisen fange ich schon mal gar nicht an wo man rund 850mm2 in vier teile für 1800.- Kaufen kann. :rolleyes:

Wie so werde da Kommentare gelöscht die der Wahrheit entsprechen und Fakten auf den Tisch legen?

Linmoum
2018-09-21, 14:35:08
Von den CPU Preisen fange ich schon mal gar nicht an
Ist auch besser so, der Vergleich ist nämlich komplett bescheuert.

Dural
2018-09-21, 14:42:47
Ah und wie so? Stimmt bei einer Grafikkarte hat man ja noch Kühler und Speicher dabei etc. Dazu EINEN grossen Die.

Da werden seit Jahren einfach nur Kerne dazu geklatscht, die Die werden vor allem beim Intel immer wie kleiner. OK jetzt auch nicht mehr.

Ich hatte mal einen Honda NSX, dieser kostet neu 110t, was kostet noch mal der neue?

Nochmal, Turing kostet genau das was er kosten muss (Ausgehend von Pascal)

x-force
2018-09-21, 14:50:09
Lotet AMD auch aus was geht oder wie so wurde dort die Vega auch teurer? :rolleyes:


natürlich tut amd das auch, jedoch haben sie weniger spielraum, weil sie von einer schwächeren position aus kommen.

Rancor
2018-09-21, 15:26:57
Ah und wie so? Stimmt bei einer Grafikkarte hat man ja noch Kühler und Speicher dabei etc. Dazu EINEN grossen Die.

Da werden seit Jahren einfach nur Kerne dazu geklatscht, die Die werden vor allem beim Intel immer wie kleiner. OK jetzt auch nicht mehr.

Ich hatte mal einen Honda NSX, dieser kostet neu 110t, was kostet noch mal der neue?

Nochmal, Turing kostet genau das was er kosten muss (Ausgehend von Pascal)

Turing kostet mindestens 30% zu viel, ausgehend von Pascal. Da kannst du dich drehen und wenden wie du willst und das sieht auch jeder, außer Nvidia Fanboys, ein.

Der neue Preis der 2070 ist da schon angemessener.

Screemer
2018-09-21, 16:08:31
Der neue Preis der 2070 ist da schon angemessener.
welcher neue preis? der fehler mit den 539€ wurde bereits korrigiert:

https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2070/
https://www.nvidia.com/de-de/geforce/20-series/

Dural
2018-09-21, 16:11:52
Dann könnt ihr alle halt nicht Rechnen :rolleyes:

Ich habe es hier schon mal ausgerechnet, finde es aber gerade nicht mehr:

TU102 ist 60% Grösser als GP102, und satte 140% Grösser als GP104.

Dazu kommt noch der GDDR6 Speicher der ziemlich sicher auch nicht gerade günstig ist (derzeit nur NV) und die ganze Zusatz Entwicklung muss auch irgendwie bezahlt werden.

Ich finde es schon fast eine Frechheit hier von Abzocke zu sprechen, erst recht wenn NV weit und breit die einzige PC-Hardware Firma ist die PC Gaming massiv Fördert. Und überhaupt, was habt ihr eigentlich das Gefühl wie so jede Karte jetzt eine eigene GPU hat? Bestimmt weil der Gewinn so hoch ist, klar. :rolleyes:
TU106 ist ganz klar ein Zeichen dafür das NV gar nicht so viel an Turing verdienen kann, sonst hätte man nicht eine dritte GPU mit 100mm2 weniger Aufgelegt. NV kämpft offensichtlich um jedes mm2.

Ob jetzt NV wirklich ca. 60% Marge (Pascal) braucht, oder es auch mit 50% gehen würde lasse ich mal offen. NV hat ja schon durchblicken lassen das die Margen mit Turing sinken wird, so viel zum Thema Abzocken. Aber diese Aussage seitens NV wird gekonnt ignoriert.

Daredevil
2018-09-21, 16:23:37
TU106 ist ganz klar ein Zeichen dafür das NV gar nicht so viel an Turing verdienen kann, sonst hätte man nicht eine dritte GPU mit 100mm2 weniger Aufgelegt. NV kämpft offensichtlich um jedes mm2.
Das ist aber doch auch Bullshit. :D
Wenn Nvidia um "jedes" mm² kämpfen würde, wär nicht gerade jetzt der Moment gekommen, Techniken einzuführen, die der Konsument selbst noch nie gefordert hat.

Dem Kunden etwas zu zeigen, was er nicht kennt und ihn davon zu überzeugen, dass er es braucht ist immer ein Risiko welches man eingeht. Das macht man nicht, wenn man um jedes mm² kämpft.
Hätte Nvidia einfach einen fetteren 50%+ Pascal Chip angeboten und die Fläche nicht für aktuellere Spielereien wie RTX oder Tensor Cores "verschwendet", wär kein Aufschrei durch die Massen gegangen, dass dort Raytracing fehlt. Weil es noch nie jemand vermisst hat.

Nvidia spielt hier ganz klar mit dem Geld der Konsumenten, um neue Techniken zu etablieren und versucht währenddessen mit DLAA eine interessante Methode ins Leben zu rufen, die eben den großen Performancesprung "erfaken" kann, damit jeder am Ende seine Brötchen auf dem Tisch hat.

Dural
2018-09-21, 16:26:38
Nein, das ist überhaupt kein Wiederspruch.

Der Zeitpunkt ist für NV schlicht Genial, Genau deswegen bringen sie jetzt diese Grossen GPUs.

Edit:
Ich würde sogar so weit gehen da wir Turing in dieser Form gar nie gesehen hätten, wäre AMD deutlich näher dran.

Turing ist deutlich mehr als ein Pascal+ die Kunden müssen es Zahlen Ja, eine Abzocke ist es bei weitem nicht.

hilo
2018-09-21, 16:37:04
Wenn etwas für Nvidia "genial" ist, ist es für uns nicht Aktien besitzende Endkunden in der Regel das genaue Gegenteil. Nvidia ist nicht gerade der "hanseatische Kaufmann".

dargo
2018-09-21, 17:02:04
Ich finde es schon fast eine Frechheit hier von Abzocke zu sprechen, erst recht wenn NV weit und breit die einzige PC-Hardware Firma ist die PC Gaming massiv Fördert.
Welche massive Förderung meinst du?

* die Verarsche mit der GTX970?
* G-Sync von dem die Masse an Spielern ausgeschlossen wird (hohe Monitorpreise) und nur zu unnützen Trennung der PC-Gamer führt?
* das gefühlt ewige Rumgeeier um die low level APIs?
* die völlig nutzlose Implementierung von Tess-Faktoren in diversen Titeln nur um die Konkurrenz schlechter darzustellen?
...


Ich habe bestimmt noch einige Punkte vergessen.

Ex3cut3r
2018-09-21, 17:07:15
Dargo hat recht, trotzdem hole ich mir eine RTX, oder lohnt es sich von einer 1070 auf eine Vega 64 zu wechseln? Nein natürlich nicht.

Blediator16
2018-09-21, 17:07:21
Eins verstehe ich nicht bei der Argumentation um die die size und den Preis. Sollte der 16nm++ nicht mittlerweile günstiger sein bzw die yields so hoch, dass man den Preis hätte in einem annehmbaren Rahmen halten können? Der Mehrwert ist einfach nicht gegeben die Preise wurden einfach mal eine Tier erhöht trotz '' uraltem Fertigungsprozess''.

Screemer
2018-09-21, 17:17:40
sprich nicht über die preise. ich will nicht noch mal den gleichen scheiß von ein paar usern hier lesen. bitte. bitte. bitte.

Dural
2018-09-21, 17:20:45
Die Fertigung kostet schon lange mehr als früher, auch ein Punkt der viele nicht war haben wollen, alle haben die Preise in den letzten Jahren erhöht.


@Dargo
Muss das jetzt sein?

-Die 970 war und ist Preisleistungs-Sieger, komisch genau das wird hier ja gerade Kritisiert?!? Nur zum Festhalten, ihr wollte volle Hardware zum Preis der Mittelkasse, die Zeiten sind seit Jahren vorbei, auch bei AMD.
-Ohne Gsync gäbe es kein Freesync, AMD reagierte da ja nur so schnell wegen NV inkl. massiver Verspätungen.
-NV bringt ständig was Neues für PC-Gamer, AMD zieht in der Regel nur nach.
-Keine DX11 schwäche
-Regelmässig neue Gaming Hardware von NV, gefüllt doppelt so viel wie AMD.
-In Sachen Bildqualität ist NV seit der 8800GTX ganz klar der Massstab.
etc.

Bei AMD fällt mir auf die schnelle genau zwei Sachen ein:
-DX12 und Co. aber das mussten Sie bringen weil die GPUs nicht richtig ausgelastet werden können.
-DX10.1

dargo
2018-09-21, 17:22:58
So viel Bullshit in einem Post zu bringen das muss man erstmal schaffen. :facepalm:

Dural
2018-09-21, 17:24:49
Das sind alles Fakten, jederzeit zu überprüfen :rolleyes:

dargo
2018-09-21, 17:26:42
Du kannst deine Fakten mit anderen teilen. Ich bin hier raus.

Der_Korken
2018-09-21, 17:27:14
TU102 ist 60% Grösser als GP102, und satte 140% Grösser als GP104.

Dazu kommt noch der GDDR6 Speicher der ziemlich sicher auch nicht gerade günstig ist (derzeit nur NV) und die ganze Zusatz Entwicklung muss auch irgendwie bezahlt werden.


V10 ist 50% größer als GP104, dazu noch der HBM2-Speicher der sicher auch nicht gerade günstig ist und die ganze Zusatzentwicklung muss auch bezahlt werden. Ergo wäre es keine Abzocke, wenn eine V64 50% teurer als eine 1080 wäre. /s

Was die Produktion kostet, interessiert den Kunden nicht, er bezahlt für Leistung und davon ausgehend ist Turing schon sauteuer.


Ich finde es schon fast eine Frechheit hier von Abzocke zu sprechen, erst recht wenn NV weit und breit die einzige PC-Hardware Firma ist die PC Gaming massiv Fördert.

Ist zwar OT, aber das kann man imho so nicht stehen lassen. G-Sync als prominentestes Beispiel ist eigentlich genau das Gegenteil von Gaming-Förderung, weil es Monitore extrem verteuert und zu einer Fragmentierung des Monitor- und GPU-Marktes führt. Offene Standards zu boykottieren und stattdessen ein proprietäre Implementierung davon anzubieten, für die alle draufzahlen müssen, ist kundenfeindlich.

Dural
2018-09-21, 17:32:52
Vega kostet so viel weil sie nicht mehr verlangen können, weil es keiner mehr kaufen würde. Ist auch genau der Grund wie so ich sage das wir bei deutlich stärkeren AMD Karten Turing in dieser Form nie gesehen hätten, irgend wie muss ja Geld rein kommen. Ich erinnere nur mal an RV770 / GT200

NV war mit dem Gsync zuerst da, und ich finde es völlig legitim wenn man damit auch etwas Verdienen will.

Linmoum
2018-09-21, 17:38:50
NV war mit dem Gsync zuerst da, und ich finde es völlig legitim wenn man damit auch etwas Verdienen will.
Was geschickt an der Aussage über dir vorbeigeht.

Gaming fördert man nicht mit 24" FHD-Monitoren für 380€ aufwärts. VRR ist ein Killerfeature schlechthin, das unglaublich viel zu einem tollen Spielerlebnis beiträgt. Nur weigert sich das Gaming-fördernde Nvidia, diese Technologie einem breiten Teil der Gaming-Community erschwinglich zugänglich zu machen. UHD mit G-Sync startet sogar erst ab 550€ und das für 60Hz mit TN. IPS statt TN sind dann mal eben knapp 700€. This is for the gamers.

MikePayne
2018-09-21, 17:39:41
Die Fertigung kostet schon lange mehr als früher, auch ein Punkt der viele nicht war haben wollen, alle haben die Preise in den letzten Jahren erhöht.

Das ist nichts neues, rechtfertigt aber nicht den zusätzlichen Preisaufschlag bei der RTX-Serie.


-Die 970 war und ist Preisleistungs-Sieger, komisch genau das wird hier ja gerade Kritisiert?!? Nur zum Festhalten, ihr wollte volle Hardware zum Preis der Mittelkasse, die Zeiten sind seit Jahren vorbei, auch bei AMD.


"war" - Du sagst es. Jetzt ist die Zeit gekommen, wo sich die fehlenden 512MB rächen (vom Treiber exkludiert - oder werden die mittlerweile komplett benutzt, trotz Brieftauben-Anbindung?)
Abgesehen davon finde ich (Stand heute) im P/L Bereich die RX580 viel besser als die GTX1060. Aber ist wohl Geschmackssache, das wird nicht jeder so sehen. Ist okay.


-Ohne Gsync gäbe es kein Freesync, AMD reagierte da ja nur so schnell wegen NV inkl. massiver Verspätungen.

Das halte ich für ein Gerücht. Es hat die Gamer eher gespalten und nicht voran gebracht. Zumal Gsync deutlich mehr kostet - ohne Mehrwert.


-NV bringt ständig was Neues für PC-Gamer, AMD zieht in der Regel nur nach.

Meinst du jetzt ernsthaft RT?


-Keine DX11 schwäche

Und DX12?


-Regelmässig neue Gaming Hardware von NV, gefüllt doppelt so viel wie AMD.

Du weißt aber, dass NV mehr Cash hat und größer ist? Obendrauf macht AMD nicht nur GPUs, sondern auch CPUs.


-In Sachen Bildqualität ist NV seit der 8800GTX ganz klar der Massstab.
etc.

Behauptung.


Bei AMD fällt mir auf die schnelle genau zwei Sachen ein:
-DX12 und Co. aber das mussten Sie bringen weil die GPUs nicht richtig ausgelastet werden können.
-DX10.1

:rolleyes::rolleyes::rolleyes:


Danke für deinen Elfmeter-Beitrag.

hilo
2018-09-21, 17:46:16
Daß Nvidia einen FPGA (übrigens bis heute, soviel ich weiß) verwendet, um G-Sync umzusetzen, spricht für mich eher dafür, daß es ihnen um time-to-market damals ging. Normalerweise würde man für so etwas einen ASIC auflegen. Ist viel billiger. Das dauert aber eben mit Validierung schon mal ein Jahr, und das hatte Nvidia eben damals nicht. Einen FPGA hingegen kannst du in Monaten programmieren. Und so waren sie eben schneller am Markt. Ist aber auch kein Kunststück, wenn die Gegenseite die VESA mit ihren schwerfälligen internen Prozessen ist. Aber ja Nvidia war zuerst am Markt.

PHuV
2018-09-21, 17:47:47
Das ist nichts neues, rechtfertigt aber nicht den zusätzlichen Preisaufschlag bei der RTX-Serie.
Wer den Markt dominiert, hat jedes Recht der Welt, solange es nicht illegal ist oder lebensnotwendig. Du mußt nicht kaufen.
Das halte ich für ein Gerücht. Es hat die Gamer eher gespalten und nicht voran gebracht. Zumal Gsync deutlich mehr kostet - ohne Mehrwert.
Mittlerweile vielleicht, wobei G-Sync bis heute weniger Probleme macht und besser läuft. G-Sync war über ein Jahr früher auf dem Markt und lief besser als Freesync. Und HDR beweist es ja leider auch wieder.

Linmoum
2018-09-21, 17:51:36
Mittlerweile vielleicht, wobei G-Sync bis heute weniger Probleme macht und besser läuft.
Quod esset demonstrandum.

Und HDR beweist es ja leider auch wieder.
2500€-Monitor mit lautem Lüfter. Der Hammer und ein richtiges Qualitätsmerkmal.

Dural
2018-09-21, 17:57:57
Neuer Benchmark in sachen Monitoren, was spricht dagegen? Und wieder macht NV was für die Gamer und wieder wird es negativ wahrgenommen.


Ja die User die noch mit der 970 spielen sind nicht zu beneiden. Die Karten waren dafür recht billig, von dem her finde ich es OK. NV hätte die Karte mit nur 3,5GB auf den Markt bringen sollen, wie sie es ja jetzt zb. mit der 2080ti machen. Damals hatten sie offensichtlich noch nicht den Mut zu krummen Speicher Bestückung.

Ich erinnere nur mal an die 8800GTS 320MB, das war eine krümpel Karte und wurde trotzdem gekauft.

Auf das andere gehe ich nicht mehr ein, ist eh OT. Aber ich weis das ich recht habe :wink:

TGKlaus
2018-09-21, 18:08:21
Und HDR beweist es ja leider auch wieder.

Was bitte beweist denn das zweistellige Einbrechen bisheriger Nvidia-Grafikkartengenerationen bei HDR?

;D;D;D

Calypso
2018-09-21, 18:18:31
ich weiß nicht, wieso die Mods hier bei Dural nicht eingreifen - in jedem AMD Thread wird bei sowas gleich mal der Thread geschlossen und Sperren verteilt, hier darf einer alles tun, bis endlich alle SEINE Meinung übernommen haben, ohne anderen überhaupt zuzuhören. Ich bin raus. Das ist sinnlos hier.

Dural
2018-09-21, 18:35:55
Entschuldigung wenn meine Meinung dir nicht passt.

Ich lasse übrigens vieles unbeantwortet weil ich dazu nichts beizutragen habe/kann/will, aber das war schon immer so. Ich schwätze somit schon gar nicht jedem User was auf.

Aber ich habe ein Problem damit wenn man Turnig als Abzocke bezeichnet. Weil ich genau weis das es das nicht ist. Man kann sagen teuer ja, man kann auch sagen teuer pro FPS, damit habe ich kein Problem.

RLZ
2018-09-21, 18:37:34
Ja die User die noch mit der 970 spielen sind nicht zu beneiden.
Warum? Bisher hatte ich selbst mit 1440p keine Probleme. :freak:

Dural
2018-09-21, 18:39:55
Das sieht man es wieder, allen kann man es halt nicht recht machen ;)

Aber ist OK.

Fliwatut
2018-09-21, 18:41:05
Es kann doch jeder frei entscheiden, ob er sich abzocken lassen will oder nicht. Hört doch endlich mal mit der Rumheulerei über den Preis aus, das ist ja furchtbar und wird sowieso nichts ändern. Wem die neuen Karten zu teuer sind, der hat doch noch mit der 1080 ti eine super Alternative. Und auch mit Vegas kann man prima zocken, wenn man einen Freesync-Monitor hat.

Dural
2018-09-21, 18:43:28
Genau so sieht es aus :up:

Geldmann3
2018-09-21, 20:55:48
Ich mache mir im Kopf wohl irgendwie immer vor, die allerneueste Grafikkarte zu brauchen, weil ich ansonsten nicht so viel Spaß am Zocken habe.^^ Das das macht überhaupt keinen Sinn. Wenn ich bedenke damals auf der Playstation 1 mit nur 2MB Ram stundenlang den ultimativen Spaß gehabt zu haben, dagegen muss mein heutiges System mit 16.000x mehr Speicher eigentlich stärker als eine Heroinspritze auf mein Belohnungszentrum wirken, wenn ich ein Game wie Watchdogs 2 anwerfe. :freak:;D

cR@b
2018-09-21, 23:06:25
Das nennt man Sucht :D Ich hätte sie auch gerne gehabt und das Geld ist nicht das Problem. Der Preis ist aber so dreist, dass bei mir die Vernunft angesprungen ist. Das passiert mir nicht oft im Konsumrausch!

TGKlaus
2018-09-21, 23:33:56
Aber ich habe ein Problem damit wenn man Turnig als Abzocke bezeichnet.

Das supertolle neue Feature RT macht aus ner 1.200€ Grafikkarte ne FHD Karte.

Das ist nun mal Abzocke. Und zwar im großen Stil.

iamthebear
2018-09-21, 23:41:45
1.) Abwarten. Die gezeigten Effekte werden deutlixh reduziert werden. Es wird keine Spiele am Markt geben, die auf einer 2080 nicht flüssig laufen.

2.) Ich muss zugeben bei der Generation war die Verloxkung zu kaufen generell nicht sehr groß. Meine Preisvorstellung sind 400 Euro, Schmerzgrenze bei 500 Euro. Wenn die 2070 wirklich eine Bombenkarte gewesen wäre, dann wäre ich in Versuchung geraten meine Schmerzgrenze zu überschreiten. Mit dem was Nvidia hier geboten haben hatten sie aber wenig Chancen und nun ist es eine 1070 Ti geworden. Bei der habe ich noxh das Gefühl, dass das Preis/Leistungsverhältnis stimmt.

MorPheuZ
2018-09-22, 00:10:28
Es braucht nicht eine einzige RTX Karte um irgend ein Spiel am markt flüssig darzustellen. Nur deshalb haben wir diesen Zustand. Und genau deshalb gibt es sie.

Geldmann3
2018-09-22, 02:06:35
Ich muss zugeben, ich würde eine 2080 Ti kaufen, wenn eine ordentlich werksübertaktete Version für etwa 1000€ über die Theke gehen würde. Aber für 1250€? :eek: No way!! Die 2080 ist wegen dem Vram downgrade und fehlendem Performancesprung in klassischen Spielen keine Option für mich.

Bin gespannt ob das Preisgefüge bei der nächsten Generation so bleibt. Natürlich lässt man es nach außen hin so aussehen, als wäre das eigene Produkt immer fast "ausverkauft". Doch ich kann mir nicht vorstellen, dass solche Preise sich selbst bei den Enthusiasten durchsetzen.

=Floi=
2018-09-22, 04:22:49
Hätte Nvidia einfach einen fetteren 50%+ Pascal Chip angeboten und die Fläche nicht für aktuellere Spielereien wie RTX oder Tensor Cores "verschwendet", wär kein Aufschrei durch die Massen gegangen, dass dort Raytracing fehlt. Weil es noch nie jemand vermisst hat.


das wird aber im profi bereich gefordert und ist dort überlebenswichtig. Dort hat es seine berechtigung.

Platos
2018-09-22, 04:40:06
Ich wäre bereit bis so etwa 1600 für GPU(s) auszugeben. Da ich kein Fan von SLI bin, wäre eine Single GPU für 1600 eigentlich sehr willkommen bei mir. Allerdings soll sie dann natürlich auch ein dem entsprechend gutes P/L haben. Also Doppelt so teuer wie ne GTX 1080TI, aber mehr als doppelt so viel Leistung (da neue Gen.) und 16GB Speicher.

Ist das selbe wie wenn man in ein SLI System investiert nur eben besser (wenn das P/L stimmen würde).

Bei Turing ist das ganze aber natürlich lächerlich. Da muss man wohl auf 7nm warten.

Rampage 2
2018-09-22, 05:46:59
Also Doppelt so teuer wie ne GTX 1080TI, aber mehr als doppelt so viel Leistung (da neue Gen.) und 16GB Speicher.

Selbst wenn es so wäre, wäre es kein Fortschritt in der GPU-Geschichte - weil der P/L-Fortschritt dann zum Stillstand gekommen wäre (und im Fall von Turing ist sie nicht nur zum Stillstand gekommen, sie hat sogar eine Rückwärtswende* gemacht!). Bis Fermi bekam man immer mehr Leistung für weniger Geld: eine GTX 560 Ti war billiger und schneller als der Top-Dog der Vorgängergeneration (GTX 285) - der P/L-Fortschritt ist also im Laufe der Jahre und Jahrzehnte stetig nach oben gegangen. Kepler war der Anfang vom Ende dieser Entwicklung - seitdem hat sich dieser Fortschritt stetig verlangsamt und verringert und mit Turing zum ersten Mal einen Schritt rückwärts gemacht.

* = zum (aller- ?)ersten Mal in der GPU-Geschichte! :facepalm:

Als Kunde und auch als verantwortungsbewusster Gamer darf man so eine Entwicklung nicht durch einen Kauf bekräftigen! Wartet ab, bis NV die Preise "korrigiert" (:facepalm:) und kauft erst dann!;)

R2

robbitop
2018-09-22, 09:06:00
Bei Kepler schwächelte AMD. GK100/110 war ursprünglich der Topdog. Als man sah, wie schnell/langsam Tahitii (trotz der Größe und des breiten SIs) war, hat man den Mainstreamchip als Topdog verkauft und es hat funktioniert. Profitmaximierung. Wenn man in die Aktienberichte schaut, ging die Gewinnspanne immer weiter nach oben seit dem. Ohne signifikante Wettbewerbssituation geht das halt. (kein Vorwurf, weil wir nunmal im Kapitalismus leben und es das Ziel von jedem Unternehmen ist)

The_Invisible
2018-09-22, 09:12:17
Ich muss zugeben, ich würde eine 2080 Ti kaufen, wenn eine ordentlich werksübertaktete Version für etwa 1000€ über die Theke gehen würde. Aber für 1250€? :eek: No way!! Die 2080 ist wegen dem Vram downgrade und fehlendem Performancesprung in klassischen Spielen keine Option für mich.

Bin gespannt ob das Preisgefüge bei der nächsten Generation so bleibt. Natürlich lässt man es nach außen hin so aussehen, als wäre das eigene Produkt immer fast "ausverkauft". Doch ich kann mir nicht vorstellen, dass solche Preise sich selbst bei den Enthusiasten durchsetzen.

2080er mit 10GB und 2080 Ti mit 12GB und Preise so 100 bis 200 EUR runter und die Gewissensbisse würden verschwinden.

Eine 2080er würde sich für mich zwar performancetechnisch lohnen aber 8GB gabs schon vor 2 Jahren mit fast Hälfte des Preises der 2080er. Geld für die 2080 Ti hätte ich zwar auch aber das ist einfach nur mehr krank. Selbst mit gutem Verkauf meiner 1070er müsste ich noch 900 EUR draufzahlen :freak:

Shakti
2018-09-22, 09:22:40
Der Krug geht solange zum Brunnen bis er bricht. Mal sehen wann das passiert.

Edgecrusher86
2018-09-22, 09:54:47
I have 2 RTX 2080 Founder edition with Nvlink and i am not please to say that while this card are in SLI configuration you get rather disturbing coil whining noise. The results are great but the Whining noise is too much. I have report this issue to Nvidia and is escalate to Level 2 support now. I will post the outcome as soon as I get an answer form them.....

https://www.reddit.com/r/nvidia/comments/9harp2/when_to_expect_rtx_2080_ti_nvlinksli/

Autsch...Das hört sich gar nicht so gut an. Die 2080 besitzt zudem nur einen x8 Link, die Ti deren zwei...

Rancor
2018-09-22, 11:02:11
Da die 2070 schon im Preis gesenkt wurde, gehe ich davon aus das es bei den anderne Karten auch passieren wird. Ausserdem habe ich mittlerweile gelernt auch mal einen Regler nach links zu schieben... das hilft ungemeine.

EDIT: Preis ist wieder bei 639,-... vergesst es also

Slipknot79
2018-09-22, 11:06:15
Ged überhaupt SLI mit DX12 Spielen?

robbitop
2018-09-22, 11:13:01
Sofern sie mGPU implentiert haben ja. Drüberstülpen geht afaik nicht mehr.

basix
2018-09-22, 11:47:57
Ich habe mal in den Sessions der nächsten GTC 2019 geschmökert. Dort hat es im Bereich Gaming sehr viele Vorträge, welche sich um AI / Inferencing / Denoising etc. in Real-Time Anwendungen sowie bei der Content-Erstellung drehen.

robbitop
2018-09-22, 12:17:51
Interessant wäre mal DLSS mit einer guten Implementierung von temporaler Rekonstruktion zu vergleichen (temporal jittering upsampling oder checkerboarding). Die Frage ist, wieviel besser dlss ist. Ist technisch einfach interessant.

Außerdem:
AMD/Intel könnten sowas als einfache offene Konkurrenzlösung bringen, da DLSS sicherlich propertär sein wird.

spotz
2018-09-22, 13:39:06
Vor einiger Zeit wurde hier im 3DC noch spekuliert das im Zuge der Einführung von Turing es auch Neuauflagen in 7nm der 1030er und 1050er im Frühjahr 2019 geben könnte. Ich wollte mal nachfragen wie da der Stand der Dinge ist. Ob das nun als eher wahrscheinlich oder eher unwahrscheinlich eingeschätzt wird.

reaperrr
2018-09-22, 14:17:57
Vor einiger Zeit wurde hier im 3DC noch spekuliert das im Zuge der Einführung von Turing es auch Neuauflagen in 7nm der 1030er und 1050er im Frühjahr 2019 geben könnte. Ich wollte mal nachfragen wie da der Stand der Dinge ist. Ob das nun als eher wahrscheinlich oder eher unwahrscheinlich eingeschätzt wird.
Die Spekulation beruhte auf einem entsprechenden Gerücht, daher meiner Meinung nach eher wahrscheinlich (weil es Sinn machen würde, da die kleinen Chips auch in 7nm gute Ausbeute haben sollten und die reduzierte Fläche und Verbrauch gerade bei den Notebook-Herstellern immer gut ankommen).

So wirklich neues zum Thema hat es seitdem aber noch nicht gegeben, auch kein genaueres Datum.

=Floi=
2018-09-22, 16:59:00
Der Krug geht solange zum Brunnen bis er bricht. Mal sehen wann das passiert.

leute, eine 2080ti ist kein golf gti, sondern ein 911er.
Anderes produkt und andere preise.

robbitop
2018-09-22, 17:24:55
leute, eine 2080ti ist kein golf gti, sondern ein 911er.
Anderes produkt und andere preise.

Woran machst du das fest? Am Nutzwert kann es kaum sein.

BigKid
2018-09-22, 19:27:09
Woran machst du das fest? Am Nutzwert kann es kaum sein.
Das liegt an der Schiene die jetzt gefahren wird. Im Prinzip packst du die Leute am “ich kann mir das Leisten, das kann nicht jeder” Nerv. Dann brauchst du nur noch einen Hauch Exklusivität und schon schaffst du dir einen neuen Markt in dem es eben nicht mehr nur an der objektiven Leistung hängt. Kannst du doch hier schon gut beobachten. Hätte nicht gedacht, dass das auch bei Grafikkarten klappt. Aber gut Svarovski hats mit Strass geschafft... Ich selber hänge zB bei Apple mit den iPhones drann... Wobei Apple mit den ersten iPhones wenigstens tatsächlich Jahre vorraus war... Und jetzt häng ich in dem Ökosystem
drinn und warte drauf das Apple wieder meiner Trägheit mal nen guten Grund liefert auszusteigen...... Aber zurück zu Nvidia...

Spasstiger
2018-09-22, 21:13:43
Im Prinzip packst du die Leute am “ich kann mir das Leisten, das kann nicht jeder” Nerv.
Interessante Theorie, bislang hat das ja am Ehesten noch auf die Titan- Reihe zugetroffen. Ich befürchte, dass Nvidia gezwungenermaßen hohe Preise auffahren muss wegen der gestiegenen Produktionskosten. Und da passt eine Hochpreisstrategie mit dem Hauch von Exklusivität (Raytracing in Echtzeit).
Wenn NV diese Strategie fährt, werden wir wohl bei Turing kein Mainstreamprodukt sehen.

x-force
2018-09-23, 00:02:52
Das liegt an der Schiene die jetzt gefahren wird. Im Prinzip packst du die Leute am “ich kann mir das Leisten, das kann nicht jeder” Nerv. Dann brauchst du nur noch einen Hauch Exklusivität und schon schaffst du dir einen neuen Markt in dem es eben nicht mehr nur an der objektiven Leistung hängt. Kannst du doch hier schon gut beobachten.

Interessante Theorie, bislang hat das ja am Ehesten noch auf die Titan- Reihe zugetroffen.

hat z.b. bei dural ins schwarze getroffen... ich weiß jetzt immerhin, daß er sich mal honda nsx geleistet hat ;D

BigKid
2018-09-23, 07:51:10
Interessante Theorie, bislang hat das ja am Ehesten noch auf die Titan- Reihe zugetroffen. Ich befürchte, dass Nvidia gezwungenermaßen hohe Preise auffahren muss wegen der gestiegenen Produktionskosten. Und da passt eine Hochpreisstrategie mit dem Hauch von Exklusivität (Raytracing in Echtzeit).
Wenn NV diese Strategie fährt, werden wir wohl bei Turing kein Mainstreamprodukt sehen.
Niemand zwingt Nvidia... Der Anstieg steht meiner Ansicht nach in keinem Verhältnis zu dem Anstieg der Produktionskosten... Abgesehen davon ist es ja nicht so dass Nvidia nicht schon davor Preise gefahren hat die genug Luft hatten. Die einzigen die Sparsam gekuckt hätten sind vermutlich die Aktionäre und da sind wir an dem Punkt an dem man sehen kann wie scheisse das System für die Allgemeinheit ist...
Erst wurde mit den Titans ein neues Marktsegment erkundet, dann wurde die 1080ti in diese Segment verschoben und nun ist es eben schon die 2080 (ohne ti). Man erhöht den Anreiz mehr Kohle auszugeben indem man unten immer weniger Leistung bereitstellt... das ist doch ein Trend der fast überall zu bemerken ist.
Das was früher Mittelklasse war kann sich die Mehrheit bald nicht mehr leisten.

Tobalt
2018-09-23, 09:14:27
ich hatte mir mein leben lang neue grakas gekauft. Meine letzte neue war die HD7850 für 140€ was nun schon viele jahre zurück liegt.

Lustigerweise würde ich heute für das Geld bei neukauf noch immer nicht so viel Mehrleistung bekommen. vielleicht faktor 2-3. davor gab es eine solche Steigerungen spätestens nach 2 jahren

Ich will damit sagen dass in dem segment um 150€ schon vor jahren keine P/L Steigerungen mehr zu sehen waren. der trend ist seit dem in immer höhere segmente gerutscht und nun seid auch ihr 3dc standard user betroffen :-p

ich schiebe das primär auf das fehlen von amd Konkurrenz seit der HD7000 Generation (erste GCN) und sekundär auf den langsamen fertigungsfortschritt.

es ist also meiner Meinung nicht zu erwarten dass unter Nutzung der normalen rasterisierungsgrafik es jemals wieder zu ähnlichen P/L Steigerungen kommen kann wie vor ~2012

Fragman
2018-09-23, 09:36:18
und sekundär auf den langsamen fertigungsfortschritt.


Die Fertigung ist aber kein sekundaeres Problem, das war seit zig Jahren abzusehen und jetzt stehen wir vor der Mauer und es ist schwerer, drueber zu klettern. Intel hat dasselbe Problem, AMD konnte bei Zen einen anderen Ansatz nutzen, der aber bei GPU's wohl so nicht funktioniert. Und AMD hatte bei VEGA schon grosse Probleme, das Design ist teilweise kaputt und trotzdem langten sie in die Vollen beim Preis, soviel zur Konkurenz.

Was die Leistung angeht, fuer die naechsten Konsolen wird hier gerade mal Pascal Leistung propagiert als Maximum, einfach weil alles drueber wohl zu teuer in der Herstellung wird. Und das in 2-3 Jahren, wenn nv und AMD den naechsten High End in 7nm draussen haben. Bei Intel sehen wir vielleicht, mit viel Glueck, 6gHz unter Luft zu dem Zeitpunkt, eventuell mit einer neuen Arch. Aber das wars dann praktisch. Die Preise steigen momentan bei Vergleichsweise kleinem Leistungszuwachs. Das wird AMD bei NAVI nicht anders gehen.

YfOrU
2018-09-23, 09:50:56
Niemand zwingt Nvidia... Der Anstieg steht meiner Ansicht nach in keinem Verhältnis zu dem Anstieg der Produktionskosten...

Die Produktionskosten spielen in dem Segment für die Preisfindung praktisch keine Rolle. Die Messlatte ist die RX Vega 64 / GTX 1080. Alles darüber hat keine Konkurrenz und ist wie immer überproportional zur Performance teurer.

Bei Nvidia holt man das Maximum aus der aktuellen Marktsituation heraus und das ist aus unternehmerischer Sicht nicht zu kritisieren. Das AMD derart abgehängt wurde ist nicht nur mit dem Fokus auf Zen und knappen Ressourcen zu begründen. Nvidia hat über viele Jahre brutal investiert, neue Geschäftsfelder erschlossen und es sogar geschafft Tegra um 180 Grad zu drehen. Ausgehend von 2009/2010 (keine Chipsets mehr) war das ein langer Weg.

Von wegen niemand zwingt Nvidia. Diese Marktsituation wird nicht auf Ewigkeiten anhalten. Mit Intel steht ein Big Player vor dem Markteintritt, AMD hat wieder mehr Kapital zur Verfügung und Datacenter wird auch noch bei anderen Begehrlichkeiten wecken. Auch Automotive. Die möglichen Gewinne heute nicht mitzunehmen wäre auf längere Sicht ziemlich dämlich. Wo das Kapital dann versenkt wird (Wert des Unternehmens, R&D, Übernahmen etc.) ist dabei erstmal zweitrangig.

=Floi=
2018-09-23, 09:52:17
Woran machst du das fest? Am Nutzwert kann es kaum sein.

Ein 911er fährt im grunde ja auch nur. :wink: So gesehen ist dessen nurtzwert auch weniger hoch.

Ich mache es an der schieren größe des Dice fest.* Die stomversorgung und kühlung ist auch eher like a boss. Die features sind nicht beschnitten!
Wer RT (professionelle anwendungen?) oder die Tensor cores nutzen kann bekommt das volle programm. Int 32 ebenso.


*selbst wenn NV wollte können wahrscheinlich gar nicht so viele karten produziert werden wie für 400€ verkauft werden würden.
Andere firmen (intel) hätte das produkt rein professionell gelassen und dem consumer das kleinere zeug angedreht.


Der nutzwert bei bestimmter software ist schon gegeben. Ich sehe auch im alltag durch die mehrperformance vorteile, wenn man richtung 4k geht. Bei 1080p bringt die karte natürlich nicht so viel. Dort war volta schon schwer auszulasten.

Kriton
2018-09-23, 11:15:09
Niemand zwingt Nvidia... Der Anstieg steht meiner Ansicht nach in keinem Verhältnis zu dem Anstieg der Produktionskosten... Abgesehen davon ist es ja nicht so dass Nvidia nicht schon davor Preise gefahren hat die genug Luft hatten. Die einzigen die Sparsam gekuckt hätten sind vermutlich die Aktionäre und da sind wir an dem Punkt an dem man sehen kann wie scheisse das System für die Allgemeinheit ist...
Erst wurde mit den Titans ein neues Marktsegment erkundet, dann wurde die 1080ti in diese Segment verschoben und nun ist es eben schon die 2080 (ohne ti). Man erhöht den Anreiz mehr Kohle auszugeben indem man unten immer weniger Leistung bereitstellt... das ist doch ein Trend der fast überall zu bemerken ist.
Das was früher Mittelklasse war kann sich die Mehrheit bald nicht mehr leisten.

Das ging sogar schon mit Kepler und der 6xx-Reihe los. GK104 wurde nicht mehr als Midrange, sondern High-End verkauft.

AffenJack
2018-09-23, 11:23:56
Das ging sogar schon mit Kepler und der 6xx-Reihe los. GK104 wurde nicht mehr als Midrange, sondern High-End verkauft.

Als Reaktion auf AMD die mit der 7970 Midrangechips für High-Endpreise verkauft haben. Aber zum Glück war Nvidia da um AMDs Mondpreise wieder auf ein gutes Niveau zu bringen. Das fehlt im Moment leider.

Schnitzl
2018-09-23, 12:23:48
Als Reaktion auf AMD die mit der 7970 Midrangechips für High-Endpreise verkauft haben. Aber zum Glück war Nvidia da um AMDs Mondpreise wieder auf ein gutes Niveau zu bringen. Das fehlt im Moment leider.
Ironie?
ich vermisse solche Karten wie damals die 7950 z.B.
doppelt so viel Speicher wie die GTX580, günstiger, deutlich sparsamer und ein ticken schneller
leider hat AMD danach fast nur noch Kack produziert

eventuell wird ja die 2070 was? Ne sparsame, kühle und leise FE, dann bin ich dabei

robbitop
2018-09-23, 12:27:21
Als Reaktion auf AMD die mit der 7970 Midrangechips für High-Endpreise verkauft haben. Aber zum Glück war Nvidia da um AMDs Mondpreise wieder auf ein gutes Niveau zu bringen. Das fehlt im Moment leider.

Die 7970 war zumindest an gk104 gemessen kein Midrangechip. 384 bit und größerer die, deutlich modernere mArch und mehr Ausführungseinheiten.
Wenn der Shadercompiler nicht so ein Müll gewesen wäre, hätte Tahiti gk104 deutlich geschlagen. Man schaue sich moderne Spiele und moderne Treiber an.

Gravitationsfeld sagte ja auch mal, dass die GPU der xbox onex nur unwesent moderner ist und nur unwesentlich schneller.

fondness
2018-09-23, 12:31:54
Zumal die 7970 die erste GPU auf einem neuen Fertigungsprozess war. Das ist immer überproportional teuer aufgrund von schlechten Yields und hohen Waferkosten.

AffenJack
2018-09-23, 13:30:12
Ironie?
ich vermisse solche Karten wie damals die 7950 z.B.
doppelt so viel Speicher wie die GTX580, günstiger, deutlich sparsamer und ein ticken schneller
leider hat AMD danach fast nur noch Kack produziert

eventuell wird ja die 2070 was? Ne sparsame, kühle und leise FE, dann bin ich dabei

Nope, nur überspitzt formuliert, weil mir die Diesize/Midrangediskussionen aufn Senkel gehen. Tatsache ist, dass die 7970 für 550$ kam und ich sie mir nicht leisten konnte. Erst als Nv die zu Release leicht schnellere GTX680 für 500$ brachte, fiel die 7970, da AMD reagieren musste, so dass ich mir die Karte kaufen konnte. Am Anfang brachte die 7970 nichtmal mehr Perf/$ als die GTX580, sondern war genau soviel schneller als die 580, wie teurer. Hat nur damals niemanden interessiert.

Die 7970 war zumindest an gk104 gemessen kein Midrangechip. 384 bit und größerer die, deutlich modernere mArch und mehr Ausführungseinheiten.
Wenn der Shadercompiler nicht so ein Müll gewesen wäre, hätte Tahiti gk104 deutlich geschlagen. Man schaue sich moderne Spiele und moderne Treiber an.

Das Speicherinterface interessiert doch nicht ob Midrange oder nicht, das Ding war 18% größer als Gk104, wenn das schon High-End war, was war dann GK110 erst? Das die Architektur besser war, keine Frage, interessiert in dem Zusammenhang aber nicht, war damals auch leider nicht sofort zu sehen, sonst hätte sich das Ding bestimmt besser verkauft.

Zumal die 7970 die erste GPU auf einem neuen Fertigungsprozess war. Das ist immer überproportional teuer aufgrund von schlechten Yields und hohen Waferkosten.

So wie die 1080 auch die erste 16nm GPU war, trotzdem kommt da das Midrangeargument. Ich halte den Preis der 7970 damals durchaus für gerechtfertigt. Ich finde nur aus diversen Gründen immer die Diskussionen um "ihh Midrangechip" für müßig.

fondness
2018-09-23, 13:33:32
Das Midrageargument ist so undifferenziert sowieso Käse, zumindest ohne den zeitlichen Zusammenhang. Mich würde es nicht wundern, wenn die Pascal-Chips damals ähnlich teuer in der Fertigung waren wie heute die Turing-Chips. Fertigungsprozesse sind zum Beginn ihres Lebenszyklus immer sehr viel teurer als am Ende. GK110 kam deutlich später als eine 7970 oder GK104, und war deshalb nicht zwangsläufig mehr "High-End". Wenn man natürlich High-End nur an der Chipgröße festmacht dann kommt sowas raus.

Allerdings ist es natürlich ebenso unbestreitbar, dass die Margen und Gewinne von NV laufend steigen, hier also durchaus noch gut Potential für niedrigere Preise vorhanden wäre. :)

robbitop
2018-09-23, 13:34:22
Und heute latzt man für Midrange 850€ und für Highend 1250€. Das ist nochmal eine ganz andere Nummer. ;)

pixeljetstream
2018-09-23, 13:46:57
edit: zu viel blah blah meinerseits ;)

PHuV
2018-09-23, 13:49:09
Niemand zwingt Nvidia... Der Anstieg steht meiner Ansicht nach in keinem Verhältnis zu dem Anstieg der Produktionskosten...
Ach, Du hast Einblick in die Internas von Nvidia? :eek:

:rolleyes: Warum willst Du nicht wahrhaben, daß nicht Du den Preis bestimmst, sondern der Markt. Der wird es eben langfristig regeln. Kurzfristig kostet immer etwas mehr, aber das ist bei Angebot und Nachfrage vollkommen normal. Ich bin seit über 35 Jahre mit allen elektronischen Konsumgütern mit dabei, und sehe hier überhaupt nichts ungewöhnliches. Daher verstehe ich nicht, warum Du Dich hier immer wieder aufspulst. Kauf ne Konsole, verzichte aufs PC-Gaming, und schon schonst Du Deinen Puls. ;)

Digidi
2018-09-23, 14:20:52
@pixeljetstream
NVIDIA hat schon seit Jahren neue Techniken gebracht und ist auch dort Risiken eingegangen und trotzdem hat man GPUs für 700 Euro rausgebracht und jetzt haben wir Preissteigerung von nahezu 100%...

robbitop
2018-09-23, 14:27:18
Dass sie offene Standards wie A-Sync gem VESA nicht unterstützen finde ich auch objektiv kritisierenswert.

Kartenlehrling
2018-09-23, 14:35:45
Weiter schrumpfen werden die Chips nicht mehr, und wenn sie grösser werden sie auch Unbezahlbar,
ich hatte eigentlich schon viel früher mit eine Multi-GPU Karte gerechnend, die aber wie eine GPU arbeite.
Sowas wie ein GPU-Epyc. (https://www.cnews.cz/wp-content/uploads/2017/06/AMD-Epyc-Naples-uvedeni-11.jpg)

robbitop
2018-09-23, 14:42:52
Das wurde doch oft genug durchgekaut. Ist bei GPUs ungleich schwieriger da völlig andere Anforderungen bzgl Bandbreite und Latenz. Forschen tun sicherlich alle ihvs (von NV gibts ja ein bekanntes Patent) - aber die konkrete Implementierung scheint problematisch zu sein. (die Anforderungen, damit es Sinn macht entweder überhaupt zu erfüllen und/oder noch bei sinnvollen Kosten zu bleiben). Hinzu kommt zwangsweise Redundanz und bei so hohen Bandbreiten auch sicher eine ganze Menge Energieverbrauch die Signale aus der GPU herauszubekommen. Jeder Transfer kostet Energie. Je weiter weg und je schneller desto mehr. Vermutlich mit winer Potenzfunktion.

Eventuell kommt es irgendwann, wenn es bei den Interconnects einen Durchbruch gibt.

PHuV
2018-09-23, 15:00:02
NVIDIA hat schon seit Jahren neue Techniken gebracht und ist auch dort Risiken eingegangen und trotzdem hat man GPUs für 700 Euro rausgebracht und jetzt haben wir Preissteigerung von nahezu 100%...
Jaha, weil damals AMD und andere noch mithalten konnten, meine Güte, wie oft den noch? :rolleyes: Die Situation haben wir seit Maxwell oder länger aber nicht mehr. AMDs beste Karte ist Stand Nvidia 1070. Beschwer Dich bei AMD, Intel und anderen. Verkaufst Du gebrauchte Sachen auch günstiger, wenn Dir andere das teurer aus den Händen reißen? Machst Du doch rein privat auch nicht, Du gehst meistens nach dem höchsten Gebot. Ansonsten wäre so was wie Ebay doch schon lange obsolet.

Und ich als Unternehmer tät genau das gleiche machen, ohne jegliche Reue. Es geht um ein Luxusprodukt, und klar holt man das raus, was geht. Denkst Du, mich hat eine Titan V gejuckt, weil sie so teuer ist? Ne, Schulterzucken, geht nicht, und weiter. Neid und permanentes Gebashe? Wozu?

pixeljetstream
2018-09-23, 15:01:54
denke auch multi-chip-gpu kommt halt dann wenn es wirklich nicht mehr anders geht, solange man so noch was rausholen kann...

@digidi, für mich ist die 2080 Ti quasi wie die erste Pascal Titan, die ebenso beim Start sau teuer war... die 1080 Ti kam ja erst später. Wie gesagt Angebot und Nachfrage, wenn die Leute das zu den Preisen kaufen, ist die Ware es per Definition wert. Es ist mir nicht nachvollziehbar wieso Du dich konsequent darüber dermaßen aufregst, wir reden hier nicht von etwas wie Medikamenten wo man definitiv moralische Verantwortung hat, sondern dem "luxus" hobby high-end PC gaming. Es gibt nachwievor Hardware die den Zugang zum PC Gaming ermöglicht und unter 300€ kostet. Aus unternehmerischer Sicht muss NV halt abwiegen, wass ihnen im Moment wichtiger ist, die Gewinne, oder mehr Verbreitung der RTX Karten. Aber wir reden von nem Produkt das gerade mal Tage im Markt ist, wo die Laufzeiten einer Generation doch sonst 2 Jahre sind...

PHuV
2018-09-23, 15:17:46
Nur mal so, ist jemanden mal aufgefallen, wie teuer Konzertkarten von bekannten Bands geworden sind? Ich kann mich noch an Karten von 15-25 DM erinnern, und jetzt sind wir bei 100-200 €. :eek: Wo ist den da die Relation?

Armaq
2018-09-23, 15:19:40
Preis ist, was eine andere Person zu zahlen bereit ist.
Das ist völlig unstrittig für mich.

Kriton
2018-09-23, 16:14:00
Jaha, weil damals AMD und andere noch mithalten konnten, meine Güte, wie oft den noch? :rolleyes: Die Situation haben wir seit Maxwell oder länger aber nicht mehr. AMDs beste Karte ist Stand Nvidia 1070. Beschwer Dich bei AMD, Intel und anderen. Verkaufst Du gebrauchte Sachen auch günstiger, wenn Dir andere das teurer aus den Händen reißen? Machst Du doch rein privat auch nicht, Du gehst meistens nach dem höchsten Gebot. Ansonsten wäre so was wie Ebay doch schon lange obsolet.

Und ich als Unternehmer tät genau das gleiche machen, ohne jegliche Reue. Es geht um ein Luxusprodukt, und klar holt man das raus, was geht. Denkst Du, mich hat eine Titan V gejuckt, weil sie so teuer ist? Ne, Schulterzucken, geht nicht, und weiter. Neid und permanentes Gebashe? Wozu?

Was sollen diese ständigen persönlichen Angriffe auf jene, welche den Preis kritisieren?

Der Markt regelt es? Wir sind Teil des Marktes. Und ein (nicht existierender) perfekter Markt lebt von (vollumfänglicher) Information. dazu gehört auch der Austausch darüber, was andere zu bezahlen bereit sind.

Und es ist auch marktwirtschaftlich, dass man den (zu hohen) Preis als Konsument kritisiert. Weil der Konsument nun einmal möglichst niedrige Preise wünscht. So wie das Unternehmen möglichst hohe.

Als Konsument (der Du bist) nun die Preisstrategie des Unternehmens (massiv) zu verteidigen und gleichzeitig die der (anderen) Konsumenten zu verteufeln ist irrational. Das ganze dann auch noch (praktisch nur) mit argumenta ad hominem.

Hoch lebe der Diskurs...:rolleyes:

pixeljetstream
2018-09-23, 17:01:14
@Kriton, verteufeln ist relativ, ich würde PHuV auch nicht zustimmen dass es nur um Neid geht, verzicht ist rationale Tugend.

wie Du sagst, jeder hat seine Meinung zum Preis und davon muss ihn auch keiner überzeugen.

Aus unternehmerischer Sicht kann ein zu hoher Preis halt auch der Marke schaden, von daher immer nur rauf ist auch nicht super. Wenn also manche sagen NV verzockt sich, ist das auch ein plausibler Standpunkt, wie die Sache ausgeht sehen wir halt erst über die Zeit. Manche Argumente sind aber imo nicht plausibel ;)

Fliwatut
2018-09-23, 17:18:45
Dass das Preisleistungsverhältnis vor dem Hintergrund der letzten Jahre nicht mehr stimmt ist doch relativ einfach zu erkennen. "Früher" gab es die 30, 40, 50% Leistungssteigerung ohne Aufpreis, wenn man bis zum Release der jeweils neuen Ti gewartet hat.

Das gibt es jetzt nicht mehr, jetzt muss man für die Leistungssteigerung bezahlen, darüber kann man sich ärgern und seinem Unmut auch Ausdruck verleihen. Dazu kommt dann noch, dass Nvidia damit das "Upgrademodell" vieler User kaputt gemacht hat. Da wurde die alte x80 oder Ti vor dem Launch der neuen x80 oder Ti zu einem guten Preis verkauft und mit 200-300 € Aufpreis konnte man sich die neue Karte kaufen. Jetzt ist der Aufpreis deutlich heftiger, das ärgert natürlich die x80 oder Ti-Kunden, die mit diesem "Upgrademodell" bisher gut gefahren sind und auch die machen ihrem Ärger Luft, ich glaube daher, dass Neid da eine eher untergeordnete Rolle spielt.

aceCrasher
2018-09-23, 17:20:41
Preis ist, was eine andere Person zu zahlen bereit ist.
Das ist völlig unstrittig für mich.

Und nach dieser Logik sind die aktuellen Nvidia Karten absolut überteuert, kenne außerhalb dieses Forums niemanden der sie auch nur in Betracht zieht.

Fliwatut
2018-09-23, 17:30:50
Wie viel jemand für ein Produkt zu zahlen bereit ist, ist eine völlig subjektive Sache. Der eine kauft sich eine Kaffeemaschine für 2.000,- € während dem anderen schon 50,- € für eine Senseo-Maschien zu viel sind. Wie will man da sagen können "Produkt XY ist viel zu teuer"? Das geht immer nur vom subjektiven Standpunkt aus, in den natürlich auch die finanziellen Möglichkeiten mit einfließen.

Atma
2018-09-23, 17:38:04
Wie viel jemand für ein Produkt zu zahlen bereit ist, ist eine völlig subjektive Sache. Der eine kauft sich eine Kaffeemaschine für 2.000,- € während dem anderen schon 50,- € für eine Senseo-Maschien zu viel sind. Wie will man da sagen können "Produkt XY ist viel zu teuer"? Das geht immer nur vom subjektiven Standpunkt aus, in den natürlich auch die finanziellen Möglichkeiten mit einfließen.
Genauso ist es. Man mag schon gar nicht mehr in die Threads schauen weil sich ununterbrochen die Mäuler wegen dem Preis zerrissen werden, dabei sollte es im Speku-Forum um den technologischen Aspekt gehen.

BigKid
2018-09-23, 18:58:12
Ach, Du hast Einblick in die Internas von Nvidia? :eek:

:rolleyes: Warum willst Du nicht wahrhaben, daß nicht Du den Preis bestimmst, sondern der Markt. Der wird es eben langfristig regeln. Kurzfristig kostet immer etwas mehr, aber das ist bei Angebot und Nachfrage vollkommen normal. Ich bin seit über 35 Jahre mit allen elektronischen Konsumgütern mit dabei, und sehe hier überhaupt nichts ungewöhnliches. Daher verstehe ich nicht, warum Du Dich hier immer wieder aufspulst. Kauf ne Konsole, verzichte aufs PC-Gaming, und schon schonst Du Deinen Puls. ;)
Ich habe genug Ahnung von der Materie um zu wissen dass wir Preislich nun bei NV in Regionen sind in denen die Herstellungskosten eine immer kleinere Rolle spielen.
1. Du hast keine Ahnung wie alt ich bin. Mit deinen 35 Jahren imprägnierst du mir überhaupt nicht und es tut auch gar nix zur Sache. Ich sags mal so - der C64 war nicht mein erster „Heim-Rechner“. Und? Was tut das nun zur Sache?
2. Mein Puls ist ruhig und ich spule nix... und auch das tut gar nix zur Sache. Durch Angriffe auf die Persönlichkeit des anderen werden deine Argumente auch nicht besser
3. Warum kapierst du nicht dass ich als potentieller Verbraucher ein berechtigtes Interesse an niedrigeren Preisen habe? Ich bin Teil des Marktes der das deiner Meinung nach regeln solll. Ein Weg dies zu erreichen ist Boykott - damit dieser wirkt müssten genug Leute mit machen. Du zahlst offensichtlich gerne zuviel - prima - aber hör auf mir erklären zu wollen ich sei irgendwie beschränkt/auf dem falschen Dampfer. Was triggert es bei dir wenn ich und andere sagen „es reicht mir“. Wir vertreten damit nur unsere Meinung.
4. Ich bin in der komfortablen Lage mit meinem Desktop mit GTX1080ti und nem Laptop mit GTX1070 überhaupt keine aufrüst Not zu haben... Warum also sollte ich zur Konsole greifen? Ich greife aber nicht zum Geldbeutel und hoffe das genug andere das auch nicht tun damit ich dann bei der 7nm Gen von NV wieder zugreifen kann ohne mich zu fragen ob ich noch alle beisammen habe...

Godmode
2018-09-23, 19:02:25
Der Preis ist nun mal ein großer Punkt, was Kaufentscheidungen angeht. Und wenn ein Produkt plötzlich viel teurer ist, als bisher, ist es ganz natürlich dass sich die Leute aufregen. Das Problem in Threads ist leider, dass jeder versucht dem anderen sein eigenes Weltbild aufzudrücken und das funktioniert logischerweise nicht.

Dural
2018-09-23, 19:10:00
Der Preis ist nun mal ein großer Punkt, was Kaufentscheidungen angeht. Und wenn ein Produkt plötzlich viel teurer ist, als bisher, ist es ganz natürlich dass sich die Leute aufregen. Das Problem in Threads ist leider, dass jeder versucht dem anderen sein eigenes Weltbild aufzudrücken und das funktioniert logischerweise nicht.

Das problem ist das viele einfach nicht sehen was man mit turing alles bekommt. Turing wurde nie für fps/dollar entwickelt, den das hat man die letzten jahre zu genüge gemacht.

Desweiteren hatte nv auch einfache technische limits wie die fertigung oder einen halbweges vernünftigen verbrauch.

Das alles zusammen gerechnet ergibt turing wo wir jetzt haben, mehr oder weniger ist aktuell nicht möglich!

Digidi
2018-09-23, 19:11:30
Der Preis ist nun mal ein großer Punkt, was Kaufentscheidungen angeht. Und wenn ein Produkt plötzlich viel teurer ist, als bisher, ist es ganz natürlich dass sich die Leute aufregen. Das Problem in Threads ist leider, dass jeder versucht dem anderen sein eigenes Weltbild aufzudrücken und das funktioniert logischerweise nicht.

Nicht ganz. Wir leben in einem Sozial-Demokratischen und Sozial-Kapitalistischen Staat. Das heißt eine Breite Masse sollen vielen Errungenschaften relativ Preiswert angeboten werden. Das sind die Spielregeln, so Leute wie PHuV passen eher nach Amerika wo das Wort Sozial hinter Demokratie und Kapitalismus fehlt und dahin Passen auch die Preise der 2080 / ti

Effe
2018-09-23, 19:16:06
Das problem ist das viele einfach nicht sehen was man mit turing alles bekommt.
Das kann man mangels Software auch bisher nicht. Bis auf ein paar kleine Techdemos ist es nicht wirklich nachvollziehbar.

Dural
2018-09-23, 19:17:06
Das stimmt natürlich, war bei neuen technologien aber schon oft so.

w0mbat
2018-09-23, 19:17:16
Wie sind hier eigentlich die Einschätzungen zur RTX 2070? In vielen Bereichen ja ähnlich aufgestellt wie eine 2080, gleiches SI, gleicher VRAM zB. Und mit 2304 cores zu den 2944 der 2080 nicht sehr weit weg.

So lange es keine GTX 970 2.0 wird könnten wir hier Performance ca. 15% unter einer 2080 sehen, und das für <600€.

Fragman
2018-09-23, 19:19:54
Erwartet man da nicht eher 1080 Niveau?
Glaub kaum, das die nur 15% hinter der 2080 liegt. Nicht bei dem anvisierten Preis.

Troyan
2018-09-23, 19:20:04
RTX2080 sollte 27% schneller sein als RTX2070. Also irgendwas zwischen 5-10% schneller als eine GTX1080FE.

Dural
2018-09-23, 19:22:25
Ich sehe die 2070 als sehr interessant an. Natürlich nicht für 1080+ besitzer...

Zudem hat sie einen relativ gute oc möglichkeit und dank dem selben si wie die 2080 dürfte das auch gut skalieren.

Zb. 2100mhz müssten ca. 25% leistung ergeben. 1080ti stock könnte somit erreichbar werden.

Linmoum
2018-09-23, 19:23:40
Wie sind hier eigentlich die Einschätzungen zur RTX 2070? In vielen Bereichen ja ähnlich aufgestellt wie eine 2080, gleiches SI, gleicher VRAM zB. Und mit 2304 cores zu den 2944 der 2080 nicht sehr weit weg.

So lange es keine GTX 970 2.0 wird könnten wir hier Performance ca. 15% unter einer 2080 sehen, und das für <600€.
1080/V64 Custom-Niveau.

w0mbat
2018-09-23, 19:23:57
RTX2080 sollte 27% schneller sein als RTX2070. Also irgendwas zwischen 5-10% schneller als eine GTX1080FE.

27% schneller? Ich denke halt, mit etwas OC könnte eine 2070er dank ihrer üppigen VRAM und SI Ausstattung sehr nahe an eine non-OC 2080er rankommen.

AffenJack
2018-09-23, 19:27:58
27% schneller? Ich denke halt, mit etwas OC könnte eine 2070er dank ihrer üppigen VRAM und SI Ausstattung sehr nahe an eine non-OC 2080er rankommen.

Gibts irgendwo Tests mit Ramskalierung? Ist eben die Frage ob die 2080 durch die Speicherbandbreite eingebremst wird. Bei hohem OC stimme ich dir zu, dass der Abstand geringer als der Shaderunterschied werden könnte.

Dural
2018-09-23, 19:28:12
Mit 2100mhz müsste sie ca. 2080 stock leistung haben. Rein rechnerisch, welche aus wirkung das gleiche SI hat wird sich zeigen müssen.
Da bleibt noch die frage nach der chip quaität, und die könnte in anbetracht das die gpu auf der 2070 voll aktiv ist sehr stark schwanken.

Troyan
2018-09-23, 19:31:32
Gibts irgendwo Tests mit Ramskalierung? Ist eben die Frage ob die 2080 durch die Speicherbandbreite eingebremst wird. Bei hohem OC stimme ich dir zu, dass der Abstand geringer als der Shaderunterschied werden könnte.

Youtube hat was für dich: https://www.youtube.com/watch?v=Kx7zD7n9OyE

PHuV
2018-09-23, 19:40:56
Der Preis ist nun mal ein großer Punkt, was Kaufentscheidungen angeht. Und wenn ein Produkt plötzlich viel teurer ist, als bisher, ist es ganz natürlich dass sich die Leute aufregen. Das Problem in Threads ist leider, dass jeder versucht dem anderen sein eigenes Weltbild aufzudrücken und das funktioniert logischerweise nicht.
Ich will niemanden etwas aufdrücken, sondern den Ich-will-sozialistisch-billige-Grafikkarten-Leuten nur aufzeigen, daß sie in einer Wunschwelt leben, sondern in der Realität. In der Realität sind Menschen egoistisch, ganz einfach. In der Realität der Konsumgesellschaft kämpfen Firmen um Marktanteile, um in genau diese Position zu kommen, Dominanz, Marktdurchdringung und Marktbeherrschung, Wettbewerbsvorteile. Das läuft bei uns seit bestimmt 200 Jahrhunderten in verschiedenen Bereichen so.
Als Konsument (der Du bist) nun die Preisstrategie des Unternehmens (massiv) zu verteidigen und gleichzeitig die der (anderen) Konsumenten zu verteufeln ist irrational. Das ganze dann auch noch (praktisch nur) mit argumenta ad hominem.

Hoch lebe der Diskurs...:rolleyes:
Solange Du gebraucht Deine Sachen oder Deine Arbeitsleistung zum best möglichen Preis anbietest, bist Du genau so Teil und Ursache dieses Problems. Ich verteufle keine Konsumenten, warum sollte ich? Alles was ich sage, schaut hin, daß ist eben der Preis von freien Markt und Wettbewerb, so daß Innovationen stattfinden können. Ich verteidige gar nichts, sondern sehe nur, wie andere hier auch, die Dinge etwas klarer. Wenn man die Diskussionen im CB, bei PGHW und Hardwaraluxx verfolgt, sieht man, daß viele es genau so verstehen.
Nicht ganz. Wir leben in einem Sozial-Demokratischen und Sozial-Kapitalistischen Staat. Das heißt eine Breite Masse sollen vielen Errungenschaften relativ Preiswert angeboten werden. Das sind die Spielregeln, so Leute wie PHuV passen eher nach Amerika wo das Wort Sozial hinter Demokratie und Kapitalismus fehlt und dahin Passen auch die Preise der 2080 / ti
Äh, wo ist der Stammsitz von Nivida? :rolleyes: Du merkst wohl nicht mehr, was Du für einen Unsinn Dir zusammenreimst. Es gibt keine Grundlage, einen Luxusartikelmarkt irgendwie zu regulieren. Wer sich nicht leisten will und kann, verzichtet eben.

w0mbat
2018-09-23, 19:44:52
Ja, das ist die große Frage. Wenn Nvidia keine 970er bringt und die 2070 wirklich das gleiche SI und den gleichen gleichen VRAM wie die 2080 hat, liegt der Rest ausschließlich an den cores und dem Takt.

Die 1080 hat ca. 33% mehr cores als die 1070 und auch noch schnelleren RAM. Die 2080 hat 28% mehr cores, aber keinerlei andere Vorteile (RTX cores mal ausgenommen).

Mit etwas OC sollte eine 2070 in der Lage sein eine 1080 Ti zu schlagen. Das ist meine Hoffnung, bis Navi will ich nicht warten und 800€+ sind mir auch zuviel.

AffenJack
2018-09-23, 19:47:03
Youtube hat was für dich: https://www.youtube.com/watch?v=Kx7zD7n9OyE

Leider nur 1 Game, da finde ich das immer schwer zu beurteilen, da unterschiedliche Games unterschiedlich Bandbreitenlimitiert sind.
Und sowohl GPU, als auch Ram OC. Nur Ram OC wäre was.
Aber insgesamt +7% bei 3% GPU Übertaktung und 11% Ramübertaktung.
Scheint jetzt zumindest bei Crysis nicht so besonders Speicherlimitiert.

pixeljetstream
2018-09-23, 20:22:40
Nicht ganz. Wir leben in einem Sozial-Demokratischen und Sozial-Kapitalistischen Staat. Das heißt eine Breite Masse sollen vielen Errungenschaften relativ Preiswert angeboten werden. Das sind die Spielregeln, so Leute wie PHuV passen eher nach Amerika wo das Wort Sozial hinter Demokratie und Kapitalismus fehlt und dahin Passen auch die Preise der 2080 / ti
Der Staat reguliert mit Steuern, Sozialabgaben etc. Du wählst die Parteien damit du solche Veränderungen willst, engagierst Dich politisch&sozial in der Gemeinde, nicht indem du ein Konsumgut wie Grafikkarten heranziehst.
Hauptsache Infrastruktur, soziale Netze, freier Zugang zur Bildung, Gesundheitsversorgung, Verteilung des Wohlstands etc. Du kannst doch nicht solche "wirklich wichtigen" Dinge mit einer Grafikkarte gleichsetzen wo es den Enthusiasten darum geht 4k mit 120 Hz zu haben. Die wichtigen Technologie sind doch der Masse verfügbar ist (Internetzugang, günstige Smartphones/Tablets, PCs).

wieso zimmerst Du Dir solche komischen Theorien zusammen, um einen geringeren Preis zu fordern. Wieso reicht es nicht, wie viele andere hier, einfach zu sagen das P/L Verhältnis spricht mich persönlich nicht an, und gut ist. Das ist doch "legitim" genug, da muss man doch nicht unverhältnismäßig über das Wohl der Gesellschaft argumentieren. Evtl trollst Du ein wenig und ziehst uns damit nur auf ;)

-=Popeye=-
2018-09-23, 20:26:23
...

Mit etwas OC sollte eine 2070 in der Lage sein eine 1080 Ti zu schlagen....

Wie bitte soll das gehen wenn RTX 2080 schon mit GTX 1080 Ti zukämpfen hat?

Spasstiger
2018-09-23, 20:32:12
Aber insgesamt +7% bei 3% GPU Übertaktung und 11% Ramübertaktung.
Diese Zahlen bedeuten, dass das Design für diesen Anwendungsfall gut ausbalanciert ist und auf GPU-OC und Speicher-OC gleichermaßen gut anspricht.

Unter nebenläufigem Einsatz der int32-Einheiten, der fp32-Einheiten UND der Tensor-Cores ist die Wahrscheinlichkeit, dass eine GTX 2080 ins Bandbreitenlimit läuft, meiner Meinung nach aber schon sehr hoch. Man muss sich nur mal vor Augen führen, was die Turing-Recheneinheiten pro Sekunde theoretisch durchschleusen können: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11800510#post11800510. Hochgerechnet auf die RTX 2080 FE sind das theoretisch 254 Terabyte pro Sekunde an Daten, die in der Spitze durch die Recheneinheiten wandern. Die Speicherbandbreite liegt nur bei 448 Gigabyte pro Sekunde.
Der Durchsatz in den SMs wird aber noch begrenzt durch die max. Anzahl an Warps/Threads pro Takt.

Dural
2018-09-23, 20:32:34
Wie bitte soll das gehen wenn RTX 2080 schon mit GTX 1080 Ti zukämpfen hat?

Es steht ja hier :rolleyes:

-=Popeye=-
2018-09-23, 20:36:58
Wäre dann eine 2080 nicht komplett überflüssig?

Dural
2018-09-23, 20:41:34
Nein, da man die auch übertakten kann ;)

Das gleiche SI kann ich im moment gar nicht einschätzen, wenn wir jetzt ausgehen das es nichts bringt wird es für die 2070 sehr schwirig die 2080 einzuholen. Für die 1080ti stock die ja leicht unter der 2080 ist müsste es aber reichen, im durchschnitt.

Aufjedenfall wird die 2070 wenn man sie gut übertakten kann sehr interessant wie ich finde, zudem bezahlbar.
Aber wie schon gesagt, für 1080+ user sicher nichts.

TGKlaus
2018-09-23, 21:01:02
Wäre dann eine 2080 nicht komplett überflüssig?

Ist sie ja auch.

Als OC-Version nur so schnell wie eine 1080Ti Ref., weniger VRAM und dafür 150€ teurer.

Früher gab dann gleiche Leistung für weniger Geld.
Diesmal gibts weniger für deutlich mehr Geld.

Und es gibt echt noch Nvidiafans die das gut finden. :freak:

Dural
2018-09-23, 21:06:45
Auch die normale 2080 ist leicht schneller als die 1080ti fe :rolleyes:

Aber ich finde die 2080 auch nicht wirklich interessant, dann lieber gleich die 2080ti.

Mancko
2018-09-23, 21:22:04
Nicht ganz. Wir leben in einem Sozial-Demokratischen und Sozial-Kapitalistischen Staat. Das heißt eine Breite Masse sollen vielen Errungenschaften relativ Preiswert angeboten werden. Das sind die Spielregeln, so Leute wie PHuV passen eher nach Amerika wo das Wort Sozial hinter Demokratie und Kapitalismus fehlt und dahin Passen auch die Preise der 2080 / ti

Was ist das denn für ein Blödsinn. Es gibt keine solchen Spielregeln bei uns. Das gilt allenfalls für Grundbedürfnisse aber sicherlich nicht für verzichtbare Artikel. Nach der Logik müsste ja sogar ein Tesla, ein Ferrari, ein Aston Martin, eine Gucci Tasche oder auch eine teure Schweizer Uhr der breiten Masse preiswert angeboten werden, der Business Class Flug in die Schweiz am Besten gleich mit. Dem ist nunmal nicht so und das aus guten Gründen.

Nvidia macht das was jedes Unternehmen versucht. Seine Produkte so teuer wie möglich an den Kunden zu bringen. Der Preis muss mir nicht gefallen, gehört aber nun mal zu unserem Wirtschaftssystem dazu. Wenn es mir zu viel ist übe ich mich im Verzicht.

Im Grunde macht doch jeder das gleiche auch wenn er sich irgendwo bewirbt. Ist man in einer Boombranche mit extrem hoher Nachfrage, dann versucht doch auch jeder für sich in Form von einem sehr hohem Einkommen das Maximum herauszuholen, völlig egal ob das der eigenen "echten" Performance entsprechend gerechtfertigt ist oder nicht. Ich habe noch nie einen Kandidaten beim Bewerbungsgespräch kennengelernt der gesagt hat "Meine Gehaltsforderungen sind überzogen ich nehme gern auch weniger".

Das gleiche gilt wenn man selber privat Dinge verkauft. Den PC oder die Graka bei Ebay, das Auto oder sogar die Immobilie. Jeder versucht das Maximum was erreichbar ist herauszuholen. Manch einer ist halt erfolgreicher als andere damit. So läuft das bei uns nunmal. Da fragt auch keiner ob das überhaupt gerechtfertigt ist. Findet man einen Käufer der den aufgerufenen Preis bezahlt, egal ob überzogen oder nicht, nimmt man das natürlich gern mit.

Daredevil
2018-09-23, 21:56:25
Zwar nicht direkt RTX, aber SLI vs. NVLink bei "gleicher" Hardware.

-e4BvZz6H8Q

Kriton
2018-09-23, 23:37:16
Solange Du gebraucht Deine Sachen oder Deine Arbeitsleistung zum best möglichen Preis anbietest, bist Du genau so Teil und Ursache dieses Problems.

Wo ist der Bezug zu meiner Argumentation (ich habe das System der Preisfindung als solches nicht kritisiert)?

Aber schön, dass Du (...) nur, wie andere hier auch, die Dinge etwas klarer. siehst.

dildo4u
2018-09-24, 07:26:11
Ist sie ja auch.

Als OC-Version nur so schnell wie eine 1080Ti Ref., weniger VRAM und dafür 150€ teurer.

Früher gab dann gleiche Leistung für weniger Geld.
Diesmal gibts weniger für deutlich mehr Geld.

Und es gibt echt noch Nvidiafans die das gut finden. :freak:
Ähm die riesigen Dies sind halt teuer in der Produktion.Vega 56 hat über 1Jhar fast nie 400€ gekostet da HBM2 das nicht zugelassen hat.
Das Argument Nvidia verkauft dir wenig für viel Geld,galt beim 300mm Chip der 1080 für 700€.

Vega ist genau das Selbe wie Turing,die wird dir auch für teuer verkauft mit der Hoffnung, das neue Tech sich irgendwann durchsetzt.
Oder macht es in dem Fall Sinn 500€ für grottige DX11 Performance auszugeben?

GSXR-1000
2018-09-24, 08:14:14
Was sollen diese ständigen persönlichen Angriffe auf jene, welche den Preis kritisieren?

Der Markt regelt es? Wir sind Teil des Marktes. Und ein (nicht existierender) perfekter Markt lebt von (vollumfänglicher) Information. dazu gehört auch der Austausch darüber, was andere zu bezahlen bereit sind.

Und es ist auch marktwirtschaftlich, dass man den (zu hohen) Preis als Konsument kritisiert. Weil der Konsument nun einmal möglichst niedrige Preise wünscht. So wie das Unternehmen möglichst hohe.

Als Konsument (der Du bist) nun die Preisstrategie des Unternehmens (massiv) zu verteidigen und gleichzeitig die der (anderen) Konsumenten zu verteufeln ist irrational. Das ganze dann auch noch (praktisch nur) mit argumenta ad hominem.

Hoch lebe der Diskurs...:rolleyes:
Vor allem geht jedes sich selbst regelnde marktmodell primaer von ausschliesslich rational und emotionslos handelnden akteueren auf beiden seiten aus. Nur dann sieht man auch in den modellen einen sich selbst regulierenden markt(-preis).
Sobald persoenliche, nicht rationale faktoren ins spiel kommen, wie persoenliche praeferenz, funktioniert das modell schon nicht mehr. Weder in theorie, noch in praxis.
Bei dem Fanboytum, welches hier von bestimmter klientel zur schau gestellt wird von rationalen kundenentscheidungen zu sprechen ist schon absurd. Bei rein rationaler ueberlegung waeren allein ob der preisrelationen die ersten vorbestellerkarten zum vollpreis in den regalen vergammelt und über die zeit und preissenkungen haette sich ein gesunder marktpreis entwickelt. Nur hat hier hype und fanboytum ueber vernunft gesiegt. Mit der premisse kann und darf man nicht auf selbstregulierende märkte hoffen

Fliwatut
2018-09-24, 08:41:20
Bei rein rationaler ueberlegung...
... würde kein Mensch am PC zocken.

GSXR-1000
2018-09-24, 08:50:50
... würde kein Mensch am PC zocken.

...weil? Pc gaming hat durchaus rational betrachtet vorteile ggü konsolengaming.

Fliwatut
2018-09-24, 09:01:23
Dann hätte doch auch flüssigeres Gaming in UHD mit der 2080 ti rational betrachtet durchaus Vorteile ggü nicht ganz so flüssigem Gaming in UHD mit der 1080 ti.

ntldr
2018-09-24, 09:19:41
Ähm die riesigen Dies sind halt teuer in der Produktion.Vega 56 hat über 1Jhar fast nie 400€ gekostet da HBM2 das nicht zugelassen hat.
Das Argument Nvidia verkauft dir wenig für viel Geld,galt beim 300mm Chip der 1080 für 700€.

Vega ist genau das Selbe wie Turing,die wird dir auch für teuer verkauft mit der Hoffnung, das neue Tech sich irgendwann durchsetzt.
Oder macht es in dem Fall Sinn 500€ für grottige DX11 Performance auszugeben?

Die Kosten in der Produktion sind für den Käufer relativ uninteressant. Relevant ist der Verkaufspreis für die gelieferte Performance. NV hätte auch schon vor einigen Monaten eine riesige 7nm GPU liefern können, die Turing blöd darstehen ließe. Nur wäre dann der Preis auch entsprechend absurd.

Problem ist ja, dass die 2080 (Stand heute) einfach nur eine 1080ti mit weniger VRAM und ca. 150€ Aufpreis ist. Wenn DLSS und Raytracing dann Verbreitung finden, qualitativ gut aussehen und spielbaren Framerates liefern, sieht das dann deutlich besser für Turing aus. Wenn Vega uns aber eines gezeigt hat, dann dass man sich auf die Aussagen der Hersteller nicht umbedingt verlassen sollte. Solange die Technologie nicht bei mir auf dem Schreibtisch verwendbar ist, ist sie für mich nicht viel Wert.

Bei Vega sieht das mit Preis/Performance, wie du erwähnst, aber auch nicht viel besser aus. Nvidia macht sich hier mMn mit Pascal selbst zu viel Konkurrenz.

Dural
2018-09-24, 09:41:14
Die 980 war auch einfach eine 780Ti, und wurde trotzdem wie blöd gekauft.

Die 780Ti war eigentlich sogar besser als jetzt beim 1080/2080 vergleich, da man sie extrem gut übertakten konnte! Interessanterweise gab es damals kein geschrei das man 780Ti OC gegen 980 OC vergleichen soll. ;)



Das Argument Nvidia verkauft dir wenig für viel Geld,galt beim 300mm Chip der 1080 für 700€.


Dachte ich mir auch schon, damals hat kaum einer irgend was wegen dem Preis gesagt.

Das liegt aber auch daran das die 1080 dank neuer Fertigung durch die Bank überzeugen konnte. Wie wir alle wissen hat Turing aber keine neue Fertigung und muss alleine durch die Architektur und der grossen Die punkten.


Ich glaube NV hat sich keinen Gefallen getan mit der teurer FE. Die hätten die Karten zum normalen Preis bringen soll und nach wenigen Monaten einfach auslaufen lassen. Jetzt haben alle den Preis der FE im Kopf, obwohl es klar auch günstige Modelle gibt die kaum langsamer sind.

pilzsammler2002
2018-09-24, 10:02:20
Mir ist da etwas aufgefallen...

Bei dem PCGH DLSS/TAA Vergleich.
Neben den minimalen "Ghosting" in DLSS habe ich das gefühl das bei TAA Objekte nicht ganz "gerendert" werden :)

Man sieht es an dem Busch in der Mitte oben recht gut :)


DLSS hat rechts oben im Busch nicht ganz berechnete Blätter
http://www.pcgameshardware.de/screenshots/original/2018/09/FF15_Turing_DLSS1-pcgh.png

Bei TAA sieht der Busch oben vorallem nicht aus wie in den anderen Vergleich Videos :D
http://www.pcgameshardware.de/screenshots/original/2018/09/FF15_Turing_TAA1-pcgh.png


Oder unterscheidet sich der FFXV Benchmark in jedem Durchlauf? :freak:

w0mbat
2018-09-24, 10:28:57
NV hätte auch schon vor einigen Monaten eine riesige 7nm GPU liefern können, die Turing blöd darstehen ließe. Nur wäre dann der Preis auch entsprechend absurd.
Der Preis ist doch jetzt schon Absurd, dann hätte ich lieber gleichzeitig auch deutlich mehr Leistung.

Und nein, Nvidia hätte keinen 7nm Chip liefern können, sonst hätten sie es gemacht.

Dural
2018-09-24, 11:35:58
Ich rechne stark damit das im H1 2019 eine 7nm Chip von NV kommt. Die Frage ist aber ob es ein kleiner Turing oder der GV100 Nachfolger wird.

N0Thing
2018-09-24, 11:42:17
Ähm die riesigen Dies sind halt teuer in der Produktion.Vega 56 hat über 1Jhar fast nie 400€ gekostet da HBM2 das nicht zugelassen hat.
Das Argument Nvidia verkauft dir wenig für viel Geld,galt beim 300mm Chip der 1080 für 700€.

Vega ist genau das Selbe wie Turing,die wird dir auch für teuer verkauft mit der Hoffnung, das neue Tech sich irgendwann durchsetzt.
Oder macht es in dem Fall Sinn 500€ für grottige DX11 Performance auszugeben?

Die Vegas haben ähnlich viel gekostet wie ihre Konkurrenten in Form von GTX 1070 und GTX 1080 und nicht deutlich mehr, wie man es jetzt bei GTX 1080Ti und GTX 2080 sehen kann. Die Verfügbarkeit war schlecht, aber wer nach dem Launch eine Karte nahe des UVPs haben wollte, hat auch eine Vega zu dem Preis bekommen.




Dachte ich mir auch schon, damals hat kaum einer irgend was wegen dem Preis gesagt.

Natürlich wurde das thematisiert, seitenlang. Wie auch schon zuvor bei der GTX 980. Nur wurde das eben von Leuten, denen der Preis egal, oder die Farbe des Logos wichtiger war, relativiert (teure Fertigung, teurer Speicher, technischer Fortschritt, kommt einem vielleicht bekannt vor..)

aceCrasher
2018-09-24, 13:22:50
Die 980 war auch einfach eine 780Ti, und wurde trotzdem wie blöd gekauft.



Die 980 hatte mehr Speicher (4GB vs 3GB) und war deutlich effizienter.

Die 2080 hat weniger Speicher als die 1080ti (8GB vs 11GB) und ist nur leicht effizienter.

Ravenhearth
2018-09-24, 13:34:22
Die 980 hatte mehr Speicher (4GB vs 3GB) und war deutlich effizienter.

Die 2080 hat weniger Speicher als die 1080ti (8GB vs 11GB) und ist nur leicht effizienter.
Außerdem war der Launchpreis der GTX 980 mit $549 vs. $699 deutlich niedriger. Die RTX 2080 kostet in Form der FE dagegen $100 mehr als die GTX 1080 Ti und die Customs orientieren sich daran.

Dural
2018-09-24, 14:47:27
Ändert aber im Grunde nichts, ich habe damals selber von einer 780Ti auf eine 980 gewechselt obwohl meine 780Ti relativ stabile 1300MHz mit gemacht hat.

Ich hätte in Sachen Leistung gar nicht wechseln müssen, wir haben damals ein neues Produkt gekauft wo in Wahrheit OC zu OC gar nicht schneller war.

Hätte so eine 780Ti @ 1,3GHz nicht nur 3GB, sondern wie die Titan 6GB würde die bis heute sehr gut mit der 1060 oder sogar 1070 mithalten. Die Karte ist immerhin 5 Jahre alt. Ein Wechsel auf die 980 hat rückblickend neben nur 1GB mehr Speicher und weniger Verbrauch eigentlich gar nichts gebracht.

Bambuslooter
2018-09-24, 14:53:55
Dural wird trotzdem sein Heiligtum verteidigen, auch wenn stets seine Aussagen widerlegt werden.

Bin ja sehr gespannt auf die Tests zur 2070, bzw. dem Nachfolger der 1060 rein vom DIE :)
Für 600€ muss Sie schon deutlich in Richtung der 1080ti wandern.

Dural
2018-09-24, 15:00:34
Wo wird was widerlegt?

Fakt ist die 980 war im OC zu OC vergleicht nicht schneller, es wurde trotzdem von der 780Ti auf die 980er gewechselt. :rolleyes:

Ich widerlege nur eure Argumente in Sachen nicht schneller als der Vorgänger, in Wahrheit war das bis jetzt schon öfter so.

Rancor
2018-09-24, 15:01:46
Wie soll Sie Richtung 1080 TI wandern, wenn die 2080 es nur mit Mühe und Not schafft die 1080TI zu schlagen.
Wo wird was widerlegt?

Fakt ist die 980 war im OC zu OC vergleicht nicht schneller, es wurde trotzdem von der 780Ti auf die 980er gewechselt. :rolleyes:

Das hast du vllt. gemacht, aber sicherlich nicht ein großteil der 780Ti Besitzer ( inkl. mir ) ^^. Das Upgrade ist sogar noch sinnloser gewesen, als jetzt von einer 1080TI auf eine 2080TI zu wechseln.

Dural
2018-09-24, 15:07:00
Laut Raff ist die 2080Ti OC 40% schneller als eine 1080Ti OC und das im selben Herstellungsprozess.

Es gibt andere Grafikkarten Hersteller die schaffen das kaum mit einem vollen Node kleiner in der Herstellung :wink:

Man muss es auch mal beim Namen nennen :)

Rancor
2018-09-24, 15:08:59
Laut Raff ist die 2080Ti OC 40% schneller als eine 1080Ti OC und das im selben Herstellungsprozess.

Es gibt andere Grafikkarten Hersteller die schaffen das kaum mit einem vollen Node kleiner in der Herstellung :wink:

Man muss es auch mal beim Namen nennen :)

Deshalb kaufen auch die meisten Leute, bis auf die Fanboys, keine Grafikkarten des besagten Herstellers... und genau das sollte man hier auch tun.
Abgesehen davon, ist GT102 auch viel größer als GP102. Von daher sind die 30-40% auch nicht soo die große Kunst.

Und ist Turing nicht 12nm und Pascal 16nm?

Digidi
2018-09-24, 15:12:00
Meine Gedanken zum Preis:
Das Problem bei dem Chip sind 2:
- Marge ist nicht mehr 100% sondern 200%
- Features sollen erst noch kommen und jetzt macht Battlefield V auch noch Probleme mit den neuen Feautres.

Noch mals zur Marge mit allen Kosten kosten die Chips so viel:
https://www.forum-3dcenter.org/vbull...&postcount=338

Lass es mal noch mit F&E 200 Euro pro Chip sein. Verkauft wird er zurzeit für 500 das ist eine Marge von 100% und Jetz verkauft Nvidia einen etwas größeren Chip für 1300 Euro? Das ist eine Marge von 200%

Dural
2018-09-24, 15:12:52
Es gibt kaum Flächen oder Verbrauchsvorteile.
12nm ist in Grunde nur ein 16nm+

unl34shed
2018-09-24, 15:16:18
Wo wird was widerlegt?

Fakt ist die 980 war im OC zu OC vergleicht nicht schneller, es wurde trotzdem von der 780Ti auf die 980er gewechselt. :rolleyes:

Ich widerlege nur eure Argumente in Sachen nicht schneller als der Vorgänger, in Wahrheit war das bis jetzt schon öfter so.

Deine Theorie war doch, dass sich da auch keiner über den Preis aufgeregt hat.
Das würde wiederlegt, da die 980 günstiger war, sparsamer war und mehr Speicher bot.

Dural
2018-09-24, 15:23:46
Da musst du mich verwechseln, ich habe wegen dem 980 Preis doch nirgends was gesagt. Sondern das die Leistung OC zu OC nicht höher war.

Die 980 GPU war auch klar kleiner als der von der 780ti und das im gleichen Verfahren. Ein Preisaufschlag wäre schon fast frech gewesen.

Der Preis der 980 kann man somit jetzt sicher nicht auf Turing übertragen, da selbst die 2080 GPU grösser als der GP102 ist.

=Floi=
2018-09-24, 15:28:14
Laut Raff ist die 2080Ti OC 40% schneller als eine 1080Ti OC und das im selben Herstellungsprozess.

16nm vs 12nm :rolleyes:

Atma
2018-09-24, 15:40:12
16nm vs 12nm :rolleyes:
Sind 12 nm nicht nur ein optimierter 16 nm Prozess?

PHuV
2018-09-24, 15:47:45
Die 980 war auch einfach eine 780Ti, und wurde trotzdem wie blöd gekauft.
Wie kommst Du auf die Idee? :confused:

https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/3/

37 % mehr in FHD, 41% mehr in UHD, 82 % besser in Performance pro Watt, und selbst die 680 ist hier besser als die 780er.

MusicIsMyLife
2018-09-24, 16:09:48
Wie kommst Du auf die Idee? :confused:

https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/3/

37 % mehr in FHD, 41% mehr in UHD, 82 % besser in Performance pro Watt, und selbst die 680 ist hier besser als die 780er.

Du vergleichst die 780 mit der 980, Dural vergleicht die 780 Ti mit der 980. Das ist ein kleiner Unterschied...

BTW: Zieht man das Launch-Review (https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/6/#diagramm-rating-1920-1080-4xaa-16xaf) von Computerbase zur 980 heran, so unterschieden sich 780 und 980 damals um 24 Prozent in FullHD. Laut dem aktuellen Test sind es 41 Prozent - sieht so aus, als wäre die 980 besser gealtert - möglicherweise aufgrund des größeren VRAMs.



Und zur Fertigungsfrage: Ob nun 12 nm ein optimierter 16-nm-Prozess ist oder nicht - es entspricht nicht mehr dem "originalen" 16-nm-Prozess. Ergo ist das nach meiner Definition nicht mehr der gleiche Fertigungsprozess...

Mangel76
2018-09-24, 16:27:40
Noch eine Bestätigung: Die Turing FE ist bereits OC und andere Customs können sich kaum noch davon absetzen. Auch Übertakten bringt nur wenig Mehrleistung bei enormem Mehrverbrauch. Allerdings soll Speicherübertaktung trotz GDDR6 noch einiges bringen.

GeForce RTX übertakten: Turing skaliert kaum mit der Leistungsaufnahme (https://www.computerbase.de/2018-09/geforce-rtx-turing-temperatur-spannung/)

Dies sollte man mal berücksichtigen, bevor hier wieder Leute davon träumen, mit einer 2070 per OC eine 1080 Ti zu erreichen, wenn es eine 2080 nur gerade so schafft!

Ich wette, einige Kartenhersteller kotzen ganz schön ab. AMD hatte (angeblich) monatelang Probleme mit dem Nachschub und NVIDIA gibt ihnen kaum noch Möglichkeiten, sich durch gute Designs von der FE abzusetzen.

Schnoesel
2018-09-24, 16:35:33
Sie haben ja noch RGB ...

w0mbat
2018-09-24, 16:41:36
Wenn der Speicher OC mehr bringt als der shader OC, dann wird die 2070 vielleicht doch stärker als gedacht.

=Floi=
2018-09-24, 16:52:47
Wie kommst Du auf die Idee? :confused:

https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/3/

37 % mehr in FHD, 41% mehr in UHD, 82 % besser in Performance pro Watt, und selbst die 680 ist hier besser als die 780er.

was soll den perf pro watt?
Es geht um die performance! Das die custom 780ti dazu gut 280+w durchblässt sollte klar sein.




BTW: Zieht man das Launch-Review (https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/6/#diagramm-rating-1920-1080-4xaa-16xaf) von Computerbase zur 980 heran, so unterschieden sich 780 und 980 damals um 24 Prozent in FullHD. Laut dem aktuellen Test sind es 41 Prozent - sieht so aus, als wäre die 980 besser gealtert - möglicherweise aufgrund des größeren VRAMs.



ist ja auch klar, weil maxwell einfach besser cullt. Alles was dort nicht gerendert werden muss geht in die performance. Die spiele haben immer mehr details uns deswegen schlägt die modernere architektur hier durch. Die 980er hat vergleichsweise auch deutlich weniger einheiten und dafür ist die leistung schon stattlich.

Das sage ich ja auch von Vega. Es braucht nicht mehr shadereinheiten, sondern ein besseres frontend. Dort schlummert verdammt viel renderleistung.


edit
wie findet ihr GT106?
ich finde den chip zu groß. Das ist ja schon der bruder von GT104 und nicht mehr der kleine chip davon.

PHuV
2018-09-24, 17:03:23
was soll den perf pro watt?
Es geht um die performance! Das die custom 780ti dazu gut 280+w durchblässt sollte klar sein.
Ich finde das sehr wohl einen wichtigen Wert heute, wo ist da Dein Problem? Wenn ein Chip bei entsprechender Mehrleistung weniger verbrauchst ist das erwähnenswert.

Dural
2018-09-24, 17:27:33
Wie kommst Du auf die Idee? :confused:

https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/3/

37 % mehr in FHD, 41% mehr in UHD, 82 % besser in Performance pro Watt, und selbst die 680 ist hier besser als die 780er.

https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/8/

Die 980er war ganze 8% schneller, die 780Ti konnte man mit OC locker bis zu 30% mehr Leistung raus holen, kein Wunder da Kepler von NV aus sehr niedrig getaktet wurde.


Edit:
Turing scheint nicht wirklich gut für OC zu sein :(
https://www.youtube.com/watch?time_continue=1007&v=-D05zXJsuxs
Meine Hoffnung für die 2070 schwinden glaub gerade dahin, 2,1GHz müsste man schon haben, schade :(


Edit2:
16nm vs 12nm :rolleyes:

Es gibt kaum Flächen oder Verbrauchsvorteile.
12nm ist in Grunde nur ein 16nm+

:rolleyes::rolleyes::rolleyes:
Fast das gleiche wie zb. 28nm zu 14nm :rolleyes:

Was soll das das ständige "ich weis es aber besser" wenn es dann noch stimmen würde....

http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm

Ravenhearth
2018-09-24, 19:06:37
:rolleyes::rolleyes::rolleyes:
Fast das gleiche wie zb. 28nm zu 14nm :rolleyes:

Was soll das das ständige "ich weis es aber besser" wenn es dann noch stimmen würde....

http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm
Dein Link bestätigt sogar was er sagt? :freak: Da werden 16nm und 12nm in einen Topf geworfen und mit 20nm verglichen.

Mancko
2018-09-24, 19:28:35
Meine Gedanken zum Preis:
Das Problem bei dem Chip sind 2:
- Marge ist nicht mehr 100% sondern 200%
- Features sollen erst noch kommen und jetzt macht Battlefield V auch noch Probleme mit den neuen Feautres.

Noch mals zur Marge mit allen Kosten kosten die Chips so viel:
https://www.forum-3dcenter.org/vbull...&postcount=338

Lass es mal noch mit F&E 200 Euro pro Chip sein. Verkauft wird er zurzeit für 500 das ist eine Marge von 100% und Jetz verkauft Nvidia einen etwas größeren Chip für 1300 Euro? Das ist eine Marge von 200%

Bei solchen von Dir prognostizierten Traummargen hätte Nvidia ja den Analysten avisiert, dass die Marge weiter steigt. Sie haben aber gesagt, dass sie etwas fällt.

Digidi
2018-09-24, 19:33:32
Bei solchen von Dir prognostizierten Traummargen hätte Nvidia ja den Analysten avisiert, dass die Marge weiter steigt. Sie haben aber gesagt, dass sie etwas fällt.

Jo die Analysten erst mal klein halten und dann sind die total aus dem Häuschen wenn Nvidia im nächsten Quartal dann auf einmal den doppelten Gewinn hat oder sie wollen wirklich auf Prämium hinaus und gehen Risiko ein mit so hohen Margen viele Kunden zu verprällen.

Thunder99
2018-09-24, 19:35:45
Wenn der Speicher OC mehr bringt als der shader OC, dann wird die 2070 vielleicht doch stärker als gedacht.
Turing hat doch bessere Kompression. Glaube kaum das da OC überproportional was rausholen kann.

Edit: Vor allem nicht bei der 2070, eher 2080 und Ti

=Floi=
2018-09-24, 19:37:12
von turing wird sicher nicht die masse angesetzt werden. Consumer turing ist eher ne nische. Geld wird mit den professionellen sachen gemacht.

mich würde echt interessieren wie die das mit der kompression gemacht haben. bei zip oder rar sind steigerungen von 50% und noch on the fly ja auch utopisch.

wolik
2018-09-24, 20:08:20
https://leonardo.osnova.io/e77f05df-a5c8-8509-656c-a855ad5711bc/

Spasstiger
2018-09-24, 20:30:05
mich würde echt interessieren wie die das mit der kompression gemacht haben. bei zip oder rar sind steigerungen von 50% und noch on the fly ja auch utopisch.
Weil die Echtzeit-Kompression so teuer ist in Bezug auf Siliziumfläche, ist man von den Kompressionsfaktoren der Offline-Verfahren noch ein Stück entfernt. Zumal die 50% Steigerung ein Peak-Wert sind und nicht der typische Fall. /EDIT: Obwohl, da irre ich mich. Die 50% sind wohl doch der Effektivwert. Aber von den 50% kommen schon 25% durch die größere Speicherbandbreite: https://images.anandtech.com/doci/13282/NV_Turing_Editors_Day_015.png

Verbleiben 20 %, die auf die verbesserte Kompression zurückzuführen sind.

Raff
2018-09-24, 20:36:36
Edit:
Turing scheint nicht wirklich gut für OC zu sein :(
https://www.youtube.com/watch?time_continue=1007&v=-D05zXJsuxs
Meine Hoffnung für die 2070 schwinden glaub gerade dahin, 2,1GHz müsste man schon haben, schade :(

2,1 GHz werden wohl klappen. Also beim manuellen OC. Ein kleiner Chip verkraftet in der Regel etwas mehr Takt als ein großer. Wenn man das Verhalten der Pascals vergleicht, geht eine GTX 1060 zwar nicht nennenswert besser als eine GTX 1070, aber wenigstens ist man bei einer RTX 2070 dann nicht mehr so hart powerlimitiert (die richtige Firmware vorausgesetzt).

MfG,
Raff

SKYNET
2018-09-25, 09:08:55
Lotet AMD auch aus was geht oder wie so wurde dort die Vega auch teurer? :rolleyes:

Von den CPU Preisen fange ich schon mal gar nicht an wo man rund 850mm2 in vier teile für 1800.- Kaufen kann. :rolleyes:

Wie so werde da Kommentare gelöscht die der Wahrheit entsprechen und Fakten auf den Tisch legen?


die karten wurden nicht durch die hersteller teurer(weder NV noch AMD) sondern weil der händler die hand aufgehalten hatte... AMD, NV und die boardpartner haben an jeder verkauften karte, das gleiche verdient wie vorher auch, nur die händler haben sich die taschen vollgestopft.


2,1 GHz werden wohl klappen. Also beim manuellen OC. Ein kleiner Chip verkraftet in der Regel etwas mehr Takt als ein großer. Wenn man das Verhalten der Pascals vergleicht, geht eine GTX 1060 zwar nicht nennenswert besser als eine GTX 1070, aber wenigstens ist man bei einer RTX 2070 dann nicht mehr so hart powerlimitiert (die richtige Firmware vorausgesetzt).

MfG,
Raff


und genau da wird NV sicherlich wieder einen riegel vorschieben... die 2070 wird schön gedeckelt werden das sie selbst mit OC deutlich unter der 2080 bleiben wird... die fetten zeiten sind einfach vorbei, und nen LN2 bios wirds -wenn überhaupt- nur für die 2080Ti geben.

Pirx
2018-09-25, 09:33:31
... mich würde echt interessieren wie die das mit der kompression gemacht haben. bei zip oder rar sind steigerungen von 50% und noch on the fly ja auch utopisch.
verlustbehaftet?:ulol:

BigKid
2018-09-25, 10:01:02
mich würde echt interessieren wie die das mit der kompression gemacht haben. bei zip oder rar sind steigerungen von 50% und noch on the fly ja auch utopisch.
verlustbehaftet?:ulol:

Muss nicht prinzipbedingt verlustbehaftet sein. Du kannst zB nach Fraktalen suchen, die genau einen Teil der Zahlensequenz ergeben die du brauchst. Dann brauchst du nur noch ein paar Parameter speichern. Das wird vom Zeitaufwand her zwar ein Albtraum aber nicht jedes hoch komprimierende Verfahren muss verlustbehaftet sein. Je mehr Zeit du in die Suche nach Ähnlichkeiten steckst (in der Information selbst oder zu anderen Dingen die sich mit wenig Parametern berechnen lassen) desto stärker kannst du komprimieren.

Da ist im Prinzip nur die Rechenzeit das Limit.
Als stark vereinfachtes Beispiel: Nehmen wir mal die Zahl PI - die ist nach aktuellem Kentnisstand unendlich (und wiederholt sich nie) ergo wirst du in der Theorie jede beliebige Zahlenfolge irgendwo da drinn finden. Du musst also "nur" nach der/den Stellen suchen an denen deine Zahlensequenzen kommen und speicherst dann nur noch die Information von wo bis wo in Pi... Pi selbst musst di nicht Speichern - der Zipper/Entzipper braucht "nur" den Algo um Pi zu berechnen.
Das Problem: Es kostet sehr viel Zeit PI jedesmal (genau genug) zu berechnen (und wenn du PI mit abspeicherst sparst du wieder keinen Speicherplatz...)

Der Trick kann also auch nur sein etwas gefunden zu haben mit dem sich (schneller) effizient komprimieren lässt...

mksn7
2018-09-25, 10:23:53
Muss nicht prinzipbedingt verlustbehaftet sein. Du kannst zB nach Fraktalen suchen, die genau einen Teil der Zahlensequenz ergeben die du brauchst.

Ich glaube da gibt es auch bei unendlicher Rechenpower theoretische Limits. Die Zahl N, die die N-te Stelle von PI angibt an der die Sequenz losgeht ist wahrscheinlich länger als deine ursprüngliche Sequenz.

BigKid
2018-09-25, 10:36:19
Ich glaube da gibt es auch bei unendlicher Rechenpower theoretische Limits. Die Zahl N, die die N-te Stelle von PI angibt an der die Sequenz losgeht ist wahrscheinlich länger als deine ursprüngliche Sequenz.
Das kommt drauf an wie Lange die Sequenz dann wiederum ist. Und Notfalls muss ich halt die Zahl N selbst auch noch komprimieren. Oder ich optimiere indem ich je nach dem was besser ist lieber mehrere kurze Sequenzen suche statt wenigen langen. Das in sich ist schon wieder ein Optimierungsproblem - den optimalen Mix finden. Aber mit unendlicher Rechenpower kannst du da sicher interessante Dinge tun...

Nur: In der Theorie steckt jede Information der Welt - egal wie lang - irgendwo in Pi... Aber das ist in der heutigen Zeit reine Theorie - ich finds einfach nur als Gedanken sehr interessant. ;)

Pi war ja jetzt auch nur ein Beispiel... Hatte ja extra dazu geschrieben dass es vereinfacht ist...

Aber zurück zur Kernaussage: Höhere Kompression ist nicht gleichzusetzen mit Verlustbehaftet ... In der Regel jedoch mit höherem Aufwand...

Sweepi
2018-09-25, 10:36:35
Also die Kompression ist laut allen Artikeln die ich gelesen habe (insofern sie drauf eingingen) verlustfrei (im Sinne des technischen Begriffes).
Ist das in einem Nvidia whitepaper beschrieben?

reaperrr
2018-09-25, 13:04:11
Allerdings soll Speicherübertaktung trotz GDDR6 noch einiges bringen.
Naja, die 1080Ti hat immerhin 8% mehr Speicherbandbreite, und ich vermute stark, dass 14Gbps G6 höhere Latenzen hat als 11Gbps G5X.
Trotzdem interessant, dass das trotz verbesserter DCC und verdoppeltem L2 (ggü. GP104) der Fall ist.

Wenn der Speicher OC mehr bringt als der shader OC, dann wird die 2070 vielleicht doch stärker als gedacht.
Etwas vielleicht, aber allein schon damit mehr Leute zur 2080 greifen (der Preisunterschied ist groß genug, dass sie die 100mm² mehr als rausholen) werden sie die 2070 nicht zu dicht an die 2080 lassen wollen.
Man muss auch abwarten, ob die halbierte Zahl an GPCs nicht doch ein paar Prozent kostet.

TLDR: Ich erwarte, dass die 2070 FE relativ mittig zwischen 1080 und 1080Ti landet, ca. bei 88% der 1080Ti (siehe Leonidas' Tabelle auf der Hauptseite).

Dural
2018-09-25, 14:28:56
Dann wäre sie mit OC aber genau auf der 1080ti.

Diese Leistung mit den ganzen Turing Vorteilen ist für 499.- gar nicht mal so schlecht.

Meine GTX 1060 freut sich schon drauf ;)

SKYNET
2018-09-25, 15:08:34
Dann wäre sie mit OC aber genau auf der 1080ti.

Diese Leistung mit den ganzen Turing Vorteilen ist für 499.- gar nicht mal so schlecht.

Meine GTX 1060 freut sich schon drauf ;)

639€ für die 2070 FE.... :freak:

Schnitzl
2018-09-25, 15:13:22
Dann wäre sie mit OC aber genau auf der 1080ti.

Diese Leistung mit den ganzen Turing Vorteilen ist für 499.- gar nicht mal so schlecht.

Meine GTX 1060 freut sich schon drauf ;)
Nicht ganz.
Du nimmst den Preis der Referenz aber vermutest die Performance der FE (reaperrr sprach von der FE)

Also so leicht wird es nVidia dir nicht machen ;)

P.S.: leider hat es sich nun bewahrheitet
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2223-september-2018
2080 Customs setzen sich nur max. 4% ab
2080Ti Customs setzen sich nur max. 6% ab

=Floi=
2018-09-25, 15:22:30
P.S.: leider hat es sich nun bewahrheitet
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2223-september-2018
2080 Customs setzen sich nur max. 4% ab
2080Ti Customs setzen sich nur max. 6% ab

ist doch ok?!
Endlich mal eine starke FE. Nebenbei sind bei 2000 mhz 3% 60 mhz und 6% 120mhz, also skaliert das sogar noch.

ich bin auch die unterschiede FE und normale karte gespannt.

Dural
2018-09-25, 15:44:02
Nicht ganz.
Du nimmst den Preis der Referenz aber vermutest die Performance der FE (reaperrr sprach von der FE)

Also so leicht wird es nVidia dir nicht machen ;)


FE was? Übertakten kann ich selber ;)
...Man muss nur einen guten Chip finden ;)

Die 499.- sind natürlich ohne Steuern und so, aber wir haben in der CH ja eh nur 7,7% MwSt :)

SKYNET
2018-09-25, 17:09:43
FE was? Übertakten kann ich selber ;)
...Man muss nur einen guten Chip finden ;)

Die 499.- sind natürlich ohne Steuern und so, aber wir haben in der CH ja eh nur 7,7% MwSt :)

ändert nix dran das die karte hier trotzdem +/- 650 stutz kosten wird. ;)

Nicht ganz.
Du nimmst den Preis der Referenz aber vermutest die Performance der FE (reaperrr sprach von der FE)

Also so leicht wird es nVidia dir nicht machen ;)

P.S.: leider hat es sich nun bewahrheitet
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2223-september-2018
2080 Customs setzen sich nur max. 4% ab
2080Ti Customs setzen sich nur max. 6% ab

erleichtert die suche... man nimmt jetzt einfach die karte, die den besten kühler hat. :D und gigabytes aorus ist im fall auch vorgestellt worden, wie immer ein monster von kühler(7 heatpipes)

Timbaloo
2018-09-25, 17:59:07
erleichtert die suche... man nimmt jetzt einfach die karte, die den besten kühler hat.
War das jemals anders?

Troyan
2018-09-25, 18:13:27
17. Oktober für die RTX2070: https://twitter.com/NVIDIAGeForce/status/1044618811977150464

Linmoum
2018-09-25, 18:30:40
Vielleicht liefern sie die 2070 ja vor der 2080Ti aus. ;D

gravitationsfeld
2018-09-25, 18:58:33
Das kommt drauf an wie Lange die Sequenz dann wiederum ist. Und Notfalls muss ich halt die Zahl N selbst auch noch komprimieren. Oder ich optimiere indem ich je nach dem was besser ist lieber mehrere kurze Sequenzen suche statt wenigen langen. Das in sich ist schon wieder ein Optimierungsproblem - den optimalen Mix finden. Aber mit unendlicher Rechenpower kannst du da sicher interessante Dinge tun...

Nur: In der Theorie steckt jede Information der Welt - egal wie lang - irgendwo in Pi... Aber das ist in der heutigen Zeit reine Theorie - ich finds einfach nur als Gedanken sehr interessant. ;)

Pi war ja jetzt auch nur ein Beispiel... Hatte ja extra dazu geschrieben dass es vereinfacht ist...

Aber zurück zur Kernaussage: Höhere Kompression ist nicht gleichzusetzen mit Verlustbehaftet ... In der Regel jedoch mit höherem Aufwand...
Das Pi-Beispiel ist Unsinn, den Offset zu enkodieren braucht mehr Speicher als die Sequenz.

DinosaurusRex
2018-09-25, 19:06:31
Eben. Stellt euch nicht dumm, Leute.

Schnitzl
2018-09-25, 19:37:44
ist doch ok?!
Endlich mal eine starke FE. Nebenbei sind bei 2000 mhz 3% 60 mhz und 6% 120mhz, also skaliert das sogar noch.

ich bin auch die unterschiede FE und normale karte gespannt.
natürlich das ist mehr als ok!

Man darf nur dann nicht übermütig sein und die alten Unterschiede zu den Customs erwarten.
Das passiert ja in der Euphorie ab und zu :D

Ob ne Wasserkühlung sich da noch deutlich absetzen kann? Was meint ihr?

@Dural: vielleicht in der Schweiz. Sonstwo wirds über 600€ sein. Vorerst.

Tesseract
2018-09-25, 20:00:46
mich würde echt interessieren wie die das mit der kompression gemacht haben. bei zip oder rar sind steigerungen von 50% und noch on the fly ja auch utopisch.

die algorithmen der lempel-ziv-familie zu denen fast alle gehören die in packern verwendet werden (DEFLATE in zip, LZSS in rar, LZMA(2) in 7zip usw.) sind datenagnostisch - d.h. sie kommen mit fast allem was man ihnen gibt gut zurecht - und erreichen ihre hohen kompressionsraten durch enormen resourceneinsatz. da cruncht die ganze CPU inkl. haufenweise ram ewig lange an den daten rum. speicherkompression muss schnell gehen, in wenigen transistoren umsetzbar sein und nur einen ganz bestimmten anwendungsfall lösen.

übrigens haben auch allgemeine packalgorithmen eine lange evolution hinter sich. zwischen den älteren varianten wie dem in zip und dem momentan stärksten wie dem in 7zip sind, je nach dataset, durchaus große unterschiede. außerdem gibt es trotz der hohen kompressionsrate auch in diesem bereich immer wieder mal einen durchbruch: der neue zstandard beispielweise erreicht zwar nicht ganz die kompressionsrate von LZMA2, kommt aber nah ran und ist beim komprimieren und ganz besonders beim dekomprimieren wesentlich schneller und ist damit für viele anwendungsfälle der neue beste allroundalgorithmus.

gravitationsfeld
2018-09-25, 20:04:36
Oodle Leviathan hat bessere Kompression als LZMA und dekomprimiert 10x schneller. zStandard ist meh.

Tesseract
2018-09-25, 20:10:51
warum ist der meh?

gravitationsfeld
2018-09-25, 20:18:28
Weil Oodle besser komprimiert und schneller ist. Und zwar signifikant.

BigKid
2018-09-25, 21:42:52
Das Pi-Beispiel ist Unsinn, den Offset zu enkodieren braucht mehr Speicher als die Sequenz.
Himmel ja... Kann je nach Zahlenfolge gut gehen oder nicht. Welchen Teil von „stark vereinfacht“ hast du nicht gelesen?
Es ging nur darum aufzuzeigen das effizientere Kodierung nicht immer verlustbehaftet sein muss und man zT auch „mehr Power“ investierern kann... der Rest ist nur ein Gedankenspiel...

SKYNET
2018-09-26, 01:07:21
Ja, das ist die große Frage. Wenn Nvidia keine 970er bringt und die 2070 wirklich das gleiche SI und den gleichen gleichen VRAM wie die 2080 hat, liegt der Rest ausschließlich an den cores und dem Takt.

Die 1080 hat ca. 33% mehr cores als die 1070 und auch noch schnelleren RAM. Die 2080 hat 28% mehr cores, aber keinerlei andere Vorteile (RTX cores mal ausgenommen).

Mit etwas OC sollte eine 2070 in der Lage sein eine 1080 Ti zu schlagen. Das ist meine Hoffnung, bis Navi will ich nicht warten und 800€+ sind mir auch zuviel.


so schlecht wie die turings zu takten sind, wird das eher nicht passieren... leistung dürfte als FE wohl +/- auf level der 1080 liegen, dann OC kommst aus gleiche wie ne 1080 mit OC... also immer unterhalb einer 1080Ti, wohl auch in titeln wo eine 2080 schneller ist als ne 1080Ti bei gleichem takt.

SKYNET
2018-09-26, 01:11:32
War das jemals anders?

ja, welche karten die höchsten taktraten hatte, ggf. wurde der kühler gewechselt wenn er zu heiss wurde oder zu laut ;)

horn 12
2018-09-26, 06:54:58
RTX 2070 FE
nur 1x 8 Pin Stromanschluss
Plus - Minus Performance einer GTX 1080 - Vega 64 in etwa
OC wird wohl auch kaum gehen bei nur 1 Strom Anschluss!

Mann will wohl die alten Karten erst loswerden, dann könnten auch OC Versionen der RTX 2070 erscheinen!

dildo4u
2018-09-26, 06:58:09
Zwingt dich ja keiner die FE zu kaufen.
Die Custom 2080 laufen z.b 10 Grad Kühler da Kauf ich keine FE.

Dural
2018-09-26, 08:59:34
Wie der Stromanschluss für sich eine Karte Limitieren würde :rolleyes:

Vor allem heut zu tage wo man bei NV PT hat, wo strickt die Leistungsaufnahme geregelt wird.

Die Stock Karte hat 175W, bei einer PT Erhöhung von 25% sind das auch nur 220Watt und mehr dürfte kaum nötig sein beim kleinen Turing Chip. Die Karten werden wie man jetzt weis bei höherem OC so wie so sehr ineffizient.

SKYNET
2018-09-26, 10:13:13
Wie der Stromanschluss für sich eine Karte Limitieren würde :rolleyes:

Vor allem heut zu tage wo man bei NV PT hat, wo strickt die Leistungsaufnahme geregelt wird.

Die Stock Karte hat 175W, bei einer PT Erhöhung von 25% sind das auch nur 220Watt und mehr dürfte kaum nötig sein beim kleinen Turing Chip. Die Karten werden wie man jetzt weis bei höherem OC so wie so sehr ineffizient.

das tut jede hardware, das sie nach oben hin ineffizient wird...

naja, der eine stromanschluss ist weniger das problem, eher der controller chip auf der karte, der die max aufnahme der gesammten karte deckelt ohne chance das weg zu bekommen, wenn man nicht nen hardmod macht und bei jedem systemstart, den chip manuell kurzschliesst damit er nicht ausgelesen werden kann.... :freak:

w0mbat
2018-09-26, 11:06:49
Ich habe jetzt schon mehrmal gehört, dass Turing angeblich der größte Schritt hinsichtlich der Architektur seit der 8800 GTX ist. Jetzt ist mMn hier die Frage, inwieweit sich das in den Treibern wiederspiegelt, also wie viel Optimierungspotential in Turing steckt.

Das Pascal zu 100% ausoptimiert ist, ist keine Frage. Eine 1080 Ti wird nicht mehr schneller werden als sie es jetzt ist, abgesehen von einzelnen Spielen. Eine Turing GPU könnte sehr wohl durch optimierte Treiber noch gut zulegen, aber das ist eben nicht sicher.

Ich finde Turing sehr interessant, weil man einen großen Sprung in LL-APIs sehen kann, was in den kommenden Jahren immer mehr an Bedeutung gewinnen wird. Mit SotTR kann man eine super DX12 Implementierung sehen und auch Strange Brigade scheint hier gut zu laufen. Dass Vega von LL profitiert wissen wir schon lange, aber mit Turing sehen wir vielleicht endlich etwas Bewegung.

Turing profitiert also von LL, die Teiber sind noch nicht fertig optimiert und solche netten Dinge wie DLSS könnten wirklich etwas frische Luft in die Spielewelt bringen.

Ich finde die 2070 klingt alleine dadurch schon sehr gut. Wenn Nvidia keine 970er 2.0 raushaut und die 2070 wirklich mit den vollen 8GB GDDR6 und 256bit SI kommt, könnte es meine nächste Karte werden.

Klar, die FE kostet hier 639€, aber die UVP der non-FE Karten ist 100€ niedriger, also ist es sehr gut möglich, dass wir zum Black Friday gute custom 2070er für um die 550€ sehen werden. Ob die jetzt noch 15% hinter einer 1080 Ti liegen ist mir erstmal egal, weil ich mir sicher bin, dass das schon in einem Jahr wieder ganz anders aussehen kann.

Ich hoffe Nvidia haut bei den Treibern jetzt wirklich mal rein, bei den Preisen kann man das wohl erwarten.

Nightspider
2018-09-26, 11:15:55
Den größten Sprung wird es wohl mit VR geben in der Leistung, sobald die neuen VR Games die ganzen Features der neuen Mikroarchitektur nutzen werden.

SKYNET
2018-09-26, 11:28:52
Ich hoffe Nvidia haut bei den Treibern jetzt wirklich mal rein, bei den Preisen kann man das wohl erwarten.

auch in der gefahr das ich mich wiederhole: wenn es kein massiver bug im treiber war, sind die optimierungen bei max. 5%+ von erscheinen bis ende eines grakazyklusses was durch treiber rausoptimiert wird. :smile:

x-dragon
2018-09-26, 12:12:14
Den größten Sprung wird es wohl mit VR geben in der Leistung, sobald die neuen VR Games die ganzen Features der neuen Mikroarchitektur nutzen werden. Aber dann wohl in erster Linie bei der 2080 Ti. Hab bisher eher kritisches zum Thema Turing und VR gelesen, wo meistens der knappe Speicher bemängelt wird, im Hinblick auf Auflösungen von 5K+ was die ersten Brillen ja bereits bieten.

Rechenersparnis durch Eyetracking ist ja ein Feature was auch mit älteren Karten genutzt werden kann. Aber mal sehen was die Praxis mit Variable Rate Shading und Co. in einigen Monaten zeigen wird.

BigKid
2018-09-26, 13:27:05
Aber dann wohl in erster Linie bei der 2080 Ti. Hab bisher eher kritisches zum Thema Turing und VR gelesen, wo meistens der knappe Speicher bemängelt wird, im Hinblick auf Auflösungen von 5K+ was die ersten Brillen ja bereits bieten.

Rechenersparnis durch Eyetracking ist ja ein Feature was auch mit älteren Karten genutzt werden kann. Aber mal sehen was die Praxis mit Variable Rate Shading und Co. in einigen Monaten zeigen wird.
DLSS dürfte für VR auf jeden Fall eher ein no go sein - oder ?
Wenn pro Auge auch nur leicht andere Artefakte entstehen könnte das vermutlich Übelkeit, Kopfschmerzen oder ähnliches fördern....
Achtung: Das ist ne ernst gemeinte Frage - kein Trollversuch...

RLZ
2018-09-26, 13:34:32
DLSS dürfte für VR auf jeden Fall eher ein no go sein - oder ?
Wenn pro Auge nur leicht andere Artefakte entstehen könnte das vermutlich Übeljeit, Kopfschmerzen oder ähnliches fördern....
Interessante Frage. Ich könnte mir vorstellen, dass es mit Foveated Rendering im peripheren Sichtfeld gut funktioniert.

MiamiNice
2018-09-26, 14:01:06
DLSS dürfte für VR auf jeden Fall eher ein no go sein - oder ?
Wenn pro Auge nur leicht andere Artefakte entstehen könnte das vermutlich Übeljeit, Kopfschmerzen oder ähnliches fördern....
Achtung: Das ist ne ernst gemeinte Frage - kein Trollversuch...

Ich denke das Gegenteil ist der Fall und ich freue mich massiv auf 2x 4K HMDs mit Eyetracking, Foveated Rendering und hoffentlich DLSS. Gerade dafür ist es prädestiniert, imo.
Artefakte, falls die überhaupt vorhanden sind (was sie wohl dann nicht mehr sind), fallen im Gesamtbild, auf der Diagonalen, kaum auf. <- imo

mczak
2018-09-26, 16:13:58
Ich habe jetzt schon mehrmal gehört, dass Turing angeblich der größte Schritt hinsichtlich der Architektur seit der 8800 GTX ist.

Ja das sagt Nvidia bei jeder Gelegenheit, was ich aber für Unsinn halte. IMHO war Fermi der deutlich grössere Schritt hinsichtlich Architektur.
Ansonsten sind die Aenderungen durchaus signifikant, allerdings gegenüber Volta anstatt Pascal ist Turing definitiv bloss ein Mini-Evolutiönchen. Abgesehen von den Tensor-Cores die ein paar neue Tricks können (nicht sicher ob die auch für was anderes als DLSS nutzbar sein werden?) und den RT-Fähigkeiten hat sich da so gut wie gar nichts getan.

Jetzt ist mMn hier die Frage, inwieweit sich das in den Treibern wiederspiegelt, also wie viel Optimierungspotential in Turing steckt.
Allzu viel darf man wohl (wie immer...) nicht erwarten. Auch wenn Volta nie als Gamingprodukt erschienen ist half der sicher trotzdem dass der Treiber schon ziemlich optimiert für Turing ist.

AffenJack
2018-09-26, 16:33:16
Ja das sagt Nvidia bei jeder Gelegenheit, was ich aber für Unsinn halte. IMHO war Fermi der deutlich grössere Schritt hinsichtlich Architektur.
Ansonsten sind die Aenderungen durchaus signifikant, allerdings gegenüber Volta anstatt Pascal ist Turing definitiv bloss ein Mini-Evolutiönchen. Abgesehen von den Tensor-Cores die ein paar neue Tricks können (nicht sicher ob die auch für was anderes als DLSS nutzbar sein werden?) und den RT-Fähigkeiten hat sich da so gut wie gar nichts getan.

Selbst gegenüber Volta sind die Änderungen nicht so klein ohne die RT Cores. Angefangen bei haufenweise neuen Shaderfeatures, über Speicherkompression, bis hin zu den Shadern an sich, die zwar High-Level wie bei Volta aussehen, aber anscheinend nochmal eine Überarbeitung erfahren haben, denn sonst wäre ein 4304 Shader Chip nicht bei gleichem Takt nur 5% langsamer als der 5120 Shader Chip.


Allzu viel darf man wohl (wie immer...) nicht erwarten. Auch wenn Volta nie als Gamingprodukt erschienen ist half der sicher trotzdem dass der Treiber schon ziemlich optimiert für Turing ist.

Die Performance dürfte weniger durch Treiber ansteigen, als durch die Verwendung von Dingen die auf GCN gut laufen, aber auf Pascal nicht so gut. Turing sollte da deutlich robuster sein und besser mit GCN optimierten Code klarkommen.

Dural
2018-09-26, 16:47:41
Fermi? Meinst du nicht Kepler?

mczak
2018-09-26, 17:23:45
Fermi? Meinst du nicht Kepler?
Nein, Kepler war nicht so ein grosser Schritt. Klar kein Hotclock mehr aber die Organisation im Grossen und Ganzen blieb da gleich (gut die SM sind viel grösser geworden).
IMHO unterschätzt man gerne was für ein grosser Schritt Fermi war. Was wohl daran liegt dass es als Produkt nicht so toll war - sehr spät dran mit DX11, massive Fertigungsprobleme (was ganz konkret sowohl auf die Performance wie Perf/W drückte), zumindest in der 1. Generation. Aber Fermi brachte den unified L2 und die Aufteilung des Frontends. Klar so direkt sind das keine Features die man bewerben kann...

mczak
2018-09-26, 17:31:40
Selbst gegenüber Volta sind die Änderungen nicht so klein ohne die RT Cores. Angefangen bei haufenweise neuen Shaderfeatures, über Speicherkompression, bis hin zu den Shadern an sich, die zwar High-Level wie bei Volta aussehen, aber anscheinend nochmal eine Überarbeitung erfahren haben, denn sonst wäre ein 4304 Shader Chip nicht bei gleichem Takt nur 5% langsamer als der 5120 Shader Chip.

Gab's da mal einen Vergleich mit fixem Takt? Habe ich wohl verpasst.
Was Volta bei FB-Kompression kann hat Nvidia nie erwähnt, ich denke aber auch die ist auf demselben Level wie bei Pascal (bringt ja nichts für Compute).
Und so "haufenweise" neue Shaderfeatures gibt's auch wieder nicht. Na gut ein paar, aber insgesamt sind die Unterschiede zwischen Pascal und Volta doch massiv grösser als die Unterschiede zwischen Volta und Turing.

pixeljetstream
2018-09-26, 19:36:21
Turing hat extrem viele Features und Umbauten bekommen, nicht umsonst verging soviel Zeit. Das ist keine externe Propaganda. Allerdings sind einige Sachen halt nicht in öffentlichen Whitepapern gelandet.

AffenJack
2018-09-26, 20:49:49
Gab's da mal einen Vergleich mit fixem Takt? Habe ich wohl verpasst.
Was Volta bei FB-Kompression kann hat Nvidia nie erwähnt, ich denke aber auch die ist auf demselben Level wie bei Pascal (bringt ja nichts für Compute).
Und so "haufenweise" neue Shaderfeatures gibt's auch wieder nicht. Na gut ein paar, aber insgesamt sind die Unterschiede zwischen Pascal und Volta doch massiv grösser als die Unterschiede zwischen Volta und Turing.

Jo vorn Hardwareluxx
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=26

Volta hat sich stark im Computebereich verändert und das wurde für Turing übernommen, aber im Grafikbereich ist Turing deutlich anders. Volta ist im Grafikbereich eher ein Pascal, als ein Turing.

mczak
2018-09-26, 21:11:41
Turing hat extrem viele Features und Umbauten bekommen, nicht umsonst verging soviel Zeit. Das ist keine externe Propaganda. Allerdings sind einige Sachen halt nicht in öffentlichen Whitepapern gelandet.
Ok da fand schon eine Evolution statt. Bloss es hat eben seinen Grund wieso die schöne Klötzchengrafik mit den SMs bei Volta genau so aussieht wie bei Turing.
Trotzdem finde ich der Schritt in der Architektur war bei Fermi deutlich grösser, auch wenn man Volta + Turing zusammennimmt.

(Im Uebrigen gab's z.B. selbst zwischen Maxwell 1 und Maxwell 2 relativ deutliche Unterschiede, die stehen dann auch nirgends prominent erwähnt, da verwischt dann der Generationenbegriff.)

mczak
2018-09-26, 21:18:53
Jo vorn Hardwareluxx
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=26

Volta hat sich stark im Computebereich verändert und das wurde für Turing übernommen, aber im Grafikbereich ist Turing deutlich anders. Volta ist im Grafikbereich eher ein Pascal, als ein Turing.
Ah, netter Test. Da hat sich tatsächlich etwas getan. Wobei die Unterschiede zwischen Turing und Volta jetzt einheitenbereinigt nicht so dramatisch sind (abgesehen von Wolfenstein II). (Gegenüber Pascal hat da Turing hingegen massiv zugelegt, die RTX 2080 sollte ja von den Rohdaten her bei gleichem Takt keine Chance haben gegen die 1080Ti und schlägt sie des öfteren.)

robbitop
2018-09-26, 21:48:14
denn sonst wäre ein 4304 Shader Chip nicht bei gleichem Takt nur 5% langsamer als der 5120 Shader Chip.



Es ist außerdem aber noch fraglich, ob man die Spieleoptimierungen für die Volta-Arch auch vergleichbar zu Turing/Pascal getrieben hat. Eher unwahrscheinlich, wenn man bedenkt, welche Zielgruppe GV100 hat...

pixeljetstream
2018-09-26, 23:23:33
@mczak Fermi ist wie Du sagst der Chip der den Grundaufbau für vieles gelegt hat und gerade die Grafikpipeline ist im wesentlichen seit dem unverändert. Ich war damals nicht dabei, aber seit dem war Turing sicherlich vom Arbeitsaufwand am größten, für sw + hw + devtech Teams, daher der Vergleich mit g80. Es geht um die Gesamtanstrengung, das man noch nicht am Ende ist merkt ihr ja ;) im Prinzip geht es erst los, weil soviel neuer Kram. Und bei Entwicklern kommt der Chip gut an, da er einen größeren Sprung in Sachen hybrid Engines der Zukunft macht.

GP100 hatte auch schon den anderen Aufbau mit mehr SMs. Also beim Schaubildervergleich Volta vs Pascal ist relevant welcher Pascal.

mczak
2018-09-27, 00:09:00
@mczak Fermi ist wie Du sagst der Chip der den Grundaufbau für vieles gelegt hat und gerade die Grafikpipeline ist im wesentlichen seit dem unverändert. Ich war damals nicht dabei, aber seit dem war Turing sicherlich vom Arbeitsaufwand am größten, für sw + hw + devtech Teams, daher der Vergleich mit g80. Es geht um die Gesamtanstrengung, das man noch nicht am Ende ist merkt ihr ja ;) im Prinzip geht es erst los, weil soviel neuer Kram. Und bei Entwicklern kommt der Chip gut an, da er einen größeren Sprung in Sachen hybrid Engines der Zukunft macht.

Klar von Pascal -> Turing ist schon ein grosser Schritt. Aber auch wenn's keine Consumer HW gab mit Volta halt eigentlich unterteilt in 2, und so wahnsinnig gross sehen die für mich nicht aus.


GP100 hatte auch schon den anderen Aufbau mit mehr SMs. Also beim Schaubildervergleich Volta vs Pascal ist relevant welcher Pascal.
Das ist richtig aber der hatte noch separaten L1 / shared cache (und kein dual dispatch), das sieht man auch auf diesen netten Bildern.

pixeljetstream
2018-09-28, 10:31:37
@mczak, we agree to disagree ;)

Blog zum CUDA 10 launch
https://devblogs.nvidia.com/cuda-10-features-revealed/

gibt eine neues profiling tool "nsight compute"
https://docs.nvidia.com/nsight-compute/NsightCompute/graphics/profiler-report-pages-source.png

bin sehr froh dass nsight nun standalone ist und aufgeteilt wurde in "nsight compute" und "nsight graphics", jetzt müssten nur noch die compute-shader analyse tools im graphics paket so gut wie bei cuda werden

y33H@
2018-09-28, 10:50:09
Hab's gestern gesehen und wollte mit CUDA10 und cuDNN 7.3 dann Tensorflow anwerfen, aber zumindest unter Win10 bin ich an einer fehlenden DLL gescheitert ... mal in Ruhe anschauen :(

Chris Lux
2018-09-28, 10:52:51
@mczak, we agree to disagree ;)

Blog zum CUDA 10 launch
https://devblogs.nvidia.com/cuda-10-features-revealed/

gibt eine neues profiling tool "nsight compute"
https://docs.nvidia.com/nsight-compute/NsightCompute/graphics/profiler-report-pages-source.png

bin sehr froh dass nsight nun standalone ist und aufgeteilt wurde in "nsight compute" und "nsight graphics", jetzt müssten nur noch die compute-shader analyse tools im graphics paket so gut wie bei cuda werden
Nsight Systems nicht vergessen. Nur damit gibt es für CUDA noch Timelines für aktuelle GPUs.

Digidi
2018-09-28, 12:36:01
https://abload.de/img/nvidia-turing-l1-l2-cf3fps.jpg
https://videocardz.com/newz/nvidia-upgrades-l1-and-l2-caches-for-turing

Etwas weniger unified Cache (96KB vs. 128KB) im Vergleich zu Volta, aber nach wie ein mächtiges Upgrade im Vergleich zu Pascal.
AMD sollte indem Zug auch dringend ihre Cache-Struktur verbessern.
Deren L1$ ist gerade mal 16KB groß und hat über 110 Zyklen Latenz, Pascal liegt bei 82 und Volta bei gerade mal 28, Turing wird wohl ähnlich niedrige Latenzen wie Volta haben.

Sebbie hat jetzt einen Benchmark dazu gemacht. Kann vielleicht mal jemand testen?

https://mobile.twitter.com/SebAaltonen/status/1045617860461178880

Locuza
2018-09-28, 13:03:13
Willst du die Ergebnisse noch extra verifiziert haben?

Digidi
2018-09-28, 13:16:47
Willst du die Ergebnisse noch extra verifiziert haben?
Ja es wäre mal Interessant was da in Wirklichkeit bei realen Anwendungen rauskommt. Ich vermisse Syntetische Benchmarks. 1 mal sollen sie wirlich nur die Latenz benutzen und dann mal die Latenz an einer fast realen auf latzen ausgelegten Test messen.

Digidi
2018-09-28, 14:09:07
Hier meine Ergebnisse Vega 64lc:

Locuza
2018-09-28, 14:42:12
Da fällt mir gerade der 2nd Stage Boss test ein, welcher auch nur in den Caches abläuft:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/PC-4K-Demo-Radeon-Geforce-Future-GPU-1187323/
http://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/3/#a5

GCN ist da sehr stark, mit Gen4/5 ging es noch einmal extra ab.
Turings Performance wäre nun interessant.

Digidi
2018-09-28, 15:03:11
@Locuza

Damals war Carsten noch an Board. Jetzt ist er bei Heise und die bekommen Ihre Karten erst später und ich weiß auch nicht ob Carsten da noch Benchmarks für GPUs macht.

Mir fehlen die Synthetischen Benchmarks sehr.

Locuza
2018-09-28, 16:44:46
Das ist echt sehr schade.
Hardware.fr macht dicht und hatte sowieso keinen Test dazu, The Techreport hat die B3D-Suite beim Review nicht mehr verwendet und ansonsten kenne ich keine Seite, welche die Karten bei den Durchsatzraten unter Synthies verglichen hat.

RLZ
2018-09-28, 18:11:31
Hab's gestern gesehen und wollte mit CUDA10 und cuDNN 7.3 dann Tensorflow anwerfen, aber zumindest unter Win10 bin ich an einer fehlenden DLL gescheitert ... mal in Ruhe anschauen :(
Cuda 10 und Tensorflow :confused:

hilo
2018-09-29, 00:32:56
Hardware Unboxed mit einem Versuch, sich zum jetzigen Zeitpunkt zumindest etwas näher an DLSS heranzurobben:

https://www.youtube.com/watch?v=nS58xlzZsLI

Edit: Und noch GamersNexus mit einem Versuch, RTX und Rasterized Graphics gegenüberzustellen: Wie überzeugend waren aus Sicht von GamersNexus Nvidias Demos bisher; was kann man (gegenüber RTX) cheaten, was eher nicht.

https://www.youtube.com/watch?v=eZgX4EfIiXc&list=UUhIs72whgZI9w6d6FhwGGHA&index=6

Spasstiger
2018-09-29, 01:49:24
Hardware Unboxed mit einem Versuch, sich zum jetzigen Zeitpunkt zumindest etwas näher an DLSS heranzurobben:

https://www.youtube.com/watch?v=nS58xlzZsLI
Ergo auf einem 4K-Monitor lieber jetzt mit einer GTX 1080 Ti in 1800p mit TAA/SMAA/whatever zocken, wofür die Karte auch genug Speicher hat, als mit einer teureren RTX 2080 hoffend darauf zu warten, dass die Wundertüte DLSS einen möglicherweise besseren Job macht und ihren Speichernachteil dadurch ausgleichen kann.

Ich warte auf 7 nm ...

PHuV
2018-09-29, 04:23:58
Ich warte auf 7 nm ...
Bis 2020.

Slipknot79
2018-09-29, 11:40:00
Ich warte auf 7 nm ...


Und die RTX Käufer warten auf DLSS und RT, und eigentlich auf die Ti-Grakas überhaupt lol. Immerhin ist die Zeitspanne zwischen DLSS+RT-Spiele und 7nm nicht so groß. :wink: :biggrin:

Kommt dieses Jahr überhaupt noch ein RT-Spiel außer BFV?

Ravenhearth
2018-09-29, 13:20:34
Ich könnte mir für Geforce RTX 3000 eine ähnliche Zeitspanne wie zwischen Maxwell und Pascal vorstellen, also ~1 Jahr und 9 Monate, was Mitte 2020 für 7nm bedeuten würde. Könnte Nvidia dann schon mit 7nm+/EUV kommen?

cR@b
2018-09-29, 16:53:25
Ich warte auf einen guten Preis der 2080 Ti aber hey die gibt es ja fast nur auf dem Papier :ugly: Also wird der Preis wohl bis 2020 auch nicht runter gehen. :D

Schnitzl
2018-09-29, 17:40:03
Ich könnte mir für Geforce RTX 3000 eine ähnliche Zeitspanne wie zwischen Maxwell und Pascal vorstellen, also ~1 Jahr und 9 Monate, was Mitte 2020 für 7nm bedeuten würde. Könnte Nvidia dann schon mit 7nm+/EUV kommen?
nVidia wird sicher keine Salamischeibe verschenken :D
2019/2020 kommt 7nm, 1 Jahr später EUV (oder 1,5 Jahre)
btw es gab auch keine GTX300 sondern gleich die 400, eventuell ist das diesmal auch wieder so?

Atma
2018-09-29, 17:47:20
Kommt dieses Jahr überhaupt noch ein RT-Spiel außer BFV?
Shadow of the Tomb Raider?

SKYNET
2018-09-29, 18:36:22
Shadow of the Tomb Raider?


patch kommt erst 2019.

y33H@
2018-09-29, 18:52:48
Sagt wer?

Lehdro
2018-09-29, 18:55:45
Sagt wer?
Wenn man böse ist: Erfahrung.
Wie lange hat es bei RotTR gedauert bis alles technische final implementiert war? Über 1 Jahr wenn ich mich richtig erinnere. ;)

Ravenhearth
2018-09-29, 19:36:14
nVidia wird sicher keine Salamischeibe verschenken :D
2019/2020 kommt 7nm, 1 Jahr später EUV (oder 1,5 Jahre)
btw es gab auch keine GTX300 sondern gleich die 400, eventuell ist das diesmal auch wieder so?
Aber nur weil die 300 rein für OEMs (https://de.wikipedia.org/wiki/Nvidia-GeForce-300-Serie) war (das gleiche bei der Geforce 800M). Ich bezweifle, dass sie eine OEM-exklusive 3000-Reihe aufsetzen.

Schnitzl
2018-09-30, 12:30:30
Aber nur weil die 300 rein für OEMs (https://de.wikipedia.org/wiki/Nvidia-GeForce-300-Serie) war (das gleiche bei der Geforce 800M). Ich bezweifle, dass sie eine OEM-exklusive 3000-Reihe aufsetzen.
stimmt, hatte ich vergessen
danke für die Korrektur :up:

JVC
2018-09-30, 15:24:00
so funktioniert Evolution aber nicht, wenn die finale Lösung die das leistet mit dem ersten Versuch schon gelöst wäre, wäre es ja einfach...

da die Thematik aber nicht einfach ist, braucht es Zwischenschritte ...

Schön und gut ...
Aber wieso soll ich für "unbrauchbare" Zwischenschritte so enorm viel Geld hinlegen ?
Ich bin auf jeden fall nicht bereit NV Geld für die Entwicklung "vorzustrecken".
Oder wie soll man den aktuellen Kostenpunkt, im Bezug auf die Rohleistung,
momentan verstehen ?
Für mich ist die Karte einfach, für das gebotene, viel zu teuer.


m.f.g. JVC

Normal bringt man ein Produkt vor dem Verkaufs Start zur marktreife.

p.s.: auf den Wunsch von PHuV hin poste ich das hier.
@JVC

Poste das doch bitte im Speku-Thread und nicht hier, es nervt. :rolleyes: Hier sollen nur Reviews rein und keine Meinungen.

p.s.:
Ist es wirklich eine Meinung das RT-Cores und DLSS-Upscaling im Moment nicht wirklich benutzbar sind ?
Oder ist es nicht eher eine Tatsache ?

Gouvernator
2018-09-30, 15:47:11
DLSS scheint bis jetzt der größte RTX Schwindel zu sein. Da braucht man erst gar nicht zu warten. Obwohl von den Daten her - am einfachsten bereitzustellen, und von der Kundenbasis bzw. PR Sicht am größten erwartet hat man von dem Zeug am wenigsten gesehen.

basix
2018-09-30, 15:58:39
Habe gerade die Stichworte zum Thread zum ersten mal gelesen. "Lederjacke kostet" :D:D

Gouvernator
2018-09-30, 16:14:24
Ja der Preis wirft schon ziemlich berechtigte Fragen auf: was man dafür sonst bekommen hätte? Es geht schon Richtung des Preises eines Führerscheins (Motorrad). Für eine Grafikkarte... Nein, danke.

pixeljetstream
2018-09-30, 16:41:23
Schön und gut ...
Aber wieso soll ich für "unbrauchbare" Zwischenschritte so enorm viel Geld hinlegen ?
Deine Frage des persönlichen Werts, war aber nicht die Aussage auf die ich geantwortet habe (welche war, erst eine "fertige" Lösung zu bringen, wobei fertig ja relativ subjektiv ist). Jede Technik ist ein Zwischenschritt, weil alles in Bewegung ist und wir ja immer eine nächste Generation haben, was ich mit den Beispielen zu nicht-RT ja angedeutet habe. Wie brauchbar oder nicht die Technik ist entscheiden die Entwickler und man wird es über die Zeit sehen wie sie die Sachen einsetzen. Wie bei allen anderen Dingen vorher auch. Aber ohne etwas zu haben, kann man es auch nicht verbessern.

JVC
2018-10-01, 17:40:46
Verdammt ich muss grad über einen klischeehaften beschissenen "Autovergleich" lachen ^^

Händler zum Kunden:
Klar der läuft locker *4K* Sachen und hat Mörder Durchzug !!
Schauen sie nur die "Messergebnisse" !!
--- der Kunde kauft gutgläubig ---

3 Wochen später ...

Händler zum Kunden:
Ja wir wissen das die *4K* nur mit *Spezial-Sprit* erreichbar sind ...
Aber wir arbeiten daran das *Er* möglichst bald erhältlich ist.
Und das vielleicht sogar nächstes Jahr schon !

m.f.g. JVC

p.s.: *xxx* mit beliebigem ersetzen ;)
Man könnte auch den *Händler* durch was anderes ersetzen :devil: ... *ein Schelm wer böses denkt*

=Floi=
2018-10-01, 21:18:21
mein moped aus 2004 braucht super plus!

jedes neue auto braucht dank partikelfilter heute asche freies long life motorenöl.

RLZ
2018-10-02, 11:54:27
Verdammt ich muss grad über einen klischeehaften beschissenen "Autovergleich" lachen ^^
Genau so läuft es doch heute bei Autos. :confused:

yamo
2018-10-02, 12:49:06
Ja der Preis wirft schon ziemlich berechtigte Fragen auf: was man dafür sonst bekommen hätte? Es geht schon Richtung des Preises eines Führerscheins (Motorrad). Für eine Grafikkarte... Nein, danke.

Genau dieser Gedanke (was bekomme ich für den Preis einer Ti+Wakü Block) hat mich meine Vorbestellung stornieren lassen. Ich gönne jedem seine RTX Ti.
Leider kann ich P/L der Rtx Ti nicht mit meinem Gewissen vereinbaren, obwohl es in den Fingern juckt;)

SKYNET
2018-10-02, 14:13:29
Genau dieser Gedanke (was bekomme ich für den Preis einer Ti+Wakü Block) hat mich meine Vorbestellung stornieren lassen. Ich gönne jedem seine RTX Ti.
Leider kann ich P/L der Rtx Ti nicht mit meinem Gewissen vereinbaren, obwohl es in den Fingern juckt;)


das unterscheidet logischdenkende menschen von spontandenkenden menschen... erstere werden längere freude haben, letztere nur kurzzeitig... :smile:

=Floi=
2018-10-02, 18:23:58
das unterscheidet logischdenkende menschen von spontandenkenden menschen... erstere werden längere freude haben, letztere nur kurzzeitig... :smile:

nur funktioniert das bei der 1080ti gegen die 2080ti nicht!
Beide scheitern an den 11gb. Da mag die 2080er auch ihre 40 bis best case wohl noch 60% (spiel darauf optimiert) schneller werden, aber am ende vom tag haben beide nur 11gb und die RTX ist dafür auch teurer. So fair muss man schon sein.

PHuV
2018-10-02, 18:43:25
Schön und gut ...
Aber wieso soll ich für "unbrauchbare" Zwischenschritte so enorm viel Geld hinlegen ?
Ich bin auf jeden fall nicht bereit NV Geld für die Entwicklung "vorzustrecken".

Falls Dir das nicht aufgefallen ist: Läuft seit ca. 40 Jahren in der IT so. Wenn Du das nicht glauben magst, schau Dir mal die Geschichte um dem Altair 8800 oder allgemein Dokus über die Anfänge des Computers an. Nimm dazu die ersten PCs, Macs, Amigas, Ataris...., die Kisten wurden verkauft, und es dauerte ca. 1-2 Jahre, bis überhaupt mal jemand die Dinger gut programmieren geschweige denn gute Programme auf den Markt werfen konnte.

Armaq
2018-10-02, 20:37:38
Kann ein 2080/Ti Besitzer was zum RAM-OC sagen?

Ex3cut3r
2018-10-02, 21:30:55
Kann ein 2080/Ti Besitzer was zum RAM-OC sagen?

+800 Stabil bei mir, mehr bringen Bildfehler.

Platos
2018-10-02, 21:58:14
Hat hier eigentlich jemand 2 RTX 2080TI gekauft ^^ ? Also im SLI Verbund bzw. NVLink

Armaq
2018-10-03, 09:49:53
+800 Stabil bei mir, mehr bringen Bildfehler.
Wie wirkt sich das auf die Performance aus? Hast mal was getestet?

gbm31
2018-10-03, 11:50:47
Wie wirkt sich das auf die Performance aus? Hast mal was getestet?

Eigentlich sollte weit vor den Bildfehlern die Performance im Vergleich zur Takterhöhung zurückgehen aufgrund der steigenden Fehlerrate.

Ich hatte da mal ein bisschen gebencht als ich die 1070Ti geholt hab.

Tatsächlich ist ab +700MHz der Gewinn zurückgegangen, deswegen fahr ich +500 24/7.

Nach oben haben z.B. bei Witcher 3 jede 100MHz messbar (= >3) Min-Frames gebracht.

Ex3cut3r
2018-10-03, 12:11:39
Wie wirkt sich das auf die Performance aus? Hast mal was getestet?

Ja, sind meiner Auflösung 3440x1440 und je nach Game 5-10% in Verbindung mit Core OC @ 2100-2025 sind es dann auch schon mal 15%

@gbm31 Welche RTX hast du? Die Frage von Amaq bezieht sich auf die RTX und GDDR6, und da ist das ebend nicht so, dass man z.B ab +700 FPS verliert, in Gegenteil skaliert sogar noch bei +1000 aber erzeugt bei mir leider Bildfehler.

Armaq
2018-10-03, 12:39:50
Ich hab bei Odyssey mal den Speichertakt angehoben und den internen Benchmark genutzt. Da bringt RAM OC wirklich einiges in min, max und avg fps (3 fps min, 27 max ist ja nun nicht wenig). Hatte immer eher konservative +95 auf der 1080 und bin jetzt auf +295 hoch.

SKYNET
2018-10-03, 14:11:21
in anbetracht der tatsache das es nahezu linear mit dem speichertakt auch mit den frames nach oben geht bei meiner 1080Ti, die 2080Ti 30% schneller ist, aber nur 10% mehr bandbreite hat als jetzt meine zb. als max. wird sie wohl derbe verhungern, genau wie es schon die 1080Ti tat. bei der 2080 dürfte es sogar noch ausgeprägter sein, gleiche leistung wie die 1080Ti aber nur 448GB/s...