Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

vinacis_vivids
2018-08-02, 22:19:21
Man könnte auch 1Gb und 2Gb Stacks kombinieren aka 8+4=12Gb
8Gb wäre das Todesurteil.

Bucklew
2018-08-02, 22:22:02
8Gb wäre das Todesurteil.
Nö. Es gibt keinerlei Konkurrenz mit mehr als 8GB, außer im eigenen Hause.

Tesseract
2018-08-02, 22:30:15
Man könnte auch 1Gb und 2Gb Stacks kombinieren aka 8+4=12Gb

sicher nicht, da hätte ein teil des adressraums weniger bandbreite als der rest.

Linmoum
2018-08-02, 22:54:50
Nö. Es gibt keinerlei Konkurrenz mit mehr als 8GB, außer im eigenen Hause.
Eben. Aber klar, die Leute mit 'ner 1080ti werden sicherlich aufrüsten, wenn die 2080 3GB weniger zu bieten hat.

Das spricht die Käufer von >500€-GPUs sicherlich an, wenn man ihnen jetzt noch einmal 8GB vorsetzt.

Ex3cut3r
2018-08-02, 22:58:27
Sehe ich auch so, 8GB waren vor 3 oder 2 Jahren sexy. Aber ende 2018, also bitte....sollen sie meiner Meinung nach +100 Teurer sein, aber bloß keine 8GB Versionen Only, von meiner 1070er sehe ich psychologisch kein Upgrade.

Birdman
2018-08-02, 23:00:32
Man könnte auch 1Gb und 2Gb Stacks kombinieren aka 8+4=12Gb
GTX970 FTW?
8GB mit 256bit und 4GB mit 128bit angebunden und man kann nur entweder/oder darauf zugreifen? Dümmer gehts nümmer, hat uns die Vergangenheit gelehrt.

Daredevil
2018-08-02, 23:09:13
Was isn mit der Rückseite der GPU, da wäre doch theoretisch auch Platz für mehr RAM?
Das man 16 Chips nicht auf eine Seite bekommt, ist doch recht logisch, oder nicht?

RLZ
2018-08-03, 00:28:19
In den Gaming-Karten wirds aber auch der einzige Usecase bleiben ;-)
Hoffen wir doch mal nicht. Es gibt eine lange Liste von für Spielen relevanten Dingen, die davon profitieren könnten.

maximus_hertus
2018-08-03, 01:18:55
8Gb wäre das Todesurteil.

Für AMD? Jo, das kann sein. 8 GB Next-Gen-Geforce zu guten Preisen (dank der nur 8 GB) - das wäre bitter für AMD.

horn 12
2018-08-03, 06:57:01
Igor sagte dass es nicht Billig wird und erst gar nicht Billiger als es jetzt schon ist.
Dies wird laut Ihm auch der Knackpunkt der Neuen Turing , Ampere Karten sein.
16 GB Gddr 6 Karten würde ich deshalb auch mit mindestens 800+ Euro erwarten,
Customs werden zumindest die 16 GB anbieten, vielleicht aber erst zum Spätherbt hin...

bertramfx
2018-08-03, 07:55:45
https://www.computerbase.de/2018-08/nvidia-grafikkarten-gtx-2070-gtx-2080-ampere/

Mit ein bisschen AI-background könnte man folgendes mutmaßen:

- Turing als (Semi-) Profi Chip mit unvollständigem bis vollumfaenglichem TensorCore support, eventuell später als Ampere und besserer Prozess als 12nm (man denke an den Turing Test für intelligentes maschinelles Verhalten)

- Ampere als 12nm Gamer Chip mit keinem bis unvollständigen TensorCore support

HOT
2018-08-03, 08:09:03
Ampere ist garantiert nicht 12nm. Da würd ich eher auf 7 schätzen. Würde ja auch passen: Turing 11xx -> 12nm, Pascal Erweiterung, Ampere 20xx -> komplettes Lineup (irgendwann).
Turing = Volta = Gen.3, Ampere = Gen.4 (lief mal durch die Gerüchteküche).
Turing Gamer = GV104 = 2560 Shader mit mehr Takt und GV102 Salvage = 3840 Shader (recht stark kastriert, der Rest wandert in den Profibereich), darüber GA 104 mit 3840 Shadern und 4600 Shadern und deutlich mehr Takt in 7nm.
Würde also bedeuten:
1170 = 1080 Performance (2048 Shader + mehr Takt und besserer RAM)
1180 <= 1080 Ti Performance (2560 Shader + mehr Takt und besserer RAM)
1180 -> 30% über 1080Ti (3840 Shader + etwas mehr Takt)
2070 -> 50% über 1080Ti (3840 Shader + viel mehr Takt)
2080 -> 80% über 1080Ti (4600 Shader Vollausbau + viel mehr Takt) @ ca. 330mm².

mit 7nm sind solche Sprünge auch realistisch. Den GV102 würde man eben primär im Profibereich platzieren und Ampere ganz langsam ab 2019 auf den Markt sickern lassen. Erst GA104 so ab April, dann GA106 und GA102 im Laufe des Jahres. Natürlich würden die dann doppelt soviel Speicher bekommen. Bis dahin bekommt man sicherlich auch echte 16Gbit-Chips oder man verwendet die 2. HBM-Generation (ich seh schon den Fanboyaufschrei, aber HBM ist auch nur scheiss normaler Speicher, schließt nicht immer sofort alles aus, nur weil es euch nicht in den Kram passt).

ShinyMcShine
2018-08-03, 08:24:12
Insgeheim hoffe ich ja, dass die nächste Generation (20xx/11xx, wie immer die jetzt auch heissen mag bzw. welcher Chip es ist) keinen so großen Sprung macht. Somit kann ich beruhigt auf meiner 1080 OC sitzen und auf die dann (hoffentlich) schnell darauf folgende Generation warten, welche dann mit 7nm einen großen Leistungssprung hinlegt. :tongue:

Schnäppchenjäger
2018-08-03, 08:25:12
Sehe ich auch so, 8GB waren vor 3 oder 2 Jahren sexy. Aber ende 2018, also bitte....sollen sie meiner Meinung nach +100 Teurer sein, aber bloß keine 8GB Versionen Only, von meiner 1070er sehe ich psychologisch kein Upgrade.Vor 4 Jahren waren 2GB VRAM noch genug :wink:
Prolls hatten halt 4.
Wenn man von 8 nun wieder aufsteigt, ist das schon eine Kiste. 12 reichen mehr als dicke beim Highendmodell.

HOT
2018-08-03, 08:27:16
Vorsicht, zu 32Bit-Zeiten waren 2GB noch genug. Sobald die Schallmauer mit den neuen Konsolen durchbrochen wurde, ist der Speicherverbrauch ziemlich gestiegen. Bei GV104 sind 8GB absolut sicher mMn, bei GV102 die 11GB ebenfalls. GA104 wird mMn 16GB bekommen, egal ob mit 2200MHz HBM2 oder 18Gbps 16Gbit GDDR6 (ersteres wird produziert, letzteres ist erst in 2019 überhaupt zu erwarten). Überigens HBM wäre in der derzeitigen Liefersituation ein Grund, Volta eben doch noch zu bringen und Ampere zu verschieben. In 2016/7 war schließlich kaum absehbar, dass SKHynix solche Produktionsprobleme bekommen würde.

Bucklew
2018-08-03, 09:39:56
Fährt eigentlich irgendwer am 20. nach Köln?

Cubitus
2018-08-03, 09:43:18
Fährt eigentlich irgendwer am 20. nach Köln?

In die überfüllten und stickigen Hallen, einmal und nie wieder ;D

Lieber Livestream

Kriton
2018-08-03, 12:28:27
sicher nicht, da hätte ein teil des adressraums weniger bandbreite als der rest.

Das hatten wir doch schon mal. SCNR.:weg:

Ex3cut3r
2018-08-03, 15:34:10
Vor 4 Jahren waren 2GB VRAM noch genug :wink:
Prolls hatten halt 4.
Wenn man von 8 nun wieder aufsteigt, ist das schon eine Kiste. 12 reichen mehr als dicke beim Highendmodell.

Vor 4 Jahren? Da kam Maxell mit 4GB und Hawaii war schon ende 2013 mit 4GB Verfügbar, 2GB waren 2012 mit Kepler noch der Shieeet, aber schon ende 2013 mit den ersten Konsolen Ports war das schon in FHD zu wenig. Ich erinnere mich noch gut an die Kommentare hier, wie z.B "VRAM Voll" Oder ruckelt...speicher voll." Wer schlau war, hatte sich 2013 mit der Geforce 7er Serie eine Partnerkarte mit 4GB geholt, musste zwar 40-50€ mehr dafür auf den Tisch blättern, könnte nun aber gut leben. Ich selbst hatte 2013 noch eine GTX 770 mit 2GB geholt, das war bei Games Anfang/Mitte 2014 schon der Fail, ich weiß noch wie ich bei diesen Games die Texturen runterstelle musste, Wolfenstein TNO, Mittelerde: Mordors Schatten, Dragon Age: Inquisition, Watch Dogs 1, Assassin’s Creed Unity.

Hübie
2018-08-03, 18:19:29
Ich habe die letzten Seiten nur überflogen und den ersten Beitrag editiert. Wenn was fehlt melden. Die Bilder vom PCB pflege ich später ein.

Ampere machte für mich von Anfang an Sinn.

Schnäppchenjäger
2018-08-03, 18:32:30
Vor 4 Jahren? Da kam Maxell mit 4GB und Hawaii war schon ende 2013 mit 4GB Verfügbar, 2GB waren 2012 mit Kepler noch der Shieeet, aber schon ende 2013 mit den ersten Konsolen Ports war das schon in FHD zu wenig. Ich erinnere mich noch gut an die Kommentare hier, wie z.B "VRAM Voll" Oder ruckelt...speicher voll." Wer schlau war, hatte sich 2013 mit der Geforce 7er Serie eine Partnerkarte mit 4GB geholt, musste zwar 40-50€ mehr dafür auf den Tisch blättern, könnte nun aber gut leben. Ich selbst hatte 2013 noch eine GTX 770 mit 2GB geholt, das war bei Games Anfang/Mitte 2014 schon der Fail, ich weiß noch wie ich bei diesen Games die Texturen runterstelle musste, Wolfenstein TNO, Mittelerde: Mordors Schatten, Dragon Age: Inquisition, Watch Dogs 1, Assassin’s Creed Unity.Naja, auch 2014 hatten viele noch Karten mit 2GB VRAM. Das hat dicke gelangt für CS:GO, LoL und weiß der Geier für was für Games. Sicher, es war nicht ordentlich, aber mit 2GB konnte man auch aufwendigere Singleplayertitel zocken, wenn ma nein paar Details reduziert.
Ich kann mich noch erinnern, als dann 4GB Modelle kamen und ich einen Ständer gekriegt habe. Boah..... das reicht doch bestimmt bis auf weitere 5 Jahre!! Was haben wir jetzt? Leute sagen 8GB sind das Minimum, besser noch man hat 12GB oder sogar mehr für die nächsten Jahre ;D
Nicht vergessen, dass der Großteil der Gamingrechner sowieso veraltet sind :biggrin:

Tesseract
2018-08-03, 18:47:50
"konsole" ist das zauberwort. assets, genutzte effekte usw. richten sich nach der breiten masse und dementsprechend gibt es die großen sprünge immer kurz nach der neuen konsolengeneration. es war absolut absehbar, dass 4GB ab 2014 sehr schnell sehr knapp werden wird, 8GB jedoch für alle die nicht unbedingt alles auf maximum stellen müssen bis ~2020 reichen wird.

Triniter
2018-08-03, 19:18:05
Naja, auch 2014 hatten viele noch Karten mit 2GB VRAM. Das hat dicke gelangt für CS:GO, LoL und weiß der Geier für was für Games. Sicher, es war nicht ordentlich, aber mit 2GB konnte man auch aufwendigere Singleplayertitel zocken, wenn ma nein paar Details reduziert.
Ich kann mich noch erinnern, als dann 4GB Modelle kamen und ich einen Ständer gekriegt habe. Boah..... das reicht doch bestimmt bis auf weitere 5 Jahre!! Was haben wir jetzt? Leute sagen 8GB sind das Minimum, besser noch man hat 12GB oder sogar mehr für die nächsten Jahre ;D
Nicht vergessen, dass der Großteil der Gamingrechner sowieso veraltet sind :biggrin:
Auch wenn es OT ist: was hätte man denn vor vier Jahren für Monitore? Da war alle über FullHD quasi nicht existent. Und mit 4gb kommst heute in der Auflösung immer noch gut zurecht wenn man nicht zwanghaft alles auf Ultra+ setzten muss.

Dr. Lloyd
2018-08-03, 20:04:54
Auch wenn es OT ist: was hätte man denn vor vier Jahren für Monitore? Da war alle über FullHD quasi nicht existent.
Von welchem Planeten stammst du denn? Also ich komme vom Planeten Erde. Dort hatte ich bereits im Jahre 2008 einen WQXGA-Monitor. Mit seinen 2560x1600-Bildpunkten, hatte dieser schon vor 10 Jahren mehr als die doppelte Auflösung von Full HD. Und das war nicht der erste Monitor seiner Art. Denn das "Apple Cinema HD Display 30" kam schon vier Jahre früher, also nach aktueller Sternzeit vor 14 Jahren.

Thunder99
2018-08-03, 20:08:42
Von 2 auf 4 sind es halt nur 2GB mehr. Bei 8 zu 16 gleich 8GB :wink:. Ein Dilemma für den Chipbauer da es zwar die Kundschaft wünscht aber extrem teuer ist. Soll es dann in Zukunft 16 -> 32 -> 64 -> 128GB werden?? :freak:
Da sollten eher die Entwickler wieder mit Engines kommen die am VRAM Verbrauch sparen anstatt verschwenderisch zu sein ;)

Ich sage es werden 8 und manche Boardpartner bringen dann 16GB Modelle mit einem dicken Aufpreis!

Thunderburne
2018-08-03, 20:46:19
Kann mir net so richtig vorstellen das man eine schnellere Karte als die 1080Ti bringt und dann weniger Ram verbaut.
Bei der 980Ti zur GTX 1080 gab es ja auch 2GB mehr.
Im Fall der GTX1080Ti wären das 5GB mehr bei 16GB.
Mmh naja mal schauen.

Troyan
2018-08-03, 20:51:10
Eventuell bringt nVidia zwei Versionen. Eine günstigere mit 8GB und eine teure mit 16GB. Damit gewahrt man das Gesicht und bietet Leuten die Möglichkeit, sich das gewünschte Produkt zu kaufen.

16GB werden ja alleine wegen dem Quadro-Markt benötigt.

Thunderburne
2018-08-03, 20:57:20
Mit 16GB würde man natürlich mehr Zukunftssicherheit sugerieren und könnte die Karten so auch deutlich höherpreisig an den Mann Frau bringen.
Zugzwang die Karten billig zu verkaufen haben die nicht.
Ich denke mal es würde einige Leute geben die 899 + zahlen für solch eine Karte.
Mit 192Bit könnte man gut eine *070 mit 12GB bringen.
So schuffe man auch einen Abstand zwischen GTX *070 und *080 und hätte sogar noch Platz für eine *075Ti mit 14 GB.

Skysnake
2018-08-03, 20:57:41
Also nvlink auf so ner Karte empfinde ich also größte Überraschung.

Mal sehen was daraus wird

Troyan
2018-08-03, 21:18:11
Der Siggraph Youtube-Channel hat ein "Huang Special Event" für den 14.08 1Uhr nachts angekündigt: https://www.youtube.com/watch?v=9dwkDrS7HV0

Ex3cut3r
2018-08-03, 21:22:41
Ich sage es werden 8 und manche Boardpartner bringen dann 16GB Modelle mit einem dicken Aufpreis!

Hoffentlich, und den Aufpreis zahle ich gerne, will einfach keinen Speicherkrüppel ab 2020 haben, wo die Rohleistung in Ordnung ist, aber der Speicher zu eng ist, beim Wiederverkauf sollten 16GB auch besser dastehen.

Sollte es es wirklich nur 8GB only Karten geben, dann werde ich wohl weiter mit 1070er verweilen, mich haben Sie dann als Kunden verloren und ich warte auf die nächste Gen oder die kommende Ti Version.

Grendizer
2018-08-03, 21:24:58
Hoffentlich, und den Aufpreis zahle ich gerne, will einfach keinen Speicherkrüppel ab 2020 haben, wo die Rohleistung in Ordnung ist, aber der Speicher zu eng ist, beim Wiederverkauf sollten 16GB auch besser dastehen.


Die Frage ist halt ob der momentan doch zu erwartende Aufpreis wirklich gut investiert ist. In 2 Jahre könnte der Speicherpreise dann doch wieder günstiger sein, so das man mit Verkauf eines 1180 8 Gb Speicherkrüppels dann in 2020 vieleicht das bessere Geschäft macht.

Thunder99
2018-08-03, 21:58:41
Hoffentlich, und den Aufpreis zahle ich gerne, will einfach keinen Speicherkrüppel ab 2020 haben, wo die Rohleistung in Ordnung ist, aber der Speicher zu eng ist, beim Wiederverkauf sollten 16GB auch besser dastehen.

Sollte es es wirklich nur 8GB only Karten geben, dann werde ich wohl weiter mit 1070er verweilen, mich haben Sie dann als Kunden verloren und ich warte auf die nächste Gen oder die kommende Ti Version.
Verstehe ich gut und ganz. Nvidia hat aber schon mit der Titan X(m) und Titan Xp gezeigt dass nicht immer mehr Speicher sein muss.

Eine 1080Ti ist auch in 2020 noch schnell genug vermute ich und mit 11Gb mehr als gut gerüstet :)

Ex3cut3r
2018-08-03, 22:05:43
Ich bin da anscheinend anders gestrickt, ich sehe psychologisch nicht wirklich ein Upgrade bei 1070 8GB auf 2070 8GB, ja schnellere Frameraten für 3440x1440 die echt gut gebrauchen könnte, aber mein Hirn sagt mir da, nein...vlt. bin ich auch komisch. :freak:

Eigentlich wäre ja auch so eine 1180/2080 noch optimaler für 3440x1440. :cool:

MasterElwood
2018-08-03, 22:21:28
https://cdn.videocardz.com/1/2018/08/NVIDIA-Jensen-Huang-special-event.jpg

Hübie
2018-08-04, 01:05:06
Der Siggraph Youtube-Channel hat ein "Huang Special Event" für den 14.08 1Uhr nachts angekündigt: https://www.youtube.com/watch?v=9dwkDrS7HV0

Da wird er wohl wieder unvermittelter Dinge hinter einem Vorhang hervor kommen und etwas präsentieren, was alle sabbern lässt, die es sich leisten können / wollen / dürfen. ;D

=Floi=
2018-08-04, 04:28:18
10000€ geforce :ugly:

Cubitus
2018-08-04, 06:34:14
Seine 3000 Euro Karten darf Mr. Leather Jacket behalten.
Können ja, wollen nein :P

Aber im Ernst:
Das neue LineUP wird den Markt komplett bedienen

150-500 Euro (Einsteiger, OEM)
500-1000 Euro (Mid-Range, Gamer) --> 20xx Modelle
1000-2000 Euro (High Performance Gamer) --> TI Modelle, "kleine Titan",
2000-3500 Euro (Enthusiast-Professional) --> Top Dog, "große Titan" , Titan V war dafür quasi das Experiment.

Natürlich nur geraten, in der Annahme das ich bei Nvidia die Marktanalyse erstellen müsste :biggrin:

Schön die Gamer melken und knechten, der Markt lässt es ohne wirkliche Konkurrenz zu. ;D

Schnäppchenjäger
2018-08-04, 07:49:12
Keiner muss sich eine Grafikkarte kaufen, Pascal Karten reichen immer noch. Die GPU behält man mindestens 3 Jahre.
GPUs sind für mich mittlerweile die Komponente, die am längsten haltbar sein sollen und müssen.
2 Zyklen sollte sie bei mir durchhalten, damit bin ich zufrieden ;)
Als Nicht-Enthusiast geht das locker.

x-force
2018-08-04, 10:20:44
die branche ist einfach nur noch kaputt durch die monopole.

für die größte karte habe ich bei nvidia früher noch 500dm bezahlt und das war schon sau teuer.
zum vergleich: der athlon 600 hat 600dm gekostet. vergleicht mit das mit aktuellen cpus dürften wir bei nicht mehr als 400 euro sein.

Dural
2018-08-04, 10:32:24
Was hat noch mal eine geforce 2 ultra gekostet? Oder eine 8800 ultra?

hasebaer
2018-08-04, 10:35:11
für die größte karte habe ich bei nvidia früher noch 500dm bezahlt und das war schon sau teuer.

1400DM für eine GeForce 2 Ultra
- http://www.chip.de/artikel/Acht-GeForce2-Pro-_Ultra-Karten-im-Vergleich-2_140042269.html

Für meine GF3 waren es auch über 1000DM.

Raff
2018-08-04, 10:36:01
D-Mark. :) Die Titan V ist übrigens zwischenzeitlich teurer geworden. Aber nur hierzulande. Lächerlich, bei diesen Summen auf den letzten Cent beim Wechselkurs zu bestehen.

MfG,
Raff

Grendizer
2018-08-04, 10:50:31
1400DM für eine GeForce 2 Ultra
- http://www.chip.de/artikel/Acht-GeForce2-Pro-_Ultra-Karten-im-Vergleich-2_140042269.html

Für meine GF3 waren es auch über 1000DM.

Ich glaube, das meine Geforce 2 GTS damals auch um die 700 DM gekostet hat.

gbm31
2018-08-04, 11:04:41
Ich glaube, das meine Geforce 2 GTS damals auch um die 700 DM gekostet hat.

Nicht ganz soviel, müsste sonst eine Pro gewesen sein.

Und ich habe mir damals nicht die Magazingehypte Asus GF2 GTS Pro geholt, sondern eine günstigere Noname (Leadtek meine ich) GTS und diese auf Pro übertaktet.

Hübie
2018-08-04, 11:17:50
Ersten Beitrag bearbeitet. Bitte mal anschauen und kritisieren. :D

TobiWahnKenobi
2018-08-04, 11:18:37
Ich glaube, das meine Geforce 2 GTS damals auch um die 700 DM gekostet hat.

AFAIR kam von der GF2 auch eine ultra für vierstellige deutschmärker..



(..)

mfg
tobi

x-force
2018-08-04, 11:19:44
1400DM für eine GeForce 2 Ultra
- http://www.chip.de/artikel/Acht-GeForce2-Pro-_Ultra-Karten-im-Vergleich-2_140042269.html

Für meine GF3 waren es auch über 1000DM.

neumodisches zeug. ich rede von der einzig wahren geforce, die 256 ohne ddr ;)

AMDoderNvidia
2018-08-04, 11:54:18
Irgendwie kann ich es immer noch nicht so richtig glauben, dass ~ 2 Jahre nach dem Pascal-Launch die Nachfolge-Generation so wenig fortschrittlich ist. Also nur ein 12nm Prozess und dann noch eine Erhöhung der TDP in den einzelnen Performanceklassen wirkt nicht so dolle.

Aus kauf-strategischer Sicht (oh Mann, was für ein Wort :freak:) vielleicht doch auf die 7nm Lithographie Karten warten?!

Will halt irgendwann mal mein R9 290X Crossfire Gespann ablösen. Unter Wasser gesetzt performen die aber immer noch sehr gut (bei meinen Spielen).

BlacKi
2018-08-04, 13:54:28
ich sehe auch keinen sinn darin das die 12nm karten so spät kommen sollen.

das pascal so lange nicht von dem next gen abgelöst wird kann unmöglich nur am gddr6 liegen. man hätte schließlich die käufer 2x schröpfen können. einmal mit 12nm im januar und 7nm 2019. und jetzt soll nv in Q3/18 erst mit 12nm kommen? ich glaub und hoffe auf einen GXx04/2 in 7nm in Q3/Q4.

Godmode
2018-08-04, 14:00:44
NV enttäuscht normalerweise nicht, bis auf die hohen Preise und manchmal zu wenig Speicher. Zum Glück fährt NV nicht die Intel-Strategie.

JaniC
2018-08-04, 14:08:56
Keiner muss sich eine Grafikkarte kaufen, Pascal Karten reichen immer noch. Die GPU behält man mindestens 3 Jahre.
GPUs sind für mich mittlerweile die Komponente, die am längsten haltbar sein sollen und müssen.
2 Zyklen sollte sie bei mir durchhalten, damit bin ich zufrieden ;)
Als Nicht-Enthusiast geht das locker.

Sehe ich komplett anders. GPU ist das, was limitiert und als erstes getauscht werden muss, sobald neue Karten auf den Markt kommen.

CPU hat man meistens 5 länger, alleine schon wegen der Konsolen. Klar, jetzt kommt endlich Bewegung rein mit mehr Kernen. Aber vorher konnte man 7 Jahre auf Sandy bleiben.

ChaosTM
2018-08-04, 14:17:20
Die GF2 Ultra hat mich damals so geärgert, dass ich anfing ATI Karten auszuprobieren und ich gemerkt habe, dass die gar nicht so schlecht sind. ;)

8GB wäre psychologisch (imho) falsch, auch wenn es für alle < 4k locker die nächsten paar Jahre reichen würde.

iuno
2018-08-04, 14:33:55
Nvidia hat die letzten Generationen bei der x80 immer mehr Speicher gebracht, auch wenn die Spruenge sehr unterschiedlich gross waren. Selbst als man bei den Chips jeweils auf die Gxx04 gegangen ist:
580 (1,5) -> 680 (2) -> 780/Ti (3) -> 980 (4)/980Ti (6) -> 1080 (8)

16 GiB waeren aber denke ich fuer eine 1180 zu viel, es sei denn man bringt diesmal keine neue Ti oder Titan und hat schon den groessten Chip der Serie. Vielleicht gibts ja mit GT104 drei Varianten, analog zu GP104 (spaeter): 1180 Ti mit 16 GiB, 1180 mit 12 und 1170 mit 10 ;D

Ex3cut3r
2018-08-04, 15:22:35
Sehe ich komplett anders. GPU ist das, was limitiert und als erstes getauscht werden muss, sobald neue Karten auf den Markt kommen.

CPU hat man meistens 5 länger, alleine schon wegen der Konsolen. Klar, jetzt kommt endlich Bewegung rein mit mehr Kernen. Aber vorher konnte man 7 Jahre auf Sandy bleiben.

Sehe ich auch so, je nach Auflösung verschiebt sich das ganze ja nochmal, ab Ivy i7 und 1440p kann jeder zugreifen.

=Floi=
2018-08-04, 17:50:10
weil du die 680er nicht dazuzählen darfst
580
780
980ti
1080ti



edit
Sehe ich auch so, je nach Auflösung verschiebt sich das ganze ja nochmal, ab Ivy i7 und 1440p kann jeder zugreifen.


ich habe bei der cpu das problem, dass ganz neue titel mit dem alten system besser laufen als die alten titel.
Destiny 2
Overwatch
BF 4
BF1

Voll krank, wie gut diese spiele optimiert wurden und was dort an performance zu holen ist.

Schnäppchenjäger
2018-08-04, 19:46:50
Sehe ich komplett anders. GPU ist das, was limitiert und als erstes getauscht werden muss, sobald neue Karten auf den Markt kommen.

CPU hat man meistens 5 länger, alleine schon wegen der Konsolen. Klar, jetzt kommt endlich Bewegung rein mit mehr Kernen. Aber vorher konnte man 7 Jahre auf Sandy bleiben.Äh nein? Wo bitte schön muss man aufrüsten? Selbst mit einer GTX 770 kann ich heute noch zocken, wenn auch mit etwas wenig fps.
Meine GTX 1060 reicht locker bis zur nächsten Nvidia-Generation.

Ich bin kein Enthusiast und zocke auf FullHD. Was soll da bitteschön nicht reichen? Nur weil CPUs länger haltbar sind, heißt das nicht, dass meine Sicht so fernab der Realität ist.

=Floi=
2018-08-04, 19:56:12
Der Vram reicht bei einer 780ti oft nicht mehr.
Für 80% der games kein problem, aber es kommen immer mehr neue titel, welche die 3gb grenze sprengen. Das ist definitiv ne verdammt große baustelle an der karte.

Oder man muss nur wegen dem vram die details runterdrhen, aber die fps sind auf über 60-80fps.

aufkrawall
2018-08-04, 20:07:39
Der Vram reicht bei einer 780ti oft nicht mehr.
Für 80% der games kein problem, aber es kommen immer mehr neue titel, welche die 3gb grenze sprengen. Das ist definitiv ne verdammt große baustelle an der karte.

Eher musst du in WQHD in 80% der Fälle Texturdetails reduzieren. Das war schon in Watch Dogs 2014 so...

=Floi=
2018-08-04, 20:26:06
ich red auch von 1080p/1200p
bezogen auf die 1060er, welche ja auch 6gb hat

vinacis_vivids
2018-08-04, 20:40:34
Was soll diese ganze OT Diskussion? Die letzten 20 Beiträge haben 0 Mehrwert.

=Floi=
2018-08-04, 20:49:03
du kaufst eh keine. ;D
für was liest du dann mit?!

die vram diskussion hat eigentlich schon was mit dem thema zu tun, weil 8gb karten mit 1080ti leistung in zukunft anstehen werden.

Cubitus
2018-08-04, 22:45:01
Vor allem hier wird doch spekuliert.. :rolleyes:
Also ist hier eigl alles im Thema.

Gipsel
2018-08-05, 02:36:06
Ob sich die Herrschaften jetzt wieder zusammenreißen wollen?
Sonst müssen nachher noch Karten für Flames und Beleidigungen verteilt werden. Diesmal habe ich es beim Löschen der deutlich zu aggressiven Posts belassen.

Edit: Achja, lieber mehr über Turing spekulieren!

Schnäppchenjäger
2018-08-05, 08:13:15
Der Vram reicht bei einer 780ti oft nicht mehr.
Für 80% der games kein problem, aber es kommen immer mehr neue titel, welche die 3gb grenze sprengen. Das ist definitiv ne verdammt große baustelle an der karte.

Oder man muss nur wegen dem vram die details runterdrhen, aber die fps sind auf über 60-80fps.Ich zocke eh keine neueren Games. Von daher wäre sogar eine 780 Ti zurzeit noch vertretbar :tongue:.
Lies doch mal was ich schreibe.. als Non-Enthusiast!!! :eek:
Also stimmt meine Aussage. Von neueren Games hat keiner geredet.

Meine 1060 6GB wird locker noch 2 Jahre ausreichen. Bis dahin zocke ich eh nur Games, die zurzeit vllt draußen sind. Der Backlog ist groß :freak:

die vram diskussion hat eigentlich schon was mit dem thema zu tun, weil 8gb karten mit 1080ti leistung in zukunft anstehen werden.
Vor allem hier wird doch spekuliert.. :rolleyes:
Also ist hier eigl alles im Thema.
Danke, sehe ich auch so.

Damit verabschiede ich mich auch mal vom Thread, habe hier eh nix mehr zu sagen und die Turing ist für mich kein Quantensprung. Jeder, der damals gut und günstig eine gute Pascalkarte gekauft hat, hat eh alles richtig gemacht :wink:

Bambuslooter
2018-08-05, 22:37:22
Auf der Startseite gibt es eine Umfrage zum Turing und wundere mich wieviele gar nicht die höchste Anforderung anklicken.
"Mehrperformance +60% samt zwingend mehr Grafikkartenspeicher"

Nach dem 2 Jahre alten Pascal erwarte ich einfach beides und bei manchen Andeutungen von Igor und gravitationsfeld bin ich mittlerweile auch guter Dinge.

Ex3cut3r
2018-08-05, 22:53:45
Nja, +50% von der 1080 ausgehend sollten drin sein, für die 1180/2080, aber mehr Speicher ab Werk, ist fragwürdig, vlt. durch die Partner, wenn Nvdia es erlaubt.

tEd
2018-08-05, 22:58:25
Ich hab eine 1080ti@2ghz und 40% ist was ich erwarte um überhaupt einen Kauf in Betracht zu ziehen. Klar möchte ich mehr am besten noch zu einem super Preis aber...Nvidia ist ja in dieser Region nur Konkurrenz mit sich selber darum müssen sie ja eigentlich gar nichts oder halt wenn dann zu Wucher Preisen.

Ex3cut3r
2018-08-05, 23:31:20
Von der 1080ti ausgehend? Halte ich für ziemlich unrealistisch

tEd
2018-08-05, 23:38:46
Von der 1080ti ausgehend? Halte ich für ziemlich unrealistisch

Für die 1180ti narürlich

Platos
2018-08-06, 00:03:42
Nja, +50% von der 1080 ausgehend sollten drin sein, für die 1180/2080, aber mehr Speicher ab Werk, ist fragwürdig, vlt. durch die Partner, wenn Nvdia es erlaubt.

Die Karte, die die Perfomance einer 1080 TI erreicht, mit weniger Speicher, muss man irgendwie den Kunden mal erklären, warum sie denn genau das kaufen sollten und nicht die Karte, mit mehr Speicher. Das selbe gilt natürlich für alle Karten, die noch mehr Leistung mit sich bringen.

Aufgrund von den SPeicherpreisen eher unrealistisch, aber andererseits kann ich mir nicht vorstellen, dass nvidida Grafikakrten bringt, mit mehr Leistung aber weniger Speicher. Das müssten sie dann zuerst mal erklären...

iuno
2018-08-06, 02:19:09
780 Ti mit 3 GiB war schneller als die Kepler Titan mit 6. Die 980 mit 4 GiB dementsprechend auch. Die 1080 mit 8 GiB war schneller als die Maxwell Titan X mit 12 GiB. Das machen die doch nicht zum ersten Mal, natuerlich juckt die das nicht und auch keinen ihrer Kunden. Die neue Generation wird ziemlich sicher effizienter, insgesamt etwas schneller sein und neue Features bringen, da schaut keiner mehr auf den Speicher.

Ex3cut3r
2018-08-06, 03:12:00
Hää, du vegleichst da teilweise Highend Chips mit Enthusiasten Lösungen, bleibt doch einfach mal bei den Highend Lösungen.

Bisher sah es immer so aus,

680 2GB Kepler
980 4GB Maxwell
1080 8GB Pascal

Jetzt könnte es so kommen

1180/2080 Turing/Ampere wieder 8GB -und das ist einfach eine kleine Enttäuschung, egal ob schneller oder gleich schnell.

Beim Salvage sah es übrigens so aus,

670 2GB Kepler
970 3,5GB Maxwell
1070 8GB Pascal

Hübie
2018-08-06, 07:47:48
Bei GK104 hatte man stets die Möglichkeit doppelten Speicher zu kaufen.
Leo? Wie kommst du darauf das die folgende Generation nicht viel mehr Leistung bieten wird? :uponder:

HOT
2018-08-06, 08:07:56
Ex3cut3r
da bin ich jetzt mal spitzfindig: Die 970 hat 4GB RAM.

Bei GK104 hatte man stets die Möglichkeit doppelten Speicher zu kaufen.
Leo? Wie kommst du darauf das die folgende Generation nicht viel mehr Leistung bieten wird? :uponder:

Wo soll es herkommen? Der Prozess bringt nur wenig, die zusätzlichen Recheneinheiten für RT brauchen extra Leistung - man hat halt ein kleineres Speicherinterface. Es ist halt ein Volta - den gibts ja schon, daraus kann man doch ableiten, wie die Leistung in etwa sein wird.

Ampere ist natürlich ne andere Kiste.

Timbaloo
2018-08-06, 08:17:15
Beim Salvage sah es übrigens so aus,

670 2GB Kepler
970 3,5GB Maxwell
1070 8GB Pascal
Ganz billiger Flamebait...

Hübie
2018-08-06, 08:45:19
@HOT: Wart's ab.
Jensen lässt sich ungern foulen und man kann sich ja mal mit den Zahlenschubsereien der Controller auseinander setzen, um die Quintessenz zu lesen (die da lautet: wir wachsen um xx%). Wachstum erreicht ein Unternehmen mit Innovation.
Ich sitze hier, drehe weiter Däumchen und amüsiere mich. :smile:

Ps: Bitte keine 970-Diskussion #33736

HOT
2018-08-06, 08:51:35
Bekommt er ja auch - mit der GA104.
Zudem interessiert Lederjacke vor allem eines: möglichst wenig Kosten pro Leistung. Es gibt keine Konkurrenz - wenn der 1170 auf V64-Leistung rauskommt reicht das. Vega bleibt auf absehbare Zeit das stärkste AMD-Produkt und das wird in relativ geringen Stückzahlen produziert. Für 1170 kann man 450-500€ für nehmen und die Leute werden es kaufen. Für mehr zahlste halt auch mehr und die Leute werden es kaufen...

Monsta
2018-08-06, 09:06:31
Bekommt er ja auch - mit der GA104.
Zudem interessiert Lederjacke vor allem eines: möglichst wenig Kosten pro Leistung. Es gibt keine Konkurrenz - wenn der 1170 auf V64-Leistung rauskommt reicht das. Vega bleibt auf absehbare Zeit das stärkste AMD-Produkt und das wird in relativ geringen Stückzahlen produziert. Für 1170 kann man 450-500€ für nehmen und die Leute werden es kaufen. Für mehr zahlste halt auch mehr und die Leute werden es kaufen...

Als ob Nvidia interessiert was Amd macht, die "32" Amd Kunden die sie ggf abgreifen sind doch nur ne Kommastelle in deren Geschäftszahlen.

Nvidia will und muss die eingenen Kunden überzeugen eine neue Grafikkarte zu kaufen, das sind millionen Kunden.
Mit der Leistung einer 1170 auf 1080 Niveau wird das garantiert nicht funktionieren.

Grendizer
2018-08-06, 09:08:34
Bekommt er ja auch - mit der GA104.
Zudem interessiert Lederjacke vor allem eines: möglichst wenig Kosten pro Leistung. Es gibt keine Konkurrenz - wenn der 1170 auf V64-Leistung rauskommt reicht das. Vega bleibt auf absehbare Zeit das stärkste AMD-Produkt und das wird in relativ geringen Stückzahlen produziert. Für 1170 kann man 450-500€ für nehmen und die Leute werden es kaufen. Für mehr zahlste halt auch mehr und die Leute werden es kaufen...

DIe 1170 sollte oberhalb der Vega 64 rauskommen. Ansonsten könnte die Kombination von Freesync in nahezu jedem Monitor dann doch die Leute eher zu Vega greifen lassen.

HOT
2018-08-06, 10:44:49
Welche Vegas? Die die mehr kosten werden als die 1170? Die den NV-Preisen nur aus markttechnischen Gründen preislich folgen, weil es so wenige sind? Blödsinn. Vega ist nicht relevant für NV. Man löst halt die 1080 mit der 1170 ab, das reicht. Die 1080 ist eh uninteressant in der Produktion, da GDDR5X sicher jetzt auch EOL gehen wird. Die brauchen nix besserer um weiter zu verkaufen. Wer mehr will zahlt auch mehr. Schau dir die ganze Erhebungen an, wieviel Leute bezahlen werden, die Leo beispielsweise gemacht hat - die verkaufen schon. Es geht nicht um Jensens Ego, es geht nicht um den Kunden, es geht nur darum den Gewinn zu halten und am besten zu erhöhen, so einfach ist das.

Monsta
2018-08-06, 11:28:14
Mit Deinen 450 - 500€ bekomme ich aber jetzt schon ne 1080, warum soll ich dann auf die 1170 warten, die das selbe kostet und gleich schnell ist?

Wer ist denn da potentiell Kunde?

HOT
2018-08-06, 11:30:00
Der gleiche, der jetzt ne 1080 kauft. Oder ne 1070+neue Features. Was habt ihr so Schwierigkeiten damit? Raff ich nicht... Man muss das doch als Pascal-Upgrade sehen, das ist nix eingenes neues. GAxxx, das wird was Neues, und was wird auch groß.

Monsta
2018-08-06, 11:41:27
Da der Markt an 500€ Grafikkarten mit den Tflops abgegriffen ist. Deswegen glaube ich an mehr Leistung.

BlacKi
2018-08-06, 11:46:57
Mit Deinen 450 - 500€ bekomme ich aber jetzt schon ne 1080, warum soll ich dann auf die 1170 warten, die das selbe kostet und gleich schnell ist?

Wer ist denn da potentiell Kunde?
ich kann da auch nur den kopf schütteln.

würde nv nur einen refresh bringen wollen, dann wäre der gen wechsel nicht verspätet wie jetzt gekommen, sondern früher, so ca. ende 2017/anfang 2018.

eine neue gen in q3 bringt definitiv mehr als nur einen refresh.

Bucklew
2018-08-06, 12:16:52
würde nv nur einen refresh bringen wollen, dann wäre der gen wechsel nicht verspätet wie jetzt gekommen, sondern früher, so ca. ende 2017/anfang 2018.

eine neue gen in q3 bringt definitiv mehr als nur einen refresh.
Korrekt. Aber das schlecht reden von NVIDIA vor dem Launch, kennen wir ja aus gewissen Kreisen zur Genüge :up:

Dementsprechend ist die Überraschung dann umso größer, wenn die Fakten auf dem Tisch liegen. Sei es Maxwell gewesen, dito auch bei Pascal.

Stromata
2018-08-06, 12:42:00
ich kann da auch nur den kopf schütteln.

würde nv nur einen refresh bringen wollen, dann wäre der gen wechsel nicht verspätet wie jetzt gekommen, sondern früher, so ca. ende 2017/anfang 2018.

eine neue gen in q3 bringt definitiv mehr als nur einen refresh.


Ich bin ja eher der Meinung, dass die Verspätung der Generation genau deswegen zu Stande gekommen ist.

Nachdem die Titan V herausgekommen ist, war es halbwegs absehbar, dass die neue Generation (Volta) schon fast zu stark gewesen wäre ohne absehbare Konkurrenz und durch den Mining-Boom hatte man eh noch genug Absatzzahlen.

Meine Theorie war seit jeher, dass man die Pläne für die neue Volta Generation schon komplett vorliegen hatte (Man erinnere sich an die alten GPU Roadmaps) und im letzten Augenblick verworfen wurden, um eine schwächere Generation herauszubringen. Die wir heute eben Turing nennen dürfen.

Und da man bei Turing genau darauf hinplanen konnte, diese rein im eigenen Segment zu positionieren und nicht auf pure Leistung zu gehen, wird diese Generation auch so (wie es bis jetzt aussieht) für mich eine ultimative Enttäuschung.

Es gibt für "ngreedia" einfach keinen Grund was besseres rauszubringen. Es gibt sehr viele, die ihren Grafikkarten-Kauf nun schon um Jahre nach hinten geschoben haben (mich eingeschlossen). Weil ich es einfach nicht einsehe, die UVP oder mehr (2 Jahre nach Veröffentlichung) für "alte" Technik zu bezahlen.

Um genau das Clientel zu bedienen, bringt man nun endlich eine neue Generation raus, die minimales Plus zur alten Generation bietet, damit die Leute endlich neue Grafikkarten kaufen. Um sich innerhalb kurzer Zeit ~1 Jahr mir der "richtigen" Generation (Nun aber Ampere oder eben anders genannt) zu überbieten und den ein oder anderen Enthusiasten zum zweiten mal zur Kasse zu bitten.

Ich muss natürlich zugeben, dass hier viel Frustation mitschwingt, aber ich glaube genau deswegen daran, dass wir von Turing nicht allzu viel erwarten dürfen.

---

Um meine Aussage auch mal ein wenig zu relativieren. Ich würde es an nvidias Stelle sehr wahrscheinlich nicht anders machen. Es geht eben nicht darum, ein paar Enthusiasten auf der Welt einen Gefallen zu tun. Es geht einzig und allein um Gewinnmaximierung. Und die breite Käuferschicht wird nur sehen, dass die Karten eine größere Zahl im Namen haben und in den Ranglisten (High End, Midrange) auf den oberen Plätzen stehen.

Und bevor es zu Diskussionen kommt. Ob Amd oder Nvidia ist mir eigentlich egal. Ich will nur sehr gute (Spiele-)Performance zu vernünftigen Preisen.

Mandalore
2018-08-06, 12:51:11
Ich bin ja eher der Meinung, dass die Verspätung der Generation genau deswegen zu Stande gekommen ist.

Nachdem die Titan V herausgekommen ist, war es halbwegs absehbar, dass die neue Generation (Volta) schon fast zu stark gewesen wäre ohne absehbare Konkurrenz und durch den Mining-Boom hatte man eh noch genug Absatzzahlen.

Meine Theorie war seit jeher, dass man die Pläne für die neue Volta Generation schon komplett vorliegen hatte (Man erinnere sich an die alten GPU Roadmaps) und im letzten Augenblick verworfen wurden, um eine schwächere Generation herauszubringen. Die wir heute eben Turing nennen dürfen.

Und da man bei Turing genau darauf hinplanen konnte, diese rein im eigenen Segment zu positionieren und nicht auf pure Leistung zu gehen, wird diese Generation auch so (wie es bis jetzt aussieht) für mich eine ultimative Enttäuschung.

Es gibt für "ngreedia" einfach keinen Grund was besseres rauszubringen. Es gibt sehr viele, die ihren Grafikkarten-Kauf nun schon um Jahre nach hinten geschoben haben (mich eingeschlossen). Weil ich es einfach nicht einsehe, die UVP oder mehr (2 Jahre nach Veröffentlichung) für "alte" Technik zu bezahlen.

Um genau das Clientel zu bedienen, bringt man nun endlich eine neue Generation raus, die minimales Plus zur alten Generation bietet, damit die Leute endlich neue Grafikkarten kaufen. Um sich innerhalb kurzer Zeit ~1 Jahr mir der "richtigen" Generation (Nun aber Ampere oder eben anders genannt) zu überbieten und den ein oder anderen Enthusiasten zum zweiten mal zur Kasse zu bitten.

Ich muss natürlich zugeben, dass hier viel Frustation mitschwingt, aber ich glaube genau deswegen daran, dass wir von Turing nicht allzu viel erwarten dürfen.


Turing die schwächere Gen? Ich glaube du meintest Pascal, denn der wurde eingeschoben...

AffenJack
2018-08-06, 13:02:51
Es geht einzig und allein um Gewinnmaximierung.

Jupp und deswegen macht dein gesamter Post kein Sinn. Alles was du in deinem Post schreibst würde den Gewinn minimieren.

Turing die schwächere Gen? Ich glaube du meintest Pascal, denn der wurde eingeschoben...

Manche Leute glauben auch an die flasche Erde. Verschwörungstheorien sind eben in.

Stromata
2018-08-06, 13:06:58
Turing die schwächere Gen? Ich glaube du meintest Pascal, denn der wurde eingeschoben...

Da hast du nicht ganz unrecht. Ich ging von folgender Grafik aus:

https://assets.hardwarezone.com/img/2015/03/pascal-gpu-2.jpg

Pascal wurde damals eingeschoben. Aber eigentlich ist nun Volta an der Reihe und jetzt wurde wiederum Turing eingeschoben (bzw. hat Volta ersetzt).

Also gemeint war: Turing schwächer als Volta (was eigentlich dran gewesen wäre). (Nicht als Pascal - das wäre selbstverständlich Unsinn)

Entschuldigt das Missverständnis.

Bucklew
2018-08-06, 13:14:25
Meine Theorie war seit jeher, dass man die Pläne für die neue Volta Generation schon komplett vorliegen hatte (Man erinnere sich an die alten GPU Roadmaps) und im letzten Augenblick verworfen wurden, um eine schwächere Generation herauszubringen. Die wir heute eben Turing nennen dürfen.
Genau, man hat eine GPU fertig entwickelt, die X Prozent schneller ist als die vorherige und weil diese GPU zu schnell (!) ist, liefert man diese nicht als Produkt aus, sondern macht sich daran extra eine längere GPU zu entwerfen ;D

Was für ein vollkommener Bullshit als Theorie.

Man hat also:
a) längerer Zeitraum bis zur neuen Gen
b) höhere Entwicklungskosten
c) niedrigeren Umsatz

NVIDIA tut also alles, um ihren Gewinn zu minimieren, statt zu maximieren ;D

Ist v_v aktuell gebannt? :rolleyes:

BlacKi
2018-08-06, 13:17:50
Es gibt für "ngreedia" einfach keinen Grund was besseres rauszubringen. Es gibt sehr viele, die ihren Grafikkarten-Kauf nun schon um Jahre nach hinten geschoben haben (mich eingeschlossen). Weil ich es einfach nicht einsehe, die UVP oder mehr (2 Jahre nach Veröffentlichung) für "alte" Technik zu bezahlen.
nv hat doch schon 2016/17 bewiesen das performance auch ohne konkurenz fortgeführt wird. auch günstiger hardware anbietet trotz ohne konkurenz.

was ist denn 2017 passiert als die 1080ti kam? sie hatte fast den selben pricetag wie die 1080 anno 2016, trotz deutlicher mehrleistung, ohne konkurenz.



Ist v_v aktuell gebannt? :rolleyes:
hat sich selber "ver"bannt, als sie die crossfirewerte von CB gesehen hat, aus scham.^^

N0Thing
2018-08-06, 13:19:38
ich kann da auch nur den kopf schütteln.

würde nv nur einen refresh bringen wollen, dann wäre der gen wechsel nicht verspätet wie jetzt gekommen, sondern früher, so ca. ende 2017/anfang 2018.

eine neue gen in q3 bringt definitiv mehr als nur einen refresh.

Sehe ich auch so. Optionen mit 12nm oder gar 10nm hätte Nvidia ja definitiv schon früher gehabt. Der Mining-Hype hat die neuen Produkte evtl. etwas nach hinten verschoben, aber sonst?





Meine Theorie war seit jeher, dass man die Pläne für die neue Volta Generation schon komplett vorliegen hatte (Man erinnere sich an die alten GPU Roadmaps) und im letzten Augenblick verworfen wurden, um eine schwächere Generation herauszubringen. Die wir heute eben Turing nennen dürfen.

;D

nv hat doch schon 2016/17 bewiesen das performance auch ohne konkurenz fortgeführt wird. auch günstiger hardware anbietet trotz ohne konkurenz.

was ist denn 2017 passiert als die 1080ti kam? sie hatte fast den selben pricetag wie die 1080 anno 2016, trotz deutlicher mehrleistung, ohne konkurenz.

Das zeigt eher, wie teuer die GTX 1080 gestartet ist. Passend vor dem Release der GTX 1080Ti wurde der Preis der non Ti recht deutlich gesenkt, wenn ich mich nicht irre.

Stromata
2018-08-06, 13:22:02
Genau, man hat eine GPU fertig entwickelt, die X Prozent schneller ist als die vorherige und weil diese GPU zu schnell (!) ist, liefert man diese nicht als Produkt aus, sondern macht sich daran extra eine längere GPU zu entwerfen ;D

Was für ein vollkommener Bullshit als Theorie.

Man hat also:
a) längerer Zeitraum bis zur neuen Gen
b) höhere Entwicklungskosten
c) niedrigeren Umsatz

NVIDIA tut also alles, um ihren Gewinn zu minimieren, statt zu maximieren ;D

Ist v_v aktuell gebannt? :rolleyes:


Ich meine ja nicht fertig entwickelt. :freak:

Sondern es hat sich früh herausgestellt, dass Volta von der Performance nicht nötig gewesen wäre zu diesem Zeitpunkt.

Also hätte man dann umdisponiert. Ehrlich gesagt, finde ich das langfristig geplant nicht einmal abwegig. Sich selbst zu stark zu überbieten würde nur die Entwicklungskosten für die wiederum nächste Generation höher treiben.

BlacKi
2018-08-06, 13:29:05
Das zeigt eher, wie teuer die GTX 1080 gestartet ist. Passend vor dem Release der GTX 1080Ti wurde der Preis der non Ti recht deutlich gesenkt, wenn ich mich nicht irre.

du kennst die preise. der 1080 msrp preis lag 50$ über der der 980. und 50$ waren es zur 1080ti. und guess what? es werden 50$ zur 2080 sein.

AffenJack
2018-08-06, 13:30:06
Ich meine ja nicht fertig entwickelt. :freak:

Sondern es hat sich früh herausgestellt, dass Volta von der Performance nicht nötig gewesen wäre zu diesem Zeitpunkt.

Also hätte man dann umdisponiert. Ehrlich gesagt, finde ich das langfristig geplant nich einmal abwegig. Sich selbst zu stark zu überbieten würde nur die Entwicklungskosten für die wiederum nächste Generation höher treiben.

Auch so macht es gar keinen Sinn. Wieso sollte man Geld in eine Gen schieben um sie langsamer zu machen? Dazu kommt die Gefahr, dass AMD doch mit was großem kommt und man dann nix hat? Entscheidungen werden Jahre vor Release getroffen.

Man entwickelt nur nach vorne und nicht zum verlangsamen. Die Entwicklungskosten für die nächste Gen werden eh nicht von der Architektur bestimmt. Durch 7nm kriegst du die Geschwindigkeitssteigerung fast automatisch. 7nm dürfte so wie Pascal eher nur 1 Shrink mit minimalen Änderungen sein.

du kennst die preise. der 1080 msrp preis lag 50$ über der der 980. und 50$ waren es zur 1080ti. und guess what? es werden 50$ zur 2080 sein.

Ich setzte auf 100$ wegen 16GB oder meisnt du 50$ mehr als die 1080Ti?

Bucklew
2018-08-06, 13:34:34
Ich meine ja nicht fertig entwickelt. :freak:

Sondern es hat sich früh herausgestellt, dass Volta von der Performance nicht nötig gewesen wäre zu diesem Zeitpunkt.

Also hätte man dann umdisponiert. Ehrlich gesagt, finde ich das langfristig geplant nicht einmal abwegig. Sich selbst zu stark zu überbieten würde nur die Entwicklungskosten für die wiederum nächste Generation höher treiben.
Warum sollte man einen fertig entwickelten Leistungsvorsprung nicht nutzen?

Absolut schwachsinnige Theorie.

Selbst wenn dem so wäre, könnte man auch einfach die Karten z.B. 30% niedriger Takten und müsste weniger Chips wegwerfen und hätte noch dazu eine bombastische Perf/Watt vorzuweisen.

Stromata
2018-08-06, 13:50:55
Auch so macht es gar keinen Sinn. Wieso sollte man Geld in eine Gen schieben um sie langsamer zu machen? Dazu kommt die Gefahr, dass AMD doch mit was großem kommt und man dann nix hat? Entscheidungen werden Jahre vor Release getroffen.

Man entwickelt nur nach vorne und nicht zum verlangsamen. Die Entwicklungskosten für die nächste Gen werden eh nicht von der Architektur bestimmt. Durch 7nm kriegst du die Geschwindigkeitssteigerung fast automatisch. 7nm dürfte so wie Pascal eher nur 1 Shrink mit minimalen Änderungen sein.




Ich gebe dir ja auch vollkommen recht. Nur kann man AMD zur Zeit mit Vega/Navi zumindest bis 2019 relativ gut einschätzen. Und Sie haben ja jetzt auch Jahre Zeit gehabt, Entscheidungen zu treffen.

Ich habe einfach mehr erwartet von dieser Generation. Und ich glaube auch das man technisch hätte mehr machen können, als was wir jetzt zu Gesicht bekommen.

Aber das bleibt natürlich reine Spekulation/Theorie meinerseits.

Bucklew
2018-08-06, 13:57:18
Ich habe einfach mehr erwartet von dieser Generation.
:facepalm:

Es weiß noch nicht mal jemand, wie genau dieser Generation aussieht, aber Hauptsache Mr. Seit-zwei-Stunden angemeldet hat mehr erwartet.

:facepalm:

BlacKi
2018-08-06, 13:59:49
Ich setzte auf 100$ wegen 16GB oder meisnt du 50$ mehr als die 1080Ti?
ja, 50$ auf die TI.

Stromata
2018-08-06, 14:00:25
:facepalm:

Es weiß noch nicht mal jemand, wie genau dieser Generation aussieht, aber Hauptsache Mr. Seit-zwei-Stunden angemeldet hat mehr erwartet.

:facepalm:

Ich zitiere mal Leo:

"Langsam geht es derzeit in Richtung eines zusammenhängendes Bildes zu nVidias Turing-Generation – welches nun allerdings nicht danach aussieht, als würde es die große Performance-Offenbarung geben, dies ist im Rahmen der 12nm-Fertigung wohl auch nicht möglich."

Hoffen wir das Beste.

Liebe Grüße

Bucklew
2018-08-06, 14:17:36
Ich zitiere mal Leo:
Auch Leo hat noch keine Ahnung.

JaniC
2018-08-06, 14:20:33
Ich kann den 20.08. aus zwei Gründen kaum erwarten:

- endlich Klarheit
- dieser Thread hat endlich ein Ende. Mehrwert von 90% der Beiträge hier: nullkommazero (inkl. diesem Posting :D )

Seitenlange Grabenkämpfe über aus der Luft gegriffene Behauptungen und Vermutungen, es ist teilweise echt zu geil hier. Nix anderes zu tun?
Jaja, ist das Spekulatiusforum, ich weiss.

HOT
2018-08-06, 14:39:08
Das haben jetzt glaub ich einige einfach missverstanden. Offensichtlich gibt's doch ne GA104 alias Geforce GTX2070/2080. Das wird sicherlich ein 7nm-Grafikchip sein mit 256Bit 16-18Gbps 16Gbit GDDR6-RAM mit > 4000 Shadern werden. Das ist das eigentliche neue Top-Produkt und das muss weit gediehen sein, denn das zeigte sich an etlichen Stellen und vielleicht hören wir auch in Kürze genau darüber etwas. Ein chinesischer Hersteller hat ja sogar ne entsprechende Karte abgebildet. Diese hat einen 8-Pin-Stecker, passt also dazu.

Wenn man jetzt GV noch bringt, dann wird das unterhalb dieses Chips erfolgen, und zwar, um die Preise für Raytracing-fähige Hardware in geringer bepreiste Märkte runterzubringen, sonst setzt man den Tensorspezialität nicht auf dem Spielemarkt durch.

Godmode
2018-08-06, 16:37:29
Ich kann den 20.08. aus zwei Gründen kaum erwarten:

- endlich Klarheit
- dieser Thread hat endlich ein Ende. Mehrwert von 90% der Beiträge hier: nullkommazero (inkl. diesem Posting :D )

Seitenlange Grabenkämpfe über aus der Luft gegriffene Behauptungen und Vermutungen, es ist teilweise echt zu geil hier. Nix anderes zu tun?
Jaja, ist das Spekulatiusforum, ich weiss.

War das schonmal anders hier? Früher habe ich mich noch beteiligt, jetzt warte ich einfach auf das fertige Produkt und gut ists.

OnTopic:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-GTX-2080-1262213/

Das haben jetzt glaub ich einige einfach missverstanden. Offensichtlich gibt's doch ne GA104 alias Geforce GTX2070/2080. Das wird sicherlich ein 7nm-Grafikchip sein mit 256Bit 16-18Gbps 16Gbit GDDR6-RAM mit > 4000 Shadern werden. Das ist das eigentliche neue Top-Produkt und das muss weit gediehen sein, denn das zeigte sich an etlichen Stellen und vielleicht hören wir auch in Kürze genau darüber etwas. Ein chinesischer Hersteller hat ja sogar ne entsprechende Karte abgebildet. Diese hat einen 8-Pin-Stecker, passt also dazu.

Wenn man jetzt GV noch bringt, dann wird das unterhalb dieses Chips erfolgen, und zwar, um die Preise für Raytracing-fähige Hardware in geringer bepreiste Märkte runterzubringen, sonst setzt man den Tensorspezialität nicht auf dem Spielemarkt durch.

Hallte ich für extrem unwahrscheinlich, dass wir im August einen GAxx für Consumer in 7nm sehen.

Hübie
2018-08-06, 17:30:00
Ich zitiere mal Leo:

"Langsam geht es derzeit in Richtung eines zusammenhängendes Bildes zu nVidias Turing-Generation – welches nun allerdings nicht danach aussieht, als würde es die große Performance-Offenbarung geben, dies ist im Rahmen der 12nm-Fertigung wohl auch nicht möglich."

Hoffen wir das Beste.

Liebe Grüße

Genau dies, stelle ich bei Leo mal in Frage. Ich wüsste jetzt nicht woher es erste Performance-Einschätzungen öffentlich gab. Was bisher draußen war, waren fakes. Daher: Dickes Fragezeichen.
Man denke doch mal an Kepler<->Maxwell. Beides 28 nm. 980 Ti mit 2816 ALUs vs 780 Ti mit 2880 erzielten (clock by clock) etwa 40% mehr Leistung. Dank Boost sind es in der Praxis aber bedeutend mehr.

Leonidas
2018-08-06, 18:59:29
Leo? Wie kommst du darauf das die folgende Generation nicht viel mehr Leistung bieten wird? :uponder:


Sind +60% nicht ausreichend?



Auch Leo hat noch keine Ahnung.


Korrekt. Habe aber auch nichts anderes behauptet.

Bösewicht
2018-08-06, 19:07:33
+60%?

nie und nimmer wird eine sagen wir 1180 60% schneller sein als eine 1080 ich meine hey klar gerne aber was, wieso?

gehen wir von 4k aus und sehen 1180 bei 1080ti das sind 40% und viel mehr traue ich der neuen gen auch nicht zu.

vinacis_vivids
2018-08-06, 19:14:43
hat sich selber "ver"bannt, als sie die crossfirewerte von CB gesehen hat, aus scham.^^

Crossfire wurde da auf ner ungeeigneten Plattform getestet (PCI-E Lanes uns so ^^), ergo ist der Test wertlos. Aber dass du dich darauf beziehst, ist bezeichnend für dein geringes technisches Verständnis :biggrin:

Aber danke für die Blumen.
https://www.computerbase.de/forum/threads/crossfire-sli-frueher-meist-schnell-heute-meist-schlecht.1814913/page-12#post-21557615

Timbaloo
2018-08-06, 19:28:10
War das schonmal anders hier?
Also zu den Zeiten als Ailuros hier noch Mod und aktiv war, da waren solche Threads nicht die Denkdeponie chronisch realitätsüberforderter Erklärer ihres vollkommen irrelevanten Eigenbedarfs und Gerechtigkeitsempfindens.

Stromata
2018-08-06, 19:41:01
Also zu den Zeiten als Ailuros hier noch Mod und aktiv war, da waren solche Threads nicht die Denkdeponie chronisch realitätsüberforderter Erklärer ihres vollkommen irrelevanten Eigenbedarfs und Gerechtigkeitsempfindens.

Ich bin da ganz bei dir.

Aber ich kann auch nur wiederum auf die Gerüchte eingehen, von dem was im Umlauf ist. (https://www.3dcenter.org/news/geruechtekueche-voellig-abweichende-angaben-zu-performance-stromverbrauch-der-turing-grafikkart)

Ich gehe mal davon aus, dass im Mittel dann irgendwo die Wahrheit liegt.

+60%?

nie und nimmer wird eine sagen wir 1180 60% schneller sein als eine 1080 ich meine hey klar gerne aber was, wieso?

gehen wir von 4k aus und sehen 1180 bei 1080ti das sind 40% und viel mehr traue ich der neuen gen auch nicht zu.

Und eine 1180 mit gleicher Leistung einer 1 1/2 Jahre alten 1080ti (mit weniger Speicher) zu einer teureren UVP ist kein guter "Deal" und deswegen auch zumindest in meinen Augen enttäuschend.

Thunder99
2018-08-06, 19:55:04
Schneller wirds schon sein, aber wie viel "mehr" und mit mit wie viel VRAM bleibt die spannende Sache.

Stromata
2018-08-06, 23:34:24
Und eine 1180 mit gleicher Leistung einer 1 1/2 Jahre alten 1080ti (mit weniger Speicher) zu einer teureren UVP ist kein guter "Deal" und deswegen auch zumindest in meinen Augen enttäuschend.


Ich habe gerade den neuen Artikel gelesen:
https://www.3dcenter.org/artikel/wie-nvidias-turing-generation-aussehen-koennte

Was obriges natürlich bereits etwas entschärft. Ein (Vollausbau mit 16 GB) könnte das Dilemma beheben und zumindest den höher angesetzten Listenpreis erklären.

An dieser Stelle: Danke für den ausführlichen Artikel zum Thema.

Andi_669
2018-08-07, 00:16:31
der Sprung bei der Ti von 11 auf 12 GB ist wohl in der Spekulation ein Druckfehler das soll wohl 22GB heißen,
wenn schon eine xx8x mit 16GB kommen soll :freak:

u. bei der Speichermenge muss was passieren, die 11GB der 1080Ti schmeißen ja schon seit 2 Jahren machen Games bis zum Rand voll.

Daredevil
2018-08-07, 00:43:21
Bevor 95% der Games die 11GB füllen, haste aber eher die Framerate im Keller. :<

Oliver_M.D
2018-08-07, 00:58:03
die 11GB der 1080Ti schmeißen ja schon seit 2 Jahren machen Games bis zum Rand voll.Jetz bin ich aber mal interessiert... Von welchen spielen reden wir hier den, auch von welcher Auflösung?

Leonidas
2018-08-07, 03:13:19
der Sprung bei der Ti von 11 auf 12 GB ist wohl in der Spekulation ein Druckfehler das soll wohl 22GB heißen,


Nein, soll es nicht. Kostet zuviel, dann müsste diese Ti umgehend auf über 1000$ gehen. Außerdem ist das ein perfektes Thema für eine Titan-Karte.


Ich hab bei dieser Überlegung auch einbezogen, was anderswo zum Thema Speichermengen geschrieben wird. Hier im 3DCF sind 8GB schon hart grenzwertig, da will man MEHR. Auf Reddit wird man von den allermeisten schief angesehen, wenn man selbiges erwähnt. Sprich: In der Masse reichen 8GB für 1180 und 12GB für 1180Ti komplett aus. Nur für das 3DCF braucht NV die Varianten mit Mehrspeicher.

=Floi=
2018-08-07, 03:27:12
Jetz bin ich aber mal interessiert... Von welchen spielen reden wir hier den, auch von welcher Auflösung?

GTA 5
COD:BO3

edit
natürlich sind die optionen abschaltbar!
Finde solche funktionen aber megagenial, weil man dadurch nachladeruckler und ladezeiten reduzieren kann.
Der vram ist ja vorhanden und kostete auch geld.



Bevor 95% der Games die 11GB füllen, haste aber eher die Framerate im Keller. :<

aber genau so ist es eben nicht. Das will ich doch die ganze zeit sagen. die fps reichen in full hd und ggf. weniger max. details absolut aus.
Nur geht den alten karten der vram aus.
1060 6GB > 780ti 3gb

Oliver_M.D
2018-08-07, 04:42:39
GTA 5
COD:BO3Von BO3 habe ich nichts anderes erwartet, dachte aber das GTA 5 ein bissl besser ist. Danke für die info!

Hugo78
2018-08-07, 07:41:09
GTA 5 nutzt max.4GB.

Andi_669
2018-08-07, 08:03:51
da beißt sich die Katze selbst in den Schwanz, wir wollen bessere Texturen, die Spiele Entwickler würden die uns auch bestimmt gerne geben,
dafür muss aber erst mal Hardware vorhanden sein die mehr Speicher bietet,:rolleyes:

wenn wirklich eine xx85 mit auf 16GB verdoppelten Speicher zusätzlich zur xx80 kommt, müssen die was am Speicher der Ti machen,
denn 12GB sind dann zu wenig




man wird ja noch träumen dürfen

Raff
2018-08-07, 08:59:50
GTA 5 nutzt max.4GB.

(Nur) In UHD mit MSAA kann man auch 6 GiB gebrauchen. (http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-Spiel-4795/Specials/GTA-5-Benchmarks-1261429/) :)

MfG,
Raff

Dural
2018-08-07, 10:16:31
Also ich glaube ja nicht an 16 / 24GB Karten. Man schaue nur mal die Titan V an ;)

Am ende werden es 8 / 12GB sein, reicht aktuell auch völlig aus. Vielleicht kommt später (2019) noch eine 16GB Version für 100-200.- Aufpreis ;)

Ehrlich gesagt sehe ich weit und breit auch kein bedarf an über 12GB?!?

Hugo78
2018-08-07, 10:18:59
(Nur) In UHD mit MSAA kann man auch 6 GiB gebrauchen. (http://www.pcgameshardware.de/GTA-5-Grand-Theft-Auto-5-Spiel-4795/Specials/GTA-5-Benchmarks-1261429/) :)
MfG,
Raff

In Ordnung ich bezog mich auf 2k, ich fände es aber der Vollständigkeit halber sinnvoll auch einen Bench ohne Grass (aka normal) zu bringen. Es steht zwar dabei das es der Fps Killer ist, aber ohne direktem Vergleich.

BlacKi
2018-08-07, 10:49:41
star citizen hab bei mir schon über 10gb belegt in wqhd allerdings mit nur 50-60% gpu load, also noch luft nach oben wenn es mal gescheite optionen bekommt. wieviel davon wirklich benötigt werden kann ich nicht sagen, da das ganze spiel ne ruckelorgie ist, vorallendingen mit 16gb ram^^

Fragman
2018-08-07, 10:53:41
Gibt es zahlen, wieviel mehr speicher das rt zeugs in der spieledemo gekostet.

Cubitus
2018-08-07, 10:55:24
Also ich erwarte schon das die Karten super mit 4K und HighRes Texturen umgehen können, allg würden atm noch 8 GB reichen, mehr wäre natürlich besser.

Palpatin
2018-08-07, 11:15:38
star citizen hab bei mir schon über 10gb belegt in wqhd allerdings mit nur 50-60% gpu load, also noch luft nach oben wenn es mal gescheite optionen bekommt. wieviel davon wirklich benötigt werden kann ich nicht sagen, da das ganze spiel ne ruckelorgie ist, vorallendingen mit 16gb ram^^
Keine Sorge, bis das erscheint sind 32gb normal.

MasterElwood
2018-08-07, 11:19:44
star citizen hab bei mir schon über 10gb belegt in wqhd allerdings mit nur 50-60% gpu load, also noch luft nach oben wenn es mal gescheite optionen bekommt. wieviel davon wirklich benötigt werden kann ich nicht sagen, da das ganze spiel ne ruckelorgie ist, vorallendingen mit 16gb ram^^

Das Ding ist Alpha. Das zählt doch nicht...

Radeonfreak
2018-08-07, 11:24:07
Abgesehen davon das SC nie erscheinen wird. :freak:

N0rG
2018-08-07, 12:30:02
Ist eigentlich abzusehen, dass GDDR Ram in zukunft günstiger wird, oder werden die grafikkartenpreise in ein paar jahren zu 75% aus den speicherkosten gebildet?

Wenn 2019 dann tatsächlich eine 1180 mit 16GB nachgeschoben wird, dann muss eigentlich auch die 1180ti mit 22-24GB kommen sonst hätte die ja weniger Speicher als die kleine Schwester.

Mancko
2018-08-07, 13:02:54
http://www.ign.com/articles/2018/08/07/nvidia-patents-hint-at-new-gpu-technologies

BlacKi
2018-08-07, 13:47:48
Ist eigentlich abzusehen, dass GDDR Ram in zukunft günstiger wird, oder werden die grafikkartenpreise in ein paar jahren zu 75% aus den speicherkosten gebildet?
ich glaube das NV zum teil schuld daran ist das die preise so hoch sind. NV hat sich kapazitäten (mit günstigem speicher) gesichert, deshalb gibt es einen mangel und damit hohe preise(nicht für NV).

das kann bedeuten, das 16gb karten durchaus bezahlbar sein werden

Screemer
2018-08-07, 14:00:34
http://www.ign.com/articles/2018/08/07/nvidia-patents-hint-at-new-gpu-technologies
linkdropping ist scheiße.

Linmoum
2018-08-07, 14:06:53
IGN 10/10 products of the decade

Hübie
2018-08-07, 15:23:58
http://www.ign.com/articles/2018/08/07/nvidia-patents-hint-at-new-gpu-technologies

Echt schwer ein oder zwei Sätze zu schreiben. :rolleyes:
Für die Nachwelt: NVIDIA PATENTS HINT AT NEW GPU TECHNOLOGIES

Klicken lohnt nicht, da man erfährt dass drei Trademarks registriert wurden. :uclap: Kaffeesatzleserei, mit Hint auf das was da kommt. Ich bin mir ziemlich sicher, dass es einige lange Gesichter geben wird.

Mancko
2018-08-07, 19:16:37
Echt schwer ein oder zwei Sätze zu schreiben. :rolleyes:
Für die Nachwelt: NVIDIA PATENTS HINT AT NEW GPU TECHNOLOGIES

Klicken lohnt nicht, da man erfährt dass drei Trademarks registriert wurden. :uclap: Kaffeesatzleserei, mit Hint auf das was da kommt. Ich bin mir ziemlich sicher, dass es einige lange Gesichter geben wird.

Das der Titel nicht zum Inhalt passt hatte ich gesehen. Hatte nur keine Zeit mehr was zu tippen. Mir ging es ausschließlich um die Produktnamen :) Da weiß man ja wo Nvidia den Schwerpunkt setzen wird.

Hübie
2018-08-07, 21:00:01
Na ja ist halb so wild, aber gerade von den langjährigen Mitgliedern erwarte ich da ein Mindestmaß. Die Zeit sollte man eigentlich immer haben. Link-dropping ist Mist. Da braucht man nicht diskutieren. ;)

horn 12
2018-08-08, 08:17:33
Zitat aus dem Forum von Hier
Online Shop Arbeiter hat was preisgegeben:

zeitnah (4-6 wochen) erwarten wir die 2070, die bestimmt schneller wird als die 1080 aber zum selben preis, zumindest am anfang.

Mr.Magic
2018-08-08, 08:46:39
Fast 800€ finde ich zuviel für eine neue GTX x70.

gnomi
2018-08-08, 09:29:07
Den Speku Artikel von Leo finde ich am durchdachtesten.
So ähnlich wird nvidia das sicher angehen. (499$ die 70; 599$ die 80 und 699-749$ die tatsächlich interessante bessere 1180)
Ich persönlich tendiere dazu, die 1080 noch ein wenig im Hauptrechner zu lassen und damit vorerst dann in die bessere Mittelklasse zu gehen.
Die Grafikkartenpreise sind mir auf einen 2 Jahres Generationswechsel gerechnet da ein wenig zu hoch, weil ich auch eine GPU Leistungssteigerung von 60-80% bei doppeltem Speicher anstrebe.
Bei 680 auf 980 Referenz passte das super mit um die 500 Euro wie gehabt. Bei 980 auf 1080 ging das auch schon nur mit kleinem Aufpreis durch die späteren Partner Designs. (Die Referenz lag bei schwachsinnigen 789 zunächst)
Diese Karten waren allerdings sehr kühl und mit 2000 MHz und gutem Speicher OC OOTB wirklich für die etwas höheren Investitionskosten von 650 teilweise plus Spiel noch voll okay.
Ich denke, man kann jetzt auch als Konsument auf einen vier Jahre Rhythmus gehen. Eher 700-800 für gute Karten sind schon TI Preisklasse und gehen für mich prinzipiell nicht mehr.
Muss man doch nicht mehr alles mitmachen. :wink:
Ich fand 250 Euro für Mittelklasse, 350 für Performance und maximal 500 für High End super.
Aktuell jedoch kann man unter 300 Euro keine ernsthafte Gamer GPU kriegen, und die alte Karte hat vielleicht 20-25% Wertverfall höchstens.
Das ist einfach krass, aber die Käufer machen es eben mit...

Fragman
2018-08-08, 09:46:14
Bin nicht sicher ob das ein "mitmachen" problem ist. Volta zeigt ja welche probleme enstehen wenn man mehr leistung will. Geht ja nur noch ueber shrinks und die werden halt immer schwieriger. Der kunde wird das mitmachen muessen. Fuer mich kam damals schon bei der geforce und dem sdr/ddr speicher die erkenntnis, in welche richtung das laufen wird. Die normale g3 mit 1k dmark war dann die bestaetigung. Und amd kann es ja offensichtlich auch nicht guenstiger. Ist die normale preisentwicklung und solange kein anbieter zeigt, das es bei mind gleicher leistung deutlich guenstiger geht, wird sich auch nichts aendern.

Ich hoffe auf ein 16gb modell und das wird dann gekauft. Meine 1070 ist zu schwach fuer 1440p und das rt zeugs in verbindung mit optix will ausprobiert werden. 😀

gnomi
2018-08-08, 09:50:37
Gerade bei 1440P ab 1070 mit 8 GB kann man doch ganz entspannt zugucken.
Zumeist 60 fps und mehr. :confused:

Radeonfreak
2018-08-08, 10:04:30
Nö. Ich hab ne 1080 mit einem 1440p Monitor ohne Gsync und gerade in neuesten Spielen wie AC Origins kann sie nicht dauerhaft die 60fps auf Ultra halten.

Deswegen plane ich auf eine 1180.

Fragman
2018-08-08, 10:14:22
Gerade bei 1440P ab 1070 mit 8 GB kann man doch ganz entspannt zugucken.
Zumeist 60 fps und mehr. :confused:

Naja, spellforce3, quake champions, no mans sky oder conan exiles schwaecheln schon alle. Wird die gpu sein und weniger der ram. Aber bei einem neukauf in dem preisbereich, wuerd ich gleich die 16 nehmen, wenn sie denn kommt.

gbm31
2018-08-08, 10:32:17
Warum muss man denn auch zwanghaft immer höhere Auflösungen fahren?

Vielleicht macht sich bei mir langsam das Alter bemerkbar, aber ich brauche absolut nicht dringend 4k.

Daher kann ich gerne auch in die Holzklasse abrutschen. Solange es fur mein Display schnell genug ist, juckt mich keine Profilneurose.

maximus_hertus
2018-08-08, 10:38:57
Warum muss man denn auch zwanghaft immer höhere Auflösungen fahren?

Vielleicht macht sich bei mir langsam das Alter bemerkbar, aber ich brauche absolut nicht dringend 4k.

Daher kann ich gerne auch in die Holzklasse abrutschen. Solange es fur mein Display schnell genug ist, juckt mich keine Profilneurose.

Das bessere ist dem guten sein Feind.

Analogie zur F1: Wozu Hamilton, Vettel, Mercedes, Ferrari und Co? Stroll, Ericsson, Sauber, Force India reichen doch?

Wie immer - es geht um bestmögliche Immersion. Je höher die Auflösung, desto bessere Bildqualität.

Cubitus
2018-08-08, 10:55:49
Nö. Ich hab ne 1080 mit einem 1440p Monitor ohne Gsync und gerade in neuesten Spielen wie AC Origins kann sie nicht dauerhaft die 60fps auf Ultra halten.

Deswegen plane ich auf eine 1180.

Mit Ultrawide ist es noch schlimmer.
3440*1440 ist für eine 1080er mittlerweile zu viel.

Vor zwei Jahren war es mit der Auflösung noch i.O

robbitop
2018-08-08, 10:56:34
Es gibt IMO 2x Dinge abzuwägen. Räumliche Auflösung und zeitliche Auflösung. Je schlechter die Augen werden, desto weniger hat man von Bilddetails.
Aber: zeitliche Auflösung sieht und spürt eigentlich jeder. Das äußert sich in Bewegtschärfe und Inputlag.

Weiterhin sieht man auch mit schlechten Augen Artefakte aus nicht ausreichender räumlicher Abtastung, die in Bewegung auftreten. Moire, Flimmern, wandernde Treppen etc.
Hier hilft TAA (idealerweise in Verbindung mit zeitlichem SSAA) sehr. Leider hat nicht jedes Spiel TSSAA. Und bei vielen ist die Implementierung nur mittelmäßig. Leider.

Ich persönlich z.B. , mitte 30, Brillenträger, ziehe nicht mehr all zu viel Nutzen aus 4K @27" (habe einen 4K G-Sync Monitor für einige Monate besessen). Jedoch sind 1080p @27" zu grob für mich (2. PC). 1440p scheint bei mir @27" auszureichen. Vom Pixelraster und vom Detailgrad.
Wovon ich stark profitiere ist zeitliche Auflösung. >80-90 fps nehme ich gerne mit und auch als Mehrwert wahr (1.PC Monitor 1440p 144 Hz GSync AHVA Monitor). Es ist flüssig, geringer Inputlag, höhere Bewegtschärfe.

Allein dafür braucht man bei modernen Spielen schon häufig eine GP102 (deshalb habe ich auch eine), wenn die Detailstufe hoch sein soll.

Ich hätte auch mit dem heutigen Stand noch Lust, 3-4x mehr GPU Power zu haben. Warum? 4xDSR. Mehr echte Auflösung brauche ich nicht - jedoch wenn die GPU Leistung "über" ist, macht 4xDSR das Bild nochmal schärfer, ruhiger und artefaktfreier. Ich finde, das sieht man in vielen Spielen auf den ersten Blick. Extrem angenehm.
Bspw spiele ich aktuell Dark Souls 2 mit 5120x2880 @2560x1440. Schön glatt und flimmerfrei.

Das hätte ich gern bei jedem Spiel. Selbst @60fps ist das fast nie drin mit meiner 1080ti @2000/6000. Maximal 4K.

Insofern: reichen würde zum Spielen auch eine GP104. Aber wenn man verwöhnt ist, wäre auch eine 1180ti/2080ti sinnvoll, bzw immer noch nicht schnell genug...

Adam D.
2018-08-08, 10:56:40
Keine Ahnung, ob wir das schon hatten, aber die Raterei bzgl. des Namens geht weiter.

Aktuelle AIDA 64-Beta ordnet wieder GTX 1180 zu.

https://www.techpowerup.com/img/dMviInUKFK7IlEar.jpg (https://www.techpowerup.com/246565/latest-aida-64-beta-adds-support-for-gv104-gv104m-mentions-geforce-gtx-1180#g246565)

Edgecrusher86
2018-08-08, 11:41:18
Vor 15 Tagen wurde die Listung von GV102+104 in HWInfo auf reddit eingereicht und am 29.7. diese Auflistung der Device IDs auf LaptopVideo2Go.

https://www.reddit.com/r/nvidia/comments/91bbak/hwinfo_to_add_nvidia_gv102_and_gv104_support_in/
https://forums.laptopvideo2go.com/topic/32417-inf-v6112/

Neu ist dementsprechend nur, dass es diese Einträge nun auch in der neusten AIDA64 Beta gibt. :)

Adam D.
2018-08-08, 11:49:23
Ja, so langsam bekomme ich das Gefühl, dass an HOTs Spekulation doch mehr dran ist. Aber wieso taucht dann Ampere/GTX 20xx so nah zum Release der neuen Karten auf, wenn diese Volta/GTX11xx sind? Zufall?

Hübie
2018-08-08, 11:56:07
Ich zitiere mich da mal selber:

"Vielleicht teilt NV auch einfach die Sparte: Fußvolk bekommt die 11-series, Premium-Zahler die 20-series mit RTX. Wäre doch eine weitere Überlegung wert oder?"
Ich setz da mal ein Zwinkern hinter. ;)

Daredevil
2018-08-08, 11:59:08
Macht das eigentlich auch Sinn, diese "Tensor Core" Spielerei, sollte sie denn die TPD erhöhen und aktuell noch wenig nutzen bringen auf den Mobilen Markt zu werfen?
Im Mobile Markt möchte man doch so wenig Last mit sich schleppen wie möglich, ob da wohl Tensor Cores fern bleiben?

Ansonsten wird man da vielleicht ja Refreshen? Für das Fußvolk, siehe über mir? :D

Adam D.
2018-08-08, 12:06:05
Ich zitiere mich da mal selber:

"Vielleicht teilt NV auch einfach die Sparte: Fußvolk bekommt die 11-series, Premium-Zahler die 20-series mit RTX. Wäre doch eine weitere Überlegung wert oder?"
Ich setz da mal ein Zwinkern hinter. ;)
:confused: Heißt also, Pascal wird refresht durch GV104 und Ampere/GA102/104 wird drüber gesetzt? Und das relativ zeitnah? Mann, ich war noch nie vor einem Release so verwirrt wie dieses Mal :freak:

robbitop
2018-08-08, 12:13:16
Macht das eigentlich auch Sinn, diese "Tensor Core" Spielerei, sollte sie denn die TPD erhöhen und aktuell noch wenig nutzen bringen auf den Mobilen Markt zu werfen?
Im Mobile Markt möchte man doch so wenig Last mit sich schleppen wie möglich, ob da wohl Tensor Cores fern bleiben?

Ansonsten wird man da vielleicht ja Refreshen? Für das Fußvolk, siehe über mir? :D
Dank Powergating und Clockgating verbraucht etwas, das nicht genutzt wird, keinen Strom. Werden die TC nicht genutzt, kosten sie also auch nichts. Werden sie genutzt (zur Matrixoperation), sind sie sicherlich energieeffizienter als die herkömmlichen ALUs.

Daredevil
2018-08-08, 12:18:27
So die Theorie, aber in Praxis sehe ich kein Notebook mit einer 1080 und 10 Std Laufzeit. :D
Ich frage nur, weil ich mich aktuell nach einem Notebook umschaue mit Gaming Option und die Idle Werte von 1060+ Karten nie so grandios sind, wie du einer 1050/1050ti.

Allgemein bekommt man eine größere Karte nie Stromsparender im Idle als eine kleinere Karte, so zumindest meine Erfahrung mit ner 1080ti, 1080 und 1060.
Aber gut, wenn dem nicht nur ( potentielle ) Nachteile zugrunde liegen, sondern auch Energie spezifische Vorteile, wäre das für Mobile Gaming natürlich auch nett. Weil da ist Nvidia noch viel mehr Marktführer als im Desktop Segment, eigentlich schon ein Monopol. :redface:

Triniter
2018-08-08, 12:19:49
Ich zitiere mich da mal selber:

"Vielleicht teilt NV auch einfach die Sparte: Fußvolk bekommt die 11-series, Premium-Zahler die 20-series mit RTX. Wäre doch eine weitere Überlegung wert oder?"
Ich setz da mal ein Zwinkern hinter. ;)
Wenn das dann wenigstens in einem Atemzug vorgestellt wird ist es für mich "relativ" OK. Sollte man jetzt zur GC oder dem Event davor groß den Shrink als das große Ding raushauen und dann 3 Monate später allen die lange Nase mit der 20er Serie zeigen wäre das etwas treist für meinen Geschmack. Nach der nun relataiv langen Pascal Phase sollte man dann zumindest nen sauberen Launch hinlegen und klar kommunizieren wie man sich den Markt vorstellt.

robbitop
2018-08-08, 12:26:00
So die Theorie, aber in Praxis sehe ich kein Notebook mit einer 1080 und 10 Std Laufzeit. :D
Ja aber das ist was anderes als ein paar Einheiten abzuschalten. ;)

Leonidas
2018-08-08, 12:37:51
Ich sehe (bei AIDA64) eher wieder nur GV102 + GV104 - was einmal mehr drauf hindeutet, das Volta/Turing nur zwei Topchips bekommt und im Rest Pascal weitergeführt wird. Damit erübrigt sich auch "Turing für Fußvolk".

Ampere (GeForce 20) kommt dann nächstes Jahr, die jetzigen Listungen sind einfach vorzeitig. Und wird natürlich alles besetzen, 12/16nm-Lösungen lohnen im 7nm-Zeitalter nicht mehr.

AMDoderNvidia
2018-08-08, 12:39:11
Dank Powergating und Clockgating verbraucht etwas, das nicht genutzt wird, keinen Strom. Werden die TC nicht genutzt, kosten sie also auch nichts. Werden sie genutzt (zur Matrixoperation), sind sie sicherlich energieeffizienter als die herkömmlichen ALUs.

Kann mir das bitte jemand erklären: Was ist Powergating genau? Was ist Clockgating genau?

Ich kenne von den CPUs und den GPUs bisher nur, dass man bei CPUs einzelne Cores in Tiefschlafmodi setzen kann (C-States, P-States) und den Uncore-Bereich abschalten und bei GPUs dynamisch Takt und Voltage anpasst.

Adam D.
2018-08-08, 12:51:22
Ich sehe (bei AIDA64) eher wieder nur GV102 + GV104 - was einmal mehr drauf hindeutet, das Volta/Turing nur zwei Topchips bekommt und im Rest Pascal weitergeführt wird. Damit erübrigt sich auch "Turing für Fußvolk".

Ampere (GeForce 20) kommt dann nächstes Jahr, die jetzigen Listungen sind einfach vorzeitig. Und wird natürlich alles besetzen, 12/16nm-Lösungen lohnen im 7nm-Zeitalter nicht mehr.
Was ich daran aber immer noch merkwürdig finde, ist, dass die Tensor Cores dann erstmal länger den Enthusiasten vorbehalten bleiben, was der Verbreitung der Technologie eindeutig im Weg stehen dürfte.

Sonyfreak
2018-08-08, 12:58:55
Gerade bei 1440P ab 1070 mit 8 GB kann man doch ganz entspannt zugucken. Zumeist 60 fps und mehr. :confused:Eine GTX 1080 und erst recht eine übertaktete ist immer noch eine schöne Karte. Dass ich mit der gebrachten Leistung nicht dauerhaft zufrieden sein werde, war mir aber gleich nach dem Kauf im Sommer 2016 klar, als Bioshock Infinite nicht mit 4xDSR in 5K gelaufen ist. :devil: Ich freue mich dementsprechend auf die nächste Grafikkartengeneration.

mfg.

Sonyfreak

Tesseract
2018-08-08, 13:14:41
Kann mir das bitte jemand erklären: Was ist Powergating genau? Was ist Clockgating genau?

im prinzip sind die begriffe eh selbsterklärend: beim power gating bekommen teile des chips keine versorgungsspannung mehr, beim clock gating bekommen teile des chips kein taktsignal mehr.

Korvaun
2018-08-08, 14:47:52
Was ich daran aber immer noch merkwürdig finde, ist, dass die Tensor Cores dann erstmal länger den Enthusiasten vorbehalten bleiben, was der Verbreitung der Technologie eindeutig im Weg stehen dürfte.

Henne/Ei-Problem, irgendwer muss halt mal anfangen. Da sind die Poweruser genau die richtigen dafür, denen kann mann dann sogar noch extra Kohle dafür abnehmen;)
nV wird einige werbewirksame Titel mit Software/Hardware-KnowHow+Entwicklern unterstützen um das auch zu implementieren, so wie immer eigentlich... und in der 7nm Generation wird es dann optimiert und breitflächig eingeführt.

HOT
2018-08-08, 15:09:03
Ich sehe (bei AIDA64) eher wieder nur GV102 + GV104 - was einmal mehr drauf hindeutet, das Volta/Turing nur zwei Topchips bekommt und im Rest Pascal weitergeführt wird. Damit erübrigt sich auch "Turing für Fußvolk".

Ampere (GeForce 20) kommt dann nächstes Jahr, die jetzigen Listungen sind einfach vorzeitig. Und wird natürlich alles besetzen, 12/16nm-Lösungen lohnen im 7nm-Zeitalter nicht mehr.
Das seh ich anders. 7nm in der breiten Masse erfordert genügend Kapazität. Wir wissen ja, dass bei 7nm DUV sich alles auf TSMC konzentriert und sogar AMD alle Register zieht. Bis da genug Kapazität frei wird, um entsprechend große Mengen an 200mm²-Chips für den Mainstreammarkt anbieten zu können, wird es sicherlich bis Q3 mindestens dauern. Vermutlich bringt man den GA104 einfach als Ultra-High-End-Variante schon recht früh im Jahr 19, GA106 aber erst in Q4, so lange braucht man halt die GVxxx-Produkte.

Ich wette, dass es ursprünglich geplant war, GVxxx schon Ende 2017 zu bringen, die das aber gecancelt haben, um direkt auf GAxxx zu springen. Die haben aber nach dem Ende des Mining-Booms gemerkt, dass das zeitlich mit den ja ohnehin fertigen GV-Chips doch noch um ein Jahr zu strecken ist und 7nm einfach zu überlaufen ist. Irgendwie so muss das gelaufen sein, ist eben Kraut und Rüben geworden. Jetzt gibts schon fertige GV104, GV102 und GA104, die GAs müssen aber sicherlich auf Fertigungskapazität und sehr schnelle 16Gbit-Chips warten.

Bucklew
2018-08-08, 15:30:04
Es ist immer noch (aus Unternehmenssicht) völlig sinn befreit fertige Chips nicht zu verkaufen.

Niemand lässt fertige Produkte in der Schublade liegen.

Dural
2018-08-08, 16:04:15
Das würde ich jetzt nicht behaupten, wenn die alten Produkte immer noch Top sind, können unter umständen neuerer Produkte zurück gehalten werden wenn der Gewinn damit sinken kann.

Der Die ist ziemlich sicher grösser + GDDR6, somit haben wir ziemlich sicher mehr kosten gegenüber GP104 ;)


Das mit den 7nm und zu schlecht verfügbar halte ich für falsch, den alle sagen ohne Ausnahme das Gegenteil: 7nm läuft gut, sogar besser als gedacht.

Troyan
2018-08-08, 16:05:55
Es gab keinen Nachfolger von Gaming-Pascal für 2017. Volta war für HPC und AI gedacht.

Daredevil
2018-08-08, 16:10:59
Es ist immer noch (aus Unternehmenssicht) völlig sinn befreit fertige Chips nicht zu verkaufen.

Niemand lässt fertige Produkte in der Schublade liegen.
Ebenso ist es sinnlos, neue Produkte kostspielig zu erstellen, obwohl man mit seinem jetzigen Portfolio nicht mal ein halbes Jahr vorher ein Rekordgewinn erreicht hat.
Das macht Canon doch schon seit mehreren Jahren mit dem immer gleichen Sensor in manchen DSLRs. Wenn ein Produkt gut ist, muss man es nicht unbedingt verbessern. Man muss nur neue Kaufanreize pflanzen und seine Zahlen beobachten.

Fragman
2018-08-08, 16:14:37
Mal abwarten ob canon damit langfristig nicht auf die nase faellt. Deren produktplazierung ist teilweise schon laecherlich. Man hat ja das gefuehl, das alle 20 euro eine andere cam plaziert ist. Wenn man was gescheites haben will, muss man die eh alle ueberspringen, da bleiben dann nicht wirklich viele modelle uebrig.

AffenJack
2018-08-08, 16:15:40
Es ist immer noch (aus Unternehmenssicht) völlig sinn befreit fertige Chips nicht zu verkaufen.

Niemand lässt fertige Produkte in der Schublade liegen.

Davon abgesehen würde ich arg bezweifeln, dass Nvidia überhaupt die R&D Kapazitäten hatte um 1 Jahr später eine neue Reihe zu designen. Zwischen Kepler und dem Launch von Pascal hat Nvidia sein R&D nur wenig (20%) erhöht. Wie soll es da plötzlich möglich sein jedes Jahr eine neue architektur zu bringen, wenn man vorher auch 2 Jahre brauchte.

Wahrscheinlicher ist für mich eher, dass man soviele Resourcen in V100 und Xavier gesteckt hat, dass man nicht mehr genug Leute für gaming übrig hatte und Gaming deshalb etwas später als 2 Jahre kommt. Bei 7nm ist es da schon wahrscheinlicher, das man recht schnell Ende nächsten Jahres mit einer neuen Gen kommt, da mittlerweile das R&D auch 60% höher ist, als zu Pascallaunch.

Bucklew
2018-08-08, 16:17:01
Ebenso ist es sinnlos, neue Produkte kostspielig zu erstellen, obwohl man mit seinem jetzigen Portfolio nicht mal ein halbes Jahr vorher ein Rekordgewinn erreicht hat.
Würde nur dann Sinn ergeben, wenn NVIDIA die Entwicklung von (Gaming-)GPUs für den Zeitraum eingestellt hat.

Glaube ich aber nicht ;)

Daredevil
2018-08-08, 16:23:00
Nvidia hat aktuell ein sehr breites Portfolio, so dass man das "Next Gen" schon locker im aktuellen Portfolio finden könnte, je nach Blickwinkel.
Aus der Sicht einer Besitzers der GTX1080 ist der Sprung auf eine GTX1080Ti schon "Next Gen" mit 30-40%+3GB Ram je nach Titel. Eine TitanV kann, abgesehen vom dem Preispunkt nochmal die gleiche Geschwindigkeit und mehr drauflegen +8GB Ram.

Also die Technik und die Geschwindigkeit ist schon lange da, man muss sie nur besser ( günstiger ) verpacken für die Masse. ;)

Bucklew
2018-08-08, 16:57:09
Also die Technik und die Geschwindigkeit ist schon lange da, man muss sie nur besser ( günstiger ) verpacken für die Masse. ;)
Ich denke das werden wir demnächst auch sehen. Daher sind für mich die viel zu hohen Preise auch einfach Blödsinn.

NVIDIA wird versuchen den Umsatz halten zu können und das wird man nicht mit einer um 50US$ günstigeren GTX1080 erreichen. Nein, da werden wir eine wirklich Next-Gen mit einem Sprung nach oben (also 1080Ti Leistung bei der x80 Karte etc.) sehen.

Hübie
2018-08-08, 16:57:23
Es gab keinen Nachfolger von Gaming-Pascal für 2017. Volta war für HPC und AI gedacht.

Ich bin mir nicht ganz sicher, aber der ursprüngliche Plan sah mal was anderes vor.

Bucklew
2018-08-08, 17:10:00
Ich bin mir nicht ganz sicher, aber der ursprüngliche Plan sah mal was anderes vor.
Kann, aber muss nicht unbedingt so sein.

matty2580
2018-08-08, 17:48:03
Nach den letzten Einträgen von AIDA64 sind wohl wieder die Namen, GV102, GV 102GL, GV 104, und GV 104M, im Gespräch.
http://www.pcgameshardware.de/Volta-Codename-266151/News/Aida64-neue-Chips-GTX-1180-1262377/

Das zeigt eigentlich nur das die letzten 147 Seiten hierzu in Thread völlig sinnlos waren, und wir nach wie vor überhaupt nichts zur neuen Gen von Nvidia wissen. ^^

Hübie
2018-08-08, 19:02:33
Genau das ist es doch was auch so Spaß macht. :up: Am Ende platzt ne Bombe und alle staunen, dann wird's Alltag und am Schluß kommt die Gier nach mehr Leistung. Same shit, different day. ;D

AMDoderNvidia
2018-08-08, 19:08:14
Spekuliert wurde hier ja gar nicht viel über die Möglichkeit, wie und ob Nvidia nun per Hardware das Raytracing unterstützt. Vielleicht ist ja genau DAS das neue Killer-Kriterium der Nachfolgegeneration.

Hübie
2018-08-08, 19:40:47
Oder man wird vermehrt auf AI Spielereien setzen. Was für mich ehrlich gesagt schlüssiger klingt, als ein einzelnes Feature dass weit von einer Marktdurchdringung entfernt steht... Dem aufmerksamen Beobachter wird am PCB auch einiges aufgefallen sein.

matty2580
2018-08-08, 19:44:31
Die Vermutung von AMDoderNvidia ist gar nicht so dumm, weil Nvidia und Microsoft Raytracing extrem pushen wollen, wie schon lange davor keine neue Technologie gepusht wurde.

Es gab so gar eine News dazu das MS dafür extra ein neues Direct X bringen will, DX 13, was hauptsächlich auf Raytracing setzen soll.

Anfangs gibt es natürlich nur einzelne Effekte. Aber später sollen alle neuen Games das intensiv nutzen.

http://www.pcgameshardware.de/Volta-Codename-266151/Specials/Nvidia-GDC-Raytracing-RTX-1253076/
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Raytracingversus-Rasterisierung-1255508/

https://www.youtube.com/watch?v=UBbyACygmAs&t=1m28s

N0rG
2018-08-08, 19:49:27
spricht eigentlich irgendwas gegen ein 512bit interface für die kommende 1180ti und 384bit für die 1180? Damit könnte NV dann zb. 10, 12 und 16GB für die Karten anbieten bei 320, 384 und 512bit. Klar, ist teurer... aber vermutlich billiger als Unmengen von Ram um sich bei 256 und 384bit von der vorgänger Generation abzusetzen.

ShinyMcShine
2018-08-08, 19:54:28
spricht eigentlich irgendwas gegen ein 512bit interface für die kommende 1180ti und 384bit für die 1180?

Ja, dagegen spricht, dass das 1180er PCB schon geleakt ist und ein 256er IF zeigt.

BlacKi
2018-08-08, 19:54:41
spricht eigentlich irgendwas gegen ein 512bit interface für die kommende 1180ti und 384bit für die 1180?
verbrauch

TheGood
2018-08-08, 20:07:49
Davon abgesehen würde ich arg bezweifeln, dass Nvidia überhaupt die R&D Kapazitäten hatte um 1 Jahr später eine neue Reihe zu designen. Zwischen Kepler und dem Launch von Pascal hat Nvidia sein R&D nur wenig (20%) erhöht. Wie soll es da plötzlich möglich sein jedes Jahr eine neue architektur zu bringen, wenn man vorher auch 2 Jahre brauchte.

Wahrscheinlicher ist für mich eher, dass man soviele Resourcen in V100 und Xavier gesteckt hat, dass man nicht mehr genug Leute für gaming übrig hatte und Gaming deshalb etwas später als 2 Jahre kommt. Bei 7nm ist es da schon wahrscheinlicher, das man recht schnell Ende nächsten Jahres mit einer neuen Gen kommt, da mittlerweile das R&D auch 60% höher ist, als zu Pascallaunch.

Ich sehe das auch so. Die Gen wird ein gutes Jahr überleben und nächsten Herbst kommen dann die ersten 7nm Chips. 1. gibt's keine Konkurrenz und AMD wird selbst mit 7nm vermutlich beim STromverbrauch maximal mit Nvidia gleichziehen können. Bis dahin ist es den Käufern doch schnurz ob 12/16 oder 7 nm aktuell sind. Das weis der normale user nicht und er interssiert sich dafür auch nicht. Der Output muss stimmen und das wrid so der Fall sein.
Deshalb sehe ich auch Leonidas spekualtion als ziemlich relaistisch an, ausser dass die perfromance doch noch höhere sein könnte.

Troyan
2018-08-08, 20:09:51
spricht eigentlich irgendwas gegen ein 512bit interface für die kommende 1180ti und 384bit für die 1180? Damit könnte NV dann zb. 10, 12 und 16GB für die Karten anbieten bei 320, 384 und 512bit. Klar, ist teurer... aber vermutlich billiger als Unmengen von Ram um sich bei 256 und 384bit von der vorgänger Generation abzusetzen.

Mit GDDR6 wird ein 512bit Interface überflüssig. Kostet nur zuviel Die-Fläche.

matty2580
2018-08-08, 20:36:01
Wie soll es da plötzlich möglich sein jedes Jahr eine neue Architektur zu bringen, wenn man vorher auch 2 Jahre brauchte.
Den 2-Jahres-Zyklus von Nvidia seit langer Zeit haben wir schon längst überschritten seit Mai 2018. Und da es bei Pascal nicht so viele Änderungen zu Maxwell gab, hatte Nvidia auch bei Pascal bestimmt nicht viel R&D Kosten. Pascal war also eine Gelddruckmaschine für Nvidia, um mit möglich wenig Aufwand so viel Geld zu machen wie es geht. Dazu kommt extrem wenig Gegenwehr durch AMD, die weit abgeschlagen kaum noch eine Alternative für PC-Gaming sind. D.h. bei den gigantischen Beträgen von Nvidia für R&D gingen die hauptsächlich in andere Sparten, oder wurden für Turing/Volta what ever investiert. Mit Turing/Volta müsste seit Maxwell eigentlich ein größerer Sprung bevor stehen. Oder Nvidia hat das R&D Budget wie geschrieben wo anders "versengt", und lässt die Geforce-Sparte nebenbei weiter laufen, so lange sie weiterhin gut Geld einbringt.

pixeljetstream
2018-08-08, 20:58:16
Ihr seht bei der Entwicklung nicht das big picture. Jeder Chip ist wichtig für den nächsten. Wenn ihr also behauptet es wurde bei Pascal gespart, so stimmt das nicht. Die r&d kosten (Anzahl Personen/Infrastruktur) sind mehr oder weniger fix, da wird nix billiger und man verteilt die Experten ja nicht einfach so auf andere Aufgaben. Ihr unterschätzt die "unsichtbare" Arbeit die sich halt nicht im Marketing wiederfindet um Generation für Generation weiter zu bringen. Seit Maxwell sieht man das wohl zeitlich versetzt an zwei Bereichen parallel gearbeitet wird. Vereinfach einmal SM-Fokus (GM10x, GP100, GV100) und Grafik/Rest (GM20x, GP10x). Wie die Chips nun heißen ist dabei egal.

matty2580
2018-08-08, 21:11:43
Eben drum, du schreibst ja selbst dass hier R&D parallel verteilt wurde.
Der Rest ist simple Logik. Die Änderungen bei Pascal, und hier meine ich die Chips der Geforce-Sparte, waren nicht besonders groß, anders als bei Kepler-->Maxwell. Logisch das dann auch R&D nicht besonder groß gewesen sind. Ich nehme das Nvidia übrigens auch nicht übel, und hätte dass an ihrer Stelle genau so gemacht. Und wie geschrieben habe ich etwas Hoffnungen, dass bei den riesigen R&D Budget seit Maxwell viel in diese neue Gen geflossen ist. Zeit genug hatte Nvidia, und hat auch diesen Produktzyklus noch einmal deutlich verlängert.

N0Thing
2018-08-08, 21:14:47
R&D funktioniert nicht wie in einem Computerspiel, wo man für Ausgabe X Forschungsergebnis Y bekommt. Die Forschung läuft durchgehend und die Mitarbeiter wollen auch jeden Monat bezahlt werden. Worauf sich die Entwicklung fokussiert mag teilweise variabel sein, aber die Kosten sind in einer gesunden Firma ein konstanter, stetiger Kostenfaktor und die Entwicklung des Chips an und für sich bietet auch wenig Potential zum Geld sparen.

matty2580
2018-08-08, 21:21:40
Danke für die Info, aber dass weiß ich selbst.
Es gibt übrigens auch ein gutes Gegenbeispiel dafür, AMDs Zen.
Vor 6 Jahren hat AMD angefangen alle Kraft und Ressourcen in die neue CPU-Architektur zu investieren, mit der Wirkung dass sie heute wieder deutlich mehr CPUs verkaufen, und an Intel verloren gegangene Marktanteile zurück holen. Leider hatte das aber auch zur Folge das ihre RTG immer kleiner geschrumpft wurde, und Nvidia immer mehr die eigene Vormachtstellung beim PC-Gaming ausbauen konnte.

Mein Argument wurde bisher aber nicht entkräftet, dass damit bei Turing/Volta ein größerer Sprung bevor steht, selbst bei gleich bleibend hohen R&D seit über 4 Jahren bei Nvidia.

pixeljetstream
2018-08-08, 21:40:39
Okay matty, hatte Dich beim "Sparen" falsch verstanden. GP100 zu GP10x sind relativ nah. Da es der Firma gut geht wächst sie halt mit neuen Bereichen mit. Es wird mehr getan, nicht "billiger weniger" wie es bei manchen klingt. Und wie gesagt auch wenn die Chips nach außen "langweilig" sein können, so hat sich dem Zeitraum angemessen intern immer was getan.

Kriton
2018-08-08, 22:25:15
Oder man wird vermehrt auf AI Spielereien setzen. Was für mich ehrlich gesagt schlüssiger klingt, als ein einzelnes Feature dass weit von einer Marktdurchdringung entfernt steht... Dem aufmerksamen Beobachter wird am PCB auch einiges aufgefallen sein.

Immer diese Andeutungen. Sage doch einfach, was Du zu sehen gemeint hast.

pixeljetstream
2018-08-09, 09:48:03
Der Druckerport

Timbaloo
2018-08-09, 10:49:34
Wieviel Blätter pro Sekunde erreicht man?

Ex3cut3r
2018-08-09, 11:20:06
Also ich habe jetzt meine 1070 verkauft, von mir aus kann Turing Morgen kommen. X-D

Am ende kommt erst was im November. :facepalm:

Adam D.
2018-08-09, 11:37:55
Am ende kommt erst was im November. :facepalm:
Ich glaube, das ist so ziemlich das Einzige, was mit relativ hoher Sicherheit gesagt werden kann: es kommt was, und zwar bald :freak:

Ex3cut3r
2018-08-09, 14:29:46
Na hoffentlich, kein Bock mehrere Monate mit HD 4600 rumzugurken. :biggrin:

BlacKi
2018-08-09, 15:32:02
Also ich habe jetzt meine 1070 verkauft, von mir aus kann Turing Morgen kommen. X-D

Am ende kommt erst was im November. :facepalm:
ich hab im mai mit nem youtuber in den kommentaren diskutiert, als er seine 1080ti verkauft hat im mai, das es noch zu früh ist. er ging davon aus das wir mitte juli schon kaufbare produkte gäbe. jetzt ist er schon 3 monate ohne dGPU und vermutlich wird es wohl irgendwann im september^^lol

Ex3cut3r
2018-08-09, 15:48:10
HAHAHA, übel. Naja diesmal werden Sie wohl kommen (September) darauf deutet vieles hin, ey und wenn nicht, wird vlt. doch eine 1080Ti gekauft.

Adam D.
2018-08-09, 17:38:24
Weitere (https://videocardz.com/77147/multiple-next-gen-geforce-and-quadro-products-go-through-eec-certification-office) EEC-Einträge:

So what this means is it that NVIDIA has at least three new GPUs ready.



So langsam scheint sich das 1170/1180/1180+ (bzw. 20xx) Schema zu verfestigen.

=Floi=
2018-08-09, 19:08:43
besser als der ausfall mit der 1070ti
trotzdem irgendwie unnötig.

Thunder99
2018-08-09, 19:17:38
Ich lehne mich ganz entspannt zurück. So gut kann eine neue GPU nicht werden um mich vom Hocker zu hauen.

Neue AA Lösungen werden auch mit älteren GPUs wohl möglich sein. Richtiges speed up mit DX12 ist nett aber da DX12 ein Nischendasein ist und selten besser ist als DX11 wohl kaum relevant für den Spieler

Bösewicht
2018-08-09, 19:23:49
würde mich ja freuen wenn nvidia mehr und mehr weniger geräte bringt.
50, 100, 150, 250, 400, 600, 800, 1000, 1500 €
so in etwa würde ich es machen, weniger ist mehr.

fand das bei amd in der vergangenheit so schlimm das die in einem preisbereich gefühl 10 karten und nvidia dagenen vielleicht max. nur die hälfte hatte, da kommt mir immer so ein wenig verwirrungstaktik in denn sinn.

selbst die liste von mir ist mir eigentlich noch viel zu viel da lob ich mir apple die kommen mit 3 varianten aus und vielleicht noch eine + version dazu.

meinetwegen darf es auch sehr günstig und passiv, günstig, mittel, teuer, sehr teuer im nicht profi bereich sein:redface:

=Floi=
2018-08-09, 19:35:18
Die 1030er ist zu sehr kastriert.
Die 1050er geht gerade noch. (ist für games aber dank 4gb eher mau)
Die 1060er wäre geil, kostet aber schon richtig asche.
1070er Verbrauchswunder
1080er teuer und kann alles aber nix perfekt ;)
1080ti kann alles gut und kostet dafür auch.


Bei den sparversionen geht es auch richtung 200€. In diesem segment müsste wieder mehr passieren.
200€ sind schon heftig viel. Eine wirkliche differenzierung wegen 50€ finde ich immer solala, weil da oft das sparen angefangen wird und unterm strich nix gescheites mehr übrig bleibt. Dann lieber 50€ mehr ausgeben und man hat ein rundes produkt. (gilt auch für die hersteller. siehe 1030er)
Zwei oder drei _klar_ namentlich gekennzeichnete produkte pro chip finde ich ja ok, aber es wird schnell auch zu viel.
Bei intel steige ich zB garnichtmehr durch. Das kostet intel auch ein vermögen und bringt unterm strich nix.


Die 1070ti finde ich zB völlig unnötig. Wäre es preislich ein geschenk an die kunden, würde ich sie gut finden, aber so nur unnütz. Die namensgebung ist auch wieder fürn arsch.

Eine 7900GTO würde ich mir wieder mal wünschen. Eine 300-350 watt version würde ja schon reichen. ;)

Bösewicht
2018-08-09, 19:46:56
bedenke aber das ie 1050er oder eine so ne art 1130 die ca 1050 leistung haben könnte für viele völlig ausreicht.

es gibt viele viele spieler die nur diablo, wow, lol oder overwatch spielen und keine 144hz g monitore haben.

4gb reicht für die meisten dicke aus, vielleicht nicht für die freaks hier aber für otto normalverbraucher eben schon.

wir wussen auch schon vor gefühlt 20 jahren als wir noch jung gewesen sind das schatten etwas runter, kein aa und eventuell auf ultra einstellungen verzichten = rennt bei fast jeden spiel auch mit älteren karten noch top.

aufkrawall
2018-08-09, 19:48:30
Wayne? Wenn ich die Grafik verkrüppeln will, brauch ich keine neuen Karten.

JaniC
2018-08-09, 20:18:22
vielleicht nicht für die freaks hier aber für otto normalverbraucher eben schon.

Wat interessiert uns hier der Otto Normal Casual Pleb?

Wir sind hier im 3DC, hier geht's um High End, um Optimieren, um Bildqualität, um "was geht, wieviel ist drin?" und nicht um "joar auf low läuft das sogar noch auf ner Geforce 2 MX".

Musste mal sein. :D

Adam D.
2018-08-10, 09:44:58
Benchlife (https://benchlife.info/nvidia-geforce-gtx-2080-1180-codename-turing-pcb-show-gddr6-08052018/) berichtet, dass Nvidia die Kühlung seiner Referenzkarten offenbar aufwertet.

Via [Videocardz] (https://videocardz.com/77160/nvidia-geforce-gtx-20-11-series-rumor-roundup-2)

Dural
2018-08-10, 10:20:05
Hoffentlich mit dieser fetten Stromversorgung auf dem Rev. PCB, komischerweise viel das ja auch keinem auf ;)

Bösewicht
2018-08-10, 10:44:07
Wat interessiert uns hier der Otto Normal Casual Pleb?

Wir sind hier im 3DC, hier geht's um High End, um Optimieren, um Bildqualität, um "was geht, wieviel ist drin?" und nicht um "joar auf low läuft das sogar noch auf ner Geforce 2 MX".

Musste mal sein. :D
ich bin hier auch schon seid 2001-2002 unterwegs, früher noch mit anderen nick und ich finde nicht das es hier nur um absolutes highend geht.
für mehr als ein 8800 sli system hat es bei mir nicht gereicht aber beim thema downsampling wahr ich damit vom ersten tag an dabei als ich glaube dargo damit angefangen hatte
Da Funktioniert aber selbst mit der 970 und nur 4gb noch sehr gut, sogar bei neuen spielen besser als bei alten warum auch immer.

ich finde zur zeit das thema wieviel geht mit möglichst wenig stromverbrauch auch sehr interessant.

ein system das im idle bei 25 watt liegt und bei bedarf richtig power entwickeln kann ist für mich inzwischen fast spannender als denn einfachen weg und sich einfach immer das schnellste zu kaufen.
hier im forum sind auch immer viele studenten gewesen und sicher bekommen nicht alle von eltern alles geschenkt was sie sich wünschen und von so ein standard mindestlos studenten job gibt es ehr selten titans schätze ich.

wenn ich siehe wie sich hier manche über neue handys beschweren weil die keine 8gb ram haben muss ich schon schmunzeln weil selbst unter 200€ 4gb china handys ein pubg und noch ein spiel komplett im speicher halten können und ein ruckelfreies wechseln jederzeit möglich ist und das auch mit 100 spieler im pubg...

aber gut entschuldigung für off-topic.

will nur sagen, auch 1160 interessierte haben hier die gleichen rechte:tongue:

Dural
2018-08-10, 12:01:17
GeForce 2080 RTX

https://wccftech.com/nvidia-geforce-gtx-rtx-20-series-titan-rtx-geforce-rtx-2080-rumors/

50% schneller als 1080, mal schauen.

Nazar
2018-08-10, 12:26:25
Die 50% Mehrleistung der 2080 gegenüber der 1080 hören sich erst einmal viel an, doch ist das die "Overall Performance". Rein auf Spiele runtergrbrochen liegt die Mehrleistung gegenüber einer 1080 etwa bei 20% und gegenüber einer 1080Ti bei zirka 10%.
Wenn dann noch die 8GiB VRAM Angabe passt, ist es genau das was zu erwarten war aber nicht wirklich zum Kaufen anregt, wenn eine 1080 ti mit 11 GiB VRAM eventuell sogar günstiger im Abverkauf zu erhalten ist.
Für DCS ist die 1080ti vom RAM her gerade so das derzeitige Optimum ab 3,5K + Auflösungen. 10 GiB RAM werden ohne Probleme in den VRAM Speicher geschoben.

Für mich wäre die 2080 mit 8GiB VRAM keine Option, da ich hier jetzt schon in die Speicherfalle unter DCS laufen würde. Die 1080ti mit 11GiB VRAM müsste schneller sein und bessere Frametimes liefern (ab 3,5K in DCS).

Wenn es wirklich so kommt, kann ich nur noch auf die TI Version mit mehr VRAM hoffen....

Troyan
2018-08-10, 12:38:13
GeForce 2080 RTX

https://wccftech.com/nvidia-geforce-gtx-rtx-20-series-titan-rtx-geforce-rtx-2080-rumors/

50% schneller als 1080, mal schauen.

Habe ich mir angehört. Bis dann der Speicher kam. Lmao - einfach nur Fake.

aufkrawall
2018-08-10, 12:54:23
Rein auf Spiele runtergrbrochen liegt die Mehrleistung gegenüber einer 1080 etwa bei 20% und gegenüber einer 1080Ti bei zirka 10%.

Wie sollen deine Spekulationen auch nur ansatzweise hinkommen, wenn du schon die Leistungen der alten Karten völlig falsch einordnest. Lass es dann lieber bleiben...

horn 12
2018-08-10, 14:09:34
Also nix wovon AMD sich fürchten Muss außer dem Strom Verbrauch
Da kommt von AMD Ein Verfrühter Dezember Treiber Shutdown und alles ist im Lot!

NV wartet echt echt auf die 7nm Karten!

Rancor
2018-08-10, 14:12:51
Meinst du den Horn Wundertreiber?

Bucklew
2018-08-10, 15:10:37
AdoredTV ist doch nur nen Schwätzer, als ob der nen Kontakt hätte :rolleyes:

Ist ungefähr so wie der Charly mit seiner Fermitheorie über die in Software auf den Shadern gerechnete Tessellation ;D

Platos
2018-08-10, 15:18:44
Also nix wovon AMD sich fürchten Muss außer dem Strom Verbrauch
Da kommt von AMD Ein Verfrühter Dezember Treiber Shutdown und alles ist im Lot!

NV wartet echt echt auf die 7nm Karten!

Natürlich, ein Treiber von AMD wird die Leistung von Vega/ Polaris auf Turing/Volta (what ever) Niveau bringen :D

vinacis_vivids
2018-08-10, 15:18:45
8GB und bissel schneller als 1080Ti FE lockt niemanden vor dem Ofen.

Daredevil
2018-08-10, 15:25:23
Doch, mich. :)
8GB, 1080ti Core Leistung und eine höhere Mem Performance wäre genau das, was ich in mein Mining Rig stecken würde bis zur Maximal Bestückung.

Ausgehend von der aktuell effizientesten Karte in Ethereum, der 1080ti > Niedrigere Preise bei höherer Performance und vielleicht weniger Verbrauch ist genau das, was die GPU Mining Industrie gerade braucht. ;)

Raff
2018-08-10, 15:25:51
8GB und bissel schneller als 1080Ti FE lockt niemanden vor dem Ofen.

Bei 180 Watt für 500 Euro: Nach Minuten ausverkauft. Aber wir reden von Nvidia, also nur 180 Watt. :ugly:

MfG,
Raff

vinacis_vivids
2018-08-10, 15:47:29
Für Gamer gibst dann 5 GB bzw. 7GB👌
Fortschritt als Nvidia.

=Floi=
2018-08-10, 15:53:10
Für Gamer gibst dann 5 GB bzw. 7GB👌
Fortschritt als Nvidia.

warte doch erstmal ab :rolleyes:

Wenn es so kommt, haben sie sich ins beim geschossen und wenn die 16gb karten kommen kann man sich freuen, dass navi auch 16gb haben wird. :)

horn 12
2018-08-10, 15:56:02
Die Titan RTX ist ein schlechter Witz 3000 Dollar
und die GTX 2080 gegen die GTX 1080TI werden sich wenig bis kaum was schenken.
Daher alles richtig gemacht auf die 7nm zu setzen!

8GB Ram wird viele zur GTX 1080TI greifen lassen, jene welche gewartet haben.

JaniC
2018-08-10, 15:56:17
lockt niemanden vor dem Ofen.

Du meinst "hinter dem Ofen hervor", nehme ich an? :rolleyes:

Die Gerüchte sehen für mich so aus, als wäre ihm das mit dem "RTX" Umlabeling aufgefallen und den Rest hat er sich dann zusammengesucht.

Kann mir irgendwie nicht vorstellen, dass man (jetzt schon) von dem sehr bekannten GTX abrückt auf RTX, da Raytracing ja vorerst nur als Gimmick bezeichnet werden kann. Performance reicht dafür ja nicht wirklich aus, oder? Klar, wir haben die Spielerein in der Stalker Techdemo da gesehen aber das ist ja nun wirklich fringy. Dafür jetzt schon den Namen zu ändern, halte ich für verfrüht. Aber wir werden es ja sehen.

Schneller als 1080 Ti für 500€ werden viele kaufen, da stimme ich Raff zu. Ich wohl auch, egal ob "nur 8GB" ... das ist doch mehr eine Stolz/Theorie Diskussion, als wahre Kritik.
Die meisten, die sich hier über 8GB künstlich echauffieren, fahren wahrscheinlich noch 1080p 60hz. ;)

horn 12
2018-08-10, 15:59:58
Die 10%, vielleicht auch mal knappe 20% machen den Braten nicht soo fett, da mit 4K dies nicht ausgebügelt sein wird.
Die Titan RTX ist aber echt ein Schlachtschiff, wenn Sauteuer

Aber endlos Geilomat.

r3ptil3
2018-08-10, 16:09:50
Die Titan RTX ist ein schlechter Witz 3000 Dollar
und die GTX 2080 gegen die GTX 1080TI werden sich wenig bis kaum was schenken.
Daher alles richtig gemacht auf die 7nm zu setzen!

8GB Ram wird viele zur GTX 1080TI greifen lassen, jene welche gewartet haben.

Das klingt ja so als ob das fix wäre. Die Angaben klingen aber nicht wirklich richtig.

Eine 1170 mit weniger Speicher als eine 1070? Titan für 3000? Nein...

Thunderburne
2018-08-10, 16:45:40
Ich würde mich ja über eine Titan für Gamer freuen aber mit GDDR6 aber wer brauch HBM für 3000 Dollar... einfach too much hoffe es ist ein Irrtum und die Titan kommt anders bestückt mit max 1299Dollar.
8GB klingen für die 2080 auch irgendwie unreal oder es gibt dann doch ne + mit mehr und schnellerem Speicher für mehr Geld.
8GB fasse ich nicht mehr an.

Platos
2018-08-10, 17:01:19
Das ist doch ganz klar ein Fake/ seine eigene Interpretation. Das man darauf auch überhaupt eingeht ??

Sieht euch mal das Video an. Einfach nur Texte & Tabellen - von ihm erstellt - und ein paar RT Artikel-Einblendungen von nvidia zwischendurch :D Als hätte der Kontakte, die ihm interne Informationen bringen.

Dann noch ernsthaft weniger (!) Speicher als bei den Vorgängermodellen. Muss man da eigentlich noch darüber diskutieren ??

Bösewicht
2018-08-10, 20:16:00
ich frag mich ob 1160 im herbst 6 oder 8gb haben wird hm ich tippe auf einheitlich 6?

Grendizer
2018-08-10, 20:44:56
ich frag mich ob 1160 im herbst 6 oder 8gb haben wird hm ich tippe auf einheitlich 6?

Da die 1160 nur eine umgelabelt 1070 werden wird, wird sie 8 Gb haben :biggrin:

Piefkee
2018-08-10, 20:53:41
https://videocardz.com/77166/nvidia-registers-turing-geforce-rtx-and-quadro-rtx-trademarks

Namen stimmen schob mal...

Fliwatut
2018-08-10, 20:54:11
Laut Adroed TV werden die neuen Mittelklassekarten RTX 2080 und RTX 2070 heißen:
https://www.youtube.com/watch?v=ms7HQ7rckpA

Insgesamt verheißt der Leak nicht viel Gutes für uns Verbraucher.

prinz_valium
2018-08-10, 21:00:06
Dualfan radial?
Interessant, solange die Turbolenzen und Geräuschpegel deshalb nicht aus dem Ruder laufen...

RTX für Mittelklasse und GTX nur noch für die Oberklasse?
Dann könnte das mit Turin und Ampere kurz hintereinander durchaus stimmen.

Ex3cut3r
2018-08-10, 21:00:17
Ist doch blödsinn, 7GB bei der 1170? Ja dann gute Nacht :freak:.

Kann man sich gleich sparen. Eine 1070 mit 8GB ist schon heute zukunftssicherer.

tEd
2018-08-10, 21:03:19
Neue Titan für 3000 ;D

Platos
2018-08-10, 21:05:32
https://videocardz.com/77166/nvidia-registers-turing-geforce-rtx-and-quadro-rtx-trademarks

Namen stimmen schob mal...

Nene, so geht das nicht:biggrin: 2 Artikel mit der selben Quelle sind keine Bestätigung der "Fakten"

Piefkee
2018-08-10, 21:08:49
Nene, so geht das nicht:biggrin: 2 Artikel mit der selben Quelle sind keine Bestätigung der "Fakten"

Dann lies mal was ich geschrieben habe...
Die Namen sind bestätigt. Trademak ist angemeldet

Platos
2018-08-10, 21:16:12
Stimmt, mein Fehler;)

Troyan
2018-08-10, 21:21:00
Trademarks sind schon seit fünf Tagen bekannt: https://www.reddit.com/r/nvidia/comments/94qjn8/nvidia_trademarks_quadro_rtx_geforce_rtx/

prinz_valium
2018-08-10, 21:31:29
Ist GDDR6 wohl zu teuer um die hohen Margen von Nvidia zu halten.
Anders könnte man die 7 und 5GB nicht erklären.

Aber wenn das so stimmt dann sind 1080Ti und 1070Ti noch immer quasi das Maß der Dinge und nur die Effizienz ist schlechter. Die Preise würden dann entscheiden wie gut die neuen Karten wirklich sind. Die angegebene Spanne ist ziemlich hoch.

Godmode
2018-08-10, 21:33:16
Die 10%, vielleicht auch mal knappe 20% machen den Braten nicht soo fett, da mit 4K dies nicht ausgebügelt sein wird.
Die Titan RTX ist aber echt ein Schlachtschiff, wenn Sauteuer

Aber endlos Geilomat.

Ich erwarte von der Titan RTX - falls eine kommt - nicht viel mehr als von der Titan V.

Triniter
2018-08-10, 21:55:05
Also keine Ahnung was man von den Gerüchten so halten soll. Speicher quasi Stillstand oder Rückschritt, je nachdem was man grad im PC hat. Selbst für mich als 980ti User wären 8GB doch eher ein Grund sehr lange zu grübeln ob das ein sinnvolles Upgrade wäre... gerade Wildlands und AC Origins bekomme ich auf 1440p halt nicht so zum laufen wie ICH es gerne hätte und ich erwarte in den nächsten zwei Jahren schon einige Kracher die eine Grafikkarte deutlich mehr fordern werden als die genannten Titel. 3000 Dollar plus Steuer und Wechselkurs gebe ich aber nicht für ne Titan aus. Knapp über 1000 wären meine Schmerzgrenze wenn ich die 1080ti + 50% wirklich bekommen würde.

Daredevil
2018-08-10, 22:15:01
Wenn AMD einen HBCC hat, hat Nvidia vielleicht auch an so etwas gearbeitet?
Dadurch kann man seine Marge ja nur optimieren und den Kunden halbwegs zufrieden stellen.

Mit einer Vega mit 8GB schaut man ja durch den HBCC schon etwas größer in die Zukunft als mit einer Pascal Karte mit 8GB, in irgendeiner Form ist das ja eine Reserve.
Aber schon komisch, dass direkt bei beiden 1GB fehlen soll. Ob der für irgendwas reserviert ist?


Dann noch ernsthaft weniger (!) Speicher als bei den Vorgängermodellen. Muss man da eigentlich noch darüber diskutieren ??
Die neuen Titans sind auch nicht bei 12GB geblieben. :<
Zudem hatten wir das Thema schon tausend mal. Ein schneller GDDR6 kostet fast doppelt soviel wie GDDR5X früher. Irgendeinen Tod muss Nvidia sterben, die "perfekte" Karte kann es vielleicht ja auch aktuell einfach nicht geben, egal bei wem.

Triniter
2018-08-10, 22:20:39
Das PCB hatte ja eigentlich 8 slots für Speicher um den GPU Slot. Das kann also nur das 80er Modell sein. Kann man was zu den GPU Pins auf dem pcbim Vergleich zur letzten Generation was sagen?

Käsetoast
2018-08-10, 22:26:50
Ich denke, dass man speichertechnisch mit dieser Generation eher ein Sidegrade fahren wird liegt einfach an der Situation. Speicher ist knapp und teuer wie nie momentan - die Smartphones saugen da einfach die Kapazitäten der Hersteller leer. Zusammen mit dem Mining Problem sind das eben einfach alles Punkte, die die Kosten für den Endkunden nach oben treiben und von daher macht es in meinen Augen schon Sinn bei der Speicherbestückung auf der Stelle zu treten. Es wird den Herstellern aber sicher frei stehen so eine "1180 GTX+" anzubieten mit mehr verbautem Speicher. Den dazugehörigen wahrscheinlich dreistelligen Preisaufschlag will oder kann man aber wohl nicht jedem Kunden zumuten. Fände ich so auch als beste Lösung - einfach Variante mit 8 GB als Standard anbieten und die, die mehr brauchen sollen dann auch den Aufpreis zahlen. So wären dann ja auch alle glücklich. Jetzt aber eine Karte mit mehr Speicher zu mehr oder weniger in dem Segment üblichen Preisen zu bringen ist aber wohl kaum möglich. Entweder bei 8GB bleiben zum Preis einer 1080 + 50 $ (wenn nicht noch mehr) oder eben einen zweistelligen Wert für den Speicher, aber dann wird man kostentechnisch einfach weit jenseits der bisherigen Preise landen. Wenn zum Zeitpunkt der 7nm Generation GDDR6 dann schon etwas etablierter ist und mehr Kapazitäten hat dann kann man die generelle Mindestspeicherbestückung anheben...

Was die jüngste News angeht - an sowas wie eine 8, 7, 6, 5, 4, 3 GB Bestückung glaube ich nicht. Als das kam habe ich endgültig aufgehört das ernst zu nehmen - das kann ich mir nicht vorstellen...

Triniter
2018-08-10, 22:34:39
Ich hab keine richtige Ahnung vom Evga Step up Programm. Könnte man jetzt ne 1080ti kaufen und dann auf die 80er der nächsten Generation Wechseln? Oder ist das nicht drin und man kann nu ti auf ti upgraden? Ich geh mal davon aus, die 1080ti müsste man jetzt noch vor dem Release kaufen oder?

Rancor
2018-08-10, 23:44:56
wenn die 1180 und co wirklich weniger speicher haben, dann wirds eben ne 1080ti.