Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 [43] 44 45 46 47 48

Hakim
2018-12-27, 17:35:57
Vorhin das mit den 3, 4 und 6 GB Varianten der 2060 (TU106) gelesen, ja hier wird über die 6 GB gestritten und man bringt tatsächlich noch eine 4 und 3 GB Version. Wie wird wohl die 4GB Version realisiert? 128 Bit Anbindung? Dann könnte man ja sich entscheiden zwischen pest (3GB) oder cholera (4GB aber 128 Bit).

basix
2018-12-27, 18:44:44
Wie wird wohl die 4GB Version realisiert? 128 Bit Anbindung? Dann könnte man ja sich entscheiden zwischen pest (3GB) oder cholera (4GB aber 128 Bit).

Am einfachsten: 256 Bit mit niedrigem Takt ;) Bei 128 Bit killt es dir die Bandbreite. Dann wären beide Karten noch schlechter als sie sonst schon sind mit <6GB.

Leonidas
2018-12-27, 18:49:23
Oder auch einfach nur Platzhalter. Bei der EEC standen schon andere nie realisierte Karten.

Loeschzwerg
2018-12-27, 18:56:23
Ach, als Resteverwertung für den asiatischen Markt gehen solche Varianten durchaus OK.

Palpatin
2018-12-28, 07:33:17
Um Raytracing sinnvoll auf der 2060 zu nutzen muss man eh auf 720p runter, dafür reichen dann auch die 3GB, macht also schon Sinn die Karte. :freak:

AffenJack
2018-12-28, 15:18:58
Lenovo bestätigt die 1160 mit 192Bit:
https://support.lenovo.com/de/de/solutions/pd500220

Damit also wohl 1536 SP, 192Bit GTX1160 vs 1280 SP, 192 Bit GTX 1060.

Ich schätze 12 Gbps GDDR6, wären 20% mehr Shaderpower als die 1060, 50% mehr Speicherbandbreite, sollte durchaus 30% über der 1060 rauskommen.

Raff
2018-12-28, 16:07:41
Da steht aber nichts von Turing (Shaders). :) Hoffen wir mal, dass die Verkrüppelung mit weniger als 6 GiByte dem Mobilbereich vorbehalten bleibt und nichts mit der RTX 2060 zu tun hat.

Das wird dem Anschein nach eine sehr sparsame Kiste, denn das Kühlsystem ist bisher maximal für eine GTX 1050 Ti freigegeben.

MfG,
Raff

AffenJack
2018-12-28, 16:14:57
Da steht aber nichts von Turing (Shaders). :) Hoffen wir mal, dass die Verkrüppelung mit weniger als 6 GiByte dem Mobilbereich vorbehalten bleibt und nichts mit der RTX 2060 zu tun hat.

Das wird dem Anschein nach eine sehr sparsame Kiste, denn das Kühlsystem ist bisher maximal für eine GTX 1050 Ti freigegeben.

MfG,
Raff

Nope, im Y530 gibts auch 1060er. Dürfte die 1060er in der TDP 1zu1 ersetzen.
Jo, würde auch hoffen, dass 3GB der 2060 erspart bleiben. 1160 dürfte dann eben auch beim Ram die 1060 3GB ersetzen mit einer billigen 3 GB Version.

Troyan
2018-12-28, 21:15:48
Videcardz hat Bilder der RTX2060FE: https://videocardz.com/79485/nvidia-geforce-rtx-2060-pictured-launches-january-7th

Release am 07.01 (CES Keynote) und Verfügbarkeit ab dem 15.01.

Hakim
2018-12-28, 22:16:43
Was man wohl dafür verlangen wird. Ich befürchte 399+. Für 289-329€ könnte man ja evtl über die 6gb hinwegsehen, frage ist wie es bezüglich P/L gegen die 1070 mit 8gb stehen wird die ja inzwischen teils ab 299€ zu kaufen gibt.

reaperrr
2018-12-28, 22:22:27
Was man wohl dafür verlangen wird. Ich befürchte 399+. Für 289-329€ könnte man ja evtl über die 6gb hinwegsehen, frage ist wie es bezüglich P/L gegen die 1070 mit 8gb stehen wird die ja inzwischen teils ab 299€ zu kaufen gibt.
Die 1070 werden sie schon länger nicht mehr produzieren, von daher wird sich die Frage erledigen, sobald die abverkauft ist.

Fetza
2018-12-29, 09:05:45
Wow, hier haten und flamen die Leute ja wieder rum... irgendwie schade.

Die Sache ist die als die, Leute die Midrange kaufen, bezahlen so für Polaris oder GP106 200-300€ (also kurz nach Launch). Wenn es eine Richtig gute Karte ist auch mal ticken mehr. Aber die 2070 kostet direkt mal um die ~500€ und aufwärts. Ist aktuell etwas Kacke iwie. Aber ähnliche Probs haben ja 1070er und aufwärts Besitzer auch. Ist derzeit Problematisch mit Grafikkarten Kauf.

Hätte die 2060 in etwa 1070ti + paar %, also nah an der 1080 Performance, wäre sie für mich sehr interessant, aber die 6 GB stören mich.

Speziell zur 2070: Deren Preispunkt ist ja eigentlich verhältnismäßig normal. Die 1070 hatte zu ihrem Marktstart doch auch circa 500 Euro gekostet. Dazu sind die Turing Dies ja scheinbar auch alle ziemlich groß im Vergleich zu Pascal.

Raff
2018-12-29, 10:21:15
Es ist immer die Frage, von welchem Startpunkt man bewertet. Die GTX 1070 kostete vor zweieinhakb Jahren (!) tatsächlich rund 500 Euro. Das war damals aber sehr viel, die Karte geriet dafür in die Kritik, denn das vergleichbare Modell von 2014 kostete nur rund 300 Euro (wurde aber unnötig kaputtkastriert). Wir haben uns daran gewöhnt, alles drumherum wurde teurer, sodass die RTX 2070 preiswert aussieht und durchaus ist.

MfG,
Raff

ApuXteu
2018-12-29, 12:32:32
Von einer GTX1160 im Lenovo Y530 wurde ja schon im Juli auf mehren Seiten und auch auf Reddit berichtet.

z.B. hier:
https://www.computerbase.de/2018-07/lenovo-y530-geforce-gtx-1160/

Ich bin ja mal gespannt, ob hier wirklich etwas spannendes kommt. Hoffentlich ist es nicht einfach nur ein rebranding um die alten GPUs noch irgendwie loszubekommen.

Troyan
2018-12-29, 20:43:09
Ich denke, es sind reine Rebrands. Das größte Problem an Turing ist das komplett neue Cache- und SM-System.

Ansonsten macht Videocardz fleißig weiter mit der 2060:https://videocardz.com/79505/nvidia-geforce-rtx-2060-pricing-and-performance-leaked

Preis angeblich bei $349 (AIBs und FE!), Leistung auf 1070TI Niveau.

Und Battlefield 5 soll angeblich DLSS erhalten...

Linmoum
2018-12-29, 21:02:31
"Nur" rund 1070Ti-Performance und das laut Nvidias Reviewers-Guide höchstpersönlich? Also in der Realität nochmal weniger (ggü. verkrüppelten FEs), mit 2GB weniger und für >360€. Zum Start dann, wie üblich, eher mehr.

Autsch.

dildo4u
2018-12-29, 21:13:12
Ich meine AMD hat grad seinen RX 580 Ersatz gezeigt dagegen ist der Sprung hier gigantisch.Aufpreis scheint Vergleichbar 50$.

Die 1060 FE lag immer noch bei 299.

https://www.nvidia.com/en-us/shop/geforce/?page=1&limit=9&locale=en-us&gpu=GTX%201060&gpu_filter=RTX%202080%20Ti~5,RTX%202080~22,RTX%202070~17,GTX%201080%20Ti~1,GTX%2 01080~2,GTX%201070%20Ti~8,GTX%201070~12,GTX%201060~25,GTX%201050%20Ti~17,GTX%201 050~22

Ex3cut3r
2018-12-29, 21:28:17
Ich wurde mal sagen, die 6GB gehen noch in Ordnung, ja auch wenn das manche nicht hören wollen, das reicht momentan bis rauf auf 1440p. Wenn man bei 7nm wieder wechseln will, dann geht das imo jetzt in Ordnung, wenn man aber plant die Karte länger zu nutzen, dann sollte man doch lieber was mit 8GB Kaufen.

Hakim
2018-12-29, 21:33:54
Die Karte wäre an sich echt interessant für mich, etwa ~1070ti Niveau. Ich mach mir nur wegen dem Speicher halt Sorgen und vermutlich zu Anfang 350€+. Da könnte man alternativ zum 1070Ti greifen falls es gute Schnäpper gibt. Bei über 350€, fragt man halt, evtl doch 2070? Auch wenn es absolut Overkill für die meisten meiner gespielten Spiele wäre.

Linmoum
2018-12-29, 21:35:09
Weiß nicht, was daran in Ordnung sein soll, wenn Produkt X einen Nachfolger bekommt, der in einem entscheidenden Aspekt sogar beschnitten wird und weniger bietet. Und reichen tun 8GB in der Tat (noch), aber 6GB? Die kriegt man schon heute einfach voll, wenn man will. Dafür muss man nicht einmal großen Aufwand betreiben.

dildo4u
2018-12-29, 21:36:32
Tomb Raider und Wildlands drücken die Karte schon jetzt in 1080p auf 60fps,die Karte wird 2019 und 2020 eh zu einer 1080p Karte.

Troyan
2018-12-29, 21:37:25
Die Karte wäre an sich echt interessant für mich, etwa ~1070ti Niveau. Ich mach mir nur wegen dem Speicher halt Sorgen und vermutlich zu Anfang 350€+. Da könnte man alternativ zum 1070Ti greifen falls es gute Schnäpper gibt. Bei über 350€, fragt man halt, evtl doch 2070? Auch wenn es absolut Overkill für die meisten meiner gespielten Spiele wäre.

Wenn die FE ebenfalls $349 kostet, dann wird diese dafür verkauft.

Ex3cut3r
2018-12-29, 21:45:17
Weiß nicht, was daran in Ordnung sein soll, wenn Produkt X einen Nachfolger bekommt, der in einem entscheidenden Aspekt sogar beschnitten wird und weniger bietet. Und reichen tun 8GB in der Tat (noch), aber 6GB? Die kriegt man schon heute einfach voll, wenn man will. Dafür muss man nicht einmal großen Aufwand betreiben.
Bietet nur im Bereich VRAM weniger, sonst in allen Punkten gleichwertig oder besser. Man muss selbst abwägen, wer eine 2060 kauft, hatte bisher vermutlich keine 8GB GPU im Rechner und sicherlich auch keine 1070Ti Leistung. Ganz einfach.

Wenn die 1070Ti EOL geht, hat man eigentlich sowieso keine Wahl außer AMD (RX 590) vlt. kaufen dann auch mal mehr Leute einfach AMD Karten wegen den 8 GB. Wird Nvidia ja dann merken.

dildo4u
2018-12-30, 02:10:21
Techspot hat grad erst wieder gebencht wie viel Vram bzw Ram man in den neusten Games braucht selbst 4GB scheint bei den Midrange Karten noch ok zu sein.

https://farm8.staticflickr.com/7843/45796245814_de23fcd976_b.jpg (https://flic.kr/p/2cLRJn5)Mid_SotTR_1080p (https://flic.kr/p/2cLRJn5) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://farm8.staticflickr.com/7898/45796261264_8f60382378_b.jpg (https://flic.kr/p/2cLRNXs)Mid_Hitman_1080p (https://flic.kr/p/2cLRNXs) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.techspot.com/article/1770-how-much-ram-pc-gaming/

-=Popeye=-
2018-12-30, 03:31:44
Was für ein sinnloser Test, laut deiner Analyse reichen 8GB SysRAM und 3GB VRAM für alles aus und mehr ist Verschwendung.

Korvaun
2018-12-30, 08:49:26
Wieso sinnloser Test? Zeigt doch nur das es auch 2018 noch Spiele gibt die sehr wenig Speicher benötigen um ordentlich zu laufen (in 1080p). Genauso wie es ein paar Beispiele gibt die 11/12 GB komplett zuballern...

Was mich an der RTX2060 mehr stört sind die RT/Tensor Kerne, die Zielgruppe der Karte wird davon höchstwahrscheinlich überhaupt nichts haben, ist eher verschwendete Fläche für besseres Marketing (obwohl das vielleicht den Flächenverbrauch am Ende wieder wett macht, wenn die Leute die Karte kaufen wegen der BlingBling-Features ;) ).

MikePayne
2018-12-30, 09:31:28
*del*

HOT
2018-12-30, 10:17:00
Ihr wisst schon, dass Speichermangel je nach Technik nicht nur auf die Framerate geht sondern vor allem auf die BQ. Von daher ist das ganze "die hat ja genug Speicher"-Gelaber eh Schwachsinn. Es gibt schon jetzt genug Beispiele, bei denen 6GB in FullHD reichen aber darüber nicht mehr. Das ist nicht sehr zukunftssicher, selbst wenn 6GB jetzt ausrechend sind.
Man will doch kein ausreichend... vor allem, wenn die Konkurrenz mehr bietet.

Fetza
2018-12-30, 10:45:54
Wir haben uns daran gewöhnt, alles drumherum wurde teurer, sodass die RTX 2070 preiswert aussieht und durchaus ist.

MfG,
Raff

Und wir haben letztlich auch leider keine Wahl. Als Gamer kann man ja nicht einfach keine Karte kaufen. Ich finde, dass man aber auch mal positiv anmerken sollte, dass NVidia mit Turing wieder ordentlich neue Technologie etabliert, bzw. zu etablieren versucht.
Ich glaube, ich werde es so machen: eine 2060, falls der Preis 330 Euro nicht überschreitet, ansonsten wird es wohl eine 2070. Die bekommt man mittlerweile auch schon für 480 Euro.

robbitop
2018-12-30, 11:46:19
Für 500€ gab es vor ein paar Jahren noch alle 18 M eine High End Karte. Nun bekommt man die salvage Variante des Mainstreamchips.
Sicher sind steigende Entwicklungskosten und höhere Abschreibungen in der Fertigung eine Teilursache. Der mangelnde Wettbewerb ist sicherlich auch eine wesentliche Komponente.

Man sah im CPU Markt wie schnell und heftig P/L ansteigt, wenn es wieder Wettbewerb gibt.

Da Intel in ein paar Jahren GPUs bauen wird und AMD laut Lisa aufh plant hier wieder mehr Gas zu geben (dank Ryzen verdient man ja auch wieder was), wird sich das mittelfristig hoffentlich wieder verbessern.
Man sieht ja an NVs Gewinnspannen (kann man in jedem Börsenportal einsehen) dass bei den Preisen viel Luft ist.
(ich kritisiere da nicht NV - jedes Unternehmen hat das Ziel den Profit zu maximieren, wenn man es lässt - alles richtig gemacht - der Markt bzw der Wettbewerb ist hier wher die Ursache).

Raff
2018-12-30, 12:45:33
Und wir haben letztlich auch leider keine Wahl. Als Gamer kann man ja nicht einfach keine Karte kaufen. Ich finde, dass man aber auch mal positiv anmerken sollte, dass NVidia mit Turing wieder ordentlich neue Technologie etabliert, bzw. zu etablieren versucht.
Ich glaube, ich werde es so machen: eine 2060, falls der Preis 330 Euro nicht überschreitet, ansonsten wird es wohl eine 2070. Die bekommt man mittlerweile auch schon für 480 Euro.

Naja, wir haben schon die Möglichkeit, einfach mal nichts zu kaufen. Das klappt umso besser, wenn man in der Generation vorher richtig zugelangt hat.

Was uns überhaupt nicht hilft, ist, immer nur Nvidia zu kaufen und zu empfehlen. Dafür gibt es nur wenige rationale Gründe, nicht mal mehr den Treiber. ;) Eine RTX 2060 mit 6 GiByte ist ein Speicherkrüppel. Diskussion beendet. Das ist einfach unausgewogen. Da sollte man ganz klar das Geld AMD geben, damit die genug für Forschung und Entwicklung haben und bald wieder konkurrenzfähig sind. Zur RTX 2070 habe ich ja schon mehrfach gesagt, dass ich diese für eine ausgewogene, attraktive Karte halte. Da oben hat AMD einfach nichts mehr entgegenzusetzen, aber die kommende RTX 2060 ist allem Anschein nach ziemlicher Unsinn. Das muss man auch nicht schönreden, sonst bleiben wir ewig bei 6/8/11 GiB kleben.

MfG,
Raff

Hakim
2018-12-30, 13:51:47
Dann liegt es an euch das aufzuzeigen, aber bitte nicht an midrange untypischen settings wo man sowieso nicht ausreichend fps hätte.

Raff
2018-12-30, 14:04:38
Ist überhaupt kein Problem, ich kann dir ganz problemlos fünf Spiele in Full HD und WQHD (das sollte mit einer 350-Euro-Grafikkarte gehen) zusammenbenchen, bei denen die RTX 2060/6G deutlicher hinter der RTX 2070/8G liegt als im Mittel. Natürlich ist man mit 6 GiByte nicht total verloren, aber es gibt genug Spiele, bei denen man das bei den Fps merkt. Vom sichtbaren Texturschwund, der sich kaum in Zahlen pressen lässt, nicht zu sprechen. Wurde ja schon mehrfach hier gesagt. :) Und fiesere Spiele werden kommen.

MfG,
Raff

Hakim
2018-12-30, 14:15:21
Vielleicht in einem extra Abschnitt beim 2060 Review. Dem gegenüber wird der 2060 beim Test den aktuellen midrange Karten bei der Balken länge davon laufen. Da wäre es gut, das man wichtige negativ Punkte beim Vram und Preis aufzeigt.

reaperrr
2018-12-30, 16:36:02
Also ich fühle mich mit meiner 1070 wohler, als ich es mit einer 2060 tun würde. Mit Abstrichen bei z.B. Shader-Details kann ich eher leben als mit Streaming-Mikrorucklern und Abstrichen bei der Texturauflösung.

dildo4u
2018-12-30, 16:53:12
Die einzige Karten die klar an Vram sterben sind Fury X und GTX 970,BO4 ist ein gutes Beispiel für Game was weit über dem Durchschnitt Vram will.

https://www.computerbase.de/2018-10/cod-black-ops-4-battle-royale-benchmark/2/#abschnitt_grafikkartenbenchmarks_von_full_hd_bis_ultra_hd

Die 1060 6GB läuft ok was auch komplett sinn machen das sie mit Abstand die meiste Verkaufte Gaming GPU ist,kein Entwickler lässt sich den Markt entgehen.

Linmoum
2018-12-30, 17:48:02
Die einzige Karten die klar an Vram sterben sind Fury X und GTX 970
Stimmt, die 1060/3GB kann zaubern.

Bei einer 2060 mit 6GB für 360€ aufwärts kann man schon einmal einen Blick weiter nach unten auf eine potentielle 1150/2050 werfen. Da gab es ja schon Gerüchte, dass diese mit 4GB kommt. Die wäre dann genau das, was du aktuell der 1060 zuschreibst - Anwärter zur meistverkauften Gaming-GPU, u.a. aufgrund des Preises. Aber mit dann nur 4GB? Nope.

Wir reden hier nicht über eine 220€-GPU mit 6GB, sondern über eine, die zum Launch sicherlich um die 400€-Marke landen wird. Das ist in so einem Preisbereich absurd.

Ex3cut3r
2018-12-30, 17:53:18
Mag für dich Absurd sein, für jemanden von 3 oder 4GB kommend ist das ein Upgrade. Ganz einfach. Man sollte einfach mal die Steam Charts ansehen, dass 3DCenter mit Ihren "Highendlern + Enthusiasten" stellt nicht grade die PC Schicht dar.

x-dragon
2018-12-30, 18:31:45
Mag für dich Absurd sein, für jemanden von 3 oder 4GB kommend ist das ein Upgrade. Ganz einfach. Man sollte einfach mal die Steam Charts ansehen, dass 3DCenter mit Ihren "Highendlern + Enthusiasten" stellt nicht grade die PC Schicht dar. ... und wieviele davon würden 350+€ für eine neue Grafikkarte ausgeben? :rolleyes:

Monsta
2018-12-30, 18:32:51
Falls die 2060 350 -400 € kostet, wird sie sicherlich nicht die Steam Charts erobern.
Bei dem Preisbereich hat sie die 1070 und Vega 56 als Konkurrenz, und die haben 8Gb.

Ex3cut3r
2018-12-30, 20:27:38
1070/Ti geht bald EOL, von daher hat man bald nur die Wahl ob 2060 oder 590.

Linmoum
2018-12-30, 20:34:02
Warum 2060 und 590? Wohl eher 2060 und Vega56, die 590 spielt eine Preisklasse darunter. Die bekommt dann eher eine 1150/2050, sofern Nvidia die 1060 nicht (vorerst) einfach weiterlaufen lässt.

Ex3cut3r
2018-12-30, 21:21:56
Hmm na gut, Effizienz mäßig aber eine Katastrophe out of the box jedenfalls, 150W vs 250W.

Monsta
2018-12-30, 22:41:42
Hmm na gut, Effizienz mäßig aber eine Katastrophe out of the box jedenfalls, 150W vs 250W.


Für die 100Watt mehr gibt es aber nen guten Open Source Treiber oben drauf, abgesehen von den 2Gb mehr Ram :)

RLZ
2018-12-30, 23:05:17
Für die 100Watt mehr gibt es aber nen guten Open Source Treiber oben drauf,
Wow. Das sollte mehr in die Presse. Die Leute werden sich in den Geschäften um die Karten verschlagen. :freak:

pilzsammler2002
2018-12-30, 23:53:25
Für die 100Watt mehr gibt es aber nen guten Open Source Treiber oben drauf, abgesehen von den 2Gb mehr Ram :)

Die 100w bekommst mit kurzen testen und einstellen auch noch weg ohne das die Performance spürbar sinkt (wenn überhaupt) :freak:

x-force
2018-12-31, 01:43:42
Die 100w bekommst mit kurzen testen und einstellen auch noch weg ohne das die Performance spürbar sinkt

du solltest dich bei amd bewerben ;D

jetzt wieder turing bitte

Leonidas
2018-12-31, 05:13:59
Die RTX2060 ist in jedem Fall namenstechnisch falsch benannt. Die ist keine Midrange-Lösung, sondern unteres HighEnd - Nachfolger von GTX970 und GTX1070. Es sei denn wir akzeptieren, das Midrange plötzlich bis nahe 400 Euro geht.

Der Kontrahent ist somit die Vega 56, denn GTX1070/Ti laufen aus. AMD wird somit preislich gut unter Druck gesetzt, denn RTX2060 ist schneller, zieht weniger Saft, ist neuer, kostet weniger. Interessant wird, ob AMD den Preis von Vega 56 eventuell wirklich senkt - was dann aber auch Auswirkungen nach unten hätte (RX590).

Im echten Midrange-Bereich dürfte es dagegen zu einer GTX1160/Ti kommen - wobei die Chipbasis noch unklar ist. Teilweise sehen auch die Händlerlistungen zur GTX1060 schon nach Auslauf aus - schlechte Verfügbarkeit und leicht teurer als noch vor 2-3 Wochen.

basix
2018-12-31, 09:18:18
Der Name ist doch ok. Man hat weiter oben ja schon alles besetzt. Was nicht passt sind die Preise ;)

Timbaloo
2018-12-31, 10:11:06
Der Kontrahent ist somit die Vega 56, denn GTX1070/Ti laufen aus. AMD wird somit preislich gut unter Druck gesetzt, denn RTX2060 ist schneller, zieht weniger Saft, ist neuer, kostet weniger. Interessant wird, ob AMD den Preis von Vega 56 eventuell wirklich senkt - was dann aber auch Auswirkungen nach unten hätte (RX590).
Wird auch Zeit, dass AMD mit ihren Apothekerpreisen mal unter Druck gesetzt wird :freak:

pilzsammler2002
2018-12-31, 10:40:27
du solltest dich bei amd bewerben ;D

jetzt wieder turing bitte
Nene lieber nicht xD

Ich bin mir aktuell immer noch nicht sicher ob die 2060 nicht doch eher 1070 als ti wird...
Der Abstand wäre gefühlt zur 2070 zu klein...

Mortalvision
2018-12-31, 10:48:38
Der Abstand liegt im kleineren und schlechter angebundenen VRAM => Finger weg!

dildo4u
2018-12-31, 10:53:09
Die Bandbreite liegt über den alten 450€ GDDR5 Karten wie die 1070 Ti,256 GB/s vs 336 GB/s.

Ex3cut3r
2018-12-31, 13:01:00
Die 100w bekommst mit kurzen testen und einstellen auch noch weg ohne das die Performance spürbar sinkt (wenn überhaupt) :freak:

Ja klar, sagen wir mal 50W. Die 2060 kann aber auch undervolten, also sind wir dann wieder beim gleichen. 200W vs 100W. Lächerlich AMD ist mittlerweile 3 Gens zurück was zumindest die Effizienz angeht. VRAM hin oder her, ist beides Mist.

aufkrawall
2018-12-31, 13:22:28
Wow. Das sollte mehr in die Presse. Die Leute werden sich in den Geschäften um die Karten verschlagen. :freak:
Der Windows-Treiber ist bei Nvidia ja auch mittlerweile chronisch zerhackter Müll. Bei AMD gibts mal Ausfall-Treiber und dann fängt sich das wieder. Nvidia fixt viele Probleme einfach gar nicht mehr. Wenn man nur Nvidia kennt, schiebt man viele Probleme schnell mal auf Windows, aber wenn dann durch Einbau einer Radeon auf einmal zig Probleme einfach komplett verschwinden...

horn 12
2018-12-31, 13:28:36
Ganz Neue Töne bei Dir!

aufkrawall
2018-12-31, 13:41:15
Sag ich eigentlich schon seit Monaten. Jüngster Test mit 4k 60Hz-Monitor und 1060 vs. 580 hat das wieder bestätigt, Nvidia schafft nicht mal zuverlässig flüssige Fenster-Animationen. Nicht mal der Windows-Compositor läuft richtig mit deren Treiber...

Fusion_Power
2018-12-31, 15:28:43
Die RTX2060 ist in jedem Fall namenstechnisch falsch benannt. Die ist keine Midrange-Lösung, sondern unteres HighEnd - Nachfolger von GTX970 und GTX1070. Es sei denn wir akzeptieren, das Midrange plötzlich bis nahe 400 Euro geht.

Also 400 Euro für ne "Sechziger" finde ich schon sehr grenzwertig, was sollen dann die 2050er kosten, 300 Euro? :freak:
Klingt zwar naiv, die Preise nach Bezeichnung und nicht nach Leistung haben zu wollen aber was bleibt dann für den "kleinen Mann" übrig wenn die einstmals Mittelklasse GraKas schon Oberklasse preise haben? Ich dachte, dank AMD's erstarken im Grafikkarten bereich drückt NVidia endlich mal die Preise anstatt sie weiter zu erhöhen. Wie viel Marktanteil braucht AMD denn noch bis das tatsächlich passiert.

Hakim
2018-12-31, 15:53:52
Wie viel Marktanteil braucht AMD denn noch bis das tatsächlich passiert.

Musst schon unterscheiden zwischen CPUs und GPUs. Schau mal wie viel Anteil AMD hat. https://store.steampowered.com/hwsurvey/videocard/

Was meinste warum sich NVidia derzeit so einiges erlaubt (Preislich und wenig Speicher). Das macht man nur wenn man sich das aufgrund der Marktlage auch erlauben kann. In Hardware Foren ist der AMD Anteil aber in der Regel deutlich höher.

Troyan
2018-12-31, 15:56:52
Also 400 Euro für ne "Sechziger" finde ich schon sehr grenzwertig, was sollen dann die 2050er kosten, 300 Euro? :freak:
Klingt zwar naiv, die Preise nach Bezeichnung und nicht nach Leistung haben zu wollen aber was bleibt dann für den "kleinen Mann" übrig wenn die einstmals Mittelklasse GraKas schon Oberklasse preise haben? Ich dachte, dank AMD's erstarken im Grafikkarten bereich drückt NVidia endlich mal die Preise anstatt sie weiter zu erhöhen. Wie viel Marktanteil braucht AMD denn noch bis das tatsächlich passiert.

AMD hat letzten Monat den dritten Aufguss einer 2012 Architektur gebracht. Dagegen ist die 2060 ja wohl eine Offenbarung.

x-force
2018-12-31, 16:04:38
Die RTX2060 ist in jedem Fall namenstechnisch falsch benannt. Die ist keine Midrange-Lösung, sondern unteres HighEnd - Nachfolger von GTX970 und GTX1070. Es sei denn wir akzeptieren, das Midrange plötzlich bis nahe 400 Euro geht.

man sollte die vorhandenen produkte der leistung nach segmentieren.

über einer 2060 gibt es 2070 80 80ti und titan.
2030 2050 2050ti liegen potentiell darunter. 2060 kann nur midrange sein.

willst du einem wirklich 6gb als highend andrehen?

Timbaloo
2018-12-31, 16:09:11
AMD hat letzten Monat den dritten Aufguss einer 2012 Architektur gebracht.
Hey, immerhin hat man Perf/W deutlich optimiert und mit den Preisen deutlich runtergegangen. Und von GDDR5 auf GDDR6 ist man auch umgestiegen.

Kriton
2018-12-31, 17:27:54
Die RTX2060 ist in jedem Fall namenstechnisch falsch benannt. Die ist keine Midrange-Lösung, sondern unteres HighEnd - Nachfolger von GTX970 und GTX1070. Es sei denn wir akzeptieren, das Midrange plötzlich bis nahe 400 Euro geht.

Ja, ich erinnere mal an die 460/560, die es für ca. 150,- € bis 180,- € (IIRC) als custom (!!!) gab.

-=Popeye=-
2018-12-31, 17:42:52
@-=Popeye=-

Resoultion Scale von 200% 3440x1440 = 6880x2880

Da ist es wohl logisch, dass man VRAM Verbrauch von über 8 GB sieht. :freak:

Für SoTTR hat er 4xSMAA aktiviert, welches 2xMSAA Anteile drin hat.

Suchst du jetzt extra Stellen, um mich mit meinen Aussagen mit dem VRAM @ 3440x1440 Nativ blöd aussehen zu lassen? Oder soll mir das jetzt sagen? :rolleyes:

Ansonsten viel Spaß beim suchen, wenn man sonst nix zu tun hat. :up:

BFV zieht mit den selben Settings (siehe Video (https://www.youtube.com/watch?v=OUA1sCbSgFs)) in DX11 übrigens nur max. 7,8GB. ;)

Mit solchen low-FPS würde ich nicht zocken wollen. :freak:

Ich persönlich auch nicht.:tongue:

Erstens das. Und zweitens frage ich mich bei den sinnlosen Diskussionen immer wieder wann endlich jeder begreift, dass ein Spiel X nicht unbedingt mehr als 8GB Speicher braucht nur weil die eigene Graka mit mehr als 8GB (in dem Fall 11GB) >8GB Verbrauch anzeigt? Bei mir liegt der Vram Verbrauch im Benchmark von SotTR in 4k mit max. Details bei max. 7,4GB.

SotTR ist Abschnitt abhängig und ja 8 reichen in der Regel.

Fusion_Power
2018-12-31, 18:04:40
Musst schon unterscheiden zwischen CPUs und GPUs. Schau mal wie viel Anteil AMD hat. https://store.steampowered.com/hwsurvey/videocard/

Was meinste warum sich NVidia derzeit so einiges erlaubt (Preislich und wenig Speicher). Das macht man nur wenn man sich das aufgrund der Marktlage auch erlauben kann. In Hardware Foren ist der AMD Anteil aber in der Regel deutlich höher.
So scheints wohl leider auszusehen. Aber ich traue AMD noch einiges zu, im CPU Bereich haben sie ja auch noch überraschen können.

AMD hat letzten Monat den dritten Aufguss einer 2012 Architektur gebracht. Dagegen ist die 2060 ja wohl eine Offenbarung.
Auf jeden Fall. Aber der Preis ist halt keine Offenbahrung.

Vielleicht mischt Intel ja den kompletten Markt auf wenn sie irgend wann ihre dedizierte Grafikkarte raus bringen, was meint ihr? :freak:

just4FunTA
2018-12-31, 18:35:17
BFV zieht mit den selben Settings (siehe Video (https://www.youtube.com/watch?v=OUA1sCbSgFs)) in DX11 übrigens nur max. 7,8GB. ;)




laut video ist das dx12 und es zieht ~10,5gig

Ex3cut3r
2018-12-31, 19:11:57
laut video ist das dx12 und es zieht ~10,5gig

Jap, und ist wieder 200% Resoultion Scale von 3440x1440 macht wieder 6880x2880. Langsam frage ich mich ob er sich das selbst ansieht oder nicht lesen kann.

-=Popeye=-
2018-12-31, 19:34:46
Ihr seid echt schwer von Begriff oder?

Die Aussage war: MIT GLEICHEN SETTINGS NUR MIT DX11 ZIEHT ES MAXIMAL 7,8GB.

Fazit: 8GB reichen

Thunder99
2018-12-31, 19:37:39
Ein Android Phone belegt auch mehr Speicher wenn es das Gerät hat. Flüssig läuft es auch mit weniger Speicher.

Zwischen belegen und wirklich nutzen ist nach wie vor ein Unterschied. Aber wenn man Settings findet die einem den Speicher voll knallt ist doch schön :freak:

Die Meldung über GTX 1160 finde ich komisch. Dann hätte man ja zwei parallele "Generationen" am laufen. Notebook hin oder her.

dildo4u
2018-12-31, 19:46:13
Die kommen auch für den Desktop als 1050 Ersatz,sie sollen aber dennoch Turing Shader Cores nutzen,die ganze Treiber Abreit wirkt sich also auch dort positiv aus.
RTX und Tensor Einheiten werden vermutlich nicht aktiv bzw gar nicht erst dabei sein.

Thunder99
2018-12-31, 19:53:28
Würde auch ein einfaches GTX anstelle RTX langen. Wie damals: G, GT, GTX, Ultra.
Aber alles nur Spekulationen :D. Namen sind nur Schall und Rauch

Troyan
2018-12-31, 21:46:42
Auf jeden Fall. Aber der Preis ist halt keine Offenbahrung.

Vielleicht mischt Intel ja den kompletten Markt auf wenn sie irgend wann ihre dedizierte Grafikkarte raus bringen, was meint ihr? :freak:

Ja, der Preis ist unschön. $299 wären viel besser.

Aber im Vergleich zum einzigen Konkurrenten, sind selbst $349 für die 2060 noch in Ordnung. Denn im Gegensatz zu nVidia hat der Konkurrent eine zwei Jahre alte(!) auf 2012 Technik basierende GPU nicht nur zum zweiten Mal einfach umbenannt, sondern der Stromverbrauch stieg von 160W auf 225W und der Preis von $239 auf $279 an.

Mortalvision
2018-12-31, 22:06:59
Äpfel und Birnen. Die 2060 könnte locker für 250 vertickt werden, aber nvidia nimmt a) gern Profit mit und b) lässt man AMD halt paar Krümel übrig im Gamingmarkt. Datacenter und AI siehts wieder anders aus.

Linmoum
2018-12-31, 22:12:04
Ja, der Preis ist unschön. $299 wären viel besser.
Ja, die Speichermenge ist unschön. 8GB wären viel besser.

Aber im Vergleich zum einzigen Konkurrenten, sind selbst $349 für die 2060 noch in Ordnung.
Nein, nicht im entferntesten.

Denn im Gegensatz zu nVidia hat der Konkurrent eine zwei Jahre alte(!) auf 2012 Technik basierende GPU nicht nur zum zweiten Mal einfach umbenannt,
Denn im Gegensatz zu AMD hat der Konkurrent eine fast 2 1/2 Jahre alte(!) GPU zum zweiten Mal mit "anderem" Speicher (erst die 9Gbps, jetzt GDDR5X) bestückt. Genial. ;D

sondern der Stromverbrauch stieg von 160W auf 225W und der Preis von $239 auf $279 an.
Die 480 Nitro+ hat 223W (https://www.tomshw.de/2017/04/03/amd-polaris-benchmark-analyse-review/7/) gezogen, die XFX 590 Fatboy zieht knapp 238W (https://www.tomshw.de/2018/11/15/radeon-rx-590-im-test-polaris-am-absoluten-limit/15/). Nach Adam Riese ein Plus von nicht ganz 7% bei einer um rund 10% höheren Performance.

Wie du auf 160W für 480 Customs kommt, bleibt dein Geheimnis. Denn wie dir bekannt sein dürfte, gibt es von der 580 und 590 keine Referenzkarten. Schockiert mich, dass gerade du hier Referenzwerte mit denen von Customs vergleichst.

Wie hoch der Aufpreis damals bei der 1060 9Gbps war, sage ich jetzt mal lieber nicht. Dann werden deine Ausführungen ggü. AMD noch peinlicher. ;D

Troyan
2018-12-31, 22:20:57
AMD kann die RX590 auch für $150 verkaufen. Tun sie nur nicht.


Denn im Gegensatz zu AMD hat der Konkurrent eine fast 2 1/2 Jahre alte(!) GPU zum zweiten Mal mit "anderem" Speicher (erst die 9Gbps, jetzt GDDR5X) bestückt. Genial. ;D

Exakt gleicher Name. Du willst das doch jetzt nicht mit der Verarsche von AMD vergleichen... doch das willst?! Lmao.

just4FunTA
2018-12-31, 23:06:19
Ihr seid echt schwer von Begriff oder?

Die Aussage war: MIT GLEICHEN SETTINGS NUR MIT DX11 ZIEHT ES MAXIMAL 7,8GB.

Fazit: 8GB reichen


wozu verlinkst du dann ein video mit dx12 und ~10,5gig verbrauch?

aufkrawall
2019-01-01, 00:13:04
AMD kann die RX590 auch für $150 verkaufen. Tun sie nur nicht.

Verkaufen sich wohl im Vergleich zur 1060 auch bei höherem Preis gut genug...

Linmoum
2019-01-01, 00:35:22
Wenn man sich die hohen Preise bzw. die teils nur schlechte Verfügbarkeit anschaut wäre das auch kein Wunder.

Insofern bin ich gespannt, ob man der 1060 zur CES auch einen (Turing-)Nachfolger spendiert oder sie erst einmal weiterlaufen lässt.

BiZiNiZz
2019-01-01, 16:08:50
Könnten die AMD Fanboys bitte wieder zurück in den Kindergarten und dort weiter ihr heiliges AMD überhypen. Jedesmal der gleiche Mist hier im Thread.....

spotz
2019-01-02, 20:24:19
In den 3DC News schrieb Leo über Tu116 und 117 so als ob sie ebenfalls in 12nm gefertigt werden. Ist das den tatsächlich schon klar? Vor ein paar Monaten hieß es noch das bei denen auch die 7 oder 10nm Fertigung möglich sei, da sie deutlich später (6-9 Monate?) erscheinen.

Nvidia verteilte Pascal ja auch auf zwei verschiedene Hersteller und Fertigungsverfahren. Daher hoffte ich das Tu116 und 117 so wie GP107 und 108 bei Samsung gefertigt werden. Dann vielleicht in 8LPP oder LPU. Bei Anandtech (https://www.anandtech.com/show/13329/samsung-foundry-updates-8lpu-for-2019) gab es ja mal die Meldung das Samsung den 8LPP und LPU Prozess für Kunden anbiete, die jetzt noch keinen Zugang zur 7nm EUV Fertigung bekämen (wohl zu geringe Produktionsmenge), weil eine weitere 7nm EUV Fabrik erst in 2020 die HVM Produktion starte. Das hätte doch gut gepasst, oder?

Troyan
2019-01-02, 20:29:44
Der Geforce-Nachfolger kommt frühsten 2020 in 7nm. Wenn es noch weitere Turing-Chips gibt, dann wird es auch weiterhin bei 12nm bleiben.

Leonidas
2019-01-03, 14:03:05
In den 3DC News schrieb Leo über Tu116 und 117 so als ob sie ebenfalls in 12nm gefertigt werden. Ist das den tatsächlich schon klar? Vor ein paar Monaten hieß es noch das bei denen auch die 7 oder 10nm Fertigung möglich sei, da sie deutlich später (6-9 Monate?) erscheinen.



7/10nm bei kleineren Turing-Lösungen war immer schon spekulativ. Über den zeitnahmen Release erledigt sich das sowieso - wenn 7nm, dann nicht vor Sommer 2019. 10nm ist bei NV sowieso anscheinend durch.

HOT
2019-01-03, 15:29:48
Die könnten aber wieder von Samsung kommen, dann in 11nm, wie Polaris 30.

Dural
2019-01-03, 17:44:28
Der Geforce-Nachfolger kommt frühsten 2020 in 7nm. Wenn es noch weitere Turing-Chips gibt, dann wird es auch weiterhin bei 12nm bleiben.

Da wäre ich mir gar nicht sicher. Schon die bezeichnung tu117 lässt schon eine andere fertigung erahnen, samsung ist da gut möglich.

Leonidas
2019-01-04, 04:42:17
TU116 sagt erstmal nur, das es ohne RT ist. Aber ja - anderer Fertiger ist möglich. Vielleicht doch wieder Samsung, wo Turing in der 10nm-Fertigung eigentlich mal geplant war.

spotz
2019-01-04, 05:16:39
Richtig zuversichtlich hört sich das nicht an. Eher nach Außenseiter Chancen. Naja ich hoffe dann mal weiter auf eine 10nm Fertigung bei Samsung.

Würde mir gerne ein Laptop mit GeForce 1150 oder 1550 besorgen. In 10nm sollte der Tu117 dann doch sehr stromsparend sein, hoffe ich, sofern er überhaupt so gefertigt wird. Mit Blick auf den Mobile Markt erscheinen mir 12nm oder 11LPP als keine so gute Wahl.

Leonidas
2019-01-04, 07:39:14
PS1: Ein japanischer Artikel nennt IBM und nVidia als Erstabnahmer für Samsungs 7nm-Fertigung.
PS2: Samsung selber hatte im Herbst schon gesagt, das sie unter 7nm eine GPU für HPC bauen werden.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-3-januar-2019

HOT
2019-01-04, 09:16:13
PS1: Ein japanischer Artikel nennt IBM und nVidia als Erstabnahmer für Samsungs 7nm-Fertigung.
PS2: Samsung selber hatte im Herbst schon gesagt, das sie unter 7nm eine GPU für HPC bauen werden.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-3-januar-2019
7nm ist glaub ich für die kleinen Turings trotzdem illusorisch. Hier gehts sicherlich um Ampere.
Hier bei Turing wäre das höchste der Gefühle 8lpp.

Leonidas
2019-01-04, 17:02:27
Hätte ich gar nicht anders aufgefasst. Der Zug 7nm für Turing ist IMO abgefahren: NV bringt *jetzt* alles raus, das ist zu früh für 7nm.

8nm als 10nm-Derivat ist dagegen logischerweise denkbar.

AffenJack
2019-01-04, 17:48:13
7nm für Samsung ist erstmal nicht überraschend und sagt zweitens erstmal gar nix darüber aus, ob Nvidia TSMC 7nm DUV oder EUV nicht auch benutzt. Nvidia hat schließlich auch bei Pascal Dual-Sourcing betrieben und vielleicht auch bei Turing. Ich tendiere zwar auch dazu, dass Nvidia DUV, außer bei HPC, überspringt, aber wer weiß.

Timbaloo
2019-01-04, 17:55:29
Wäre jetzt interessant zu wissen ob man wieder nur ein HPC Design hat, oder doch zwei.

Btw. würde besser in den Ampere-Faden passen die Diskussion.

AffenJack
2019-01-04, 18:00:07
Wäre jetzt interessant zu wissen ob man wieder nur ein HPC Design hat, oder doch zwei.

Btw. würde besser in den Ampere-Faden passen die Diskussion.

Meinst 1 Design für AI und 1 für DP oder wie? Glaube noch nicht, dass sich das wirklich lohnt. Allerdings erwarte ich Ampere als einzigen 7nm DUV Chip, während die nächste Consumergen dann eher in 7nm EUV kommt.

Timbaloo
2019-01-04, 20:20:21
Meinst 1 Design für AI und 1 für DP oder wie? Glaube noch nicht, dass sich das wirklich lohnt.
Ne, eher sowas wie fett (GA100, HBM) und weniger fett. Man hat ja erst HPC und Graphics getrennt, glaube auch nicht, dass man in der nächsten Gen dann HPC direkt auftrennen wird.

Weiß man wie Samsung mit großen Dies zurechtkommt? TSMC hat da die Messlatte ja ziemlich hoch gesetzt...

basix
2019-01-04, 21:11:25
IBM Chips werden auch gross werden. Und macht nochmals Sinn: NVLink IP vorerst nur für den Samsung Prozess zu entwickeln.

Dural
2019-01-04, 21:16:15
Ich gehe auch davon aus das nv bald zwei HPC chips bauen muss, 700-850mm2 monster die sind einfach sehr sehr teuer, da kann eine zusätzliche kleinere gpu schon sinnvoll sein. Vorallem wenn sich HBC chips immer wie mehr von den gamer chips absetzen werden.

Sunrise
2019-01-04, 22:05:08
Allerdings erwarte ich Ampere als einzigen 7nm DUV Chip, während die nächste Consumergen dann eher in 7nm EUV kommt.
Bist du dir da sicher? So ein HPC-Monster mit DUV zu produzieren ist wahrscheinlich nochmal um ein Vielfaches teurer (Yield) als wenn man gleich auf 7nm EUV geht.

Jedenfalls weiß IBM, warum sie gleich auf 7nm EUV springen, die bauen ja stetig so Ungetüme, dass einem die Kinnlade regelrecht offen steht und werfen nur mit Zahlen so um sich. Wenn IBM da an Samsung glaubt, dann sollte da auch eine fette HPC-GPU machbar sein und die Nähe zu IBM ist ja auch bekannt bei den Großprojekten. Irgendwie sieht mir das wenig nach Zufall aus.

IMHO sollte NV mit 7nm EUV anfangen (weil geringere Stückzahlen nötig) und bei 7nm DUV/EUV mit dem Rest weitermachen, je nachdem, welcher Split dann pro GPU sinnvoller ist. Die EUV-Kapazität wird ja bis 2020 absehbar limitiert sein, TSMC bietet sich daher für die Masse an, da TSMC bis dahin bei der 7nm-Kapazität entspannter sein wird (wenn auch wahrscheinlich weiterhin teurer als Samsung).

AffenJack
2019-01-05, 09:10:36
Volta ist alt, bald werden es 2 Jahre und gerade im HPC Space ist eine regelmäßige Roadmap für die Partner auch sehr wichtig. Da glaubst du doch nicht, dass Nvidia das Risiko eingeht auf dem HPC Markt durch AMD eins auf den Deckel zu kriegen. Man ist zwar Konkurrenzfähig mit V20, aber in der Produktplanung hat man 100 pro auch das Risiko eines deutlich stärkeren V20 eingeplant, wo Volta nix mehr zu sagen hätte. Dazu kommt 2019 sehr viel Konkurrenz im AI Markt von Startups etc. Man MUSS was bringen.

Bin ziemlich sicher, dass zur GTC 19 im März was in 7nm DUV vorgestellt wird. Dabei muss das dann gar kein ungetüm werden. Ich würde so einen 500 mm² Chip und nix größeres erwarten. Damit sollte man dann zwischen 10 und 20% mehr Transistoren unterbringen. Da die Interfaces gleich bleiben sollten, also so 6K Shader mit 20% mehr Takt und 1,2 Ghz HBM2, statt 0,9 Ghz. Insgesamt so 30% mehr Speed vs Volta. Im AI Bereich vielleicht irgendwie mehr.

Einzige Alternative dazu wäre ein reiner AI Beschleuniger. Raus mit DP und anderem Zeug und voll auf AI optimiert. Das wäre dann kein richtiger Volta Nachfolger, sondern ne neue Produktklasse. Aber irgendwas für AI wird definitiv kommen.

Daredevil
2019-01-07, 05:00:42
Was für ne unchristliche Zeit für ne Veranstaltung. Hatn bisschen was von Superbowl.:D
Moin!

Stream geht gleich los auf NVIDIA.de

Leonidas
2019-01-07, 05:07:31
In Taiwan ist halt schon Montag Mittag.

Daredevil
2019-01-07, 05:14:27
Jo ist schon klar, um 5 hab ich mir trotzdem noch nie was angesehen.
Focus on Gaming, jetzt kommt erstmal ne Stunde Raytracing Party.

JaniC
2019-01-07, 05:18:01
17 Minuten in, RayTracing Grundkurs dürfte gleich vorbei sein. ;)

Leonidas
2019-01-07, 05:19:08
Bedeutet dies, das nun 30 Minuten "RT is AWESOME!!!" bevorsteht?

Daredevil
2019-01-07, 05:29:02
Erstmal n kleiner AMD Diss vom TRex Man. :D

Digidi
2019-01-07, 06:09:15
Lol 2060 fur 350 Dollar oder besser gesagt 400 Euro....

Leonidas
2019-01-07, 06:10:24
Wo lagen eigentlich frühere 60er Versionen ... 6600GT oder so?

Digidi
2019-01-07, 06:11:35
Wo lagen eigentlich frühere 60er Versionen ... 6600GT oder so?


200-250 Euro.

https://www.computerbase.de/2012-09/test-nvidia-geforce-gtx-660/16/

Wake
2019-01-07, 06:17:33
Noch ein letztes Mal auf VESAs Adaptive Sync scheißen und dann doch unterstützen (evtl. nur von Nv zertifizierte Modelle?)? ;D

Edit: Bingo.

Daredevil
2019-01-07, 06:20:42
Holy shit, ich habe bald nen Freesync+Gsync Monitor. :D
Sehr cool!

Troyan
2019-01-07, 06:21:40
Noch ein letztes Mal auf VESAs Adaptive Sync scheißen und dann doch unterstützen (evtl. nur von Nv zertifizierte Modelle?)? ;D

Edit: Bingo.

Ist doch in Ordnung. Was bringen 90% Schrottmonitore? Deswegen hat G-Sync das Niveau, welches es seit der ersten Revision hat.

Für Leute, die A-Sync haben wollten, haben nun die Chance. Ist der beste Weg zwischen Schrott und Ultra-Highend.

Leonidas
2019-01-07, 06:22:37
200-250 Euro.

https://www.computerbase.de/2012-09/test-nvidia-geforce-gtx-660/16/


Meine Frage zielte eher in Richtung GeForce 6600 GT:
https://www.techpowerup.com/gpu-specs/geforce-6600-gt.c14

Digidi
2019-01-07, 06:23:26
Ist doch in Ordnung. Was bringen 90% Schrottmonitore? Deswegen hat G-Sync das Niveau, welches es seit der ersten Revision hat.

Für Leute, die A-Sync haben wollten, haben nun die Chance. Ist der beste Weg zwischen Schrott und Ultra-Highend.

Junge du hast es nicht gecheckt! Das ist ein heimlicher Kniefall vor dem VESA Standard. Bin mal gespannt welche Monitore das sind, sind bestimmt teure Modelle. Die Zertifizierung will ja bezahlt werden.

@Leonidas

Das lag schon immer so um 200 Euro

https://www.computerbase.de/2005-05/test-viermal-geforce-6600-gt-fuer-agp/21/

Troyan
2019-01-07, 06:26:32
Junge du hast es nicht gecheckt! Das ist ein heimlicher Kniefall vor dem VESA Standard. Bin mal gespannt welche Monitore das sind, sind bestimmt teure Modelle. Die Zertifizierung will ja bezahlt werden.

Lass deinen Unsinn doch bitte endlich mal wo anders ab.

Die Leute heulen, dass nVidia kein A-Sync unterstützt. Dann bringen sie es und die Leute heulen, dass nVidia nun A-Sync bringt.

Man, einige sind so zerfressen von ihren Hass, dass sie nicht mal mehr "Kniefälle" als gut betrachten.

Daredevil
2019-01-07, 06:28:06
Das OBS Ding isn heißes Eisen, das hat NVIDIA sehr klug gemacht. Qualitätssteigerung des Streams per GPU ist für manche ein Killerfeature.

Digidi
2019-01-07, 06:30:24
Ich hab etwas gegen deine Darstellung du hast doch immer gesagt das A-Sync nie kommt weil es Schrott ist und jetzt hebt es Huang hervor und du bist gleich Fan?

Nur mal logisch zurück gedacht es gibt schon freesync Modelle seit Jahren die nun für NVIDIA gut genug Sind?

Wake
2019-01-07, 06:31:50
Das OBS Ding isn heißes Eisen, das hat NVIDIA sehr klug gemacht. Qualitätssteigerung des Streams per GPU ist für manche ein Killerfeature.

"I already tested the new NVENC stuff. It's really nice and Turing NVENC is on par with x264 medium or close."

Gleichauf mit medium klingt schon seehr optimistisch imo.

tEd
2019-01-07, 06:33:50
Sie mussten dass Zwangsweise machen weil HDMI2.1 mit Async kommt.

Troyan
2019-01-07, 06:35:11
Ich hab etwas gegen deine Darstellung du hast doch immer gesagt das A-Sync nie kommt weil es Schrott ist und jetzt hebt es Huang hervor und du bist gleich Fan?

Nur mal logisch zurück gedacht es gibt schon freesync Modelle seit Jahren die nun für NVIDIA gut genug Sind?

nVidia unterstützt es seit Maxwell in Notebooks.

Aber ist logisch, dass du nun hier Feuer und Galle spucken musst, nachdem der nächste Grund sich eine AMD Karte kaufen zu müssen, weiter schrumpft.

/edit: Der hier wird offiziell unterstützt: https://geizhals.de/acer-nitro-xv3-xv273kpbmiipphzx-um-hx3ee-p04-um-hx3ee-p05-a1935862.html

Hm, hm. Ich glaube, ich geh mal einkaufen. :D

Wake
2019-01-07, 06:40:38
2060>1080 Ti, heard it here first ;)

Von RTX im neuen Tomb Raider hört man auch nichts mehr - nur mal so weils grad in dem Trailer kam.

AffenJack
2019-01-07, 06:54:24
Es sind nicht nur 12 Monitore, Nvidia hat nun vollen A-Sync Support:

Support for G-SYNC Compatible monitors will begin Jan. 15 with the launch of our first 2019 Game Ready driver. Already, 12 monitors have been validated as G-SYNC Compatible (from the 400 we have tested so far). We’ll continue to test monitors and update our support list. For gamers who have monitors that we have not yet tested, or that have failed validation, we’ll give you an option to manually enable VRR, too.

https://blogs.nvidia.com/blog/2019/01/06/g-sync-displays-ces/

Es ist nur Standardmäßig auf aus, aber manuell einschaltbar.

Troyan
2019-01-07, 06:56:19
Danke für die Berichtigung.

Loeschzwerg
2019-01-07, 07:06:34
Fett, dann kann ich den Gedanken an einen G-Sync Monitor wieder verwerfen und meinen Eizo FS2735 weiternutzen.

Edit:
Anandtech und PCGH haben brav alles mitgeschrieben:
https://www.anandtech.com/show/13791/nvidia-ces-2019-keynote-live-blog-starts-at-8pm-pt0400-utc
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Event-zum-Launch-der-RTX-2060-1272650/

Digidi
2019-01-07, 07:23:13
Fett, dann kann ich den Gedanken an einen G-Sync Monitor wieder verwerfen und meinen Eizo FS2735 weiternutzen.

Edit:
Anandtech und PCGH haben brav alles mitgeschrieben:
https://www.anandtech.com/show/13791/nvidia-ces-2019-keynote-live-blog-starts-at-8pm-pt0400-utc
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Event-zum-Launch-der-RTX-2060-1272650/

Lol mein 3 Jahre alter Asus Mg278q wird jetzt unterstützt

https://images.anandtech.com/doci/13791/Screen%20Shot%202019-01-07%20at%2012.17.38%20AM.png

Warum nicht gleich!

just4FunTA
2019-01-07, 07:27:06
auch als gsync Monitor Besitzer muss ich sagen das ist mal ne Super Nachricht! Klar killt es langfristig Gsync und das findet NV nicht so toll, aber für uns als Kunden ist das Klasse das diese künstliche Einschränkung aufgehoben wird.

Troyan
2019-01-07, 07:29:08
auch als gsync Monitor Besitzer muss ich sagen das ist mal ne Super Nachricht! Klar killt es langfristig Gsync und das findet NV nicht so toll, aber für uns als Kunden ist das Klasse das diese künstliche Einschränkung aufgehoben wird.

Abwarten. Laut der Liste wird nVidia erstmal kein Frame-Doubling durch den Treiber unterstützen: https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/

Und IPS-Monitore scheinen generell eher nicht so gut zu sein... :freak:

=Floi=
2019-01-07, 07:34:02
wieder nur 6gb vram. keine richtigen technischen daten. Bei jedem menchmark DLSS. Ja klar, und in echt läuft alles ohne DLSS 30% langsamer.

Digidi
2019-01-07, 07:37:30
Zu Freesync könnte Nvidia gezwungen worden sein weil sich die 2080ti so schlecht verkaufen. Da macht 200-300 Euro mehr für einen Gsync Monitor dann doch noch Mal einiges aus. Läuft wohl nicht So gut für Nvidia gerade. Anders kann ich mir das nicht erklären.

just4FunTA
2019-01-07, 07:38:09
Abwarten. Laut der Liste wird nVidia erstmal kein Frame-Doubling durch den Treiber unterstützen: https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/

Und IPS-Monitore scheinen generell eher nicht so gut zu sein... :freak:


hdmi 2.1 ist die Zukunft da können sie nicht darauf verzichten also hat NV keine Wahl wie es weiter geht, ist nur gut das sie es jetzt auch öffentlich akzeptiert/bestätigt haben.

Troyan
2019-01-07, 07:41:39
Darum geht es nicht. Ohne Frame-Doubling per Treiber hat man die selben Probleme wie bei AMD vor ein paar Jahren. Und ohne variable Overdrive können vor Allem VA-Monitore ziemlich miserabel werden.

aufkrawall
2019-01-07, 07:45:50
Abwarten. Laut der Liste wird nVidia erstmal kein Frame-Doubling durch den Treiber unterstützen: https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/

Das wär aber arm, der Patch dafür für AMD FreeSync Linux umfasst wenige Zeilen.

just4FunTA
2019-01-07, 08:11:43
Darum geht es nicht. Ohne Frame-Doubling per Treiber hat man die selben Probleme wie bei AMD vor ein paar Jahren. Und ohne variable Overdrive können vor Allem VA-Monitore ziemlich miserabel werden.


und mit AMD Karten gibt es dieses Problem also nicht? Das heißt deine RTX 2080Ti für 1200€ zeigt nur mist an während eine billige AMD Karte ein sauberes Bild hinkriegt? Ohja das werden die Leute bestimmt dem Monitor und nicht Nvidia vorwerfen. ;)

Troyan
2019-01-07, 09:55:20
Nein, du bekommst das Intervall, aber bei bestimmten Monitoren oder bestimmten Kombinationen (aka GTX1060 und 4K oder einer Range von 48-100Hz) wird es dann schlechter sein.

Ob das relevant ist? Keine Ahnung. Aber wir werden es bald sehen.

aufkrawall
2019-01-07, 10:02:16
Nein, du bekommst das Intervall...
Geht das auch auf Deutsch? Du formulierst schwammig.

SKYNET
2019-01-07, 12:53:11
Ist doch in Ordnung. Was bringen 90% Schrottmonitore? Deswegen hat G-Sync das Niveau, welches es seit der ersten Revision hat.

Für Leute, die A-Sync haben wollten, haben nun die Chance. Ist der beste Weg zwischen Schrott und Ultra-Highend.

nur das "Ultra Highend" kein g-sync hat*, honey. :tongue:



*allerdings auch kein a-sync :biggrin:

SKYNET
2019-01-07, 13:00:08
Zu Freesync könnte Nvidia gezwungen worden sein weil sich die 2080ti so schlecht verkaufen. Da macht 200-300 Euro mehr für einen Gsync Monitor dann doch noch Mal einiges aus. Läuft wohl nicht So gut für Nvidia gerade. Anders kann ich mir das nicht erklären.

weil sie schiss vor navi und vega2 haben... wenn AMD es packt und 2080 Leistung bringt und dazu 16GB speicher, wird niemand mehr eine NV kaufen unterhalb des interessenkreises der 2080Ti.... desweiteren gibt es viele die nur drauf warten ein sidegrade zu machen von ner 1080Ti zu was passendem von AMD, dem kann man damit wohl auch ein wenig den wind aus den segeln nehmen.

Daredevil
2019-01-07, 13:03:09
.... desweiteren gibt es viele die nur drauf warten ein sidegrade zu machen von ner 1080Ti zu was passendem von AMD, dem kann man damit wohl auch ein wenig den wind aus den segeln nehmen.
Mit viele bist wohl... du gemeint... wer denn noch und warum sollte man sowas wollen? :confused:
AMD ist aktuell eher Kompromiss behaftet, nicht Nvidia. :D

Screemer
2019-01-07, 13:06:32
Mit viele bist wohl... du gemeint... wer denn noch und warum sollte man sowas wollen? :confused:
AMD ist aktuell eher Kompromiss behaftet, nicht Nvidia. :Deben wegen der bisher günstigere Variante mit einem Vrr-Monitor?

SKYNET
2019-01-07, 13:11:19
Mit viele bist wohl... du gemeint... wer denn noch und warum sollte man sowas wollen? :confused:
AMD ist aktuell eher Kompromiss behaftet, nicht Nvidia. :D


also es gibt einige die wegen a-sync vor hatten ein sidegrade zu machen... musst nur mal ausserhalb von den speku Forum lesen ;)


und ich würde tatsächlich nen sidegrade machen, wenn AMD was passendes bringt, einfach aus dem grund das ich mit AMD treibern eigentlich nie Probleme hatte, mit NV aber schon... und vom treibermenü wollen wir garnicht anfangen, da ist AMD gefühlte 5 jahre vorraus. :cool:

Fragman
2019-01-07, 13:14:41
und 2080 Leistung bringt und dazu 16GB speicher, wird niemand mehr eine NV kaufen unterhalb des interessenkreises der 2080Ti....

Und ich hab gehört, das AMD die sogar verschenken wird, da werden die 2080 Käufer aber erst schauen. ;D

Daredevil
2019-01-07, 13:17:18
Vom Treibermenu, aber nicht unbedingt von der Funktionalität her. Aber da mag ja jeder seine vorlieben habe. Ich finde Nvidias Capture System und die Treiberstabilität gerade bei OC deutlich fortschrittlicher, mal vom viel einfacheren Handling her.
Wenn AMDs Features mal so funzen würden, wie sie angepriesen werden, würde ich dir da gerne zustimmen. NVENC ist halt einfach viel besser als AMDs Lösung.
Auf meinem iPad habe ich noch keinerlei Game gescheit gestreamt bekommen.

Ich würde jetzt eher nen Sidegrade auf ne RTX2070 machen kommend von einer Vega64, weil es jetzt Async überall gibt. So mal zum basteln. :D
Aber ich hab die Vega halt sehr günstig bekommen, so dass ich da noch mit Gewinn rausgehen würde.
Irgendwie habe ich auch das Gefühl, dass der Preis der Vegas bald ziemlich schnell in den Keller gehen könnte. :)

Flusher
2019-01-07, 13:24:01
Abwarten. Laut der Liste wird nVidia erstmal kein Frame-Doubling durch den Treiber unterstützen: https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/

Und IPS-Monitore scheinen generell eher nicht so gut zu sein... :freak:

Endlich, war auch lange überfällig. Somit kann ich hoffentlich aufhören mit einer Vega 64 als Sidegrade zu liebäugeln.

Interessanterweise werden keine Samsung Modelle in der Liste geführt. Frage mich ob mein Samsung VA Panel damit reibungslos funktionieren wird - ab dem 15. Januar wissen wirs.

Klevapalis
2019-01-07, 13:32:49
also es gibt einige die wegen a-sync vor hatten ein sidegrade zu machen... musst nur mal ausserhalb von den speku Forum lesen
Tja und nun machen selbst die Vega-Käufer ein Sidegrade auf RTX :D

Ist ja jetzt selbst der letzte AMD-Vorteil im Nix verschwunden und nun sind es Pascal/Turing, die mehr und bessere VRR-Monitore unterstützen.

Was spricht jetzt überhaupt noch für ne Vega-Karte? :ugly:

Hakim
2019-01-07, 13:34:20
Das ist mal eine gute Nachricht. Dabei gehöre ich zu den Leuten die genügsam mit 60hz spielen und zufrieden sind, lieber ips statt TN, auch wenn ms dafür 4-5 statt 1-2

rentex
2019-01-07, 13:49:34
Hm...was mach ich den überhaupt mit meinem G-Sync IPS Monitor, wenn ich auf ne AMD GPU wechseln möchte? Keinerlei variable Refresh Rate Möglichkeit mehr haben?

RLZ
2019-01-07, 13:52:01
weil sie schiss vor navi und vega2 haben... wenn AMD es packt und 2080 Leistung bringt und dazu 16GB speicher, wird niemand mehr eine NV kaufen unterhalb des interessenkreises der 2080Ti....
Das hört man irgendwie vor jeder AMD Generation und trotzdem hat Nvidia aus gutem Grund inzwischen leider 75% Marktanteil.

SKYNET
2019-01-07, 16:54:17
Tja und nun machen selbst die Vega-Käufer ein Sidegrade auf RTX :D

Ist ja jetzt selbst der letzte AMD-Vorteil im Nix verschwunden und nun sind es Pascal/Turing, die mehr und bessere VRR-Monitore unterstützen.

Was spricht jetzt überhaupt noch für ne Vega-Karte? :ugly:

die lichtjahre besseren treiber, und das man keine externen tools brauch zum takten usw. :tongue:

Daredevil
2019-01-07, 17:40:13
Du benutzt bestimmt auch den Edge, nur weil er "Build in" ist. :D

Du wirst deine 1080ti noch vermissen, falls du dir eine Vega zulegst, da der Nvidia Treiber deutlich stabiler läuft beim undervolten und zu 99% sauber resetet im Gegensatz zum halb funktionierendem Wattman. ^^

SKYNET
2019-01-07, 18:06:43
Du benutzt bestimmt auch den Edge, nur weil er "Build in" ist. :D

Du wirst deine 1080ti noch vermissen, falls du dir eine Vega zulegst, da der Nvidia Treiber deutlich stabiler läuft beim undervolten und zu 99% sauber resetet im Gegensatz zum halb funktionierendem Wattman. ^^

ich benutze ihn, weil er im gegensatz zu FF und chrome nicht unmengen an speicher frisst, schneller als besagte ist und auch bisher noch nie abgestütz ist, im gegensatz zu FF und chrome... fazit: der bessere browser, und weine auch darum, das MS bald die chrome engine nutzen wird, schluss mit stabilen browser der kaum recourcen brauch :mad:

ich undervolte ja meine pascal nicht, im gegenteil... :ulol: und ob undervolting bei vega 7nm überhaupt noch nötig sein wird, sehen wir dann ;)

und bei meiner alten 580 nitro+ resetete der treiber beim OC gleich gut/schlecht wie der NV treiber... auf dem desktop gelandet und konnte ne neue runde anfangen... :smile:

basix
2019-01-07, 18:20:15
Hm...was mach ich den überhaupt mit meinem G-Sync IPS Monitor, wenn ich auf ne AMD GPU wechseln möchte? Keinerlei variable Refresh Rate Möglichkeit mehr haben?

Das würde mich auch interessieren. Vermutlich wie bis anhin: Geht nicht. Da ich aber eh auf 4K upgraden will, hat sich mit Nvidia+Async gerade ein Problem verabschiedet. Fehlt nur noch der passende Async Monitor :D

HOT
2019-01-08, 15:04:29
Alle mit NV-Scaler ausgestattete Monitore werden VRR auf AMD/Intel unmöglich machen. So ist das nunmal mit proprietärem Mist.

Es werden immer mehr Modelle der 11xx-Serie bekannt. Jetzt soll es auch ne 1180 geben. Das stinkt ganz gewaltig nach Rebrand.

Freestaler
2019-01-08, 15:29:57
Das hört man irgendwie vor jeder AMD Generation und trotzdem hat Nvidia aus gutem Grund inzwischen leider 75% Marktanteil. hast du nen Link zu den 75%? Auf die schnelle finde ich nur Ende Q2 zahlen (wohl ohne rtx / https://www.jonpeddie.com/press-releases/jon-peddie-research-releases-update-on-its-q2-2018-add-in-board-report). Und ich denke die meisten 2080/ti käufee hatten schon vor dieser eine NV Karte. Also woher kommen die 11% mehr an Marktanteile? Denn 11% über alle Rechner mit dedizierter Graka sind verdammt viel.

Klevapalis
2019-01-08, 16:37:44
Es werden immer mehr Modelle der 11xx-Serie bekannt. Jetzt soll es auch ne 1180 geben. Das stinkt ganz gewaltig nach Rebrand.
Halte ich für unwahrscheinlich, dass man Pascal, noch dazu als 1180, rebrandet. Wo soll die Karte denn ins Portfolio passen? Unterhalt der 2060? Das ergibt null Sinn.

RLZ
2019-01-08, 16:48:25
hast du nen Link zu den 75%?
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

Ok sind nur gute 74%... Aber für Spieleentwickler auf dem PC ist die Aussage ziemlich eindeutig.

Freestaler
2019-01-09, 00:45:03
@RLZ, Danke für die Antwort. Steamstats schaue ich mir nicht mehr an, seit dem Fehler im frühjahr. Speziell an den stats, kein Miningboom oder RTX lanch erkennbar. Rauschen in der Masche oder halt doch ne Menge inetpc in asia xfach erfasst.

Odal
2019-01-09, 00:57:53
Tja und nun machen selbst die Vega-Käufer ein Sidegrade auf RTX :D

Ist ja jetzt selbst der letzte AMD-Vorteil im Nix verschwunden und nun sind es Pascal/Turing, die mehr und bessere VRR-Monitore unterstützen.

Was spricht jetzt überhaupt noch für ne Vega-Karte? :ugly:


Ohne Grund und aus reiner Nächstenliebe hat NV das nicht (und das auch noch rückwirkend für Pascal) gemacht.

Aus meiner Sicht hat das 2 Gründe:

a) von AMD ist GPU technisch doch was bedeutendes im Anmarsch das alles bis RTX2080 aufrollt bei wesentlich kleinerem DIE / wesentlich günstiger zu produzieren.
b) die non RTX werden rebranded pascals

|MatMan|
2019-01-09, 02:13:32
c) HDMI 2.1 bringt VRR ohnehin, ist Thema bei Fernsehern auf der CES und kann von nVidia nicht mehr lange ignoriert werden. Da nutzen sie lieber die Show um sich positiv darzustellen, anstatt VRR / G-Sync / FreeSync irgendwann zähneknirschend mit HDMI 2.1 unterstützen zu müssen.

Pascal ist halt noch ein aktuelles Produkt. Das gibt vielleicht nochmal einen kleinen Boost um die Restbestände loszuwerden.

Fragman
2019-01-09, 06:34:26
c) HDMI 2.1 bringt VRR ohnehin, ist Thema bei Fernsehern auf der CES und kann von nVidia nicht mehr lange ignoriert werden. Da nutzen sie lieber die Show um sich positiv darzustellen, anstatt VRR / G-Sync / FreeSync irgendwann zähneknirschend mit HDMI 2.1 unterstützen zu müssen.

Pascal ist halt noch ein aktuelles Produkt. Das gibt vielleicht nochmal einen kleinen Boost um die Restbestände loszuwerden.

Also in Verbindung mit dem Launch der 2060 ist dieses "neue" Feature Gold Wert. Ja, der Preis der Karte ist etwas zu hoch, aber jeder mit einem billigen Freesync Monitor, der an ein Upgrade dachte, kann nun auch nv kaufen als Option (sofern nv schnell mit der "Zertifizierung" voran kommt).

dargo
2019-01-09, 06:53:26
Also in Verbindung mit dem Launch der 2060 ist dieses "neue" Feature Gold Wert. Ja, der Preis der Karte ist etwas zu hoch, aber jeder mit einem billigen Freesync Monitor, der an ein Upgrade dachte, kann nun auch nv kaufen als Option (sofern nv schnell mit der "Zertifizierung" voran kommt).
Bisher gibt es lächerliche 12 Monitore die zertifiziert sind. Was ist mit dem Rest? Eine Wundertüte? Da gibt es noch viel zu viele Unklarheiten bezüglich A-Sync + Geforce.

Screemer
2019-01-09, 06:59:41
Bisher gibt es lächerliche 12 Monitore die zertifiziert sind. Was ist mit dem Rest? Eine Wundertüte? Da gibt es noch viel zu viele Unklarheiten bezüglich A-Sync + Geforce.
Ich glaube du hast verpasst, dass die Zertifizierung nur eine automatisch Aktivierung bedeutet. Manuell aktiviert ist es auch mit jedem anderen VRR-Monitor nutzbar.

dildo4u
2019-01-09, 07:04:09
Bisher gibt es lächerliche 12 Monitore die zertifiziert sind. Was ist mit dem Rest? Eine Wundertüte? Da gibt es noch viel zu viele Unklarheiten bezüglich A-Sync + Geforce.
Das ist bei AMD keine Wundertüte?Ich wette es gibt massig Schrott der auch mit AMD nicht korrekt funktioniert.Deshalb wurde ja Freesync 2 eingeführt damit man voll Zertifizieren Modelle unterscheiden kann.

dargo
2019-01-09, 07:06:12
@Screemer

Entschuldige bitte meine Skepsis. Ich bin da erstmal vorsichtig wenn Monitor X den "Eignungstest" (wie auch immer dieser ausfällt) bestanden hat und Monitor Y nicht obwohl die Specs vom letzteren eine andere Sprache sprechen. Und was ist mit LFC? Wird das nur bei zertifizierten A-Sync Monitoren angeboten oder auch bei denen die manuell aktiviert werden müssen?

Das ist bei AMD keine Wundertüte?Ich wette es gibt massig Schrott der auch mit AMD nicht korrekt funktioniert.
Und ich wette du redest Bullshit.

Deshalb wurde ja Freesync 2 eingeführt damit man voll Zertifizieren Modelle unterscheiden kann.
Und wieder Bullshit. Ich sehe da bei NV zertifizierte Bildschirme die gar kein Freesync 2 unterstützen.

Fragman
2019-01-09, 08:16:34
Bisher gibt es lächerliche 12 Monitore die zertifiziert sind. Was ist mit dem Rest? Eine Wundertüte? Da gibt es noch viel zu viele Unklarheiten bezüglich A-Sync + Geforce.

Da mein Drittmonitor zufällig einer der 12 ist, kann ich mich entspannt zurücklehnen. :D

dargo
2019-01-09, 08:36:16
Das ist zwar schön für dich, aber...

aber jeder mit einem billigen Freesync Monitor, der an ein Upgrade dachte, kann nun auch nv kaufen als Option

der andere guckt u.U. dumm aus der Wäsche.

Loeschzwerg
2019-01-09, 08:38:30
Wird man abwarten müssen bis das ein paar Leute mal ausprobiert haben. Nicht immer gleich alles so negativ sehen ;)

dildo4u
2019-01-09, 08:39:51
Sie werden mehr Modelle zertifizieren und natürlich wird bessere Tech mit der Zeit immer billiger.Die Auswahl wird also größer,besser und billiger werden.

dargo
2019-01-09, 08:44:15
Nach welchen Kriterien wird überhaupt validiert? Aus diesem Video kann ich nichts ableiten.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11893957&postcount=6827

Ich sehe nur, dass ein Bildschirm durchfällt weil Blur mit Overdrive. Und der andere fällt durch weil es flackert. Die Frage die ich mir hier aber stelle ist woran liegt es? Ist der Nvidia-Treiber noch nicht so weit oder gar die Hardware um alle A-Sync Bildschirme fehlerfrei zu unterstützen?

oldgamer
2019-01-09, 08:45:06
Bisher gibt es lächerliche 12 Monitore die zertifiziert sind. Was ist mit dem Rest? Eine Wundertüte? Da gibt es noch viel zu viele Unklarheiten bezüglich A-Sync + Geforce.
NV hat doch bereits klar gemacht dass sich auch andere Monitore manuell aktivieren lassen, dazu müsste man aber die Infos genauer lesen anstatt vorab zu jammern.

dargo
2019-01-09, 08:47:02
Liest du auch was ich schreibe? Wenn man einen Bildschirm manuell aktiviert und dieser dann flackert oder es Probleme mit Overdrive gibt ist das Jammern wieder groß.

Grendizer
2019-01-09, 08:52:39
Stand vor 3 Tagen:

nVidia ist böse, weil man sich für G-Sync Monitore entscheiden muss und die sind viel teurer als Freesync Monitore

Stand aktuell:

Ab dem 15.01. wird der vorhandene nicht validierte Monitor vieleicht unterstützt, aber in Zukunft habe ich die Option einen hochwertigen Monitor zu kaufen, der sowohl für nVidia als auch für AMD geeignet ist.

Ich finde diese Entwicklung sehr gut. Das vieleicht vorhandene Monitore nicht zuverlässig funktionieren werden ist bedauerlich, aber verschmerzbar. Niemand hat den Monitor gekauft in der Erwartung Freesync mit Nvidia nutzen zu können.

SKYNET
2019-01-09, 11:27:31
Stand vor 3 Tagen:

nVidia ist böse, weil man sich für G-Sync Monitore entscheiden muss und die sind viel teurer als Freesync Monitore

Stand aktuell:

Ab dem 15.01. wird der vorhandene nicht validierte Monitor vieleicht unterstützt, aber in Zukunft habe ich die Option einen hochwertigen Monitor zu kaufen, der sowohl für nVidia als auch für AMD geeignet ist.

Ich finde diese Entwicklung sehr gut. Das vieleicht vorhandene Monitore nicht zuverlässig funktionieren werden ist bedauerlich, aber verschmerzbar. Niemand hat den Monitor gekauft in der Erwartung Freesync mit Nvidia nutzen zu können.


bin sicher das alle freesync monitore funktionieren werden, weil wenn sie auf AMD laufen, tun sie das auch auf NV, weil der standard ist der gleiche, und den hat NV wohl schon seit pascal integriert... aber mimimimi NV hat da wohl höhere standards als der vesa standard... ergo, alle monitore werden innerhalb der vesa spezifikationen zuverlässig mit freesync laufen auf pascal und turing.

Klevapalis
2019-01-09, 11:52:53
ergo, alle monitore werden innerhalb der vesa spezifikationen zuverlässig mit freesync laufen auf pascal und turing.
Das ist nachweislich heute nicht der Fall. Weder mit AMD-, noch zukünftig mit NVIDIA-Karte. Dazu treiben die Monitorhersteller leider zuviel Schindluder.

HOT
2019-01-09, 13:33:08
bin sicher das alle freesync monitore funktionieren werden, weil wenn sie auf AMD laufen, tun sie das auch auf NV, weil der standard ist der gleiche, und den hat NV wohl schon seit pascal integriert... aber mimimimi NV hat da wohl höhere standards als der vesa standard... ergo, alle monitore werden innerhalb der vesa spezifikationen zuverlässig mit freesync laufen auf pascal und turing.
Na ich weiss nicht. Riecht für mich nach reiner Politik. Wenn man sich die 12 Modelle anschaut, das ist ein ganz schönes Sammelsurium. Wenn man das darauf beschränkt, wär das ziemlich lächerlich. Aber ich denke auch, dass man als Monitorhersteller ein Zertifikat kaufen soll bei NV, funktionieren werden aber letztendlich alle. Bin mal gespannt, ob das wer testet.
Mein Freesync-Monitor ist nicht dabei, aber dessen Nachfolger, der aber nur in 24", nicht etwa das Modell mit 27" :freak:, obwohl das qualitativ fast gleich ist. Das ist schon ziemlich hohl, was die machen. Das muss wirtschaftliche Gründe haben wie immer. Samsung Monitore sind keine dabei, was nicht verwundert, da Samsung GSync von Anfang an boykottiert hat. Das sind aber z.T. sehr gute Modelle und die neueren können alle Adaptive Sync.

SKYNET
2019-01-09, 14:18:41
Na ich weiss nicht. Riecht für mich nach reiner Politik. Wenn man sich die 12 Modelle anschaut, das ist ein ganz schönes Sammelsurium. Wenn man das darauf beschränkt, wär das ziemlich lächerlich. Aber ich denke auch, dass man als Monitorhersteller ein Zertifikat kaufen soll bei NV, funktionieren werden aber letztendlich alle. Bin mal gespannt, ob das wer testet.
Mein Freesync-Monitor ist nicht dabei, aber dessen Nachfolger, der aber nur in 24", nicht etwa das Modell mit 27" :freak:, obwohl das qualitativ fast gleich ist. Das ist schon ziemlich hohl, was die machen. Das muss wirtschaftliche Gründe haben wie immer. Samsung Monitore sind keine dabei, was nicht verwundert, da Samsung GSync von Anfang an boykottiert hat. Das sind aber z.T. sehr gute Modelle und die neueren können alle Adaptive Sync.


ich meine, ich habe das problem ja eh nicht, da ich an die farbtreue höchste ansprüche stelle, und eben diese monitore weder gsync noch freesync haben ;D und MP shooter zocke ich sowieso nicht :wink:

also bleibe ich bei vsync, das funktioniert ganz gut und mit 60fps konstant, kann ich in jeder lebenslage sehr gut leben.

Xuui
2019-01-09, 14:38:58
So hat eben jeder seine Ansprüche und Vorlieben. Ist doch schön, dass man die Wahl hat :)

Ich weiß auch noch nicht, was von der Nvidia Aktion zu halten ist. Erscheint mir ein bisschen, wie sich vom vom Marketing über den eigenen Schatten schieben lassen. :D

Ist im Grunde aber auch egal...es kommt endlich mal ein wenig Bewegung rein und das kann für uns alle nur gut sein.

Daredevil
2019-01-09, 14:48:59
Klar knickt Nvidia ein wenig ein, weil sie ja so stolz auf ihr GSync sind.
Aber andererseits muss man auch klug sein und nicht nur stolz. Apple setzt jetzt auch Airplay ein bei Samsung und LG Fernsehern. Irgendwo muss man auch schauen, dass man seine Produkte und Investitionen verkauft bekommt.

Ich persönlich finde diesen Schritt sehr gut, weil ich jetzt mit meinen beiden Freesync Monitoren keine Bauchschmerzen mehr habe, auch mal Turing eine Weile in mein Rechner zu stecken.
Zudem merzt man mit diesem Schritt ein RIESEN Vorteil der Konkurrenz aus, das ist ein wichtiger Schritt gewesen. Das Argument "AMD verbraucht zwar mehr, hat dafür aber Freesync" verpufft halt damit.

rentex
2019-01-09, 17:04:48
Ich hab mich bewusst für nen G-Sync Monitor entschieden und dieser wird bis zum bitteren Ende betrieben...wahrscheinlich länger als jeder Monitor davor. Ist ok das NV eingeknickt ist, war eigentlich ein Unding, das es zwei Systeme gab/gibt.
Der Grund seitens NV war wohl, das se ahnen was von AMD noch so kommt.

|MatMan|
2019-01-11, 15:26:34
Ob NVIDIA auf Vega 20 (VII) reagiert? Sie könnten kurz vor dem VII Launch den Listenpreis der 2080 um 50-100 Dollar senken. AMD könnte da sicherlich kaum nachziehen. Dadurch müssten wohl die Listenpreise der 2070 und 2080Ti auch etwas angepasst werden, aber da ist ja auch noch Luft. Die 2070 könnte locker 50 Dollar billiger werden.
Gleichzeitig könnte NVIDIA noch eine 16GB Version der 2080 für ~750 Dollar nachschieben, aber dann sieht die 2080Ti nicht mehr gut aus...

Oder NVIDIA reagiert gar nicht? Falls es wirklich erstmal nur 20.000 VII gibt, ist die Karte eh praktisch nicht lieferbar und die Preise sind astronomisch hoch.

Daredevil
2019-01-11, 15:34:05
Ich würde eher darauf tippen, dass Nvidia einen zwei Fronten Kampf kämpft.
Es gibt ja schon viele Gerüchte über eine "11xx" als Performance Version ohne RTX, da haut man halt Anti-AMD Produkte auf den Markt und verschenkt nicht seine fette Marge beim RTX.
Weil RTX ist halt ein riesiger Vorsprung und auch Kaufgrund.

Apple senkt auch nicht die Preise seiner Premium Modelle, sondern bringt halt ein Modell raus für den Pöbel. :D

Linmoum
2019-01-11, 15:54:39
Listenpreise sind Schall und Rauch, gerade bei GPUs. Nur weil Nvidia oder AMD die UVP um $100 senken, werden die Karten im Handel auch nicht $100 billiger. Da ist die ursprüngliche UVP sowieso schon längst überholt.

Ex3cut3r
2019-01-11, 16:10:23
Also ich habe schon 100€ Freesync Monitore gesehen die auch mit AMD Karten Flackern/Flickern, was kann NVidia dafür wenn Freesync halt nicht so große Qualitäts Kontrollen mit sich bringt?

Erst wird gemeckert, kein FreeSync Support von Nvidia, das machen Sie es, ist auch wieder nicht gut. Typisch. :biggrin:

SKYNET
2019-01-11, 16:24:18
Also ich habe schon 100€ Freesync Monitore gesehen die auch mit AMD Karten Flackern/Flickern, was kann NVidia dafür wenn Freesync halt nicht so große Qualitäts Kontrollen mit sich bringt?

Erst wird gemeckert, kein FreeSync Support von Nvidia, das machen Sie es, ist auch wieder nicht gut. Typisch. :biggrin:


wer weniger als 300€ für nen monitor ausgibt, dem ist eh nicht zu helfen... also soviel sollten einem die augen schon wert sein... freesync hin oder her.

optional holt man halt was gebrauchtes für nen schmalen taler.

Ex3cut3r
2019-01-11, 17:01:20
wer weniger als 300€ für nen monitor ausgibt, dem ist eh nicht zu helfen
Werde ich meinen Arbeitskollegen ausrichten. :biggrin:

|MatMan|
2019-01-11, 17:03:54
Listenpreise sind Schall und Rauch, gerade bei GPUs. Nur weil Nvidia oder AMD die UVP um $100 senken, werden die Karten im Handel auch nicht $100 billiger. Da ist die ursprüngliche UVP sowieso schon längst überholt.
Sorry das ist BS. Wenn ein Hersteller die UVP senkt, dann sinken auch die realen Preise bei ausreichender Lieferbarkeit. Es sei denn die Preise sind vorher schon deutlich gesunken und die UVP Anpassung wird nachträglich gemacht um die reale Situation abzubilden. Die Turings werden aber nicht deutlich unter ihrer UVP angeboten, also gibt es da Handlungsspielraum.

Die 11xx Karten sehe ich unabhängig von VII, die werden deswegen nicht billiger oder stärker...

BlacKi
2019-01-14, 09:57:32
8k rtx on, über 18gb Vram belegung^^

fuvFiCMfCpY

Troyan
2019-01-23, 10:01:33
https://i.redd.it/9lh53vjg05c21.jpg
https://www.reddit.com/r/nvidia/comments/aixtl3/gtx_turing_confirmed/

Kein Plan, ob real. Aber es gibt ja schon Erscheinungen im Ashes Benchmark: https://videocardz.com/newz/nvidia-geforce-gtx-1660-ti-ashes-of-the-singularity-benchmark-results-leaked

=Floi=
2019-01-23, 10:05:01
auch nur rumdoktern am falschen problem. Der markt braucht keine 1660

BlacKi
2019-01-23, 10:06:31
natürlich braucht der markt karten unter der rtx2060.

dildo4u
2019-01-23, 10:07:33
NV braucht sie RX 590 hat kein Gegner,die Masse der Gameing GPUs wird unter 300€ verkauft.

Dural
2019-01-23, 12:01:26
Das wird der Gegenspieler zur Navi, die 1660 dürfte klar schnell als die Polaris GPU sein.

Unglaublich was NV mit Turing abliefert, für jeden Bereich die richtige GPU und zum Teil recht angepasst. Richtig interessant wird die Die Grösse sein.

dildo4u
2019-01-23, 12:05:07
Kommt drauf ab wie modern das Game ist,für Wolf 2 brauchen sie die Karte um die 590 einzuholen.

https://www.anandtech.com/show/13570/the-amd-radeon-rx-590-review/8

Raff
2019-01-23, 12:06:32
Mit nur 6 GiByte werden sie die aber nicht einholen. :ulol:

MfG,
Raff

dildo4u
2019-01-23, 12:09:25
Bis 1440p sieht es ok aus,und natürlich sind 250€ Karten(1660 Ti) nicht für diese Auflösung gedacht.

1060 60fps,2060 100fps.

https://www.anandtech.com/show/13762/nvidia-geforce-rtx-2060-founders-edition-6gb-review/7

Ich kapier immer noch nich wie die 6GB angeblich nicht ok sind aber die 11GB für die 2080 TI,die für eine 4 fach höhere Auflösung gedacht ist.

Raff
2019-01-23, 12:15:45
Eine RTX 2080 Ti ist nicht einmal doppelt so schnell wie eine RTX 2060, insofern ist das okay (mehr aber auch nicht). Du brauchst für die Bildpuffer nicht 4× so viel Speicher (nicht mal doppelt so viel).

MfG,
Raff

dildo4u
2019-01-23, 12:32:42
Ja weil eine Moderne Engine in der Lage ist das Streaming an die Vram Menge anzupassen.Es gab nur Probleme bei den ersten DX12/Vulkan Games,da die Entwickler dort dafür zu 100% verantwortlich waren,sobald sie das im Griff haben sollte es keine Probleme mehr geben.Ich erwarte z.b das Doom 2019 deutlich besser mit dem Vram umgeht als Wolf 2.Vergleichbar mit Rise of the Tombraider und Shadow of the Tombraider.

Dural
2019-01-23, 13:13:46
Turing geht in wolf2 ziemlich gut.

Mein bruder hat gerade eine 2070 anstelle der 2060 geholt, wegen 2gb mehr speicher. Eigentlich wollte er sogar gleich die 2080, die habe ich ihm aber ausgeredet. Läuft für nv würde ich mal sagen ;)

Reines 1080p system...

unl34shed
2019-01-23, 13:21:18
Ja weil eine Moderne Engine in der Lage ist das Streaming an die Vram Menge anzupassen

Ja, heißt im worst case dann reduzierte Texturen und/oder späteres aufpoppen von Modellen und den HQ Texturen. Hab damals Tests mit 280x vs 770 bzw. 3 vs 2GB.

Leonidas
2019-01-23, 16:12:56
Mit nur 6 GiByte werden sie die aber nicht einholen. :ulol:


Schwer vorherzusagen, was dann wirklich am Markt passiert. Zumindest bei RX580-8GB gegen GTX1060-6GB haben sich die fehlenden 2 GB nie wirklich negativ ausgewirkt.

AffenJack
2019-01-23, 18:16:35
Mit nur 6 GiByte werden sie die aber nicht einholen. :ulol:

MfG,
Raff

Nö, sie werden sie überholen und ganz schön platt machen, aber dafür auch teurer sein.

w0mbat
2019-01-24, 12:39:19
Ich bin auf die 1660 Ti gespannt (wieso eigentlich nicht 1160?), für die $279 könnte das eine interessante Karte werden. Die ersten 2060er gibt es schon für um die 300€, wenn es die 1660 Ti dann bald für 250€ gibt und die Leistung bzw. der Verbrauch stimmt, könnte ich hier zuschlagen. Am besten eine kleine Karte, vielleicht sogar ITX?

SKYNET
2019-01-24, 14:38:32
Ich bin auf die 1660 Ti gespannt (wieso eigentlich nicht 1160?), für die $279 könnte das eine interessante Karte werden. Die ersten 2060er gibt es schon für um die 300€, wenn es die 1660 Ti dann bald für 250€ gibt und die Leistung bzw. der Verbrauch stimmt, könnte ich hier zuschlagen. Am besten eine kleine Karte, vielleicht sogar ITX?


also für "um die 300" sehe ich nix... die gehen so bei 350€*los... das ist weit weg von "um die" :wink:

1660Ti wird wohl um die 300€*sein dann...

w0mbat
2019-01-24, 14:50:44
Erst gestern gabs ne 2060 für 310€ inkl.

SKYNET
2019-01-24, 14:52:23
Erst gestern gabs ne 2060 für 310€ inkl.

einmalige angebote von einem händler, kannst aber nicht in die rechnung einbeziehen, sage ja auch nicht "die RX580 gibts ab 84€" nur weil ein händler, die mal 3 tage für den preis rausgehauen hat ;)

Fragman
2019-01-24, 14:55:24
einmalige angebote von einem händler, kannst aber nicht in die rechnung einbeziehen

Das hast DU jetzt aber nicht geschrieben, oder? ;D

w0mbat
2019-01-24, 15:00:24
Naja, die 2060 ist ja auch noch nicht lange am Markt und wird sehr wahrscheinlich noch weiter im Preis sinken. Zudem kann ich ja auch bei einem einmaligen Angebot zuschlagen :)

Leonidas
2019-01-25, 10:43:17
GeForce GTX 1660 Ti|15. Februar|279$
GeForce GTX 1660|Anfang März|229$
GeForce GTX 1560|Ende März|179$

https://www.3dcenter.org/news/geruechtekueche-nvidias-geforce-16-serie-tritt-im-februar-maerz-mit-drei-grafikkarten


PS: Ich sehe, das es euch wahnwitzig interessiert. Sehr erstaunlich, wie stark das 3DC auf HighEnd- und Enthusiasten-Ware getrimmt ist.

HOT
2019-01-28, 16:36:41
Tjo Chips zu teuer, Kartenpreise zu hoch, falsche VRAM-Sparsamkeit, schlechte Absätze:
https://www.computerbase.de/2019-01/nvidia-umsatzwarnung/
Endlich gibts mal einen auf den Sack aufgrund der Preispolitik. Das war überfällig. (Gilt natürlich analog für AMD, das wird hoffentlich klar machen, dass man sich nicht auf NV-Preisniveaus einschießen soll).

w0mbat
2019-01-28, 16:46:17
GeForce GTX 1660 Ti|15. Februar|279$
GeForce GTX 1660|Anfang März|229$
GeForce GTX 1560|Ende März|179$

https://www.3dcenter.org/news/geruechtekueche-nvidias-geforce-16-serie-tritt-im-februar-maerz-mit-drei-grafikkarten


PS: Ich sehe, das es euch wahnwitzig interessiert. Sehr erstaunlich, wie stark das 3DC auf HighEnd- und Enthusiasten-Ware getrimmt ist.
Mich interessiert die 1660 Ti auf jeden Fall, mal sehen wie der €-Preis und die finale Leistung aussehen wird.


Tjo Chips zu teuer, Kartenpreise zu hoch, falsche VRAM-Sparsamkeit, schlechte Absätze:
https://www.computerbase.de/2019-01/nvidia-umsatzwarnung/
Endlich gibts mal einen auf den Sack aufgrund der Preispolitik. Das war überfällig. (Gilt natürlich analog für AMD, das wird hoffentlich klar machen, dass man sich nicht auf NV-Preisniveaus einschießen soll).
Von $160 auf knapp $130, das war ein freier Fall :freak:

MartinRiggs
2019-01-28, 16:46:38
Tja, die verdiente Retourkutsche.:D

HOT
2019-01-28, 17:04:03
Dass das im Artikel mit Apple verglichen wurde und dass NV das auch so kommuniziert wurde offenbar entbehrt nicht einer gewissen Komik. Apples Problem ist nicht die Schwäche Chinas sonden Apples schlechter Ruf bei den chinesischen Premiumkunden, die generell eher zu den High-End-Geräten von Huawei greifen mittlerweile. Da gabs ja richtig Krach deswegen. Als wenn die betuchteren Chinesen weniger Grafikkarten kaufen, weil sich das Wachstum in China konsolidiert, so ein Quatsch. Der Mittelstand gedeiht weiter, das hat ja jetzt nichts primär mit dem sowieso bis hintengegen manipulierte BIP Chinas zu tun ;D. NV macht sein Geld ja jetzt nicht grade mit Bürorechnern, die das tatsächlich treffen wird.
Soweit ich weiss, gab es einen solchen Einbruch noch nie bei einer neuen Grafikkartenserie bei NV außer vielleicht bei der FX-Serie. Wir dürfen nicht vergessen, neue Karten befeuern den Umsatz und lassen den nicht einbrechen :D.

Slipknot79
2019-01-28, 18:39:48
Tja, die verdiente Retourkutsche.:D

Was der Kurs m8 ist Nivida aber ziemlich egal.

Dural
2019-01-28, 19:11:13
Nur so als info, auch amd spricht von tieferen grafikkarten verkäufe.

Langlay
2019-01-28, 19:23:09
Was der Kurs m8 ist Nivida aber ziemlich egal.

Nvidia vielleicht, den Aktionären sicherlich nicht.

BlacKi
2019-01-28, 19:31:03
ich dachte auch das nv lieber gewinne macht als verluste. mann lag ich da falsch. das die 60% performance gain nicht erreicht wurden, wäre halb so schlimm gewesen, aber das der speicher nicht verdoppelt bzw. erhöht wurde, war die falsche entscheidung. das die verkäufe darunter leiden war vorherzusehen.

Timbaloo
2019-01-28, 19:37:37
Nur so als info, auch amd spricht von tieferen grafikkarten verkäufe.
Sind ja, Stand von gerade eben, auch um 7% runter. Muss wohl auch am VRAM-Geiz und zu hohen Preisen liegen :rolleyes:

PS: Was Aktienkurse im Turing-Speku-Thread zu tun haben muss mir auch mal jemand erklären. Zumal es da extra einen Thread für gibt...

reaperrr
2019-01-28, 22:56:04
PS: Ich sehe, das es euch wahnwitzig interessiert. Sehr erstaunlich, wie stark das 3DC auf HighEnd- und Enthusiasten-Ware getrimmt ist.
Ohne RT ist Turing halt noch unspektakulärer als mit.

Ich meine, für wen ist so eine 1660 Ti denn wirklich interessant? Für alle mit etwas ab 1070/V56 aufwärts definitiv nicht. Für Besitzer von 580/590/1060-6G auch nicht so wirklich, denn für ~20-30% mehr Performance müsste man gegenüber dem Gebrauchtpreis der alten Karte wohl immer noch 100€ draufpacken, das lohnt sich für so einen kleinen Sprung (v.a. mit nur 6GB) nicht wirklich.

Interessant sind die 1660(Ti) eigentlich nur für Besitzer noch älterer/schwächerer Karten mit <=4GB VRAM, aber wer so lange damit ausgehalten hat, der kann auch noch die paar Monate bis Navi warten und dann entscheiden.

Slipknot79
2019-01-28, 23:53:05
Nvidia vielleicht, den Aktionären sicherlich nicht.

Stimmt, die kaufen ein wo es billiger ist.

Langlay
2019-01-29, 00:16:46
Stimmt, die kaufen ein wo es billiger ist.

In den letzten Monaten wäre das ein guter Weg zum Geldverbrennen. Nvidia -40% innerhalb der letzten 6 Monate.

gravitationsfeld
2019-01-29, 02:09:21
Da war aber auch viel bullshit an den Maerkten. Apple ist auch 30% runter.

Langlay
2019-01-29, 03:21:04
Da war aber auch viel bullshit an den Maerkten. Apple ist auch 30% runter.

Jo, 2018 war ja fast überall eher durchwachsen.

Aber ne Umstatzwarnung baut halt auch nicht unbedingt Vertrauen in die Zukunft auf.

Ich wollte eigentlich auch nur klarmachen. Das die Aussage von Slipknot79 imo unzutreffend ist. Bezüglich Nvidia interressiert der Aktienkurs nicht.

][immy
2019-01-29, 10:29:58
Ohne RT ist Turing halt noch unspektakulärer als mit.

Ich meine, für wen ist so eine 1660 Ti denn wirklich interessant? Für alle mit etwas ab 1070/V56 aufwärts definitiv nicht. Für Besitzer von 580/590/1060-6G auch nicht so wirklich, denn für ~20-30% mehr Performance müsste man gegenüber dem Gebrauchtpreis der alten Karte wohl immer noch 100€ draufpacken, das lohnt sich für so einen kleinen Sprung (v.a. mit nur 6GB) nicht wirklich.

Interessant sind die 1660(Ti) eigentlich nur für Besitzer noch älterer/schwächerer Karten mit <=4GB VRAM, aber wer so lange damit ausgehalten hat, der kann auch noch die paar Monate bis Navi warten und dann entscheiden.
Geht dabei dann wohl auch eher um OEM PCs als um Direktverkäufe.

Grundsätzlich uninteressant ist die 1660 wohl nicht. Immerhin dürfte sie die Turing-Verbesserungen haben (z.B. das mit der dynamischen Shaderauflösung, was sicherlich für die Zukunft interessant sein kann).

Aber ja, für die die nvidia bereits mit der 10x0 Gen beglückt hat, ist die Karte absolut uninteressant, aber an diese richtet die sich auch nicht. An diejenigen richten sich eher die RTX Produkte. Aber nvidia darf sich auch nicht nur auf einen Teil der Käuferschaft konzentrieren.
Fehlt ja eigentlich nur noch Ersatz für die extrem erfolgreiche 1050er, einfach damit die OEMs mehr Checklistenfeatures haben.

Slipknot79
2019-01-30, 19:06:30
In den letzten Monaten wäre das ein guter Weg zum Geldverbrennen. Nvidia -40% innerhalb der letzten 6 Monate.

Prinzipell ged man sowieso in Crashphasen auf Einkaufstour. Krachts mal 2-3 Jahre, zugrapschen, easy money und es regnet nach 10 Jahren job quits und Tittan RTXen :cool:

mironicus
2019-01-31, 14:04:09
Es gibt seit einigen Tagen erste Laptops mit RTX 2060/2070/2080 und im Vergleich zu den Desktopvarianten wurden die Frequenzen so stark heruntergeschraubt, dass sie sich nur wenig von den Vorgängern GTX 1070/1080 absetzen können. Die Laptopversionen der GTX-Karten waren kaum langsamer als die Desktopvarianten, jetzt muss man aber wirklich genauer hinschauen. Ein Upgrade vom Vorgänger lohnt sich meiner Meinung nach nicht und die RTX-Laptops sind auch noch sehr viel teurer.

BigKid
2019-01-31, 15:13:20
Es gibt seit einigen Tagen erste Laptops mit RTX 2060/2070/2080 und im Vergleich zu den Desktopvarianten wurden die Frequenzen so stark heruntergeschraubt, dass sie sich nur wenig von den Vorgängern GTX 1070/1080 absetzen können. Die Laptopversionen der GTX-Karten waren kaum langsamer als die Desktopvarianten, jetzt muss man aber wirklich genauer hinschauen. Ein Upgrade vom Vorgänger lohnt sich meiner Meinung nach nicht und die RTX-Laptops sind auch noch sehr viel teurer.
Also die RTX2070 gibt es in Laptops mit 6 Core für 2000 Euro.
Kann also nicht sagen, dass es teurer geworde ist - zu meinem Erstaunen.
Die RTX2070 (mobile) kommt an die GTX1080 (mobile) rann...
Man muss allerdings aufpassen, dass man kein MaxQ Modell erwischt...
Das Uprade alleine wegen GTX nach RTX zu machen ist natürlich nicht so sexy, nimmt man aber zB 4 nach 6 core noch dazu...

aceCrasher
2019-02-02, 12:24:30
Es gibt seit einigen Tagen erste Laptops mit RTX 2060/2070/2080 und im Vergleich zu den Desktopvarianten wurden die Frequenzen so stark heruntergeschraubt, dass sie sich nur wenig von den Vorgängern GTX 1070/1080 absetzen können. Die Laptopversionen der GTX-Karten waren kaum langsamer als die Desktopvarianten, jetzt muss man aber wirklich genauer hinschauen. Ein Upgrade vom Vorgänger lohnt sich meiner Meinung nach nicht und die RTX-Laptops sind auch noch sehr viel teurer.

Naja, mal im Ernst, das Ganze war das abzusehen. Keine bessere Fertigung, keine großen Architekturbedingten Effizienzsprünge. Hat sich schon daran abgezeichnet, dass die Turing Desktopkarten durch die Bank weg eine höhere TDP haben. Damit es auch im mobile Sektor irgendeinen Vorteil gibt opfern sie jetzt eben Chipfläche im Tausch für mehr Effizienz, indem sie weiter in die Breite gehen.

Screemer
2019-02-03, 23:04:03
Hatte ich grad im newsfeed führt jetzt zu ner 404:

Daredevil
2019-02-03, 23:15:51
Es gibt seit einigen Tagen erste Laptops mit RTX 2060/2070/2080 und im Vergleich zu den Desktopvarianten wurden die Frequenzen so stark heruntergeschraubt, dass sie sich nur wenig von den Vorgängern GTX 1070/1080 absetzen können. Die Laptopversionen der GTX-Karten waren kaum langsamer als die Desktopvarianten, jetzt muss man aber wirklich genauer hinschauen. Ein Upgrade vom Vorgänger lohnt sich meiner Meinung nach nicht und die RTX-Laptops sind auch noch sehr viel teurer.
Sie können die mobilen Karten effizienter betreiben und sie lassen sich deutlich besser kühlen + RT und DLSS Support. Das ist natürlich kein Upgrade Grund, aber immerhin irgendein Fortschritt. Vielleicht schlagen sich die ersten beiden Punkte ja noch in dem Takt nieder.

aufkrawall
2019-02-03, 23:17:52
Hatte ich grad im newsfeed führt jetzt zu ner 404:
https://www.techspot.com/news/78548-analyst-nvidia-lied-about-cryptocurrency-earnings-avoid-stock.html

Screemer
2019-02-03, 23:27:29
https://www.techspot.com/news/78548-analyst-nvidia-lied-about-cryptocurrency-earnings-avoid-stock.html

Danke. Na da bin ich Mal gespannt. Wenn das zutrifft, dann wird das nächste Quartal düster. Kann ich mir irgendwie nickt vorstellen.

HOT
2019-02-04, 00:53:10
Danke. Na da bin ich Mal gespannt. Wenn das zutrifft, dann wird das nächste Quartal düster. Kann ich mir irgendwie nickt vorstellen.

Auf der anderen Seite der Macht hat Lisa das erste Quartal schon vorab abgeschrieben, trotz VII. Könnte also was dran sein.

gravitationsfeld
2019-02-04, 01:50:00
Wird auch echt Zeit dass der Krypto-Schrott ein Ende hat. Was fuer eine Verschwendung von Elektrizitaet. Allein das hat uns wahrscheinlich ein Jahr vom CO2-Budget gekostet.

Nosferatu1
2019-02-04, 02:28:01
Dir hats gar nix gekostet.

gravitationsfeld
2019-02-04, 04:52:53
Unser aller Zukunft steht auf dem Spiel. Der Krypto-Müll hat Strom von einem kompletten Land gefressen. Ja, das betrifft alle. Also lass mich in Ruhe mit dem Gefasel.

Ex3cut3r
2019-02-04, 07:39:00
Unser aller Zukunft steht auf dem Spiel. Der Krypto-Müll hat Strom von einem kompletten Land gefressen. Ja, das betrifft alle. Also lass mich in Ruhe mit dem Gefasel.

Da bin ich absolut bei dir, traurig.

MadManniMan
2019-02-04, 07:41:46
Dir hats gar nix gekostet.

"Nein" ist kein Argument, du Typ.

dargo
2019-02-04, 07:45:20
Wird auch echt Zeit dass der Krypto-Schrott ein Ende hat. Was fuer eine Verschwendung von Elektrizitaet. Allein das hat uns wahrscheinlich ein Jahr vom CO2-Budget gekostet.
Nun mal langsam... warum regt sich denn keiner über die "normale" Währung auf und alles was daran hängt? Nur weil man sich daran gewöhnt hat? ;) Was ist zb. wenn ich Strom selbst erzeuge?

unl34shed
2019-02-04, 07:48:28
Dann ist es immer noch eine sinnlose Stromverschwendung, nur eben vom selbst erzeugten Strom...

dargo
2019-02-04, 07:50:35
Nochmal... wo ist da der Unterschied zum normalen Alltag? Wenn du deine Brötchen verdienen willst glaubst du ernsthaft das geht ohne CO2 etc.? Die ganze Menschheit ist Ressourcenverschwender Nummer 1. Nichts Neues...

btw.
Solange ich einen entsprechenden Gegenwert (in dem Fall Kryptowährung) bekomme ist es keine sinnlose Verschwendung. Dann wäre jegliche Leistung wofür du Geld bekommst ebenso sinnlose Verschwendung.

N0Thing
2019-02-04, 07:54:00
Nun mal langsam... warum regt sich denn keiner über die "normale" Währung auf und alles was daran hängt? Nur weil man sich daran gewöhnt hat? ;)

"Normale" Währung hat eine weitreichende Funktion und ist nahezu weltweit anerkannt. Anwendungen für Blockchain sind natürlich interessant, dafür braucht es aber gar kein Spekulationsobjekt mit Hyperblase, das geht auch ohne Schürfen und daraus resultierendem Energiebedarf.

______

Gibt es eigentlich eine übersichtliche Liste, welche Spiele mit DLSS und / oder Raytracing bisher angekündigt und / oder veröffentlicht wurden? Ähnlich wie die DX12- / Vulkan-Liste?

rentex
2019-02-04, 07:54:59
Ah! Grundsatzdiskussionen...gehören leider woanders hin 🤷*♂️ Aber ja, die Menschheit ist eine Plage für den Planeten. Also zurück zu NVs Probleme.
Hab leider den Artikel nicht ganz gerafft. Wo liegt der Hund begraben?

gravitationsfeld
2019-02-04, 08:07:33
Nochmal... wo ist da der Unterschied zum normalen Alltag? Wenn du deine Brötchen verdienen willst glaubst du ernsthaft das geht ohne CO2 etc.? Die ganze Menschheit ist Ressourcenverschwender Nummer 1. Nichts Neues...

btw.
Solange ich einen entsprechenden Gegenwert (in dem Fall Kryptowährung) bekomme ist es keine sinnlose Verschwendung. Dann wäre jegliche Leistung wofür du Geld bekommst ebenso sinnlose Verschwendung.
Eine einzige Bitcoin-Transaktion liegt im Moment bei 0.2t CO2. Das ist soviel wie durchschnittlich 1.5 Monate Auto fahren. Das ist moralisch einfach durch nichts rechtzufertigen. Reine Gier.

dargo
2019-02-04, 08:13:35
Eine einzige Bitcoin-Transaktion liegt im Moment bei 0.2t CO2. Das ist soviel wie durchschnittlich 1.5 Monate Auto fahren. Das ist moralisch einfach durch nichts rechtzufertigen. Reine Gier.
Ich verstehe schon worauf du hinaus willst. Aber der Mensch war schon immer nach einer Währung gierig. Egal ob Geld, Kryprowährung, Aktien, Gold oder was auch immer. Nicht Kryptowährung ist das Problem sondern der Mensch an sich. :wink:

"Normale" Währung hat eine weitreichende Funktion und ist nahezu weltweit anerkannt.
Du kannst doch Kryptowährung gegen "normale" Währung umtauschen, wo ist das Problem?

HOT
2019-02-04, 08:38:15
Ist doch alles gut :D. NV und AMD haben einen auf den Deckel bekommen wegen BC und es gibt weniger CO2 (was auch immer das bringen mag :P ;D).

basix
2019-02-04, 08:40:01
Einfach so: Man könnte mit dem Strom auch sinnvolles betreiben ;) Für einen Dienst an der Menschheit. Oder eben weniger Raubbau an der Natur betreiben. Ist das selbe wie bei nutzlosen Jobs. Menschliche Arbeitsleistung wird verschwendet. Wäre das nicht, kämen wir schneller voran oder müssten weniger arbeiten;)

HOT
2019-02-04, 08:43:40
Völlig richtig :D. Das war ja auch besonders ernst gemeint. Ne Co2-Diskussion ist hier echt fehl am Platz. Wer mit 200-300W-Grafikkarten spielt sollte sich um was anderes Gedanken machen als um die Klimabilanz :freak:.

Turing müsste doch für Cryptomining perfekt sein oder? Tensorcores, separate Int32, viel Bandbreite...

=Floi=
2019-02-04, 08:49:18
Die ganze Menschheit ist Ressourcenverschwender Nummer 1. Nichts Neues...



(y)
kann man so sagen.


edit @hot
mit einer 250watt karte kann man aber schon auch effizient zocken, wenn man sie in den fps oder bei der power beschneidet. an sich braucht so eine karte nocht schlechter sein, weil die breite eigentlich immer effizienter ist und bei der perf/watt immer besser dasteht.

Ex3cut3r
2019-02-04, 12:21:22
Nochmal... wo ist da der Unterschied zum normalen Alltag? Wenn du deine Brötchen verdienen willst glaubst du ernsthaft das geht ohne CO2 etc.? Die ganze Menschheit ist Ressourcenverschwender Nummer 1. Nichts Neues...

btw.
Solange ich einen entsprechenden Gegenwert (in dem Fall Kryptowährung) bekomme ist es keine sinnlose Verschwendung. Dann wäre jegliche Leistung wofür du Geld bekommst ebenso sinnlose Verschwendung.

Mann oh Mann, Dargo dein erst? Und deswegen sollen wir alle so weitermachen? Hast du Kinder? Wir sind dafür verantwortlich wie kommende Generationen hier leben werden, willst du wirklich das deine (kommenden) Kinder alle mit Sauerstoffmasken oder ähnliches rumlaufen? Immer Angst haben, Morgen zu verrecken? Natur/Wetter Katstrophen zur normalität werden? Denk mal drüber nach. Klar machen wir auch noch anderen "Dreck" Aber BC hat letzes Jahr soviel Strom wie ein ganzes Land verbraucht. Wir müssen uns eher zurückhalten nicht so einen zusätzlichen Blödsinn veranstalten. Oder hat Trump deinen Acccout gehackt?

AMDoderNvidia
2019-02-04, 12:45:09
Bitte, bitte keine CO2 Diskussion und sonstige moralischen Sachen... zurück zum Thema, nämlich Turing!

Computerbase zeigt gerade hier (https://www.computerbase.de/2019-02/nvidia-geforce-rtx-mobile-test/), dass der mobile Turing nicht so gut performt wie der im Desktop-Segment.

][immy
2019-02-04, 15:27:45
Bitte, bitte keine CO2 Diskussion und sonstige moralischen Sachen... zurück zum Thema, nämlich Turing!

Computerbase zeigt gerade hier (https://www.computerbase.de/2019-02/nvidia-geforce-rtx-mobile-test/), dass der mobile Turing nicht so gut performt wie der im Desktop-Segment.
das ist nicht besonders erstaunlich, weil der große Sprung mit Turing eher über den Verbrauch geht, als durch Architektur-Änderungen. Und da sind Laptops halt noch begrenzter. Allein das man eine TDP von 90W im Laptop erlaubt ist ein Witz. Ein Laptop ist schließlich nicht in der Lage so was dauerhaft zu kühlen. Höchstens mal relativ kurz.
Turing wird so gesehen erst interessant wenn nvidia diesen in 7nm fertigt. Aber ich vermute mal, dann werden sie den Chip auch wieder so groß machen, der der Verbrauch dadurch nicht geringer ist. Denn sonst hätte man hin zu 7nm wohl keinen Performancesprung (außer vielleicht durch Arch-Änderungen).

Godmode
2019-02-04, 16:01:33
Eine einzige Bitcoin-Transaktion liegt im Moment bei 0.2t CO2. Das ist soviel wie durchschnittlich 1.5 Monate Auto fahren. Das ist moralisch einfach durch nichts rechtzufertigen. Reine Gier.

Die meisten großen Miner verwenden Erneuerbare (hauptsächlich Wasserkraft), weil diese am billigsten sind. Man kann jetzt zwar immer noch argumentieren, dass man den Strom sonst für was sinnvolleres verwenden könnte, aber so schlimm wie du tust, ist mining erstmal nicht, da gibt es anderes Baustellen auf dieser Welt.

x-force
2019-02-04, 16:08:52
ich würde auch wetten, daß die meisten kritiker unsinnigerweise im gleichen atemzug von subventionierten kerosin und billigen flügen nicht abweichen wollen.

dargo
2019-02-04, 16:43:10
ich würde auch wetten, daß die meisten kritiker unsinnigerweise im gleichen atemzug von subventionierten kerosin und billigen flügen nicht abweichen wollen.
Du drückst mit dem Finger da genau in die Wunde. ;) Mir würden hier tausende Dinger einfallen wo der Mensch verschwenderisch mit den Ressourcen umgeht, aber das würde hier den Rahmen sprengen.

btw.
Um mal wieder beim Thema Turing zu bleiben... wieviel CO2 hat die Entwicklung und die Produktion bis heute verschlungen? ;)