PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33] 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

AwesomeSauce
2018-09-01, 17:05:06
Sehe ich nicht, aber ich bin auch ein Laie. ;)

Man muss auch kein Entwickler sein, um das zu verstehen. Nur ist es halt einfacher, in allem eine Verschwörung zu sehen.

=Floi=
2018-09-01, 17:14:27
Wie wäre es mit:
In Anbetracht der Marktsituation kann sich nVidia erlauben, marktgerechte Preise zu verlangen.


Hier sollte man aber über die marge diskutieren und nicht über den preis der karte. Wie angemerkt ist die karte high end. (bis auf den ram)
Die marge sinkt leicht und bleibt aber noch immer über 60%!
30% würde ich "normal" ansehen.

AffenJack
2018-09-01, 17:23:32
FP16 ("Rapid Packed Math" à la AMD) muss explizit vom Entwickler implementiert werden. Warum sollte dann sowas, anscheinend wesentlich komplizierter, zur Laufzeit gehen? Sehe ich nicht, aber ich bin auch ein Laie. ;)

MfG,
Raff

Man könnte sich auch einfach informieren, was das überhaupt sein soll, aber die Fanboys schreien lieber gleich los.

Variable Rate Shading (VRS) optimizes rendering by applying more shading horsepower in detailed areas of the scene and throttling back in scenes with less perceptible detail. This can be used for foveated rendering by reducing the shading rate on the periphery of scenes, where users are less likely to focus, particularly when combined with the emergence of eye-tracking.
https://blogs.nvidia.com/blog/2018/08/20/turing-vr-full-immersion/

Ist einfach der nächste Schritt nach Multi-Res Shading. Für VR vor allem mit Eyetracking ein sehr sinnvolles Feature. Außerhalb von VR wird das niemand benutzen und hat auch nix mit der generellen Geschwindigkeit zu tun.

Kriton
2018-09-01, 17:24:18
Man muss auch kein Entwickler sein, um das zu verstehen. Nur ist es halt einfacher, in allem eine Verschwörung zu sehen.

Dann erkläre doch mal.
Ich verstehe es (laienhaft) jedenfalls so, dass bestimmte Bereiche (seitens der Shader) nicht "voll" berechnet werden, wodurch weniger Rechenleistung benötigt wird. Zielsetzung sind Bereiche, die man als Spieler "weniger" wahrnimmt.

Insgesamt reduziert man also die Bildqualität um mehr Leistung zu erreichen. Inwieweit das auffällt ist eine andere Sache.

Raff
2018-09-01, 17:27:38
Ist einfach der nächste Schritt nach Multi-Res Shading. Für VR vor allem mit Eyetracking ein sehr sinnvolles Feature. Außerhalb von VR wird das niemand benutzen und hat auch nix mit der generellen Geschwindigkeit zu tun.

Wenn man den Algo schon in einer Engine hat, könnte man den auch für Nicht-VR freischalten und die Leute entscheiden lassen. Ich würde mir das gerne mal ansehen. Richtig sinnvoll erscheint das aber wirklich nur mit Eye-Tracking, denn das Spiel weiß nicht, wo der Betrachter hinsieht.

MfG,
Raff

pixeljetstream
2018-09-01, 17:29:45
Hab nicht an dem VRS gearbeitet, das woran ich beteiligt war ist noch nicht geleaked.
Digidi das sind einfach neue Features die Entwickler einbauen müssen. Die Vorgänger waren multi-res und dann lens-matched-shading.

Hier jede neue Technik als Betrugswerkzeug darzustellen ist doch auch durch ne Brille gesehen.

Vor gefühlt tausend Seiten hatte ich geschrieben, dass es immer mehr darum gehen wird in Zukunft nicht mit dem Holzhammer drauf zu hauen, sondern Entwicklern Werkzeuge zu geben wie sie mehr Leistung rausholen können.
Das war schon immer so. Und oh Wunder was wohl los ist wenn andere Hersteller sowas am Ende auch können...

Du wirfst dich den Spielentwicklern auch nicht Betrug vor wenn der eine die Beleuchtung anders macht als der andere.

Anscheinend sind alles solche Chipexperten dass sie genau einschätzen können wie Turing funktioniert und was die Units leisten können und was nicht.

AffenJack
2018-09-01, 17:33:34
Dann erkläre doch mal.
Ich verstehe es (laienhaft) jedenfalls so, dass bestimmte Bereiche (seitens der Shader) nicht "voll" berechnet werden, wodurch weniger Rechenleistung benötigt wird. Zielsetzung sind Bereiche, die man als Spieler "weniger" wahrnimmt.

Jupp, genau wie bei den Techniken die Nv und AMD schon seit Jahren in ihren GPUs haben. Bisher konnten diese aber nur die Auflösung in Bereichen reduzieren. Neu ist jetzt anscheinend, dass man irgendwie das Shading reduziert, wobei ich nicht ganz weiß, wie das funktionieren soll. Aber das "Cheaten" können beide eben schon seit Jahren, baut nur niemand ein, weil unsinnvoll außerhalb von VR.

Wenn man den Algo schon in einer Engine hat, könnte man den auch für Nicht-VR freischalten und die Leute entscheiden lassen. Ich würde mir das gerne mal ansehen. Richtig sinnvoll erscheint das aber wirklich nur mit Eye-Tracking, denn das Spiel weiß nicht, wo der Betrachter hinsieht.

MfG,
Raff

Shadow Warrior 2 habt ihr doch getestet. Das hatte als einziges non-VR Spiel Multi-Res Shading. Das ist gewisserweise nur ne Erweiterung davon.

Screemer
2018-09-01, 17:35:47
Hab nicht an dem VRS gearbeitet, das woran ich beteiligt war ist noch nicht geleaked.

Ok sorry. Hätte ich falsch verstanden, denn du hattest damals auch auf shading angespielt wenn ich mich richtig erinnere. Werd's gleich raus nehmen.

Raff
2018-09-01, 17:35:52
Shadow Warrior 2 habt ihr doch getestet. Das hatte als einziges non-VR Spiel Multi-Res Shading. Das ist gewisserweise nur ne Erweiterung davon.

Ja, aber dem Funktionsprinzip nach wesentlich weniger rabiat. Die Übergänge beim Shader-Warrior ;) sieht man an normalen LCDs schon recht deutlich. Das ist nix.

Ok sorry. Hätte ich falsch verstanden, denn du hattest damals auch auf shading angespielt wenn ich mich richtig erinnere. Werd's gleich raus nehmen.

Mit Shading hat's schon mal zu tun. Ich ahne was. ;) Auch da wird die Implementierung bzw. Adaptionsrate interessant.

MfG,
Raff

AwesomeSauce
2018-09-01, 17:36:42
Dann erkläre doch mal.
Das sind solche einfache Sachen, die kann man selbst nachschauen (wie es einige hier ja auch geschafft haben). Es ist lächerlich, sowas als Cheat abzustempeln.

Fragman
2018-09-01, 17:40:10
Navi10 wird nach bisherigem Gerüchte-Stand bestenfalls irgendwo im Bereich zwischen V64/1080 und 2070 landen, wo hast du her, dass Navi in 1080Ti/2080-Regionen landen könnte?


Hast du irgendeine Quelle dazu? Bisher haben alle Gerüchte darauf hingedeutet, dass Navi10 genau wie V20 von Anfang an ein TSMC-Chip gewesen ist, und bisher habe ich nirgends von einer Verschiebung von Navi gelesen.


quelle find ich grad nicht, stand aber auch in den 3dcenter News der letzten tage.

navi wird demnach im 2. Halbjahr 2019 kommen, vielleicht auch erst anfang 2020 und es wird schon die neue Architektur sein. also Verschiebung plus neue Architektur.

AffenJack
2018-09-01, 17:42:17
Ok sorry. Hätte ich falsch verstanden, denn du hattest damals auch auf shading angespielt wenn ich mich richtig erinnere. Werd's gleich raus nehmen.

Dürfte das hier sein aus den Turing Features:

Advanced programmable shading technologies to improve the performance of complex visual effects and graphics-intensive experiences

Was sich dahinter verbirgt ist aber noch unklar. Variable Rate Shading war da bei den VR Features, während das ein seperater Punkt war.

Ja, aber dem Funktionsprinzip nach wesentlich weniger rabiat. Die Übergänge beim Shader-Warrior ;) sieht man an normalen LCDs schon recht deutlich. Das ist nix.


Am LCD habe ich auch bei VRS arge Zweifel. Da guckt man einfach eher auf Randbereiche. Kann mir nicht vorstellen, dass das Sinn macht.

PHuV
2018-09-01, 17:58:06
Leute hört doch endlich mal auf, wieder den Thread so aufzuheizen, so daß er womöglich gleich wieder geschlossen wird. :rolleyes:

https://www.microspot.ch/de/Computer-Software/pc-komponenten/grafikkarten--C584000/gigabyte-gv-n2080wf3oc-8gc-8gb--P0001592684 <-- 2080iger für umgerechnet 695 Euro

Die Nvidia Preise sind völlig übertrieben .....
Ich denke mal das sich die Preise recht schnell normalisieren werden .
Übertrieben wäre Preissteigerung von über 50%, haben wir aber nicht. Und ja, wenn die Leute nicht dauern losheulen würden und mal zuhören, die Preise werden doch sinken, das war bisher immer so, wenn die erste Welle der Kaufbegeisterten abebbten. Einige Leute wollen sehr wohl das neueste, aber eben für lau, und das gibts dieses Mal eben nicht. Damit muß man sich eben abfinden, oder selbst eine Konkurrenz aufbauen.
Was man nicht vergessen darf, daß Nvidia aktuell viel mehr Geld in Forschung reinsteckt, z.B.
Nvidia-KI generiert fotorealistische Videos (https://www.heise.de/newsticker/meldung/Nvidia-KI-generiert-fotorealistische-Videos-4146569.html?wt_mc=rss.ho.beitrag.atom)
Es gibt mittlerweile zig Videos über Video und Bildverbesserungen mittels KI. Wenn das mal auf den Consumermarkt durchschlägt, dann ist selbst RT ein Klacks dagegen. Schon mal daran gedacht?

Was haben wir in den in den letzten Jahres hier Spektakuläres von AMD gesehen? Sehr sehr wenig, und das ist u.a ein Problem von denen.

Blediator16
2018-09-01, 18:24:49
Leute hört doch endlich mal auf, wieder den Thread so aufzuheizen, so daß er womöglich gleich wieder geschlossen wird. :rolleyes:


Übertrieben wäre Preissteigerung von über 50%, haben wir aber nicht. Und ja, wenn die Leute nicht dauern losheulen würden und mal zuhören, die Preise werden doch sinken, das war bisher immer so, wenn die erste Welle der Kaufbegeisterten abebbten. Einige Leute wollen sehr wohl das neueste, aber eben für lau, und das gibts dieses Mal eben nicht. Damit muß man sich eben abfinden, oder selbst eine Konkurrenz aufbauen.
Was man nicht vergessen darf, daß Nvidia aktuell viel mehr Geld in Forschung reinsteckt, z.B.
Nvidia-KI generiert fotorealistische Videos (https://www.heise.de/newsticker/meldung/Nvidia-KI-generiert-fotorealistische-Videos-4146569.html?wt_mc=rss.ho.beitrag.atom)
Es gibt mittlerweile zig Videos über Video und Bildverbesserungen mittels KI. Wenn das mal auf den Consumermarkt durchschlägt, dann ist selbst RT ein Klacks dagegen. Schon mal daran gedacht?

Was haben wir in den in den letzten Jahres hier Spektakuläres von AMD gesehen? Sehr sehr wenig, und das ist u.a ein Problem von denen.

Hör auf mit dem Mist. Nur weil VW Autos baut, bauen sie noch keine Laborghini Aventador Gegenstücke.

Kriton
2018-09-01, 18:25:07
Wenn Du nicht aufheizen willst, dass lasse doch solche Worte wie "losheulen" oder "für lau". Sachlich ist anders.
Bei der Marge von Nvidia (einfach mal einen Blick in die Quartalsberichte werfen) darf man die Preise durchaus kritisieren ohne sich abstempeln zu lassen.

xiao didi *
2018-09-01, 18:31:28
Hör auf mit dem Mist. Nur weil VW Autos baut, bauen sie noch keine Laborghini Aventador Gegenstücke.
:freak:

Naennon
2018-09-01, 19:32:35
Hör auf mit dem Mist. Nur weil VW Autos baut, bauen sie noch keine Laborghini Aventador Gegenstücke.


ich verrat dir ein Geheimnis (ist aber eig auch keins)

https://abload.de/img/marken-im-volkswagen-mmdwe.jpg

Blediator16
2018-09-01, 20:03:20
ich verrat dir ein Geheimnis (ist aber eig auch keins)

https://abload.de/img/marken-im-volkswagen-mmdwe.jpg

Das weiß ich :facepalm:
Es geht einfach nur um den Vergleich. Wäre das selbe, wenn ich sagen würde wo sind die CPU Innovationen bei Nvidia? Entwickeln doch ebenfalls ARM CPUs :rolleyes:

Komplett off topic.

maximus_hertus
2018-09-01, 20:38:15
Ich bin mal auf den Verkaufsstart gespannt. Bestimmt sind nahezu alle Karten direkt bzw. zeitnah weg und die Händler ärgern sich über den zu niedrigen Preis bzw. die entgangene Marge.

Selbst die 1259 Euro für die 2080 Ti ist nur ein Zwischenschritt. Solange PC Gaming boomt, steigen die Preise. Wichtig: Die Performance der Karten ist weit weniger relevant als viele annehmen. Es ist erschreckend was ich jeden Tag im Verkauf erlebe.

Also keep cool. An die AMD Fraktion: Radeon High End war, ist und bleibt Tod. Von daher kann man alles völlig tiefenentspannt angehen.

An die nVidia Fraktion: nV ist Monopolist, es gibt keinen Grund irgendwelche wirren Kriege anzufangen. Es ist völlig egal, ob Raytracing und Co toll sind oder nicht. Es gibt die Wahl: RTX 2080 Ti, RTX 2080 oder 2070. Keine nicht nV Karte zur Auswahl. Die Marktanteile / Marge können nicht sinken. Von daher auch hier: einfach mal komplett entspannen.

Ex3cut3r
2018-09-01, 21:05:47
Und wenn schon?! Niemand muss wechseln, ist ja nicht so, als man mit der 10er oder Vega nicht mehr zocken kann, ich sage sowieso in 14 Monaten kommt eh schon wieder die 3080 raus, wenn man eine 1080 bis 1080 Ti hat, und nicht in 1440p aufwärts zockt, kann man auch prima abwarten. 7nm durfte nochmal auch zur 2080 Ti einen schönen Sprung hinlegen. Hoffentlich gibt es dann auch mal wieder einen VRAM Sprung.

MadPenguin
2018-09-01, 21:11:28
Vor 7nm kaufen ist doch Schwachsinn. Was kann die neue 2xxx Generation, was die neue 7nm Generation in 6 Monaten nicht x-mal besser kann. Endlich wieder ein großer Schritt in der Entwicklung dank 7nm. Ich spät mir 1000 Euro, damit ich dann eventuell noch 700 drauflegen kann :D

Edit: scheinbar denke nicht nur ich so :)

Geächteter
2018-09-01, 21:30:54
Vor 7nm kaufen ist doch Schwachsinn. Was kann die neue 2xxx Generation, was die neue 7nm Generation in 6 Monaten nicht x-mal besser kann.
Nichts, nur dass aus den 6 Monaten auch mehr werden können.

Blediator16
2018-09-01, 21:40:57
Nichts, nur dass aus den 6 Monaten auch mehr werden können.

Werden sicherlich mehr als 6.

Nuvirus
2018-09-01, 22:01:15
Ich denke das Nvidia gar nicht so lange warten wird, sofern 7nm vernünftig läuft da man von den großen Dies bestimmt auf Dauer Abstand nehmen will - ansosten gäbe es für Nvidia aktuell aber auch keinen Grund zur Eile.
AMD wird mit Navi im mittleren Preisbereich evtl zu etwas Preisnachlass führen aber Performance wird nicht der Burner sein.
Der neue High End Chip in 7nm kommt entweder früher als wir denken oder deutlich nach der 3070/3080 je nachdem wie Fertigung läuft und Nvidia entscheidet.
6 Monate halte ich für unrealistisch eher später - egal ob Ti Chip oder 3080/3070

Könnte mir auch vorstellen das Nvidia nächstes Jahr erstmal 7nm mit nem neuen Chip Performancemäßig unter der 2070 bringt da dürfte die Yield auch besser sein - ich glaube nicht das Nvidia 12nm Mittelklase bringt da Pascal ja schon sehr gut läuft.

Fragman
2018-09-01, 22:14:49
vielleicht sollte man turing auch als hinweis nehmen, das 7 nm eben weiter weg ist als bisher vermutet? daraus ein "nv will abzocken" zu machen, weil in 6 monaten ja was neues kommt, ist irgendwie etwas kurzfristig gedacht. nv wuerde damit die eigenen kunden ordentlich verprellen. und nein, sowas koennen sie sich auch nicht leisten.

Bösewicht
2018-09-01, 22:28:02
vielleicht sollte man turing auch als hinweis nehmen, das 7 nm eben weiter weg ist als bisher vermutet? daraus ein "nv will abzocken" zu machen, weil in 6 monaten ja was neues kommt, ist irgendwie etwas kurzfristig gedacht. nv wuerde damit die eigenen kunden ordentlich verprellen. und nein, sowas koennen sie sich auch nicht leisten.
ich glaube nicht das 7nm so nah ist weil nvidia dann wohl wirklich die kurze zeit gewartet hätte

Fragman
2018-09-01, 22:30:02
ich glaube nicht das 7nm so nah ist weil nvidia dann wohl wirklich die kurze zeit gewartet hätte

denk ich auch, die vorteile waeren zu gross gewesen.

PHuV
2018-09-01, 22:32:58
Wenn Du nicht aufheizen willst, dass lasse doch solche Worte wie "losheulen" oder "für lau". Sachlich ist anders.
Sag das doch auch mal den anderen, oder warum muß man sich hier als Grüner Brillen Mann betiteln lassen? :confused: Nach dem Rumgejammere einiger hier muß man dafür ausgehen, daß sie neue Technik für lau haben wollen, aber die Marktsituation tunlichst ausblenden. Schöner Verdrängungsmenchanismus.

Bei der Marge von Nvidia (einfach mal einen Blick in die Quartalsberichte werfen) darf man die Preise durchaus kritisieren ohne sich abstempeln zu lassen.
Es kam zu den Preisen kaum objektive Kritik, sondern nur: "Ich will (eigentlich) sofort haben, kann und will es mir nicht leisten, Nvidia ist deshalb doof. Und alle die jetzt kaufen, sind auch doof und dumm!"
Nenne mir doch bitte mal dazu eine hier einigermaßen verfaßte objektive Kritik, welche die aktuelle Marktsituation (!) entsprechend einbezieht! Wir leben im Kapitalismus und in einer (relativ) freien Marktwirtschaft, es geht "nur" um lebensunwichtige Unterhaltungselektronik, die keiner kaufen muß. Das vergessen einige immer wieder. Und sie vergessen, was sie privat bereits tun oder gar als vernünftiger Unternehmer tun würden. Ebenso lassen sie außer acht, daß bei Markteinführung gefragte Artikel immer teurer waren, und erst bei Marktsättigung oder neuer Konkurrenz billiger werden. Nvidia tut das, was ihnen nützt, wie jedes Unternehmen. Einfache Grundkenntnisse von Volkswirtschaft. Genau das ist die Triebfeder unseres modernen Systems. Das wollen hier einige weder begreifen noch akzeptieren.

Wirst Du keine solche angemessene Kritik finden.

Es kritisiert keiner, daß manchen die Karten zu teuer sind, und das sie entsprechend etwas unwirsch sind. Kann jeder nachvollziehen. Nur die Unsachlichkeit, die Häme gegen Vorbesteller, warum muß sie sein?
ich glaube nicht das 7nm so nah ist weil nvidia dann wohl wirklich die kurze zeit gewartet hätte
Oder anderer Grund, TSMC hat die Auftragsbücher von Qualcom und Co. bereits so voll, daß Nvidia warten muß, und das vielleicht die aktuellen hohen Preise mitbestimmt?
TSMC: 7nm Massenproduktion vorgezogen, 12nm-Prozess und 7nm mit EUV kommen (http://www.pcgameshardware.de/CPU-CPU-154106/News/TSMC-7nm-Massenproduktion-vorgezogen-12nm-EUV-1258166/)
Hintergrund ist die hohe Nachfrage von Unternehmen wie Mediatek, Hisilicon (Huawei) und Qualcomm. Die Unternehmen wollen demnach 10nm weitestgehend überspringen und direkt auf 7nm wechseln.

pixeljetstream
2018-09-01, 22:41:19
PHuV du pauschalisierst. Lass gut sein sonst kann man deine Aufforderung zum Abrüsten nicht mehr ernst nehmen. Zum streiten gehören bekanntlich zwei, dass hier nicht alles einseitig ist muss Dir und jedem anderen doch bewusst sein. Ziel ist nicht eine Seite zum Gewinner zu erklären, sondern die Positionen zu respektieren.

cR@b
2018-09-01, 22:41:53
Und wenn schon?! Niemand muss wechseln, ist ja nicht so, als man mit der 10er oder Vega nicht mehr zocken kann, ich sage sowieso in 14 Monaten kommt eh schon wieder die 3080 raus, wenn man eine 1080 bis 1080 Ti hat, und nicht in 1440p aufwärts zockt, kann man auch prima abwarten. 7nm durfte nochmal auch zur 2080 Ti einen schönen Sprung hinlegen. Hoffentlich gibt es dann auch mal wieder einen VRAM Sprung.

Sehe ich auch so... denke die GTX 1080 Ti wird nach der exorbitanten Preisvorstellung der 2080 Ti ähnlich lang in meinem Rechner verweilen wie die GTX 480 damals. Hatte aufgrund des geringen Performance Zuwachs in Verbindung mit dem hohen Preis auch auf die GTX 580 verzichtet...
Einziger Nachteil war, dass ich nach so langer Zeit eigentlich kaum noch Geld für die GTX 480 bekommen habe aber naja dafür eben eine Nummern Generation gespart. ;) Für mich kann es im Endeffekt bei der 2080 Ti nur der Preis richten, der Rest ist eigentlich sogut wie irrelevant.

PHuV
2018-09-01, 22:49:16
PHuV du pauschalisierst. Lass gut sein sonst kann man deine Aufforderung zum Abrüsten nicht mehr ernst nehmen.
Wo denn? :confused:
Es geht einfach nur um den Vergleich. Wäre das selbe, wenn ich sagen würde wo sind die CPU Innovationen bei Nvidia? Entwickeln doch ebenfalls ARM CPUs :rolleyes:

Komplett off topic.
Von was redest Du da? :confused: Und ich habe das jetzt nur auf den GPU-Bereich bezogen. AMD verkauft ebenso im HPC Markt wie Nvidia. Also, wo kam im GPU-Bereich in den letzten Jahren etwas entsprechend Innovatives? Nvidia investiert hier sehr viel in Forschung und Bildbearbeitung, könnte AMD auch machen, tut es aber anscheinend nicht so intensiv. Also, wo soll dann entsprechende Synergien entstehen? Nvidia beispielsweise entwickelt schon lange entsprechende Systeme für Mustererkennung (Stichwort Krebserkennung). Das nützt dann wieder für andere Dinge wie Mustererkennung im Straßenverkehr, und fällt wieder zurück ins Gaming. Eigentlich ist es ja eine verrückte Idee, einen Supercomputer auf Glättung zu trainieren und das dann als Profil für Spiele zur Verfügung zu stellen. Wie kommt man auf so eine Idee? Warum ist AMD nicht auf sowas gekommen?

Timbaloo
2018-09-01, 22:50:28
Mit 7nm wird NV erstmal das HPC-Segment bedienen. Wer glaubt, dass man vor Ende 2019 noch 7nm Gaming chips von NV sieht, naja...

PHuV
2018-09-01, 22:53:11
Laßt sich eben auch wieder einfach erklären: Marktwirtschaft, Angebot und Nachfrage, Kosten für Rechenzentren, Energieeffizienz. Die Vorgaben und Vorlagen werden hier immer höher, daher ist klar, daß hier dann auch höhere Beträge bezahlt werden, weil sich Kostenersparnis viel schneller rechnet als für ein paar Home-PC Gamer.

Ex3cut3r
2018-09-01, 22:55:51
@cR@b :up:

Nvidia musste sich eigentlich nur selbst schlagen. Vega wird größenteils von einer 1070Ti OC in Schach gehalten. 1080Ti ist unerreicht. Stand jetzt gibt es 30-60% mehr Leistung mit gleicher Speichermenge und grob 30W mehr. Das ist ausreichend, aber nichts weltbewegendes. RT ist momentan ab 1440p unnötig bzw. nicht flüssig darstellbar -> Das reicht nur zum begutachten, was später mal machbar sein wird. Das DLAA ist imo weitaus interessanter wenn es denn wirklich wie Nativ oder besser aussieht und dabei mehr FPS bringt. Dazu kommen die abartigen Preise und die schlechte Informations Gestaltung was die Karten den nun wirklich leisten. Am 14.September sind wir alle viel schlauer.

pixeljetstream
2018-09-01, 23:08:26
Wo denn? :confused:

Wenn Du schreibst, dass Du nicht willst dass man die Stimmung weiter aufheizt, selbst aber dann darauf beharrst und den anderen unterstellst sie wollen alles für lau und alle Jammern bloß. Also genau die Erklärung die Kriton schon schrieb.
Dessen Feststellen eines höheren Preises als beim Vorgänger ist objektiv, ich selbst habe auch geschrieben dass es bei manchem Chips Mal mehr Leistung fürs Geld gab als für andere. Dass Du nun aus Sicht des Kapitalismus argumentierst warum die Preise sind wie sie sind ist Deine subjektive Herangehensweise. Dieser muss man nicht folgen, was nicht heißt dass man die Realität des Kapitalismus nicht akzeptiert.
Oder um es bildlich zu machen, wir können beide auf die gleiche Realität gucken, aber von unterschiedlichen Standpunkten aus. Wenn in meiner Ansicht "ich will Faktor x für Aufrüstung bei y euro" dominiert, dann kannst Du mir erzählen was Du willst über den Markt und Börsennotierte Firmen. Das lässt mich kalt, deswegen ist Deine Aussage ja nicht unwahr, aber es ist von dem Standpunkt halt nicht "sichtbar". Und wenn Du nun darauf beharrst dass eben nur Deine Sicht zählt, so ist das aggressiv. Kriton hat nicht um ein Wiederholen Deines Standpunkts gebeten... daher meine Aussage, lass es gut sein.

PHuV
2018-09-01, 23:30:52
Sehe ich auch so... denke die GTX 1080 Ti wird nach der exorbitanten Preisvorstellung der 2080 Ti ähnlich lang in meinem Rechner verweilen wie die GTX 480 damals. Hatte aufgrund des geringen Performance Zuwachs in Verbindung mit dem hohen Preis auch auf die GTX 580 verzichtet...

Ich bin von SLI 280er über 480 direkt auf T-SLI 580er gegangen, und das hielt dann auch über 4 Jahre bis zur 980er, die dann das alles ersetzte. Auf die beiden Titans bin ich nur wegen VRAM und VR gegangen, und wenn nicht das interessante Thema RT wäre, würde es mich vermutlich dann auch nicht so reizen.
Dessen Feststellen eines höheren Preises als beim Vorgänger ist objektiv, ich selbst habe auch geschrieben dass es bei manchem Chips Mal mehr Leistung fürs Geld gab als für andere.
Das ist eben NICHT objektiv, weil für die Preiserzielung immer der aktuelle Markt mit einbezogen werden muß. Wie sonst erklärst Du Dir die langen stabilen SSD-Preise? :rolleyes: Das ist fast 5 Jahre auf einem gleichen Niveau geblieben, wenn man die NVMe SSDs mal außer acht läßt. Es hat sich weder an der Größe, noch an der Leistung, dem Verbrauch oder dem Preis etwas geändert. Nimm die CPUs, wo sich außer der Anzahl der Kerne und Ausnahmen wie Verschlüsselung und Videorecodierung seit Jahren wenig tut.
Dass Du nun aus Sicht des Kapitalismus argumentierst warum die Preise sind wie sie sind ist Deine subjektive Herangehensweise. Am Ende weißt Du aber eben auch nicht warum NV genau die Preise wählte.
Was soll daran subjektiv sein? :confused: Objektiv ist man dann, wenn mal alle Faktoren für die Preisbestimmung neutral herannimmt und sein Wunschdenken wegläßt. Es spielt überhaupt keine Rolle, was es mal mehr oder weniger Chip für einen Preis gab, wenn Du eben die Marktsituation nicht mit einbeziehst. Wenn Du danach gehen willst, darfst Du nur Auslaufware oder Gebrauchtes kaufen, da bekommst Du fast einen unschlagbaren Preis pro Chip.

pixeljetstream
2018-09-01, 23:46:57
Ich hab den vorherigen Post noch editiert. Ist im Prinzip offtopic. Mach gerne per PM weiter.

VooDoo7mx
2018-09-02, 02:09:27
Oder anderer Grund, TSMC hat die Auftragsbücher von Qualcom und Co. bereits so voll, daß Nvidia warten muß, und das vielleicht die aktuellen hohen Preise mitbestimmt?
TSMC: 7nm Massenproduktion vorgezogen, 12nm-Prozess und 7nm mit EUV kommen (http://www.pcgameshardware.de/CPU-CPU-154106/News/TSMC-7nm-Massenproduktion-vorgezogen-12nm-EUV-1258166/)

Ich hab es schon einmal an anderer Stelle geschrieben aber wurde es wohl gefühlt noch 587mal wiederholen müssen.
Der 7nm TSMC Prozess mit dem Smartphone SoCs hergestellt werden ist ein Low Power Prozess und wird nicht für High End CPUs und GPUs verwendet. Dafür gibt es einen 2. High Performance Prozess.
Das heißt Apple und sonstwer kann nVidia mit den Mobilekram überhaupt keine Kapazitäten abnehmen.

TSMC dazu: TSMC’s 7nm Fin Field-Effect Transistor (FinFET) process technology provides the industry’s most competitive logic density and sets the industry pace for 7nm process technology development by delivering 256Mb SRAM with double-digit yields in June 2016. Risk production started in April 2017, and we received more than ten customer product tape-outs in 2017.

Compared to its 10nm FinFET process, TSMC’s 7nm FinFET features 1.6X logic density, ~20% speed improvement, and ~40% power reduction. TSMC set another industry record by launching two separate 7nm FinFET tracks: one optimized for mobile applications, the other for high performance computing applications.

Aktuell ist auch praktisch kein Produkt irgendwie in Sichtweise, welches den TSMC 7nm High Performance Prozess nutzt
AMD hat mal einen Vega 20 Prototyp gezeigt, der hat sich aber jetzt auch auf irgendwann auf 2019 verschoben. Und das ist nur ein Produkt was in einen sehr geringen Volumen gefertigt werden muss.
Wenn man den Markt die letzten Jahren verfolgt, sich etwas einließt und sinnvoll die Fakten im Kopf zusammenfügen kann, kommt man zum Schluss das es auch nicht in 6 Monaten in großen Massen 7nm High Performance Produkte geben wird.

Mit Navi rechne ich im 2. Halbjahr 2019 und das wird auch eher ein mittelgroßer 200-300mm² Chip werden.
Bei nVidia könnte ich mir vorstellen dass im gleichen Zeitraum es neue 7nm TU20X GPUs gibt die GP108, GP107 und GP106 ersetzen werden. Quasi Turing 2nd Gen ohne RT Einheiten und Tensor Cores, dafür aber mit mehr Shadern und neuer Turing Architektur, diese Chips werden alle nicht groß sein und sind von daher gut geeignet um mit der neuen Fertigungstechnik zu starten.
Selbst wenn man einen TU102 auf 7nm shrinkt, wäre der Chip immer noch deutlich über 400mm² groß was gerade für den Anfang der Produktion keine guten yields bedeuten würde.
Ich rechne damit, dass die großen Chips erst 2020 durch 7nm Nachfolger ersetzt werden.
Ampere hingegen kann ich mir noch gut für 2019 in 7nm vorstellen. Der wird aber nur in kleinen Mengen gefertigt werden und hzu exorbitanten Preisen verkauft werden.
Und ich kann euch jetzt schon sagen. 7nm wird noch einmal deutlich teurer in der Fertigung als 16nm zum Start. Ich freu mich schon wieder auf die 89571 ist viel zu teuer ich will das High End Produkt für 300€ Beiträge. :rolleyes:

PHuV
2018-09-02, 02:56:46
Schön erklärt, hast Du aber den verlinkten Artikel gelesen?

http://www.pcgameshardware.de/CPU-CPU-154106/News/TSMC-7nm-Massenproduktion-vorgezogen-12nm-EUV-1258166/
Die genannten Unternehmen und Nvidia haben laut dem Artikel angekündigt, 7nm für die nächste Generation Chips einzusetzen. Interessant ist dabei, dass Nvidia zwar hier genannt ist, jedoch nicht bei der hohen Nachfrage - womöglich lässt das Unternehmen erst nur wenige Chips in dem neuen Prozess fertigen. AMD wird gar nicht genannt, obwohl der Hersteller momentan bereits die Vega 20-GPU in 7nm bei TSMC fertigen lässt.

AMD 7nm Vega 20 GPU Estimated To Feature 20 TFLOPs of Compute – A HPC Powerhouse in The Making, 32 GB of HBM2 VRAM, Up To 400W TDP (https://wccftech.com/amd-7nm-vega-20-20-tflop-compute-estimation/)

Locuza
2018-09-02, 03:14:52
Ich hab es schon einmal an anderer Stelle geschrieben aber wurde es wohl gefühlt noch 587mal wiederholen müssen.
Der 7nm TSMC Prozess mit dem Smartphone SoCs hergestellt werden ist ein Low Power Prozess und wird nicht für High End CPUs und GPUs verwendet. Dafür gibt es einen 2. High Performance Prozess.
Das heißt Apple und sonstwer kann nVidia mit den Mobilekram überhaupt keine Kapazitäten abnehmen.
[...]
TSMC set another industry record by launching two separate 7nm FinFET tracks: one optimized for mobile applications, the other for high performance computing applications. [/I]
Ich würde das mit den separaten Fertigungsstraßen nicht zu exklusiv verstehen, mehrere Stationen der Fertigungsstraße werden gewiss für beide Prozesse verwendet und je nach Nachfrage eingeteilt.
Es kämpft jeder um Kapazitäten.

Aktuell ist auch praktisch kein Produkt irgendwie in Sichtweise, welches den TSMC 7nm High Performance Prozess nutzt
AMD hat mal einen Vega 20 Prototyp gezeigt, der hat sich aber jetzt auch auf irgendwann auf 2019 verschoben.
Vega20 wurde sogar vorgezogen, anfangs war nur eine Sampling-Phase Ende 2018 vorgesehen, stattdessen sampled man schon jetzt und möchte Ende 2018 die Produkte ausliefern.
Und Vega20 soll in 7nm HPC hergestellt werden.

=Floi=
2018-09-02, 04:11:27
ich dachte bei der shadersache wird die rechenleistung nur entsprechend des bildes _verteilt_, wo mehr SP benötigt werden?!


bin echt gespannt, an welcher sache PS denn dann gearbeitet hat.
wahrscheinlich primitive shader. ;D

Leonidas
2018-09-02, 06:59:37
Dieser vielleicht? Grafikkarten-Übersicht: 80 Chips im Benchmark-Vergleich - Legenden von AMD/Ati und Nvidia im Direktvergleich (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Von-Geforce-256-bis-Radeon-HD-6970-850731/) :)


Genau den. Danke Dir!




Mit 7nm wird NV erstmal das HPC-Segment bedienen. Wer glaubt, dass man vor Ende 2019 noch 7nm Gaming chips von NV sieht, naja...


Guter Gedanke! Das bedeutet, so lange da kein neuer HPC-Chip sichtbar wird, wir uns keine Gedanken über 7nm Gaming-Lösungen machen müssen. Und wenn ein 7nm HPC-Chip sichtbar wird, dann dauert das locker noch ein halbes Jahr, ehe Gaming-Chips in 7nm spruchreif werden.

Sobald da mal was greifbares vorliegend würde, wäre es fast schon Zeit für einen "nVidia 7nm NextGen" Speku-Thread ...



Topic-bezogen:
Möglicherweise kommt eine GeForce RTX 2080 Mobile, möglicherweise basiert die GeForce RTX 2070 doch auf einem kleineren TU106-Chip
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-31-august-2018

Dural
2018-09-02, 09:30:31
Macht doch keinen sinn, die 2070 wird sicher den tu104 drauf haben.

basix
2018-09-02, 09:58:39
@ Voodoo: Zen 2 kommt definitiv in 7nm HPC. Und das wohl in Q1/19, obwohl CPUs sehr lang andauernde Validierunsprozesse durchlaufen müssen. Bei Navi wird in Gerüchten sogar von Q4/18 gesprochen (ob HPC oder nicht keine Ahnung). So weit weg ist das ganze also nicht ;)

Würde mich nicht wundern, wenn Nvidia noch vor Jahresende einen GV100 Nachfolger in 7nm vorstellen wird.

AffenJack
2018-09-02, 10:46:55
@ Voodoo: Zen 2 kommt definitiv in 7nm HPC. Und das wohl in Q1/19, obwohl CPUs sehr lang andauernde Validierunsprozesse durchlaufen müssen. Bei Navi wird in Gerüchten sogar von Q4/18 gesprochen (ob HPC oder nicht keine Ahnung). So weit weg ist das ganze also nicht ;)


Zen2 für HPC, mit kleinem Volumen und guten Margen auch bei schlechten Yield/teuren Waferkosten. Wann Desktop kommt weiß niemand und selbst da gilt der Vorteil, dass CPUs eher höhere Margen haben als GPUs und deshalb eher früher kommen können. Niemand der Ahnung hat, spricht von Navi dieses Jahr. Das ist völlig illusorisch. V20 kommt dieses Jahr und nix anderes. Es ist eher anzuzweifeln, dass Navi es überhaupt in H1 19 schafft.

mironicus
2018-09-02, 11:04:25
7 nm kommt schneller als ihr glaubt und NVidia macht halt das richtige in diesem Moment und will noch mal schnell Kasse machen mit den Abfallchips und einem momentan kaum nutzbaren Feature. Die richtige Generation mit dem üblichen 60-80% Speedupgrade und doppelten RAM kommt dann schon 2019, und die wird wieder das "GTX"-Branding tragen. :)

][immy
2018-09-02, 11:20:30
@ Voodoo: Zen 2 kommt definitiv in 7nm HPC. Und das wohl in Q1/19, obwohl CPUs sehr lang andauernde Validierunsprozesse durchlaufen müssen. Bei Navi wird in Gerüchten sogar von Q4/18 gesprochen (ob HPC oder nicht keine Ahnung). So weit weg ist das ganze also nicht ;)

Würde mich nicht wundern, wenn Nvidia noch vor Jahresende einen GV100 Nachfolger in 7nm vorstellen wird.
na ich weiß nicht. Intel spackt ja grad noch mit 10nm rum, wobei 7nm != 7nm sind. Inzwischen weiß man ja kaum mehr was für ein Prozess dahinter tatsächlich noch steckt.

Fragman
2018-09-02, 11:23:21
[immy;11788538']na ich weiß nicht. Intel spackt ja grad noch mit 10nm rum, wobei 7nm != 7nm sind. Inzwischen weiß man ja kaum mehr was für ein Prozess dahinter tatsächlich noch steckt.

bei der packdichte von intel kann man ja schon den vergleich mit 7nm ziehen, oder?

basix
2018-09-02, 11:48:39
Jop Intel 10nm ~ TSMC 7nm. Apple und Huawei produzieren bereits in Masse in 7nm. AMD zieht Vega 20 vor. Zen 2 wird bald kommen. Es wird eher früh als spät auf 7nm gesetzt, weil der Sprung einfach riesig ist. Eher kleine Chips sind aus witschaftlichen Gründen wahrscheinlich, also dreht man an der Taktschraube ;)

Nuvirus
2018-09-02, 12:00:15
die 10nm von Intel waren wohl mal klein geplant durch die Probleme hat man sich nun doch für eine etwas größere Variante entschieden, also 10nm Intel nicht mehr wirklich 7nm TSMC

Ich schätze auch High End Professional Chips und evtl halt kleine Chips als GP106 oder kleiner Nachfolger um wirtschaftliche flotte Grafikkarten zu bringen in dem Bereich wo am meisten Umsatz gemacht wird.

Dural
2018-09-02, 12:30:34
Der erste nv chip in 7nm dürfte der gv100 nachfolger werden.

Was ich mir auch schon überlegt habe, wie wäre es mit einem tu106 in 7nm? Könnte sogar sinn machen, da man wider im üblichen 200mm2 bereich damit wäre.

TurricanM3
2018-09-02, 12:43:49
Der EKWB Block ist geleaked, hier die Kuper/Acrylvariante:

https://abload.de/img/do5lx6blmnj11ajf8w.jpg (https://abload.de/image.php?img=do5lx6blmnj11ajf8w.jpg)

Und manche Reviewer haben wohl schon Karten in den Händen.

https://twitter.com/LinusTech/status/1036081182352400384
https://www.reddit.com/r/nvidia/comments/9c7v2b/on_hand_the_first_rtx_2080/

Gibt in den nächsten bestimmt Tagen Leaks bez. tatsächlicher Leistung.

Kriton
2018-09-02, 12:55:34
Sag das doch auch mal den anderen, oder warum muß man sich hier als Grüner Brillen Mann betiteln lassen? :confused: Nach dem Rumgejammere einiger hier muß man dafür ausgehen, daß sie neue Technik für lau haben wollen, aber die Marktsituation tunlichst ausblenden. Schöner Verdrängungsmenchanismus.


Zum einen ist das whataboutism. Zum anderen: Du hast Dich in demselben Post gleich selbst wiederlegst... Dazu kommt (natürlich) kein Gegenargument.


Es kam zu den Preisen kaum objektive Kritik, sondern nur: "Ich will (eigentlich) sofort haben, kann und will es mir nicht leisten, Nvidia ist deshalb doof. Und alle die jetzt kaufen, sind auch doof und dumm!"
Nenne mir doch bitte mal dazu eine hier einigermaßen verfaßte objektive Kritik, welche die aktuelle Marktsituation (!) entsprechend einbezieht! Wir leben im Kapitalismus und in einer (relativ) freien Marktwirtschaft, es geht "nur" um lebensunwichtige Unterhaltungselektronik, die keiner kaufen muß. Das vergessen einige immer wieder. Und sie vergessen, was sie privat bereits tun oder gar als vernünftiger Unternehmer tun würden. Ebenso lassen sie außer acht, daß bei Markteinführung gefragte Artikel immer teurer waren, und erst bei Marktsättigung oder neuer Konkurrenz billiger werden. Nvidia tut das, was ihnen nützt, wie jedes Unternehmen. Einfache Grundkenntnisse von Volkswirtschaft. Genau das ist die Triebfeder unseres modernen Systems. Das wollen hier einige weder begreifen noch akzeptieren.

Wirst Du keine solche angemessene Kritik finden.

Es kritisiert keiner, daß manchen die Karten zu teuer sind, und das sie entsprechend etwas unwirsch sind. Kann jeder nachvollziehen. Nur die Unsachlichkeit, die Häme gegen Vorbesteller, warum muß sie sein?


Doch, ich tue das z.B. Ich bin in keinem (!) Post gegen die Vorbesteller angegangen. Lediglich habe ich Verwunderung gezeigt, dass ein Konsument, das betriebswirtschaftlich sinnvolle (!) Verhalten einer Firma, welches seinen eigenen Interessen zuwider läuft (!) verteidigt. Denn auch die Kritik dieses Verhaltens wäre marktwirtschafltlich (aus Sicht des Konsumenten) sinnvoll. Einige hier verhalten sich also im Kontext der von Dir genannten Marktwirtschaft irrational. Nvidia tut das, was zu erwarten ist, da gebe ich Dir recht.

Ansonsten werde ich jetzt nicht 400 Seiten durchsuchen um noch andere zu finden. Aber meinem Empfinden nach gab es auch andere (ebenso wie solche, die Du erwähnst - Differenzierung ist schon nicht schlecht).

Ansonsten werde ich es mal mit pixeljetstream halten.

Raff
2018-09-02, 13:04:49
7 nm kommt schneller als ihr glaubt und NVidia macht halt das richtige in diesem Moment und will noch mal schnell Kasse machen mit den Abfallchips und einem momentan kaum nutzbaren Feature. Die richtige Generation mit dem üblichen 60-80% Speedupgrade und doppelten RAM kommt dann schon 2019, und die wird wieder das "GTX"-Branding tragen. :)

Du glaubst doch nicht ernsthaft, dass Nvidia so ein Brimborium um "Grafik neu erfunden" macht und dann 2019 wieder die GTX-Schiene fährt. ;) Nee, nee, RTX ist die Marschroute.

MfG,
Raff

N0rG
2018-09-02, 13:08:12
Der erste nv chip in 7nm dürfte der gv100 nachfolger werden.

Was ich mir auch schon überlegt habe, wie wäre es mit einem tu106 in 7nm? Könnte sogar sinn machen, da man wider im üblichen 200mm2 bereich damit wäre.
Ein TU102 in 7 nm wäre doch grade mal ~250mm² groß. Ich denke ein TU106 hätte dann etwa 100mm². Sowas sollte sich dann auch sehr früh mit einem neuen Prozess herstellen lassen.

Screemer
2018-09-02, 13:08:35
Und bei AMD kommt als nächstes raydeon. Das fänd ich cool ;)

mironicus
2018-09-02, 13:11:31
Du glaubst doch nicht ernsthaft, dass Nvidia so ein Brimborium um "Grafik neu erfunden" macht und dann 2019 wieder die GTX-Schiene fährt. ;) Nee, nee, RTX ist die Marschroute.

Nicht wenn RTX einen negativen Beigeschmack erhält (z.B. hohe Preise, R=Reich) und sich die User nach günstigeren Grafikkarten sehnen (G=Günstig). Raytracing ist nur ein Feature von vielen und darauf eine neue "Identität" aufzubauen halte ich für zu riskant.

Troyan
2018-09-02, 13:17:08
Nicht wenn RTX einen negativen Beigeschmack erhält (z.B. hohe Preise, R=Reich) und sich die User nach günstigeren Grafikkarten sehnen (G=Günstig). Raytracing ist nur ein Feature von vielen und darauf eine neue "Identität" aufzubauen halte ich für zu riskant.

RTX steht für die Zukunft. GTX für Vergangenheit.

Timbaloo
2018-09-02, 13:29:40
Die Frage ist eher ob man mit 7nm Gaming hinsichtlich RT "all-in" geht, oder die RT-Fähigkeiten peu à peu aufbaut. Oder halt irgendwas dazwischen. Dass man das direkt wieder einstampfen könnte/sollte/wollte ist so dermassen an den Haaren herbeigezogen...

Was mit Volta/Turing passiert ist, ist dass man das HPC-Segment komplett vom Gaming-Segment getrennt hat (Volta). Gleichzeitig hat man Raytracing als weiteres Profi-Segment entdeckt und dieses mit dem Gaming-Design verknüpft (Turing). Ein reiner Gaming-Chip nach Turing ohne RT (was imho ansich schon keinen Sinn ergibt) würde dann bedeuten, dass man nicht zwei Linien an Designs hat (Volta Nachfolger und Turing-Nachfolger) sondern drei.

Aber gut, das wäre eher was für einen Post-Turing-Thread.

mironicus
2018-09-02, 13:30:22
Wenn die "Zukunft" für Preise ab 200 Euro erhältlich ist (RTX 2050-) dann werden sie mehr Leute annehmen, ansonsten bleiben die meisten wohl lieber in der Vergangenheit. :D

Troyan
2018-09-02, 13:31:32
Natürlich werden RTX Karten für 200€ zur Verfügung stehen, spätesten mit 7nm. Bis dahin muss ja auch noch das Lager der alten Zumpft veräußert werden. :D

Timbaloo
2018-09-02, 13:58:21
Natürlich werden RTX Karten für 200€ zur Verfügung stehen, spätesten mit 7nm. Bis dahin muss ja auch noch das Lager der alten Zumpft veräußert werden. :D
200€ wäre ein 107er Chip. Ich glaube nicht, dass man da schon RTX haben wird. Imho wird das RTX-Branding auf den 106er mit 7nm ausgeweitet, und dann eine weitere Gen (also 7nm reloaded) später für 107er.

Troyan
2018-09-02, 14:03:32
Ich sehe auch keine 107 Chips ohne 7nm. Selbst 106 ist schon sehr kritisich mit >=320mm^2.

Das ganze hier ist wie beim Umstieg von G71 auf G80.

TurricanM3
2018-09-02, 15:12:34
Erster Leak ist da:

dfGJpVEzUxo

I like very matsch. :biggrin:

gbm31
2018-09-02, 15:24:58
Wenn ich mir die min. FPS anschaue gibt's bis auf ein paar Ausnahmen echt wenig Grund zur Freude.

Ich bleibe dabei: die RTX ist locker 70% zu teuer für die gebotene Leistung!

pixeljetstream
2018-09-02, 15:49:02
Die Frage ist eher ob man mit 7nm Gaming hinsichtlich RT "all-in" geht, oder die RT-Fähigkeiten peu à peu aufbaut. Oder halt irgendwas dazwischen. Dass man das direkt wieder einstampfen könnte/sollte/wollte ist so dermassen an den Haaren herbeigezogen...

Was mit Volta/Turing passiert ist, ist dass man das HPC-Segment komplett vom Gaming-Segment getrennt hat (Volta). Gleichzeitig hat man Raytracing als weiteres Profi-Segment entdeckt und dieses mit dem Gaming-Design verknüpft (Turing). Ein reiner Gaming-Chip nach Turing ohne RT (was imho ansich schon keinen Sinn ergibt) würde dann bedeuten, dass man nicht zwei Linien an Designs hat (Volta Nachfolger und Turing-Nachfolger) sondern drei.

Aber gut, das wäre eher was für einen Post-Turing-Thread.

Die Trennung war imo schon bei GP100.
All-in ist relativ, im Prinzip ist man das ja nun schon gegangen. Markenname, Chip Features und Softwarestack, Entwickler Betreuung.

Ich vermute auch dass Intel und AMD DXR hätten stoppen können, sprich langfristig sehen die darin auch Sinn. Ergo jetzt sich schlafen zu legen würde man den Vorsprung unnötig verringern. Im Endeffekt muss man auch nicht brachial Fläche raushauen. Da man am Anfang mit dem Thema ist, wird es wohl schnell viel Verbesserungen in der Architektur selbst geben. Das Design in Turing ist ja schon Vergangenheit...
Das ist indirekt auch für die anderen Hersteller gut, weil die nun auch mit realen Daten arbeiten können. Ich bin gespannt wie es dann um 2020/21 mit Intels Wiedereinstieg wird. Müsste im Mainstream wo es um Marktanteile geht guter Dreikampf für den Kunden werden. Dazu noch die voraussichtlich neuen Konsolen. Bis dahin hat man dann halt so bissl 3dfx mäßige Zeiten ;)

Der_Korken
2018-09-02, 16:32:05
Min. fps sind kein robustes Maß für die Performance, weil es extrem ausreißeranfällig ist. Man weiß nicht wie oft die fps drops vorkommen und in diesem Fall ist es auch nicht auszuschließen, dass sie z.B. durch CPU-Limits verursacht werden. Dazu bräuchte man Vergleichsbenches in geringer Auflösung, um zu sehen. Für mich sieht das nach ner ziemlich guten Steigerung aus. 40% dürften im Schnitt drin sein. Bei der 2080 ohne Ti könnten es also sogar noch mehr sein, da dort auch das PTT gestiegen ist zu Pascal. Neue Treiber können bei einer neuen Arch auch noch was ausmachen.

Timbaloo
2018-09-02, 16:41:17
Die Trennung war imo schon bei GP100.
Stimmt, ganz vergessen. Volta/Turing war dann eigentlich nur noch die namentliche Trennung.

Bis dahin hat man dann halt so bissl 3dfx mäßige Zeiten ;)
Gab schlimmere Zeiten ;)

ChaosTM
2018-09-02, 17:08:56
Das ist deutlich besser als befürchtet/erwartet wenn es denn korrekt ist.

Vielleicht im Frühjahr wenn es (edit.: deutlich) unter 1k fallen sollte..

MiamiNice
2018-09-02, 17:52:48
Erster Leak ist da:

http://youtu.be/dfGJpVEzUxo

I like very matsch. :biggrin:

Die Performance wir daheim noch besser ausfallen wenn man bedenkt wie bei den Türken das restliche System aussah.

I like it too :biggrin:

Platos
2018-09-02, 17:56:47
Das Plus an Perfomance schwankt aber sehr stark. Manchmal +10%, manchmal +50%.

Wenn überhaupt, dann eine gebrauchte 1080Ti für 450-500. Das ist für RT off- Zeugs eher sehr schlecht.

MiamiNice
2018-09-02, 18:03:31
Das ist eine FE in einem AMD System. Das sieht sicher ganz anders aus in freier Wildbahn, ohne Handbremse und mit Spoiler.

aufkrawall
2018-09-02, 18:05:22
Das ist eine FE in einem AMD System. Das sieht sicher ganz anders aus in freier Wildbahn, ohne Handbremse und mit Spoiler.
In 4k mit einem 2600X, bestimmt. :comfort2:

MiamiNice
2018-09-02, 18:11:38
Ich dachte eher an einen 8700K @ ü 5Ghz mit 4000er Ram und WaKü auf der GPU.
Aber jeder wie er mag :wink:

Edgecrusher86
2018-09-02, 18:17:39
Vermutlicher 3DM TimeSpy Leak 2080 Ti (die Device ID ist korrekt)

12825 Graphics Score Stock/OC 2080 Ti?

https://www.reddit.com/r/nvidia/comments/9cck3f/ts_score_of_rtx_2080ti_videocardzcom/


14724 Graphics Score hat die V OC bei 2000/1000 MHz:

https://abload.de/img/eqrtwzrtwziaex6.jpg

Also 28% vor dem 2080 Score -> CPU Limit in WQHD. Ich erwarte Richtung 40% Plus in TimeSpy Extreme.

Um die 14,8% hinter der V OC sind es in dem Fall.

Adam D.
2018-09-02, 18:17:53
Ich dachte eher an einen 8700K @ ü 5Ghz mit 4000er Ram und WaKü auf der GPU.
Aber jeder wie er mag :wink:
Und das bringt im harten GPU-Limit genau wie viel?

Kannst du dann ja in der entsprechenden Konfiguration testen und veröffentlichen, aber das ist wohl kaum der Anspruch für ein Standard-Testverfahren für GPUs.

Ex3cut3r
2018-09-02, 18:19:17
Ich dachte eher an einen 8700K @ ü 5Ghz mit 4000er Ram und WaKü auf der GPU.
Aber jeder wie er mag :wink:

Was soll die CPU in 4K @ Ultra Settings denn bringen? Da bist du auch mit einem i5 2500k im GPU Limit. Ich finde die Min.FPS erschrekend schwach, allerdings zweifle ich die Werte auch stark an. Bzw. glaube ich an einen Fake.

Mangel76
2018-09-02, 18:44:01
Was bleibt denn an Leistungsplus eigentlich netto übrig, wenn man die bessere Kühlung und +10W bei der Turing FE rausrechnet? Die 1080Ti FE wird durch ihren Kühler ja deutlich gebremst (siehe z.B. Test bei HWLuxx). Bei vergleichbaren Customs sollte der Unterschied dann nicht sogar geringer sein?

horn 12
2018-09-02, 18:45:18
Vermutlicher 3DM TimeSpy Leak 2080 Ti (die Device ID ist korrekt)

12845 Graphics Score Stock 2080 Ti?

https://www.reddit.com/r/nvidia/comments/9cck3f/ts_score_of_rtx_2080ti_videocardzcom/


14724 Graphics Score hat die V OC bei 2000/1000 MHz:

https://abload.de/img/eqrtwzrtwziaex6.jpg

Also 28% vor dem 2080 Score -> CPU Limit in WQHD. Ich erwarte Richtung 40% Plus in TimeSpy Extreme.



Nun, dies waere wohl etwas wenig
Auf RTX 2080 rueckgerechnet waere man nicht mal auf GTX 1080TI Performance, teils knapp drunter, ab und zu geringfuegig drueber!

Der_Korken
2018-09-02, 18:56:49
Also 28% vor dem 2080 Score -> CPU Limit in WQHD. Ich erwarte Richtung 40% Plus in TimeSpy Extreme.

Die 2080Ti hat gerade mal 15% mehr TDP als die 2080. Dafür wären 28% Plus schon ziemlich gut. 40% auf die 2080 wird man erst mit Customs der Ti sehen, bei denen die TDP nicht mehr bremst.

Troyan
2018-09-02, 19:02:49
Der Taktunterschied liegt nach dem offiziellen Boost-Takt bei 10%. Warhscheinlich boostet die RTX2080 noch höher als die 10%. Die 28% sind dann normal.

Hübie
2018-09-02, 19:05:09
Ich habe die Ergebnisse der avg fps mal zusammengefasst.

Test GTX 1080 Ti GTX 2080 Ti Speedup
R6 Siege 62 90 45,16%
COD WWII 50 61 22,00%
FC5 44 69 56,82%
TC 2 47 58 23,40%
FH 52 78 50,00%
GTA V 62 78 25,81%
ME:A 48 67 39,58%
PUBG 43 62 44,19%
TW3 44 56 27,27%
BF V 55 75 36,36%
Durchschnitt 37,06%

VooDoo7mx
2018-09-02, 19:22:27
Ich denke mal eine 1080Ti wird mit dem Stock DHE Kühler viel mehr ausgebremst werden wie eine 2080Ti.
Meine Titan X ist ja auch sofort immer im Temperature Target und dann wurde gedrosselt. Kühlung dann auf einen AIO Wakü mit 140er Radu umgestellt schon wareb 33% mehr Takt drin.

w0mbat
2018-09-02, 19:25:49
Nur knapp 40% schneller wäre eine echte Enttäuschung.

PHuV
2018-09-02, 19:27:37
Ich habe die Ergebnisse der avg fps mal zusammengefasst.

Super! (y)
Nur knapp 40% schneller wäre eine echte Enttäuschung.
Warum? Genau das wurde anhand des Chip-Designs auch als Maximum bzw. optimal prognostiziert. Da wird vermutlich noch eines bei den Treibern geschraubt werden. Da die Größe vermutlich den zusätzlichen Tensor Cores geschuldet ist, kann Nvidia hier technisch auch nicht zaubern. An manchen Stellen gibts ja mehr als 50%. ;) Bei so einem Top-Titel wie FC5 mit 56,82% finde ich das sehr beeindruckend. Nur müssen wir mal schauen, ob das auch wirklich so ist, oder Nvidia doch nicht an manchen Stellen mit dem Treiber "schummelt".

Thunderburne
2018-09-02, 19:37:24
Ich denke mal eine 1080Ti wird mit dem Stock DHE Kühler viel mehr ausgebremst werden wie eine 2080Ti.
Meine Titan X ist ja auch sofort immer im Temperature Target und dann wurde gedrosselt. Kühlung dann auf einen AIO Wakü mit 140er Radu umgestellt schon wareb 33% mehr Takt drin.
1+ Denke Taktbereinigt liegt der Vorsprung bei um die 25-30% wen überhaupt.
Würde mich auch nicht wundern wen die 2080Ti mit gut 200MHZ+ zur Founders 1080Ti durch die Benchmarks geht.
Und schon hat man ein verzehrtes Leistungsbild.
Ich denke mal der 2te Lüfter wird schon was bringen.

Natürlich würde ich mich bei 40% freuen aber ich trau dem Braten langsam nicht mehr.

Fliwatut
2018-09-02, 19:47:01
Nur knapp 40% schneller wäre eine echte Enttäuschung.
Sehe ich ähnlich, besonders zu dem Preis. Die Frage ist aber, ob der Test echt ist und falls ja, was neuere Treiber dann noch rausholen können.
Ich bin da echt zwiegespalten, einerseits finde ich die Raytracingeffekte ja wirklich klasse, aber die neuen Karten scheinen nicht stark genug zu sein, diese auch in UHD flüssig auf den Bildschim zu zaubern (hier wird man aber wohl dieses DLSS und AI upscaling noch abwarten müssen), andererseits ist der Leistungszuwachs beim "normalen" Rasterisation doch überschaubar, trotz Riesenchip.
Die Preise für die 1080 ti sinken derzeit auch nur sehr langsam und sehr sporadisch, die Warterei ist echt nervig, der Gebrauchtmarkt in meiner Gegend ist auch ziemlich abgegrast.

Bösewicht
2018-09-02, 19:47:13
Nur knapp 40% schneller wäre eine echte Enttäuschung.
eigentlich wie erwartet nur das viele RT nicht auf denn schirm hatten.
aber nach der ganzen RT Ankündigung im Frühjahr wundert es mich schon das keiner RT bei Turing gesehen hat
ich hab schon lange vor der RT Ankündigung hier im Thread gesagt es werden 40%:biggrin:

Fun Fact, hab extra niedrig spekuliert damit die Erbsenzähler hier nicht gleich wieder eine Szene machen aber dank RT passt es;D

Troyan
2018-09-02, 19:53:31
Naja, niemand hat Turing so gesehen. Raytracing war auf dem Schirm.

40-50% sind exakt das, was seit zwei Wochen feststeht. Der Rest muss eben von DLSS, besseren Treiber und Spieleentwicklern kommen.

Edgecrusher86
2018-09-02, 19:53:42
Wie gesagt - der normale Timespy ist nur in WQHD. Die starken Karten werden hier nicht zu 100% ausgelastet. Ich bleibe dabei: In 4K dürften es 35-40% auf eine 2080 sein.

Ja, die non Ti wird mindestens 100 MHz höher boosten, soweit klar.

Die 2080 Ti hat dafür grob je 47% mehr SPs sowie 38% mehr Bandbreite.

dargo
2018-09-02, 19:56:53
Ich denke mal eine 1080Ti wird mit dem Stock DHE Kühler viel mehr ausgebremst werden wie eine 2080Ti.

Natürlich wird sie das, das wurde hier schon öfter angesprochen. Von den avg. 37% bleiben real ~30% übrig wenn beide nicht ins TT laufen.

Troyan
2018-09-02, 20:00:30
Real bleiben viel mehr übrig, da Turing sich höher takten lässt.

Schnoesel
2018-09-02, 20:10:05
Blöde Frage wie können die BV5 testen wenn die Alpha zur Vorstellung bereits vorbei war und die Beta erst noch kommt?

BigBangBacket
2018-09-02, 20:35:43
So langsam bekomme ich das Gefühl das meine Pascal Titan @OC watercooled eine richtig gute Investition war. 2 Jahre schon drin und ein Jahr wird sie dann wohl nochmals machen. Ich hatte noch nie solange eine Graka drin.

Dann Bau ich doch den Deagostini X Wing :D

Linmoum
2018-09-02, 20:40:19
Real bleiben viel mehr übrig, da Turing sich höher takten lässt.
Real bleibt das übrig, was FE und Customs ootb liefern können. Da wirst du standardmäßig sicherlich keine >=2GHz sehen. Alles andere ist zweitrangig.

Insofern durchaus realistisch, dass es ggü. einer Custom 1080Ti (ebenfalls ootb) am Ende nur auf ~30% im Schnitt hinausläuft. Und wer weiß, ob die Customs überhaupt zusätzliches an Performance ggü. FE liefern können/werden.

Rancor
2018-09-02, 20:46:27
Ich dachte eher an einen 8700K @ ü 5Ghz mit 4000er Ram und WaKü auf der GPU.
Aber jeder wie er mag :wink:

Und was soll das in 4k ändern? Meinst du da limitiert die CPU? Träumer :rolleyes:

Ex3cut3r
2018-09-02, 20:48:04
Blöde Frage wie können die BV5 testen wenn die Alpha zur Vorstellung bereits vorbei war und die Beta erst noch kommt?

Tja, wie ich schon sagte, an der Glaubwürdigkeit dieser Benches, wurde ich großes Fragezeichen setzen.

Geächteter
2018-09-02, 20:51:07
Nur knapp 40% schneller wäre eine echte Enttäuschung.
Vielleicht in Anbetracht des Preises.
In Anbetracht des kaum vorhandenen Effizienzvorteils durch 12 nm und nur schwach gestiegener TDP, eigentlich sehr gut und ohne Konkurrenz. Die Roten würden nur noch ne größere Herdplatte in 12 nm als Vega für ne Performancesteigerung gegenüber Vega hinzaubern.

SKYNET
2018-09-02, 21:18:34
Ich habe die Ergebnisse der avg fps mal zusammengefasst.

Test GTX 1080 Ti GTX 2080 Ti Speedup
R6 Siege 62 90 45,16%
COD WWII 50 61 22,00%
FC5 44 69 56,82%
TC 2 47 58 23,40%
FH 52 78 50,00%
GTA V 62 78 25,81%
ME:A 48 67 39,58%
PUBG 43 62 44,19%
TW3 44 56 27,27%
BF V 55 75 36,36%
Durchschnitt 37,06%



schön das du dir die mühe gemacht hast, aber nur die minimumframes sind aussagend, und da sehe ich:

RB6: 17.6%
CoD WW2: 9.7%
FC5: 70.6%
TC2: 34.7%
FH: 43.9%
GTA5: 9.5%
MEA: 49.3%
PUBG: 20.7%
TW3: 38.7%
BF5: 12.5%

durchschnitt: 30.72%

Schnoesel
2018-09-02, 21:26:25
Ne min FPS sind nichtssagend. Wenn dann 99% Percentile aber auf den Leak geb ich nix. Warten wir mal auf seriöse Benches die kommen allerdings nicht vor Release.

Linmoum
2018-09-02, 21:30:01
In Anbetracht des kaum vorhandenen Effizienzvorteils durch 12 nm und nur schwach gestiegener TDP, eigentlich sehr gut und ohne Konkurrenz.
Die 2080Ti hat rund 21,5% mehr Shader als die 1080Ti, wenn da ~30% mehr Performance rauskommen sollten, dann ist das sicherlich alles, aber weit entfernt von sehr gut. Im Rahmen und wenig überraschend trifft's dann eher.

Slipknot79
2018-09-02, 21:32:08
Also ich denke ich werde die Shice wohl rein kalkulatorisch angehen:
Wenn es +37% sein sollen und die 1080Ti 700EUR kostet, dann stelle ich den Preisalarm auf geizhals auf 700*1,37=959EUR ein, kann dann jederzeit angepasst werden wenn die Treiber maturen. Erst dann macht es Sinn sich ne 2080Ti zu holen, da ich auch davon ausgehe, dass Spiele mit RT in WQHD nicht mit ausreichend hohen fps spielbar sein werden. RT wäre ein komplett unnützes Feature und unnützes wird eben nicht bezahlt, also breche ich den Shice rein auf die Leistung ohne RT runter.
Aber mal abwarten was die "echten" Bencher rausballern werden.

Digidi
2018-09-02, 21:33:50
Also ich denke ich werde die Shice wohl rein kalkularotisch angehen:
Wenn es +37% sein sollen und die 1080Ti 700EUR kostet, dann stelle ich den Preisalarm auf geizhals auf 700*1,37=959EUR ein, kann dann jederzeit angepasst werden wenn die Treiber maturen. Erst dann macht es Sinn sich ne 2080Ti zu holen, da ich auch davon ausgehe, dass Spiele mit RT in WQHD nicht mit ausreichend hohen fps spielbar sein werden. RT wäre ein komplett unnützes Feature und unnützes wird eben nicht bezahlt, also breche ich den Shice rein auf die Leistung ohne RT runter.
Aber mal abwarten was die "echten" Bencher rausballern werden.

Früher gab es 50% Mehrperformance für 10% Mehrpreis. 800 Euro ist maximum für 2080ti

robbitop
2018-09-02, 21:38:34
Erster Leak ist da:

http://youtu.be/dfGJpVEzUxo

I like very matsch. :biggrin:
Ich finde es erschreckend ernüchternd. Die Ergebisse schwanken. Aber im Schnitt anscheinend der kleinste Sprung an Performance zur Vorgänger GPU (gemessen an den Ergebnissen des youtube Videos).
Dann kein VRAM Anstieg und dennoch vierstellig. (klar: große GPU uswusf - aber wenn man den Nutzwert vom hier und jetzt nimmt... ernüchternd).

Digidi
2018-09-02, 21:40:20
@ robbitop
Das war doch abzusehen. Die bauen praktisch 2 Chips in einem da war es klar das alte Spiele auf der stercke bleiben.

robbitop
2018-09-02, 21:44:14
Und bei neuen Spielen hat man mir RT zwar schicke Effekte (ich finde RT auch sehr gut) - aber leider Pionierfeeling. Teuer, nur begrenzte fps und Auflösung.
Klar irgendwo muss man anfangen. Die 2. Gen in 7nm wird wahrscheinlich wesentlich sinnvoller für den Nutzwert werden. Mehr Performance und höhere RT Verbreitung und ggf bessere RT Optimierung in Games.

Digidi
2018-09-02, 21:48:44
@robbitop
Geh mal eher von Gen3 aus bis das richtig läuft. Ich sehe da Parallelen zu Tesselation.

Kahm bei der 9800 GTX Crysis lief dann aber erst bei der GTX 680 gut.
https://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/7

PHuV
2018-09-02, 21:53:54
Früher gab es 50% Mehrperformance für 10% Mehrpreis.
Früher habe ich für eine Kugel Eis auch mal 30 Pfennig bezahlt. :rolleyes: 50% gab nur im günstiges Fall. Schau Dir einfach mal alte Tests an.
Oder den Vergleich von Computerbase:
Nvidia-Grafikkarten im Test: GeForce GTX 460, 560, 660, 760, 960 und 1060 im Vergleich, Seite (https://www.computerbase.de/2018-08/geforce-gtx-460-560-660-760-960-1060-vergleich/2/)2
AMD-Grafikkarten im Test: Radeon 5770, 6870, 7870, 270X, 380, 480 und 580 im Vergleich, Seite 2 (https://www.computerbase.de/2018-08/radeon-5770-6870-7870-270x-380-480-580-vergleich/2/)
800 Euro ist maximum für 2080ti
Nur ein Konter von AMD oder Intel könnte da was ausrichten, oder 7nm in 2019/20.

Digidi
2018-09-02, 21:58:14
@3dcenter
Ich hätte gerne eine Funktion die Posts von mir für gewisse Personen ausblendet. Ich möchte mit denen einfach nicht reden.

@puvh

schön In deinem verlinkten test gab es ein Steigerung von 71% von 560 auf 660. Wie waren da noch mal die Preissteigerungen`?

Timbaloo
2018-09-02, 22:02:26
@3dcenter
Ich hätte gerne eine Funktion die Posts von mir für gewisse Personen ausblendet. Ich möchte mit denen einfach nicht reden.
Das Feature gibt es. Dass du es nicht findest sagt sehr viel über dich aus. Dass du offenbar noch nicht mal gesucht hast, noch viel mehr.

Digidi
2018-09-02, 22:04:53
Das Feature gibt es. Dass du es nicht findest sagt sehr viel über dich aus. Dass du offenbar noch nicht mal gesucht hast, noch viel mehr.

Ich kann andere Ignorieren die können aber meine Posts immer noch lesen. Ich kann halt Ihren blödsin nicht lesen

ChaosTM
2018-09-02, 22:10:26
Der Preis ist einfach nicht schönredbar ^^
Ab 900 fang ich an zu überlegen wenn zumindest +35% rauskommen.
RT ist geil aber erst in 2-3 Jahren nutzbar.

Kriton
2018-09-02, 22:13:10
Früher habe ich für eine Kugel Eis auch mal 30 Pfennig bezahlt.

Die Preissteigerung der 20XX ist also Inflationsausgleich in Deinen Augen? :rolleyes:

Digidi
2018-09-02, 22:14:42
Die Preissteigerung der 20XX ist also Inflationsausgleich in Deinen Augen? :rolleyes:

Eine Inflation von 100% :freak:

Geächteter
2018-09-02, 22:19:48
Die 2080Ti hat rund 21,5% mehr Shader als die 1080Ti, wenn da ~30% mehr Performance rauskommen sollten, dann ist das sicherlich alles, aber weit entfernt von sehr gut. Im Rahmen und wenig überraschend trifft's dann eher.
Bezog das nur auf die Performancesteigerung zu Mehrverbrauch.

AffenJack
2018-09-02, 22:41:19
@3dcenter
Ich hätte gerne eine Funktion die Posts von mir für gewisse Personen ausblendet. Ich möchte mit denen einfach nicht reden.


Ich hätte gerne, dass du nicht den ganzen tag nur rumtrollst. Passiert auch nicht. Man kann eben nicht alles haben.

Digidi
2018-09-02, 22:42:45
Ich hätte gerne, dass du nicht den ganzen tag nur rumtrollst. Passiert auch nicht. Man kann eben nicht alles haben.

Hast du angst dach ich deinen Rang als Obertroll ablaufe ;D

robbitop
2018-09-02, 22:56:25
Ich sehe einige Parallelen zu NV30 (nur dass es kein R300 Äquivalent gibt). Viel mehr Transistoren, viel moderner (programmierbare PS und VS und nahezu sm3 compiant!),aber: nicht mehr vram (4600 ti hatte auch 128mib) und nicht sooo viel schneller zum Launch als NV25 (wie es mehr Transistoren gab).
Heute sind programmierbare Pixelshader nicht mehr wegzudenken und es ist gut, dass man den Schritt ging.
NV40 war schon deutlich besser - aber erst G80 brachte Sorglosperformance bei shadelastigen Spielen.
Sind 2x Gens später (refreshes nicht mitgezählt - also nv35, 38, G70 und 71)

AffenJack
2018-09-02, 23:02:04
Hast du angst dach ich deinen Rang als Obertroll ablaufe ;D

Putzig, dass von jemanden zu hören der alle paar Tage mit neuen Verschwörungstheorien ankommt. Wieso willst wohl, dass deine Posts von manchen Personen nicht gelesen werden. Weil du es nicht erträgst, dass du Tag für Tag wiederlegt wirst?;D

Digidi
2018-09-02, 23:05:16
Putzig, dass von jemanden zu hören der alle paar Tage mit neuen Verschwörungstheorien ankommt. Wieso willst wohl, dass deine Posts von manchen Personen nicht gelesen werden. Weil du es nicht erträgst, dass du Tag für Tag wiederlegt wirst?;D

Wie schön das du das Wort Monopol und Markmacht sowie die Auswirkung nicht verstehst!

Aber natürlich haben die Kritiker immer einen Aluhut auf :P

PHuV
2018-09-02, 23:07:36
Die Preissteigerung der 20XX ist also Inflationsausgleich in Deinen Augen? :rolleyes:
Darum gehts doch gar nicht. :rolleyes: Was früher war, kann man eben nicht als Vergleich heranziehen, es bringt rein gar nichts! Früher war die Marktsituation anders, mehrere Anbieter, vergleichbare Leistungen. Wann geht das endlich in Euren Schädel? Immer noch nicht verstanden, daß Nvidia aktuell ohne Konkurrenz dominert?

=Floi=
2018-09-02, 23:08:50
Ich kann andere Ignorieren die können aber meine Posts immer noch lesen. Ich kann halt Ihren blödsin nicht lesen

du solltest einfach mal deine einstellung ändern!

deinen ganzen aluhut blödsinn über bord werfen und neutral beurteilen.

Monsta
2018-09-02, 23:10:51
Darum gehts doch gar nicht. :rolleyes: Was früher war, kann man eben nicht als Vergleich heranziehen, es bringt rein gar nichts! Früher war die Marktsituation anders, mehrere Anbieter, vergleichbare Leistungen. Wann geht das endlich in Euren Schädel? Immer noch nicht verstanden, daß Nvidia aktuell ohne Konkurrenz dominert?

Das checkt hier wohl jeder, die meisten finden das aber kacke.

TGKlaus
2018-09-02, 23:15:01
Ich habe die Ergebnisse der avg fps mal zusammengefasst.

Test GTX 1080 Ti GTX 2080 Ti Speedup
R6 Siege 62 90 45,16%
COD WWII 50 61 22,00%
FC5 44 69 56,82%
TC 2 47 58 23,40%
FH 52 78 50,00%
GTA V 62 78 25,81%
ME:A 48 67 39,58%
PUBG 43 62 44,19%
TW3 44 56 27,27%
BF V 55 75 36,36%
Durchschnitt 37,06%



Mal abgesehen das ich diesen "Leak" ganz stark anzweifel; wie will der Typ an den Treiber gekommen sein?

bei 40% mehr zu den Preisen macht sich Nvidia zur totalen Lachnummer.

PHuV
2018-09-02, 23:15:30
schön In deinem verlinkten test gab es ein Steigerung von 71% von 560 auf 660. Wie waren da noch mal die Preissteigerungen`?
Wo? :confused:

=Floi=
2018-09-02, 23:16:38
Turing ist einfach das iphone X von nv

man hätte die 2080ti gleich titan nennen sollen!
Daran krankt es doch. der falsche name für das produkt. Stell dir nen 3er bmw zum preis eines 5er vor. (deshalb heißt das bei bmw dann M3 )

Digidi
2018-09-02, 23:18:11
Wo? :confused:

lol

Daredevil
2018-09-02, 23:19:20
Vielleicht ist Turing auch einfach nur ein grottenschlechtes Gesamtpaket und ein grober Designfehler von Nvidia, dass sie Raytracing einleiten in einem Fertigungsprozess, welcher kaum Vorteile zu 14nm bietet und die Karte eben so aufblähen müssen zusätzlich zu RT, dass sie einfach Arschteuer wird und nie die Masse erreichen kann.

Manche sehen hier ja schon den Untergang der 400€ HighEnd Grafikkarten, nur weil ein Hersteller eine kontroverse Strategie verfolgt.

Keine neuen Features und ein Pascal refresh? Kunden sind verärgert.
Neue Features und kein Fokus auf Performance? Kunden sind verärgert.
12nm und teurer Riesenchip? Kunden sind verärgert
2018 keine neue Karte, weil 7nm mehr Sinn macht? Kunden sind verärgert

Fazit: Kunden sind immer verärgert. :D

Troyan
2018-09-02, 23:27:05
Turing ist exakt das, was nVidia will. Der Prozess ist eben viel günstiger als 7nm und nVidia kann hier fast alleine die Anlagen benutzen.

Daredevil
2018-09-02, 23:42:17
Nur weil es vielleicht genau das ist, was Nvidia will, schließt das in weitesten Sinne keinen Designfehler aus ( aus Kundensicht ), da hast du meine Aussage falsch interpretiert.
Die "Quadro Abfall" Theorie könnte hier auch greifen.

Meinst du nicht, Nvidia würde diese tollen Karten nicht mehr Gaming Kunden ( günstiger ) zu Verfügung stellen?

Slipknot79
2018-09-02, 23:44:02
Mal abgesehen das ich diesen "Leak" ganz stark anzweifel; wie will der Typ an den Treiber gekommen sein?

bei 40% mehr zu den Preisen macht sich Nvidia zur totalen Lachnummer.


Dachte ein Treiber wird mit den Testkarten mitgeliefert?

Troyan
2018-09-02, 23:45:46
Der Chip ist 60% größer, weil nVidia natürlich Raytracing im Quadro-Markt bringen will. Es ist jedoch günstiger für nVidia die selben Chips für Gaming zu verwenden als eine dritte Architektur aufzulegen, die kein Raytracing kann.

Da DXR seit 9 Monate sozusagen existiert, ist Turing genau das, was nVidia wollte.

Screemer
2018-09-02, 23:46:55
Der Treiber soll nur nach Login auf einer Seite mit personalisierten Daten downloadbar sein.

Locuza
2018-09-03, 06:52:41
du solltest einfach mal deine einstellung ändern!

deinen ganzen aluhut blödsinn über bord werfen und neutral beurteilen.
Ganz langsam mein Freund, verlangst du da nicht etwas zuviel? ;D

Daredevil
2018-09-03, 07:17:39
Immer dieses Neid Thema! Viele die hier dagegen wettern können sich die Karten leisten, sind aber so clever zu sehen wo die Reise hingeht.
Wo ist denn da der Zusammenhang?
Wenn ich mir etwas leisten kann, es aber nicht leisten will, ist das mein persönliches Problem und nicht Problem des Produktes.
Ich glaube nicht, dass jeder hier im elitären 3DCenter mal eben 1200€ aus dem Ärmel zaubern kann, das ist völlig illusorisch.

Ich kann aber verstehen, wenn man als "untere" Einkommensschicht gerne mal rumweint, wenn sich eine Zweiklassen Gesellschaft bildet.
Sowas passiert btw. auch gerade auf dem Automarkt zwischen Tesla und dem Rest, aber wo ist denn der "Tesla 3 ist zu teuer, mimimi" Thread? :D

Man stelle sich alleine vor, dass du "RTX on" in deinen Twitch Titel schreibst bei Battlefield5 und die Leute dir mehr zuschauen als dem AMD Fan, der sich kein Raytracing leisten kann.
Entweder hast du RTX, oder du hast eben kein RTX. ;)

Zudem, was gerne vergessen wird.
Würde die TI keine 1200€ sondern "nur" 800€ kosten, würde ich mir vermutlich nicht 4 davon kaufen sondern 12 fürs Mining. ( Falls die Leistung stimmt. )
Und jemand anders mit mehr Kapital würde das ganze um Faktor 10 oder 100 machen. Sowas willst du nicht und Nvidia wahrscheinlich auch nicht.

Weil mit einer 800€ RTX2080ti mit +50% Leistung bei gleichem Verbrauch ist man selbst mit den Gammelkursen bei unter einem Jahr RoI.

GSXR-1000
2018-09-03, 07:25:40
Darum gehts doch gar nicht. :rolleyes: Was früher war, kann man eben nicht als Vergleich heranziehen, es bringt rein gar nichts! Früher war die Marktsituation anders, mehrere Anbieter, vergleichbare Leistungen. Wann geht das endlich in Euren Schädel? Immer noch nicht verstanden, daß Nvidia aktuell ohne Konkurrenz dominert?
Und da ist es sinnvoll als Kunde an einer zementierung einer solchen marktdominierenden Stellung mitzuarbeiten und wirklich jeden aufgerufenen Preis zu zahlen?
Seltsame Ansicht funktionierender Wirtschaft. Aber ich vergass, funktionierende Wirtschafts- und Marktmodelle gehen von rationalen Kunden aus. Die haben wir hier offensichtlich nicht.

Zudem, was leute wie du offensichtlich nicht begreifen: Neue Technologien wie diese können nur dann grosse Marktdurchdringung haben, wenn sie schnell eine grosse Marktakzeptanz, sprich verbreitung finden. Denn nur dann gibt es auch entsprechenden, dauerhaften und nicht nur punktuellen support seitens der Softwarelieferanten, sprich spieleschmieden.
Daher müsstest du, der doch angeblich RT so unfassbar geil und DAS Big Thing sieht grösstes Interesse haben, das die Preisgestaltung so ist, das eine entsprechende Marktdurchdringung da ist (und mit Marktdurchdringung meine ich relevante Marktanteile ausserhalb einer Nerdzone wie hier). Denn nur dann besteht überhaupt eine chance das du mit der Karte zu lebzeiten diese features überhaupt sinnvoll nutzen kannst. Ansonsten ist ein drittel der Karte verschwendete Transitoren. Ist das so schwer zu begreifen? Die jetzige Preisgestaltung ist ein Schlüsselelement ob wir diese Technologien (unabhängig vom Hersteller) in 2, 5. oder 8 Jahren sinnvoll und flächendeckend nutzen können. Du scheinst eher letzteres zu wollen. anders ist deine Position nicht zu verstehen.

@ Daredevil: Gehts noch ein bissel arroganter?
1. Warum sollte das NV nicht wollen? NV ist das alles vollkommen Wumpe, solange Umsatz und Marge stimmen. Das wäre in deinem beschriebenen Fall geboten. NV hat nichts dagegen, das die Nachfrage mindestens so gross ist wie das Angebot, bzw dieses sogar übersteigt. Unschön für NV ist es allerdings wenn der umgekehrte Fall eintritt und chips auf Halde liegen, wie jetzt wohl die pascal chips. Insofern, NV würde dein Szenario mit Kusshand annehmen.
2. Den leuten die hier in deinen Augen "rumweinen", Zugehörigkeit zur "unteren Einkommensschicht" zu unterstellen, ist absurd, schäbig und an Arroganz kaum zu unterbieten. Charakterlich das allerletzte. Nicht das erste mal leider.

Warum ICH zum Beispiel die Preisgestaltung nachteilig für alle betrachte hab ich in diesem Post beschrieben. Komm also mal von deinem hohen Ross runter und begreife, das man das ganze auch kritisieren kann, wenn man wirtschaftlich sicher mit dir konkurrieren könnte (auch wenn mir danach garnicht der Sinn steht und mir deine Finanzen reichlich wumpe sind).

Daredevil
2018-09-03, 07:41:55
Zudem, was leute wie du offensichtlich nicht begreifen: Neue Technologien wie diese können nur dann grosse Marktdurchdringung haben, wenn sie schnell eine grosse Marktakzeptanz, sprich verbreitung finden. Denn nur dann gibt es auch entsprechenden, dauerhaften und nicht nur punktuellen support seitens der Softwarelieferanten, sprich spieleschmieden.
...
Denn nur dann besteht überhaupt eine chance das du mit der Karte zu lebzeiten diese features überhaupt sinnvoll nutzen kannst. Ansonsten ist ein drittel der Karte verschwendete Transitoren. Ist das so schwer zu begreifen?
Nu hör doch mal auf, die arme AMD Vega zu bashen. :D


...


Da gibt es ja viele Möglichkeiten.

Der AMD Weg: Ich implementiere neue Features und hoffe, dass Spiele-Schmieden diese nutzen > Vega läuft selten zu Hochleistung auf und wird aufgrund der hohen Transistorendichte gerne mal als "kaputt" gesehen und verbraucht im Schnitt zuviel für die Leistung.

Der Nvidia Weg: Ich kaufe mich bei Herstellern ein und präsentiere ein LineUp an Games, bevor die Karte selbst auf dem Markt ist. Desweiteren arbeite ich so oder so durch meine finanziellen Möglichkeiten enger mit Spiele-Schmieden zusammen, um meine exklusiven Features einzubinden.

GameWorks funktioniert ja schon prima. Ich sehe nicht, wieso das bei RTX anders sein sollte.

Rancor
2018-09-03, 07:53:05
Das wird bei RTX sicherlich nicht anders sein. Die Adaption von Raytracing geht recht zügig voran.

horn 12
2018-09-03, 07:59:53
Mal Ende Jahr abwarten.
Battlefield 5 wurde ja schon mal verschoben :-)

Rancor
2018-09-03, 08:03:27
Mal Ende Jahr abwarten.
Battlefield 5 wurde ja schon mal verschoben :-)

JA 3 mal darfst du raten warum ;)

Es gibt zig Spiele die angekündigt sind. Für ein Features welches nur ein Hersteller zur Zeit beherrscht, ist das schon recht ordentlich. Nicht zu vergessen das DICE bisher AMD Partner war.

Zumal es auch fast durch die Bank AAA Titel sind. Trotzdem sehe ich die RTX Karten skeptisch.

GSXR-1000
2018-09-03, 08:27:16
Nu hör doch mal auf, die arme AMD Vega zu bashen. :D


...


Da gibt es ja viele Möglichkeiten.

Der AMD Weg: Ich implementiere neue Features und hoffe, dass Spiele-Schmieden diese nutzen > Vega läuft selten zu Hochleistung auf und wird aufgrund der hohen Transistorendichte gerne mal als "kaputt" gesehen und verbraucht im Schnitt zuviel für die Leistung.

Der Nvidia Weg: Ich kaufe mich bei Herstellern ein und präsentiere ein LineUp an Games, bevor die Karte selbst auf dem Markt ist. Desweiteren arbeite ich so oder so durch meine finanziellen Möglichkeiten enger mit Spiele-Schmieden zusammen, um meine exklusiven Features einzubinden.

GameWorks funktioniert ja schon prima. Ich sehe nicht, wieso das bei RTX anders sein sollte.


Fuer dich ist also eine handvoll spiegelungen und anders (im ergebnis nicht unbedingt besser) berechnete schatten "the next big thing"? Okay, dann habt ihr schlicht ne andere erwartungshaltung als ich.
Ich erwarte von RT bedeutend mehr. Nur muessen dinge dann from the scratch integriert werden. Nicht als eye candy draufgepackt. Und dazu braucht es marktrelevanz.
Aber wenn ihr euch mit eyecandy und blendwerk begnuegt...fein. dann ist das aber sehr teures eyecandy und vergeudete chancen die die technologie ansich bietet. Passt aber ins bild.

@rancor: und wieviel relevanz hat die technologie dort? Gamechanger? Nein. Eyecandy? Jo. Was bringt uns das?
Nebenbei: glaubt ihr eigentlich es bringt dem pc gaming was wenn es nochmehr gespalten und zergliedert wird? Es ist jetzt schon deutlich lukrativer, fuer die genormten konsolen zu produzieren. Was sich auch in den letzten jahren immer deutlicher zeigt.
Man wird nur dann ueber irrelevantes eyecandy a la gameworks hinaus neue technologien einbinden (die in konsolen auf jahre hinaus nicht nutzbar sein werden) pc-exklusiv, wenn auch die nutzbarkeit der technologie in der pc nutzerschaft ausreichend gross ist. Das wird bei diesen preisen so schnell nicht der fall sein.

mironicus
2018-09-03, 08:29:58
Wäre ich AMD-Fanboy würde ich mir wünschen, dass die neuen RTX-Karten Rekord-Werte beim Minen erreichen und die Preise für die Karten sich um das zehnfache erhöhen. :D

pilzsammler2002
2018-09-03, 08:32:35
JA 3 mal darfst du raten warum ;)

COD und Red Dead Redemption 2 :biggrin:

Rancor
2018-09-03, 08:39:44
@rancor: und wieviel relevanz hat die technologie dort? Gamechanger? Nein. Eyecandy? Jo. Was bringt uns das?
Nebenbei: glaubt ihr eigentlich es bringt dem pc gaming was wenn es nochmehr gespalten und zergliedert wird? Es ist jetzt schon deutlich lukrativer, fuer die genormten konsolen zu produzieren. Was sich auch in den letzten jahren immer deutlicher zeigt.
Man wird nur dann ueber irrelevantes eyecandy a la gameworks hinaus neue technologien einbinden (die in konsolen auf jahre hinaus nicht nutzbar sein werden) pc-exklusiv, wenn auch die nutzbarkeit der technologie in der pc nutzerschaft ausreichend gross ist. Das wird bei diesen preisen so schnell nicht der fall sein.

Bin ich ganz bei dir.

Solange AMD das nicht in equivalenter Qualität und Performance beherrscht ,wird das mit der Marktdurchdringung nichts werden.

TobiWahnKenobi
2018-09-03, 08:49:11
Wäre ich AMD-Fanboy würde ich mir wünschen, dass die neuen RTX-Karten Rekord-Werte beim Minen erreichen und die Preise für die Karten sich um das zehnfache erhöhen. :D

das würde ich mir auch wünschen, denn basierend auf den irgenwo geleakten werten, habe ich bereits eine viel schnellere karte im system stecken und könnte dann als vorbesteller zweier TIs durchaus noch etwas profit beim weiterverkauf der turings erwirtschaften ohne das FAG zu missbrauchen. noch schöner wäre es, könnte ich damit das voltaloch stopfen, die karte hat mit 1000€ aufpreis auf zwei TXP schon ganz gut reingehauen.. damals. apropos damals.. ist mining nicht auch "damals" ?

witcher3 aus dem leak mit "nur" 56fps ?? *hust* ich bin davon ausgegangen, dass turing global out of the box überall 60fps @uhd liefert.. eben wie titan v. aber um von 56fps auf meine 72fps zu kommen, muss ich schon OC mit einkalkulieren.. meh..

2018-09-03 07:51:40 - witcher3 /UHD /max /GW /TV
Frames: 23619 - Time: 324500ms - Avg: 72.786 - Min: 63 - Max: 80


(..)

mfg
tobi

Daredevil
2018-09-03, 08:50:05
Fuer dich ist also eine handvoll spiegelungen und anders (im ergebnis nicht unbedingt besser) berechnete schatten "the next big thing"? Okay, dann habt ihr schlicht ne andere erwartungshaltung als ich.
Ich erwarte von RT bedeutend mehr. Nur muessen dinge dann from the scratch integriert werden. Nicht als eye candy draufgepackt. Und dazu braucht es marktrelevanz.
Aber wenn ihr euch mit eyecandy und blendwerk begnuegt...fein. dann ist das aber sehr teures eyecandy und vergeudete chancen die die technologie ansich bietet. Passt aber ins bild.

@rancor: und wieviel relevanz hat die technologie dort? Gamechanger? Nein. Eyecandy? Jo. Was bringt uns das?
Nebenbei: glaubt ihr eigentlich es bringt dem pc gaming was wenn es nochmehr gespalten und zergliedert wird? Es ist jetzt schon deutlich lukrativer, fuer die genormten konsolen zu produzieren. Was sich auch in den letzten jahren immer deutlicher zeigt.
Man wird nur dann ueber irrelevantes eyecandy a la gameworks hinaus neue technologien einbinden (die in konsolen auf jahre hinaus nicht nutzbar sein werden) pc-exklusiv, wenn auch die nutzbarkeit der technologie in der pc nutzerschaft ausreichend gross ist. Das wird bei diesen preisen so schnell nicht der fall sein.

Ich spiele Spiele des Spielspaßes halber und nicht wegen des Eye Candy's. Als Techdemo finde ich RT toll, würde mir deswegen aber keine neue GK kaufen.
Unterstell mir Mal nichts, was ich nicht gesagt habe. :)

Bedeutet aber nicht, dass ich es nicht auch geil finde, wenn sich was in der Optik tut.

Ich bin eher derjenige, der 1500€ bezahlen würde, wenn ich Red Faction like die ganze Spielwelt zerstören könnte. Ich liebe Physik, andere lieben Eye Candy.

woodsdog
2018-09-03, 09:06:27
Real bleiben viel mehr übrig, da Turing sich höher takten lässt.

gibt es eigentlich irgend einen Anhaltspunkt, das diese in den Raum geworfene Behauptung irgend eine Grundlage hat? immer dieses NV getrolle von dir... schlimm

chip ist gigantisch bei minimal besserem Prozess
mehr shader
RTX einheiten
tensor cores
selbes Powerbudget

yep. lässt sich garantiert höher takten... spätestens wenn der neue heiße shizzle auf dem Die mit rechnen darf, wird der Takt ordentlich runter gehen... wo soll es schließlich herkommen....

Leonidas
2018-09-03, 09:20:45
Test GTX 1080 Ti GTX 2080 Ti Speedup
R6 Siege 62 90 45,16%
COD WWII 50 61 22,00%
FC5 44 69 56,82%
TC 2 47 58 23,40%
FH 52 78 50,00%
GTA V 62 78 25,81%
ME:A 48 67 39,58%
PUBG 43 62 44,19%
TW3 44 56 27,27%
BF V 55 75 36,36%
Durchschnitt 37,06%



Reine Manöverkritik, bitte nur zum Besten verwenden: Wenn Du die fps-Werte abweichend von Deiner Rechnung inklusive Kommawerten beachtet, kommt eine insgesamte Differenz von 37,5% heraus. Sprich: Nicht auf zwei Kommastellen genaue Differenzen angeben, wenn die Ausgangswerte künstlich ungenau gehalten wurden.



PS an den Thread: War die Preisdiskussion nicht schon lange durch? Oder hat der eine Thread-Stopp nicht ausgereicht?

Fragman
2018-09-03, 09:24:37
die preise sollte man erst bewerten, wenn die karten mind 1 monat auf dem markt sind, alles andere macht doch keinen sinn. man muss den strassenpreisen auch zeit geben, sich ein zu pendeln, was ja noch garnicht geht. bei den aktuellen ti1080 preisen sind zumindest die 2080 preise nicht ueberzogen, angesichts der neuen tech und dem speicher.

mironicus
2018-09-03, 09:32:30
Bei den Reviews wird RT wohl keine große Rolle spielen, da es bis jetzt kein einziges Spiel oder einen Benchmark gibt, der die Leistung zeigt. Einen Benchmark mit RTX off/on wird es also nicht geben, und das kann NVidia nur recht sein. Der Schock folgt dann mit den ersten veröffentlichten Spielen... und nach Ablauf des Rückgaberechts.:D

mironicus
2018-09-03, 11:27:08
Ich habe gerade ein interessantes Video gesehen das zeigt das NVidia nicht die einzigen sind, die DLSS verwenden. Das wird auch Samsung für ihre neuen 8K-Fernseher verwenden, um eine niedrig aufgelöste Textur mittels Machine Learning und Supercomputern durch Filter zu jagen und eine Datenbank zu erstellen auf die der Fernseher zurückgreifen kann um dann niedrig aufgelöste Videos auf 8K in erheblich besserer Qualität hochskalieren zu können.

Es wird im Video erklärt: https://www.youtube.com/watch?v=J-29eipZs_s#t=017m53s

robbitop
2018-09-03, 11:50:51
Der Treiber soll nur nach Login auf einer Seite mit personalisierten Daten downloadbar sein.
Die Frage ist, ob da jemand schon Zugriff drauf hat. Wenn ja -> was man runterladen kann, kann man auch kopieren/teilen/verschicken. ;)

Schnoesel
2018-09-03, 12:13:32
Selbst wenn BF5 können sie gar nicht testen, weil gerade weder die Alpha noch Beta ist. Und selbst wenn sie einen Vorabzugang haben (was ich nicht glaube) testen die dann mit nem leeren Server?

Ich bin mir sicher die Werte sind Bullshit, aber es funktioniert ja offensichtlich.

Bambuslooter
2018-09-03, 12:18:05
Wäre ich AMD-Fanboy würde ich mir wünschen, dass die neuen RTX-Karten Rekord-Werte beim Minen erreichen und die Preise für die Karten sich um das zehnfache erhöhen. :D

Hier wurde schon dazu ein Bild von CB verteilt.
Volta hat die 1080ti und Vega locker besiegt.
Turing wird da sich ähnlich verhalten.
Einzig der Bitcoin Preis hat die Käufe zum Glück gedämpft.
Aber ein Bullrun erwarten viele.

Scheint wirklich zeitnah kein Ersatz für die kleinen Karten zu kommen.
Da muss ich wohl doch auf eine 1070 im Laptop schielen.
Hatte auf eine "zeitnahe" 2060 gehofft.

mironicus
2018-09-03, 12:37:44
Im Laptop-Bereich werden die 10er-Karten wohl noch lange Standard bleiben. Wenn man einen Riesenchip wie die 20er für den mobilen Gamingmarkt in der Leistung drosselt wird das wohl kaum mehr Leistung bringen als die 10er-Reihe. Da muss man wohl auf 7 nm-Chips warten.

bloub
2018-09-03, 12:52:39
Mal Ende Jahr abwarten.
Battlefield 5 wurde ja schon mal verschoben :-)

da man auch die konsolenversionen verschoben hat, hat die verschiebung nichts mit rt zu tun ;).

RLZ
2018-09-03, 12:57:27
Wäre ich AMD-Fanboy würde ich mir wünschen, dass die neuen RTX-Karten Rekord-Werte beim Minen erreichen und die Preise für die Karten sich um das zehnfache erhöhen. :D
Das Beste was Gamern passieren könnte, wäre wenn ein signifikanter Teil der Rechenleistung nicht für Mining nutzbar wäre, aber trotzdem die Bildqualität verbessert.

PHuV
2018-09-03, 13:13:03
Die Frage ist, ob da jemand schon Zugriff drauf hat. Wenn ja -> was man runterladen kann, kann man auch kopieren/teilen/verschicken. ;)
Psst, bring Nvidia bloß nicht auf blöde Ideen (Wasserzeichen, Verschlüsselung etc...).

Fragman
2018-09-03, 13:24:16
Im Laptop-Bereich werden die 10er-Karten wohl noch lange Standard bleiben. Wenn man einen Riesenchip wie die 20er für den mobilen Gamingmarkt in der Leistung drosselt wird das wohl kaum mehr Leistung bringen als die 10er-Reihe. Da muss man wohl auf 7 nm-Chips warten.

bei den minidisplays und 1080p aufloesung, reicht das auch noch dicke aus.
die 2070 koennte man sich noch vorstellen, als flagschiffloesung so zu sagen, aber alles drueber waere unsinn.

der leistungssprung von pascal mobil war einfach extrem hoch. mehr braucht man ja nicht fuer die naechste zeit. und wenn doch, gibts thunderbolt.

Edgecrusher86
2018-09-03, 13:37:45
Noch einmal die vermeintlichen TimeSpy Scores aufgedröselt. Die Werte der anderen Karten stammen von diesjährigen 3DM Einträgen. Die angegebenen Taktraten dürften grob die durchschnittlichen default Boost-Werte darstellen.

GPU|RTX 2080 Ti FE stock (?) (~1800/1750MHz)|TITAN V stock (~15xx/851MHz)|RTX 2080 FE stock (?) (~19xx/1750MHz)|GTX 1080 Ti FE stock (~1700/1377MHz)|GTX 1080 FE stock (~1700/1250MHz)
3DM TimeSpy - Grahpics Score |12825|11751|10030|9508|7325
3DM TimeSpy - Graphics Test 1|82,27 fps|75,85 fps|64,53 fps|61,14 fps|47,19 fps
3DM TimeSpy - Graphics Test 2|74,58 fps|67,96 fps|58,17 fps|55,17 fps|42,44 fps
Leistung Graphics Score - Basis GTX 1080 Ti|+34,89%|+23,59%|+5,49%|Basis|-22,96%
Leistung Graphics Test 1 - Basis GTX 1080 Ti|+34,56%|+24,06%|+5,54%|Basis|-22,82%
Leistung Graphics Test 2 - Basis GTX 1080 Ti|+35,18%|+23,18%|+5,44%|Basis|-23,07%
Leistung Graphics Score - Basis GTX 1080|+75,08%|+60,42%|+36,93%|+29,80%|Basis
Leistung Graphics Test 1 - Basis GTX 1080|+74,37%|+60,73%|+36,75%|+29,56%|Basis
Leistung Graphics Test 2 - Basis GTX 1080|+75,73%|+60,13%|+37,06%|+30%|Basis


Wie zu erkennen ist, fällt der Sprung von GP102 (salvage) auf TU102 (salvage) ähnlich groß aus, wie der von GP104 (full) auf TU104 (salvage).


Weitere Werte - stock, normales OC (teils WaKü) und extremes OC:

TITAN V OC LN2 - 2330/999MHz
16873 (https://www.3dmark.com/spy/3104471)
Gfx 1 - 105,57 fps
Gfx 2 - 98,67 fps

TITAN V OC - 1995/1000MHz
14724 (https://www.3dmark.com/spy/3692778)
Gfx 1 - 94,48 fps
Gfx 2 - 85,6 fps

GTX 1080 Ti OC LN2 - 2708/1658MHz
14301 (https://www.3dmark.com/spy/2746610)
Gfx 1 - 91,79 fps
Gfx 2 - 83,12 fps

RTX 2080 Ti FE stock? - ~ 1800?/1750MHz
12825 (https://wccftech.com/nvidia-rtx-2080-ti-3dmark-score-allegedly-leaks-35-faster-vs-1080-ti/)
Gfx 1 - 82,27 fps
Gfx 2 - 74,58 fps

TITAN V FE stock - ~15xx/851MHz
11751 (https://www.3dmark.com/spy/3824589)
Gfx 1 - 75,85 fps
Gfx 2 - 67,96 fps

GTX 1080 Ti OC - 2012/1434MHz
10526 (https://www.3dmark.com/spy/4184913)
Gfx 1 - 67,26 fps
Gfx 2 - 61,43 fps

RTX 2080 FE stock? - ~ 19xx?/1750MHz
10030 (https://wccftech.com/nvidia-geforce-rtx-2080-3dmark-timespy-score-leaked-clocked-at-2ghz-and-beats-a-gtx-1080-ti-without-ai-cores/)
Gfx 1 - 64,53 fps
Gfx 2 - 58,17 fps

GTX 1080 Ti FE stock - ~ 1700/1377MHz
9508 (https://wccftech.com/nvidia-geforce-rtx-2080-3dmark-timespy-score-leaked-clocked-at-2ghz-and-beats-a-gtx-1080-ti-without-ai-cores/)
Gfx 1 - 61,14 fps
Gfx 2 - 55,17 fps

GTX 1080 OC LN2 - 2341/1550MHz
9416 (https://www.3dmark.com/3dm/23723634)
Gfx 1 - 60,73 fps
Gfx 2 - 54,49 fps

GTX 1080 OC - 2088/1566MHz
8781 (https://www.3dmark.com/spy/3965934)
Gfx 1 - 56,4 fps
Gfx 2 - 50,97 fps

GTX 1080 FE stock - ~17xx/1250MHz
7325 (https://wccftech.com/nvidia-geforce-rtx-2080-3dmark-timespy-score-leaked-clocked-at-2ghz-and-beats-a-gtx-1080-ti-without-ai-cores/)
Gfx 1 - 47,19 fps
Gfx 2 - 42,44 fps

Raff
2018-09-03, 13:45:25
Psst, bring Nvidia bloß nicht auf blöde Ideen (Wasserzeichen, Verschlüsselung etc...).

So geil, wie hier plötzlich uralte, ewig angewendete Methoden diskutiert werden. Früher hat das keine Sau interessiert, was hinter den Kulissen abgeht. Wasserzeichen, Logins etc., alles alte Hüte. Leaks waren noch nie erwünscht, weder von AMD noch von Nvidia.

MfG,
Raff

TobiWahnKenobi
2018-09-03, 13:55:01
Noch einmal die vermeintlichen TimeSpy Scores aufgedröselt. Die Werte der anderen Karten stammen von diesjährigen 3DM Einträgen. Die angegebenen Taktraten dürften grob die durchschnittlichen default Boost-Werte darstellen.

GPU|RTX 2080 Ti FE stock (?) (~1800/1750MHz)|TITAN V stock (~15xx/851MHz)|RTX 2080 FE stock (?) (~19xx/1750MHz)|GTX 1080 Ti FE stock (~1700/1377MHz)|GTX 1080 FE stock (~1700/1250MHz)
3DM TimeSpy - Grahpics Score |12825|11751|10030|9508|7325
3DM TimeSpy - Graphics Test 1|82,27 fps|75,85 fps|64,53 fps|61,14 fps|47,19 fps
3DM TimeSpy - Graphics Test 2|74,58 fps|67,96 fps|58,17 fps|55,17 fps|42,44 fps
Leistung Graphics Score - Basis GTX 1080 Ti|+34,89%|+23,59%|+5,49%|Basis|-22,96%
Leistung Graphics Test 1 - Basis GTX 1080 Ti|+34,56%|+24,06%|+5,54%|Basis|-22,82%
Leistung Graphics Test 2 - Basis GTX 1080 Ti|+35,18%|+23,18%|+5,44%|Basis|-23,07%
Leistung Graphics Score - Basis GTX 1080|+75,08%|+60,42%|+36,93%|+29,80%|Basis
Leistung Graphics Test 1 - Basis GTX 1080|+74,37%|+60,73%|+36,75%|+29,56%|Basis
Leistung Graphics Test 2 - Basis GTX 1080|+75,73%|+60,13%|+37,06%|+30%|Basis


Wie zu erkennen ist, fällt der Sprung von GP102 (salvage) auf TU102 (salvage) ähnlich groß aus, wie der von GP104 (full) auf TU104 (salvage).

wo hast du denn den schlechten timespy-score von der titan v her?
in der hall of fame ist unter den ersten 100 keiner unter 13000 punkten. ich bin auf platz 16 :)

https://www.3dmark.com/hall-of-fame-2/timespy+graphics+score+performance+preset/version+1.0/1+gpu



(..)

mfg
tobi

Edgecrusher86
2018-09-03, 13:56:25
Ist mir bekannt, was die V @ 300W unter Wasser zumindest benchstable schaffen. OC vs. Stock ist und bleibt nun aber einmal Blödsinn. Das wird auch öfters gerne gemacht, um die Karten der jeweils alten Generation besser da stehen zu lassen gegegenüber neuen Modellen, die aber innerhalb der Referenzparameter, sprich out of the Box Boost mit default Targets, operieren. Oben sind nun auch noch weitere Ergebnisse mit "Alltags-OC"-Werten und den höchsten HoF Scores. ;)

Wenn eine RTX 2080 nur minimalst vor einer default 1080 Ti FE liegt, dann dürfte klar sein, dass hier nicht geknüppelt wurde - das gilt vermutlich auch für die 2080 Ti. :)
Ergo ist der V Score dort auch keiner aus den Top 100, sondern aus den Top 200-300 iirc. Einfach halt eine nicht unter Wasser gesetzte Referenz V im TT/PT-Limit. Diese laufen nun einmal mit 1400-1600 MHz und mit durchschnittlich 1500-1550 MHz out of the Box. Dass nun eine V mit dem neuen Axial FE Kühler, samt 260W PT wohl ziemlich nah bei der 2080 Ti FE liegen dürfte, will ich nicht bestreiten - sprich, sie dürfte so mit 1600-1700 MHz laufen. ;)

PHuV
2018-09-03, 14:57:50
in der hall of fame ist unter den ersten 100 keiner unter 13000 punkten. ich bin auf platz 16 :)

https://www.3dmark.com/hall-of-fame-2/timespy+graphics+score+performance+preset/version+1.0/1+gpu

Du bist unsere letzte Hoffnung, Tobi Wan Kenobi (für Deutschland). :tongue:
5cc_h5Ghuj4

TobiWahnKenobi
2018-09-03, 15:05:01
Ist mir bekannt, was die V @ 300W unter Wasser zumindest benchstable schaffen. OC vs. Stock ist und bleibt nun aber einmal Blödsinn. Das wird auch öfters gerne gemacht, um die Karten der jeweils alten Generation besser da stehen zu lassen gegegenüber neuen Modellen, die aber innerhalb der Referenzparameter, sprich out of the Box Boost mit default Targets, operieren. Oben sind nun auch noch weitere Ergebnisse mit "Alltags-OC"-Werten und den höchsten HoF Scores. ;)

Wenn eine RTX 2080 nur minimalst vor einer default 1080 Ti FE liegt, dann dürfte klar sein, dass hier nicht geknüppelt wurde - das gilt vermutlich auch für die 2080 Ti. :)
Ergo ist der V Score dort auch keiner aus den Top 100, sondern aus den Top 200-300 iirc. Einfach halt eine nicht unter Wasser gesetzte Referenz V im TT/PT-Limit. ;)

sorry, aber blödsinn sind eher extrem niedrige werte, die du dir irgendwo auswürfelst. selbst mit default-takten kommt TV nicht in die nähe von 11.000 punkten; es ist unmöglich weniger als 13.000 zu bekommen. ausser ich untertakte um -200MHz (tiefer gehts nicht), da landet man aber noch immer bei über 12000 punkten.

https://abload.de/thumb/wsdcv100xid1m.jpg (https://abload.de/image.php?img=wsdcv100xid1m.jpg)
100% PT (https://www.3dmark.com/3dm/28385634?)
https://abload.de/thumb/wsdcvp9dq6.jpg (https://abload.de/image.php?img=wsdcvp9dq6.jpg)
120% PT (https://www.3dmark.com/spy/4339906)
https://abload.de/thumb/wsdcv100-200bufft.jpg (https://abload.de/image.php?img=wsdcv100-200bufft.jpg)
100% PT | -200MHz GPU


(..)

mfg
tobi

Edgecrusher86
2018-09-03, 15:09:16
Unter Wasser läuft sie auch locker mit 1800 MHz - so grob 1848-1860 MHz Spitze dürften es sein, wenn die 250W nicht limitieren. Ohne Umbau sieht das nicht so aus.
Aus dem Grund habe ich auch bewusst so ein Ergebnis nicht mit in die Tabelle genommen, damit man einen Vergleich ab Werk hat. :)

E: Ok, dein Ergebnis ist mit 89°C TT sowie 300W PT. Ich denke nicht, dass die RTX auch so betrieben wurde.....aber das werden wir ja spätestens in knapp zwei Wochen sehen. :)


E2: 399.07er Treiber und kein Fan-Speed. Ist unter doch Wasser. Sorry, aber die Karte läuft so halt easy 200MHz+ höher als sie das unter Luft tun würde. :D

BigKid
2018-09-03, 15:11:27
bei den minidisplays und 1080p aufloesung, reicht das auch noch dicke aus.
die 2070 koennte man sich noch vorstellen, als flagschiffloesung so zu sagen, aber alles drueber waere unsinn.

der leistungssprung von pascal mobil war einfach extrem hoch. mehr braucht man ja nicht fuer die naechste zeit. und wenn doch, gibts thunderbolt.
Gaming Laptops werden recht oft auch als Desktop-Replacement genutzt und als solche mit externen Monitoren... Da wirst du immer Abnehmer finden.

Wenn du so wie ich zB einen zweiten Wohnsitz hast, dann lernst du den Luxus zu schätzen den Laptop an beiden Standorten einfach auf den Tisch zu stellen, Monitor (mit USB Hub) und Strom anzuschliessen und genau da weiter zu machen wo du ihn vorher in der anderen Wohnung zugeklappt hast... Netzteil, Gaming-Maus und Tastatur habe ich doppelt und schleppe sie nicht mit... Für unterwegs hab ich ne kleinere Funkmaus im Rucksack...

Unterwegs (längere zB Zugfahrten) wiederum kann er gar nicht wenig genug Strom verbrauchen - da hängt dann aber auch kein externer Monitor drann...

Die GTX1080 gabs jedenfalls auch für Laptops... Das Netzteil dieser Laptops hatte zB bei MSI 330 Watt... Ich würde mal davon ausgehen, dass sich davon das System selbst mit CPU maximal 75 Watt genehmigt - der Rest würfte der GTX1080 zur Verfügung stehen... Das sind jetzt nicht direkt Welten zu einer (nicht OC) Desktop Lösung... Und Laptops wie das GT73 sind auch von der Kühllösung her (unter dem Preis das man sie halt deutlich hört) ordentlich was an Wärme wegzuleiten... (müsste sage ich weil ich selbst "nur" ne GTX1070 habe - die GTX1080 war mir im Laptop zu abgefahren teuer... das hab ich nicht eingesehen...)

Thunderbolt kostet nach meiner Erfahrung nach (noch) zu viel Leistung - sobald du ne GTX1060 verbaut hast lohnt es sich IMHO fast nicht, speziell weil der TB3 bei vielen Laptop-Modellen leider nur stiefmütterlich angebunden zu sein scheint...

Schnoesel
2018-09-03, 15:16:20
Ihr könnt eh nicht mehr FE@ Pascal und FE@ Turing vergleichen, denn FE@ Turing hat schon OC Taktraten und höheres TDP. Der Referenztakt ist niedriger. Geschickt gemacht von Nvidia hier noch ein paar % rauszuholen. Da werden bestimmt wieder ein paar drauf reinfallen.

Edgecrusher86
2018-09-03, 15:27:58
Das wird man aber wohl nicht oft sehen: Einen Vergleich Pascal FE vs. Turing Blower Edition. Ja, das ist ein geschickter Schachzug von NV, gerade wenn man in den Reviews trotz etwas OC auch nicht mehr im TT klebt. :biggrin:

E: Danke für das Nachreichen - ja, vermutlich ist der Taktunterschied in der Praxis noch ein wenig höher, aber dies und neuere Treiber könnten schon den Unterschied zu Tage fördern. Nun sind wir ja nicht mehr soo weit von den genannten Zahlen entfernt.

12188
Gfx 1 - 77,97 fps

vs.

11751
Gfx 1 - 75,85 fps

397.64er Treiber (vermutlich fast identische Leistung)

https://www.3dmark.com/spy/3824589

Die CPU war dort wohl ein non OC 7960X (~ 4 GHz Turbo) - bei dir ist es ja ein 5 GHz 8700K @ Benches soweit mir bekannt ist. Das sollte hier aber keinen nennenswerten Einfluss haben. Einen kleinen Vorteil für den Coffee OC dürfte es wohl geben, da WQHD. Aber deutlich mehr als +1 fps wird die CPU in dem Fall wohl nicht ausmachen.

Mangel76
2018-09-03, 15:29:18
Ihr könnt eh nicht mehr FE@ Pascal und FE@ Turing vergleichen, denn FE@ Turing hat schon OC Taktraten und höheres TDP. Der Referenztakt ist niedriger. Geschickt gemacht von Nvidia hier noch ein paar % rauszuholen. Da werden bestimmt wieder ein paar drauf reinfallen.


Noch schlimmer: völlig neuer Kühler. FE@Pascal läuft ins Temperaturlimit und taktet runter. Dadurch sieht Turing noch besser aus.

TobiWahnKenobi
2018-09-03, 15:34:11
Unter Wasser läuft sie auch locker mit 1800 MHz - so grob 1848-1860 MHz Spitze dürften es sein, wenn die 250W nicht limitieren. Ohne Umbau sieht das nicht so aus.
Aus dem Grund habe ich auch bewusst so ein Ergebnis nicht mit in die Tabelle genommen, damit man einen Vergleich ab Werk hat. :)

E: Ok, dein Ergebnis ist mit 89°C TT sowie 300W PT. Ich denke nicht, dass die RTX auch so betrieben wurde.....aber das werden wir ja spätestens in knapp zwei Wochen sehen. :)


E2: 399.07er Treiber und kein Fan-Speed. Ist unter doch Wasser. Sorry, aber die Karte läuft so halt easy 200MHz+ höher als sie das unter Luft tun würde. :D

gegen die wasserkühlung kann ich auf die schnelle nichts wirkungsvolles unternehmen; ich bin mir aber sicher, dass ich das meiste davon auch mit dem DHE @85% hinbekomme - so irrsinnig sind die laufzeiten der tests ja nicht.
anyway, ich muss auf werte von meinem system leider noch länger warten, denn die karten kommen erst am 20.9. erfahrungsgemäß verpasse ich den ups-mann und muss dann tage später selbst zu denen fahren :)
übrigens äußerst erfreulich, dass ich nichtmal in den elftausenderbereich runterkomme, wenn ich GV100 minus 200MHz untertakte (https://abload.de/img/wsdcv100-200bufft.jpg).


(..)

mfg
tobi

Edgecrusher86
2018-09-03, 15:47:37
Ja, das Leistungsplus nach dem Umbau muss man halt mit einbeziehen gegenüber dem DHE. Aber es ist natürlich auch nur sinnig, in dem Fall umzubauen, da man sonst ja auf viel Leistung verzichtet:

https://m.hardocp.com/article/2018/03/20/nvidia_titan_v_video_card_gaming_review/3

1552 MHz sind es avg. in BF1 4K bei der V DHE @ 84°C TT.

Mit 100% Fan (:freak:) und maximierten Targets plus OC können sie avg. 1779 MHz erreichen. Aber das ist nun nicht soo praxisnah. Immerhin steigt die 4K Performance so um jeweils etwa 10 fps - das ist schon beachtlich, was die Karte kann, sobald man die Fesseln etwas löst. :biggrin:

https://m.hardocp.com/article/2018/03/20/nvidia_titan_v_video_card_gaming_review/4


Danke dir, dass du eine Annäherung getestet hast.

MfG
Edge

E: Ich bin ja auch gespannt, wie gut das SLI Scaling per NVLink in 4K DX11 bei 3.0 x8 x8 Anbindung abschneidet. In früheren Fällen ging es dann auch schon mal komplett flöten, habe ich gelesen. Beispiel UE4 (Hellblade Custom Bits), gerade auch, wenn noch G-SYNC dazu kam. Siehe Comments (ab 1080 in SLI... made absolutely zero difference.) (https://www.youtube.com/watch?v=UJI9CvtTRx8).

Ex3cut3r
2018-09-03, 16:40:47
Mein Gott, wann kommen denn endlich mal Legit Reviews? Dieser Launch ist einfach nur furchtbar sry. Oder ich bin sehr ungeduldig. :biggrin:

Fragman
2018-09-03, 16:47:10
Gaming Laptops werden recht oft auch als Desktop-Replacement genutzt und als solche mit externen Monitoren... Da wirst du immer Abnehmer finden.

Wenn du so wie ich zB einen zweiten Wohnsitz hast, dann lernst du den Luxus zu schätzen den Laptop an beiden Standorten einfach auf den Tisch zu stellen, Monitor (mit USB Hub) und Strom anzuschliessen und genau da weiter zu machen wo du ihn vorher in der anderen Wohnung zugeklappt hast... Netzteil, Gaming-Maus und Tastatur habe ich doppelt und schleppe sie nicht mit... Für unterwegs hab ich ne kleinere Funkmaus im Rucksack...


das hab ich bis vor kurzem noch so gemacht. allerdings halt auch mit 1080p monitor und aelterem laptop.
ich zieh aber die methode vor, ein mainboard fertig montiert, eine platte und die gfx karte im rollenden koffer hin und her zu fahren. brauchbare gaming laptops sind mir einfach zu teuer mit zu vielen kompromissen. :D

AffenJack
2018-09-03, 16:50:55
Mein Gott, wann kommen denn endlich mal Legit Reviews? Dieser Launch ist einfach nur furchtbar sry. Oder ich bin sehr ungeduldig. :biggrin:

Laut Guru3d haben die Medien noch nichtmal Treiber bekommen, das wird noch etwas dauern. Dementsprechend sollte man auf solche Sachen, wie das Youtube "Review" nix geben.

Troyan
2018-09-03, 16:55:42
14.09 - soll das NDA fallen.

Eventuell gibt es zum Ende der Woche tolle Unboxing-Videos. Irgendwie muss man den Hype ja am Zündeln lassen.

PHuV
2018-09-03, 16:58:02
das hab ich bis vor kurzem noch so gemacht. allerdings halt auch mit 1080p monitor und aelterem laptop.
ich zieh aber die methode vor, ein mainboard fertig montiert, eine platte und die gfx karte im rollenden koffer hin und her zu fahren. brauchbare gaming laptops sind mir einfach zu teuer mit zu vielen kompromissen. :D
Tombman Koffer 2.0? :tongue:

ChaosTM
2018-09-03, 17:26:43
Gaming Laptops sind spätestens seit der 1070(ti) sehr brauchbar. Hab so einen für das Haus meiner Eltern. Spielt alles butterweich in 1080p inclusive G-sync oder Vorzugsweise in 1200p.am alten 24er Dell.
Der leiseste ist er nicht aber mit Kopfhörern kein Problem.

Raff
2018-09-03, 17:31:49
Mein Gott, wann kommen denn endlich mal Legit Reviews? Dieser Launch ist einfach nur furchtbar sry. Oder ich bin sehr ungeduldig. :biggrin:

Ohne Grafikkarte wäre ich das auch. *nachher mit Titan X @ 2 GHz wieder schön witchern wird* :biggrin:

MfG,
Raff

Timbaloo
2018-09-03, 17:40:19
Tja, manchmal hat es seinen Vorzug wenn man praktisch nur alte Schinken zockt (Planetside 2) :D

Ex3cut3r
2018-09-03, 17:45:54
Ohne Grafikkarte wäre ich das auch. *nachher mit Titan X @ 2 GHz wieder schön witchern wird* :biggrin:

MfG,
Raff

Arschloch. :wink: :biggrin:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11789793&postcount=837

Viel Spaß und schönen Feierabend. :smile:

Godmode
2018-09-03, 18:04:31
Ohne Grafikkarte wäre ich das auch. *nachher mit Titan X @ 2 GHz wieder schön witchern wird* :biggrin:

MfG,
Raff

OT:
Da kommt ja vorher Cyberpunk 2077 raus, bis du mal mitn Witcher fertig bist. :biggrin:

Digidi
2018-09-03, 18:06:32
Ganz langsam mein Freund, verlangst du da nicht etwas zuviel? ;D

:facepalm:

TobiWahnKenobi
2018-09-03, 19:04:18
mein evergreen ist ja eher bubble bobble, aber heute früh habe ich auch gewitschert.. brauchte einen frapslauf.. neulich habe ich mich dabei erwischt, wie ich sinnlos durch assassins creed origins geschlichen bin.. meuchelnder weise. komisch dass ich alte hardware immer erst zum spielen verwende, wenn der nachfolger in der post ist *gg* komische welt.


(..)

mfg
tobi

Screemer
2018-09-03, 20:08:19
Die Frage ist, ob da jemand schon Zugriff drauf hat. Wenn ja -> was man runterladen kann, kann man auch kopieren/teilen/verschicken. ;)
Keine Ahnung ob's schon gesagt wurde. Soll ja eher ne Art gfe sein. Die kann dann auch Pakete mit Signierung für einen hw-key ausliefern, die bei anderen nicht läuft.

BigKid
2018-09-03, 23:08:54
Keine Ahnung ob's schon gesagt wurde. Soll ja eher ne Art gfe sein. Die kann dann auch Pakete mit Signierung für einen hw-key ausliefern, die bei anderen nicht läuft.
OT: Dachte grade „Gfe? Girlfriend Experience ? Hardware Key damit mit anderen nix läuft?“
Sorry , nach Müd kommt Blöd...

basix
2018-09-03, 23:20:39
OT: Dachte grade „Gfe? Girlfriend Experience ? Hardware Key damit mit anderen nix läuft?“
Sorry , nach Müd kommt Blöd...

:D;D

Leonidas
2018-09-04, 02:54:38
Dachte grade „Gfe? Girlfriend Experience ? Hardware Key damit mit anderen nix läuft?“


Nannte man früher "Keuschheitsgürtel".

BigKid
2018-09-04, 08:12:18
Nannte man früher "Keuschheitsgürtel".
Sozusagen die Urform des Hardware Dongels.

vinacis_vivids
2018-09-04, 08:36:11
https://www.bitnand.com/product-page/nvidia-geforce-rtx-2080ti-fe
RTX 2080Ti Mining - 69MH/s ETH - 260W Power Consumption
https://www.bitnand.com/product-page/nvidia-geforce-rtx-2080-fe
RTX 2080FE Mining - 56MH/s ETH - 225W Power Consumption
https://www.bitnand.com/product-page/nvidia-geforce-rtx-2070-fe
RTX 2070FE Mining - 42MH/s ETH - 185W Power Consumption

Leonidas
2018-09-04, 08:44:51
Scheinen reine Abschätzungen basierend auf den Rohleistungen zu sein, da man sich an die offiziellen TDPs hält. Die eigene GP104-basierte Lösung macht 35 ETH bei 150 Watt, hochoptimiert sogar 40 ETH bei 135W:
https://www.bitnand.com/product-page/nvidia-p104-100-mining-card

Godmode
2018-09-04, 08:46:47
https://www.bitnand.com/product-page/nvidia-geforce-rtx-2080ti-fe
RTX 2080Ti Mining - 69MH/s ETH - 260W Power Consumption
https://www.bitnand.com/product-page/nvidia-geforce-rtx-2080-fe
RTX 2080FE Mining - 56MH/s ETH - 225W Power Consumption
https://www.bitnand.com/product-page/nvidia-geforce-rtx-2070-fe
RTX 2070FE Mining - 42MH/s ETH - 185W Power Consumption

"Estimated performance with optimized power and clock settings. This is a calculated optimal performance figure based on GDDR6 memory performance and bandwidth. These are not official figures."

260W bei 69 MHash wäre schlecht. Eine optimierte 1070 schafft z.B. bei 100W ca 29-30 MHash.

Daredevil
2018-09-04, 09:30:34
https://www.bitnand.com/product-page/nvidia-geforce-rtx-2080ti-fe
RTX 2080Ti Mining - 69MH/s ETH - 260W Power Consumption
https://www.bitnand.com/product-page/nvidia-geforce-rtx-2080-fe
RTX 2080FE Mining - 56MH/s ETH - 225W Power Consumption
https://www.bitnand.com/product-page/nvidia-geforce-rtx-2070-fe
RTX 2070FE Mining - 42MH/s ETH - 185W Power Consumption
Diese rohen Angaben sind doch total langweilig.
Ne 1080ti presst 55MH/s raus bei ~180w. Wenn wirklich die Rohleistung mehr steigt als die RAM Performance, kann man vielleicht auch von Ethereum auf was anderes umschwenken.

Man optimiert ja nicht nur in Hardware, sondern ebenfalls in Software. Vielleicht kann man ja die anderen Tensor oder RT Cores noch fremdnutzen, das wäre schon nice. Braucht aber bestimmt wieder Monate, bis jemand das "Frei" entwickelt.

Godmode
2018-09-04, 10:20:28
Diese rohen Angaben sind doch total langweilig.
Ne 1080ti presst 55MH/s raus bei ~180w. Wenn wirklich die Rohleistung mehr steigt als die RAM Performance, kann man vielleicht auch von Ethereum auf was anderes umschwenken.

Man optimiert ja nicht nur in Hardware, sondern ebenfalls in Software. Vielleicht kann man ja die anderen Tensor oder RT Cores noch fremdnutzen, das wäre schon nice. Braucht aber bestimmt wieder Monate, bis jemand das "Frei" entwickelt.

Da die Tensor Cores mit Floating Point arbeiten, wird das fürs Hashing eher nichts werden.

Raff
2018-09-04, 10:23:29
Die Tensoren können laut Nvidia Integer-Formate besonders schnell abarbeiten. Aber dazu muss man sie zunächst mal ansprechen (NGX), out-of-the-box werden sie nicht herangezogen.

MfG,
Raff

pixeljetstream
2018-09-04, 10:25:21
Integer wird in dem Fall dann aber afaik auch als 0-1 float interpretiert.

Raff
2018-09-04, 11:21:16
Dann also "nur" 125 TFLOPS? Können die TCs effektiv "haschen", oder nicht? :) Spannend wäre das schon – und fatal für die Lieferbarkeit ...

MfG,
Raff

Godmode
2018-09-04, 11:40:42
IIRC sind die Tensor Cores ja reine Matrizen-Addierer/Multiplizierer und daher eher ungeeignet für Hashing.

mczak
2018-09-04, 16:49:23
Denke auch nicht dass die Tensor-Cores da helfen können. Ist alles Int-Arithmetik, und ausserdem wenn ich das richtig im Kopf habe hilft das rein gar nichts wenn man da mit schmaleren Daten schneller arbeiten kann. Hat man doppelt so breite Register zur Verfügung wird das ganze doppelt so schnell (könnte sogar auch mehr sein...), die Fähigkeit statt 1x32bit z.B. 4x8bit zu verarbeiten ist also komplett für gar nichts.
[edit] Und in der Tat, auch die Matrixmultiplikation die die Tensor-Cores beherrschen dürfte völlig ungeeignet sein. Nur weil man einen Hammer hat heisst das ja nicht dass alles ein Nagel ist :-). Dasselbe gilt natürlich auch für die RT-Cores.
Würde mich nicht wundern wenn Pascal pro Fläche deutlich effizienter fürs Mining ist als Turing. Der verbesserte Dispatch (Int+FP gleichzeitig) bringt ja wohl auch nichts, die vergrösserten Register-Files/Shared Mem vielleicht, da bin ich nicht sicher. Allerdings ist Speicherbandbreite und Latenz doch da immer wichtig (und Cache-Latenz ist viel besser), also vielleicht fürs Mining doch nicht so schlecht geeignet...

Daredevil
2018-09-04, 18:39:10
Es gibt ja nicht nur das eine Mining.
Es gibt Rechenintensive Algorithmen, welche die Speicherbandbreite fressen und auch welche, die einen schnellen Cache haben wollen. Die Programmierer sind da sehr kreativ. :>

Hübie
2018-09-04, 18:43:30
Reine Manöverkritik, bitte nur zum Besten verwenden: Wenn Du die fps-Werte abweichend von Deiner Rechnung inklusive Kommawerten beachtet, kommt eine insgesamte Differenz von 37,5% heraus. Sprich: Nicht auf zwei Kommastellen genaue Differenzen angeben, wenn die Ausgangswerte künstlich ungenau gehalten wurden.

Na gut einigen wir uns auf 37%. Computerbase schreibt von 37,4%. Selbst 40,13% würden das Bild nicht deutlich verbessern. :freak:

Edit: Sagt mal sind TMUs im Grunde nicht auch Matrixmultiplikatoren? :uponder:

mczak
2018-09-04, 22:33:55
Es gibt ja nicht nur das eine Mining.
Es gibt Rechenintensive Algorithmen, welche die Speicherbandbreite fressen und auch welche, die einen schnellen Cache haben wollen. Die Programmierer sind da sehr kreativ. :>
Das ist zweifellos richtig, nur mit den Tensor- und RT-Cores oder auch packed fp16 math wie auch dem gleichzeitigen FP und Int-Dispatch kann wohl keiner etwas anfangen. Da ist dann natürlich Turing im Nachteil gegenüber Pascal (bezogen auf Perf/Fläche oder Perf/Transistor). Die anderen Aenderungen könnten das je nachdem wettmachen, wobei wenn's dann wirklich um rohe Speicherbandbreite geht liegt ein tu104 auch hinter einem gp102.

Leonidas
2018-09-05, 07:10:52
Computerbase schreibt von 37,4%.


Wahrscheinlich wurden da die Einzelwerte gerundet auf nur eine Kommastelle verrechnet. Meine Rechnungen sind natürlich immer "bis ins unendliche" kommagenau, da ich einfach Excel kalkulieren lasse.

SKYNET
2018-09-05, 09:13:04
Wahrscheinlich wurden da die Einzelwerte gerundet auf nur eine Kommastelle verrechnet. Meine Rechnungen sind natürlich immer "bis ins unendliche" kommagenau, da ich einfach Excel kalkulieren lasse.


spalter :tongue:

bei sowas rechne ich nichtmal bis zur ersten komma stelle, da wird alles auf ganze zahlen gerundet und fertig. :smile:

Tobalt
2018-09-05, 12:06:37
Hübie:

zu Tensor Units (Halbwissen):

man kann eine "matrixmultiplikation" ja schlecht als hardware designen, da immer matrizen verschiedener Größe gebraucht werden.

die zugrundeliegenden Operationen von convolutions und matrix krams sind aber oft MADDs. Davon haben GPUs zwar auch gut, aber Tensor units bieten mehr pro Fläche und watt weil sie auf Präzision verzichten. das wiederum macht sie eher sinnlos für shading weil dafür etwas mehr Präzision nötig ist.

kann mir aber gut vorstellen dass teile des renderings auch gut mit niedriger Präzision funktionieren und künftig auf TUs gestellt werden.

ps: ein Experte möge mich ggf berichtigen ;-)

Schnoesel
2018-09-05, 12:08:07
Laut Tom Petersen, Director of Technical Marketing bei Nvidia, sollen die Boardpartner die Einstiegspreise noch erreichen, aber nicht unbedingt zur Veröffentlichung diesen Monat (beziehungsweise Oktober im Falle der RTX 2070).

http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Nvidia-RTX-2070-Preise-Veroeffentlichung-1264411/

Lockpreise bei der Präsentation? Sagt bloß...

dildo4u
2018-09-05, 12:10:34
Ich finde diese Kommentare Lustig da du eine der teuersten 1080 TI überhaupt im Rechner hast.

pixeljetstream
2018-09-05, 12:12:03
Die Tensor cores sind auf feste Matrixgröße ausgelegt, 4x4.

Troyan
2018-09-05, 12:13:47
Jeder bei Geizhals kann die realen Preise sehen. Hat nichts mit Lockpreise zu tun, da man die Karte für UVP nicht bestellen kann.

Tobalt
2018-09-05, 12:27:38
Die Tensor cores sind auf feste Matrix Größe ausgelegt, 4x4.
Ist das eine Spezialität der nvidia Tensor Units auf ihren Grafikkarten oder gilt das auch für andere ASICs, die sich Tensor Beschleuniger nennen (wie zB google) ? Falls ja, was ist der Hintergrund für diese spezielle Matrixgröße ?

Schnoesel
2018-09-05, 12:30:30
Eine der teuersten 1080 Ti hat mich 720€ gekostet. Ich denke mit Turing release war das sogar ein echter Schnapper.

Soviel zu den geschönten Märchenpreisen.

Tesseract
2018-09-05, 12:57:25
Ist das eine Spezialität der nvidia Tensor Units auf ihren Grafikkarten oder gilt das auch für andere ASICs, die sich Tensor Beschleuniger nennen (wie zB google) ? Falls ja, was ist der Hintergrund für diese spezielle Matrixgröße ?

4x4 ist die größe der matrizen für 3D-transformationen aber kA ob es da einen zusammenhang gibt.

PHuV
2018-09-05, 12:59:48
Watt jetzt? :eek:
NVIDIA GeForce RTX 2080 reviews go live on September 17th (https://videocardz.com/newz/nvidia-geforce-rtx-2080-reviews-go-live-on-september-17th)
We previously reported that NVIDIA GeForce RTX reviews will go live on September 14th. Turns out that was incorrect. There is indeed an embargo ending on September 14th but is only for Turing architecture details, basically the stuff that was presented at the Editors’ Day.

The reviews will be available on September 17th, but only reviews of GeForce RTX 2080 graphics cards. The RTX 2080 Ti reviews will go live two days later, a day before the preorders end, which is September 19th.

The good news is that reviews of both Founders Edition and AIB cards will be published on the same day.

Most reviewers will get their samples next week.

GeForce RTX NDA dates:

September 14th — Turing architecture
September 17th — GeForce RTX 2080 reviews
September 19th — GeForce RTX 2080 Ti reviews
Braucht Nvidia noch mehr Zeit, um an den Treibern zu manipulieren optimieren?

Dural
2018-09-05, 13:05:38
Sieht doch gut aus, vor allem zeigt das auch das die 2080 schon schneller als die 1080ti ist. Sonst würde man zuerst die ti oder beide zusammen zulassen.

Fragman
2018-09-05, 13:06:07
Eine der teuersten 1080 Ti hat mich 720€ gekostet. Ich denke mit Turing release war das sogar ein echter Schnapper.

Soviel zu den geschönten Märchenpreisen.

die karte ist heute nicht zu mehr haben wie es aussieht, die version unter deiner kostet ab 819 euro aktuell. und dann wird hier ueber den preis gemeckert. :rolleyes:

Daredevil
2018-09-05, 13:07:07
Du bist echt jetzt davon überrascht, dass man das ganze Scheibchenweise macht und nicht direkt einen 40 Seiten Test präsentiert bekommt? ^^
Hype baut man halt von Zeit zu Zeit auf.

dildo4u
2018-09-05, 13:11:15
die karte ist heute nicht zu mehr haben wie es aussieht, die version unter deiner kostet ab 819 euro aktuell. und dann wird hier ueber den preis gemeckert. :rolleyes:
Alle guten Custom 1080 Ti liegen um 800€.Absoluter Blödsinn die 1080 Ti als Preis Leistung/Karte hinzustellen.Eine 2080 für 850 wäre schon besser wenn sie nur 10% zulegt.

Fragman
2018-09-05, 13:18:38
Alle guten Custom 1080 Ti liegen um 800€.Absoluter Blödsinn die 1080 Ti als Preis Leistung/Karte hinzustellen.Eine 2080 für 850 wäre schon besser wenn sie nur 10% zulegt.

ja eben, nur einige hier sind ja der meinung, die 1080Ti war ein schnapper gegen die neue TI. in welchen preisregionen hier einige einen "schnapper" sehen, ist schon interessant. gleichzeitig wird dann ueber die preise geheult.

btw, zumindest die eine asus version der 2080 ist auf unter 800 runter:
https://www.mediamarkt.de/de/product/_asus-geforce-rtx-2080-o8g-dual-2467199.html

unl34shed
2018-09-05, 13:19:50
Alle guten Custom 1080 Ti liegen um 800€.Absoluter Blödsinn die 1080 Ti als Preis Leistung/Karte hinzustellen.Eine 2080 für 850 wäre schon besser wenn sie nur 10% zulegt.

Aber nur wenn es keine neue Generation wäre ;)

gbm31
2018-09-05, 13:40:30
Alle guten Custom 1080 Ti liegen um 800€.Absoluter Blödsinn die 1080 Ti als Preis Leistung/Karte hinzustellen.Eine 2080 für 850 wäre schon besser wenn sie nur 10% zulegt.


Echt jetzt?

Die 2080 löst die 1080 ab und sollte Pi mal Daumen auch preislich da liegen!

SKYNET
2018-09-05, 14:19:30
Echt jetzt?

Die 2080 löst die 1080 ab und sollte Pi mal Daumen auch preislich da liegen!

die 1080 war UVP 789€ bei erscheinen... also sooooviel billiger war die nicht, einzig die 1080 Ti war VIEL billiger bei erscheinen... 1259€*für die 2080 Ti FE, wärend die 1080 Ti FE nur 819€ gekostet hat.

heisst dadurch das die Ti grad mit rausgehauen wurde, hat man nicht die 2080 nach unten im preis korrigiert wie es bei pascal gemacht wurde, sondern im preis belassen und die Ti einfach teurer gemacht. :mad:

Tesseract
2018-09-05, 14:28:59
Eine 2080 für 850 wäre schon besser wenn sie nur 10% zulegt.

nie im leben liegt die 2080 in klassischen workloads 10% vor der 1080Ti wenn schon tom peterson (https://www.youtube.com/watch?v=YNnDRtZ_ODM&t=26m43s) von nvidia sagt dass sie "in some cases" schneller sei und dass die 2080Ti etwa 35-45% vor der 1080Ti liegt bei ~48% rohleistungsunterschied zwischen 2080 und 2080Ti am papier.

cR@b
2018-09-05, 14:30:43
Naja man muss dazu sagen, dass kurz nach der 1080 die Titan X(P) folgte. Die lag bei 1200.- rum. Die 1080 Ti kam dann wesentlich später, was aufgrund des Titan Release zusätzlich nochmal zum Preis der 1080 Ti beigetragen hat.

unl34shed
2018-09-05, 14:51:43
die 1080 war UVP 789€ bei erscheinen... also sooooviel billiger war die nicht, einzig die 1080 Ti war VIEL billiger bei erscheinen... 1259€*für die 2080 Ti FE, wärend die 1080 Ti FE nur 819€ gekostet hat.

heisst dadurch das die Ti grad mit rausgehauen wurde, hat man nicht die 2080 nach unten im preis korrigiert wie es bei pascal gemacht wurde, sondern im preis belassen und die Ti einfach teurer gemacht. :mad:

Und die 980 hat 550$ zum Release gekostet.

Die 1080 war doch genauso eine Verarsche mit der Preiserhöhung. Immerhin haben da noch einige gedacht es kommt keine ti und daher wäre der Preis so hoch... Bis sie dann doch kam.

cR@b
2018-09-05, 16:19:17
Und die 980 hat 550$ zum Release gekostet.

Die 1080 war doch genauso eine Verarsche mit der Preiserhöhung. Immerhin haben da noch einige gedacht es kommt keine ti und daher wäre der Preis so hoch... Bis sie dann doch kam.

Jop stimmt... genau genommen hat das mit der 680 alles angefangen für low Chips dicke Preise zu verlangen.

Raff
2018-09-05, 16:24:55
Hat nun mal funktioniert. Das nennt man heutzutage "Fail". Der Käufer. Uns geht's halt zu gut. Und das ist gut. Oder?

MfG,
Raff

unl34shed
2018-09-05, 16:46:58
Ja aber nur weil es uns gut geht soll man sich darüber freuen, dass man alle Nase lang verarscht wird? Ist doch etwas masochistisch...

MadPenguin
2018-09-05, 17:02:33
So lange Käufer zu finden sind, wird Nvidia und jede andere Firma die Preise bestimmen können und so viel verlangen wie sie wollen. Der Markt bestimmt. Ganz egal, ob wir die Käufer als Masochisten, Vollkoffer, etc. betiteln.

robbitop
2018-09-05, 17:43:08
Naja aber es wird wirklich immer schlimmer. Wird Zeit, dass AMD und/oder Intel wieder mitmischen.

Vor ner Weile gabs alle 18 Monate Highend Chips (also keine 104er Midrange) mit 70-100% Mehrleistung für vergleichbaren Preis.

Dass die Kosten pro Wafer und für RnD steigen ist klar - aber keder sieht, was NV für Margen holen kann (ist ja öffentlich einsehbar). Ist auch richtig so aus marktwirtschaftlicher Sicht - aber es fehlt halt der Wettbewerb, der die Preisbildung nunmal signifikant beeinflusst.

1250€ für eine Karte, die nur grob 40% schneller ist als eine Karte, die 1,5 Jahre alt ist und es 2017 für rund 700€ gab? Empfinde ich als etwas „fettig“. Kaufen muss es natürlich niemand.

Tesseract
2018-09-05, 18:12:56
1250€ für eine Karte, die nur grob 40% schneller ist als eine Karte, die 1,5 Jahre alt ist und es 2017 für rund 700€ gab?

der FP32-teil ist ~40% schneller, der chip als ganzes natürlich wesentlich mehr. ob die strategie richtig war wird sich zeigen, aber bekommen tut man deutlich mehr als +40%, das muss man ehrlicherweise dazu sagen.

pixeljetstream
2018-09-05, 18:43:16
Laut offiziellen Tflops Angaben sind es keine 40% sondern 23%

ChaosTM
2018-09-05, 19:19:13
BS bereinigt werden 25-30 % überbleiben. Damit mein ich OC 1080TI vs OC 2800TI.

Captain Future
2018-09-05, 19:20:05
Echt jetzt?

Die 2080 löst die 1080 ab und sollte Pi mal Daumen auch preislich da liegen!
Ist doch nurn Hunndi mehr

Tesseract
2018-09-05, 19:22:31
laut tom peterson soll das performanceplus in realen spielen um die 40% liegen. allerdings bezieht der sich wahrscheinlich auf FE vs. FE weil nvidia offiziell immer so tut als würden customs nicht existieren. die 1080Ti FE wurde durch den DHE-kühler ja ziemlich verkrüppelt. für belastbare zahlen muss man natürlich auf 3rd party reviews warten.

Locuza
2018-09-05, 19:26:37
Endlich mal direkte Informationen, welche die Umstände etwas weiter belichten.
Das fühlt sich dann immer wie Balsam für die Seele an:
GeForce RTX owners should get the option to turn ray tracing off. However, there is no DXR (DirectX Ray Tracing) fallback path for emulating the technology in software on non-RTX graphics cards. And when AMD comes up with its own DXR-capable GPU, DICE will need to go back and re-tune Battlefield V to support it.

Holmquist clarifies, “…we only talk with DXR. Because we have been running only Nvidia hardware, we know that we have optimized for that hardware. We’re also using certain features in the compiler with intrinsics, so there is a dependency. That can be resolved as we get hardware from another potential manufacturer. But as we tune for a specific piece of hardware, dependencies do start to go in, and we’d need another piece of hardware in order to re-tune.”
https://www.tomshardware.com/news/battlefield-v-ray-tracing,37732.html

Also ohne explizite Einbindung von jedem Hersteller läuft es wohl nicht.
Im worst case wird es etliche Spiele geben, wo Raytracing Nvidia exklusiv verbleibt und nie nachgepatched wird.

Linmoum
2018-09-05, 20:11:20
Also vieles, was man bisher gezeigt bekommen hat, direkt für die Tonne und nichts weiter als reine Tech Demos. Bei Ubisoft würde man jetzt aus jeder Ecke 'ne "DOWNGRADE!!!11einself"-Diskussion starten. Performance von Turing reicht nicht bzw. es ist nicht performant genug damit. Wow, wie unvorhersehbar nach den SotTR-Szenen. 7nm sind nicht mehr ewig entfernt, hätte man lieber dann mit RT um die Ecke kommen sollen.

Und wenn man sieht, wie DX12 aktuell (jaja, Beta) in BFV läuft... Das ist alles schon extrem suboptimal.

Godmode
2018-09-05, 20:18:31
Wie ja viele sagten, wird es wohl noch 2-3 Generationen dauern, bis Echtzeit-Raytracing wirklich brauchbar und schnell ist. Man soll sich von solchen Präsentationen einfach nicht blenden lassen. Ich warte ganz gelassen mal die Tests ab, dann sehen wir weiter.

Linmoum
2018-09-05, 20:29:13
Bisschen ernüchternd ist das aber alles schon. Dass das noch Zeit braucht, keine Frage. Dass DICE jetzt aber sogar an der Performance-Schraube dreht, weil die ansonsten scheinbar nicht optimal ist, das von Locuza zitierte... Naja.

Aber gut, sie haben es jetzt noch in 12nm statt 7nm durchgezogen und das ist dann halt so.

reallord
2018-09-05, 20:36:02
Ist das nich auch so ein wenig Henne/Ei Problem? Wenn nVidia das erst in 7nm umgesetzt hätte, dann würden die SoftwareDevs auch eben erst später sich damit auseinandersetzen.

ChaosTM
2018-09-05, 20:40:28
Irgenwann mussten sie ja anfangen. Der Zeitpunkt ist imho gar nicht schlecht gewählt - wenig Konkurrenz.
Und natürlich wird es noch ein paar Generationen dauern, bis das halbwegs vernünftig verwendbar ist.

robbitop
2018-09-05, 20:41:15
der FP32-teil ist ~40% schneller, der chip als ganzes natürlich wesentlich mehr. ob die strategie richtig war wird sich zeigen, aber bekommen tut man deutlich mehr als +40%, das muss man ehrlicherweise dazu sagen.

Ja das stimmt. Wenn man aber vom hier-und-jetzt ausgeht, ist das nunmal der relevante Teil.

Bösewicht
2018-09-05, 20:56:12
ja eben, nur einige hier sind ja der meinung, die 1080Ti war ein schnapper gegen die neue TI. in welchen preisregionen hier einige einen "schnapper" sehen, ist schon interessant. gleichzeitig wird dann ueber die preise geheult.

This is germany
wir sind halt eine unkomische mecker kultur:biggrin:

=Floi=
2018-09-05, 21:10:20
Alle guten Custom 1080 Ti liegen um 800€.Absoluter Blödsinn die 1080 Ti als Preis Leistung/Karte hinzustellen.Eine 2080 für 850 wäre schon besser wenn sie nur 10% zulegt.

dank den 8gb fährt man mit der 2080er schlechter. die hällt nie so lange wie die alte karte. So bitter das ganze ist.

Platos
2018-09-05, 22:35:12
Naja, jeder selber Schuld, wenn er dann rum jammert. Dass die neuen Karten ohne Nutzung von RT und Tensorcores schlecht sind, ist ja jetzt langsam durch.

=Floi=
2018-09-05, 22:39:50
schlecht sind sie von der performance her sicher nicht!

robbitop
2018-09-05, 23:47:56
Für eine neue Gen aber wohl auch nicht überragend, wenn es stimmt, dass es nur 40% (oder gar weniger) ggü gp102 sind...

SKYNET
2018-09-06, 00:02:22
dank den 8gb fährt man mit der 2080er schlechter. die hällt nie so lange wie die alte karte. So bitter das ganze ist.

wars nicht FFXV wo man sogar die 11GB der 1080Ti voll ausnutzen kann? :biggrin:

da pfeift ne 2080 dann ordentlich aus dem letzten loch bei maximalen texturen. ;D

gravitationsfeld
2018-09-06, 03:10:36
Für eine neue Gen aber wohl auch nicht überragend, wenn es stimmt, dass es nur 40% (oder gar weniger) ggü gp102 sind...
Fuer ~20% mehr Rohleistung? Finde das ziemlich beachtlich.

vinacis_vivids
2018-09-06, 04:28:18
2080Ti - 4532SP ~ 1635Mhz ~ 14,82Tflops
1080Ti - 3584SP ~ 1582Mhz ~ 11,34Tflops

Es sind ~ 30% mehr Rohleistung bei ~ 37,5% mehr fps. Kann auch sein, dass der neue Kühler ~1700Mhz@UHD schafft. Das wären dann ~ 36% mehr Rohleistung (15,41Tflops) bei ~ 37,5% mehr fps.

crux2005
2018-09-06, 04:55:35
Achso. Es gibt schon seriöse Reviews der RTX 2080 Ti. Wusste ich nicht. :popcorn: