Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
Adam D.
2018-09-18, 07:50:34
Man kann also davon ausgehen dass die Reviewer im Augenblick alle handverlesene golden samples haben.
Greetz
US
:freak: Das hat es ja noch nie zuvor gegeben - alles neu mit Turing, wow!
robbitop
2018-09-18, 07:51:45
Das sind die Nachteile von Monopolen. Hohe Preise und solche Dinge (verklebter Kühler, Verbot von WerksOC bei günstigen Partnerkarten, Vorselektierung, GPP etcpp). Intel kann IMO nicht früh genug dazustoßen.
horn 12
2018-09-18, 07:54:40
Dies alles lässt wohl etliche Vorbestellungen in eine Stornierung Übergehen.
Bravo NV !!
dildo4u
2018-09-18, 07:55:22
Man kann also davon ausgehen dass die Reviewer im Augenblick alle handverlesene golden samples haben.
Greetz
US
Die FE Karten nutzen immer den OC Chip,daher der Aufpreis und der höhere Takt.Bei Pascal haste gerne mal Trash Chips auf Karten mit teuren Monster Kühlern bekommen,so gibt es immer eine OC Garantie.
https://farm2.staticflickr.com/1883/44035709754_35ac910c7d_o.png (https://flic.kr/p/2a6hwk5)2080ti (https://flic.kr/p/2a6hwk5) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
4Fighting
2018-09-18, 08:07:31
Da sich die Preise bis dato nicht wirklich unterscheiden zwischen A und non-A Varianten, bin ich froh über die Zusatzinfo, dass auf der Platine kein Graupen-Chip ist.
=Floi=
2018-09-18, 08:35:28
Das sind die Nachteile von Monopolen. Hohe Preise und solche Dinge (verklebter Kühler, Verbot von WerksOC bei günstigen Partnerkarten, Vorselektierung, GPP etcpp).
AMD könnte solche monolithischen dice natürlich günstiger anbieten. :rolleyes:
Hätten wir wettbewerb, gäbe es solche karten wahrscheinlich gar nicht und wir hätten billigen crap. Werks oc belastet auch die karten mehr. Es gibt genug schadfälle, wo das standard pcb nicht ausreichte oder einfach ein bios einer custom drübergeflashed wurde.
Man sollte auch mal die kirche im dorf lassen und nicht nur drauf losbashen.
oldgamer
2018-09-18, 08:44:14
Das Binning-Thema ist etwas speziell, es wird eher darauf ankommen wie die AIBs mit der Situation umgehen und ob die offen kommunizieren welche Chips verbaut sind.
Wenn sie klar den verwendeten Chip nennen haben wir die gleiche Situation wie bei der AMD RX580 mit Ihren XTX und XTR-Chips und das ist auch i.O. weil alles transparent ist welchen Chip man bekommt.
Legen die AIBs die Infos nicht offen, dann ist es problematisch.
chiller
2018-09-18, 08:46:32
Asus ROG Strix RTX 2080 Ti will cost about 20% more than the rest of the Asus Ti’s. (https://www.reddit.com/r/nvidia/comments/9fao6w/asus_rog_strix_rtx_2080_ti_will_cost_about_20/)
>1500€ für eine Strix ;D
Sollte es nicht 3 Binning-Stufen geben? Ich glaub eher, dass NV bestimmte Chips locken wird, sodass man die gar nicht übertakten kann, sonst macht der zusätzliche Treibereintrag kaum Sinn.
Und wer sagt, dass die OC-Chips auf den FEs übertaktbar sind? Das kann völlig unabhängig davon verlaufen. Es kann zum Beispiel sein, dass die mittleren OC-Chips auf den FEs sind und nur die ganz guten übertaktbar sind, die dann eben einen eigenen Treibereintrag haben, beispielsweise dann eben nur hier:
Asus ROG Strix RTX 2080 Ti will cost about 20% more than the rest of the Asus Ti’s. (https://www.reddit.com/r/nvidia/comments/9fao6w/asus_rog_strix_rtx_2080_ti_will_cost_about_20/)
Ich wär da sehr vorsichtig bei solchen Lösungen.
robbitop
2018-09-18, 09:08:11
AMD könnte solche monolithischen dice natürlich günstiger anbieten. :rolleyes:
Hätten wir wettbewerb, gäbe es solche karten wahrscheinlich gar nicht und wir hätten billigen crap. Werks oc belastet auch die karten mehr. Es gibt genug schadfälle, wo das standard pcb nicht ausreichte oder einfach ein bios einer custom drübergeflashed wurde.
Man sollte auch mal die kirche im dorf lassen und nicht nur drauf losbashen.
Bitte zwischen These inkl Argument und bashing unterscheiden. Außerdem habe ich AMD nicht erwähnt.
Die Dinge, die NV seit kurzem zeigt (gpp, Verbot von werks oc, prebinning) sind allesamt harte Fakten und für den Konsumenten nicht unbedingt positiv. Das ist kein bashing sondern eine Aussage zur Situation.
Was die Kosten angeht: schaue dir im aktuellen Quartalsbericht die Gewinnspannen an. Die sind astronomisch. Ist auch ein Fakt.Kein bashing.
Dass NV unter diesen Umständen betriebswirtschaftlich alles richtig macht (Gewinnmaximierung), sollte klar sein. Würde jedes Unternehmen machen. Alles richtig gemacht.
Das Produkt Turing kritisiere ich auch nicht. Kein bashing. Das Produkt ist mutig und innovativ. Ohne Frage.
Eines ist jedoch Fakt: Wettbewerb führt dazu, dass Preis/Leistung steigt. Aber natürlich nur, wenn es keine Preisabsprachen gibt und mehrere Wettbewerber ähnlich stark sind.
Für den Konsumenten (also uns) ist Wettbewerb immer das beste. (Zuletzt sah man wie sehr Preis/Leistung im CPU Bereich - insbesondere bei hedt - besser geworden ist).
Als objektiver Konsument sollte einem Wettbewerb immer am Herzen liegen, Was gar nicht sinnvoll ist, ist eine emotionale Bindung zu einer Firma. Der objektive Konsument kauft nach Erfüllung von selbst festgelegten Kriterien eines Produktes.
4Fighting
2018-09-18, 09:11:44
Das Binning-Thema ist etwas speziell, es wird eher darauf ankommen wie die AIBs mit der Situation umgehen und ob die offen kommunizieren welche Chips verbaut sind.
Spätestens bei den Taktraten sieht man nun, was verbaut ist und diese sind ja idR auf der Verpackung oder eben beim Hersteller gelistet. Ist der Boost nur mit 1545 angegeben, ist es kein A-Chip.
Scheinbar wissen die Hersteller aber selbst noch nicht, wie sie damit umgehen sollen. Denn bei vielen auf der Homepage sind oftmals noch TBD-Angaben beim Takt zu finden.
SKYNET
2018-09-18, 09:13:18
Das sind die Nachteile von Monopolen. Hohe Preise und solche Dinge (verklebter Kühler, Verbot von WerksOC bei günstigen Partnerkarten, Vorselektierung, GPP etcpp). Intel kann IMO nicht früh genug dazustoßen.
alles dinge die ich intel auch zutrauen würde... :freak:
Fliwatut
2018-09-18, 09:41:28
Da sich die Preise bis dato nicht wirklich unterscheiden zwischen A und non-A Varianten, bin ich froh über die Zusatzinfo, dass auf der Platine kein Graupen-Chip ist.
Wie findet man das vor dem Kauf heraus?
Eines ist jedoch Fakt: Wettbewerb führt dazu, dass Preis/Leistung steigt.
Andersrum wäre es besser, Leistung/Preis sollte steigen :wink:
Der Kühler ist laut NV nicht verklebt, sondern final eingepresst, super schlaue Lösung. Nicht.
4Fighting
2018-09-18, 09:45:59
Wie findet man das vor dem Kauf heraus?
Mein Verständnis: Schauen, ob die Karte über 1545 gem. Herstellerangabe garantiert boostet.
D.h. natürlich weiterhin nicht, dass man einen goldenen Chip bekommt, wenn man die A-Variante erhält;)
Fliwatut
2018-09-18, 09:47:05
Mein Verständnis: Schauen, ob die Karte über 1545 gem. Herstellerangabe garantiert boostet.
Ja, sobald das veröffentlicht wird, im Moment weiß man ja noch gar nix.
4Fighting
2018-09-18, 09:51:57
Ja, sobald das veröffentlicht wird, im Moment weiß man ja noch gar nix.
Einige Hersteller haben da schon Angaben zu gemacht :)
SKYNET
2018-09-18, 09:52:45
Mein Verständnis: Schauen, ob die Karte über 1545 gem. Herstellerangabe garantiert boostet.
D.h. natürlich weiterhin nicht, dass man einen goldenen Chip bekommt, wenn man die A-Variante erhält;)
ich verwette meinen arsch drauf, das die RICHTIG "goldenen" chips, alle bei den testredaktionen gelandet sind ;D
Rancor
2018-09-18, 09:58:15
Dies alles lässt wohl etliche Vorbestellungen in eine Stornierung Übergehen.
Bravo NV !!
Leider wird das nicht passieren...
robbitop
2018-09-18, 10:00:33
alles dinge die ich intel auch zutrauen würde... :freak:
Dinge, die jeder Firma macht, wenn sie ganz oben ist und kaum Wettbewerb herrscht. ;) Firmen sind nicht gut oder böse. Firmen sind keine Individuen.
Andersrum wäre es besser, Leistung/Preis sollte steigen :wink:
Danke für die Wortklauberei. ;)
SKYNET
2018-09-18, 10:03:44
Dinge, die jeder Firma macht, wenn sie ganz oben ist und kaum Wettbewerb herrscht. ;) Firmen sind nicht gut oder böse. Firmen sind keine Individuen.
gibt auch grosse firmen, die sich nicht arschig verhalten... aber das ist nen anderes thema was hier nur bedingt platz hat ;)
4Fighting
2018-09-18, 10:05:08
ich verwette meinen arsch drauf, das die RICHTIG "goldenen" chips, alle bei den testredaktionen gelandet sind ;D
Dort landen sicherlich gute Chips, aber das ist nun nichts neues :confused:
monstar-x
2018-09-18, 10:08:18
ich verwette meinen arsch drauf, das die RICHTIG "goldenen" chips, alle bei den testredaktionen gelandet sind ;D
Ja die haben dann nicht nur TU102-400A sondern TU102-400AAA ;D
Die werden schon besonders vorselektiert sein, mit sehr guter Übertraktbarkeit, da kannste einen drauf lassen.
Einfach 5% abziehen und schon passt es für die Masse.
Dural
2018-09-18, 10:48:04
Ich gebe es auf, was hier zum teil geschrieben wird ist einfach nur noch zum an den Kopf fassen :rolleyes:
Bei einigen Kommentaren merkt man auch sofort das da null wissen in Sachen Overclocking vorhanden ist. Aber Hauptsache man will gross mitreden :rolleyes:
Mir kommt das hier vor, als alle einen Turing haben möchten aber es einfach zu teuer ist. Man klammert sich an jeden so kleinen Strohhalm um dann sagen zu können: ist halt doch nicht so gut. :freak:
EDIT:
Was ist eigentlich die Begründung das Spezielle Overclocking Chips einen eigenen Eintrag im Treiber haben? Da bin ich mal gespannt ;D
SKYNET
2018-09-18, 10:48:55
Dort landen sicherlich gute Chips, aber das ist nun nichts neues :confused:
naja, die FE karten für die redaktionen bis einschliesslich pascal, waren niemals besonders, da gabs welche die waren scheisse und welche die waren top, siliziumlotterie halt, nun isses aber keine lotterie mehr, sondern man kann für aufpreis vorweg besser selektierte karten haben... das war sonst nur einzelnen herstellern vorbehalten die intern eigenes binning gemacht haben(zotac & evga zb.)
SKYNET
2018-09-18, 10:50:01
Bei einigen Kommentaren merkt man auch sofort das da null wissen in Sachen Overclocking vorhanden ist.
was du natürlich hast :rolleyes:
dargo
2018-09-18, 10:57:39
naja, die FE karten für die redaktionen bis einschliesslich pascal, waren niemals besonders, da gabs welche die waren scheisse und welche die waren top, siliziumlotterie halt, nun isses aber keine lotterie mehr, sondern man kann für aufpreis vorweg besser selektierte karten haben... das war sonst nur einzelnen herstellern vorbehalten die intern eigenes binning gemacht haben(zotac & evga zb.)
Ich sehe hier langsam Parallelen zu K-Prozessoren von Intel. :uponder:
JuergenH
2018-09-18, 11:08:23
Werden eigentlich von NVIDIA irgendwo die zu den RT-Cores gehörenden Special Function Units
(SFU) näher erläutert?
Sind das eigene, von den Int32/Int64 unabhängige cores?
In dem Turing-Whitepaper bin ich, außer auf S. 30 unten, nicht weiter fündig geworden. Andere Webseiten (ich habe nicht alle durchforstet) liefern, wenn überhaupt, nur eine allgemeine Beschreibung der SFUs.
Dural
2018-09-18, 11:08:50
Wie ich schon gesagt habe, ich habe in meinen Leben schon hunderte Grafikkarte Übertaktet, zum Teil sogar Semipro. und auch mit LN2.
Und JEDER der etwas Ahnung davon hat, weis das ein Herstellerseitiges Binning auch mal gar nichts in Sachen Takt bedeuten muss. Jeder Chip reagiert unterschiedlich auf Temperatur und Spannung.
Beim Binning geht es in erster Linie darum ob Chip A die Parameter für Grafikkarte B erfüllt, und das zu jederzeit stabil. Alles andere wird in der Grossserie nicht getestet.
Und wie ich jetzt schon dreimal hier vermutet habe geht es NV wahrscheinlich einfach darum die Qualität zu sichern, ich vermutet das Turing relativ sensibel ist, was bei diesen grossen Die und den vielen Einheiten auch nicht verwunderlich ist. Wir reden da von einen 750mm2 Chip der +/- gleich viel Strom benötigt wie sein 470mm2 Vorgänger.
Die Testseite/Newsseiten sollten lieber mal bei NV Nachfragen anstelle irgend welche Vermutungen in die Welt zusetzten. NV wird sicher eine Antwort geben.
Schnoesel
2018-09-18, 11:15:18
Sicher Nvidia ist ja für seine Transparenz bekannt, schließlich haben sie von sich aus selbst das mit dem Binning ausgeplaudert oder was hinter dem Speicher der 970 steckt oder ... oh wait... :biggrin:
SKYNET
2018-09-18, 11:52:52
Ich sehe hier langsam Parallelen zu K-Prozessoren von Intel. :uponder:
ne, das ist wieder apfle vs. birne, beim einen wird der offene multi absichtlich gepserrt, dem anderen lässt man offen für aufpreis.
wäre so als wären die taktraten bei ner 2080 gelockt und erst wenn du 100€ mehr zahlst, isser offen. :freak:
mironicus
2018-09-18, 12:14:17
Mit dem Binning treibt NVidia die Preise noch weiter nach oben. Eine 2080 Ti für 1500 Euro ist damit in greifbarer Nähe gerückt.
dildo4u
2018-09-18, 12:31:53
Die FE war schon bei Pascal teurer als die Customs nur bekommste diesmal garantiert gute Chips.
1080 FE startete für 790€ mit Blower Kühler und Chip Lotterie.
http://www.pcgameshardware.de/Pascal-Codename-265448/News/Geforce-GTX-1080-Preis-Founders-Edition-1195823/
oldgamer
2018-09-18, 12:33:38
Die Preisunterschiede wie der kolportierte extreme Preis der Asus Strix hat damit aber nichts zu tun, denn der A-Chip steckt auch in der FE und die kostet "nur" ~1260€.
Und der Vergleich mit Intel und den K-Chips hinkt extrem.
Wenn schon muss man ganz klar und deutlich sagen dass AMD und Intel uns das Binning bereits seit Jahren praktizieren. Ein 2700X oder 8700K ist nicht speziell als solcher gefertigt, sondern wird einfach nur selektiert.
Das mit dem Binning ist bei NV neu, das ist klar.
Bei AMD war der Aufschrei bei der RX580 aber weitaus leiser als jetzt bei NV.
Wenn die AIBs wirklich die Karten der Non-A-Variante nicht werksseitig übertaktet angeben dürfen, dann wird man die A-Karten wirklich sehr flott identifizieren können weil Ihr Boost-Takt niedriger ist als bei der FE.
Die "Gurken" werden also leicht zu identifizieren sein, in den As werden sich die Karten weiterhin unterscheiden, nur eben nicht mehr so weit nach unten streuen.
Völlig abgesehen von der ganzen Preis, Binning usw Diskussion ist Turing mMn eine extrem interessante Generation, NV hat da viel reingepackt und wirklich neues gebracht.
Pascal war nicht mehr als eine leichte Modifikation von Maxwell, mit Pascal ziehen jetzt neue Einheiten auf die GPU, es gibt neue Techniken die bestimmte Workflows beschleunigen usw.
Und bei NV mache ich mir weniger Sorgen dass neue Features dann von den Entwicklern nicht genutzt werden, sondern glaube dass die Karten mit der Zeit sogar noch etwas zulegen werden.
TurricanM3
2018-09-18, 13:39:30
Bez. Overclocking bin ich mal gespannt was die besseren Chips überhaupt an Mehrtakt schaffen. Wenn das nur 80MHz oder sowas sind, kann man da eh fast drauf pfeifen. Anfangs hatte ich meine letzte Karte auch noch an der "Kotzgrenze" laufen, aber dann irgendwann einfach @2GHz undervoltet gelassen. Die Spulengeräusche sind da auch erträglicher.
NVidia hat mich als Kunden aber sowieso verloren, da man den Kühler zum Säubern nicht in alle 327 Einzelteile zerlegen kann. Völlig indiskutabel, das lasse ich mir natürlich nicht bieten.
Edgecrusher86
2018-09-18, 14:05:27
Per Twitter (https://twitter.com/VideoCardz/status/1042009428642414592) vor knapp einer Stunde:
NVIDIA has confirmed (to reviewers) that Turing cards have an issue with idle power usage.
Apparently it is higher than Pascal cards.
A fix is in the works.
SKYNET
2018-09-18, 14:06:06
NVidia hat mich als Kunden aber sowieso verloren, da man den Kühler zum Säubern nicht in alle 327 Einzelteile zerlegen kann. Völlig indiskutabel, das lasse ich mir natürlich nicht bieten.
problem ist eher das es nen einwegkühler ist, wenn die lüfter die beine strecken, kannst den ganzen kühler rauchen... und staub rausputzen macht sicherlich auch meeeega fun bei dem ding X-D
aufkrawall
2018-09-18, 14:09:32
Ich hab noch jede Grafikkarte durch Reinpusten sauber gekriegt. ;)
SKYNET
2018-09-18, 14:13:50
Per Twitter (https://twitter.com/VideoCardz/status/1042009428642414592) vor knapp einer Stunde:
heisst also, alle karten die schon an händler ausgeliefert wurden, müssen erstmal geflasht werden ;D
hach, das wird immer besser, es wird in einem disaster enden... wie war der spruch? "wer hoch hinnaus will, kann tief fallen" :biggrin:
Edgecrusher86
2018-09-18, 14:22:49
Mit Glück ist das nur eine Treibergeschichte, ansonsten ist Flashen angesagt, ja. :D
Könnte die automatische Phasenabschaltung sein - läuft wohl noch nicht so, wie es soll.
heisst also, alle karten die schon an händler ausgeliefert wurden, müssen erstmal geflasht werden ;D
hach, das wird immer besser, es wird in einem disaster enden... wie war der spruch? "wer hoch hinnaus will, kann tief fallen" :biggrin:
Könnt auch ein Software-Fix möglich sein wie damals als die RX 480 zuviel vom PCIe-Slot gezogen hat? Da wurde ja auch gleich Hardware-Problem geschrien.
Der Sommer wurde also ein bisschen heißer in den Redaktionen als nötig, schon blöd von Nvidia das nicht vor den Tests zu erkennen ;D.
SKYNET
2018-09-18, 14:34:45
Könnt auch ein Software-Fix möglich sein wie damals als die RX 480 zuviel vom PCIe-Slot gezogen hat? Da wurde ja auch gleich Hardware-Problem geschrien.
Der Sommer wurde also ein bisschen heißer in den Redaktionen als nötig, schon blöd von Nvidia das nicht vor den Tests zu erkennen ;D.
von hardware problem sagte ich ja nix, aber wenns bios -wieder- mistig ist(wars ja schon beim ausliefern der testkarten, darum von 17. auf 19. verschoben worden).
ich glaube das wird ja sone never ending story, ein fix jagt den nächsten... anscheinend ist alles um die karte rum mehr alpha status als beta. ;D
Ging mir nur um die imo vorschnelle Schlussfolgerung ;).
prinz_valium
2018-09-18, 14:42:40
https://www.youtube.com/watch?v=8qpf2NcCIfY
Hier mal die Gigabyte Gaming OC im teardown.
4 Schrauben lösen und der Kühler ist ab....
SKYNET
2018-09-18, 14:47:19
https://www.youtube.com/watch?v=8qpf2NcCIfY
Hier mal die Gigabyte Gaming OC im teardown.
4 Schrauben lösen und der Kühler ist ab....
du hast schon gesehen, das die anderen schrauben schon draussen waren? :freak:
und die GB hat wieder sonen mistigen directmüll als kühler... da muss man wohl wieder auf ne aorus warten, wenn man bei GB nen gescheiten kühler will.
von hardware problem sagte ich ja nix, aber wenns bios -wieder- mistig ist(wars ja schon beim ausliefern der testkarten, darum von 17. auf 19. verschoben worden).
ich glaube das wird ja sone never ending story, ein fix jagt den nächsten... anscheinend ist alles um die karte rum mehr alpha status als beta. ;D
Neuer Wein ist eben schwieriger als alter Wein in neuen Schläuchen. Nicht nur für die Tester. ;) Das wäre bei Weitem nicht die erste Kinderkrankheit, die per Treiber gefixt wird. Unschön, aber kein Weltuntergang.
MfG,
Raff
SKYNET
2018-09-18, 14:55:08
Neuer Wein ist eben schwieriger als alter Wein in neuen Schläuchen. Nicht nur für die Tester. ;) Das wäre bei Weitem nicht die erste Kinderkrankheit, die per Treiber gefixt wird. Unschön, aber kein Weltuntergang.
MfG,
Raff
nur dumm, das es nicht zur der grossmäuligkeit über turing seitens NV passt, entweder sie liefern bei dem premiumpreis auch von tag 1 weg ein premium produkt, oder sie sollen einfach die füsse still halten.
oder anders gesagt: wer die fresse aufreisst, muss auch was dahinter haben, ansonsten gibt es ne schelle vom gegenüber... in dem fall wäre das der kunde und dahinter grad der werte herr aktionär...
prinz_valium
2018-09-18, 15:00:37
du hast schon gesehen, das die anderen schrauben schon draussen waren? :freak:
und die GB hat wieder sonen mistigen directmüll als kühler... da muss man wohl wieder auf ne aorus warten, wenn man bei GB nen gescheiten kühler will.
edit: du hast recht
Es sind 7
Godmode
2018-09-18, 15:37:23
Da haben echt schon welche ihre Karten bekommen: https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-auslieferung/
SKYNET
2018-09-18, 15:50:00
Da haben echt schon welche ihre Karten bekommen: https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-auslieferung/
aber kein treiber.... X-D wie fies das leben sein kann... ist wie eine/n partner/in zu haben der/die super heiss ist, aber die lunte streikt die kommenden 2 tage :biggrin:
TurricanM3
2018-09-18, 15:57:43
2 Tage? Ich hatte meine erste Pascal über 6 Wochen rumliegen, weil Watercool mit dem Wasserkühler nicht in die Pötte gekommen ist.
Bin da dieses mal auch ganz entspannt, weil ich sowieso komplett neu aufbaue und das noch dauern wird.
Godmode
2018-09-18, 15:59:51
2 Tage? Ich hatte meine erste Pascal über 6 Wochen rumliegen, weil Watercool mit dem Wasserkühler nicht in die Pötte gekommen ist.
Bin da dieses mal auch ganz entspannt, weil ich sowieso komplett neu aufbaue und das noch dauern wird.
Und du die Karte mit Luftkühler nicht betreiben konntest? :confused:
Kriton
2018-09-18, 16:03:29
Doppelpost
Kriton
2018-09-18, 16:04:57
edit: du hast recht
Es sind 7
Bei der FE sind es mal eben 70 (!) + Kleber... :freak:
Über 70 Schrauben und teilweise Kleber halten den Kühler zusammen. Die Aluminiumlamellen und Lüfter lassen sich somit nur schlecht reinigen, Letztere nicht ersetzen bei einem Defekt.
http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Geforce-RTX-2080-Ti-im-Teardown-Lueftertausch-schwer-gemacht-1265328/
Aber:
Nutzer einer Wasserkühlung können indes aufatmen: Der Kühler als Gesamtkonstrukt lässt sich noch recht einfach abnehmen, um einen Block installieren zu können.
und
Die Vapor-Chamber, die zur Wärmeverteilung fast die komplette Unterseite des Aluminiumkörpers abdeckt, ist einzigartig. Auf Heatpipes verzichtet der Chiphersteller komplett. Auf dem GDDR6-Speicher und den Spannungswandlern sitzt eine Basisplatte aus Aluminium, die über Wärmeleitpads mit der Vapor-Chamber und somit dem großen Kühlkörper verbunden ist.
Godmode
2018-09-18, 16:12:41
Ich kann mich auch täuschen, aber rein vom Gefühl her wird dieser Kühler besser sein, als jeglicher Kühler der selben Größe einer Partnerkarte. Bin schon gespannt, was Raff und Co. da für Temperaturen messen werden.
TurricanM3
2018-09-18, 16:26:10
Und du die Karte mit Luftkühler nicht betreiben konntest? :confused:
War mir die Geräuschkulisse nicht wert und den Loop muss ich sonst überbrücken. Es hieß ja immer nur noch wenige Tage und ich dachte mir, wartest mal noch. Das mache ich bei Watercool nie wieder. Ich habe dann den Aquacomputer Kühler genommen.
Dieses mal scheint das wieder genau das gleiche Theater zu werden. Die hatten versprochen pünktlich zum 20.09 liefern zu können und was ist? Schaffen sie nicht, alles auf Okt. verschoben.
SKYNET
2018-09-18, 16:36:22
Ich kann mich auch täuschen, aber rein vom Gefühl her wird dieser Kühler besser sein, als jeglicher Kühler der selben Größe einer Partnerkarte. Bin schon gespannt, was Raff und Co. da für Temperaturen messen werden.
ehm, nein... dafür hätten die den chamber 2-geteilt machen müssen, aber so heizen sich alle beiteile gegenseitig auf, irgendwo ist halt das themale limit und fertig. GB wird mit der aorus sicherlich wieder einen 2-geteilten kühler haben, und diese rechnung geht auf.
mironicus
2018-09-18, 19:53:49
Um die Sache auf die Spitze zu treiben sollte NVidia am besten noch die hundert besten OC-Chips die sie jemals hergestellt haben als limitierte Version anbieten, bei der das Kühlgehäuse noch zusätzlich komplett mit 24 Karat Gold beschichtet ist und dann mit einer UVP für 9999 Euro verkaufen. :D
BlacKi
2018-09-18, 19:57:53
deshalb hab ich mir nen universal fullcover wasserkühler gebastelt, damit kann ich auch ne titan v kühlen. alles was ich brauch ist pads und paste. beim vk setze ich den alten kühler wieder drauf und gut ist.
robbitop
2018-09-18, 20:07:01
Dann müssen die Pads aber ziemlich dick sein, damit ein universeller fc Kühler möglich ost oder? :)
Haste Fotos davon? Per CNC hergestellt? :)
BlacKi
2018-09-18, 20:33:32
OT
handarbeit
https://abload.de/img/20180504_203031oydct.jpg
https://abload.de/img/20180504_203021vsfp3.jpg
https://abload.de/img/20180504_202959ixi58.jpg
€dit: hier sieht man schön wie winzig der gp102 im gegensatz zu den turing chips ist.
achja bild ist nicht merh up to date, aber eingebaut:
https://abload.de/img/20180512_151610edfeu.jpg
robbitop
2018-09-18, 20:45:45
Clevere Lösung :)
BlacKi
2018-09-18, 20:47:49
danke, ist die 2nd gen^^
Fliwatut
2018-09-18, 21:01:36
Was ist diese silbrige Pampe?
robbitop
2018-09-18, 21:05:19
Lot denke ich.
wolik
2018-09-18, 22:16:53
Ms7d-3Dprio
:( RTX OFF irgendwie sieht besser aus. Was ist noch interessant, ohne Anzeige ist nicht sofort klar wo RTX ON oder OFF ist. Heiliger Gral sagst du... :mad: und FPS Anzeige noch fehlt
Locuza
2018-09-18, 22:32:29
Jup, das fällt vor allem bei Sekunde 40-60 auf, wo die Holzfarben viel zu hell erscheinen.
Der Content ist nicht abgestimmt auf die Beleuchtung und das merkt man an vielen Stellen.
Platos
2018-09-18, 22:49:11
Sieht beschissen aus, mehr kann man dazu nicht sagen.
SKYNET
2018-09-18, 22:54:42
OT
handarbeit
https://abload.de/img/20180504_203031oydct.jpg
https://abload.de/img/20180504_203021vsfp3.jpg
https://abload.de/img/20180504_202959ixi58.jpg
€dit: hier sieht man schön wie winzig der gp102 im gegensatz zu den turing chips ist.
achja bild ist nicht merh up to date, aber eingebaut:
https://abload.de/img/20180512_151610edfeu.jpg
sehr... ehhh... martialistisch :freak:
Linmoum
2018-09-18, 23:03:38
Sieht beschissen aus, mehr kann man dazu nicht sagen.
Man scheint um jeden Preis irgendwas zum Launch zu brauchen, egal wie es aussieht.
Erbsenkönig
2018-09-18, 23:40:10
Manche Szenen aus dem Metro Video mit RTX On sehen ein wenig aus wie Skyrim ohne Mods.:freak:
Armaq
2018-09-18, 23:54:02
Wir wissen alle wie im Nachgang eingebaute "use cases" aussehen.
Vielleicht sollte man sich noch einmal die Zahlen vor Augen führen. Die sind nämlich für Ray Tracing (nur auf Spiele bezogen, wohlgemerkt!) geradezu deprimierend:
Battlefield V will (als bloße Zielvorgabe!) bei der RTX 2070 30 fps bei 1080p bis November schaffen. Für die RTX 2080 Ti sind es (ebenfalls als bloße Zielvorgabe, das muß also überhaupt erstmal erreicht werden!) 60 fps bei 1080p. Jetzt sind wir mal großzügig und versprechen uns selbst ganz fest in die Hand, daß es für Nvidia genügt, nur die "drei Schmuckstücke" ins RT-Ziel zu bringen. Gaming beginnt in dieser Parallelwelt demnach also erst ab einer RTX 2070 aufwärts. Dann benötigt man trotzdem mal eben 800 Prozent (!) Leistungssteigerung, um nur 4K @ 60 fps für den xx70er-Karte anzubieten. 800 Prozent. (2. Edit: hinzuaddieren müßte man natürlich nur 700 Prozent, um diesen klassischen off-by-one Fehler zu vermeiden.)
Und was haben wir auf der Gegenseite? Prozessverbesserungen die Chip auf Chip gerechnet (1080 Ti auf 2080 TI) gerademal bei kümmerlichen ca. 30 Prozent liegen (Und das wird eher weniger werden, man wird das immer schwerer abzuringende Potenzial, das Pulver ja ungern auf einmal verschießen wollen, werden zumindest die Aktionäre sagen). 30 Prozent. Und wieviele shrinks haben wir denn auf Siliziumbasis noch vor uns? Intel hat ja gerade versucht, Kobalt als Verbesserung in den Prozeß einzuführen. Das Ergebnis ihrer Kreativität hat Ihnen (und vor allem den Aktionären!) bestimmt Mut gemacht, sowas noch in viel größerem Maßstab zu versuchen. Auch Nvidia war es im Gegensatz zu AMD offensichtlich zu riskant, gleich auf 7nm zu gehen. Keine Kritik an Nvidia an der Stelle, absolut vernünftige Entscheidung aus Unternehmenssicht: sie haben es schlicht weniger nötig, Risiko zu gehen. Problem ist nur, daß es den Zeitrahmen für Ray Tracing ausweitet, die Geduld aller stakeholder auf eine höhere Probe stellt, während sich deren Durchhaltevermögen/Aufmerksamkeitsspanne/gedanklicher Horizont, nennt es wie Ihr wollt, tendenziell immer mehr verkleinert.
Ach ja, ich habe auch noch vergessen, daß es auch unbarmherzige Zeitgenossen gibt, die fordern 4k @ 120 fps+ (1600 Prozent+...). Und dann sind da auch noch jene, die das für Multiplayer fordern. Und bei Battlefield V wird nur ein kleiner Teil des frames überhaupt über Ray Tracing ausgegeben. Ich sag ja, Parallelwelt. Nennt mich einen Pessimisten, aber für mich sieht das verdammt nach der sprichwörtlichen "Brickwall" aus. Wenn man die Gaming-Industrie in toto aber mal eben auf einen workout schicken will, gar keine schlechte Idee...
Ach übrigens, mit VR wollen wir das mal lieber nicht auch noch kombinieren, oder?
Erwähnte ich schon, daß es auch Karten unterhalb der RTX 2070 gibt?
- Just a thought.
BigKid
2018-09-19, 08:19:48
Vielleicht sollte man sich noch einmal die Zahlen vor Augen führen. Die sind nämlich für Ray Tracing (nur auf Spiele bezogen, wohlgemerkt!) geradezu deprimierend:
Battlefield V will (als bloße Zielvorgabe!) bei der RTX 2070 30 fps bei 1080p bis November schaffen. Für die RTX 2080 Ti sind es (ebenfalls als bloße Zielvorgabe, das muß also überhaupt erstmal erreicht werden!) 60 fps bei 1080p. Jetzt sind wir mal großzügig und versprechen uns selbst ganz fest in die Hand, daß es für Nvidia genügt, nur die "drei Schmuckstücke" ins RT-Ziel zu bringen. Gaming beginnt in dieser Parallelwelt demnach also erst ab einer RTX 2070 aufwärts. Dann benötigt man trotzdem mal eben 800 Prozent (!) Leistungssteigerung, um nur 4K @ 60 fps für den xx70er-Karte anzubieten. 800 Prozent.
Und was haben wir auf der Gegenseite? Prozessverbesserungen die Chip auf Chip gerechnet (1080 Ti auf 2080 TI) gerademal bei kümmerlichen ca. 30 Prozent liegen (Und das wird eher weniger werden, man wird das immer schwerer abzuringende Potenzial, das Pulver ja ungern auf einmal verschießen wollen, werden zumindest die Aktionäre sagen). 30 Prozent. Und wieviele shrinks haben wir denn auf Siliziumbasis noch vor uns? Intel hat ja gerade versucht, Kobalt als Verbesserung in den Prozeß einzuführen. Das Ergebnis ihrer Kreativität hat Ihnen (und vor allem den Aktionären!) bestimmt Mut gemacht, sowas noch in viel größerem Maßstab zu versuchen. Auch Nvidia war es im Gegensatz zu AMD offensichtlich zu riskant, gleich auf 7nm zu gehen. Keine Kritik an Nvidia an der Stelle, absolut vernünftige Entscheidung aus Unternehmenssicht: sie haben es schlicht weniger nötig, Risiko zu gehen. Problem ist nur, daß es den Zeitrahmen für Ray Tracing ausweitet, die Geduld aller stakeholder auf eine höhere Probe stellt, während sich deren Durchhaltevermögen/Aufmerksamkeitsspanne/gedanklicher Horizont, nennt es wie Ihr wollt, tendenziell immer mehr verkleinert.
Ach ja, ich habe auch noch vergessen, daß es auch unbarmherzige Zeitgenossen gibt, die fordern 4k @ 120 fps+ (1600 Prozent+...). Und dann sind da auch noch jene, die das für Multiplayer fordern. Und bei Battlefield V wird nur ein kleiner Teil des frames überhaupt über Ray Tracing ausgegeben. Ich sag ja, Parallelwelt. Nennt mich einen Pessimisten, aber für mich sieht das verdammt nach der sprichwörtlichen "Brickwall" aus. Wenn man die Gaming-Industrie in toto aber mal eben auf einen workout schicken will, gar keine schlechte Idee...
Ach übrigens, mit VR wollen wir das mal lieber nicht auch noch kombinieren, oder?
Erwähnte ich schon, daß es auch Karten unterhalb der RTX 2070 gibt?
- Just a thought.
Schön - was wir aber noch nicht wissen ist ob diese 30/60fps@1080p mit oder ohne dlss angepeilt werden.
Gerade mit Raytracing bringt DLSS mehr als nur 30% - ich habe grade keine Zahlen im Kopf aber es war vieel mehr laut Siggraph Präsi.
Sollten die 30/60fps schon mit DLSS sein dann ja - dann ist es echt enttäuschend. Sind es aber mit DLSS schon 60/120 fps ... ... ...
Das Problem ist nur - bei NVidias bisherigem Marketing ist fast zu befürchten das sie bei 30/60 Dlss schon eingerechnet haben... Dann gute Nacht.
Der_Korken
2018-09-19, 08:25:48
Bei dem Metro Video sieht es echt so aus, als wären Raytracing On und Off irgendwie schlecht abgestimmt. Oft sieht es bei Raytracing im Schnitt heller aus, was man als "flachere" Beleuchtung wahrnimmt. Wenn man weiß, wo man hingucken muss, sieht man schon was Raytracing ist und was nicht. Zum Beispiel dunkle Ecken in Räumen sind bei RT auch tatsächlich dunkel und nicht irgendwie aufgehellt durch globale Beleuchtung, z.B. bei 1:40 die rechte Seite vom Raum, wo keine Fenster sind. Allerdings wirken die Planken an der Decke bei RT viel zu hell, dafür dass die eigentlich nur ein bisschen Streulicht von unten abbekommen dürften. Der größte Feind für RT dürfte sein, dass die bisherigen Engines mit ihren Beleuchtungs-Fakes mittlerweile so gut und glaubhaft rüberkommen, dass es schwer ist, die erstmal zu übertrumpfen.
robbitop
2018-09-19, 08:42:06
Man darf nicht vergessen, dass es sich um die ersten Implementierungsversuche handelt. Vermutlich sind hier kaum Erfahrungen zu Optimierungen vorhanden. Bei Metro werden bspw fü das Denoising nich keine tc genutzt.
IMO: RT bei Games ist sowohl sw als auch hw seitig noch in der Pionierphase. IMO wird es noch ein paar Jahre und somit hw und sw Generationen brauchen bis es richtig gut läuft (optisch gut angepasst, gut optimiert, darauf ausgelegt, genug hw Leistung und große Verbreitung).
MiamiNice
2018-09-19, 08:44:22
Moin,
war nicht jedem von uns hier klar das RT in der ersten Gen quasi überflüssig für uns Spieler ist? Verstehe da jetzt den ganzen Aufriss drum nicht und frage mich wo die DLSS Vergleichsbilder und klassischen Benches bleiben :wink:
mironicus
2018-09-19, 08:48:25
NVidia versucht jetzt mittels leichtem OC und mehr TDP die neuen Karten so gut wie möglich dastehen zu lassen.
Wer sich jetzt eine GTX 1080Ti zum Schnäppchenpreis gekauft hat, kann damit locker noch 2-3 Jahre überwinden. Und diese Karten werden jetzt langsam verschwinden und teurer. Richtige Steigerungen gibt es ohnehin erst mit 7 nm.
MadManniMan
2018-09-19, 09:00:33
:( RTX OFF irgendwie sieht besser aus. Was ist noch interessant, ohne Anzeige ist nicht sofort klar wo RTX ON oder OFF ist.
Hm? Also ich verstehe ja, dass gewohnte Beleuchtung erstmal vertrauter erscheint, aber BESSER? Vielleicht erscheinen einzelne Szenen "künstlerischer" ohne Raytracing, aber (ich habe gerade nicht viel Zeit und nur das halbe Video gesehen) in fast jeder leuchtet mir sofort ein (pun intended), warum ich eigentlich RT haben will.
Bzw. wollte, denn ...
Heiliger Gral sagst du... :mad: und FPS Anzeige noch fehlt
... scheiße ist das ruckelig!
Allein am Stocken sieht man gut, was RT ist und was nicht ^^
Fragman
2018-09-19, 09:20:32
Hm? Also ich verstehe ja, dass gewohnte Beleuchtung erstmal vertrauter erscheint, aber BESSER?
Jep, der Hass einiger hier erinnert mich mittlerweile an die Threads im Politikbereich. Da reicht ein Wort, das triggert die Leute und dann wird nur noch gebashed und wie in diesem Fall, einfach Unsinn geschrieben, damit die eigene Meinung passt, weil der eigene Stolz verhindert, sich mal positiv ueber RTX zu aeussern.
Die ganze Umgebungsbeleuchtung sieht deutlich besser aus mit den Verschattungen, die beim alten Ansatz fehlen oder so grob sind, das man sie kaum bemerkt. Das Bouncelight vom direkten Licht zeigt das ja auch ganz gut, das fehlt einfach beim alten Ansatz.
Digidi
2018-09-19, 09:38:20
Jep, der Hass einiger hier erinnert mich mittlerweile an die Threads im Politikbereich. Da reicht ein Wort, das triggert die Leute und dann wird nur noch gebashed und wie in diesem Fall, einfach Unsinn geschrieben, damit die eigene Meinung passt, weil der eigene Stolz verhindert, sich mal positiv ueber RTX zu aeussern.
Die ganze Umgebungsbeleuchtung sieht deutlich besser aus mit den Verschattungen, die beim alten Ansatz fehlen oder so grob sind, das man sie kaum bemerkt. Das Bouncelight vom direkten Licht zeigt das ja auch ganz gut, das fehlt einfach beim alten Ansatz.
Und wieder eine sehr einseitige Meinung!
Ja RTX ist cool und sieht gut aus, Mesh Shader sind auch spitze.
Dem gegenüber steht aber:
- zu hoher Preis
- spielbare FPS wohl nur für Top Karten
- geringere Efdekteanzahl als gedscht
=Floi=
2018-09-19, 09:39:24
800 Prozent
es ist doch noch nicht klar, wie das bei den nächsten generationen gesteigert wird. Wenn man es verdreifachen kann, hast du in 4 jahren deine 900%.
Bei der tesselation ging es bei den späteren generationen auch steil bergauf!
MadManniMan
2018-09-19, 09:43:19
Und wieder eine sehr einseitige Meinung!
Es ist eine einseitige Meinung, zu sagen, dass bestimmte Techniken spezifische Vorteile bieten?
Digidi
2018-09-19, 09:54:51
Es ist eine einseitige Meinung, zu sagen, dass bestimmte Techniken spezifische Vorteile bieten?
Ja ist es weil miter technick die unten genannten Nachteile miteinher gehen
MadManniMan
2018-09-19, 09:56:47
Ja ist es weil miter technick die unten genannten Nachteile miteinher gehen
Äh, nein?
Wie wäre es denn, wenn Du Dir nochmal den Gesprächsverlauf genau anschaust?
Chris Lux
2018-09-19, 09:58:20
Und wieder eine sehr einseitige Meinung!
Ja RTX ist cool und sieht gut aus, Mesh Shader sind auch spitze.
Dem gegenüber steht aber:
- zu hoher Preis
- spielbare FPS wohl nur für Top Karten
- geringere Efdekteanzahl als gedscht
Mimimi.... Airbags sind doof. Brauche ich ja nicht. Kosten extra und bringen Gewicht. Seitenaufprallschutz ist doof. Brauche ich ja nicht. Kostet extra und bringen Gewicht.
Blah... Kauf es halt nicht und gut. Freue dich. In ein paar Jahren kommst du nicht mehr dran vorbei, weil es einfach die Zukunft ist - endlich!
Bei einer GeForce 3 hat auch keiner ernsthaft Shader benutzt. Aber schau an was daraus geworden ist. Der Unterschied ist, dass damals keiner geschriehen hat wie doof das ist. Mann wir sind hier im 3D-Center!
P.S. Für alle, die immer noch denken, dass der RT Core 30% Chipfläche einnimmt: Schaut euch das Arch White-Paper an [1] (wurde schon mehrmals gepostet). Dort ist sicher nicht alles nach Maßstab aber es ist eben auch nur ein Teil der SMs. Ihr verliert hier nix. Oder schaut euch mal die DIE-Größe im Vergleich zu den gleichwertigen Pascal GPUs an [2]. Ich mache mir keine Sorgen was Benchmarks angeht. Der RT Kram kann nur schneller werden wenn die Treiber und Implementierungen in Spielen reifen - und dann freue ich mich ;)
[1] https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf
[2] https://www.reddit.com/r/nvidia/comments/9f2wg1/to_give_some_perspective/
Digidi
2018-09-19, 10:00:24
Mimimi.... Airbags sind doof. Brauche ich ja nicht. Kosten extra und bringen Gewicht. Seitenaufprallschutz ist doof. Brauche ich ja nicht. Kostet extra und bringen Gewicht.
Blah... Kauf es halt nicht und gut. Freue dich. In ein paar Jahren kommst du nicht mehr dran vorbei, weil es einfach die Zukunft ist - endlich!
Bei einer GeForce 3 hat auch keiner ernsthaft Shader benutzt. Aber schau an was daraus geworden ist. Der Unterschied ist, dass damals keiner geschriehen hat wie doof das ist. Mann wir sind hier im 3D-Center!
Genau das meinte ich wieder so ein super differenzierter Post!
Ich darf mich also nicht aufregen das endliche Ressourcen fur eine halbgar Implementierung verschwendet werden.
Und ein Airbag würde dann verbaut wenn man auch wirklich sich war, das er funktioniert und mehr nutzen bringt...
=Floi=
2018-09-19, 10:05:30
weil es einfach implementiert werden musste.
Ausgerechnet du kannst dir keinen slider vorstellen, um die RT stärke skalieren zu können.
Ja, man es es wohl als halbgar bezeichen, weil keiner damit erfahrung hat und auch schnell gehen musste. Das ganze muss reifen und alle müssen erfahrung sammeln.
Digidi
2018-09-19, 10:06:31
weil es einfach implementiert werden musste.
Wieso musste? Das einzige wass man muss ist sterben..
Chris Lux
2018-09-19, 10:07:04
Genau das meinte ich wieder so ein super differenzierter Post!
Ich darf mich also nicht aufregen das endliche Ressourcen fur eine halbgar Implementierung verschwendet werden.
Und ein Airbag würde dann verbaut wenn man auch wirklich sich war, das er funktioniert und mehr nutzen bringt...
So hätten wir heute keine Brücken. Niemand wollte eine bauen als sie noch halbgar waren...
MadManniMan
2018-09-19, 10:07:59
Ich darf mich also nicht aufregen das endliche Ressourcen fur eine halbgar Implementierung verschwendet werden.
Was ist denn bitte Dein Kriterium dafür, wann etwas, was es vorher so noch nicht gab, als mehr als "halbgar" gilt? Kann man das irgendwie quantifizieren? Stellst Du diese These auch nur irgendwie zur Falsifikation?
Digidi
2018-09-19, 10:10:51
Was ist denn bitte Dein Kriterium dafür, wann etwas, was es vorher so noch nicht gab, als mehr als "halbgar" gilt? Kann man das irgendwie quantifizieren? Stellst Du diese These auch nur irgendwie zur Falsifikation?
Wenn man games hat die in 1080p nur 30 fps schaffen ist das halbgar.....
Das ist so als ob der Airbag 50% Fehlzundung hat. Das würde Mercedes nie verbauen...
MadManniMan
2018-09-19, 10:14:11
Wenn man games hat die in 1080p nur 30 fps schaffen ist das halbgar...
Also ist jede Form von Supersampling halbgar, weil man mit manchen Varianten in Full HD auf 30 FPS kommt?
Also ist jede Form von Tesselation halbgar, weil man ... etc. pp.
Ich hoffe, Du verstehst, was an Deinem Argument problematisch ist? Man kann JEDE Technik so benutzen, dass man spielbare Bereiche verlässt. Noch haben wir überhaupt keine Aussagen darüber, ob RT in jedem Spiel in jeder Qualitätsstufe immer nur 30 FPS in Full HD zulässt.
Und selbst WENN: warum kann Full HD mit 30 FPS denn nicht für manche Spiele/manche Leute ausreichen?
Digidi
2018-09-19, 10:15:01
Also ist jede Form von Supersampling halbgar, weil man mit manchen Varianten in Full HD auf 30 FPS kommt?
Also ist jede Form von Tesselation halbgar, weil man ... etc. pp.
Ich hoffe, Du verstehst, was an Deinem Argument problematisch ist? Man kann JEDE Technik so benutzen, dass man spielbare Bereiche verlässt. Noch haben wir überhaupt keine Aussagen darüber, ob RT in jedem Spiel in jeder Qualitätsstufe immer nur 30 FPS in Full HD zulässt.
Und selbst WENN: warum kann Full HD mit 30 FPS denn nicht für manche Spiele/manche Leute ausreichen?
Ja ist es oder grottig umgesetzt...
Bei Raytracing ist man am Mindestmaß und kotzt schon....
MadManniMan
2018-09-19, 10:16:14
Ja ist es oder grottig umgesetzt...
Was?
Liest Du überhaupt richtig hin?
Supersampling/Tesselation sollte keine Option sein?
robbitop
2018-09-19, 10:16:49
Spekulation da Unwissenheit meinerseits: RT reduziert die Framerate. Woran liegt das? Ist hier ggf ein zweiter, vom herkömmlichen Rendering (bzw von der HW die dafür zuständig ist) unabhängiger Flaschenhals entstanden? Wenn ja, dann könnte man den Bereich der HW, die für diesen zuständig ist ja unabhängig in den nächsten Generationen upgraden.
Bspw TC/RT cores machen sagen wir mal 30% der Chipfläche aus (aus der Luft geholte Zahl!) - dann kann man diese 30% wesentlich besser hochskalieren mit kommenden Shrinks um den „fps Verlust“ schnellstmöglich zu minimieren? In dem Fall wäre es eine deutlich bessere Perspektive für RT und kommende Generationen (in bezug auf Auflösung und Framerate).
Hat hier jemand etwas mehr Einblick in die Funktionsweise von hw und sw, der den Gedanke kommentieren kann? :)
Digidi
2018-09-19, 10:21:16
Spekulation da Unwissenheit meinerseits: RT reduziert die Framerate. Woran liegt das? Ist hier ggf ein zweiter, vom herkömmlichen Rendering (bzw von der HW die dafür zuständig ist) unabhängiger Flaschenhals entstanden? Wenn ja, dann könnte man den Bereich der HW, die für diesen zuständig ist ja unabhängig in den nächsten Generationen upgraden.
Bspw TC/RT cores machen sagen wir mal 30% der Chipfläche aus (aus der Luft geholte Zahl!) - dann kann man diese 30% wesentlich besser hochskalieren mit kommenden Shrinks um den „fps Verlust“ schnellstmöglich zu minimieren? In dem Fall wäre es eine deutlich bessere Perspektive für RT und kommende Generationen (in bezug auf Auflösung und Framerate).
Hat hier jemand etwas mehr Einblick in die Funktionsweise von hw und sw, der den Gedanke kommentieren kann? :)
Es ist einfach der brake even Point. Man wollte etwas mehr Leistung als 1080ti und hat dann was die chip Fläche hergibt RT obendrauf gepackt. Das würde minutiös so geplant. Nur hatte Nvidia vielleicht erst mal ein Karte auflegen sollen um es den Entwicklern und Kunden schmackhaft zu machen...
robbitop
2018-09-19, 10:22:07
Das war nicht meine Frage.
Digidi
2018-09-19, 10:26:29
Das war nicht meine Frage.
Das Problem sind das man 2 Rendering Pilines jetzt auf einen Chip hat. Dafür das es so wenige RT Cores sind läuft das schon recht gut, oder was meinst du?
Das Limit ist einfach die Fläche. Der flaschenhals ist die schmale Pipeline an sich. Man sieht doch auch das es zur 2080ti zur 2080 gut skaliert...
SKYNET
2018-09-19, 10:32:30
Spekulation da Unwissenheit meinerseits: RT reduziert die Framerate. Woran liegt das? Ist hier ggf ein zweiter, vom herkömmlichen Rendering (bzw von der HW die dafür zuständig ist) unabhängiger Flaschenhals entstanden? Wenn ja, dann könnte man den Bereich der HW, die für diesen zuständig ist ja unabhängig in den nächsten Generationen upgraden.
Bspw TC/RT cores machen sagen wir mal 30% der Chipfläche aus (aus der Luft geholte Zahl!) - dann kann man diese 30% wesentlich besser hochskalieren mit kommenden Shrinks um den „fps Verlust“ schnellstmöglich zu minimieren? In dem Fall wäre es eine deutlich bessere Perspektive für RT und kommende Generationen (in bezug auf Auflösung und Framerate).
Hat hier jemand etwas mehr Einblick in die Funktionsweise von hw und sw, der den Gedanke kommentieren kann? :)
ich behaupte, das die speicherbandbreite zum flaschenhals wird, sobald RT zugeschaltet wird... selbst bei meiner 1080Ti steigen die frames fast linear zum speichertakt(max 560GB/sek. was mein speicher hergibt), und da die 2080Ti schon so mehr rohleistung hat, werden die 616GB/sek. da wohl jetzt auch schon zu knapp bemessen sein, mit RT ON, wirds dann halt noch schlimmer.
oder anders gesagt: seit pascal, sind die highend GPUs zu schnell für den vorhandenen speicher bzw. deren minimal anbindung... sollten auf 512bit gehen.
Digidi
2018-09-19, 10:34:56
ich behaupte, das die speicherbandbreite zum flaschenhals wird, sobald RT zugeschaltet wird...
Nvidia hatte locker das Interface Dicker machen können...
Es ist einfach nicht mehr möglich. Du willst 2 Chips in einem und die Fläche ist begrenzt und du musst die normalen alten Karten auch noch ubertrumpfen.
robbitop
2018-09-19, 10:41:50
Ggf kann ja Demirug oder gravitationsfeld oder Pixeljetstream oder Gipsel oder Tesseract etwas dazu sagen.
=Floi=
2018-09-19, 10:43:50
man hat die speicherkompression nochmal erheblich gesteigert!
Cubitus
2018-09-19, 10:46:17
Wann gehts jetzt eigl los?
15 uhr?
robbitop
2018-09-19, 10:48:48
man hat die speicherkompression nochmal erheblich gesteigert!
Das ist doch bereits seit Tagen bekannt.
SKYNET
2018-09-19, 10:49:35
Nvidia hatte locker das Interface Dicker machen können...
Es ist einfach nicht mehr möglich. Du willst 2 Chips in einem und die Fläche ist begrenzt und du musst die normalen alten Karten auch noch ubertrumpfen.
haben sie aber nicht, weils gekostet hätte... sind halt knausrig bei sowas. :mad:
Chris Lux
2018-09-19, 11:15:17
Wenn man games hat die in 1080p nur 30 fps schaffen ist das halbgar.....
Das ist so als ob der Airbag 50% Fehlzundung hat. Das würde Mercedes nie verbauen...
So ein Quatsch. Das wäre als ob die RT Core nur in 50% der Fälle korrekte Intersektionen liefern. Sie liefern aber immer die Intersektion. Nun du...
Chris Lux
2018-09-19, 11:15:57
Das Problem sind das man 2 Rendering Pilines jetzt auf einen Chip hat.
Hat man nicht. RTFM
Sunrise
2018-09-19, 11:22:14
Es ist einfach der brake even Point. Man wollte etwas mehr Leistung als 1080ti und hat dann was die chip Fläche hergibt RT obendrauf gepackt. Das würde minutiös so geplant. Nur hatte Nvidia vielleicht erst mal ein Karte auflegen sollen um es den Entwicklern und Kunden schmackhaft zu machen...
NV möchte das aber möglichst breit anbieten, damit man den Entwicklern sagen kann: "RTX is the sh1t! DLSS and Raytracing for the masses." und gleichzeitig sollten möglichst schnell die early adopter ins Spiel gebracht werden, damit man auch HW im Markt hat und die Entwickler wissen, dass es sich lohnt, hier aktiv zu werden.
Vermutlich ist das auch der Grund, warum man eben schon jetzt alles integriert und nicht erst in 1,5-2 Jahren auf 7nm. Das ist viel zuweit weg und man will ja was verkaufen.
Man nutzt den Zeitraum der aktuellen "Innovationsarmut" im Consumer GPU-Markt, baut gleichzeitig NV als Premium-Marke weiter aus und schaut sich an, wieviele Trigger ausgelöst werden, sodass man Features im Markt festigen kann. DXR kommt ja sowieso, und Tensor-Cores und die neuen SMs waren ja praktisch schon fertig.
Selbst im allerschlechtesten Fall und sollte der Plan nicht aufgehen (wird er aber, da keine Konkurrenz die da mitreden kann für eine Weile), hat NV einfach nur weniger GPUs im Consumer- bzw. Gaming-Markt verkauft. Mangels gleichwertiger Alternativen aber nicht nur äußerst unwahrscheinlich, da müsste die Presse und alle Käufer schon geschlossen der Meinung sein, den "Fortschritt" zu stoppen und mit Fakten austeilen. Das wird nicht passieren.
Spekulation da Unwissenheit meinerseits: RT reduziert die Framerate. Woran liegt das?
a) triviale Implementierungen in den Demos bisher. Da besteht noch einiges an Parallelisierung- und Optimierungspotential (siehe DigitalFoundry Video)
b) keine Erfahrung mit Echtzeitraytracing bei den Entwicklern
c) viele Strahlen brauchen auch Shading
Kurz gesagt: Wenn du nur ein paar Wochen Zeit hast und ein Feature optisch rausstellen willst, wird es automatisch zu einem massiven Performance-Bottleneck.
SKYNET
2018-09-19, 11:31:54
a) triviale Implementierungen in den Demos bisher. Da besteht noch einiges an Parallelisierung- und Optimierungspotential (siehe DigitalFoundry Video)
b) keine Erfahrung mit Echtzeitraytracing bei den Entwicklern
c) viele Strahlen brauchen auch Shading
Kurz gesagt: Wenn du nur ein paar Wochen Zeit hast und ein Feature optisch rausstellen willst, wird es automatisch zu einem massiven Performance-Bottleneck.
also die entwickler von BF5 haben 1!! jahr zeit gehabt, seit NV an sie getreten ist und sagte "RT kommt"... und 2 monate später hatten sie bereits testsamples von turing(was auch wieder dafür spricht das turing schon lange fertig war und nur pascal noch abverkauft werden musste).
dildo4u
2018-09-19, 11:36:26
also die entwickler von BF5 haben 1!! jahr zeit gehabt, seit NV an sie getreten ist und sagte "RT kommt"... und 2 monate später hatten sie bereits testsamples von turing(was auch wieder dafür spricht das turing schon lange fertig war und nur pascal noch abverkauft werden musste).
Nein sie hatten die Turing Karten 2 Wochen vor der Gamescom.
https://youtu.be/8kQ3l6wN6ns?t=6m30s
Bösewicht
2018-09-19, 11:48:04
Spekulation da Unwissenheit meinerseits: RT reduziert die Framerate. Woran liegt das? Ist hier ggf ein zweiter, vom herkömmlichen Rendering (bzw von der HW die dafür zuständig ist) unabhängiger Flaschenhals entstanden? Wenn ja, dann könnte man den Bereich der HW, die für diesen zuständig ist ja unabhängig in den nächsten Generationen upgraden.
Vielleicht reduziert es die Frame weil durch RT nicht mehr alles in Echtzeit berechnet werden kann und es deswegen zu Latenzen kommt.
Wen ein ray los geht auf ein spiegel trifft dann wieder zur nächsten Oberfläche fliegt dort eventuell licht schatten beeinflusst und das von der karte öhne input lag wiedergegeben werden muss dann gibt es vielleicht so eine Puffer aus dem die Daten gezogen werden und das reduziert die Framerate, wobei sie vielleicht nicht wirklich reduziert ist sondern es nur so ausschaut.
Vielleicht gibt es ja als nächstes eine Zwischenbildberechnung die nach der Kantenglättung diesen Effekt Kompensiert.
nur mal etwas gesponnen.
SKYNET
2018-09-19, 11:53:37
Nein sie hatten die Turing Karten 2 Wochen vor der Gamescom.
https://youtu.be/8kQ3l6wN6ns?t=6m30s
in dem fall glaube ich NV eher... sorry!
dildo4u
2018-09-19, 11:55:57
Das angeblich über Monate zurückhalten passt aber nicht zur Verschiebung der 2080 TI.
Adam D.
2018-09-19, 12:00:17
Das angeblich über Monate zurückhalten passt aber nicht zur Verschiebung der 2080 TI.
Kennst du die Gründe? Die ganze Release-Historie werden wir eh nie ganz entschlüsseln, die Chips hätte man so bestimmt auch schon vor sechs Monaten bringen können, aber wahrscheinlich hätte dann der GDDR6 gefehlt, vielleicht war das RT-Zeugs noch nicht vorführbar, man hat gut mit Pascal verdient etc etc. Die eine Woche macht jetzt auch keinen Unterschied mehr, kann ja sein, dass der große Turing stärker von diesem Idle-Verbrauchs-Bug betroffen ist und sie deshalb noch 'ne Woche länger an Treiber, BIOS oder was weiß ich arbeiten müssen.
robbitop
2018-09-19, 12:22:38
a) triviale Implementierungen in den Demos bisher. Da besteht noch einiges an Parallelisierung- und Optimierungspotential (siehe DigitalFoundry Video)
b) keine Erfahrung mit Echtzeitraytracing bei den Entwicklern
c) viele Strahlen brauchen auch Shading
Kurz gesagt: Wenn du nur ein paar Wochen Zeit hast und ein Feature optisch rausstellen willst, wird es automatisch zu einem massiven Performance-Bottleneck.
Mhh. Beides ist mir klar und hatte ich auch schon wenige Posts selbst gepostet. Darauf zielte mein Posting nicht ab. Es ging um unabhängige Skalierbarkeits und eventuell separierbare Bottlenecks die über individuelle Skalierung der jeweilen HW Einheiten eventuell individuell verschieb/beeinflussbar sind.
wolik
2018-09-19, 12:32:38
Mimimi.... Airbags sind doof. Brauche ich ja nicht. Kosten extra und bringen Gewicht. Seitenaufprallschutz ist doof. Brauche ich ja nicht. Kostet extra und bringen Gewicht.
In Testphase wurden Airbags von sich selbst ausgelöst, sind wie bei RTX 2000 in "Testphase oder Serienproduktion" ? Wir warten bis die Karten und "passende" Spiele da sind :wink: Wäre es 16Gb auf die Karte hätte ich ohne Zweifel umgestiegen auf SLI 2080Ti
Tesseract
2018-09-19, 12:54:03
Spekulation da Unwissenheit meinerseits: RT reduziert die Framerate. Woran liegt das?
ist wohl optimierungssache. bei klassischen rasterisierern landet alles auf den shadern und karten mit doppentem durchsatz sind grob doppelt so schnell wärend bei einem hybridansatz die balance stimmen muss: ist der rasterisierungsteil zu schnell fertig muss er auf den raytracer warten, ist der raytracer zu schnell fertig ist muss er auf die rasterisierung warten.
wenn man RT im nachhinein an ein spiel dranflanscht und die ganze beleuchtung ersetzt ist es wohl nicht ganz trivial das mal eben hin zu bekommen.
monstar-x
2018-09-19, 13:06:33
Nein sie hatten die Turing Karten 2 Wochen vor der Gamescom.
https://youtu.be/8kQ3l6wN6ns?t=6m30s
Ja ne ist klar. Bloß nichts hinterfragen.
Du glaubst doch selbst nicht das Nvidia so ein Risko eingehen würde und Dice nur 2 Wochen Zeit gibt eine brauchbare Präsentation in Raytracing zu erstellen. Auf die Gefahr hin auf der Gamescom mit leeren Händen da zu stehen.
Im Leben nicht.
dildo4u
2018-09-19, 13:11:15
Ja ne ist klar. Bloß nichts hinterfragen.
Du glaubst doch selbst nicht das Nvidia so ein Risko eingehen würde und Dice nur 2 Wochen Zeit gibt eine brauchbare Präsentation in Raytracing zu erstellen. Auf die Gefahr hin auf der Gamescom mit leeren Händen da zu stehen.
Im Leben nicht.
Sie hatten vorher Titan V um ein RTX Prototype zu entwickeln und vermutlich ein Performance Target von Nvidia für Turing,aber die eigentliche Hardware zu haben ist noch mal was anderes.
Die RTX Demo von Remedy vom März ist z.b auf Titan V. https://youtu.be/jkhBlmKtEAk
This. Auf Volta wurde experimentiert und Grundsteine gelegt, auf Turing werden nun spielbare Targets festgelegt, die RT- und optional Tensor-Kerne heranziehen.
MfG,
Raff
dildo4u
2018-09-19, 13:20:49
Micron hat doch auch erst im Sommer angefangen GDDR6 zu produzieren,denn muss man danach erstmal da hin liefern wo die Karte geklöppelt wird.
SKYNET
2018-09-19, 14:00:36
Micron hat doch auch erst im Sommer angefangen GDDR6 zu produzieren,denn muss man danach erstmal da hin liefern wo die Karte geklöppelt wird.
also bitte, du glaubst wohl nicht das es ersten lauffähigen GDDR6 erst seit sommer gibt? ALLE!!! und zwar ausnahmslos!! hardware und teile dafür, gibt es MINDESTENS!! ein halbes jahr vorher als testsables für die hersteller die es nutzen, und lauffähige samples im eigenem labor +/- 12 monate vor massenproduktion.
dildo4u
2018-09-19, 14:03:17
Klar für den Internen Gebrauch bei Nvidia für die Spieleproduktion brauchst du aber Hardware,die stabil läuft also z.b kein Treiber im Alpha Stadium.
SKYNET
2018-09-19, 14:22:11
Klar für den Internen Gebrauch bei Nvidia für die Spieleproduktion brauchst du aber Hardware,die stabil läuft also z.b kein Treiber im Alpha Stadium.
also da NV es schafft in 2 wochen einen gefixten treiber für irgendwelche games raus zu hauen, werden sies sicherlich auch geschafft haben, einen treiber zu bauen der auf den BF4 alphas lief.
Poook
2018-09-19, 14:27:10
Bei neuen Konsolen ist es absolut Usus daß auf anderer Hardware entwickelt wird als später bei den Kunden ankommt. EA ist es mehr als gewohnt auf Target Hardware hinzuentwickeln die es nicht zur Verfügung hat.
Adam D.
2018-09-19, 14:29:51
Bei neuen Konsolen ist es absolut Usus daß auf anderer Hardware entwickelt wird als später bei den Kunden ankommt. EA ist es mehr als gewohnt auf Target Hardware hinzuentwickeln die es nicht zur Verfügung hat.
Als Laie spekuliere ich mal: Bei klassischem Rasterizing ist so eine Extrapolation wohl auch nicht ansatzweise so problematisch wie durch den Einsatz innovativer, neuartiger Hardware für RT.
robbitop
2018-09-19, 14:31:56
ist wohl optimierungssache. bei klassischen rasterisierern landet alles auf den shadern und karten mit doppentem durchsatz sind grob doppelt so schnell wärend bei einem hybridansatz die balance stimmen muss: ist der rasterisierungsteil zu schnell fertig muss er auf den raytracer warten, ist der raytracer zu schnell fertig ist muss er auf die rasterisierung warten.
wenn man RT im nachhinein an ein spiel dranflanscht und die ganze beleuchtung ersetzt ist es wohl nicht ganz trivial das mal eben hin zu bekommen.
Die Frage ist ob der Drop bei theoretisch(!) ins unendliche gesteigerter RT Leistung gegen null geht oder ob auch die herkömmliche HW signifikant davon beeinträchtigt ist. Wenn ersteres der Fall ist, wäre eine bessere Performance mit RT in zukünftigen Gena einfacher zu gewährleisten da man nicht alle Einheiten hochskalieren muss.
DrumDub
2018-09-19, 14:36:18
NV möchte das aber möglichst breit anbieten, damit man den Entwicklern sagen kann: "RTX is the sh1t! DLSS and Raytracing for the masses." und gleichzeitig sollten möglichst schnell die early adopter ins Spiel gebracht werden, damit man auch HW im Markt hat und die Entwickler wissen, dass es sich lohnt, hier aktiv zu werden.
Vermutlich ist das auch der Grund, warum man eben schon jetzt alles integriert und nicht erst in 1,5-2 Jahren auf 7nm. Das ist viel zuweit weg und man will ja was verkaufen.
Man nutzt den Zeitraum der aktuellen "Innovationsarmut" im Consumer GPU-Markt, baut gleichzeitig NV als Premium-Marke weiter aus und schaut sich an, wieviele Trigger ausgelöst werden, sodass man Features im Markt festigen kann. DXR kommt ja sowieso, und Tensor-Cores und die neuen SMs waren ja praktisch schon fertig.
Selbst im allerschlechtesten Fall und sollte der Plan nicht aufgehen (wird er aber, da keine Konkurrenz die da mitreden kann für eine Weile), hat NV einfach nur weniger GPUs im Consumer- bzw. Gaming-Markt verkauft. Mangels gleichwertiger Alternativen aber nicht nur äußerst unwahrscheinlich, da müsste die Presse und alle Käufer schon geschlossen der Meinung sein, den "Fortschritt" zu stoppen und mit Fakten austeilen. Das wird nicht passieren. so siehts (leider) aus.
MasterElwood
2018-09-19, 14:51:54
Dann benötigt man trotzdem mal eben 800 Prozent (!) Leistungssteigerung, um nur 4K @ 60 fps für den xx70er-Karte anzubieten. 800 Prozent.
800 Prozent bei einer komplett neuen Technologie sind jetzt nix soooo aufregendes (verglichen mit eine bestehenden Technologie wo alles schon ewig und ausgiebig optimiert wurde).
Engine & Game
Treiber
Denoising
Überall is noch massig Optimierungspotential drinnen
PLUS: da die neuen Cores ja anscheinend wenig Platz brauchen und mit 7mm dann sowieso ein großer Sprung bevorsteht, kann NV so richtig klotzen und muss ned kleckern. Mich würde nicht wundern wenn die nächste Generation gleich mit der drei- oder vierfachen Zahl an Tensor- und RT Cores kommt.
Calypso
2018-09-19, 14:56:23
ja, aber die Midrange Karten werden mit der 7nm Fertigung wahrscheinlich max. so viel bekommen wie die 2070 jetzt hat - und das soll ja schon spärlich sein... Das 3-fache an leistung nüetzt ja nichts, wenn nur die obersten 10 % davon etwas haben - das ist dann immer noch keine Marktdurchdringung
Tesseract
2018-09-19, 14:58:38
Die Frage ist ob der Drop bei theoretisch(!) ins unendliche gesteigerter RT Leistung gegen null geht oder ob auch die herkömmliche HW signifikant davon beeinträchtigt ist. Wenn ersteres der Fall ist, wäre eine bessere Performance mit RT in zukünftigen Gena einfacher zu gewährleisten da man nicht alle Einheiten hochskalieren muss.
nicht nur gegen null, dann sollte die framerate sogar höher als die der reinen rasterisierung sein da die klassischen shader viel weniger zu tun haben wenn teile der beleuchtung die RT-cores machen - zumindest so lange die arithmetik und nicht die speicherbandbreite limitiert.
wahrscheinlich kommen in zukunft sowieso irgendwann unified cores wie das bei pixel- und vertexshadern auch der fall war.
Dann benötigt man trotzdem mal eben 800 Prozent (!) Leistungssteigerung, um nur 4K @ 60 fps für den xx70er-Karte anzubieten. 800 Prozent.
Die wenigsten Bildanteile werden in voller Auflösung berechnet. Das ist eine ziemlich dämlich Rechnung.
Geächteter
2018-09-19, 15:03:44
ja, aber die Midrange Karten werden mit der 7nm Fertigung wahrscheinlich max. so viel bekommen wie die 2070 jetzt hat - und das soll ja schon spärlich sein... Das 3-fache an leistung nüetzt ja nichts, wenn nur die obersten 10 % davon etwas haben - das ist dann immer noch keine Marktdurchdringung
Wäre es so wie damals bei der Geforce 3, wo TDP und Fertigung noch viel Luft hatten, hätte ich gesagt, das wird ein Erfolg und die Zukunft. Wo aber die TDP schon am Rande des Machbaren ist und Fertigung ebenfalls, also nach 7 nm in den nächsten 10 Jahren nicht mehr viel im worst case gar nichts zu erwarten ist, wird es eher darauf hinauslaufen, dass man über gescheite Programmierung/Implementierung die Sache zum Mainstream rettet.
Selbst RTX on @ FHD sind ja mit ner Ti immer noch nicht wirklich umfassend rund. Also da müssen noch mehrere Wunder in den nächsten 5 Jahren geschehen.
TurricanM3
2018-09-19, 15:05:15
Hardwareluxx schreibt:
Ein paar Worte noch zum Spulenfiepen: Wir konnten keines feststellen. NVIDIA hat nach eigener Aussage bei der Strom- und Spannungsversorgung auch weitestgehend versucht auf Spulen zu verzichten.
Ich kann das nach den ganzen Karten der letzten Jahre kaum glauben. Das Gesurre/Gefiepe war die ganzen letzten Jahre bei allen Karten die ich hatte das mit Abstand lauteste an der Kiste. Das wäre für mich ein ganz großes Plus. :love2:
TurricanM3
2018-09-19, 15:15:19
Na toll, wohl doch nicht Nebengeräuschfrei. CB:
Beide Founders-Edition-Modelle geben unabhängig der Framerate leichte und übliche elektronische Störgeräusche von sich. Diese fallen aus einem geschlossenen Gehäuse nicht auf. Erst bei mittleren bis hohen dreistelligen Frameraten lässt sich ein unangenehmes Spulenfiepen feststellen.
:(
Ich hoffe das ist trotzdem leiser als noch zuvor.
Reaping_Ant
2018-09-19, 15:21:47
Die Frage ist ob der Drop bei theoretisch(!) ins unendliche gesteigerter RT Leistung gegen null geht oder ob auch die herkömmliche HW signifikant davon beeinträchtigt ist.
Soweit ich es verstanden habe, sind die RT-Einheiten ja nur dafür zuständig, herauszufinden, welcher Strahl wo auf welches Polygon trifft. Das eigentliche Shading übernehmen nach wie vor die normalen ALUs. So gesehen erzeugen zusätzlich RT-Effekte auch zusätzliche Shader-Last. Zudem konkurrieren die RT-Einheiten mit den normalen ALUs auch um Speicher-/Cachebandbreite.
Was genau bei den momentanen Implementierungen limitiert, also die reine Berechnung der Strahlen, das zusätzliche Shading oder doch die Speicherbandbreite, weiß ich natürlich auch nicht.
Im Idealfall ist es natürlich so wie Tesseract sagt: Für einige Effekte ist RT besser geeignet als die entsprechenden Rasterizing-Umsetzungen, und bei RT-Leistung im Überfluss kann man die klassischen Shadereinheiten entlasten... so lange nichts anderes limitiert.
unl34shed
2018-09-19, 15:23:01
Hardwareluxx schreibt:
Ein paar Worte noch zum Spulenfiepen: Wir konnten keines feststellen. NVIDIA hat nach eigener Aussage bei der Strom- und Spannungsversorgung auch weitestgehend versucht auf Spulen zu verzichten.
Ich kann das nach den ganzen Karten der letzten Jahre kaum glauben. Das Gesurre/Gefiepe war die ganzen letzten Jahre bei allen Karten die ich hatte das mit Abstand lauteste an der Kiste. Das wäre für mich ein ganz großes Plus. :love2:
Die Spannungswandler und Filter werden immernoch spülen habe und dass und auch meistens die, die Probleme machen.
dildo4u
2018-09-19, 15:25:13
CB hat ein DLSS Video von Final Fantasy 15.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/5/#abschnitt_dlss_kann_spiele_schoen_und_schneller_machen
Daredevil
2018-09-19, 15:39:45
Eigentlich müsste man sich den Thread direkt nochmal komplett durchlesen und die ganzen Leute auslachen, die +80% Leistung, 16GB und den gleichen Preis wie bei der Vorgänger Generation als gesetzt gesehen haben. :D
Endlich ist alles raus und irgendwie.... bin ich nicht so ganz überrascht und angetan auch weniger. Nun denn. Wird ne schwere Zeit für AMD, Nvidia hat anscheinend alles richtig gemacht bei dem aktuellen Markt.
Tesseract
2018-09-19, 15:40:29
Soweit ich es verstanden habe, sind die RT-Einheiten ja nur dafür zuständig, herauszufinden, welcher Strahl wo auf welches Polygon trifft. Das eigentliche Shading übernehmen nach wie vor die normalen ALUs.
davon bin ich anfangs auch ausgegangen, aber in den vorträgen hört sich das eher so an als wären das vollständige fixed function units - also zumindest inkl. der schnittberechnungen die ja einen großteil der last ausmachen.
Sunrise
2018-09-19, 15:50:04
CB hat ein DLSS Video von Final Fantasy 15.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/5/#abschnitt_dlss_kann_spiele_schoen_und_schneller_machen
Leider totkomprimiert, man sieht absolut nichts.
Benchmarks und gescriptete Szenen stellen zudem keinen tauglichen Alltagsvergleich beim Spielen dar.
Ich hoffe da kommt noch mehr.
Tesseract
2018-09-19, 15:56:15
Leider totkomprimiert, man sieht absolut nichts.
selbst da sieht DLSS deutlich schärfer aus als TAA, siehe vegetation in der mitte des FF-videos. und das bei deutlich höherer performance. sieht vielversprechend aus.
aufkrawall
2018-09-19, 16:02:14
selbst da sieht DLSS deutlich schärfer aus als TAA, siehe vegetation in der mitte des FF-videos. und das bei deutlich höherer performance. sieht vielversprechend aus.
Sehe ich auch so. Das CB-Video ist aber mal wieder ziemlich dilettantisch, kürzer und mit weniger Kompressions-Artefakten wäre wesentlich sinnvoller gewesen.
Edit: Die PCGH-Screenshots sind mit dem DoF, das offenbar Aliasing verursacht, auch nicht optimal. Liegt aber wohl auch daran, dass es noch keinen "cleanen" Testcase gibt.
Das TAA in FF ist btw. ziemlich mittelmäßig.
monstar-x
2018-09-19, 16:29:13
Leider totkomprimiert, man sieht absolut nichts.
Benchmarks und gescriptete Szenen stellen zudem keinen tauglichen Alltagsvergleich beim Spielen dar.
Ich hoffe da kommt noch mehr.
Das denke ich auch, auf eine gescriptet und immer gleiche Szene, lässt es sich super optimieren, alles schön vorrendern :-)
Zu den 2080er Karten, alles wie erwartet.
Ich behalte meine 1080Ti und kaufe mir keine 2080Ti, der Abstand mit max 35% ist mir keine 700€ Wert.
aufkrawall
2018-09-19, 16:30:19
Das denke ich auch, auf eine gescriptet und immer gleiche Szene, lässt es sich super optimieren, alles schön vorrendern :-)
Das ist erstmal nur eine Behauptung ohne Beleg. ;)
Edit: Die PCGH-Screenshots sind mit dem DoF, das offenbar Aliasing verursacht, auch nicht optimal. Liegt aber wohl auch daran, dass es noch keinen "cleanen" Testcase gibt.
Das TAA in FF ist btw. ziemlich mittelmäßig.
Du siehst die 4 Stills, die in dem Kameraflug möglich sind. :D Da steht noch etwas Orakelei bezüglich einer Nachschärfung. Nvidia verliert dazu bislang wenige Worte. Die Unterschiede sind schon ziemlich deutlich und mal sieht das eine, mal das andere Bild besser aus.
MfG
Raff
aufkrawall
2018-09-19, 16:43:22
Es geht einfach grundsätzlich darum, dass DLSS prinzipiell benachteiligt sein kann, wenn das DoF Aliasing erzeugt, was erst die temporale Keule lindert.
Deswegen wäre ein Testcase eines Spiels mit sauberen Effekten besser, und am besten auch ohne so einen Blur-Murks.
Kommt Zeit, kommt Testmöglichkeit. Derzeit ist das wirklich viel Stochern im Nebel – und man wird dabei durch die Schwaden geführt, statt selbst darin herumzuirren. ;)
MfG,
Raff
SKYNET
2018-09-19, 17:09:44
wo sind eigentlich unsere beiden NV fantrolle, die so fett rumgetönt hatten das die karten massivst schneller sind als ihre vorgänger, und die 2080 auch eine jede 1080Ti custom um min. 20% schlagen würde?
haben sich wohl in ihr loch verkrochen und tauchen erst wieder auf wenn der staub sich gelegt hat... :ulol:
SKYNET
2018-09-19, 17:12:50
MfG,
Raff
wegen aufheizen: das ist schon ein wenig unfair und erklärt auch die massive abweichung in euren tests.... evtl. solltet ihr dazuschreiben "die beiden FE generationen sind absolut nicht vergleichbar aufgrund des minderwertigen kühlers der pascal generation wodurch die 1080/Ti massiv eingebremst werden, ohne dieses thermische limit würde die 1080Ti FE nahezu gleichstand mit der 2080FE erreichen" und das ganze GANZ FETT direkt über jedem kästchen mit den balken.
Zur Sicherheit: Aufheizen ist unfair? Meinst du das ernst? Aufheizen ist das, was man beim Spielen halt so macht. Berechnungen erzeugen Wärme, Wärme führt zu reduziertem Boost. Werkszustand vs. Werkszustand. Es geht nicht darum, irgendeine Karte "schönzutesten". Einfach apples to apples.
MfG,
Raff
Daredevil
2018-09-19, 17:21:35
Fürs Ethereum Mining ist das ganze auch gestorben, aktuell zumindest.
Ne optimierte 1080ti ist ~10% schneller als ne Stock 2080ti, welche mehr Saft verbraucht.
Aber vielleicht gibts ja noch nen anderen Usecase.
SKYNET
2018-09-19, 17:45:04
Zur Sicherheit: Aufheizen ist unfair? Meinst du das ernst? Aufheizen ist das, was man beim Spielen halt so macht. Berechnungen erzeugen Wärme, Wärme führt zu reduziertem Boost. Werkszustand vs. Werkszustand. Es geht nicht darum, irgendeine Karte "schönzutesten". Einfach apples to apples.
MfG,
Raff
geht einfach dadrum, das die leute nicht denken, die neue generation(in dem fall meine ich die 2080) sei schneller als ne 1080Ti FE, weil das ist sie ja nichtmal wirklich, wenn man alle regler nach rechts dreht bricht sie sogar massivst ein und die 1080Ti ist in weiter ferne. :wink:
Godmode
2018-09-19, 18:15:41
Fürs Ethereum Mining ist das ganze auch gestorben, aktuell zumindest.
Ne optimierte 1080ti ist ~10% schneller als ne Stock 2080ti, welche mehr Saft verbraucht.
Aber vielleicht gibts ja noch nen anderen Usecase.
Es wird wohl auch ne Enlargementpill für Turing geben, weil GDDR5X und GDDR6 ja ähnlich sind.
ChaosTM
2018-09-19, 18:46:13
Wie erwartet. Nette neue Technik aber ansonsten zu wenig Speicher und auch nicht wirklich sehr schnell.
Mit 16GB könnte man eventuell anfangen nachzudenken, aber so ist das völlig sinnfrei für mich.
pixeljetstream
2018-09-19, 19:02:23
ui Rom ist mal wieder am Brennen ;)
Es gibt einen technischen Thread zum Thema RT hier https://www.forum-3dcenter.org/vbulletin/showthread.php?t=590214
Alles unterliegt bei der technischen Entwicklung einem evolutionären Prozess. Man plant was mit dem damaligen Stand des Wissens und Modellen/Simulationen, es wird wirtschaftlich abgeschätzt wieviel von was sinnvoll ist. Wenn es dann raus ist, kann man viel schneller und besser neue Daten sammeln und das ganze verbessern. Das ist nicht neu.
Da wir keine Götter/Genies sind, ist davon auszugehen dass wir nie die perfekte Lösung kriegen. Die Evolution hat beim Rasterizer schon länger gewirkt, aber genauso bei den generischen shading units (die ja auch beim RT viel Last zu tragen haben) dennoch sehen wir hier immer noch Fortschritte. RT in dieser Form in Spielen steht am Anfang.
Leider ist zu viel Halbwissen bei vielen im Spiel, und leider machen sie sich auch nicht die Mühe hier sich genauer was anzulesen, machen aber selber einen auf Entwickler und wissen wie man das Zeug hätte designen sollen ;)
Der Einsatz der RT cores hat es ermöglicht in einem Teilbereich des RT eine Verbesserung zu erzielen auf die man mit herkömmlichen Mitteln wohl 2 Generationen gebraucht hätte. Was wenn ich mich recht erinnere Jensen auch so gesagt hatte.
Imo zeugt die Behauptung man hätte es erst bringen sollen wenn es "4k perfekt" schafft von Arroganz bzw. Unwissen, dass man sowas aus dem Stand weg hinbekommt und wirtschaftlich wäre. Aus irgendeinem Grund gibt es diesen Mythos dass quasi alles in Schublade schon perfekt gelöst sei. Vielleicht ist das Marketing schuld, immer jede Generation als das größte etc. zu hypen, aber wir alle leben in einer Welt von Somat 12 (war Somat 5 scheiße?) und sollten daher eigentlich wissen wie Werbung funktioniert ;)
Woher soll das Wissen kommen, wie man es "perfekt in 4k" löst? Zu nem späteren Zeitpunkt sieht das 4k game ja unabhängig von RT auch wieder anders aus ;) Klar kann man simulieren, aber wir reden da nicht mehr von Sekunden die ein Bild im Chipsimulator braucht.
Wir genießen doch den Fortschritt, gerade weil die Iterationszeiten immer kürzer werden und die Technik in der Breite verfügbar ist.
Wir befinden uns bei den Spielen sowohl hw, sw am Anfang, mag sein dass BF mit der Volta ein Jahr spielen konnte, aber das ist eben mitnichten das gleiche wenn man wirklich die HW hat. Und wer die slides von EA SEED gesehen hat, sieht ja wieviel flotter Turing in den Teilbereichen ist. Fortschritte werden also gemacht, und das wird für die Nachfolge Generationen genauso gelten wie die davor, alles Anhand der Daten/Gebrauchsmuster etc. die man im Markt findet. Das ist wirklich "normal" und sollte nicht überraschen. In diesem Markt sind eben drei Parteien (HW Hersteller, SW Hersteller, Kunden) die sich gegenseitig beeinflussen, weswegen der Balanceakt des Designs eben nicht ohne "Realität" funktioniert.
Daredevil
2018-09-19, 19:37:26
@SKYNET
Dann informier dich halt vorher, wenn du dir Tests durchließt.
PCGH testet soweit ich weiß immer mit "vorgeheizten" Karten, aber auf dem Benchtable.
Igor hat sich extra ein Plexi Case gebaut, um realitätsnah zu sein.
Jay, ein Ami Youtube bencht extra offen und heizt nicht auf, zudem ist sein Raum klimatisiert, weil er im Case eh nie JEDES Gehäuse auf dieser Welt nachbilden kann.
Testmethoden unterscheiden sich. Aber immerhin es es gut, wenn diese ja kommuniziert werden.
@Godmode
Von öffentlichen Pillen haben die Jungs und Mädels erstmal die Schnauze voll, da sie die intern in ihren eigenen Projekten nutzen. Da kommt in nächster Zeit anscheinend nicht mehr viel neues.
unl34shed
2018-09-19, 19:59:22
@pixeljetstream: Im prinzip gebe ich dir bei dem, was du geschrieben hast, vollkommen recht.
Aber, wenn sich da ein Hansel hinstellt und etwas von "realtime RT" und wir haben es geschafft labert und am Ende nicht mal die standard consumer 1080p60 rauskommen. (jaja cinematic 30fps von den Consolen wollen ja alle :freak:)
Dazu dann noch Vergleiche, bei denen nicht einmal versucht wurde, die Effekte "traditionell" nachzubauen. Jetzt etwas überspitzt formuliert "RT ermöglicht schatten... sowas gab es früher noch nicht, schaut es euch in der Demo an" das selbe bei Reflexionen, gab es davor auch noch nie...
Nur Komisch, dass schon CSGO recht passabel die Reflexionen hinbekommt ohne das die FPS in den Keller gehen.
Und was man auch nicht vergessen darf, das sind Karten für zum Teil über 1000€ für 1080p30-60 :eek: Enthusiasten Karten die keine Enthusiasten Monitore befeuern können.
RT als Feature hätte wunderbar in eine Titan gepasst um den Entwicklern etwas zum spielen zu geben und als , aber bei der P/L ist es einfach nicht bereit für den Massenmarkt, das musst doch selbst du einsehen.
Daredevil
2018-09-19, 20:11:29
Bei Saturn/Media Markt gibts bald "19% MWST geschenkt".
Wenn man das mit 2% Shoop Cashback kombiniert, kommt man locker unter 1000€ für ne RTX2080TI.
https://www.mydealz.de/deals/19-mwst-geschenkt-aktion-am-21-und-22092018-bei-media-markt-und-saturn-on-und-offline-1230945
N0Thing
2018-09-19, 20:37:47
Interessante Reviews, bin gespannt wie die Entwicklung in den nächsten Jahren weitergeht. Ob man sich wirklich auf Dauer den Platz für RT leisten kann und ob es mit der Zeit ein alltägliches Feature wird. Von der reinen Hardware her ein feines Stück Technik, kann man nicht anders sagen. Der Sprung bei der allgemeinen Leistung und beim Preis ist aber eher enttäuschend.
wegen aufheizen: das ist schon ein wenig unfair und erklärt auch die massive abweichung in euren tests.... evtl. solltet ihr dazuschreiben "die beiden FE generationen sind absolut nicht vergleichbar aufgrund des minderwertigen kühlers der pascal generation wodurch die 1080/Ti massiv eingebremst werden, ohne dieses thermische limit würde die 1080Ti FE nahezu gleichstand mit der 2080FE erreichen" und das ganze GANZ FETT direkt über jedem kästchen mit den balken.
Die Karten werden nun einmal in dieser Form von Nvidia angeboten, der Kühler der aktuellen FE-Generation ist einfach besser als das Modell von der Referenz, oder den früheren Modellen. Genau das spiegelt sich in den Testergebnissen wieder. Wenn die anderen Hersteller ihre eigenen Kühllösungen fertig haben, werden diese Karten ja auch nicht künstlich mit dem Takt des Referenzmodells getestet oder eine Warnung heraus gegeben. :freak:
aufkrawall
2018-09-19, 20:54:47
Nur Komisch, dass schon CSGO recht passabel die Reflexionen hinbekommt ohne das die FPS in den Keller gehen.
Weil CS:GO quasi museumsreife Rendertechnik der 90er Jahre mit kaum vorhandener Dynamik und Mini-Leveln nutzt.
pixeljetstream
2018-09-19, 21:18:44
@unleashed die Kritik an der GeForce Launch Präsentation kann ich gut nachvollziehen. Das ist imo aber was anderes als die technische Diskussion, bzw. welche Features in welche Chips kommen. Du brauchst mehr als einen Chip um Erfahrung mit Skalierung zu machen.
Imo wird RT zu sehr zum Sündenbock für den Preis gemacht. Die Tensor cores sind ein Versuch langfristig herkömmliche Berechnung zu entlasten und universeller. Die Aufteilung mancher Schaubilder interpretierten manche als Flächen, ergo Kosten, die so nicht stimmen.
Godmode
2018-09-19, 21:58:58
@Godmode
Von öffentlichen Pillen haben die Jungs und Mädels erstmal die Schnauze voll, da sie die intern in ihren eigenen Projekten nutzen. Da kommt in nächster Zeit anscheinend nicht mehr viel neues.
Ich lese deren Discord-Channel schon länger nicht mehr, warum den dass?
Btw. meine VCU 1525 habe ich immer noch nicht.
Daredevil
2018-09-19, 22:04:46
Weil sie nur Undankbarkeit geerntet haben und das halt ziemlich ankotzt.
Sie werden heute noch täglich geflamed, warum es keine Vega Pill gibt, was denn mit der 1070 ist und blablablabla. Dankbarkeit ist bei manchen halt nicht so ausgeprägt.
Deswegen gehe ich auch kaum von einer Unterstützung von GDDR6 aus, zumal sie ja auch jetzt ihr eigenes Business haben.
OhGodAGirl schrieb zu Turing im Bezug auf den CB Test:
I told folks...
It's not going to be a huge performance increase like everyone suspects.
It's literally matched @ a 1080Ti speed.
Though they don't have the Pill speed advertised. :smiley:
Hehehe.
Tschibbl
2018-09-19, 22:06:52
Interessante Reviews, bin gespannt wie die Entwicklung in den nächsten Jahren weitergeht. Ob man sich wirklich auf Dauer den Platz für RT leisten kann und ob es mit der Zeit ein alltägliches Feature wird. Von der reinen Hardware her ein feines Stück Technik, kann man nicht anders sagen. Der Sprung bei der allgemeinen Leistung und beim Preis ist aber eher enttäuschend.
Vielleicht kommt eines Tages eine neue Generation mit einer Art "Unified Cores", welche Tensor-/RT Cores und Mesh Shader ersetzen. :confused:
Sowie damals beim glorreichen G80 und seinen Unified Shaders, wird uns eines Tages in Kombination mit einer Chipvergrößerung (ähnlich wie zwischen 7900 GTX und 8800 GTX) ein wahnwitziger Leistungssprung bevorstehen. :freak:
Daredevil
2018-09-19, 22:08:24
Sind die RT Cores nicht sowas wie ein Raytracing ASIC? Irgendwo habe ich sowas mal gelesen.
Fliwatut
2018-09-19, 22:09:43
Das sind gute Nachrichten, dass Turing für Miner nix bringt :up:
dildo4u
2018-09-19, 22:18:11
Könnte aber sein das sich die Pros die Karten besorgen scheint nicht beschnitten in Compute Bereich.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=14
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/6/#diagramm-gpu-compute-radeon-pro-renderer-baikal
Spasstiger
2018-09-19, 23:52:19
Wie sieht wohl die Titan "RTX" aus? Natürlich TU102 im Vollausbau mit anständigen Taktraten und vielleicht 24 GiB GDDR6 für schmerzhafte 2000 €. Das Ganze mit 2*8-Pin-PCIe-Power für max. 375 Watt Powerlimit.
pixeljetstream
2018-09-20, 00:01:30
Vielleicht kommt eines Tages eine neue Generation mit einer Art "Unified Cores", welche Tensor-/RT Cores und Mesh Shader ersetzen. :confused:
Sowie damals beim glorreichen G80 und seinen Unified Shaders, wird uns eines Tages in Kombination mit einer Chipvergrößerung (ähnlich wie zwischen 7900 GTX und 8800 GTX) ein wahnwitziger Leistungssprung bevorstehen. :freak:
Wir haben schon unified cores. Das wo die Shader drauf laufen. Deren Instruktionen werden von verschiedenen execution units ausgeführt die spezialisiert sind, z.b für float Multiplikation, oder Texture Units etc. Jetzt kommen halt zwei so neue Units hinzu. Aber das ändert nix am unified shader setup.
Alle "Shader" sind eine rein logische Einteilung wie der Datenfluss abläuft, sie sind nicht physisch vorhanden.
Hübie
2018-09-20, 00:10:47
Wie sieht wohl die Titan "RTX" aus? Natürlich TU102 im Vollausbau mit anständigen Taktraten und vielleicht 24 GiB GDDR6 für schmerzhafte 2000 €. Das Ganze mit 2*8-Pin-PCIe-Power für max. 375 Watt Powerlimit.
Gute Frage. Wenn es einen Ampére gibt, dann ist dieser geradezu prädestiniert sich deiner Frage anzunehmen... :sneak:
@pixeljetstream: Es ist eben Wagniskapital, was man da jetzt in die Schale geworfen hat. Was die Verbraucher ankotzt sind die Preise und da bietet es sich an, RT ASICs als Sündenbock hinzustellen. Menschen haben Angst vor neuen Dingen, also werden die erst einmal schlecht gemacht.
Daran sieht man, dass selbst nach Tausenden Jahren die Menschen immer noch nicht geblickt haben wie Finanzwirtschaft funktioniert. Und solange es Santander gibt, blickt es auch kaum einer. ;)
pixeljetstream
2018-09-20, 00:35:06
Das Problem ist einfach, dass das Niveau schon so hoch ist, das es schwer wird was zu zeigen was wirklich umhaut, da die Spielentwickler ja was brauchen was im Markt funktioniert. Henne/Ei mäßig kann man zum Launch nicht zeigen was wirklich machbar ist weil die Erfahrung fehlt, trotz dessen was schon reingeflossen ist. (Für Film ging das mit dem star wars noch gut).
Alle anderen Features wie auch Mesh Shading sind halt Ideen wie man für die Zukunft mehr rausholt, aber bis das vorausgesetzt werden kann vergehen halt locker 5-8 Jahre wenn wir sehen wie lange wir nun dx11 hw haben.
Das "lag" ist schon enorm, wir arbeiten an Architekturen/Konzepten die wiederum 5 Jahre weg sind, das heißt wir reden von bald 10-15 Jahren bis das Zeug Basis im Mainstream ist... Was irgendwie cool und frustrierend zugleich ist ;)
VooDoo7mx
2018-09-20, 00:55:43
Meiner Meinung nach ist eine Turing Titan ziemlich sicher und wird noch dieses Jahr kommen. 2080Ti ist nur TU102-300.
Die Frage wird sein, ob nVidia dann auf 24GiB geht. Ich persönlich halte 24GiB VRam für ziemlich sinnlos und hätte lieber eine 12GiB Karte die dafür günstiger ist.
gravitationsfeld
2018-09-20, 01:30:22
Das sind gute Nachrichten, dass Turing für Miner nix bringt :up:
Irgendwie glaub ich das noch nich so ganz. Turing hat full rate int Durchsatz, das ist eigentlich super fuer die Hashes.
Leonidas
2018-09-20, 05:49:22
Das "lag" ist schon enorm, wir arbeiten an Architekturen/Konzepten die wiederum 5 Jahre weg sind, das heißt wir reden von bald 10-15 Jahren bis das Zeug Basis im Mainstream ist... Was irgendwie cool und frustrierend zugleich ist ;)
Kann ich total nachvollziehen. Zudem steigt mit den geringeren Fortschritten in der Fertigung der Einsatz von Intelligenz bzw. der Zwang dazu. Sprich: Es muß wie bei Maxwell und jetzt Turing getrickst werden, mit gleicher Rohpower soll mehr Dampf rauskommen. Früher konnte man sich da einfach auf die Einheiten-Steigerung mit jeder neuen Fertigungstechnologie verlassen.
Im Sinne dessen kann man die Schritte dieses Speku-Threads dann auch langsam dahingehend lenken, was nun noch von Turing zu erwarten ist:
- Kleinere Turing-Chips wann?
- In welcher Architektur (Pascal/Volta/Turing)?
- Mit RayTracing?
- Mit DLSS?
- In welcher Fertigung?
- Performance-Prognose?
Godmode
2018-09-20, 07:15:14
Irgendwie glaub ich das noch nich so ganz. Turing hat full rate int Durchsatz, das ist eigentlich super fuer die Hashes.
Turing wird super fürs Mining, genau wie Volta eben. Das wird sich dann rein über den Preis regeln. Meine 2080er sollte am Vormittag bei mir sein, dann kann ich mehr darüber berichten.
horn 12
2018-09-20, 07:41:52
Nun, Vega kostet teils nur mehr die Hälfte wie Turing klein
die Zeit bis 7nm zu überbrücken wäre damit nicht soo falsch
MartinRiggs
2018-09-20, 07:47:44
Kannst du mal mit deiner Vega Werbung aufhören?
Das interessiert hier kein Schwein, die meisten haben 1070,1080 und sind höchstens von Turing enttäuscht, dann brauch man aber auch keine Vega weil die ist keinen Deut schneller.:rolleyes:
BigBangBacket
2018-09-20, 08:02:23
Kannst du mal mit deiner Vega Werbung aufhören?
Das interessiert hier kein Schwein, die meisten haben 1070,1080 und sind höchstens von Turing enttäuscht, dann brauch man aber auch keine Vega weil die ist keinen Deut schneller.:rolleyes:
Wart erstmal ab bis er behauptet das Vega durchweg besser ist als Turing und Pascal zusammen. Teilweise sind seine Beiträge so fern der Realität.....
Leonidas
2018-09-20, 09:06:12
Back to topic (und weg vom Kleinkrieg) bitte ...
- Kleinere Turing-Chips wann?
- In welcher Architektur (Pascal/Volta/Turing)?
- Mit RayTracing?
- Mit DLSS?
- In welcher Fertigung?
- Performance-Prognose?
BigKid
2018-09-20, 10:05:52
Kann ich total nachvollziehen. Zudem steigt mit den geringeren Fortschritten in der Fertigung der Einsatz von Intelligenz bzw. der Zwang dazu. Sprich: Es muß wie bei Maxwell und jetzt Turing getrickst werden, mit gleicher Rohpower soll mehr Dampf rauskommen. Früher konnte man sich da einfach auf die Einheiten-Steigerung mit jeder neuen Fertigungstechnologie verlassen.
Im Sinne dessen kann man die Schritte dieses Speku-Threads dann auch langsam dahingehend lenken, was nun noch von Turing zu erwarten ist:
- Kleinere Turing-Chips wann?
- In welcher Architektur (Pascal/Volta/Turing)?
- Mit RayTracing?
- Mit DLSS?
- In welcher Fertigung?
- Performance-Prognose?
Die Frage ist IMHO ob kleinere Chips überhaupt kommen.
Ich denke Raytracing macht keinen Sinn mehr unterhalb der RTX2070.
Bleibt DLSS. Bei DLSS sagen sie ja aber anscheinend "unter 4k lohnt sich das nicht". Ist 4k Gaming der Einsatzbereich für eine 2060 ?
Andererseits interpretiert hier die PCGamesHardware vielleicht eine Aussage von NVidia falsch und diese meinen damit sowas wie "es lohnt sich aktuell nicht DLSS bei einer 2080 oder 2080ti unterhalb von 4k einzusetzen" ...
Vermutlich labeln sie um - oder es kommt vlt. eine GTX2060 ganz ohne die RTX Features...
Dagegen spricht eigentlich nur, dass sie an einer weiten Verbreitung des ganzen interessiert sein dürften und die 2060 halt die "Brot und Butter" Karte wäre...
Rein Performance Technisch müsste die 2060 eigentlich zwischen 1070 und 1080 raus kommen (ohne den RTX Kram)...
Macht alles eigentlich nur Sinn wenn sie einen eigenen Chip für die 2060 und drunter auflegen...
Der_Korken
2018-09-20, 10:12:02
Woran hapert es, DLSS für mehr und auch kleinere Auflösungen zu bringen? Meine naive Vorstellung sieht etwa so aus, dass man sich bei Nvidia ein Spiel vornimmt und dort Screenshots von tausenden von Szenen macht, auf denen möglichst alle Spielelemente zu sehen sind. Das ganze jeweils in jeder Auflösung, für die man später DLSS anbieten will und auch in einer "Super-Auflösung", die später als ground truth fürs CNN benutzt wird. Und dann lässt man den ganzen Spaß aufm Cluster rödeln. Der Mehraufwand für mehr Auflösungen besteht nach dem Modell eigentlich nur in erhöhter Rechenzeit aufm Cluster, der Personalaufwand würde kaum steigen.
BigKid
2018-09-20, 10:13:30
Woran hapert es, DLSS für mehr und auch kleinere Auflösungen zu bringen? Meine naive Vorstellung sieht etwa so aus, dass man sich Nvidia ein Spiel vornimmt, dort Screenshots von tausenden von Szenen macht, auf denen möglichst alle Spielelemente zu sehen sind. Das ganze jeweils in jeder Auflösung, für die man später DLSS anbieten will und auch in einer "Super-Auflösung", die später als ground truth fürs CNN benutzt wird. Und dann lässt man den ganzen Spaß aufm Cluster rödeln. Der Mehraufwand für mehr Auflösungen besteht nach dem Modell eigentlich nur in erhöhter Rechenzeit aufm Cluster, der Personalaufwand würde kaum steigen.
Hatte ich oben grad noch reingschrieben:
Vielleicht interpretiert hier die PCGamesHardware auch nur eine Aussage von NVidia falsch und diese meinen damit sowas wie "es lohnt sich [bei Games ohne Raytracing] aktuell nicht DLSS bei einer 2080 oder 2080ti unterhalb von 4k einzusetzen" ...
Technisch sollte es kein Problem sein...
robbitop
2018-09-20, 10:13:44
Ich frage mich, warum die Zielauflösung relevant ist. Solange die Trainingsauflösung höher ist...
BigKid
2018-09-20, 10:16:50
Ich frage mich, warum die Zielauflösung relevant ist. Solange die Trainingsauflösung höher ist...
Ich dachte das Netz lernt von (genau) einer Quellauflösung in (genau) eine Zielauflösung mit AA zu scalen. Und genau deshalb und weil es pro Spiel trainiert wird klappt das besser als mit herkömmlichen Algos.
Damit wäre es SEHR relevant. Sobald du eine Auflösung änderst müsstest du IMHO wieder herkömmlich "Zwischenscalen" damit es für das Netz wieder passt ...
Ich denke du brauchst pro Auflösungskombi halt ein Netz... Und wenn NVidia sagt "Nö das sehen wir nicht..." dann gibts das halt auch nicht...
Adam D.
2018-09-20, 10:18:58
Die Frage ist IMHO ob kleinere Chips überhaupt kommen.
Ich denke Raytracing macht keinen Sinn mehr unterhalb der RTX2070.
Bleibt DLSS. Bei DLSS sagen sie ja aber anscheinend "unter 4k lohnt sich das nicht". Ist 4k Gaming der Einsatzbereich für eine 2060 ?
Andererseits interpretiert hier die PCGamesHardware vielleicht eine Aussage von NVidia falsch und diese meinen damit sowas wie "es lohnt sich aktuell nicht DLSS bei einer 2080 oder 2080ti unterhalb von 4k einzusetzen" ...
Vermutlich labeln sie um - oder es kommt vlt. eine GTX2060 ganz ohne die RTX Features...
Dagegen spricht eigentlich nur, dass sie an einer weiten Verbreitung des ganzen interessiert sein dürften und die 2060 halt die "Brot und Butter" Karte wäre...
Rein Performance Technisch müsste die 2060 eigentlich zwischen 1070 und 1080 raus kommen (ohne den RTX Kram)...
Da die 2070 eh schon am absoluten unteren Ende der RT-Leistung landen wird (und sich noch zeigen muss, ob das Feature auf der Karte überhaupt irgendeinen Sinn hat, wenn selbst die großen Karten Kenntnisstand heute erhebliche Probleme bekommen werden), müsste eine 2060 auf gleichem Level sein, was der 2070 einen faden Beigeschmack geben würde.
Ich hab halt keine Ahnung, ob NV die Tensor- und RT-Cores einfach vom Die nehmen kann. Draufpacken und deaktivieren (per Hardware) wäre doch Irrsinn bei >450mm2 beim TU106. Also ich krieg das aktuell nicht so wirklich zusammen, bin gespannt, was NV genau machen wird.
Kleine Turings:
TU106 Salvage: 28SMs mit RT
TU107:
- 28/24 SMs
- 192Bit GDDR6 (14 und 11GT/s)
- kein RT aber sehr wohl DLSS
- ca. 250mm²
TU108:
- 16/12 SMs
- 128Bit GDDR6 (11GT/s)
- ca.160mm²
darunter GP108
RTX 2060 Ti = TU106 Salvage
GTX 2060 = TU107 Full
GTX 2050 Ti = TU107 salvage
GTX 2050 = TU108 Full
GT 2040 = TU108 salvage
GT 2030 = GP108 rename
oder so
Dural
2018-09-20, 10:28:02
RT kann man doch wunderbar und gut Skalieren, und die RT Leistung der 2070 wird auch nicht so weit weg der 2080 sein.
Geächteter
2018-09-20, 11:02:31
RT kann man doch wunderbar und gut Skalieren, und die RT Leistung der 2070 wird auch nicht so weit weg der 2080 sein.
Viel skalieren nach unten lässt sich vom bisher gezeigten Niveau da nicht, wenn nicht fast alles fehlen soll oder man nicht glauben soll, man hätte Artefakte im Spiel und altbekannte Lösungen sehen dann stimmiger aus.
Hübie
2018-09-20, 11:02:48
Das Problem ist einfach, dass das Niveau schon so hoch ist, das es schwer wird was zu zeigen was wirklich umhaut, da die Spielentwickler ja was brauchen was im Markt funktioniert. Henne/Ei mäßig kann man zum Launch nicht zeigen was wirklich machbar ist weil die Erfahrung fehlt, trotz dessen was schon reingeflossen ist. (Für Film ging das mit dem star wars noch gut).
Alle anderen Features wie auch Mesh Shading sind halt Ideen wie man für die Zukunft mehr rausholt, aber bis das vorausgesetzt werden kann vergehen halt locker 5-8 Jahre wenn wir sehen wie lange wir nun dx11 hw haben.
Das "lag" ist schon enorm, wir arbeiten an Architekturen/Konzepten die wiederum 5 Jahre weg sind, das heißt wir reden von bald 10-15 Jahren bis das Zeug Basis im Mainstream ist... Was irgendwie cool und frustrierend zugleich ist ;)
Ich glaube es gibt wenige Menschen, die so weit in die Zukunft hinein blicken können und darauf hin entwickeln. ;) Das Warten kann in der Tat frustrierend sein. Wenn es dann zu keiner Umsetzung / Durchdringung am Markt kommt ist es natürlich sehr schade, da die eigene Arbeit entwertet ist. So weit würde ich jedoch nicht gehen. Es gab zig Features, die schon schief gegangen sind, aber die Masse hat sich ja doch durchgesetzt. :smile:
BigKid
2018-09-20, 11:24:47
Weil interessant poste ich das hier nochmal:
Zur Klarstellung bezüglich DLSS:
Wir haben vor Ort mit Nvidia darüber gesprochen. DLSS soll in Spielen vorerst nur in Ultra HD (was in der normalen Einstellung bekanntlich nicht mehr natives UHD darstellt) angeboten werden. Später könnte WQHD dazukommen, dafür muss die KI aber noch einmal komplett neu trainiert werden, weshalb sich der Aufwand aus Sicht von Nvidia zurzeit nicht lohne. Die Star-Wars-Demo stellt dahingehend eine Ausnahme dar.
(Link zum Post: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11805299&postcount=419)
Zusammenfassend zu DLSS erst ab 4k:
- aktuell nur ab 4k (UHD) - später eventuell noch für WQHD
- das DLSS für 1080p jemals kommt ist somit eher unwahrscheinlich
- DLSS muss für jede Kombination aus Quell und Zielauflösung einzeln trainiert werden um so gut zu funktionieren wie versprochen - daher wird es nur das geben was NV möchte....
- Die StarWars (Elevator) Demo stellt eine Ausnahme dar - hier wurde der Aufwand für ein Training in WQHD gemacht - sie zeigt somit das DLSS und Raytracing gleichzeitig anwendbar sind und das DLSS technisch auch unterhalb von 4k geht...
MadManniMan
2018-09-20, 11:40:59
- DLSS muss für jede Kombination aus Quell und Zielauflösung einzeln trainiert werden um so gut zu funktionieren wie versprochen - daher wird es nur das geben was NV möchte....
- Die StarWars (Elevator) Demo stellt eine Ausnahme dar - hier wurde der Aufwand für ein Training in WQHD gemacht - sie zeigt somit das DLSS und Raytracing gleichzeitig anwendbar sind und das DLSS technisch auch unterhalb von 4k geht...
Irgendwie klingt das für mich so, als würden nur bestimmte trainierte Kamerafahrten möglich.
robbitop
2018-09-20, 11:43:54
Bin wirklich gespannt, wie die Ergebnisse in echten Spielen außerhalb von timedemos sind. Und wie konsistent das Ganze ist.
BigKid
2018-09-20, 11:44:08
Irgendwie klingt das für mich so, als würden nur bestimmte trainierte Kamerafahrten möglich.
Bitte informier dich darüber wie DLSS oder AI Upscaling im Allgemeinen funktioniert - da wurde wirklich schon genug drüber geschrieben und es hat NIX mit der fixen Kamerfahrt zu tun dass es funktioniert...
Es hat was mit Quell und Zielauflösung sowie mit dem Kontent (Artstyle) zu tun... Das muss angelernt werden damit es klappt...
NATÜRLICH wird DLSS wenn es für eine spezielle Kammerafahrt trainiert wurde bessere Ergebnisse erzielen können weil die Varianz von dem was es lernen muss eingeschränkt ist... Das hat in dem Fall aber nix mit "Mogeln" zu tun... Wenn du einen generellen Eindruck willst dann schau dir das Info Material zu Samsungs 8k AI Upscaling an... Das ist im Prinzip das Selbe nur das es für ein breiteres Material trainiert wird und nicht pro Film oder Spiel...
MadManniMan
2018-09-20, 11:50:53
Ich habe nicht behauptet, dass es nicht geht - ich habe infrage gestellt, dass es für andere Fälle als in 4K trainierte (in Ausnahmen WQHD) Kamerafahrten angeboten und/oder gut wird.
BigKid
2018-09-20, 11:53:35
Ich habe nicht behauptet, dass es nicht geht - ich habe infrage gestellt, dass es für andere Fälle als in 4K trainierte (in Ausnahmen WQHD) Kamerafahrten angeboten und/oder gut wird.
Du hast es nicht gesagt aber wiederholst es wieder ?
Jetzt zwischen "nicht angeboten" / "nicht gut" und "geht nicht" zu differenzieren ist doch nicht dein Ernst oder?
Meiner Meinung nach ist eine Turing Titan ziemlich sicher und wird noch dieses Jahr kommen. 2080Ti ist nur TU102-300.
Die Frage wird sein, ob nVidia dann auf 24GiB geht. Ich persönlich halte 24GiB VRam für ziemlich sinnlos und hätte lieber eine 12GiB Karte die dafür günstiger ist.
Wie 11 GB bei der 2080 TI festgelegt wurde, gibt es für Nvidia keinen Grund, auf mehr als 12-16 GB zu gehen. Wo braucht man in Spielen schon mehr als 12 GB? :confused: Wie ich schon mehrfach sagte, wir werden vermutlich erst ab der 2. Generation Turing mehr VRAM auf die Karten bekommen.
MadManniMan
2018-09-20, 12:00:15
Was? Deinen ersten Satz verstehe ich nicht.
Und ja, natürlich differenziere ich! Mein erstes "möglich" war nicht differenziert genug. Sebstverständlich verstehe ich, dass auch höhere Varianz bearbeitbar ist - ich stelle nur infrage (und ja, HIER wiederhole ich mich), dass es tatsächlich so schnell/so gut funktionieren wird, wie wir es jetzt in ... wievielen Demos tatsächlich gesehen haben?
BigKid
2018-09-20, 12:01:17
Was? Deinen ersten Satz verstehe ich nicht.
Und ja, natürlich differenziere ich! Mein erstes "möglich" war nicht differenziert genug. Sebstverständlich verstehe ich, dass auch höhere Varianz bearbeitbar ist - ich stelle nur infrage (und ja, HIER wiederhole ich mich), dass es tatsächlich so schnell/so gut funktionieren wird, wie wir es jetzt in ... wievielen Demos tatsächlich gesehen haben?
Ok... Jetzt verstehe zumindest ich dich :o)
Ich teile deine Zweifel aber nicht... Ich denke es wird schon (ziemlich) gut sein zumal es aktuell ja "nur" eingesetzt wird um von (wohl meistens) WQHD nach 4k zu skalieren. Und pro Spiel trainiert wird.
Wie gesagt - da hats der Quantum Prozessor von Samsungs 8k TVs schwerer, der nicht pro Film und wohl auch nicht pro Quellauflösung trainiert wurde... Und trotzdem solls wohl sehr gut sein...
Irgendwie ist das traurig.
Zuerst sahen die Leute nur Raytracing und die Tensorcores als Raytracing Hilfsmittel. Nun sind die Tensorcores nur für Raytracing und DLSS.
Ist es so schwer zu sehen, dass das nur 2 klitzekleine Anwendungsfälle der Tensorcores sind?
Bin wirklich gespannt, wie die Ergebnisse in echten Spielen außerhalb von timedemos sind. Und wie konsistent das Ganze ist.
Aber bitte auch nicht die Ergebnisse in den ersten Titel als absolute Referenz nehmen. Es wird seine Zeit brauchen.
BigKid
2018-09-20, 12:06:43
Irgendwie ist das traurig.
Zuerst sahen die Leute nur Raytracing und die Tensorcores als Raytracing Hilfsmittel. Nun sind die Tensorcores nur für Raytracing und DLSS.
Ist es so schwer zu sehen, dass das nur 2 klitzekleine Anwendungsfälle der Tensorcores sind?
Gibt es denn weitere Anwendungsfälle für die es eine Standardisierte Schnittstelle gibt sodass überhaupt ne Chance besteht, dass es sich durchsetzt ?
Aber bitte auch nicht die Ergebnisse in den ersten Titel als absolute Referenz nehmen. Es wird seine Zeit brauchen.
Bei DLSS glaube ich nicht, dass sich da noch viel tun kann... da kann man die ersten Titel durchaus als Referenz nehmen... Du kannst in so ein selbstlernendes Netz nicht reinschauen und noch nach optimieren...
Sie KÖNNTEN höchstens noch mehrere Netze für unterschiedliche Szenen eines Spiels trainieren... Aber ob sie den Aufwand betreiben werden bezweifle ich wenn sie jetzt schon bei der Umsetzung für WQHD zögern...
Gibt es denn weitere Anwendungsfälle für die es eine Standardisierte Schnittstelle gibt sodass überhaupt ne Chance besteht, dass es sich durchsetzt ?
ML Frameworks abstrahieren die Ausführung schon. Microsoft wirbt bei DirectML auch mit Integration in Spielen.
Also ein klares ja.
Bei DLSS glaube ich nicht, dass sich da noch viel tun kann... da kann man die ersten Titel durchaus als Referenz nehmen... Du kannst in so ein selbstlernendes Netz nicht reinschauen und noch nach optimieren...
Sie KÖNNTEN höchstens noch mehrere Netze für unterschiedliche Szenen eines Spiels trainieren... Aber ob sie den Aufwand betreiben werden bezweifle ich wenn sie jetzt schon bei der Umsetzung für WQHD zögern...
Natürlich kann man reinschauen und versuchen zu verstehen was passiert. Die Visualisierung davon ist aktuell ein heißes Thema. Optimieren kannst du über Änderungen an den Netzstrukturen und Parametern beim Lernen auch sehr stark.
OC_Burner
2018-09-20, 15:04:59
Schade das es zu DSAA 2x noch nichts genaueres gibt. Im Prinzip sollte doch der 2x Modus nicht auf 4K limitiert sein. Von 64x Supersampling ausgehend bedeutet es doch, dass bei 16K bzw. 32K trainiert worden ist (ausgehend von 1080p oder 4K) und auf jede Auflösung heruntergerechnet werden kann oder etwa nicht? Interessant wäre außerdem noch wie sich DLAA mit Geschichten wie Reshade schlägt wenn das Bild zu sehr verändert wird.
robbitop
2018-09-20, 15:14:25
Naja reshade ist doch nachträglich oder? Ich denke für dlaa/dlss wird die GPU Zugriff auf das Bild vor dem PP inkl Z Buffer haben.
OC_Burner
2018-09-20, 15:31:57
Ja, stimmt eigentlich, Reshade könnte weniger betroffen sein. Aber dann gäbe es da noch Texturmods oder diverse andere Mods die das Bild ordentlich verändern können. Ist halt die Frage wie das Training genau vonstatten geht und vorallem bei welchem Schritt in der Renderkette. Sieht für mich aber auf den ersten Blick so aus als würde mit dem fertigen Bild trainiert wenn man sich die Beispielbilder mal so anschaut.
Tesseract
2018-09-20, 15:46:06
Im Prinzip sollte doch der 2x Modus nicht auf 4K limitiert sein. Von 64x Supersampling ausgehend bedeutet es doch, dass bei 16K bzw. 32K trainiert worden ist (ausgehend von 1080p oder 4K) und auf jede Auflösung heruntergerechnet werden kann oder etwa nicht? Interessant wäre außerdem noch wie sich DLAA mit Geschichten wie Reshade schlägt wenn das Bild zu sehr verändert wird.
nein, DLAA erstellt zu keinem zeitpunkt 16k- oder 32k-frames. beim training wird als ground truth ein 4k frame mit 64x SSAA genommen damit das ziel des DL ein "perfekter" 4k-frame ist und man dem netz nicht lernt absichtlich aliasing einzubauen. wie der referenzframe zustande gekommen ist, ist dem DL aber völlig egal und für einen 32k-frame als output der auch gut aussieht hat turing garantiert nicht genug inferencing-leistung.
Die wenigsten Bildanteile werden in voller Auflösung berechnet. Das ist eine ziemlich dämlich Rechnung.
Das Problem ist die "Null zuviel" auf der einen Seite der Gleichung, und nicht ob es jetzt 800, 700 oder nur 100 Prozent sind. Ich habe ja auch noch so getan, als könnte man die Anforderungen wie in einem Schnappschuß einfrieren, stattdessen haben wir es mit einem moving target zu tun. Lass es 200 Prozent sein, dann bräuchte es immer noch bei 30 Prozent Leistungszuwachs auf Prozessorseite sechs Generationen, um die Lücke zu schließen. Bei eineinhalb Jahren Laufzeit pro Generation, wie sie sich gerade abzeichnen, reden wir da über ca. ein Jahrzehnt. Ich gebe Dir ja Recht, daß man dann schon langsam mal sich über die Prognosesicherheit und damit Sinnhaftigkeit Gedanken machen sollte, aber eine Entscheidung darüber muß man ja trotzdem fällen. Wenn also auf der einen Seite der Gleichung, wo die Größenordnung zuviel ist, die Anforderungen noch steigen und auf der anderen Seite der Gleichung, da wo die Größenordnung fehlt, die Erträge eher sinken, dann liegt der Gedanke an eine brick wall nicht gerade fern. Meine Aussage war, daß dieser Ausblick deprimierend ist, und dabei bleibe ich auch nach Deinem unnötig unfreundlichen "Einwand".
Wenn Dein Boot schneller vollläuft als Du Wasser schöpfen kannst, schnappst du Dir dann noch eine zweite Schöpfkelle oder machst Du Dich vom Acker?
MadManniMan
2018-09-20, 16:11:19
nein, DLAA erstellt zu keinem zeitpunkt 16k- oder 32k-frames. beim training wird als ground truth ein 4k frame mit 64x SSAA genommen damit das ziel des DL ein "perfekter" 4k-frame ist und man dem netz nicht lernt absichtlich aliasing einzubauen. wie der referenzframe zustande gekommen ist, ist dem DL aber völlig egal und für einen 32k-frame als output der auch gut aussieht hat turing garantiert nicht genug inferencing-leistung.
Vielleicht kannst Du das ja irgendwie einschätzen:
Für mich ist plausibel, dass selbe Bildinhalte als Referenz gut erlern- und abbildbar sind. Bedeutet das jetzt, dass man mit Artefakten rechnen muss, wenn man bspw. einen Texturmod verwendet oder aber neue ... "Rüstungen" verwendet, also Dinge, die ein ganz anderes Aliasing-Verhalten aufweisen?
Tesseract
2018-09-20, 16:23:13
kann ich mir nicht vorstellen. wahrscheinlich könnte man sogar das DLAA von einem spiel einfach auf ein anderes anwenden und bekäme in vielen fällen relativ gute ergebnisse raus. bei dem material das man bisher gesehen hat tendiert "versagendes" DLAA einfach nur dazu mehr wie das ausgangsbild auszusehen anstatt artefakte zu bilden. scheint wesentlich robuster als z.B. checkerboard zu sein.
BigKid
2018-09-20, 17:10:12
nein, DLAA erstellt zu keinem zeitpunkt 16k- oder 32k-frames. beim training wird als ground truth ein 4k frame mit 64x SSAA genommen damit das ziel des DL ein "perfekter" 4k-frame ist und man dem netz nicht lernt absichtlich aliasing einzubauen. wie der referenzframe zustande gekommen ist, ist dem DL aber völlig egal und für einen 32k-frame als output der auch gut aussieht hat turing garantiert nicht genug inferencing-leistung.
Hmm... es wurden 2 DLSS Modi thematisiert.
DLSS ist ein AI Upscaling indem intern mir einer niedrigeren Auflösung gerendert wird (was hab ich da Schelte kassiert als ich gewagt habe das Aufgrund des Performancegains anzunehmen)
DLSSx2 ist auch ein Upscaling nur das hier mit der Zielauflösung gerendert, dann AI Upscaling gemacht und das dann wieder downgesampelt wird. Hier ist dann in der Theorie schon mehr als 4k am Start - aber nicht “nativ”
Godmode
2018-09-20, 17:38:49
Gibt es zur DLSS oder RT schon irgendwelche Demos die man ausprobieren kann?
BigKid
2018-09-20, 17:52:10
Gibt es zur DLSS oder RT schon irgendwelche Demos die man ausprobieren kann?
NVidia hat doch ne Liste mit Titeln... FF scheint aber eines der wenigen zu sein an die Mann schon rankommt...
Die Presse hat wohl noch Zugang zur StarcWars Elevator Demo..
Spasstiger
2018-09-20, 18:37:27
DLSS hat einen ganz ordentlichen Schärfeeindruck und bringt einen netten Performanceboost, korrekte Bildinformation aus dem Nichts zaubern kann es aber nicht. Hier ein vergrößerter Ausschnitt aus den Screenshots der PCGH von Final Fantasy XV:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=64225&stc=1&d=1537461193
Quelle: http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=149874
Der Text im Nummernschild ist in Originalauflösung mit TAA wesentlich besser lesbar als mit DLSS. Fällt besonders bei dem Schriftzug "The Royal Capital" auf.
dildo4u
2018-09-20, 19:01:04
Der Preis der 2070 FE wurde gesenkt steht jetzt für 540€ drinn.
https://www.nvidia.com/de-de/geforce/campaigns/shadow-of-tomb-raider/
Scheint ein Fehler auf der Seite zu sein hier steht 640€.
https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2070/
crux2005
2018-09-20, 19:29:28
Der Preis der 2070 FE wurde gesenkt steht jetzt für 540€ drinn.
https://www.nvidia.com/de-de/geforce/campaigns/shadow-of-tomb-raider/
Scheint ein Fehler auf der Seite zu sein hier steht 640€.
https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2070/
:up: Oder es ist eine Preissenkung geplant.
Fragman
2018-09-20, 20:18:43
DLSS hat einen ganz ordentlichen Schärfeeindruck und bringt einen netten Performanceboost, korrekte Bildinformation aus dem Nichts zaubern kann es aber nicht. Hier ein vergrößerter Ausschnitt aus den Screenshots der PCGH von Final Fantasy XV:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=64225&stc=1&d=1537461193
Quelle: http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=149874
Der Text im Nummernschild ist in Originalauflösung mit TAA wesentlich besser lesbar als mit DLSS. Fällt besonders bei dem Schriftzug "The Royal Capital" auf.
Das Normale wurde scheinbar kaum bis garnicht geglaettet?
Insgesamt sieht DLSS aber schon deutlich besser aus.
NVidia hat doch ne Liste mit Titeln... FF scheint aber eines der wenigen zu sein an die Mann schon rankommt...
Die Presse hat wohl noch Zugang zur StarcWars Elevator Demo..
Wie, der Typ, der alles bei Videocardz leakt, hat den Krempel noch nicht in die Cloud gepackt? Dann wäre es Zeit, dass Nvidia den frühen Turing-Adoptierern etwas zum Herumspielen gibt. Ich verstehe nicht, dass man die Demos nicht freigibt. Könnte mit den Rechteinhabern zu tun haben, also im Falle der Reflections/Elevator Demo. Da hängt Industrial Light & Magic und somit Disney mit drin.
DLSS hat einen ganz ordentlichen Schärfeeindruck und bringt einen netten Performanceboost, korrekte Bildinformation aus dem Nichts zaubern kann es aber nicht. Hier ein vergrößerter Ausschnitt aus den Screenshots der PCGH von Final Fantasy XV:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=64225&stc=1&d=1537461193
Quelle: http://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=149874
Der Text im Nummernschild ist in Originalauflösung mit TAA wesentlich besser lesbar als mit DLSS. Fällt besonders bei dem Schriftzug "The Royal Capital" auf.
Das finde ich gar nicht so schlimm. Fieser ist das auf Bild 4: Die Reflexionen rechts über Noctis' Arm bekommen eine Art Umrandung oder, unten, fransen aus.
MfG,
Raff
Das Normale wurde scheinbar kaum bis garnicht geglaettet?
Insgesamt sieht DLSS aber schon deutlich besser aus.
Tut es nicht, man sieht deutlich, dass Bildinformationen fehlen. So eine Technik könnte durchaus für die nächsten Konsolen interessant sein, für PC ist das meines Erachtens Schwachsinn - wenn man schon hohe Auflösungen nutzen kann, warum sollte man dann mit Gewalt die niedrigere benutzen? Das macht einfach keinen Sinn. Das wär höchstens dann interessant, dass Turing bei neueren Games einfach von der Leistung her nicht reicht und mal besser so trickst als Details runterstellen zu müssen.
Beim 2. Modus hingegen sieht das anders aus. Aus dem Upscaling Samples zu machen und das dann Downzusampeln dürfte schon einiges an Glättung bringen, das wird aber auch kosten. Gute Bildqualität gibts nunmal nicht aus dem Nichts.
BigKid
2018-09-20, 22:27:40
Wie, der Typ, der alles bei Videocardz leakt, hat den Krempel noch nicht in die Cloud gepackt? Dann wäre es Zeit, dass Nvidia den frühen Turing-Adoptierern etwas zum Herumspielen gibt. Ich verstehe nicht, dass man die Demos nicht freigibt. Könnte mit den Rechteinhabern zu tun haben, also im Falle der Reflections/Elevator Demo. Da hängt Industrial Light & Magic und somit Disney mit drin.
Hmmm... Man könnte meinen es juckt dich irgendwo wo du nicht kratzen kannst. :biggrin:
Loeschzwerg
2018-09-20, 22:37:34
Das wär höchstens dann interessant, dass Turing bei neueren Games einfach von der Leistung her nicht reicht und mal besser so trickst als Details runterstellen zu müssen.
Ja eben. Kombiniere zukünftige "RT" Spiele mit DLSS.
Abgesehen davon sieht FFXV teilweise wirklich besser aus mit DLSS, aber es gibt auch ein paar kleinere Rückschritte. Kann dann jeder selbst entscheiden. Nimmt man die Leistungssteigerung mit in die Rechnung muss das kein schlechter Deal sein.
So gesehen, ist die Kombo natürlich nicht schlecht.
Leonidas
2018-09-21, 03:35:10
Alle "Shader" sind eine rein logische Einteilung wie der Datenfluss abläuft, sie sind nicht physisch vorhanden.
Gibt es hierzu genauere Dokumente? Mich würde interessieren, wie weit das geht, d.h. wieviele Einheiten dies umfasst (und was tatsächlich physisch getrennt ist).
RT kann man doch wunderbar und gut Skalieren, und die RT Leistung der 2070 wird auch nicht so weit weg der 2080 sein.
Das ist ja das Problem. Es wird bei den kleineren Karten zu wenig davon da sein = sinnlos belegte Chipfläche.
Oder meintest Du, das man relativ gesehen stärkere RT-Einheiten in die kleineren Chips integriert? Das wäre eine Lösung, würde aber ein Umbau der Shader-Cluster bedeuten. Und so gesehen noch mehr Chipfläche für RT verschwenden, was derzeit nur den Status eines Wegbereiter-Features hat.
(was hab ich da Schelte kassiert als ich gewagt habe das Aufgrund des Performancegains anzunehmen)
... womit Du aber Recht hattest. Und auch ich hätte es aufgrund des Performancegewinns eigentlich sehen müssen. Ich dachte nur, NV wäre nicht so verrückt, sich auf so was wie Upscaling einzulassen.
Der Preis der 2070 FE wurde gesenkt steht jetzt für 540€ drinn.
https://www.nvidia.com/de-de/geforce/campaigns/shadow-of-tomb-raider/
Scheint ein Fehler auf der Seite zu sein hier steht 640€.
https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2070/
Wahrscheinlich einfacher Schreibfehler. Der US-Preis fängt ja auch mit einer "5" an ...
Skysnake
2018-09-21, 07:02:37
Leonidas mein Respekt einen Fehler eingestehen zu können
Tobalt
2018-09-21, 08:07:04
was ich bisher sehe ist der dlss upscaling modus gerade bei schwachen kontrasten ala infiltrator doch eher überfordert und damit flimmrig. wobei standbilder auch tw schlimmer aussehen als die Bewegung.
außerdem gibt es unverständlicherweise sogar Treppchen bei deutlichen kontrasten. für mich sieht das tw so aus als ob bei infiltrator dlss gar nicht funktioniert und es einen fallback auf traditionelles upscaling gibt.
und FF ist eh so unscharf im yt video dass man nichts ausmachen kann.
DLSS2x ist der deutlich vorzeigbarere modus, da man das zurückbleibende aliasing in den subsamples wunderbar verstecken kann.
dlss upscaling ist prinzipiell eine super idee und die Zukunft aber wie ich schon sagte der Königsweg, an dem nvidia bislang zu scheitern droht im Hinblick auf die optik
Fragman
2018-09-21, 08:10:37
Tut es nicht, man sieht deutlich, dass Bildinformationen fehlen.
Kannst du mal zeigen wo genau, ich seh das nicht.
DSLL sieht viel schaerfer aus, TAA dagegen matschig (#4 ists genau andersherum, wurden hier die Bilder vielleicht vertauscht?).
Geldmann3
2018-09-21, 08:25:51
Tut es nicht, man sieht deutlich, dass Bildinformationen fehlen. So eine Technik könnte durchaus für die nächsten Konsolen interessant sein, für PC ist das meines Erachtens Schwachsinn - wenn man schon hohe Auflösungen nutzen kann, warum sollte man dann mit Gewalt die niedrigere benutzen? Das macht einfach keinen Sinn. Das wär höchstens dann interessant, dass Turing bei neueren Games einfach von der Leistung her nicht reicht und mal besser so trickst als Details runterstellen zu müssen.
Beim 2. Modus hingegen sieht das anders aus. Aus dem Upscaling Samples zu machen und das dann Downzusampeln dürfte schon einiges an Glättung bringen, das wird aber auch kosten. Gute Bildqualität gibts nunmal nicht aus dem Nichts.
In meinen Augen ergibt es auf dem PC aus den selben Gründen Sinn wie auf den Konsolen. Da wir nicht unendlich Rohleistung haben, müssen wir die Renderpipeline so smart wie möglich gestalten. DLSS kommt in meinen Augen mindestens auf die Bildqualität der nativen Auflösung ohne Anti Aliasing (übertrifft das eher noch) ist aber 40% performanter. Natürlich bringt DLSS in einigen Szenen optisch auch Nachteile mit sich, denn auch Deep Learning kann kein "ground truth" aus dem Nichts erschaffen.
Wenn ich meinen ersten 8k TV habe, werde ich wahrscheinlich eher dazu tendieren 8k mit DLSS zu fahren als nativ. Denn das würde in Bewegung bereits nahezu perfekt aussehen.
rentex
2018-09-21, 08:55:03
So. Nach dem dem Release bedeuted, vor dem Release! Wie lautet den der Name des Turing Nachfolgers? Könnte man nen neuen Thread dafür eröffnen?
AffenJack
2018-09-21, 09:10:56
Die HPC Architektur soll wohl Ampere sein. Unklar, ob das auch der Name für die Gamingarchitektur wird. Vorstellungstermin 17 - 21 März 2019 auf der GTC 19.
In Sachen Gaming ist der Thread aber erstmal schon richtig, denn da sollten als nächsten kleinere turingableger kommen, erst danach macht es Sinn überhaupt über die nächste Gen zu spekulieren. Frage ist da eben ob immernoch 12nm oder gleich 7nm.
TGKlaus
2018-09-21, 09:18:05
DSLL sieht viel schaerfer aus, TAA dagegen matschig
Genau, so scharf, das die Schrift kaum noch lesbar ist.
Oder bei den FF Videos die Augen als solche gar nicht mehr als solche erkennbar sind, sondern nur noch ein dunkle verschattete Masse. (Siehe die Tussi in gelb.)
Die Qualität ist bisher absolut unterirdisch.
Käme das von AMD würde jeder Betrug und Mordio und Zeter schreien.
Fragman
2018-09-21, 09:43:07
Käme das von AMD würde jeder Betrug und Mordio und Zeter schreien.
Wieso sollte ich das anders sehen, wenn es von AMD kaeme? :confused:
Das Gesamtbild wirkt einfach besser, darauf kommt es an. Mal schauen, was man mit besserem Training noch herausholen kann. Die FpS Performance ueberzeugt ja jetzt schon.
dildo4u
2018-09-21, 09:45:29
Genau, so scharf, das die Schrift kaum noch lesbar ist.
Oder bei den FF Videos die Augen als solche gar nicht mehr als solche erkennbar sind, sondern nur noch ein dunkle verschattete Masse. (Siehe die Tussi in gelb.)
Die Qualität ist bisher absolut unterirdisch.
Käme das von AMD würde jeder Betrug und Mordio und Zeter schreien.
Es gibt Leute die es Live gesehen haben nicht in Screens oder Videos.
https://youtu.be/MMbgvXde-YA
Der_Korken
2018-09-21, 09:45:55
Wäre es technisch denkbar, dass man bei einem RT-Spiel nur das RT mit DLSS behandelt und den "Rest" in nativer Auflösung berechnet? Bei der Beleuchtung fällt Unschärfe vielleicht nicht so auf. Dann hätte man nach wie vor scharfe und detailreiche Konturen/Texturen, bekommt aber trotz hoher Auflösung eine realistische Beleuchtung.
Spasstiger
2018-09-21, 09:49:28
Täusche ich mich oder schärft DLSS unerwünscht die DoF-Unschärfe nach?
Rancor
2018-09-21, 10:02:12
Solange das alles feste Kamerafahrten sind würde ich da nicht allzu viel drauf geben. Erst richtiges Gameplay in der Praxis kann zeigen wie gut DLSS wirklich ist.
dildo4u
2018-09-21, 10:04:34
Solange das alles feste Kamerafahrten sind würde ich da nicht allzu viel drauf geben. Erst richtiges Gameplay in der Praxis kann zeigen wie gut DLSS wirklich ist.
Es wurde im DF Video erwähnt das die Kampfszene im FF15 Bench immer anders abläuft und es nicht sichtbar schlechter aussieht.
Rancor
2018-09-21, 10:07:44
Final Fantasy 15 hat aber auch extrem beschissenes TAA, was übrigens auch im DF Video erwähnt wird. ;)
dildo4u
2018-09-21, 10:11:40
Klar DLSS wird nicht immer besser aussehen sollte aber das selbe Level erreichen dann halt mit mehr FPS.Für ein besseres Bild gibt es DLSS 2X.
https://farm2.staticflickr.com/1890/44769200682_464bea2317_k.jpg (https://flic.kr/p/2bd6RCo)NVIDIA-GeForce-20-Series_Official_Turing_NGX_DNN_DLSS_Versus-Super-Sampling (https://flic.kr/p/2bd6RCo) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Screemer
2018-09-21, 10:21:54
kannst du endlich mal aufhören irgendwo bilder zu klauen, sie bei flickr hochzuladen und sie ohne quellenabgabe zu posten.
Geldmann3
2018-09-21, 10:26:06
Wäre es technisch denkbar, dass man bei einem RT-Spiel nur das RT mit DLSS behandelt und den "Rest" in nativer Auflösung berechnet? Bei der Beleuchtung fällt Unschärfe vielleicht nicht so auf. Dann hätte man nach wie vor scharfe und detailreiche Konturen/Texturen, bekommt aber trotz hoher Auflösung eine realistische Beleuchtung.
Ja, das geht. Die Tensor-Cores können beim Raytracing für das Denoising verwendet werden, das ist ja sehr abstrakt gesehen DLSS für die Rays, um die Lücken zwischen den Rays zu füllen.
Elite_Warrior
2018-09-21, 10:44:29
Kannst du mal zeigen wo genau, ich seh das nicht.
DSLL sieht viel schaerfer aus, TAA dagegen matschig (#4 ists genau andersherum, wurden hier die Bilder vielleicht vertauscht?).
Aber sowas von, wenn man auf DLSS4 klickt und dann auf die Bild Info achtet steht da TAA ;D und bei TAA eben ein DLSS Bild. Die anderen sind korrekt
looking glass
2018-09-21, 13:30:16
Ah endlich mal Butter bei die Fische was Leistungsaufnahme angeht:
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/4/#abschnitt_messung_der_leistungsaufnahme
Ähhh, reizt mich überhaupt nicht was die Leerlaufleistungen bei Desktop und Youtube angeht, geht für mich nicht klar.
pixeljetstream
2018-09-21, 13:30:40
Gibt es hierzu genauere Dokumente? Mich würde interessieren, wie weit das geht, d.h. wieviele Einheiten dies umfasst (und was tatsächlich physisch getrennt ist).
Hier weiter machen?
https://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=582141
Weiß nicht genau was du willst. Ich wollte unified shader verdeutlichen.
Die Schabilder der Units und subunits gehen quasi wie ein Fraktal immer tiefer ;) Mal sehen ob ich was von NV finde
dildo4u
2018-09-21, 13:34:00
Ah endlich mal Butter bei die Fische was Leistungsaufnahme angeht:
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/4/#abschnitt_messung_der_leistungsaufnahme
Ähhh, reizt mich überhaupt nicht was die Leerlaufleistungen bei Desktop und Youtube angeht, geht für mich nicht klar.
Ist ein Bug im Treiber.
https://twitter.com/VideoCardz/status/1042009428642414592
Screemer
2018-09-21, 13:37:25
Ist ein Bug im Treiber.
https://twitter.com/VideoCardz/status/1042009428642414592
Unbelegt. Da kann ich auch behaupten, dass die Railverteilung der 480 auch ein treiberbug war.
dildo4u
2018-09-21, 13:40:43
Stimmt Anandtech hat kein höheren Verbrauch kein Plan was da los ist.
https://www.anandtech.com/show/13346/the-nvidia-geforce-rtx-2080-ti-and-2080-founders-edition-review/16
Nvidia hat die hohe Idle-Power auf Nachfrage offiziell bestätigt und einen Treiberfix angekündigt. Wenn ein Hersteller etwas rasch bestätigt, anstelle nach vielfältiger Repro zu fragen, ist etwas an der Sache dran. Die Frage ist, ob das wirklich schnell mit einem kommenden Treiber gefixt wird.
MfG,
Raff
MikePayne
2018-09-21, 14:00:57
https://www.heise.de/newsticker/meldung/Kommentar-zur-Nvidia-GeForce-RTX-2080-Der-grosse-Bluff-4169328.html
Die technisch interessanteste Neuerung – die Integration von Spezialeinheiten für zusätzliche Raytracing-Effekte – wirft Nvidia als bloße Nebelkerze. Sie lenkt von dem geringen Leistungszuwachs gleichermaßen ab wie von den in keinem Verhältnis stehenden Preisen. An letztere wollte Nvidia die Käuferschar seit der Einführung der ersten Titan-Grafikkarten vor fünf Jahren peu à peu gewöhnen.
Nvidia erwartet von Gamern schlicht, diese enorme Preiserhöhung abzunicken. Sie sollen viel Geld ausgeben in der bloßen Hoffnung, in Zukunft ein paar schicke Raytracing-Spiegeleffekte in handverlesenen Spielen bestaunen zu können.
Doch letztendlich ist bisher alles heiße Luft in Form von ein paar Ankündigungen. Auch wenn wieder viele auf den Marketing-Spin aufspringen dürften – es bleibt unklar, ob sich Raytracing-Effekte innerhalb der kommenden Jahre in Spielen tatsächlich auf breiter Front durchsetzen. Hier haben neben AMD und Intel auch die Konsolenhersteller ein Wörtchen mitzureden – die wie hinlänglich bekannt bei jeder Konsolen-Generation um jeden Cent und jedes Frame feilschen
aufkrawall
2018-09-21, 14:13:21
Ob Nvidia wohl auf den noch möglichen Mining-Hype spekuliert? :freak:
Es muss ja eigentlich jedem Entscheidungsträger klar sein, dass die allgemeine Leistungsfähigkeit in Spielen das Kriterium ist, das für die Bewertung alle anderen überdeckt.
x-force
2018-09-21, 14:16:57
Ob Nvidia wohl auf den noch möglichen Mining-Hype spekuliert? :freak:
Es muss ja eigentlich jedem Entscheidungsträger klar sein, dass die allgemeine Leistungsfähigkeit in Spielen das Kriterium ist, das für die Bewertung alle anderen überdeckt.
die loten einfach aus was geht... solange der gewinn unterm strich weiter steigt, steigen auch die preise.
bei der aktuellen komplett unreflektierten mentalität vieler kann das durchaus noch 1-2 generationen weitergehen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.