Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
Mortalvision
2018-07-29, 05:51:03
Nana, keine Zeit zum enttäuschen! Die halbe Autoindustrie (und wichtige Zulieferer) scharren mit den Hufen zwecks Fahrassistenten und selbstfahrendem Auto! Wer da zuerst liefert, und gut liefert, sahnt ab!
Kriton
2018-07-29, 11:54:09
Mal so gefragt: Wann hat NV das letzte Mal enttäuscht?
Beim Speicher der 970...:freak:
Beim Speicher der 970...:freak:
Nun in der Wahrnehmung. Die Karten sind immer noch top.
Troyan
2018-07-29, 12:34:34
Ansonsten scheint wohl HWinfo die Info über die Volta-IDs von hier zu haben: https://www.reddit.com/r/nvidia/comments/92tnf6/the_pci_id_repository_added_gv102_gv102gl_gv104/
GV102GL soll Quadro sein. nVidias Conference Call für Q2 ist in diesem Jahr eine Woche später als sonst und findet direkt nach dem Ende der Siggraph statt. Wer weiß, kann Zufall sein oder man wird auf der Siggraph eine neue Quadro Karte mit GV102 zeigen...
Schon witzig, wie die Erwartungen und Reaktionen vom einen ins andere Extrem schwanken ;D
Ich hoffe einfach mal, dass die Dinger hardware tracer haben. Einfach nur weil es interessant ist und damit man in die Richtung mehr zu sehen bekommt. Kauf kommt eh nicht infrage also ist mir der Rest egal :P
Der_Korken
2018-07-29, 13:14:40
Mal so gefragt: Wann hat NV das letzte Mal enttäuscht?
Spricht das jetzt dafür, dass gemäß der Reihe auch Turing nicht enttäuschen wird oder dass Nvidia jetzt so viele Volltreffer hintereinander hatte, dass ein Design auch mal nicht einschlägt? :D
Man weiß im Grunde nichts über die Architektur, deswegen muss ein GT104 (oder heißt der jetzt GV104?) keinerlei Ähnlichkeiten mit einem GP102 haben, selbst wenn die Performance gleich ist. Eine neue Architektur heißt oft, dass ein Haufen Transistoren dazukommt, der erstmal nicht direkt Leistung bringt, sondern für zukünftige Workloads gedacht ist. Beispiele: Terascale -> GCN, R580 -> R600, GT200 -> Fermi, Skylake X. Manchmal klappt beides und man bekommt dann Bomben wie den R300, G80, Maxwell, Conroe.
Dass Turing am Ende nicht schneller oder effizienter wird als ein aufgepumpter Pascal in 12nm halte ich nicht für absurd. In zwei Jahren zieht die neue Architektur dafür vielleicht gnadenlos davon und die Investition zahlt sich aus.
Godmode
2018-07-29, 14:58:35
Schon witzig, wie die Erwartungen und Reaktionen vom einen ins andere Extrem schwanken ;D
Ich hoffe einfach mal, dass die Dinger hardware tracer haben. Einfach nur weil es interessant ist und damit man in die Richtung mehr zu sehen bekommt. Kauf kommt eh nicht infrage also ist mir der Rest egal :P
Spieleleistung ist mir schnuppe, ich hoffe einfach nur, dass sie fürs Mining gut zu gebrauchen sind. :biggrin:
Timbaloo
2018-07-29, 15:46:13
Dass Turing am Ende nicht schneller oder effizienter wird als ein aufgepumpter Pascal in 12nm halte ich nicht für absurd. In zwei Jahren zieht die neue Architektur dafür vielleicht gnadenlos davon und die Investition zahlt sich aus.
Nur erreicht man damit nicht die 970 bis 1080 Zielgruppe. Die wird dann einfach noch zwei Jahre warten in deinem Szenario.
Desweiteren halte ich es für unwahrscheinlich, dass man den Vorpsrung auf AMD (in den derzeitigen Workloads) riskiert aufzugeben. Das halte ich sogar für... absurd.
Thunder99
2018-07-29, 17:40:58
Interessante Spekulationen in beide Richtungen.
Nur den oberen Bereich neu zu besetzen macht irgendwie auch Sinn da es halt nur 12nm sind und nicht 7nm für ein komplettes Linup.
Wie Maxwell zu Kepler eventuell nur besser :)
horn 12
2018-07-29, 18:06:15
https://videocardz.com/76865/device-ids-of-gv102-and-gv104-gpus-revealed
Geforces ID´s
Kriton
2018-07-29, 18:41:55
Nun in der Wahrnehmung. Die Karten sind immer noch top.
Die 970 hat uebrigens nicht nur weniger VRAM sondern bis heute spezifische Treiber-Probleme. Das Ding macht nur Aerger.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11735480#post11735480
Unabhängig davon bin ich schon enttäuscht, wenn mich der Hersteller zu betrügen versucht (falsche Daten auf der Produktseite).
=Floi=
2018-07-29, 18:45:46
und die spezifischen treiber probleme wären?
y33H@
2018-07-29, 18:56:39
Unabhängig davon bin ich schon enttäuscht, wenn mich der Hersteller zu betrügen versucht (falsche Daten auf der Produktseite).https://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications
Da steht weder was von ROPs noch von L2-Cache ;)
Timbaloo
2018-07-29, 19:08:12
Ich muss bei der 970-Thematik immer laut lachen. Eine hervorragende Karte, macht keine Probleme. Aber irgendwie erzählen mir ständig Leute wie viele Probleme ich doch mit der Karte hätte ;D
Bucklew
2018-07-29, 19:10:22
Unabhängig davon bin ich schon enttäuscht, wenn mich der Hersteller zu betrügen versucht (falsche Daten auf der Produktseite).
Komischerweise wars bei der RX480 dann was ganz Anderes, selbst als es um Spezifikationen ging :freak:
Aber ja, die Grundaussage ist die richtig: Die GTX970 war und ist immer noch eine Spitzenkarte, gerade für den Preis, für den sie über den Ladentisch ging.
https://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications
Da steht weder was von ROPs noch von L2-Cache ;)
Muss auch nicht. Reicht ja, wenns in den anderen veroeffentlichten Dokumenten wie z.B. an euch Reviewer drin stand und wenn die Speichertransferrate heute immer noch falsch auf deiner verlinkten Seite steht.
Mal davon abgesehen, dass ich es laecherlich finde, dass die Thematik zu diesem Zeitpunkt wieder rausgekramt wird musst du nicht auch noch rumtrollen hier.
Grendizer
2018-07-29, 19:23:53
Hat es bei der 2Gb 660 TI (1,5+0,5) eigentlich auch so einen Aufschrei gegeben ? Ist ja nicht so, das die 970 mit 3,5 + 0,5 das zum erstenmal gezeigt hat.
Nein, weil die Vorgehensweise sowohl technisch anders war als auch es zum Launch direkt so kommuniziert wurde. Das waren nicht 1,5+0,5 sondern 1+1, jeweils an 128 und 64 Bit. Da war in dem Sinne nichts kaputt, man hat dann sofern die Daten perfekt gleichmaessig verteilt sind halt im Mittel auch die mittlere Bandbreite der beiden Anbindungen, und worst und best case unterscheiden sich halt nur um Faktor 2 und nicht gleich 7.
Es regen sich ja die wenigsten ueber Stocker auf, die meisten beschwichtigen sich ja staendig damit, dass mit ihrer 970 alles ok laufen soll. Es waren viele sauer, dass Nvidia nichts gesagt und erst als nichts mehr zu retten war es zugegeben und auch noch als Feature angepriesen hat, fuer das man gefaelligst dankbar zu sein hat.
Daredevil
2018-07-29, 20:24:18
Nur erreicht man damit nicht die 970 bis 1080 Zielgruppe. Die wird dann einfach noch zwei Jahre warten in deinem Szenario.
Anfang 2018 hat Nvidia einen Rekordgewinn abgeliefert, nur mit Pascal Chips. Anscheinend holt man doch noch einige ab.
Kriton
2018-07-29, 21:31:42
https://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications
Da steht weder was von ROPs noch von L2-Cache ;)
Aber:
Memory Interface Width: 256-bit
Memory Bandwidth (GB/sec): 224
Und jetzt Du.:wink:
Komischerweise wars bei der RX480 dann was ganz Anderes, selbst als es um Spezifikationen ging :freak:
Dann suche doch bitte mal einen Post von mir, wo ich das überhaupt bewerte. Ich bin gespannt! :popcorn: Mal abgesehen vom Versuch des whataboutism...
IMHO hat Igor damals alles Relevante dazu gesagt.
Im Übrigen @ all: Ich habe nur auf Hübies Frage geantwortet.
Timbaloo
2018-07-29, 22:15:07
Anfang 2018 hat Nvidia einen Rekordgewinn abgeliefert, nur mit Pascal Chips. Anscheinend holt man doch noch einige ab.
Was dann auch nicht für eine "neue Generation" spricht, welche sich weder hinsichtlich Leistung noch Effizienz von Pascal deutlich absetzt. Die Frage ist: Wieviel mehr Kunden würde man mit einem Turing/Volta/Whatever erreichen wenn die Mehrleistung oder Mehreffizienz derart gering ist. Nur mit neuen Features (welche beim Release wohl nicht mehr als eine Randnotiz mit schicker Demo in den Reviews) wohl kaum, außer das/die Features sind der totale Hammer. Letzteres ist irgendwie nicht in Sicht.
Deswegen halte ich die chiphell "Info" für unglaubwürdig.
Edit: Zu "Anfang 2018": Da war die Welt hinsichtlich Mining noch eine andere, würde ich meinen.
Der_Korken
2018-07-29, 22:44:40
Nur erreicht man damit nicht die 970 bis 1080 Zielgruppe. Die wird dann einfach noch zwei Jahre warten in deinem Szenario.
Desweiteren halte ich es für unwahrscheinlich, dass man den Vorpsrung auf AMD (in den derzeitigen Workloads) riskiert aufzugeben. Das halte ich sogar für... absurd.
Das klingt so, als könnte man einfach so planen, dass ein Chip später als Produkt exakt Leistung X erreichen wird. Natürlich wird Nvidia nicht sagen "Och ja, wir bauen mal absichtlich ein paar Bremsklötze ins Design ein, damit der Chip nicht zu schnell wird." Es könnte doch auch einfach sein, dass der Chip einfach nicht die Leistung erreicht, die man gerne gehabt hätte. Sowas soll es ja geben.
Dass das Szenario sehr wahrscheinlich ist, will ich nicht behaupten, aber es abzulehnen, weil Nvidia so unfehlbar ist, finde ich auch Quatsch.
Timbaloo
2018-07-29, 22:56:57
Unfehlbar sicher nicht, aber seit Fermi 1 sind sie schon sehr konsistent. Und ich sehe irgendwie nicht so das riesen Potential für einen Fail-Chip.
Ansonsten kann man natürlich schon die Leistung ziemlich gut planen. Bei der Effizienz wird es schwieriger, aber auch da waren sie ziemlich konsistent.
Bucklew
2018-07-29, 23:28:46
Deswegen halte ich die chiphell "Info" für unglaubwürdig.
Definitiv.
Warum sollte NVIDIA nach knapp 30 Monaten einen Chip bringen, der genauso schnell und die identische Perf/Watt zum GP104 liefert? ;D GTX1170 mit 1080 Leistung und Leistungsaufnahme. WTF?
Mal abgesehen vom Versuch des whataboutism...
Stimmt, genau das war dein Posting. Oder du hast nicht verstanden, worauf Hübie hin aus wollte. Aber für so dermaßen dumm halte ich dich nicht ;)
btw: Selbst wenn du gar nichts zum RX480 Desaster gesagt hättest, würde das meine These nur bestätigen :up:
BlacKi
2018-07-29, 23:30:17
Das klingt so, als könnte man einfach so planen, dass ein Chip später als Produkt exakt Leistung X erreichen wird. Natürlich wird Nvidia nicht sagen "Och ja, wir bauen mal absichtlich ein paar Bremsklötze ins Design ein, damit der Chip nicht zu schnell wird." Es könnte doch auch einfach sein, dass der Chip einfach nicht die Leistung erreicht, die man gerne gehabt hätte. Sowas soll es ja geben.
also nv plant seit kepler bei seiner 04 chip variante seine 60% gain zum vorgänger, anders lässt es sich nicht erklären das dieses performance target praktisch auf den punkt erreicht wird.
klar könnten sie jederzeit etwas daran ändern, aber zunächst sollte man doch eher das wahrscheinlichste szenario bevorzugen. bremsklötze bekommen die salvage karten. die full gpus haben ein performance target das pi mal daumen im durchschnitt erreicht wird.
ich verstehe nicht ganz was du damit meinst wenn du sagst das der chip einfach das gewünschte ziel nicht bringt? für was waren denn die 2 jahre + entwicklungszeit gut? die wissen was geht und was nicht im vorraus bevor die karten rauskommen.
falls das performance ziel nicht erreicht wird, dann wird einfach die die fläche erhöht bzw. mehr in den chip gestopft, oder anderer ram genommen, so kann man das target ziemlich sicher erreichen.
vl ist es das was amd von nv lernen könnte, da ist man nie sicher wo die karten rauskommen werden. bei dem full gv104 chip weiß ich schon ungefähr was ich erwarten darf. 210-220 4k 3dcenter index, so um den dreh.
AffenJack
2018-07-29, 23:43:44
Das klingt so, als könnte man einfach so planen, dass ein Chip später als Produkt exakt Leistung X erreichen wird.
Das kann man schon ziemlich genau. Die Chips werden vorher ja auch simuliert. Bis auf vielleicht 10%, die auch am Prozess hängen, wird man vorher ziemlich genau wissen, wo man rauskommt. Wenn man das dann nicht erreicht, dann hat man es an irgendeiner Stelle wohl ziemlich verkackt, aber da war wohl Fermi das letzte Beispiel und heutzutage ist das Qualitätsmanagement so gut, dass es äußerst unwahrscheinlich ist, dass sowas nochmal passiert.
Hübie
2018-07-29, 23:54:41
Beim Speicher der 970...:freak:
Du bist viel zu intelligent, um zu übersehen was ich wirklich gefragt habe. Ich beiß da natürlich nicht an. :D
Ist das nicht herrlich, wie jetzt einige versuchen zwanghaft die Mehrperformance herbeizuschreiben, damit gibt es diesmal weder einen großen Prozesswechsel, noch Maxwell-Vorteile - das Einzige was es gibt, ist besserer LL-Support und RT, wobei RT schon einiges an Power brauchen wird. Warum sollte Volta jetzt schneller sein als Pascal? Sie schaffen es ja offenbar immerhin eine 3072 Shader-GPU auf das Niveau einer 1080ti zu hieven, mehr ist ohne Prozess und der Shaderleistung eben einfach nicht drin. Dafür gibts halt RT dazu, das bläst den Chip eben auf.
Und es gibt keinen Turing, das sollte man vielleicht endlich mal akzeptieren. Es ist ein Volta und er verhält sich auch so. Man nehme GV100 und packe ein paar MHz drauf, dann landet man bei der GV102 Titan, das ist doch vollkommen logisch. Alle anderen Produkte tummeln sich halt dazwischen. Jetzt wo klar ist, dass Turing ein Fake ist und die Chips eben Gaming-Voltas sind, ist doch klar, wo die leistungsmäßig rauskommen...
Bucklew
2018-07-30, 09:13:33
damit gibt es diesmal weder einen großen Prozesswechsel, noch Maxwell-Vorteile
Beleg?
NVIDIA hat also nun - deiner Behauptung nach - mehr als zwei Jahre Däumchen gedreht. Ja, das klingt total realistisch. So wie du ja schon bei Pascal dead-on lagst:
Wenn schon was in Q3 was kommt wird das ein Titan. "Kleinere" GP100-Varianten sind sicherlich eher Q4 oder Q1 17 zu erwarten, von kleineren Chips ist bisher gar nichts zu hören, ich bin mir nicht mal sicher ob es die überhaupt gibt. Immerhin wär eine komplette Serie ohne HBM-Erfahrung und dann auch noch im neuen Prozess ein gewaltiges Risiko.
Trololol ;D
Nein nein, so funktioniert das nicht. Ich bin der, der skeptisch ist, also musst belegen, dass das Teil so schnell sein soll. Wo wir schon beim Trollen sind...
Bucklew
2018-07-30, 09:46:12
Nein nein, so funktioniert das nicht. Ich bin der, der skeptisch ist, also musst belegen, dass das Teil so schnell sein soll. Wo wir schon beim Trollen sind...
Nein, du bist der, der völlig blödsinnige Behauptungen in den Raum stellt. So wie eben die angeblich nicht vorhandenen "Maxwell-Vorteile". Dabei hast du nicht den blassesten Schimmer, was NVIDIA in den letzten zwei Jahren gemacht hat :rolleyes:
(Und jeder, wenn er nicht gerade AMD-Fanboy und/oder Troll wäre, wäre klar, dass NVIDIA garantiert nach >2 Jahren Entwicklung nicht mit einem Chip daher kommt, der die gleich Leistung und Perf/Watt hat, wie der GP104 :rolleyes: )
Cubitus
2018-07-30, 09:47:21
Und wieder ein Monat rum und es gibt soweit nicht wesentlich neues.
Nvidia lässt sich diesmal bitten :rolleyes:
Die sollen endlich ihre neuen krüppel Karten raus hauen damit wir Ruhe geben können. :biggrin:
Das Einzige was sicher zu sein scheint, dass die mögliche GT1180 teurer wird als die bisherigen TI Modelle... Hätte ich ja nie gedacht :freak:
Kriton
2018-07-30, 10:22:28
btw: Selbst wenn du gar nichts zum RX480 Desaster gesagt hättest, würde das meine These nur bestätigen :up:
Soll auch Leute geben, die mal nichts sagen, wenn sie das Thema nicht voll durchschauen. Ist selten hier, ich weiß. Und in solchen Fällen ist eine nicht gegebene Äußerung auch kein Statement.
Kriton
2018-07-30, 10:23:19
Du bist viel zu intelligent, um zu übersehen was ich wirklich gefragt habe. Ich beiß da natürlich nicht an. :D
Schon der 2. Ok, dann gehe ich etwas weiter zurück: Fermi. Zufrieden?
AffenJack
2018-07-30, 10:43:18
Dabei hast du nicht den blassesten Schimmer, was NVIDIA in den letzten zwei Jahren gemacht hat :rolleyes:
Ich seh da in Sachen Architektur nicht nur 2 Jahre, sondern eher 4,5 Jahre. Bis auf Taktoptimierungen hat Pascal in Sachen Architektur doch nix groß geändert und ist praktisch Maxwell 3.0. Viereinhalb Jahre sind aber schon eine verdammt lange Zeit um auch architektonisch ordentlich was weiterzubringen.
Der_Korken
2018-07-30, 10:43:41
also nv plant seit kepler bei seiner 04 chip variante seine 60% gain zum vorgänger, anders lässt es sich nicht erklären das dieses performance target praktisch auf den punkt erreicht wird.
klar könnten sie jederzeit etwas daran ändern, aber zunächst sollte man doch eher das wahrscheinlichste szenario bevorzugen. bremsklötze bekommen die salvage karten. die full gpus haben ein performance target das pi mal daumen im durchschnitt erreicht wird.
ich verstehe nicht ganz was du damit meinst wenn du sagst das der chip einfach das gewünschte ziel nicht bringt?
"Seit Kepler" sind (wie ich gerade erschreckend feststelle) nur zwei Gens gewesen. Bei der ersten hatte man einige Fails vom Vorgänger ausbügeln können (hab irgendwas im Kopf, dass die Kepler SMs nicht voll ausgelastet werden konnten) und bei der zweiten ein Fertigungsspruch von 28 auf 14nm. Es ist halt schwierig aus bereits sehr guten Designs mal eben +60% rauszuholen, ohne sich die mit entsprechend mehr Fläche und Verbrauch zu erkaufen.
Das mit den Bremsklötzen war so gemeint, dass Nvidia natürlich nicht ihr eigenes Design sabotiert. Wenn ihr Chip nicht die geplante/gewünsche Leistung bringt, dann nicht weil sie nicht wollen, sondern weil sie nicht können.
Was das Planen von Performance-Targets im Voraus angeht, bin ich nach wie vor skeptisch. Die Entwicklung eines Chips beginnt ja durchaus 3-4 Jahre vor Release, d.h. als Nvidia mit Turing (ich bleib erstmal bei dem Namen) angefangen hat, gab es noch keinen Pascal. Für die tatsächliche Leistung in der Praxis kommen einen Haufen Dinge zusammen. Die Rohleistung, wo ich eine gute Vorausplanung nach nachvollziehen könnte, ist nur ein Teil, dazu kommt das Zusammenspiel der GPU-Teile, mögliche interne Flaschenhälse, die man nicht auf dem Schirm hatte, die Verfügbarkeit von Speichertechnologien, die Treiberentwicklung (+Compiler) und auch die Spiele, auf denen das Teil später gebencht wird (inkl. Technologien wie Low-Level-Programmierung oder Raytracing die mglw. für das Abrufen der vollen Leistung des neuen Chips notwendig sind). Auch die Fertigung spielt, wie schon erwähnt wurde eine Rolle. Bei Netburst und Bulldozer haben die Entwickler die Taktbarkeit des Siliziums gnadenlos überschätzt und hatten einen Gurkenchip, weil eine essentielle Voraussetzung für dessen Leistung einfach ausgeblieben ist. Wenn jemand da Expertise hat, lasse ich mich gerne belehren, aber so als Außenstehender sieht das für mich völlig verrückt aus, da bei der Planung schon so exakte Angaben wie +60% machen zu können.
Deswegen mein Einwand, dass in Nvidias Design schlicht etwas nicht aufgegangen sein könnte und jetzt irgendwo 20% Leistung fehlen und es zu spät war, nachträglich noch ein paar SMs dranzuklatschen. Ich weiß, dass Nvidia deutlich mehr Budget als AMD zur Verfügung hat, aber bei AMDs Vega-Design kann mir auch keiner erzählen, dass man im Vorfeld geplant hat einen Chip zu entwickeln, der mehr als doppelt so groß wie Polaris ist, doppelt so viel Speicherbandbreite bekommt und selbst mit der Taktkeule keine 70% Mehrleistung im Schnitt (bevor jetzt wieder einer mit Kirschen ankommt) rausholt.
NVIDIA hat also nun - deiner Behauptung nach - mehr als zwei Jahre Däumchen gedreht. Ja, das klingt total realistisch.
Genauso realistisch wie dass AMD seit 2011 Däumchen dreht und nur tröpfchenweise Fortschritte beim Design erzielt.
Das meinte ich oben mit "unfehlbar": Ich will mich hier nur gegen das Klischee stemmen, dass jeder Chip von Nvidia automatisch ein Volltreffer wird, weil er von Nvidia kommt.
Bucklew
2018-07-30, 11:08:43
Soll auch Leute geben, die mal nichts sagen, wenn sie das Thema nicht voll durchschauen.
Was auch immer man da nun mehr durchschauen muss, wenn AMD in den Spezifikationen "Power 150W" angibt und die Karte dann 170W tatsächlich aufnimmt ;D
Schon der 2. Ok, dann gehe ich etwas weiter zurück: Fermi. Zufrieden?
Also vor über 8 Jahren. Ich denke damit kann Hübie sehr gut leben. Und du betreibst wieder Derailing ;)
Ich seh da in Sachen Architektur nicht nur 2 Jahre, sondern eher 4,5 Jahre. Bis auf Taktoptimierungen hat Pascal in Sachen Architektur doch nix groß geändert und ist praktisch Maxwell 3.0.
Da hast du natürlich völlig Recht. Ich wollte HOT jetzt nicht völlig blamieren ;)
Und was für massive Architekturverbesserungen im Hintergrund entwickelt werden, sieht man ja an Volta.
Genauso realistisch wie dass AMD seit 2011 Däumchen dreht und nur tröpfchenweise Fortschritte beim Design erzielt.
Auch AMD dreht keine Däumchen und erzielt auch größere Fortschritte als ein paar Tropfen. Aber die Fortschritte sind eben geringer, als bei NVIDIA. Das hat mehrere Gründe, die primär bei AMD zu suchen sind.
pilzsammler2002
2018-07-30, 11:12:16
Und was für massive Architekturverbesserungen im Hintergrund entwickelt werden, sieht man ja an Volta.
Ist damit der GV100 gemeint?
Bucklew
2018-07-30, 11:15:23
Ja.
Daredevil
2018-07-30, 11:25:48
Definitiv.
Warum sollte NVIDIA nach knapp 30 Monaten einen Chip bringen, der genauso schnell und die identische Perf/Watt zum GP104 liefert? ;D GTX1170 mit 1080 Leistung und Leistungsaufnahme. WTF?
Ehm, Preisgestaltung?
Ein hochgeprügelter kleiner 1070 DIE mit Taktvorteilen durch 12nm ist vermutlich deutlich günstiger herzustellen als ein 1080 Pendant.
AffenJack
2018-07-30, 11:37:08
Was das Planen von Performance-Targets im Voraus angeht, bin ich nach wie vor skeptisch. Die Entwicklung eines Chips beginnt ja durchaus 3-4 Jahre vor Release, d.h. als Nvidia mit Turing (ich bleib erstmal bei dem Namen) angefangen hat, gab es noch keinen Pascal. Für die tatsächliche Leistung in der Praxis kommen einen Haufen Dinge zusammen. Die Rohleistung, wo ich eine gute Vorausplanung nach nachvollziehen könnte, ist nur ein Teil, dazu kommt das Zusammenspiel der GPU-Teile, mögliche interne Flaschenhälse, die man nicht auf dem Schirm hatte, die Verfügbarkeit von Speichertechnologien, die Treiberentwicklung (+Compiler) und auch die Spiele, auf denen das Teil später gebencht wird (inkl. Technologien wie Low-Level-Programmierung oder Raytracing die mglw. für das Abrufen der vollen Leistung des neuen Chips notwendig sind). Auch die Fertigung spielt, wie schon erwähnt wurde eine Rolle. Bei Netburst und Bulldozer haben die Entwickler die Taktbarkeit des Siliziums gnadenlos überschätzt und hatten einen Gurkenchip, weil eine essentielle Voraussetzung für dessen Leistung einfach ausgeblieben ist. Wenn jemand da Expertise hat, lasse ich mich gerne belehren, aber so als Außenstehender sieht das für mich völlig verrückt aus, da bei der Planung schon so exakte Angaben wie +60% machen zu können.
Wie gesagt, das kannst du ziemlich genau. Dafür gibt es Jobs wie diese:
Our focused team takes GPUs/SoCs designs and program the emulators to behave like our GPUs/SOCs. Our emulators are connected to real PCs running the operating system and the designs used to exercise the emulated design.
https://www.glassdoor.de/Job/santa-clara-senior-emulation-engineer-fpga-prototyping-jobs-SRCH_IL.0,11_IC1147439_KO12,54.htm?rdserp=true&jl=2673489450&jaguid=&src=GD_JOB_AD&srs=EI_JOBS&s=21&ao=284595
Die ganze GPU, das Zusammenspiel der Teile, das wird alles mit FPGAs emuliert und man weiß sehr genau wo man rauskommt. Ram ist von außen vorgegeben, kann zu Problemen führen, aber in diesem Fall ist Gddr6 nun nix groß neues und die verfügbaren Geschwindigkeiten waren lange klar. Prozess ist immer kritisch, aber bei 12nm weiß man sehr genau worauf man sich einlässt. Von der Hardwareseite weiß man eigentlich alles recht genau vorher.
Compiler, Treiber, das ist dann ne Sache die optimiert werden kann. Aber auch da sollte man schon wissen, wo man etwa rauskommt. Meist gibts da ja auch keine fundamentalen Änderungen. Aber da kann man sich schon eher verschätzen denke ich.
Bucklew
2018-07-30, 12:09:12
Ehm, Preisgestaltung?
Ein hochgeprügelter kleiner 1070 DIE mit Taktvorteilen durch 12nm ist vermutlich deutlich günstiger herzustellen als ein 1080 Pendant.
Warum sollte man einen Chip entwickeln und die schon längst in einem Chip ausgelieferten Verbesserung (=> Volta) nicht mit einpflegen?
Der_Korken
2018-07-30, 12:35:02
Wie gesagt, das kannst du ziemlich genau. Dafür gibt es Jobs wie diese:
https://www.glassdoor.de/Job/santa-clara-senior-emulation-engineer-fpga-prototyping-jobs-SRCH_IL.0,11_IC1147439_KO12,54.htm?rdserp=true&jl=2673489450&jaguid=&src=GD_JOB_AD&srs=EI_JOBS&s=21&ao=284595
Die ganze GPU, das Zusammenspiel der Teile, das wird alles mit FPGAs emuliert und man weiß sehr genau wo man rauskommt.
OK, wieder was gelernt. Hätte nicht gedacht, dass sowas schon in der Entwicklungsphase geht. Ich hatte vor einem Jahr zum Ryzen-Release mal einen Talk auf Youtube gesehen (afaik war es auch ein AMD-Entwickler, der da geredet hat, aber ich finde leider das Video nicht mehr), wo auch von Simulationen gesprochen wurde und dass man nur winzigste Einzelteile eines Chips (z.B. eine ALU, einen Cache, etc.) für wenige Sekunden simulieren kann, wenn man ein Riesencluster rechnen lässt. Ganze Chips zu simulieren sei dagegen unmöglich. Wahrscheinlich hat der aber von anderen Simulationen geredet, z.B. die Physik hinter den Transistoren statt nur die Chiplogik o.ä.
Timbaloo
2018-07-30, 12:45:36
OK, wieder was gelernt. Hätte nicht gedacht, dass sowas schon in der Entwicklungsphase geht. Ich hatte vor einem Jahr zum Ryzen-Release mal einen Talk auf Youtube gesehen (afaik war es auch ein AMD-Entwickler, der da geredet hat, aber ich finde leider das Video nicht mehr), wo auch von Simulationen gesprochen wurde und dass man nur winzigste Einzelteile eines Chips (z.B. eine ALU, einen Cache, etc.) für wenige Sekunden simulieren kann, wenn man ein Riesencluster rechnen lässt. Ganze Chips zu simulieren sei dagegen unmöglich. Wahrscheinlich hat der aber von anderen Simulationen geredet, z.B. die Physik hinter den Transistoren statt nur die Chiplogik o.ä.
Ging es dabei nicht eher um Simulationen auf Transistorebene? Also wirklich Schaltzeiten, Felder, Ströme, Spannungen etc. zu simulieren, für kritische Schaltungen um diese mit bekannten oder geschätzten Prozessparametern zu optimieren? Also nicht wie die Logik aussehen soll, sondern wie man die Logik am besten in Silikon "giesst".
basix
2018-07-30, 12:58:41
OK, wieder was gelernt. Hätte nicht gedacht, dass sowas schon in der Entwicklungsphase geht. Ich hatte vor einem Jahr zum Ryzen-Release mal einen Talk auf Youtube gesehen (afaik war es auch ein AMD-Entwickler, der da geredet hat, aber ich finde leider das Video nicht mehr), wo auch von Simulationen gesprochen wurde und dass man nur winzigste Einzelteile eines Chips (z.B. eine ALU, einen Cache, etc.) für wenige Sekunden simulieren kann, wenn man ein Riesencluster rechnen lässt. Ganze Chips zu simulieren sei dagegen unmöglich. Wahrscheinlich hat der aber von anderen Simulationen geredet, z.B. die Physik hinter den Transistoren statt nur die Chiplogik o.ä.
Das ist schon richtig. Man rechnet vielleicht nur mit 1x Core und nicht 16x Cores. Das reduziert die Komplexität schon stark. Dann kann man das für iterative Verbesserungsschritte noch viel weiter runter brechen, damit man kürzere Durchlaufzeiten erhält. Eine ganze CPU zu simulieren wäre wie von Entwickler erwähnt viel zu langsam. Im angesprochenen Video glaube ich etwas zwischen 10-100 Clock-Cycles pro Sekunde für schon abgespeckte Komplexität. Das Problem dabei ist, dass CPUs extrem zuverlässig sein müssen, jedoch sporadisch auftretende Fehler z.B. alle 1h im realen Betrieb bei 1GHz somit beim Simulieren 115 Tage dauern würde. Ergo muss man für eine Simulation die Komplexität reduzieren.
Das angesprochene Video ist wirklich interessant, z.B. auch andere Designentscheidungen wie z.B. "Chicken-Bits" ;) Finde aber grad den Link nicht.
@ Timbaloo: Schaltzeiten / Laufzeiten sind auch bei Logiksimulationen von höchster Wichtigkeit. Felder, Ströme und Spannungen simuliert man eher nicht auf FPGAs, da FPGA = Ansammlung von Logikgattern.
Bucklew
2018-07-30, 13:13:36
OK, wieder was gelernt. Hätte nicht gedacht, dass sowas schon in der Entwicklungsphase geht.
Doch:
https://www.youtube.com/watch?v=650yVg9smfI
Das ist natürlich erstmal nur eine Simulation der Logik. Danach - wenn die Logik final ist - ist natürlich noch die Umsetzung auf das Silizium entscheidend. Hier war es auch, wo NVIDIA mit Pascal den primären Fortschritt erzielt hat.
Wird auch initial zur Treiberentwicklung genutzt, bevor es richtige Chips gibt. Ohne Simulation wuerde das vermutlich auch gar nicht mehr gehen in der Zeit.
Bucklew
2018-07-30, 13:22:50
Wird auch initial zur Treiberentwicklung genutzt, bevor es richtige Chips gibt. Ohne Simulation wuerde das vermutlich auch gar nicht mehr gehen in der Zeit.
Nein, dafür sind die Geräte viel zu langsam. Treiberentwicklung startet richtig erst mit den ersten Test-Chips in Hardware.
Leonidas
2018-07-30, 15:27:13
Ich hab mal die Angaben von Chiphell und WCCF Tech in Vergleich gebracht:
https://www.3dcenter.org/news/geruechtekueche-voellig-abweichende-angaben-zu-performance-stromverbrauch-der-turing-grafikkart
Fazit: Rechnet man das WCCF-Tech-Gerücht hoch, ergibt es genau das andere (unglaubwürdige) Extrem. +91% Performance bei GT106/GV106 gegenüber GP106 ist genauso unrealistisch wie eine kleine GT104/GV104-Lösung mit nur 120W TDP.
Nein, dafür sind die Geräte viel zu langsam. Treiberentwicklung startet richtig erst mit den ersten Test-Chips in Hardware.
Davon mal abgesehen, dass an Treibern schon vor Tapeout gearbeitet wird, sagt es sogar der Typ in deinem Video. Es macht auch ueberhaupt keinen Sinn, dass die Simulationsgeschwindigkeit ein Hindernis dafuer sein soll.
Bucklew
2018-07-30, 15:50:30
Davon mal abgesehen, dass an Treibern schon vor Tapeout gearbeitet wird, sagt es sogar der Typ in deinem Video.
Natürlich. Aber sicherlich nicht mit so einem Simulator.
Sieht man doch alleine am Testaufbau, dass da sicherlich niemand jetzt anfangen wird den Treiber zu optimieren.
Es hat auch keiner von Optimierung geredet sondern von Entwicklung.
pixeljetstream
2018-07-30, 16:25:41
Der Treiber ist zuerst lauffähig, sonst gäbe es nicht viel zu testen. Es gibt verschiedene Emulatoren. Von ner funktionellen Software die du am Arbeitsplatz hast, bis zum gate simulator. Und sehr wohl wird mit den Simulatoren schon optimiert. Musst ja wissen was man noch im Treiber rausholen kann oder nicht. Natürlich ist der Grad der Optimierung nie abgeschlossen, am man lässt schon früh den ganzen Software Stack drauf los. Compiler etc. Traces der verschiedenen Spiele/Anwendungen laufen dann und man guckt sich wie beim Original Chip die ganzen unit counter etc. an.
Bucklew
2018-07-30, 17:35:12
Im Video wird ja gesagt, dass von den Chipdesignern und den Softwareentwicklern Updates eingespielt und getestet werden. Da laufen dann automatisierte Tests und diese Ergebnisse werden auf verschiedenen Ebenen getestet (Geschwindigkeit, Qualität, Stabilität etc.)
Aber da sitzt kein Softwareentwickler am Simulator (so hatte ich den Kommentar von iuno aufgefasst, war vllt zu eng gedacht). Tatsächlich entwickelt wird auf physikalischer Hardware.
Thunder99
2018-07-30, 18:36:31
Wer sagt denn das Nvidia erfolgreiches Design entwickelt hat?
Grendizer
2018-07-30, 18:46:23
Wer sagt denn das Nvidia erfolgreiches Design entwickelt hat?
Naja selbst wenn der erste Versuch ein kompletter Fail gewesen wäre hatten sie ja fast genug Zeit für einen kompletten 2. Versuch :biggrin:
Troyan
2018-07-30, 18:49:32
Volta ist 50% effizienter als Pascal.
Tamagothi
2018-07-30, 19:18:28
Wenn du schon 50% sagt dann bitte in welchen bereich!
Weil was du schreibst ist falsch Herr Troyan.
Monsta
2018-07-30, 19:53:58
Ohne Quellenangabe ist das eh nur Trollerei.
Troyan
2018-07-30, 20:00:10
Die Quelle steht hier im Thread: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11711227&postcount=1079
Aber kann man schonmal übersehen, wenn man hier nur Fanfiction über Dinge schreibt, die nicht real sind.
Ex3cut3r
2018-07-30, 20:22:09
Bezieht er das nicht auf die CUDA Leistung?
Tamagothi
2018-07-30, 20:25:23
Die Quelle ist man selber?
Dazu kann man nur :facepalm:
Ex3cut3r
2018-07-30, 20:27:43
Ne, ein Youtube Video, mit einem Nvidia Entwickler.
Monsta
2018-07-30, 20:32:49
Ich zieh mir nicht nen Video von ner Stunde rein.
Aber in Videospielen sind es keine 50%, dafür das die Volta Titan so viel größer ist als die Titan XP ist der Vorsprung von ca.30% eher mau.
https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/2/#diagramm-performancerating-fps-3840-2160
Beide sind ja auf stock auf 250Watt begrenzt. Die Volta Titan hat durch HBM sogar mehr Watt für die Gpu frei.
Ich kann mir vorstellen das eine Pascal Gaminggpu mit 815mm2 schneller ist.
Bucklew
2018-07-30, 20:51:36
Wer sagt denn das Nvidia erfolgreiches Design entwickelt hat?
Davon sollte man erstmal ausgehen. Warum auch nicht?
Aber in Videospielen sind es keine 50%, dafür das die Volta Titan so viel größer ist als die Titan XP ist der Vorsprung von ca.30% eher mau.
Troll doch nicht, Volta ist nicht für Gaming gedacht und massig Hardware wird in Spielen gar nicht verwendet :rolleyes:
Ex3cut3r
2018-07-30, 21:00:47
Ich zieh mir nicht nen Video von ner Stunde rein.
Musst du auch gar nicht, er hat es so verlinkt mit der genau richtigen Stelle im Zeitstempel.
Monsta
2018-07-30, 21:10:01
Musst du auch gar nicht, er hat es so verlinkt mit der genau richtigen Stelle im Zeitstempel.
Ich seh da keine Benchmarks von Videospielen.
Ich denke 98% der User hier im Forum spielen Videospiele mit Ihren Grafikkarten
Bucklew
2018-07-30, 21:15:32
Ich seh da keine Benchmarks von Videospielen.
;D
Ich dachte das hier wäre ein Fachforum und nicht das ComputerBild-Forum.
Monsta
2018-07-30, 21:18:53
;D
Ich dachte das hier wäre ein Fachforum und nicht das ComputerBild-Forum.
Stimmt, ich sehe hier dutzende Threads über Deep Learning, wie man mehr Performance rausholt Problemlösungen usw. ;D
Troyan
2018-07-30, 21:27:42
Bezieht er das nicht auf die CUDA Leistung?
Nein, Volta hat ziemlich große Architekturveränderungen gegenüber Pascal. Das wirkt sich überall positiv aus. Anders wäre es auch nicht möglich im selben Prozess ohne Verbrauchssteigerung rund 50% Mehrleistung zu erreichen.
Bucklew
2018-07-30, 21:34:53
Stimmt, ich sehe hier dutzende Threads über Deep Learning, wie man mehr Performance rausholt Problemlösungen usw. ;D
Nö. Aber ich denke man kann in diesem Forum schon erwarten, von (Shader-)Leistung approximieren zu können und nicht heulend aufzustampfen "Mimimi, aber ohne Crysis FPS kann ich das nicht bewerten, Mimimimi!".
Oder sich das wissen zumindest anzueignen, bevor man solche Fakten ignoriert.
Monsta
2018-07-30, 21:40:04
Nö. Aber ich denke man kann in diesem Forum schon erwarten, von (Shader-)Leistung approximieren zu können und nicht heulend aufzustampfen "Mimimi, aber ohne Crysis FPS kann ich das nicht bewerten, Mimimimi!".
Oder sich das wissen zumindest anzueignen, bevor man solche Fakten ignoriert.
Ich muss da garnix approximieren, Troyan spricht von 50%, bei einschlägigen Internetseiten die Gpus testen sind es 30%.
Kein Plan worauf Du hinaus willst.
Ex3cut3r
2018-07-30, 21:44:48
Nö. Aber ich denke man kann in diesem Forum schon erwarten, von (Shader-)Leistung approximieren zu können und nicht heulend aufzustampfen "Mimimi, aber ohne Crysis FPS kann ich das nicht bewerten, Mimimimi!".
Oder sich das wissen zumindest anzueignen, bevor man solche Fakten ignoriert.
Das ist pures Trollen, oder ein Verdrängung von Fakten. Mehr nicht. Ende.
Digidi
2018-07-30, 21:46:48
Am 20.08.2018 gibts mehr:
https://videocardz.com/newz/nvidia-announces-geforce-gaming-celebration-on-august-20
reaperrr
2018-07-30, 21:55:04
Fazit: Rechnet man das WCCF-Tech-Gerücht hoch, ergibt es genau das andere (unglaubwürdige) Extrem. +91% Performance bei GT106/GV106 gegenüber GP106 ist genauso unrealistisch wie eine kleine GT104/GV104-Lösung mit nur 120W TDP.
Warum?
1170 = 1080-Perf in 120W
1180 = 1080Ti-Perf in 150W
1180+/Ti = nochmal ~25% schneller in 180W
Also jeweils grob ~20% weniger TDP und ~25% mehr Leistung gegenüber dem jeweiligen Vorgänger. Für 12nm wäre das ziemlich gut.
So unplausibel finde ich das auch nicht. Die GTX 980 hat gegenüber der GTX 770 auch den Verbrauch gesenkt (sogar im gleichen Prozess), anstatt alles in noch höheren Takt zu buttern.
Außerdem ist TDP nicht automatisch auch PowerTarget, TDP ist ja im Grunde nur, wieviel Abwärme die Kühllösungen abführen können müssen, und da könnte auch eine gestiegene Chipfläche, verringerte Standardspannung oder reduzierte Hotspots helfen, die TDP zu senken, ohne dass dafür der Durchschnitts-Verbrauch in gleichem Maße sinken muss.
y33H@
2018-07-30, 22:08:37
Eine GTX 1080 Ti hat 250W, diese Performance in 150W zu pressen geht nicht mit 12 nm bei leicht mehr Die Size - ausser mit einem Sprung wie Kepler zu Maxwell und das trifft bei Pascal zu Volta zumindest nicht zu. GTX 1080 Ti als 180W Turing klingt realistisch, gerade nachdem was so im Hintergrund rauscht.
EDIT: Ti freilich, sry - war per Phone.
Troyan
2018-07-30, 22:08:37
Am 20.08.2018 gibts mehr:
https://videocardz.com/newz/nvidia-announces-geforce-gaming-celebration-on-august-20
"Will be livestreamed".
Endlich mal nicht Nachts um 3 aufstehen und sich berieseln lassen. ;D
Eine GTX 1080 hat 250W, diese Performance in 150W zu pressen geht nicht mit 12 nm bei leicht mehr Die Size - ausser mit einem Sprung wie Kepler zu Maxwell und das trifft bei Pascal zu Volta zumindest nicht zu. GTX 1080 Ti als 180W Turing klingt realistisch, gerade nachdem was so im Hintergrund rauscht.
Die GTX1080TIFE liegt bei ~220W. Ist aber auch nur rund 30% schneller als eine GTX1080FE, die bei rund 160W liegt...
dargo
2018-07-30, 22:48:40
Eine GTX 1080 hat 250W...
Die GTX1080TIFE liegt bei ~220W. Ist aber auch nur rund 30% schneller als eine GTX1080FE, die bei rund 160W liegt...
Ähm...
https://www.tomshw.de/2016/05/17/nvidia-geforce-gtx-1080-pascal/10/
https://www.tomshw.de/2017/03/09/nvidia-geforce-gtx-1080-ti/6/
Bucklew
2018-07-30, 22:59:08
Ich muss da garnix approximieren, Troyan spricht von 50%, bei einschlägigen Internetseiten die Gpus testen sind es 30%.
Ja und das hat er nachgewiesen.
Von 50% Spieleleistung, auf die du plötzlich pochst, steht da nix.
Wenn du Fragen hast, dann frag lieber, als Anderen - mit Fakten - Trolling zu unterstellen :eek:
y33H@
2018-07-30, 23:09:19
Weder hat eine 1080 Ti FE nur 220W noch eine 1080 FE nur 160W, so ein Bullshit ...
Monsta
2018-07-30, 23:11:33
Ja und das hat er nachgewiesen.
Von 50% Spieleleistung, auf die du plötzlich pochst, steht da nix.
Wenn du Fragen hast, dann frag lieber, als Anderen - mit Fakten - Trolling zu unterstellen :eek:
Wieso plötzlich? meine Post waren von Anfang an auf Spieleleistung aus.
Troyan hat nen einzeiler mit Pauschal nen 50% Effiziensvorteil von Volta rausgehauen.
Und da in diesem Forum idR über Spieleleistung gesprochen wird liege ich ja wohl nicht ganz falsch.
GTX 1080 Ti als 180W Turing klingt realistisch
Naja, 210W turing @3584sp = 1080ti performance wäre für mich realistisch. Außer der chip wird riesengroß und ist niedriger getaktet. Wo soll die ganze performance denn herkommen bei 12nm? Bei den spekulierten 3072sp und höherem takt werden doch mindestens wieder 250W benötigt...
dargo
2018-07-30, 23:17:44
Weder hat eine 1080 Ti FE nur 220W noch eine 1080 FE nur 160W, so ein Bullshit ...
Bei den 160W der 1080FE hast du natürlich recht. Aber sind die ~220W der 1080TI so unrealistisch? Ich habe jetzt mal kurz bei der PCGH und bei euch nachgeschaut. Die PCGH hatte 225-230W gemessen, ihr kamt auf stolze 254W.
http://www.pcgameshardware.de/Geforce-GTX-1080-Ti-11G-Grafikkarte-265855/Tests/Test-Review-1222421/
https://www.golem.de/news/geforce-gtx-1080-ti-im-test-der-neue-ti-tan-1703-126531-2.html
THG hatte ich bereits verlinkt. Wer misst jetzt Mist? :D Oder kann das unter Serienstreuung verbucht werden?
BlacKi
2018-07-30, 23:20:12
naja, meine 1080ti kann ich auch mit 150w mit fast 1080ti performance betreiben. ein 660mm² chip mit schnellerem ram bei ~1600mhz@0,6v und weitere optimierungen bei der benötigten spannung sind mit 250w bestimmt 60% auf die fe ti.
sind ja auch schon 2 jahre her seit gp102.
y33H@
2018-07-30, 23:26:06
230W bis 250W ist alles richtig, ich sehe aber zumindest daheim oft eher Letzteres im Case drin und mit 144 Hz und aktuellen Spielen.
dargo
2018-07-30, 23:32:47
230W bis 250W ist alles richtig, ich sehe aber zumindest daheim oft eher Letzteres im Case drin und mit 144 Hz und aktuellen Spielen.
Interessant, denn ich hatte immer die 213W von THG im Kopf nach einer Aufwärmphase. Dann hat THG wohl das falsche Spiel zum messen genommen.
Troyan
2018-07-30, 23:47:18
Weder hat eine 1080 Ti FE nur 220W noch eine 1080 FE nur 160W, so ein Bullshit ...
Und trotzdem kann ich mit Computerbase (https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/#diagramm-leistungsaufnahme-der-grafikkarte-spiele-durchschnitt) und Hardware.fr (https://www.hardware.fr/articles/957-5/consommation-efficacite-energetique.html) zwei Seiten aufzeigen, die genau diesen Verbrauch gemessen haben.
BlacKi
2018-07-30, 23:49:27
weil die karten alle ins temp limit laufen. wenn der raum 20 grad hat und im offenen aufbau getestet wird, verbraucht die karte mehr als wenn sie im case bei 40 ° läuft. und mit nem morpheus zieht sie 250w weil das im PT hinterlegt ist.
Daredevil
2018-07-30, 23:54:40
Meine Gigabyte 1080ti Aorus hat bei knapp 1v Stock um die 250w Verbrauch. Sicher, das die Ref nicht ne Ecke weniger zieht?
Mal davon ab, zieht GDDR6 nicht auch weniger Saft? Resultiert ja dann auch in mehr Reserven für Takt und Saft für die GPU selber.
Zudem... wenn es echt 8GB statt 11GB sind, sparen wir hier auch nochmal ein paar Watt.
Andersrum wenn 16gb, dann auch mehr zum kühlen.
horn 12
2018-07-30, 23:56:31
RayTracing Demo und ein Neues überarbeitetes Design hat die GTX 1180 er Karte,
15 bis 25% Strom Ersparnis bei selber Performance.
Dies werden die Neuerungen sein …
Alles andere lauer Kaffee denn wann hat Nvidia jemals Werbung vor dem Release gemacht ?
dargo
2018-07-31, 00:03:47
Und trotzdem kann ich mit Computerbase (https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/#diagramm-leistungsaufnahme-der-grafikkarte-spiele-durchschnitt) und Hardware.fr (https://www.hardware.fr/articles/957-5/consommation-efficacite-energetique.html) zwei Seiten aufzeigen, die genau diesen Verbrauch gemessen haben.
Ich halte dagegen. :D
https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-1080-Ti-Review/Detailed-Power-Consumption-Testing
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_Ti/28.html
Edit:
Wobei das hier auch lustig ist. Zwar Gesamtsystem, aber dennoch.
https://www.eurogamer.net/articles/digitalfoundry-2017-nvidia-geforce-gtx-1080-ti-review_2
Wusste gar nicht, dass die Fury X nur 220W verbraucht. ;)
aufkrawall
2018-07-31, 03:02:45
Bei der Fury X würde Troyan natürlich auf die >300W realer Worstcase verweisen.
Einfach den Quatsch ignorieren, egal von welcher Seite kommend...
Adam D.
2018-07-31, 07:40:10
https://www.nvidia.com/en-us/geforce/news/geforce-gaming-celebration-gamescom-2018/
Also dann kriegen wir ja zumindest Turing mal zu sehen am 20.8., in welcher Form auch immer.
Rancor
2018-07-31, 07:58:20
https://www.nvidia.com/en-us/geforce/news/geforce-gaming-celebration-gamescom-2018/
Also dann kriegen wir ja zumindest Turing mal zu sehen am 20.8., in welcher Form auch immer.
GT108 ;D
gravitationsfeld
2018-07-31, 08:00:53
RayTracing Demo und ein Neues überarbeitetes Design hat die GTX 1180 er Karte,
15 bis 25% Strom Ersparnis bei selber Performance.
Dies werden die Neuerungen sein …
Alles andere lauer Kaffee denn wann hat Nvidia jemals Werbung vor dem Release gemacht ?
Kauf dir schon mal Beruhigungsmittel. Du wirst sie brauchen. :popcorn:
Vielleicht auch ne Plastiktüte gegen Schnappatmung.
dargo
2018-07-31, 09:27:04
Kauf dir schon mal Beruhigungsmittel. Du wirst sie brauchen. :popcorn:
Vielleicht auch ne Plastiktüte gegen Schnappatmung.
;D
Ich sehe schon die nächsten Untergangsprophezeihungen von AMD bei horn sobald Turing draußen ist. ;D
Rancor
2018-07-31, 09:31:45
Für diejenigen hier, die schon wissen wie Turing performt, muss das hier wirklich extrem unterhaltsam sein :D
Bucklew
2018-07-31, 09:56:18
Wieso plötzlich? meine Post waren von Anfang an auf Spieleleistung aus.
Deine Posts waren aber eine Antwort auf die Aussage von Troyan :freak:
Vielleicht solltest du dann lieber den Kontext erfragen, bevor du OffTopic gehst?! ;)
Hübie
2018-07-31, 10:21:53
Wäre schön wenn eine AI auf dem Chip ein paar nette Aufgaben übernehmen könnte, findet ihr nicht? ;D
Käsetoast
2018-07-31, 11:00:15
Mich beschäftigt tatsächlich die Preisfrage mehr als die Performancefrage. Wenn wie im Leitartikel hier auf der Seite dargestellt die "120W Turing" im Sinne einer 1160 für 499 € erscheint, dann wäre das für mich jenseits von gut und böse. Der angedeutete 50 $ Preisnachlass bei der 1080 ist in meinen Augen auch ein Witz - zusätzlich noch eine "1" davor setzen beim Nachlass und wir haben einen Preis wie er bei einer mehrere Jahre alten, auslaufenden Karte aussehen sollte...
Wenn NVIDIA für eine 1160 wirklich knapp 500 Euro verlangt als UVP am Markt, dann gute Nacht. Das ist so etwa das Doppelte von dem was sie kosten sollte und es würde mich nicht wundern, wenn Miner scharf auf die Karte werden und sie real am Markt dann mindestens 600 kosten wird innerhalb kürzester Zeit. In China müssen ja schließlich die abgesoffenen Farmen ersetzt werden und wenn da Leistung >1080 bei 120 Watt rumkommt, dürfte die aufgrund der Effizienz für Miner hochspannend sein...
1160er für 600 Euro - das muss man sich echt mal auf der Zunge zergehen lassen. Ich hoffe einfach es kommt anders... :(
Troyan
2018-07-31, 11:07:47
Warum machst du dir einen Kopf um Fake-Preise? Sollte nVidia am 20. was vorstellen, dann werden die Preise im Rahmen bleiben. Du willst die Leute vor Ort ja nicht sofort verprellen.
BlacKi
2018-07-31, 11:33:42
1160er für 600 Euro - das muss man sich echt mal auf der Zunge zergehen lassen. Ich hoffe einfach es kommt anders... :(
warum sind die erwartungen vor dem release bei amd immer zu hoch und bei nv viel zu niedrig?
wenn die 120w 1160 die performance einer 1080ti bringt, dann darf die auch 500-600€ kosten. war da nicht die rede von einer namensschemaänderung?
wenn man eins erwarten darf, dann ist es das NV liefert so wie in den vergangen 6 jahren. ca 60%+ bei 50$ mehr. das wird sich mit der next gen nicht ändern.
Cubitus
2018-07-31, 11:56:34
Warum machst du dir einen Kopf um Fake-Preise? Sollte nVidia am 20. was vorstellen, dann werden die Preise im Rahmen bleiben. Du willst die Leute vor Ort ja nicht sofort verprellen.
Was wenn Nvidia eine andere Strategie fährt?
Pascal bleibt einfach auf dem Markt (eventuell umgelabelt) und die Nachfolger sind höher preisig?
Also ich würde es so machen :biggrin:
Troyan
2018-07-31, 12:09:55
Du meinst wie bei GT200 und g92? Kann gut sein. Aber der Rebrandt wird ja dadurch nicht teurer.
Monsta
2018-07-31, 12:14:21
Was wenn Nvidia eine andere Strategie fährt?
Pascal bleibt einfach auf dem Markt (eventuell umgelabelt) und die Nachfolger sind höher preisig?
Also ich würde es so machen :biggrin:
Das macht aber keinen Sinn, weil idR der Grafikkartenkäufer in seinem Preissegment bleibt.
Ich gebe zB max 400€ für eine Grafikkarte aus. Wenn Nvidia/AMD nicht mehr Leistung fürs Geld anbietet kaufe ich gar nicht, und warte einfach.
BlacKi
2018-07-31, 13:31:35
nice, also am 20. august wird die neue 2080 vorgestellt, deshalb vermutlich am 20. august^^
https://videocardz.com/newz/nvidia-announces-geforce-gaming-celebration-on-august-20
VC hat auch news zu einem neuen AA, genannt ATAA.
AffenJack
2018-07-31, 13:49:07
Man sollte am 20. August aber nicht zuviel erwarten. Wir werden den Namen zu Gesicht kriegen und eine hochgehaltene Karte. Wieviel mehr man zu der Karte erfahren wird, muss man da noch sehen. Reviews dann vielleicht am 30. und kaufbar 1 Woche danach?
Oha ein KI-basiertes AA, das keine Leistung kostet, weil komplett über die Tensorcores realisiert wird könnte aber schon ein echtes Knallerfeature sein.
pilzsammler2002
2018-07-31, 13:56:34
Oha ein KI-basiertes AA, das keine Leistung kostet, weil komplett über die Tensorcores realisiert wird könnte aber schon ein echtes Knallerfeature sein.
Kostet zwar keine Leistung im eigentlichen Sinne, aber wenn die TDP auch die Tensorcores mit einbezieht muss ja irgendwo gedrosselt werden... :cool:
Das könnte aber auch der Grund für die recht hoch angegeben TDP sein.
BlacKi
2018-07-31, 14:30:30
Kostet zwar keine Leistung im eigentlichen Sinne, aber wenn die TDP auch die Tensorcores mit einbezieht muss ja irgendwo gedrosselt werden... :cool:
sowas macht man nur wenn die sache deutlich effizienter ist als bisher. daher könnte es fast kostenlos ziemlich gut treffen.
Bösewicht
2018-07-31, 14:37:40
wenn das bei spielen greift die wegen shader keine aa mehr zulassen würde mich das sehr freuen ich vermisse es wirklich da downsampling und sehr hohe auflösungen zu viel kostet und ohne das geflimmer bei simplen objekten wie grass oder zeune mit viel alphas echt nerven kann.
the crew 2 soll ja auch ein super aa haben
N0Thing
2018-07-31, 14:55:57
Wenn man sich anschaut, wie gut TAA in manchen Spielen funktioniert und dazu auch noch fast ohne Leistungsverlust, braucht es eigentlich kein extra Hardware-AA. Eher mehr Druck seitens der Spieler auf die Entwickler, eine Einstellungsmöglichkeit für die Auflösungsskalierung anzubieten.
crux2005
2018-07-31, 15:33:10
Wenn man sich anschaut, wie gut TAA in manchen Spielen funktioniert und dazu auch noch fast ohne Leistungsverlust, braucht es eigentlich kein extra Hardware-AA. Eher mehr Druck seitens der Spieler auf die Entwickler, eine Einstellungsmöglichkeit für die Auflösungsskalierung anzubieten.
Ehm, doch. Schau dir die Bilder an wie mit TAA einfach Informationen verloren gehen. Mit ATAA sieht es schon viel besser aus. Also immer her damit! :up:
wenn das bei spielen greift die wegen shader keine aa mehr zulassen würde mich das sehr freuen ich vermisse es wirklich da downsampling und sehr hohe auflösungen zu viel kostet und ohne das geflimmer bei simplen objekten wie grass oder zeune mit viel alphas echt nerven kann.
the crew 2 soll ja auch ein super aa haben
Nur weil das Resultat flimmerfrei ist bedeutest es lange kein "super AA". Bei The Crew 2 ist es auch eine Kombo aus FXAA und T(X)AA.
Ex3cut3r
2018-07-31, 15:37:19
Hab ich was verpasst? Gibt es für Nvdias "Super AA" auch ein Quelle? Oder sind das mal wieder feuchte Träume? Nicht das es am ende wie das super dolle MFAA endet. Das hat mir nur Probleme in Form von Grafikfehlern verursacht.
crux2005
2018-07-31, 15:38:31
Hab ich was verpasst? Gibt es für Nvdias "Super AA" auch ein Quelle? Oder sind das mal wieder feuchte Träume?
Direkt NVIDIA: http://research.nvidia.com/publication/2018-08_Adaptive-Temporal-Antialiasing
Ex3cut3r
2018-07-31, 15:39:57
Oh, danke. :up: Also das scheint echt schon mal nett zu sein. :)
Vlt. kann man sich in Zukunft Reshade mit Sharpen sparen.
So schwer mal die Texte zu lesen und dann google anzuschmeissen...
https://videocardz.com/76902/nvidia-introduces-adaptive-temporal-antialiasing-with-ray-tracing
Hab ich ja, habe nach ATAA Turing gesucht, kam aber nix raus. ^^
Grendizer
2018-07-31, 15:40:04
Hab ich was verpasst? Gibt es für Nvdias "Super AA" auch ein Quelle? Oder sind das mal wieder feuchte Träume? Nicht das es am ende wie das super dolle MFAA endet.
So schwer mal die Texte zu lesen und dann google anzuschmeissen...
https://videocardz.com/76902/nvidia-introduces-adaptive-temporal-antialiasing-with-ray-tracing
Bösewicht
2018-07-31, 15:40:35
Nur weil das Resultat flimmerfrei ist bedeutest es lange kein "super AA". Bei The Crew 2 ist es auch eine Kombo aus FXAA und T(X)AA.
ja und? ist doch völlig egal was es ist wenn ich es im treiber aktivieren kann und so meine spiele aufhübschen kann die kein the crew aa oder gutes eigenes fxaa oder txaa anbieten dann ist das doch nur gut für mich/uns.
Kriton
2018-07-31, 15:46:48
Mich beschäftigt tatsächlich die Preisfrage mehr als die Performancefrage. Wenn wie im Leitartikel hier auf der Seite dargestellt die "120W Turing" im Sinne einer 1160 für 499 € erscheint, dann wäre das für mich jenseits von gut und böse. Der angedeutete 50 $ Preisnachlass bei der 1080 ist in meinen Augen auch ein Witz - zusätzlich noch eine "1" davor setzen beim Nachlass und wir haben einen Preis wie er bei einer mehrere Jahre alten, auslaufenden Karte aussehen sollte...
Wenn NVIDIA für eine 1160 wirklich knapp 500 Euro verlangt als UVP am Markt, dann gute Nacht. Das ist so etwa das Doppelte von dem was sie kosten sollte und es würde mich nicht wundern, wenn Miner scharf auf die Karte werden und sie real am Markt dann mindestens 600 kosten wird innerhalb kürzester Zeit. In China müssen ja schließlich die abgesoffenen Farmen ersetzt werden und wenn da Leistung >1080 bei 120 Watt rumkommt, dürfte die aufgrund der Effizienz für Miner hochspannend sein...
1160er für 600 Euro - das muss man sich echt mal auf der Zunge zergehen lassen. Ich hoffe einfach es kommt anders... :(
Ja, die 460 (ich weiß, ist lange her) war damals ja auch deswegen so gut, weil ihr Preis-Leistungs-Verhältnis einfach geil war. Die bekam man als (gute) Custom IIRC für 150-200,- €.
dargo
2018-07-31, 15:49:00
Ehm, doch. Schau dir die Bilder an wie mit TAA einfach Informationen verloren gehen. Mit ATAA sieht es schon viel besser aus. Also immer her damit! :up:
Eigentlich sehe ich an den Beispielbildern, dass mit ATAA Informationen verloren gehen. Zudem bin ich mir auch nicht sicher ob ATAA nicht stärker blurt. Zumindest sieht das für mich in den gezeigten Bildern so aus. Erstmal was aus der Praxis abwarten. Und als letzteres muss sich auch zeigen ob das spieleübergreifend greift. Nicht, dass dieses ATAA so schnell in der Versenkung verschwindet wie MFAA.
Ex3cut3r
2018-07-31, 16:11:21
Eigentlich sehe ich an den Beispielbildern, dass mit ATAA Informationen verloren gehen. Zudem bin ich mir auch nicht sicher ob ATAA nicht stärker blurt. Zumindest sieht das für mich in den gezeigten Bildern so aus. Erstmal was aus der Praxis abwarten. Und als letzteres muss sich auch zeigen ob das spieleübergreifend greift. Nicht, dass dieses ATAA so schnell in der Versenkung verschwindet wie MFAA.
Ja, da habe ich auch noch meine Zweifeln. MFAA war leider so ein Schuss in den Ofen, hat mir nur Grafikfehler gebracht. Ansonsten aber ganz nett, das Nvdia etwas probiert. Ist löblich anzusehen. Mal abwarten. :up:
Für ROTTR wäre es echt magisch. ^^
https://abload.de/img/unbenannt0fcqf.png
robbitop
2018-07-31, 16:23:56
Das wird sicherlich nicht transparent für die Anwendung funktionieren sondern muss, wie TXAA und TAA explizit vom Entwickler implementiert werden. (Zugriff auf Z-Buffer und vorherige Frames etc)
Hängt ATAA zwangsweise mit Beleuchtung mittels Raytracing zusammen? Es wird gemeinsam benannt. Heißt also in Spielen ohne RT kein ATAA?
Hübie
2018-07-31, 16:49:28
Das noch Niemanden das 'publication date' des Papers aufgefallen ist... :D
Publication Date:
Friday, August 10, 2018
dargo
2018-07-31, 16:56:38
Das wird sicherlich nicht transparent für die Anwendung funktionieren sondern muss, wie TXAA und TAA explizit vom Entwickler implementiert werden. (Zugriff auf Z-Buffer und vorherige Frames etc)
Hängt ATAA zwangsweise mit Beleuchtung mittels Raytracing zusammen? Es wird gemeinsam benannt. Heißt also in Spielen ohne RT kein ATAA?
Wenn das der Fall ist wirds mit der Durchsetzung (wenn überhaupt) noch länger dauern. Außerhalb von neuen Gameworks-Titeln sehe ich da keine Chancen für.
basix
2018-07-31, 17:47:24
Das noch Niemanden das 'publication date' des Papers aufgefallen ist... :D
Was viel interessanter ist: Es braucht "Adaptives" Raytracing für ATAA. Demonstriert auf einer Titan V mit UE4 ;)
Siehe Paper unter "Uploaded Files":
http://research.nvidia.com/publication/2018-08_Adaptive-Temporal-Antialiasing
=Floi=
2018-07-31, 17:53:43
läuft bei 33ms im hintergrund.
imho unbrauchbar. 33ms sind viel zu hoch.
downsampling heute glättet einfach alles und morgen hat man dann einen 4k monitor, welcher eh kleinere pixel hat und das thema zweitrangig werden lässt.
So etwas hätte man vor 10 jahren gebraucht, aber heute ist es doch egal. Ich dreh lieber DS auf und setzte auf ~75fps, wenn FXAA oder TAA zu wenig bringt.
Gipsel
2018-07-31, 17:58:31
Und man schafft in FullHD auf der Titan V sogar ein Frame innerhalb von 33ms (30 fps) zu rendern. Mit ATAA 2x und 4x dann sogar innerhalb von 16ms (60 fps). Für 1440p oder gar 4k sieht das dann wohl eher schlecht aus. Da muß wohl noch etwas mehr Performance her (zumal man nur ~5% der Pixel überhaupt damit behandelt hat).
Edit:
Zu lange mit Lesen des Papers verbracht.
=Floi=
2018-07-31, 18:00:06
Die vergleichsshots im pdf sind sehr ernüchternd um es mal harmlos auszudrücken.
Ich weiß garnicht, was schlimmer ist. Der nicht vorhandene unterschied zwischen FXAA und TAA oder das blurfreie bild bei SSAA?!
edit
civ 5 aa
https://forums.civfanatics.com/threads/improvement-anti-aliasing-not-selectable-for-me.381379/
einfaches 8xAA und falls das noch nicht reicht noch ca. 30% DS
Dr. Lloyd
2018-07-31, 18:07:47
downsampling heute glättet einfach alles und morgen hat man dann einen 4k monitor, welcher eh kleinere pixel hat und das thema zweitrangig werden lässt.
Downsampling und 4K-Auflösung kannst du in Spielen mit Pixel-statischem User-Interface aber vergessen. Das wird alles unlesbar klein. SGSSAA wäre eine Lösung, wenn das Spiel damit klarkommt. Ein sehr populäres Spiel, wie das gute aber schlecht programmierte Civilization 5, kann jedoch beides nicht: Ein User-Interface mitsamt Text, was mit höherer Auflösung immer kleiner wird. Und mit der Alternative SGSSAA kommt es hierbei vereinzelt zu Grafikfehlern.
Digidi
2018-07-31, 18:14:59
Kauf dir schon mal Beruhigungsmittel. Du wirst sie brauchen. :popcorn:
Vielleicht auch ne Plastiktüte gegen Schnappatmung.
Wenn das mal kein Wink mit dem ganzen Zaun ist :D :popcorn:
Ich glaube das wir Raytracing auf Tensor Core sehen und das wird auf den neuen Karten wohl gut laufen. Schätze mal bei alten Anwendungen 15% plus. Mit Raytracing dann 50-100%
basix
2018-07-31, 18:30:06
Raytracing ist nur ein Beispiel. Ganz allgemein können mit den Tensor Cores & AI wohl ganz schicke Dinge angestellt werden. Vor allem wenn es um adaptive Dinge und Filter geht, welche zuerst den Inhalt analysieren müssen. Da stehen wir aber erst am Anfang. Heutige Grafiktechniken brauchten Jahre um den jetzigen Stand zu erreichen. In ein paar Jahren wird mit AI-Unterstütung / Tensor-Cores etc. wohl noch viel mehr gehen, falls Aufwand / Ertrag stimmen sollte.
unl34shed
2018-07-31, 18:31:52
https://cdn.videocardz.com/1/2018/07/NVIDIA-Adaptive-Temporal-Antialiasing-e1532992485141.jpg
Sind meine Augen kaputt? Das sieht doch echt schlecht aus verglichen mit TAA und SSAA.
Klar, es ist praktisch, wenn es die ansonsten unnützen Tensor Cores auslastet, aber wirklich gut sieht es nicht aus.
Dr. Lloyd
2018-07-31, 18:39:06
ATAA wirkt auf den Beispielbildern vor allem unschärfer. Mit 16-facher anisotroper Filterung sollte das aber etwas zu korrigieren sein.
Gipsel
2018-07-31, 18:47:36
ATAA wirkt auf den Beispielbildern vor allem unschärfer. Mit 16-facher anisotroper Filterung sollte das aber etwas zu korrigieren sein.Was willst Du denn da anisotrop filtern? Die Raytracing-Samples oder die Geometrie? :rolleyes:
Dr. Lloyd
2018-07-31, 18:52:44
Zunächst mal würde ich gerne die Texturen damit filtern.
Screemer
2018-07-31, 18:59:16
Und welchen Einfluss hätte das auf die mit ataa zerblurten Kanten?
Gipsel
2018-07-31, 18:59:16
Zunächst mal würde ich gerne die Texturen damit filtern.Was mit den AA-Varianten aber Null zu tun hat (und in den Vergleichsbildern auch Null helfen würde). ;)
Edit: Auf die Sekunde zeitgleich. :)
aufkrawall
2018-07-31, 19:05:53
Wenn das nicht in jeder Anwendung über den Treiber erzwingbar ist, ist das bei den Kosten und der Glättung von gescheitem TAA einfach völlig uninteressant.
Dr. Lloyd
2018-07-31, 19:10:01
Bis jetzt kenne ich es so, dass diverse AA-Modi Unschärfe erzeugen, welche man mit AF und dessen Schärfefilter wieder etwas korrigieren kann. Warum soll das hier nicht funktionieren?
Daredevil
2018-07-31, 19:24:15
Vielleicht ist das ganze ja auch "nur" Kram für den Ansel Shit.
Ich würde Mal behaupten, dass wir ja aktuell viele needs haben, aber ein neuer AA Modi >im HighEnd<? Ich weiß nicht, Bockt mich nicht so an.
Könnte aber in Verbindung mit den Nvidia Displays Sinn machen, weil 4k bei 40Zoll+ fordert dann doch irgendwann wieder Kantenglättung.
N0Thing
2018-07-31, 19:49:17
Downsampling und 4K-Auflösung kannst du in Spielen mit Pixel-statischem User-Interface aber vergessen. Das wird alles unlesbar klein. SGSSAA wäre eine Lösung, wenn das Spiel damit klarkommt. Ein sehr populäres Spiel, wie das gute aber schlecht programmierte Civilization 5, kann jedoch beides nicht: Ein User-Interface mitsamt Text, was mit höherer Auflösung immer kleiner wird. Und mit der Alternative SGSSAA kommt es hierbei vereinzelt zu Grafikfehlern.
Es gibt doch inzwischen einige Spiele, die Downsampling in Form von Resolution Scale anbieten. Das HUD wird dann nachher in der nativen Auflösung drüber gelegt und man muss nicht eine Lupe für die Schrift heraus holen. ;)
Und AF bringt bei keinen Schärfevorteil, weil ich das nach Möglichkeit ja sowieso aktiviert habe.
Kauf dir schon mal Beruhigungsmittel. Du wirst sie brauchen. :popcorn:
Vielleicht auch ne Plastiktüte gegen Schnappatmung.
Auf den Launch bin ich dieses mal richtig gespannt, auch wenn für mich gar keine neue GPU auf dem Zettel steht. Aber was genau hinter den Andeutungen von dir und Igor steckt, das möchte ich nur zu gerne wissen. :)
Ex3cut3r
2018-07-31, 19:51:40
Er redet ja von einem Schärfefilter, verwechselt er da nicht den DSR Gauß Schärfefilter? :biggrin:
Bösewicht
2018-07-31, 19:55:20
Downsampling schön und gut aber eine etwas mainstream artige lösung für die keine 1080 oder mehr vorraussetzung ist hätte halt schon was aber wenn das wieder ins spiel programmiert werden muss ist es ehr nicht so interessant da gibt es ja lösungen.
Screemer
2018-07-31, 19:55:42
Bis jetzt kenne ich es so, dass diverse AA-Modi Unschärfe erzeugen, welche man mit AF und dessen Schärfefilter wieder etwas korrigieren kann. Warum soll das hier nicht funktionieren?
Was für ein Schärfefilter? Ist dir klar was af ist?
Bösewicht
2018-07-31, 19:58:01
Er redet ja von einem Schärfefilter, verwechselt er da nicht den DSR Gauß Schärfefilter? :biggrin:
dsr filter wirkt auf alles der af filter nur auf texturen?
Dr. Lloyd
2018-07-31, 20:39:10
Es gibt doch inzwischen einige Spiele, die Downsampling in Form von Resolution Scale anbieten. Das HUD wird dann nachher in der nativen Auflösung drüber gelegt und man muss nicht eine Lupe für die Schrift heraus holen. ;)
Vereinzelt gibt es das, ja. Aber eben nicht allgemeingültig in jedem Spiel, sondern sogar in den allerwenigsten. Und darum ging es mir in meiner Antwort, dass weder Downsampling noch native 4K-Auflösung immer der praktische Weg zur Kantenglättung sind.
Große Teile der Spieleentwickler und auch der Spielepresse haben das Problem bis heute nicht erkannt. Die PCGH ist da eine löbliche, weil seltene Ausnahme im Tal der sonst so Technik-desinteressierten Spieletester.
Eigentlich müsste man den Verantwortlichen einen 5K-27"-Monitor als Arbeitsgerät aufzwingen. Mit permanenten Tränen in den Augen würden sie fordern, endlich die UIs skalierbar zu machen.
Aber vermutlich arbeiten diese Menschen an einem Full HD-Gerät und glauben damit weiterhin State of the Art zu sein. Wäre 4K von der Film-Industrie nicht so stark gepusht worden und dadurch so populär, ich glaube, viele von denen hätten gar keine Kenntnis von dieser Auflösung.
Und AF bringt bei keinen Schärfevorteil, weil ich das nach Möglichkeit ja sowieso aktiviert habe.
Ja. Aber dann sieht bei dir ATAA mit AF womöglich besser aus als auf den Beispielbildern ohne.
Was für ein Schärfefilter? Ist dir klar was af ist?
Ja, ein Schärfefilter für Texturen. Und dieser wirkt sich positiv auf das gesamte in 3D berechnete Bild aus. Wie sich auch der Blur-Effekt des AA negativ auf das gesamte Bild auswirkt.
Ex3cut3r
2018-07-31, 20:55:23
dsr filter wirkt auf alles der af filter nur auf texturen?
Soweit ich weiß auf ganze Bild.
Aber ist eh leicht OT.
Zurück zum Thema, ich denke mal dieses ATAA, immer dann aktivierbar sein wird, wenn das Game sowieso schon TAA bietet. Mein Wunsch wäre zwar, dass eigenständig arbeiten könnte, aber das wird wohl nicht passieren, und wenn, dann durfte es wohl nicht ganz billig werden, aber mal schauen.
TheAntitheist
2018-07-31, 21:15:27
Bis jetzt kenne ich es so, dass diverse AA-Modi Unschärfe erzeugen, welche man mit AF und dessen Schärfefilter wieder etwas korrigieren kann. Warum soll das hier nicht funktionieren?
AA wirkt auf Geometrie, AF auf texturen, das eine hat nix mit dem anderen zutun.
und was Anisotropische Filterung bedeutet solltest du besser noch einmal nachschlagen, da wird nix geschärft... eher wird dadurch etwas verwaschener als schärfer (verglichen mit ungefilterten Texturen was ungeheuerlich flackert)
bilineare Filterung ist nicht hier nicht die Basis...
Dr. Lloyd
2018-07-31, 21:26:22
Zu AF gibt es nun wirklich seit Jahrzehnten Artikel. Vielleicht solltest du die mal lesen. AF ist ein Texturfilter, der eine schärfere Darstellung von weiter entfernten 3D-Objekten ermöglicht. Das sagt schon der erste Artikel, wenn man danach googelt. AF macht nichts unschärfer. Dafür sorgt allein das AA.
TheAntitheist
2018-07-31, 21:29:49
Zu AF gibt es nun wirklich seit Jahrzehnten Artikel. Vielleicht solltest du die mal lesen. AF ist ein Texturfilter, der eine schärfere Darstellung von weiter entfernten 3D-Objekten ermöglicht. Das sagt schon der erste Artikel, wenn man danach googelt. AF macht nichts unschärfer. Dafür sorgt allein das AA.
du musst mal lesen, ich sagte EHER macht es etwas unscharf gegenüber ungefilterten Texturen und nicht im vergleich zu bilinear gefilterten Texturen. Das gleiche Prinzip trifft auch auf AA zu, es macht das Bild unschärfer und nicht schärfer
Bei google steht auch extra :"um den Schärfeeindruck bei entfernten Texturen zu erhalten." also nicht einmal googlen kannst du.
https://marketplacecdn.yoyogames.com/images/assets/1424/screenshots/3866_original.png?1421703556
Maorga
2018-07-31, 21:35:59
MSAA oder SGSSAA sowie höheres AF fügen dem Bild mehr Informationen zu, daher hat ist dieses Bild hochwertiger/besser. Schärfe muss dies nicht bedeuten.
pixeljetstream
2018-07-31, 21:36:07
NVresearch betreibt viel Grundlagenforschung. Ideen für AA Verfahren werden nie ausgehen und halt die unterschiedlichsten Ansätze ausprobiert. Das muss nicht immer prakitabel sein oder auf direkten Einsatz abzielen. Jede Erkenntnis lässt sich aber verwerten.
=Floi=
2018-07-31, 21:36:53
Große Teile der Spieleentwickler und auch der Spielepresse haben das Problem bis heute nicht erkannt.
weil es keines (mehr) ist?!
ich habe aktuell keines welches hier probleme macht. :rolleyes:
Das richtig alte zeug kann man auch mit SSAA oder 8XAA glätten
TheAntitheist
2018-07-31, 21:42:27
MSAA oder SGSSAA sowie höheres AF fügen dem Bild mehr Informationen zu, daher hat ist dieses Bild hochwertiger/besser. Schärfe muss dies nicht bedeuten.
Es ging gar nicht um höher wertiger oder nicht sondern nur um die Bildschärfe. Natürlich bringt AA/AF viel Bildqualität, aber keine Schärfe.
Dr. Lloyd
2018-07-31, 22:15:38
Bei dir kann man echt nur die Hände über'm Kopf zusammenschlagen. In jedem AF-Artikel steht, auch in dem von dir zitierten Wikipedia-Text, dass AF die Schärfe verbessert. Auch ein Erhalt ist eine Verbesserung, wenn man ohne diese Methode weniger hat.
Und komm mir nicht mit Bildern, die AF eben genau nicht erklären. Hier ein kurzes Video zu AA und AF. Mehr Schärfe durch mehr Textur-Details. Ab Minute 2:15 wird AF erklärt. What is Antialiasing and Anisotropic Filtering (https://www.youtube.com/watch?v=FT6WYIXNTsA)
Wenn diese Steigerung der Bildqualität für dich keine Steigerung der Schärfe darstellt, dann hast du wohl ein Problem mit dem Begriff Schärfe.
Ex3cut3r
2018-07-31, 23:16:38
Ich glaube das war ein Missverständnis, du hast halt diesen blöden Satz mit "Schärfe" gebracht, AF und Schärfe in einem Satz ist eher uncommon. Aber im Grunde hast du ja recht, ohne AF, ist es Matsch, mit 16xAF ist es schön "Scharf" weiter hinten ;)
Gipsel
2018-08-01, 00:19:56
Und all das ändert immer noch nichts daran, daß beliebige Mengen an AF-Filterung von Texturen, nichts an der Kantenglättung der Geometrie ändert.:rolleyes:
Vielleicht mal wieder was zu Turing?
Daredevil
2018-08-01, 00:23:17
Können wir von Textur Filterung in Super Mario 64 vielleicht langsam wieder Richtung Topic segeln? :D
Tesseract
2018-08-01, 00:33:35
schärfe ist der grad der unterscheidbarkeit von details der szene. aliasing ist kein detail sondern ein fehler, ergo macht aliasing nicht schärfer auch wenn der kontrast oft höher wird. sieht man recht eindrucksvoll daran, dass am bild weiter oben im ungefilterten bereich die bäume fast nicht mehr sichtbar sind wärend sie im gefilteren deutlich zu sehen sind.
so, und jetzt zurück zum eigentlichen thema.
pilzsammler2002
2018-08-01, 08:34:02
"Vermutung"
1180+ mit Tensorcores und dadaurch mit Raytracing
1180 ohne Tensorcores und dann halt kein Raytracing
Man könnte damit die Preise indirekt hochsetzen und die Leute haben die "freie wahl" was sie kaufen... Später kann man natürlich die Funktionen der Chips weiter auseinander setzen damit indirekt solche Sachen wie GT 1030 DDR 5/4 etc. möglich sind. Ist dann halt auch auf die "Ausstattung" bezogen (wie bei Autos) :freak:
Grendizer
2018-08-01, 08:57:31
"Vermutung"
1180+ mit Tensorcores und dadaurch mit Raytracing
1180 ohne Tensorcores und dann halt kein Raytracing
Man könnte damit die Preise indirekt hochsetzen und die Leute haben die "freie wahl" was sie kaufen... Später kann man natürlich die Funktionen der Chips weiter auseinander setzen damit indirekt solche Sachen wie GT 1030 DDR 5/4 etc. möglich sind. Ist dann halt auch auf die "Ausstattung" bezogen (wie bei Autos) :freak:
Da machen aber 8 und 16 Gb mehr Sinn.
Nvidia hat ein interesse daran, dass sich die neuerungen in der masse durchsetzen. Macht meiner meinung nach keinen sinn raytracing nur für 10% der kunden freizuschalten. Wäre entwicklern dann auch sofort egal.
AffenJack
2018-08-01, 09:10:46
Jupp, wenn die TCs eh im Chip sind, dann wird man sie ganz bestimmt nicht zwischen 2 Consumerchips abschalten. Eher ist möglich, dass die Quadros/Teslas nur volle Speed kriegen, während Desktop ne 1:2 Rate in der Tensorgeschwindigkeit kriegt.
pilzsammler2002
2018-08-01, 09:19:28
Nvidia hat ein interesse daran, dass sich die neuerungen in der masse durchsetzen. Macht meiner meinung nach keinen sinn raytracing nur für 10% der kunden freizuschalten. Wäre entwicklern dann auch sofort egal.
Als ob nur 10% den Aufpreis zahlen würden :freak:
Die letzten Jahre haben doch gezeigt wohin es geht...
Von ehemals grob 6/7 Karten (Maxwell including 750ti) + einige Rebrands sind wir jetzt bei (in Europa):
Titan
1080ti
1080
1070ti
1070
1060
1060 3gb
1050ti
1050
1030
1030 ddr4
Plus mehrere Mobile versionen und die ganzen "China-Chips"...
Es geht nicht um durchsetzung (wird eh indirekt von Nvidia bezahlt/gepusht über z.B. Gameworks bzw UE4) sondern um Gewinn erwirtschaften... Und man wird Chips los die keine 100%ige Tensorcore-Funktion haben (höheres Yield)
Die kannste doch nicht einfach so wegschmeissen...
Sunrise
2018-08-01, 09:53:09
"Vermutung"
1180+ mit Tensorcores und dadaurch mit Raytracing
1180 ohne Tensorcores und dann halt kein Raytracing
Man könnte damit die Preise indirekt hochsetzen und die Leute haben die "freie wahl" was sie kaufen... Später kann man natürlich die Funktionen der Chips weiter auseinander setzen damit indirekt solche Sachen wie GT 1030 DDR 5/4 etc. möglich sind. Ist dann halt auch auf die "Ausstattung" bezogen (wie bei Autos) :freak:
Nein, NV kann die Preise jetzt schon setzen, wie sie wollen und man kauft die schnellen Touring-Karten vornehmlich wegen Performance und Features, da sollte schon das Gesamtpaket passen. Das voneinander zu trennen würde nur den Consumer-Sektor weiter spalten und das ist keine gute Idee. Vor allem da Raytracing und die Tensor-Kerne mal wieder Themen werden, die NV breit in den Markt drücken will.
Felis silvestris
2018-08-01, 09:53:13
"Vermutung"
1180+ mit Tensorcores und dadaurch mit Raytracing
1180 ohne Tensorcores und dann halt kein Raytracing
Halte ich für eher unwahrscheinlich, einfach weil Raytracing das große Thema auf der GDC 2018 war.
http://www.3dcenter.org/news/raytracing-wird-zukuenftig-teil-von-directx-12
Wenn überhaupt gibts unterschiede zwischen den Quadros für Profis und den Geforce Karten fürs Gaming
pilzsammler2002
2018-08-01, 10:11:03
Nein, NV kann die Preise jetzt schon setzen, wie sie wollen und man kauft die schnellen Touring-Karten vornehmlich wegen Performance und Features, da sollte schon das Gesamtpaket passen. Das voneinander zu trennen würde nur den Consumer-Sektor weiter spalten und das ist keine gute Idee. Vor allem da Raytracing und die Tensor-Kerne mal wieder Themen werden, die NV breit in den Markt drücken will.
Mit den Preisen ist leider wahr, aber es wäre nicht das erste mal dass Nvidia so etwas macht. Also den Consumer sektor spalten von den Features her.
Auch (nur als Bsp.) der Geforce 4 MX chip war nen starker Rückschritt (Dx 7 und selbst die 3er Reihe hatte mehr features) aufgrund des "Rebrands"...
Ich glaube kaum dass die Chips wo die Tensorcores nicht ganz funktionsfähig sind einfach wegfallen...
Zusätzlich wird sich Raytracing eh durchsetzen, wenn Nvidia das pushen will nehmen se Geld inne Hand und blechen dafür... Das war schon immer so (Gameworks+Tesselation) und wird auch so bleiben... :freak:
Troyan
2018-08-01, 10:20:37
Halte ich für eher unwahrscheinlich, einfach weil Raytracing das große Thema auf der GDC 2018 war.
http://www.3dcenter.org/news/raytracing-wird-zukuenftig-teil-von-directx-12
Wenn überhaupt gibts unterschiede zwischen den Quadros für Profis und den Geforce Karten fürs Gaming
Raytracing ist auch das große Thema auf der Siggraph und außerdem gibt es Raytracing im Gameworks-Programm.
So nein, TensorCores werden natürlich nicht beschnitten.
dildo4u
2018-08-01, 10:22:35
Selbst die neue Tegra Chips haben Tensor Cores jede Next Gen Karte wird es haben.
https://wccftech.com/nvidia-drive-xavier-soc-detailed/
7 Mio Transistoren in 16nm jetzt 9 Mio.
Ich schätze alles in 12nm hat Tensor Cores.
pilzsammler2002
2018-08-01, 10:36:50
Selbst die neue Tegra Chips haben Tensor Cores jede Next Gen Karte wird es haben.
https://wccftech.com/nvidia-drive-xavier-soc-detailed/
Da geht es um Xavier, also KI/Autonomes driving...
Natürlich werden dort dann Tensors eingesetzt :)
AffenJack
2018-08-01, 10:46:24
Ich glaube kaum dass die Chips wo die Tensorcores nicht ganz funktionsfähig sind einfach wegfallen...
Ich glaube, du hast nicht verstanden wie Tensor Cores im chip funktionieren. Die sind einfach ein bestandteil jeder SM. Sind sie kaputt, dann wird die SM abgeschaltet und fertig. Paar abgeschaltete SMs, Voila die 1170 ist da. Es ist so wie es immer schon war.
pilzsammler2002
2018-08-01, 10:53:01
Ich glaube, du hast nicht verstanden wie Tensor Cores im chip funktionieren. Die sind einfach ein bestandteil jeder SM. Sind sie kaputt, dann wird die SM abgeschaltet und fertig. Paar abgeschaltete SMs, Voila die 1170 ist da. Es ist so wie es immer schon war.
Ja das ist klar. Es war ja auch nur ne Vermutung um noch etwas mehr Geld rauszuholen. Weil aktuell sind wir ja in nem Bereich wo es "noch" keiner hat, aber man Enthusiasten extra bezahlen lassen kann...
BlacKi
2018-08-01, 12:14:52
ich sehe die gefahr, das und NV am 20.08 benchmarks mit 100% performance improvement vorstellt und ganz unten kleingeschrieben gtx 1080 SSAA - gtx 2080 ATAA.
ich werde dank dem neuen AA genauer hinsehen und nicht alles auf den ersten blick für echt halten. laut den bildern scheint das ATAA schon deutlich besser zu sein als MSAA. nutzen würde ich das feature schon, falls es den eindruck bestätigt.
Käsetoast
2018-08-01, 12:51:42
Ja das ist klar. Es war ja auch nur ne Vermutung um noch etwas mehr Geld rauszuholen. Weil aktuell sind wir ja in nem Bereich wo es "noch" keiner hat, aber man Enthusiasten extra bezahlen lassen kann...
Ich denke bei deinem Vorschlag beißt sich das ein wenig am Henne-Ei-Problem. Abgesehen davon, dass sich Tensor Cores in Hardware nicht von den SM trennen lassen und man so gesehen keine Notwendigkeit einer Verwertung von Karten mit defekten Tensor Cores als TC freie Variante hat, würde man mit einer "künstlichen Freischaltung" von TC / Raytracing Features nur auf der teuren Karte besagtes Henne-Ei-Problem schaffen. Ist ja schön und gut wenn man so einen Ansatz hätte für das Feature extra zur Kasse zu bitten, nur müsste da abseits von ein paar Feature Demos auch was am Markt angeboten werden. 99% der Spielehersteller werden aber keinen Aufwand betreiben etwas zu entwickeln, das nur Leute, die 1000 € für eine Karte zahlen, nutzen können. Das ist dann nämlich der Punkt, der hier auch schonmal auf Basis der 10% angeführt wurde, den du aber eventuell missverstanden hast. Bevor nicht eine gewisse Anzahl an möglichen Kunden am Markt ist, lohnt es sich nicht groß Arbeitszeit für ein Feature aufzuwenden und wenn nur Kunden, die bereit sind etwas im Preissegment einer "1180 Ti" zu kaufen, so ein Feature haben, dann ist das im Vergleich eine ziemlich exklusive Gruppe, die wahrscheinlich sowieso eher Richtung genug Frames in 4k schielt als dahin ein leistungsfressendes Feature dazuzuschalten...
Von daher denke ich auch, dass Tensor Cores halt ein generelles Feature der Turing Architektur sind und durch die Bank zur Verfügung stehen. Wenn man dann noch will, kann man versuchen per Treiber den Durchsatz ein wenig anzupassen. Ich gehe eigentlich sehr stark davon aus, dass gegenüber den Quadros da eine Handbremse im Treiber angelegt wird einfach damit nach wie vor die Quadros gekauft werden und nicht die viel günstigeren GeForce...
Nazar
2018-08-01, 12:51:46
läuft bei 33ms im hintergrund.
imho unbrauchbar. 33ms sind viel zu hoch.
downsampling heute glättet einfach alles und morgen hat man dann einen 4k monitor, welcher eh kleinere pixel hat und das thema zweitrangig werden lässt.
So etwas hätte man vor 10 jahren gebraucht, aber heute ist es doch egal. Ich dreh lieber DS auf und setzte auf ~75fps, wenn FXAA oder TAA zu wenig bringt.
Das stimmt so zu 100% nicht. Diese Aussage ist vollkommen falsch!
4K Pixel sind 4K Pixel, mehr nicht! Es ist keine Angabe für eine mögliche Qualität der Glättung!
Ohne die Angabe der Monitorgröße, im Verhältnis zur Pixelzahl, ist die reine Pixelanzahl vollkommen ohne Aussage für eine sichtbare Qualität der Glättung von Pixelkanten (siehe VR Brillen).
Ein 4K Monitor in 100" bringt was genau an nicht sichtbarem Antialaising gegenüber einem 2K 24" Monitor?
Es geht nur rein um den möglich höheren Detailgrad, der damit darstellbar ist!
Pixelanzahl != Qualität der Glättung!
aufkrawall
2018-08-01, 13:16:36
Braucht wohl erst nen Modtext, dass die Diskussion darum aufhört...
MasterElwood
2018-08-01, 13:33:38
"Vermutung"
1180+ mit Tensorcores und dadaurch mit Raytracing
1180 ohne Tensorcores und dann halt kein Raytracing
Man könnte damit die Preise indirekt hochsetzen und die Leute haben die "freie wahl" was sie kaufen... Später kann man natürlich die Funktionen der Chips weiter auseinander setzen damit indirekt solche Sachen wie GT 1030 DDR 5/4 etc. möglich sind. Ist dann halt auch auf die "Ausstattung" bezogen (wie bei Autos) :freak:
Niemals. NV will durch TC mehr Grakas verkaufen. Wie erreicht man das? Indem man Leuten zeigt: "ein Haufen games schauen durch RayT besser aus". Und wie erreicht man DAS? Indem man schaut dass soviel Raytracing Hardware wie möglich in Consumer Händen ist - damit Developer einen Anreiz haben das in ihre Games überhaupt einzubauen.
NV wird also schauen dass sie ihre TC massenweise quasi gratis unters Volk bringen, damit in paar Jahren dann die Leute motiviert sind Grakas mit TC zu kaufen. The long game.
Es wird also sicher keine Grakas mit und ohne TC geben - schon garnicht gegen Aufpreis.
Im GEGENTEIL. Ich wette NV is JETZT schon bei den Developern mit: "entwickelt alle neuen games mit RT eingebaut - weil wir haben TC in ALLEM neuen was wir auf den Markt bringen - und garantieren euch somit in 3 Jahren wenn euer Game fertig ist eine TC Marktdurchdringung von mind. XX Prozent
Es ist schon interessant wie hier TensorCores mit Raytracing gleichgesetzt werden. :freak:
Troyan
2018-08-01, 13:45:28
AI Denoising verwendet die Tensor-Cores. Ohne die TC ist das Raytracing für die Gameworks-Effekte zu lahm.
Käsetoast
2018-08-01, 13:53:32
Kann hier jemand einschätzen wie proprietär Tensor Cores und deren Nutzung dann ist? Ok - Gameworks Effekte sind natürlich was Exklusives für NVIDIA aber was ist wenn AMD es dann mal wieder zurück in den GPU Markt schafft? Kann eine Tensor Core Umsetzung für z.B. Raytracing dann auch als Basis für eine entsprechende Routine dienen, die auf einer AMD Karte läuft oder ist ein Tensor Core und die Programmierung dafür wieder so ein eigenes Süppchen, dass außer NVIDIA niemand was davon hat?
=Floi=
2018-08-01, 16:27:08
Das stimmt so zu 100% nicht. Diese Aussage ist vollkommen falsch!
ich gehe aber von einer ähnlichen monitorgröße von 4k aus, wie bei 1080p. :rolleyes:
Irgendwo sollte man schon die grundintelligenz haben, dass natürlich die pixel kleiner werden müssen.
100" macht im pc bereich null sinn.
tensor cores könnte man sicher drosseln und imho könnte es zumindest später mal soweit kommen, weil sich die AI rechenleistung teuer verkaufen lässt.
zB 1:2/1:3 würde die sache für NV erheblich entschärfen.
So lange es nichts vergleichbares bei der konkurrenz gibt ist die sache eh nur spielerei in grafikbereich.
AI Denoising verwendet die Tensor-Cores. Ohne die TC ist das Raytracing für die Gameworks-Effekte zu lahm.
Ändert nichts daran, dass Raytracing nur ein Beispiel-Usecase für die Tensor Cores ist.
Troyan
2018-08-01, 19:41:45
Kleine Spoiler:
And for news of 35” G-SYNC HDR monitors, and other new GeForce products, stay tuned to GeForce.com.
https://www.nvidia.com/en-us/geforce/news/g-sync-hdr-27-inch-4k-144hz-monitors-available-now/
=Floi=
2018-08-01, 21:41:30
Den monitor kann man bestimmt für den gleichen preis der titan v kaufen. ;D
HDR und GSync kosten ein schweinegeld. Das kann man einfach vergessen.
MasterElwood
2018-08-01, 22:19:14
Ändert nichts daran, dass Raytracing nur ein Beispiel-Usecase für die Tensor Cores ist.
In den Gaming-Karten wirds aber auch der einzige Usecase bleiben ;-)
AffenJack
2018-08-01, 23:23:53
In den Gaming-Karten wirds aber auch der einzige Usecase bleiben ;-)
Du solltest nicht unterschätzen, wo DL überall eingesetzt werden kann. Auf der GDC gabs da einige Talks zu. Physikberechnungen, Animation, KIs....
Wo es sich wirklich durchsetzt ist eine andere Frage, aber es wird eine Menge geforscht und kann durchaus abseits von Raytracing auch einige Usecases in Spielen in der Zukunft haben.
Die API existiert mit Windows ML dafür auch schon und wurde zb schon in die Unity Engine integriert. Die ersten Versionen können noch keine Tensor Cores nutzen, aber es ist angekündigt und bisher gabs ja auch noch keine Gaming Karten mit Tensor Cores.
robbitop
2018-08-02, 09:06:35
Auf der GPU kann man für Spiele vieles nicht sinnvoll berechnen, da Bandbreite und Latenz zur CPU nicht so toll sind. Reine Effekte sind sicherlich möglich (Effektphysik, Partikel etc die keinen Einfluss auf die Geometrie haben). Echte Gameplayphysik, Animationen, KIs aber eher begrenzt.
Die Frage ist, bei welcher der verbleibenden Anwendungen dann noch ein echter Bottleneck besteht in Bezug auf Matrizen (die müssen dann ja häufig verwendet werden, damit ein Vorteil entstehen würde).
dargo
2018-08-02, 09:14:04
Du solltest nicht unterschätzen, wo DL überall eingesetzt werden kann. Auf der GDC gabs da einige Talks zu. Physikberechnungen, Animation, KIs....
GPU-Physx reloaded? :D
Flowster432
2018-08-02, 11:52:31
bin da grad über was im chiphell forum gestolpert
soll anscheinend ein neues Nvidia PCB sein
https://www.chiphell.com/forum.php?mod=viewthread&tid=1889250&extra=page%3D1%26filter%3Dtypeid%26typeid%3D223
vll lenkt das mal von ganzen AA-beef bischen ab
hab noch 2 größere aufnahmen gefunden bzw den orginal post
http://imgsrc.baidu.com/forum/pic/item/67be5bafa40f4bfb984135900f4f78f0f5361899.jpg
https://imgsa.baidu.com/forum/pic/item/1846ae51f3deb48f8fff0a1afc1f3a292ff57898.jpg
robbitop
2018-08-02, 11:57:12
256 bit. Also war das andere PCB offenbar für den 102 und dieses für den 104.
Loeschzwerg
2018-08-02, 12:15:11
nvlink ersetzt also den bekannten SLI Anschluss. Könnte mir vorstellen dass dieser nur bei Quadro/Tesla aktiv ist.
pilzsammler2002
2018-08-02, 12:16:13
256 bit. Also war das andere PCB offenbar für den 102 und dieses für den 104.
Dann wäre der größenunterschied zwischen 102 und 104 schon happig... :biggrin:
robbitop
2018-08-02, 12:23:17
nvlink ersetzt also den bekannten SLI Anschluss. Könnte mir vorstellen dass dieser nur bei Quadro/Tesla aktiv ist.
AFR/mGPU ist in modernen Spielen eh praktisch tot.
Troyan
2018-08-02, 12:24:50
nvlink ersetzt also den bekannten SLI Anschluss. Könnte mir vorstellen dass dieser nur bei Quadro/Tesla aktiv ist.
Muss nicht. Dank DX12 und Raytracing kann man "SLI" wiederbeleben. NVlink erlaubt dann eben auch noch deutlich bessere Spielereien. Und mit 150/300GB pro Richtung sollte es auch keine Bandbreitenprobleme geben.
Gut, einzig und allein der Preis für die Bridge wird bestimmt wieder Threads füllen. ;D
Bucklew
2018-08-02, 12:31:45
NVLink sollte es zumindest erlauben, manche SLI-Probleme zu beheben. Wäre ja deutlich mehr Bandbreite vorhanden, als bisher.
robbitop
2018-08-02, 12:32:05
Muss nicht. Dank DX12 und Raytracing kann man "SLI" wiederbeleben. NVlink erlaubt dann eben auch noch deutlich bessere Spielereien. Und mit 150/300GB pro Richtung sollte es auch keine Bandbreitenprobleme geben.
Moderne APIs erlauben ja nicht auf magische Weise, dass mGPU vernünftig funktioniert. Sie erlauben dem Entwickler es direkt und sinnvoll zu implementieren - dafür sind sie dann aber selbst verantwortlich. Kann nicht wie früher über das Treiberpanel übergestülpt werden. Dafür werden die Renderpipelines einfach zu komplex.
Da die Verbreitung von mGPU so klein ggü dem Gesamtabsatz eines Spiels sind, ist das absolute Nische. Entsprechend sieht man mGPU Implementationen äußerst selten. Richtig gute noch seltener.
Auch Raytracing ist IMO im Moment nur die neuste Sau, die durch NV durch's Dorf getrieben wird, damit man eine Anwendung für Matrixarithmetik aus dem AI Bereich hat.
Ob das wirklich mittelfristig signifikante Marktdurchdringung hat, wage ich zu bezweifeln.
Klar muss eine mArch neue Dinge irgendwann einführen - aber bis die Durchdringung da ist und performant genug ist, ist die Nachfolgegeneration oder dessen Nachfolger bereits raus.
IMO wird man im Lebenszyklus der kommenden NV GPU Generation nur wenig davon haben. Aber ggf später. Insofern IMO etwas viel hype.
Erinnert mich an die Zeit von Truform (R200), Displacementmapping (Parhelia), N-Patches (NV20), SM3.0 (NV30), TnL (NV10) etc
Alles gute Features - die zu Lebzeiten aber kaum Verbreitung gefunden haben und somit nur selten Vorteile brachten.
NVLink sollte es zumindest erlauben, manche SLI-Probleme zu beheben. Wäre ja deutlich mehr Bandbreite vorhanden, als bisher.
Probleme mit Slowdowns?
Dnn grundlegende Probleme der Impelentierung von AFR wird höhere Bandbreite nicht lösen.
Loeschzwerg
2018-08-02, 12:38:40
Muss nicht. Dank DX12 und Raytracing kann man "SLI" wiederbeleben.
Dagegen spricht die schleppende Umsetzung von LL-APIs. Ich erwarte da zumindest in naher Zukunft keine Umsetzungen mit mGPU Unterstützung.
Naja, lassen wir uns überraschen.
BlacKi
2018-08-02, 12:52:35
bin da grad über was im chiphell forum gestolpert
soll anscheinend ein neues Nvidia PCB sein
http://imgsrc.baidu.com/forum/pic/item/67be5bafa40f4bfb984135900f4f78f0f5361899.jpg
sieht auch nach NV aus, ausserdem was sonst?^^
hat jemand schon größe berechnet?
robbitop
2018-08-02, 12:54:02
Die Größe der GPU lässt sich daraus doch nicht berechnen. Nur die des Packages, oder? Oder kann man davon ausgehen, dass die balls aus dem inneren quadratischen Segment die Fläche der GPU darstellen?
sieht auch nach NV aus, ausserdem was sonst?^^
hat jemand schon größe berechnet?
Winzig, wenn man mal unterstellt, dass GDDR6 den gleichen Fußabdruck hat wie GDDR5X. Das Package hat wohl wieder ~40×40 mm und entspricht damit einem GP104 (das waren IIRC weniger als 38×38 mm). Ist also eine GPU zwischen 300 und 350 mm², etwa. Jemand anderes darf gern genauer werden bzw. messen. :D
MfG,
Raff
BlacKi
2018-08-02, 13:07:23
Die Größe der GPU lässt sich daraus doch nicht berechnen. Nur die des Packages, oder? Oder kann man davon ausgehen, dass die balls aus dem inneren quadratischen Segment die Fläche der GPU darstellen?
das haben wir beim großen chip doch auch gemacht.
ich habs gerade durchgerechnet. ich kam auf 386mm². jedoch ist da eine gewisse schwankung drin. also irgendwas zwischen 370mm² und 400mm² wird es am ende sein.
hier das aalte bild im anhang.
ich hab passend dazu ein bild zu gv104 gemacht
https://abload.de/img/gv104vgcri.png
prinz_valium
2018-08-02, 13:08:00
nvm
wurde gerade gepostet
Daredevil
2018-08-02, 13:14:50
Was zum Hell ist das für ein fetter SLI Port :O
Edit: Achso, NVLink. Nice. :D
gravitationsfeld
2018-08-02, 13:14:59
Auch Raytracing ist IMO im Moment nur die neuste Sau, die durch NV durch's Dorf getrieben wird, damit man eine Anwendung für Matrixarithmetik aus dem AI Bereich hat.
Ob das wirklich mittelfristig signifikante Marktdurchdringung hat, wage ich zu bezweifeln.
:popcorn:
vinacis_vivids
2018-08-02, 13:18:11
Moderne APIs erlauben ja nicht auf magische Weise, dass mGPU vernünftig funktioniert. Sie erlauben dem Entwickler es direkt und sinnvoll zu implementieren - dafür sind sie dann aber selbst verantwortlich. Kann nicht wie früher über das Treiberpanel übergestülpt werden. Dafür werden die Renderpipelines einfach zu komplex.
Da die Verbreitung von mGPU so klein ggü dem Gesamtabsatz eines Spiels sind, ist das absolute Nische. Entsprechend sieht man mGPU Implementationen äußerst selten. Richtig gute noch seltener.
Kein einziges Spiel auf CB wurde mit einer modernen API auf mGPU getestet. Kandidaten wären RoTr, Deus Ex, Hitman, GoW4, SE4, AotS usw. Und die Plattform mit 8700k ist mit den wenigen PCI-E Lanes ein Witz. Ergo greift dein Urteil zu kurz.
w0mbat
2018-08-02, 13:23:44
8+6-pin und jetzt nv-link?
Ich hoffe, dass wir mehr bekommen, als eine etwas breitere 1080/ti. Mehr "IPC" und höhere Effizienz.
Screemer
2018-08-02, 13:33:58
:popcorn:
doom eternal hat raytraycing ist somit bestätigt :ugly:
prinz_valium
2018-08-02, 13:37:32
Wie groß sind noch mal GP 102 und 104?
vinacis_vivids
2018-08-02, 13:38:31
314mm² bzw 471mm²
Also jetzt 386mm² und 676mm².
Das würde gut zu den kolpotierten Shadermengen passen, also 3072 und 5376 Shader.
Troyan
2018-08-02, 13:44:43
Dagegen spricht die schleppende Umsetzung von LL-APIs. Ich erwarte da zumindest in naher Zukunft keine Umsetzungen mit mGPU Unterstützung.
Naja, lassen wir uns überraschen.
DXR gibt es nur in Verbindung mit DX12. Wer Raytracing verwendet, verwendet also zwangsläufig auch DX12.
Loeschzwerg
2018-08-02, 13:48:11
Und wer DX12 verwendet, implementiert also zwangsläufig mGPU?! Na klar... Der Aufwand steht in keiner Relation. Schon gar nicht bei den derzeitigen Preisen.
Edgecrusher86
2018-08-02, 13:48:26
Einmal gedreht:
https://abload.de/img/gv1045lfg9.jpg
Original Größe:
https://abload.de/img/gv104d8erc.jpg
Schade, 8GB ist echt wenig für die zu erwartende Rohleistung.
10-12GB wäre da das gesunde Minimum gewesen, gerade im Hinblick auf die nächsten zwei Jahre. Nun ja, vielleicht bekommt die spekulierte "+" dann 16GB für $200-300 Aufpreis.
Von den vermeintlichen 8+2 Phasen würden dann vermutlich auch mindestens 2 weniger verlötet werden bei der "normalen Variante", vielleicht bleibt es auch gleich noch bei 1x 8 Pin. :D
E: Bis jetzt hatte die Next Gen 80er ja immer mehr VRAM als die Ti davor - unter dem Aspekt hätte man ihr eigentlich 12GB verpassen müssen für die Basis, gerade da man zu Ti Release damals schon einen Slide hatte,
wo einige Games schon unter 4K an der 8GB Marke kratzten, und in 5K dann bis knapp unterhalb 11GB kamen - auch wenn so etwas natürlich eher Marketing war, da in 99% der Fällen eh nicht ordentlich spielbar mit SGPU.
Troyan
2018-08-02, 13:50:33
Und wer DX12 verwendet, implementiert also zwangsläufig mGPU?! Na klar... Der Aufwand steht in keiner Relation. Schon gar nicht bei den derzeitigen Preisen.
Nein, aber wer Raytracing einbaut, wird alles tun, um es schnell genug zubekommen.
Ich habe hier ja auch nirgendwo geschrieben, dass jedes DX12 Spiel in Zukunft DXR verwenden würde...
Loeschzwerg
2018-08-02, 13:50:50
Wer Raytracing einsetzt, der wird sein Produkt trotzdem nicht am Markt vorbei entwickeln d.h. es wird auf den entsprechenden gebräuchlichen Perf./Highend Lösungen passend laufen.
---
Eine 16GB Version kann ich mir später noch gut vorstellen. Mglw. auch nur von bestimmten Partnern (siehe z.B. GTX 680 @ 4GB).
AffenJack
2018-08-02, 14:07:05
Auf der GPU kann man für Spiele vieles nicht sinnvoll berechnen, da Bandbreite und Latenz zur CPU nicht so toll sind. Reine Effekte sind sicherlich möglich (Effektphysik, Partikel etc die keinen Einfluss auf die Geometrie haben). Echte Gameplayphysik, Animationen, KIs aber eher begrenzt
Das solltest du am besten den forschern auf der GDC mitteilen. Schon ganz schön dumm von denen an Animationen und KI zu forschen, wenn das doch überhaupt nicht sinnvoll ist. :freak:
BlacKi
2018-08-02, 14:12:44
ich frage mich gerade wie die ganze raytracing geschichte zusätzlich auf den vram auswirkt. ob ATAA am ende sogar sparsamer mit vram umgeht als bisheriges AA?
ausserdem, inwiefern stehen 256bit für 8gb vram? woher stammt jetzt bitte wieder die annahme das es nur 8gb sind?
gravitationsfeld
2018-08-02, 14:24:38
Nein, aber wer Raytracing einbaut, wird alles tun, um es schnell genug zubekommen.
Ich habe hier ja auch nirgendwo geschrieben, dass jedes DX12 Spiel in Zukunft DXR verwenden würde...
Du meinst ernsthaft Leute würden Features einbauen, die nur mit mGPU schnell genug sind? Komplette Traumwelt.
AffenJack
2018-08-02, 14:25:13
ich frage mich gerade wie die ganze raytracing geschichte zusätzlich auf den vram auswirkt. ob ATAA am ende sogar sparsamer mit vram umgeht als bisheriges AA?
ausserdem, inwiefern stehen 256bit für 8gb vram? woher stammt jetzt bitte wieder die annahme das es nur 8gb sind?
Aus dem Konsolenthread:
Das Problem, das ich sehe mit weniger als 32GB ist, dass wenn man die Leistung von einer Next-Gen-GPU ausnutzen will, man eigentlich volumetrische Datenstrukturen benutzen will (Voxel Octrees, Raytracing-Beschleungigung etc.). Die sind leider sehr speicherhungrig.
Hört sich eher danach an, dass man für Raytracing gut Speicher haben sollte, weshalb man dann bei 256 Bit bei der 1180 auf 16Gb Speicher hoffen sollte.
Troyan
2018-08-02, 14:32:20
Du meinst ernsthaft Leute würden Features einbauen, die nur mit mGPU schnell genug sind? Komplette Traumwelt.
Als ob Turing Raytracing über RTX auch nur halbswegs vernünftig beschleunigen würde. mGPU wird eine Pflicht sein für die, die nicht in 1080p spielen wollen.
robbitop
2018-08-02, 14:35:57
Das solltest du am besten den forschern auf der GDC mitteilen. Schon ganz schön dumm von denen an Animationen und KI zu forschen, wenn das doch überhaupt nicht sinnvoll ist. :freak:
Daran zu forschen und es bei einem Spiel in der Praxis zu implementieren sind zwei paar Schuhe.
aufkrawall
2018-08-02, 14:44:40
ob ATAA am ende sogar sparsamer mit vram umgeht als bisheriges AA?
Vernünftiges TAA kostet weder nennenswert Leistung noch Speicher. Das ist einfach SGSSAA-Bildruhe for free + etwas Motion Blur.
AffenJack
2018-08-02, 14:45:27
Daran zu forschen und es bei einem Spiel in der Praxis zu implementieren sind zwei paar Schuhe.
Jupp, es ist möglich, dass dabei nix rauskommt. Aber es zeigt genauso, dass Leute die im Gegensatz zu dir Ahnung davon haben es in Betracht ziehen und es nicht so einfach ist zu sagen, nee, geht nicht auf GPU.
robbitop
2018-08-02, 14:48:26
Keine eigenen Argumente zu haben und nur auf die GDC verweisen anstatt selbst nachzudenken ist keine sinnvolle Basis für eine Diskussion.
AffenJack
2018-08-02, 14:53:39
Ich verweise lieber auf Experten, anstatt eine Diskussion zu führen von der wir beide kein Plan haben. Ich bin es nicht, der meint es besser als die Wissenschaft zu wissen.
Troyan
2018-08-02, 14:55:03
Außerdem ist es auch sinnlos darüber zu diskutieren. Wir stehen erst am Anfang von DL und Gaming. Die Hardware und Software wird jetzt erst richtig bereitgestellt. Microsoft hat den Anfang mit Direct3D ML gemacht. Vulkan wird bestimmt folgen.
Thunderburne
2018-08-02, 14:59:07
Einmal gedreht:
https://abload.de/img/gv1045lfg9.jpg
Original Größe:
https://abload.de/img/gv104d8erc.jpg
Schade, 8GB ist echt wenig für die zu erwartende Rohleistung.
10-12GB wäre da das gesunde Minimum gewesen, gerade im Hinblick auf die nächsten zwei Jahre. Nun ja, vielleicht bekommt die spekulierte "+" dann 16GB für $200-300 Aufpreis.
Von den vermeintlichen 8+2 Phasen würden dann vermutlich auch mindestens 2 weniger verlötet werden bei der "normalen Variante", vielleicht bleibt es auch gleich noch bei 1x 8 Pin. :D
E: Bis jetzt hatte die Next Gen 80er ja immer mehr VRAM als die Ti davor - unter dem Aspekt hätte man ihr eigentlich 12GB verpassen müssen für die Basis, gerade da man zu Ti Release damals schon einen Slide hatte,
wo einige Games schon unter 4K an der 8GB Marke kratzten, und in 5K dann bis knapp unterhalb 11GB kamen - auch wenn so etwas natürlich eher Marketing war, da in 99% der Fällen eh nicht ordentlich spielbar mit SGPU.
Bei CB gibt es da jetzt auch einen Artikel zu.
https://www.computerbase.de/2018-08/nvidia-turing-pcb/
dargo
2018-08-02, 15:05:59
doom eternal hat raytraycing ist somit bestätigt :ugly:
Ist Vulkan schon für Raytraycing bereit?
robbitop
2018-08-02, 15:25:05
Ich verweise lieber auf Experten, anstatt eine Diskussion zu führen von der wir beide kein Plan haben. Ich bin es nicht, der meint es besser als die Wissenschaft zu wissen.
Dennoch ist Forschung etwas anderes als eine konkrete Implementierung. Selbst nachzudenken und zu hinterfragen ist häufig sinnvoll. Anderen zu unterstellen, dass sie keine Kompetenz zu dem Thema haben ist imo unangebracht.
Screemer
2018-08-02, 15:26:23
Ist Vulkan schon für Raytraycing bereit?
Bitte nicht noch weiter drauf einsteigen.
Godmode
2018-08-02, 16:06:37
Bin ich der einzige dem das "organische" Routing der Leiterbahnen auffällt? Vor allem vom Chip zur PCIe Schnittstelle.
@NVLINK: Ich weiß noch wie hier jemand meinte, dass NVLINK niemals über Brücken oder ähnliches realisiert werden kann.
BlacKi
2018-08-02, 16:10:18
Bin ich der einzige dem das "organische" Routing der Leiterbahnen auffällt? Vor allem vom Chip zur PCIe Schnittstelle.
gabs schon früher bei den custom modellen die "platz" übrig hatten.
https://cdn.videocardz.com/1/2016/05/MSI-GTX-1080-GAMING-X-PCB.jpg
Adam D.
2018-08-02, 17:23:04
Hmm, doch GTX 20xx und Ampere als Codename?
https://videocardz.com/76978/manli-teases-geforce-gtx-2080-and-geforce-gtx-2070
https://videocardz.com/76967/nvidia-board-partner-registers-ampere-ga104-400-gpu-at-eec
BlacKi
2018-08-02, 17:26:57
Hmm, doch GTX 20xx und Ampere als Codename?
https://videocardz.com/76978/manli-teases-geforce-gtx-2080-and-geforce-gtx-2070
https://videocardz.com/76967/nvidia-board-partner-registers-ampere-ga104-400-gpu-at-eec
told you so. ^^
und jetzt wieder auf einmal ampere?:ulol4:
basix
2018-08-02, 17:27:23
Bin ich der einzige dem das "organische" Routing der Leiterbahnen auffällt? Vor allem vom Chip zur PCIe Schnittstelle.
@NVLINK: Ich weiß noch wie hier jemand meinte, dass NVLINK niemals über Brücken oder ähnliches realisiert werden kann.
Ist vorteilhaft bezüglich Impedanz / Wellenimpedanz, wenn man nicht zu viel rumkurft und nicht zu steile Winkel routed. Ergo vorteilhaft für höhere Frequenzen als auch Signalqualität und -integrität. Evtl. PCIe 4.0?
Gipsel
2018-08-02, 17:32:26
Hmm, doch GTX 20xx und Ampere als Codename?
https://videocardz.com/76978/manli-teases-geforce-gtx-2080-and-geforce-gtx-2070
https://videocardz.com/76967/nvidia-board-partner-registers-ampere-ga104-400-gpu-at-eec
GT2xx als Chip-Kürzel ist ja schon von der alten Tesla-Generation belegt. Vielleicht deshalb GA (und mann nennt es trotzdem Turing, um die Leute zu verwirren :freak:).
Platos
2018-08-02, 17:45:10
Sind jetzt nicht 2 GByte möglich mit GDDR 6 ? Also die 8 Plätze könnten somit 16GB sein.
Oder andere Möglichkeit: Das ist nicht der GT 104 sondern GT 106. Wäre aber etwas gross, wobei die 60-er Modelle auch schon ca. 330mm2 Grosse Chips hatten. Wobei dann die überdimensionierte Stromversorgung wieder nicht passt...
mczak
2018-08-02, 18:13:35
Sind jetzt nicht 2 GByte möglich mit GDDR 6 ? Also die 8 Plätze könnten somit 16GB sein.
Natürlich ist das möglich mit gddr6. Die Spezifikation siegt sogar 32Gb pro Chip vor.
SK Hynix und Micron haben bisher nur 8Gb pro Chip gddr6 konkret angekündigt. Samsung sowohl 8Gb wie auch 16Gb.
=Floi=
2018-08-02, 19:09:49
+ etwas Motion Blur.
DAS ist das problem. Oft ist das blurring zu viel und ich möchte gar keines haben. :rolleyes:
TAA/SMAA kostet zwar nix, aber ist imho auch nicht mehr wert. klar brint es orft sehr viel bildruhe, aber der qualitätsverlust ich oft auch sichtbar.
Mehr parameter wären nett. 4x oder 8x höhere auflösung in dem bereich.
OC_Burner
2018-08-02, 19:12:42
Die Größe der GPU lässt sich daraus doch nicht berechnen. Nur die des Packages, oder? Oder kann man davon ausgehen, dass die balls aus dem inneren quadratischen Segment die Fläche der GPU darstellen?
das haben wir beim großen chip doch auch gemacht.
ich habs gerade durchgerechnet. ich kam auf 386mm². jedoch ist da eine gewisse schwankung drin. also irgendwas zwischen 370mm² und 400mm² wird es am ende sein.
hier das aalte bild im anhang.
ich hab passend dazu ein bild zu gv104 gemacht
https://abload.de/img/gv104vgcri.png
Anhand der balls auf dem PCB läßt sich zumindest nicht auf die größe der GPU schließen.
https://abload.de/img/gtx1070_thumb5sia2.jpg (https://abload.de/image.php?img=gtx1070fcf8r.jpg)
BlacKi
2018-08-02, 19:24:42
danke für den hinweiß, ich habs mal übereinandergelegt.
https://abload.de/img/unbenannttle26.png
Natürlich ist das möglich mit gddr6. Die Spezifikation siegt sogar 32Gb pro Chip vor.
SK Hynix und Micron haben bisher nur 8Gb pro Chip gddr6 konkret angekündigt. Samsung sowohl 8Gb wie auch 16Gb.
Das ist nicht ganz richtig. Samsung verpackt 2 8Gbit-Chips in ein Package. Diese Lösung kann man auch mit doppelt soviel Chips von Micron machen.
mczak
2018-08-02, 19:54:37
Das ist nicht ganz richtig. Samsung verpackt 2 8Gbit-Chips in ein Package. Diese Lösung kann man auch mit doppelt soviel Chips von Micron machen.
Sicher? Das klang in den Ankündigungen nicht so: https://www.anandtech.com/show/12338/samsung-starts-mass-production-of-gddr6-memory
Aber ich habe keine Ahnung ob das wirklich ein native 16gb chip ist.
Dural
2018-08-02, 20:45:41
Hmm, doch GTX 20xx und Ampere als Codename?
https://videocardz.com/76978/manli-teases-geforce-gtx-2080-and-geforce-gtx-2070
https://videocardz.com/76967/nvidia-board-partner-registers-ampere-ga104-400-gpu-at-eec
Zeigt einfach mal wider das die gesammte presse null informationen so wie keine guten quellen haben.
Triniter
2018-08-02, 21:04:24
Irgendwie ist das grad ein Auf und Ab... Von "boa wasn en verkacktes Lineup" bis zu "WTF wie krass gehen die denn ab" ist glaub echt alles schon vertreten gewesen. Am Ende gibt es ne 11xx Serie Turing die halt bissle geshrinkter Pascal ist und ne 20xx Serie mit Ampere die rockt aber auch kostet:freak:
Ex3cut3r
2018-08-02, 21:14:23
Ich wurde mir da keine Sorgen machen, die wird schon liefern, die 1170/2070 wird Titan Leistung für 550€ bringen und die 1180/2080 nochmal 25% mehr liefern für 800€
Einzig der VRAM macht mir sorgen, ich finde 8GB zu wenig für beide. Hoffe aber auf Partnerkarten mit 16GB. Oder gleich 16GB von Nvidia. 12GB wären auch ok wenn möglich, hautpsache keine 8GB.
Thunderburne
2018-08-02, 21:32:12
Ja 8GB wäre auch mein Albtraum.
Wenn die 256Bit stimmen sind zumindest 12GB sehr unwahrscheinlich.
Rancor
2018-08-02, 22:12:55
800€ für ne 1180... puhh
Radeonfreak
2018-08-02, 22:15:28
Hab ich ja selbst für dir 1080 FE bezahlt. Also sehr sicher.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.