PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidias 7nm-Gen. "Ampere" tritt im Jahr 2020 in Samsungs 7nm EUV an


Leonidas
2019-06-06, 14:19:58
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidias-7nm-generation-ampere-tritt-im-jahr-2020-samsungs-7nm-euv-fertigung

JVC
2019-06-06, 14:40:42
"Denn sofern der Performance-Sprung wieder mal so groß wie nVidia-typisch ist..."

KA was NV Typisch ist ... :confused:
Aber ich denke das NV durchaus AMD im Auge behält
und sein weiteres vorgehen an AMD fest macht.

Falls AMD "nix" liefert, wird NV auch nur "das nötige" liefern ...
( is hald so, wenn man nen Vorsprung hat, konzentriert man sich eher aufs Geld verdienen)
(ich denke nicht das NV schnell mal +50% bringen wird solange keine Konkurrenz in Sicht ist)

m.f.g. JVC

Leonidas
2019-06-06, 14:44:13
"Denn sofern der Performance-Sprung wieder mal so groß wie nVidia-typisch ist..."
KA was NV Typisch ist ... :confused:


Nächster Absatz:
Im Idealfall ergibt dies grob doppelt so schnelle Grafikkarten innerhalb desselben Marktsegments, beispielsweise im Midrange-Segment die Performance der früheren HighEnd-Lösung.

Screemer
2019-06-06, 14:46:58
Und wann war das bei Nvidia das letzte Mal so? Nur weil die Karten die gleiche Nummer ab der zweiten Stelle macht sie das noch lange nicht zu der Nachfolgelösung im gleichen Segment. Das ist imho vor allem Preis abhängig und da hat nv seit Generationen nichts mehr im Preisbereich der "Vorgänger" mit +50% gebracht.

BlacKi
2019-06-06, 14:50:10
"Denn sofern der Performance-Sprung wieder mal so groß wie nVidia-typisch ist..."[/SIZE]

m.f.g. JVC
60-70% die letzte brachte nur 35-40%.

ich glaube auch nicht das wir eine 3080 sehen werden die deutlich schneller wird als die 2080ti. eher auf dem selben performance lvl der 2080ti für 800€.

Fragman
2019-06-06, 14:55:50
Interessant ist, das Samsung soviel günstiger als TSMC sein soll. Das sind schon extreme Unterschiede, wie kann sowas sein?

Gast
2019-06-06, 15:16:31
Für AMD ist das ganz gut, dass NVIDIA den aktuellen Prozess überspringt. AMD hat damit Luft um sich an NVIDIA technologisch weiter ranzurobben und gleichzeitig Geld zu verdienen.
Was die Kernarchitektur von NVIDIA abseits von Raytracing anbelangt, scheint sich auch nicht mehr sonderlich viel zu tun. Damit steigen die Überlebenschancen von AMD deutlich..

Leonidas
2019-06-06, 15:40:03
Und wann war das bei Nvidia das letzte Mal so?


Wann zuletzt?

Maxwell -> Pascal
1080 war deutlich schneller als die 980Ti.
1060 war grob so schnell wie die 980.

vorher: Kepler -> Maxwell
980 war deutlich schneller als 780Ti.
960 war (mit Augenzudrücken) grob so schnell wie die 770, in jedem Fall grob so schnell wie die 680.

Screemer
2019-06-06, 16:02:30
Wann zuletzt?

Maxwell -> Pascal
1080 war deutlich schneller als die 980Ti.
1060 war grob so schnell wie die 980.

vorher: Kepler -> Maxwell
980 war deutlich schneller als 780Ti.
960 war (mit Augenzudrücken) grob so schnell wie die 770, in jedem Fall grob so schnell wie die 680.
nur das das eben nicht doppelt so schnell ist, auch wenn du das in deinem satz annimmst. denn eine 980 ist mit nichten doppelt so schnell wie eine 780 oder eine 770 doppelt so schnell wie eine 670. dein satz suggeriert, dass die "nachfolge-karte" immer gut die zweifache leistung verglichen zum "vorgänger" hatte. nach eben diesem fall habe ich gefragt. im schnitt gibt's pro gen etwa 50%, wenn überhaupt.

Leonidas
2019-06-06, 16:16:06
Damit hast Du Recht. Die Performance-Verdopplung ist halt nur das Ideal.

JVC
2019-06-06, 16:18:44
Nächster Absatz:
Im Idealfall ergibt dies grob doppelt so schnelle Grafikkarten innerhalb desselben Marktsegments, beispielsweise im Midrange-Segment die Performance der früheren HighEnd-Lösung.

Danke

Das "selbe Marktsegment" mach ich nicht am Kartennahmen aus,
sondern am Preis (und der Leistung dabei)! :rolleyes:
Und da gab es bei Tu kein halbes + von "grob doppelt so schnell",
sondern eher ein kleines - :wink:

Ich hoffe doch, das sich Performance und Preis
in die von dir geschilderte Richtung bewegen :smile:
(eine Wiederholung von Tu brauch ich echt nicht,
dann würde die 3080Ti vermutlich 1500.- aufwärts kosten...)

m.f.g. JVC

KodeX
2019-06-06, 17:25:27
vorher: Kepler -> Maxwell
980 war deutlich schneller als 780Ti.
960 war (mit Augenzudrücken) grob so schnell wie die 770, in jedem Fall grob so schnell wie die 680.

Wo war denn die GTX 980 deutlich schneller als die GTX 780 TI? Das waren doch nicht einmal zehn Prozent Unterschied...

BlacKi
2019-06-06, 17:44:40
Wo war denn die GTX 980 deutlich schneller als die GTX 780 TI? Das waren doch nicht einmal zehn Prozent Unterschied...

10-28% im schnitt irgendwas zwischen 15 und 20%
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/GTX-980-Ti-Test-Benchmarks-1159952/2/#a1

Lehdro
2019-06-06, 18:06:18
10-28% im schnitt irgendwas zwischen 15 und 20%
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/GTX-980-Ti-Test-Benchmarks-1159952/2/#a1
https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/6/#diagramm-rating-1920-1080-4xaa-16xaf
https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/6/#diagramm-rating-2560-1600-4xaa-16xaf
Beide Male unter 10%.

KodeX
2019-06-06, 18:51:33
10-28% im schnitt irgendwas zwischen 15 und 20%
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/GTX-980-Ti-Test-Benchmarks-1159952/2/#a1

Ich denke, diese Meta-Analyse ist wesentlich genauer:

https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-970-980/launch-analyse-nvidia-geforce-gtx-970-980-seite-4

N0rG
2019-06-06, 19:29:07
Wenn man für 780Ti bis 1080Ti einen Trend mit Leos Performanceratings erstellt kommt man schon recht nahe an die +100%.

https://i.imgur.com/uCxQFye.png

Gast
2019-06-06, 20:55:54
Interessant ist, das Samsung soviel günstiger als TSMC sein soll. Das sind schon extreme Unterschiede, wie kann sowas sein?

2 Möglichkeiten:
-TSMC ist mit Abstand der größte Auftragsfertiger, Samsung möchte hier Marktanteile gewinnen.

- Samsungs hat das was bei TSMC 7nm ist mehr oder weniger ausgelassen und startet gleich mit dem was bei TSMC 7nm+ werden soll, daher schon EUV und weniger Multi-Patterning. Evtl. hat man bei Samsung EUV besser im Griff und kommt damit durch die Einsparungen beim Multi-Paterning den Prozess insgesamt günstiger machen. Wobei das eher fraglich ist, angeblich soll EUV erst mit 4-Fach Paterning günstiger sein und mit 2x Paterning immer noch die alte Immersionslitographie günstiger sein.

Evtl. hat Samsung bei EUV auch einfach Vorteile, da man früh alles auf EUV gesetzt hat, während TSMC um früher am Markt zu sein noch den 7nm ohne EUV zwischengeschoben hat.

Bucklew
2019-06-06, 21:10:00
Falls AMD "nix" liefert, wird NV auch nur "das nötige" liefern ...
( is hald so, wenn man nen Vorsprung hat, konzentriert man sich eher aufs Geld verdienen)
(ich denke nicht das NV schnell mal +50% bringen wird solange keine Konkurrenz in Sicht ist)
Quatsch, wenn NVIDIA +50% liefern kann, werden sie das sofort tun. Sie haben auch bisher nicht mit der Leistung zurück gehalten, wenn sie verfügbar war. Siehe RTX. Es gab keinen Konkurrenzdruck, diese Generation zu veröffentlichen. Selbst die 1080Ti ist besser als eine Radeon VII :freak:

Interessant ist, das Samsung soviel günstiger als TSMC sein soll. Das sind schon extreme Unterschiede, wie kann sowas sein?
Wenn Samsung freie Kapazitäten hat, ist es besser sie günstig zu verkaufen, als gar nicht.

Eventuell beschleunigt das auch den RollOut?

Gast
2019-06-06, 21:51:53
Die +40% sind absoluter Schwachsinn. 7nm+ erlaubt lediglich 4 Layer in EUV. Genau weil das kaum was bringt und ein komplettes Redesign erfordert, hat AMD auf DUV gesetzt. Selbst 7nm+@5nm bringen dann nur noch mal 15%. Da kann auch Sasmung nichts besser. Nvidias wird das wenn das stimmen sollte Unsummen kosten( daher ist dies absolut unglaubhaft und Fake), zudem sind die RT Cores sind größer, als der Rest. Da sind 12nm nämlich auch nur Gewäsch.

Zu vermuten ist das Ampere nichts weiter als ein 7nm DUV Shrink von Turing ist, man will einfach die Waferkosten reduzieren. Zudem braucht Turing ein spezielles 12 FFN Verfahren mit weniger Masken und damit geringerem Stromverbrauch bei der Herstellung. Das lässt sich nicht so einfach auf 7nm+ übertragen. Wenn ist es 7nm FFN (DUV) von Sasmung.

Der Refresh kommt ja jetzt schon, ala Navikonter aus dem HPC Dice Bereich weil nVidia dort seine Hardware nicht mehr los wird. Turing ist alles andere als positiv angekommen und nun gibt man dem "Pferd" schnell einen neuen Namen.

Die News ist wie immer Quark...

iamthebear
2019-06-06, 22:52:51
Ich vermute einfach einmal, dass die Packdichte bei Samsung mit EUV einfach deutlich besser aussieht. Mit einer echten 7nm Fertigung (bezogen auf die bisherige 14nm Fertigung) könnte Samsung sogar 60% mehr pro Wafer verlangen und wäre immer noch 40% billiger pro Chip.

JVC
2019-06-06, 23:10:13
Quatsch, wenn NVIDIA +50% liefern kann, werden sie das sofort tun. Sie haben auch bisher nicht mit der Leistung zurück gehalten, wenn sie verfügbar war.
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-7nm-Zusaetzliche-Kosten-Bezahlen-Vorteile-Erzielen-1278177/
"Nvidia zu 7 nm: "Wir wollen nicht die zusätzlichen Kosten bezahlen, sondern Vorteile erzielen" "
Klingt für mich schon so wie wenn man könnte wenn man wollte ...

Abgesehen davon Stieg von Pa auf Tu der Preis mehr als die Leistung.
(+50% für 50% mehr kohle :freak:)
Hauptsache NV gibt den Karten schöne Nahmen ...

Das Bezeichnungs-Rating ist sowieso nur Blendwerk.
Von mir aus könnten die Karten auch Friz und Franz heißen :biggrin:

Lo-End bis Hi-End wird durch den Preis festgelegt.
Und nicht an einer Bezeichnung, so wie es NV gerne hätte.


Siehe RTX. Es gab keinen Konkurrenzdruck, diese Generation zu veröffentlichen.

Jup, und auch keinen wirklichen nutzen ^^
NV wollte nur mal wieder einem Standard vorpreschen ...
(mit irgendetwas eben die Kunden Binden und melken)

Noch dümmer ist da leider nur der Kunde der so etwas kauft und unterstützt :eek:

m.f.g. JVC

Gast
2019-06-06, 23:15:30
Die +40% sind absoluter Schwachsinn. 7nm+ erlaubt lediglich 4 Layer in EUV. Genau weil das kaum was bringt und ein komplettes Redesign erfordert, hat AMD auf DUV gesetzt. Selbst 7nm+@5nm bringen dann nur noch mal 15%. Da kann auch Sasmung nichts besser. Nvidias wird das wenn das stimmen sollte Unsummen kosten( daher ist dies absolut unglaubhaft und Fake), zudem sind die RT Cores sind größer, als der Rest. Da sind 12nm nämlich auch nur Gewäsch.

Zu vermuten ist das Ampere nichts weiter als ein 7nm DUV Shrink von Turing ist, man will einfach die Waferkosten reduzieren. Zudem braucht Turing ein spezielles 12 FFN Verfahren mit weniger Masken und damit geringerem Stromverbrauch bei der Herstellung. Das lässt sich nicht so einfach auf 7nm+ übertragen. Wenn ist es 7nm FFN (DUV) von Sasmung.

Der Refresh kommt ja jetzt schon, ala Navikonter aus dem HPC Dice Bereich weil nVidia dort seine Hardware nicht mehr los wird. Turing ist alles andere als positiv angekommen und nun gibt man dem "Pferd" schnell einen neuen Namen.

Die News ist wie immer Quark...

Gibts zu dem offensichtlichen Trollpost auch Fakten oder muss man da wie bei Hipp auf den guten Namen vertrauen ^^

Gast
2019-06-06, 23:24:37
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-7nm-Zusaetzliche-Kosten-Bezahlen-Vorteile-Erzielen-1278177/
"Nvidia zu 7 nm: "Wir wollen nicht die zusätzlichen Kosten bezahlen, sondern Vorteile erzielen" "
Klingt für mich schon so wie wenn man könnte wenn man wollte ...

Abgesehen davon Stieg von Pa auf Tu der Preis mehr als die Leistung.
(+50% für 50% mehr kohle :freak:)
Hauptsache NV gibt den Karten schöne Nahmen ...

Das Bezeichnungs-Rating ist sowieso nur Blendwerk.
Von mir aus könnten die Karten auch Friz und Franz heißen :biggrin:

Lo-End bis Hi-End wird durch den Preis festgelegt.
Und nicht an einer Bezeichnung, so wie es NV gerne hätte.


Jup, und auch keinen wirklichen nutzen ^^
NV wollte nur mal wieder einem Standard vorpreschen ...
(mit irgendetwas eben die Kunden Binden und melken)

Noch dümmer ist da leider nur der Kunde der so etwas kauft und unterstützt :eek:

m.f.g. JVC

Vor nem Jahr noch nach Innovation schreien , und jetzt rummäkeln , das neuste Funktionen zurzeit nur ein Nischen Dasein fristen und teuer sind ....

3D Beschleunigung , 32 Bit Farbtiefe, curved surfaces , Bump Maps, soft shadows etc. DX5-12 , etc....

Überall das gleiche erst nach mehr schreien dann die Kosteninflation + langsame adaptionsrate verteufeln um dann wenn der nächste Sprung kommt auf die gute alte gen zu verweisen....

Echt immer wieder der Kracher hier.

Platos
2019-06-06, 23:26:42
Ich glaube er meinte mehr, dass man die Grafikkarten nicht noch künstlich limmitiert und dass man das bringt, was man kann (in einem Sinnvollem Rahmen).

Natürlich kann man die Taktraten steigern, bis der Stromverbrauch in die Decke geht, aber das macht man natürlich nicht, wenn nicht nötig. Natürlich kann man einen Sau teuren Prozess nutzen, aber wird nicht passieren. Abgesehen davon: Vlt. war Turing ja einfach nicht auf 7nm entwickelt worden ??

Und das Ray Tracing die Zukunft ist, sollte nun doch langsam jedem klar sein, oder ??? Und wie gut Ray Tracing per Software läuft, ist auch nicht völlig klar. Es ist noch nicht einmal klar, ob AMD auch eigene Einheiten bei der Gen nach Navi.
Du kannst übrigens froh sein, dass nvidia da Pionierarbeit leistet und dass gewisse Leute das Zeug dann (überteuert) kaufen. Mache ich zwar auch nicht, aber ohne das, würde es nie Fortschritt geben.

JVC
2019-06-07, 00:04:21
Und ich meine nur, das NV eben schon bei Tu "gebremst" hat.
(es war nicht nötig mehr oder günstiger zu bringen)

RT ist definitiv die Zukunft.

NV hat versucht sie vorzeitig einzuläuten und ist m.m.n. gescheitert ...
(die Kosten darf trotzdem der Konsument tragen)

Den Standard gibt es trotz NVs nicht zutun ...
Die Konsolen werden ihn ende 2020 einläuten.

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Jen-Hsun-Huang-ueber-7-nm-und-und-die-Zukunft-von-Raytracing-1282249/
"Bei Raytracing hofft man auf weitere Spiele im Herbst ..." :ulol:

"...und glaubt schon, dass man mit den RTX-Grafikkarten und DXR-Support ..."
Man hofft wohl das "die Zukunft" dann auch noch auf der eigenen Hardware läuft ... :tongue:

Genug Bla Bla, wies wirklich kommt wird die Zukunft zeigen ;)

m.f.g. JVC

p.s.:
Egal wie revolutionär AMDs neue RNDA-Karten werden...
Sie werden unweigerlich die Zukunft prägen.

KodeX
2019-06-07, 05:26:08
Ich denke, es kommt vor allem darauf an, ob Nvidia wieder einen übergroßen Chip auflegen will. Der TU102 ist eigentlich zu schnell für eine 12-nm-GPU. Ich halte es deshalb für realistisch, dass Nvidias nächste High-End-Grafikkarte trotz 7-nm-Fertigung kaum schneller als die RTX 2080 TI wird. Jene Karte wäre allerdings günstiger in der Herstellung und würde weniger Strom verbrauchen.

Fragman
2019-06-07, 07:05:20
Und ich meine nur, das NV eben schon bei Tu "gebremst" hat.
(es war nicht nötig mehr oder günstiger zu bringen)

RT ist definitiv die Zukunft.

NV hat versucht sie vorzeitig einzuläuten und ist m.m.n. gescheitert ...
(die Kosten darf trotzdem der Konsument tragen)


Gescheitert?
Du lebst in Deiner eigenen Blase, oder?
Mit DXR gibts einen Standard und immer mehr Games unterstützen es.
Derweil wirds in den nächsten Konsolen drin sein.
Von den render engines, die das nutzen, reden wir an dieser Stelle noch gar nicht.

Platos
2019-06-07, 07:08:02
Ist schon so. Ich würde erst mal skeptisch sein bezüglich riesen Sprünge. Eins ist (für mich) sicher. nvidia wird nicht nochmals solche riesen Chips auflegen.

Die Samsung Fertigung muss zuerst einmal viel bessere Packdichten und Mehrperfomance pro Transistor aufweisen, als bei Vega 64 vs VegaVII.

Wenn man einen 1zu1 Vergleich machen würde, dann ergäbe das bei ~480mm2 eine Mehrperfomance von ~25-max.30% (Hypothetische RTX 3080Ti vs 2080Ti)

Aber Das ganze ist natürlich (zum Glück) nicht so übertragbar. Nur schon Navi wird einen etwas besseren Einblick auf 7nm TSMC geben und wie gut Samsung ist, ist dann die andere Frage. Auf jeden Fall ist Spezifikation und Realworld-Ergebnisse nicht dasselebe

GSXR-1000
2019-06-07, 07:14:16
Gescheitert?
Du lebst in Deiner eigenen Blase, oder?
Mit DXR gibts einen Standard und immer mehr Games unterstützen es.

achja? "immer mehr" heisst wieviele Stand heute?


Derweil wirds in den nächsten Konsolen drin sein.

Achja? Ist dem so? In welcher Form und welchem Umfang genau? Weisst du da mehr als der Rest der Welt? Du redest von der simplen Unterstützung (in theoretischer Form) von DXR, welche aber ohne dezidierte Hardware (und zum momentanen Stand der Hardware in Turing nichtmal mit) kaum sinnvoll nutzbar ist, bzw der Ressourcenmehraufwand kaum im Verhältnis zum Gain im im Usererlebnis steht.

Von den render engines, die das nutzen, reden wir an dieser Stelle noch gar nicht.


Doch? reden wir doch bitte genau darüber? Klär uns auf?

etp_inxession
2019-06-07, 07:14:20
@JVC ... so sieht es aus.

@Fragman ... DXR ist Microsofts Schnittstelle für Raytracing in DirectX. Das hat mit nVidias propritären Kram nur perhipher zu tun. DXR kann als Schnittstelle auch mit Voxel beschleunigtem Raytracing arbeiten. Ergo auch mit AMD Hardware.

RTX war und ist nichts anderes als ein Verkaufsargument.
Die den hohen Preis rechtfertigen soll(t)en ...

Alles unter einer 2080ti war schon durch Pascal besetzt.
Dabei hatten die Karten bei gleicher Leistung sogar noch mehr VRAM.

So bleibt die 2080ti die schnellste Karte nach Pascal .. für 400 €uro mehr bei max 30% mehr Leistung.

Also da muss man sich schon wundern, das es ernsthaft so viele Leute gibt die dieses Marketing Gewäsch von nVidia auch noch verteidigen.

Platos
2019-06-07, 07:19:51
Gescheitert?
Du lebst in Deiner eigenen Blase, oder?
Mit DXR gibts einen Standard und immer mehr Games unterstützen es.
Derweil wirds in den nächsten Konsolen drin sein.
Von den render engines, die das nutzen, reden wir an dieser Stelle noch gar nicht.

Allerdings ist nvidia (für diese Gen.) daran gescheitert, den Standart auch bei den Kunden zu verbreiten. Die Verkaufszahlen waren, wenn ich das richtig in Erinnerung habe, laut Lederjacke ein "kick in the balls". Dementsprechend ist die Verbreitung von Turing (und somit von Raytracing-Hardware) selbst aus eigener Sicht nicht wie gewünscht bzw. gescheitert.

Fragman
2019-06-07, 07:42:26
Allerdings ist nvidia (für diese Gen.) daran gescheitert, den Standart auch bei den Kunden zu verbreiten. Die Verkaufszahlen waren, wenn ich das richtig in Erinnerung habe, laut Lederjacke ein "kick in the balls". Dementsprechend ist die Verbreitung von Turing (und somit von Raytracing-Hardware) selbst aus eigener Sicht nicht wie gewünscht bzw. gescheitert.

RT kann sich aktuell nicht so sehr verbreiten, da die Tech zu neu und damit teuer ist. Das wird sich mit 7nm+ aber ändern, spätestens wenn AMD auch mit Hardware dabei ist, dank der Konsolen. Verglichen mit anderen neuen Techs ala T&L haben wir aber schon vorzeigbare Beispiele in Spielen und den Engines. Da wird immer noch viel experimentiert, aber von scheitern kann ich da nichts sehen. Vielleicht sollte man mal darauf achten, die Schnittstelle und damit das Feature von nv's Hardwareimplementierung zu trennen?

Und kann man mal dieses unsinnige Spamming ala nv vs amd aussen vor lassen?
Das nervt hier mittlerweile extrem in dem Forum.

Platos
2019-06-07, 08:40:29
Der hohe Preis kam in erster Linie von den grossen Chips (wegen der alten Fert.) und dem zusätzlichem Flächenbedarf( durch die neuen Cores), was gemeinsam dann diese Riesen Chips hervorbrachte. Und natürlich die Prise "hab' keine Konkurrenz". Wenn AMD auch eigene Hardware einbaut, die in etwa gleich viel Fläche verbrauchen wird, wird somit Punkt 1 weg fallen und mit 7nm auch Punkt 2.

Aber ich denke, dass ab Mitte 2020 bzw. dann 2021 dank 7nm bei nvidia, Aucturus bei AMD und den neuen Konsolen sicherlich RT einen Durchrbuch erfahren wird.

Abgesehen davon: Wie gut RT per Voxel ist, wissen wir überhaupt nicht. Diese "Demo", bei dem Faktisch nicht klar ist, wie hoch die RT Quali war (und rein subjektiv-optisch m.M.n schlechter aussah), sagt erstmal gar nichts darüber aus, inwiefern man mit der üblichen Hardware bei gleicher Qualität (!) mithalten kann.

Wer aus dieser einziger Demo gleich schliesst, dass RT Einheiten demnach sinnlos sind, zeigt eig. nur, wie unobjektiv er ist. Denn die oben genannten Faktoren, die entscheiden, wie gut das wirklich wäre, waren/sind nicht bekannt.

Fragman
2019-06-07, 08:53:16
Der hohe Preis kam in erster Linie von den grossen Chips (wegen der alten Fert.) und dem zusätzlichem Flächenbedarf( durch die neuen Cores), was gemeinsam dann diese Riesen Chips hervorbrachte. Und natürlich die Prise "hab' keine Konkurrenz". Wenn AMD auch eigene Hardware einbaut, die in etwa gleich viel Fläche verbrauchen wird, wird somit Punkt 1 weg fallen und mit 7nm auch Punkt 2.

Aber ich denke, dass ab Mitte 2020 bzw. dann 2021 dank 7nm bei nvidia, Aucturus bei AMD und den neuen Konsolen sicherlich RT einen Durchrbuch erfahren wird.

Abgesehen davon: Wie gut RT per Voxel ist, wissen wir überhaupt nicht. Diese "Demo", bei dem Faktisch nicht klar ist, wie hoch die RT Quali war (und rein subjektiv-optisch m.M.n schlechter aussah), sagt erstmal gar nichts darüber aus, inwiefern man mit der üblichen Hardware bei gleicher Qualität (!) mithalten kann.

Wer aus dieser einziger Demo gleich schliesst, dass RT Einheiten demnach sinnlos sind, zeigt eig. nur, wie unobjektiv er ist. Denn die oben genannten Faktoren, die entscheiden, wie gut das wirklich wäre, waren/sind nicht bekannt.

Ja, da bin ich bei Dir.
Beim Voxel Zeug bin ich auch erstmal skeptisch. Bisher hat das nur Crytek gezeigt und die Performance war nicht sehr gut. Zudem haben sie ja noch Probleme, der Release ist auch erst im nächsten Jahr.

Gast Ritis
2019-06-07, 11:02:25
Meiner Meinung sollte man möglichst vermeiden von Raytracing zu sprechen wenn es nicht um konkrete Effekte geht.

Es wäre besser bei der Technik allgemein immer nur von Hybrid Rendering zu reden weil sonst zu schnell vergessen wird worum es eigentlich geht = Effekte um wo nötig aufzuhübschen, zumindest so lange bis in vielen Jahren RT vollständig mit künstlerischen Korrekturen möglich sein wird.

Der andere Punkt ist die RT-Funktionalität in den erwarteten Konsolen. Weil MS DXR gepushed hat und Sony bereits RT im Marketing eingeführt hat darf man schon davon ausgehen, dass beide Next-Gen Konsolen das Hybrid-Rendering anbieten werden.

Nvidias früher Marktstart zum Hybrid-Rendering ist IMHO ein Kompromiss um die AI-Beschleuniger Funktionen auch im Gaming einsetzten zu können. Huang hat in 2016 AFAIK sehr deutlich gemacht dass man Gaming für die Entwicklung von Professionellen Beschleunigern als Hebel einsetzt.
Erst mit den neuen Konsolen, die keine AI-Beschleunigung im RT-Konzept berücksichtigen müssen, wird sich zeigen wie gut Nvidias Turing Ansatz wirklich passt.

Dafür dass Crytek Raytracing-Effekte per Voxel-Technik nur mit einer Vega56 ohne spezielle HW-Einheiten rendern liess ist es doch hoch performant gelaufen. Die Marketing-Zahlen von Huang zu den RT-Cores kann eine Vega-GPU schliesslich nicht bieten. Die relative Turing Chipgrösse und Rasterperformance sind eine ganz andere Klasse und so hat Crytek schon sehr viel mehr gezeigt als z.B. Battlefield im Raytracing-Look mit Turing, vorausgesetzt das Demo lässt sich auf Games übertragen. Ich glaube nicht dass Crytek gefaked hat. Nur dass die das erst nächstes Jahr in der Engine zur Verfügung stellen wollen ist harzig. Aber die Grundlagen für dynamische Beleuchtug haben die aktuell schon gut hinbekommen. Im Editor Modus wohlbemerkt, ganz ohne prebaking. https://www.cryengine.com/news
Sobald dort RT-Effekte bei der Beleuchtung ingame hinzukommen liegt die Hauptlast im Shading. Also ohne RT-Beschleunigung bei wenig bounces. Refraktion und Reflektion hat die Demo gezeigt, dass die das grundsätzlich schon beherrschen wollen...
Die Crux ist bei denen doch eher ob die das für DXR anpassen, damit jeglicher Treiber und RT-Modell funktioniert oder ob die eine eigene Layer für alle GPU-Typen selber pflegen...

JVC
2019-06-07, 13:08:16
Beim Voxel Zeug bin ich auch erstmal skeptisch. Bisher hat das nur Crytek gezeigt und die Performance war nicht sehr gut.

Also ich finde das Gezeigte, gerade aufgrund dessen das
keine Extrahardware benötigt wird (und damit auch keine massiven Mehrkosten nötig sind)
und es eben "nur" auf ner Vega 56 (~280.-) lief,
äußerst ansprechend :smile:
https://www.computerbase.de/2019-03/neon-noir-crytek-raytracing-demo-cryengine/
"Die finale Implementierung der Technologie soll allerdings auf die neuesten GPUs optimiert werden."
Auf welche GPU wird das wohl, am stärksten, hin optimiert werden ?
Natürlich auf die die auch in Konsolen verbaut werden !

Den Rest wir die Zeit und der Markt richten und nicht NV :wink:

Natürlich könnte "RDNA" auch ein griff ins WC sein ...
Das halte ich aber schon für sehr unwahrscheinlich.
(RDNA soll ja auch in Handys und Tabletts kommen)
https://futurezone.at/produkte/samsung-smartphones-bekommen-kuenftig-amd-radeon-grafikchips/400514743
"Damit schafft es AMD mit seiner Grafik-Technologie nun auch in Smartphones und ist auf einer weiteren Plattform vertreten."
"Auch Google wird bei seinem kommenden Cloud-Gaming-Service Stadia auf Grafiktechnologie von AMD zurückgreifen."
Und die Konsolen tun es sowieso...

Mich interessiert AMDs "RDNA" mehr https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Navi-RX-5000-Mischung-RDNA-GCN-1283261/
als NVs "SUPER" ... https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Spekulationen-um-Super-Teaser-gehen-weiter-Neuer-Grafikkarten-zur-E3-oder-Gamescom-1283166/

m.f.g. JVC

Edit:

Erst mit den neuen Konsolen, die keine AI-Beschleunigung im RT-Konzept berücksichtigen müssen, wird sich zeigen wie gut Nvidias Turing Ansatz wirklich passt.

RTX ist deren Hardwareimplementierung, mehr nicht. Und die kann sich auch wieder ändern.

Ich gehe nicht davon aus, das NVs RTX wieder verschwindet oder radikal ersetzt wird.
Aber es wird sich zu mindestens an der "Konkurrenz" messen müssen.
Erst dann können wir sagen, ob sie es gut oder schlecht gemacht haben.

Fragman
2019-06-07, 15:44:36
Und man sollte bei dem Thema mal vom nv bashing weg kommen denn es ist als API für alle verfügbar. RTX ist deren Hardwareimplementierung, mehr nicht. Und die kann sich auch wieder ändern.
Und ich gebe da nicht viel drauf, AMD's wird besser weil es in den Konsolen drin sein wird. Mit der Logik müssten AMD Karten vom Start weg perfekt performen. Die Wirklichkeit kennen wir alle. Aber das wurde schon öfters an anderen Stellen gesagt.

@Gast Rithis:
Hybrid natürlich, davon ich geh eigentlich immer aus, ja.

Persöhnlich bin auf Arcturus gespannt. AMD scheint zumindest das RT Thema endlich ernst zu nehmen, was dann auch bei dem neuen Chip zu sehen sein wollte.
Bei Ampere warte ich auf Verbesserungen und hoffe auf einen Boost bei der RT Performance.

Bucklew
2019-06-08, 21:52:47
Klingt für mich schon so wie wenn man könnte wenn man wollte ...
Was an den Worten "sondern Vorteile erzielen" verstehst du nicht?

Was bringt es denn auf Biegen und Brechen die Fertigung zu wechseln, nur um dann mit so einem mediocre Produkt wie ner Radeon VII da zu stehen?

Jup, und auch keinen wirklichen nutzen ^^
NV wollte nur mal wieder einem Standard vorpreschen ...
So wenig Nutzen, dass AMD jetzt auf der E3 bei der Präsentation von Navi uns was über RT erzählen will, dass Navi gar nicht unterstützt ;D

Da scheinen die Nerven in Sunnyvale ganz schön blank zu liegen, seit wann erzählt man bei der Produktpräsentation was über Feature der nachfolgenden Generation?

Noch dümmer ist da leider nur der Kunde der so etwas kauft und unterstützt
Na Hauptsache du hältst dich für schlau :rolleyes:

Troyan
2019-06-10, 19:42:56
Dafür dass Crytek Raytracing-Effekte per Voxel-Technik nur mit einer Vega56 ohne spezielle HW-Einheiten rendern liess ist es doch hoch performant gelaufen.

1080p mit 30FPS in einer Techdemo.
Battlefield 5 läuft in 1080p mit 30FPS+ auf einer GTX1070 mit Hoch-Einstellungen: https://www.youtube.com/watch?v=R73Mu-t8shI