PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

BlacKi
2018-08-19, 14:35:54
Solche großen Leistungssprünge wie von Kepler auf Maxwell 2.0 wird es von NV zukünftig wahrscheinlich nur noch bei Full-Node-Shrinks geben. Wobei das dann ja wieder eher was Pascal-artiges ist...

ein paradigmenwechsel steht vor der tür. wie will man in kommenden spielen die leistung von karten bewerten?ähnlich wie mit dx9 vs dx10. wie soll man die performance einer 1080ti bewerten wenn sie die max einstellungen nicht betreiben kann. man wird für manche spiele die alten karten gar nicht mehr mit auflisten.

also eine gesammtrangliste aller grafikkarten wirds wohl in zukunft so nicht mehr geben.

prinz_valium
2018-08-19, 14:38:49
Dann ist mein GP104 wohl ein Golden Sample, das 2100Mhz unter Luft schafft.
Lasse den aber auch lieber mit 2000MHz auf 0.95Volt laufen. 2100 bekommt man eh nicht kühl gehalten bei einer angemessenen Lautstärke und anliegen tut der Takt auch nicht lange...


Trotzdem ist 2GHz keine absolute Seltenheit bei Pascal und auch für Turing weiß man noch nicht, wie leicht 2GHz zu erreichen ist.

Und selbst wenn es 1.9GHz vs 2GHz sind, ist der Unterschied nicht riesig.
Darauf wollte ich nur Hinaus.



Ich denke die 2080TI und 2070 werden gute Karten (für Teuer Geld)

dargo
2018-08-19, 14:40:16
ein paradigmenwechsel steht vor der tür. wie will man in kommenden spielen die leistung von karten bewerten?ähnlich wie mit dx9 vs dx10. wie soll man die performance einer 1080ti bewerten wenn sie die max einstellungen nicht betreiben kann. man wird für manche spiele die alten karten gar nicht mehr mit auflisten.

Was ein Schwachsinn. Natürlich wird man mit RT on/off vergleichen.

Troyan
2018-08-19, 14:41:47
Was ein Schwachsinn. Natürlich wird man mit RT on/off vergleichen.

Ohne DXR Fallback gibt es keinen Vergleich. Und ob AMD diesen anbieten, ist mehr als fragwürdig. Immerhin wären deren Karten dann erheblich langsamer.

dargo
2018-08-19, 14:53:18
Rede kein Blech. Gameworks hatte diverse Redaktionen davon auch nicht abgehalten jenes nicht zu verwenden wie bsw. kein Hairworks in Witcher 3.

Digidi
2018-08-19, 15:12:05
Ohne DXR Fallback gibt es keinen Vergleich. Und ob AMD diesen anbieten, ist mehr als fragwürdig. Immerhin wären deren Karten dann erheblich langsamer.

Hast du mal wieder die berüchtigte Troyanische Glaskugel rausgeholt?

Nur mal so am Rande auch amd kann gut Tensor Rechnung:

http://blog.gpueater.com/en/2018/04/23/00011_tech_cifar10_bench_on_tf13/

MiamiNice
2018-08-19, 15:16:56
Man merkt an der Tonlage das der Release ganz nah ist ;D

w0mbat
2018-08-19, 15:22:01
non-Ti Referenz-Design vs. Ti-Custom, sehr fairer Vergleich :rolleyes:

Warum muss man fair vergleichen? Es geht hier um GPUs, nicht um Menschen. Ich verstehe nicht diese Fokusierung auf das Marketing einer Firma.

Was ist, wenn die 2070, wie manche Gerüchte behaupten, plötzlich auf TU106 und nicht xx104-salvage basiert? Darf man dann auch nicht vergleichen? Geht es um den Chip, oder den Marketingnamen?

Ich vergleiche den Leistungssprung den man zu einem gegebenen Zeitpunkt hat. Klar, unter Pascal kam noch eine 1080Ti, aber die kam später. Zum launch hatte man eine GTX 1080 die erstmal 10-15%, später bei custom Karten auch gerne mal 20% schneller als ne custom 980Ti war.

Und ich denke eben, dass fals die 2080Ti wirklich direkt kommt, wir dieses mal mehr als 15-20% gegenüber der aktuell schnellsten Karte (1080Ti cutsom) sehen werden.

Was ist daran "unfair"? Und wem gegenüber? Der Grafikkarte? :freak:

Ist wirklich interessant wie hier Dingen menschliche Eigenschaften zugetan werden, die man unfair behandeln kann. Und wenn ein Jahr später noch eine schnellere GPU kommt ist ja klasse, aber das hat nichts mit jetzt zu tun.

mironicus
2018-08-19, 15:22:08
Wird AMD wohl dann einen Treiber nachlegen, mit dem die RT-Effekte auch auf Vega genutzt werden können? Zu irgendwas muss die große Chipfläche bei den AMD-GPUs doch gut sein.

Digidi
2018-08-19, 15:33:28
Wird AMD wohl dann einen Treiber nachlegen, mit dem die RT-Effekte auch auf Vega genutzt werden können? Zu irgendwas muss die große Chipfläche bei den AMD-GPUs doch gut sein.

Amd ist da schon lange dran:
https://www.youtube.com/watch?v=ZQcvi35eVko

Hmm ich überlege gerade Intel will in den Grafikmarkt einsteigen und denen Ihr Steckenpferd war immer Ray Tracing. Was ist wenn Raja mit Vega hier Intel überzeugen konnte.

Vieles deutet ja hin das Vega versteckte Eigenschaften hat. Ein neuer Workloaddistributor und Primitive Shaders. Alles das wird vielleicht für Ray Tracing gebraucht.

prinz_valium
2018-08-19, 15:36:06
Warum muss man fair vergleichen? Es geht hier um GPUs, nicht um Menschen. Ich verstehe nicht diese Fokusierung auf das Marketing einer Firma.



Weil es dann vielleicht auch im Umkehrschluss so gemacht werden kann?
Dann vergleiche ich die 2080Ti mit 1545MHz von PNY mit einer 2200MHz 1070 und der Turing Top Dog ist gerade mal 30% schneller als ein 2 Jahre alter Salvage Performance Chip...


Ergibt das Sinn?

w0mbat
2018-08-19, 15:43:48
Ergibt das Sinn?

Wenn du schauen willst, ob es für dich Sinn macht von der einen auf die andere aufzurüsten, klar.

Zumal ich die Performancesteigerung zum launch vergleiche, was ja selbst für dich nachzuvollziehen sein sollte.

Jemand der vor dem Pascal launch die beste GPU hat, eine schnelle custom 980Ti, der hatte erstmal keinen wirklich Grund aufzurüsten. Die Pascal Generation wurde vor allem durch die 1080Ti später so viel schneller.

Wenn jemand jetzt eine custom 1080Ti hat, kann es sehr gut sein, dass er beim Turing launch gleich einen Grund hat aufzurüsten. Wenigsten hoffe ich dass die 2080Ti min. 30% schneller als eine custom 1080Ti ist. Ob das so kommt, werden wir sehen.

Aber der Pascal launch war kein wirklich großer Sprung in der performance, darum ging es ja anfänglich. Eher bei der Effizienz.

Ich liebäugle nämlich mit einer 2070/2080 und es wäre schon, hier viel Leistung zum guten Preis zu bekommen :D

Godmode
2018-08-19, 16:03:25
Wird AMD wohl dann einen Treiber nachlegen, mit dem die RT-Effekte auch auf Vega genutzt werden können? Zu irgendwas muss die große Chipfläche bei den AMD-GPUs doch gut sein.

Spezialhardware über Software emulieren, klar. :rolleyes:

VEGA ist bei Compute sehr stark, den dafür würde der Chip entwickelt. Alles anderes ist Wunschdenken. AMD wird sicherlich an RT arbeiten, schließlich gibt es einen Microsoft Standard dazu.

dildo4u
2018-08-19, 16:23:04
Amd ist da schon lange dran:
https://www.youtube.com/watch?v=ZQcvi35eVko

Hmm ich überlege gerade Intel will in den Grafikmarkt einsteigen und denen Ihr Steckenpferd war immer Ray Tracing. Was ist wenn Raja mit Vega hier Intel überzeugen konnte.

Vieles deutet ja hin das Vega versteckte Eigenschaften hat. Ein neuer Workloaddistributor und Primitive Shaders. Alles das wird vielleicht für Ray Tracing gebraucht.
AMD fehlen nicht nur die RT Cores sondern das Denoising per AI.
Das Gerücht ist das erst die 7nm Vegas zumindest AI Kerne haben,die UE4 RT Demo's mit Vega 10 laufen Deshalb noch auf 3-4 Karten.

https://twitter.com/RadeonPro/status/1030182408941961218

Fliwatut
2018-08-19, 16:33:42
Solche großen Leistungssprünge wie von Kepler auf Maxwell 2.0 wird es von NV zukünftig wahrscheinlich nur noch bei Full-Node-Shrinks geben. Wobei das dann ja wieder eher was Pascal-artiges ist...
Nvidia kocht halt auch nur mit Wasser und irgendwann ist eine Architektur so weit optimiert, dass es mehr Leistung nur noch durch mehr Transistoren und/oder höheren Takt gibt.

=Floi=
2018-08-19, 16:35:29
Vieles deutet ja hin das Vega versteckte Eigenschaften hat. Ein neuer Workloaddistributor und Primitive Shaders. Alles das wird vielleicht für Ray Tracing gebraucht.

deswegen lässt man nv den vortritt mit dieser technologie. ;D

Tesseract
2018-08-19, 16:38:54
Warum muss man fair vergleichen?

weil es bei einem architekturvergleich keinen sinn ergibt über größenklassen hinweg zu vergleichen. die 1080 hat ein simpleres PCB, einen deutlich kleineren chip mit weniger transistoren, geringere kühleranforderungen und hätte sich, wenn nvidia stärkere konkurrenz gehabt hätte, noch deutlicher im preis unterschieden als das ohnehin schon der fall war.

reaperrr
2018-08-19, 17:01:45
Ich vergleiche den Leistungssprung den man zu einem gegebenen Zeitpunkt hat. Klar, unter Pascal kam noch eine 1080Ti, aber die kam später. Zum launch hatte man eine GTX 1080 die erstmal 10-15%, später bei custom Karten auch gerne mal 20% schneller als ne custom 980Ti war.

Es ging mir nur um dein "70%?!", denn von 980 zu 1080 und 980 Ti zu 1080 Ti, und damit eben von Architektur zu Architektur, war der Sprung sehr wohl so groß, auch wenn 16nm da natürlich den Löwenanteil geleistet hat.
Wenn du aber die Launches der x80 und x80Ti Modelle alle getrennt siehst, dann gab es natürlich noch nie Steigerungen von 70%, die 980 war anfangs auch nur 7% schneller als die 780Ti.

Dann verstehe ich aber deine Enttäuschung nicht, denn größere Sprünge als 30-45% (meistens vom x80 zum x80Ti Modell) hatten wir nach dem Maßstab schon die letzten 6 Jahre nicht mehr. Der größte Sprung von einem Ti-artigen Chip auf eine non-Ti war noch von GTX 580 auf 680 mit ca. 30%, aber das war auch neue uArch + FullNode-Shrink in einem und Fermi war auch leichter zu verbessern, weil die Arch noch so viele Schwächen hatte.

prinz_valium
2018-08-19, 17:09:59
@w0mbat
Die persönliche Upgrade Entscheidung ist immer etwas anderes als generelle Vergleiche und Vergleichbarkeit.


Aus der Sicht mag es vllt Sinn ergeben, aber wenn man hier grundsätzlich über die Leistung von Grafikkarten Generationen spricht, eher nicht.
Für mich persönlich ist z.B. der Preis und was man dafür bekommt einer der wichtigsten Faktoren. Und deshalb sind sowohl 2080 und 2080TI eh nicht zu gebrauchen.

Aber das trifft nicht für jeden und Allgemein zu.

Naja der Hype ist da wie bei jeder neuen Gen. Mal sehen was es morgen gibt...

Ex3cut3r
2018-08-19, 17:58:39
https://www.nvidia.com/de-de/

Noch 24.Stunden, diesmal gibt auch es einen Twitch Stream, anstatt des UStream Geruckel. :freak:

crux2005
2018-08-19, 18:04:22
https://www.nvidia.com/de-de/

Noch 24.Stunden, diesmal gibt auch es einen Twitch Stream, anstatt das UStream Geruckel. :freak:

Sind schon jetzt >2000 Leute im Twitch Stream. :freak:

https://www.twitch.tv/nvidia

Ex3cut3r
2018-08-19, 18:10:28
Krass. :freak:

Triniter
2018-08-19, 18:18:12
Sind schon jetzt >2000 Leute im Twitch Stream. :freak:

https://www.twitch.tv/nvidia
So ein grüner Screen mit nem Counter gibts halt nicht alle Tage...

Fliwatut
2018-08-19, 18:21:16
Es ging mir nur um dein "70%?!", denn von 980 zu 1080 und 980 Ti zu 1080 Ti, und damit eben von Architektur zu Architektur, war der Sprung sehr wohl so groß, auch wenn 16nm da natürlich den Löwenanteil geleistet hat.
Der Sprung von 980 auf 1080 64% und von 980ti auf 1080 30%: https://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/
Von 980 ti auf 1080 ti waren es 75%: https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_ultrahdbenchmarks_in_3840__2160_4k
Jeweils von FE zu FE in UHD.

prinz_valium
2018-08-19, 18:21:31
Nice. Endlich mal ein gescheiter Stream. Und auch eine gescheite Uhrzeit für Europäer.

50% Ti zu Ti wäre krass gut.
Gehe ich nicht von aus. Aber mal sehen.

Linmoum
2018-08-19, 18:25:57
Von 980 ti auf 1080 ti waren es 47%: https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_ultrahdbenchmarks_in_3840__2160_4k
Jeweils von FE zu FE in UHD.
Ich sehe da 75%. :wink:

Ich tippe für die 2080Ti auf rund 30-40%, damit überholt man auch die Titan V.

Fliwatut
2018-08-19, 18:28:30
Ich sehe da 75%. :wink:
Stimmt, ich hatte die Gigabyte Gaming angeklickt :freak: Wird ausgebessert.

crux2005
2018-08-19, 18:41:13
Ok, aber was erwartet ihr denn? Ich erwarte die RTX 2070 knapp unter 1080Ti Leistung, die 2080 15% über der 1080Ti und die 2080Ti 40% über der 1080Ti. Und das zu "vernünftigen" Preisen.

RTX 2070 = 450€
RTX 2080 = 650€
RTX 2080Ti = 850€

Ich glaube die MSRPs bleiben gleich wie bei der Pascal gen. und RTX 2080/Ti positionieren sich mit der Leistung über der GTX 1080 Ti.

Der Sprung von 980 auf 1080 64% und von 980ti auf 1080 30%: https://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/
Von 980 ti auf 1080 ti waren es 75%: https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_ultrahdbenchmarks_in_3840__2160_4k
Jeweils von FE zu FE in UHD.

So viel Mehrleistung werden wir mit Turing ohne RTX nicht sehen.

w0mbat
2018-08-19, 18:45:14
Eine 2070 für $379 wäre zwar super, aber ich glaube nicht wirklich dran. Selbst $399 MSRP wäre ein Träumchen.

Timbaloo
2018-08-19, 19:02:33
Hmmm, 18:00, ich wette dass ich das total verraffe :D

crux2005
2018-08-19, 19:26:33
Eine 2070 für $379 wäre zwar super, aber ich glaube nicht wirklich dran. Selbst $399 MSRP wäre ein Träumchen.

Die USD Preise sind ohne Steuer und meistens $1 = 1€.

https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/2/

Die GeForce GTX 1070 Founders Edition ist das Referenzdesign, das es ab Freitag, den 10. Juni, für eine unverbindliche Preisempfehlung von 499 Euro direkt bei Nvidia oder bei den bekannten Online-Händlern zu kaufen geben wird.

Godmode
2018-08-19, 19:38:57
Ich sehe da 75%. :wink:

Ich tippe für die 2080Ti auf rund 30-40%, damit überholt man auch die Titan V.

30-40% erwarte ich. Weniger wäre enttäuschend, mehr wäre überraschend.

VooDoo7mx
2018-08-19, 19:42:03
Eine 2070 für $379 wäre zwar super, aber ich glaube nicht wirklich dran. Selbst $399 MSRP wäre ein Träumchen.

Frag schon mal bei Mutti nach einer Taschengelderhöhung.

nVidia wird sicher nicht einen neuen 540mm² Chip samt Board und teuren GDDR6 Speicher nicht für $379 verramschen. Wie kann man nur auf so eine absurde Idee kommen.
Vieles deutet aktuell darauf hin das sowieso keine RTX 2070 vorgestellt wird und selbst wenn würde so eine hypothetische Karte eher im 500-600€ Bereich liegen. Man sollte nicht vergessen, dass so ein Board mehr in der Produktion kostet als eine 1080Ti.

Ex3cut3r
2018-08-19, 19:45:04
@VooDoo
Kein Grund ihn gleich abzustempeln, nicht jeder kann einfach so 550€ für eine GPU auf den Tisch legen.

Timbaloo
2018-08-19, 19:48:28
Es würde mich nicht wundern wenn NV Turing vergleichsweise günstig auf dem Markt bringen würde.

a) potentielle NAVI-Kunden abgrasen
b) Verbreitung von RT

Für Gewinn/Umsatz ist durch Renderfarmen erstmal gesorgt.

Slipknot79
2018-08-19, 19:49:19
Einfach Unternehmer, Spekulant, Vermieter oder Aktionär/Investor werden, dann gibts kein Geldmangel für ne ordentliche Graka und keine unnötigen "wieviel Leistung bekomme ich für einen €"-Abwägungen. :redface:

Ex3cut3r
2018-08-19, 19:56:59
Einfach Unternehmer, Spekulant, Vermieter oder Aktionär/Investor werden, dann gibts kein Geldmangel für ne ordentliche Graka und keine unnötigen "wieviel Leistung bekomme ich für einen €"-Abwägungen. :redface:

Ja klar, und dann steht man mit einem Bein immer halb im Knast oder wie? :biggrin:

Zuhälter vlt. auch noch?

9I1n1bj4_6g

Slipknot79
2018-08-19, 19:58:10
Aber nur weil du dir so viele Grakas leisten kannst, dass nen illegales AKW errichtet werden muss. :redface:

-=Popeye=-
2018-08-19, 20:00:27
Ich sehe da 75%. :wink:

Ich tippe für die 2080Ti auf rund 30-40%, damit überholt man auch die Titan V.

30-40% erwarte ich. Weniger wäre enttäuschend, mehr wäre überraschend.

Wenn es so kommt wäre dass für mich als Maxwell Titan User ein 100 prozentiger Performancegewinn.

prinz_valium
2018-08-19, 20:00:30
Klassiker. Kannste die heute aber nicht mehr Erlauben. Nicht mal als Zuhälter...

VooDoo7mx
2018-08-19, 20:08:42
@VooDoo
Kein Grund ihn gleich abzustempeln, nicht jeder kann einfach so 550€ für eine GPU auf den Tisch legen.

Und das ist auch nicht schlimm. nVidia hat Konsumentenprodukte von 70€ bis 3000€ im Angebot. Schon kut einer 1050Ti kann man alle aktuellen Spiele in einer guten Qualitäöt spielen und die kostet gerade mal 150€
Für jeden Geldbeutel ist ein passendes Produkt da.
Diese ich will immer alles haben aber nichts dafür ausgeben Mentalität ist einfach nur noch krankhaft.
Es zeigt auch einfach nur die Geringschätzung der Arbeit anderer und befreidigt nur den eigenen Geiz und Egoismus.
Ich kann mir auch keinen Ferrari für 200000€ leisten und verlang deswegen trotzdem nicht das man ihn mir für 50000€ verkauft.

Ex3cut3r
2018-08-19, 20:09:39
Achso, so sieht du das. Ja, dann kann ich teilweise verstehen.

Digidi
2018-08-19, 20:22:19
AMD fehlen nicht nur die RT Cores sondern das Denoising per AI.
Das Gerücht ist das erst die 7nm Vegas zumindest AI Kerne haben,die UE4 RT Demo's mit Vega 10 laufen Deshalb noch auf 3-4 Karten.

https://twitter.com/RadeonPro/status/1030182408941961218

Auch am AI Densosing arbeitet AMD
https://twitter.com/RadeonPro/status/1030468760048730112

und wie sich die RT Cores zurzeit vorstellen ist das eigentlich nur ein cleverer Workloaddistributor zu den Shadern.

Interessant ist das AMD Ai Denosing mit Hetrogenus bewirbt. Könnte sein das eine CPU den Workload besser hendeln kann.

w0mbat
2018-08-19, 20:30:56
Wie kann man nur auf so eine absurde Idee kommen.

Ist dein Textverständniss so schlecht, oder willst du einfach rumstänkern?

Wenn du lesen würdest, hättest du gemerkt, dass ich auf einen Kommentar von crux2005 eingehe, wo dieser die selbe UVP wie bei den Pascal Karten vermutete. Daraufhin habe ich geschrieben, dass ich dies bezweifele.

So ein bisschen über Grundschulniveau sollte man schon bleiben, mein lieber VooDoo7mx :freak:

Edit: Und wenn du etwas besser mit Geld umgehen könntest, zB wie ich jedem Monat einen 4-stelligen Betrag in ein Depot steckst, dann wüsstest du auch, dass die Preise nichts mit "Wertschätzung" zu tun haben, sondern Nvidia nur weiter Rekordgewinne bescheren. Wie kann man sich so verarschen lassen und denken, die enormen Preise für ein Produkt, dass so in Masse gefertigt wird, haben auch nur irgendetewas mit Wertschätzung zu tun. Das muss einem ja schon fast Leid tun.

Godmode
2018-08-19, 20:32:09
und wie sich die RT Cores zurzeit vorstellen ist das eigentlich nur ein cleverer Workloaddistributor zu den Shadern.


:facepalm:

Da kannst du noch soviel und schlau verteilen, eine General-Purpose ALU wird niemals so schnell und effizient sein, wie eine Fixed-Function Unit. Entweder man verwende Die-Fläche für diese Einheiten und hat dafür weniger Platz für normale ALUs oder eben nicht.

Troyan
2018-08-19, 20:34:23
Der Platzbedarf kann sogar geringer sein, da die Einheiten - siehe TensorCores - direkt in die bestehende SM-Infrastruktur eingebunden werden können. Weitere SM sind zwar genereller, aber der Platzbedarf ist immens. Außerdem ist die Effizienz erheblich besser.

Digidi
2018-08-19, 20:37:52
:facepalm:

Da kannst du noch soviel und schlau verteilen, eine General-Purpose ALU wird niemals so schnell und effizient sein, wie eine Fixed-Function Unit. Entweder man verwende Die-Fläche für diese Einheiten und hat dafür weniger Platz für normale ALUs oder eben nicht.

Raytracing muss aber flexibel sein! Je nach Strhalengang und Reflexionsart unterscheiden sich die Gleichungen. Ob da ein Universal Shader nicht besser geeignet ist. Wer weiß.

Timbaloo
2018-08-19, 20:41:25
Eventuell hat man bei NV ein klein wenig darüber nachgedacht wie man das aufbauen müsste. Vielleicht aber haben sie auch einfach gewürfelt?

dargo
2018-08-19, 20:46:40
a) potentielle NAVI-Kunden abgrasen

Welche Navi Kunden? Zu Navi weiß man noch gar nichts, außer 7nm. :tongue:

wolik
2018-08-19, 20:48:24
Spezialhardware über Software emulieren, klar. :rolleyes:

VEGA ist bei Compute sehr stark, den dafür würde der Chip entwickelt. Alles anderes ist Wunschdenken. AMD wird sicherlich an RT arbeiten, schließlich gibt es einen Microsoft Standard dazu.
2008 Ruby 2.0: neue Technologiedemo mit Voxel Raytracing
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Ruby-Black-Edition-ohne-Polygone-657641/
:wink:

Troyan
2018-08-19, 20:49:50
/edit:

Sieht schlechter aus als heutige Ingame-Cutscenen.

/edit: Voxel-Raytracing macht nVidia seit Maxwell.

dargo
2018-08-19, 21:04:03
Sieht schlechter aus als heutige Ingame-Cutscenen.

What?
https://www.youtube.com/watch?v=aT37b2QjkZc

pixeljetstream
2018-08-19, 21:05:18
Raytracing muss aber flexibel sein! Je nach Strhalengang und Reflexionsart unterscheiden sich die Gleichungen. Ob da ein Universal Shader nicht besser geeignet ist. Wer weiß.
Das Shading selbst ist universal, sieht man ja am Aufbau von DXR, dafür ist Intersektion (bvh traversal + triangle test) in hw gegossen.

Digidi
2018-08-19, 21:05:25
What?
https://www.youtube.com/watch?v=aT37b2QjkZc
Das war 2008 :D

@pixeljetstream
Was ist BvH und triangle test? Danke für die Info


Ich bin mal gespannt wenn Ray Tracing im großen Umfang geht und die Konkurrenz allzuweit weg ist könnte die 2080ti für eine gewisse Zeit bei mir landen.

Troyan
2018-08-19, 21:06:13
What?
https://www.youtube.com/watch?v=aT37b2QjkZc

Jo, "Real Time". Lmao. Gab es eigentlich mehr als die 10 Sekunden vorgerenderte Bilder? :rolleyes:

/edit: Ha, ist nur Fake: https://www.businesswire.com/news/home/20080616006665/en/AMD-Demonstrates-Cinema-2.0-Experience-Punches-Hole

pixeljetstream
2018-08-19, 21:10:24
Das war 2008 :D

Was ist BvH und triangle test?

Bounding Volume Hierarchy. Die Standarddatenstruktur für raytracing. Man zerteilt ein Modell in einen Baum aus Boxen. Die Blätter enthalten die eigentlichen Dreiecke. Jede Strahlintersektion sucht also erstmal Boxen die geschnitten werden, dann die Kinder usw. am Ende werden ein paar wenige Dreiecke individuell getestet.

Im Prinzip sind da alle raytracing Apis ähnlich (Intel Embree, Radeon Rays, Optix ...). Sie alle abstrahieren eine Beschleunigungsstruktur für die Intersektion zwischen Modell und Strahlen. Im Detail sind sie halt an die hw angepasst, sei es spezielle Instruktionen (SSE, intrinsics usw.), Cache-Line Größen... Oder wie nun im Fall von Turing größere Teile in hw zu machen.

Das ist auch der Teil den man nicht vergessen darf. Man muss die Daten erstmal in so eine Struktur überführen. NVresearch hat dafür in den letzten Jahren einige Algorithmen gezeigt wie man das auf GPUs sehr flott machen kann. Denn animierte Dinge (Charaktere/alles was deformiert wird) muss dass dementsprechend auch jeden frame durchlaufen. Deswegen auch in den DXR Videos von NV überall die animierten Charaktere.

Bei Rasterisierung ist es trivial Geometrie/Pixel zu erzeugen. Bei raytracing muss man dies nun räumlich Ausdrücken. Das ist sicher für Entwickler eine interessante Herausforderung. Zumal das auch Speicher kostet. Aber sie haben nun eben zwei Möglichkeiten ihre Probleme zu lösen und die Ansätze zu kombinieren.

Digidi
2018-08-19, 21:16:18
Bounding Volume Hierarchy. Die Standarddatenstruktur für raytracing. Man zerteilt ein Modell in einen baum aus boxen. Die Blätter enthalten die eigentlichen Dreiecke. Jede Strahluntersektion sucht also erstmal Boxen die geschnitten werden, dann die Kinder etc. am Ende dann werden ein paar wenige Dreiecke individuell getestet.
Danke
:up:

deekey777
2018-08-19, 22:17:48
- Unsere Grafikkarten können DirectX 7!
- Unsere auch. Und sie haben T&L-Hardware.
- Aber unsere Grafikkarten können DirectX 7!

Manche sind sich für nichs zu schade. :mad:

PHuV
2018-08-19, 22:54:49
Ich hoffe nicht, der Rotz kommt mir nicht auf die Platte. :eek:
Ich hab seit einiger Zeit Expience drauf, und wer mal schnell Videos vom Desktop oder Spielen machen möchte, ist das wirklich eine super Sache. Also ich mags nicht mehr missen.

Raff
2018-08-19, 22:56:51
Denken wir das mit DXR bzw. mit RTX doch mal etwas durch. Anfangs wird das "supplemental", also eine Ergänzung zur Rasterisierung, weil der Spaß sonst zu teuer ist. Wir kriegen also beispielsweise die Möglichkeit, statt Screen-Space-Hacks richtig coole, lebensechte Reflektionen zu sehen. Aber führt das nicht zu stark schwankenden Bildraten? Wer schon etwas länger dabei ist, kennt das Problem mit Effekten, die nur sporadisch auftreten. Früher waren das beispielsweise Partikel, die enorm teuer waren und damalige GPUs daher zu Slowdowns trieben. Oder Multi-Texturing-Layer-Wahnsinn, der, sobald im Bild, mehrere Render Passes erforderte und somit die Bildrate einbrechen ließ. Oder, wenn wir bei Reflektionen bleiben, dem Irrsinn, "shiny surfaces" durch Spiegelung der gesamten Geometrie zu machen, also die doppelte Polygonmenge an betreffenden Stellen. Zu sehen unter anderem in Unreal und Deus Ex.

Wird das mit Raytracing-Ergänzungen genauso sein? Nehmen wir mal an, wir spazieren aus dem offenen Wald Endors in eine imperiale Basis. Dort hat das Reinigungspersonal alles poliert und die Plastiktruppen spiegeln sich zusammen mit dem Interieur im Bild, reflektieren und streuen das Licht wild umher. Das sieht alles geil aus und so ... wird aber die GPU stark fordern und somit ruckeln. Dann betreten wir einen anderen Raum, der raue Wände und Böden hat, die Bildrate geht wieder hoch. Dann kommen raygetracte/traygeracte/geraytracte/whatever Sturmtruppler rein und es ruckelt wieder.

Oder sehe ich das falsch, weil die RT-Cores immer dann idlen, solange keine Rays berechnet werden müssen? Heißt, wir kriegen diese Effekte, im gesunden Maß, kostenlos? Denkbar ist, dass das von der Implementierung abhängt. Cleveres Sparen mit weniger Strahlen und dafür (wieder quasi-kostenlosem) Denoising mittels Tensor Cores könnte den Einfluss auf die Bildrate minimieren.

Wie gesagt, nur ein paar Gedanken. Was meint ihr?

MfG,
Raff

PHuV
2018-08-19, 22:59:32
Erinnert sich noch jemand an Stalker, wo man unter so ein Tarnnetz mit einzelenen Sonnenstrahlen ging, und die Performance dann übel runter. Meinst Du sowas?

Digidi
2018-08-19, 23:02:41
@Raff

Ray Tracing wird es Kostenlos oben drauf geben. Aber das es zu keiner Minderung der Leistung kommt muss schon ein gewisses Maß an Einheiten verbaut sein. Deshalb wird es nur die großen Karten mit Ray Tracing geben die dann gerade das Minimum erfüllen.

Was mich interessiert ob die 10 Giga Rays das ist was die RT Cores können, oder schon das interpolierte mit den Tenso Cores.

Ex3cut3r
2018-08-19, 23:04:39
Raffs Fragen sind eher was für Pixeljetstream oder/und der Präsentation Morgen.

w0mbat
2018-08-19, 23:10:31
Ich kann mir auch vorstellen, dass die ersten Spiele RT sehr limitiert implementieren, zB nur auf Waffen und Arme/Hände erstmal. Oder das Fahrzeug das man fährt.

Digidi
2018-08-19, 23:39:27
Raffs Fragen sind eher was für Pixeljetstream oder/und der Präsentation Morgen.
Dazu braucht man nicht unbedingt Pixeljetstram.

Man kann das auch durch logisches Nachdenken erahnen. Raytracing ging die ganze Zeit nicht weil es zu viel Leistung kostet für die es keine Chipfläche gibt.

Jetzt hat man die Möglichkeit brauchbare Leistung per RT Cores auf den Chip zu pressen. Das wir aber immer noch über Ray Tracing reden muss der Chip immer noch recht groß sein um annehmbare Leistung zu bekommen. Ergo werden nur die großen Chips mit Ray Tracing gehen.

Das einzige was als Unsicherheit bleibt ist ob man die neuronalen Netzt für Compute nutzen kann. Ich könnte mir das dort auch gut vorstellen. Ein Pixel wird gerendert, der Rest wird interpoliert. Mann könnte ja ein Spiel mit 1080p rendern und dann per AI auf 4k hochskalieren. Die Technik gibt es ja schon bei einfachen Bildern.

Wie sieht eingetlich die Latenz von neuronalen Netzen aus? Geht Echtzeit Games überhaupt damit? Kann ja schon schnell sein, wenn der Frame aber verzögert ausgegeben wird, wird es nervig.

RLZ
2018-08-20, 00:23:37
Nehmen wir mal an, wir spazieren aus dem offenen Wald Endors in eine imperiale Basis. Dort hat das Reinigungspersonal alles poliert und die Plastiktruppen spiegeln sich zusammen mit dem Interieur im Bild, reflektieren und streuen das Licht wild umher. Das sieht alles geil aus und so ... wird aber die GPU stark fordern und somit ruckeln.
Du hast ein Budget für deine Strahlen, überschreitest du das, fängt es an zu ruckeln. Natürlich sind Reflektionen von Reflektionen ein Kandidat jedes Budget locker zu überschreiten... aber dann tut man das einfach nicht. Entweder verfolgt man die Reflektionen nicht weiter, bastelt was temporales oder nutzt einen anderen Fallback wie eine Environment Map.

Hier mal ein Beispiel aus der Seed Präsentation von der Siggraph (http://intro-to-dxr.cwyman.org/):
https://abload.de/img/sdfsdxcvy6d9x.jpg
(Auf dem Bild sind die Reflektionen für jeden Pixel zu sehen)
Da sieht man sehr schön, dass mit den Reflektionen nach einem Bounce Schluß ist.
In der fertigen Szene spielt das wegen den Materialen kaum noch eine Rolle.
https://abload.de/img/xcvxap9dlu.jpg


Dann betreten wir einen anderen Raum, der raue Wände und Böden hat, die Bildrate geht wieder hoch.
Seit PBS reflektiert eigentlich so gut wie jedes Material. Zudem sollten die Reflektionen nur einen Teil des Budgets ausmachen.
Btw.: Transparenzen sind eigentlich noch wesentlich übler ;)

Oder sehe ich das falsch, weil die RT-Cores immer dann idlen, solange keine Rays berechnet werden müssen? Heißt, wir kriegen diese Effekte, im gesunden Maß, kostenlos?
Was sollen die RT Cores sonst tun?

Wie sieht eingetlich die Latenz von neuronalen Netzen aus?
Das hängt von der Größe des Netzes ab und wir werden sicherlich mit möglichst kleinen Netzen anfangen.

pixeljetstream
2018-08-20, 00:25:32
@Raff jeder Effekt unterliegt heute gewissen frame Budgets die sich die Entwickler mit heuristiken zurecht biegen (Komplexität oder dynamische Auflösung etc.). Das ist hier nicht anders.
Die Demos laufen ja meist mit fixer Zahl Strahlen pro Pixel und das denoising/upsampling tut den Rest.

Auch ohne raytracing kannst du unterschiedlich komplexe Dinge am Bildschirm haben. (Dein Beispiel mit Partikel etc.)
Es ist keine magische Lösung, aber kein fundamental neues Problem, wie RLZ auch beschreibt.

gravitationsfeld
2018-08-20, 02:52:13
Raytracing muss aber flexibel sein! Je nach Strhalengang und Reflexionsart unterscheiden sich die Gleichungen. Ob da ein Universal Shader nicht besser geeignet ist. Wer weiß.
Die Gleichung fuer Ray-Triangle-Intersection ist immer gleich.

Es gibt in DXR auch Intersection-Shader, damit kannst du dann machen was du willst - es ist aber natuerlich langsamer.

Kriegsgeier
2018-08-20, 07:33:33
Schade, dass Igor sich nicht mehr meldet :(

Er hat damals von überraschendem Taktverhalten beim TURING gesprochen

Sowie sich sehr interessant bezüglich der Performace geäußert! Was meinte er wohl damals?! In weniger als 12 Stunden wissen wir es ;)

mboeller
2018-08-20, 07:35:14
Raytracing muss aber flexibel sein! Je nach Strhalengang und Reflexionsart unterscheiden sich die Gleichungen. Ob da ein Universal Shader nicht besser geeignet ist. Wer weiß.

Nein! RT in Hardware ist ca. um den Faktor 100 effizienter als in Shadern. Das kannst du nicht aufwiegen. Siehe zB.:

https://www.imgtec.com/blog/powervr-gr6500-ray-tracing/

RT ist aber kein Hexenwerk. Sogar IMG hat es geschafft das zu implementieren und zwar schon 2014.

Digidi
2018-08-20, 07:53:01
Die Gleichung fuer Ray-Triangle-Intersection ist immer gleich.

Es gibt in DXR auch Intersection-Shader, damit kannst du dann machen was du willst - es ist aber natuerlich langsamer.

Für Ray-triangle-intersection ja. Aber wie sieht es mit dem bouncing aus. Gerade wenn es auf eine Runde Matte Oberfläche geht? Das sind dann unterschiedliche Gleichungen zu einem ebenen Spiegel.

basix
2018-08-20, 08:08:36
Für Ray-triangle-intersection ja. Aber wie sieht es mit dem bouncing aus. Gerade wenn es auf eine Runde Matte Oberfläche geht? Das sind dann unterschiedliche Gleichungen zu einem ebenen Spiegel.

Für solche Sachen gibt es in der Physik meistens allgemeine Formeln, wo halt ein perfekter Spiegel als Spezialfall vorkommt. Zu 99.9 Prozent hast du eben keinen perfekten Spiegel ;)

Rancor
2018-08-20, 08:27:29
Die 1080Ti bekommt man mittlerweile unter 700€

https://www.mindfactory.de/product_info.php/11GB-MSI-GeForce-GTX-1080-Ti-Duke-OC-Aktiv-PCIe-3-0-x16--Retail-_1267458.html

Ich bin wirklich gespannt, wie die Turing Karten performen. Unter Umständen könnte ich mir auch eine 1080TI als Upgrade zur 1070 vorstellen.

pixeljetstream
2018-08-20, 08:33:49
Guckt euch doch die DXR api, oder Optix etc. einmal an. Alles ist da nachwievor frei programmierbar, jeder Strahl wird vom Developer selbst geschossen und auch alles was mit den Ergebnissen der intersektion gemacht werden soll ist "normaler" shader code.

Warum soviel mutmaßliche/falsche Aussagen, wenn alles dokumentiert ist. RTFM.

mironicus
2018-08-20, 08:42:08
Vielleicht lässt sich 12 nm nicht so gut übertakten...

Niall
2018-08-20, 08:57:58
Du hast ein Budget für deine Strahlen, überschreitest du das, fängt es an zu ruckeln. Natürlich sind Reflektionen von Reflektionen ein Kandidat jedes Budget locker zu überschreiten... aber dann tut man das einfach nicht. Entweder verfolgt man die Reflektionen nicht weiter, bastelt was temporales oder nutzt einen anderen Fallback wie eine Environment Map.


Auch im Non-Realtime Rendering ist das ja seit Jahrzehnten eine typische Variable, die man global oder per shader nutzt um in manchen Szenen die Renderzeit zu drücken. Der visuelle Unterschied ist ab einer gewissen Tiefe häufig kaum noch sichtbar. Gut, heute sind viele Workstations so stark, dass sich der Optimierungsaufwand echt in Grenzen hält. Das ist schon echt irre, was sich da die letzten 15 Jahr getan hat, wenn ich überlege wieviele Stunden ich damals zum Teil nur damit verbracht habe die Szene »pro rendertime« zu optimieren. :freak:

Sorry für OT. :D

Kriegsgeier
2018-08-20, 09:02:49
10.000 Millionen Rays / s. haben wir.

Wollen wir 60 fps --> 10.000 Millionen / 60 = ca. 166 Millionen Rays per Frame!

Bei 2560 x 1440 haben wir ca. 3,6 Millionen Pixel!

Ergibt RaysPerPixel = 166 Millionen / 3,6 Millionen = ca. 45 Rays Per Pixel!

Ist das viel, genug? ca. 45 Rays Per Pixel + Denoising?!

Fragman
2018-08-20, 09:11:07
... ich überlege wieviele Stunden ich damals zum Teil nur damit verbracht habe die Szene »pro rendertime« zu optimieren. :freak:

Sorry für OT. :D

Was man heut ja auch noch machen muss per sequence/set/environment.
Es ist einfacher, da du weniger parameter hast, aber immernoch notwendig. Ansonsten verschenkst du zuviel zeit auf der farm oder bekommst nur muell zurueck. 😁

Digidi
2018-08-20, 09:27:05
Guckt euch doch die DXR api, oder Optix etc. einmal an. Alles ist da nachwievor frei programmierbar, jeder Strahl wird vom Developer selbst geschossen und auch alles was mit den Ergebnissen der intersektion gemacht werden soll ist "normaler" shader code.

Warum soviel mutmaßliche/falsche Aussagen, wenn alles dokumentiert ist. RTFM.

Hast du einen link zu den Dokumenten? Ich schreibe deshalb ein Fragezeichen dahinter weil ich mir nicht sicher bin, deshalb ist das noch lange keine Falschaussage.

Kriegsgeier
2018-08-20, 09:27:23
NVIDIA GeForce RTX 2080 Ti (Founders Edition)

Wie? Und dann die warme Luft wohin? Nach außen? Geht doch nicht...

https://videocardz.com/newz/nvidia-geforce-rtx-2080-ti-dual-fan-reference-design-leaked

Rancor
2018-08-20, 09:32:10
Bedeutet aber wohl auch das die Karten mehr Strom brauchen und heißer werden.

Raff
2018-08-20, 09:34:36
Witzig finde ich ja, dass der PowerVR GR6500 mit Low-Power-Auslegung bereits vor 4,5 Jahren 300 MegaRays/s pro Sekunde handlen konnte – mit 600 MHz. Betriebe man das Gerät mit Turing-Takten, vereinfacht mit 2.000 MHz gerechnet, haben wir genau 1 GigaRays/s. Das Turing-Topmodell ist also 10× so schnell. Warum ich das schreibe? Gedanken zum ersten Kaffee. Die Entwicklung ist jedenfalls spannend. :)

Hast du einen link zu den Dokumenten? Ich schreibe deshalb ein Fragezeichen dahinter weil ich mir nicht sicher bin, deshalb ist das noch lange keine Falschaussage.

Dazu hätte ich auch gerne Paper-Empfehlungen. Ich habe in den vergangenen Tagen viel zum Thema gelesen, aber zielgerichtete Info ist immer gern gesehen. :)

MfG,
Raff

Kriegsgeier
2018-08-20, 09:35:17
Also was RayTracing in Spielen angeht:

es steht schon mal folgendes fest: in 5 Jahren wird es Horrorspiele geben, die nur Hartgesottene spielen werden und Anzahl der Fälle wo einer Herzinfarkt beim Spielen erlitten hat wird steigen! Sehr sogar...
Stellt euch mal den letzten Teil von Resedent Evil oder OUTLAST mit RT vor... Da kriege ich schon von der Vorstellung schon Angst...

firefly83
2018-08-20, 09:45:46
Also was RayTracing in Spielen angeht:

es steht schon mal folgendes fest: in 5 Jahren wird es Horrorspiele geben, die nur Hartgesottene spielen werden und Anzahl der Fälle wo einer Herzinfarkt beim Spielen erlitten hat wird steigen! Sehr sogar...
Stellt euch mal den letzten Teil von Resedent Evil oder OUTLAST mit RT vor... Da kriege ich schon von der Vorstellung schon Angst...

<black_humor> Das bedeute aber auch: Viele günstige Gebrauchtgrafikkarten. Also eigentlich gute Nachrichten für uns!</black_humor>:biggrin:

Menace
2018-08-20, 09:47:31
Denken wir das mit DXR bzw. mit RTX doch mal etwas durch. [...]

Wie gesagt, nur ein paar Gedanken. Was meint ihr?


Gedanken, weil Du schon mehr weißt?

Ben Carter
2018-08-20, 09:49:17
Ist das viel, genug? ca. 45 Rays Per Pixel + Denoising?!
Wie werden die Rays gezählt? Immer bis zum Bounce? Das heißt, bei einer perfekten Spiegelung und einem Bounce hätte man 2 Rays? Dann denke ich, dass 45 pro Pixel eher Minimum ist.

Kommt natürlich auch darauf an, wie viel wirklich in Raytracing gelöst wird, also "nur" Materialien (quasi besseres PBS) oder die komplette Beleuchtung/Rendering? In jedem Fall ist es spannend, was dann mit Nebel oder z.B. schmutzigen Glas passiert.

So wie ich es bisher verstanden habe (ich habe mich aber auch nicht ausführlich damit beschäftigt) sollte das RT in erster Linie wirklich nur deutlich besseres PBS sein und der Rest bleibt erstmals Rasterizing, darum Hybrid. In diesem Fall sind 45 Rays pro Pixel sicherlich in Ordnung.

Was meiner Meinung nach stärker beachtet werden sollte, ist etwas, das pixeljetstream erwähnt hat: bisheriges Realtime-RT war meistens für statische Szenen. Für dynamische Szenen muss eben die Geometrie in BVHs überführt werden. Möglicherweise ist das, in Abhängigkeit der Geometrie durchaus auch ein Flaschenhals. Wobei die Ansätze sicherlich dazu gehen, zu erkennen, was von Frame zu Frame gleich bleibt und was sich ändert. Ich kann mir vorstellen, dass da z.B. ein sich in Wind wiegender Laubwald ziemlich viel kosten würde.

Auf jeden Fall wird interessant, was da auf uns zukommt.

Also was RayTracing in Spielen angeht:

es steht schon mal folgendes fest: in 5 Jahren wird es Horrorspiele geben, die nur Hartgesottene spielen werden und Anzahl der Fälle wo einer Herzinfarkt beim Spielen erlitten hat wird steigen! Sehr sogar...
Stellt euch mal den letzten Teil von Resedent Evil oder OUTLAST mit RT vor... Da kriege ich schon von der Vorstellung schon Angst...
Hier haut VR aber extrem viel mehr rein. ;)

lg Ben

Raff
2018-08-20, 09:52:30
Gedanken, weil Du schon mehr weißt?

Ich habe leider keine Zeitmaschine. ;)

MfG,
Raff

unl34shed
2018-08-20, 09:56:07
10.000 Millionen Rays / s. haben wir.

Wollen wir 60 fps --> 10.000 Millionen / 60 = ca. 166 Millionen Rays per Frame!

Bei 2560 x 1440 haben wir ca. 3,6 Millionen Pixel!

Ergibt RaysPerPixel = 166 Millionen / 3,6 Millionen = ca. 45 Rays Per Pixel!

Ist das viel, genug? ca. 45 Rays Per Pixel + Denoising?!

Kommt drauf an für was, ein Ray ist ja nur die Berechnung ob und wie ein Vektor eine Fläche (Polygon) schneidet.

Will ich eine Reflexion haben, Brauch es also schon mal mindestens 2 Rays pro Pixel.
Ist das Objekt teilweise transparent, sind es 3 Rays.

Man wird auch sicherlich nicht immer nur genau ein Polygon auf der Strecke des Vektors haben, sondern mehrere abgleichen und entscheiden, welches näher ist.

Kriegsgeier
2018-08-20, 09:58:21
Nur IGOR hat eine Zeitmaschine!
Wobei... Eigentlich alle, die auf dieser Veranstaltung von NVIDIA anwesend und extra eingeladen worden waren. Vor ca. 2 Monaten

PS: diese RT-Cores haben 150 TF an Rechenleistung... Kann es sein, dass genau das IGOR angesprochen haben kann als er über besondere Taktraten gesprochen hat? RT-Cores takten womöglich mit 3 GHz oder so?!

VooDoo7mx
2018-08-20, 10:12:19
Ich könnte mir eher ein höheren Clock für die Shader Cores vorstellen um den vergleichsweise geringen Zuwachs an mehr Recheneinheiten auszugleichen. So wie bei G80 und GT200 Generation, nur nicht ganz so krass.

Rancor
2018-08-20, 10:16:56
Ich könnte mir eher ein höheren Clock für die Shader Cores vorstellen um den vergleichsweise geringen Zuwachs an mehr Recheneinheiten auszugleichen. So wie bei G80 und GT200 Generation, nur nicht ganz so krass.

Die Leaks sprechen da aber eine andere Sprache ^^ Aber man weiß ebne nicht wie gut sich Turing übertakten lässt.

pixeljetstream
2018-08-20, 10:22:38
Alle Echtzeit Demos die gezeigt wurden, sind hybrid. Der Primärstrahl kommt quasi wie gehabt von der Rasterization.
Als Strahl zählt man jede einzelne Anfrage von Intersektion mit der Szene. Sowas wie Transparenz sind also N Strahlen je nachdem wie tief man gehen will.

Die 10 Gigarays die genannt wurden sind unter Idealbedingungen gemessen, in der Praxis hat man deutlich weniger. Die Latenzen für Texturzugriffe, komplexe shader mit mehr Registern etc. drücken hier schnell nach unten. (Das ist aber normal und bei anderen Maxima ähnlich).

Zu mehreren Beispielen gibt es Angaben. Imo war es meist ne Hand voll.

Cubitus
2018-08-20, 10:37:49
NVIDIA GeForce RTX 2080 Ti (Founders Edition)

Wie? Und dann die warme Luft wohin? Nach außen? Geht doch nicht...

https://videocardz.com/newz/nvidia-geforce-rtx-2080-ti-dual-fan-reference-design-leaked

Teilweise wird die Luft schon nach außen abgeführt.
Das Gehäuse wird aber definitiv aufgeheizt, deswegen wäre die Frischluftzufuhr sehr wichtig.
Wenn die FE jetzt noch Zero Core hätte und preislich nicht teurer wie die Custom Modelle veröffentlicht wird, wäre es eine super Alternative für kleine Cases

Triple Slot und Triple Lüfter wären halt leiser..

Dural
2018-08-20, 10:43:17
NVIDIA GeForce RTX 2080 Ti (Founders Edition)

Wie? Und dann die warme Luft wohin? Nach außen? Geht doch nicht...

https://videocardz.com/newz/nvidia-geforce-rtx-2080-ti-dual-fan-reference-design-leaked


Nach aussen und nach innen, was ähnliches gab es schon mal: 7900GTX oder GTX290. Ich finde es nicht gut, aber bei jeder neuen Ref. Karte wird ja nach bessere Kühler geschrien, ob wohl die "Föne" eigentlich gut sind und ich die mag. Den ich bin der Überzeugung das die warme Luft raus muss.

mboeller
2018-08-20, 11:06:38
10.000 Millionen Rays / s. haben wir.

Wollen wir 60 fps --> 10.000 Millionen / 60 = ca. 166 Millionen Rays per Frame!

Bei 2560 x 1440 haben wir ca. 3,6 Millionen Pixel!

Ergibt RaysPerPixel = 166 Millionen / 3,6 Millionen = ca. 45 Rays Per Pixel!

Ist das viel, genug? ca. 45 Rays Per Pixel + Denoising?!

anscheinend eher wenig, bzw. gerade ausreichend. 2min google:

https://www.researchgate.net/publication/319442281_Toward_Real-Time_Ray_Tracing_A_Survey_on_Hardware_Acceleration_and_Microarchitecture_Techniq ues

Ist vom August 2017.

pixeljetstream
2018-08-20, 11:10:47
@Raff
DXR introduction
https://devblogs.nvidia.com/introduction-nvidia-rtx-directx-ray-tracing/

DXR tutorial
https://developer.nvidia.com/rtx/raytracing/dxr/DX12-Raytracing-tutorial-Part-1

dildo4u
2018-08-20, 11:37:31
NVIDIA GeForce RTX 2080 Ti (Founders Edition)

Wie? Und dann die warme Luft wohin? Nach außen? Geht doch nicht...

https://videocardz.com/newz/nvidia-geforce-rtx-2080-ti-dual-fan-reference-design-leaked
EVGA baut schon ewig solche Karten die sind komplett fein.

https://wccftech.com/beautiful-nvidia-geforce-rtx-2080-evga-xc-ultra-graphics-card-pictured/

Tarkin
2018-08-20, 11:38:27
https://twitter.com/usmanpirzada/status/1031361932291465216

Hearing embargo/hard-launch date is 9/20. Not tommorow.

Aha...

Loeschzwerg
2018-08-20, 11:41:06
Wie? Und dann die warme Luft wohin? Nach außen? Geht doch nicht...

https://videocardz.com/newz/nvidia-geforce-rtx-2080-ti-dual-fan-reference-design-leaked

Kaufst dir halt die Asus Turbo 2080Ti mit Radiallüfter:
https://videocardz.com/newz/asus-geforce-rtx-2080-ti-strix-dual-and-turbo-series-pictured

Tarkin
2018-08-20, 11:43:05
Witzig finde ich ja, dass der PowerVR GR6500 mit Low-Power-Auslegung bereits vor 4,5 Jahren 300 MegaRays/s pro Sekunde handlen konnte – mit 600 MHz. Betriebe man das Gerät mit Turing-Takten, vereinfacht mit 2.000 MHz gerechnet, haben wir genau 1 GigaRays/s. Das Turing-Topmodell ist also 10× so schnell. Warum ich das schreibe? Gedanken zum ersten Kaffee. Die Entwicklung ist jedenfalls spannend. :)



Dazu hätte ich auch gerne Paper-Empfehlungen. Ich habe in den vergangenen Tagen viel zum Thema gelesen, aber zielgerichtete Info ist immer gern gesehen. :)

MfG,
Raff

und in 2016 hat PowerVR die Wizard GPU gezeigt:

https://www.imgtec.com/wp-content/uploads/2016/03/PowerVR-GR6500-GPU-PCIe-card-1024x612.jpg

https://www.imgtec.com/blog/gdc-2016-ray-tracing-graphics-mobile/

To get an idea of the level of complexity and quality that can be achieved on Wizard GPUs, we’re also showing the apartment scene below. This is a demonstration that requires billions of rays per second (gigarays) of computational performance and is possible today only a very high-end workstation with multiple desktop GPUs stacked together consuming north of 500-700 watts.

https://www.youtube.com/watch?v=uxE2SYDHFtQ

By comparison, we are able to achieve the same (or better) level of performance on a Wizard GPU that requires at least an order of magnitude less power.

Ehrlich gesagt finde ich es ziemlich lächerlich was nVidia über 2 Jahre später für einen Tanz um Raytracing veranstaltet ... Tja nur blöde dass PowerVR sowas schon vor mehr als 2 Jahren konnte... blöd, hat man irgendwie vergessen zu erwähnen.... :freak:

gefunden hier: https://twitter.com/ryszu/status/1029667348452716544 - Rys Sommefeldt, ex Imagination (PowerVR), jetzt bei AMD bzw RTG

Thunderburne
2018-08-20, 11:45:12
https://twitter.com/usmanpirzada/status/1031361932291465216

Hearing embargo/hard-launch date is 9/20. Not tommorow.

Aha...
Na da kann man sich den einen oder anderen Huni noch zur Seite packen.. so ne richtig gute Custom +Wakü wird wohl an die 1200 kosten denke ich mal.

Troyan
2018-08-20, 11:46:41
Cool, haben die wirklich SSDs Systemspeicher verbaut?

Kriegsgeier
2018-08-20, 11:51:22
Erst in einem Monat?!

Ohje

Rancor
2018-08-20, 11:55:45
Ich kann mich nicht daran erinnern wann es das letzte mal so ein Krampf war , wenn man neue Grafikkarten kaufen wollte. Das zieht sich alles wie Kaugummi...

Adam D.
2018-08-20, 11:58:45
Ich kann mich nicht daran erinnern wann es das letzte mal so ein Krampf war , wenn man neue Grafikkarten kaufen wollte. Das zieht sich alles wie Kaugummi...
Eh, Vega-Launch? ;D Aber ja, es nervt. Igor hat ja auch mehrfach betont, dass noch keine Sau irgendwas Substantielles über Turing weiß. Das wird sich alles noch sehr lange ziehen.

TurricanM3
2018-08-20, 12:03:54
Raytracing:

https://abload.de/img/8e4a7bf8b70b9176ac088e4fda.png (https://abload.de/image.php?img=8e4a7bf8b70b9176ac088e4fda.png)

Ka ob fake...

Hoffentlich hat die Ti nicht "nur" 20% mehr Bums gegenüber der alten. 40% wären nice, man darf ja träumen. :biggrin:
Auf den letzten Seiten wurde hier was von OC auf 2300MHz und mehr geschrieben? Das glaube ich im Leben nicht.

Sven77
2018-08-20, 12:04:30
Ich kann mich nicht daran erinnern wann es das letzte mal so ein Krampf war , wenn man neue Grafikkarten kaufen wollte. Das zieht sich alles wie Kaugummi...

Jeder Launch?

Kriegsgeier
2018-08-20, 12:05:08
Bei so einer Balkenlänge wären die Preise von 1499$ ganz ok!

Raff
2018-08-20, 12:11:56
Raytracing:

https://abload.de/img/8e4a7bf8b70b9176ac088e4fda.png (https://abload.de/image.php?img=8e4a7bf8b70b9176ac088e4fda.png)

Ka ob fake...

Hoffentlich hat die Ti nicht "nur" 20% mehr Bums gegenüber der alten. 40% wären nice, man darf ja träumen. :biggrin:
Auf den letzten Seiten wurde hier was von OC auf 2300MHz und mehr geschrieben? Das glaube ich im Leben nicht.

Irgendein Bild ohne Quelle und ohne "offizielles" Aussehen, dazu "GTX" statt "RTX": nun ja. Soll ich auch mal sowas bauen? Kann hier wohl jeder.

Wo kannst du einen Apple A11 kaufen?

Was soll das Theater? Dass ImgTec keine consumer PCIe-Grafikkarten verkauft und es keiner ihrer Kunden wollte, aendert die Fakten halt nicht.

Wie, das Ding gab es echt nirgends in freier Wildbahn? -> Extra-Thread? :)

MfG,
Raff

Thunderburne
2018-08-20, 12:22:34
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47172-referenzdesign-der-geforce-rtx-2080-ti-mit-zwei-lueftern-offenbar-bestaetigt.html

BlacKi
2018-08-20, 12:27:29
Bei so einer Balkenlänge wären die Preise von 1499$ ganz ok!
ach quatsch. das ist nur raytracing gedankt. die performance unter RT ist nicht das einzige kriterium an dem sich die neuen karten messen müssen.

und wenn die rtx 2080 ti nicht mindestens 50% schneller ist, als die 1080ti ist in regulären spielen ohne RT, dann ist sie nichtmal 1000€ wert.

Edgecrusher86
2018-08-20, 12:33:58
Das mit Metro muss ein Fake sein. 1337 fps für die Ti war aber wohl zuviel. ^^

Und eine 1080 Ti in einem neuen Metro @ 4K nur 25% oberhalb einer 1080... unwahrscheinlich.

Die UVP soll wohl bei 849 GBP liegen, also in etwa die UR-TITAN beerben.

Daredevil
2018-08-20, 12:46:21
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47172-referenzdesign-der-geforce-rtx-2080-ti-mit-zwei-lueftern-offenbar-bestaetigt.html
Die neue "Referenz" wird dann wohl einfach die züge einer Custom Kühlung annehmen.
Ist ja auch irgendwo ein logischer Schritt, die DHE Kühler waren eher verschrien und man hatte immer nur eine "richtig gute" Karte, wenn eine Custom im Rechner steckt.
Somit wird man den Custom Kühlern wohl deutlich näher kommen und die Referenz wird vielen locker ausreichen.

Deswegen setzten wohl viele Custom Modelle auch auf 3 Fans und ellenlange Kühler, damit man die Referenz auch noch deutlich schlagen kann und man sich abhebt.

Btw.
Was hat Zotac eigentlich für ein Problem? ;D
https://pics.computerbase.de/8/4/1/7/7/25-630.1659738026.jpg
https://pics.computerbase.de/8/4/1/7/7/27-630.1529447283.jpg

3Kilometer Heatpipes. :freak:

Timbaloo
2018-08-20, 12:52:29
Hmmm, Referenz mit gutem Kühler wäre in der Tat mal was neues :D

Radeonfreak
2018-08-20, 12:55:18
Nun ich konnte mich über den Referenzlüfter meiner 1080 FE die letzten 2 Jahre und 3 Monate auch nicht beschweren. Die Karte taktet weder langsamer als die Customs noch ist der Lüfter laut und nervig.

Screemer
2018-08-20, 12:57:46
Hmmm, Referenz mit gutem Kühler wäre in der Tat mal was neues :D
naja so schlecht waren die kühler der ti/titan bei pascal jetzt auch nicht, wenn man sie @stock betrieb. fand das für nen direct-exhaust-kühler ziemlich gut.

Timbaloo
2018-08-20, 13:00:21
Sie sind halt objektiv lauter. Klar, wenn einen das nicht stört ist gut.

Cubitus
2018-08-20, 13:04:54
Nun ich konnte mich über den Referenzlüfter meiner 1080 FE die letzten 2 Jahre und 3 Monate auch nicht beschweren. Die Karte taktet weder langsamer als die Customs noch ist der Lüfter laut und nervig.

Imo einziger negativ Punkt, dass die FE keinen Zero-Fan hatte.
Wenn dasbei dem neuen Kühler verbessert wurde, sehe ich keinen Grund nicht auf die FE zu setzen, zumal der Kühler dort allg hochwertiger ist.

Vorteile bei der FE, vermutlich zwei Slot und eben die Länge.
Passt dann in ein geräumiges ITX-Gehäuse :)

Tarkin
2018-08-20, 13:10:44
https://videocardz.com/77505/zotac-geforce-rtx-2080-ti-amp-edition-to-cost-1199-usd

Wäre ja nicht nVidia, würden sie sich nicht wieder einen reinzocken... völlig irre!

Mehr noch als der sog. "Platzhalter".

Dural
2018-08-20, 13:16:45
Immer noch billig gegen manchen cpus: 11gb gddr6, 750mm2 Die, PCB etc. zudem völlig konkurenzlos!

Aber wenn amd eine zusammen geklebt cpu für 1900.- auf den markt bringt ist es günstig...

Kriegsgeier
2018-08-20, 13:18:36
https://videocardz.com/77505/zotac-geforce-rtx-2080-ti-amp-edition-to-cost-1199-usd

Also ich lag mit 1499€ gar nicht mal so schlecht!

AlterSchwede --> 1199$ --> bei uns dann 1399€!

Kriegsgeier
2018-08-20, 13:24:01
Anderseits ist nun mal gesichert, dass mit +60% Performance ti zu ti!

Sonst wären solche Preise einfach UNHALTBAR!

Cubitus
2018-08-20, 13:24:38
https://videocardz.com/77505/zotac-geforce-rtx-2080-ti-amp-edition-to-cost-1199-usd

Also ich lag mit 1499€ gar nicht mal so schlecht!

AlterSchwede --> 1199$ --> bei uns dann 1399€!

Wenn man es auf den Dollar umrechnet, 1169 Dollar
1023,77 Euro

Die FE wird dann ca bei 1100 bzw 1199 Euro liegen, vermute ich mal.

Naja soviel wie für ein solides Fahrrad. :freak:

Daredevil
2018-08-20, 13:24:46
The more you buy, the more you save.

Edgecrusher86
2018-08-20, 13:27:00
Na, glaube ich nicht. Das sind dann 999€ bei uns. Kauft niemand.

Wenn der Hypetrain schnell genug und die Balken entsprechend lang sind, wird sie gut unters Volk gehen. Grob TITAN V Gaming Performance (ohne RTX) zu nur 1/3 des Preises, das wird schon den haben wollen Effekt stärken, zumindest bei vielen Gamern, die zuvor schon 7xx-8xx Euro für eine Karte ausgegeben haben. 😎

Ein iPhone X wird sich ja auch nicht so schlecht verkauft haben zum Beispiel. Da sieht man, dass der Preis bei vielen Konsumenten keine Priorität genießt, Hauptsache man kann mitreden. :)

Cubitus
2018-08-20, 13:27:03
MR Leatherjacket muss aber heute dann sehr gut performen, sonst wird nix gekauft :biggrin:

Daredevil
2018-08-20, 13:27:35
Was btw. auch nicht uninteressant ist, gerade in dem Preisbereich:

Nvidia: Nach Einbruch der Geschäfte – Rückzug aus dem Kryptomarkt
https://www.btc-echo.de/nvidia-nach-einbruch-der-geschaefte-rueckzug-aus-dem-krypto-markt/

„Unsere Umsatzprognose hatte erwartet, dass die auf das Krypto-Mining ausgelegten Produkte rund 100 Millionen US-Dollar einbringen werden. Tatsächlich lagen die kryptospezifischen Produktumsätze bei 18 Millionen US-Dollar. Während wir zuvor davon ausgegangen waren, dass Kryptowährungen in diesem Jahr wichtig für uns werden, geben wir dazu jetzt keine Prognosen mehr ab“,

sagte dazu Colette Kress, Nvidias Chief Financial Officer.

Nvidia stellt also anscheinend keine dedizierten Lösungen mehr vor, sondern überlässt den Minern den regulären Markt. Falls die Karten ordentlich was leisten, werden die auch für 1200€ gekauft, das ist kein Problem. :)

Cubitus
2018-08-20, 13:29:31
PS: Ich rechne mit um 500€ für die 2070, 700€ für die 2080 und 900€ für die 2080TI.

bei 900 Euro für die TI da kannst ja fast gleich zwei kaufen ;D

Troyan
2018-08-20, 13:30:05
Wenn der Hypetrain schnell genug und die Balken entsprechend lang sind, wird sie gut unters Volk gehen. Grob TITAN V Gaming Performance (ohne RTX) zu nur 1/3 des Preises, das wird schon den haben wollen Effekt stärken, zumindest bei vielen Gamern, die zuvor schon 7xx-8xx Euro für eine Karte ausgegeben haben. 😎

Irgendwo endet die Bereitschaft. 1000€ gibt niemand aus. Darüber existiert kein Markt. Die ganzen Custom-Karten zeigen ja, dass es sich hier um ein Massenmarkt handelt. Dazu auch die Speicher-Thematik.


Ein iPhone X wird sich ja auch nicht so schlecht verkauft haben zum Beispiel.

Naja, Statussymbol, was jeder sehen kann. Deinen PC schleppst du ja nicht mit dir rum, oder?

ntldr
2018-08-20, 13:30:19
Das ganze deutet aber auch auf deutlich mehr Performance hin als bisher erwartet. Denn nur mit "Hat tolles Raytracing" sind 800€ für eine einfache 2080 mit ähnlicher Performance zu einer 1080ti (für unter 700€) kaum zu rechtfertigen.

Troyan
2018-08-20, 13:31:20
Das ganze deutet aber auch auf deutlich mehr Performance hin als bisher erwartet. Denn nur mit "Hat tolles Raytracing" sind 800€ für eine einfache 2080 mit ähnlicher Performance zu einer 1080ti (für unter 700€) kaum zu rechtfertigen.

Inkl. -3GB Speicher. ;(

MiamiNice
2018-08-20, 13:32:07
bei 900 Euro für die TI da kannst ja fast gleich zwei kaufen ;D

SLI ist tot, macht keinen Sinn :freak:

Daredevil
2018-08-20, 13:32:37
Irgendwo endet die Bereitschaft. 1000€ gibt niemand aus. Darüber existiert kein Markt.


http://www.redferret.net/wp-content/uploads/2018/02/Titan-XP-V8-Mining-Rig-close.jpghttps://abload.de/img/unbenanntn9fcu.png
Doch, da gibts noch was.

Erbsenkönig
2018-08-20, 13:33:21
Die neue "Referenz" wird dann wohl einfach die züge einer Custom Kühlung annehmen.
Ist ja auch irgendwo ein logischer Schritt, die DHE Kühler waren eher verschrien und man hatte immer nur eine "richtig gute" Karte, wenn eine Custom im Rechner steckt.
Somit wird man den Custom Kühlern wohl deutlich näher kommen und die Referenz wird vielen locker ausreichen.

Deswegen setzten wohl viele Custom Modelle auch auf 3 Fans und ellenlange Kühler, damit man die Referenz auch noch deutlich schlagen kann und man sich abhebt.

Btw.
Was hat Zotac eigentlich für ein Problem? ;D
https://pics.computerbase.de/8/4/1/7/7/25-630.1659738026.jpg
https://pics.computerbase.de/8/4/1/7/7/27-630.1529447283.jpg

3Kilometer Heatpipes. :freak:

Und dann spinnen die Lüfter wie bei der 1080er :freak:

Troyan
2018-08-20, 13:34:29
Ja, die zehn Leute. Von der Titan gab es auch keine Custom-Karten in dem Stil.
Die GTX1080TI war auch schneller als die Titan XP und kostete die Hälfte.

w0mbat
2018-08-20, 13:35:27
Machen wir uns nichts vor, im high-end Segment ist Nvidia konkurrenzlos, da können sie die Preise diktieren. Die Frage ist aber, ob man mit $800 für ne 2080 noch so viele Karten absetzen kann.

Ich glaube erstmal nicht an diese hohen Preise, das scheint mir zu abwägig. Noch 4,5 Std. und wir wissen mehr.

MiamiNice
2018-08-20, 13:38:38
Machen wir uns nichts vor, im high-end Segment ist Nvidia konkurrenzlos, da können sie die Preise diktieren. Die Frage ist aber, ob man mit $800 für ne 2080 noch so viele Karten absetzen kann.

Ich glaube erstmal nicht an diese hohen Preise, das scheint mir zu abwägig. Noch 4,5 Std. und wir wissen mehr.

Sehe ich auch so, den irgendwann hört die Bereitschaft der Leute wirklich auf.
Ich denke ne TI für bis 1300€ würde aber trotzdem gekauft werden.
Bei der non TI sehe ich das Limit bei um 800€
Jeweils natürlich unter Spielern.

Daredevil
2018-08-20, 13:40:37
Ich sehe einen Preis von ~800€ für ne RTX2080 und 1000€+ für ne RTX2080ti völlig realistisch.
Nvidia will viel verkaufen und das werden sie mit den Karten auch. Sie können Preise diktieren und mal rein von der Gaming Performance von Pascal auszugehen und dann prozentual einfach den Preis auszulegen ist doch totaler Schwachsinn.
Das ist keine Pascal + Performance Karte, da steckt anscheinend Unmengen viel neuer Technik drin und die muss man eben auch bezahlen.
Da muss man einfach mit der Realität Dealen. Wer zu arm für die neuen Karten ist muss nicht soviel weinen, sondern Pascal behalten oder sich ne 2070 zulegen.

Troyan
2018-08-20, 13:40:41
Nein, nur die wenigsten kaufen so. 8GB für 800€ ist lächerlich, wenn die GTX1080TI mit 11GB günstiger ist. Da muss man doch nicht mal drüber nachdenken.

Außerdem hat die GTX2080TI kein Markt bei über 1000€. Eine Titan Karte, ja. Aber ein Massenprodukt... Nope.

MiamiNice
2018-08-20, 13:42:55
Nein, nur die wenigsten kaufen so. 8GB für 800€ ist lächerlich, wenn die GTX1080TI mit 11GB günstiger ist. Da muss man doch nicht mal drüber nachdenken.

Außerdem hat die GTX2080TI kein Markt bei über 1000€. Eine Titan Karte, ja. Aber ein Massenprodukt... Nope.

Für mich klingst Du gerade wie ein Kunde der seinen PC bei Feinkost Albrecht kauft. Sorry :(
Was hat die Speicherbestückung mit dem Verkaufswert einer Karte zu tun?
Ich ordne Grafikkarten nach Leistungsklassen ein, Du nicht?

Troyan
2018-08-20, 13:46:47
Für mich klingst Du gerade wie ein Kunde der seinen PC bei Feinkost Albrecht kauft. Sorry :(
Was hat die Speicherbestückung mit dem Verkaufswert einer Karte zu tun?
Ich ordne Grafikkarten nach Leistungsklassen ein, Du nicht?

Preiselastizität sagt dir was? Es ist egal, wieviel schneller die GPU ist. Ab einem bestimmt Punkt bricht die Nachfrage komplett ein. Schau bei Steam nach: Wieso ist die GTX1070 erfolgreicher als die GTX1080? Der Leistungsunterschied liegt bei 25-30%.

800€ ist das Maximale. Alles darüber ist sprichwörtlich Dead on Arrival. Da müsste die GTX2080TI schon doppelt so schnell sein, um Preise über 1000€ auch nur ansatzweise rechtfertigen zu können.

/edit: Die GTX1080 war rund 30% schneller als die GTX980TI, bot 2GB mehr Speicher, benötigte rund 60W weniger Strom und kostete als FE exakt genauso viel. So ja, das ist der Maßstab an dem sich die GTX2080 messen muss gegenüber der GTX1080TI...

/edit2: Die Titan XP kostete auch $1200, war 30% schneller als die GTX1080 und bot 4GB mehr Speicher. Wieviele haben da gegenüber der GTX1080FE zugeschlagen? Richtig, fünf Leute oder so.

unl34shed
2018-08-20, 13:49:00
hallo? Jeder Silizium Quadratmillimeter wird vom Käufer getragen!

800 mm² --> kosten halt ca. 300€ aufpreis zu einem 400 mm² NUR SILIZIUM KOSTEN!

Also gut 40k€ pro 300mm wafer? Sicher?

Tarkin
2018-08-20, 13:51:02
Preiselastizität sagt dir was? Es ist egal, wieviel schneller die GPU ist. Ab einem bestimmt Punkt bricht die Nachfrage komplett ein. Schau bei Steam nach: Wieso ist die GTX1070 erfolgreicher als die GTX1080? Der Leistungsunterschied liegt bei 25-30%.

800€ ist das Maximale. Alles darüber ist sprichwörtlich Dead on Arrival. Da müsste die GTX2080TI schon doppelt so schnell sein, um Preise über 1000€ auch nur ansatzweise rechtfertigen zu können.

/edit: Die GTX1080 war rund 30% schneller als die GTX980TI, bot 2GB mehr Speicher, benötigte rund 60W weniger Strom und kostete als FE exakt genauso viel. So ja, das ist der Maßstab an dem sich die GTX2080 messen muss gegenüber der GTX1080TI...

Bingo. Für mehr Performance einfach immer noch mehr zu verlangen... das ist verrückt. Technische Güter sollten billiger, und besser werden - nicht besser und immer noch teurer. Sogar Intel ist seit Jahren bei der (halbwegs) gleichen Preisstruktur.

Piefkee
2018-08-20, 13:51:02
https://videocardz.com/77505/zotac-geforce-rtx-2080-ti-amp-edition-to-cost-1199-usd

2080Ti UVP = 1199USD
2080 UVP = 799USD

Kriegsgeier
2018-08-20, 13:52:42
Wieso thematisiert hier keiner die Siliziumfläche als PREISTREIBER?!?!!?!?!?

Im ernst jetzt: was kostet eine 800mm² eines Si-Wafers in 12nm!?

prinz_valium
2018-08-20, 13:53:44
Hier eine gute Grafikkarte für alle, die aufrüsten wollen:
https://www.alternate.de/Palit/GeForce-GTX-1080-DUAL-OC-Grafikkarte/html/product/1330180?zanpid=11731_1534765886_2e49692c0cece68caf40d33eeb5287f9&campaign=AF/DeZanox/Textlinks/Alternate


oder hier wo es sogar die 1080TI für 650€ gab
https://www.mydealz.de/deals/mindfactory-palit-geforce-gtx-1080-ti-gamerock-premium-11gb-gddr5x-dvi-hdmi-3x-dp-neb108th15lcg-1216091



Nvidia is verrückt^^

Daredevil
2018-08-20, 13:53:50
Preiselastizität sagt dir was? Es ist egal, wieviel schneller die GPU ist. Ab einem bestimmt Punkt bricht die Nachfrage komplett ein. Schau bei Steam nach: Wieso ist die GTX1070 erfolgreicher als die GTX1080? Der Leistungsunterschied liegt bei 25-30%.

800€ ist das Maximale. Alles darüber ist sprichwörtlich Dead on Arrival. Da müsste die GTX2080TI schon doppelt so schnell sein, um Preise über 1000€ auch nur ansatzweise rechtfertigen zu können.

/edit: Die GTX1080 war rund 30% schneller als die GTX980TI, bot 2GB mehr Speicher, benötigte rund 60W weniger Strom und kostete als FE exakt genauso viel. So ja, das ist der Maßstab an dem sich die GTX2080 messen muss gegenüber der GTX1080TI...
Du musst aber mal über den Tellerrand schauen, du siehst das große ganze nicht.
980ti auf 1080 war Effizienzsteigerung und Performance Sprung.

Pascal auf Turing besteht nicht nur aus mehr FPS auf dem Bildschirm sondern anscheinend auch aus grundsätzlichen Hardwareänderungen, die die komplette Industrie einen Schritt voran bringen.
Teurer GDDR6, Raytracing, VR Port und neue Hardwareeinheiten auf einem riesigen DIE bei 12nm.
Sowas kann man nicht einfach an den Kunden verschenken und den gleichen Preispunkt wie Pascal bieten oder gar günstiger werden.

ChaosTM
2018-08-20, 13:54:36
1000 Euronen für schlappe 11GB - nö, nicht einmal wenn sie wider Erwarten + 60% drauflegt.
Dann schon eher 1500 für eine mögliche 24er Titan aber die wird/würde dann wohl näher bei 2K liegen.

edit.: wir sind schon bei 1200 - lool

Raff
2018-08-20, 13:55:57
Wieso thematisiert hier keiner die Siliziumfläche als PREISTREIBER?!?!!?!?!?

Im ernst jetzt: was kostet eine 800mm² eines Si-Wafers in 12nm!?

Interessiert den gemeinen Kunden nicht. Der sieht 'nen etwas längeren Balken, denkt "meh" und gammelt weiter mit seiner alten Karte rum.

MfG,
Raff

Troyan
2018-08-20, 13:57:15
Du musst aber mal über den Tellerrand schauen, du siehst das große ganze nicht.
980ti auf 1080 war Effizienzsteigerung und Performance Sprung.

Pascal auf Turing besteht nicht nur aus mehr FPS auf dem Bildschirm sondern anscheinend auch aus grundsätzlichen Hardwareänderungen, die die komplette Industrie einen Schritt voran bringen.
Teurer GDDR6, Raytracing, VR Port und neue Hardwareeinheiten auf einem riesigen DIE bei 12nm.
Sowas kann man nicht einfach an den Kunden verschenken und den gleichen Preispunkt wie Pascal bieten oder gar günstiger werden.

Who cares? Produkte, die auf Zukunft ausgelegt sind und diese mit hohen Preisen sich bezahlen lassen wollen, sind und waren immer zum Scheitern verurteilt. Die Leute wollen HEUTE einen realen Gegenwert haben.

Grendizer
2018-08-20, 13:59:05
Who cares? Produkte, die auf Zukunft ausgelegt sind und diese mit hohen Preisen sich bezahlen lassen wollen, sind und waren immer zum Scheitern verurteilt. Die Leute wollen HEUTE einen realen Gegenwert haben.

Das ist so nicht richtig. Als Beispiel sei Ryzen 1XXX genannt. Das ist auch ein versprechen in die Zukunft gewesen.

Ben Carter
2018-08-20, 13:59:46
Sollte eine 2080 Ti um mehr als 40% schneller sein als eine 1080 Ti (bei beiden die Custom OC Modelle), dann bin ich auch bereit, dafür 1000€ auszugeben. Sollte obendrein dank NVLink SLI gut funktionieren (was ich btw. nicht glaube), dann wäre ich auch bereit, das Geld zweimal zu investieren.

Ist nichts davon der Fall, dann bleibe ich bei meiner jetzigen Karte und warte, was die Zukunft bringt. Glücklicherweise wird die Karte ja nicht langsamer, nur weil es was neues auf dem Markt gibt.

lg Ben

prinz_valium
2018-08-20, 13:59:52
Also ich denke nach heute Abend gibt es 4 Karten, die zu empfehlen sind.
Die 1060 6GB
Die 1080
Die 2070
Die 1080Ti

Das einzig gute ist der nicht mehr vorhandene Mining Boom.
Die Karten könnten also bessere Straßenpreise in ein paar Monaten erwarten.

Daredevil
2018-08-20, 14:00:04
Who cares? Produkte, die auf Zukunft ausgelegt sind und diese mit hohen Preisen sich bezahlen lassen wollen, sind und waren immer zum Scheitern verurteilt. Die Leute wollen HEUTE einen realen Gegenwert haben.
Schau dir Nvidias Quartalszahlen an, dann weißt du, wen das absolut nicht cared. :D
Wenn 2018 immer noch Pascal wie blöde gekauft wird, dann kann man mit Turing nichts falsch machen.... weil letztendlich wird dann halt beides gekauft.
Alte Lager Pascal Karten und neue Turing Karten. Es geht so oder so in die gleiche Tasche. ;)

Ich hol mir jetzt ne Tüte Erdnüsse und Knabberkram und freue mich auf heute Abend. :)
Das könnte besser werden, als einst die iPhone4 Keynote. Megahyyyype!

Bösewicht
2018-08-20, 14:01:58
Interessiert den gemeinen Kunden nicht. Der sieht 'nen etwas längeren Balken, denkt "meh" und gammelt weiter mit seiner alten Karte rum.

MfG,
Raff
finde ich aber min. so interessant wie die speicher größe/preise karten teurer machen.

4 stunden noch :biggrin:

Troyan
2018-08-20, 14:05:47
Ich hol mir jetzt ne Tüte Erdnüsse und Knabberkram und freue mich auf heute Abend. :)
Das könnte besser werden, als einst die iPhone4 Keynote. Megahyyyype!

iPhone 4 war fantastisch. :eek:

Wie gesagt: Das Pfeifkonzert wird man selbst bis nach Kalifornien hören, wenn Huang diese Preise vorstellen sollte.

Rancor
2018-08-20, 14:06:46
Wenn die 2080 so schnell ist wie eine 1080Ti aber nur 8GB hat, mehr Strom braucht und heißer wird und dazu noch teurer ist, wird eine 1080TI gekauft.

Raytracing intressiert mich nicht die nächsten 2 Jahre nicht und danach wird dann eben eine RTX 30x0 Whatever gekauft.

yamo
2018-08-20, 14:07:20
Ach ist das schön. Endlich wieder ein normaler Arbeitstag und der Thread rollt wieder.
Bitte macht weiter so! Diese Diskussionen sind eigentlich das Schönste vor dem release... :popcorn:

Die Bepreisung muß man halt einfach abwarten und jeder muß das für sich dann selbst ausmachen;) Ich persönlich gehe bis 1k€ für ne Ti Ref mit . (+WaKü gibt dann auch wieder 1200€), wenn die Leistung stimmt.
Was mich wundert, ist das NV-Link hier untergeht.
Für mich eine spannende Geschichte. Gemeinsame Nutzung des Ram könnte dann doch auch auf SFR schließen lassen, oder liege ich da falsch? Für VR wäre ein runderneuertes mGPU auch von Vorteil.
Bin extrem gespannt, ob da neben RTX noch was kommt.

Raff
2018-08-20, 14:07:53
iPhone 4 war fantastisch. :eek:

Wie gesagt: Das Pfeifkonzert wird man selbst bis nach Kalifornien hören, wenn Huang diese Preise vorstellen sollte.

Und dennoch würde sich das Ding verkaufen. Allein hier im 3DC kommen gewiss 20 Leute zusammen, die eine RTX 2080 Ti für 1.300 Euro kaufen würden. Vielleicht sogar mehrere Karten pro Person. Nope, ich gehöre nicht dazu. Da lauere ich lieber wieder solange, bis ich unter 800 Euro gebraucht fündig werde, wie bei allen Karten zuvor.

MfG,
Raff

Linmoum
2018-08-20, 14:08:58
Technologischer Fortschritt kostet, genauso wie ein deutlich größerer Chip und in diesem Fall auch noch GDDR6.

Natürlich wird das nicht billig und die aktuell spekulierten Preise passen ziemlich gut unter Berücksichtigung aller Umstände. Auch, wenn das für den Normalo, der einfach nur zocken will, natürlich richtig blöd ist.

MiamiNice
2018-08-20, 14:10:10
Ich hol mir jetzt ne Tüte Erdnüsse und Knabberkram und freue mich auf heute Abend. :)
Das könnte besser werden, als einst die iPhone4 Keynote. Megahyyyype!

Dito, allerdings sind es bei mir saure Schnüre und ein wenig Long Island Iced Tea :)

Ach ist das schön. Endlich wieder ein normaler Arbeitstag und der Thread rollt wieder.
Bitte macht weiter so! Diese Diskussionen sind eigentlich das Schönste vor dem release... :popcorn:

Ich persönlich gehe bis 1k€ für ne Ti Ref mit . (+WaKü gibt dann auch wieder 1200€), wenn die Leistung stimmt.
Was mich wundert, ist das NV-Link hier untergeht.
Für mich eine spannende Geschichte. Gemeinsame Nutzung des Ram könnte dann doch auch auf SFR schließen lassen, oder liege ich da falsch? Für VR wäre ein runderneuertes mGPU auch von Vorteil.
Bin extrem gespannt, ob da neben RTX noch was kommt.

Preislich bin ich auch in dem Bereich unterwegs aber eine 2. Karte gibt es nur wenn VR damit umgehen kann. SLI ist dermaßen sinnfrei anno 2018.

prinz_valium
2018-08-20, 14:17:05
Ich bin einfach nur noch fasziniert, wie Nividia seit der 5XX Generation die Preise immer weiter anheben konnte.

Also als Aktionär ist das wunderbar.
Und das schafft selbst Apple nicht annähernd so gut.

Thunderburne
2018-08-20, 14:19:37
Wenn die Preise stimmen sag ich euch die Karten Founders erreichen 2GHZ Boost daher Doppellüfter.
Wen die Quadri schon 1750 boosten halt ich das für realistisch.
Die neue Ti pakt an die 40% auf die alte drauf.

Matrix316
2018-08-20, 14:19:44
Ich hab ja immer noch die Hoffnung, dass die neue 2080TI nur 750 €, maximal 800 (UVP) kosten wird. Und die 2080 wieder so 599.

Die neue TI auf alte Titan Preise anheben halte ich irgendwie für den falschen Weg.

Kriegsgeier
2018-08-20, 14:20:28
Auf den Folien von ZOTAC steht "Truing" statt Turing

LOL

Ist wohl von NVIDIA so gewollt, dass alle erst mal an hohe Preise glauben und dann kommt RABATT um die Ecke ;) MARKETING halt

MiamiNice
2018-08-20, 14:20:48
Wenn die Preise stimmen sag ich euch die Karten Founders erreichen 2GHZ Boost daher Doppellüfter.

Meine Ref 1080Ti boostet ootb auch mit 2Ghz und hat nur einen Lüfter.

ChaosTM
2018-08-20, 14:21:05
Die Lederjacke wird versuchen, die 1200 (falls wahr) mit dem tollen Raytracing zu rechtfertigen, wovon Spiele frühestens in ein paar Jahren profitieren werden.

Die erste Generation solcher technologisch neuen "Beschleuniger" ist normalerweise eher eine Bremse für die Spiele die sie unterstützen. (S3 Virge, die ersten PhysX Karten (ich vergaß welche das war)

Spannend wird es alle mal.

Raff
2018-08-20, 14:21:34
Meine Ref 1080Ti boostet ootb auch mit 2Ghz und hat nur einen Lüfter.

Tut sie nicht.

MfG,
Raff

PHuV
2018-08-20, 14:24:15
https://videocardz.com/77505/zotac-geforce-rtx-2080-ti-amp-edition-to-cost-1199-usd

2080Ti UVP = 1199USD
2080 UVP = 799USD
Das sind vermutlich sehr realitische Preise, wie wir sie anfangs sehen werden. Und die Karten werden weggehen.
Ich hab ja immer noch die Hoffnung, dass die neue 2080TI nur 750 €, maximal 800 (UVP) kosten wird. Und die 2080 wieder so 599.
Das ist und bleibt einfach unrealistisch, find Dich damit endlich ab. Meine Güte, Du bist doch auch schon lange hier dabei, um von solchen irrealen Schwärmereien geheilt zu sein, oder? ;)

Klevapalis
2018-08-20, 14:25:07
Ich bin einfach nur noch fasziniert, wie Nividia seit der 5XX Generation die Preise immer weiter anheben konnte.
Liegt ja auch daran, dass auch die Leistung entsprechend gesteigert wurde.

Kriegsgeier
2018-08-20, 14:25:56
Leute, 800 mm² sind es, 800mm²! Nichts anderes!

ChaosTM
2018-08-20, 14:26:24
Tut sie nicht.

MfG,
Raff


Die Fools Edition ist wirklich nur für Leute mit Wasser- Ambitionen brauchbar oder für sehr kleine Gehäuse..
Daher ist das neue Layout imho zu begrüßen.

gbm31
2018-08-20, 14:27:37
Tut sie nicht.

MfG,
Raff


:-D

Naja. 2 Sekunden vielleicht...

Schreibt ja nicht jeder ehrlicherweise den Takt nach 10 Minuten Warmfahren hin.

Menace
2018-08-20, 14:29:26
Was regt Ihr euch über die Preise auf? Es ist ein "Luxusmarkt". Die wenigsten brauchten eine Turing-Ti zum Arbeiten. Kauft oder lasst es. Kaufen zu wenige, wird der Preis gesenkt; ansonsten bleibt er dort. Etwas mehr coolness bitte. :smile:

Vielleicht hat nVidia soviel nicht perfekte GPUs, dass zu Beginn eine 2070 sowieso der wichtigste Markt ist. Ein paar der "guten" GPUs wandern zur Ti.

Chris Lux
2018-08-20, 14:30:07
Erinnert mich an die GeForce 2 Ultra, welche damals auch mit 1200-1400DM verkauft wurde.

SKYNET
2018-08-20, 14:31:38
Ich ordne Grafikkarten nach Leistungsklassen ein, Du nicht?

was bringt die die "schiere" power wenn du dank zuwenig speicher ausgebremst wirst? "oh toll, fast die Leistung einer 1080Ti" :eek: "oh mist, leider ruckelts immer trotz eigentlich guter frames" :frown: X-D :ulol:


ich weiss schon warum ich jetzt wo alle panikmässig ihre 1080/1080Ti verkaufen zugeschlagen habe, weil nach der presi gibt es die fett langen fressen und die preise gehen wieder hoch ;D

Raff
2018-08-20, 14:32:30
Erinnert mich an die GeForce 2 Ultra, welche damals auch mit 1200-1400DM verkauft wurde.

Das war aber Old-Tech, ineffizient wie Hölle und ohne neue Features (+13,37 Prozent Leistung ist kein Feature). Die später erschienene GeForce 3 aka NV20 könnte man eher mit Turing vergleichen. Die wurde anfangs etwas belächelt, weil sie unter 16 Bit der GF2U oft unterlag, war aber ansonsten in jeder Hinsicht das geilere Produkt.

MfG,
Raff

r3ptil3
2018-08-20, 14:32:45
Ich tippe auf:

529: 2070 (knapp unter 1080 TI)
649: 2080 (leicht über 1080 TI)
799: 2080 TI (50%+ über 1080 TI)

MiamiNice
2018-08-20, 14:34:04
Ich tippe auf:

529: 2070 (knapp unter 1080 TI)
649: 2080 (leicht über 1080 TI)
799: 2080 TI (50%+ über 1080 TI)

Das klingt imo zu günstig :mad:

Korvaun
2018-08-20, 14:34:52
https://videocardz.com/77505/zotac-geforce-rtx-2080-ti-amp-edition-to-cost-1199-usd

2080Ti UVP = 1199USD
2080 UVP = 799USD

Also wenn das die Preise sind dann: NOPE!, bleibe bei meiner 1080 Custom bis 7nm Gen...

gbm31
2018-08-20, 14:38:21
Das war aber Old-Tech, ineffizient wie Hölle und ohne neue Features (+13,37 Prozent Leistung ist kein Feature). Die später erschienene GeForce 3 aka NV20 könnte man eher mit Turing vergleichen. Die wurde anfangs etwas belächelt, weil sie unter 16 Bit der GF2U oft unterlag, war aber ansonsten in jeder Hinsicht das geilere Produkt.

MfG,
Raff


Und bis die Features der neuen DX Version wirklich genutzt wurden, war sie zu langsam (unter GF3 Ti200) und jeder begeisterte hatte eine Ti500 mit 64GB.

TurricanM3
2018-08-20, 14:41:20
Ich bin gespannt ob vielleicht endlich mal bessere Bauteile verbaut wurden. Die Spulen sind bei mir schon seit Jahren das lauteste.

w0mbat
2018-08-20, 14:42:47
Das klingt imo zu günstig :mad:

Außerdem zu wenig Abstand. MSRP der custom 1070 war $379, für die 1080 $549. Das sind $170 Unterschied.

SKYNET
2018-08-20, 14:43:15
Und bis die Features der neuen DX Version wirklich genutzt wurden, war sie zu langsam (unter GF3 Ti200) und jeder begeisterte hatte eine Ti500 mit 64GB.

du meinst 64MB X-D

Adam D.
2018-08-20, 14:43:31
Also wenn das die Preise sind dann: NOPE!, bleibe bei meiner 1080 Custom bis 7nm Gen...
400$ Differenz zwischen den beiden? Kann ich mir nicht vorstellen... Aber 699/999 werden es bestimmt.

SKYNET
2018-08-20, 14:44:34
Außerdem zu wenig Abstand. MSRP der custom 1070 war $379, für die 1080 $549. Das sind $170 Unterschied.

man kann sich schön an zotac orientieren, die AMP waren im schnitt immer 200 taler teurer als die FE modelle….

heisst die 2080Ti FE dürfte +/- UVP $999 sein

prinz_valium
2018-08-20, 14:44:34
Ich gehe von $499 für gute custom 2070 aus.

Leonidas
2018-08-20, 14:45:04
Erinnert mich an die GeForce 2 Ultra, welche damals auch mit 1200-1400DM verkauft wurde.


Ich oute mich mal: ... unter anderem an mich.

SKYNET
2018-08-20, 14:47:23
Ich oute mich mal: ... unter anderem an mich.

dito, wer hatte die nicht? ;D

ChaosTM
2018-08-20, 14:47:52
Die GF2 Ultra hat mich damals dazu bewogen mir die ATI Karten mal genauer anzuschauen :)

Der_Korken
2018-08-20, 14:49:57
Ich tippe auf:

529: 2070 (knapp unter 1080 TI)
649: 2080 (leicht über 1080 TI)
799: 2080 TI (50%+ über 1080 TI)

Stellvertretend mal den Post zitiert: Müsste der Abstand zwischen 2080 und 2080Ti nicht viel größer sein? Letztere hat fast +50% Recheneinheiten (durch geringeren Takt natürlich weniger, wie bei den letzten zwei Gens) und +37,5% Bandbreite und Speicher. 30% Mehrperformance sollte man also erwarten können. Und da das P/L-Verhältnis normalerweise nach oben hin immer schlechter wird, würde ich die 2080Ti preislich eher 40% über der non-Ti sehen. Also z.B. 700/1000$ oder 600/850$ für 2080/Ti.

Raff
2018-08-20, 14:51:49
Ich oute mich mal: ... unter anderem an mich.

dito, wer hatte die nicht? ;D

Ernsthaft? Und ihr wundert euch, dass damals alle außer Nvidia tot den Bach runtertrieben sind? ;)

MfG,
Raff

Dural
2018-08-20, 14:52:04
Eine GF2Ultra habe ich da, die hatte doch jeder ;) Habe damals sogar "aufgerüstet" von der GF2 ;)

Ich tippe auf:
2080 649.-
2080 Ti 899.-

Troyan
2018-08-20, 14:53:10
Stellvertretend mal den Post zitiert: Müsste der Abstand zwischen 2080 und 2080Ti nicht viel größer sein? Letztere hat fast +50% Recheneinheiten (durch geringeren Takt natürlich weniger, wie bei den letzten zwei Gens) und +37,5% Bandbreite und Speicher. 30% Mehrperformance sollte man also erwarten können. Und da das P/L-Verhältnis normalerweise nach oben hin immer schlechter wird, würde ich die 2080Ti preislich eher 40% über der non-Ti sehen. Also z.B. 700/1000$ oder 600/850$ für 2080/Ti.

Nö, Preiselastizität. GTX1080FE ist $549, Preis der GTX1080TI ist $699.

Gipsel
2018-08-20, 14:57:48
So, mal die letzten paar Seiten etwas aufgeräumt. Noch wurden keine Sperren verteilt. Aber falls das wieder so weiter geht wie vorher, könnte das für Einige bedeuten, die Vorstellung der Karten während einer Pause vom Forum zu erleben. Und dann wird mit dem groben Besen gekehrt, den nicht interessiert, wer mit Flames angefangen hat. Also am besten nicht auf Flames reagieren und nur melden. Ansonsten: Wer zurückflamed wird genau so gesperrt. Ich hoffe die Warnung ist klar genug.

Und nochmal zur Erinnerung:
Flames sind keine geeigneten Argumente in einer Diskussion. Und bleibt bitte auch beim Thema der kommenden Turing-Karten!

Danke.

Ex3cut3r
2018-08-20, 15:23:59
Gleich gehts los: https://www.nvidia.com/de-de/

Ich bin so aufgeregt. ;D

Linmoum
2018-08-20, 15:26:33
Von inno3d (hatten wir das schon?) gibt's auch noch was.

http://www.inno3d.com/products_detail.php?refid=374

Digidi
2018-08-20, 15:28:22
Nvidia verkauft die rtx 8000 für 10.000 Dollar, der gp100 der noch nicht mal einen Desktopabeger hatte kostet 7000 Euro zum Start, gv100 kostete 9000 zum Start. Macht euch auf Hammer Preise gefasst. 2080ti auf jedenfalls 999 oder sogar mehr.

ChaosTM
2018-08-20, 15:28:53
Nettes Kärtchen..

SKYNET
2018-08-20, 15:31:03
Von inno3d (hatten wir das schon?) gibt's auch noch was.

http://www.inno3d.com/products_detail.php?refid=374


hatten die 1080Ti nicht nur nen 120er Radiator hängen? würde ja für deutlich mehr wärmeabgabe sprechen seitens der 2080Ti

Screemer
2018-08-20, 15:31:41
Von inno3d (hatten wir das schon?) gibt's auch noch was.

http://www.inno3d.com/products_detail.php?refid=374
die erste ichill karte mit 240mm radiator. davor gab's immer nur 120er, wenn ich mich richtig erinnere. kann natürlich auch einfach auf niedrigere temps abzielen. auf jeden fall ein chickes kärtchen.

Bösewicht
2018-08-20, 15:33:20
Gleich gehts los: https://www.nvidia.com/de-de/

Ich bin so aufgeregt. ;D
:biggrin:
raTts-iGixU

Raff
2018-08-20, 15:33:22
Nettes Kärtchen..

Yep, dürfte zum Besten gehören, was man ab Werk kriegt. Denn wenn Turing genauso boostet wie seine Vorgänger, helfen niedrige Temperaturen, den Buust aufrechtzuerhalten.

MfG,
Raff

Troyan
2018-08-20, 15:33:54
Laut den Specsheets sind es 600W und 550W als Netzteil-Empfehlung. Stromverbrauch ist im Grunde identisch.

dildo4u
2018-08-20, 15:35:09
Nich vergessen 30 Watt sind für den VR Port,also nich wundern wenn das TDP 210 und 280 ist.

Screemer
2018-08-20, 15:37:47
Nich vergessen 30 Watt sind für den VR Port,also nich wundern wenn das TDP 210 und 280 ist.
ich bin davon überzeugt, dass die sind niemals im powerbudget des chips eingerechnet sind. das wird 100% über eigene vrms realisiert und haben mit der leistungsaufnahme des chips gar nix am hut.

w0mbat
2018-08-20, 15:40:18
Ein Problem das ich sehe ist die breite Fächerung der features. Ich brauche keinen VR port und RT interessiert mich erstmal auch nicht. Wenn die Karten jetzt durch features, die ich nicht benötige, so viel teuter werden, dann hält mich das vom Kauf ab.

Bis es wirklich einige RT Spiele gibt, die nicht nur Spielerei sind, würde ich gerne weniger für die gleiche Karte, aber ohne den ganzen extra Kram zahlen. Nvidia fragt sich ja nicht nur, wie teuer können wir unsere Karten anbieten, sondern auch, wie bekommen wir viele Kunden.

GTR 2080 Leistung aber ohne RT und VR port aka GTX 2080 zB, für ca. 100€ weniger, wäre für mich sehr ansprechend. Bestimmt auch mit weniger Verbrauch. Die Frage ist halt, ob es genug teildefekte Dies gibt, damit sich das überhaupt lohnt.

Troyan
2018-08-20, 15:41:47
ich bin davon überzeugt, dass die sind niemals im powerbudget des chips eingerechnet sind. das wird 100% über eigene vrms realisiert und haben mit der leistungsaufnahme des chips gar nix am hut.

nVidias Powerlimit ist immer die komplette Stromaufnahme der Karte. Deswegen zählt der VR-Port mit bis zu 27W auch dazu.

ChaosTM
2018-08-20, 15:44:06
Gut das das neue Define 6 zur Not Platz für 3 Radiatoren mit bis zu 480mm hat. Bei 16+ GB könnte ich mich wahrscheinlich nicht beherrschen.
Ganz hab ich die Hoffnung auf mehr Speicher aber noch nicht aufgegeben. Wenn jetzt schon 2080 und TI gleichzeitig erscheinen, könnte vielleicht im Winter noch eine TI Ultra mit zb. 16Gb kommen, um 1500 Euronen, gefolgt von der Titan mit 24Gb um 2k.

Der_Korken
2018-08-20, 15:49:01
Nö, Preiselastizität. GTX1080FE ist $549, Preis der GTX1080TI ist $699.

Die Straßenpreise lagen aber weiter auseinander. Eher so 500€ vs 700€ als die Ti eingeführt wurde (+Aufschläge für die guten Customs). Wie gesagt: Solange ich den HW-Markt verfolge, war das P/L-Verhältnis der teureren Karte einer Serie nie besser. Für Highend musste man immer zahlen. Die 2080 würde sonst auch viel zu schlecht dastehen, da sie durch die 2070 und 2080Ti von zwei Karten mit besserem P/L-Verhältnis eingekreist wäre.

Aber gut, heute Abend hat sich die Raterei vielleicht (bzw. hoffentlich) erübrigt :D.

Screemer
2018-08-20, 15:52:28
nVidias Powerlimit ist immer die komplette Stromaufnahme der Karte. Deswegen zählt der VR-Port mit bis zu 27W auch dazu.
wir werden sehen. mich würde gegenteiliges nicht überraschen.

Geächteter
2018-08-20, 15:55:32
Die Lederjacke wird versuchen, die 1200 (falls wahr) mit dem tollen Raytracing zu rechtfertigen, wovon Spiele frühestens in ein paar Jahren profitieren werden.

Denke, da werden schon bald paar Spielereien erfolgen. Das Ganze mit Raytracing könnte durch die Not geboren sein, die Spiele haben schon ne recht hohe Weitsicht, mehr Geometrie und Wechselwirkungen in der Ferne sind dank an die Grenze gekommener CPUs nicht mehr drin. Multi-CPU hilft da wohl nur sehr bedingt bis gar nicht. Gleichzeitig kotzen die Spielehersteller bei der Erstellung von Content wegen Kosten ab. Evtl. hilft da Raytracing, auf jeden Fall bekommen die Spiele einen neuen besseren/ungewohnten Look, wenn man sich wohl mehr auf Schläuche und Schuhkartonlevels wegen Performance beschränken muss.

Digidi
2018-08-20, 15:57:39
1350 Euro für die Ti
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Zotac-Preise-zu-Geforce-RTX-2080-Ti-geleaked-und-sportlich-1263209/
:eek::eek::eek:

Klevapalis
2018-08-20, 15:57:55
wir werden sehen. mich würde gegenteiliges nicht überraschen.
Natürlich würde dich das nicht überraschen, aber es ergibt keinen Sinn. NVIDIA gibt immer schon die gesamte Boardpower an und lag damit immer 100%ig richtig. Heißt, wo 180W drauf stehen, werden auch maximal 180W aufgenommen.

Das ganze Gefake in dem Bereich betreibt ja AMD, NVIDIA ist hier vorbildlich. Und so macht Troyans Aussage auch total Sinn.

dildo4u
2018-08-20, 15:58:28
Der Chip hat fast die größe der TitanV,die Preise machen Sinn wenn die 2080 Ti in dem Bereich ist was Gameing Leistung angeht.

Mortalvision
2018-08-20, 16:00:56
1350 Euro für die Ti
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Zotac-Preise-zu-Geforce-RTX-2080-Ti-geleaked-und-sportlich-1263209/
:eek::eek::eek:
Schade, dafür wäre es mir deutlich zu wenig Speicher. Bei 22GB hätte ich mit dem Kopf genickt...

Ex3cut3r
2018-08-20, 16:01:20
1350 Euro für die Ti
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Zotac-Preise-zu-Geforce-RTX-2080-Ti-geleaked-und-sportlich-1263209/
:eek::eek::eek:

:mad:
Dann wirds wohl "nur" eine RTX 2080 bei mir.

Troyan
2018-08-20, 16:02:01
wir werden sehen. mich würde gegenteiliges nicht überraschen.

nVidia zählt sogar den Verbrauch des Lüfters mit ins Budget.

ChaosTM
2018-08-20, 16:02:23
Schade, dafür wäre es mir deutlich zu wenig Speicher. Bei 22GB hätte ich mit dem Kopf genickt...


So isses

Linmoum
2018-08-20, 16:03:09
Natürlich würde dich das nicht überraschen, aber es ergibt keinen Sinn. NVIDIA gibt immer schon die gesamte Boardpower an und lag damit immer 100%ig richtig. Heißt, wo 180W drauf stehen, werden auch maximal 180W aufgenommen.
Ergibt keinen Sinn, wenn die Gerüchte stimmen, dass die 2080ti FE 250W bei 2x8Pin hat. Die 1080ti hatte 250W aber nur je 1x6/8Pin.

Das wird schon seinen Grund haben.

Tesseract
2018-08-20, 16:03:50
wir werden sehen. mich würde gegenteiliges nicht überraschen.

nvidia hat seit vielen jahren auf allen karten hinter jedem power connector einen shunt der genau misst was da an strom durchgeht. der angezeigte verbrauch ist immer die ganze karte, inkl. allen VRMs, den lüftern usw. und natürlich wird das bei der nächsten generation auch wieder so sein. warum AMD das nicht so macht versteht keiner, die kostenersparnis liegt wahrscheinlich im niedrigen einstelligen bereich.

Screemer
2018-08-20, 16:06:21
Natürlich würde dich das nicht überraschen, aber es ergibt keinen Sinn. NVIDIA gibt immer schon die gesamte Boardpower an und lag damit immer 100%ig richtig. Heißt, wo 180W drauf stehen, werden auch maximal 180W aufgenommen.

Das ganze Gefake in dem Bereich betreibt ja AMD, NVIDIA ist hier vorbildlich. Und so macht Troyans Aussage auch total Sinn.
es gab bisher noch nie einen display ausgang der soviel leistung zur verfügung gestellt hat. nur mal als kleiner denkanstoß. vielleicht auch noch mal nen blick zurück zur 9xx gernation (https://www.3dcenter.org/artikel/stromverbrauch-aktueller-und-vergangener-grafikkarten) werfen. amd die bösen finger.

@tesserect: das hat aber nichts mit den angaben bzgl. tdp oder "Maximum Graphics Card Power (W)" wie es nvidia in den specs nennt zu tun und dem tatsächlichen verbrauch zu tun. was das angeht sind beide hersteller keine unbeschriebenen blätter (siehe oben). würde nv die 27w für virtuallink in die tdp mit einrechnen und die karten ohne vl-hardware diese ausreizen, dann stünden mit vl-headset plötzlich 10-15% weniger powerbudget zur verfügung. ich lege mich schlicht nicht fest, so wie das andere hier tun und tue so als wüsste ich wie es wirklich ist.

Troyan
2018-08-20, 16:10:17
Keine Triangles mehr :(

https://i.redd.it/9a0si5a899h11.jpg

dargo
2018-08-20, 16:10:25
Von inno3d (hatten wir das schon?) gibt's auch noch was.

http://www.inno3d.com/products_detail.php?refid=374
Nvidia braucht kein Wasser. :D Spaß... wird sicherlich schön leise und kühl sein.

dildo4u
2018-08-20, 16:11:27
https://pbs.twimg.com/media/DlDFoJNXcAACOGm.jpg:large

https://twitter.com/VideoCardz

ChaosTM
2018-08-20, 16:13:56
Die Abkehr von der Fön - Architektur lässt auf etwas mehr Abwärme schließen. Denk ich mal

MiamiNice
2018-08-20, 16:14:02
Von inno3d (hatten wir das schon?) gibt's auch noch was.

http://www.inno3d.com/products_detail.php?refid=374

Was soll das den sein :biggrin:
Süßer Radi für ne GPU :biggrin:;D:freak:

Klevapalis
2018-08-20, 16:14:30
Ergibt keinen Sinn, wenn die Gerüchte stimmen, dass die 2080ti FE 250W bei 2x8Pin hat. Die 1080ti hatte 250W aber nur je 1x6/8Pin.
Ergibt doch super Sinn, wenn die Karte ohne Nutzung von VirtualLink 250W Leistungsaufnahme hat, aber eben noch potentiell die 27W liefern können muss - dann wären 6+8-PIN eben zu wenig.

r3ptil3
2018-08-20, 16:15:24
Die Abkehr von der Fön - Architektur lässt auf etwas mehr Abwärme schließen. Denk ich mal

Von mir aus darf die so viel Abwärme bringen wie sie will, wenn die Leistung alle überrascht... :)

Matrix316
2018-08-20, 16:15:31
Das sind vermutlich sehr realitische Preise, wie wir sie anfangs sehen werden. Und die Karten werden weggehen.

Das ist und bleibt einfach unrealistisch, find Dich damit endlich ab. Meine Güte, Du bist doch auch schon lange hier dabei, um von solchen irrealen Schwärmereien geheilt zu sein, oder? ;)

Also ich habe jeweils ein paar Monate nach Release ca. 750 € für eine 980TI und für die 1080TI bezahlt. Und jetzt erwarte ich eigentlich das gleiche.

Ok, beim letzten Mal, war die 1080 früher da und hat so viel gekostet, aber als die 1080TI dann kam, wurde die 1080 auch billiger.

Es war eigentlich bei PC Hardware schon immer so, dass neue Hardware zwar schneller, aber nicht unbedingt teurer wurde, sondern man einfach auch billiger herstellen kann und der Vorgänger jeweils abgelöst wird.

Zum Beispiel kostet ein Ryzen 2700X auch wesentlich weniger als ein 1800X, obwohl er schneller ist.

Das mit dem Raytracing habe ich auch nicht so ganz verstanden. Früher hat man das in Spielen (z.B. Myst) verwendet, weil 3D noch nicht leistungsfähig genug war.;)

MiamiNice
2018-08-20, 16:18:23
https://abload.de/img/lalarqi1f.png

Ich wäre mir mit der gestiegenen Leistungsaufnahme noch nicht ganz so sicher. Scheint wenn minimal zu sein.

dargo
2018-08-20, 16:19:09
Laut den Specsheets sind es 600W und 550W als Netzteil-Empfehlung. Stromverbrauch ist im Grunde identisch.
Bei Galax stehen 650W.
https://videocardz.com/77502/galaxy-confirm-geforce-rtx-2080-ti-and-geforce-rtx-2080-specifications

X-Bow
2018-08-20, 16:20:07
Da ja auch die Pascal-Quadros im Programm bleiben könnten doch die RTX einfach nur Parallel zu den GTX 10er kommen.
Spricht da was dagegen?

dildo4u
2018-08-20, 16:20:14
650 für Beide die Angaben kann man vergessen.

Klevapalis
2018-08-20, 16:20:22
250W TDP auch für die GTX1080Ti.

RoughNeck
2018-08-20, 16:20:23
Für einen Dual Radi sind 62° aber auch nicht wenig.
Gut wir wissen nicht wie schnell da die Lüfter drehen aber ich hätte mit max. 50° gerechnet.

ChaosTM
2018-08-20, 16:21:08
Ich hab die 980ti kurzzeitig mit einem (sehr guten) 400 Watt Netzteilbetrieben. OC war aber nicht mehr..

HOT
2018-08-20, 16:22:22
Bei den Chipgrößen war ja klar, dass die Preise gesalzen sind, aber das ist für die gebotene Speichermenge schlichtweg ne Frechheit. Zudem fängt dann ja RT wahrscheinlich mit der 2070 erst an im Lineup, das bedeutet bei 600 Piepen, wenn man das jetzt so betrachtet, also ist RT eh nur für einen winzigen Marktanteil überhaupt erschwinglich. Ich seh schwarz bei einer schnellen Durchsetzung der Technologie. Da gibts sicher ein paar Leuchtturmprojekte, das wars dann aber auch.

Dennoch darf man sich dabei nicht vertun, das ist vergleichbar mit der Einführung der Voodoo Graphics damals, aber auch nur zum Teil, der Wow-Effekt war damals größer und die Preise niedriger.
Langfristig wird sich RT sicherlich durchsetzen als Beleuchtungs-, Spieglungs- und Schattentechnologie, weil der Effekt einfach ideal ist. Aber man braucht sich nicht der Illusion hingeben, dass man jetzt plötzlich dauernd von der neuen Hardware profitieren wird.
Nichtsdestotrotz ist die Hardware interessant und seit langer Zeit endlich mal eine mutige Bereicherung für den Markt. Bei der nächsten Generation werden wir mMn allerdings schon eine deutliche Effizienzsteigerung bei der Integration der RT-Technologie sehen, es kommt endlich wieder zu einer richtigen Hardwarentwicklung für die nächsten 5-10 Jahre, was sehr schön ist.

monstar-x
2018-08-20, 16:23:09
Erinnert mich an die GeForce 2 Ultra, welche damals auch mit 1200-1400DM verkauft wurde.

Ich habe damals 1500 für meine GeForce 3 von Asus hingelegt :cool:

Digidi
2018-08-20, 16:23:39
Da ja auch die Pascal-Quadros im Programm bleiben könnten doch die RTX einfach nur Parallel zu den GTX 10er kommen.
Spricht da was dagegen?
Ich fürchte das ist der Versuch Nvidia eine teure Premium Marke zu etablieren. Bald kosten gpu für gamers 2000-5000 Euro.

Tesseract
2018-08-20, 16:24:32
würde nv die 27w für virtuallink in die tdp mit einrechnen und die karten ohne vl-hardware diese ausreizen, dann stünden mit vl-headset plötzlich 10-15% weniger powerbudget zur verfügung.

werden sie sicher nicht da die ja auch nicht für die karte sind und nicht weggekühlt werden müssen, aber gemessen werden sie wahrscheinlich trotzdem auch, schon allein weil der verlust der VRM am board sehr wohl wärme erzeugt.

dargo
2018-08-20, 16:26:11
650 für Beide die Angaben kann man vergessen.
Als ob die Netzteilangaben je stimmen würden. :rolleyes: Bei einer Custom Vega64 werden 750W Netzteile von der Partnern empfohlen. Mein 580W NT lacht darüber, auch ohne UV.

Erbsenkönig
2018-08-20, 16:27:42
Wird also Zeit für ne staatliche Abwrackprämie.:D

Troyan
2018-08-20, 16:28:20
werden sie sicher nicht da die ja auch nicht für die karte sind und nicht weggekühlt werden müssen, aber gemessen werden sie wahrscheinlich trotzdem auch.

Die Karten kommen entsprechend auch mit PIN-Bestückung. Übertaktung spielt ja heute ebenfalls noch eine Rolle. So kann man 225W für Karte ohne VL erlauben und gleichzeitig die 27W weiterhin zur Verfügung stellen können.

Ex3cut3r
2018-08-20, 16:28:38
Als ob die Netzteilangaben je stimmen würden. :rolleyes: Bei einer Custom Vega64 werden 750W Netzteile von der Partnern empfohlen. Mein 580W NT lacht darüber, auch ohne UV.

Warum postet du Sie dann?

Ich denke man weiß langsam, dass diese Netzteil Empfehlungen deswegen so hoch sind, damit auch die billigsten Netzteile einigermaßen mit der Stromversorung klar kommen, ein 500 bis 550W Markennetzeil sollte wie immer reichen.

ChaosTM
2018-08-20, 16:34:47
Fast alle Custom 1080Ti`s haben 2 8er Stecker...

75-80% vom Threadripper schlafen sowieso in Games.

Das stimmt auch wieder..

Freestaler
2018-08-20, 16:35:26
...

TDP -> 250W
MGCP -> 280W

Die 27W des Virtuallink werden ja auch vom Board aufgenommen, daher gibt es 2x8-Pin (=300W), weil 6+8-Pin (=225W) zu knapp wäre.

Die 250W PowerBudget für den Chip+Speicher bleiben also bei 250W wie auch bei der 1080Ti.


*Hust* deine Werte stimmen nicht.

6x Pin stecker -> max 75W
8x Pin stecker -> max 150W
PCI-E -> max 75 (bzw. 60W)

Macht also 300 W max bei pci-e & 6 pin & 8 Pin oder 375 W bei pci-e mit 2 x 8 Pin, natürlich immer für die ganze Karte/alle Verbraucher.

Dural
2018-08-20, 16:36:45
Leute der Die ist rund 60% grösser geworden, da ist es nur logisch das die Karte, vor allem beim OC deutlich mehr ziehen wird.

NV kann auch nicht zaubern. :rolleyes:

w0mbat
2018-08-20, 16:37:17
Wenn Nvidia den Markt wirklich erobern will, machen sie folgendes:

2070 = $349
2080 = $499
2080Ti = $699

Dann hat in einem Jahr wirklich jeder ne Nvidia :D Naja, noch 1,5 Std., dann wissen wir mehr!

Troyan
2018-08-20, 16:38:03
Naja, nicht alle der 60% zusätzlichen Transistoren können gleichzeitig aktiv sein.