Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
matty2580
2018-08-11, 01:13:27
Bei News von wccftech sollte man immer vorsichtig sein, bei den vielen Fake-News der letzten Jahre dort. Allein das die neue Gen sich beim V-Ram teilweise zurück entwickelt klingt etwas unglaubwürdig.
=Floi=
2018-08-11, 02:49:04
Zudem hatten wir das Thema schon tausend mal. Ein schneller GDDR6 kostet fast doppelt soviel wie GDDR5X früher. Irgendeinen Tod muss Nvidia sterben, die "perfekte" Karte kann es vielleicht ja auch aktuell einfach nicht geben, egal bei wem.
er kostet aktuell gleich viel an der speicher börse. Hatten wir erst vor kurzen und es gibt ne 3d center news dazu. Der _aktuelle_ preisunterschied ist zu vernachlässigen.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-11-juli-2018
Aktuelle preise sind fast gleich.
Turing könnte auch wegen HBM2 nötig geworden sein. Volta --> HBM2
Daredevil
2018-08-11, 06:24:10
Die aktuellen Preise sind aber doch völlig irrelevant. Pascal wird ja nicht aktuell gebaut, sondern wurde vor zwei Jahren released zu einem entsprechenden UVP mit Speicherpreisen ist der Kalkulation von eben vor zwei Jahren. Und dieser Preis war deutlich niedriger, als er das heute ist, wenn man schnellen GDDR6 verbauen möchte.
Ich beschwer mich ja auch nicht, dass früher ein 1GB Riegel DDR2 über 100€ gekostet hat, weil man ja heute locker 8GB DDR4 für 70€ bekommt. :D
Völlig andere Zeiten.
OgrEGT
2018-08-11, 09:51:59
Gab es bei den Pascal Karten nicht auch 5Gb Versionen fürs Mining?
Troyan
2018-08-11, 10:28:35
Und für China - die GTX1060 5GB.
Aber es ist absurd zu denken, dass nVidia bei den Nachfolgerprodukten den Speicher reduziert.
Thunder99
2018-08-11, 10:46:49
Gab es bei den Pascal Karten nicht auch 5Gb Versionen fürs Mining?
Ja, eine 1080Ti nur für das Mining
Leonidas
2018-08-11, 10:54:41
Was ich daran aber immer noch merkwürdig finde, ist, dass die Tensor Cores dann erstmal länger den Enthusiasten vorbehalten bleiben, was der Verbreitung der Technologie eindeutig im Weg stehen dürfte.
Das läßt sich sogar erklären: Kleinere Karten würden weniger Tensor-Cores bedeuten, weil man erst in späteren Generationen mehr RayTracing-Power verbauen wird. Ergo würden sich kleinere Karten mit wenig Tensor-Cores derzeit kaum sinnvoll nutzen lassen, deren RayTracing-Power ist zu gering.
Das Problem gab es ja auch früher schon, als neue Generationen ein neues Feature durchgängig mitbrachten - und die kleineren Karten viel zu langsam waren, um dies nutzen zu können. Ergo ist es nicht schlimm, das in dieser allerersten Generation die Tensor-Cores bei den kleineren Angeboten fehlen.
Sunrise
2018-08-11, 11:52:34
Ich erwarte von der Titan RTX - falls eine kommt - nicht viel mehr als von der Titan V.
Früher war es eine Dual-GPU der vorherigen Generation, heute sind es die Profikarten, die das erreichbare vorgeben, insofern ist das schon richtig. NV wird keine Gaming-GPUs bringen, die schneller sind als ihre HPC-Karten sind, da die immer ans Limit gehen und das entsprechende kosten. Für Spieler vollkommen außer Konkurrenz.
Troyan
2018-08-11, 12:03:07
Klar, deswegen war die GTX1080 auch nicht schneller als die Titan X mit Maxwell und die GTX1080TI nicht schneller als die erste Titan XP.
Sunrise
2018-08-11, 12:15:47
Klar, deswegen war die GTX1080 auch nicht schneller als die Titan X mit Maxwell und die GTX1080TI nicht schneller als die erste Titan XP.
Wenn du verstanden hättest was Profi- bzw. HPC-GPUs sind, würdest du das nicht schreiben.
Felis silvestris
2018-08-11, 12:15:58
Es kommt halt darauf an. Innerhalb einer Generation stimmt das schon ungefähr was Sunrise sagt. Wenn die neuen GPUs wirklich GV102 und GV104 heißen dann werden sie bei Gaming nicht schneller herauskommen wie GV100. GP102 ist auch nicht schneller als GP100. Unanhängig wie das Kind dann genannt wird ob Turing, Ampere, Beethoven oder Karl-Heinz. Die Frage ist halt ob und wie sich die Architektur verändert hat.
Troyan
2018-08-11, 12:21:11
Wenn du verstanden hättest was Profi- bzw. HPC-GPUs sind, würdest du das nicht schreiben.
Da es noch keine Gaming-GPUs gibt, die genauso groß sind wie Profi- bzw. HPC-GPUs, ist deine Aussage eben einfach falsch. Fakt ist, dass GP102 gleichschnell oder sogar schneller in Spielen ist als GP100.
Außerdem war Titan X/GTX980TI schneller als die Quadro-GK100 Karte. Hätte es ja auch nicht geben dürfen.
Sunrise
2018-08-11, 12:29:21
Es kommt halt darauf an. Innerhalb einer Generation stimmt das schon ungefähr was Sunrise sagt. Wenn die neuen GPUs wirklich GV102 und GV104 heißen dann werden sie bei Gaming nicht schneller herauskommen wie GV100. GP102 ist auch nicht schneller als GP100. Unanhängig wie das Kind dann genannt wird ob Turing, Ampere, Beethoven oder Karl-Heinz. Die Frage ist halt ob und wie sich die Architektur verändert hat.
Richtig, so wars gemeint.
Effizienter wirds sicherlich werden, aber durch die Bank schneller als GV100 ist einfach unrealistisch bei dem gigantischen Die mit identischem Fertigungsprozess. Durch die neue Clockdomain bzw. dem neuen Clocking-Verhalten gleicht man in etwa die viel größere Fläche (mehr Einheiten) von GV100 aus, ebenso GDDR6 vs. schnellem HBM2, aber schneller? Dafür müssten noch deutlich mehr Neuerungen kommen und ich schätze Turing eher als Zwischenstation zu den 7nm-GPUs ein.
Korvaun
2018-08-11, 15:07:39
Vielleicht gibts ja ne superduper neue Speicherkompression bei der dann 7GB effektiv wie 11GB sind, läuft dann unterstützt von den neuen Tensor-Cores damit die immer ordentlich was zu tun haben ;)
horn 12
2018-08-11, 15:19:57
Turing wird wohl nur eine Übergangslösung sein, bis das 7nm Fertigungsverfahren gereift sein wird.
EinName
2018-08-11, 15:31:35
Wie stehen eigentlich die Chancen, dass Turing Freesync kann? Wäre für mich der einzige Grund endlich mal von FullHD 144hz zu wechseln und bei Turing auch zuzuschlagen, Austausch von GPU und Monitor. Ich mag aber nicht für den 27" Moni 700 Euro zahlen und dann Lotterie haben ob der auch ein gutes Bild hat...
vinacis_vivids
2018-08-11, 15:34:07
Nvidia und FreeSync? 🙈
Ist wie das Warten auf dem HDR und DX12 Treiber. Da sind 5GB und 7GB realistischer 👌
EinName
2018-08-11, 15:40:05
Da die ganzen neuen TV das alle per Vesa Standard können hat NV gar keine andere Wahl. Die Frage ist nur mit welchen Gen es kommt.
Edit: Und ich will halt, gutes Produkt und ich kauf. STFU and take my money.
matty2580
2018-08-11, 15:41:12
Als ob das Nvidia interessiert das viele neuen TVs lieber auf Free Sync setzen.
Die ziehen ihr G-Sync Ding durch, und verkaufen lieber Monitore mit G-Sync, IPS, und hoher Bildwiederholrate.
Das natürlich mit dem Aufdruck für Gamer, und entsprechenden Preisaufschlägen. ^^
EinName
2018-08-11, 15:46:38
Machen sie nicht. Zumindest nicht WQHD, kein neuer Monitor seit 1,5 Jahren. Nicht einer. 4K gibt's ne handvoll neu, ja. Aber triple Titan ist nicht so mein Ding :wink:
Fragman
2018-08-11, 15:46:50
Kann nv ja, realistisch gesehen, auch egal sein. Die die es brauchen, bekommen es von amd mit der naechsten gen kostenlos. Alle anderen kaufen einen gsync monitor oder den nvidia tv dann. 😉
matty2580
2018-08-11, 17:42:05
Um zu Turing zurück zu kommen.
Leo sieht das genau so wie ich, dass die wccftech News wieder einmal selbst gestrickt wurde.
Das Namensschema, die Preislage, aber auch der VRAM, u.s.w. klingen nicht wirklich glaubwürdig.
Jetzt wo aber PCBs auftauchen, Nvidia sich Marken eintragen lässt, u.s.w., ist allen klar dass da was Neues kommen wird.
wccftech weiß aber genau so viel wie hier im Forum steht, also gar nichts, und macht wieder eine Fake News nach der nächsten.
Bösewicht
2018-08-11, 17:54:53
wccftech weiß aber genau so viel wie hier im Forum steht, also gar nichts, und macht wieder eine Fake News nach der nächsten.
ich frage mich warum leo und andere denen überhaupt eine bühne geben wenn doch eh so vieles immer nur fake sein soll.
ständig werden deren news angezweifelt und zwar von so vielen aber kommentieren muss man es trotzdem?
wie gesagt das verstehe ich.
Käsetoast
2018-08-11, 18:04:48
Nuja, wenn nicht mit Touring warte ich halt auf Ampere, oder doch AMD...
Auf lange Sicht muss NVIDIA VRR einführen einfach weil vor allem Samsung Fernseher das durch die Bank haben werden. Ich bin auch sehr gespannt ob NVIDIA das mit Turing tatsächlich bringt falls man den neuen HDMI Standard unterstützt. Das nicht anzubieten wird auf lange Sicht relativ peinlich sein (wenn eine Jahre alte PS4 etwas kann, das eine teure High-End Grafikkarte aus dem Jahr 2018/2019/2020 nicht kann, dann wird das etwas peinlich). Ich bin daher gespannt, ob schon mit Turing VRR kommt und inwiefern sich das mit FreeSync Monitoren nutzen lässt...
Was ich allerdings nicht glaube ist, dass NVIDIA offiziell das Wort FreeSync in den Mund nehmen wird. Ich kann mir auch vorstellen, dass NVIDIA VRR einfach nur auf den neuen HDMI Anschlüssen anbieten wird. Bestehende Monitore, die ja auf DisplayPort angewiesen sind, wären da raus bzw. NVIDIA stellt VRR nach VESA Norm halt nur auf HDMI zur Verfügung. Immerhin bliebe da so gesehen die Hoffnung in Hinblick auf zukünftige FreeSync Monitore, die auch den neuen HDMI Standard unterstützen. Mit ein wenig Glück könnte man solche Monitore dann auch mit NVIDIA Karte per VRR befeuern. Dürfte der AMD Umsetzung dann zwar unterlegen sein, da ich nicht glaube, dass LFC hier funktioniert (ich glaube zumindest, dass das nicht im VESA VRR vorgesehen ist aber da mag man mich korrigieren wenn ich falsch liege) - aber immerhin...
Ich finde VRR als Thema für Turing daher sehr spannend. Wie gesagt - um ein VESA konformes VRR wird NVIDIA sich nicht ewig drücken können. Was G-Sync angeht bin ich gespannt wie sich das weiter entwickelt - nachdem die neue HDR Variante ja nun noch teurer geworden ist und ziemlich peinlich gestartet ist mit Monitoren wo die VESA Platte die Lüfterschlitze blockiert etc. weiß ich nicht ob das ein großer Wurf wird. Klar - ein paar Enthusiasten werden es kaufen, aber ich finde gerade die HDR Variante ist ein ganzes Stück weiter vom Massenmarkt weggerückt und wenn dort dann Monitore mit VRR über HDMI auftauchen weiß ich nicht ob die Kundschaft für G-Sync noch bereit sein wird mehrere hundert Dollar / Euro auf den Tisch zu legen. Um ehrlich zu sein sehe ich das auf lange Sicht genauso sterben wie ein PhysX über dedizierte Physikkarten und dergleichen. Hat sicherlich alles seine Vorteile, aber die Kosten stehen in keinem Verhältnis zum Nutzen und auf Dauer kann man sich da auch nicht als Technologiebremse geben wenn es halt Alternativen gibt...
Von daher wie gesagt - ich bin extrem gespannt ob NVIDIA schon jetzt HDMI mit VRR unterstützt und falls ja inwiefern bestehende FreeSync Monitore davon profitieren können. Eigentlich traurig, dass man als Kunde sich die Unterstützung eines Features herbeiwünscht, von dem man profitieren würde, das der Konzern aber eigentlich vermeiden möchte...
Langlay
2018-08-11, 19:32:14
Bestehende Monitore, die ja auf DisplayPort angewiesen sind, wären da raus bzw. NVIDIA stellt VRR nach VESA Norm halt nur auf HDMI zur Verfügung.
Hdmi zu DP Kabel und das Problem wäre gelöst.
Leonidas
2018-08-12, 05:23:53
ich frage mich warum leo und andere denen überhaupt eine bühne geben wenn doch eh so vieles immer nur fake sein soll.
ständig werden deren news angezweifelt und zwar von so vielen aber kommentieren muss man es trotzdem?
wie gesagt das verstehe ich.
Man kann es kaum ganz unkommentiert lassen, wenn es bereits derart stark verbreitet wird. Die Einordnung von Dingen für den Leser ist schließlich der Zweck eines Nachrichtenmagazins. Es stand ja nicht nur auf WCCF, sondern auch bei Videocardz. Von denen schreibt inzwischen das halbe Internet ab. Ergo ist die Sache in der Welt und muß so oder so notiert werden. Da spielt es keine Rolle mehr, das mein Bauchgefühl sofort extrem gewarnt hat.
Zudem kann ich aus Erfahrung nur sagen, das manchmal die unglaubwürdigsten Gerüchte am Ende echt waren und die glaubwürdigsten Fake waren. Die Sachen vorab zu 100% abzukanzeln (bis auf eindeutige Fälle) wäre angesichts dessen ungerechtfertigt. Und am Ende soll ich mich ja auch noch so weit zurücknehmen, das der Leser sich seine eigene Meinung bilden kann ...
In dieser schwierigen Situation halte ich es für das beste, zu berichten, zu kommentieren, die Glaubwürdigkeit zu beurteilen, aber es nicht vorab vollständig zu vernichten.
Bösewicht
2018-08-12, 06:13:22
noch so ein verrückter der sonntags so früh aufsteht :D
na gut das versteh ich.
mfg
OgrEGT
2018-08-12, 11:22:47
Kommt mir nur so vor oder sinken die Preise für die 1080er?
MSI Gaming(X) für 489(519)Eur...
https://geizhals.de/?cat=gra16_512&xf=9810_7+8228+-+GTX+1080&sort=t&hloc=de&v=e&asuch=gtx%201080&asd=on
Wär mal Zeit die 770er in Rente zu schicken...
w0mbat
2018-08-12, 12:30:10
Ja, da der Nachfolger in den Startlöchern steht.
Troyan
2018-08-12, 14:25:42
Neues Call of Duty: https://gamegpu.com/action-/-fps-/-tps/call-of-duty-black-ops-4-beta-test-gpu-cpu
8GB reichen nichtmal für 1440p. Gut, ist nicht neues bei der Uralttechnik. Aber zeigt, dass Turing eben nicht nur mit 8GB kommen kann, wenn man überall schneller als die GTX1080TI sein will.
prinz_valium
2018-08-12, 16:34:16
Neues Call of Duty: https://gamegpu.com/action-/-fps-/-tps/call-of-duty-black-ops-4-beta-test-gpu-cpu
8GB reichen nichtmal für 1440p. Gut, ist nicht neues bei der Uralttechnik. Aber zeigt, dass Turing eben nicht nur mit 8GB kommen kann, wenn man überall schneller als die GTX1080TI sein will.
Wo siehst du, dass 8GB nicht ausreichen??
pixeljetstream
2018-08-12, 16:35:26
Angebot und Nachfrage. Es gibt immer ein Produkt mit mehr vram, zumindest geht's akutell bis 24 GB. Ist halt eine Frage was einem das wert ist im Verhältnis zur Rechenleistung, was ja subjektiv ausfällt. Laut Steam survey ist die Mehrheit ja deutlich drunter.
Es ist nicht das erste CoD (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Speicher-Giganten-8-vs-11-12-16-GiB-1259172/#a6), das Speicher ohne Ende frisst, sondern das x-te. ;) In der Regel läuft die Finalversion dann aber besser – bzw. streamt so, dass die Bildrate ordentlich ist, aber Details weggelassen werden. Aber, yep: 8 GiB bei Titan-Xp-Rechenleistung wäre bitter für einige Spiele.
MfG,
Raff
AffenJack
2018-08-12, 16:45:13
Nicht wenn es beides gibt. Ist eben die Frage wem 100-150€ Mehrpreis die 16 GB wert sind. 8GB FE Edition und 16 GB Customs würde da einfach das Problem für alle mit einer maximalen Flexibilität lösen.
Ex3cut3r
2018-08-12, 16:48:24
Wenn NVIDIA es denn zulässt? Vlt. sollen Sie 8gb Max only haben, damit man zeitnah wieder wechselt aufgrund des VRAMs? Schließlich soll der Kunde doch am besten jedes Jahr neu kaufen, und sich nicht zurücklehnen für mehrere Jahre.
Troyan
2018-08-12, 16:50:59
Wo siehst du, dass 8GB nicht ausreichen??
GTX1080TI ist 43% schneller in 1440 und 62% schneller in 4K als die GTX1080.
Thunderburne
2018-08-12, 17:05:40
Bevor ich noch mal ne 8GB Karte kaufe zocke ich lieber noch ein Paar Monate weiter mit der PS4Pro.
Nach der GTX1080 die ich verkauft habe weis ich das mir 8GB in 4K einfach zu wenig Ram sind.
prinz_valium
2018-08-12, 17:24:48
GTX1080TI ist 43% schneller in 1440 und 62% schneller in 4K als die GTX1080.
Bei 1080p ist die GTX1080 und RX64 nahezu identisch.
Bei 1440p ist die RX64 schneller.
Also wenn liegt der größere Unterschied an der Rohleistung und oder Bandbreite. Nicht Speichermenge.
Grendizer
2018-08-12, 17:27:34
Bei 1080p ist die GTX1080 und RX64 nahezu identisch.
Bei 1440p ist die RX64 schneller.
Also wenn liegt der größere Unterschied an der Rohleistung und oder Bandbreite. Nicht Speichermenge.
War HBCC bei der Vega ein ?
Troyan
2018-08-12, 17:35:26
Nope, ist immer noch standardmäßig aus.
Und in 4K ist die GTX1080TI 50% schneller als Vega64. Aber stimmt schon, die 8GB limitieren nicht...
TobiWahnKenobi
2018-08-12, 18:10:25
falls man wirklich die wahl zwischen 8 und 16GiB bekommt, ist der aufpreis sicher höher als 100 oder 150€.
(..)
mfg
tobi
MartinRiggs
2018-08-12, 18:26:55
Mich kotzt an das einige Spielentwickler scheinbar einfach zu blöde sind, wir sind ruckzuck von 4 auf 8GB VRAM gekommen, aber man sieht davon nichts.
Es wird getrickst und kaschiert mit miesem Postprocessing und es gibt auch kaum ein Game was durchweg exzellente Texturen hat.
Daher ist die Frage muss man Nvidia und AMD in den Arsch treten oder eher unfähige Entwickler?
Birdman
2018-08-12, 18:51:57
GTX1080TI ist 43% schneller in 1440 und 62% schneller in 4K als die GTX1080.
Und was genau hat die RAM Menge damit zu tun? Grundsätzlich nämlich mal genau null komma gar nix.
Ich kann beide in ein Intel Celeron System stecken und whaaaaat? sind ja genau gleich schnell, selbst in 8K.
reaperrr
2018-08-12, 18:55:16
falls man wirklich die wahl zwischen 8 und 16GiB bekommt, ist der aufpreis sicher höher als 100 oder 150€.
Denke ich auch.
Gab doch neulich irgendwo einen Link, wo ein Großhändler die Speicherpreise pro 1GB-Chip genannt hat. 25€ pro 1GB-GDDR6-Chip.
Und die doppelt so großen Chips dürften eher mehr als das doppelte kosten, wenn es davon überhaupt schon genug für den Mainstream (im Sinne von Verkaufszahlen, nicht Performance) gibt.
Sicher zahlt NV aufgrund der Abnahmemenge weniger, aber für 16GB-Karten wären momentan sicher 200 € Aufpreis fällig, NV will ja auch was abhaben und es gibt garantiert genug Leute, die das Kleingeld haben und die Kröte zugunsten Zukunftssicherheit schlucken.
Darauf wetten, dass es eine xx80 mit 16GB gibt, würde ich aber nach wie vor nicht. Die werden bei den Speicherpreisen nämlich bei der 384bit-Karte auch bei 12 (oder 11) GB bleiben wollen, und da passt eine "langsamere" 16GB-Karte eigentlich nicht so wirklich ins Line-Up.
Und was genau hat die RAM Menge damit zu tun? Grundsätzlich nämlich mal genau null komma gar nix.
Ich kann beide in ein Intel Celeron System stecken und whaaaaat? sind ja genau gleich schnell, selbst in 8K.
Wenn eine Grafikkarte gleicher Architektur schneller ist als es die Rohleistung zulässt, dann ist es eben der Speicher.
MfG,
Raff
Leonidas
2018-08-13, 05:41:05
Gab doch neulich irgendwo einen Link, wo ein Großhändler die Speicherpreise pro 1GB-Chip genannt hat. 25€ pro 1GB-GDDR6-Chip.
Siehe hier:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-11-juli-2018
basix
2018-08-13, 06:57:38
Nvidia und AMD werden noch deutlich tiefere Preise abgreifen können ;)
Wahrscheinlich sind es dann eher 12-15$ pro GB anstatt 25$ (ich rede da aus Erfahrung bei anderen Elektronikkomponenten). Aber ja 100$ für 8GB bleibt es trotzdem.
Dural
2018-08-13, 09:21:54
Leute das ist eine 12nm Übergangs Grafikkarte, ab 7nm könnt ihr von mir aus 16GB fordern.
Daredevil
2018-08-13, 10:14:20
Den aktuellen Livestream zur Siggraph gibt es btw. hier zu finden "Heute" Nacht um 1 Uhr.
For anyone who spends their life advancing computer graphics, there’s no event in the world like SIGGRAPH. This year, NVIDIA founder and CEO Jensen Huang will be taking center stage to explore the latest innovations in graphics and how artificial intelligence is changing our world.
https://www.youtube.com/watch?v=9dwkDrS7HV0&ab_channel=ACMSIGGRAPH
Würde ich mir gerne anschauen, aber da muss ich leider das neue WoW Addon anspielen. :D
dildo4u
2018-08-13, 11:32:48
Die ersten GDDR6 Chips sind nur 20% schneller als GDDR5x der GTX 1080.Daher muss die 2080 mher Chips haben um die erwartete Performance zu erreichen. Die Gerüchte um 8GB Karten werden vermutlich gestreut damit man jetzt den alten Bestand kauft.
Godmode
2018-08-13, 11:51:49
Das sollte durch eine bessere Kompression ausgeglichen werden, so war es zumindest bisher.
Siehe Pascal: https://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/8
Die wievielte Generation der Farbkompression ist's bei Nvidia? Die fünfte? Jedenfalls können sie das Rad da nicht mehr neu erfinden, die Sauce ist schon sehr secret. ;) Etwas mehr roher Durchsatz (sprich: Einheiten × Takt) muss einfach immer dabei sein, sonst wird das nix.
MfG,
Raff
AMDoderNvidia
2018-08-13, 12:32:27
Leute das ist eine 12nm Übergangs Grafikkarte, ab 7nm könnt ihr von mir aus 16GB fordern.
Mit dem Stichwort "Übergang" sprichst Du genau das an, was (zumindest für mich) immer mehr ein Gegen-Kaufargument wird und ich erst eine Generation später kaufen werde (sofern es überhaupt mal eine Nvidia bei mir werden wird).
Gründe:
Keine Erhöhung des VRAM
Prozesstechnologie: 12nm bietet zu wenig Spielraum für mehr Takt und damit Erhöhung der TDP. Nicht umsonst wird schon über Dual-Fan Design und Wakü berichtet.
RTX, also Raytracing, wird hier im Enthusiast-Segment eingeführt. Vermutlich erst die Nachfolgegeneration (dann in 7nm) wird es in den Mainstream bringen.
Zumindest macht mir diese Aufzählung es leichter, keine neue Grafikkarte zu kaufen :biggrin:
horn 12
2018-08-13, 13:12:13
Nun, der 12nm Prozess kann keine Wunder vollbringen!
Morgen früh wird Vega 1 Jahr alt, da hat man wohl den Termin exakt so gewählt da Turing wohl selbes Performance Plus wie Vega bringen wird ...
Rechne mehr als 25 bis 30% sind echt nicht drinn, sind die Karten ja nur einen Übergangslösung.
Igor sagte ja selbst sind KEINE 40%
Das Wort Keine sollte weniger bedeuten, ansonsten sagte Igor: sind nicht 40%
Wunder erwartet hoffentlich niemand. Ich würde ja lieber ne "Vega 15" in 12 nm sehen als das (weil AMD etwas Neues, Konkurrenzfähiges braucht), aber hey, besser als nix ...
MfG,
Raff
horn 12
2018-08-13, 13:39:57
Vega 56/64 wird genug konkurrenzfähig sein, bis die Karten Neu gemischt werden, im 7nm Prozess...
Würde mich nicht wundern wenn etwas von Software von AMD zum Release kommt.
Für das Halbjahres-Treiber-Update ist es schon zu spät. Ich rechne erst zu Weihnachten mit dem nächsten Feature-Klopper, traditionell.
MfG,
Raff
dildo4u
2018-08-13, 14:02:13
Vega 56/64 wird genug konkurrenzfähig sein, bis die Karten Neu gemischt werden, im 7nm Prozess...
Würde mich nicht wundern wenn etwas von Software von AMD zum Release kommt.
Vega 56 wird schon für 399€ verkauft zumindest die Händler sind in der Lage die Karten richtig einzuschätzen.
https://www.mindfactory.de/Highlights/MindStar
Adam D.
2018-08-13, 14:04:41
Der Thread ist wirklich inzwischen nur noch schmerzhaft.
Alle Leute haben schon wieder finale Specs vorliegen, bevor der Rest der Welt Handfestes bekommt. Da kann man schon mal Kaufempfehlungen wie hier im Thread aussprechen, Wochen bevor das neue Zeugs kommt.
Und Horn und co träumen sich irgendeinen Witz zusammen...
Nvidia hat mit Blick auf die Konkurrenz massig Spielraum bei Die-Größe und bestimmt 20% bei der TDP. 12nm ist die modernste Fertigungstechnologie am Consumer-GPU-Markt, völlig egal ob 7nm vor der Tür steht. Es geht um jetzt, nicht Mitte/Ende 2019.
Wirklich ansprechend, das Ganze hier :ulol:
Korvaun
2018-08-13, 14:25:14
Nvidia hat mit Blick auf die Konkurrenz massig Spielraum bei Die-Größe und bestimmt 20% bei der TDP. 12nm ist die modernste Fertigungstechnologie am Consumer-GPU-Markt, völlig egal ob 7nm vor der Tür steht. Es geht um jetzt, nicht Mitte/Ende 2019.
Wirklich ansprechend, das Ganze hier :ulol:
Ja, aller Vorraussicht nach nur noch gut ein Jahr bis 7nm GPUs kommen. Das ist ja genau das Problem, der Abstand ist einfach verdammt kurz, vor allem wenn man die gigantischen Vorteile von 7nm gegenüber den aktuellen Fertigungstechnologien (inkl. 12nm) sieht. Warum im Herbst was kaufen wenn in einem Jahr dann nochmal 60% Speed oben drauf kommen (1180->2080)?
Klar, wer immer das Schnellste haben will oder wer einfach mehr als genug Euro hat der kauft, aber der Rest? Außer nV hofft auf der Dummheit und Ignoranz der breiten Masse die keine Ahnung haben wann 7nm kommt und wie schnell das potenziell wird...
MadPenguin
2018-08-13, 14:30:32
Außer nV hofft auf der Dummheit und Ignoranz der breiten Masse die keine Ahnung haben wann 7nm kommt und wie schnell das potenziell wird...
BINGO. Jemals etwas Anderes gedacht?
JaniC
2018-08-13, 14:32:25
Warum im Herbst was kaufen wenn in einem Jahr dann nochmal 60% Speed oben drauf kommen (1180->2080)?
Und dann beantwortet er es sich doch noch selbst, gerade nochmal Glück gehabt:
Klar, wer immer das Schnellste haben will oder wer einfach mehr als genug Euro hat der kauft, aber der Rest?
Nicht jeder ist "dumm", nur weil er weiter mit zwei Jahre alter GPU zocken will, während sich Auflösungen und Hertzzahlen weiterentwickelt haben. Man kann die Karte, die man nun kaufen wird, ja auch schön wieder verkaufen wenn 7nm kommt - dann hat man aber bis dahin schon die Performance, die man so dringend haben möchte.
Ich habe das Gefühl, manche vergessen, wozu wir Grafikkarten kaufen. Zum Zocken. Und da braucht man nunmal jedes bisschen Power, da wir seit Jahren im GPU Limit stecken. Da warte ich doch nicht rational, bis vielleicht 2019 irgendwann 7nm kommt. Nach dieser Logik würde ich ja ewig warten und auf irgendeiner Gurke gamen. Mache ich aber nicht, da dass hier nicht rational ist. Das ist ein Hobby, ein teures. Da ist nichts rational. ;)
Aber wenn man dann natürlich stolz von sich behaupten kann "Ha! Ich habe gewartet! Ich zocke erstmal noch in Fliegengitter 1080p und 60hz, dafür reicht mir meine GTX770 noch, und dann gucke ich mal, bis endlich das perfekte Teil erscheint, und dann schlag ich aber zu, du! Da kannst dann aber gucken!" dann ist das natürlich auch was wert. Nicht.
Was das alles mit Turing Spekulationen zu tun hat? Nichts, aber dann wäre der Thread eh nur 3 Seiten lang. ;)
/edit und PS: Das Allerschönste daran ist ja, dass das jeder für sich selbst entscheiden kann. Man kann warten oder aber eben kaufen, weil man sich über etwas mehr Performance freut. Das darf ja jeder selbst entscheiden. Ein Glück.
MasterElwood
2018-08-13, 15:17:13
Die wievielte Generation der Farbkompression ist's bei Nvidia? Die fünfte? Jedenfalls können sie das Rad da nicht mehr neu erfinden, die Sauce ist schon sehr secret. ;)
MfG,
Raff
Completely disagree: nachdem es dabei um Mustererkennung ect. geht - ist JETZT gerade die Chance dank AI hier einen guten Schub nach vorne zu machen!
Mustererkennung ist ja die Spezialität von AI/DL - und genau hier wäre die Chance für die neuen Cores was nützliches zu tun solange sie dank fehlendem RT eh noch nix zu tun haben (siehe das neue AA). :wink:
pixeljetstream
2018-08-13, 16:02:01
Grüße aus Vancouver, livestream gucken lohnt sich heute. http://www.ustream.tv/nvidia
Screemer
2018-08-13, 16:05:57
Grüße aus Vancouver, livestream gucken lohnt sich heute. http://www.ustream.tv/nvidia
für alle die gerne wüssten wann. 1 Uhr heute nacht/morgen früh.
Bösewicht
2018-08-13, 16:08:02
oder hier paar infos mit stream link
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-auf-der-Siggraph-2018-Details-zum-Event-mit-CEO-Jensen-Huang-und-offizielles-Programm-1262559/
Hübie
2018-08-13, 17:29:11
Grüße aus Vancouver, livestream gucken lohnt sich heute. http://www.ustream.tv/nvidia
Werden wir dich auch sehen? :smile:
crux2005
2018-08-13, 18:19:43
Grüße aus Vancouver, livestream gucken lohnt sich heute. http://www.ustream.tv/nvidia
Ich nehme dich mal beim Wort. Wehe dem ist nicht so. :P
JaniC
2018-08-13, 18:33:04
Warum sollten dort relevante Infos zu Turing/Gaming kommen, wenn das für nächsten Montag angesetzt ist?
Laut PCGH soll es ja um "künstliche Intelligenz, Echtzeit-Ray-Tracing sowie Virtual-Reality und wie diese die "Computergrafik-Industrie transformieren"" gehen.
Ich erwarte nix.
Ex3cut3r
2018-08-13, 18:46:19
Grüße aus Vancouver, livestream gucken lohnt sich heute. http://www.ustream.tv/nvidia
Nagut, wehe wenn nicht, dann bekommst du meinen Zorn zu spüren. :biggrin:
Daredevil
2018-08-13, 18:59:23
Warum sollten dort relevante Infos zu Gaming kommen,
.....................
Laut PCGH soll es ja um "künstliche Intelligenz, Echtzeit-Ray-Tracing sowie Virtual-Reality und wie diese die "Computergrafik-Industrie transformieren"" gehen.
Hat das nicht beides irgendwie einen Zusammenhang?
Selbst wenn heute kein Turing vorgestellt wird, ist die Technik drumherum doch auch nicht unbedingt weniger interessant und welchen Weg Nvidia einschlägt.
Thunderburne
2018-08-13, 19:21:24
Ich hoffe das er die bezahlbare Variante der Titan vorstellt mit GDDR6.;D
Timbaloo
2018-08-13, 19:45:32
Ob dann heute der GT10"3" vorgestellt wird? Ich bin gespannt.
AffenJack
2018-08-13, 20:36:33
Warum sollten dort relevante Infos zu Turing/Gaming kommen, wenn das für nächsten Montag angesetzt ist?
Laut PCGH soll es ja um "künstliche Intelligenz, Echtzeit-Ray-Tracing sowie Virtual-Reality und wie diese die "Computergrafik-Industrie transformieren"" gehen.
Ich erwarte nix.
Quadros werden vorgestellt und die basieren auf den gleichen Chips. Damit wären die Daten der nächsten Titan und der 1180 ziemlich sicher. 1180Ti und 1170 kann man sich davon dann etwa ableiten.
y33H@
2018-08-13, 22:54:55
Ich nehme dich mal beim Wort. Wehe dem ist nicht so. :PNimm ihn beim Wort :cool:
Ex3cut3r
2018-08-13, 23:25:16
Nimm ihn beim Wort :cool:
Ok, langsam steigt die Vorfreude. :cool:
BlacKi
2018-08-13, 23:27:36
nice
Hübie
2018-08-14, 00:44:13
Ich bin gespannt ob man heute Abend schon die Bombe platzen lässt. Aber es sieht ganz danach aus. :naughty:
Wer ist noch on???
Werde es wohl nebenbei mal laufen lassen, bin eh noch wach :D
von Richthofen
2018-08-14, 00:50:58
Mal schauen ob Jensen wieder den Heiligen Gral gefunden hat.
N0Thing
2018-08-14, 01:00:35
Grüße aus Vancouver, livestream gucken lohnt sich heute. http://www.ustream.tv/nvidia
Gibt es noch eine andere Quelle? Bei ruckelt schon die Vorabvideoschleife. :D
E:\ Stream hat begonnen, Quali mies, ruckelt ein wenig, ich hoffe es wird mit der Zeit besser.
Hübie
2018-08-14, 01:00:50
Stockt diese Intro Animation bei euch auch? Hab es mit Vivaldi und FF getestet. Nicht das der Stream abkackt. :eek:
Edit: Ok N0Thing hat's auch. ;D Auch bei YT stockt die Animation. Fängt schon mal gut an. :rolleyes:
Ex3cut3r
2018-08-14, 01:01:20
Lass die quali auf Auto dann gehts, zumindest hier. :freak:
crux2005
2018-08-14, 01:02:33
Mit Edge geht bei mir auch 1080p. :freak:
Edit: Kein Stream mehr. Nur Event Bild. :(
Ex3cut3r
2018-08-14, 01:04:00
Ok, aktuell sehe ich nix, nur Jensens Fresse aka. ein Vorab Bild.
EDIT: Wieder dieses Sternen Nvidia Bild.
Screemer
2018-08-14, 01:04:38
Ich seh seit 3 Minuten nur noch jensens Jacke.
crux2005
2018-08-14, 01:05:37
Es geht los! :D
Auch "Auto" ist am laggen...
Ex3cut3r
2018-08-14, 01:06:58
Stockt wie Sau :(
Kein Twitch Stream wtf?
Hübie
2018-08-14, 01:07:11
Jetzt geht gar nix mehr. So ein Dreck.
Screemer
2018-08-14, 01:07:27
Ustream saugt
Hübie
2018-08-14, 01:09:13
Warum nehmen die so einen Müllverein wenn die nicht mal ein paar Tausend Viewer bedienen können? :rolleyes:
Ex3cut3r
2018-08-14, 01:09:23
Meine Fresse, nix geht mehr, ist das ein Millionen Unternehmen?
crux2005
2018-08-14, 01:10:02
Auf YT nix, Twitch nix. Ustream laggt.
Jensen 14.8.2018: "Today is a historic moment..." Laaaaaaaaaag
BlacKi
2018-08-14, 01:11:01
jetzt steht off air bei u stream... keine andere quelle?
"Today is a historic moment..."
this...
AffenJack
2018-08-14, 01:11:03
Ich bin immer wieder überrascht, wie unfähig man sich bei solchen Streams anstellen kann. Jedes 2te mal wenn eine Firma das macht klappt es nicht. Wie blöde kann man sich bitte anstellen?
N0Thing
2018-08-14, 01:11:04
Creepy.
https://screenshotscdn.firefoxusercontent.com/images/71c25494-46b9-41e2-ace1-e2befe68d3fd.png
Screemer
2018-08-14, 01:11:26
Guys at Pixar... Stutter....
Jedes Jahr dasselbe ;D Dass denen das nicht peinlich ist. Ich bin raus.
Troyan
2018-08-14, 01:12:32
Vielleicht gibt es ja eine AI, die die Lücken füllt. :freak:
BlacKi
2018-08-14, 01:13:25
hier läufts iwie https://youtu.be/cBf9Akj4HGQ
crux2005
2018-08-14, 01:13:47
Habe was gefunden https://www.youtube.com/watch?v=cBf9Akj4HGQ
Edit: zu langsam
Troyan
2018-08-14, 01:16:08
So, der einzige Typ, der einen lauffähigen Stream hat, ist eine Pflaume. Lmao.
BlacKi
2018-08-14, 01:16:53
einfach "i press sub, if you dont talk" schreiben^^
N0Thing
2018-08-14, 01:16:57
hier läufts iwie https://youtu.be/cBf9Akj4HGQ
Danke! =)https://www.forum-3dcenter.org/vbulletin/images/icons/icon14.gif
Wäre nur schön, wenn die Typen ihre Klappe halten würden.
Ex3cut3r
2018-08-14, 01:17:16
Der Youtube link geht, aber die Typen labern manchmal dazwischen :facepalm:
crux2005
2018-08-14, 01:17:31
So, der einzige Typ, der einen lauffähigen Stream hat, ist eine Pflaume. Lmao.
War das nicht schon immer so. Auch mit Hardware. :biggrin:
Troyan
2018-08-14, 01:21:33
Was für ein crappy Mist Ustream ist. Früher haben sie wenigsten noch Twitch verwendet. Aber das ist wirklich lächerlich.
BlacKi
2018-08-14, 01:21:59
the official is working again! zumindest bei mir
https://www.ustream.tv/NVIDIA
Hübie
2018-08-14, 01:22:01
Vor allem steht da IBM hinter. X-D
Geht bei mir mit Matschauflösung und kleinen Hängern -.-
crux2005
2018-08-14, 01:22:36
Pssst! Nicht weitersagen. Jetzt läuft auch ustream flüssig...
Skysnake
2018-08-14, 01:22:55
Lächerlich das selbst YT abkackt...
N0Thing
2018-08-14, 01:23:14
Immerhin funktioniert der Stream bei ustream nun bei mir. Sind vielleicht genug zu den Youtubern abgewandert.
Troyan
2018-08-14, 01:23:33
Pssst! Nicht weitersagen. Jetzt läuft auch ustream flüssig...
Echt? Nicht bei mir. 260p und die Hälfte sprichtwörtlich fehlt...
BlacKi
2018-08-14, 01:23:52
IMO gabs nichts neues. und jetzt geht der stream auch ohne probs 1080p.
von Richthofen
2018-08-14, 01:24:30
Hier läuft es über Videocartz seit 10min unterbrechungsfrei in 1080p.
Facebook stream (https://en-gb.facebook.com/NVIDIA/videos/10155983076983253/) läuft besser imo
BlacKi
2018-08-14, 01:26:30
https://www.ustream.tv/NVIDIA seit 4 min 1080p ohne stocken.
BlacKi
2018-08-14, 01:27:42
lol, 4x gtx titan v = 1 single fking gpu
shiny card, so ist eben die lederjacke^^
Troyan
2018-08-14, 01:28:43
Jemand den Namen gesehen: RTX XXXX
/edit: Lmao, da ist die Folie im Hintergrund mit den Infos...
N0Thing
2018-08-14, 01:29:35
Hatten sie diese Stufe nicht schon einmal bei einem Kühlerdesign?
BlacKi
2018-08-14, 01:30:57
und da ging der stream off^^
Ex3cut3r
2018-08-14, 01:31:30
Was hat der Typ geraucht?
Troyan
2018-08-14, 01:31:37
TensorCores und NVLink onBoard. Jedenfalls sehe ich das in Teilen im Hintergrund.
Danke Twitter: https://pbs.twimg.com/media/DkhEfDwU0AAM0b8.jpg
BlacKi
2018-08-14, 01:32:31
er hat turing gesagt für die quaDROS
Daredevil
2018-08-14, 01:34:24
Del
N0Thing
2018-08-14, 01:34:37
https://screenshotscdn.firefoxusercontent.com/images/c03f83b7-b6fa-46d3-a730-f6a1e6af672c.png
https://screenshotscdn.firefoxusercontent.com/images/f08cf132-fb90-4062-ba68-9722fdcc2169.png
crux2005
2018-08-14, 01:35:45
New Turing GPU:
https://i.imgur.com/Li8a9vq.jpg
von Richthofen
2018-08-14, 01:35:49
Das scheint schon der große Chip mit 384Bit Speicherinterface zu sein.
Troyan
2018-08-14, 01:36:39
Jap. GT104 sollte um die 12TFLOPs liegen.
BlacKi
2018-08-14, 01:36:50
edit.
N0Thing
2018-08-14, 01:37:41
https://screenshotscdn.firefoxusercontent.com/images/3ff0d03c-56d6-474d-b9ef-d1948102be04.png
Troyan
2018-08-14, 01:38:27
Lmao, 754mm^2... Und 48GB...
Tesseract
2018-08-14, 01:38:28
holy fucking shit 754mm² :D
N0Thing
2018-08-14, 01:38:36
https://screenshotscdn.firefoxusercontent.com/images/06796c1f-52a5-4927-bb87-e4dd4d1a1306.png
crux2005
2018-08-14, 01:38:40
Turing - 18,6 Milliarden Tranzistoren, 754mm^2
Sunrise
2018-08-14, 01:38:57
384bit @ 14Gbps
754mm^2 GPU
BlacKi
2018-08-14, 01:39:22
edit, nothing is schneller.
Troyan
2018-08-14, 01:40:04
Damit sind die 16Gb für Gaming auch bestätigt.
N0Thing
2018-08-14, 01:40:19
https://screenshotscdn.firefoxusercontent.com/images/2746c662-3e0f-4c44-b019-3da2b953266f.png
https://screenshotscdn.firefoxusercontent.com/images/4f3e8325-732a-4b58-8666-967caac3049c.png
N0Thing
2018-08-14, 01:41:55
Damit sind die 16Gb für Gaming auch bestätigt.
Warum 16GB und nicht 12 oder 24?
Troyan
2018-08-14, 01:42:22
Warum 16GB und nicht 12 oder 24?
256bit Interface für Gaming. Ich glaube nicht, dass wir sofort GT102 sehen werden.
Daredevil
2018-08-14, 01:42:45
Damit sind die 16Gb für Gaming auch bestätigt.
Und bei der Größe wahrscheinlich auch 800$+ :D
N0Thing
2018-08-14, 01:42:54
Okay, das habe ich überhört/-sehen.
Platos
2018-08-14, 01:43:22
Also so ein grosser Chip bei GeForce :D Ich bin ja auf die Preise gespannt.
Skysnake
2018-08-14, 01:43:25
Warum steht eigentlich nur bei Pascal das es fp32 ist bei den Shadern aber nicht bei Turing?
Stream down auf ustream
Alles ja ganz schön, aber lauter so low precision Zeug für Gamer und von mir aus auch 3d Artists ja ganz gut, aber bei Compute scheint sich nicht wirklich was zu tun
Ich hoffe da kommt bald noch was, was voll auf fp64 etc geht. Aber so recht dran glauben kann ich nicht
https://www.cnet.com/news/nvidia-turing-architecture-arrives-in-high-end-quadro-rtx-gpus
GPU Memory Memory with NVLink (two cards) Ray Tracing bandwidth CUDA Cores Tensor Cores Price
Quadro RTX 8000 48GB 96GB 10 Gigarays per second 4,608 576 $10,000
Quadro RTX 6000 24GB 48GB 10 Gigarays per second 4,608 576 $6,300
Quadro RTX 5000 16GB 32GB 6 Gigarays per second 3,072 384 $2,300
BlacKi
2018-08-14, 01:44:38
die quadros sind teuer. schon immer. hat nichts mit den gaming karten zu tun.
wenn das turing ist, dann kommt ampere für gaming.
Troyan
2018-08-14, 01:46:20
Nein, Turing ist der Gaming-Chip.
/edit: Pressemitteilung von nVidia: https://nvidianews.nvidia.com/news/nvidia-unveils-quadro-rtx-worlds-first-ray-tracing-gpu?linkId=100000003236181
N0Thing
2018-08-14, 01:48:33
wenn das turing ist, dann kommt ampere für gaming.
Wäre nachvollziehbar, der halbe Chip besteht ja aus Tensor Core und RT Core.
AffenJack
2018-08-14, 01:50:20
RTX5000 dürfte die 1180 werden. Also wohl 3072 Shader. 16Gb bei der Quadro sprechen dagegen für 8GB Ram bei der Geforce.
N0Thing
2018-08-14, 01:50:51
Nein, Turing ist der Gaming-Chip.
/edit: Pressemitteilung von nVidia: https://nvidianews.nvidia.com/news/nvidia-unveils-quadro-rtx-worlds-first-ray-tracing-gpu?linkId=100000003236181
Da steht nirgendwo etwas dazu, dass Turing für Gamer geplant sei.
Troyan
2018-08-14, 01:51:13
Nein, die Quadro-Karte hat 16 oder 32GB. Es spricht daher für 16GB bei mindesten einer Karte.
Da steht nirgendwo etwas dazu, dass Turing für Gamer geplant sei.
Warum sollten sie zwei verschiedene Grafik-Chips produzieren und das dann auch noch in zig verschiedene Varianten?!
Sunrise
2018-08-14, 01:52:44
Der GDDR6 kommt von Samsung und nicht von Micron.
Eventuell Dual-Sourcing, bei den Gaming-Karten kommt dann Micron zum Zug.
BlacKi
2018-08-14, 01:53:29
weil raytracing ersteinmal nichts nützt bei herkömmlichen games. wer kauft denn sowas.
Troyan
2018-08-14, 01:53:55
Aus der Pressemitteilung zu Turing:
The company also unveiled its initial Turing-based products — the NVIDIA® Quadro® RTX™ 8000, Quadro RTX 6000 and Quadro RTX 5000 GPUs — which will revolutionize the work of some 50 million designers and artists across multiple industries.
https://nvidianews.nvidia.com/news/nvidia-reinvents-computer-graphics-with-turing-architecture?linkId=100000003236223
Bewundert keiner das Raytacing in Echtzeit? :eek: Meine Güte, wenn ich daran denke, daß ich mit dem Amiga 1000 3 Wochen rechnen mit 480x360 mußte, um unbewegte Bilder zu rendern, ist das schon geil.
Preise vom Link oben:
Pricing
Quadro RTX 8000 with 48GB memory: $10,000 estimated street price
Quadro RTX 6000 with 24GB memory: $6,300 ESP
Quadro RTX 5000 with 16GB memory: $2,300 ESP
N0Thing
2018-08-14, 01:57:47
Warum sollten sie zwei verschiedene Grafik-Chips produzieren und das dann auch noch in zig verschiedene Varianten?!
Weil es billiger wäre? 754mm² sind schon eine Hausnummer für den Spielermarkt. Und der Aufpreis von 24GB auf 48GB lässt sich Nvidia mit $3700 bezahlen. Ich kann mir eine Titan gut damit vorstellen, aber Brot und Butter für Spiele wäre ziemlich krass mit diesem Flächenbedarf.
BlacKi
2018-08-14, 01:58:10
Bewundert keiner das Raytacing in Echtzeit? :eek: Meine Güte, wenn ich daran denke, daß ich mit dem Amiga 1000 3 Wochen rechnen mußte, um unbewegte Bilder zu rendern, ist das schon geil.
es kostet ersteinmal chipfläche, und sofern ich keinen nutzen draus ziehen kann, in form fps in meinen games, dann juckt mich das nicht. kann sein das wir das in 1-2 jahren nutzen können, aber ich hab keinen grund mich jetzt drauf zu freuen.
Daredevil
2018-08-14, 01:58:12
Ich finds schon schön, aber ich habs ehrlich gesagt nicht vermisst.
Mehr Effekte sind allerdings schon toll, nur würde mir erstmal mehr Performance reichen. ^^
Das ist so ein Apple Ding.... zeig den Leuten das, was sie noch nicht gewollt haben und zeig Ihnen, dass sie es haben wollen. :D
Troyan
2018-08-14, 01:59:06
Weil es billiger wäre? 754mm² sind schon eine Hausnummer für den Spielermarkt. Und der Aufpreis von 24GB auf 48GB lässt sich Nvidia mit $3700 bezahlen. Ich kann mir eine Titan gut damit vorstellen, aber Brot und Butter für Spiele wäre ziemlich krass mit diesem Flächenbedarf.
RTX 5000 verwendet den kleineren Chip. Der ist dann eben 500mm^2 groß. Man sollte nicht vergessen, dass der "12nm Prozess" seit fast drei Jahren im Einsatz ist.
N0Thing
2018-08-14, 01:59:07
Bewundert keiner das Raytacing in Echtzeit? :eek: Meine Güte, wenn ich daran denke, daß ich mit dem Amiga 1000 3 Wochen rechnen mit 480x360 mußte, um unbewegte Bilder zu rendern, ist das schon geil.
Ja, sehr geil. :O
Daredevil
2018-08-14, 02:02:14
Der Porsche ist lecker. :eek:
Ein Rennspiel mit so einer Beleuchtung, not bad.
es kostet ersteinmal chipfläche, und sofern ich keinen nutzen draus ziehen kann, in form fps in meinen games, dann juckt mich das nicht. kann sein das wir das in 1-2 jahren nutzen können, aber ich hab keinen grund mich jetzt drauf zu freuen.
Spiegelungen, Reflexionen, Lichtveränderungen, das ist doch schon sehr fett, stell Dir das mal in Spielen vor. Ich finds grandios. Du bist eben noch zu jung, um das zu würdigen. :tongue: Wie gesagt, Du kannst Dir den Aufwand damals nicht vorstellen, um so was hinzubekommen. Nun haben wir das teilweise in Echtzeit (!). Intel hat sich daran die Zähne ausgebissen, trotz großen Investitionen. Man dachte ja, CPUs mit massiver paralleler Anzahl wären für RT besser geeignet. Tja, Nvidia straft alle Lügen.
Ja, sehr geil. :O
Ich bin auch nur begeistert. :O :O
Die ersten Haaranimationen mit Tesslation, Sub-Surface Scattering und Co., diese Elfendinger Demos haben mich damals nicht so beeindruckt wie das hier jetzt.
N0Thing
2018-08-14, 02:03:04
RTX 5000 verwendet den kleineren Chip. Der ist dann eben 500mm^2 groß. Man sollte nicht vergessen, dass der "12nm Prozess" seit fast drei Jahren im Einsatz ist.
Ja, aber beim Vergleich zu Pascal ist der Sprung bei der Shader-Rechenleistung ziemlich klein, da kommt der dicke Turing 16TFlops vs. 13 bei Pascal, das sind weniger als 25%.
Ich meine, ich fände es wirklich cool und beeindruckend, wenn Nvidia mehr Leistung, ähnlichen Stromverbrauch und dazu noch die Tensor Cores und RT auf den Spielermarkt bringt. Ich glaube es aber erst, wenn ich es sehe. :wink:
E:\ Von einem kleineren Chip wissen wir auch noch nichts, der Chip auf der Quadro RTX 5000 könnte auch einfach (oder vielmehr wahrscheinlich) der Salvage Chip sein.
Sunrise
2018-08-14, 02:03:05
Weil es billiger wäre? 754mm² sind schon eine Hausnummer für den Spielermarkt. Und der Aufpreis von 24GB auf 48GB lässt sich Nvidia mit $3700 bezahlen. Ich kann mir eine Titan gut damit vorstellen, aber Brot und Butter für Spiele wäre ziemlich krass mit diesem Flächenbedarf.
Es war doch vollkommen klar, dass die Chips größer werden, oder? Bei 12nm kannst du nur in die Breite gehen, die Chips werden ja komplexer und nicht einfacher.
Zusätzlich ist 12nm sicher um einiges billiger und einfacher zu produzieren als 16nm damals. Gut, 750mm^2 sind echt viel, aber wayne, wenn 7nm noch zu unreif und viel zu teuer ist, da bleibt der GT100 vorbehalten.
Vom neuen Clocking-Verhalten hat er noch nicht gesprochen und das betrifft evtl. nur Gaming.
Die GameWorks-Devs haben sicher schon Schaum vorm Mund
BlacKi
2018-08-14, 02:08:01
wenn sie den schund(raytracing ist nichts mehr aktuell für mich) für umsonst weiter geben, hab ich nichts dagegen. aber so sehe ich das heute noch nicht.
RT Turing 6x fach schneller als Pascal
https://i.imgur.com/UANbxDb.jpg
Käsetoast
2018-08-14, 02:10:22
Raytracing ist schon ne super Sache...
Leider sehe ich nicht, dass das außerhalb von "schuhkartongroßen Szenen" funktioniert. Auch mit Chip mit Riesenfläche und 6x Speedup gegenüber Pascal beim Raytracen - ich glaube nicht, dass man damit momentan mehr als ein Räumchen oder dergleichen effektiv auf den Bildschirm zaubern kann. Natürlich wird das in den kommenden Jahren dann mehr und mehr kommen, aber der Gamechanger als der das jetzt gerade verkauft wird, wird es meiner Ansicht nach noch auf Jahre hinaus nicht sein...
Außer natürlich für die ganze Architektur & Co Branche. Da hat sich NVIDIA in der Tat ein ganz neues Kundenfeld aufgetan und ich denke da wird das auch sehr gerne genommen werden...
Hübie
2018-08-14, 02:13:58
Das ist so ein Apple Ding.... zeig den Leuten das, was sie noch nicht gewollt haben und zeig Ihnen, dass sie es haben wollen. :D
Es ist NVIDIA's Leitfaden Märkte aufzutun, obwohl noch niemand weiß, dass man sie es brauchen / benötigen. ;)
Sunrise
2018-08-14, 02:14:30
Man kann da schon krasse Eyecatcher bauen...
Alles so extrem exakt und vor allem knackscharf.
Und dann noch in Echtzeit...das eben war schon beeindruckend.
N0Thing
2018-08-14, 02:15:35
Es war doch vollkommen klar, dass die Chips größer werden, oder? Bei 12nm kannst du nur in die Breite gehen, die Chips werden ja komplexer und nicht einfacher.
Zusätzlich ist 12nm sicher um einiges billiger und einfacher zu produzieren als 16nm damals. Gut, 750mm^2 sind echt viel, aber wayne, wenn 7nm noch zu unreif und viel zu teuer ist, da bleibt der GT100 vorbehalten.
Vom neuen Clocking-Verhalten hat er noch nicht gesprochen und das betrifft evtl. nur Gaming.
Ja, aber wie gesagt, Tensor und RT Core nehmen laut den Folien 50% der Chipfläche ein. Bis diese von Spielen und Gameworks in Spielen genutzt wird, liegt das beim Gamer quasi brach. Diese Fläche würde Nvidia vorerst einfach verschenken. Aber vielleicht sind die Gerüchte ja wahr und Pascal bleibt für die Bereiche unten rum bestehen und Turing setzt nur oben einen drauf.
Sunrise
2018-08-14, 02:18:59
Da gräbt Jensen Intel und AMD ordentlich den Markt ab, wenn die Tools auf RTX angepasst sind. Da kommt keine CPU jemals mit.
Vor allem bei den Schweinepreisen, die Intel mangels Konkurrenz gefahren hat.
Die Serverfarm auf nur ein Rack zu verkleinern ist schon fett.
https://i.imgur.com/TnuRY0u.png
BlacKi
2018-08-14, 02:26:08
wieviel serverfarmen hast du zuhause? ich versuche aus dem stream sachen zu ziehen die ich auch nutzen kann.
das war der turing launch... naja, ungefähr das was ich erwartet habe.
Sunrise
2018-08-14, 02:26:28
Die Serverfarm auf nur ein Rack zu verkleinern ist schon fett.
Nicht nur das, du kannst auch das 4-fache davon reinstellen und bist beim Preis dann identisch zu Intel. :tongue:
Da dort Zeit über alles geht, spielt Geld erstmal weniger eine Rolle.
Mancko
2018-08-14, 02:27:50
Da gräbt Jensen Intel und AMD ordentlich den Markt ab, wenn die Tools auf RTX angepasst sind. Da kommt keine CPU jemals mit.
Vor allem bei den Schweinepreisen, die Intel mangels Konkurrenz gefahren hat.
Hab ich mir auch grad gedacht. Dass ist ein massiver Angriff auf den bisher masgeblich aus riesigen Farmen mit CPUs bestehenden Rendermarkt. Da ist viel Geld drinn, dass bisher in andere Taschen geflossen ist und wo es m.E. einenspürbaren Einschnitt durch Nvidia geben wird.
crux2005
2018-08-14, 02:28:25
Das am Ende war der NVIDIA Raytracing slayer? :D
Bösewicht
2018-08-14, 02:29:38
haha
:biggrin:
Käsetoast
2018-08-14, 02:30:25
Der IronManGuy würde ich sagen... ;)
Troyan
2018-08-14, 02:30:28
wieviel serverfarmen hast du zuhause? ich versuche aus dem stream sachen zu ziehen die ich auch nutzen kann.
das war der turing launch... naja, ungefähr das was ich erwartet habe.
Das war doch klar? Unser Stream ist in 6 Tagen dran.
Sunrise
2018-08-14, 02:31:35
Dann mal gute Nacht! Zur Gamescom gehts dann wohl weiter...
wieviel serverfarmen hast du zuhause? ich versuche aus dem stream sachen zu ziehen die ich auch nutzen kann.
das war der turing launch... naja, ungefähr das was ich erwartet habe.
Zählen 3 Rechner schon als Farm? :uponder: :tongue:
Bösewicht
2018-08-14, 02:34:43
nur zum mitschreiben, wo wir in z.b cinema 4d uns abrackern schoene realistische bilder zu basteln um am ende 32 stunden zu rendern damit das zum schlus in etwa so ausschaut wie das 1 karte das jetzt in echtzeit hinbekommt..
wenn epic da seine tools updatet dann wird das fuer viele bestimmt ein riesen spass.
Käsetoast
2018-08-14, 02:37:44
Wobei ich da ehrlich sagen muss, dass das für AMD jetzt doch noch ne Ecke düsterer aussieht. Wenn NVIDIA wirklich die ganze CAD & VFX Industrie unter ihre Fittiche nimmt und die ihre ganze Software und Tools auf Tensor Cores & Co anpassen, dann haben wir da wieder so eine CUDA artige Situation. Vielleicht kann AMD irgendwann was Vergleichbares bringen was die technische Seite angeht, aber die werden bei den Softwareanbietern nie die nötige Basis finden - in der Branche wird NVIDIA Hardware der Standard und daran wird alles angepasst. Ich sehe da keine wirkliche Möglichkeit hier effektiv noch eine Konkurrenz zu bilden...
Mit den besagten Märkten wird NVIDIAs Budget gewaltig nach oben schnellen und ich sehe nicht wie eine Größe wie AMD da noch effektiv konkurrieren soll. Die sind jetzt schon hintendran und wenn NVIDIA demnächst einfach noch viel mehr Geld auf die Forschung & Entwicklung werfen kann und neue Märkte erschließt und nahezu alleine bedient sehe ich nicht wie eine ebenbürtige Konkurrenz da möglich sein soll...
Screemer
2018-08-14, 02:40:31
Das ganze dämpft meine Erwartungen für gaming Turing massiv. Rtx 5000 ist imho selvage, was bei der Größe niemanden verwundern sollte, und kein eigener Chip und das lässt bei kleineren Chips wenig Spielraum für Steigerung, wenn rt- und tensor-cores integriert werden. Vor allem was die rasterizationleistung angeht, erwarte ich kaum Steigerung. Von der dreisten "First raytraycing gpu" Lüge mal abgesehen alles in allem ne gelungene und teils beeindruckende Veranstaltung.
Hübie
2018-08-14, 02:46:50
Na ja Lüge... Es gab noch keinen Hybriden aus Rasterizer und Raytracer. In dem Kontext stand das Kürzel GPU wohl.
Für mich eher enttäuschend, da es soweit nix neues gab. Siggraph typisch wurde kaum über Hardware gequatscht. Hatte mir da mehr erhofft. :D
Troyan
2018-08-14, 02:47:43
Jap. Bei Turing muss nVidia 1/3 des Chips deaktivieren und für 1/5 des Preises verkaufen. Bei Volta hat man dies natürlich nicht benötigt.
Achja, da RTX6000 ebenfalls über den vollen Chip verfügt, sollte es wohl mehr als offensichtlich sein, dass RTX5000 GT104 erhält.
crux2005
2018-08-14, 02:48:51
Wieso kann die Gaming GPU nicht Turing ohne RT&Tensor Core sein? Dafür mit mehr SMs.
Troyan
2018-08-14, 02:52:53
Weil Turing die Gaming-GPU ist - siehe hier: https://developer.nvidia.com/rtx?linkId=100000003236401
Screemer
2018-08-14, 02:54:15
Na ja Lüge... Es gab noch keinen Hybriden aus Rasterizer und Raytracer.
Natürlich gab's den: powervr Wizard.
Newest PowerVR Wizard GPUs have fixed-function Ray Tracing Unit (RTU) hardware and support hybrid rendering.[3]
crux2005
2018-08-14, 02:54:43
Weil Turing die Gaming-GPU ist - siehe hier: https://developer.nvidia.com/rtx?linkId=100000003236401
Ehm, wo steht das?
Glaube ich erst wenn ich es am 20.8. höre...
Troyan
2018-08-14, 02:55:35
Turing ist die Hardwaregrundlage für RTX. Es gibt keine Unterschiede zwischen Gaming und Visualisierung.
crux2005
2018-08-14, 02:57:13
Turing ist die Hardwaregrundlage für RTX. Es gibt keine Unterschiede zwischen Gaming und Visualisierung.
Beweißt noch immer nicht das gegenteil.
Bösewicht
2018-08-14, 02:57:52
edit
Screemer
2018-08-14, 03:02:56
Anders rum. Glaube nicht das die Gaming GPU RT/Tensor Cores haben. Wäre nur Verschwendung von Chip Fläche.
Ich kann mir auch nicht vorstellen, dass wir was annähernd sinnvoll nutzbares bzgl. Rtx und ai in gaming-gpus sehen werden. Vor allem nicht in der Mittel- bis highend-klasse. Ne ti oder Titan mit nem selvage/vollen rtx Turing kann ich mir aber durchaus vorstellen. So im Preisbereich 800-1500€.
Linmoum
2018-08-14, 03:06:59
Halte ich ebenfalls für wahrscheinlich, dass man jetzt nur ganz oben was bringt und alles 1080 und abwärts bis Ampere (oder whatever) in 7nm weiterlaufen lässt.
crux2005
2018-08-14, 03:16:29
https://www.youtube.com/watch?v=lFnWy0Odsh8
Na gut, Peterson sagt was von "Raytracing for Games", "Gameworks", "First on Volta, later on more our Products". Ein Beweis das die Gaming GPU auch RT/Tensor Cores hat ist es trotzdem nicht.
Edit: Was ich mir noch Vorstellen kann ist das die Gaming Version von Turing nur das Minimum an RT/Tensor Cores hat damit zwar Fläche gespart wird, aber trotzdem "Simples" (weniger Rays etc.) Raytracing in Spielen implementiert werden kann.
hab grade gesehen ausser die 2 aus der presentation ist das alles schon von april also nichts neues
Auch erst jetzt gesehen.
Bösewicht
2018-08-14, 03:18:05
Na gut, Peterson sagt was von "Raytracing for Games" und "Gameworks". Ein Beweis das die Gaming GPU auch RT/Tensor Cores hat ist es nicht.
hab grade gesehen ausser die 2 aus der presentation ist das alles schon von april also nichts neues
hab ich nicht behauptet das das so ist
crux2005
2018-08-14, 03:46:15
News von ComputerBase zu Turing (https://www.computerbase.de/2018-08/nvidia-turing-quadro-rtx/)
Weil nicht klar ist, welchen Typ GDDR5X Nvidia als Basis heranzieht, lässt sich aber noch nicht mit Sicherheit auf die Taktraten des GDDR6 schließen.
Der GDDR6 Speicher soll laut Slide mit 14 Gbps laufen. Passt auch zu den 40% mehr (10 GHz vs. 14 GHz).
gravitationsfeld
2018-08-14, 04:09:55
Jetzt ist die Katze aus dem Sack. Das Ding ist ein game changer.
pixeljetstream
2018-08-14, 05:37:53
Es wird vielleicht auch aufgefallen sein, dass zu zwei Punkten aus dem offiziellen Featureumfang noch nix gezeigt wurde. Was sich mit hoher Wahrscheinlichkeit dementsprechend noch ändern wird.
+ Advanced programmable shading technologies to improve the performance of complex visual effects and graphics-intensive experiences
+ New and enhanced technologies to improve performance of VR applications, including Variable Rate Shading, Multi-View Rendering and VRWorks Audio.
gravitationsfeld
2018-08-14, 06:20:58
Wäre nachvollziehbar, der halbe Chip besteht ja aus Tensor Core und RT Core.
Was? Nein.
Locuza
2018-08-14, 06:34:52
Was? Nein.
Die Idee kommt wegen dem Marketing-Material:
https://abload.de/img/as1tmdh3.jpg
Was natürlich nicht die Realität abbildet, entsprechend muss man auf echte die-shots warten und nicht aus künstlichen PR-Bildern und deren Einteilung extrahieren.
Loeschzwerg
2018-08-14, 06:38:51
Schon beeindruckend was mit Turing möglich wird. Das könnte in recht naher Zukunft mal wieder einen guten, sichtbaren Schub bei der "Grafik" geben.
pixeljetstream
2018-08-14, 06:39:03
Diese Dreiteilung ist doch bloß um die drei Feature zu zeigen, kein Statement über Fläche.
Denkt einfach an die Fläche von dem onchip memory (L1 L2 etc.) das ist schon ordentlich was und ist in quasi keinen Schemata obwohl real existierend ;)
Ja bin auch sehr happy, dass der Chip ein Grafikfeuerwerk zündet. Sehr gespannt was die Entwickler mit all den Möglichkeiten die nächsten Jahre hinzaubern.
AffenJack
2018-08-14, 07:37:57
Jetzt ist die Katze aus dem Sack. Das Ding ist ein game changer.
Das mag er sein, aber heutzutage ist alles Multiplatform. Es sieht schon sehr cool aus, was das Ding kann, aber bis zur nächsten Konsolengen wird Turing das deshalb kaum was nutzen.
Korvaun
2018-08-14, 07:59:43
Die RTX5000 sieht verdächtig nach der neuen (1170/1180) 2070/2080 aus, von den Daten her sollte die je nach Taktung auf GTX1080ti-Niveau oder leicht drüber sein. Das würde ja gut passen. Fragt sich nur ob die Karten wirklich 16GB haben oder doch mit 8GB kommen um die Preise nicht zu hoch werden zu lassen.
Edit: Solange Tensor/RT-cores nicht genutzt werden hätte man da sicher auch ordentlich Spielraum was den Takt angeht...
Timbaloo
2018-08-14, 08:08:09
Endlich geht mal was im Grafiksektor!
Loeschzwerg
2018-08-14, 08:10:10
Die RTX5000 sieht verdächtig nach der neuen 1170/1180 aus,
Geforce RTX 20 Serie, nicht 11 :)
https://www.youtube.com/watch?v=F7ElMOiAOBI
RoyTeX
Not_11
gimme 20
Eight Tee
Mac-20
Zu sehen im Chat des Videos ab ca. 0:39.
y33H@
2018-08-14, 08:14:39
Mit 14 Gbps an 256 Bit hat man 448 GB/s anstelle von 320 GB/s (+40%), also RTX 5000 vs GTX 1080. Dazu haben wir 3702 statt 2650 ALUs (+45%) bei wohl schnelleren SMs und mehr vermutlich Takt. Das reicht um auf etwa das Niveau einer Titan XP zu kommen, ggf darüber.
EDIT
Verdammt, es sind 3072 ^^
Thunderburne
2018-08-14, 08:15:24
Es sieht so aus als wen sich die hohen Takraten bewahrheiten werden.
4600 Shader und 16Teraflop deuten zumindest darauf hin.. 2GHZ+Stock für Gamer.
Rancor
2018-08-14, 08:15:46
Endlich mal nen bischen was handfestes....
Jetzt ist die Katze aus dem Sack. Das Ding ist ein game changer.
Das ist was? Das muss sich überhaupt erst mal durchsetzen.
Wir wissen, dass die Konsolen das bislang eben nicht beherrschen und es ist zweifelhaft, ob die nächste Generation das beinhalten wird. Sicherlich gibts eine DX-Schnittstelle, was gut ist, denn damit war die aufwendige Implementierung wenigstens nicht für Arsch. Aber wir werden sehen, was daraus in Zukunft auch wirklich gemacht wird.
Außerdem, hallo? Es hat sich doch nicht geändert, das ist doch exakt die Speku. Wie überraschend.
Interessanterweise hab ich da echt ne Punktlandung gelandet mit meiner Speku:
GT(V)104: 3072 Shader, 256Bit.
Das bedeutet:
2070: 2560 Shader -> 1080-Leistung, sicherlich 8GB
2080: 3072 Shader -> knapp unter 1080 Ti, sicherlich 8GB
2080+: 4096 Shader -> 30% mehr als 1080 Ti, sicherlich 12GB
Titan RTX 4608 Shader -> noch mehr.
Einzig die Int8 und die dedizierte RT-Renderhardware hatte ich nicht auf dem Schirm. Unterstützt das Teil eigentlich RPM? Hab ich jetzt nicht so mitbekommen.
Außerdem hab ich mir ja sofort gedacht, dass die nicht sperrig 1180 heißen. Ich weiss gar nicht, warum sich sowas immer durchsetzt.
Und noch was: Der GT102 ist 754mm² groß. Die werden Preise für die Dinger abrufen, da werdet ihr tot vom Stuhl fallen.
Und noch was weiters: Damit ist 7nm bis 2020 definitiv vom Tisch. Das muss sich amortisieren.
NV ist hier ne Wette eingegangen und hat sich mMn grandios verzockt. Ich erwarte die Prügel.
dargo
2018-08-14, 08:49:56
Und noch was: Der GT102 ist 754mm² groß. Die werden Preise für die Dinger abrufen, da werdet ihr tot vom Stuhl fallen.
Ach was... an 3.000$ gewöhnt man sich doch schnell. :cool:
Linmoum
2018-08-14, 08:51:10
Eine 2080ti wird sicherlich mit 16GB daherkommen. Für GT104 sehe ich dann aber auch nicht mehr als 8GB.
Aber 2080 = 1080ti passt, auch wenn einige ja immer wieder gerne von irgendwelchen =>30% mehr auf die 1080ti fantasiert haben, weil das ja sein muss und Nvidia sonst jetzt gar nicht mehr damit um die Ecke kommen braucht. ;) Auf die Preise freu ich mich aber jetzt schon.
pilzsammler2002
2018-08-14, 08:51:22
Jetzt ist die Katze aus dem Sack. Das Ding ist ein game changer.
Warum hat man das nicht bei PowerVR gehört? :freak:
mboeller
2018-08-14, 08:53:47
Das Ding ist ein game changer.
echt? Wieso? wirklich eine ernst gemeinte Frage.
dildo4u
2018-08-14, 08:58:06
Das ist was? Das muss sich überhaupt erst mal durchsetzen.
Wir wissen, dass die Konsolen das bislang eben nicht beherrschen und es ist zweifelhaft, ob die nächste Generation das beinhalten wird. Sicherlich gibts eine DX-Schnittstelle, was gut ist, denn damit war die aufwendige Implementierung wenigstens nicht für Arsch. Aber wir werden sehen, was daraus in Zukunft auch wirklich gemacht wird.
Außerdem, hallo? Es hat sich doch nicht geändert, das ist doch exakt die Speku. Wie überraschend.
Interessanterweise hab ich da echt ne Punktlandung gelandet mit meiner Speku:
GT(V)104: 3072 Shader, 256Bit.
Das bedeutet:
2070: 2560 Shader -> 1080-Leistung, sicherlich 8GB
2080: 3072 Shader -> knapp unter 1080 Ti, sicherlich 8GB
2080+: 4096 Shader -> 30% mehr als 1080 Ti, sicherlich 12GB
Titan RTX 4608 Shader -> noch mehr.
Einzig die Int8 hatte ich nicht auf dem Schirm. Unterstützt das Teil eigentlich RPM? Hab ich jetzt nicht so mitbekommen.
Außerdem hab ich mir ja sofort gedacht, dass die nicht sperrig 1180 heißen. Ich weiss gar nicht, warum sich sowas immer durchsetzt.
Und noch was: Der GT102 ist 754mm² groß. Die werden Preise für die Dinger abrufen, da werdet ihr tot vom Stuhl fallen.
Die SMs wurden umgebaut,es wird wie bei der 1080 sein,die neue Midrange Karte schlägt die alte Titan.
dargo
2018-08-14, 08:58:29
Eine 2080ti wird sicherlich mit 16GB daherkommen.
Du meinst sicherlich 12GB. 16GB passen nicht zum SI.
Edit:
Achso... du meinst die 2080TI basiert immer noch auf GT104 mit mehr Shadern? Ok... dann macht das wieder Sinn mit den 16GB. :)
Linmoum
2018-08-14, 09:03:38
Die SMs wurden umgebaut,es wird wie bei der 1080 sein,die neue Midrange Karte schlägt die alte Titan.
Wenn es wie bei der 1080 sein wird, dann müsste die 2070 die Titan Xp schlagen. Und die wird ggü. der 1070 garantiert nicht um ~70% zulegen.
dildo4u
2018-08-14, 09:06:04
2080 Ti wird 24GB haben,wie alt ist GDDR5?Wenn sie nicht zumindest eine Verdopplung der Kapazität für den selben Preis schaffen kann man es komplett vergessen.
Die nästen Konsolen Brauchen 16 billige GB.
dargo
2018-08-14, 09:07:28
Wen interessieren jetzt die nächsten Konsolen? Die PS5 kommt eh erst in 2-3 Jahren. Bis dahin hast du wieder neue GPUs am Desktop.
dildo4u
2018-08-14, 09:09:13
Bis dahin wird es aber kein neuen Grafik Speicher geben.
Angiesan
2018-08-14, 09:09:52
Nv ist doch seit Jahren dafür bekannt immer nur das zu verbauen was muss. Also wenn wir hier von +40% beim Speicherdurchsatz lesen, kann man davon ausgehen, dass die 2080RTX auch 40-50 mehr Leistung abliefert wie Pascal. Die 2070RTX wird dann sicherlich wieder leicht über der alten Garde liegen.
Was ich aber auch vermute, es wird teuer. Für mich denkbar sind 999,- $ was dann zuerst mal in Strassenpreise über 1000,- EUR resultieren dürfte.
dargo
2018-08-14, 09:11:13
Ja und? Er sollte dann aber zumindest weniger kosten. Denn auch AMD wird bei Navi GDDR6 verwenden. Die nächsten Konsolen kommen auch noch dazu.
Dural
2018-08-14, 09:14:12
Irgendwie habe ich das Gefühl das Turing nur ein Gaming optimierter Volta ist. Zudem wurde die GPU pro ALU sogar fetter als noch GV100 und das wahrscheinlich ohne 64.
Hätte nicht gedacht das NV so weit geht, da wurde massiv Die Fläche in die Zukunft investiert und man ist ready für 7nm ;)
dildo4u
2018-08-14, 09:32:05
Wenn es wie bei der 1080 sein wird, dann müsste die 2070 die Titan Xp schlagen. Und die wird ggü. der 1070 garantiert nicht um ~70% zulegen.
Warum nicht,soweit ich mich erinnern kann ist das mit Abstand die längste Zeit zwischen zwei Generationen.
Bucklew
2018-08-14, 09:33:05
Wow, da hat NVIDIA was raus gehauen :up:
Muss ich mir wohl wirklich am 20. mal das Event rein ziehen ;D
Und noch was weiters: Damit ist 7nm bis 2020 definitiv vom Tisch. Das muss sich amortisieren.
NV ist hier ne Wette eingegangen und hat sich mMn grandios verzockt. Ich erwarte die Prügel.
Bookmarked ;D
Thunderburne
2018-08-14, 09:35:43
2080 Ti wird 24GB haben,wie alt ist GDDR5?Wenn sie nicht zumindest eine Verdopplung der Kapazität für den selben Preis schaffen kann man es komplett vergessen.
Die nästen Konsolen Brauchen 16 billige GB.
Na ja wieso die Ti kann man auch mit 320Bit realisieren und 20GB mit den 16GBs Chips hätte man genug Durchsatz.
So könnte man die Titan dann besser absetzen mit 384Bit und 24GB und noch mehr Bandbreite.
Dural
2018-08-14, 09:38:03
RTX 2080 / 20.08
https://www.youtube.com/watch?time_continue=9&v=F7ElMOiAOBI
Bösewicht
2018-08-14, 09:39:05
crux2005
ah ok dachte du meintest mich aber gut ist ja auch schon spaet gewesen viel geschlafen hab ich wegen der presentation heute jedenfalls nicht :redface:
starfish
2018-08-14, 09:49:35
Porsche and Epic Games show off new lighting features for Unreal Engine
https://thenextweb.com/creative/2018/08/14/porsche-and-epic-games-show-off-new-lighting-features-for-unreal-engine/
dildo4u
2018-08-14, 09:50:18
Das wurde nirgends erwähnt,die 16GB Version nutzt die kleine billigere GDDR6 Kapazität.Schätze mal 2x für den selben Preis ist Realität.
https://farm2.staticflickr.com/1774/30158337218_d1af6d2ebc_o.png (https://flic.kr/p/MWZmXm)qaudro5000 (https://flic.kr/p/MWZmXm) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
Fragman
2018-08-14, 09:53:24
hier ist noch etwas von chaosgroup
https://www.chaosgroup.com/blog/ray-traced-tendering-accelerates-to-real-time-with-project-lavina
Cubitus
2018-08-14, 10:06:36
Okay RTX, Raytracing inside..
Die Effekte sind bisher eher dürftig, wobei die Technik dahinter schon interessant ist, aber es muss für einen wirklichen Mehrwert, auch "mehr" kommen.
https://www.3dcenter.org/news/nvidia-stellt-adaptive-temporal-antialiasing-als-erste-raytracing-anwendung-vor
Porsche and Epic Games show off new lighting features for Unreal Engine
https://thenextweb.com/creative/2018/08/14/porsche-and-epic-games-show-off-new-lighting-features-for-unreal-engine/
Ist ja ganz nett, wie wird es effizient in den Spielen eingesetzt :uponder:
Es ist jedenfalls viel Überzeugungsarbeit notwendig, ob Raytracing = automatisch besser bedeutet muss erstmals bewiesen werden.
Pixelgrafik ist eben altbewährt.
Dural
2018-08-14, 10:15:03
Da muss keine überzeugungs arbeit geleistet werden, ab einem gewissen zeitpunkt sind deine pixel am ende ;)
Troyan
2018-08-14, 10:24:12
Sieht aus wie die Transition von Geforce 2 auf Geforce 3. Dort gab es auch kaum Zuwächse, aber irgendwann muss man den nächsten Schritt nun mal machen. Ansonsten endet man wie AMD, die seit fünf Jahren die selbe Architektur verkaufen.
Cubitus
2018-08-14, 10:24:52
Da muss keine überzeugungs arbeit geleistet werden, ab einem gewissen zeitpunkt sind deine pixel am ende ;)
ich glaube es wird eher auf einen Kompromiss hinauslaufen,
also teilweise Pixel/Vektor..
Wenn ein Spiel aus reiner Vektor Grafik bestehen würde, geht auch viel von der gewohnten Atmosphäre drauf.
Objekte sehen voll gerendert eben doch anders aus als ihre pixiligen Vorgänger.
Thunder99
2018-08-14, 10:25:27
Ist das jetzt neu dass RT Cores verbaut werden? Man ist ja vorher davon ausgegangen, dass es über TC geht
Troyan
2018-08-14, 10:31:25
Ja, das ist neu.
Bösewicht
2018-08-14, 10:33:06
Okay RTX, Raytracing inside..
Die Effekte sind bisher eher dürftig, wobei die Technik dahinter schon interessant ist, aber es muss für einen wirklichen Mehrwert, auch "mehr" kommen.
sorry aber was wird das?
die effekte sind vereinfacht gesagt das original was mit dein pixel und shader model mit viel aufwand versucht wird zu simulieren.
nicht 4k ist der heilige grahl sondern realistische effekte mit denen selbst simple scenen sehr realistisch aussehen koennen.
Global illumination mit schoenen hdr hintergrund ballert dir ohne groessere muehe jedes spiel auf ein neues level.
horn 12
2018-08-14, 10:34:07
Und noch was weiters: Damit ist 7nm bis 2020 definitiv vom Tisch. Das muss sich amortisieren.
NV ist hier ne Wette eingegangen und hat sich mMn grandios verzockt. Ich erwarte die Prügel.
Da muss ich Dir Recht geben!
AMD muss nun die Gunst der Stunde nutzen und eine RX Vega - Navi - was auch immer - im 7nm Prozess in den Gaming Markt werfen.
Eine GTX 2080 schafft man locker,- eine GTX 2080TI kann man wohl nicht ganz erreichen!
Godmode
2018-08-14, 10:34:33
Ich werde gerade bestärkt, dass GT102 nicht viel schneller als GV100 wird.
Dural
2018-08-14, 10:38:23
naja kommt drauf an was die gaming anpassungen bringen, technisch rein von den rohdaten sicherlich nicht.
war doch aber von anfang an klar.
MadPenguin
2018-08-14, 10:38:29
Haben wir alle den gleichen Stream gesehen? :freak:
Wieso seid ihr alle aus dem Häuschen? Ernst gemeinte Frage. Die neuen GPUs scheinen, ehm, Standardkost. Habe ich was verpasst außer dem Hype um Raytracing?
dildo4u
2018-08-14, 10:38:43
Ich werde gerade bestärkt, dass GT102 nicht viel schneller als GV100 wird.
Kommt drauf an was du benchst,Metro mit Raytracing wird grottig auf Volta laufen.Games ohne Raytracing wird sich nicht viel geben.
Godmode
2018-08-14, 10:46:00
Kommt drauf an was du benchst,Metro mit Raytracing wird grottig auf Volta laufen.Games ohne Raytracing wird sich nicht viel geben.
Merke: Neue Features werden erst mit der nächsten oder übernächsten Generation brauchbar bzw. breitflächig einsetzbar. IMHO.
gbm31
2018-08-14, 10:50:16
Wobei die Geforce3 trotzdem Out of the Box schneller war als die GF2 Ultra, meine ich mich zu erinnern.
Mal sehen ob das jetzt auch so ist.
Für Gamer zählt ja nur Bang for the Buck.
Ich fürchte aber meine 1070ti bleibt 2 Jahre...
Dann gibt's auch bezahlbare 4K Monitore vielleicht...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.