PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Thunderburne
2018-08-18, 12:02:50
Es gab da einen Bericht 9,5GB Grafikspeicher stehen der Xbox one X zur Verfügung der Rest ist für das System Reserviert .

fondness
2018-08-18, 12:06:18
man kann keine rtx2080 mit 8gb ins rennen schicken. das wäre perlen vor die säue.

deswegen müssen die leaks fake sein. auch wenn die leaks ziemlich eindeutig aussehen.

Es gibt offiziellen PDFs von den Boardpartnern. An den 8GB gibt es sicher nichts mehr zu rütteln, das Zeug ist sogar noch immer online.

https://s15.postimg.cc/66hamc64r/1-1080.2575554993.png (https://postimg.cc/image/78rh4voxz/) https://s15.postimg.cc/qduqenbbv/2-1080.2876035804.png (https://postimg.cc/image/jne957o5z/)

Slipknot79
2018-08-18, 12:06:32
Sollten es nur 15% moar Leistung sein bei der 2080TI vs 1080TI, dann lohnt sich ein Umstieg von der 980TI wirklich nicht.
Karten um 700EUR dienen eigentlich dazu um 1 Generation locker überspringen zu können, bei nur 15% moar Leistung kann man sogar 2 Generationen überspringen. :cool:

Ein Lambo ist eben ein Lambo :redface: :cool:

Troyan
2018-08-18, 12:09:28
Es sind theoretisch 20%. Die Karte sollte mindesten doppelt so schnell zur GTX980TI sein.

Slipknot79
2018-08-18, 12:12:05
Afaik sind es von 980TI auf 1080TI ca 60%, da fehlt noch einiges auf 100%.

Triniter
2018-08-18, 12:13:31
Es gibt offiziellen PDFs von den Boardpartnern. An den 8GB gibt es sicher nichts mehr zu rütteln, das Zeug ist sogar noch immer online.

https://s15.postimg.cc/66hamc64r/1-1080.2575554993.png (https://postimg.cc/image/78rh4voxz/) https://s15.postimg.cc/qduqenbbv/2-1080.2876035804.png (https://postimg.cc/image/jne957o5z/)
Zumindest das Dokument der 2080 ist noch voller Fehler.
Da werden im Text 11GB Speicher erwähnt und weiter unten wird die 2080ti erwähnt. Somit ist da noch ein wenig Arbeit zu tun und ein eigener Text für die 80er Serie zu schreiben.

dargo
2018-08-18, 12:19:46
Nich wirklich ein PC hat 16GB Ram,Plus 8 oder 11 für die GPU.
Die XBox One X hat 12 für die ganze Konsole und stellt Vieles in nativen 4k dar.
Das zeugt eher von massiver Ressourcen Verschwendung von vielen PC Ports.
Von Verschwendung kann hier keine Rede sein, eher nicht Nutzung weil nicht nötig. Welche Spiele brauchen unbedingt 16GB Arbeitsspeicher? Auch wenn als Empfehlung 16GB aufgeführt sind sehe ich nicht, dass 8GB zu wenig sind. Gleiches gilt für die GPU-Seite. Sehr viele Spiele brauchen keine 8GB, geschweige denn 11GB Vram. Vor allem mit Presets der XBX. Und kommt mir jetzt hier nicht mit irgendwelchen alten Schinken mit ner Streamingengine aus dem Mittelalter.

Hübie
2018-08-18, 12:21:10
Es gibt offiziellen PDFs von den Boardpartnern. An den 8GB gibt es sicher nichts mehr zu rütteln, das Zeug ist sogar noch immer online.

https://s15.postimg.cc/66hamc64r/1-1080.2575554993.png (https://postimg.cc/image/78rh4voxz/) https://s15.postimg.cc/qduqenbbv/2-1080.2876035804.png (https://postimg.cc/image/jne957o5z/)

Danke. Hab es direkt in den ersten Beitrag eingepflegt. Wo gibt es das PDF? Finde bei PNY jetzt direkt nichts. :redface:

Sunrise
2018-08-18, 12:24:23
Kein HDMI 2.1? WTF?! Ich falle aus allen Wolken.

IMHO eine große Enttäuschung, da NV hier immer führend war.

Man könnte ja schon fast Absicht vermuten.

dargo
2018-08-18, 12:26:12
Es gibt offiziellen PDFs von den Boardpartnern. An den 8GB gibt es sicher nichts mehr zu rütteln, das Zeug ist sogar noch immer online.

https://s15.postimg.cc/66hamc64r/1-1080.2575554993.png (https://postimg.cc/image/78rh4voxz/) https://s15.postimg.cc/qduqenbbv/2-1080.2876035804.png (https://postimg.cc/image/jne957o5z/)
Selbst die 2080 hat schon eine TDP von 285W?

Troyan
2018-08-18, 12:26:59
Kein HDMI 2.1? WTF?! Ich falle aus allen Wolken.

IMHO eine große Enttäuschung, da NV hier immer führend war.

Man könnte ja schon fast Absicht vermuten.

Die Spezifikation wurde zu spät fertiggestellt. Sonys neue High-End Fernseher unterstützen auch kein HDMI 2.1 und kommen auch erst am Jahresende auf den Markt.

Kriton
2018-08-18, 12:30:40
IMO hat Leo in dem Zusammenhang auch Recht, dass Nvidia die Teile jetzt schneller auf den Markt werfen muss, damit sich das vor 7nm amortisiert.

dafür würde auch sprechen, dass es scheinbar sofort Partnerkarten gibt und nicht erst (zeitexklusiv) die FE.

Sweepi
2018-08-18, 12:30:40
@Hubie

Das pdf fuer die GTX 2080 ist bei PNY noch online:
http://www.pny.com/File%20Library/Support/PNY%20Products/Resource%20Center/Graphics%20Cards/RTX%202000%20Series/XLR8-RTX-2080-XLR8-OC-TF.pdf

Habs auch angehangen falls es offline geht..
Ihr muesst die Dateien selbst von *_00n.7z in *.7z.00n umbenennen.

iuno
2018-08-18, 12:34:26
Wie viel Watt sind eigentlich ueber Typ-C fuers HMD (+Peripherie?) vorgesehen? Wird das direkt vom power limit abgezwackt oder geht bei Benutzung der Boost etwas runter?

Ich will hier kein Problem herbeisinnieren, es interessiert mich nur. Hoffe dass das irgendwer testet :D

Edgecrusher86
2018-08-18, 12:36:19
Da die Quadros seit GV100 ja shared Memory per NVLINK in unterstützten Anwendungen bieten, dürfte dies entsprechend auch für GeForce RTX "SLI" gelten. Sofern die Anzahl der Spiele groß genug wäre, könnte man bei Highres Gaming natürlich von einem guter Schritt für gut betuchte Enthusiasten sprechen:

2x RTX 2080 Ti = 22GB shared
2x RTX 2080 = 16GB shared
2x RTX 2070 = 14GB shared

In Kombination mit so einem BFGD könnte man auf der GC schon eine ordentliche Demo zeigen.
Das wird interessant zu sehen sein, inwiefern die Technik im einzelnen aussieht und was sie zu Leisten im Stande ist.
Die Bandbreite ist ja schon mal riesig (~ 50x zur HB-Bridge und immer noch ~ 3x bidirektionalem PCI-E 3.0 x16), sodass auch im MGPU G-SYNC HDR komplett über die Bridge laufen könnte.


Du kannst den TDP-Wert von Turing nicht mit Pascal vergleichen. Virtuallink kann bis zu 27W aufnehmen. Das muss ja durch die Karte gehen...
Deswegen sehen wir auch 8+6 Pin sowie 8+8 Pin Anschlüsse. So wird gewährleistet, dass noch genug Luft für Übertaktung möglich ist.


Ja, Für VirtualLink scheint NV ja 30W bereitzustellen, siehe RTX 2080 und den mutmaßlichen 210W TDP. Zieht man diese von den PNY OC Karten ab, dann kommen auch "nur" 255W für die restliche Karte zustande, was fast analog zu Pascal GTX 1080 Ti wäre.
Mal sehen, eventuell gibt man 330W max PT für die Referenz RTX 2080 Ti frei für besagte OC-Reserven, ansonsten wären 300W maximal total etwas sparsam, wenn auch nicht komplett undenkbar (siehe GTX TITAN mit 250<->265W PT).

Troyan
2018-08-18, 12:36:46
Wie viel Watt sind eigentlich ueber Typ-C fuers HMD (+Peripherie?) vorgesehen? Wird das direkt vom power limit abgezwackt oder geht bei Benutzung der Boost etwas runter?

Ich will hier kein Problem herbeisinnieren, es interessiert mich nur. Hoffe dass das irgendwer testet :D

Bis zu 27W im Powermodus. Irgendwie 15W im normalen.

Ja, das schlägt sich auf das Powerlimit drauf. Deswegen werden die Werte auch höher sein - siehe RTX6000 mit 270W.

Kriton
2018-08-18, 12:37:02
Bin ich der einzige AMD-Affine hier, der diesen Weg von nvidia, eher auf neue Technik (RT, Ai, ...) als auf immer mehr fps zu setzen, als besser findet? Wäre mir nvidia mit ihrer Politik (3,5+0,5, Tesselation von Wasser unter der Oberfläche, Vorzug von proprietär, generelles NDA, ...) nicht zuwider; allein wegen der neuen Technik würde ich ein Turing Karte (sofern in Nano-Ausfertigung und unter 500 €) kaufen.

Nein, ich bin voll bei Dir. Ich überlege sogar zuzuschlagen, aber vermutlich warte ich auch bis 7nm.

Sunrise
2018-08-18, 12:37:22
Selbst die 2080 hat schon eine TDP von 285W?
Das ist sicher ein Fehler im PDF, oben im Text steht was von 2080 Ti und die Überschrift sagt 2080.

PNY nimmts wohl nicht so genau oder die Dinger sind nicht fürs breite Publikum bestimmt.

Gipsel
2018-08-18, 12:38:18
Wie viel Watt sind eigentlich ueber Typ-C fuers HMD (+Peripherie?) vorgesehen? Wird das direkt vom power limit abgezwackt oder geht bei Benutzung der Boost etwas runter?

Ich will hier kein Problem herbeisinnieren, es interessiert mich nur. Hoffe dass das irgendwer testet :D
Da die Wärmeentwicklung ja wohl vorwiegend bei der Peripherie stattfindet, die die Leistung zieht, muß das gar keine (oder nur sehr minimale) Auswirkungen auf den Boost haben. Der Teil wird vermutlich schlicht nicht Teil des Powerlimits sein, auf das die Karte limitiert, sondern zusätzlich variabel obendrauf kommen (weil es eben thermisch egal ist).

dargo
2018-08-18, 12:40:33
Sollten es nur 15% moar Leistung sein bei der 2080TI vs 1080TI, dann lohnt sich ein Umstieg von der 980TI wirklich nicht.

Naja... so tief stapeln muss man jetzt aber auch nicht. :freak:

2080TI hat 47% mehr Shader als 1080TI. Der Boosttakt scheint minimal geringer zu sein, zumindest laut den geleakten Daten. Wie der in der Praxis real ausfällt muss man noch abwarten. Die Shadercores werden bei Turing wohl kaum ineffizienter sein als bei Pascal. ;) Mit ~+40% im Schnitt rechne ich schon. Wenn es noch einige interne Überraschungen gibt eventuell auch etwas mehr.

Edit:
Argh... mit falschen Werten gerechnet. Es sind knapp 29% mehr Shader. :crazy: Somit halte ich +30% bis +40% für möglich.

Troyan
2018-08-18, 12:43:04
Es sind 21% mehr Recheneinheiten für die RTX2080TI gegenüber der GTX1080TI - 34 SM gegen 28 SM.

dargo
2018-08-18, 12:47:28
Wieso rechne ich schon wieder mit 4608? :facepalm: Diese Quadros verwirren mich nur. ;D Ich lass es lieber sein heute. :D

BlacKi
2018-08-18, 12:48:59
Selbst die 2080 hat schon eine TDP von 285W?
bingo^^

aaaaalllles faKE^^

Korvaun
2018-08-18, 12:49:47
Preise? Ich rechne mit:
RTX2080 699$ (ersetzt 1080ti komplett)
RTX2080ti 799-849$ (neuer TopDog)

RTX2070 bin ich nicht sicher obs die Karte überhaupt gibt wenn GTX1080/GTX1070ti/GTX1070 weiter laufen bis 7nm kommt...

Linmoum
2018-08-18, 12:54:56
Vielleicht auch bei den PNY-Karten bedenken, dass das welche mit Werks-OC sind und die TDP bei der Referenz anders ausfällt (und der Boost entsprechend auch noch mal niedriger liegt). ;)

Für Customs müssen die 285W also nicht falsch sein.

BlacKi
2018-08-18, 12:56:41
Vielleicht auch bei den PNY-Karten bedenken, dass das welche mit Werks-OC sind und die TDP bei der Referenz anders ausfällt (und der Boost entsprechend auch noch mal niedriger liegt). ;)

Für Customs müssen die 285W also nicht falsch sein.
beides sind custom karten, aber das ein 500mm² chip dasselbe PT hat wie ein 750mm² chip ist blödsinn!

Hübie
2018-08-18, 12:56:56
Kein HDMI 2.1? WTF?! Ich falle aus allen Wolken.

IMHO eine große Enttäuschung, da NV hier immer führend war.

Man könnte ja schon fast Absicht vermuten.

Eigentlich war es immer mehr so ein Schlagabtausch zwischen Kapazität und Technologie:

Lassen wir das mal Revue passieren:
IHV GPU Gen Erscheinungsjahr Standard Mem Max (Consumer)
AMD Cypress 2009 09 1024 G5 2048 G5
NVIDIA Fermi 2010 03 1536 G5 3072 (ab 2011)
AMD Cayman 2010 12 2048 G5 2048 G5
AMD Tahiti 2011 12 3072 G5 6144 G5
NVIDIA Kepler 600 2012 03 2048 G5 4096 G5
NVIDIA Kepler 700 2013 02 3072 G5 6144 G5
AMD Hawaii / Grenada 2013 10 4096 G5 8192 G5
NVIDIA Maxwell 2.0 2015 03 6144 G5 12288 G5
AMD Fiji 2015 07 4096 HBM 4096 HBM
AMD RX 400 500 2016 06 4096 G5 8192 G5
NVIDIA Pascal 2016 08 11264 G5X 12288 G5X
AMD Vega 2017 07 8192 HBM2 16384 HBM2
NVIDIA Volta 2017 12 12288 HBM2 32768 HBM2
NVIDIA Turing 2018 08 11264 G6 11264 G6


Edit:

@Hubie

Das pdf fuer die GTX 2080 ist bei PNY noch online:
http://www.pny.com/File%20Library/Support/PNY%20Products/Resource%20Center/Graphics%20Cards/RTX%202000%20Series/XLR8-RTX-2080-XLR8-OC-TF.pdf

Habs auch angehangen falls es offline geht..
Ihr muesst die Dateien selbst von *_00n*.7z in *.7z.00n umbenennen.

Pefekt, Danke :up:

fondness
2018-08-18, 13:01:48
beides sind custom karten, aber das ein 500mm² chip dasselbe PT hat wie ein 750mm² chip ist blödsinn!

Muss nicht sein, wenn der Takt beim 500mm² Chip deutlich höher ausfällt. Aber vermutlich einfach ein C&P-Fehler.

dargo
2018-08-18, 13:02:47
Preise? Ich rechne mit:
RTX2080 699$ (ersetzt 1080ti komplett)
RTX2080ti 799-849$ (neuer TopDog)

Mach da eher 899-999$ bei der 2080TI draus wenn der Preis der 2080 stimmen sollte. Wüsste jetzt nicht warum Nvidia für einen Top Dog im Gaming Sektor bei fetten 752mm² und 3GB mehr GDDR6 nur 100-150$ mehr verlangen sollte.

BlacKi
2018-08-18, 13:04:10
Eigentlich war es immer mehr so ein Schlagabtausch zwischen Kapazität und Technologie:

Lassen wir das mal Revue passieren:
IHV GPU Gen Erscheinungsjahr Standard Mem Max (Consumer)
AMD Cypress 2009 09 1024 G5 2048 G5
NVIDIA Fermi 2010 03 1536 G5 3072 (ab 2011)
AMD Cayman 2010 12 2048 G5 2048 G5
AMD Tahiti 2011 12 3072 G5 6144 G5
NVIDIA Kepler 600 2012 03 2048 G5 4096 G5
NVIDIA Kepler 700 2013 02 3072 G5 6144 G5
AMD Hawaii / Grenada 2013 10 4096 G5 8192 G5
NVIDIA Maxwell 2.0 2015 03 6144 G5 12288 G5
AMD Fiji 2015 07 4096 HBM 4096 HBM
AMD RX 400 500 2016 06 4096 G5 8192 G5
NVIDIA Pascal 2016 08 11264 G5X 12288 G5X
AMD Vega 2017 07 8192 HBM2 16384 HBM2
NVIDIA Volta 2017 12 12288 HBM2 32768 HBM2
NVIDIA Turing 2018 08 11264 G6 11264 G6


Edit:



Pefekt, Danke :up:
deine liste ist echt komisch, du hast einige chips weggelassen. damit sie deine these unterstützen?

nimm doch mal nur die großen chips "oder" die 104,204,114er reihe? da sieht man das !jede! generation den Vram verdoppelt hat, und es da keinen echten konkurenzkampf gab. es wurde soviel gebracht wie benötigt wurde. so auch mit turing. 8gb reichen keine 2 jahre mehr!

w0mbat
2018-08-18, 13:04:25
Kann es nicht sein, dass die SMs einfach schneller sind? Also zB dass 1000 Turing shaders mit 1,5GHz Takt 40% schneller sind als 1000 Pascal shaders mit dem gleichen Takt?

Nur so als Bsp., nicht dass ich jetzt gleich 40% erwarte. Aber anders kann ich mir die shader Anzahl und die dazugehörigen Taktraten nicht erklären. Eine GTX 1080 mit 2560 shader @2GHz würde ja eine RTX 2080 mit default Takt schlagen, oder sehr nahe kommen. Dazu gleich viel VRAM, das ergibt alles keinen Sinn.

Außer Turing SMs sind eben deutlich schneller pro Takt. Quasi mehr IPC.

Schnoesel
2018-08-18, 13:04:27
Preise? Ich rechne mit:
RTX2080 699$ (ersetzt 1080ti komplett)
RTX2080ti 799-849$ (neuer TopDog)

"PNY bringt zudem auch Preise mit, wenngleich die runden Werte noch für Platzhalter sprechen könnten. 800 US-Dollar werden für die RTX 2080 in der Overclocked Edition ausgerufen, die übertaktete 2080 Ti soll 1.000 US-Dollar im eigenen Webshop kosten. Zum Vergleich: Die GTX 1080 kostet dort 699 US-Dollar, die 1080 Ti 899 US-Dollar."

https://www.computerbase.de/2018-08/spezifikationen-geforce-rtx-2080-ti/

Ich würde schätzen, dass es definitv eine Preiserhöhung gibt. Sowas lässt man sich doch nicht entgehen. Lass es nicht den Herstellershop sein würde ich eine Ti bei ca 900€ sehen zu Release und das dann durchgehend da keinerlei Konkurrenz.

Sunrise
2018-08-18, 13:05:26
Eigentlich war es immer mehr so ein Schlagabtausch zwischen Kapazität und Technologie:

Lassen wir das mal Revue passieren:
Ich meinte eigentlich im speziellen den Video-Ausgang inkl. En-/Decoder-Einheit, da ist NV AMD schon ein paar Jahre meilenweit voraus gewesen.

Wird wohl auch gerade durch ihre Anforderungen im Tegra-Bereich getrieben.

Troyan
2018-08-18, 13:08:03
Kann es nicht sein, dass die SMs einfach schneller sind? Also zB dass 1000 Turing shaders mit 1,5GHz Takt 40% schneller sind als 1000 Pascal shaders mit dem gleichen Takt?

Nur so als Bsp., nicht dass ich jetzt gleich 40% erwarte. Aber anders kann ich mir die shader Anzahl und die dazugehörigen Taktraten nicht erklären. Eine GTX 1080 mit 2560 shader @2GHz würde ja eine RTX 2080 mit default Takt schlagen, oder sehr nahe kommen. Dazu gleich viel VRAM, das ergibt alles keinen Sinn.

Außer Turing SMs sind eben deutlich schneller pro Takt. Quasi mehr IPC.

Volta kann auch schon gleichzeitig FP- und INT-Berechnungen ausführen, aber ist nur anhand der theoretischen Rechenleistung schneller. Eventuell hat nVidia dies für Grafik deaktiviert und es schlummert noch viel mehr Leistung in Titan V...

Ich denke, es macht einfach kein Sinn darüber nachzudenken. Einfach bis Montag abwarten. Da wird es ja erste Balken von nVidia geben.

dargo
2018-08-18, 13:08:40
Nur so als Bsp., nicht dass ich jetzt gleich 40% erwarte. Aber anders kann ich mir die shader Anzahl und die dazugehörigen Taktraten nicht erklären. Eine GTX 1080 mit 2560 shader @2GHz würde ja eine RTX 2080 mit default Takt schlagen, oder sehr nahe kommen. Dazu gleich viel VRAM, das ergibt alles keinen Sinn.

Was soll dieser unsinnige Vergleich wieder? Wenn du GP104 bis zur Kotzgrenze übertaktest und den Speicher entsprechend mit hochziehst dann fehlt da auch nicht mehr viel auf einen Referenz GP102.

Sweepi
2018-08-18, 13:09:49
Das pdf fuer die GTX 2080Ti hies wohl XLR8-RTX-2080Ti-XLR8-OC-TF.pdf
und war hier online:
http://www.pny.com/File%20Library/Support/PNY%20Products/Resource%20Center/Graphics%20Cards/RTX%202000%20Series/XLR8-RTX-2080Ti-XLR8-OC-TF.pdf

Die Seite ist jedoch nirgendwo wo ich gesucht habe gecached...

fondness
2018-08-18, 13:14:53
Preise? Ich rechne mit:
RTX2080 699$ (ersetzt 1080ti komplett)
RTX2080ti 799-849$ (neuer TopDog)

RTX2070 bin ich nicht sicher obs die Karte überhaupt gibt wenn GTX1080/GTX1070ti/GTX1070 weiter laufen bis 7nm kommt...

Also laut der PNY Homepage (wieder offline) $800 für die RTX 2080 und $1000 für die RTX 2080Ti, könnten aber auch Platzhalten gewesen sein, weil so ein runder Preis eher unüblich ist.

w0mbat
2018-08-18, 13:16:18
Was soll dieser unsinnige Vergleich wieder? Wenn du GP104 bis zur Kotzgrenze übertaktest und den Speicher entsprechend mit hochziehst dann fehlt da auch nicht mehr viel auf einen Referenz GP102.

Du hast meinen Argument nicht verstanden. Das war gar nicht der Punkt. Der Punkt war, dass ich mir überlege, ob Turing SMs einfach deutlich schneller sind als Pascal SMs, bei gleichem Takt.

Wenn Turing nämlich quasi die gleiche shader performance wie Pascal hat, machen die Taktraten keinen Sinn.

dargo
2018-08-18, 13:18:42
Du hast meinen Argument nicht verstanden. Das war gar nicht der Punkt. Der Punkt war, dass ich mir überlege, ob Turing SMs einfach deutlich schneller sind als Pascal SMs, bei gleichem Takt.

Natürlich habe ich dich verstanden. Wieviel performanter die SMs bei Turing sind weiß logischerweise noch niemand, außer NV.

Screemer
2018-08-18, 13:18:56
Du hast meinen Argument nicht verstanden. Das war gar nicht der Punkt. Der Punkt war, dass ich mir überlege, ob Turing SMs einfach deutlich schneller sind als Pascal SMs, bei gleichem Takt.

Das würde schon mehrfach spekuliert. Ich gehe auch davon aus, dass Tesla SMs durch neue Cachestruktur und größere caches an Leistung zulegen werden. +15-20% würden mich nicht überraschen, aber ich gehe von eher ~10% als realistische Einschätzung aus.

Natürlich habe ich dich verstanden. Wieviel performanter die SMs bei Turing sind weiß logischerweise noch niemand, außer NV.
Warum schreibst du dann irgendwas völlig zusammenhangloses von an die kotzgrenze übertakten Pascals? Ihm ging es rein um die Relation von erwarteten Takt und erwarteter Leistung.

Linmoum
2018-08-18, 13:19:05
Vielleicht hat man aber auch einfach den Fokus auf gewisse Features (die noch nicht bekannt sind) und vor allem Ray Tracing gelegt und hatte von vornherein gar nicht die Absicht, hier irgendwelche massive Leistungssteigerungen zu erreichen.

Schneller als die Vorgänger sind die Karten ja trotzdem.

reaperrr
2018-08-18, 13:20:01
dafür würde auch sprechen, dass es scheinbar sofort Partnerkarten gibt und nicht erst (zeitexklusiv) die FE.
Wahrscheinlich waren die Chips schon lange fertig, aber da Pascal dank des Mining-Booms blendend verkauft wurde und wegen der geringeren Chipflächen bessere Margen hatte, hat man Turing halt zurückgehalten.
Und nach dem dann doch relativ plötzlichen Abklingen des Mining-Booms hatte man noch etwas zu viele Pascals auf Lager, weshalb man den Launch-Zeitpunkt noch weiter verschoben hat.

prinz_valium
2018-08-18, 13:20:20
Habt euch doch alle mal wieder lieb...

Wenn die 2080 und die 2080TI nun zur selben Zeit kommen und die kolportierten Preise stimmen, wüsste ich aber gerne wie die 2080 an den Mann gebracht werden sollte.

die 1080 gibt es für 450€ im Abverkauf
die 2080 soll $799 kosten
die 2080Ti soll $999 kosten, oder nur 25% mehr.


Dafür gibt es aber 3GB mehr Ram, 35% mehr Rohleistung und 37% mehr Bandbreite. Von mehr Taktspielraum ist hier noch gar nicht die Rede.
Also da sowohl 2080 als auch 2080Ti für den absoluten Enthusiast Markt abgelegt sind, wüsste ich nicht wie die kleine sich da behaupten soll.
Auch bei den Raytracing Einheiten und Tensor Cores hat man bei der großen deutlich mehr. Man bekommt ja quasi die große Quadro etwas beschnitten...



Wird eine 2070 ein extreme salvage part mit vllt nur 224bit bus?
Hier hat jemand etwas von 14GB im SLI mit Nvidia Link geschrieben.
Würde auch Sinn ergeben, wenn die 2080 schon salvage ist, wie die 1070Ti jetzt...

VooDoo7mx
2018-08-18, 13:25:50
1535MHz Boost Takt bei der 2080Ti.

Also Troyan, es ist genauso wie ich gesagt habe, kaum bis kein Mehrtakt bei Turing ggü Pascal. WO soll es dann bei fast gleicher Fertigung auch herkommen.

Also als Titan X Besitzer haut mich die 20% mehr Recheneinheiten der 2080 nicht vom Hocker.

Wirklich lohnen wird sich ein Upgrade für Pascal Besitzer erst, wenn es viele interessante Titel gibt die Raytracing nutzen.

Schnoesel
2018-08-18, 13:27:20
Wenn es keine "nennenswerte" Mehrleistung ggü. der Vorgängergeneration gibt muss eben Raytracing als Verkaufsargument herhalten. Ob es dann bei den kleineren Karten sinnvoll ist (2070/2060) steht auf einem ganz anderen Blatt. Ich bin da skeptisch. War bei PhysX ja nicht anders.

Troyan
2018-08-18, 13:27:28
Wer weiß denn, ob die Werte von PNY stimmen? Die P6000 hat einen maximalen Takt von 1640Mhz und einen Boost von 1570Mhz. Das liegt deutlich unter dem Boost-Takt der RTX6000 von ~1750Mhz.

fondness
2018-08-18, 13:28:02
Man sollte auch nicht vergessen, dass auch der GDDR6 einiges bringen wird, die Bandbreite steigt überproportional. Mea culpa, NV hat ja bereits GDDR5X im Einsatz.

Linmoum
2018-08-18, 13:30:02
Wer weiß denn, ob die Werte von PNY stimmen? Die P6000 hat einen maximalen Takt von 1640Mhz und einen Boost von 1570Mhz. Das liegt deutlich unter dem Boost-Takt der RTX6000 von ~1750Mhz.
Da waren nicht nur die Specs drin, sondern das war schon die komplette Produktseite. Logisch, wenn am Montag bereits die Vorbestellungen losgehen sollen, da schalten die Händler/Hersteller die Seite dann nur noch final frei.

Es wird sicherlich seine Gründe haben, warum der Takt so angesetzt ist.

dargo
2018-08-18, 13:30:32
Warum schreibst du dann irgendwas völlig zusammenhangloses von an die kotzgrenze übertakten Pascals?
Habe ich den 2Ghz GP104 ins Spiel gebracht oder w0mbat?

Habt euch doch alle mal wieder lieb...

Wenn die 2080 und die 2080TI nun zur selben Zeit kommen und die kolportierten Preise stimmen, wüsste ich aber gerne wie die 2080 an den Mann gebracht werden sollte.


Raytracing
Raytracing
Raytracing
Raytracing
Raytracing
Raytracing
...

Screemer
2018-08-18, 13:36:27
Habe ich den 2Ghz GP104 ins Spiel gebracht oder w0mbat?

Also hast du doch nicht verstanden auf was er hinaus wollte?

reaperrr
2018-08-18, 13:45:25
Das würde schon mehrfach spekuliert. Ich gehe auch davon aus, dass Tesla SMs durch neue Cachestruktur und größere caches an Leistung zulegen werden. +15-20% würden mich nicht überraschen, aber ich gehe von eher ~10% als realistische Einschätzung aus.
Kann schon sein, man sollte aber auch nicht vergessen, dass vor allem die 2080 ein gutes Stück mehr Bandbreite pro FLOP (40% mehr Speichertakt für 15% mehr SM im Vergleich zu 1080 FE) und zusätzlich auch scheinbar noch verdoppelten L2-Cache hat (ist jedenfalls bei TU102 der Fall, deshalb auch bei TU104 wahrscheinlich).

die 1080 hat ja durchaus von höherem Speichertakt profitiert, war also durchaus zu einem gewissen Grad bandbreitenlimitiert (sonst hätte mehr Speichertakt nichts gebracht, so wie damals bei Tahiti).
Würde mich nicht überraschen, wenn allein das Quasi-Wegfallen des Bandbreitenlimits die "IPC" um 5-10 Prozentpunkte erhöht.

dargo
2018-08-18, 13:45:30
Also hast du doch nicht verstanden auf was er hinaus wollte?
Willst du mich jetzt verkackeiern?

RLZ
2018-08-18, 13:48:49
Wenn es keine "nennenswerte" Mehrleistung ggü. der Vorgängergeneration gibt muss eben Raytracing als Verkaufsargument herhalten.
Nvidia ist wohl der Meinung, dass das Gesamtergebnis besser wird, wenn man die Chipfläche in Raytracing und Tensorcores investiert. Und wenn man so viel Chipfläche investiert, ist es natürlich auch ein Verkaufsargugment. :confused:

Und seien wir mal ehrlich. 20-30% mehr Rechenleistung hätte kaum einen sichtbaren Unterschied bei Spielen ausgemacht. Dafür können wir nun ein paar extrem störende Artefakte von Screenspace Effekten loswerden und wir können gespannt sein, was mit den Tensorcores noch feines gebastelt wird.

SKYNET
2018-08-18, 13:53:37
die 1080 hat ja durchaus von höherem Speichertakt profitiert, war also durchaus zu einem gewissen Grad bandbreitenlimitiert

Eher weniger... 10% mehr takt brachten 1-3% mehr leistung

Sonyfreak
2018-08-18, 14:00:36
Anscheinend werden also sowohl bei RTX 2080 als auch bei RTX 2080Ti beschnittene Chips verwendet. Schade, für solche Karten gebe ich kein Geld aus. ;(

mfg.

Sonyfreak

MartinRiggs
2018-08-18, 14:02:02
Ich weiß gar nicht was sich alle schon halb zerfleischen.:biggrin:
Fakt ist vermutlich das Raytracing die nächste Zeit noch gar keine große Rolle spielt, dazu ist die 2080 mit 8GB uninteressant.
Also zurücklehnen und mit der alten Karte weiterzocken.
Wenn die 1180Ti wirklich für gut 1000€ kommt habe ich gar kein Bedürfnis die zu kaufen.

Timbaloo
2018-08-18, 14:03:31
Wir brauchen unbedingt einen Live-Ticker wer sich welche Karte kauft oder nicht kauft. Das ist viel spannender als Diskussionen über Technik.

(y)

Godmode
2018-08-18, 14:07:36
Anscheinend werden also sowohl bei RTX 2080 als auch bei RTX 2080Ti beschnittene Chips verwendet. Schade, für solche Karten gebe ich kein Geld aus. ;(

mfg.

Sonyfreak

Die Chips der letzten Jahre waren alle beschnitten, selbst die Titans. Du kannst dir ja ne Quadro kaufen, dann gibts nix zu jammern und hast den doppelten VRAM. :biggrin:

Sonyfreak
2018-08-18, 14:19:50
Die Chips der letzten Jahre waren alle beschnitten, selbst die Titans. Du kannst dir ja ne Quadro kaufen, dann gibts nix zu jammern und hast den doppelten VRAM. :biggrin:Naja, GTX 1080, GTX 980, GTX 780ti, GTX 770/680 und GTX 580 waren alle nicht teildeaktiviert. Die Gx104-Chips sind bisher also auch immer unbeschnitten auf den Markt gekommen.

Aber ja, es ist jetzt eh wie es ist und man wird sich damit arrangieren.

mfg.

Sonyfreak

Edgecrusher86
2018-08-18, 14:34:19
Also wenn man um die 40-50% Mehrleistung abseits Raytracing gegenüber einer jeden Last Gen Karte ermöglichen möchte, dann bedarf es entweder einer allgemeinen IPC Erhöhung abseits von Compute (wie Volta es schon hatte).
Eventuell wäre es ja auch nicht völlig unmöglich, wenn die RT Cores auch FP32 könnten, um die SPs zu unterstützen. Über einen erhöhten Taktanstieg alleine kann man das obige mögliche Performance Target unter 12nm ja nicht erreichen.

Natürlich extrem spekulativ, aber ich könnte mir vorstellen, dass der volle TU102 1152 RTs aufweisen könnte. Also 192 pro GPC, 32 pro SM. Das wäre dann 1/4 der FP32 Einheiten (TC sind ja bekanntlich 1/8). Sicherlich nicht unmöglich bei der DIE-Size.
Diese Überlegung weiter geführt unter dem Aspekt, dass man bei TU104 und TU106 (wohl RTX 2070) nichts beschneiden würde und die RTs auch vollwertige FP32-Berechnungen ermöglichen würden, sofern Raytracing nicht genutzt wird:


GPU|FP32+RT|Units FP32|Units RT|Units TC|TF/s FP32 @ 1,75 GHz|TF/s FP32+RT @ 1,75 GHz|@ 1,80 GHz|@ 1,85 GHz|@ 1,90 GHz|
TU102 Full|5760|4608|1152|576|16,13|20,16|20,74|21,31|21,89|
TU102 Salvage|5440|4352|1088|544|15,23|19,04|19,58|20,13|20,67
TU104 Full|3840|3072|768|384|10,75|13,44|13,82|14,21|14,95
TU104 Salvage|3680|2944|732|368|10,30|12,88|13,25|13,62|13,99
TU106 Full (?)|3040|2432|608|304|8,51|10,64|10,94|11,25|11,56



Das wäre dann eine mögliche secret sauce, die auch eine RTX 2070 oberhalb einer GTX 1080 platzieren würde, wenn kein Raytracing zum Tragen käme. Mal schauen, ob die Rechnungen für die Katz waren. ;D


E: Auf jeden Fall reicht halt weder das Plus an Einheiten + Speicherbandbreite und die zu erwarteten Taktraten von 1,7-1,8 GHz aus, damit ein TU102 im GPU-Limit auf GP102 deutlich über 20% drauf legen kann. Erst recht nicht beschnitten.

Einheiten RTX 2080 Ti:
+ 13% vs. TITAN Xp
+ 21% vs. TITAN X(P)/GTX 1080 Ti

Bandbreite RTX 2080 Ti:
+ 12% vs. TITAN Xp
+ 27% vs. GTX 1080 Ti
+ 28% vs. TITAN X(P)

Dazu kommen vermutlich auch nur grob + 100-150 MHz Takt im Max Boost auf z.B. eine TITAN X(P) [~ 1,6 GHz @ 84°C TT], die out of the Box mit default Targets gehalten werden dürften.

dargo
2018-08-18, 14:41:28
Ist es überhaupt schon sicher, dass Tensor Cores Quadro = Tensor Cores Gaming ist? Schließlich sind die Gaming Chips bei den SMs auch beschnitten.

Edit:
Ops... merke gerade das ist schon in deiner Rechnung drin. :redface:

pixeljetstream
2018-08-18, 15:07:38
@Edgecrusher, lass das Summieren sein. So wird keine hw designt. Nur weil irgendne unit intern Arithmetik macht, wird die deswegen nicht generisch ansprechbar. Das würde sie ja komplizierter, ergo langsamer machen. Denke an die texture units die auch seit Jahren fröhlich interpolieren.

prinz_valium
2018-08-18, 15:11:29
Interessanter Ansatz, aber ich glaube nicht, dass die RT Einheiten auch FP32 berechnen können.
Das würde irgendwie gegen hoch spezialisierte Recheneinheiten Sprechen.
Ist doch bei den Tensor Cores auch nicht der Fall, oder speziellen Einheiten nur für Tessellation.

Ich gehe davon aus wir sehen die 40/50% Mehrleistung in Spezialfällen und in normalen Spielen dann eben 15/20%


Dein T106 sieht mir aber nach etwas viel Cores aus.
Wenn der so kommt, könnte er der insgeheime König sein, wenn da nicht die geringe Ram Menge wäre, die im Raum steht.

Edgecrusher86
2018-08-18, 15:16:47
Ja, höchst spekulativ wie gesagt. Mal schauen, wie NV die generelle Performance denn auf über 20% hieven möchte. Sicherlich optimal, wenn eine dedizierte Einheit sich auch nur um genau eine Sache kümmern muss. :D

Die Spekulationen zur RTX 2070 kommen von der TPU-Database - bei der RTX 2080 lag man ja schon einmal korrekt:
https://www.techpowerup.com/gpudb/3252/geforce-rtx-2070

E: Also die Anzahl der TC bei den Desktopkarten sind meines Wissens nach noch nicht bestätigt worden, aber zumindest für Raytracing dürfte es wohl sinnig sein, diese nicht weiter zu beschneiden. Was die kleineren Chips an geht - gut möglich, dass da etwas reduziert wird.


Die Chips der letzten Jahre waren alle beschnitten, selbst die Titans. Du kannst dir ja ne Quadro kaufen, dann gibts nix zu jammern und hast den doppelten VRAM. :biggrin:

Außer GTX TITAN X - das war keine Salami-TITAN. Aber das wäre im bewährten 28nm Prozess auch nicht so gut angekommen. :)

Leonidas
2018-08-18, 15:46:10
Die Taktraten-Angabe von PNY kann fast nur nonsens sein, ich hab das mal nachgerechnet:
+14% Rechenleistung zwischen 1080 Ti und 2080 Ti
+6% Rechenleistung zwischen 1080 und 2080
(bezogen jeweils auf die XLR8-OC-Editionen von PNY)
https://www.3dcenter.org/news/pny-leakt-ausgesprochen-handzahme-taktraten-zu-geforce-rtx-2080-2080-ti

dildo4u
2018-08-18, 15:48:00
Natürlich ist es Mist die 2080 hat nicht umsonst 40% mehr Bandbreite.

dargo
2018-08-18, 15:49:45
Wie willst du die denn kürzen wenn wir annehmen, dass es aktuell nur 14Gbps Chips gibt? "Künstlich" im Takt reduzieren? SI kastrieren wird schwierig, weil du dann keine 8GB raus bekommst.

ShinyMcShine
2018-08-18, 15:50:19
Wow Leo, Du kommst gerade kaum aus dem Schreiben raus. :eek: Artikel über Artikel auf der Hauptseite... :biggrin:

Linmoum
2018-08-18, 15:50:20
Die Taktraten-Angabe von PNY kann fast nur nonsens sein, ich hab das mal nachgerechnet:
+14% Rechenleistung zwischen 1080 Ti und 2080 Ti
+6% Rechenleistung zwischen 1080 und 2080
(bezogen jeweils auf die XLR8-OC-Editionen von PNY)
https://www.3dcenter.org/news/pny-leakt-ausgesprochen-handzahme-taktraten-zu-geforce-rtx-2080-2080-ti
Der Boost an sich ist sowieso Quark, schau dir Pascal an. Da haben Customs einen offiziellen Boost von 16XX MHz, real takten die aber mit >=1900MHz.

Die Angabe an sich kann also stimmen, da der reale Takt sowieso höher liegen sollte.

Edit: Die auch von dir zum Vergleich herangezogene 1080ti von PNY hat einen offiziellen Boost von 1645Mhz. In der Realität liegt der Takt aber immer bei (mindestens) ~1900MHz.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/43435-pny-geforce-gtx-1080-ti-xlr8-gaming-oc-im-test.html?start=1

dargo
2018-08-18, 15:55:15
Der Boost an sich ist sowieso Quark, schau dir Pascal an. Da haben Customs einen offiziellen Boost von 16XX MHz, real takten die aber mit >=1900MHz.

Also wenn ich hier schaue:
https://geizhals.de/?cat=gra16_512&xf=9810_7+8228+-+GTX+1080

sehe ich nirgendwo was mit 16XXMhz Boost. Nicht mal bei den Dingern mit dem Referezkühler. :confused:

Edit:
Selbst die FE hat 1733Mhz Boost und real liegen im Schnitt 1667Mhz laut CB an.
https://geizhals.de/gainward-geforce-gtx-1080-founders-edition-3620-a1441859.html?hloc=at&hloc=de

Linmoum
2018-08-18, 16:00:38
Siehe die verlinkte PNY, die hat offiziell 1645MHz. Das ist bei Pascal normal, dass der Takt bei den Customs weit über dem offiziellen Boost liegt. Die rennen halt nicht ins TT wie die FE.

dildo4u
2018-08-18, 16:06:46
Deshalb ist der Launch so viel besser als bei Pascal,selbst billige Customs sollten mit 1.8Ghz laufen.

prinz_valium
2018-08-18, 16:09:59
Das stimmt zwar, aber die 1080TI FE hat auch nur 1582 Boostclock anliegen.
Und die 2080TI hat mehr TDP und einen größeren Chip.

Also 100% unmöglich und Unsinn ist es imho nicht.
Es geht ja nicht darum, dass der tatsächlich Boost höher liegt, oder beim Übertakten noch mehr Spielraum vorhanden ist.

Aber von Papier zu Papier passt das schon irgendwie.

horn 12
2018-08-18, 16:10:05
@Dildo4u

Und wie schnell wird dann eine RTX 2080 FE
bzw. RTX 2080 Custom in etwa ?

Im Performance-Unterschied zur GTX 2080

Tesseract
2018-08-18, 16:10:37
keine ahnung wie die hersteller auf die boost-angabe kommen, aber in der realität liegt der maximaltakt deutlich darüber (es sei denn die karte läuft in den temperatur-throttle oder ins power limit) und unterscheidet sich von chip zu chip leicht.

dargo
2018-08-18, 16:10:54
Siehe die verlinkte PNY, die hat offiziell 1645MHz. Das ist bei Pascal normal, dass der Takt bei den Customs weit über dem offiziellen Boost liegt. Die rennen halt nicht ins TT wie die FE.
Schon klar... nur ist dann die offizielle TDP-Angabe Käse. ;) Das sieht man auch sehr schön bei GP104.
https://www.computerbase.de/2016-07/geforce-gtx-1080-partnerkarten-vergleich-test/2/

Eine Zotac GTX 1080 AMP! Extreme kann die 1.987 MHz halten, nuckelt aber mal eben 100W mehr aus der Dose beim Gesamtsystem als die Referenz. Die Customs takten nicht nur höher weil sie nicht ins TT laufen sondern auch weil die Partner das PT erhöhen.

Linmoum
2018-08-18, 16:11:47
Deshalb ist der Launch so viel besser als bei Pascal,selbst billige Customs sollten mit 1.8Ghz laufen.
Klar, Customs direkt zum Start ist natürlich wunderbar. Aber die Angaben von PNY zum Boost können halt trotzdem stimmen, weil der sowieso nichts mit den real anliegenden Taktraten zu tun hat - vorausgesetzt natürlich, der Kühler ist gut genug und die Karte rennt nicht ins TT. Was bei Customs aber auch nicht der Fall sein sollte.

Fliwatut
2018-08-18, 16:12:45
Kann es nicht sein, dass die SMs einfach schneller sind?
Möglich, es wurde ja so etwas angedeutet:
Nvidia nennt für Turing den dreifachen Pixeldurchsatz pro Streaming Multiprocessor als bei Pascal und eine Billionen Dreiecke soll Turing pro Takt ausspucken können. Um das zu erreichen wurde die Grafik-Pipeline erweitert, Nvidia spricht von einer „neuen, programmierbaren Shading-Technologie“.
https://www.computerbase.de/2018-08/nvidia-turing-quadro-rtx/

reaperrr
2018-08-18, 16:16:19
Eher weniger... 10% mehr takt brachten 1-3% mehr leistung
Okay, hab nochmal nachgeschaut, 2-3% sind die häufigsten Fälle.
Zumindest vereinzelte Fälle von 4-5% gibt's aber auch (mal bei Durchschnitts-, mal bei MinFPS): http://www.pcgameshardware.de/Geforce-GTX-1080-8G-11-Gbps-OC-Grafikkarte-265908/Tests/Benchmark-Review-1226438/

Aber natürlich auch ein paar von 0-1%.
Ich denke aber, von knapp 3% im Durchschnitt kann man schon reden.

Also zumindest von ~5-6% mehr Leistung nur durch höhere SB pro FLOP kann man bei der 2080 schon ausgehen, nach aktuellem Info-Stand ist die SB pro FLOP bei der 2080 immerhin 20% höher als bei der 1080 FE.
Kommt noch doppelter L2 drauf, geht es wahrscheinlich auch nah an die 10%.

BaggiBox
2018-08-18, 16:21:24
Kann mir jemand sagen, ob irgendwelche Maße bereits durchgesickert sind??

Ich hab mir das Gehäuse "in win a1" gekauft und da passt meine Asus Karte rein mit 30,5cm.
https://www.amazon.de/Strix-GTX980TI-DC3OC-6GD5-GeForce-Grafikkarte-Speicher-DisplayPort/dp/B01062AE20

Wäre nice wenn die 2080 Ti genau die selben Maße hätte + -

Fliwatut
2018-08-18, 16:24:53
Wäre nice wenn die 2080 Ti genau die selben Maße hätte + -
Die 2080ti von PNY (siehe News auf der Startseite) wird mit 31,4cm angegeben.

dargo
2018-08-18, 16:25:04
Kann mir jemand sagen, ob irgendwelche Maße bereits durchgesickert sind??

Die PNY 2080TI misst 31,39cm, die PNY 2080 29,21cm.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11772411&postcount=4252

dildo4u
2018-08-18, 16:25:30
Kann mir jemand sagen, ob irgendwelche Maße bereits durchgesickert sind??

Ich hab mir das Gehäuse "in win a1" gekauft und da passt meine Asus Karte rein mit 30,5cm.
https://www.amazon.de/Strix-GTX980TI-DC3OC-6GD5-GeForce-Grafikkarte-Speicher-DisplayPort/dp/B01062AE20

Wäre nice wenn die 2080 Ti genau die selben Maße hätte + -
Das kommt auf den Hersteller an und wie er den Chip laufen lässt der Chip an sich braucht nicht mehr Strom als die alten Karten.
Es gibt selbst Mini 1080 Ti.

https://www.mindfactory.de/product_info.php/11GB-ZOTAC-GeForce-GTX-1080-Ti-Mini-Aktiv-PCIe-3-0-x16--Retail-_1184264.html

BaggiBox
2018-08-18, 16:27:50
Ok danke Jungs!

Das kommt auf den Hersteller an und wie er den Chip laufen lässt der Chip an sich braucht nicht mehr Strom als die alten Karten.
Es gibt selbst Mini 1080 Ti.

https://www.mindfactory.de/product_info.php/11GB-ZOTAC-GeForce-GTX-1080-Ti-Mini-Aktiv-PCIe-3-0-x16--Retail-_1184264.html

hööö? Haben die Minikarten denn die selbe Leistung wie die normalen?
Sehe sowas zum ersten mal, muss ich gestehen.

dildo4u
2018-08-18, 16:28:53
Besser als die Nvidia Karten schlechter als die 30cm Monster.

Mortalvision
2018-08-18, 16:31:23
Sehr kurzfristigja, dann kommen TT und PE, deswegen sollte man die Mini undervolten und konservativ takten.

crux2005
2018-08-18, 16:38:10
PNY hat anscheinend eine Produktseite der 2080 Ti versehentlich freigeschaltet gehabt. 1000$ sind als MSRP angegeben. Specs sehen für mich soweit glaubwürdig aus, Clocks wirken auf den zweiten Blick allerdings etwas niedrig für ne OC Variante.

via Reddit (https://www.reddit.com/r/nvidia/comments/987roy/rtx_2080_ti_leak/)


https://i.imgur.com/PVX5Yry.png
https://i.imgur.com/Wb3XXLU.png


Ui. Ich hoffe das MSRP ist dann so wie bei der 1080 Ti. Maximal $850. Das werden dann noch immer ~1000€. Bei $1000 rechne ich mindestens mit 1200€ (+ early adopter). ;(

Clocks wirken für mich auch niedrig, außer das ist so eine OC-Version, wo die Clocks jeweils um 20mhz erhöht wurden. Die 1000$ MSRP sollte einen nicht beuunruhigen:



https://www.computerbase.de/2018-08/spezifikationen-geforce-rtx-2080-ti/

Jeweils 100$ mehr im Shop bei denen, als die 1080/TI. Spräche für 799$ bei der 2080TI, falls sich das als wahr erweist.

Macht Sinn.:up:

Kriegsgeier
2018-08-18, 16:41:22
Leute? Kann man davon ausgehen, dass die Wasserkühler für den 2080ti diesmal auch sehr schnell kommen werden?

Z. B.. von Aquacomputer

dildo4u
2018-08-18, 16:42:38
Die Taktangaben von PNY sind Mist der große Chip läuft über 1.7Ghz,der kleine vermutlich 1.9.Ansonsten kommste nicht auf die 16 Tflops für den großen Chip.

https://www.anandtech.com/show/13217/nvidia-announces-turing-powered-quadro-rtx-family

SKYNET
2018-08-18, 17:11:59
Nur die grosse quadro kommt auf 16tflops, die 2080ti ist aber schon beschnitten entsprechend weniger leistung kommt raus.

Die pny oc version hat 13.45tflops, die FE wird sicher 13 haben.

Hübie
2018-08-18, 17:22:08
deine liste ist echt komisch, du hast einige chips weggelassen. damit sie deine these unterstützen?

nimm doch mal nur die großen chips "oder" die 104,204,114er reihe? da sieht man das !jede! generation den Vram verdoppelt hat, und es da keinen echten konkurenzkampf gab. es wurde soviel gebracht wie benötigt wurde. so auch mit turing. 8gb reichen keine 2 jahre mehr!

Stimmt ich habe GM204 vergessen. Die anderen sind neue Architekturen in dem jeweiligen Jahr. Wenn's dir nicht passt, mach ne eigene. :P

Kriegsgeier
2018-08-18, 17:33:10
Gerade auf VIDEOCARDZ-Tweet:

"2070 might steal the show"

Was das wohl bedeuten könnte?

Quelle: https://twitter.com/VideoCardz/status/1030822671850897414?s=19

Ex3cut3r
2018-08-18, 17:34:10
Leistung einer Titan XP für 550€?

Troyan
2018-08-18, 17:35:08
Leistung einer GTX1070 zum Preis einer GTX1070 mit nun 7GB. ;D

Linmoum
2018-08-18, 17:36:12
Leistung einer Titan XP für 550€?
Und 'nen HDR-Monitor gibt's gratis dazu!

dargo
2018-08-18, 17:37:59
Den hier? :D
https://geizhals.de/asus-rog-swift-pg27uq-90lm03a0-b01370-a1571346.html?hloc=at&hloc=de

Ex3cut3r
2018-08-18, 17:38:55
Ja lacht nur ihr AMDler, ihr werdet schon sehen.

Geht doch in eueren AMD Vega Undervolting Thread, und feiert eure 1070Ti Leistung weiter ab. ;D

JaniC
2018-08-18, 17:40:24
Hatten wir die vermeintlichen ASUS Kartons und Karten schon?

https://videocardz.com/newz/asus-geforce-rtx-2080-ti-strix-dual-and-turbo-series-pictured

Eine 2080 Ti mit Blower :eek:

Troyan
2018-08-18, 17:41:31
Nein, sind neu. Frage mich ja, ob nVidia die Leaks direkt zu Videocardz schickt...

SKYNET
2018-08-18, 17:51:40
Die asus komplett in mattschwarz, macht mich ja schon ein wenig geil :eek:

dildo4u
2018-08-18, 17:54:00
Das liegt daran wie sie gerendert sind ich glaube kaum das die Blower Version eine schwarze Port Blende hat.

Kriegsgeier
2018-08-18, 18:00:29
Leute, wie war noch mal das mit GTX680 --> GTX780??

Ex3cut3r
2018-08-18, 18:02:11
Leute, wie war noch mal das mit GTX680 --> GTX780??

Was soll da sein?

War beides die gleiche Architektur -> Kepler, nur das die 680 auf den "Performance" Chip aufgebaut war GK104 und die 780 eine beschnitte Titan war, GK110

crux2005
2018-08-18, 18:09:20
Gerade auf VIDEOCARDZ-Tweet:

"2070 might steal the show"

Was das wohl bedeuten könnte?

Quelle: https://twitter.com/VideoCardz/status/1030822671850897414?s=19

Knapp unter 2080 (mit viel OC Potenzial) für 200€ weniger? :biggrin:

Adam D.
2018-08-18, 18:14:07
Ich möchte nochmal dran erinnern, dass Igor explizit Änderungen am Taktverhalten angesprochen hat, ich würde das alles aktuell nicht zu ernst nehmen.

Pumpi74
2018-08-18, 18:21:09
ASUS Karten mit Lüftern im Noiseblocker Eloop Design ist aber auch mal was neues....

BlacKi
2018-08-18, 18:30:46
Leute, wie war noch mal das mit GTX680 --> GTX780??
wie war das denn damals? die 780 war die alte architektur der 680 nur eben der große chip. zusammenhänge zwischen 680 vs 780 und 1080 vs2080 gibt es garkeine.

Die asus komplett in mattschwarz, macht mich ja schon ein wenig geil :eek:

sieht gut aus, aber ich glaube das die renderbilder einfach nur nicht angemalt sind um es geheimnisvoller bis zum montag zu halten.

ChaosTM
2018-08-18, 18:33:35
11GB disqualifizieren das Ding leider (wenn wahr). SC mit Ultra Settings frisst die schon zum Frühstück.. schade.

edit.: Vielleicht kommt ja ne Titan mit 24..

BlacKi
2018-08-18, 18:37:41
edit.: Vielleicht kommt ja ne Titan mit 24..
lol ist es so einfach dich zum kauf einer titan zu verleiten?^^

Felis silvestris
2018-08-18, 18:40:58
Ich möchte nochmal dran erinnern, dass Igor explizit Änderungen am Taktverhalten angesprochen hat, ich würde das alles aktuell nicht zu ernst nehmen.
Ja aber man schreibt doch trotzdem aus Marketinggründen den höchstmöglichsten Takt auf die Packung oder? Selbst wenn der nur 3 Sekunden gehalten wird.
Und Taktdomänen z.B. bei den Fermis standen auch einzeln angegeben auf der Schachtel (Chiptakt/Shadertakt).
Vielleicht gibts ja doch ne Architekturverbesserung wenn vielleicht auch nicht so extrem wie bei Kepler->Maxwell.

dildo4u
2018-08-18, 18:41:08
11GB disqualifizieren das Ding leider (wenn wahr). SC mit Ultra Settings frisst die schon zum Frühstück.. schade.

edit.: Vielleicht kommt ja ne Titan mit 24..
Das Game füllt den Vram braucht es aber nicht.
Davon aber soll es später Vulkan bekommen das könnte sich dann komplett anders verhalten,zur Zeit spielt dort der Treiber mit rein.

Bösewicht
2018-08-18, 18:42:09
11GB disqualifizieren das Ding leider (wenn wahr). SC mit Ultra Settings frisst die schon zum Frühstück.. schade.

edit.: Vielleicht kommt ja ne Titan mit 24..
ok der ist jetzt aber neu oder?
vielleicht weniger sc, so schlecht kann doch kein game programmiert sein das 11gb nicht reichen:eek:

Adam D.
2018-08-18, 18:42:24
11GB disqualifizieren das Ding leider (wenn wahr). SC mit Ultra Settings frisst die schon zum Frühstück.. schade.

edit.: Vielleicht kommt ja ne Titan mit 24..
Ja, so ein total unoptimierter Titel in der Alpha-Phase ist schon ein guter Orientierungspunkt für VRAM-Bedarf :ulol:

ChaosTM
2018-08-18, 18:50:02
Genau die erwarteten Reaktionen. Das Forum enttäuscht einfach nie ;)

Ex3cut3r
2018-08-18, 18:51:32
Star Citizien?

Das wird sowieso nie auf dem Markt erscheinen. :usad:

Ansonsten aber ja, 22GB mit Aufpreis wären wohl für alle besser.

Was solls ich hol mir eine RTX 2080Ti von einer 1070 sicherlich ein gewaltiger Sprung und Perfekt für 3440x1440. :)

ChaosTM
2018-08-18, 19:02:03
Nein im Ernst. Von der derzeitigen Generation erwarte ich mir nicht viel. Der Prozess ist einfach ausgereizt. Mit 7nm sollte es dann wieder einen größeren Sprung geben und bis dahin sind 16 oder 24 Gb auch voll nutzbar.

Falls es Turing trotzdem schafft 50+% auf meine 1080Ti draufzupacken, umso besser.

Ex3cut3r
2018-08-18, 19:03:26
Ja, du kannst doch locker warten mit deiner 1080Ti? Das ist eher was für Leute mit 1070-1080.

Und Herbst 2019 holst du dir dann eine RTX 3080Ti mit 22GB GDDR6 ;)

Adam D.
2018-08-18, 19:04:31
Star Citizien?

Das wird sowieso nie auf dem Markt erscheinen. :usad:

Ansonsten aber ja, 22GB mit Aufpreis wären wohl für alle besser.

Was solls ich hol mir eine RTX 2080Ti von einer 1070 sicherlich ein gewaltiger Sprung und Perfekt für 3440x1440. :)
Ich warte mal noch auf die finalen Preise, bevor ich wegen des Speichers flame. Aber es bleibt wie bei all den anderen Fragen: sie können es sich halt erlauben, welches andere Produkt soll man denn kaufen?

Und ja, das Upgrade wird sich lohnen. Das werden bestimmt min. 70% Mehrleistung.

Raff
2018-08-18, 19:12:23
11GB disqualifizieren das Ding leider (wenn wahr). SC mit Ultra Settings frisst die schon zum Frühstück.. schade.

edit.: Vielleicht kommt ja ne Titan mit 24..

Star Citizen Alpha zeigt Speicherruckeln mit 11 GiB? Spannend. Das wäre dann das zweite Spiel nach (oder vor) Final Fantasy 15. Das wurde mittlerweile durch Optimierungen entschärft, aber anfangs konnte das Ding selbst eine Titan X(p) überfüllen. Grundsätzlich sind 11 GiB aber okay und fast immer voll ausreichend. Aber sollte eine neue Generation nicht mehr als das bringen, sondern "leider geil"? :) Meine beiden Schätzchen mit 12 und 16 GiB haben das Zittern noch nicht angefangen, aber vielleicht kommt das noch.

MfG,
Raff

ChaosTM
2018-08-18, 19:17:24
Star Citizen Alpha zeigt Speicherruckeln mit 11 GiB? Spannend. Das wäre dann das zweite Spiel nach (oder vor) Final Fantasy 15. Das wurde mittlerweile durch Optimierungen entschärft, aber anfangs konnte das Ding selbst eine Titan X(p) überfüllen. Grundsätzlich sind 11 GiB aber okay und fast immer voll ausreichend. Aber sollte eine neue Generation nicht mehr als das bringen, sondern "leider geil"? :) Meine beiden Schätzchen mit 12 und 16 GiB haben das Zittern noch nicht angefangen, aber vielleicht kommt das noch.

MfG,
Raff


Es kommt nur zu leichten Rucklern, wenn man per custom config alles hochreisst. Shadow Maps auf 4GB zb. ... Schaut wenn, dann nur minimal besser aus. Und natürlich ist da noch nix optimiert..

Raff
2018-08-18, 19:20:13
Alpha, unoptimiert hin oder her – für solche Grenzfälle hat man früher aufgerüstet. Unoptimierte Software erschlägt man am besten mit neuer Hardware, statt immer auf Optimierung zu hoffen (und derweil Berge an Geld anzusparen ;)). Wenn Nvidia hier nichts liefert, werden die Enthusiasten auch nicht lüstern.

MfG,
Raff

Ex3cut3r
2018-08-18, 19:20:50
Ich warte mal noch auf die finalen Preise, bevor ich wegen des Speichers flame. Aber es bleibt wie bei all den anderen Fragen: sie können es sich halt erlauben, welches andere Produkt soll man denn kaufen?

Und ja, das Upgrade wird sich lohnen. Das werden bestimmt min. 70% Mehrleistung.

:up: Du bist mir Sympathisch.

Momentan, wäre ich ja schon froh, irgendwas zu zocken, seit ich meine 1070 vor fast 2 Wochen verkauft habe, rockt die HD 4600 in meinem PC. :biggrin:

ChaosTM
2018-08-18, 19:21:29
@ Raff Das ist wohl wahr.

MartinRiggs
2018-08-18, 19:22:08
Genau die erwarteten Reaktionen. Das Forum enttäuscht einfach nie ;)

Ja sorry, aber bei sowas beknacktem kann man auch nur den Kopf schütteln.
Klar Grafikarten müssen gleich 32GB VRAM haben nur weil es lauter unoptimierte Scheisstitel gibt
Grade Star Citizen ist ja nunmal überhaupt kein Gradmesser, wie schon geschrieben das Ding erscheint vermutlich sowieso nie und wie du selbst zugibst ist da null optimiert. :facepalm:

ChaosTM
2018-08-18, 19:23:50
Armer Jean Luc ;)

Raff
2018-08-18, 19:24:51
Ja sorry, aber bei sowas beknacktem kann man auch nur den Kopf schütteln.
Klar Grafikarten müssen gleich 32GB VRAM haben nur weil es lauter unoptimierte Scheisstitel gibt
Grade Star Citizen ist ja nunmal überhaupt kein Gradmesser, wie schon geschrieben das Ding erscheint vermutlich sowieso nie und wie du selbst zugibst ist da null optimiert. :facepalm:

Nicht 32 GiB, aber mehr als die Vorgänger und vor allem endlich mal mehr als ein Topmodell von Anfang 2015 (GeForce GTX Titan X).

MfG,
Raff

dildo4u
2018-08-18, 19:25:47
Raff hat doch alles gebencht die Maxwell Titan ist Heute nicht besser als die GTx 1080 nur weil sie mehr Vram hat.Gerade für Enthusiast ist der Vram kein Argument weil sie die Karte am schnellsten wechseln.

Raff
2018-08-18, 19:27:31
Die Maxwell-Titan ist aber heute besser als die GTX 980 Ti (was damals nicht so war). :)

MfG,
Raff

starfish
2018-08-18, 19:30:53
Wenn ich mir Cuda Cores und Takt so ansehe, dürfte die Quadro RTX 6000 doch ein gutes Stück schneller als die Geforce RTX 2080ti sein?

dargo
2018-08-18, 19:39:05
Alpha, unoptimiert hin oder her – für solche Grenzfälle hat man früher aufgerüstet. Unoptimierte Software erschlägt man am besten mit neuer Hardware, statt immer auf Optimierung zu hoffen.
Früher wusste man es nicht besser, heute hat man dazu gelernt. Offenbar nicht alle. ;)


Grade Star Citizen ist ja nunmal überhaupt kein Gradmesser, wie schon geschrieben das Ding erscheint vermutlich sowieso nie und wie du selbst zugibst ist da null optimiert. :facepalm:
Absolut zustimm! Star Citizen ist die Lachnummer des letzten Jahrzehnts. Das Ding wird nie fertig.

ChaosTM
2018-08-18, 19:40:58
Das is oldschool brute force, keine Frage - macht spass :)

edit.: ich vermisse Tombman - der hätte seine Freude an dem thread

Tesseract
2018-08-18, 19:41:13
Nicht 32 GiB, aber mehr als die Vorgänger und vor allem endlich mal mehr als ein Topmodell von Anfang 2015 (GeForce GTX Titan X).

speicher ist heute auch teurer als 2015 :freak:

dildo4u
2018-08-18, 20:04:37
AMD hat z.b die Vega FE eingestellt keiner verkauft 16GB für unter 1000€.

https://geizhals.de/amd-radeon-vega-frontier-edition-100-506061-a1646319.html

GDDR6 wird billiger sein als HBM2,aber nicht deutlich billiger da Samsung die selbe Bandbreite erreicht wie mit 3 HBM2 Modulen.Kein Grund die neue Tech zu verramschen.

fondness
2018-08-18, 20:17:11
Nicht 32 GiB, aber mehr als die Vorgänger und vor allem endlich mal mehr als ein Topmodell von Anfang 2015 (GeForce GTX Titan X).

MfG,
Raff

Eine 290X von 2013 gab es schon mit 8 GB. Aber ja, Speicher ist teurer geworden und das ändert sich nur langsam.

Fliwatut
2018-08-18, 20:30:41
Wenn ich mir Cuda Cores und Takt so ansehe, dürfte die Quadro RTX 6000 doch ein gutes Stück schneller als die Geforce RTX 2080ti sein?
Sieh dir auch mal das Preisschild an :biggrin:

BlacKi
2018-08-18, 20:36:27
speicher ist heute auch teurer als 2015 :freak:
wow, plauderst du aus dem nähkästchen als nv einkäufer? die preise die NV bezahl sind andere die wir bezahlen. NV ist unter anderem schuld daran, das die preise so hoch sind. ich bin davon überzeugt das für NV die preise nicht so krass gestiegen sind wie für die kleinen hersteller.

Ex3cut3r
2018-08-18, 20:39:34
Sehe ich auch wie Blacki, niemand kann mir erzählen, dass 16GB gleich 2,5 so teuer sein sollen für Nvidia, wie 8GB.

Ich denke mal, dass ist teilweise auch Taktik von Nvidia, mit 8 und 11GB mussen wir halt 2020 spätestens wieder aufrüsten, sprich RTX 4080 und 4080Ti kaufen. mit 16 und 22GB VRAM dann.

starfish
2018-08-18, 20:44:26
Sieh dir auch mal das Preisschild an :biggrin:

Pfff, Unternehmensbereich, das zahlt der Chef. :D

Troyan
2018-08-18, 20:48:53
Huang hält die Keynote am Montag: https://www.nvidia.com/en-us/geforce/news/nvidia-geforce-keynote-live-on-august-20th/?linkId=100000003275231

Ich denke, es wird besser als erwartet von der Preisseite. Macht kein Sinn so ein Event aufzuziehen und dann mit absurden Preisen und Leistungssteigerungen um die Ecke zu kommen.

Fliwatut
2018-08-18, 20:49:13
Pfff, Unternehmensbereich, das zahlt der Chef. :D
Na dann: game on :biggrin:

Kriton
2018-08-18, 20:56:04
speicher ist heute auch teurer als 2015 :freak:

Die Preise und die Marge von Nvidia aber auch...:freak:

reaperrr
2018-08-18, 20:56:17
Sehe ich auch wie Blacki, niemand kann mir erzählen, dass 16GB gleich 2,5 so teuer sein sollen für Nvidia, wie 8GB.

Ich denke mal, dass ist teilweise auch Taktik von Nvidia, mit 8 und 11GB mussen wir halt 2020 spätestens wieder aufrüsten, sprich RTX 4080 und 4080Ti kaufen. mit 16 und 22GB VRAM dann.
Du meinst 10 und 15 :biggrin::weg:

(Annahme: 320bit SI für GA104, 512bit für GA102)

Ex3cut3r
2018-08-18, 21:01:56
(Annahme: 320bit SI für GA104, 512bit für GA102)

So ein Quatsch, 256 Bit fürs Highend und 384 Bit für den Enthusiast Bereich, haben sich seit Kepler etabliert.

Kriton
2018-08-18, 21:03:57
Wozu brauchen wir auch technische Steigerungen seit Kepler?

Womit ich nicht sagen will, dass es so kommt. Ich finde das Argument nur merkwürdig.

Kriegsgeier
2018-08-18, 21:03:59
Das mit den Takten war was, stimmt. Was ganz neues usw. Gesplittete Taktraten für RT-Cores uns Shader sowie AI-Cores... Igor hatte es mal explizit angesprochen gehabt, vor 2 Monaten noch!

Und am Rande: sollte RT-Einstellung in einem Spiel super geil aussehen und das Spielerlebnis auf neue Ebene heben dann wird es wohl NUR auf Turing flüssig laufen! Und das wird andere Karten AUCH PASCALs über Nacht degradieren! Auch 1080ti mit 11 GB wird dann ein altes Eisen - eben für alte Spiele halt..

Ich bin da ganz zuversichtlich was RT angeht! Nach den Video bin ich voll hin und weg!
https://www.youtube.com/watch?v=tjf-1BxpR9c&t=57s

Meine 980ti @ WaKü wartet auf Ablösung durch 2080ti @ WaKü

PPS: mit dieser Technologie in 3-5 Generationen erwarte ich Spiele mit der Grafik von AVATAR usw. Auch was die Ausleuchtung angeht usw. Deshalb bin ich auch der Meinung, dass man mehr als 4K Monitor nie brauchen wird. Unserem Auge reicht diese Auflösung auch in 200 Jahren. Was fehlt die ganze Zeit ist die physikalisch richtige darstellung von Lichtverhältnissen sowie Materialien. Polygonenanzahl ist schon jetzt extrem hoch! Ok, noch ein paar schöne Glättungsmechanismen inkl. AI-Unterstützung!

Tesseract
2018-08-18, 21:05:26
wow, plauderst du aus dem nähkästchen als nv einkäufer? die preise die NV bezahl sind andere die wir bezahlen. NV ist unter anderem schuld daran, das die preise so hoch sind. ich bin davon überzeugt das für NV die preise nicht so krass gestiegen sind wie für die kleinen hersteller.

erstens hat das keiner behauptet und zweitens bist du es der gerade wild aus dem nächkästen plaudert. wenn die nachfrage das angebot übersteigt und wesentlich größere abnehmer um die chips gieren (teilweise die produzenten selbst, du kannst gift darauf nehmen, dass z.B. samsung keine chips rausrückt so lange die eigene smartphonesparte nicht bedient ist es sei denn es handelt sich um eher kleine stückzahlen zu mondpreisen für den professionellen bereich) kann nvidia sicher nicht die gleichen konditionen aushandeln wie 2015, das ist vollkommen unrealistisch.

Ex3cut3r
2018-08-18, 21:05:44
Wozu brauchen wir auch technische Steigerungen seit Kepler?

Womit ich nicht sagen will, dass es so kommt. Ich finde das Argument nur merkwürdig.

Na dann schieß los, warum wir jetzt 512Bit was Unmengen mehr kostet in der Produktion, bald brauchen? Mr. Brain?

Troyan
2018-08-18, 21:07:15
Vergess ATAA nicht. Das benötigt mit 8x "nur" 3,7ms auf RTX6000. 2x sollte dann komplett nutzbar sein. Könnte auch interessant werden.

Des Weiteren gibt es ja noch die TensorCores. Sind eben viele Goodies im Chip, aber die nutzen einem sofort ja nichts...

BlacKi
2018-08-18, 21:10:09
erstens hat das keiner behauptet und zweitens bist du es der gerade wild aus dem nächkästen plaudert. wenn die nachfrage das angebot übersteigt und wesentlich größere abnehmer um die chips gieren (teilweise die produzenten selbst, du kannst gift darauf nehmen, dass z.B. samsung keine chips rausrückt so lange die eigene smartphonesparte nicht bedient ist es sei denn es handelt sich um eher kleine stückzahlen zu mondpreisen für den professionellen bereich) kann nvidia sicher nicht die gleichen konditionen aushandeln wie 2015, das ist vollkommen unrealistisch.
nein, ich behaupte, die preise sind wegen der nachfrage gestiegen. jeder hersteller hat sich günstige preise vertraglich gesichert. deshalb bleibt nichts für den freien markt übrig und deshalb sind die preise teuer auf dem markt, aber nicht für die firmen, die sich die stückzahlen/preise im vorfeld vertraglich gesichert haben. wenn du glaubst, nv zahlt dieselben speicherpreise wie zb. gskill, dann glaubst du auch noch an den mann im mond.

crux2005
2018-08-18, 21:14:01
RTX 2080 vs. GTX 1080: 15% mehr Einheiten, 5-10% mehr Takt, 5-10% mehr durch IPC/uArch. Da komme ich schon auf +27-40% mehr Leistung.
Passt glaube ich gut zu den +28-40% mehr in Bandbreite.

Wenn ich CB.de als Leistungsindex nehme:

https://i.imgur.com/gCyYLYTl.png
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-3840-2160

Komme ich mindestens auf 1080 Ti Leistung. 5-10% durchschnittlich mehr in DirectX 12 Spielen kann ich mir gut vorstellen. Mit RTX dann noch (5-6x) mehr.

Edit: Fehler korrigiert.

Edit2: Ich glaube 40% Mehr Leistung war auch das Ziel von NVIDIA.

Tesseract
2018-08-18, 21:22:25
jeder hersteller hat sich günstige preise vertraglich gesichert.
natürlich werden die preise einige zeit vor dem produktlaunch ausgehandelt, aber nicht mehrere jahre davor und nicht im luftleeren raum an der marktsituation vorbei.

wenn du glaubst, nv zahlt dieselben speicherpreise wie zb. gskill, dann glaubst du auch noch an den mann im mond.
wie oft willst du den strohmann jetzt noch bringen? nochmal: das hat keiner behauptet.

Hübie
2018-08-18, 21:24:21
Ganz schön hochnäsig, BlacKi. Es gibt keine Verträge die über einen Zeitraum Speicherpreise oder Abnahmemengen regulieren bzw. festlegen. Romantische Vorstellung, aber so funktioniert das Business nicht.
Du hast allerdings Recht, dass die Preise durch die hohe Nachfrage signifikanter stieg, als durch komplexe Produktionsprozesse. Du kannst bei entsprechender Abnahme den gleichen Preis wie NVIDIA bekommen. Was G.Skill damit zu tun hat erschließt sich mir nicht. Die brauchen ebenso wenig GDDR6 wie NVIDIA DDR4 benötigt. :rolleyes:

pixeljetstream
2018-08-18, 21:42:24
Vergess ATAA nicht. Das benötigt mit 8x "nur" 3,7ms auf RTX6000. 2x sollte dann komplett nutzbar sein. Könnte auch interessant werden.

Des Weiteren gibt es ja noch die TensorCores. Sind eben viele Goodies im Chip, aber die nutzen einem sofort ja nichts...

DLAA hat auch großes Potential, weil weniger invasiv.
https://developer.nvidia.com/rtx/ngx

Kriton
2018-08-18, 21:43:43
Na dann schieß los, warum wir jetzt 512Bit was Unmengen mehr kostet in der Produktion, bald brauchen? Mr. Brain?

Lies meinen 2. Satz. Ich greife Dein Argument an, nicht Deine Behauptung, Pinky.

https://i.ytimg.com/vi/JTWHkKDJ6Ws/maxresdefault.jpg

Troyan
2018-08-18, 21:46:19
DLAA hat auch großes Potential, weil weniger invasiv.
https://developer.nvidia.com/rtx/ngx

Ja - aber als Außenstehender steht da nicht viel. ;)

Irgendwas muss man mit den 60% Mehrtransistoren ja anfängen können.

basix
2018-08-18, 21:51:30
Ja - aber als Außenstehender steht da nicht viel. ;)

Irgendwas muss man mit den 60% Mehrtransistoren ja anfängen können.

Ich sehe DLAA auch als ein sehr interessantes Feature an. TAA Glättung ohne Unschärfeeffekt ist schon sehr nice.

deekey777
2018-08-18, 21:57:27
AI-MSAA: Die AI erkennt Kanten und fügt den betroffenen Pixel zwei-acht Subpixel hinzu und verhindert Treppchenbildung.

Oder anders gesagt: Muss jetzt überall AI stehen?

Ex3cut3r
2018-08-18, 22:01:32
Lies meinen 2. Satz. Ich greife Dein Argument an, nicht Deine Behauptung, Pinky.

Och Göttchen, mussen solche Riesen Bilder denn sein? Hätte gereicht wenn du nur Pinky gesagt hättest.

Fliwatut
2018-08-18, 22:33:54
wie oft willst du den strohmann jetzt noch bringen? nochmal: das hat keiner behauptet.
Wozu sollte GSkill auch GDDR6 brauchen :wink:

BlacKi
2018-08-18, 22:55:44
Wozu sollte GSkill auch GDDR6 brauchen :wink:wozu braucht gskill dram? das ist die frage,das könntest du auch nv fragen...

Es gibt keine Verträge die über einen Zeitraum Speicherpreise oder Abnahmemengen regulieren bzw. festlegen. Romantische Vorstellung, aber so funktioniert das Business nicht.
überall wo viel geld im spiel ist gibt es feste verträge. die festen verträge verteueren die marktsituationen, bzw. die veringern die restlichen produktionskapazitäten, so ist das bei allen großen firmen. nv ist ein big buyer, die wissen welche preise sie bekommen.

btw. die anmerkung von VC bzgl. 2070 geht nicht nur auf RT zurück, ich sag der chip hat ungefähr titan x pascal performance mit 16gb.

Hübie
2018-08-18, 23:21:16
Quatsch nicht. Beweise bitte. :rolleyes:

MiamiNice
2018-08-18, 23:35:32
Ich denke wenn man das hier:


Also wenn man um die 40-50% Mehrleistung abseits Raytracing gegenüber einer jeden Last Gen Karte ermöglichen möchte, dann bedarf es entweder einer allgemeinen IPC Erhöhung abseits von Compute (wie Volta es schon hatte).
Eventuell wäre es ja auch nicht völlig unmöglich, wenn die RT Cores auch FP32 könnten, um die SPs zu unterstützen. Über einen erhöhten Taktanstieg alleine kann man das obige mögliche Performance Target unter 12nm ja nicht erreichen.

Natürlich extrem spekulativ, aber ich könnte mir vorstellen, dass der volle TU102 1152 RTs aufweisen könnte. Also 192 pro GPC, 32 pro SM. Das wäre dann 1/4 der FP32 Einheiten (TC sind ja bekanntlich 1/8). Sicherlich nicht unmöglich bei der DIE-Size.
Diese Überlegung weiter geführt unter dem Aspekt, dass man bei TU104 und TU106 (wohl RTX 2070) nichts beschneiden würde und die RTs auch vollwertige FP32-Berechnungen ermöglichen würden, sofern Raytracing nicht genutzt wird:


GPU|FP32+RT|Units FP32|Units RT|Units TC|TF/s FP32 @ 1,75 GHz|TF/s FP32+RT @ 1,75 GHz|@ 1,80 GHz|@ 1,85 GHz|@ 1,90 GHz|
TU102 Full|5760|4608|1152|576|16,13|20,16|20,74|21,31|21,89|
TU102 Salvage|5440|4352|1088|544|15,23|19,04|19,58|20,13|20,67
TU104 Full|3840|3072|768|384|10,75|13,44|13,82|14,21|14,95
TU104 Salvage|3680|2944|732|368|10,30|12,88|13,25|13,62|13,99
TU106 Full (?)|3040|2432|608|304|8,51|10,64|10,94|11,25|11,56



Das wäre dann eine mögliche secret sauce, die auch eine RTX 2070 oberhalb einer GTX 1080 platzieren würde, wenn kein Raytracing zum Tragen käme. Mal schauen, ob die Rechnungen für die Katz waren. ;D


E: Auf jeden Fall reicht halt weder das Plus an Einheiten + Speicherbandbreite und die zu erwarteten Taktraten von 1,7-1,8 GHz aus, damit ein TU102 im GPU-Limit auf GP102 deutlich über 20% drauf legen kann. Erst recht nicht beschnitten.

Einheiten RTX 2080 Ti:
+ 13% vs. TITAN Xp
+ 21% vs. TITAN X(P)/GTX 1080 Ti

Bandbreite RTX 2080 Ti:
+ 12% vs. TITAN Xp
+ 27% vs. GTX 1080 Ti
+ 28% vs. TITAN X(P)

Dazu kommen vermutlich auch nur grob + 100-150 MHz Takt im Max Boost auf z.B. eine TITAN X(P) [~ 1,6 GHz @ 84°C TT], die out of the Box mit default Targets gehalten werden dürften.

Oder halt etwas in der Art.


Mit den aktuellen News von Leo bzw. dem Gerücht von Baidu kombiniert:

https://www.3dcenter.org/news/pny-leakt-ausgesprochen-handzahme-taktraten-zu-geforce-rtx-2080-2080-ti

aber es sieht fast so aus, als würde der Posting-Autor hierbei von einem Boost-Takt des Referenzdesigns von 1920 MHz reden, während Herstellerdesigns durchaus bei 2100-2200 MHz Boosttakt herauskommen könnten – und die Übertaktungsgrenze hingegen bei stattlichen 2500 MHz liegen soll. Dies würde bedeuten, das nVidia bei der Turing-Generation wieder entscheidend in Richtung besserer Taktraten gearbeitet hat

Kommt man dem was am Montag kommt recht nah.

+50 - 70% auf den jeweiligen Vorgänger, incl OC.

BlacKi
2018-08-18, 23:40:53
Quatsch nicht. Beweise bitte. :rolleyes:
^^beweise... klar dass das kommt. dram ist nicht druckerpapier, das ist existenzbedrohend für solche firmen, klar werden die preise für gddr6 im vorraus abgehandelt, vermutlich beteiligt sich nv sogar an Gddr6 an der entwicklung im gegenzug gibts gddr6 zum vorzugspreis. ich schätze lediglich nv als vernünftigen geschäftspartner ein.

Linmoum
2018-08-18, 23:45:46
+50 - 70% auf den jeweiligen Vorgänger, incl OC.
Vielleicht einfach mal mit jemandem halten, der das ganze realistisch einzuschätzen weiß. Und jetzt hier nicht wieder irgendwelche überzogenen Leistungssprünge erwarten.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11771984&postcount=4114
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11771991&postcount=4117

pixeljetstream
2018-08-18, 23:47:59
@MiamiNice, dieses Summieren von allem was irgendwie float Operationen macht seitens @Edgecrusher86 ist extrem unrealistisch. Wenn das einfach ginge, hätte man das seit Jahren mit zig anderen Units genauso machen können...

dildo4u
2018-08-18, 23:51:49
Das Zusammenrechen der RT bzw AI Cores mit den SMs macht Sinn wenn man schon bekannte Features damit berechnet.
Wenn man z.b TAA mit den AI Cores berechnet haben die SMs nix damit zu tun und so wurde ihnen Arbeit abgenommen.

Linmoum
2018-08-18, 23:53:43
Ich denke er weiß besser als du, ob das realistisch ist oder nicht.

pixeljetstream
2018-08-18, 23:57:26
Es stimmt, wenn die Features alle im Einsatz sind hat man effektiv mehr Leistung. Das Potential wenn alles neue eingesetzt wird ist also in der Tat größer.

Aber das ist nicht das gleiche wie das was Leute typischerweise denken wenn sie die tflop zahlen sehen, weil die ja "generisch" sind.

Der Rasterizer, Tessellation, Texturinterpolation etc. alle leisten arithmetische Arbeit die aber halt zweckgebunden ist, weswegen man das typischerweise halt nicht einfach dazu rechnet.

Ex3cut3r
2018-08-18, 23:58:12
Na klar, na klar, immer das gleiche, neue Nvdia Gen steht vor der Tür, tiefstapeln einiger AMD Besitzer "Maxwell" ist Blödsinn, ein Kepler Refresh mehr nicht usw. Bei Pascal das gleiche, und dann immer die Gesicher oder das plötzliche "verschwinden" zum Benchmark Tag der vorherigen Klein Stapler.

Neue AMD Gen steht vor der Tür, hochstapeln und Hype genieren bis zum geht nicht mehr. "Vega wird der ueber Shit" "Poor Volta" usw. aber wie wissen alle wie Vega bei Rls. aussah. :ulol:

Locuza
2018-08-18, 23:58:38
DLAA hat auch großes Potential, weil weniger invasiv.
https://developer.nvidia.com/rtx/ngx
Kannst du einen Überblick darüber geben, wo Tensor-Cores bei Nvidias AA-Angeboten auf den GPUs verwendet werden?
Bei ATAA habe ich nur Raytracing herausgelesen (beim überfliegen) und bei DLAA kommen Tensor-Cores zum Einsatz, aber wird das vorberechnet eingebunden oder während der Laufzeit in einem Spiel über die Tensor-Cores beschleunigt?

Screemer
2018-08-19, 00:04:30
Na klar, na klar, immer das gleiche, neue Nvdia Gen steht vor der Tür, tiefstapeln einiger AMD Besitzer "Maxwell" ist Blödsinn, ein Kepler Refresh mehr nicht usw. Bei Pascal das gleiche, und dann immer die Gesicher oder das plötzliche "verschwinden" zum Benchmark Tag der vorherigen Klein Stapler.

Neue AMD Gen steht vor der Tür, hochstapeln und Hype genieren bis zum geht nicht mehr. "Vega wird der ueber Shit" "Poor Volta" usw. aber wie wissen alle wie Vega bei Rls. aussah. :ulol:
du weißt, dass pixeljetstream bei nvidia arbeitet?

pixeljetstream
2018-08-19, 00:05:17
Kannst du einen Überblick darüber geben, wo Tensor-Cores bei Nvidias AA-Angeboten auf den GPUs verwendet werden?
Bei ATAA habe ich nur Raytracing herausgelesen (beim überfliegen) und bei DLAA kommen Tensor-Cores zum Einsatz, aber wird das vorberechnet eingebunden oder während der Laufzeit in einem Spiel über die Tensor-Cores beschleunigt?

Ich kann nur auf das veröffentlichte verweisen. Dort wird z.B. erwähnt dass zum Teil trainierte Netzwerke von NV kommen können und die dann über die Zeit besser werden (ähnlich Treiber Update). Grundsätzlich ist DL halt, du hast was in hoher Qualität/Ziel und trainierst damit um mit weniger auszukommen. Wie das hier geht könnte man sich erschließen oder vermutlich noch bissl warten ;)

wolik
2018-08-19, 00:09:32
Ich kann nur auf das veröffentlichte verweisen. Dort wird z.B. erwähnt dass zum Teil trainierte Netzwerke von NV kommen können und die dann über die Zeit besser werden (ähnlich Treiber Update). Grundsätzlich ist DL halt, du hast was in hoher Qualität/Ziel und trainierst damit um mit weniger auszukommen. Wie das hier geht könnte man sich erschließen oder vermutlich noch bissl warten ;)
Hat man schon vielleicht etwas über GPU-GPU Access Memory veröffentlicht ?

pixeljetstream
2018-08-19, 00:13:29
Nein nich nicht direkt neues zu Turing, aber GP100 und GV100 konnten das ja auch. Wird sicherlich auch nen whitepaper geben. Vermute auch dass in cuda10 docu sich auch was findet.

Linmoum
2018-08-19, 00:15:38
du weißt, dass pixeljetstream bei nvidia arbeitet?
Ach was, wahrscheinlich nur ein von AMD eingeschleuster Mitarbeiter. Kann ja nicht sein, dass er nüchtern und sachlich Dinge einzuordnen versucht.

dildo4u
2018-08-19, 00:17:22
du weißt, dass pixeljetstream bei nvidia arbeitet?

Und Mindfactory hat massig Nvidia Karten von 400 bis 800€ auf Lager.

25 verschiedene Modelle der 1070
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+GTX+fuer+Gaming/GTX+1070.html

19 verschiedene Modelle der 1070 TI
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+GTX+fuer+Gaming/GTX+1070+Ti.html

24 verschiedene Modelle der 1080
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+GTX+fuer+Gaming/GTX+1080.html

Natürlich hält er sich da bedeckt damit die noch weg gehen.
Wenn z.b die 2070 erst in einem Monat kommt wird Nvidia alles dran setzen das keine Infos zur Performance und dem Preis raus kommt.
Die 2080 kann schon so teuer sein das sie nur ein negativen Einfluss auf die 1080 Ti hat.

Bösewicht
2018-08-19, 00:17:53
Sehe ich auch wie Blacki, niemand kann mir erzählen, dass 16GB gleich 2,5 so teuer sein sollen für Nvidia, wie 8GB.

Ich denke mal, dass ist teilweise auch Taktik von Nvidia, mit 8 und 11GB mussen wir halt 2020 spätestens wieder aufrüsten, sprich RTX 4080 und 4080Ti kaufen. mit 16 und 22GB VRAM dann.
früher konnte man bei nvidia 20-30 euro drauf legen und bekommt 2 anstelle von eins oder 4 anstelle 2gb aber heute reden wir ja von 8 oder mehr gb da reichen keine 20 euro mehr sondern ehr 100-150€...


Edit2: Ich glaube 40% Mehr Leistung war auch das Ziel von NVIDIA.
und auch ziemlich genau mein tipp :biggrin:

MiamiNice
2018-08-19, 00:18:30
@MiamiNice, dieses Summieren von allem was irgendwie float Operationen macht seitens @Edgecrusher86 ist extrem unrealistisch. Wenn das einfach ginge, hätte man das seit Jahren mit zig anderen Units genauso machen können...

Deswegen schrieb ich drunter so etwas in der Art. Ich bin technisch nicht so tief in dem Thema wie der ein oder andere hier. Mein Tip für Montag runter gebrochen auf das wesentlich ist:

Tension und/oder RT Cores stecken in der "normalen" Renderpipeline und können entweder zur Leistungssteigerung verwendet werden und/oder es gibt ein neues AI AA welches quasi kostenlos ist.

NV ist Software technisch zu gut unterwegs, es ist ihre Architektur, die lassen die Leistung (Chipfläche) nicht ungenutzt sprich nur für die wenigen AAA RT Vorzeige - Spiele liegen.

Takt ging schon bei Pascal sehr gut, meine 1080 machte ootb über 2Ghz und meine aktuelle 1080Ti macht 2100.

Turing ist viel größer - mehr Kühlfäche - der absolute Verbrauch scheint nicht so dermaßen zu steigen - wohl aufgrund der besseren Fertigung. Sollte also besser zu kühlen sein.

Pascal hat schon einen Sprung bei den Taktraten gemacht.

Ergo halte ich 2100 - 2200 Mhz auf den Customs für absolut machbar.
2500 unter Wasser wäre nice, ich tippe auf 2300- 2400, 2500 für Winner im GPU Lotto unter Wasser.
(wenn das zutrifft sehen wir sicher ü 3000 Mhz unter LN2 von den Extrem OC Boys)

Dazu die Verbesserungen die hier angesprochen wurden im Thread von ein paar Leuten an der Architektur von Turing ggü. Pascal. Da war was mit Einheiten Veränderungen, bzw. breiteren Einheiten.

50-70% ist daher mein Tip für Montag.

€: Du arbeitest bei NV?

JaniC
2018-08-19, 00:22:29
Glaubt man Videocardz auf Twitter, hat TU106 eher 2304 Cores und nicht 2432.

https://twitter.com/VideoCardz/status/1030907722907242496

Zum RAM hat er auch nochmal ein "Zahlenrätsel" gepostet, demnach hat die 2070 wohl auch 8GB VRAM. Was wieder zu dem "2070 will blow you away" Post passt.

https://twitter.com/VideoCardz/status/1030912384582524928

Ti 11GB
2080 8GB
2070 8GB
2060 5GB

?

Ex3cut3r
2018-08-19, 00:25:18
du weißt, dass pixeljetstream bei nvidia arbeitet?

Sagt wer? Und was hat der bisher so wertvolles rausgeplappert? Viel Luft mehr nicht, ansonsten kann er auch nicht viel sagen...NDA? Selbst Igor, Raff, und Marc halten sich sehr bedeckt.


Zum RAM hat er auch nochmal ein "Zahlenrätsel" gepostet, demnach hat die 2070 wohl auch 8GB VRAM. Was wieder zu dem "2070 will blow you away" Post passt.

https://twitter.com/VideoCardz/status/1030912384582524928

Ti 11GB
2080 8GB
2070 8GB
2060 5GB


Natürlich hat die 2070 auch 8GB wie die 2080, der 7GB Zettel war falsch, bzw. ein Fake. Wie sollen den 1070 User auf die 2070 wechseln, wenn man 1GB weniger bekommt? Das macht gar keinen Sinn, das weiß auch Nvidia.

JaniC
2018-08-19, 00:28:01
Natürlich halten sich alle bedeckt, es gibt ein NDA und dann wird's teuer.

Nur anonyme Leute leaken halt irgendein Zeugs, was dann natürlicht nicht offiziell ist. Macht es aber teilweise nicht weniger wahr.

MiamiNice
2018-08-19, 00:31:16
Bei den ganzen Spekus hier im Thread könnten Sie ja wenigstens mal ein :up: oder :down: spendieren :biggrin:
Ich dachte die Tester bekommen die Karten erst am Montag? Wissen die überhaupt schon etwas?

Screemer
2018-08-19, 00:33:20
Sagt wer? Und was hat der bisher so wertvolles rausgeplappert?

sagt z.b. sein twitter-account: https://twitter.com/pixeljetstream?lang=de oder sein linkedin-profil: https://de.linkedin.com/in/christophkubisch

aber wird schon so sein wie du das sagst.

Raff
2018-08-19, 00:34:16
Kannst du einen Überblick darüber geben, wo Tensor-Cores bei Nvidias AA-Angeboten auf den GPUs verwendet werden?
Bei ATAA habe ich nur Raytracing herausgelesen (beim überfliegen) und bei DLAA kommen Tensor-Cores zum Einsatz, aber wird das vorberechnet eingebunden oder während der Laufzeit in einem Spiel über die Tensor-Cores beschleunigt?

Letzteres wäre ein sehr geiles Feature. Generisch nutzbar, berechnet von den Tensor-Kernen. Also bisschen wie Reshade. =)

MfG,
Raff

crux2005
2018-08-19, 00:34:26
Sagt wer? Und was hat der bisher so wertvolles rausgeplappert? Viel Luft mehr nicht, ansonsten kann er auch nicht viel sagen...NDA? Selbst Igor, Raff, und Marc halten sich sehr bedeckt.

Ja, pixeljetstream arbeitet bei NVIDIA (einfach aufs Profil gehen). Und keiner sollte was schlechtes über ihn sagen, weil alle seine Andeutungen richtig waren.

Linmoum
2018-08-19, 00:34:47
Glaubt man Videocardz auf Twitter, hat TU106 eher 2304 Cores und nicht 2432.

https://twitter.com/VideoCardz/status/1030907722907242496

Zum RAM hat er auch nochmal ein "Zahlenrätsel" gepostet, demnach hat die 2070 wohl auch 8GB VRAM. Was wieder zu dem "2070 will blow you away" Post passt.

https://twitter.com/VideoCardz/status/1030912384582524928

Ti 11GB
2080 8GB
2070 8GB
2060 5GB

?
8GB für die 2070 waren doch klar. Hat hier ernsthaft jemand geglaubt, dass Nvidia bei der Speichermenge runtergeht? Das ist doch absurd. Das werden sie selbst bei einer 2060 nicht tun.

Sind dann also 2304 vs. 2944 (~+28%) Shader für die 2080. Passt ziemlich gut zum Abstand 1080 ->1080ti.

Ex3cut3r
2018-08-19, 00:37:59
Ja, pixeljetstream arbeitet bei NVIDIA (einfach aufs Profil gehen). Und keiner sollte was schlechtes über ihn sagen, weil alle seine Andeutungen richtig waren.

Ok. Habs ja schon kapiert, trotzdem hat er doch zur Leistung nicht viel gesagt bisher. :confused:

MiamiNice
2018-08-19, 00:38:33
Ist bestimmt lustig im Internet die Spekus zu lesen wenn man genau weiß was kommt :biggrin:

crux2005
2018-08-19, 00:39:56
Ok. Habs ja schon kapiert

War nicht böse gemeint. =)

trotzdem hat er doch zur Leistung nicht viel gesagt bisher. :confused:

Korrekt. Hat hoffe ich auch keiner erwartet, oder doch? :biggrin:

Linmoum
2018-08-19, 00:42:32
Ok. Habs ja schon kapiert, trotzdem hat er doch zur Leistung nicht viel gesagt bisher. :confused:
Nur, dass man jetzt nicht immer einen Sprung wie bei Pascal erwarten sollte. ;)

Stumpf die Rohperformance erhöhen ist halt nicht der goldene Weg. Wie und wann will man dann sowas wie jetzt mit Ray Tracing entsprechend HW-basiert implementieren? Irgendwann muss man solch einen Schritt gehen, zumal man davon mittel- bis langfristig stark profitieren wird.

Platos
2018-08-19, 00:47:53
Nur, dass man jetzt nicht immer einen Sprung wie bei Pascal erwarten sollte. ;)

Stumpf die Rohperformance erhöhen ist halt nicht der goldene Weg. Wie und wann will man dann sowas wie jetzt mit Ray Tracing entsprechend HW-basiert implementieren? Irgendwann muss man solch einen Schritt gehen, zumal man davon mittel- bis langfristig stark profitieren wird.

Gibt ja fast keinen besseren Zeitpunkt als wenn die Konkurrenz mom. so hinten liegt.

Ex3cut3r
2018-08-19, 00:49:28
Ok, aber was erwartet ihr denn? Ich erwarte die RTX 2070 knapp unter 1080Ti Leistung, die 2080 15% über der 1080Ti und die 2080Ti 40% über der 1080Ti. Und das zu "vernünftigen" Preisen.

RTX 2070 = 450€
RTX 2080 = 650€
RTX 2080Ti = 850€

crux2005
2018-08-19, 00:49:30
Gibt ja fast keinen besseren Zeitpunkt als wenn die Konkurrenz mom. so hinten liegt.

Der Zeitpunkt ist gut. NVIDIA konnte das aber vor paar Jahren nicht wissen und damit rechnen. ;)

Linmoum
2018-08-19, 00:53:41
Ach was, AMD und Nvidia fangen immer erst ein Jahr vor der tatsächlichen Veröffentlichung mit der Entwicklung an. :freak:

Screemer
2018-08-19, 00:54:22
mal wieder was technisches. pica pica benötigt 1/4 ray pro pixel für reflektion und reflexionsschatten. ist das viel oder wenig, wenn es um genauigkeit geht:

https://image.slidesharecdn.com/hpg2018barrebriseboisgameraytracingstateoftheartopenproblems-180813221837/95/hpg-2018-game-ray-tracing-stateoftheart-and-open-problems-14-1024.jpg?cb=1534199893

und das taa von pica pica ist auch chick:

https://abload.de/img/ezgif-2-be4b1342367dczp.gif

müsste beides auf tesla ja spott billig sein.

quelle: https://www.ea.com/seed/news/hpg-2018-keynote

crux2005
2018-08-19, 01:19:11
mal wieder was technisches. pica pica benötigt 1/4 ray pro pixel für reflektion und reflexionsschatten. ist das viel oder wenig, wenn es um genauigkeit geht:

Das ist wenig.

müsste beides auf tesla ja spott billig sein.

Ja.

---------------------------

Ich glaube was sich auch viele nicht bewusst sind ist, das RTX im Endeffekt die Karten beschleunigen wird, weil Einheiten genutzt werden die sonst brach liegen würden (im Falls das alle Tensor/RT Einheiten auch bei der GeForce aktiv sind).
z.B. Battlefield mit einer RTX 2080 sollte mit RTX on sogar mehr FPS haben als mit RTX off. Außer irgendetwas anderes limitiert/die RayTracing Leistung reicht nicht aus. Davon gehe ich aber nicht aus, weil DICE 3x Titan V hatte und eine RTX5000 sollte schon >3x RayTracing Leistung bieten.

=Floi=
2018-08-19, 02:16:50
Der Prozess ist einfach ausgereizt. Mit 7nm sollte es dann wieder einen größeren Sprung geben
Das hängt aber auch von vielen faktoren ab.
mir wäre zwar 7nm auch lieber, aber so groß muss der sprung nicht sein!
Bei 7nm müsste es dann wieder 750mm2 :rolleyes: geben ansonsten reduziert das dann den sprung. 7nm kann hotspots oder leichter leckströme haben und dadurch mit normaler kühlung schlechter sein.

Nach sandy bridge wurde es doch im grunde auch noch noch schlechter. ;)

SKYNET
2018-08-19, 02:29:25
Ok, aber was erwartet ihr denn? Ich erwarte die RTX 2070 knapp unter 1080Ti Leistung, die 2080 15% über der 1080Ti und die 2080Ti 40% über der 1080Ti.

Wenn diese wunschvorstellung der tatsache entsprechen würde, hätte ich mir nicht grad ne 1080 ti gezogen, die nach morgen immernoch die 2. schnellste NV gamer karte sein wird.

prinz_valium
2018-08-19, 02:33:23
Ok, aber was erwartet ihr denn? Ich erwarte die RTX 2070 knapp unter 1080Ti Leistung, die 2080 15% über der 1080Ti und die 2080Ti 40% über der 1080Ti. Und das zu "vernünftigen" Preisen.

RTX 2070 = 450€
RTX 2080 = 650€
RTX 2080Ti = 850€

2070 etwas über 1080
2080 knapp unter 1080Ti

2070 und 2080 Leistung weniger weit voneinander entfernt als noch zur 1XXX Generation.

Deshalb auch der Tweet die 1070 wäre der Wahre Gewinner...

Ex3cut3r
2018-08-19, 02:34:56
Werden wir ja sehen. Wenn RT effektiv eingesetzt werden kann, zur Beschleunigung des AA, Geometrie oder sonst was, dann wird Turing schneller als man denkt. Mal abwarten. Auf jeden fall, steckt mit RT und den Tensor Cores viel Potenzial drin, eine GPU ohne so etwas will ich nicht mehr haben.

@ Skynet 1080Ti jetzt noch? Ne...brauch ich nicht mehr. Aber viel Spaß damit.

ChaosTM
2018-08-19, 02:37:00
Das hängt aber auch von vielen faktoren ab.
mir wäre zwar 7nm auch lieber, aber so groß muss der sprung nicht sein!
Bei 7nm müsste es dann wieder 750mm2 :rolleyes: geben ansonsten reduziert das dann den sprung. 7nm kann hotspots oder leichter leckströme haben und dadurch mit normaler kühlung schlechter sein.

Nach sandy bridge wurde es doch im grunde auch noch noch schlechter. ;)


Das ist natürlich möglich, ja und seit Sandy "steht" die CPU Entwicklung praktisch, auch das ist richtig.

edit.: mal schauen wie die ersten 7nm Chips so laufen. Apple macht den Anfang. Natürlich nur eingeschränkt vergleichbar, da Grafikchips eine "Spur" größer sind.

Slipknot79
2018-08-19, 02:47:41
Kann man nicht einfach später von 12nm auf 7nm per Strg+C und Strg+V, dann Zoom -1,71x umsteigen?

=Floi=
2018-08-19, 03:10:49
Natürlich hält er sich da bedeckt damit die noch weg gehen.


:facepalm:
Das wäre sicherlich ein kündigungsgrund.
Bei manchen fragt man sich echt.


Auch nach turing wird man die karten wohl noch verkaufen können oder einfach abverkaufen. :rolleyes:

Ex3cut3r
2018-08-19, 03:39:28
Ja klar, die alten Karten werden nach Turing Rls. auch nochmal kräftig im Preis fallen (zumindest von der 1070 aufwärts), deswegen rate ich Leuten die eine 10er Karte wollen, noch ein paar Wochen zu warten.

Leonidas
2018-08-19, 04:42:08
Gibt ja fast keinen besseren Zeitpunkt als wenn die Konkurrenz mom. so hinten liegt.


Bingo. Jetzt könnte man sich sogar Fehlschläge oder unsinnige Verschwendungen leisten, die sich erst später rentieren.

Zur Vorlaufzeit: Naja, vor 2-3 Jahren konnte man schon sehen, das AMDs Roadmap eher schwach ist. Die Turing-Entwicklung ging zwar früher los, aber die Entscheidungen, wieviel HW konkret verbaut wird, gab es sicherlich erst vor 2 Jahren.

=Floi=
2018-08-19, 05:51:20
wollte nur amerken, dass man in 7nm auch wieder 750mm2 haben müsste, damit wir als kunde von der verkleinerung profitieren würden. geht nv wieder auf die "normalen" 600mm2, dann würde der sprung kleiner ausfallen.
Ich hoffe auch auf einen guten 7nm prozess, aber ein garant ist es leider noch nicht dafür.

@leonidas
So extrem kann man sich das nicht leisten. Die geschäfte laufen sehr gut, aber dafür hat man auch höhere R&D ausgaben. Die konkurrenz ist auch erheblich und die großen backen ihre eigenen custom chips.

Ich denke das turing zeug ist nicht so alt und wurde erst später angeflanscht.* Man hatte sicher die ganze zeit noch intel mit auf dem schirm und amd war bei der rechenleistung für HPC auch immer vorne.


Als reaktion auf googles eigene chips und dem ganzen trend der branche. Das gibt es doch erst so richtig seit 3 jahren.

Edgecrusher86
2018-08-19, 06:19:31
2304 SP machen mehr Sinn für die RTX 2070, da 1/2 TU102 Full. Das dachte ich mir gestern eigentlich auch, aber habe es mit 2432 belassen, da TPU auch bei der 2080 Ti und 2080 korrekt lag.

Nicht auszuschließen ist, dass die 2070 Mobile ein TU104 Salvage mit 2432 SPs wird (die GTX 1070 Mobile hatte 2048 SPs).

Kriegsgeier
2018-08-19, 07:40:23
Oder 2070 wird eine GTX und keine RTX!

Und erhält den 1zu1 Chip von Pascal 1080ti?!

Kriegsgeier
2018-08-19, 08:19:09
Igor schreibt, dass die Karten. Nicht mal in der Produktion sind?!?!?!
https://www.tomshw.de/community/threads/quadro-rtx-mit-turing-was-im-live-event-nicht-gesagt-wurde-und-noch-mehr-bilder-siggraph-2018.217/page-2#post-1497

Kriegsgeier
2018-08-19, 08:34:23
Krass:

Turing is said to reach 2GHz clock speeds with a bit of overclocking, with that factored in the RTX 2070 could very well end up being a bargain GTX 1080 Ti once overclocked. In combination with an attainable price tag of $400 or right around it, the RTX 2070 will very likely be the go-to graphics card in the Turing line-up.

HOT
2018-08-19, 08:42:34
Oder 2070 wird eine GTX und keine RTX!

Und erhält den 1zu1 Chip von Pascal 1080ti?!

Das ist genau das was zu befürchten ist, ein GP104.
Denn die stärker gesalvagten TU104 können sicherlich auch in den Mobilmarkt wandern und es wird sicherlich noch ne entsprechend beschnittene zusätzliche Quadro geben, wenn man genug defekte Chips gesammelt hat. Das Gros sollte man mit dem minimalsalvage der 2080 schon rausziehen. 1080ti Leistung ist mit den kolpotierten Chiptakten unmöglich. Da kann man froh sein, wenn man bei nicht-RT-Titeln über einer Custom-1080er hinauskommt.

Godmode
2018-08-19, 09:34:50
Also wenn man um die 40-50% Mehrleistung abseits Raytracing gegenüber einer jeden Last Gen Karte ermöglichen möchte, dann bedarf es entweder einer allgemeinen IPC Erhöhung abseits von Compute (wie Volta es schon hatte).
Eventuell wäre es ja auch nicht völlig unmöglich, wenn die RT Cores auch FP32 könnten, um die SPs zu unterstützen. Über einen erhöhten Taktanstieg alleine kann man das obige mögliche Performance Target unter 12nm ja nicht erreichen.
....


Die RT Cores sind sowas wie die TMUs, oder anders gesagt, Funktionalität in Hardware gegossen. Die Dinger können genau eine Sache, diese aber sehr schnell. Es ist so gut wie ausgeschlossen, dass die RT Cores was zur FP32 Leistung beisteuern, wenn sie sonst nicht genutzt werden. Was noch eher vorstellbar ist, sind die Tensor Cores, weil diese ja Matrizen multiplizieren können und das sehr schnell.

Hat sie mal jemand die Mühe gemacht und die IPC von GV100 untersucht, weil das würde eventuell Rückschlüsse liefern.

Kriegsgeier
2018-08-19, 09:48:15
Am heutigen Sonntag lohnt sich das fast nicht:

In weniger als 24 Stunden wissen wir alle Details

Edgecrusher86
2018-08-19, 10:07:38
Maybe a stupid question, but can the RT cores assist the more traditional "cuda cores" for non-RT compute stuff ? Same thing with tensor cores ?


Now all I want is for those things to be somehow usable in non-RT workloads (outside of CUDA) :)

I think it will. I expect that ray tracing was the test case for a lot of those features in other compute languages. Features come first to CUDA because NVIDIA has complete authorship of the HW+SW+libs, but good ideas have a way of showing up everywhere quickly.


https://forum.beyond3d.com/posts/2040086/

Es könnten wohl auch andere workloads mit den RT möglich sein. Eventuell wäre ja compute spezifischer Content wie GW Effekte für den Desktop Markt möglich.

Troyan
2018-08-19, 11:16:43
Nein, das bezieht sich auf die neue Shader-Sprache. Die RT Cores sind "Fix Function" Blöcke, die in ihrer Nutzbarkeit eingeschränkt sind.

Zur normalen Leistungssteigerung wird eher der neue L1 Cache, die doppelte Bandbreite und die gleichzeitig nutzbaren Integer-Einheiten beitragen.

Herr Doktor Klöbner
2018-08-19, 11:20:13
Hauptsache mal wieder kein Byte Speicher zuviel, nicht das jetzt aus einer 600-900 € Investition eine langfristig zu gebrauchende Grafikkarte wird.

basix
2018-08-19, 11:49:46
Also 400$ für 1080 Ti Leistung bei der 2070er OC wären ziemlich gut. Das würde auf ca. +40-50 Prozent ggü. Pascal hindeuten.

Für DLAA erhoffe ich mir, dass man es über den Treiber erzwingen kann. Dann wäre das ein universales AA, welches auch (hoffentlich) immer gut funktioniert. Soweit ich verstanden habe ist DLAA nämlich eine Art virtuelles Downsampling über die TensorCores. Könnte also praktisch gratis sein. Und da hätten wir es schon: Ein Feature, dass sofort verfügbar ist und einen praktischen Nutzen bringt. Nur schon damit wäre die Daseinsberechtigung zum Zeitpunkt heute für die TC erfüllt. Dass man dann in Zukunft über TC noch weitere Dinge wie Raytracing, Animationen, Wegfindung, Physik(?) und Haare(?) unterstützen kann wird der Grund sein, dass sich die zusätzliche Fläche schnell "amortisiert" haben wird.

Alles in allem freue ich mich auf Turing. Wieder mal neue Technologie für uns Technik-Freaks :)

Zum 7nm Thema: Das wird trotzdem ein grosser Sprung werden, auch wenn der Chip kleiner wird. Sagen wir mal ca. +60 Prozent Einheiten (7680 Shader Cores im Vollausbau) bei 2-2.5x Scaling. Ergäbe 480-600mm2 ausgehend von GT102. Also absolut machbar. Dann noch +25 Prozent Takt obendrauf und wir sind bei Faktor 2x Steigerung.

Dann weitergespinnt mit 7nm EUV: Nochmals 30 Prozent Scaling. Bei nochmals 1.4-1.5x Einheiten (max. 11'520 Einheiten) landet man bei 500-700mm2. Ebenfalls denkbar. So in der Art könnte der Plan von Nvidia aussehen ;) Was aber noch ein Thema ist bei so vielen Einheiten: Woher kommt die Bandbreite?

Troyan
2018-08-19, 11:58:44
DLAA ist kein Treiberfeature an sich. Die Spiele müssen per API den Treiber ansprechen und nVidia muss das AA in den Spielen zu erst trainieren und das Netzwerk per Treiber ausliefern.

Es hängt davon ab, wieviel Geld nVidia dort investiert.

Kriegsgeier
2018-08-19, 12:04:09
kann es sein, dass die Treiber Größe ab Version 400 (Turingstart) wesentlich größer wird?
Keine 400 Mb sondern sagen wir mal 900 Mb?!

Troyan
2018-08-19, 12:06:16
Hängt wohl davon ab, wie groß die trainierten Netzwerke sind. Imo sollte das ganze über Experience laufen, das dann auf Wunsch die Netzwerke runterlädt.

Thunderburne
2018-08-19, 12:06:28
Hauptsache mal wieder kein Byte Speicher zuviel, nicht das jetzt aus einer 600-900 € Investition eine langfristig zu gebrauchende Grafikkarte wird.
Ich persönlich bin schon froh das es nicht nur bei einer GTX2080 mit 8GB bleibt und das schon jetzt eine Ti kommt so fühle ich mich nicht in der Situation was falsch zu machen wen ich die Ti gleich haben kann.

dildo4u
2018-08-19, 12:14:47
Jup der Launch ist in dem Punkt deutlich besser für den User,gab wahrscheinlich massig Leute die erst eine 1080 und dann eine 1080 TI gekauft haben.
Da jetzt das Mining kaum noch rentabel ist hätte man deutlich weniger Kohle für die 2080 bekommen um die 2080 Ti zu kaufen.

Radeonfreak
2018-08-19, 12:28:51
Imo sollte das ganze über Experience laufen.

Ich hoffe nicht, der Rotz kommt mir nicht auf die Platte. :eek:

Bambuslooter
2018-08-19, 12:40:49
Ich persönlich bin schon froh das es nicht nur bei einer GTX2080 mit 8GB bleibt und das schon jetzt eine Ti kommt so fühle ich mich nicht in der Situation was falsch zu machen wen ich die Ti gleich haben kann.

Bin genau der selben Meinung, fühle mich da weniger über den Tisch gezogen bei dem was ich erhalte.

Laut pixeljetstream wurde ja noch nicht alles an Features gezeigt.
Die Tests dazu werden bloss dauern bis alles gelüftet ist :)

Geächteter
2018-08-19, 12:41:28
Jup der Launch ist in dem Punkt deutlich besser für den User,gab wahrscheinlich massig Leute die erst eine 1080 und dann eine 1080 TI gekauft haben.

Bei dem diesmal zu erwarteten minimalen Performancesprung muss das wohl auch so sein, sonst könnte er am Ende außer bei RT bestenfalls gleich schnell oder im worst case Performance + Speicher verlieren bei Wechsel von 1080-Ti auf 2080 Non-Ti. Wer würde da von den Enthusiasten für teuer Geld wechseln wollen?

Troyan
2018-08-19, 12:42:42
Richtig. GTX1080TI Leute wechseln doch nicht von 11GB wieder auf 8GB runter. Deswegen kommt auch die GTX2080TI mit 11GB. Ist im Grunde das VRAM Update für die GTX1080 User und kein Downgrade der GTX1080TI Käufer.

w0mbat
2018-08-19, 12:57:15
Bei dem diesmal zu erwarteten minimalen Performancesprung [...]

Hab ich was verpasst? Der große Sprung soll doch jetzt kommen. Neue Architektur und so.

Linmoum
2018-08-19, 13:01:04
Hab ich was verpasst? Der große Sprung soll doch jetzt kommen. Neue Architektur und so.
Wer sagt, dass der jetzt kommen soll? Den großen Sprung gab's bereits mit Pascal.

Was Ray Tracing angeht, hast du natürlich recht. Da wird Pascal kein Land sehen.

dildo4u
2018-08-19, 13:04:53
Hab ich was verpasst? Der große Sprung soll doch jetzt kommen. Neue Architektur und so.
Der Sprung kommt der große Chip ist schneller als die Titan V,16 statt 15 Tflops.Die Quadro hat nur minimal mehr Cores als der Gameing Chip mit dem Nvidia Kühler haste aber keine Chance auf den Takt einer Custom 2080 Ti zu kommen.

https://www.computerbase.de/2018-08/nvidia-turing-quadro-rtx/

Linmoum
2018-08-19, 13:09:59
Der Sprung kommt der große Chip ist schneller als die Titan V,16 statt 15 Tflops.Die Quadro hat nur minimal mehr Cores als der Gameing Chip mit dem Nvidia Kühler haste aber keine Chance auf den Takt einer Custom 2080 Ti zu kommen.

https://www.computerbase.de/2018-08/nvidia-turing-quadro-rtx/
Ja, 30-40% auf die 1080Ti. Damit ist man auch schneller als die Titan V. Nur ist das kein (ungewöhnlich) großer Sprung.

w0mbat
2018-08-19, 13:10:58
Den großen Sprung gab's bereits mit Pascal.

Stimmt, dass ändert sich in Zukunft wohl nichts mehr an der Performance :freak:

Linmoum
2018-08-19, 13:15:10
Was niemand sagt. Die Selbstverständlichkeit, mit der hier gefühlt die Hälfte jetzt immer ein zweites Pascal erwartet, ist nur absurd. Und da hilft es bei euch ja nicht einmal, wenn selbst ein Nvidia-Mitarbeiter dahingehende nüchterne Aussagen tätigt.

reaperrr
2018-08-19, 13:16:50
Hat sie mal jemand die Mühe gemacht und die IPC von GV100 untersucht, weil das würde eventuell Rückschlüsse liefern.
Also laut den TV-Tests, die ich gelesen habe, scheinen zumindest die Volta-SMs nicht (merklich) leistungsstärker als die von Pascal zu sein.

Die auffälligsten Verbesserungen waren:
- Enorm hohe Compute-Leistung, ca. doppelt so hoch wie bei Vega10.
- Profitiert genauso stark von Async-Compute in Spielen wie GCN, was auch die Behauptungen etwas beiseitefegt, dass GCN nur von AC profitiert weil die Auslastung von GCN ohne AC so viel schlechter als bei NV-Architekturen ist. Da sind mit Volta offensichtlich ACE-ähnliche Einheiten dazugekommen oder massiv ggü. Pascal verbessert worden.

dildo4u
2018-08-19, 13:22:28
Die Frage ist auch wie die 16 Tflops der Quadro gemessen wurden,wenn z.b auf den RT Cores keine Last anliegt könnte mehr TDP Budget für die SMs frei gegeben werden so könnte der Takt innerhalb des TDP höher sein.
Da muss man echt Tests abwarten.

Troyan
2018-08-19, 13:26:27
- Profitiert genauso stark von Async-Compute in Spielen wie GCN, was auch die Behauptungen etwas beiseitefegt, dass GCN nur von AC profitiert weil die Auslastung von GCN ohne AC so viel schlechter als bei NV-Architekturen ist. Da sind mit Volta offensichtlich ACE-ähnliche Einheiten dazugekommen oder massiv ggü. Pascal verbessert worden.

Nein, das ist falsch. Der Unterschied zwischen Titan V und XP ist kaum relevant: https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/3/#diagramm-sniper-elite-4-directx-12-mit-async-compute

Außerdem hat Volta pro TPC doppelt soviele SM-Einheiten. Async Compute hilft hier leicht besser, da nVidia jedenfalls bei Pascal immer nur pro SM-Einheit den Workload verteilen kann. Da Volta jedoch die selbe Anzahl an Fix-Function Blöcke hat, kann es hier ein paar % Pünktchen bringen. Aber es spielt am Ende keine Rolle.

w0mbat
2018-08-19, 13:33:54
Die Selbstverständlichkeit, mit der hier gefühlt die Hälfte jetzt immer ein zweites Pascal erwartet, ist nur absurd.

Ich will keinen zweiten Pascal, ich will deutlich mehr Leistung. Pascal war ja einfach nur mehr Takt. Sieht man gut daran, dass eine 1,5GHz 980Ti mit einer 1070 mithalten kann. Wieso wird hier Pascal als großer Sprung angesehen, wenn er es gar nicht war? Vielleicht weil AMD nichts neues gebracht hat und sic deswegen nicht viel bewegt hat?

Ich weiß natürlich auch nicht was Turing bringt, aber eine neue Architektur könne deutlich mehr leisten. Ganz abgesehen von RT.

Linmoum
2018-08-19, 13:41:00
Ich will keinen zweiten Pascal, ich will deutlich mehr Leistung. Pascal war ja einfach nur mehr Takt. Sieht man gut daran, dass eine 1,5GHz 980Ti mit einer 1070 mithalten kann. Wieso wird hier Pascal als großer Sprung angesehen, wenn er es gar nicht war?
Ernsthaft jetzt? :freak: Was ist ein Leistungsplus von 70% ggü. dem direkten Vorgänger denn sonst? Handzahm?

Ob dieses Leistungsplus jetzt durch Architektur, irgendwelche Features, Takt oder sonstwas zustande kommt, spielt keine Rolle. Nochmal dasselbe mit Turing und 'ne 2070 wäre fast auf dem Niveau einer Titan V. Logisch.

w0mbat
2018-08-19, 13:51:50
Ernsthaft jetzt? :freak: Was ist ein Leistungsplus von 70% ggü. dem direkten Vorgänger denn sonst? Handzahm?

Leistungsplus von 70%?!

Ich hab mir gerade nochmal den CB Test angesehen. Eine 1080 hat zum launch etwa 10-15% mehr Leistung als eine als eine gute 980Ti Partnerkarte geliefert.

Wenn die Gerüchte stimmen, kommt bei Turing gleich die 2080Ti, welche mehr als 10-15% über der 1080Ti liegen sollte, also ein deutlich größerer Sprung zum launch.

70% zum Pascal launch, dass ich nicht lache ;D Da war bei dir mal wieder der Wunsch Vater des Gedankens :freak:

Timbaloo
2018-08-19, 13:58:57
:facepalm:

prinz_valium
2018-08-19, 14:10:07
Krass:

Turing is said to reach 2GHz clock speeds with a bit of overclocking, with that factored in the RTX 2070 could very well end up being a bargain GTX 1080 Ti once overclocked. In combination with an attainable price tag of $400 or right around it, the RTX 2070 will very likely be the go-to graphics card in the Turing line-up.

Ist jetzt nicht so krass, da Pascal doch auch locker 2GHz schafft. Unter Wasser sind es dann 2.2GHz


Aber ich habe es schon vor Tagen gesagt.
Die 1080 wir die mit abstand schlechteste Karte im Lineup, die niemand kaufen sollte. Entweder 1070, oder gleich zur 1080TI.
Man sieht ja heute an den Händler Preisen, dass die 1070 und 1080 nicht einmal mehr 100€ auseinander liegen. Da gehören die auch Hin.


Zum 1080 release war sie halt noch das schnellste und mit GDDR5x vs GDDR5 sowie 2560 Cores vs 1920 Cores war der Unterschied deutlich höher als diesmal mit GDDR6 vs GDDR6 und 2944 Cores vs 2304

Linmoum
2018-08-19, 14:11:33
Leistungsplus von 70%?!

Ich hab mir gerade nochmal den CB Test angesehen. Eine 1080 hat zum launch etwa 10-15% mehr Leistung als eine als eine gute 980Ti Partnerkarte geliefert.

Wenn die Gerüchte stimmen, kommt bei Turing gleich die 2080Ti, welche mehr als 10-15% über der 1080Ti liegen sollte, also ein deutlich größerer Sprung zum launch.

70% zum Pascal launch, dass ich nicht lache ;D Da war bei dir mal wieder der Wunsch Vater des Gedankens :freak:
Ok, bringt nichts. Ich spreche von direktem Vorgänger und du kommst hier mit einem 1080 vs. 980ti-Custom Vergleich an. Lassen wir es sein und bleiben beim Thema Turing.

Tesseract
2018-08-19, 14:15:26
Ist jetzt nicht so krass, da Pascal doch auch locker 2GHz schafft. Unter Wasser sind es dann 2.2GHz

pascal schafft nicht "locker" 2GHz. manche schaffen das, manche nicht und 2.2 hört sich schon eher nach golden sample an.

prinz_valium
2018-08-19, 14:16:51
Immer schön das selbe Vergleichen

Papier vs Papier
FE mit Standard Clocks vs FE mit Standard Clocks
Custom vs Custom
Overclocked vs Overclocked.

Das eine 2070 mit 2GHz auf Leistung einer 1080TI FE mit standard Clocks liegen wird, glaube ich auch. Aber das ist doch nichts besonderes.


pascal schafft nicht "locker" 2GHz. manche schaffen das, manche nicht und 2.2 hört sich schon eher nach golden sample an.
Es war doch von guten Custom Modellen die Rede.
Also ich habe nicht von vielen gehört, die keine 2GHz geschafft haben.
Ist imho eher die Regel aus Ausnahme.

Aber ja, vllt war locker nicht die beste Wortwahl.
2GHz ist aber der Taktbereich von Pascal schon gewesen. Hätte sich in dem Fall also nicht groß geändert.
Die kolportierten Standard Taktraten sind ja auch auf dem Niveau von Pascal.

aufkrawall
2018-08-19, 14:18:11
pascal schafft nicht "locker" 2GHz. manche schaffen das, manche nicht und 2.2 hört sich schon eher nach golden sample an.
Allerdings schaffen offenbar viel mehr einen immer noch hohen Takt wie ~1,85GHz bei pervers niedrigen Spannungen wie 0,9V.

Troyan
2018-08-19, 14:18:57
pascal schafft nicht "locker" 2GHz. manche schaffen das, manche nicht und 2.2 hört sich schon eher nach golden sample an.

Ja, 2000Mhz schaffen vielleicht die GP106 Karten. Ab GP104 sind 2000Mhz die klare Ausnahme.

Umso mehr zeigen die 1750Mhz der RTX6000, dass hier ca. 200Mhz mehr an Takt möglich sind. Damit wären "sichere" 2Ghz bei Turing eher zu erreichen als bei Pascal.

Kriton
2018-08-19, 14:20:33
Krass:

Turing is said to reach 2GHz clock speeds with a bit of overclocking, with that factored in the RTX 2070 could very well end up being a bargain GTX 1080 Ti once overclocked. In combination with an attainable price tag of $400 or right around it, the RTX 2070 will very likely be the go-to graphics card in the Turing line-up.

Bloss keine Quelle angeben...:rolleyes:

Tesseract
2018-08-19, 14:21:59
Allerdings schaffen offenbar viel mehr einen immer noch hohen Takt wie ~1,85GHz bei pervers niedrigen Spannungen wie 0,9V.

ja, das ist typisch für pascal: geht mit sehr wenig spannung sehr hoch und irgendwo über 1900 gibt es dann einen punkt so plötzlich überhaupt nix mehr geht. spricht für die sehr gut optimierte architektur.

reaperrr
2018-08-19, 14:24:57
Leistungsplus von 70%?!

Ich hab mir gerade nochmal den CB Test angesehen. Eine 1080 hat zum launch etwa 10-15% mehr Leistung als eine als eine gute 980Ti Partnerkarte geliefert.

non-Ti Referenz-Design vs. Ti-Custom, sehr fairer Vergleich :rolleyes:

Die 980Ti hat 40% mehr SM, 50% mehr GPCs (Rasterizer), 50% mehr ROPs und immerhin 5% mehr Speicherbandbreite als die 1080 FE. Daran sieht man eher, wieviel Pascal dann doch verbessert hat.
Und die 1080Ti packt sehr wohl fast 70% auf die 980 Ti drauf.
Und die 1070 erreicht die 980Ti-Leistung mit 54% der SMs, 50% der GPCs (ist ein kompletter deaktiviert) und 76% der Speicherbandbreite.

Solche großen Leistungssprünge wie von Kepler auf Maxwell 2.0 wird es von NV zukünftig wahrscheinlich nur noch bei Full-Node-Shrinks geben. Wobei das dann ja wieder eher was Pascal-artiges ist...

MiamiNice
2018-08-19, 14:28:37
ja, das ist typisch für pascal: geht mit sehr wenig spannung sehr hoch und irgendwo über 1900 gibt es dann einen punkt so plötzlich überhaupt nix mehr geht. spricht für die sehr gut optimierte architektur.

Meiner Erfahrung nach ist dieser Punkt bei 2000Mhz bei GP104 und 2050Mhz bei GP102. Gute Kühlung voraus gesetzt.

Grendizer
2018-08-19, 14:30:18
Meiner Erfahrung nach ist dieser Punkt bei 2000Mhz bei GP104 und 2050Mhz bei GP102. Gute Kühlung voraus gesetzt.

Meine 1080 schafft 1950 auf 0,9 stabil, aber bei Standardvoltage leider keine 2000. Also ein schmales Fenster hier.