PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erste Angaben zu Performance & Stromverbr. von GeForce GTX 1170 & 1180


Leonidas
2018-07-28, 07:27:44
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-erste-angaben-zu-performance-stromverbrauch-von-geforce-gtx-1170-1180

grobi
2018-07-28, 08:49:07
Wenn das so ein trifft wird meine GTX1080 noch im Rechner bleiben. Mal sehen was Vega in 7nm zu leisten vermag, vielleicht kommen sich Nvidia und AMD in der Performance näher wie schon lange nicht mehr.

mfg grobi

JVC
2018-07-28, 08:54:16
Also bleibt mehr oder weniger alles beim Alten und es wird nur auf 12nm "verkleinert" ?

V-Sync Standard wird auch noch immer nicht unterstützt ?
( das sollten sie können bevor ich noch einmal eine NV kaufe ;) )

Ich sehe wenig bis keinen Grund aufzurüsten außer die 1180Ti kommt in 7nm ...
( was ich selbst nicht glaube )

m.f.g. JVC


Das ist schon klar
Aber ich "befürchte" das NV mit seiner "nächsten Generation" hauptsächlich nur das abgrast was Custom Modelle mit hohem tackt jetzt schon fast bieten.

Ich fürchte das die neue Ti sich nur "wenig" vor der alten Ti ( beide auf Anschlag getaktet ) absetzen können wird :confused:

m.f.g. JVC

25% finde ich schon etwas "wenig" ... mal abwarten wies mit OC aussieht ... nicht das das den Vorteil der Neuen Karte noch mehr schmälert ...

Ben Carter
2018-07-28, 09:21:08
Für mich ergibt das nur sehr begrenzt sind. Wenn man sich mal nur die 1170 ansieht: 180W und 1080 Leistung. Also quasi gleiche Leistung und gleicher Verbrauch wie die 1080. Klar sind das, sofern sie stimmen, nur theoretische Werte, aber das ist meiner Meinung nach zu wenig für den Zeitraum und eine kleine Fertigungsverbesserung.

Bzgl. USB-C/Virtual Link: der DVI Port soll wegfallen, das hat mit dem anschließend genannten Display Port wohl nichts zu tun und ein VL -> DVI Adapter wird es wohl nicht werden. Dann eher DP oder HDMI zu DVI. Aber meiner Meinung nach kann man den DVI auch wirklich problemlos weglassen.

lg Ben

Complicated
2018-07-28, 09:35:10
Zu VirtualLink:
http://www.planet3dnow.de/vbulletin/threads/425761-Virtual-Reality-und-Augmented-Reality-ist-VR-die-Zukunft-oder-nur-ein-Hype?p=5208355&viewfull=1#post5208355

Iscaran
2018-07-28, 09:46:11
Lustig vor ein paar Tagen hiess es noch die 1170 schlägt sogar evtl. die 1080 Ti...
https://www.3dcenter.org/news/erster-angeblicher-3dmark13-wert-zur-turing-basierten-geforce-gtx-1170-aufgetaucht

Weil der chip ja deutlich besser gefertig und deutlich größer würde...
https://www.3dcenter.org/news/nvidias-turing-auf-676mm%C2%B2-chipflaeche-ermoeglicht-48-mehr-transistoren-sowie-50-60-mehrperforma

Nicht zu vergessen die Aussagen von vor ein paar Tagen:
" Der wichtigste Punkt hierzu ist sicherlich derjenige der Fertigungstechnologie, denn daran ermisst sich, wie hoch das ingesamte Potential der Turing-Generation ausfällt: 12nm ist einfach zu realisieren, bedingt aber steigende Chipflächen und limitiert das Performance-Potential damit auf grob +40-60%. 10nm ist wegen dessen weitgehender Nichtnutzung arg unwahrscheinlich, würde aber alles für eine "echte" neue Chip-Generation mit einem Performance-Potential von bis zu +100% mitbringen. 7nm wäre das Ideal, weil damit selbst mit kleineren Chipflächen ein Performance-Potential von 100% und mehr spielend erreichbar ist."
https://www.3dcenter.org/news/angebliche-launchtermine-zu-geforce-gtx-1160-1170-1180-aufgetaucht

Jetzt sind wir also auf dem Boden der Tatsachen angelangt und sehen dass Turing wohl eher ein netter Refresh von Pascal wird in 12nm....mit 30% Performance boost :-)

Naja mal sehen was im Herbst wirklich aufschlägt.

Vega2 wird ja vermutlich auch keine Revolution, nur eben ein deutlich Energiesparenderer 7nm Vega...

Screemer
2018-07-28, 09:52:08
Vega2 wird ja vermutlich auch keine Revolution, nur eben ein deutlich Energiesparenderer 7nm Vega...

Vega 7nm ist imho eine reine Rechenmaschine für hpc. Ich bezweifle, dass da für die consumersparte überhaupt was anfällt.

Lowkey
2018-07-28, 09:57:27
Das klingt ja nach technologischem Rückschritt. Das reißt niemanden zum Kauf hin. Also gibt es wohl eher Preissenkungen oder eine geringere Verfügbarkeit. Irgendwas stimmt doch da nicht, wenn nach über 2 Jahren Pause so "wenig" passiert.

Gast
2018-07-28, 09:58:57
Nvidia soll nach 2,5 Jahren wirklich mit gerade mal 25% Mehrperformance daherkommen?

Das scheint mir wirklich arg unwahrscheinlich, will Nvidia wirklich Intel und AMD nacheifern?

dr.denton
2018-07-28, 10:19:29
Andererseits: wieso sollte nV massenhaft Ressourcen aufwenden, wenn von AMD bis Navi ohnehin keine Konkurrenz im Consumersegment zu erwarten ist? Da würde ich, wirtschaftlich gedacht, auch lieber mit minimalem Aufwand so viel Kohle wie möglich scheffeln und zur gegebenen Zeit dann was vergleichbares zu Navi auf den Markt werfen. Zeit und Geld haben die bei nV ja genug.

Iscaran
2018-07-28, 10:30:30
@lowkey:

Wenn man den Sprung von 14nm auf 7nm wirklich vornehmlich dazu nutzt im Verbrauch runter zu gehen (und vielleicht noch ein bisschen Performance rauszuholen...dann hat man dank der deutlich kleineren Dies, bei gleichzeitig deutlich niedrigerem Stromverbrauch plötztlich sehr gute Karten im Mainstream, high-end Segment.

Vor allem wenn nVidia hier auch "nur" mit +30% Performance kommt - ist man in der Kategorie bis 300€/400€ vermutlich mindestens gleich auf.

Überleg mal ein Vega56 in 7nm mit dann vielleicht nur mehr 150W und der Leistung einer 1070Ti/1080 (also dem was die 1170 auch hat).
Die Werte hier vom Release sind ja heute eher nicht mehr das was erreicht wird:
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-vega

Aber gut nehmen wir mal die 290W für Vega64 bzw 220W für Vega56:
-50% Power Reduction potential (also *2/3) mit 7nm =>:

Vega 64 290 W * 2/3 = 195 W
Vega 56 220 W * 2/3 = 150 W

Dank 7 nm wird der Chip winzig. und 7nm für Vega für Ende 2018 sind offiziell von AMD.
Siehe PK von Lisa Su zu den Quartalszahlen: Slide 7:
https://seekingalpha.com/article/4190172-advanced-micro-devices-inc-2018-q2-results-earnings-call-slides
Began Sampling Vega 7nm: On track to launch sales later this year.

Klar wird die HPC Lösung als erstes gebracht - aber ich glaube schon dass AMD hier auch auf den Normalen Desktop markt gehen kann mit so einem Produkt:

https://www.techpowerup.com/244902/amd-demonstrates-7nm-radeon-vega-instinct-hpc-accelerator
Jism's Kommentar (und weiter darunter die Quelle dieser Aussagen ist AMD selbst auf der Computex 2018: "Other websites reported, that the 7nm vega is twice as efficient compared to the 14nm. And that the performance over the previous one is around 35% more"
"The translation is is that the new chip is supposed to be twice as efficient and performance can be 35% higher compared to current generation of Vega cards."

Wie gesagt die +35% für den Desktop markt bräuchte man so extrem nicht...da würden auch +20% reichen sofern man es eben schafft den Stromverbrauch wirklich um die anvisierten 50% zu senken.
Dann hat man sehr kompetive Karten in ALLEN Bereichen außer dem Enthusiasten Level.

EDIT: Noch dazu wenn ich die -10% @nVidia mit HDR einrechne - wobei man noch sehen müsste ob turing diesen Effekt auch hat, ebenso noch evtl. DX12/Vulkan....allerdings würde ich mal davon ausgehend ass Turing in DX12 zumindest nicht mehr Performance verliert relativ zu AMDs lösungen (wie es bislang ist):
https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/

ShinyMcShine
2018-07-28, 10:43:21
Wenn das so ein trifft wird meine GTX1080 noch im Rechner bleiben.

Sehe ich genauso! Zumal meine 1080 auf 2050/5400 schon ordentlich läuft, ergo würde der Sprung sehr gering ausfallen.

Fazit: Sorry nVidia, skip & next please. Ich hoffe dann auf eine 1280@7nm mit 16GB, welche ich dann Ende 2019 mit Ice Lake paaren würde. :biggrin:

iuno
2018-07-28, 10:49:40
Vega 7nm ist imho eine reine Rechenmaschine für hpc. Ich bezweifle, dass da für die consumersparte überhaupt was anfällt.

Es gibt jedenfalls schon Mal consumer Treiber dafür.
Und salvage muss auch irgendwo hin, jedenfalls ist mir bisher auch nur die instinct 25 und keine instinct 20 o.ä. bekannt

Grundkurs
2018-07-28, 10:50:22
NVidia scheint mangels Konkurrenz im High-End / Enthusiastenbereich wohl nach dem Motto zu agieren: Die besten Pferde springen nur so hoch sie müssen.

Gast
2018-07-28, 11:04:23
Igor hat am Dienstag das hier geschrieben:

"Aber Ihr werdet mit Sicherheit eine kleine Überraschung erleben, das kann ich durchaus spoilern. Sonst würde NV auch nicht so einen Tanz aufführen. ;)"

is halt die frage ob positive oder negative Überraschung ^^

klingt aber eher nach ner positiven Überraschung ... weswegen die Angaben des Artikels irgendwie keinen Sinn ergeben

y33H@
2018-07-28, 11:22:34
Virtual Link nutzt USB 3.1 Gen2: https://sites.google.com/view/virtuallink-consortium/

mac_skull
2018-07-28, 11:26:51
Das wäre auf jeden Fall doch sehr enttäuschend, so es denn zutrifft. Ich hätte da persönlich doch auf "etwas" mehr gehofft. Das klingt in der Tat mehr nach einem einfachen Refresh denn nach einer neuen Generation.
Eine 1170 mit einer Performance ~1080 wäre einfach nur schwach. Da sitzt ja schon die 1070 Ti und wenn die 1180 die 1080 Ti nicht knackt frage ich mich wer da zugreifen soll, vor allem wenn die Preise aller Voraussicht nach nicht sonderlich fallen werden.
Falls sich die Performance bewahrheiten sollte kann man zumindest auch sicher sein, dass die Speicherbestückung 8GB betragen wird, denn mehr macht da wirklich wenig Sinn.
Sollte das so zutreffen ist Turing wohl mehr ein Lückenfüller den Nvidia raushaut um was zu haben bis nächstes Jahr die 7nm Generation aufschlägt. Ich kann mir nicht vorstellen, dass Turing eine lange Lebenserwartung besitzen wird.

Bösewicht
2018-07-28, 11:27:09
NVidia scheint mangels Konkurrenz im High-End / Enthusiastenbereich wohl nach dem Motto zu agieren: Die besten Pferde springen nur so hoch sie müssen.
das sind amerikanische firmen... wer glaubt bitte noch am weihnachtsmann ahh daran das die firmen sich noch gegenseitig zerstören???
wenn amd nicht kann wird da eine pause eingelegt, dann können sie hier nicht wird da pause gemacht...

geht amd pleite wird da etwas geld gespendet usw.

microsoft hat auch schon apple mit keine ahnung 120 millionnen ausgeholfen...

sie mögen sich vielleicht nicht direkt absprechen aber es ist was es ist und deswegen finde ich diese fanbox haltung von einigen echt fürn poppo.

glaub mir unsere deutschen autobauer machen oder würden es auch so machen.

Lehdro
2018-07-28, 11:27:53
Irgendwie ergibt das ganze keinen Sinn. Die 1170 wird wesentlich größer als die 1080 und gleichzeitig billiger, aber trotzdem langsamer?

Gast
2018-07-28, 11:28:53
is das hier unten links eig der Virtual Link?

https://cdn.videocardz.com/1/2018/06/Next-Gen-NVIDIA-Graphics-Card.jpg

Tarkin
2018-07-28, 11:48:21
i cant belive again this!

total negative i say trolling for nvidia.


its clear lie and all know that that coming 1170 performance is what 3dcenter say here old gtx 1080 level... come on.! hehe

well, i know also that all see this site politics, amd is everything!

truth is this 100% fact

1160 = 1080
1170 = 1080 ti
1180 = 1080 ti +25-35%
1180 ti = titan xp + 40% this is only little bit unclear,but you can be sure 1180 ti is fast!!

all nvidia 1100 series performance reference model,AIB models you can except about 10% more performance.

tiran turing = extremy fast!, flagship of turing and its only job is keep nvidia game performance number 1 gpu,so its only turing gpu that tdp or price is not issue.


last i wanna ask 3dcenter...

what a point is build gpu like you say here example 1170 what is same performance as 1080??!!
no point at all, sure is must be faster or same speed as than 1080 ti.

stop nvidia trolling and also intel cpus.

truth is that they are best!

Made my day... what a laugh. Maybe you should see a physician.

Platos
2018-07-28, 12:24:53
Diese Perfomanceinschätzung ist wirklich ziemlich gering.

Die GTX 1080 hat 180 Watt. Die GTX 1170 soll jetzt 1080 Perfomance mit 1080 Watt erreichen..? Also quasi eben genau diese Karte, einfach umbenannt ?? Anders gesagt, es ist kein Refresh, es sind die genau selben Karten mit neuem Namen. Vlt. gibts es einen grösseren "GT 102" Chip.

Was ich mich gerade auch frage, inwiefern Igors damalige Aussage eintreffen wird, dass die neue Gen eine "Raubkatze" wird. An so eine kleine Änderung (will) ich nicht glauben. Dann könnten sie sich ihre Karten getrost selbst in den arsch schieben...Um mich von einem Kauf zu überzeugen braucht die GTX 1180Ti mind. 16GB und mind. + 45% Leistung ( mit mind. gleich guter übertaktbarkeit)

Gast Ritis
2018-07-28, 13:30:36
Es können prinzipiell auch die gleichen GPUs sein nur dass man noch Raytracing ASIC dazugeklebt hat.

Ich dachte das sollte dieses Jahr noch kommen, sonst hätte nVidia das doch nicht bereits vorgestellt?

Was ist mit AMD und Imagination Technologies in diesem Bereich? Eigentlich könnte man Chips von denen per HSA zusammenkleben. Wieso ist ImgTech eigentlich nicht schon konkurs?

Fragen über Fragen und kein Journalist interessierts, achja gibt ja keine in der IT. ;D

Leonidas
2018-07-28, 13:34:10
i cant belive again this!

total negative i say trolling for nvidia.


its clear lie and all know that that coming 1170 performance is what 3dcenter say here old gtx 1080 level... come on.! hehe

well, i know also that all see this site politics, amd is everything!

truth is this 100% fact

1160 = 1080
1170 = 1080 ti
1180 = 1080 ti +25-35%
1180 ti = titan xp + 40% this is only little bit unclear,but you can be sure 1180 ti is fast!!

all nvidia 1100 series performance reference model,AIB models you can except about 10% more performance.

tiran turing = extremy fast!, flagship of turing and its only job is keep nvidia game performance number 1 gpu,so its only turing gpu that tdp or price is not issue.


last i wanna ask 3dcenter...

what a point is build gpu like you say here example 1170 what is same performance as 1080??!!
no point at all, sure is must be faster or same speed as than 1080 ti.

stop nvidia trolling and also intel cpus.

truth is that they are best!


I am confused: Just some weeks ago forum members found 3DC guilty of writing pro nVidia. And for years, 3DC was seen as "home of Intel CPUs". Really confusing. Maybe I should ask my crystal ball, to decide to write for what company next.

iamthebear
2018-07-28, 14:15:43
Erstmal abwarten. Aktuell gibt es eine Menge sich widersprechende Gerüchte. Vor ein paar Tagen auf Computerbase: https://www.computerbase.de/2018-07/nvidia-turing-3-karten-rumors/

Da war noch von 120/150/180 Watt die Rede was bedeutet dieselbe Leistung nur mit etwas weniger Stromverbrauch und es sollen beide Serien parallel verkauft werden.

Ehrlich gesagt sehe ich nur 2 realistische Szenarien:
a) Es gibt leichtes Performance Plus mit selber Verlustlwistung und Preis
b) Es gibt ordentliches Performance Plus mit deutlich mehr Verlustleistung aber in einer neuen Preisregion: 1170 um die 500 Euro, 1180 um die 800 Euro, 1180 Ti um die 1500.

Thomas555
2018-07-28, 14:17:44
Lustig vor ein paar Tagen hiess es noch die 1170 schlägt sogar evtl. die 1080 Ti...
https://www.3dcenter.org/news/erster-angeblicher-3dmark13-wert-zur-turing-basierten-geforce-gtx-1170-aufgetaucht


Das dachte ich mir auch. Welche Angaben stimmen jetzt?
1080 = 1170 ist nicht besonders gut.

MasterElwood
2018-07-28, 14:18:07
Andererseits: wieso sollte nV massenhaft Ressourcen aufwenden, wenn von AMD bis Navi ohnehin keine Konkurrenz im Consumersegment zu erwarten ist?

Weil eine große Zielgruppe die Leute sind, die jetzt schon ne 1080 oder TI haben. Und die motivierst du mit +25% ned zum Neukauf :wink:.

Deswegen: FAKE NEWS! (wollen wir wetten?) :biggrin:

Adam D.
2018-07-28, 15:27:07
Wenn das zutrifft, kann Nvidia die Serie direkt streichen. Die 1170 soll sowohl beim TDP als auch bei der Performance auf 1080-Niveau liegen? Das würde nur Sinn ergeben, wenn Pascal 1:1 ersetzt wird, und das auch beim Preis. Und ich spekuliere jetzt mal, dass 16nm + GDDR5 bestimmt billiger in der Herstellung ist als 12nm + GDDR6. Ich halte das für viel zu konservativ, wo soll da denn der Kaufanreiz herkommen?

mironicus
2018-07-28, 15:49:22
Ganz schwache Vorstellung.

Daredevil
2018-07-28, 15:59:23
Weil eine große Zielgruppe die Leute sind, die jetzt schon ne 1080 oder TI haben
Ahja?
Seit wann sind 500-900€ teure Karten eine "große Zielgruppe"?
Deswegen verkauft sich eine ps4pro/OneX ja auch nur zu einem minimalen Anteil der kleineren Konsolen, weil die Zielgruppe so groß ist.
Das kommt so nicht hin. Falls die Gerüchte stimmen, setzt Nvidia genau da an, wo 7nm AMD kontern könnte.
Für die restlichen 10% kommt dann irgendwann ne Ti oder Titan.

Felis silvestris
2018-07-28, 16:17:30
Das mit der GTX 1170 und Performance und Stromverbrauch auf GTX1080 Level hat mich auch skeptisch gemacht. Wenn schon eine Titan V in 12nm Strukturen bei 5120 Shadereinheiten mit ungefähr 250W auskommt, sollten bei GTX1080 Performance dann eigentlich weniger als 180W drin sein. Oder eben mehr Performance bei selben Stromverbrauch. So war es bei nvidia meistens.

Daredevil
2018-07-28, 16:24:26
Ne GTX1070 bekommt durch 12nm Architekturverbesserung einen Boost im Takt von 20-30% bei kleinerer/gleicher Die Größe und Einheiten und somit bekommt man ne 1170 mit 1080 Leistung bei gleichem Verbrauch, aber vielleicht niedrigeren Preis raus.

Klingt doch realistisch.

Adam D.
2018-07-28, 16:35:28
Ne GTX1070 bekommt durch 12nm Architekturverbesserung einen Boost im Takt von 20-30% bei gleicher Die Größe und Einheiten und somit bekommt man ne 1170 mit 1080 Leistung bei gleichem Verbrauch, aber deutlich niedrigeren Preis raus.

Klingt doch verlockend, oder nicht?
Klingt verlockend wenn wir von einem AMD-Produkt sprächen, klingt absolut nicht nach der Strategie des dominanten Marktführers. Außer natürlich, deine spekulierten geringeren Herstellungskosten werden nicht an den Kunden weitergegeben, was schon eher nach Nvidia klingen würde.

Vier weitere Gedanken:

1 die Namensgebung mit 11xx würde Sinn ergeben, wenn die Karten auf ein direktes Ersetzen der Pascal-Karten zielen würden.

2. die fehlende Preissenkung von Pascal wäre das Fundament einer Preiskampf-Strategie mit Turing.

3. Man wäre etwas kompetetiver aufgestellt, wenn AMD Mitte 2019 vor NV mit einem "Preiskracher" Navi ankäme.

4. 12nm ist in der Tat einfach für mehr nicht zu haben, daher ist Turing einfach eine "Verlängerung" von Pascal, bis NV 7nm liefern kann.

Felis silvestris
2018-07-28, 16:36:37
Es ist pessimistisch realistisch :biggrin:
Optimistisch realistisch ist das 20-30% Performance in 12nm eigentlich weder mehr Chipfläche noch mehr Strom kosten. Zumindest nach dieser Tabelle:
https://www.3dcenter.org/news/was-kann-nvidias-ampere-generation-mit-der-12nm-10nm-oder-7nm-fertigung-von-tsmc-erreichen
Deswegen glaube ich nicht daran das eine GTX1170 mit neuer 12nm GPU keinen Vorteil bei der Performance/Watt bringt. Da ist es einfacher die GTX1080 welche schon Jahre auf dem Markt ist und sich auch schon amortisiert hat einfach zum 1070er Preis rauszuhauen. Gerade dann wenn es scheinbar noch riesige Lagerbestände gibt. Das wäre höchstens eine Erklärung.

Gast
2018-07-28, 16:37:57
Der Fehler bzgl. DVI wurde schon erwähnt (im Artikel aber nicht korrigiert).

Bei gleicher Wattage von 132 auf 135 ist eher so ein schlechter Witz denn Verbesserung. Also wird es hoffentlich besser als bisher angenommen.

Gast
2018-07-28, 19:16:13
Klingt extrem pessimitisch und unglaubwürdig. Keinerlei Effizienzverbesserung und nur minimale leistungssteigerung? Richtig mieser Artikel.

Gipsel
2018-07-28, 19:43:52
Es ist pessimistisch realistisch :biggrin:Dazu fällt mir das ein:
https://wwwanchi.files.wordpress.com/2016/02/img_3524.jpg
;)

tEd
2018-07-28, 20:05:45
Kann mir schon vorstellen das dass so etwa stimmt. Kann mir auch vorstellen dass Turing nur eine kurze Lebensdauer haut und nächstes Jahr schon bald mit 7nm ersetzt wird mit grösserem Leistungs Sprung.

Bei 12nm und 50/60%+ Leistung wäre vielleicht einfach zu gross und mit gddr6 zu teuer um Sinn zu machen.

...vielleicht auch nicht naja man wird es sehen.

Da Nvidia dieses Jahr sowieso keine Konkurrenz mehr bekommt brauchen sie auch nicht 50%+ Leistung zu bringen.

Gast
2018-07-28, 23:00:44
Deswegen verkauft sich eine ps4pro/OneX ja auch nur zu einem minimalen Anteil der kleineren Konsolen, weil die Zielgruppe so groß ist.


Diese Zielgruppe kauft sich keine Konsolen mit Jaguar Kernen die jeder Moderne Smartphone SOC vernascht, sondern was richtiges, sprich einen PC mit entsprechender CPU und heutzutage (mangels Konkurrenz) wahrscheinlich Nvidia Grafikkarte.

Und ja diese Zielgruppe ist auch wenn sie in zahlenmäßigen vergleichen oft untergeht umsatztechnisch alles andere als uninteressant.

Tarkin
2018-07-29, 11:45:07
Diese Perfomanceinschätzung ist wirklich ziemlich gering.

Was ich mich gerade auch frage, inwiefern Igors damalige Aussage eintreffen wird, dass die neue Gen eine "Raubkatze" wird. An so eine kleine Änderung (will) ich nicht glauben. Dann könnten sie sich ihre Karten getrost selbst in den arsch schieben...Um mich von einem Kauf zu überzeugen braucht die GTX 1180Ti mind. 16GB und mind. + 45% Leistung ( mit mind. gleich guter übertaktbarkeit)

Die verschiedensten Aussagen seitens Igor in den letzten Monaten waren völliger Blödsinn meiner Meinung... wie bspw. Turing kommt im Frühling, Turing kommt im Juni, Turing ist eine Raubkatze, Radeon Instinct sind (sinngemäß) gar nicht im Markt und ein Fehlschlag, Kartenhersteller bekommen kaum noch Vega Rx Karten ... blah blah blah...

Nichts davon ist wirklich zutreffend. Turing kommt vl. Im Sept, Turing wird wohl eher ein Refresh statt irgendwas revolutionär neues (wie auch, tsmc 12nm ist nix anderes als tsmc 16nm), Amd verdient prächtig mit Vega Karten für Datacenter (und diese wachsen sogar schneller als Epyc)! Und schließlich sind Vega Rx Karten weitflächig und zu humanen Preisen verfügbar....

Also ehrlich... ich an Igors stelle würde mal meine Quellen hinterfragen! Oder zumindest nicht jeden shice den man irgendwo aufschnappt gleich an die große Glocke hängen. Manches sieht für mich danach aus, als wolle er einfach THGDE pushen... so ein Turing Artikel bringt sicher haufenweise Klicks, logisch.

Und vor allem empfehle ich nicht jedem dunkelgrünen Fieberträum Glauben zu schenken sondern einfach mal den gesunden Hausverstand zu benutzen. 1170 auf 1080ti nievau... ja ganz bestimmt, sehr realistisch im quasi gleichen Fertigungsprozess. Dazu genügt schon ein Blick auf TSMCs Website: http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm... kein Unterschied, reines Marketinggewäsch die 12 nm

Turing ist hauptsächlich heiße Luft mit bisschen Raytracing Glitzer. Keine Offenbarung für Gamer (höchstens für nVidia Aktionäre da man mit min Aufwand die Verkäufe wieder ordentlich ankurbeln wird können)

Gast
2018-07-29, 14:38:46
Und vor allem empfehle ich nicht jedem dunkelgrünen Fieberträum Glauben zu schenken sondern einfach mal den gesunden Hausverstand zu benutzen.


Der gesunde Hausverstand sagt, dass die hier kolportierten Werte überhaupt keinen Sinn ergeben.

Wenn Turing wirklich dermaßen schwach ist, warum sind die Karten nicht schon längst erschienen?
Jeder Tag der näher an 7nm liegt ist ein verlorener für Turing.
Turing erst jetzt (bzw. eigentlich immer noch in ca. 1-2 Monaten) zu bringen ist nur sinnvoll wenn 12nm und 7nm Karten im selben Markt existieren können.

Damit dies der Fall ist muss Turing zwangsläufig deutlich stärker sein.

Wenn Turing wie vermutet in 12nm erscheint sollte es keinen technischen Grund für die Verzögerungen geben. Wenn Nvidia schon längst einen >800mm² Die in 12nm bauen kann gibt es keinen Grund wieso sie keinen <600mm² Die auf dem selben Prozess bauen könnten.

Nvidia hat mit Maxwell auch schon bewiesen, dass sie nicht unbedingt einen neuen Prozess benötigen um eine signifikante Leistungssteigerung zu erzielen. Jetzt haben sie immerhin einen etwas verbesserten Prozess zur Verfügung.

Was diese kolportierten Zahlen völlig unglaubwürdig erscheinen lässt ist die praktisch unveränderte Perf/Watt gegenüber Pascal.

Der minimale Vorsprung ist gerade mal das was man durch den minimal verbesserten Prozess erwarten würde, was im Umkehrschluss bedeuten würde, dass es keinerlei Verbesserungen auf Architekturebene gibt.
Das ist nun vor allem mit der bereits sehr langen Zeit die Pascal verfügbar ist arg unwahrscheinlich, wenn auch natürlich nicht gänzlich unmöglich.
Es kann natürlich auch Nvidia passieren, dass sie sich mit ihrer Architektur verrennen.

Allzu wahrscheinlich ist es jedenfalls nicht, und ob die 1170 vor der 1080Ti landet ist in erster Linie eine Marktpolitische Entscheidung, wie weit man die Differenz zwischen den 2 schnellsten Karten haben will.
Hier hat Nvidia ja immer mehr die Tendenz zu größeren Differenzen, wohl um den hohen Aufpreis für die schnellste Karte rechtfertigen zu können.

Auf jeden Fall sollte die 1170 im Performancebereich der 1080Ti liegen (+/-10%) ob jetzt knapp davor oder knapp dahinter ist eigentlich nicht wirklich relevant.

Felis silvestris
2018-07-29, 15:17:32
Dazu genügt schon ein Blick auf TSMCs Website: http://www.tsmc.com/english/dedicatedFoundry/technology/16nm.htm... kein Unterschied, reines Marketinggewäsch die 12 nm


Wenn es keinen Unterschied machen würde dann würde es keiner machen. AMDs Ryzen2000 scheint es ja (etwas) gebracht zu haben.

Ich finde die Performanceangaben auch nicht mal unrealistisch sondern nur den entsprechenden Stromverbrauch dazu.

GV100 ist ja schon in 12nm gefertigt und braucht trotz höherer Performance plus DP und Tensor Gedöns obendrauf nur 250W wie der langsamere GP102 ohne alles. Eine Volta/Turing Variante ohne Profi Features würde daher logischerweise entweder weniger Strom verbrauchen oder höher takten können. Da passen 210W für ungefähr GTX1080TI Performance nicht und GTX1080 Ersatz bei selbem Stromverbrauch auch nicht.

Vielleicht hat die Quelle nur Performanceangaben und den Stromverbrauch nur dazugedichtet. Oder beides nur geraten...

Gast
2018-07-29, 17:26:05
Wenn es keinen Unterschied machen würde dann würde es keiner machen. AMDs Ryzen2000 scheint es ja (etwas) gebracht zu haben.

Ryzen wird allerdings von GF aká Samsung gefertigt, daraus lassen sich nicht unbedingt Schlüsse für die Fertigung bei TSMC ziehen.

Man muss auch sagen, dass der Prozess bei Zen+ extrem wenig (< 5%) bringt, wesentlich weniger als die Fabs versprechen

Rabiata
2018-07-30, 00:45:56
Für mich ergibt das nur sehr begrenzt sind. Wenn man sich mal nur die 1170 ansieht: 180W und 1080 Leistung. Also quasi gleiche Leistung und gleicher Verbrauch wie die 1080. Klar sind das, sofern sie stimmen, nur theoretische Werte, aber das ist meiner Meinung nach zu wenig für den Zeitraum und eine kleine Fertigungsverbesserung.
Die Effizienzienzverbesserung ist in der Tat mager, wenn man den Zahlen aus der Gerüchteküche glaubt. Ein wenig mit den gegebenen Zahlen weitergerechnet:
GeForce GTX 1080 Ti ➔ GeForce GTX 1180 Ti Verbrauch 250W ➔ ~300W Performance 175% ➔ ~220% ➔ Performancesteigerung 26%, Verbrauchssteigerung 20%
GeForce GTX 1080 ➔ GeForce GTX 1180 Verbrauch 180W ➔ 210W Performance 132% ➔ ~165% ➔ Performancesteigerung 25%, Verbrauchssteigerung 17%
GeForce GTX 1070 ➔ GeForce GTX 1170 Verbrauch 150W ➔ 180W 107% ➔ ~135% ➔ Performancesteigerung 25%, Verbrauchssteigerung 20%
GeForce GTX 1060 ➔ GeForce GTX 1160 Verbrauch 120W ➔ ~140W Performance 76% ➔ ~95% ➔ Performancesteigerung 25%, Verbrauchssteigerung 17%
Sieht so aus wie wenn Nvidia keine wirklich neue Technologie hat, sondern nur kleine Optimierungen. So wie bei AMD zum Beispiel die Radeon RX 480 => 580. Oder die 2000er Ryzen Serie gegenüber der 1000er.

Jedenfalls braucht in allen oben genannten Fällen niemand die Vorgängerversion gegen die aktuelle einzutauschen. Bedeutet aber auch, daß sich die Preisstürze im Ausverkauf der 10xx Serie in Grenzen halten dürften.

Leonidas
2018-07-30, 03:58:31
Wenn Turing wirklich dermaßen schwach ist, warum sind die Karten nicht schon längst erschienen?


Wenigstens das läßt sich begründen: Der Mining-Boom hat alles verschoben. Im Boom lohnt es sich nicht, was neues herauszubringen.





GV100 ist ja schon in 12nm gefertigt und braucht trotz höherer Performance plus DP und Tensor Gedöns obendrauf nur 250W wie der langsamere GP102 ohne alles.


300W sind es. Und die wurden erreicht durch massive Untertaktung, womit wahrscheinlich auch niedrigere Spannungen ermöglicht wurden. Das ganze Design ist ja trotzdem Pascal/Volta-basierend und könnte 1,8-2,0 GHz mitmachen. Auf diesem Takt wäre es dann keine 300W mehr.

Bucklew
2018-07-30, 08:57:00
Turing ist hauptsächlich heiße Luft mit bisschen Raytracing Glitzer.
Schön, dass die üblichen 3DCenter-Experten wieder ihren Bullshit im Vorfeld abliefern, um sich damit so richtig schön zu blamieren :up:

pixeljetstream
2018-07-30, 10:13:56
(höchstens für nVidia Aktionäre da man mit min Aufwand die Verkäufe wieder ordentlich ankurbeln wird können)

So funktioniert das imo nicht.

Die Aktionäre interessieren denke ich die Gamingverkäufe wenig, sonst wäre der Kurs bei früheren Rekorden auch nach oben gegangen ist er aber nicht. Erst als der cloud/ai business anzog ging's rauf. Ergo zählt mehr die Aussicht technologisch dort der Spitzenreiter zu sein. NV interessiert das Gaming aber schon sehr, weil nachwievor eine bedeutende Einnahmequelle und Computergrafik und Gaming schlichtweg Teil der Firmendna sind. Guck wieviel hier von NV geforscht wird.

Mein Hauptproblem mit diesen "zurücklehnen" Theorien ist aber, wie soll dieser minimale Aufwand aussehen? Die Entwicklung ist hochgradig evolutionär, man kann da keinen Schritt einfach überspringen. Im Gegenteil mit GP100 ung GV100 sieht man ja dass die Schrittzahl erhöht wurde. Die Fixkosten seitens der Ingenieure/Infrastruktur sind auch gesetzt. Man würde also weder sparen und sich (viel schlimmer) auch noch des Erkenntnisgewinns der nächsten Iterationen der Architektur berauben. Bei aller Simulation, so richtig bewähren tut sich die Technik nur in freier Wildbahn. Da sind tausende Ingenieure die weiter pushen wollen, die die Nadel ein bißchen weiter bewegen wollen, und den willst Du sagen, "macht mal langsamer", das ist doch Schwachsinn, da gehen doch die guten Leute sofort.

Und wenn die Firma nicht hi-tech liefert, sieht's für die Aussicht bei den Aktionören auch wieder nicht so gut aus. Dann könnten die Aktionäre glauben Google/Amazon etc. kriegen das Thema auch alleine hin. Letzendlich wird man auch immer versuchen Akzente für neue Bereiche zu setzen. Das kann mal klappen, mal auch nicht, ist halt unternehmerisches Risiko, wie der Markt was aufnimmt.

Ich finde auch lustig wenn Leute schreiben sie würden "nur bißchen LL und Raytracing Glitzer" machen, als wäre das fundamental einfacher als mehr performance mit mehr cores + mehr clocks (und wenn es dann nur das ist, ist's der verhasste refresh hehe). Es klingt immer so als wären das noch immer Garagenfirmen, die mal eben nen Chip zusammensetzen (unabhängig ob die Kritik nun NV oder AMD oder Intel oder aneren gilt, das Thema ist "schwer" und mich kotzt es an wenn die Leute so reden als wäre das alles keine Arbeit, ich frage mich wirklich welche Vorstellung hier vom "Aufwand" existiert vor dem Hintergrund dass nur noch wenige Firmen in dem Bereich da überhaupt was liefern).

Felis silvestris
2018-07-31, 10:54:39
300W sind es. Und die wurden erreicht durch massive Untertaktung, womit wahrscheinlich auch niedrigere Spannungen ermöglicht wurden. Das ganze Design ist ja trotzdem Pascal/Volta-basierend und könnte 1,8-2,0 GHz mitmachen. Auf diesem Takt wäre es dann keine 300W mehr.

Mein Fehler: gemeint war die Titan V, welche nvidia irgendwo in der Tabelle https://www.nvidia.de/titan/titan-v/mit 250W angibt (mit der Fußnote das TDP nicht der tatsächlich erreichte Stromverbrauch sei :biggrin:)
Daher meine, zugegeben vielleicht naive, Überlegung das ohne DP Einheiten ähnliche Verbrauchswerte bei gleicher Gamingperformance möglich sein könnten. Bin aber keine Expertin was sowas betrifft, nur dazulernender Nerd

y33H@
2018-07-31, 11:00:51
300W sind es.
Titan V --> 250W, 1.455 MHz Boost
Quadro GV100 --> 250W, ca 1.450 MHz Boost
Tesla V100 PCIe --> 250W, 1.367 MHz Boost
Tesla V100 SMX2 --> 300W, 1.455 MHz Boost

Am Ende hängt es halt am Temp-Target usw ...

Platos
2018-08-01, 14:35:49
GTX 1080 Perfomance mit GTX 1080 Stromverbrauch ist = 0.00% Fortschritt. Das wäre eine Umlabelung und kein Refresh. Auch sind alle Spekulationen bisher alle völlig selbst erfunden (von denen Leonidas berichtet). Null Leaks, alles nur Spekulation, die auf Vergangenheit oder einfach nur Klickgeilheit beruht.

JVC
2018-08-02, 08:17:57
Alles noch Spekulation ... stimmt ...

Aber 7nm ist so gut wie aus dem Rennen und aus "12"nm holt man wahrscheinlich keine +40% heraus ...

Daher lässt sich vermuten das der Sprung diesmal nicht so groß wird wie wir ihn gerne hätten ...

Schätzungsweise bringt der Shrink von 14 auf 12nm ~5-10% und eine kleine Kosten Reduktion ( die (noch) nicht beim Kunden ankommt ---> mehr gewinn für NV ) ...

Mit kleinen Verbesserungen und höherem Power Target klingen +25% eher realistisch als +40% ... aber Positiv lass ich mich gerne überraschen :)

m.f.g. JVC

Von den 12(16)nm auf 7nm sollten aber locker ~+100% drin sein :)
Meine nächste Graka sollte 16GB Ram haben und ~+100% auf ne 1080Ti an Mehrleistung bieten ...
( dann wäre sorgloses 4K sicherlich möglich )
Und 7nm sollte leicht dazu in der Lage sein so etwas zu liefern ;)

p.s.: NV wäre ja wirtschaftlich gesehen schön blöd wenn sie ohne Konkurrenzdruck, plötzlich fürs gleiche Geld, viel mehr anbieten würden.
Daher wahrscheinlich auch das "halbherzige" vorrücken, bringt ja nichts sich selbst zu "überbieten" ... die Leute kaufen ja aufgrund von mangelnden Konkurrenz Produckten sowieso bei NV ein ...
Und etwas zu "verschenken" ( mehr zum gleichen Preis anbieten ) haben wirtschaftlich orientierte Unternehmen ja sowieso nicht so im sinn ^^

Platos
2018-08-02, 10:59:40
p.s.: NV wäre ja wirtschaftlich gesehen schön blöd wenn sie ohne Konkurrenzdruck, plötzlich fürs gleiche Geld, viel mehr anbieten würden.
Daher wahrscheinlich auch das "halbherzige" vorrücken, bringt ja nichts sich selbst zu "überbieten" ... die Leute kaufen ja aufgrund von mangelnden Konkurrenz Produckten sowieso bei NV ein ...
Und etwas zu "verschenken" ( mehr zum gleichen Preis anbieten ) haben wirtschaftlich orientierte Unternehmen ja sowieso nicht so im sinn ^^

Unternehmen wollen Einnahmen machen. Das geht nur, wenn man besser als die Konkurenz ist, oder, wie in diesem fall, besser als das letzte Produkt von einem selbst. Also doch, die Karten werden ganz sicher besser, aber ich behaupte ja nicht, dass es Welten sind. Wenn nvidia und amd aber schon dieses Jahr erste kleine Serien von 7nm bringt (was anscheinend so sein wird), dann wird vermutlich auch nvidia (nicht nur amd) noch nächstes Jahr mit 7nm und GeForce daherkommen. Turing könnte also ein seichter Refresh mit 15-20% besserem P/L wie Pascal (jetzt) sein. Aber das man technologisch nach 2 Jahren mit 180w die genau gleiche Leistung hinkriegt, ist einfach lächerlich anzunehmen. Selbst AMD mit ihrer 580 aka 480 2.0 bringt ein paar Prozent mehr hin.

Gast
2018-08-03, 23:13:45
Alles noch Spekulation ... stimmt ...

Aber 7nm ist so gut wie aus dem Rennen und aus "12"nm holt man wahrscheinlich keine +40% heraus ...

40% wären wahrscheinlich mit 16nm (mit höherer TDP) kein Problem.


Daher lässt sich vermuten das der Sprung diesmal nicht so groß wird wie wir ihn gerne hätten ...

Das ist immer so, ich will immer mehr als realistisch ist :)


Schätzungsweise bringt der Shrink von 14 auf 12nm ~5-10% und eine kleine Kosten Reduktion ( die (noch) nicht beim Kunden ankommt ---> mehr gewinn für NV ) ...


p.s.: NV wäre ja wirtschaftlich gesehen schön blöd wenn sie ohne Konkurrenzdruck, plötzlich fürs gleiche Geld, viel mehr anbieten würden.


Es wäre sinnlos wenn sie fürs gleiche Geld nicht mehr anbieten würden.
Dann würde niemand die Karten kaufen.
Es muss entweder die gleiche Performance für deutlich weniger Geld oder fürs gleiche Geld eine deutlich bessere Performance kommen.

JVC
2018-08-04, 07:51:54
Es wäre sinnlos wenn sie fürs gleiche Geld nicht mehr anbieten würden.
Dann würde niemand die Karten kaufen.
Es muss entweder die gleiche Performance für deutlich weniger Geld oder fürs gleiche Geld eine deutlich bessere Performance kommen.

Die die schon eine "aktuelle" NV haben, muss NV nicht sofort noch einmal abgrasen ...
Die warten aufgrund mangelnder Konkurrenz gezwungenermaßen sowieso ... ( laufen NV nicht davon, wohin denn auch ^^ )
( die 1080(Ti) Besitzer warten bestimmt auf die 7nm )
Alle die gewartet haben (noch langsameres älteres im Rechner haben) können jetzt zuschlagen oder eben auch auf auf 7nm warten ...

Ich kaufe sicher keine "16nm" Karte mehr wenn nächstes Jahr die 7nm kommen ...
( so könnten einige denken , vielleicht "berücksichtigt" NV das )

m.f.g. JVC

Ben Carter
2018-08-04, 17:40:42
Folgendes wäre für mich auch eine Auflösung: man bringt jetzt um die 20-30% mehr Leistung als mit Pascal auf Kosten von etwas höherer Verlustleistung. Dann bringt man die erste 7nm Generation, die wieder um die 20-30% drauflegt, dafür allerdings deutlich weniger verbraucht und später kommt noch eine 7nm Generation, die wieder um etwa diesen Bereich mehr leistet aber auch wieder mehr verbraucht.

Ich bin mir ziemlich sicher, dass weder AMD noch nVidia ihr ganzes Pulver gleich mit der ersten 7nm Generation verschießen wollen, weil es bestimmt eine zweite 7nm Generation geben wird, da die Entwicklung der neuen Prozesse mittlerweile eben länger dauert als bisher.

JVC
2018-08-05, 09:21:04
Wollen nicht ...
Aber wenn AMD gleich bei 7nm in die vollen geht um zu NV aufschließen zu können ist die frage wie weit NV dann noch "Leistung aufheben / uns vorenthalten" kann ...

Ich hoffe doch das NV am "Gas" bleibt und nicht ne "Pause" einlegt nur weil sie gerade komfortabel das "Rennen" anführen ...

m.f.g. JVC

Ben Carter
2018-08-05, 15:29:31
Aber wenn AMD gleich bei 7nm in die vollen geht um zu NV aufschließen zu können ist die frage wie weit NV dann noch "Leistung aufheben / uns vorenthalten" kann ...
Ich befürchte, dass AMD nicht ganz aufschließend wird können. Aber ich hoffe, ich irre mich.