PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26

wolik
2016-05-08, 07:39:01
Ein Firma die jahrelang und auch noch bis vorgestern mit Battleboxen geworben hat,
ist die Aussage man brauch ab Heute nur noch Single Pass VR ein Witz, kann man doch nicht erst nehmen.
Witzig ist auch ,was sollen jetzt die Vendors und Computergeschäfte mit 980Ti und Titan X machen wenn in Internet steht: 1080 doppelt mal so schnell als Titan X... Abschreiben ? Alte Karten kauft man nicht (man ist doch nicht doof... neue sind doch nicht da! Super Lage!!!)

Mortalvision
2016-05-08, 08:42:09
Welcher Händler hat denn angesichts des absehbaren Leistungssprungs noch 100e 970/980(ti) geordert? Ehre, wem Ehre gebührt :)

horn 12
2016-05-08, 08:59:01
http://geizhals.eu/nvidia-geforce-gtx-1080-a1439612.html

http://geizhals.eu/nvidia-geforce-gtx-1070-a1439613.html

GTX 1070 Stock Takt 1127 und Boost nur 1216 Mhz
Zudem jedoch aber auch stolze 2304 Shader!
Dies wäre schwach, bzw. kann auch ein OC Wunder bedeuten!

Skysnake
2016-05-08, 09:05:26
Diese Ingame 360° Bilder sind wirklich was feines.
Wieso wird nur die gtx1080 als Support angegeben, wieso nicht die gtx1070?

http://www.geforce.com/hardware/technology/ansel/ansel-image-gallery
Ansel > Ansel 360 Gallery
Ja was feines, aber an sich ist es doch absolut lächerlich so etwas groß Anzupreisen als eine große neue Entwicklung. Das ist praktisch ne kleine miniAPI, die die Entwickler in ihre Spiel integrieren MÜSSEN!!! um dem Nutzer über eine GUI Zugriff auf die Engine zu geben, damit Sie einige Skripte ausführen können, die den Viewport bewegt und noch ein paar Parameter setzt.

Früher wurde so etwas über die Kommandozeile gelöst.....

Danke, also ansel ist wirklich der Hammer.
Ja total... Man bekommt ne GUI + TimeFreez + Ghost Funktion mit ein paar Skripten zur Autogenerierung von Bildern.

Voll der hammer echt... :facepalm:

dildo4u
2016-05-08, 09:05:50
http://geizhals.eu/nvidia-geforce-gtx-1080-a1439612.html

http://geizhals.eu/nvidia-geforce-gtx-1070-a1439613.html

GTX 1070 Stock Takt 1127 und Boost nur 1216 Mhz
Zudem jedoch aber auch stolze 2304 Shader!
Dies wäre schwach, bzw. kann auch ein OC Wunder bedeuten!


Das sind Platzhalter,die 1070 kann mit dem Takt nicht auf 6.5 Tflops kommen dort steht sogar falsch 5.2 TFlops.Geizhals bekommt keine Geheim Info's vor allen anderen.

victore99
2016-05-08, 09:54:31
Das sind die Refclocks der GTX 980.
Naja, ich würde auch eher auf 2048 Shader tippen. Reicht aus, um deutlich zu unterscheiden und trotzdem die Fiji-Karten zu schlagen.

kdvd
2016-05-08, 10:41:29
Früher wurde so etwas über die Kommandozeile gelöst.....

Genau! Früher hat man auch einfach Steine auf einander geschlagen um Feuer zumachen.
Pfff .... Feuerzeug, neumodischer Humbug für den man auch noch Geld ausgeben muss!

Schaffe89
2016-05-08, 10:45:34
Ja total... Man bekommt ne GUI + TimeFreez + Ghost Funktion mit ein paar Skripten zur Autogenerierung von Bildern.

Voll der hammer echt... :facepalm:

Hast du die Präsi eigentlich ganz angeschaut?:redface:
Die Technik dahinter wird ja auch für Multimonitoring eingesetzt und solche perspektivischen Anpassungen in realtime sind schon ziemlich nice, da brauche ich kein VR.
Ich denk dieses mal wirds eine Nvidiakarte, die Präsentation war sehr überzeugend, AMD dürfte bei dem hohen Takt von Nvidia keinerlei Chancen haben da in irgendeiner Form ranzukommen.

2560 Shader vs 2560 Shader bei Nvidia, ähnlicher Aufbau wie bei GCN.

Vier GPCs zu 10 SMs zu 64 ALUs ergeben 2560 ALUs.
Beim GM200 waren es sechs GPCs zu 4 SMs zu 128 ALUs, wären dann 3072 ALUs

Was bringen diese Veränderungen?

Die AMD Karte kommt wohl mit 1154mhz daher und mit einem aufgebohrten Frontend. Die Rohleistung dürfte auf dem Niveau einer r9 390x sein mit ein bisschen mehr Takt ~10%, kann da eigentlich nur knapp Fury Leistung herauskommen. Customdesigns könnten dann mit 1250mhz vll ne GTX 980 Ti @ stock schaffen.
Wohl wiederum bei mehr Stromverbrauch wie bei einer GTX 1070 die ich mal bei 160 Watt TDP spekuliere.
AMD sollte den Takt unten lassen und den Boardpartnern die Arbeit überlassen sich an eine GTX 1070 heranzuquälen.

Früher wurde so etwas über die Kommandozeile gelöst.....


Klar mal eben schnell über die Kommandozeile.;D

Hübie
2016-05-08, 11:53:10
Ja was feines, aber an sich ist es doch absolut lächerlich so etwas groß Anzupreisen als eine große neue Entwicklung. Das ist praktisch ne kleine miniAPI, die die Entwickler in ihre Spiel integrieren MÜSSEN!!! um dem Nutzer über eine GUI Zugriff auf die Engine zu geben, damit Sie einige Skripte ausführen können, die den Viewport bewegt und noch ein paar Parameter setzt.

Früher wurde so etwas über die Kommandozeile gelöst.....


Ja total... Man bekommt ne GUI + TimeFreez + Ghost Funktion mit ein paar Skripten zur Autogenerierung von Bildern.

Voll der hammer echt... :facepalm:

Du musst nur die Bib einbinden. Rest macht NVIDIA. Aber nenne mir doch mal Beispiele mit Kommandozeilenparameter? Mir fällt da nix ein. Kenne nur nervig fummelige bindings via console (sofern vorhanden) und dann Taste zum Auslösen. Einfach war es jedenfalls nicht. Das kommt hoffentlich für Maxwell, da ich keinen technischen Grund sehe dies nicht zu tun.

Thunder99
2016-05-08, 12:13:28
Bemerkenswert finde ich das nvidia mit ihrem Hoch-Takt Design noch erfolgreich ist das das Gesamtkonzept angeht (Stromverbrauch geht nicht durch die Decke).

Ist es unter anderem der Packdichte geschuldet im Vergleich zu AMD?

Blediator16
2016-05-08, 12:14:42
Keine Ahnung sollte man da nicht abwarten was die Tests ergeben im Vergleich zu AMD?

drmaniac
2016-05-08, 12:24:28
Rift, vive, gearvr. Also ich;D

würde VR sli sehr begrüßen

Nur ganz kurze Frage. Wer von Euch hat VR ? WER? Bis VR in Masse kommt dauert 2 bis 3 Jahren.

drmaniac
2016-05-08, 12:28:09
Witzig ist auch ,was sollen jetzt die Vendors und Computergeschäfte mit 980Ti und Titan X machen wenn in Internet steht: 1080 doppelt mal so schnell als Titan X... Abschreiben ? Alte Karten kauft man nicht (man ist doch nicht doof... neue sind doch nicht da! Super Lage!!!)

Ähm. Die werden das schon eingeplant haben.

Oder ist es das erste mal das neue Hardware released wurde seit Jesus Geburt ;D

Skysnake
2016-05-08, 13:08:26
Du musst nur die Bib einbinden. Rest macht NVIDIA. Aber nenne mir doch mal Beispiele mit Kommandozeilenparameter? Mir fällt da nix ein. Kenne nur nervig fummelige bindings via console (sofern vorhanden) und dann Taste zum Auslösen. Einfach war es jedenfalls nicht. Das kommt hoffentlich für Maxwell, da ich keinen technischen Grund sehe dies nicht zu tun.
Im Prinzip erhält man nur zugriff auf die Kamera + ein paar weitere Parameter wie illumination usw. Das geht ziemlich in die Ecke, was Enhancer bei Skyrim usw gemacht haben.

Wenn das ganz komplett ohne Zutun des Entwicklers gehen würde, wäre es nett, mehr aber auch nicht. So ist es an sich nichts, als nen Fly+Godmode in alten Games, wo man auch Bilder machen konnte usw.

Aus Entwicklersicht ist es absolut nichts besonderes und vom Prinzip her gibt es so etwas auch shcon vor ewigen Zeiten. In neueren Games machen es im Allgemeinen die Entwickler nur nicht mehr. Warum auch immer...

Nightspider
2016-05-08, 13:10:11
Nur ganz kurze Frage. Wer von Euch hat VR ? WER? Bis VR in Masse kommt dauert 2 bis 3 Jahren.

Hier haben schon einige VR und sehr Viele warten noch auf ihre Brillen.

Das 3DC ist auch nicht die Masse. Zumal die Masse keine GTX1080 kauft. ;)

=Floi=
2016-05-08, 13:15:40
die ist sicherlich NICHT doppelt so schnell wie eine Titan X!

scully1234
2016-05-08, 13:28:44
. Das kommt hoffentlich für Maxwell, da ich keinen technischen Grund sehe dies nicht zu tun.


Gibt's denn eigentlich irgendwo ne Erklärung warum dieses Simultaneous Multi-Projection nicht fuer die Maxwell Architektur kommen kann?

Ist das Hardware gebunden, oder gibt's dazu irgendwo schon ein PDF ,was das mal näher erleuchtet?



würde VR sli sehr begrüßen
Brauchst du mit DX12 gar nicht mehr , da dort dieser SLI Rendermodi bereits vorhanden ist, und mit DX11 klappt das nur wenn der Entwickler es zusätzlich mit einbindet

die ist sicherlich NICHT doppelt so schnell wie eine Titan X!

In VR schon mit dem neuen Featureset, und darum ging es ,nicht um die Render Performance ohne 3d

Thunder99
2016-05-08, 13:36:29
Neue Features werden doch immer absichtlich nur für die neue Gen zur Verfügung gestellt. Erst später sofern es nicht HW gebunden ist kommt es für Pre Generation(en)

scully1234
2016-05-08, 13:41:25
Ich kann mir schon vorstellen ,das dafür ein Algorithmus vorhanden sein muß, um das gerenderte Einzelbild ,perspektivisch an das andere Auge anzupassen in einem Ruck.

Wenn das in Hardware gegossen ist, ist die Exklusivität sogar gerechtfertigt

Deshalb wäre es schon mal schoen ,ueber die technische Umsetzung mal etwas mehr zu erfahren

Martin K.
2016-05-08, 13:42:46
Muss ich meine 980 Ti doch einmotten, erste Tests warte ich noch ab. ;)

Erstmal noch Doom zocken nächste Woche. :)

PHuV
2016-05-08, 14:18:37
die ist sicherlich NICHT doppelt so schnell wie eine Titan X!
Laut Berichten bezieht sich das allein auf VR-Anwendungen. Sprich, hast Du eine OR CV1 oder HTC Vive, lohnt sich eine Aufrüstung auf alle Fälle, selbst für Titan X Besitzer. Ich bin mal gespannt, was ich dann noch für die Titan bekommen werde. :frown:

Godmode
2016-05-08, 14:30:20
Welche SP Anzahl erwarten wir jetzt eigentlich von GP102? Etwa auch nur 3840 wie bei GP100? Das wären dann genau +50% auf GP104. Bei 1,6 GHz boost wären dass immerhin 180% einer Titan X mit 1,1 GHz, ohne die Architekturverbesserungen einzuberechnen. Klingt IMHO ganz realistisch. Eventuell noch 16 GB HBM dazu, oder eben 12 oder 24 GB GDDR5X auf einem 384 Bit SI und fertig ist die neue Titan. Das Ding sollte dann auch in ein 400-450 mm2 Die passen.

Edit: Die $ Preise der 1080 mit 699 USD sind etwas happig? Die neue Titan kostet dann wohl auch gleich nochmal 100-200 € mehr.

prinz_valium
2016-05-08, 14:33:06
http://geizhals.eu/nvidia-geforce-gtx-1080-a1439612.html

http://geizhals.eu/nvidia-geforce-gtx-1070-a1439613.html

GTX 1070 Stock Takt 1127 und Boost nur 1216 Mhz
Zudem jedoch aber auch stolze 2304 Shader!
Dies wäre schwach, bzw. kann auch ein OC Wunder bedeuten!

2304 shader wäre echt zu schön um wahr zu sein :eek:

scully1234
2016-05-08, 14:41:21
2304 shader wäre echt zu schön um wahr zu sein :eek:


Wenn die so boosten darf wie die gezeigte 1080GTX in 2 GHZ Gefilde ,ist der GDDR5 Speicherstandard die Drosselung, die ihn kuenstlich davor bewahrt ,der 1080 zu nahe zu kommen.


Vielleicht war das auch der Grund ,fuer den GDDR5 Einsatz auf dem Design

Sunrise
2016-05-08, 14:43:41
Welche SP Anzahl erwarten wir jetzt eigentlich von GP102? Etwa auch nur 3840 wie bei GP100? Das wären dann genau +50% auf GP104. Bei 1,6 GHz boost wären dass immerhin 180% einer Titan X mit 1,1 GHz, ohne die Architekturverbesserungen einzuberechnen. Klingt IMHO ganz realistisch. Eventuell noch 16 GB HBM dazu, oder eben 12 oder 24 GB GDDR5X auf einem 384 Bit SI und fertig ist die neue Titan. Das Ding sollte dann auch in ein 400-450 mm2 Die passen.

Edit: Die $ Preise der 1080 mit 699 USD sind etwas happig? Die neue Titan kostet dann wohl auch gleich nochmal 100-200 € mehr.
Ja, wie bereits geschrieben, alles etwa +50% und 450mm^2 Die. Mit 384bit GDDR5X Interface und flexibler Speicherbestückung bis hoch an die 16GB. Das reicht dann auch für einen Vega, der nicht größer als 500mm^2 ist.

Das ist die GK104-Strategie nach oben weiter perfektioniert, denn GM204 und GM200 waren auch genau 50% von der Konfiguration auseinander. Hier hat NV ganz klar ihre Chip-Positionierung weiter verbessert.

Damit braucht sich NV absolut keine Sorgen machen und verdient ordentlich Geld.

iuno
2016-05-08, 14:44:16
Also bei der Liste fuer Ansel ist selbst Kepler dabei:
http://www.geforce.com/hardware/technology/ansel/supported-gpus

Die 1070 halt nicht, wird ja auch noch nicht offiziell von Nvidia gelistet. Warum eigentlich? Warten die noch etwas ab, was AMD macht bevor sie die Taktraten final machen? Dann wuerde aber der TFLOPs Wert mglw. nicht mehr passen.

Lurtz
2016-05-08, 14:49:20
http://666kb.com/i/d8rekmep31xd3804w.jpg

:facepalm:
Der Hypetrain ist schon am Anlaufen...

scully1234
2016-05-08, 14:52:32
Also wenn die das mit der 2x Performance, nicht langsam mal in den stereoskopischen Kontext gesetzt bekommen, werden einige desillusioniert sein

Ist ja auch so schwer, das gezeigte in der Nvidia Präsentation ,richtig zu interpretieren, anstatt sich hier fälschlicherweise Luftschlösser zu bauen :freak:

Und nein diesmal liegts nichtmal an den Spezifikationen, denn dort steht nur 9 TFLOPS und nicht 12

fondness
2016-05-08, 14:52:59
Ja, wie bereits geschrieben, alles etwa +50% und 450mm^2 Die. Mit 384bit GDDR5X Interface und flexibler Speicherbestückung bis hoch an die 16GB. Das reicht dann auch für einen Vega, der nicht größer als 500mm^2 ist.

Das ist die GK104-Strategie nach oben weiter perfektioniert, denn GM204 und GM200 waren auch genau 50% von der Konfiguration auseinander. Hier hat NV ganz klar ihre Chip-Positionierung weiter verbessert.

Damit braucht sich NV absolut keine Sorgen machen und verdient ordentlich Geld.

Entweder wird GP102 dicker als GP104 +50% und steigert die Effizienz durch weniger Takt (Platz wäre hier noch bei der Die-Size), oder man erreicht keine +50% Performance bei 250W TDP.

Skysnake
2016-05-08, 14:53:18
Klar, so verkauft nVidia Karten.

Die Marketingabteilung bei nVidia ist verdammt erfolgreich. Da kann AMD und auch die ganzen OEMs nur in ihren feuchtesten Träumen von träumen.

scully1234
2016-05-08, 14:56:58
Was hat das mit Nvidia zu tun?

Wer die Präsentation gesehen hat ,wusste wie das einzuordnen ist

Wenn der Nerd da draußen dann nen Mythos draus baut, ist das wieder was anderes, es sei denn Gamestar nimmt die 2,1GHZ als Berechnungsgrundlage:freak:

w0mbat
2016-05-08, 15:04:37
Was hat das mit Nvidia zu tun?

Wer die Präsentation gesehen hat ,wusste wie das einzuordnen ist

Wenn der Nerd da draußen dann nen Mythos draus baut, ist das wieder was anderes, es sei denn Gamestar nimmt die 2,1GHZ als Berechnungsgrundlage:freak:

Genau, das war ganz unabsichtlich von nV... Ich hab die Präsentation auch gesehen und anfangs auch gedacht, die 1080er wäre 2xTitanX. Das war von nV auch so gewollt, keine Frage. Stell dich doch nicht dumm.

Lurtz
2016-05-08, 15:06:05
Was hat das mit Nvidia zu tun?

Wer die Präsentation gesehen hat ,wusste wie das einzuordnen ist

Wenn der Nerd da draußen dann nen Mythos draus baut, ist das wieder was anderes, es sei denn Gamestar nimmt die 2,1GHZ als Berechnungsgrundlage:freak:
Der Nerd? Sowas wird in Social-Media-Kanälen gepostet und setzt sich dort vor allem in den Köpfen der uninformierten Masse fest.
Da wird nach der ersten Präsentation über einen für Europäer überhaupt nicht relevanten Dollarpreis von einem Kampfpreis gesprochen, ohne jede eigene Messung, geht noch mehr Bias?

scully1234
2016-05-08, 15:10:43
. Das war von nV auch so gewollt, keine Frage. Stell dich doch nicht dumm.

Es gab am Anfang ne Folie ,wo die originale Render Performance praesentiert wurde,noch vor dem Sweeney Auftritt , dort war nie die Rede von x2 zu TitanX

Dann haben sie das Featureset rund um Reprojection und VR beleuchtet, und erst in dem Kontext wurde von x2 gesprochen.

Wer das nicht mittbekommen hat, sollte wohl Abstand nehmen ,von solch simplen technischen Erklärungen:freak:

Undertaker
2016-05-08, 15:11:01
2304 shader wäre echt zu schön um wahr zu sein :eek:

Ich würde mein Geld ja auf 2048 ALUs und irgendwas zwischen 1,55 und 1,6 GHz verwetten. ;) Aber auch das sollte ein ganz brauchbares OC-Potential ergeben.

GP102 mit 50% mehr ALUs als GP104 klingt ebenfalls sehr realistisch, imo auch eher 384 Bit GDDR5X als HBM. Mit ~1,65 GHz Boost sollte das ausgehend von GP104 in 250 Watt TDP hineinpassen.

w0mbat
2016-05-08, 15:12:38
@scully1234: Er hat zur GTX 1080 gesagt, dass sie zweimal so schnell wie eine Titan X ist. Das ist ein Fakt, damit musst du Leben. Punkt aus.

reaperrr
2016-05-08, 15:15:17
2304 shader wäre echt zu schön um wahr zu sein :eek:
Warum wäre das so überraschend?

Es kommt ja noch eine GP104-Karte unterhalb der 1070, anders als bei der GTX970.

Bei GP104-150 rechne ich dann mit 2048 SP, 192-bit SI und 6GB, @ 1070er Taktraten.

Mancko
2016-05-08, 15:15:41
@scully1234: Er hat zur GTX 1080 gesagt, dass sie zweimal so schnell wie eine Titan X ist. Das ist ein Fakt, damit musst du Leben. Punkt aus.

Ja und? Passt doch. Interessiert doch keine Sau wie und in welchem Szenario das erreicht wird.

scully1234
2016-05-08, 15:16:43
@scully1234: Er hat zur GTX 1080 gesagt, dass sie zweimal so schnell wie eine Titan X ist. Das ist ein Fakt, damit musst du Leben. Punkt aus.

Erzaehl keinen Quatsch schau dir das Video richtig an und unterstell hier nicht schon wieder Betrugsabsichten

Das hat jeder verstanden der aufmerksam zugesehen hat wozu welche Erlaeuterung gehoert hat

Hier ist die Folie ohne das Featureset, und die wurde auch eindringlich gezeigt ,sowohl als auch die 9TFOPS Rechenleistung

http://content.hwigroup.net/images/articles/2016_NVIDIA_Pascal_FINAL_published_1462594284_Pagina_21.pnghttp://i.kinja-img.com/gawker-media/image/upload/s--ckPa7TWk--/c_scale,fl_progressive,q_80,w_800/vhvgd2pnkjplsmshf9ht.png

Erst am Ende sprach man ueber Stereoskopie und VR Reprojection dann tauchte diese Folie dazu im Kontext auf

http://i.kinja-img.com/gawker-media/image/upload/s--6pkKEh9T--/c_scale,fl_progressive,q_80,w_800/vczc5r5vrj6lckrniwd4.png

Auch an der Seite steht fuer Blinde nochmal VR Gaming Performance auf dem Slide:freak:

prinz_valium
2016-05-08, 15:21:46
Wenn die so boosten darf wie die gezeigte 1080GTX in 2 GHZ Gefilde ,ist der GDDR5 Speicherstandard die Drosselung, die ihn kuenstlich davor bewahrt ,der 1080 zu nahe zu kommen.


Vielleicht war das auch der Grund ,fuer den GDDR5 Einsatz auf dem Design

könnte ein boardpartner dann nicht einfach gddr5x ram verbauen, auch wenn es nvidia nicht passt?

scully1234
2016-05-08, 15:22:29
Wenn die das freigeben haben fuer die Custom Designs theoretisch schon

iuno
2016-05-08, 15:24:48
Das werden sie wohl kaum. Genauso wie sie groessere Speicherausbauten in der Vergangenheit verhindert haben.

scully1234
2016-05-08, 15:35:38
Ja davon ist auszugehen ,sonst versauen sie sich den 1080 Abverkauf

Sunrise
2016-05-08, 15:42:46
Entweder wird GP102 dicker als GP104 +50% und steigert die Effizienz durch weniger Takt (Platz wäre hier noch bei der Die-Size), oder man erreicht keine +50% Performance bei 250W TDP.
Das passt problemlos in die 250W TDP. Du wirrst dich auch hier wieder irren. Selbst wenn sie die Takte leicht anpassen müssten, wäre das Ding problemlos schneller als ein 500mm^2 Vega. Garkein Problem.

Blediator16
2016-05-08, 15:45:25
nr.1 https://youtu.be/yRxoWkSDhVc?t=28
Auch wenn er gerade im VR Teil ist, sagt er nicht dass es nur bei VR gilt. So kommen Leute auf die Idee und behaupten die Karten wären doppel so schnell bei 3x besserer Effizienz.

nr.2 https://youtu.be/yRxoWkSDhVc?t=125

nr.3 https://youtu.be/yRxoWkSDhVc?t=182

Hier war er bereits am Ende und behauptet es weiterhin.

scully1234
2016-05-08, 15:49:37
Wie sagte Konfuzius wer lesen und zusehen kann ist klar im Vorteil, auf dem beiden Slides stehts extra nochmal aufgedruckt, welche Folie zu welchem Anwendungsszenario gehoert

Selbst fuer den der zu faul war die Präsentation sich anzusehen, kann man jetzt nur noch den Teil der Analphabeten in Schutz nehmen

Aus der Präsentation heraus muss das jeder mit ein Bißchen Grips verstanden haben

wolik
2016-05-08, 15:50:55
Welche SP Anzahl erwarten wir jetzt eigentlich von GP102? Etwa auch nur 3840 wie bei GP100? Das wären dann genau +50% auf GP104. Bei 1,6 GHz boost wären dass immerhin 180% einer Titan X mit 1,1 GHz, ohne die Architekturverbesserungen einzuberechnen. Klingt IMHO ganz realistisch. Eventuell noch 16 GB HBM dazu, oder eben 12 oder 24 GB GDDR5X auf einem 384 Bit SI und fertig ist die neue Titan. Das Ding sollte dann auch in ein 400-450 mm2 Die passen.

Edit: Die $ Preise der 1080 mit 699 USD sind etwas happig? Die neue Titan kostet dann wohl auch gleich nochmal 100-200 € mehr.
Wunschvorstellung. Von mir auch. Dazu noch realistisch.
Wieso bis Heute gibts keine ECHTE tests? 1080 ist Präsentiert. Es gibts etliches Foto wo die Karte in PC eingebaut.

Asmi Meo
2016-05-08, 15:51:25
Jensen hat ganz einfach vergessen hinzuzufügen das die Benchmarks der 1080 Founders Edition bei 1440p durchgeführt wurden. Klar kann GP104 mit optimiertem Taktverhalten und besserer Auslastung des kleineren Chips schneller sein. Das die großen Boliden GM204 und Fiji höhere Auflösungen brauchen um unter Spielen besser zu skalieren, ist auch schon länger klar.

y33H@
2016-05-08, 15:56:48
Samples sind übrigens bei den Reviewern.

scully1234
2016-05-08, 15:57:45
Dann habt ihr ja diesmal genuegend Zeit bis zum 17.5 gute Tests zu basteln

Blediator16
2016-05-08, 16:00:05
In 2 Tagen werden wir sicher was von den Chinesen haben :)

iuno
2016-05-08, 16:03:01
Selbst fuer den der zu faul war die Präsentation sich anzusehen, kann man jetzt nur noch den Teil der Analphabeten in Schutz nehmen

Aus der Präsentation heraus muss das jeder mit ein Bißchen Grips verstanden haben
Das hat man schon verstanden, wenn man alles gesehen und aufmerksam verfolgt hat. Er hat aber voellig recht damit, wenn er sagt, dass Jensen suggeriert, das traefe im Allgemeinen zu. Da sehe ich aber auch die Presse in der Pflicht, das korrekt darzustellen (wo ja etwa GameStar voellig versagt). Aber Hype ist halt Hype, was will man da machen... Reviews kommen ja bald

Jensen hat auch behauptet, GDDR5X sei der "schnellste DDR Speicher", was natuerlich nur zutrifft, wenn man Gbps/Pin heranzieht, nicht aber die gesamte Bandbreite. So geht halt Marketing
edit: muss mich hier korrigieren, habe die Stelle gesucht und war einigermassen verwirrt :confused: Tatsaechlich hatte er sich direkt danach verbessert, im Recap haben die Nvidia Leute den Fehler dann aber gekonnt herausgeschnitten.
original: https://youtu.be/ur4ntAKNLHk?t=3356
geschnitten: https://youtu.be/0xnzwjPyx8A?t=128
War also offenbar doch nicht mutwillig, sondern wirklich ein "Fehler" ;p

Blediator16
2016-05-08, 16:04:45
Man sollte auch hoffen, dass FE und arme Menschen Edition getrennt und klar benannt getestet werden. Sonst werden wir, mal wieder, Leistung von der FE und Verbrauchswerte der billig Edition serviert bekommen und alles wird vermischt.

dildo4u
2016-05-08, 16:06:43
Settings und Performance zu den 1080 vs 980 Benches.

https://youtu.be/1WS3hSdY9DI

fondness
2016-05-08, 16:07:52
Das passt problemlos in die 250W TDP. Du wirrst dich auch hier wieder irren.

Passt es nicht, wenn man von den 180W für GP104 ausgeht. Die Rechnung ist auch wirklich nicht schwer.
Und was soll eigentlich schon wieder die Unterstellung, wo habe ich mich denn überall geirrt? Wo sind deine 2x Perf/Watt aus deiner "Lebenserfahrung" wenn du schon so kommst? Laut den NV eigenen Benchmarks um TDP-Werte sind das wohl eher an die 60% mehr Perf/Watt wie ich auch sagte.

Auch mit den 180W TDP habe ich im übrigen genau ins schwarze getroffen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11023150&postcount=4574

Nur der Takt liegt höher als erwartet.


Selbst wenn sie die Takte leicht anpassen müssten, wäre das Ding problemlos schneller als ein 500mm^2 Vega. Garkein Problem.

Wenn man die Takte anpasst ja, genau das habe ich ja gesagt. Und wie das im Vergleich zu Vega aussieht kann noch niemand beurteilen, ich werde dich bei Gelegenheit aber gerne daran erinnern.

iuno
2016-05-08, 16:23:14
Settings und Performance zu den 1080 vs 980 Benches.

https://youtu.be/1WS3hSdY9DI
Wieso verrechnet er die Pixel wenn die relativen Werte sowieso in CSS da stehen :facepalm:
Es sollte aber ohnehin klar sein, dass das sowieso nur grob gilt. Davon abgesehen hilft das eh nicht weiter, einfach abwarten bis es richtige Reviews gibt.

Asmi Meo
2016-05-08, 16:24:25
Settings und Performance zu den 1080 vs 980 Benches.

https://youtu.be/1WS3hSdY9DI
Das läßt sich gut am Quellcode ablesen. Ob die 1080 den Boosttakt unter UHD halten kann, ist damit unklar. Zudem wurden in die Berechnung der anliegende Takt einbezogen. Nvidiamarketing pur! Das sollte schnell richtig gestellt werden. Dann noch eine i7 5960x CPU zum benchen für VR Simulationen benutzt, bei allen anderen Benchmarkwerten ist es unklar.

Was sagen solche Benchmarks schon aus? Demnächst testet jeder die Auflösung die ihm am besten gefällt, ohne jegliche Angaben zur Hardware und Testumgebung.

MasterElwood
2016-05-08, 16:33:51
Hier haben schon einige VR und sehr Viele warten noch auf ihre Brillen.

Das 3DC ist auch nicht die Masse. Zumal die Masse keine GTX1080 kauft. ;)

Aber die 1070er hat das Zeug zur "Volkskarte" - 970er war ja auch der Renner schlechthin.

y33H@
2016-05-08, 16:34:03
Man sollte auch hoffen, dass FE und arme Menschen Edition getrennt und klar benannt getestet werden. Sonst werden wir, mal wieder, Leistung von der FE und Verbrauchswerte der billig Edition serviert bekommen und alles wird vermischt.Was heißt wieder?

Blediator16
2016-05-08, 16:39:58
Was heißt wieder?

Ich meine unter den Viral Marketeers wird das wieder zum Problem. Da wird dann gerne suggeriert man ist 50% schneller bei schlappen 180watt Verbrauch dabei ist nur die FE OC so viel schneller bei sicher keinen 180watt mehr.

scully1234
2016-05-08, 16:41:25
Aber die 1070er hat das Zeug zur "Volkskarte" - 970er war ja auch der Renner schlechthin.

Mit dem Featureset besonders fuer dein VR System,keine doppelt gerenderten Bilder mehr, und fuer den Preis unter dem HMD eine Leistungsexplosion, die dir Spielraum fuer SSAA Einsatz gibt

y33H@
2016-05-08, 16:42:45
Ich meine unter den Viral Marketeers wird das wieder zum Problem. Da wird dann gerne suggeriert man ist 50% schneller bei schlappen 180watt Verbrauch dabei ist nur die FE OC so viel schneller bei sicher keinen 180watt mehr.Wer sollen diese Leute sein und wo sollen die den Quatsch verbreiten?

Blediator16
2016-05-08, 16:47:38
Wer sollen diese Leute sein und wo sollen die den Quatsch verbreiten?

Also stimmt es nicht, dass gewisse Leute durch sämtlichen sowohl internationale als auch nationale Foren gehen und gerne Leistung einer z.b 980 TI OC mit anderen Vergleichen und behaupten das alles gäbe es bei 165watt Verbrauch?

Natürlich nicht direkt, sondern da werden dann einfach mal Leistungsdaten einer OC Karte mit den Testwerten einer stinknormalen 980TI genommen.

y33H@
2016-05-08, 16:54:35
Ich überlege solchen Bullshit, wenn er denn mal iwo geschrieben wird ...

Godmode
2016-05-08, 16:56:51
Ja, wie bereits geschrieben, alles etwa +50% und 450mm^2 Die. Mit 384bit GDDR5X Interface und flexibler Speicherbestückung bis hoch an die 16GB. Das reicht dann auch für einen Vega, der nicht größer als 500mm^2 ist.

Das ist die GK104-Strategie nach oben weiter perfektioniert, denn GM204 und GM200 waren auch genau 50% von der Konfiguration auseinander. Hier hat NV ganz klar ihre Chip-Positionierung weiter verbessert.

Damit braucht sich NV absolut keine Sorgen machen und verdient ordentlich Geld.

Man kann nur hoffen das GP102 ebenfalls gut übertaktbar sein wird, wovon ich aber ausgehe. Bei GM200 hätte auch niemand vermutet, dass die meisten Karten 1,4 GHz ohne Probleme schaffen, vorausgesetzt die Kühlung passt. Wenn GP102 mit 3840 SPs kommt, und 2 GHz Kerntakt unter Wasser möglich ist, werde ich wieder eine neue GPU kaufen. GP104 kann sich einfach viel zu wenig von GM200 absetzen.

Blediator16
2016-05-08, 16:59:05
Ich überlege solchen Bullshit, wenn er denn mal iwo geschrieben wird ...


Du behauptest also das wird und wurde nie gemacht? :freak:
Maxwell war das Paradebeispiel von Cherrypicking bei den Fanboys.

scully1234
2016-05-08, 17:04:16
Man kann nur hoffen das GP102 ebenfalls gut übertaktbar sein wird, ...Wenn GP102 mit 3840 SPs kommt, und 2 GHz Kerntakt unter Wasser möglich ist, .

Wenn der wie Ailuros sagte noch nen Spin hinlegt wie GP100???sieht das alles in allem recht gut aus dafuer wuerde ich vermuten, nach allem was derzeit schon zu sehen war :smile:

MasterElwood
2016-05-08, 17:05:44
Mit dem Featureset besonders fuer dein VR System,keine doppelt gerenderten Bilder mehr, und fuer den Preis unter dem HMD eine Leistungsexplosion, die dir Spielraum fuer SSAA Einsatz gibt

Genau! Vor allem ELITE frisst in VR Leistung ohne Ende...

Was glaubt ihr: wird man die 1070er FE auf knapp unter eine "normale" 1080er OC können? 1080er ist 38 Prozent schneller. Wenn man die FE um 20% OC kann, ist man damit nur 18 Prozent hinten, bei gesparten 150 Hoschis...

scully1234
2016-05-08, 17:08:59
Was glaubt ihr: wird man die 1070er FE auf knapp unter eine "normale" 1080er OC können? ..

Wenn da nicht irgendwelche energetischen Drossel Tricks mit Boost 3.0 Einzug halten, duerfte der selbst mit GDDR5 ,auf das Standard Niveau von der 1080 zu bringen sein.

Ich glaub nicht das sie ihn vom Takt limitieren, das erledigt ja schon der GDDR5 mehr oder weniger.

So hat man zusaetzlich noch das Overcklocking King Image als Marketingelement

Am 17.5 gibt's ja die Reviews

Merkor
2016-05-08, 17:27:49
Diese Karten werden wohl/hoffentlich die ersten für Normalsterbliche sein, die einige der gebräuchlichsten CPUs in aktuellen Spielen und halbwegs hochgezüchteten Grafikeinstellungen an ihr Limit bringen werden.

Ich gehe jedenfalls davon aus, dass die 1070 (je nach Übertaktbarkeit und tatsächlichem Abstand zur 1080) meine letzte Karte im Z77-System mit i7-3770k @ 4 GHz sein wird, obwohl ich wohl bald in 3440x1440p gamen werde (aktuell 2560x1440).

Übrigens: Die Erfahrung der letzten beiden Jahre hat mich gelehrt, dass man die neue Generation ruhig zum Launch kaufen kann. Ich habe damals meine MSI GTX 970 TwinFrozr für 310 Euro zum Launch erhalten (mit Gutschein und Qipu über Allyouneed/MeinPaket). Damit habe ich nun 1,5 Jahre Spaß gehabt (trotz mir zum Kaufzeitpunkt nicht bekanntem Speicherdesaster) und ich hätte wohl selten die Chance gehabt, diese Karte zu einem späteren Zeitpunkt günstiger zu erwerben. Dazu läuft sie stabil auf 1500/4001 MHz.

Preisentwicklung der MSI GTX 970 TwinFrozr seit Launch:
http://geizhals.de/?phist=1167950&age=9999

Sind bereits Herstellerdesigns durchgesickert? Nvidia macht es den Partnern ja offenbar leicht, ihre bisherigen Designs weiter zu verwenden, zumindest was die Abwärme/Leistungsaufnahme angeht. Ich schätze, dass wir hier keine Revolutionen erleben werden.

Ich rechne mit Preisen der Herstellerdesigns (Kategorie Asus/MSI) um 429 Euro für die 1070. Viel teurer wird man die Karte nicht machen können, da ansonsten die preisliche Mittel- bis Oberklasse fehlt, wenn tatsächlich keine GTX 970 mehr produziert werden. Ansonsten klafft doch ein sehr großes Loch bis zur GTX 960. Die 1080 schätze ich bei 599-649 Euro. Die Cashcow wird also die 70er bleiben. Ich bin jedenfalls nicht bereit, 600-700 Euro in eine Grafikkarte zu investieren. Insofern hoffe ich auf die Vernunftslösung 1070, die natürlich aus gutem Grund nicht zum Launch der 1080 kommt, da ansonsten Kanibalisierung droht...

Nightspider
2016-05-08, 17:30:10
Wie viel fps schafft denn eine alte 970 in Elite Dangerous zB. mit dem Rift oder der Vive?

Es stimmt, die 1070 hat das Potential sich sehr, sehr gut zu verkaufen.
Allerdings wird es dieses mal auch unter 300 Euro tolle Alternativen geben, auch dank AMD.
Von daher wird die 1070 sowieso nicht so goldig abschneiden wie die 970 bei den Verkaufszahlen.
Sie wird ja auch ein kleines bisschen teurer.

Aber mal abwarten. Wenn der Euro weiterhin steigt sinken auch mittelfristig wieder die Hardware-Preise. :)

y33H@
2016-05-08, 17:37:41
Du behauptest also das wird und wurde nie gemacht? :freak: Maxwell war das Paradebeispiel von Cherrypicking bei den Fanboys.Ernsthaft, ich kriege das nicht wirklich mit bzw schüttle den Kopf und vergesse es wieder - gibt wichtigeres als so Bullshit. Ich hab meine Messwerte und die der Kollegen, da sieht man was Sache ist.

dildo4u
2016-05-08, 17:40:44
Guru 3D hat Bilder ihrer Testkarte sieht nach Retail Packung aus.


http://www.guru3d.com/news-story/geforce-gtx-1080-photos.html

Schätze mal das sind die Founders Edition Karten.

Blediator16
2016-05-08, 17:47:39
Ernsthaft, ich kriege das nicht wirklich mit bzw schüttle den Kopf und vergesse es wieder - gibt wichtigeres als so Bullshit. Ich hab meine Messwerte und die der Kollegen, da sieht man was Sache ist.

Das ist bei dir und vielen Leute, die eben mündig sind und sich selbst von Dingen überzeugen so. Dann sind da Menschen, die sich Dinge sagen lassen und das dürfte die Mehrheit sein, leider.

TurricanM3
2016-05-08, 17:54:21
Was genau macht denn nun die Founders Edition aus? Wurde irgendwo was von selektierten Chips gesagt, oder ist das nur der Kühler?
Wirds andere nicht mit Ref. PCB geben?
Ich muss sowieso erst wieder auf Wakü warten... :/

Genau! Vor allem ELITE frisst in VR Leistung ohne Ende...

Was glaubt ihr: wird man die 1070er FE auf knapp unter eine "normale" 1080er OC können? 1080er ist 38 Prozent schneller. Wenn man die FE um 20% OC kann, ist man damit nur 18 Prozent hinten, bei gesparten 150 Hoschis...


Die 1080 kannst ja auch noch übertakten. :smile:

Gipsel
2016-05-08, 17:59:56
Was genau macht denn nun die Founders Edition aus?Man kann sie zum Launch kaufen.

MartinRiggs
2016-05-08, 18:07:24
Ist irgendwie geil, teure Referenz zum Launch kaufbar, auf günstige Karten darf man warten.

Ich bin echt gespannt wie der Launch ablaufen wird ;D:freak:

scully1234
2016-05-08, 18:08:31
Intakes. Founders Edition will have machined aluminum shroud. Standard Edition may look same but diff materials (https://twitter.com/hardwarecanucks/status/728945197464227840).

Kriton
2016-05-08, 18:14:20
Ernsthaft, ich kriege das nicht wirklich mit bzw schüttle den Kopf und vergesse es wieder - gibt wichtigeres als so Bullshit. Ich hab meine Messwerte und die der Kollegen, da sieht man was Sache ist.

Die Wahrnehmung ist aber teilweise durchaus eine andere. Selbst hier hat man das immer wieder mal sehen können.

TurricanM3
2016-05-08, 18:14:33
Man kann sie zum Launch kaufen.


Ja klar, aber was bringt mir das, wenn ich noch auf Wasserkühler warten muss? Meine Ti lag deshalb 2 Monate (!) nach Kauf in der Schachtel. Der Luftkühler ist für mich irrelevant. Falls die FE aber selektiert ist (ASIC...), dann würde ich sie trotzdem nehmen.

Radeonfreak
2016-05-08, 18:14:34
Ist irgendwie geil, teure Referenz zum Launch kaufbar, auf günstige Karten darf man warten.

Ich bin echt gespannt wie der Launch ablaufen wird ;D:freak:

Geht sicher weg wie warme Semmeln. Eine davon in mein case. :)

Kriton
2016-05-08, 18:17:37
Falls die FE aber selektiert ist (ASIC...), dann würde ich sie trotzdem nehmen.

Reden tun ja einige hier davon - nur an Beweisen oder wenigstens Indizien fehlt es dabei immer...:rolleyes:

dildo4u
2016-05-08, 18:21:14
Hier antwortet ein Hardware Redakteur das die Chips selektiert sind.

https://twitter.com/hardwarecanucks/status/728945197464227840

Gipsel
2016-05-08, 18:28:30
Falls die FE aber selektiert ist (ASIC...), dann würde ich sie trotzdem nehmen.Früh kommende Chips sind selten besser selektiert (außer vielleicht ein paar Review-Samples) als spätere. Schon alleine weil man später mit größerem Produktionsvolumen besser selektieren kann. Das bessere Binning mag ja irgendwer behaupten, glauben kann ich es aber noch nicht so recht. Eventuell gibt es ein anderes BIOS oder sowas, aber zu viel würde ich mir nicht erwarten. Ich würde zum momentanen Zeitpunkt darauf tippen, daß die FEs vom ersten Tag im Schnitt nicht höher kommen als sagen wir mal 2 Monate später gekaufte normale Modelle im gleichen Referenzdesign.

Wenn Du sowieso warten mußt, bis es passende WaKü-Blöcke gibt, würde ich mich zurücklehnen und abwarten. Wenn die ersten normalen/billigeren Versionen kommen, wird sicherlich auch die Übertaktbarkeit überprüft. Sollte die signifikant schlechter ausfallen, bekommst Du vermutlich immer noch eine FE. Denn ein wenig Überlapp muß ja eingebaut werden, wenn man nicht will, daß es ein oder zwei Wochen gar keine am Markt gibt.

PHuV
2016-05-08, 18:28:44
Ist irgendwie geil, teure Referenz zum Launch kaufbar, auf günstige Karten darf man warten.

Ich bin echt gespannt wie der Launch ablaufen wird ;D:freak:
Auch nicht anders wie bei den anderen. :cool: Als ich damals bei Caseking meine 980er holte, war alles ganz entspannt, und noch genügend auf Lager.

Gipsel
2016-05-08, 18:31:33
Hier antwortet ein Hardware Redakteur das die Chips selektiert sind.

https://twitter.com/hardwarecanucks/status/728945197464227840Das weiß der gar nicht und öffentlich hat nV dazu meines Wissens nichts gesagt. Und selbst wenn, muß man das noch lange nicht glauben. Behaupten kann man viel ;).
Wir werden es sehen, wenn es dann Tests der normalen Karten gibt.

Godmode
2016-05-08, 18:31:59
Hier antwortet ein Hardware Redakteur das die Chips selektiert sind.

https://twitter.com/hardwarecanucks/status/728945197464227840

Das kommt unterm Strich billiger, als wenn man sich 5 Karten kauft und die beste Karte behält und den Rest weiterverkauft.

Ascorvit
2016-05-08, 18:32:00
Wer sollen diese Leute sein und wo sollen die den Quatsch verbreiten?

Hmmm, ....
Du beispielsweise, zu GTX 4xx / 5xx Zeiten ausgibigst im cb-Forum.

Troyan
2016-05-08, 18:32:32
Oder er hat mit den anderen Kollegen nVidia direkt gefragt...

-=Popeye=-
2016-05-08, 18:37:12
Hier antwortet ein Hardware Redakteur das die Chips selektiert sind.

https://twitter.com/hardwarecanucks/status/728945197464227840

So ein Quatsch.

Gipsel
2016-05-08, 18:38:43
Oder er hat mit den anderen Kollegen nVidia direkt gefragt...Und nV würde natürlich nie etwas inoffiziell behaupten, was im ersten Moment geschäftsfördernd ist, sich dann nachträglich aber als zumindest irreführend herausstellt (um sie nicht der Lüge zu beschuldigen). :rolleyes:

Solchen Behauptungen seitens der Hersteller sollte man immer mit einer gesunden Skepsis gegenübertreten. Wissen tut man es erst, wenn die normalen Karten gegengetestet werden. Bis dahin würde ich mich zurückhalten.

scully1234
2016-05-08, 18:39:49
Das kommt unterm Strich billiger, als wenn man sich 5 Karten kauft und die beste Karte behält und den Rest weiterverkauft.


Haegst du etwa doch schon wieder Hintergedanken an neue Spielzeuge:smile:

Ja klar, aber was bringt mir das, wenn ich noch auf Wasserkühler warten muss? .

Bei Eddy@EK dauert das im allgemeinen keine Woche bis die ersten Kuehler lieferbar sind

Troyan
2016-05-08, 18:42:04
Äh, anscheinend haben sie es doch getan: https://twitter.com/hardwarecanucks/status/729042636795846656

UPDATE: The Founders Edition is simply the reference design which runs at REFERENCE clocks but uses NVIDIA's premium shroud along with a blower design and low height PCB components. The partners meanwhile will be expected to sell "custom cooled" cards that hit the lower $599 price point.
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72560-nvidias-gtx-1080-gtx-1070-detailed.html

Gipsel
2016-05-08, 18:45:15
Äh, anscheinend haben sie es doch getan: https://twitter.com/hardwarecanucks/status/729042636795846656


http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72560-nvidias-gtx-1080-gtx-1070-detailed.html
Was haben sie getan? Von anderem Binning steht da nix. Die Meldung deutet eher darauf hin, daß nur die Lüfterabdeckung anders ist als bei späteren Referenzmodellen. Für die Übertaktbarkeit im Vergleich zu anderen 1080ern (egal ob Ref-Design oder Custom) heißt das ganz genau gar nichts.

Troyan
2016-05-08, 18:49:02
Er hat direkt bei nVidia angefragt. Wieso sollte der Mensch es erfinden, wenn an der Quelle war?!

Ascorvit
2016-05-08, 18:50:14
Ok, aber wenn Sie nicht selektieren, heisst das dann doch, das jede 1080 so hoch takten kann?!

Gipsel
2016-05-08, 18:51:48
Er hat direkt bei nVidia angefragt. Wieso sollte der Mensch es erfinden, wenn an der Quelle war?!Aber nicht nach höheren Frequenzbins. Und um die ging es. Du hast doch aus der Antwort von nV zitiert. Welchen Einfluß soll denn andere Lüftervekleidung der FE genau haben? Insbesondere wenn TurricanM3 einen WaKü-Block draufschnallt?

Blediator16
2016-05-08, 18:53:06
Hat JHH nicht gesagt die FE hätte besseres OC Potential?

Ascorvit
2016-05-08, 18:54:14
Der Meinung war ich auch, deshalb frag ich ja.

Godmode
2016-05-08, 18:55:40
Haegst du etwa doch schon wieder Hintergedanken an neue Spielzeuge:smile:



Nein, GP104 bringt mir viel zu wenig, als das ich eine Aufrüstung in Erwägung ziehen würde. Das Ding müsste schon mit 3 GHz laufen, damit ich meine 70% Mehrleistung bekomme.

TurricanM3
2016-05-08, 18:55:49
Bei Eddy@EK dauert das im allgemeinen keine Woche bis die ersten Kuehler lieferbar sind


Schon, aber ich hab letztes mal auf die Watercool Nickel-Version inkl. Backplate gewartet. Die kamen aber nicht in die Pötte und dann war leider die AC Nickel Variante mit aktiver BP vergriffen...
Ich warte denke ich erst mal Tests ab oder bestelle dieses mal den Kühler zuerst.

Ich bin übrigens sehr gespannt ob die Karten hinsichtlich Spulengeräuschen verbessert wurden. Ich hab die Spulen meiner letzten Ti abgeklebt:

http://abload.de/thumb/20151114_154647xbaks40jy4.jpg (http://abload.de/image.php?img=20151114_154647xbaks40jy4.jpg)

Blediator16
2016-05-08, 18:56:19
Der Meinung war ich auch, deshalb frag ich ja.

https://youtu.be/yRxoWkSDhVc?t=174

Ja scheint so zu sein.

Gipsel
2016-05-08, 18:59:44
Hat JHH nicht gesagt die FE hätte besseres OC Potential?
Der Meinung war ich auch, deshalb frag ich ja.
Die Worte waren meiner Erinnerung nach so gewählt, daß der Eindruck entstehen konnte, es aber nicht explizit gesagt wurde, daß die FE besser gebinnt sein wird als die anderen 1080er. Würde ich also erstmal nicht viel drauf geben. Kann mir das aber nochmal ansehen.

Die "crazy overclockability" im obigen Videoschnipsel für die FE schließt ja nicht aus, daß die anderen 1080er die gleiche haben. Er sagt genau genommen gar nichts zu Unterschieden im Binning. Btw., die Fury X war auch für "made for extreme overclocking" oder so ähnlich :freak:.


Und wie schon gesagt, ob da was und wieviel da wirklich dran ist, sieht man sowieso erst in entsprechenden Tests. Vorher ist es mehr Rätselraten. Und nV/Jensen hätte ja in keinem Fall direkt gelogen, selbst ohne anderes Binning, denn die andere Lüfterverkleidung ergibt bestimmt 0,5°C geringere Temperaturen, so daß man im Mittel 500kHz höher takten kann oder so ;).

-=Popeye=-
2016-05-08, 19:03:08
Die schwarze Abdeckung der TitanX kühtl auch besser als die Aluminiumfarbene der 980Ti, weil sie Schwarz ist. :freak:

Ascorvit
2016-05-08, 19:05:43
Da ich eh auf den i7-6800k warte, hab ich genug Zeit mir das hier in Ruhe anzusehen. :smile:

fondness
2016-05-08, 19:08:34
Das ist ein ganz normales Referenzdesign, dass einfach mal um $100 teurer gemacht wird um die "dummen" early adopters maximal abzucashen. Sollte ich falsch liegen, darf man mich später gerne daran erinnern. :)
Aber selbst NV hat nie von höheren OC-Potential für die FE gesprochen.

Und mal sehen wie billig die Custom-Designs dann wirklich werden...womöglich ist auch einfach der "expected" Preis der Custom-Design sehr optimistisches Marketing.

Gipsel
2016-05-08, 19:10:37
Das ist ein ganz normales Referenzdesign, dass einfach mal um $100 teurer gemacht wird um die "dummen" early adopters maximal abzucashen. Sollte ich falsch liegen, darf man mich später gerne daran erinnern. :)Das ist eine recht wahrscheinliche Theorie. Von den 100$ Mehrpreis gehen aber bestimmt 2$ für die höherwertigere Kühlerabdeckung als bei späteren Refdesigns drauf.

Troyan
2016-05-08, 19:11:09
Und? Du musst es ja nicht - würdest du ja sowieso nicht machen :lol: - kaufen.

Abzocke wäre es, wenn man nur von der "Founders Edition" rede würden und zwei Wochen später "normale" Karten in den Handel kommen würden.

Gipsel
2016-05-08, 19:13:37
Abzocke wäre es, wenn man nur von der "Founders Edition" rede würde und zwei Wochen später "normale" Karten in den Handel kommen würden.
Hast Du nicht gerade einen Link gepostet, daß nV hofft, daß die normalen Karten zeitnah zum Launch kommen?
edit:
Äh, anscheinend haben sie es doch getan: https://twitter.com/hardwarecanucks/status/729042636795846656

Troyan
2016-05-08, 19:16:12
Ja - zeitnah oder sofort. Und das für einen Preis, der voraussichtlich $100 niedriger ist.

Aber das wissen wir doch seit gestern schon. Die haben es direkt und fett auf die Folie geschrieben. Es steht sogar in der Pressemitteilung.

Hier wird sich einfach nur über Wissen aufgeregt statt einfach abzuwarten.

-=Popeye=-
2016-05-08, 19:24:04
Ich gehe jetzt einfach mal davon aus das die FE einfach nur eine andere Kühlerabdeckung hat und jede andere im Ref. Design mal abgesehen vom Schriftzug aussieht eine 980.

Korvaun
2016-05-08, 19:28:11
Irgend was stinkt doch da ganz gewaltig. Warum verkauft NV die im allgemeinen "schlechteste" Version (die Referenzkarte) am teuersten wenn sehr schnell bis sofort auch Custom-Designs zu haben sind, die auch noch billiger sein sollen? Ist da pures Gewinnstreben ohne Rücksicht wirklich der einzige Grund?

tdon
2016-05-08, 19:33:20
Wer sagt das es die schlechteste Version ist, von welcher Erkenntnis kommt das?

Ist über die Kartenlänge der Referenz etwas bekannt?

Troyan
2016-05-08, 19:38:31
Normale Länge:

Graphics Card Dimensions:
4.376"Height
10.5"Length
2-Slot
http://www.geforce.com/hardware/10series/geforce-gtx-1080

-=Popeye=-
2016-05-08, 19:43:47
Wer sagt das es die schlechteste Version ist, von welcher Erkenntnis kommt das?

Ist über die Kartenlänge der Referenz etwas bekannt?

:upicard:

Weil Custom immer schneller war als Ref. Design.

Presentation gesehen? Rein optisch genauso groß wie jede andere nv Karte dieser Klasse im Ref. auch.

maximus_hertus
2016-05-08, 19:48:02
Irgend was stinkt doch da ganz gewaltig. Warum verkauft NV die im allgemeinen "schlechteste" Version (die Referenzkarte) am teuersten wenn sehr schnell bis sofort auch Custom-Designs zu haben sind, die auch noch billiger sein sollen? Ist da pures Gewinnstreben ohne Rücksicht wirklich der einzige Grund?

1. Potentiell könnte nV etwas hochwertigere Bauteile verbauen
2. Launchaufschlag / Early-Adaptor Aufschlag
3. Custom Designs können günstiger sein, müssen aber nicht. Eine MSI Gaming wird sicherlich 699+ kosten, eine KFA²/Palit könnte durchaus die 599 erreichen.
4. Marketing: Die Karte wird "besser" bewertet ("absoluter Kampfpreis") obwohl ein deutlich höherer Preis veranschlagt wird. Jetzt sind die günstigen Preise in den Köpfen und selbst wenn der Preis an der Ladentheke davon (nach oben) abweicht, wird kaum jemand verzichten wollen.

dildo4u
2016-05-08, 19:48:30
Ich verstehe das Geschmähe nicht,die NV Edition braucht eh keiner schon die Stromversorgung ist zu mickrig für ne "High-End" Karte.Die meisten Custom 980 lagen um 250 Watt.

Sunrise
2016-05-08, 19:49:50
Passt es nicht, wenn man von den 180W für GP104 ausgeht. Die Rechnung ist auch wirklich nicht schwer.
Mal davon ab, dass das kein 1x1 rechnen ist, ist deine sowieso schon im Ansatz falsch, weil du das nicht einfach so hochrechnen kannst.

Und was soll eigentlich schon wieder die Unterstellung, wo habe ich mich denn überall geirrt?
Im Prinzip bei fast allem was du schreibst. Und bereits geleakte Werte von einem Reviewer zwei Tage vor offizieller Vorstellung als "Schätzung" von dir zu verkaufen, das muss große Kunst sein!

Wo sind deine 2x Perf/Watt aus deiner "Lebenserfahrung" wenn du schon so kommst?
Das kam nie von mir, da musst du dich leider irren, das war eine Info, die NV rausgab. Keine persönliche Spekulation.

Das ganze ändert absolut nichts daran, dass AMD mit aktueller Polaris-Leistung hochskaliert auf etwa 500mm^2 keine Chance gegen einen GP102 haben wird, wenn der mit 3840-4096 Shadern und 250W TDP bei ebensohohen Takten (evtl. leicht geringerer Boost) ankommt.

Da muss AMD schon mit mehr kommen.

tdon
2016-05-08, 19:58:46
:upicard:

Weil Custom immer schneller war als Ref. Design.

Presentation gesehen? Rein optisch genauso groß wie jede andere nv Karte dieser Klasse im Ref. auch.


Wer redet nur von schneller? Was ist mit der Lautstärke? Der Effizienz/Stromverbrauch? Alles Punkte, die dem eines Custom Designs nicht selten überlegen waren mit GTX 980. Es ist nicht jedes Custom Modell eine Empfehlung wert. Die sind nicht ohne Grund manchmal günstiger.

Dazu kommt noch das einige Custom Karten arg lang sein können, in mein Case passen bspw. Karten nur bis zu einer Länge von ~27 cm. Die Referenz liegt noch im grünen Bereich.

Troyan
2016-05-08, 20:01:44
GK110 war 85% größer als GK104 und Titan blieb innerhalb von 250W gegenüber der 170W GTX680.

Komische Diskussion, die hier angezettel wurde...

Schnoesel
2016-05-08, 20:03:47
Ich lach mich schlapp, da wird ein stinknormales Referenzdesign als "Founders" Edition betitelt irgendwas von Premium geschwurbelt und alle sind aus dem Häuschen und vermuten sonst was dahinter? Das ist Marketing nix anderes und die Leute fallen drauf rein! Das einzige was Premium ist ist der Preis. Gott Jensen verarscht sie alle ;D

Complicated
2016-05-08, 20:08:27
Mal eine Theorie aus andere Sicht zu dem ominösen FE-Schachzug:
Möglicherweise sind die Speicherpreise für GDDR5X noch nicht niedrig genug um den gewünschten Launchpreis durch die OEMs zu ermöglichen. Dadurch würde der Launch für GDDR5X-Produkte verzögert, was wohl auch für AMD derzeit eintrifft.

Diesem Verzögerungseffekt beim Launch tritt Nvidia entgegen, indem es eine 100$ teurere FE-Edition als Referenz vorgibt und so den Preiskampf zwischen den OEMS erstmal aussetzt, womöglich wird auch der Speicher für Referenz-Designs von Nvidia geliefert um so die teilnehmenden OEMs gerecht verteilt zu beliefern. Mit sinkenden GDDR5X Preisen werden dann Custom-Designs frei gegeben, wer weiß ob da welche aus Kostengründen nicht auf GDDR5 Speicher setzen (so wie früher DDR3 anstatt GDDR5 genutzt wurde). Diese sollten auf keinen Fall den Markt erreichen bevor die Launch-Berichterstattung mit best möglichen Karten statt gefunden hat.

Mit der FE-Edition konnte Nvidia auf diese Weise den frühen Termin halten ohne die OEMs zu verärgern und Ihnen das Preisrisiko für den Speicher aufzudrücken. Und die Billigdesigns der Custom-Serie sorgen nicht für negative Presse solange wie Nvidia das nicht frei gegeben hat. Und für die anderen Custom-Modelle hat man noch etwas Zeit zu produzieren.

Besser als ein Paperlaunch, und sehr gutes Marketing. Die Stückzahl wird über den Preis dosiert bis genug verfügbar ist für 100$ günstigere Preislage. Bei der 1070 wird das gleich mit gemacht um das etwas zu kaschieren (wenn auch nur mit 50$ Preissenkung).

Die höherwertige Komponente der FE-Editionen könnte demnach GDDR5X sein zum jetzigen, frühen Zeitpunkt.

MasterElwood
2016-05-08, 20:09:02
:upicard:

Weil Custom immer schneller war als Ref. Design.


Und die meisten auch deutlich LEISER!

Troyan
2016-05-08, 20:13:41
Mal eine Theorie aus andere Sicht zu dem ominösen FE-Schachzug:
Möglicherweise sind die Speicherpreise für GDDR5X noch nicht niedrig genug um den gewünschten Launchpreis durch die OEMs zu ermöglichen. Dadurch würde der Launch für GDDR5X-Produkte verzögert, was wohl auch für AMD derzeit eintrifft.

Diesem Verzögerungseffekt beim Launch tritt Nvidia entgegen, indem es eine 100$ teurere FE-Edition als Referenz vorgibt und so den Preiskampf zwischen den OEMS erstmal aussetzt, womöglich wird auch der Speicher für Referenz-Designs von Nvidia geliefert um so die teilnehmenden OEMs gerecht verteilt zu beliefern. Mit sinkenden GDDR5X Preisen werden dann Custom-Designs frei gegeben, wer weiß ob da welche aus Kostengründen nicht auf GDDR5 Speicher setzen (so wie früher DDR3 anstatt GDDR5 genutzt wurde). Diese sollten auf keinen Fall den Markt erreichen bevor die Launch-Berichterstattung mit best möglichen Karten statt gefunden hat.

Mit der FE-Edition konnte Nvidia auf diese Weise den frühen Termin halten ohne die OEMs zu verärgern und Ihnen das Preisrisiko für den Speicher aufzudrücken. Und die Billigdesigns der Custom-Serie sorgen nicht für negative Presse solange wie Nvidia das nicht frei gegeben hat. Und für die anderen Custom-Modelle hat man noch etwas Zeit zu produzieren.

Besser als ein Paperlaunch, und sehr gutes Marketing. Die Stückzahl wird über den Preis dosiert bis genug verfügbar ist für 100$ günstigere Preislage. Bei der 1070 wird das gleich mit gemacht um das etwas zu kaschieren (wenn auch nur mit 50$ Preissenkung).

Die höherwertige Komponente der FE-Editionen könnte demnach GDDR5X sein zum jetzigen, frühen Zeitpunkt.

Und warum sollten die Leute die Karte kaufen, wenn man weiß, dass (kurz) darauf günstigere Versionen angeboten werden? :rolleyes:

Wäre dies der Fall, hätte nVidia nie einen anderen Preis als die $699 genannt.

Gipsel
2016-05-08, 20:16:23
Wie kurz kurz darauf denn sein wird, weiß ja keiner. Außerdem ist das explizit nur nVs Hoffnung, keine harte Ankündigung. Das ist also butterweich.

Und Leute kaufen die, weil sie die ersten mit der neuen Karte sein wollen, weil sie Fanboys sind, whatever. Kaufentscheidungen sind längst nicht immer ganz rational. Und habe mal keine Sorge, nV wird die schon verkaufen, auch falls die (außer der früheren Verfügbarkeit) objektiv keinen wesentlichen Mehrwert gegenüber regulären Versionen bietet. ;)

Troyan
2016-05-08, 20:18:58
Es ist vollkommen egal, wann die Customdesigns kommen. Die Leute wissen, dass diese günstiger sein werden. Und werden dementsprechend einfach warten.

Gipsel
2016-05-08, 20:22:06
Es ist vollkommen egal, wann die Customdesigns kommen. Die Leute wissen, dass diese günstiger sein werden. Und werden dementsprechend einfach warten.Du glaubst also, daß nV die FEs nicht loswird?

maximus_hertus
2016-05-08, 20:22:55
Es ist vollkommen egal, wann die Customdesigns kommen. Die Leute wissen, dass diese günstiger sein werden. Und werden dementsprechend einfach warten.

Glaubst du das wirklich? Ich halte dagegen, es gibt genug Leute, die JETZT das schnellste / neueste haben wollen. Ob nun 700 oder 800 Euro, völlig wurscht.

Dazu die quasi Garantie, dass die Karte "Wakü-Kompatibel" ist, da eben Ref Design.

ilibilly
2016-05-08, 20:26:48
Alle meckern über die erhöten preise,aber am ende entscheiden doch wir ob es gekauft wird oder nicht,es gibt halt keine konkurrenz auf höhe der 1080 (deshalb auch King) aus fertig,wüde amd dieselbe power für 400€ anbieten hätte auch nv andere preisgestaltung.
Vielleicht sinds ja auch selektierte chips die allesamt locker 2ghz packen udn die customs bei 1,8ghz bereits abkacken.
Enthusisasten sind durchaus bereits 700€ und mehr auszugeben .
In paar wochen sind wir schlauer,ich werd wohl noch bis september/oktober warten und dann ne custom holen für 590€ :),dann sollte auch die rift verfügbar sein ,von amd kommt ja nix in der leistungsklasse.

Complicated
2016-05-08, 20:27:07
Wie kurz kurz darauf denn sein wird, weiß ja keiner. Außerdem ist das explizit nur nVs Hoffnung, keine harte Ankündigung. Das ist also butterweich.Hinzu kommt, dass man damit rechnen kann, dass die Custom-Designs zeitgleich mit den Polaris 10 GPUs von AMD im Markt publiziert werden. Das wäre eine sehr gute Strategie um gegen AMDs niedriger gepreiste Produkte vorzugehen. Die FE-Variante bleibt 100$ teurer und macht den eigenen OEMs keine Konkurenz bei den Custom-Designs.

Korvaun
2016-05-08, 20:27:37
Also alles nur Strategie von NV um als erster auf dem Markt zu sein, obwohl man nur sehr begrenzte Stückzahlen zur Verfügung hat? Die ganz Irren können sofort zuschlagen und sind dann erst mal ruhig, im besten Fall machen sie gute Werbung für NV und freuen sich im "elitären" Kreis der Founder zu sein egal was es kostet. Der Rest kann dann ein paar Wochen später zu besseren Preisen zuschlagen, sofern sich die Vesorgungslage schnell genug bessert... selbes Spiel dann mit der 1070 nen paar Wochen zeitversetzt.

MasterElwood
2016-05-08, 20:28:14
Man müsste sich selbst ein ZIEL setzen für die FE: Was soll sie können? Was erwarte ich? Was ist mir der Aufpreis wert?

Erwarte ich z.B 20 Prozent Leistungsplus und die Karte schafft es: passt - hunderter gut angelegt. Wenn nicht: dann zurück mit dem Ding - normale Karte her - Geld gespart.

Wieviel OC-PLUS ok sind, muss jeder selbst entscheiden. Ich denke bei mir persöhnlich wären es 20% bei der 70er und 25% bei der 80er. REINE LEISTUNG - nicht Werte am Papier.

Troyan
2016-05-08, 20:29:54
Du glaubst also, daß nV die FEs nicht loswird?

Da ich das Angebot nicht kenne, kann ich das nicht beantworten.

Aus unternehmerischer Sicht preise ich aber nicht schon 3 Wochen und 10 Tage (Reviews) vor Verkauf mein Produkt in einem Zwei-Schichten-Modell an, wenn ich weiß, dass die günstigere Schichte wochenlang nicht bedient werden würde.

Erst recht, wenn 2 Wochen nach Veröffentlichung eine GTX1070 für $250 weniger kommt, die schon 5 Wochen vorher ebenfalls in einem 2-Schichten-Modell angekündigt wurde.

:freak:

Wollte nVidia nur für $699 verkaufen, dann hätten sie alles andere weggelassen.

Gipsel
2016-05-08, 20:30:39
Hinzu kommt, dass man damit rechnen kann, dass die Custom-Designs zeitgleich mit den Polaris 10 GPUs von AMD im Markt publiziert werden. Das wäre eine sehr gute Strategie um gegen AMDs niedriger gepreiste Produkte vorzugehen. Die FE-Variante bleibt 100$ teurer und macht den eigenen OEMs keine Konkurenz bei den Custom-Designs.Daß die billigeren Versionen in etwa mit dem Polaris-Launch auf den Markt kommen könnten, vermutete ich vor ein paar Seiten ebenfalls schon.

Ailuros
2016-05-08, 20:32:10
Es ist lediglich eine aeusserst kluge Masche seitens NVIDIA, so gut wie moeglich die hoeheren Kosten des FF Prozesses zu decken.

Gipsel
2016-05-08, 20:34:42
Da ich das Angebot nicht kenne, kann ich das nicht beantworten.

Aus unternehmerischer Sicht preise ich aber nicht schon 3 Wochen und 10 Tage (Reviews) vor Verkauf mein Produkt in einem Zwei-Schichten-Modell an, wenn ich weiß, dass die günstigere Schichte wochenlang nicht bedient werden würde.

Erst recht, wenn 2 Wochen nach Veröffentlichung eine GTX1070 für $250 weniger kommt, die schon 5 Wochen vorher ebenfalls in einem 2-Schichten-Modell angekündigt wurde.

:freak:

Wollte nVidia nur für $699 verkaufen, dann hätten sie alles andere weggelassen.Blödsinn. Die einfachste Erklärung ist, daß nV gezielt am early-Adopter-Aufschlag partizipieren will und eventuell auch noch, daß insbesondere der 100$-Aufschlag für die 1080 die noch mangelnde Verfügbarkeit von GDDR5X kaschieren hilft.

Complicated
2016-05-08, 20:37:42
Es ist lediglich eine aeusserst kluge Masche seitens NVIDIA, so gut wie moeglich die hoeheren Kosten des FF Prozesses zu decken.
Blödsinn. Die einfachste Erklärung ist, daß nV gezielt am early-Adopter-Aufschlag partizipieren will und eventuell auch noch, daß insbesondere der 100$-Aufschlag für die 1080 die noch mangelnde Verfügbarkeit von GDDR5X kaschieren hilft.
Im Prinzip ist die FE-Edition eine Fliegenklatsche für beide Probleme, da beides die selben Schwierigkeiten beim Marktstart verursacht für die OEMs. Dieses Problem lösen diese normalerweise durch warten bis die Preise Markt-tauglich sind.

Die Kunden werden zeigen wie sie es annehmen. Bei GSync hat es ja gut funktioniert mit dem Preisaufschlag für frühere Verfügbarkeit. Da zeichnet sich ein Muster ab.

Troyan
2016-05-08, 20:41:53
Blödsinn. Die einfachste Erklärung ist, daß nV gezielt am early-Adopter-Aufschlag partizipieren will und eventuell auch noch, daß insbesondere der 100$-Aufschlag für die 1080 die noch mangelnde Verfügbarkeit von GDDR5X kaschieren hilft.

Die einfachste Erklärung ist vielmehr, dass zeitnah Customdesigns kommen - siehe auch GTX1070.

Es macht wirtschaftlich für ein Unternehmen null sinn. Osborne-Effekt lässt grüßen.

Gipsel
2016-05-08, 20:44:37
Die einfachste Erklärung ist vielmehr, dass zeitnah Customdesigns kommen - siehe auch GTX1070.Wie ist das eine einfache Erklärung für die FE?
Es macht wirtschaftlich für ein Unternehmen null sinn. Osborne-Effekt lässt grüßen.Und warum macht nV das denn?
Dir wurden von mehreren Personen hier im Thread wirtschaftliche Gründe für dieses Vorgehen genannt. Du mußt sie nur mal lesen.

Du bringst im Moment noch nicht mal ein irgendwie konsistentes Argument hervor. Du bist nur irgendwie dagegen.

Troyan
2016-05-08, 20:51:26
Das ist die Erklärung, wieso nVidia Wochen vor der Verfügbarkeit schon günstigere Nebenprodukte ankündigt. 3 Tage später beginnt dann auch die Computex, wo nVidia's Partner sowieso die Customdesign präsentieren werden. :rolleyes:

Der Rest ist unsinn, was hier geschrieben wurde. Die Leute, die trotz wissen sich für $699 die Referenzkarten kaufen, würden es auch tun, wenn nVidia nur diese Karte angepriesen hätte. Eine Vielzahl der Leute wird jedoch warten und sehen, was noch auf den Markt kommt, da sie wissen, dass diese Produkte (deutlich) günstiger sein werden.

Zusätzlich erscheint 2 Wochen später die GTX1070 FE - 71% Leistung für 64% des Preises der 1080 FE.

Complicated
2016-05-08, 20:52:50
Das Problem der IHVs ist ja immer wieder, dass OEMs Umsetzungen eher nach Kostengesichtspunkten denn nach den technisch optimalen Parametern anstreben. Eine Referenzkarte die besser ausgestattet ist und zu hohe Masstäbe setzt ist auch immer ein Problem. Dieses Dilemma entsteht dann vor allem in der Preisgestaltung bei Launch. Durch den höher angesetzten Preis der FE-Edition, könnten OEMs auch motiviert sein in dieser Preisregion mal ihr Glück zu versuchen mit speziellen Komponenten bei Kühlung oder anderen Bauteilen.

Das wäre vielleicht mal ein Weg für AMD im Notebookmarkt. Ich halte das für recht interessant als Vorgehen, das Schule machen könnte, vor allem da AMD ja schon eine eigene Speichermarke und SSD Marke hat.

@Troyan
Die FE-Edition muss ja auch nicht gekauft werden wie verrückt. Es geht nur um Launchtermine. Nenn es einen Paperlaunch mit Hardware die keiner kaufen will zu dem Preis weil 6 Wochen später die günstigen kommen. Jeder feiert den Preissturz von Pascal, während AMD mit zwar immer noch günstigeren Karten gegen 100$ Nachlass antreten muss in der Presse.

fondness
2016-05-08, 20:56:50
Und was soll eigentlich schon wieder die Unterstellung, wo habe ich mich denn überall geirrt?
Im Prinzip bei fast allem was du schreibst.

War klar das nichts kommt außer persönlicher Anmachen. Richtig arm.


Und bereits geleakte Werte von einem Reviewer zwei Tage vor offizieller Vorstellung als "Schätzung" von dir zu verkaufen, das muss große Kunst sein!

Du kannst mir gerne sagen, wo die 180W TDP vorher schon geleaket wurden. Aber das ist hier auch nicht das Thema.


Das kam nie von mir, da musst du dich leider irren, das war eine Info, die NV rausgab. Keine persönliche Spekulation.

Verkaufe wen anderen für blöd, ich habe dich ab hier mehrmals darauf hingewiesen, dass selbst Nvidia von weniger als 2x Perf/Watt spricht aber du hast darauf bestanden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11014971#post11014971

Deine Antworten waren u.a. von so hochwertigen Niveau wie hier:

Siehe oben, wenn es dir damit besser geht, dann glaube an weniger, ich tue es nicht.


Das ganze ändert absolut nichts daran, dass AMD mit aktueller Polaris-Leistung hochskaliert auf etwa 500mm^2 keine Chance gegen einen GP102 haben wird, wenn der mit 3840-4096 Shadern und 250W TDP bei ebensohohen Takten (evtl. leicht geringerer Boost) ankommt.

Da muss AMD schon mit mehr kommen.

Das wird man sehen. Da man noch nicht mal Polaris genau kennt, geschweige denn Vega, halte ich solche Aussagen nicht für sonderlich seriös.

Gipsel
2016-05-08, 21:01:55
Das ist die Erklärung, wieso nVidia Wochen vor der Verfügbarkeit schon günstigere Nebenprodukte ankündigt.Daß "kurz" nach den FEs Custommodelle kommen, ist die Erklärung, warum man eine direkt zum Start verfügbare und 100$ teurere FE zusätzlich zum den vermutlich später startenden Customs (oder non-FE Referenzmodelle), die sicherlich mittel- bis langfristig den dominierenden Teil des Marktes abdecken werden (also nix mit "Nebenversionen") ankündigt? Aha.
Da hast Du mal wieder einen Post ohne jeglichen Sinn produziert. Das ist eine Erklärung für gar nichts, allerhöchsten ein Im-Kreis-Drehen.

Wie schon mal geschrieben, ich vermisse etwas, was auch nur in die Richtung einer irgendwie schlüssigen Argumentation geht.

Ailuros
2016-05-08, 21:05:12
Benutz doch bitte nicht das Wort "kurz" in solchen Faellen :freak: *hust*

Dass die Kosten mit FF Prozessen gestiegen sind wird man wohl einsehen koennen. Early adopters sind solche Einzelheiten sowieso traditionell egal. Mir tun nur dienigen leid die immer noch vom anderen Ufer 980Ti Leistung bei $300 erwarten.

Sunrise
2016-05-08, 21:06:07
...Das wird man sehen. Da man noch nicht mal genau weiß was Vega überhaupt sein wird halt ich solche Aussagen nicht für sonderlich seriös.
Steht doch da, "Polaris" hochskaliert auf 4096 ALUs (Greenland/Vega/Fiji) werden unter der Bedingung, dass Polaris nicht schneller sein wird als GP104 auch bei 500mm^2 (Vega) gegen 450mm^2 (GP102) bei NV mit 3840-4096 ALUs nicht magisch schneller.

Wenn du jedesmal von einem Zauberstab bei AMD ausgehst, diese aber eher stetig eher den Hype nicht befriedigen, dann wird es durch HBM auch nicht besser.

Ob das seriös ist oder nicht, meine persönlichen Schätzungen sind immer Monate vorher schon ziemlich genau auf den Punkt.

fondness
2016-05-08, 21:08:26
Steht doch da, "Polaris" hochskaliert auf 4096 ALUs (Greenland/Vega/Fiji) werden unter der Bedingung, dass Polaris nicht schneller sein wird als GP104 auch bei 500mm^2 (Vega) gegen 450mm^2 (GP102) bei NV mit 3840-4096 ALUs nicht magisch schneller.

Ob das seriös ist oder nicht, meine persönlichen Schätzungen sind immer Monate vorher schon ziemlich genau auf den Punkt.

Okay da kann ich natürlich zustimmen, das ist aber eine völlig andere Aussage wie vorher, da ein Polaris hochskaliert auf etwa 500mm² sicherlich mehr wie 4096 SPs haben würde. Veag10 wird deutlich unter 500mm² liegen, da gehen ich jede Wette ein.

Wenn du jedesmal von einem Zauberstab bei AMD ausgehst, diese aber eher stetig eher den Hype nicht befriedigen, dann wird es durch HBM auch nicht besser.



War klar, dass noch irgenwie der Seitenhieb hinein editiert werden muss, ohne geht ja schließlich nicht. :rolleyes:

Gipsel
2016-05-08, 21:10:24
Steht doch da, "Polaris" hochskaliert auf 4096 ALUs (Greenland/Vega/Fiji) werden unter der Bedingung, dass Polaris nicht schneller sein wird als GP104 auch bei 500mm^2 (Vega) gegen 450mm^2 (GP102) bei NV mit 3840-4096 ALUs nicht magisch schneller.Also Polaris mit 2560SPs und 232mm² skaliert auf 4096 SPs mißt dann 500mm² (trotz vermutlich platzsparendem HBM), GP104 mit 2560 SPs auf ~300mm² skaliert auf 4096 SPs dann aber nur 450mm²? Interessant!

Wenn Polaris10 bei 2560 SPs wirklich 232mm² mißt, würde ich bei Vega10 mit 4096SPs eher von ~350-380mm² ausgehen (in etwa gleiches Verhältnis wie Pitcairn zu Tahiti), falls die Packdichten bei TSMC vergleichbar sind und sonst nichts Wesentliches am Design geändert wurde.

Ailuros
2016-05-08, 21:11:37
Es hat zwar hier im thread nichts verloren, aber die erste Frage die ich mir stellen wuerde fuer Vega ist wieso AMD ploetzlich zwei Varianten von dem chip braucht.

Hübie
2016-05-08, 21:13:14
Die FE ist afaik nur von EVGA mit erweiterter Garantie, höherem Potenzial für OC-Ergebnisse, früherer Möglichkeit auf Wakü umzubauen und Backplate.
Wem das 100$ Wert ist kann zuschlagen. Wer nicht braucht gar nicht gegen die anderen stänkern wie doof die sind oder wie sehr die verarscht werden. Es gibt - ja ich weiß das klingt unglaublich - denen ist Geld scheiß egal, weil genug vorhanden ist (persönliche Ökonomie).

Sunrise
2016-05-08, 21:13:56
Okay da kann ich natürlich zustimmen, das ist aber eine völlig andere Aussage wie vorher, da ein Polaris hochskaliert auf etwa 500mm² sicherlich mehr wie 4096 SPs haben wird.
Ich glaube nicht, dass AMD aufgrund des sehr komplexen GCN-Aufbaus mehr ALUs als NV verbauen wird. Dafür fehlt AMD der Markt. Aktuell sieht alles nach maximal 4096 ALUs aus. Vega 10 und Vega 11 sind immernoch ein ziemliches Fragezeichen. Persönlich verstehe ich hier AMD auch nicht ganz, aber man braucht wohl was für >Polaris und da wäre theoretisch für zwei weitere Vegas Platz.

NV hat aktuell aber so gut vorgelegt, dass ein wie von mir spekulierter GP102 schwierig wird zu übertreffen.

Troyan
2016-05-08, 21:14:17
Daß "kurz" nach den FEs Custommodelle kommen, ist die Erklärung, warum man eine direkt zum Start verfügbare und 100$ teurere FE zusätzlich zum den vermutlich später startenden Customs (oder non-FE Referenzmodelle), die sicherlich mittel- bis langfristig den dominierenden Teil des Marktes abdecken werden (also nix mit "Nebenversionen") ankündigt? Aha.
Da hast Du mal wieder einen Post ohne jeglichen Sinn produziert. Das ist eine Erklärung für gar nichts, allerhöchsten ein Im-Kreis-Drehen.

Würde man deiner Logik folgen, wäre Deflation kein negativer Zustand.
Nichts anderes hat nVidia mit der Ankündigung getan: Wenn der Kunde weiß, dass ein Produkt (bald) günstiger wird, wartet er. Und dies werden hier viele Kunden machen, die bei $699 zugeschlagen hätten.

Du wiederum behauptest einfach, dass die selbe Anzahl an Kunden sowieso zuschlagen würde, weil... ja, warum eigentlich?

Es gibt keinen einzigen Vorteil solch einer Vorankündigung. Daher macht diese auch nur sinn, wenn zeitnah die günstigeren Karten auf den Markt kommen.

Gipsel
2016-05-08, 21:20:07
Die FE ist afaik nur von EVGA mit erweiterter Garantie, höherem Potenzial für OC-Ergebnisse, früherer Möglichkeit auf Wakü umzubauen und Backplate.Das mit der erweiterten Garantie und so ist dann vielleicht ein EVGA-Ding. Laut nV soll die FE von mehreren OEMs kommen.

Complicated
2016-05-08, 21:21:24
Der Vorteil ist doch offensichtlich. Früher Launchtermin zu einem Preis ohne Risiko da wenig Nachfrage. Ein niedrigerer Preis in Aussicht gestellt fördert nicht den Verkauf des eigenen teuren Produktes, hemmt jedoch den Kauf des Konkurrenzproduktes das noch günstiger sein wird als der folgende günstige Preis. Nur zum Launch des Polaris 10 werden verfügbare Handelspreise der Custom-GP104 Karten wieder mit dem Listenpreis der neu gestarteten AMD Produkte verglichen zum ermitteln des P/L-Verhälnisses. Das nennt man Schadensbegrenzung in der öffentlichen Wahrnehmung. Gute Preisstrategie die nur möglich ist indem man eben früher am Markt ist.

Gipsel
2016-05-08, 21:23:14
Würde man deiner Logik folgen, wäre Deflation kein negativer Zustand.
Nichts anderes hat nVidia mit der Ankündigung getan: Wenn der Kunde weiß, dass ein Produkt (bald) günstiger wird, wartet er. Und dies werden hier viele Kunden machen, die bei $699 zugeschlagen hätten.

Du wiederum behauptest einfach, dass die selbe Anzahl an Kunden sowieso zuschlagen würde, weil... ja, warum eigentlich?Was? Nein. Der Zweck der FE ist es, early Adoptors extra zur Kasse zu bitten, die Nachfrage zu steuern und damit schlechte Verfügbarkeit/hohe Preise für Chips und RAM zu kaschieren/kompensieren.

Complicated
2016-05-08, 21:29:16
Und man macht mit einer guten Referenzkarte auch Druck auf die Qualität der Custom-Designs. Gibt auch Spielraum in der Preisgestaltung ohne direkt mit den eigenen OEMs in Konkurrenz zu stehen mit der Referenz. Früher war das immer recht schlecht für das Image wenn die IHVs grottige Referenzkarten (Kühlung) brachten um die OEMs nicht zu sehr unter Druck zu setzen.

fondness
2016-05-08, 21:29:40
Ich glaube nicht, dass AMD aufgrund des sehr komplexen GCN-Aufbaus mehr ALUs als NV verbauen wird.

Selbst wenn es so sein sollte, dann sind es keine 500mm² bei 4096 SPs. Sorry, das passt hinten und vorne nicht.


Vega 10 und Vega 11 sind immernoch ein ziemliches Fragezeichen. Persönlich verstehe ich hier AMD auch nicht ganz, aber man braucht wohl was für >Polaris und da wäre theoretisch für zwei weitere Vegas Platz.

NV hat aktuell aber so gut vorgelegt, dass ein wie von mir spekulierter GP102 schwierig wird zu übertreffen.

Das werden wir sehen. AMD wird sich bei den zwei Chips schon was gedacht haben.

Menace
2016-05-08, 21:32:58
Mir tun nur dienigen leid die immer noch vom anderen Ufer 980Ti Leistung bei $300 erwarten.

Ja, man müsste es manchen wirklich persönlich sagen (würden sie es trotzdem ignorieren?). Dass sie damit ihr Hersteller keinen Gefallen tun, wird ihnen auch nicht klar und die Gegenseite ruft erfreut mal wieder "fail". Jedes mal das gleiche. :rolleyes:

1070 dürften doch die gerade noch zu verwendeten GPUs der 1080 sein, oder? Könnte es sein, dass FE 1080 und 1070 doch relativ gut lieferbar ist und die günstigeren 1080 nicht?

ChaosTM
2016-05-08, 21:33:58
Die +100$ Karten gehen weg wie nix und das weiß Nvidia.
Nur sind sie eben gleich so "dreist" den zusätzlichen Gewinn selber einzustreichen, anstatt es völlig dem Markt bzw. den Händlern zu überlassen.
Diese können dann bei der 2. Custom-Welle, die wahrscheinlich auch noch sehr begrenzt ausfallen wird, Stichwort knappe GDR5X Speicher (?), ihre Gewinne machen.

Alles deutet darauf hin, dass die 1080er längere zeit sehr schwer zu bekommen sein wird. IMHO :)

maximus_hertus
2016-05-08, 21:35:33
Würde man deiner Logik folgen, wäre Deflation kein negativer Zustand.
Nichts anderes hat nVidia mit der Ankündigung getan: Wenn der Kunde weiß, dass ein Produkt (bald) günstiger wird, wartet er. Und dies werden hier viele Kunden machen, die bei $699 zugeschlagen hätten.

Du wiederum behauptest einfach, dass die selbe Anzahl an Kunden sowieso zuschlagen würde, weil... ja, warum eigentlich?

Es gibt keinen einzigen Vorteil solch einer Vorankündigung. Daher macht diese auch nur sinn, wenn zeitnah die günstigeren Karten auf den Markt kommen.

Nein. 980 Ti, 649 USD, 739 Euro zum Launch. Ich habe bei uns mehrere Karten in den ersten 1-2 Wochen für 800+ Euro verkauft. Viele Händler (gerade lokale) hauen in der LAunchphase, wo oftmals eh nur geringe Stückzahlen verfügbar sind, gerne 50-100 Euro drauf. Trotzdem gehen diese weg.

Außerdem sind die Customs keine Founder Edition. Du unterschätzt total, dass gerade Grafikkartenkäufer im Enthusiastsegment nicht immer 100% "rational" entscheiden. Bzw. sie tun es schon, aber auf eine andere Weise als viele 100-250 Euro Graka-Käufer.

Ende April habe ich z.B. eine 980 Ti (MSI) für 759 Euro verkauft (trotz Hinweis (und das überdeutlich), dass die 1080er in rund einem Monat ansteht). Es gibt (nicht wenige), denen Geld relativ wurscht ist bzw. die bereit sind, einen entsprechenden Preis zu bezahlen.

Die "Aufschrei" kommt doch oftmals von denen, die sich keine 800 Euro Karte leisten können bzw. wollen und dennoch am liebsten eine solche Karten haben wollen.

Ich wäre überrascht, wenn die 1080 bei 800 Euro bzw. die 1070 für 510 Euro nicht ordentlich weg gehen wird (in den ersten 1-2 Wochen), also der Anfangsbestand trotz angekündiger "Preissenkung" verkauft wird.

Gipsel
2016-05-08, 21:40:43
Ich glaube nicht, dass AMD aufgrund des sehr komplexen GCN-Aufbaus mehr ALUs als NV verbauen wird. Dafür fehlt AMD der Markt.Haben sie doch bisher auch gemacht. GCN-CUs sind einfach kompakter als die SMs von nV.
Und mit der Komplexität täusche Dich mal nicht. Die GCN-CUs können zwar viel, aber das Design ist relativ elaboriert, um das mit minimalem Hardwareaufwand hinzubekommen. Allerdings sollte vom Design her die Taktbarkeit auch prinzipiell etwas geringer als bei nV ausfallen (allein von den Latenzen her: 4 vs. 6 Takte, angenommen Pascal läßt das konstant).
Aktuell sieht alles nach maximal 4096 ALUs aus.Die hatte man schon in 28nm. Kann ja sein, daß das für Vega 10 hinkommt. Der bleibt aber aller Voraussicht nach locker unter 400mm² für die 4096SPs, so daß da noch Platz für ein deutlich größeres Modell bleibt.

reaperrr
2016-05-08, 21:42:55
Es hat zwar hier im thread nichts verloren, aber die erste Frage die ich mir stellen wuerde fuer Vega ist wieso AMD ploetzlich zwei Varianten von dem chip braucht.
Eine mit nur zwei HBM2-Stacks, ~60-64 CUs und ~350mm² Fläche, um MCM mit Zeppelin zu ermöglichen und GP104 im Desktop zu schlagen.
Eine mit vier HBM2-Stacks und ~88-96 CUs, um im HPC-Markt gegen GP100 und im Gaming-Markt gegen GP102 konkurrieren zu können.

scully1234
2016-05-08, 22:16:32
Was ich mich ja auch frage ist warum die GTX 1070 so viel spaeter in den Markt muss

Ist die Ausbeute so gut, das man noch nicht genug teildeffekte Chips zusammengekratzt hat, oder die Produktionskapazität einfach nicht ausreichend, fuer einen simultanen Release:confused:

kdvd
2016-05-08, 22:17:12
@scully1234

Vielleicht ist es viel trivialer.
Wenn man so scheibchenweise raushaut, bekommt man für jede Karte einen extra Test.
Zwei Tests = zwei mal Werbung pro Magazin.

Also bei der Liste fuer Ansel ist selbst Kepler dabei:
http://www.geforce.com/hardware/technology/ansel/supported-gpus

Ah cool, das ist mir entgangen, dachte schon das wäre Pascal only.

scully1234
2016-05-08, 22:19:21
Die FE ist afaik nur von EVGA mit erweiterter Garantie, höherem Potenzial für OC-Ergebnisse, früherer Möglichkeit auf Wakü umzubauen und Backplate.
.

Das wuerde dem hier aber widersprechen

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/geforce-gtx-1080-referenzmodell-zotac-1194701/

Laut PCGH ist die von Zotac auch ne FE

maximus_hertus
2016-05-08, 22:21:49
Es hat zwar hier im thread nichts verloren, aber die erste Frage die ich mir stellen wuerde fuer Vega ist wieso AMD ploetzlich zwei Varianten von dem chip braucht.

Falls AMD "dauerhaft" wieder einen Big-Daddy verkaufen möchte, wäre der Abstand von einem 500-600 mm² Chip zu einem 230 mm² irgendwie arg groß.

nV machts ja im Prinzip genauso, einen rund 300-400 mm² Performancechip (je nach Gen) und einen Big Daddy.

Ich sehe darin jetzt nichts ungewöhnliches, eher eine Adaptierung von nVs Die-Strategie. Polaris sind quasi GP107 und GP106 Konkurrenz. GP104 und 102/100 sind dann Sache der Vega Chips.

Es kann aber natürlich sein, dass ich falsch liege ;)

dargo
2016-05-08, 22:24:34
Irgend was stinkt doch da ganz gewaltig. Warum verkauft NV die im allgemeinen "schlechteste" Version (die Referenzkarte) am teuersten wenn sehr schnell bis sofort auch Custom-Designs zu haben sind, die auch noch billiger sein sollen? Ist da pures Gewinnstreben ohne Rücksicht wirklich der einzige Grund?
Vielleicht fiepen die FE-Editions nicht im Gegensatz zu dem was danach kommt. :D

MasterElwood
2016-05-08, 22:34:01
Vielleicht fiepen die FE-Editions nicht im Gegensatz zu dem was danach kommt. :D

GEKAUFT!

Tomahawk
2016-05-08, 22:34:26
Ich möchte daran erinnern, dass die Referenz-GTX 980 auch ziemlich teuer war und weniger Probleme mit Spulenfiepen hatte als die Custom-970er.

Eine 970 mit Referenz-Kühler war auch bis zu 100 Euro teurer als eine einfache Custom-970.
http://www.computerbase.de/2014-11/manli-geforce-gtx-970-im-test/4/

Einfach abwarten, Ende Juni gibt es die 1080 für 680 Euro zu kaufen.

dargo
2016-05-08, 22:44:36
Die +100$ Karten gehen weg wie nix und das weiß Nvidia.
Nur sind sie eben gleich so "dreist" den zusätzlichen Gewinn selber einzustreichen, anstatt es völlig dem Markt bzw. den Händlern zu überlassen.
Was ich dabei nur nicht verstehe... wenn es jetzt schon von NV einen Deppenaufschlag gibt... warum sollten die Händler sich davon beeindrucken lassen und auf einen verzichten? Sprich... gibt es dann einen ~200$ Deppenaufschlag? ;D

MasterElwood
2016-05-08, 22:47:12
Wie viel fps schafft denn eine alte 970 in Elite Dangerous zB. mit dem Rift oder der Vive?


Gerade mal 90 - aber mit nur mittleren Settings. "High", SS oder geile Grafik Mods kannst du damit vergessen.

VR ist hier sehr fordernd. Im Vergleich dazu: in 1440p alles auf max oder high: 80fps in stationen - 120 im All. Und Butterweich (dank G-sync)

kruemelmonster
2016-05-08, 22:47:25
Was ich mich ja auch frage ist warum die GTX 1070 so viel spaeter in den Markt muss

Marketing, die größe Karte bringt primär mehr Aufmerksamkeit und Prestige.

Erster Launch für dich? War bei Fermi und Kepler iirc nicht anders (Maxwell mit Sicherheit auch), und sind hier auch nur 2 Wochen.

dargo
2016-05-08, 22:56:47
Steht doch da, "Polaris" hochskaliert auf 4096 ALUs (Greenland/Vega/Fiji) werden unter der Bedingung, dass Polaris nicht schneller sein wird als GP104 auch bei 500mm^2 (Vega) gegen 450mm^2 (GP102) bei NV mit 3840-4096 ALUs nicht magisch schneller.

Wie rechnest du? :confused:

Wenn Polaris auf 232mm² mit 2560SPs kommt dann ergibt das nach meiner Rechnung mit 4096SPs 371mm². Dank HBM wird es wohl etwas weniger.

TurricanM3
2016-05-08, 23:00:15
Bez. FE, HWL-Redakteur:
NVIDIA hat auf Nachfrage gesagt, dass es keine Selektion bei den Chips geben wird.

Hübie
2016-05-08, 23:02:07
Was? Nein. Der Zweck der FE ist es, early Adoptors extra zur Kasse zu bitten, die Nachfrage zu steuern und damit schlechte Verfügbarkeit/hohe Preise für Chips und RAM zu kaschieren/kompensieren.

Die lassen sich wohl wie bei der Kingpin auch die ASIC bezahlen :biggrin:
Wo hat NVIDIA eigentlich gesagt dass die FE ebenfalls von den anderen AIBs kommen soll? Vielleicht habe ich das auch falsch aufgefasst.
Gibt eigentlich die slides irgendwo abrufbereit? Hatte mir nicht mal die Präsi angesehen, aber das was ich sah war echt lächerlich.
Na die hatten ja vorher auch genug vergnügen beim Schießen, Futtern und Wein trinken. :rolleyes:

KjPU3IrAvCs

maximus_hertus
2016-05-08, 23:25:57
Wo hat NVIDIA eigentlich gesagt dass die FE ebenfalls von den anderen AIBs kommen soll? Vielleicht habe ich das auch falsch aufgefasst.


Ich zitiere mal Leo @ 3DC-News:

Mittels der nVidia-Pressemitteilung ergibt sich nunmehr allerdings eine Klarstellung zu diesem Sachverhalt – welche eher ungünstig für die Grafikkarten-Käufer aussieht. Denn danach handelt es sich bei der als hochtrabend als "Founders Edition" bezeichneten Karte schlicht um das Referenzdesign, welches nVidia in die Kameras gehalten hat. Der MSRP gilt dann für die Herstellerdesigns, ist aber nur eine Empfehlung an die Grafikkarten-Hersteller und dürfte wenn dann nur von einigen Herstellerdesigns wirklich erreicht werden. Bezeichnend hierzu ist die genaue Formulierung der Pressemitteilung, welche dies als "Herstellerdesigns startend ab XXX Dollar" beschreibt:

The NVIDIA GeForce GTX 1080 "Founders Edition" will be available on May 27 for $699. It will be available from ASUS, Colorful, EVGA, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, NVIDIA, Palit, PNY and Zotac. Custom boards from partners will vary by region and pricing is expected to start at $599. The NVIDIA GeForce GTX 1070 "Founders Edition" will be available on June 10 for $449. Custom boards from partners are expected to start at $379

PHuV
2016-05-08, 23:42:29
Mal eine ganz andere Frage: DP 1.3/1.4 findet man doch heute in den Monitoren leider kaum. Selbst der aktuelle 5k Monitor wie der Philips 275P4VYKEB scheinen nur mit 2xDP 1.2-Anschlüssen zu arbeiten. Ab DP 1.3 wäre dann ja nur ein Kabel notwendig.

Blöd gefragt, gibt es heute überhaupt schon Monitore mit DP 1.3 oder gar 1.4? :confused: Selbst bei Geizhals kann man nur bis DP 1.2 filtern.

maximus_hertus
2016-05-09, 00:07:04
Nein, noch gibt es keine 1.3er Bildschirme. 1.4er wird es afaik auch absehbare Zeit (auch) nicht geben, 1.4 ist ja gerade erst spezifiziert worden.

Troyan
2016-05-09, 00:12:46
Bez. FE, HWL-Redakteur:
NVIDIA hat auf Nachfrage gesagt, dass es keine Selektion bei den Chips geben wird.

Hier in ausführlich:
http://www.gamersnexus.net/news-pc/2427-difference-between-gtx-1080-founders-edition-and-reference#!/ccomment

Asmi Meo
2016-05-09, 00:17:09
Also Polaris mit 2560SPs und 232mm² skaliert auf 4096 SPs mißt dann 500mm² (trotz vermutlich platzsparendem HBM)
Die HBM2 2Gbps Stacks sind größer. Fast doppelt so groß rein auf die Fläche bezogen als HBM1 1Gbps.

Gipsel
2016-05-09, 01:10:59
Die HBM2 2Gbps Stacks sind größer. Fast doppelt so groß rein auf die Fläche bezogen als HBM1 1Gbps.Und das hat mit der Diegröße der GPU was genau zu tun? Das HBM-Interface auf dem Die wird doch nicht größer, nur weil größere Speicherchips drangeflanscht werden. :rolleyes:

Dural
2016-05-09, 01:15:04
Naja grösser wird es sicher schon, den der takt verdoppelt sich und das wird mit dem fiji si wohl kaum gehen.

Gipsel
2016-05-09, 01:18:24
Bez. FE, HWL-Redakteur:
NVIDIA hat auf Nachfrage gesagt, dass es keine Selektion bei den Chips geben wird.
Hier in ausführlich:
http://www.gamersnexus.net/news-pc/2427-difference-between-gtx-1080-founders-edition-and-reference#!/ccomment
Seht Ihr! Jetzt müssen wir noch nicht mal auf entsprechende Tests warten, um die Frage zu klären, wenn jetzt sogar nV selber sagt, daß es keine Unterschiede beim Binning der Chips oder den Taktraten geben wird. Referenzboards mit vernünftigen alternativen Kühlern (oder vernünftig designte Custom-Boards) werden wohl (mindestens) genau so hoch kommen wie die FE.

Also Alles wie (nicht nur) von mir von Anfang an vermutet.

Gipsel
2016-05-09, 01:22:11
Naja grösser wird es sicher schon, den der takt verdoppelt sich und das wird mit dem fiji si wohl kaum gehen.
Das hat aber immer noch nichts mit der Größe der Speicherchips zu tun :freak:. Und falls die Größe des HBM-PHYs padlimitiert ist, wird da auch mit HBM2 nichts größer.
Und selbst wenn nicht, der Vergleich war ja Pitcairn => Tahiti vs. Polaris10 => Vega10. Und bei ersterem hat Pitcairn ein 256Bit 5GBps-Interface, Tahiti aber ein völlig überdimensioniertes für 6+GBps ausgelegtes mit 384Bit (offenbar extrem konservativ ausgelegt, deswegen so groß). Das Speicherinterface wuchs flächenmäßig mehr als Faktor 1,6 (wie der Gesamtchip). Bei Polaris=>Vega haben wir 4x64 Bit 6+GBps GDDR5 vs. 2 HBM(2)-Interfaces. Letztere dürften definitiv kleiner ausfallen als 1,6x die Fläche des Polaris-Interfaces.

Aber das ist dann hier im Thread langsam endgültig OT.

TLDR:
Der Einwand ist Unsinn.

Oliver_M.D
2016-05-09, 01:51:04
Referenzboards mit vernünftigen alternativen Kühlern (oder vernünftig designte Custom-Boards) werden wohl (mindestens) genau so hoch kommen wie die FE.Doofe frage. Schätze also mal das ich dann eine 1070 im 400-450€ bereich fürs erste vergessen kann oder?

Troyan
2016-05-09, 01:52:51
Nö. AIBs steht es frei Customdesigns für $379 für die 1070 anzubieten. Und sobald die ersten es machen, muss sowieso jeder nachziehen.

Oliver_M.D
2016-05-09, 01:56:47
Nö. AIBs steht es frei Customdesigns für $379 für die 1070 anzubieten. Und sobald die ersten es machen, muss sowieso jeder nachziehen.Aber würden die dann auch noch halbwegs was taugen? Kann man natürlich noch nicht genau wissen aber meine nur.
Note: Mit "fürs erste" meinte ich die ersten 1-2 wochen nachdem die ersten customs released wurden.

Troyan
2016-05-09, 02:00:04
Bei der GTX970 kosteten die "guten" Designs 350€+ gegenüber den 330€ Empfehlungspreis.

Man muss einfach abwarten. Es kann gut sein, dass es verschiedene Abstufungen der Hersteller geben wird. Grundsätzlich steht es jeden AIB frei Karten für $379 bzw. $599 anzubieten.

Oliver_M.D
2016-05-09, 02:02:36
Bei der GTX970 kosteten die "guten" Designs 350€+ gegenüber den 330€ Empfehlungspreis.
Man muss einfach abwarten. Es kann gut sein, dass es verschiedene Abstufungen der Hersteller geben wird. Grundsätzlich steht es jeden AIB frei Karten für $379 bzw. $599 anzubieten.Hmm verstehe. Danke für die info.
Hoffen wir mal auf das beste.

Pumpi74
2016-05-09, 02:59:11
Wenn die Engländer in 5 Wochen den Brexit beschließen (anstehende Wahlen) und die Griechen die nächste Rate nicht zahlen können oder wollen, beziehungsweise eine Reform nicht umsetzen können oder wollen, dann kann man sich freuen wenn man ein Custommodell noch zum ehemaligen FE Preis bekommt....

Loeschzwerg
2016-05-09, 07:09:49
Also ich warte erst mal Tests ab und was AMD mit Polaris auf die Reihe bringt... aber wenn es ein GP104 werden sollte, dann NUR die FE Variante. Ich mag DHE und als Sammler zählt für mich eh nur das Ref.-Design.

Die Hardware macht schon einen guten Ersteindruck und Ansel rundet die Geschichte zusätzlich ab. Jetzt bin ich echt gespannt was AMD liefert.

Asmi Meo
2016-05-09, 07:11:53
Das hat aber immer noch nichts mit der Größe der Speicherchips zu tun :freak:. Und falls die Größe des HBM-PHYs padlimitiert ist, wird da auch mit HBM2 nichts größer.
Und selbst wenn nicht, der Vergleich war ja Pitcairn => Tahiti vs. Polaris10 => Vega10. Und bei ersterem hat Pitcairn ein 256Bit 5GBps-Interface, Tahiti aber ein völlig überdimensioniertes für 6+GBps ausgelegtes mit 384Bit (offenbar extrem konservativ ausgelegt, deswegen so groß). Das Speicherinterface wuchs flächenmäßig mehr als Faktor 1,6 (wie der Gesamtchip). Bei Polaris=>Vega haben wir 4x64 Bit 6+GBps GDDR5 vs. 2 HBM(2)-Interfaces. Letztere dürften definitiv kleiner ausfallen als 1,6x die Fläche des Polaris-Interfaces.

Aber das ist dann hier im Thread langsam endgültig OT.

TLDR:
Der Einwand ist Unsinn.
Mit steigender Bandbreite und Anbindung wächst auch die Größe des Interconnects, es wird maßgeblich davon abhängen in wie weit die Skalierung der Logikfläche unter 16/14nm FF ausfällt, der Gateabstand um welchen Faktor tatsächlich reduziert werden kann. Wieviel Fins dazu benötigt werden in welcher Stärke. GF ist dabei eine ungewisse Größe. Die Diskussion ergab sich aus Vergleichen zwischen Pascal und Vega, nicht Tahiti und Polaris und deren Flächenverhältnis bezüglich der Herstellungskosten plus ansetzbaren Preisen.

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2016/gtc2016/nvidia-gtc2016-gp100-hbm2-2.jpg

horn 12
2016-05-09, 07:14:01
Leaks aus Fernost da viele die 1080-er Karten für die Reviews bereits erhalten haben, sollten nicht lange auf sich warten lassen und hoffe es sind nicht 3DMark Werte, sondern Games dabei.- unter 4K ebenso!

MikePayne
2016-05-09, 07:38:28
Ein Paperlaunch mit erhöhten Preisen (und Ende Mai mit kaum kaufbaren Karten) - gz nvidia, maximal abgezockt und es klatschen sogar noch Leute dabei -.-
Mal sehen was die 1070er so für Haken haben wird.

Allgemein wirkt das alles überhastet, um vermeintlich schneller als AMD am Start zu sein.

Ich denke im Juni/Juli wird man eher Polaris Karten in größeren Stückzahlen kaufen können als die 1070/1080er. Man wird sehen ;)

wolik
2016-05-09, 08:01:29
Ob Speicher für alle reicht...
http://www.bitsandchips.it/52-english-news/6972-some-questions-about-new-gp104-gpu
“Micron’s GDDR5X program is in full swing and first components have already completed manufacturing. We plan to hit mass production this summer”

hasebaer
2016-05-09, 08:55:24
Allgemein wirkt das alles überhastet, um vermeintlich schneller als AMD am Start zu sein.

Ich denke im Juni/Juli wird man eher Polaris Karten in größeren Stückzahlen kaufen können als die 1070/1080er. Man wird sehen ;)

Einen Paperlaunch hat NV doch gar nicht nötig.
Nvidia hat irgendwas um die 75% Marktanteil, und selbst wenn AMD in der Vergangenheit sogar sehr viel früher dran war, wie damals mit der HD7970, hat die Masse der Käufer gewartet was NV liefert.

Bringhimup
2016-05-09, 09:02:13
Wie wird es eigentlich mit der Priorität der Monitorausgänge aussehen?

Was mich aktuell an meiner GTX780 nervt ist, dass HDMI höher prioritisiert ist als Display Port.

Das z.B. Mainboard-Bios müsste ich mir also immer auf dem am HDMI angeschlossenen Fernseher ansehen, außer ich nutze DVI für meinen Monitor, was wiederum höher prioritisiert ist als HDMI. DP (keine Schrauben notwendig für stabile Verbindung) würde ich aber eigentlich lieber als DVI für den Monitor nutzen.

Wenn bei den neuen Karten jetzt 3 Display Port Ausgänge der Standard sind, kann man dann davon ausgehen, dass die bei der Ausgabe am höchsten prioritisiert sind?

dargo
2016-05-09, 09:05:48
http://www.bitsandchips.it/52-english-news/6972-some-questions-about-new-gp104-gpu

Hmm... sehe ich es richtig, dass Pascal takt-/ und shaderbereinigt nichts gegenüber Maxwell zugelegt hat? Wenn ich das mehr an Takt und Shader zusammen rechne komme ich auf +78%. Das entspricht ziemlich genau den +70-80% laut der NV-Folie.

Ätznatron
2016-05-09, 09:12:51
Wie wird es eigentlich mit der Priorität der Monitorausgänge aussehen?

Was mich aktuell an meiner GTX780 nervt ist, dass HDMI höher prioritisiert ist als Display Port.

Das z.B. Mainboard-Bios müsste ich mir also immer auf dem am HDMI angeschlossenen Fernseher ansehen, außer ich nutze DVI für meinen Monitor, was wiederum höher prioritisiert ist als HDMI. DP (keine Schrauben notwendig für stabile Verbindung) würde ich aber eigentlich lieber als DVI für den Monitor nutzen.

Wenn bei den neuen Karten jetzt 3 Display Port Ausgänge der Standard sind, kann man dann davon ausgehen, dass die bei der Ausgabe am höchsten prioritisiert sind?

Wichtiger wäre mir eine Auwahlmöglichkeit in der NV-Systemsteuerung bei der Anschlussvergabe, denn die erfolgt offenbar "frei Schnauze".

Bei meiner GTX 780 ist z.B. einer der DVI-Ausgänge priorisiert.

Warum also keinen Switch, um es dem User zu überlassen?

PHuV
2016-05-09, 09:14:45
Nein, noch gibt es keine 1.3er Bildschirme. 1.4er wird es afaik auch absehbare Zeit (auch) nicht geben, 1.4 ist ja gerade erst spezifiziert worden.
Ist das nicht an sich peinlich? DP 1.3 ist seit 2014 spezifiziert.

Gipsel
2016-05-09, 09:15:01
Du hast mit dem Thema selbst angefangen. Mit steigender Bandbreite und Anbindung wächst auch die Größe des Interconnects, es wird maßgeblich davon abhängen in wie weit die Skalierung der Logikfläche unter 16/14nm FF ausfällt, der Gateabstand um welchen Faktor tatsächlich reduziert werden kann. Wieviel Fins dazu benötigt werden in welcher Stärke. GF ist dabei eine ungewisse Größe. Die Diskussion ergab sich aus Vergleichen zwischen Pascal und Vega, nicht Tahiti und Polaris und deren Flächenverhältnis bezüglich der Herstellungskosten plus ansetzbaren Preisen.

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2016/gtc2016/nvidia-gtc2016-gp100-hbm2-2.jpgDas hat auch nichts mit der aufgeworfenen Problematik zu tun.
Und weder hängt die Größe der IO-Area maßgeblich vom Skalierungsfaktor für Logik ab, noch ist das Photo der verschiedenen Speicherchips unterschiedlicher Kapazität irgendwie sinnvoll (na klar ist ein 8GBit-Chip größer als ein 2 GBit-Chip, wenn dazwischen nicht mindestens 2 Fullnode-Shrinks liegen, ist also völlig aussagelos in diesem Zusammenhang). Lies die vorherigen Posts (da ist übrigens durchaus von Pitcairn und Tahiti die Rede) und denke über die Argumente darin nach! Du steuerst weder etwas Wesentliches zu diesem OT-Ausflug bei (der mal langsam zu Ende gehen sollte), noch zum eigentlichen Thema des Threads.

Bringhimup
2016-05-09, 09:15:41
Wichtiger wäre mir eine Auwahlmöglichkeit in der NV-Systemsteuerung bei der Anschlussvergabe, denn die erfolgt offenbar "frei Schnauze".

Bei meiner GTX 780 ist z.B. einer der DVI-Ausgänge priorisiert.

Warum also keinen Switch, um es dem User zu überlassen?

Ein Switch wäre mir auch am liebsten. Mit Abstand. Bitte bloss nicht wieder HDMI als höhere Prio als DP. Das finde ich dämlich.

Und ich meinte es bei meiner GTX780 aktuell so:
DVI -> HDMI -> DP

Kartenlehrling
2016-05-09, 09:22:29
Wenn bei den neuen Karten jetzt 3 Display Port Ausgänge der Standard sind, kann man dann davon ausgehen, dass die bei der Ausgabe am höchsten prioritisiert sind?

Also bei den Maxwell2.0 Karten wird empfohlen erst alle 3 DP zu nehmen, wenn man nur einen HDMI oder DVI Monitor hat, diese halt mit DP-adapter zu betreiben.
Ich denke nicht das es mit der GTX1080 anders ist, ich finde es Witzig das sie immernoch ein DVI beigepackt haben, so wird der Kunde zum "falschen" anschliessen regelrecht verleite.

Annator
2016-05-09, 09:25:16
Ein Switch wäre mir auch am liebsten. Mit Abstand. Bitte bloss nicht wieder HDMI als höhere Prio als DP. Das finde ich dämlich.

Und ich meinte es bei meiner GTX780 aktuell so:
DVI -> HDMI -> DP

Jup ist bei mir auch so mit einer 780 TI. Echt nervig, dass der 2. Monitor den Bootvorgang anzeigt. Besonders, weil der Monitor eher selten an ist.

Dural
2016-05-09, 09:45:10
Das hat aber immer noch nichts mit der Größe der Speicherchips zu tun :freak:


Das Habe ich auch nie gesagt, nur das der Kontroller sicher grösser wird als es noch bei Fiji der fall war. Wenn wir uns zurück erinnern hat AMD bei Hawaii genau das Gegenteil getan, um Platz und Energie zu sparen haben sie den Takt runter genommen.

Gipsel
2016-05-09, 10:19:02
Das Habe ich auch nie gesagt, nur das der Kontroller sicher grösser wird als es noch bei Fiji der fall war. Wenn wir uns zurück erinnern hat AMD bei Hawaii genau das Gegenteil getan, um Platz und Energie zu sparen haben sie den Takt runter genommen.
Bist Du der Meinung, dass ein HBM-Interface für 2 Stacks deutlich größer ist als ein hochtaktendes 384bit GDDR5-Interface? Falls nein, hast Du kein Argument, falls ja ;D.
Ansonsten gilt für Dich das Gleiche wie für Asmi Meo.

Sunrise
2016-05-09, 10:27:24
Wie rechnest du? :confused:

Wenn Polaris auf 232mm² mit 2560SPs kommt dann ergibt das nach meiner Rechnung mit 4096SPs 371mm². Dank HBM wird es wohl etwas weniger.
Polaris wird wohl keinen sonderlich hohen DP-Durchsatz bekommen. Im Gegensatz dazu wird Vega den aber benötigen, wenn AMD diese auch im professionellen HPC-Markt platzieren will. Das wird sich auch aufs Transistorenbudget niederschlagen. Wie stark, weiß ich nicht, jedoch ist es auffällig, dass z.B. Hawaii mit hoher DP-Leistung auch recht groß war.

500mm^2 waren evtl. etwas zu hoch geschätzt, dann sagen wir mal, dass AMD auch wie bei NV auf 450mm^2 kommt, bei etwa 3840/4096 ALUs. Aufgrund GCN wird bei NV der Takt aber wieder deutlich höher sein, ebenso der Boost, ALU für ALU ist NV also schneller. AMD kann das nur über noch mehr ALUs (die auch ausgelastet werden müssen) lösen oder mehr Takt. Insofern kommt man dann eben wohl eher deutlich Richtung >400mm^2.

Und dann soll es laut Spekulationen ja auch noch einen größeren Vega geben, der müsste (dass es sich lohnt) dann die 600mm^2 ausreizen und das wird richtig teuer. Ob AMD so einen Chip gut verkauft bekommt (aufgrund des schlechteren Software-Ökosystems) bezweifle ich aktuell stark.

Asmi Meo
2016-05-09, 10:34:54
Bist Du der Meinung, dass ein HBM-Interface für 2 Stacks deutlich größer ist als ein hochtaktendes 384bit GDDR5-Interface? Falls nein, hast Du kein Argument, falls ja ;D.
Ansonsten gilt für Dich das Gleiche wie für Asmi Meo.
Es macht keinen Sinn einen winzigen Die auf einem 60nm Interposer zu verpflanzen. Ich finde die Spekulation ziemlich daneben. Selbst die 2Gb HBM2 Stacks sind größer und müssen Platz finden und angebunden werden. Meine zwei Beiträge das Thema betreffend, kippen die Theorien und Spekulationen des Threads nicht um. Den einzigen reinen 14nm FF Prozess in Fertigung betreibt Intel. Das Design ist entsprechend entworfen.

Schnoesel
2016-05-09, 11:02:51
Async Compute nur in einem Nebensatz erwähnt?

"New asynchronous compute advances improve efficiency and gaming performance"

http://nvidianews.nvidia.com/news/a-quantum-leap-in-gaming:-nvidia-introduces-geforce-gtx-1080

Scheint sich also nix großartiges getan zu haben. Wobei Async Compute ja nicht gleich Async Shader bedeutet.

Dural
2016-05-09, 11:13:08
Bist Du der Meinung, dass ein HBM-Interface für 2 Stacks deutlich größer ist als ein hochtaktendes 384bit GDDR5-Interface? Falls nein, hast Du kein Argument, falls ja ;D.
Ansonsten gilt für Dich das Gleiche wie für Asmi Meo.

Was unterstellt du mir da genau? so schwer zu verstehen kann das ja nicht sein.

Ich sage das ein HBM1 wie im Fiji sicher kleiner als ein HBM2 kontroller ist, mehr und nicht weniger habe ich gesagt.

Der_Korken
2016-05-09, 11:16:58
Polaris wird wohl keinen sonderlich hohen DP-Durchsatz bekommen. Im Gegensatz dazu wird Vega den aber benötigen, wenn AMD diese auch im professionellen HPC-Markt platzieren will. Das wird sich auch aufs Transistorenbudget niederschlagen. Wie stark, weiß ich nicht, jedoch ist es auffällig, dass z.B. Hawaii mit hoher DP-Leistung auch recht groß war.


Eigentlich war Hawaii gar nicht so groß. Das Verhältnis SP/mm^2 war etwa so groß wie das von Pitcairn und sogar besser als das von Tonga und Tahiti. Dazu hatte Hawaii auch ein entsprechend großes SI. Auch GK110 war bei SP/mm^2 kaum schlechter als GK104. Oder wäre 1:2 DP nochmal so viel teurer als 1:3 bzw 1:4?

ChaosTM
2016-05-09, 11:19:20
Was ich dabei nur nicht verstehe... wenn es jetzt schon von NV einen Deppenaufschlag gibt... warum sollten die Händler sich davon beeindrucken lassen und auf einen verzichten? Sprich... gibt es dann einen ~200$ Deppenaufschlag? ;D

Jop ;)

Thunder99
2016-05-09, 11:26:01
Also bei den Maxwell2.0 Karten wird empfohlen erst alle 3 DP zu nehmen, wenn man nur einen HDMI oder DVI Monitor hat, diese halt mit DP-adapter zu betreiben.
Ich denke nicht das es mit der GTX1080 anders ist, ich finde es Witzig das sie immernoch ein DVI beigepackt haben, so wird der Kunde zum "falschen" anschliessen regelrecht verleite.
Und bei Fiji hat man den weg gelassen und es wurde sich darüber beschwert ;)

Nutze selber immer noch DVI da ich ein BenQ GL2450 betreibe wo HDMI Null sind macht da nur eine Bildausgabe erfolgt

Gipsel
2016-05-09, 11:27:37
Polaris wird wohl keinen sonderlich hohen DP-Durchsatz bekommen. Im Gegensatz dazu wird Vega den aber benötigen, wenn AMD diese auch im professionellen HPC-Markt platzieren will. Das wird sich auch aufs Transistorenbudget niederschlagen. Wie stark, weiß ich nicht, jedoch ist es auffällig, dass z.B. Hawaii mit hoher DP-Leistung auch recht groß war.Vielleicht solltest Du noch mal Deine Zahlen checken. Hawaii mißt 438mm² mit halfrate-DP, ECC-Support im Speichercontroller und allen SRAM-Arrays (Register, Caches, LDS), doppeltem Frontend und 512Bit-Interface und doppelt so vielen ROPs. Skaliere das mal linear von Pitcairn (1/16) oder Tahiti (1/4)! Du wirst Mühe haben, überhaupt einen überproportionalen Zuwachs zu identifizieren ;). Oder ich mache das mal gleich für Dich.

Hawaii/Tahiti:
44/32 = 1,375
438/352 = 1,24 Oops!

Hawaii/Pitcairn:
44/20 = 2,2
438/ 212 = 2,07 Nochmal oops!

Merke: Größere Chips wachsen typischerweise etwas langsamer als linear, weil einige Dinge eben nicht mitskalieren (PCI-Express-Interface, Display-Engine und so'n Zeug), falls das nicht durch deutlich aufwendiger skalierende Dinge (wie eher quadratisch skalierende Crossbars) überkompensiert wird. Die half-rate DP-Implementation bei GCN fällt ganz offensichtlich schon mal nicht darunter (eher schon das riesige 384Bit-Interface von Tahiti, weswegen das ein gewisser Outlier nach oben ist, trotz nur 1/4rate DP [was sehr einfach und billig zu implementieren ist mit multiprecision ALUs wie bei GCN]).
500mm^2 waren evtl. etwas zu hoch geschätzt, dann sagen wir mal, dass AMD auch wie bei NV auf 450mm^2 kommt, bei etwa 3840/4096 ALUs.Aufgrund obiger Gründe streue ich öffentlich Asche auf mein Haupt, falls AMD deutlich mehr als 400mm² für 4096SPs benötigen wird, wenn sie gleichzeitig 2560SPs in 232mm² hineinbringen. Das geht schlicht nicht auf, selbst mit half-rate DP. Aller Voraussicht nach bleibt das Vega10 Die locker unter 400mm².
Aufgrund GCN wird bei NV der Takt aber wieder deutlich höher sein, ebenso der Boost, ALU für ALU ist NV also schneller. AMD kann das nur über noch mehr ALUs (die auch ausgelastet werden müssen) lösen oder mehr Takt. Insofern kommt man dann eben wohl eher deutlich Richtung >400mm^2.Was? Deswegen werden 4096SPs, welche die Grundlage der Diskussion waren, auch nicht größer.
Die GCN-ALUs sind schlicht kleiner (wenn man ALUs für mehr Takt auslegt, werden sie typischerweise größer, so ganz allgemein ;)), weswegen AMD eben auf gleicher Fläche mehr unterbringen kann. Was am Ende mehr Performance pro Fläche (oder auch Watt) liefert, werden wir sehen müssen.
Und dann soll es laut Spekulationen ja auch noch einen größeren Vega geben, der müsste (dass es sich lohnt) dann die 600mm^2 ausreizen und das wird richtig teuer.Du schwenkst also auf "unsere" Argumentation um, daß über Vega10 mit <=400mm² noch locker Platz für einen Top-Dog mit etwa 50% mehr ALUs (also ~6144 SPs) wäre? Okay. Dann hättest Du Dir den Rest aber auch sparen können. ;)

====================

Du stellst deine/eure Spekulationen wie Tatsachen hin und verbietest anderen das Wort?Nö. Es wurden mit Fakten untermauerte Argumente genannt, warum die Einwände unsinnig sind und erwähnt, daß die Diskussion langsam wirklich im OT entschwindet.
Sollte dein obiger Beitrag nicht als Mod verfasst sein, werde ich ihn melden.Du kannst melden, was Du willst.
Es macht keinen Sinn einen winzigen Die auf einem 60nm Interposer zu verpflanzen. Ich finde deine Anmaßung und Behauptung ziemlich daneben. Woher willst du das nur wissen.Kein Mensch versteht das, was Du da schreibst. Was ist der winzige Die, welche Rolle spielt es, ob der Interposer in 65nm produziert wird oder etwas Anderem?
Selbst die 2Gb HBM2 Stacks sind größer und müssen Platz finden und angebunden werden.größer als was? Und warum spielt das für irgendwas hier eine Rolle?
Meine zwei Beiträge das Thema betreffend, kippen die Theorien und Spekulationen des Threads nicht. Da Du mich aber persönlich angreifst, sehe ich auch keine weitere Diskussionsgrundlage das Thema betreffend.Wenn Du es nicht verträgst, daß Dir in einer Diskussion gesagt wird, daß ein Einwand von Dir nicht relevant ist oder in sich nicht schlüssig, dann suche besser erst gar keine Diskussion.
Den einzigen reinen 14nm FF Prozess in Fertigung betreibt Intel. Das Design ist dementsprechend entworfen. Den Rest überlasse ich Dir und deinen vagen Behautungen.Intel und deren Prozesse ist hier völlig irrelevant.

Wenn Du Bedarf für einen weiteren Austausch siehst, kannst Du mich gerne per PN kontaktieren.

Gipsel
2016-05-09, 11:30:04
Was unterstellt du mir da genau? so schwer zu verstehen kann das ja nicht sein.Aber offensichtlich ist es schwer, der weiter vorne aufgemachten Argumentation zu folgen. Solange das Interface zu zwei HBM2-Stacks nicht deutlich größer als ein 384Bit-GDDR5-Interface ist, bleibt das HBM-Interface im Vergleich platzsparend. Case closed. Der Rest ist irrelevant.

Asmi Meo
2016-05-09, 11:50:46
Aber offensichtlich ist es schwer, der weiter vorne aufgemachten Argumentation zu folgen. Solange das Interface zu zwei HBM2-Stacks nicht deutlich größer als ein 384Bit-GDDR5-Interface ist, bleibt das HBM-Interface im Vergleich platzsparend. Case closed. Der Rest ist irrelevant.
Die Thematik passt hier komplett nicht, auch der schon angesprochene spekulative Flächenvergleich. Nur wie kommst Du darauf das AMD im Gegensatz zu anderen, bei Vega 10 nur 2 Stacks anbinden will. Polaris hat kein solches SI. Das wäre derzeit kostenmäßig irrwitzig. HBM hast du selbst dabei ins Gespräch gebracht. Bitte trenne demnächst deine Mod und Memberbeiträge deutlicher. Danke.
*Offtopic off*

Isen
2016-05-09, 11:52:45
Wurde das schon gepostet?

http://forums.guru3d.com/showpost.php?p=5269439&postcount=126

Gipsel
2016-05-09, 11:53:51
Die Thematik passt hier komplett nicht, auch der schpn angesprochene spekulative Flächenvergleich. Nur wie kommst Du darauf das AMD im Gegensatz zu anderen, bei Vega 10 nur 2 Stacks anbinden will. Polaris hat kein solches SI. Das wäre derzeit kostenmäßig irrwitzig.Informiere Dich bitte über den aktuellen Stand der Spekulationen bevor Du Blödsinn schreibst! Polaris kommt vermutlich mit 2560SPs und 256Bit GDDR5(X?)-Interface, Vega 10 mit 4096SPs und 2 HBM2-Stacks. Dies ist die Grundlage, von der Alle ausgegangen sind. Was Du für irrwitzig hältst und ob es das ist, sind zwei verschiedenen Dinge. Immerhin hat AMD explizit HBM2 für Vega bestätigt.

Gipsel
2016-05-09, 12:00:07
Wurde das schon gepostet?

http://forums.guru3d.com/showpost.php?p=5269439&postcount=126
Nicht das ich wüßte. Der Vorteil gegenüber der 980Ti ist ja überschaubar.
Aber enthielt der nV-Pfad nicht eine angepaßte Nutzung für AC (also eher keine)? Kann mich nicht mehr genau erinnern. Falls das so ist, wäre interessant, falls man die AC-Nutzung wie im Radeon-Pfad erzwingen könnte (bzw. auf einen Patch warten).

Edit: Das war ja eine 1525Mhz 980Ti. Dann ist das ja richtig ordentlich!

igg
2016-05-09, 12:13:07
Wurde das schon gepostet?

http://forums.guru3d.com/showpost.php?p=5269439&postcount=126
Hier ist die 1080 knapp vor der 980 Ti. Für die 1070 dürfte damit 980 Ti Performance wohl eher die cherry picked Ausnahme sein.

AnnoDADDY
2016-05-09, 12:15:57
Hier ist die 1080 knapp vor der 980 Ti. Für die 1070 dürfte damit 980 Ti Performance wohl eher die cherry picked Ausnahme sein.
Als ob jede 980ti 1525mhz schafft. 1300mhz sind realistisch dann hast du ganz schnell, dass die 1070 die 980ti @stock packen kann. Mit OC auf jeden Fall!

dargo
2016-05-09, 12:23:07
Polaris wird wohl keinen sonderlich hohen DP-Durchsatz bekommen. Im Gegensatz dazu wird Vega den aber benötigen, wenn AMD diese auch im professionellen HPC-Markt platzieren will. Das wird sich auch aufs Transistorenbudget niederschlagen. Wie stark, weiß ich nicht, jedoch ist es auffällig, dass z.B. Hawaii mit hoher DP-Leistung auch recht groß war.

Noch wissen wir nicht was AMD mit zwei Vegas vor hat. Es soll ja einen "kleinen" und einen großen Vega geben. Möglicherweise ist nur der Große für HPC vorgesehen. Auf der anderen Seite kann ich deiner Rechnung immer noch nicht folgen. Hawaii ist mit einem breiteren SI und 37,5% mehr Shader nur 20% größer als Tahiti. Oder hat Tahiti hohen DP-Durchsatz? Da muss ich passen. Von mir aus kann man aber auch Hawaii mit Pitcairn vergleichen. Hawaii hat bei 107% größeren Fläche 123% mehr Shader. Und das bei doppelt so breiten SI.

Asmi Meo
2016-05-09, 12:23:39
NVidia wird vermutlich mit der stärkeren CPU gebencht haben und von den Werten ausgegangen sein. Ob generell und nur DX12 Performance gemeint war ist fraglich. Ich würde offizielle Tests abwarten. Vor allem weiß man nicht wie Customs den Takt halten können. Die FE wird ja nicht nur preislich jedermans Geschmack sein. Auf die Tester dürfte viel Arbeit warten.

scully1234
2016-05-09, 12:26:11
Hier ist die 1080 knapp vor der 980 Ti. Für die 1070 dürfte damit 980 Ti Performance wohl eher die cherry picked Ausnahme sein.

Vor einer auf 1,5GHZ getakteten 980 TI das ist wohl ein ''feiner'' Unterschied zur Standardtaktrate:wink:

Troyan
2016-05-09, 12:27:15
Im "Average" sind es 35% unter DX12 mehr als die GTX980TI: http://www.overclock3d.net/reviews/gpu_displays/ashes_of_the_singularity_pc_performance_review/10

Jedoch muss man sagen, dass "Crazy" auf der GTX980TI nicht skaliert...

dargo
2016-05-09, 12:35:29
Wurde das schon gepostet?

http://forums.guru3d.com/showpost.php?p=5269439&postcount=126
Wenn man jetzt den Nachteil von Async-Compute bei Maxwell (ich gehe davon aus, dass Pascal bei AC nun nicht langsamer ist) herausrechnet und die etwas schnellere CPU bei Pascal läufts wohl auf Gleichstand hinaus. War das eine Default 980TI?

Edit:
Ehm... Moment, warum ist bei der CPU Framerate die eigentlich langsamere CPU schneller? :confused:

Isen
2016-05-09, 12:36:52
War das eine Default 980TI?


1525MHz Core & 3950Mhz Memory

dargo
2016-05-09, 12:40:53
1525MHz Core & 3950Mhz Memory
Danke... dann siehst wiederum gut aus.

Palpatin
2016-05-09, 12:44:07
Hier ist die 1080 knapp vor der 980 Ti. Für die 1070 dürfte damit 980 Ti Performance wohl eher die cherry picked Ausnahme sein.
Die 980Ti ist doch in dem Bench um ~35% übertaktet und die ?Stock 1080 ist immer noch um ~10% schneller? Dürfte dann locker für 1070 reichen um vor die Stock 980ti zu kommen.
OC 980ti vs OC1070 ist ein anderes Thema, hier könnte der 1070 die Bandbreite zum Verhängnis werden. Daher finde ich diesesmal auch den Aufpreis zur 1080 gerechtfertigt und passend.

Troyan
2016-05-09, 12:47:23
Mit 6,5TFLOPs liegt die GTX1070 auf Titan X Niveau (1100MHz). Man sollte nicht vergessen, dass die GTX1070 wohl mit knapp 200MHz weniger Takt als die GTX1080 kommen werde. Das Übertaktungspotential kann hier also riesig sein. Die Bandbreite könnte limitierend, aber Spielentwickler sollte auch langsam anfangen auf effizientere Techniken zu setzen, da Bandbreite kaum noch gesteigert werden kann.

Isen
2016-05-09, 12:48:17
Hier nen Update von ihm:

http://forums.guru3d.com/showpost.php?p=5269446&postcount=127

Ätznatron
2016-05-09, 12:49:15
Die 980Ti ist doch in dem Bench um ~35% übertaktet und die ?Stock 1080 ist immer noch um ~10% schneller? Dürfte dann locker für 1070 reichen um vor die Stock 980ti zu kommen.
OC 980ti vs OC1070 ist ein anderes Thema, hier könnte der 1070 die Bandbreite zum Verhängnis werden. Daher finde ich diesesmal auch den Aufpreis zur 1080 gerechtfertigt und passend.


Ich wäre allein schon wegen der unterschiedlichen CPUs sehr vorsichtig, daraus irgendwelche Leistungsprognosen abzuleiten.

Ein Fake ist auch nicht auszuschließen.

tm0975
2016-05-09, 12:59:56
das oc-potential der 1070 wird bei 256-bit gddr5 ohne x wahrscheinlich nur die effizienz drücken. mehrleistung erwarte ich da in spielen keine nennenswerte.

viel spannenden finde cih die frage, ob nvidia die 4k-schwäche angegangen ist. mich persönlich interessiert alles darunter nicht so doll.

Godmode
2016-05-09, 13:00:04
Damit wäre endlich geklärt was die Founders-Edition ist:
http://www.computerbase.de/2016-05/geforce-gtx-1080-founders-edition/

Teurere Karte für die ungeduldigen Early Adopters. Keine speziellen Chips, Bauteile, etc.

igg
2016-05-09, 13:03:48
Damit wäre endlich geklärt was die Founders-Edition ist:
http://www.computerbase.de/2016-05/geforce-gtx-1080-founders-edition/

Teurere Karte für die ungeduldigen Early Adopters. Keine speziellen Chips, Bauteile, etc.
Ab dem 10. Juni ist das Referenzdesign zur Preisempfehlung von 449 US-Dollar zu haben, danach folgt der eigentliche Marktstart für 379 US-Dollar.
D. h. später gibt es ein Ref.design für 379 USD? Oder einfach schlechtere Billigkarten und das Ref.-design bleibt bei 449?

dargo
2016-05-09, 13:05:04
Die Bandbreite könnte limitierend, aber Spielentwickler sollte auch langsam anfangen auf effizientere Techniken zu setzen, da Bandbreite kaum noch gesteigert werden kann.
Was bitte? :uconf3:

scully1234
2016-05-09, 13:06:16
according to NVIDIA’s figures – up to 50% faster than the GTX980Ti in extreme situations (we expect an average of 40% performance boost). (http://www.dsogaming.com/news/report-nvidia-gtx1080-is-up-to-50-faster-than-the-gtx980ti/)

dargo
2016-05-09, 13:07:35
Hier nen Update von ihm:

http://forums.guru3d.com/showpost.php?p=5269446&postcount=127
Lol... jetzt war die 1080 übertaktet? Was ein Chaos. :freak:

fondness
2016-05-09, 13:08:29
Hier nen Update von ihm:

http://forums.guru3d.com/showpost.php?p=5269446&postcount=127

GTX1080 war also auch Oced.

Troyan
2016-05-09, 13:08:56
Die GTX1070 hat 100% der Rechenleistung von Titan X aber nur 66% bzw. 76% der Bandbreite.

Bandbreitensteigerungen sind limitiert. Die Rechenleistung wird deutlich schneller erhöht.

Skysnake
2016-05-09, 13:12:33
GTX1080 war also auch Oced.
Wenn ich das jetzt richtig einordne, dann wäre das aber schon ziemlich bitter, da es dann wohl keinen/kaum einen Grund zum Wechseln geben würde für GK100 Besitzer.

Oder?

Isen
2016-05-09, 13:13:47
Zumindest für diejenigen die eine ti besitzen die sich schön hoch takten lässt bzw. TX mit WaKü oder schieß mich tot.
Wenn entsprechendes zutrifft.

Die Karte spricht mich für meine Szenarien absolut nicht an, da 8GB zu wenig sind.

Blediator16
2016-05-09, 13:22:02
http://www.ashesofthesingularity.com/metaverse#/personas/4a36165f-4e15-4c4f-af35-7340095285f5?ladderId=x

Hier die Werte direkt auf der Seite.

BigKid
2016-05-09, 13:24:38
Wenn ich das jetzt richtig einordne, dann wäre das aber schon ziemlich bitter, da es dann wohl keinen/kaum einen Grund zum Wechseln geben würde für GK100 Besitzer.

Oder?
Das war doch auch in der Vergangenheit meistens so, dass es für Besitzer des Dick-Schiffes keinen (einigermassen vernünftigen) Grund gab auf was anderes als das nächste Dick-Schiff zu wechseln - oder ? Und GP104 ist eines sicher nicht - das nächste Dickschiff...
Also Abwarten was GP100 denn als GamingChip so bringt - wenn er denn überhaupt kommt...
Oder ob sie oberhalb von GTX1080 doch noch was auflegen (GP102) ...
Vlt. kommt sowas ja auch erst mit GP20X ...

scully1234
2016-05-09, 13:27:39
Wenn ich das jetzt richtig einordne, dann wäre das aber schon ziemlich bitter, da es dann wohl keinen/kaum einen Grund zum Wechseln geben würde für GK100 Besitzer.

Oder?

The retail no-oc 1080 most likely delivers 47.3FPS while my 980-Ti hits 46FPS


Default immer noch schneller als eine 1,5ghz taktende TI;)

Ätznatron
2016-05-09, 13:37:09
Default immer noch schneller als eine 1,5ghz taktende TI;)

Aber wenn's ans Übertakten geht:

46 OC 980 Ti FPS vs 50 OC 1080 FPS.

Nicht gerade der Hammer.

uweskw
2016-05-09, 13:40:52
Wenn ich das jetzt richtig einordne, dann wäre das aber schon ziemlich bitter, da es dann wohl keinen/kaum einen Grund zum Wechseln geben würde für GK100 Besitzer.

Oder?

nein, besser man wartet auf den grßen Bruder.

greetz
US

scully1234
2016-05-09, 13:47:56
http://videocardz.com/59725/nvidia-gtx-1080-polaris-10-11-directx12-benchmarks

Ätznatron
2016-05-09, 13:58:26
http://videocardz.com/59725/nvidia-gtx-1080-polaris-10-11-directx12-benchmarks

Das schreit doch förmlich nach Fake.

Sorry, aber da glaube ich nichts von.

ChaosTM
2016-05-09, 14:06:00
Mich interessiert hauptsächlich die 2160er Performance. Da Nvidia 2560*1600 gewählt hat und nicht von der schnellsten 4K Karte ever sprach, erwarte ich mir hier nicht allzu viel.
Ich lasse mich aber gerne eines besseren belehren, wenn ich zumindest +30% auf meine 980ti bekomme. (1460/3900). :)

Blediator16
2016-05-09, 14:06:19
Kann man die Karten denn so faken für die Ergebnisse auf deren Seite?