PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25 26

Bringhimup
2016-05-07, 05:03:16
option b klingt dann schon realistischer. ansonsten könnte man durch oc zu deutlich an (oder auch über) die gtx1080 kommen

also 2 cluster deaktiviert und nicht nur einer

Vergesst den Speicher nicht. Könnte sein, dass sie trotz viel GPU OC trotzdem verhungert, weil der Speicher schon zu früh an der Kotzgrenze ist. Ist ja nur normaler GDDR5.

Nightspider
2016-05-07, 05:04:17
@Nightspider


Durchgesickert? Wo?

Bin mir nicht sicher aber ich glaube das stand in einer News zum Dell OLED Monitor, welcher ja bekanntlich 120Hz bietet.
Vielleicht war es auch irgendeine andere Meldung. kA, ich schreib mir meine Quellen nicht auf. ^^

Ist aber nur wenige Tage her das ich es gelesen habe, von da an war klar das Displayport 1.4 deutlich schneller Einzug halten wird als geplant.
Größere Änderungen bzgl. Dekodierung können aber neue Controller in den Monitoren verlangen.
Also es wird natürlich nicht jeder DP1.3 Controller auch 1.4 decoden können. Grafikkarten sind aber flexibel genug das man diese wohl auch so kurzfristig noch frisieren konnte. Das encoden kann die GPU ja sowieso schon.

Ravenhearth
2016-05-07, 05:06:14
Wie viel Speichertakt hat die 1070?

Troyan
2016-05-07, 05:06:47
2000MHz: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11024046&postcount=4711

2048 bei 1600 kommt aber nicht hin, das waeren schon ueber 6,5 TFLOPS (6,553 -> ~6,6).
Bei der 1080 rundet Nvidia ja auch schon grosszuegig auf (8,873 -> ~9000).

Wenn es ueberhaupt noch 2048 SP sind, wird der Takt also unter 1,6 GHz liegen.

Die Taktangabe war als Orientierung gedacht. Es kann gut sein, dass es mehr Cluster sind. Aber aus Yield-Gründen wären weniger und 1500MHz+ sinnvoller.

prinz_valium
2016-05-07, 05:06:47
Vergesst den Speicher nicht. Könnte sein, dass sie trotz viel GPU OC trotzdem verhungert, weil der Speicher schon zu früh an der Kotzgrenze ist. Ist ja nur normaler GDDR5.

schon klar. da muss man sich wirklich Gedanken machen
ich meine selbst die 780ti hatte mehr brandbreite als jetzt die 1080
500mhz mehr sollte der speicher schon auch noch beim übertakten mitmachen

werden dann ja tests zeigen. ich schätze ein bis zwei Wochen!?

Edgecrusher86
2016-05-07, 05:07:52
2,1 GHz unter Luft :eek:....puh....
351,9 GB/s mit GDDR5X OC immerhin. :)

Hier nochmal das Bild:

http://abload.de/thumb/gtx10801gjya.png (http://abload.de/image.php?img=gtx10801gjya.png)

in groß:
http://abload.de/img/gtx10801gjya.png


NV EVENT AUFZEICHNUNG TWITCH:
https://www.twitch.tv/nvidia/v/64989878

Sollte es jmd. verpasst haben. ;)

iuno
2016-05-07, 05:10:01
2000MHz: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11024046&postcount=4711
Da steht nichts zum Takt, nur die Speichermenge (8 GiB)

Ist eigentlich keiner ueberrascht, dass die dritte SKU fehlt? Ja, habe einige Tage verpasst... Ist das dann Mobile oder nur OEM?
Rahmenbedingungen wie GM204 (SI, Verbrauch), sollte doch im Notebook auch P10 alt aussehen lassen.

Troyan
2016-05-07, 05:11:33
Danke, stimmt.

/edit: Von nVidia's Pressrelease:

uperb Craftsmanship. Increases in bandwidth and power efficiency allow the GTX 1080 to run at clock speeds never before possible -- over 1700 MHz -- while consuming only 180 watts of power. New asynchronous compute advances improve efficiency and gaming performance. And new GPU Boost™ 3 technology supports advanced overclocking functionality. - See more at: http://nvidianews.nvidia.com/news/a-quantum-leap-in-gaming:-nvidia-introduces-geforce-gtx-1080#sthash.jc6bBxXZ.dpuf


Availability and Pricing
The NVIDIA GeForce GTX 1080 "Founders Edition" will be available on May 27 for $699. It will be available from ASUS, Colorful, EVGA, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, NVIDIA. Palit, PNY and Zotac. Custom boards from partners will vary by region and pricing is expected to start at $599.

The NVIDIA GeForce GTX 1070 "Founders Edition" will be available on June 10 for $449. Custom boards from partners are expected to start at $379.
- See more at: http://nvidianews.nvidia.com/news/a-quantum-leap-in-gaming:-nvidia-introduces-geforce-gtx-1080#sthash.jc6bBxXZ.dpuf

Ravenhearth
2016-05-07, 05:18:04
Für die 1070 erwartbar sind 7 bis 8 Gbps - bei ersterem hätte die 1080 noch 40% mehr Bandbreite, was zur Rohleistung perfekt passen würde, bei 8 Gbps nur noch 25% mehr.

Wake
2016-05-07, 05:19:27
http://abload.de/img/ch0gcp5xiaak1xp3gyw4.jpg
SLI HB Bridge in Aktion

http://www.techpowerup.com/img/16-05-07/43aa.jpg
Backplate auf der 1080@TPU (http://www.techpowerup.com/222283/nvidia-geforce-gtx-1080-reference-pictured-just-1-power-connector)

KHJ
2016-05-07, 05:20:33
Vielleicht heben sie sich die 1060 auf bis AMD mit Polaris rauskommt und passen die dann einfach an :biggrin: .

Troyan
2016-05-07, 05:22:58
Für die 1070 erwartbar sind 7 bis 8 Gbps - bei ersterem hätte die 1080 noch 40% mehr Bandbreite, was zur Rohleistung perfekt passen würde, bei 8 Gbps nur noch 25% mehr.

Die Leaks haben 8 Gbps gezeigt. Macht an meisten Sinn, da die Karte mehr Rohleistung besitzt als eine Titan X.

BiZiNiZz
2016-05-07, 05:23:07
Für die 1070 erwartbar sind 7 bis 8 Gbps - bei ersterem hätte die 1080 noch 40% mehr Bandbreite, was zur Rohleistung perfekt passen würde, bei 8 Gbps nur noch 25% mehr.


Im Livestream lief die 1080 wohl mit 10 Gbps, aber übertaktet auf 11Gbps

iuno
2016-05-07, 05:28:20
Die Leaks haben 8 Gbps gezeigt. Macht an meisten Sinn, da die Karte mehr Rohleistung besitzt als eine Titan X.

Nein, eine TX hat mehr rohleistung.

Denke auch, dass 7 Gbps stimmen. Passt einfach zum Verhältnis und sorgt für gesunden Abstand, gerade wenn Architektur und Prozess so taktfreudig sind

dildo4u
2016-05-07, 05:46:19
http://nvidianews.nvidia.com/news/a-quantum-leap-in-gaming:-nvidia-introduces-geforce-gtx-1080

Pascal hast verbesserte asynchron Compute Performance.Steht unter Superb Craftsmanship.

Troyan
2016-05-07, 05:47:58
Nein, eine TX hat mehr rohleistung.


Nicht in powerhungrigen Spielen - in Anno taktet die Karte auf 1034MHz herunter: http://www.hardware.fr/articles/935-21/specifications-gpu-boost-pratique-oc.html

Dural
2016-05-07, 06:22:45
Ja sieht doch ganz nett aus :)

So wo sind die ganzen profis betreffend von wegen 2ghz blödsinn und so?

Chris Lux
2016-05-07, 06:55:34
Founder's Edition?

Akkarin
2016-05-07, 07:35:48
D.h. letzendlich ist die 1080 etwa ~2/3 schneller als eine 980, und etwa 1/3 schneller als eine 1070. Effizienzsteigerung irgendwo zwischen 10 und 90%.

Ist jetzt nicht schlecht, vor allem da die 1070 unter dem 980er preis liegt, ist jetzt aber auch nicht so extrem wie einige (vor allem auf reddit) machen.

TheCounter
2016-05-07, 07:59:42
Ich glaube ich schicke meine zwei GTX 780 in Rente und hol mir erstmal eine 1080 :D

Troyan
2016-05-07, 08:01:04
TDP der Referenz-GTX1070 müsste bei ~130W liegen - immerhin 28% weniger Leistung bei 20-30% weniger Bandbreite.

Das wäre dann doch schon beeindruckend und entspreche knapp 56% des Stromverbrauches der GTX980TI.

igg
2016-05-07, 08:02:55
Die 1070 > 980 Ti Aussage bezieht sich auf die Foundry Edition?

Skysnake
2016-05-07, 08:04:21
Nett.

27er Launch ist natürlich eine Ansage. Hoffen wir, dass die Verfügbarkeit auch gut ist.

Zu ihren eigenen Vorgängern haben Sie sich wohl wirklich ziemlich gut plaziert.

Das man aber eine neue SLI-Bridge bringt ist etwas verwunderlich.

Mal schauen, wie die Preise am Ende wirklich ausfallen, denn darauf kommt es an. AMD muss jetzt aber auf jeden Fall in der nächsten Woche die Hosen runter lassen. Ansonsten werden Sie im Juni so manchen Käufer verlieren im Retailmarkt.

Wobei Juni jetzt auch nicht der Knallermonat ist um GPUs zu verkaufen.

kdvd
2016-05-07, 08:19:25
Das man aber eine neue SLI-Bridge bringt ist etwas verwunderlich.

Verwunderlich?!
Doppelte Bandbreite, durch (wahrscheinlich) mehr Pins, was ist daran verwunderlich?!

SamLombardo
2016-05-07, 08:19:56
Wie sieht es dann mit DX12 Asyncrounous Shader aus? Irgendwelche Architekturverbesserungen? Gibt es dazu schon eine Info?

Ätznatron
2016-05-07, 08:32:33
Die Frage ist ob Pascal die selbe Asnychron Compute Schwäche hat,das ist bei der 970 echt nervig sobald das aktiv ist wird die GPU nich mehr voll ausgelastet ,das kann man sogar beim Afterburner ablesen.

Damit steht und fällt die ganze Sache.

Pascal hast verbesserte asynchron Compute Performance.Steht unter Superb Craftsmanship.

Sollte da nichts wirklich Durchgreifendes passiert sein, fällt Pascal durch, wird aber als vermutlich schnellste DX11 GPU-Architektur in die Geschichte eingehen.

Wie sieht es dann mit DX12 Asyncrounous Shader aus?

Hm, da wurde wenig zu gesagt, ein bisschen zu wenig für meine Begriffe.

DX11 hui, DX12 pfui?

tdon
2016-05-07, 08:39:57
Das sind grob 70-80% in den beiden Spielen gegenüber einer 980, wer hätte das gedacht? Selbst wenn es +50% im Schnitt letztlich wären, wäre das eine richtige Hausnummer. Die 980 war damals zum launch nur ein kleines update zur 780 Ti (mit heutigen Treibern sicher mehr).

Die GTX 1070 dagegen könnte dagegen ein richtig sparsames Kärtchen werden und sich richtig gut verkaufen. Nur Schade das der Euro so erbärmlich zum Dollar steht.

Cubitus
2016-05-07, 08:40:43
GP104 ist eine verdammt schnelle und sehr effiziente GPU, Punkt.

Außerdem es kommt immer darauf an wie die Devs das DX12 implementieren.
Ashes of the Singularity ist eben ein auf AMD optimiertes Spiel was eben genau in die Wunde sticht wo Nvidia schwächelt.

Mal abwarten..

Das sind grob 70-80% in den beiden Spielen gegenüber einer 980 Ti, wer hätte das gedacht? Selbst wenn es +50% im Schnitt letztlich wären, wäre das eine richtige Hausnummer. Die 980 war damals zum launch nur ein kleines update zur 780 Ti (mit heutigen Treibern sicher mehr).


Ja man fühlt sich direkt an alte Zeiten erinnert wo ein GPU Update eine deutliche Verbesserung brachte..

woodsdog
2016-05-07, 08:53:10
GP104 ist eine verdammt schnelle und sehr effiziente GPU, Punkt.

Vermutlich.
Warten wir mal tests ab wie gut es am Ende wirklich ist. Marketing ist hier wie da keine verlässliche Aussage.
Dein "Punkt" kannste dir sparen, als ob damit irgend ein Fakt zemmentiert wäre.


Außerdem es kommt immer darauf an wie die Devs das DX12 implementieren.
Mal abwarten..


[ ] Du hast verstanden was Async Compute ist / es funktioniert

fondness
2016-05-07, 08:53:49
Da lag ich mit den 180 Watt ja goldrichtig :-). Die Taktraten sind allerdings höher als gedacht, die Leistung liegt allerdings im Rahmen. Ganz klar ist mir nicht, warum man die Spezial Edition kaufen sollte. Dp1.4 ist eine positive Überraschung.

Akkarin
2016-05-07, 08:54:45
Ist bekannt wie groß der Die ist ?

BlacKi
2016-05-07, 09:01:00
Ja man fühlt sich direkt an alte Zeiten erinnert wo ein GPU Update eine deutliche Verbesserung brachte..

ist doch so abgelaufen wie erwartet, ausser das ich beim bf1 event eingepennt bin, weils spiel kacke ist.

das ich mit meiner annahme von 2ghz sweetspot etwas daneben lag, scheint eher 2,1ghz + zu sein, freut mich.

mehr als 400€ wollte ich aber nicht ausgeben für die 1070 (falls sie auf meinen gtx 670/970 wakü block passt), ich denke nach 1-2 monaten bekomme ich meine titan X leistung für sub 400€, vl mit OC etwas schneller^^

das die 1080 schneller ist als eine 980 sli ist doch garnichts besonderes, das war doch zu erwarten bei dem schlechten support von sli und nur 4gb der 980.

da bin ich froh das es wenigstens etwas neues interessantes gestern gab, nach dem fail von bf1.

nordic_pegasus
2016-05-07, 09:07:06
sind die 2560 Shader in der GTX1080 der Vollausbau des Chips oder schlummern da in Wirklichkeit mehr Einheiten?

AnarchX
2016-05-07, 09:12:54
Da es 7.2 Mrd. Transistoren auf ca. 300mm² sind und die GTX 1080 eine GP104-400 GPU hat, sollte dies der Vollausbau sein.

Schrotti
2016-05-07, 09:13:49
Ich werde erst mal abwarten ob in 4K vernünftige fps rumkommen.

Hätte ja nicht gedacht, das Pascal so eine Schippe oben rauf legt.

fondness
2016-05-07, 09:14:59
Ich werde erst mal abwarten ob in 4K vernünftige fps rumkommen.

Hätte ja nicht gedacht, das Pascal so eine Schippe oben rauf legt.

20% über Titan x liegt absolut im Rahmen, was hast du denn erwartet? Die tdp liegt zudem mit 180 Watt über der gtx980. Effizienzsteigerung damit unter 70%, also ziemlich genau das was auch erwartet wurde. Gibt es offizielle Angaben zur die size?

Jupiter
2016-05-07, 09:16:44
Wenn die Founders Version der GTX 1080 so Preisintensiv ist, wie sieht es dann mit einer GTX 1080Ti aus? 1300 Euro?

Zergra
2016-05-07, 09:18:17
Bis die 1080Ti auf den Markt kommt, sind die Preise doch schon gefallen. Vor Ende 2016 Anfang 2017 rechne ich nicht damit.

dargo
2016-05-07, 09:19:08
Wurde irgendwas zu Adaptive-Sync gesagt?

victore99
2016-05-07, 09:19:24
Moment. 70% bis 80% nach den offiziellen Marks schneller als 980. Okay, war durch den Fertigungssprung zu erwarten.
Aber 180W? WTF? Im Vergleich zur 980 sogar rund 10% mehr. Damit hat NV zwischen 60% und 75% mit der Effizienz zugelegt.
Erinnert mich ziemlich genau an die TSMC -Werte zum Sprung auf FinFET. Liege ich da richtig?

Außerdem passen die 180W perfekt zur NV-Logik von den Maxwell-Chips: demnach dürfte es einen Chip geben mit 1280 Einheiten @128bit, vermutlich GP106. Grob auf 970-Niveau. Und dann noch einen mit 3840 Einheiten @384bit, vermutlich GP102.

AnarchX
2016-05-07, 09:20:01
Wenn die Foundry Version der GTX 1080 so Preisintensiv ist, wie sieht es dann mit einer GTX 1080Ti aus? 1300 Euro?
Die wird wohl nicht vor 2017 erscheinen und bis dahin entscheidet die Konkurrenzsituation durch Vega mit über den Preis.

Mal sehen ob Tests der Founder-Edition wirklich eine höhere Qualität gegenüber den Custom-Versionen ab $599/379 nachweisen können oder ob es nur das neue Kühlerdesign ist.

The_Invisible
2016-05-07, 09:30:17
Goiler Event und Kärtchen :biggrin:

Mit 8Gb erschlägt man auch die dämlichsten Konsolenportierungen die alles in den VRAM auslagern wollen. Wenn dann noch Async-Compute verbessert wurde und anscheinend ein gutes OC Potential vorhanden ist kann man nicht meckern.

Wenn die 1070 für so ~400EUR erhältlich ist und die Punkte stimmen steige ich gerne um. Die 1080 scheint ja leider in 980Ti Regionen angesiedelt zu sein, das ist für mich einfach zu viel.

Achill
2016-05-07, 09:37:01
Schau das Event gerade mit 1.5x Geschwindigkeit an, bis jetzt alles Interessant soweit.

Bei ~57:40 wird über Power-Efficiency gesprochen. Dort wird genannt, dass die 1080 mit 1V laufen wird und bis zu 300A ziehen kann. Das passt nicht zu 180W oder ist hier die OC Variante (Founders Edition?) gemeint oder Max.Peaks?

Radeonfreak
2016-05-07, 09:37:23
Das klingt alles sehr gut. Gekauft. :)

Ist etwas über diese Founders Edition bekannt? Besserer Kühler, selektierte Chips? :confused:

Lurtz
2016-05-07, 09:48:57
Wurde irgendwas zu Adaptive-Sync gesagt?
Glaube nicht dass sich der alte und neue Marktführer dazu wird herablassen müssen.

Goiler Event und Kärtchen :biggrin:

Mit 8Gb erschlägt man auch die dämlichsten Konsolenportierungen die alles in den VRAM auslagern wollen.
Naja RotTR nimmt heute schon fast 8GB :ugly:

Gouvernator
2016-05-07, 09:49:27
Ich werde erst mal abwarten ob in 4K vernünftige fps rumkommen.


Genau das ist der Punkt. Irgendwelche uralt Spiele konnte man schon lange für das selbe Geld auch mit 2xGTX970 in 4K spielen. Um was es jetzt geht ist das man 4k durchgehend spielen kann. So zumindest meine Vorstellung wenn ich 600-700€ hinlegen soll. Sonst macht es ja keinen Sinn, ob ich in FullHD mit GTX970 @60 FPS bin oder mit 120 FPS mit GTX1080 (die dann eh runtergetaktet wird auf 60 FPS ;D).

Botcruscher
2016-05-07, 09:56:42
Leo hat doch schon einen 4K Index von ~130 geschätzt. Da könnt ihr einfach hochrechnen.

DP1.4 ist für mich eh eine echt positive Überraschung. 4K120Hz und Sync wir kommen.

Gipsel
2016-05-07, 09:57:30
Ganz klar ist mir nicht, warum man die Spezial Edition kaufen sollte.Wenn man früh eine haben will, muß man tiefer in die Tasche greifen. War schon immer so, jetzt greift halt nV auch etwas davon ab statt nur die Händler das Geschäft machen zu lassen. Für die normalen Versionen wurde ja kein Veröffentlichungsdatum angegeben, die werden also vermutlich ein paar Wochen auf sich warten lassen, bis das Geschäft mit den "Founder editions" seinen Peak überschritten hat (und/oder AMD mit Polaris kommt).

Skysnake
2016-05-07, 09:59:17
Was mich wundert ist, das keine anspricht, dass Sie den Powersupply ripple reduziert haben.

Das ist ziemlich entscheidend für ein Design. Wenn du da von deutlich kleineren Werten wie hier ausgehst, dann kannste an jeder Ecke was sparen. Die Frage ist halt nur, wo und wie Sie das erreicht haben.

Wenn es auf dem Board ist, dann haben Sie eben teurere Komponenten verbaut. Auf dem DIE wäre das wohl relativ Kostenneutral. Von der Effizienzgrafik rechts würde ich aber eher auf Board-Supply tippen.

Unter umständen sieht man hier allerdings auch die Früchte der integrierten Simulation von DIE+Package+PCB.

Auf jeden Fall geht ein nicht zu vernachlässigender Anteil der Effizienzsteigerung auf so etwas zurück.

Bösewicht
2016-05-07, 10:19:45
höhere preise = etwas mehr platz für amd(sofern sie wie angekündigt sich nicht an nvidia orientieren und preis nicht mit anziehen) aber der gewinn bleibt bei nvidia, keine schlechte Idee in einer zeit wo immer mehr 970/1070 oder mehr wollen.

schön auch die 8gb bei der kleineren da freu ich mich drauf.

PHuV
2016-05-07, 10:23:29
@Hübie und Co

Dann lagt Ihr mit den 699 € (für die Founders Edition) fast richtig. Aaaabbber:

http://www.computerbase.de/2016-05/geforce-gtx-1080-1070-vorgestellt/
Die GeForce GTX 1080 wird 599 US-Dollar kosten, die Founders Edition 699 US-Dollar (ohne Steuern).
Das heißt, es wird dann bei uns doch ca. 850 € kosten.

Wobei die Frage ist, ob sich 100 € mehr für etwas Overclocking wirklich lohnen? Bisher waren 20-50 € mehr bei diversen moderaten Abweichungen vom Custom Design drin. Das muß schon einen entsprechenden Mehrwert bieten.

fondness
2016-05-07, 10:26:30
höhere preise = etwas mehr platz für amd(sofern sie wie angekündigt sich nicht an nvidia orientieren und preis nicht mit anziehen) aber der gewinn bleibt bei nvidia, keine schlechte Idee in einer zeit wo immer mehr 970/1070 oder mehr wollen.

schön auch die 8gb bei der kleineren da freu ich mich drauf.

Naja, eigentlich ist nur die GTX1080 unverhältnismäßig teuer. Die GTX1070 für $379 kostet kaum mehr wie die Hälfte der GTX1080 und ist eine klare Ansage an AMD.

HOT
2016-05-07, 10:26:50
Die 1080 muss ja wie Hölle an der Speicherbandbreite hängen. Die Leistung ist wie erwartet. Ich hätte mit 2304 Shadern und mehr Takt und geringfügig weniger Rohleistung gerechnet, aber so ist das ja noch besser. Dafür verbraucht die ordentlich. Wenn NV da 180W dranschreibt zieht die sich bestimmt oft 200W, was ich für einen 980-Nachfolger in einem neuen Prozess schon ganz schön heftig finde - ist aber eben dem hohen Takt geschuldet, wo gehobelt wird, da fallen eben Späne. NV sah sich offenbar dazu genötigt über dem Sweetspot hinaus zu gehen, man schätzt die Bedrohung des Polaris offenbar sehr hoch ein.
Beim GP102 muss man dann halt mit 300W rechnen, wenn man so hoch taktet.

Korvaun
2016-05-07, 10:27:36
Wenn NV für die "Founders-Edition", die ja eigentlich nur die Referenzversion ist, wirklich 699$ verlangt, dann frag ich mich schon warum alle so begeistert sind. Preislich ist die 980Ti die Vorgängerkarte, und da ist der Leistungsabstand wirklich nicht sonderlich groß. 2 Punkte für die 1080 sind die 8GB und besseres DX12 (wenn es wirklich entscheidend besser ist). Ich sehe beim aktuellen Stand 980Ti und 1080GTX auf dem selben Niveau was Preis/Leistung angeht.

699$ werden wohl 799€ sein. 599$ wenigstens 649€, ich rechne in den ersten Monaten eher mit 699€. Ne günstige 980Ti für 600€ kommt da nicht schlecht weg...

Weitere Frage, wie "leise" ist der Radiallüfter? Nen Föhn für 799€ wäre echt die Krönung, ich traue das NV aber durchaus zu ;)

Wann kommt AMD mit Polaris 10 raus? Kann AMD damit an die 1070 rankommen?

Edit: Jetzt geht doch hoffentlich nicht auch bei Grafikkarten der Founders-Edition/Day-One-Edition/Early-Access-Edition Blödsinn los ???

fondness
2016-05-07, 10:30:40
Wenn man früh eine haben will, muß man tiefer in die Tasche greifen. War schon immer so, jetzt greift halt nV auch etwas davon ab statt nur die Händler das Geschäft machen zu lassen. Für die normalen Versionen wurde ja kein Veröffentlichungsdatum angegeben, die werden also vermutlich ein paar Wochen auf sich warten lassen, bis das Geschäft mit den "Founder editions" seinen Peak überschritten hat (und/oder AMD mit Polaris kommt).

Okay, das habe ich noch gar nicht gewusst, dann macht das ganze natürlich Sinn. Trotzdem dreist dafür eine eigenen Edition heraus zu bringen, mit dem Zweifelhaften Vorteil der Referenzkühlung und angeblich besseren Chips - was auch immer das bedeuten mag.

nordic_pegasus
2016-05-07, 10:35:39
Was mich wundert ist, das keine anspricht, dass Sie den Powersupply ripple reduziert haben.

Das ist ziemlich entscheidend für ein Design. Wenn du da von deutlich kleineren Werten wie hier ausgehst, dann kannste an jeder Ecke was sparen. Die Frage ist halt nur, wo und wie Sie das erreicht haben.

Wenn es auf dem Board ist, dann haben Sie eben teurere Komponenten verbaut. Auf dem DIE wäre das wohl relativ Kostenneutral. Von der Effizienzgrafik rechts würde ich aber eher auf Board-Supply tippen.


kann man dann auch Hoffnung haben, dass durch ein höherwertigeres Board-Design nebenbei auch die Spulenfiep-Thematik verbessert (eliminiert) wurde?

AffenJack
2016-05-07, 10:35:39
7,2 Milliarden Transistoren gegen 15,3 Milliarden bei GP100 zeigt auch wieviel HPC Ballast GP100 mit sich rum trägt. 47% der Transistoren bei 66% der Shader. Bin gespannt ob die Register Files da nicht doch wieder geschrumpft sind bei GP104 im Vergleich zu GP100. Irgendwoher müssen die Mehrtransistoren ja kommen.

ShinyMcShine
2016-05-07, 10:35:49
Okay, das habe ich noch gar nicht gewusst, dann macht das ganze natürlich Sinn. Trotzdem dreist dafür eine eigenen Edition heraus zu bringen, mit dem Zweifelhaften Vorteil der Referenzkühlung und angeblich besseren Chips - was auch immer das bedeuten mag.

NVIDIA will einfach was vom Kuchen abhaben. Ansonsten haben sich die Hersteller immer an den Launch-Preisen ein goldenes Näschen verdient...

Dural
2016-05-07, 10:35:55
Das ist einfach die referenz karte die wie immer zuerst kommt, nv verlangt dafür jetzt halt etwas mehr bis die partner karte kommen.

Hübie
2016-05-07, 10:35:57
Was mich wundert ist, das keine anspricht, dass Sie den Powersupply ripple reduziert haben.

Das ist ziemlich entscheidend für ein Design. Wenn du da von deutlich kleineren Werten wie hier ausgehst, dann kannste an jeder Ecke was sparen. Die Frage ist halt nur, wo und wie Sie das erreicht haben.

Wenn es auf dem Board ist, dann haben Sie eben teurere Komponenten verbaut. Auf dem DIE wäre das wohl relativ Kostenneutral. Von der Effizienzgrafik rechts würde ich aber eher auf Board-Supply tippen.

Unter umständen sieht man hier allerdings auch die Früchte der integrierten Simulation von DIE+Package+PCB.

Auf jeden Fall geht ein nicht zu vernachlässigender Anteil der Effizienzsteigerung auf so etwas zurück.

Kannst ja Power durch Kondensatoren loopen und Spannung glätten. Wird halt nur das raus gelassen was unter Hi / über Lo liegt. Mehr Phasen, schnellerer Takt und dann sollte es kein Problem sein die Stromdichte zu erreichen. Kostet halt mehr. Wurde Zeit dass deren Ref-Design erneuert wird.
Kauft ihr mal das kleine Spielzeug. Es wird ja hier so getan als hätte man immer zweifache GM204-Leistung und jede Karte läuft mit 2+ GHz. :D

BlacKi
2016-05-07, 10:36:39
Weitere Frage, wie "leise" ist der Radiallüfter? Nen Föhn für 799€ wäre echt die Krönung, ich traue das NV aber durchaus zu ;)
das wird sich zu einer 980 OC@180w tdp nicht viel ändern.

fondness
2016-05-07, 10:42:25
Wenn NV für die "Founders-Edition", die ja eigentlich nur die Referenzversion ist, wirklich 699$ verlangt, dann frag ich mich schon warum alle so begeistert sind. Preislich ist die 980Ti die Vorgängerkarte, und da ist der Leistungsabstand wirklich nicht sonderlich groß. 2 Punkte für die 1080 sind die 8GB und besseres DX12 (wenn es wirklich entscheidend besser ist). Ich sehe beim aktuellen Stand 980Ti und 1080GTX auf dem selben Niveau was Preis/Leistung angeht.

699$ werden wohl 799€ sein. 599$ wenigstens 649€, ich rechne in den ersten Monaten eher mit 699€. Ne günstige 980Ti für 600€ kommt da nicht schlecht weg...

Weitere Frage, wie "leise" ist der Radiallüfter? Nen Föhn für 799€ wäre echt die Krönung, ich traue das NV aber durchaus zu ;)

Wann kommt AMD mit Polaris 10 raus? Kann AMD damit an die 1070 rankommen?

Edit: Jetzt geht doch hoffentlich nicht auch bei Grafikkarten der Founders-Edition/Day-One-Edition/Early-Access-Edition Blödsinn los ???

Nvidia hat genau das abgeliefert was man auch vorher angekündigt hat und was zu erwarten war. Man braucht also IMO weder enttäuscht noch overhypted sein.

Die Perf/Watt steigt um ziemlich genau ~66% 55% ggü. der GTX980 anhand der NV-eigenen Benchmark- und TDP-Werte. Man hat die TDP um 15W angehoben ggü. der GTX980 um eine ausreichend großen Abstand zur GTX980Ti zu gewährleisten. Das wird man später bei Abstand zu GP102 drauf zahlen, wenn man weiter bei max. 250W TDP für High-End bleiben will. ~20% mehr Leistung ggü. der GTX980Ti/TITAN X ist ausreichend groß um einen Nachfolger zu rechtfertigen. Leistung wird also ziemlich exakt auf 980Ti Custom Niveau liegen. Technologisch war da Maxwell sicherlich wesentlich beeindruckender, Pascal holt einen Großteil des Perf/Watt-Vorteils aus dem neuen Fertigungsprozess. Für einen abschließende Beurteilung wäre noch die Die-Size sehr interessant. Aber 300mm² dürfte ganz gut hinkommen, wenn man dieselbe Packdichte wie bei GP100 unterstellt. Real dürfte die Packdichte wohl etwas schlechter sein, da weniger Register/SRAM, daher rechne ich mit knapp über 300mm².

/Edit: Okay NV sieht die GTX1080 leistungsmäßig wohl nur ~65% über der GTX980 wenn man alle Marketingslides ansieht. Dann steigt die Perf/Watt wohl nur um 55%, das ist sogar weniger als ich erwartet habe. Aber mal finale Benchmarks abwarten.

NVIDIA’s own performance marketing slides put the average at around 65% faster than GTX 980 and 20-25% faster than GTX Titan X/980 Ti, which is relatively consistent for a new NVIDIA GPU. Of course, real-world performance remains to be seen, and will vary from game to game.
http://www.anandtech.com/show/10304/nvidia-announces-the-geforce-gtx-1080-1070/2

Korvaun
2016-05-07, 10:43:26
100$ Aufpreis für die Ref-Version ist echt ne Frechheit, das heißt für mich übersetzt: "Bückt euch ihr Grafik-Schlampen..." :(

Godmode
2016-05-07, 10:45:35
Das man aber eine neue SLI-Bridge bringt ist etwas verwunderlich.


Die alte SLI-Bridge war ja schon längst unterdimensioniert. IIRC hatte diese nur eine Transferrate von 1 GB/s. Eine Verdoppelung der Transferrate ist jetzt auch nicht wirklich was, wenn man es mit PCIe vergleicht. Eventuell sind ja die Latenzen bei der Bridge niedriger, als wenn sie über den PCIe Bus gehen würden.

Zu den Karten selber: Ja nett für GK104, GK110, GM204 Aufrüster. Selbst mit 2,2 GHz würde ich nur etwa 20% auf meine Titan X drauflegen können. Das Ding müsste schon mit 2,5 GHz laufen, dann hätte ich ca. 40%, auf die 1,5 GHz TX, was ich dann aber doch für nicht sehr realistisch halte. Da ich aber sowieso auf den großen Chip warten möchte, lässt mich das alles sehr kalt.

Mcdave
2016-05-07, 10:47:53
Alles in Allem sehr nette Karten, wenngleich ich einstweilen auf die Custom Designs warte und auch sehen will, wie gross der Performancezuwachs gegenüber meiner 1520MHz GTX 980 im Endeffekt wirklich sein wird.

Etwas skeptisch bin ich aber bei der 1070. Die scheint preislich sehr attraktiv zu werden; da werden Erinnerungen an die GTX 970 wach, deren grösste Überraschung sich ja erst 3-4 Monate nach dem Launch offenbarte.

Ex3cut3r
2016-05-07, 10:51:02
Ist gekauft (1080) löst endlich eine GTX770 ab, wird einen 34" mit 3440x1440 befeuern, der steht schon hier. :)

kdvd
2016-05-07, 10:56:11
Nen Föhn für 799€ wäre echt die Krönung, ich traue das NV aber durchaus zu ;)

Du bist so 2003 ... es ist doch keine Raketenwissenschaft zu einer realistischen Voraussage zukommen. :rolleyes:

Die Chipfläche ist kleiner ja, und die Abwärme steigt somit pro mm^2 ggü. der GTX 980, aber man benutzt jetzt wieder eine Vapor Chamber, statt einfach nur einer Kupferplatte.
Und mit Vapor Chamber kann man auch 250W wegkühlen, siehe GTX 780Ti / 980 Ti:

die Geforce GTX 780 Ti ist trotz ihrer maximalen Leistungsaufnahme von 250 Watt kein Krachmacher. Im offenen Teststand messen wir aus 50 Zentimetern Entfernung zur Lüfternabe eine Lautheit von guten 0,6 Sone im Leerlauf (~1.110 U/Min Lüftedrehzahl) und bis zu 4,6 Sone unter Spiele-Volllast mit automatischem Boost (~2.600 U/Min.). Mit diesen Werten ist die GTX 780 Ti zwar hörbar lauter als die GTX Titan und GTX 780 (siehe Tabelle), aber auf Augenhöhe mit der Radeon R9 290X im "Quiet Mode".
- http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Geforce-GTX-780-Ti-Test-1096105/2/

100$ Aufpreis für die Ref-Version ist echt ne Frechheit, das heißt für mich übersetzt: "Bückt euch ihr Grafik-Schlampen..." :(

Neuer Fertigungsprozess, anfangs mässige Yield, da hällt man den Preis hoch bis die Verfügbarkeit sich bessert.
“The same procedure as every year" ...

maximus_hertus
2016-05-07, 10:57:13
Alles ungefähr wie erwartet, keine großen Überraschungen. Auch die deutliche Preiserhöhung im Euroland im Vergleichzu Maxwell war zu erwarten.

Also UVP GTX 1080: 796 Euro / später Custom Karten 682 Euro
GTX 1070: 511 Euro / später Custom Karten 431 Euro

Woher die Zahlen? GTX 980 TI 649 USD = 739 EUR, das ist die Basis und davon dann abgeleitet.


Zumindest für Europa bin ich etwas skeptisch, das ganze ist leicht zu teuer. Bei der 970 war es wichtig, dass da die 3 zuerst auf dem Preisschild stand. Mit 4xx ist man in inem anderen psychologischen Preisbereich, dass könnte einen Tick zu viel sein. Die erfolgreichen x70er Karten waren ja bisher immer im Bereich von 300 - 350 Euro, man darf gespant sein, ob 430-500 Euro nicht zu viel sind.

Grob gesagt kostet die GTX 1070 ähnlich viel wie eine GTX 980. Grob 1/3 mehr fps, etwas weniger TDP (wahrscheinlich). Nett, aber irgendwie kein großes Ding.

Die GTX 1080 leicht teurer als die 980 Ti, rund 20-25% schneller, rund 25% geringere TDP. Nett, aber auch hier keine Must-have-Karte. Für 4K immer noch (deutlich) zu langsam, von 4K120 brauchen wir gar nicht zu reden.

Lurtz
2016-05-07, 11:07:11
Die GTX 1080 leicht teurer als die 980 Ti, rund 20-25% schneller, rund 25% geringere TDP. Nett, aber auch hier keine Must-have-Karte. Für 4K immer noch (deutlich) zu langsam, von 4K120 brauchen wir gar nicht zu reden.
Solange die Konsolen den Ton angeben und nur in 1080p Zielaufflösung laufen, wird 4k immer mit Kompromissen behaftet sein, da die Entwickler nunmal von 1080p ausgehen bei den Leistungsanforderungen.

4k ist aber IMO ein paar Kompromisse wert ;)

R.I.P.
2016-05-07, 11:08:11
Große Ernüchterung bei mir.

Cooles Teil, keine Frage, ein sehr schönes Stück Technik. Bei Maxwell waren alle so geil bezüglich Verbrauch, die Effizienzsteigerung liegt "nur" im erwarteten Bereich. Absolut gesehen sind 180W nicht mein Ding.

Bei PCGH hat es ein nettes Update gegeben:
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-GTX-1070-Ankuendigung-Preis-Release-1194648/

Die Slides scheinen sich nur auf Leistungsgewinn in VR zu beziehen. Bin auf unabhängige Test gespannt und nicht auf dem Marketing-Gequatsche...

Der Preis ist auch ohne Steuern angegeben, oder? Also spottbilliges Kärtchen obendrauf. :freak:

fondness
2016-05-07, 11:10:14
Die Slides scheinen sich nur auf Leistungsgewinn in VR zu beziehen. Bin auf unabhängige Test gespannt und nicht auf dem Marketing-Gequatsche...


Sie haben wie schon angekündigt und erwartet einen schnelleren Context Switch, das bringt speziell bei VR was. Echtes asynchrones Shading wird auch Pascal wohl nicht beherrschen, ansonsten hätte man DX12 Benchmarks gesehen^^. Aber auch das war erwartet.

BlacKi
2016-05-07, 11:15:49
Grob gesagt kostet die GTX 1070 ähnlich viel wie eine GTX 980. Grob 1/3 mehr fps, etwas weniger TDP (wahrscheinlich). Nett, aber irgendwie kein großes Ding.

titan X performance mit 2gb vorteil ggü. 980ti für knapp über 400€, absolut atraktiv für jegliche kepleruser und manche maxwell besitzer.

das man mit einer 980ti nicht wechseln "muss" sollte doch klar sein, die karte ist erst knapp ein jahr alt. keiner hat von seiner 780ti auf die 980 wechseln "müssen".

Pumpi74
2016-05-07, 11:18:12
Wenn die DHE Founders Edition im Idle den Zero Fanmodus beherrscht, wie ich vermute, dann ist sie ihr Geld wert. Denn unter 200Watt DHE's nerven doch eigentlich nur beim surfen/YouTube/arbeiten. InGame mit ordentlich Aktion und Ton sind 200Watt und DHE kein Problem...

ChaosTM
2016-05-07, 11:18:27
Hat Nvidia irgendwas zu AC gesagt bzw. gibt es hier schon Informationen?

Die "Founders Edition" im Referenz Staubsauger Design (wtf?!) ist ein schlechter Witz. Korvaun hat es genau auf den Punkt gebracht. ;)

Ansonsten (fast) wie erwartet.
Vielleicht geht meine 980ti doch schon früher in Rente - die 4K Werte werden es entscheiden.


edit.. Wenn ich in Star Citizen zumindest konstante 40fps @ 4K bekomme, werde ich wohl nicht drumherum kommen. :)

dargo
2016-05-07, 11:20:38
das man mit einer 980ti nicht wechseln "muss" sollte doch klar sein, die karte ist erst knapp ein jahr alt. keiner hat von seiner 780ti auf die 980 wechseln "müssen".
Och... es sind sogar welche auf die 970 gewechselt. ;D Stichwort... Speicher. Die Überraschung kam dann später. :ulol:

Maorga
2016-05-07, 11:21:25
Ja, dass sie es verbessert haben. Mehr Infos gibt es dazu aber nicht.

Herr Doktor Klöbner
2016-05-07, 11:22:41
Nvidia scheint weiter konsequent mit jeder neuen Generation auszutesten welche Preise man aufrufen kann, bevor die Kunden sich mal auf die Hinterbeine stellen und durch konsequente Kaufenthaltung diesen Blödsinn beenden. 450 ,- € für die deutlich abgespeckte Version einer Mittelklassekarte, die haben doch einen an der Waffel. Und dennoch fürchte ich werden alle wie die Lemminge diese Karten zu diesen absurden Summen kaufen.

Jetzt hoffe ich das Polaris 10 mit einem korrekten Preis aufschlägt, NVidias Preise sind dummdreist, leider kommen sie damit durch, ist halt der Apple Effekt: Es lebt sich als Hersteller ganz entspannt wenn man keine Kunden sondern Fans hat.

Bringhimup
2016-05-07, 11:25:09
Hat schon mal irgendjemand geschafft, seine Mailadresse auf der Geforce.com Seite als Interessent zu hinterlegen?

Ich kriege da immer nur diesen Fehler hier:

http://img.techpowerup.org/160507/fehler.png

R.I.P.
2016-05-07, 11:25:11
Dein Post wurde gelöscht @Troyan, also ist meine Antwort überflüssig. Glaubt ihr, wenn mit DX12 Crossfire/SLI verbessert wurde (MultiGPU), können 2 kleine Karten eine große effizient übertrumpfen?

ilibilly
2016-05-07, 11:26:40
Was den preis angeht seh ich nicht so schwarz
970 hatte 329$ , bekam man nach pasr wochen schon für 339€,
Ich denke 1070 wird unter 400€ gehandelt werden und 1080 um 600€

BlacKi
2016-05-07, 11:27:18
Och... es sind sogar welche auf die 970 gewechselt. ;D Stichwort... Speicher. Die Überraschung kam dann später. :ulol:
und 90% der leute haben bis heute nichts bemerkt, ich jedenfalls bis heute nicht.

Skysnake
2016-05-07, 11:30:05
kann man dann auch Hoffnung haben, dass durch ein höherwertigeres Board-Design nebenbei auch die Spulenfiep-Thematik verbessert (eliminiert) wurde?
Nein kann man meiner Meinung nach nicht sagen.

Kannst ja Power durch Kondensatoren loopen und Spannung glätten. Wird halt nur das raus gelassen was unter Hi / über Lo liegt. Mehr Phasen, schnellerer Takt und dann sollte es kein Problem sein die Stromdichte zu erreichen. Kostet halt mehr. Wurde Zeit dass deren Ref-Design erneuert wird.
Kauft ihr mal das kleine Spielzeug. Es wird ja hier so getan als hätte man immer zweifache GM204-Leistung und jede Karte läuft mit 2+ GHz. :D
Ähmmm.... Rate mal was schon massig gemacht wird.

Die Schwankungen die wir heute sehen SIND das Ergebnis aller Bemühungen es so klein zu halten wie möglich...

Die Impedanzen sind einfach zu hoch für die Frequenzen mit denen die Lastwechsel passieren. Deswegen wird heute ja auch massiv mit internen CAPs gearbeitet.

Mal ganz davon abgesehen, dass das gesamte Power delivery Network ein hochgradig komplexer Schwingkreis ist.... So ein Ding zu designen ist hochgradik komplex.

dildo4u
2016-05-07, 11:35:26
Alles ungefähr wie erwartet, keine großen Überraschungen. Auch die deutliche Preiserhöhung im Euroland im Vergleichzu Maxwell war zu erwarten.

Also UVP GTX 1080: 796 Euro / später Custom Karten 682 Euro
GTX 1070: 511 Euro / später Custom Karten 431 Euro

Woher die Zahlen? GTX 980 TI 649 USD = 739 EUR, das ist die Basis und davon dann abgeleitet.


Zumindest für Europa bin ich etwas skeptisch, das ganze ist leicht zu teuer. Bei der 970 war es wichtig, dass da die 3 zuerst auf dem Preisschild stand. Mit 4xx ist man in inem anderen psychologischen Preisbereich, dass könnte einen Tick zu viel sein. Die erfolgreichen x70er Karten waren ja bisher immer im Bereich von 300 - 350 Euro, man darf gespant sein, ob 430-500 Euro nicht zu viel sind.

Grob gesagt kostet die GTX 1070 ähnlich viel wie eine GTX 980. Grob 1/3 mehr fps, etwas weniger TDP (wahrscheinlich). Nett, aber irgendwie kein großes Ding.

Die GTX 1080 leicht teurer als die 980 Ti, rund 20-25% schneller, rund 25% geringere TDP. Nett, aber auch hier keine Must-have-Karte. Für 4K immer noch (deutlich) zu langsam, von 4K120 brauchen wir gar nicht zu reden.
Asynchron Compute kann die Karte zu Must Have machen dort ist Maxwell verkrüppelt und Pascal soll verbessert sein.


http://abload.de/img/1080ggtx9e.png

http://nvidianews.nvidia.com/news/a-quantum-leap-in-gaming:-nvidia-introduces-geforce-gtx-1080?ClickID=bg6dyu6gndfzey1dzdzgldzkq6q1yekflgyg

Spasstiger
2016-05-07, 11:36:22
Die GTX 1070 dürfte angesichts der nur 6,5 TFlops wohl 2048 CUDA Cores @ 1,6 GHz Boost tragen. Dazu passend wäre GDDR5-Speicher mit 8 Gbps Übertragungsrate, den man bei einem Preis von 449 US-$ auch erwarten darf.
Dürfte unter Berücksichtigung der offiziellen Benchmarkangaben für die GTX 1080 daraus hinauslaufen, dass die GTX 1070 eine um 20-30% höhere Gaming-Performance als die GTX 980 aufweist, knapp unterhalb der GTX 980 Ti.

sulak
2016-05-07, 11:38:05
Anmeldung für das Geforce Notify Me funktioniert, wird uns aber nichts bringen. Da ist es einfacher bei Caseking usw. anzufragen.

599$ war auch die Preisempfehlung zum Release der GTX980 wenn der Artikel noch stimmt: http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/News/GTX-980-GTX-970-Preise-Deutschland-1136372/

Ja der Dollar/Euro war da noch etwas anders, aber 600-650€ wirds wohl für die Dustbuster Standard Edition werden, also ~700€ für die Versionen von MSI, Palit und co. Zum Release der 1080Ti dann wieder Preissturz gen 500€ ^^
Siehe Preisverlauf der 980er https://geizhals.de/?phist=1167948&age=9999

ChaosTM
2016-05-07, 11:40:12
... , NVidias Preise sind dummdreist, leider kommen sie damit durch, ist halt der Apple Effekt: Es lebt sich als Hersteller ganz entspannt wenn man keine Kunden sondern Fans hat.

Wie wahr -- je unmündiger der Kunde, desto leichter lässt er sich ab-melken.

Durch die Kombi 4K und SC bin ich momentan praktisch "gezwungen" das schnellste am Markt zu nehmen, auch wenn es weh tut <- selber schuld..

Troyan
2016-05-07, 11:40:51
Es waren $549 und $329 als Preisempfehlung für die GTX980 und GTX970. Deswegen sollten Seiten wie PCGH nicht jeden Mist als News herausbringen...

Und ob Custom-Designs teurer werden, muss sich zeigen. Immerhin will nVidia an der "Founders Edition" kräftig mitverdienen...

dildo4u
2016-05-07, 11:41:54
Sie haben wie schon angekündigt und erwartet einen schnelleren Context Switch, das bringt speziell bei VR was. Echtes asynchrones Shading wird auch Pascal wohl nicht beherrschen, ansonsten hätte man DX12 Benchmarks gesehen^^. Aber auch das war erwartet.
Hä Tomb Raider DX12 ist auf dem Slide gegen die 980.

http://fs5.directupload.net/images/160507/6fe24c33.jpg

Zu Asynchron Compute:

http://abload.de/img/1080ggtx9e.png

fondness
2016-05-07, 11:47:36
Hä Tomb Raider DX12 ist auf dem Slide gegen die 980.

http://fs5.directupload.net/images/160507/6fe24c33.jpg

Zu Asynchron Compute:

http://abload.de/img/1080ggtx9e.png

Der Async Compute advance ist mit sehr hoher Wahrscheinlichkeit der schnellere Context Switch. Ein CS ist auf Maxwell so teuer, dass die Skalierung meist sogar negativ ist mit AC. Rise of the Tomb Raider ist zudem das einzige DX12-Spiel, wo Async Compute nichts bringt. Aber wir werden sehen :)

Wurde ja von Nvidia auch angekündigt:

http://s32.postimg.org/kv7fdcfph/NV_Preemption.png (http://postimage.org/)

http://s32.postimg.org/lp8vvpcw5/Clipboard01.jpg (http://postimage.org/)

Das ist dann auch der Große Vorteil und damit der Leistungsgewinn bei VR.

ChaosTM
2016-05-07, 11:51:22
Und ob Custom-Designs teurer werden, muss sich zeigen. Immerhin will nVidia an der "Founders Edition" kräftig mitverdienen...

Mitverdienen? Das ist dumm dreiste Ab-zocke im Staubsauger Design. Blöder geht es kaum und zeigt, was man von den eigen Kunden hält.

dildo4u
2016-05-07, 11:52:08
Ich wäre vorsichtig dem Game die Schuld in die Schuhe zu schieben wenn man öfter 30% Zuwächse durch den AMD Treiber siehe z.b erst Gestern mit Forza Apex.

http://support.amd.com/en-us/kb-articles/Pages/AMD-Radeon-Software-Crimson-Edition-16.5.1.aspx

AMD's Treiber ist ganz klar in den Kinderschuhen vorallem was GCN 1.2 betrifft.

Troyan
2016-05-07, 11:57:51
Mitverdienen? Das ist dumm dreiste Ab-zocke im Staubsauger Design. Blöder und geht es kaum und zeigt, was man von den eigen Kunden hält.

Du musst nicht kaufen. :rolleyes:

Menace
2016-05-07, 11:58:26
Mitverdienen? Das ist dumm dreiste Ab-zocke im Staubsauger Design. Blöder und geht es kaum und zeigt, was man von den eigen Kunden hält.

Bekannterweise bin ich ja eher nvidia-kritisch (Euphemismus), aber was soll das Gemecker bei der Preisgestaltung. Nvidia liefert wohl eine sehr gute Karte ab, die es zumindest zu Beginn nicht häufig gibt. Das Angebot wird groß im Vergleich zur Nachfrage sein. Also gehen sie mit dem Preis nach oben. Wer früh eine Karte haben möchte, die nur begrenzt zur Verfügung steht muss halt mehr zahlen (wenn das Geld nicht nvidia nehmen würde, dann halt die Händler).
Grafikkarten sind keine Güter, auf die ein Mensch angewiesen ist, also ist er nicht gezwungen eine zu kaufen. Dass nvidia sie "founder"-Edition nennt ist doch mal wieder perfektes Marketing und vielleicht etwas frech, aber vom Konzept her nicht schlecht.

Hübie
2016-05-07, 12:00:10
Nein kann man meiner Meinung nach nicht sagen.


Ähmmm.... Rate mal was schon massig gemacht wird.

Die Schwankungen die wir heute sehen SIND das Ergebnis aller Bemühungen es so klein zu halten wie möglich...

Die Impedanzen sind einfach zu hoch für die Frequenzen mit denen die Lastwechsel passieren. Deswegen wird heute ja auch massiv mit internen CAPs gearbeitet.

Mal ganz davon abgesehen, dass das gesamte Power delivery Network ein hochgradig komplexer Schwingkreis ist.... So ein Ding zu designen ist hochgradik komplex.

Ich meinte offchip Power-delivery. Das ist bisher seriell. Das niemand darauf eingeht mag daran liegen dass niemand die Bedeutung erkennt. ;)

ChaosTM
2016-05-07, 12:00:52
Es ist fast schon zu leicht... ;)

dargo
2016-05-07, 12:02:07
Ich wäre vorsichtig dem Game die Schuld in die Schuhe zu schieben wenn man öfter 30% Zuwächse durch den AMD Treiber siehe z.b erst Gestern mit Forza Apex.

http://support.amd.com/en-us/kb-articles/Pages/AMD-Radeon-Software-Crimson-Edition-16.5.1.aspx

AMD's Treiber ist ganz klar in den Kinderschuhen vorallem was GCN 1.2 betrifft.
:facepalm:

Ein dildo macht selbst aus Treiberoptimierungen eine Negativ-Schlagzeile. Respekt. :uup:

Hübie
2016-05-07, 12:04:22
Was ist daran negativ? Er sagte nur dass man in Forza 6 27% mehr heraus holen konnte und es auf GCN1.2 in Zukunft öfter zu solchen Ergebnissen kommen könnte, da der Treiber diesbezüglich noch in den Kinderschuhen steckt... :|

dildo4u
2016-05-07, 12:06:34
Jup wenn man Fury X Rechenleistung sieht liegt da noch viel brach,das ist keine besonders Neue Erkenntnis.

dargo
2016-05-07, 12:09:39
Was ist daran negativ? Er sagte nur dass man in Forza 6 27% mehr heraus holen konnte und es auf GCN1.2 in Zukunft öfter zu solchen Ergebnissen kommen könnte, da der Treiber diesbezüglich noch in den Kinderschuhen steckt... :|
Dann müssen ja sämtliche Nvidia Gameready Treiber in den Kinderschuhen stecken. :rolleyes: Schon mal aufgefallen, dass der Crimson 16.5.1 der erste Treiber für Forza ist und solche Optimierungen bei einem "Gameready-Treiber" völlig normal sind?

dildo4u
2016-05-07, 12:11:19
Dann müssen ja sämtliche Nvidia Gameready Treiber in den Kinderschuhen stecken. :rolleyes: Schon mal aufgefallen, dass der Crimson 16.5.1 der erste Treiber für Forza ist und solche Optimierungen bei einem "Gameready-Treiber" völlig normal sind?
NV hat fast nie 30% Sprünge es ist schon ewig her das NV überhaupt mit Gewinnen geworben hat.Der NV Treiber ist ganz klar ausgereifter,ansonsten würden die Maxwell Karten gar nicht mit AMD mithalten können,da die durch die Bank höhere Rechenleistung haben.

dargo
2016-05-07, 12:14:11
Womit sollen die auch bei DX12 Anwendungen werben wenn die Einheiten schon unter DX11 gut ausgelastet waren?

iuno
2016-05-07, 12:19:57
SLI hat mich noch nie wirklich interessiert. Über was für ein interface läuft denn die Kommunikation mit der Brücke?
AMD geht ha schon länger nur noch über PCIe, wäre es hier nicht sinnvoller gewesen die Brücke auch abzuschaffen oder gleich mit einem NVLink zu realisieren?

Troyan
2016-05-07, 12:22:07
NVLink benötigt andere Mainboards. Aus dem Geschäft hat sich nVidia schon lange für Consumer zurückgezogen.

Dural
2016-05-07, 12:22:14
Wer sagt den das es nicht nvlink ist?

iuno
2016-05-07, 12:23:12
Unsinn, man beachte das "oder".
Man könnte ja auch weiterhin eine Brücke benutzen, das mainboard hat damit nichts zu tun.


Naja die Bandbreite ist viel zu niedrig als dass es ein nvlink sein könnte

Troyan
2016-05-07, 12:26:01
Unsinn, man beachte das "oder".
Man könnte ja auch weiterhin eine Brücke benutzen, das mainboard hat damit nichts zu tun.


Die Kommunikation zwischen den NVLink-Schnittstellen erfolgt über die Konnektoren auf dem Mainboard.

Mal davon abgesehen, dass GP104 kein NVLink unterstützt...

iuno
2016-05-07, 12:27:33
:facepalm:

Die Kommunikation zwischen den NVLink-Schnittstellen erfolgt über die Konnektoren auf dem Mainboard.
Ja, bei der Implementierung mit dem P100 Modul. Das hat aber nichts mit normalen PCIe Erweiterungskarten zu tun und vermascht einfach mal 8 solcher Module.
Es gibt PCIeX16 Riser, die problemlos funktionieren, auf dem Mainboards fuer P100 Module sind die Wege auch deutlich laenger. Warum soll Nvidia keine Bruecke hinbekommen, die ueber die laecherlichen 4 Zentimeter einen NVLink bereitstellen kann?

Mal davon abgesehen, dass GP104 kein NVLink unterstützt...
Mal davon abgesehen, dass das nicht die Frage war :rolleyes:

uweskw
2016-05-07, 12:28:45
100$ Aufpreis für die Ref-Version ist echt ne Frechheit, das heißt für mich übersetzt: "Bückt euch ihr Grafik-Schlampen..." :(

Die uvp von der 980 auf die 1080er um 150$ erhöht und die Kunden finden das schnieke, weil es zeigt wie geschäftstüchtig NV ist. Erinnert mich an den Kerkermeister bei life of Brian.

http://fs5.directupload.net/images/160507/6fe24c33.jpg



In Witcher 3 ca. 70% schneller als eine 980 stock, und das wohl als bestcase. Also im bestcase 15-20% schneller als eine Custom 980Ti. Ich fürchte da wird oftmals nicht viel mehr als 10% übrig bleiben.
Mist, ich wollte eigentlich meine 780TI@1300 endlich in Rente schicken. Wird aber wohl noch nichts mit doppelter Performance.

greetz
US

dildo4u
2016-05-07, 12:30:54
Deine Kepler Karte wird mit DX12 nicht magisch besser eher schlechter,da die Asynchron Compute Performance stinkt.

Troyan
2016-05-07, 12:32:07
:facepalm:

Dann erkläre doch mal, wie nVidia SLI über NVLink mit herkömmlichen Mainboards realisieren soll. Darauf bin ich jetzt mal gespannt.

sulak
2016-05-07, 12:32:20
Die uvp von der 980 auf die 1080er um 150$ erhöht
Ist schlicht falsch, außerdem bietet diesmal NV 2 Versionen an...

ChaosTM
2016-05-07, 12:33:07
Basistakt ist also 1607/1733/2500 MHz. Sollten 2ghz durchgehend drinnen sein, wäre das schon ganz ordentlich.
30% + zur übertakteten 980TI scheinen doch möglich.

Troyan
2016-05-07, 12:35:20
Kommt darauf an, welche Taktraten stabil sein werden.
2112MHz gegenüber 1450 (meine GTX980TI stabil) sind 45% mehr, was am Ende in 32% mehr Rechenleistung mündet. Wenn da noch mehr geht, sind vielleicht auch 40% drin und das alles in <=225W.

iuno
2016-05-07, 12:36:44
Dann erkläre doch mal, wie nVidia SLI über NVLink mit herkömmlichen Mainboards realisieren soll. Darauf bin ich jetzt mal gespannt.
:rolleyes:
Unsinn, man beachte das "oder".
Man könnte ja auch weiterhin eine Brücke benutzen, das mainboard hat damit nichts zu tun.

Warum antwortest du ueberhaupt darauf, wenn du sowieso nicht liest und sowieso keinen Bock hast dir dazu Gedanken zu machen?

Die Kommunikation zwischen den NVLink-Schnittstellen erfolgt über die Konnektoren auf dem Mainboard.
Ja, bei der Implementierung mit dem P100 Modul. Das hat aber nichts mit normalen PCIe Erweiterungskarten zu tun und vermascht einfach mal 8 solcher Module, eine SLI Bruecke nur 2 Karten.
Es gibt PCIeX16 Riser, die problemlos funktionieren, auf dem Mainboards fuer P100 Module sind die Wege auch deutlich laenger. Warum soll Nvidia keine Bruecke hinbekommen, die ueber die laecherlichen 4 Zentimeter einen NVLink bereitstellen kann? Darauf bin ich jetzt mal gespannt

=Floi=
2016-05-07, 12:42:56
Deine Kepler Karte wird mit DX12 nicht magisch besser eher schlechter,da die Asynchron Compute Performance stinkt.

nur wird auch noch die nächsten 1-2 jahre voll auf DX11 gesetzt werden. du bist auch so ein ewig gestriger träumer.
warum sollte man von heute auf morgen alle engines umstellen? bisher hat es auch nicht wirklich viel gebracht und geld kostet der umstieg auf DX12 auch. Der bringt keines, der kostet nur!

Unicous
2016-05-07, 12:47:29
Wird die Founder's Edition eigentlich auf 1000 Stück limitiert sein und warum gibt es keine Angaben, wann die "normalen" Karten verfügbar sind?:confused:

Den Sinn dahinter verstehe ich jedenfalls nicht. Ist das neuerdings der Trend Produkte im Kickstarter-Style herauszubringen(mit dem Unterschied dass die early bird Tiers eher günstiger sind :wink:).

dildo4u
2016-05-07, 12:47:41
Dice,Epic und Crytek haben alle DX12 in die Engine implementiert,die Arbeit wird sich für Lizenznehmer in Grenzen halten.

TurricanM3
2016-05-07, 12:53:19
Das Ref.-PCB hat dann ausschließlich diese OC-Edition, oder auch andere? Oder hat die nur den Ref.-Kühler als Besonderheit? Der fliegt sowieso gleich runter.

PS: Sucht jemand zufällig eine 980Ti? :freak:

Jupiter
2016-05-07, 12:55:30
Ein Nutzer hier wollte 50 Euro für gebrauchte GTX 970 anbieten. ^^

___

Beim Überlegen finde ich den Leistungssprung im Vergleich zu Maxwell (dritte 28nm Generation) nicht so beeindruckend. Da hätte ich mir bei Pscal und 14/16nm mehr erhofft. Vielleicht liegt es auch an den Preisen.

Hübie
2016-05-07, 13:01:24
@dargo: Ich kann deine Argumentation überhaupt nicht nachvollziehen. Bei Fury bleibt einfach noch öfter Performance oder Kompatibilität auf der Strecke und wird oftmals erst später gefixt. Es ist nun mal so dass es das bei nvidia deutlich seltener vorkommt und die Performance insgesamt konsistenter ist. Man ist also mit der per-App-optimization einfach schneller / weiter voran geschritten, mehr steht nicht hinter dieser Aussage. Reduziere dass doch nicht immer auf das alberne AMD vs NV Gequatsche.
Abgesehen davon dass die Game ready driver selten große Performancesprünge mit sich bringen reicht es häufig sogar einfach nur ein Profil zu erstellen, die Exe hinzufügen und man erreicht so schon sehr gute bis identische Perfomance. ;)

dildo4u
2016-05-07, 13:13:40
2.1Ghz war mit Luft und selektierter GPU die sie für 700$ verkaufen.Alle drüber ist vermutlich Glücksspiel.

fondness
2016-05-07, 13:17:48
@dargo: Ich kann deine Argumentation überhaupt nicht nachvollziehen. Bei Fury bleibt einfach noch öfter Performance oder Kompatibilität auf der Strecke und wird oftmals erst später gefixt. Es ist nun mal so dass es das bei nvidia deutlich seltener vorkommt und die Performance insgesamt konsistenter ist. Man ist also mit der per-App-optimization einfach schneller / weiter voran geschritten, mehr steht nicht hinter dieser Aussage. Reduziere dass doch nicht immer auf das alberne AMD vs NV Gequatsche.
Abgesehen davon dass die Game ready driver selten große Performancesprünge mit sich bringen reicht es häufig sogar einfach nur ein Profil zu erstellen, die Exe hinzufügen und man erreicht so schon sehr gute bis identische Perfomance. ;)

Die Argumentation ist trotzdem nicht konsistent. Wenn NV mehr Leistung durch Treiber heraus holt, dann klatschen alle Recht fleißig, bei AMD wird selbst das schon irgendwie in negative gedreht. Dabei hätte Nvidia den Performacesprung unter DX12 wesentlich notwendiger. :ugly:
Ich bin ja scho auf die Leistung in Forza gespannt, würde mich wundern, wenn es sich anders verhält wie die sonstigen DX12 Games.

Korvaun
2016-05-07, 13:18:19
Also is NV jetzt in der "Takt über alles"-Phase angekommen, die Intel mit dem P4 hatte anno dazumal? ;)

dildo4u
2016-05-07, 13:21:08
Was noch nicht ganz klar ist bekommt man am Anfang nur die selektieren Karten das wäre pervers.

Korvaun
2016-05-07, 13:24:56
So wie ich das verstanden haben kommen erst mal die "Founders Editionen" von NV selber ("selektierte" Version mit Ref-Kühler)und dann ein paar Wochen später jeweils die Custom-Versionen der üblichen Hersteller.

Interessant wird wie gut die Dinger wirklich selektiert sind. Vielleicht lohnt sichs ja und die Dinger gehen mind. >15% schneller als alle anderen?

dildo4u
2016-05-07, 13:26:29
Den NV Kühler will ich eh nicht das passt also.

Complicated
2016-05-07, 13:27:28
Glaubt ihr, wenn mit DX12 Crossfire/SLI verbessert wurde (MultiGPU), können 2 kleine Karten eine große effizient übertrumpfen?Dem wurde ja offensichtlich ein Riegel vorgeschoben. Die SLI-Brücke gibt es nur für die große 1080, wenn ich das richtig gesehen habe.

Kriegsgeier
2016-05-07, 13:31:17
Kann es möglich sein, dass diese neue SLI-Brücke etwas direkt mit VR zu tun hat??

Gipsel
2016-05-07, 13:46:48
Kann es möglich sein, dass diese neue SLI-Brücke etwas direkt mit VR zu tun hat??Nein? Wie das?
Höchstens indirekt, falls sie irgendwann SLI für VR vermarkten wollen. Das tun sie aber (noch?) nicht.

Gipsel
2016-05-07, 13:48:35
Spam (und eventuelle Antworten darauf) wurde entfernt.

igg
2016-05-07, 14:00:56
Das Problem an den 699 $ für die 1080 ist, dass man weiß dass da noch eine Ti kommt und der Wertverfall stark sein kann.

dargo
2016-05-07, 14:13:49
599-699$ ohne Steuern für eine ~300mm² GPU. Das wird ja immer besser. :freak:

Kriegsgeier
2016-05-07, 14:17:17
GTX 1080 wird wohl fast 4x Leistung einer GTX 680 haben!
Hut ab für diese Leistung NV!
PS: könnte es sein, dass eine 1080ger bei einer moderaten Untertacktung unter 100 Watt betrieben werden kann?

Gipsel
2016-05-07, 14:18:53
599-699$ ohne Steuern für eine ~300mm² GPU. Das wird ja immer besser. :freak:
NV ist nun mal kein Wohltätigkeitsverein. Und daß 14/16nm zumindest anfangs recht teuer sein werden, war doch abzusehen und wurde ja schon seit Jahren diskutiert (also ganz allgemein).
Bleiben die extra 100€ oder so für die "Founders Edition", nun ja. Da muß man mal sehen. Aber völlig überraschen sollte das einen auch nicht wirklich, oder?

Es täte der Diskussion gut, ein bißchen weniger aufgeregt geführt zu werden.
Just my 2 cents.

iuno
2016-05-07, 14:19:52
Groesse ist doch relativ egal, iirc lag die 980 bei Release auch bei 599 $ und sicherlich nicht teurer herzustellen.
1080 steht halt ohne Konkurrenz da, die Preisgestaltung ist daher logisch. Koennte AMD ein konkurrenzloses Produkt am oberen Ende liefern, wuerden die das genauso machen, siehe der damalige Preisanstieg mit Tahiti.

dildo4u
2016-05-07, 14:20:12
599-699$ ohne Steuern für eine ~300mm² GPU. Das wird ja immer besser. :freak:


Ganz normal Intel sagt genau das selbe kleinere Fertigung ist zu teuer in der Entwicklung,das spart vorallem am Anfang kein Geld.Daher haben sie 10nm nach hinten verschoben und versuchen 14nm zu strecken.

AwesomeSauce
2016-05-07, 14:23:40
Womit sollen die auch bei DX12 Anwendungen werben wenn die Einheiten schon unter DX11 gut ausgelastet waren?
Was denn nun? Du forderst Verbesserungen von Async Compute hinsichtlich paralleler Ausführung von Compute und Graphics workloads, obwohl der Chip bereits mit DX11 gut ausgelastet ist?

MasterElwood
2016-05-07, 14:25:56
Die Hammerkarte ist wohl die 1070 Founder Edition!

Wenn die FE WIRKLICH OC freudig sind, bist du damit vielleicht nur mehr 10-15 Prozent unter einer normalen 1080er - für 150 Hoschis weniger! :smile:

Nebenbei: Für VR (und nix anderes interessiert mich mehr) - sind beides dank den VR Optimierungen TRAUMKARTEN!

Ravenhearth
2016-05-07, 14:26:32
GTX 1080 wird wohl fast 4x Leistung einer GTX 680 haben!
Hut ab für diese Leistung NV!
PS: könnte es sein, dass eine 1080ger bei einer moderaten Untertacktung unter 100 Watt betrieben werden kann?

Eher Faktor 3.

Und wenn du den Takt halbierst vielleicht :freak:

maximus_hertus
2016-05-07, 14:27:40
599-699$ ohne Steuern für eine ~300mm² GPU. Das wird ja immer besser. :freak:

Wer ist schuld? AMD! ;)

Angebot und Nachfrage - einfach mal abwarten. Die GTX 280 sollte ja auch mit 650 USD starten und ist 2-3 Wochen nach Launch auf 400 USD gefallen.

Stand heute sieht es dann so aus:

GTX 1080 - ca. 20% schneller als die 980 Ti, 800 Euro, später knapp 700 Euro
GTX 1070 - knapp langsamer als 980 Ti, 510 Euro, später rund 430 Euro

Polaris 10 - etwas langsamer als die GTX 1070, evtl. knapp oberhalb der 980 bzw zwischen 980 und der 980 Ti, angeblich um 300-340 Euro

Das sieht ja ziemlich gut aus. Ich bin immer noch der Meinung, dass die Europreise zu hoch @ nV sind. 350 Euro waren schon immer der Sweetspot bei den Performance / unteren High-End Karten. 430 - 510 Euro sind eher x80er Preise.

Falls AMD mit Polaris 10 in die Nähe von der 1070 kommt, ähnlich viel verbraucht und 100-150 Euro günstiger ist, kann das echt ein Erfolg für Team Red werden.

Ex3cut3r
2016-05-07, 14:36:39
Leider sind die hohen Preise Standard mittlerweile.

Außerdem habe ich erst 900€ für meinen Monitor bezahlt, da machen 750€ für die Graka auch nicht mehr so viel aus. :freak:

Leonidas
2016-05-07, 14:37:05
lag die 980 bei Release auch bei 599 $


Launchpreis 549$, deutlich später dann abgesenkt auf 499$.

sulak
2016-05-07, 14:37:48
Pics von allen Seiten der Standard Version bei Zotac, mit Backplate: https://www.zotac.com/de/product/graphics_card/geforce-gtx-1080

horn 12
2016-05-07, 14:38:16
NV Referenz Karten:
Kann es sein dass nur die Ref. Karte so hoch takten und die Customer eben billiger sind, da die GPU aufgeheizt wird durch mangelndes Fehler der Wärmeentwicklung
und hat da GDDR5-X vielleicht Schwierigkeiten bei zu heißer Umgebung
Anders kann ich mir die Vorgehensweise kaum vorstellen.

dildo4u
2016-05-07, 14:39:35
NV Referenz Karten:
Kann es sein dass nur die Ref. Karte so hoch takten und die Customer eben billiger sind, da die GPU aufgeheizt wird durch mangelndes Fehler der Wärmeentwicklung
und hat da GDDR5-X vielleicht Schwierigkeiten bei zu heißer Umgebung
Anders kann ich mir die Vorgehensweise kaum vorstellen.
Der Boost auf der Spec Seite wird garantiert sein für alle 1080p damit die 9 Tflops stimmen,OC ist wie immer Glücksspiel.

VooDoo7mx
2016-05-07, 14:43:57
Ich finde es mal echt frech, das auf der Hauptseite die Preise der Founders Edition als MSRP Preise genommen werden, was einfach mal schlicht falsch ist und nur dazu dient die reißerische Überschrift zu unterstreichen. Da im text die richtigen MSRP Preise auch genannt werden sehe ich hier eine böse Absicht.

Nach aktuellen Umrechnungskurs + 19% MwSt. sind

GTX 1080: 625€ ($599)
GTX 1070: 395€ ($379)

prinz_valium
2016-05-07, 14:45:02
[...]
habt ihr den offensichtlich schlechten troll und seine Kommentare gelöscht? schön
aber warum gehen die leute hier überhaupt darauf ein. war doch wohl für nen blinden zu erkennen...



Ein Nutzer hier wollte 50 Euro für gebrauchte GTX 970 anbieten. ^^



das war ich und war nicht ganz ernst gemeint. sollte nur den bevorstehenden Preisverfall der alten gen verdeutlichen, da es jetzt mehr Leistung günstiger gibt

aber bis zu 100 euro würde ich wohl wirklich für eine 970 zahlen
1070 lohnt sich für mich nicht, da ich dann meinen kompletten rechner mal austauschen müsste

kuj0n
2016-05-07, 14:45:53
Ich finde es mal echt frech, das auf der Hauptseite die Preise der Founders Edition als MSRP Preise genommen werden, was einfach mal schlicht falsch ist und nur dazu dient die reißerische Überschrift zu unterstreichen. Da im text die richtigen MSRP Preise auch genannt werden sehe ich hier eine böse Absicht.

Nach aktuellen Umrechnungskurs + 19% MwSt. sind

GTX 1080: 625€ ($599)
GTX 1070: 395€ ($379)
Die US Preise sind immer ohne Steuern angegeben. Da kommt noch einiges drauf. Das passt schon auf der Frontpage.

Spasstiger
2016-05-07, 14:46:34
Kann es eigentlich sein, dass Nvidia beim GP104 keine generellen Performanceverbesserungen über die Mikroarchitektur gegenüber GM204 erzielen konnte?
Von der GTX 980 zur GTX 1080 sind es 78% mehr Peak-Rechenleistung und 43% mehr Speicherbandbreite. Bringt laut Nvidia rund 70% mehr Performance, was für diese Eckdaten im Rahmen der Erwartungen ist, wenn sich die Mikroarchitektur nicht wesentlich ändert.
Von der GTX 680 (Kepler) auf die GTX 980 (Maxwell) sah das noch anders aus, 53% mehr Peak-Rechenleistung und lediglich 17% mehr Speicherbandbreite resultierten in ebenfalls rund 70% mehr Performance (auch ohne Vorteil durch den größeren Speicher).
Zusammen mit dem extrem hohen Preis für die GTX 1080 bin ich erstmal ernüchtert, auch wenn Nividia dank hohem Takt durchaus eine solide Mehrperformance anbietet.

dargo
2016-05-07, 14:48:47
NV ist nun mal kein Wohltätigkeitsverein.
Ach was... :freak: warum dann nicht gleich 999$? :D Ich bin mir ziemlich sicher, dass trotzdem viele angetan wären.

Ravenhearth
2016-05-07, 14:48:48
Das ist nun das erste Mal seit einer halben Ewigkeit, dass AMD mal nicht erster bei einem neuen Fertigungsverfahren sowie Speicherstandard ist.

dildo4u
2016-05-07, 14:49:09
Kann es eigentlich sein, dass Nvidia beim GP104 keine generellen Performanceverbesserungen über die Mikroarchitektur gegenüber GM204 erzielen konnte?
Von der GTX 980 zur GTX 1080 sind es 78% mehr Peak-Rechenleistung und 43% mehr Speicherbandbreite. Bringt laut Nvidia rund 70% mehr Performance, was für diese Eckdaten im Rahmen der Erwartungen ist, wenn sich die Mikroarchitektur nicht wesentlich ändert.
Von der GTX 680 (Kepler) auf die GTX 980 (Maxwell) sah das noch anders aus, 53% mehr Peak-Rechenleistung und lediglich 17% mehr Speicherbandbreite resultierten in ebenfalls rund 70% mehr Performance (auch ohne Vorteil durch den größeren Speicher).
Vermutlich eine bewusste Entscheidung wenn sie zukünftige Karten verkaufen wollen wer weiß wann der näste Node reif für 600mm² GPU's ist.

Jupiter
2016-05-07, 14:50:35
das war ich und war nicht ganz ernst gemeint. sollte nur den bevorstehenden Preisverfall der alten gen verdeutlichen, da es jetzt mehr Leistung günstiger gibt

aber bis zu 100 euro würde ich wohl wirklich für eine 970 zahlen
1070 lohnt sich für mich nicht, da ich dann meinen kompletten rechner mal austauschen müsste

Weshalb muss der ganze Rechner ausgetauscht werden? Braucht es ein neues Mainboard für Pascal?

Es wird hier beim Erscheinen von GP104 sicher viele GTX 970-Angebote geben.

fondness
2016-05-07, 14:53:43
Kann es eigentlich sein, dass Nvidia beim GP104 keine generellen Performanceverbesserungen über die Mikroarchitektur gegenüber GM204 erzielen konnte?
Von der GTX 980 zur GTX 1080 sind es 78% mehr Peak-Rechenleistung und 43% mehr Speicherbandbreite. Bringt laut Nvidia rund 70% mehr Performance, was für diese Eckdaten im Rahmen der Erwartungen ist, wenn sich die Mikroarchitektur nicht wesentlich ändert.
Von der GTX 680 (Kepler) auf die GTX 980 (Maxwell) sah das noch anders aus, 53% mehr Peak-Rechenleistung und lediglich 17% mehr Speicherbandbreite resultierten in ebenfalls rund 70% mehr Performance (auch ohne Vorteil durch den größeren Speicher).
Zusammen mit dem extrem hohen Preis für die GTX 1080 bin ich erstmal ernüchtert, auch wenn Nividia dank hohem Takt durchaus eine solide Mehrperformance anbietet.

Sieht so aus, habe ich ja weiter hinten auch schon erwähnt. Die Vorteile resultieren offenbar fast ausschließlich aus dem neuen Fertigungsverfahren und den damit einhergehenden höheren Taktraten sowie schnellerem Speicher. Die Perf/Watt steigt um max. 60% ggü. der GTX980.

dargo
2016-05-07, 14:55:51
Was denn nun? Du forderst Verbesserungen von Async Compute hinsichtlich paralleler Ausführung von Compute und Graphics workloads, obwohl der Chip bereits mit DX11 gut ausgelastet ist?
Ich fordere gar nichts. Ich finde es allerdings erstaunlich, dass so viele immer noch nicht begriffen haben, dass NV ihre GPUs einschließlich Maxwell (Pascal ist noch offen) für eine "einspurige Autobahn" entwickelt hat, im Gegensatz zu GCN. Man könnte auch sagen Glück für NV, Pech für AMD, dass die high level API so lange am PC durchgehalten hat.

maximus_hertus
2016-05-07, 14:56:43
Ich finde es mal echt frech, das auf der Hauptseite die Preise der Founders Edition als MSRP Preise genommen werden, was einfach mal schlicht falsch ist und nur dazu dient die reißerische Überschrift zu unterstreichen. Da im text die richtigen MSRP Preise auch genannt werden sehe ich hier eine böse Absicht.

Nach aktuellen Umrechnungskurs + 19% MwSt. sind

GTX 1080: 625€ ($599)
GTX 1070: 395€ ($379)

Falsch.

Bitte, bitte lasst es sein, einfach $ in € umzurechnen. Es wird immer vergessen, dass so Sachen wie Zoll, Transportkosten etc. anfallen.

Und was hat man von MSRP von nicht-vorhandenen Karten? Stand heute gibt es nur die Founder zum Launch. Vielleicht wird es bei der 1070 gar keine "Standard"Karte geben? Nur Customs mit Custompreisen + Founder? Die Founderpreise sind die einzigen, die man als "Realität" ansehen kann, beim Rest ist es quasi nur eine Empfehlung / Vermutung, aber nicht in Stein gemeißelt.

Ailuros
2016-05-07, 14:58:05
7,2 Milliarden Transistoren gegen 15,3 Milliarden bei GP100 zeigt auch wieviel HPC Ballast GP100 mit sich rum trägt. 47% der Transistoren bei 66% der Shader. Bin gespannt ob die Register Files da nicht doch wieder geschrumpft sind bei GP104 im Vergleich zu GP100. Irgendwoher müssen die Mehrtransistoren ja kommen.

Nachdem ich schnell Anand's writeup ueber die 1080\1070 gelesen habe musste ich ganze 6 Seiten zuruecklesen um den letzten Beitreg oben mit etwas Substanz zu finden....wenn Ihr auch auf den Zustad der zeitigen Debatte zufrieden sein solltet, herzlichen Glueckwunsch. Sonst:

* Ja die behauptete durchschnittliche Zusatz-Leistung der 1080 vs. 980Ti ist bei -25%, bleibt abzusehen ob es stimmt.
* Der maximale Stromverbrauch ist bei 180, und ja ich hatte 175 auf einem geleakten vendor Dokument.
* HPC frisst wohl doch mehr als einige wissen wollten.
* Transistoren liegen wohl doch nicht auf 8 Milliarden, sondern wie schon angedeutet ist die Packdichte unter GP100.
* Ich schaetze die reine Effizienz-Steigerung pro cluster bei Pascal immer noch bei 10% ein. Danach kommt die Frequenz-Steigerung und dann der Prozess.
* Oh ja FF Prozesse sind um einiges teurer; Hoffnung stirbt als letzte aber es wird keine 980ti Leistung auf dem anderen Ufer fuer nur 300 Gurken geben. Polaris ist zwar sehr gut angelegt aber wird keiner mit Verlust verkaufen koennen.


Es gibt natuerlich noch sehr viele technische Fragen die ueber die Architektur beantwortet werden koennen in absehbarer Zukunft,aber diese werden wohl vom Staub im Sandkasten der roten und gruenen fanboys wieder verdeckt.

prinz_valium
2016-05-07, 15:03:36
Weshalb muss der ganze Rechner ausgetauscht werden? Braucht es ein neues Mainboard für Pascal?

Es wird hier beim Erscheinen von GP104 sicher viele GTX 970-Angebote geben.

mein mainboard hat kein pcie3 und nicht mal sataIII
ich hab noch einen phenom II

eine 970 könnte ich also guten gewissens einfach so reinstecken für eine schmale mark ;D
aber bei einer 1070 müsste dann für die Zukunft alles neu, sonst ergibt die Investition keinen sinn

Agent117
2016-05-07, 15:03:45
Ganz interessant an pascal in 16FF+ ist auch dass man jetzt mit 300mm² bei 180W liegt. Bei Maxwell in 28nm waren es mit 400mm² 165W (oder halt gleich viel). Das lässt schonmal darauf Rückschließen dass eine 600mm² Pascal Gaming GPU in 16FF+ die bisher als Grenze geltenden 250W bei vergleichbaren Taktraten zur GTX 1080 deutlich überschreiten wird.
Heißt also wir sehen GP102 vmtl. im Bereich von 3500-4400 Shadern. Vmtl etwas mehr Shader als einfach 250W/180W*2560 und dafür geringeren Standarttakt aber mehr, besonders für das Enthusiastensegment, wichtigen OC-Potential. Wenn man durch AMD zum äußersten getrieben wird könnte man aber auch trotzdem Richtung 600mm² gehen und standardmäßig niedrig takten.
Bin mal gespannt bei welcher Frequenz der Sweet Spot von Gp104 liegt dann kann man recht genau sagen was für GP102 an maximaler Leistung möglich sein wird. Seit Maxwell verhalten sich alle unterschiedlichen Nvidia Chips was das Taktverhalten angeht ungefähr gleich.

AwesomeSauce
2016-05-07, 15:05:42
Ich finde es allerdings erstaunlich, dass so viele immer noch nicht begriffen haben, dass NV ihre GPUs einschließlich Maxwell (Pascal ist noch offen) für eine "einspurige Autobahn" entwickelt hat, im Gegensatz zu GCN.
Was, wenn die "einspurige Autobahn" bei NV vollkommen reicht, um den Chip vollständig auszulasten?

dargo
2016-05-07, 15:06:43
Davon sehe ich nichts bei low level.

Ailuros
2016-05-07, 15:06:57
Ganz interessant an pascal in 16FF+ ist auch dass man jetzt mit 300mm² bei 180W liegt. Bei Maxwell in 28nm waren es mit 400mm² 165W (oder halt gleich viel). Das lässt schonmal darauf Rückschließen dass eine 600mm² Pascal Gaming GPU in 16FF+ die bisher als Grenze geltenden 250W bei vergleichbaren Taktraten zur GTX 1080 deutlich überschreiten wird.
Heißt also wir sehen GP102 vmtl. im Bereich von 3500-4400 Shadern. Vmtl etwas mehr Shader als einfach 250W/180W*2560 und dafür geringeren Standarttakt aber mehr, besonders für das Enthusiastensegment, wichtigen OC-Potential. Wenn man durch AMD zum äußersten getrieben wird könnte man aber auch trotzdem Richtung 600mm² gehen und standardmäßig niedrig takten.
Bin mal gespannt bei welcher Frequenz der Sweet Spot von Gp104 liegt dann kann man recht genau sagen was für GP102 an maximaler Leistung möglich sein wird. Seit Maxwell verhalten sich alle unterschiedlichen Nvidia Chips was das Taktverhalten angeht ungefähr gleich.

GP104 ist fast gleich gross mit GK104, wobei die 680 195W verbrauchte.

dildo4u
2016-05-07, 15:10:11
Davon sehe ich nichts bei low level.
Natürlich guck dir noch mal die Specs an AMD muss bei jedem Vergleich weit vorne sein,390 hat massiv mehr Rechenleistung als die 970.Das selbe gilt für Fury X vs 980 Ti.NV lastet die Chip's also unter DX11 und 12 nahe dem Limit aus.

VooDoo7mx
2016-05-07, 15:11:14
599-699$ ohne Steuern für eine ~300mm² GPU. Das wird ja immer besser. :freak:

1. Es sind $599 und $379

2. Ging eine Radeon 7970 auch mit $550 USD und 7950 mit $450 USD an den Start. Und der Chuip war auch nur ~350mm². Neue Fertigung kostet eben. Das waren damals auch die ersten Produkte mit 28nm

3. Ist eine 1080 wenn es um VR geht im Vergleich zu einer $1599 USD Radeon Pro Duo, die auch locker das doppelte an Strom braucht ein super Schnäppchen
Pöhser Abzockladen AMD...

Agent117
2016-05-07, 15:12:23
GP104 ist fast gleich gross mit GK104, wobei die 680 195W verbrauchte.


Richting, wenn GP104 sogar doch Richtung 330mm² gehen sollte wäre GK104 noch kleiner. Andererseits wäre GK110 ohne HPC Sachen auch keine 550mm² groß gewesen und ich gehe mal davon aus dass GP102 ein reiner Gaming Chip wird.

dargo
2016-05-07, 15:12:25
Dildo wieder mit seinen hirnrissigen Vergleichen zwischen verschiedenen Architekturen. :facepalm: Du lernst es aber auch nie.


Ging eine Radeon 7970 auch mit $550 USD und 7950 mit $450 USD an den Start. Und der Chuip war auch nur ~350mm².
Super Vergleich... 512 384Bit SI vs. 256Bit SI. Mal davon abgesehen fand ich damals die 550$ auch zu viel.

dildo4u
2016-05-07, 15:15:30
Dildo wieder mit seinen hirnrissigen Vergleichen zwischen verschiedenen Architekturen. :facepalm: Du lernst es aber auch nie.
Was soll daran hirnrissig sein die Games kommen von GCN Konsolen sind also drauf ausgerichtet dort optimal zu laufen.DX12 zeigt doch Wunderbar was passiert wenn AMD weniger Einfluss auf die Performance hat.

Ailuros
2016-05-07, 15:15:48
Richting, wenn GP104 sogar doch Richtung 330mm² gehen sollte wäre GK104 noch kleiner. Andererseits wäre GK110 ohne HPC Sachen auch keine 550mm² groß gewesen und ich gehe mal davon aus dass GP102 ein reiner Gaming Chip wird.

Es ging mir darum Dich an die Prozess-start Perspektive zu erinnern. Ich bezweifle dass es auch wirklich eine 165W 980 SKU zum kaufen giebt, aber das ist schon ein anderes Kapitel.

VooDoo7mx
2016-05-07, 15:18:10
Falsch.

Bitte, bitte lasst es sein, einfach $ in € umzurechnen. Es wird immer vergessen, dass so Sachen wie Zoll, Transportkosten etc. anfallen.

Und was hat man von MSRP von nicht-vorhandenen Karten? Stand heute gibt es nur die Founder zum Launch. Vielleicht wird es bei der 1070 gar keine "Standard"Karte geben? Nur Customs mit Custompreisen + Founder? Die Founderpreise sind die einzigen, die man als "Realität" ansehen kann, beim Rest ist es quasi nur eine Empfehlung / Vermutung, aber nicht in Stein gemeißelt.

Du bist falsch. Sämtliche Komponenten, Bauteile und die Endfertigung dieser Grafikkarten sind komplett in Fernost. Warum sollen also die Zölle und Tranpsortkosten in die USA so viel geringer als in die EU sein? Sinn? Dass ist kompletter Bullshit³ was du da schreibst. Aber klar von Taiwan in die USA kommen die Karten per Teleport und nach Europa per Fahrradkurier. :uup:

Der Rest von deinen Text ist nur deine negative Spekulation um fas Produkt schlecht dastehen zu lassen.
Die Erfahrung der letzten 10 Jahre zeigt, dass du damit komplett falsch liegst. Und gerade die letzten Generationen haben gezeigt,d as Custom Designs nicht teurer sind als Referenzboards. Meistens sind die sogar günstiger...

dargo
2016-05-07, 15:19:38
Was soll daran hirnrissig sein...
Ich hatte dir das schon mindestens 3x an die Nase gebunden.

Vollwertiger GK110 = 5,04TFLOPs
Vollwertiger GM200 = 5,63TFLOPs

Warum ist GM200 deutlich schneller als nur 12%? Nach deiner Logik wäre das nicht möglich.

fondness
2016-05-07, 15:24:15
1. Es sind $599 und $379


Die Formulierung von NV lässt jedenfalls viel Interpretationsspielraum:

The NVIDIA GeForce GTX 1080 "Founders Edition" will be available on May 27 for $699. It will be available from ASUS, Colorful, EVGA, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, NVIDIA, Palit, PNY and Zotac. Custom boards from partners will vary by region and pricing is expected to start at $599. The NVIDIA GeForce GTX 1070 "Founders Edition" will be available on June 10 for $449. Custom boards from partners are expected to start at $379.


Also Refdesign um $699 bzw. $449 am 27. Mai bzw. 10. Juni. Die Custom-Design, die später kommen werden, "expected to start at" $599 bzw. $379. Sie erwarten also, dass die billigsten bei diesen Preis starten werden, eine Garantie dafür gibt es nicht. Es stimmt zwar, dass die billigsten Herstellerdesign immer deutlich billiger sind als das Referenzdesign vom Hersteller, die $599 bzw. $379 dürfte aber wohl höchstens der billigste Chinaschrott erreichen.

horn 12
2016-05-07, 15:27:38
Wie Ailuros schon bereits sagte:
Man hat ganze 3 Spiele Performanceangaben zur GTX 980 Stock gebracht, hätte man mehr vorzuweisen würde man AMD typisch eine ganze Palette an Games vergleichen, dem IST ABER NICHT SO ---- Warum?

So wie es scheint hat man Rosinen gepickt, welches Best-Case Szenarien aufzeigen:

a) VirtuaL REALITY
b) TOMB RAIDER
c) THE WITCHER III

und andere Games, Benchmarks werden nicht mal die 15% schaffen auf GTX 980TI Stock
Irgendwie scheint der Launch nicht die ganze Wahrheit zu den Karten zu offenbahren.
Da liegt noch was im Arghen.

@Stimmt doch Ailuros!

Troyan
2016-05-07, 15:31:53
Kann es eigentlich sein, dass Nvidia beim GP104 keine generellen Performanceverbesserungen über die Mikroarchitektur gegenüber GM204 erzielen konnte?
Von der GTX 980 zur GTX 1080 sind es 78% mehr Peak-Rechenleistung und 43% mehr Speicherbandbreite. Bringt laut Nvidia rund 70% mehr Performance, was für diese Eckdaten im Rahmen der Erwartungen ist, wenn sich die Mikroarchitektur nicht wesentlich ändert.
Von der GTX 680 (Kepler) auf die GTX 980 (Maxwell) sah das noch anders aus, 53% mehr Peak-Rechenleistung und lediglich 17% mehr Speicherbandbreite resultierten in ebenfalls rund 70% mehr Performance (auch ohne Vorteil durch den größeren Speicher).
Zusammen mit dem extrem hohen Preis für die GTX 1080 bin ich erstmal ernüchtert, auch wenn Nividia dank hohem Takt durchaus eine solide Mehrperformance anbietet.

36% mehr Transistoren führen zu ~80% Mehrleistung gegenüber der GTX980.
GM204 hatte fast 50% mehr Transistoren gegenüber GK104.

Effe
2016-05-07, 15:35:25
36% mehr Transistoren führen zu ~80% Mehrleistung gegenüber der GTX980.
Und 50% mehr Takt.

Nightspider
2016-05-07, 15:38:02
Also für VR scheint die Karte jedenfalls ein Traum zu sein.
Zwei Karten sollten sogar Star Citizen in VR schaffen mit maximaler Grafik.

Diese +50% in VR könnten AMD aus der VR-Rennen werfen.

Troyan
2016-05-07, 15:40:01
Und 50% mehr Takt.

Takt kommt nicht "for free". Die Architektur muss dafür ausgelegt sein - auch mit 16nm FF+ von TSMC.

Isen
2016-05-07, 15:42:25
@Nightspider,

nicht mit maximaler. Lange nicht... mix aus Mittel/Hoch > 8GB voll...

fondness
2016-05-07, 15:45:47
Takt kommt nicht "for free". Die Architektur muss dafür ausgelegt sein - auch mit 16nm FF+ von TSMC.

Das stimmt. Allerdings ist die Packdichte auch nur verhältnismäßig wenig gestiegen und man zahl nicht pro Transistor, sondern pro mm².

Also für VR scheint die Karte jedenfalls ein Traum zu sein.
Zwei Karten sollten sogar Star Citizen in VR schaffen mit maximaler Grafik.

Diese +50% in VR könnten AMD aus der VR-Rennen werfen.

Wer sagt, dass Polaris/Vega da nachsteht?^^

Troyan
2016-05-07, 15:49:44
Wer sagt, dass Polaris da nachsteht?^^

Fury Duo Pro.

Slipknot79
2016-05-07, 15:56:25
Meine 980 GTX Ti oced jetzt schon gute 35% in Spielen, da werde ich die 1080GTX überspringen. :cool:

Achill
2016-05-07, 16:00:26
Also für VR scheint die Karte jedenfalls ein Traum zu sein.
Zwei Karten sollten sogar Star Citizen in VR schaffen mit maximaler Grafik.

Diese +50% in VR könnten AMD aus der VR-Rennen werfen.

Unabhängig der generellen Performance bedarf es für VR die Umsetzung der Multi-Projektion von NV (wahrscheinlich GW Modul) und damit muss dies immer Integriert werden in das jeweilige Spiel. Siehe:

https://www.twitch.tv/nvidia/v/64989878 - bei ~1:30:00

Der Perfomance-Boost (verglichen mit Maxwell2) kommt durch die Reduktion der Pixel die für VR gerendert werden müssen. Ich denke, dass dies auch mit älteren GPUs von NV und AMD umsetzbar wäre, wird aber eher als SW-Lock und somit als Sales-Point fungieren. (Hatte mich ja schon im GameWorks Thread dazu ausgelassen)

igg
2016-05-07, 16:09:00
Die Custom-Design, die später kommen werden, "expected to start at" $599 bzw. $379. Sie erwarten also, dass die billigsten bei diesen Preis starten werden, eine Garantie dafür gibt es nicht. Es stimmt zwar, dass die billigsten Herstellerdesign immer deutlich billiger sind als das Referenzdesign vom Hersteller, die $599 bzw. $379 dürfte aber wohl höchstens der billigste Chinaschrott erreichen.
Befürchte ich leider auch so :-(

MasterElwood
2016-05-07, 16:11:12
Unabhängig der generellen Performance bedarf es für VR die Umsetzung der Multi-Projektion von NV (wahrscheinlich GW Modul) und damit muss dies immer Integriert werden in das jeweilige Spiel. Siehe:

https://www.twitch.tv/nvidia/v/64989878 - bei ~1:30:00


Könnte das nicht direkt in die Engine integriert werden? Basieren sowieso 90 Prozent aller VR Games auf nur 2 Engines (Unreal & Unity).

Kartenlehrling
2016-05-07, 16:13:01
Also für VR scheint die Karte jedenfalls ein Traum zu sein.
Zwei Karten sollten sogar Star Citizen in VR schaffen mit maximaler Grafik.
Diese +50% in VR könnten AMD aus der VR-Rennen werfen.

Aber das hat doch nicht mit der Pascal Karte zu tun, wenn man alles weglässt was nicht in dein Blickfeld ist kann man einiges sparen.

+50% Mehr errechnen sich aus -50% weniger Pixel.

VooDoo7mx
2016-05-07, 16:17:21
Die US Preise sind immer ohne Steuern angegeben. Da kommt noch einiges drauf. Das passt schon auf der Frontpage.

Echt zu blöd zum lesen? Ich hab auf die Preis schon deutsche Mehrwertsteuer drauf gerechnet und es auch deutlich in den Beitrag rein geschrieben. Du hast es sogar selber gequotet. :facepalm:
Und das ist für mich, der seit über 15 jahren auch englischsprachige Tech Seiten im Netz ließt, jetzt auch nicht wirklich eine Neuigkeit das in den USA die Preise ohne VAT angegeben werden... :rolleyes:

MasterElwood
2016-05-07, 16:21:10
Und das ist für mich, der seit über 15 jahren auch englischsprachige Tech Seiten im Netz ließt, jetzt auch nicht wirklich eine Neuigkeit das in den USA die Preise ohne VAT angegeben werden... :rolleyes:

Nicht umsonst heißt es VAT SOLL DAS? ;D

Unicous
2016-05-07, 16:26:26
@VooDoo7mx

So ein bißchen Logik solltest du dann aber auch in deine Berechnungen einfließen lassen, nur mal so als Tip. :up:

Denn wenn deine simple "US MRSP*EUR/USD*deutsche MwSt." Rechnung zutreffen würde, müsste z.B. die 980 Ti einen UVP von ca. 680 Euro haben. Stattdessen kostete sie offiziell 740 Euro, also nochmals ca. 10% mehr. Deine Preise kommen also nicht hin.

Und wie gesagt, der EUR/USD liegt wieder auf dem Level von vor einem Jahr, als die Ti veröffentlicht wurde.

kuj0n
2016-05-07, 16:31:39
@VooDoo7mx

Komm mal runter! Den Rest hat Unicous schon gesagt.


edit: US Preis in Euro + 19% MwSt. = Europreis, kommt da schon eher hin.

1080 FE $699 = ~832€
1080 Custom $599 = ~713€

1070 FE $449 = ~534€
1070 Custom $379 = ~451€

Diese Preisregionen sind viel wahrscheinlicher. Dauert ja nicht mehr lange dann sehen wir Preise.

Ravenhearth
2016-05-07, 16:37:16
Aber das hat doch nicht mit der Pascal Karte zu tun, wenn man alles weglässt was nicht in dein Blickfeld ist kann man einiges sparen.

+50% Mehr errechnen sich aus -50% weniger Pixel.

Sollten das nicht eher 33% weniger Pixel sein?

Das + und - kannst du auch weglassen.

Ailuros
2016-05-07, 16:37:41
Die paar Wochen bis zu den ersten reviews bzw. zur ersten Verfuegbarkeit und auch den ersten lokalen Preisen wird man wohl noch abwarten koennen.

Nightspider
2016-05-07, 16:46:17
Aber das hat doch nicht mit der Pascal Karte zu tun, wenn man alles weglässt was nicht in dein Blickfeld ist kann man einiges sparen.

+50% Mehr errechnen sich aus -50% weniger Pixel.

Mathematisch sehr peinlich. :D Könnte fast von Hübie sein. ;D

So ganz genau zugehört habe ich bei der Präsentation nicht wie das funktioniert. (War schon 20h wach nach 4h Schlaf)
Wird der Leistungszuwachs wirklich nur erreicht indem Pixel weggelassen werden?
Dachte das komplette zweite Bild muss nicht mehr extra berechnet werden sondern errechnet sich mit irgendwelchen hardcore Algorithmen aus dem anderen Bild?

Nakai
2016-05-07, 16:51:33
Dass NV schonmal die Preise vorgibt, zeigt schon, wohin die Reise für AMD geht. Ansonsten die Performance war erwartbar, der Takt ist doch etwas höher als von mir erwartet, aber nun gut, das ist kein Problem.

NV vergleicht anscheinend ihren GP104 mit den Stock-Vorgängern, was den GP104 besser aussehen lässt, als er eigentlich ist, denn selbst GM204 und GM200 erreichen schon einen passablen Clock mit OC.
Eine GTX980Ti OC wird mit einer Stock GTX 1080 in etwa gleichkommen und eine GTX980 OC liegt wohl nur knapp unterhalb einer Stock GTX 1070.

€: Mal gucken, wie sehr GP104 am Bandbreiten-Bottleneck limitiert wird. Mehr Bandbreite als eine GM200 und GM204 kann man je nach Vergleichsgegenstand eben nicht erzielen.

iuno
2016-05-07, 16:53:52
So ganz genau zugehört habe ich bei der Präsentation nicht wie das funktioniert. (War schon 20h wach nach 4h Schlaf)
Wird der Leistungszuwachs wirklich nur erreicht indem Pixel weggelassen werden?
Dachte das komplette zweite Bild muss nicht mehr extra berechnet werden sondern errechnet sich mit irgendwelchen hardcore Algorithmen aus dem anderen Bild?
Das hatte ich mich auch schon gefragt, es ist aber noch keiner darauf eingegangen. Fanboy-war war wichtiger :P
Verstehe auch das mit dem Single Pass Stereo nicht. Die Projektion auf mehrere Flaechen erscheint mir relativ trivial bzw. eben das Aufteilen des Viewports in abgeknickte Teile fuer den Einsatz von mehreren Monitoren um sich herum. Da muss man ja wirklich nur die Projektion 3D->2D anpassen, prinzipiell aendert sich an den anderen Schritten ja nichts.
Mir ist aber nicht klar, wie man das auf stereo uebertragen will. Immerhin hat man 2 Kameras, die Kameratransformation passiert vorher und das Lightning muss doch fuer jede extra gemacht werden. Erst danach kommt die 2D Projektion. Man kann sich doch durch andere Projektion nicht die doppelte Arbeit davor sparen, genau das wurde aber suggeriert. Was bedenke ich dabei nicht (ist ja auch schon spaet :P )?
Oder wurde das nur wieder (bewusst) so missverstaendlich dargestellt und dabei kommt nur der Vorteil der "intelligenteren" Projektion mit der Vorverzerrung zum Tragen?

Ailuros
2016-05-07, 16:54:55
Dass NV schonmal die Preise vorgibt, zeigt schon, wohin die Reise für AMD geht. Ansonsten die Performance war erwartbar, der Takt ist doch etwas höher als von mir erwartet, aber nun gut, das ist kein Problem.

NV vergleicht anscheinend ihren GP104 mit den Stock-Vorgängern, was den GP104 besser aussehen lässt, als er eigentlich ist, denn selbst GM204 und GM200 erreichen schon einen passablen Clock mit OC.
Eine GTX980Ti OC wird mit einer Stock GTX 1080 in etwa gleichkommen und eine GTX980 OC liegt wohl nur knapp unterhalb einer Stock GTX 1070.

Ich bin eher gespannt wie der Stromverbrauch bzw. Endpreis auf all den uebertakteten 1080-ern aussehen koente.

Unicous
2016-05-07, 16:55:03
@Nightspider

Brauchst dir keinen Vorwurf machen. ;) Das wurde so dilettantisch erklärt, das man das getrost auch ausblenden kann. Bei B3D wird auch schon vermutet, dass sich das softwaretechnisch lösen lässt, entsprechende OpenGL Extensions gibt es auch schon seitens Oculus.

https://forum.beyond3d.com/posts/1912243/

bzw.

https://www.opengl.org/registry/specs/OVR/multiview.txt
https://www.opengl.org/registry/specs/OVR/multiview2.txt

Nakai
2016-05-07, 16:58:14
Ich denke es geht in Richtung des Stereo 3D von Crytek, was zwei synthetische Bilder aus eben einem Bild erzeugt.

http://www.heise.de/newsticker/meldung/GDC-Crysis-2-bringt-3D-Stereo-ohne-Performance-Verlust-1060948.html

Ich sehe darin wirklich keinen großen Fortschritt. In diesem Bereich gibt es bereits viele vielversprechende Ansätze.

StefanV
2016-05-07, 16:59:56
Wenn die DHE Founders Edition im Idle den Zero Fanmodus beherrscht, wie ich vermute, dann ist sie ihr Geld wert. Denn unter 200Watt DHE's nerven doch eigentlich nur beim surfen/YouTube/arbeiten. InGame mit ordentlich Aktion und Ton sind 200Watt und DHE kein Problem...
Ich verstehe den Wahn um diesen Blödsinnigen Zero RPM Fan Modus nicht...
Gescheite Lüfter sind da um einiges sinnvoller, aber eben nicht so schön fürs Marketing nutzbar. Das ist auch der einzige Grund, warum man diesen Müll macht.

Gleicher Mist mit dem DHE Quatsch...

Man sollte meinen, dass sich so langsam rumgesprochen hat, dass die Performance dieser Teile einfach nur grotten schlecht sein kann, da relativ geringer Luftstrom, sehr hoher Luftwiderstand und nur mittelprächtige Oberfläche...
Aber hey, es klingt halt toll, dass es in der Praxis dann der letzte Mist ist, interessiert wohl nicht mehr...

Nightspider
2016-05-07, 17:00:44
@Nightspider

Brauchst dir keinen Vorwurf machen. ;) Das wurde so dilettantisch erklärt, das man das getrost auch ausblenden kann. Bei B3D wird auch schon vermutet, dass sich das softwaretechnisch lösen lässt, entsprechende OpenGL Extensions gibt es auch schon seitens Oculus.

https://forum.beyond3d.com/posts/1912243/

bzw.

https://www.opengl.org/registry/specs/OVR/multiview.txt
https://www.opengl.org/registry/specs/OVR/multiview2.txt

Falls die aber wirklich irgendwelche hardcore Algorithmen nutzen würede es mich nicht wundern wenn da irgendwelche fixed function units in Hardware gegossen sind. +50% wäre immerhin absoluter hammer wenn die Bildqualität nicht sinkt.

StefanV
2016-05-07, 17:07:50
Polaris 10 - etwas langsamer als die GTX 1070, evtl. knapp oberhalb der 980 bzw zwischen 980 und der 980 Ti, angeblich um 300-340 Euro
Da wäre ich mir nicht so sicher...
Denn warum sollte nVidia sonst so vorpreschen, mit der Vorstellung der GTX 1070 und 1080??

Zumal es bei Polaris auch noch einige Architekturverbesserungen gibt, die durchaus interessant klingen...

Von daher würde ich einfach mal abwarten wollen, was AMD macht...
Ev. überrascht ja Polaris schon und ist flotter als erwartet...

Und bei der GTX 1000 Serie würde ich erst mal auf die Verfügbarkeit warten...

Denn Vorstellen kann ja jeder, ob man auch liefern kann, ist die Frage.
Irgendwie denke ich gerade, dass nVidia hier mit Preproduction Samples um sich schmeißt, bevor man dann in 4-8 Wochen die normalen Chips liefern kann...

horn 12
2016-05-07, 17:13:03
Dass NV schonmal die Preise vorgibt, zeigt schon, wohin die Reise für AMD geht.

Wie meinst Du dies genau:
NV setzt auf "High End" Produkt bis GP102 Spruchreif wird, bzw. auf gehobenene Mittelklasse währenddessen AMD den Fokus auf Mittelklasse legt und wohl in etwa auf R9 390X bis Fury Leistung kommen wird, dafür aber um 279 bis 299 Dollarpreis und vielleicht Polaris 10% hinter der 1070 GPU dafür aber auch unter 130 Watt bleibt!

Dann dreht AMD diesesmal den Spiel um für:
10% mehr Leistung für den Konkurrent Nvidia dadurch knappe 50 Watt Mehrverbrauch!
Rechen die GTX 1070 wird um die 165 Watt verbrauchen währenddessen Polaris 10 auf 120 bis max. 130 Watt kommen wird.

Pumpi74
2016-05-07, 17:24:01
Ich verstehe den Wahn um diesen Blödsinnigen Zero RPM Fan Modus nicht...Man sollte meinen, dass sich so langsam rumgesprochen hat, dass die Performance dieser Teile einfach nur grotten schlecht sein kann....

Ich hab eine 780Ti im Ref-Design mit Vaporchamber hier gehabt, weis also wovon ich spreche.... Hat man die 780Ti im Powertarget auf circa 200Watt runter gesetzt lief sie wirklich angenehm. Natürlich hörbar, aber nicht störend (mein Empfinden). Dieser Radiallüfter macht im unteren Drehzahlbereich einen ganz passablen Ton, der in Zusammenhang mit Spielakkustik kaum auffällt. Mich hat die Karte nur im Idle/niedrig Watt Bereich genervt, dann wenn man auch mal Ruhe haben möchte.

Und der ganz große Vorteil eines DHE ist eben das meine CPU nicht mit Abwärme belastet wird. Was wiederum dafür sorgt das mein I7 4790K leise @ 4,5Ghz gekühlt werden kann. Das selbst ein billiger Windforce 3X 200 Watt passabel gekühlt kriegt ist mir auch klar. Das hilft mir nur nicht im classischen ATX Gehäuse inklusive Ansprüchen an die CPU.

Ps: Eine Ref GTX 480 untervoltet und bei Standardtakt war auch nicht wirklich laut (bei 20 Grad Raumtemperatur).

Herr Doktor Klöbner
2016-05-07, 17:26:27
Ich finde es prinzipiell richtig, in dieser Leistungsklasse 180 Watt Verbrauch in Kauf zu nehmen und den Taktspielraum entsprechend auszunutzen, für Effizienzrekorde kann ich mir nichts kaufen, solange das Ganze leise gekühlt wird interessieren nicht fps/Watt sondern fps absolut, was hier NVidia macht ist goldrichtig, die rote Karte ( im wahrsten Sinn des Wortes ) gibt es hier wegen der Preispolitik.

Ailuros
2016-05-07, 17:36:55
Es bleibt abzusehen ob die Preise auch wirklich so hoch sind wegen der hohen Kosten die mit den FF Prozessen verbunden sind. Lange wird es wohl nicht dauern bis auch AMD ihre Polaris SKUs vorstellt, womit wir wohl eine weitere Indizie dafuer haben werden oder eben das Gegenteil von diesem. Letzteres bezweifle ich ernsthaft.

Ailuros
2016-05-07, 17:39:51
Koennt Ihr gefaelligst Euer OT Affentheater endlich per PM oder e-mail loesen?

Isen
2016-05-07, 17:41:43
Krüppel Again(??)
http://a.disquscdn.com/uploads/mediaembed/images/3603/2354/original.jpg

woodsdog
2016-05-07, 17:45:54
7680MB = 7,5 = 1/8 Speicher? Passt das auch nur irgendwo? wat?!

Wer gibt denn bitte was auf 3dmark ausgelesene Werte für unbekannte karten.

Das dürfte vielmehr der FREIE speicher sein nachdem der DWM was abgezwackt hat.

Isen
2016-05-07, 17:46:35
k.A geistert halt überall rum ...

Nakai
2016-05-07, 17:47:54
Du siehst bei nVidia nie technischen Fortschritt. :freak:

Ja, wenn Jen Hsun Huang von technischen Fortschritt für Consumer-Elektronik redet, muss man generell die Nasen rümpfen.

Und was NV hier bei diesem SinglePass-Stereo macht? Man weiß es noch nicht. Sicherlich ist es keine Magie. Ansonsten ein paar Hints in welche Richtung es geht:

https://forums.oculus.com/community/discussion/4155/when-theres-no-need-to-render-twice

https://myhpi.de/~jakob.zwiener/stereoscopicRendering/PerformanceOptimisationsInStereoscopicRendering.pdf

http://yoksis.bilkent.edu.tr/pdf/files/10.1016-j.cag.2009.11.004.pdf

€:
Wie meinst Du dies genau:
NV setzt auf "High End" Produkt bis GP102 Spruchreif wird, bzw. auf gehobenene Mittelklasse währenddessen AMD den Fokus auf Mittelklasse legt und wohl in etwa auf R9 390X bis Fury Leistung kommen wird, dafür aber um 279 bis 299 Dollarpreis und vielleicht Polaris 10% hinter der 1070 GPU dafür aber auch unter 130 Watt bleibt!

Dann dreht AMD diesesmal den Spiel um für:
10% mehr Leistung für den Konkurrent Nvidia dadurch knappe 50 Watt Mehrverbrauch!
Rechen die GTX 1070 wird um die 165 Watt verbrauchen währenddessen Polaris 10 auf 120 bis max. 130 Watt kommen wird.

Ich denke AMD versucht P10-Big in die Schiene einer Performancekarte ala GTX970 oder GTX1070 einzuordnen.

Troyan
2016-05-07, 17:53:41
Ja, wenn Jen Hsun Huang von technischen Fortschritt für Consumer-Elektronik redet, muss man generell die Nasen rümpfen.

Und was NV hier bei diesem SinglePass-Stereo macht? Man weiß es noch nicht. Sicherlich ist es keine Magie. Ansonsten ein paar Hints in welche Richtung es geht:

https://forums.oculus.com/community/discussion/4155/when-theres-no-need-to-render-twice

https://myhpi.de/~jakob.zwiener/stereoscopicRendering/PerformanceOptimisationsInStereoscopicRendering.pdf

http://yoksis.bilkent.edu.tr/pdf/files/10.1016-j.cag.2009.11.004.pdf



Und wie verwendet man diese PDFs mit seinem Headset? ;D

Machen wir es simpel: nVidia hat ihre Multi-Resolution Technik veröffentlicht. Jeder mit Maxwell kann es testen - auch ohne Headset.
Es sollte für eine solche bekannte Technolgie genug andere Anwendungen und umgesetzte Beispiele geben, die auch auf AMD Hardware läuft. Zeige diese bitte.

Kartenlehrling
2016-05-07, 17:54:08
Wird der Leistungszuwachs wirklich nur erreicht indem Pixel weggelassen werden?
?

vor einem Jahr und somit ist es auch klar das dieses Feature nicht nur dem Pascal zugesteht, wurde schon darauf eingegangen.

Teils wird einfach wegelassen und der andere Teil wird mit niedriger Qualität ausgegeben, "unsere" Augen können den unterschied nicht erkennen.
So habe ich es wenigsten verstanden, die Qualität der Randbereiche wird den Entwickler überlassen,
so könnte man zb. Gänge wo man vielleicht nur durchrennt niedriger Rendern und Räume wo man verweilt auch den Randbereich hochauflösender,
Tester haben keinen unterschied feststellen können.

http://www.golem.de/news/gameworks-vr-nvidia-zeigt-foveated-rendering-fuer-virtual-reality-1506-114366.html
Gameworks VR: Nvidia zeigt Foveated Rendering für Virtual Reality

https://www.youtube.com/watch?v=wJFrhFIOrdo
MTBS-TV: Nvidia Demonstrates Multi-Res Shading For VR

wolik
2016-05-07, 18:02:20
Bin ich einzige wer sich wundert dass das kein Blockdiagramms gabs? Wieso eigentlich? Kann sein um "normale" chip nicht preisgeben? So hat NV noch ein Trumpf in Ärmel... Es ist nicht unmöglich das 1080 und 1070 nur "Abfall" von Titan Y? (IMHO Wunschvorstellungen :) )

askibo
2016-05-07, 18:03:49
Also Preise für die Referenz-1080 dann 750-800€ für die 1070 450-500€?

horn 12
2016-05-07, 18:06:22
Wird nicht lange daueren bis wir wirkliche Benchmarks aus Fernost zu Gesicht bekommen
Karten sollten schon langsam auf dem Weg sein, zumindest die Erste Charge mit wenigen Stückzahlen. Preis wird künstlich hoch gehalten, wie damals mit Fiji!

Kartenlehrling
2016-05-07, 18:37:08
Diese Ingame 360° Bilder sind wirklich was feines.
Wieso wird nur die gtx1080 als Support angegeben, wieso nicht die gtx1070?

http://www.geforce.com/hardware/technology/ansel/ansel-image-gallery
Ansel > Ansel 360 Gallery

Troyan
2016-05-07, 18:54:05
Liegt wohl daran, dass die GTX1070 noch nicht "existiert". :D

BTW:

FYI: Embargo for all the PASCAL info we're getting today and @nvidia GTX 1080 reviews is May 17th.
https://twitter.com/killyourfm

Kartenlehrling
2016-05-07, 19:02:09
nicht nachvollziehbar, da beide gestern vorgestellt würden,
gtx1080 review 17.05, verkauf laut folie 10 tage später am 27.05 und
verkauf von gtx1070 10.06 also 2 wochen nach der 1080.

[MK2]Mythos
2016-05-07, 19:05:28
nicht nachvollziehbar, da beide gestern vorgestellt würden,
gtx1080 review 17.05, verkauf laut folie 10 tage später am 27.05 und
verkauf von gtx1070 10.06 also 2 wochen nach der 1080.

Ich finde das sogar ziemlich nachvollziehbar wenn man vielleicht nicht möchte dass bestimmte Dinge, die bei der Präsentation nicht gezeigt wurden, schon so schnell an die Öffentlichkeit kommen.

kruemelmonster
2016-05-07, 19:17:07
Diese Ingame 360° Bilder sind wirklich was feines.
Wieso wird nur die gtx1080 als Support angegeben, wieso nicht die gtx1070?

http://www.geforce.com/hardware/technology/ansel/ansel-image-gallery
Ansel > Ansel 360 Gallery

Weil sich das Marketing gern auf das Topmodell stürzt, und nur die 1080 als "New King" vorgestellt wurde. Ist nix weiter dran.

Schaffe89
2016-05-07, 19:27:12
Hat Nvidia die shader hotclock wieder eingeführt?
Packdichte kann ja nun nicht der einzige Grund dafür sein, dass solch hohe Taktraten 1860mhz max Boost möglich sind.
Was kann man denn prinzipiell an der Architekur für Schräubchen drehen, damit ein höherer Takt realisierbar ist?
Liegts allein am Fertigungsprozess?

gedi
2016-05-07, 19:35:47
Naja, für mich eine Karte wie die GTX680. Nichts was die Welt bewegt. P10 wird in manchen Situationen besser aufgestellt sein. Wait 4 2017

MorPheuZ
2016-05-07, 20:01:26
Nur wird nv 2017 auch mit anderen Brummern aufkreuzen. Also nix warten bis 2017 ;)

Ravenhearth
2016-05-07, 20:18:23
Vielleicht gerade deswegen?

Dural
2016-05-07, 20:41:35
Ich finde es intressant das viele vom takt so überrascht wurden, von mir ausgesehen war es schon absehbar.

Es hat schon mit kepler angefangen, dieser wurde extrem nidrig getaktet, oc war bei allen karten gut. Danach hat nv bei maxwell die takt möglichkeiten mehr ausgenutzt und den oc takt noch mal gesteigert. Spätestens mit der p100 vorstellung hätte der groschen bei allen fallen müssen.

Schaffe89
2016-05-07, 20:52:00
Naja, wenn die Karte wirklich 2000mhz macht, muss ich mir alleine wegen der Schallmauer schon eine holen.^^

Hübie
2016-05-07, 20:53:53
Was war eigentlich mit Tom Petersen? Einige meinten hier es liefe etwas aus dem Ruder. Ich habe die Präsi nicht gesehen. Ist was passiert?

@Nightspider: Hab dein Beitrag gemeldet. Muss ich mir ja nicht bieten lassen. :rolleyes:

Rente
2016-05-07, 20:59:07
Der Teil der Präsentation den Petersen und Huang zusammen gehalten haben (Viewports etc.) lief am Anfang sehr holprig (und wurde vorher wohl nicht geprobt) und Huang wurde zunehmend ungehalten.
Petersen musste da den ein oder anderen Spruch über sich ergehen lassen, hat es selber aber eher mit Humor genommen und damit Huang angesteckt.

Hübie
2016-05-07, 21:01:00
Weißt du ungefähr nach wie viel Minuten das war?

MorPheuZ
2016-05-07, 21:04:42
Naja, wenn die Karte wirklich 2000mhz macht, muss ich mir alleine wegen der Schallmauer schon eine holen.^^

Ich weiss das klingt jetzt kleinlich aber deshalb musst du keine Pascal kaufen ;)

Wiki (https://de.wikipedia.org/wiki/%C3%9Cberschallflug)

/OT off

Rente
2016-05-07, 21:07:36
Weißt du ungefähr nach wie viel Minuten das war?
ca. 1:25/85 Minuten.

Schaffe89
2016-05-07, 21:44:12
Wo kann man sich das nochmal reinziehen?

fondness
2016-05-07, 21:52:20
Sagen wir es mal so, für einen solchen Egomanen würde ich nicht arbeiten wollen, der mich da öffentlich zum Clown macht. Petersen blieb eh nichts anderes übrig als das ganze mit Humor zu nehmen.

dildo4u
2016-05-07, 21:53:07
Doom running on GTX 1080 with Vulkan API

https://youtu.be/ueRjbYdcXbs

Unicous
2016-05-07, 22:02:53
Sagen wir es mal so, für einen solchen Egomanen würde ich nicht arbeiten wollen, der mich da öffentlich zum Clown macht. Petersen blieb eh nichts anderes übrig als das ganze mit Humor zu nehmen.

Das Ganze mit einem joke zu überspielen ist ja völlig ok, aber so unprofessionell seine Mitarbeiter in der Öffentlichkeit anzufahren zeugt von wenig Stil. Und falls er das alles witzig meinte, hat er einen extrem schlechten Humor.:rolleyes: War ja auch nicht das erste Mal dass er eine Panne so unsouverän behandelt hat und die Schuld auf die Mitarbeiter im Hintergrund abgewälzt hat. Die Veranstaltung war jedenfalls in großen Teilen sehr fremdschämig (größtenteils aber dem Klatschvieh im Publikum geschuldet).

Rente
2016-05-07, 22:12:18
Wo kann man sich das nochmal reinziehen?
Direkt auf Twitch: https://www.twitch.tv/nvidia/v/64989878

Schaffe89
2016-05-07, 22:13:42
Danke, also ansel ist wirklich der Hammer.

illidan
2016-05-07, 22:14:43
Immerhin war Huang nicht so zum Einschlafen wie bei der Maxwell-Vorstellung.
Ich will Huang nicht verteidigen, aber Petersens Ego ist offenbar auch nicht gerade klein.

Ascorvit
2016-05-07, 22:38:31
Gibts jetzt nur die teurere Founders Edition der 1080 am 27.05. oder auch die Normale?

kuj0n
2016-05-07, 22:45:39
Nur die FE, ebenso am 10. Juni nur 1070 FE.

The NVIDIA GeForce GTX 1080 "Founders Edition" will be available on May 27 for $699. It will be available from ASUS, Colorful, EVGA, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, NVIDIA, Palit, PNY and Zotac. Custom boards from partners will vary by region and pricing is expected to start at $599. The NVIDIA GeForce GTX 1070 "Founders Edition" will be available on June 10 for $449. Custom boards from partners are expected to start at $379.


Also Refdesign um $699 bzw. $449 am 27. Mai bzw. 10. Juni. Die Custom-Design, die später kommen werden, "expected to start at" $599 bzw. $379. Sie erwarten also, dass die billigsten bei diesen Preis starten werden, eine Garantie dafür gibt es nicht. Es stimmt zwar, dass die billigsten Herstellerdesign immer deutlich billiger sind als das Referenzdesign vom Hersteller, die $599 bzw. $379 dürfte aber wohl höchstens der billigste Chinaschrott erreichen.

Ascorvit
2016-05-07, 22:49:50
Danke.
Ok, Schade. Dann heissts also doch erstmal wieder nen Gang runter schalten.

Troyan
2016-05-07, 22:50:07
Doom running on GTX 1080 with Vulkan API

https://youtu.be/ueRjbYdcXbs

Diese 6 Minuten haben mehr für das Spiel getan als der ganze Prerelease zusammen. :freak:

kuj0n
2016-05-07, 22:58:40
Als jemand der einen großen Bogen um Win10 macht, hoffe ich Vulkan hat eine grandiose Zukunft.

BlacKi
2016-05-07, 23:00:48
Meine 980 GTX Ti oced jetzt schon gute 35% in Spielen, da werde ich die 1080GTX überspringen. :cool:
es sei dir gegönnt^^ würde ich sagen, also gp102 oder doch lieber GV104?

mist doom 2016 im multiplayer? jetzt bin ich angefixt.

Krüppel Again(??)
http://a.disquscdn.com/uploads/mediaembed/images/3603/2354/original.jpg
bei 7,5gb wäre es mir wieder egal, genau wie bei der 970, aber ich glaube eher das die 1070 durch die shader genug gedrosselt ist, und nv es nicht nötig hat das SI anzufassen.

N0Thing
2016-05-07, 23:33:23
Schade, dass Nvidia wieder an der Preisschraube dreht. Wenn man an Fermi zurück denkt, liegen da Welten zwischen der Preisgestaltung. Wenn es auf Grund der Kosten für die Fertigung notwendig sein sollte, bitter aber nicht vermeidbar. Wenn es an PR und mangelnder Konkurrenz liegen sollte, drücke ich AMD mal fest die Daumen für die nächsten Monate.


___
Diese 6 Minuten haben mehr für das Spiel getan als der ganze Prerelease zusammen. :freak:

Traurig aber wahr, bisher ist man bei den Gameplay-Videos eher eingeschlafen. Und zu sehen, dass man Doom auf der nächsten GPU-Generation durchgehend mit über 100fps zocken kann (hoffentlich auch bei maximalen Einstellungen), ist ebenfalls ein Highlight nach dem 60fps lock. :)

Gouvernator
2016-05-08, 00:30:54
Falls die aber wirklich irgendwelche hardcore Algorithmen nutzen würede es mich nicht wundern wenn da irgendwelche fixed function units in Hardware gegossen sind. +50% wäre immerhin absoluter hammer wenn die Bildqualität nicht sinkt.
Huang sprach explizit von 2xTitan X.
Man braucht jetzt für VR wirklich keine zweite Karte mehr. Dabei verliert Multi GPU noch mehr an Bedeutung... Wer will denn dann noch SLI AFR für Single Pass VR nutzen? :freak:

Kartenlehrling
2016-05-08, 00:45:47
http://www.nvidia.de/docs/IO/143503/nvidia-geforce-gtx-battlebox-sli-bridge.jpg

Ein Firma die jahrelang und auch noch bis vorgestern mit Battleboxen geworben hat,
ist die Aussage man brauch ab Heute nur noch Single Pass VR ein Witz, kann man doch nicht erst nehmen.

kdvd
2016-05-08, 01:54:05
Doch wenn sie jetzt eine explizite HW Implementation für Single Pass VR >Geometrie< und damit der Vermeidung von doppelten Drawcalls haben.
Bisheriges VR SLI konnte diesen Punkt ja nicht eliminieren.

PHuV
2016-05-08, 01:58:07
Huang sprach explizit von 2xTitan X.
Man braucht jetzt für VR wirklich keine zweite Karte mehr. Dabei verliert Multi GPU noch mehr an Bedeutung... Wer will denn dann noch SLI AFR für Single Pass VR nutzen? :freak:
Und warum werben die dann damit?

https://blogs.nvidia.com/blog/2016/05/06/vr-funhouse/
VR SLI — The more, the merrier. If you’ve got two GPUs, this technology will let one GPU render images to your left eye, and the other to your right, maximizing performance and minimizing latency.
Da könnte doch das ein oder andere Spiel dabei sein, welches ein SLI-System ausreizen würde.

Gouvernator
2016-05-08, 03:59:02
maximizing performance and minimizing latency
Ja gut, wenn NV sagt GTX1080 ist 25% schneller als TitanX und dabei eine GTX1080 wie 2 TitanX in VR ist, dann gewinnt man eben diese 25%*2 womöglich mit VR SLI. Ich meine NV wäre sich bestimmt nicht zu schade, zu behaupten das GTX1080 eben wie 125% pro TitanX auch in VR wäre. So wie es aussieht kostet es doch bisschen Leistung und damit Latenz. Das muss man halt testen... ob es wieder einmal ein rippoff ist, wo man für 20% FPS gleich 100% mehr Geld hinlegen muss.

StefanV
2016-05-08, 04:33:11
Schade, dass Nvidia wieder an der Preisschraube dreht. Wenn man an Fermi zurück denkt, liegen da Welten zwischen der Preisgestaltung. Wenn es auf Grund der Kosten für die Fertigung notwendig sein sollte, bitter aber nicht vermeidbar. Wenn es an PR und mangelnder Konkurrenz liegen sollte, drücke ich AMD mal fest die Daumen für die nächsten Monate.
Das liegt zu einem nicht unerheblichen Teil auch daran, dass nVidia gesehen hat, dass sie jeden Preis für ihre Hardware verlangen können.

Und dass AMD, selbst wenn sie halbwegs konkurenzfähig sind, keinen Boden gutmachen kann...


Auch hat die GTX 970 gezeigt, dass man die Kunden auch ohne Probleme gängeln kann und sie dieses eigentlich schlechte Produkt dennoch kaufen.

wolik
2016-05-08, 07:21:15
Huang sprach explizit von 2xTitan X.
Man braucht jetzt für VR wirklich keine zweite Karte mehr. Dabei verliert Multi GPU noch mehr an Bedeutung... Wer will denn dann noch SLI AFR für Single Pass VR nutzen? :freak:
Nur ganz kurze Frage. Wer von Euch hat VR ? WER? Bis VR in Masse kommt dauert 2 bis 3 Jahren.