PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal - GP100 - 2016 - 3D-Memory HBM, NVLINK, Mixed Precision


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26

kdvd
2016-05-05, 22:43:13
Nun bissi ernüchterend 2560 oder gar nur 2304 Shader und vielleicht maximal GXT 980TI @ 1500 bis 1600 Mhz Leistung.
Und dafür wollen NV für Referenz stolze 699 bis 749 bis 779 Dollar

Tja nun, AMD oder auch gerne mal Intel müssen was Schnelleres, bei ähnlich gutem Verbrauch, mit gleich oder mehr Speicher liefern...


NV lässt sich nun GDDR5-X und die 2GB Mehrspeicher "goldig" bezahlen

Kommt drauf an von wo man wechselt.
Wer immernoch mit einer 2GB GTX 680 oder einer 3GB GTX 780TI unterwegs ist, für den ist das Upgrade schon vertretbar.
Immernoch sehr teuer, aber ein besseres Geschäft als eine 980Ti.

MorPheuZ
2016-05-06, 00:28:32
Um endlich meine "nette" 970 loszuwerden reicht es allemal. Für 4k allover reicht es aber noch lange nicht! Da müssen andere Brummer aufkreuzen ;)

Reaping_Ant
2016-05-06, 04:35:32
Fuer mich passen die Ergebnisse (sollten sie denn stimmen) sehr gut zu 32 SMs und 2048 ALUs. Bei 1.8 GHz sind das ca. 45% mehr Takt als der Boost einer Referenz GTX 980 (ca. 1.25 GHz). Eine Referenz GTX 980 Ti ist ca. 30% schneller als eine GTX 980, worauf die hypothetische GTX 1080 dann noch mal gute 10% drauflegt. In Spielen koennte es etwas mehr sein, wenn noch mal etwas an der Auslastung der Einheiten gedreht wurde (Caches, Scheduling, kleinere SMs). Das ganze mit um die 170 W und die Karte sieht recht attraktiv aus.

Ich finde den Ansatz mehr auf Takt als auf Breite zu gehen gar nicht mal dumm. Gerade Spiele skalieren in der Regel deutlich besser mit dem Takt. Das einzige Problem ist die mit dem Takt stark ansteigende Leistungsaufnahme. Wenn man das durch eine niedrigere Packdichte kompensieren kann, ist das doch eine gangbare Loesung. Haengt natuerlich von den Charakteristika des Herstellungsprozesses ab, aber die kennen wir ja nicht.

Offen ist dann noch die Frage des Preises. Die Leistung einer GTX 980 Ti fuer unter 500 Euro bzw. einer GTX 980 fuer unter 350 Euro faende ich deutlich interessanter als noch mal 15% Leistung drauf zu packen und dafuer 700 Euro zu verlangen. Aber es gibt ja auch noch AMD.

igg
2016-05-06, 08:27:19
Wenn die von Leo spekulierten Preise (600-650 USD) für die 1080 stimmen muss man ernsthaft überlegen ob es sich nicht lohnt in den derzeit häufigen Am*zon Angeboten eine "ZOTAC GeForce GTX 980Ti AMP Omega Edition" für 570 EUR zu schnappen.

Könnte mir vorstellen, dass die 1080 auch schon sehr am Taktlimit ist.

Zergra
2016-05-06, 08:42:21
Du willst echt jetzt noch auf eine 4-5 Jahre als Technologie setzen ? Von den ganzen Features mal abgesehen ?

Thunderburne
2016-05-06, 08:50:47
Du willst echt jetzt noch auf eine 4-5 Jahre als Technologie setzen ? Von den ganzen Features mal abgesehen ?
So sieht es aus bei der marginalen Preisdifferenz 570-650Euro kein inteligenter Schachzug.:smile:
Die Preise sind doch noch nich fix nach der ganzen Empörung im Web sollte es auch bis NV durchgedrungen sein.
Abwarten was da kommt.

HOT
2016-05-06, 09:35:38
2304 Shader zu 1860 MHz, das wären knapp 7,4TFlops, das passt ziemlich exakt zu den Benchmarks. Jetzt stellt sich nur die Frage, ob das übertaktet war. Das Ding saugt in der Config auf jeden Fall ordentlich an der Stromleitung mMn.

dildo4u
2016-05-06, 10:20:41
Warum soll sie besonders viel Saft ziehen die 980 hatte auch mehr Takt als die großen Chip's und war extrem sparsam.

Ailuros
2016-05-06, 10:27:07
Warum soll sie besonders viel Saft ziehen die 980 hatte auch mehr Takt als die großen Chip's und war extrem sparsam.

Wenn die spezifische SKU uebertaktet war, hat er schon recht. EVGA's GTX980 SKUs schwanken zwischen 180 und 300W TDP.

Thunder99
2016-05-06, 10:37:07
Du willst echt jetzt noch auf eine 4-5 Jahre als Technologie setzen ? Von den ganzen Features mal abgesehen ?
Was bringt den Pascal gegenüber Maxwell wirklich neues? Nichts soweit ich weiß was interessant ist. DX12_1 kann Maxwell, dafür an Async Shader gedöns. Letzteres ist aber auch nicht gesichert das es besser läuft auf Pascal.

Rein aus Performance Sicht macht man selbst jetzt auf 2 Jahre keinen schlechten Wurf mit Maxwell. Pascal schätze ich nur marginal besser ein

dargo
2016-05-06, 10:44:25
Die wichtigste Frage überhaupt die ich mir stelle... unterstützt GP104 Adaptive-Sync? Ansonsten ist Pascal völlig uninteressant, zumindest für mich. :wink:

MiamiNice
2016-05-06, 10:45:00
Irgendwie finde ich die 1080 immer uninteressanter. Man bekommt so herb das Gefühl verarscht zu werden. Da wäre imho so viel mehr möglich gewesen und jetzt bekommen wir wahrscheinlich im Schnitt 15-20% mehr real Game Performance auf die 980TI. Und das schlimmste daran ist, ich muss sie kaufen. Hab noch eine 780GTX und die Rift ist auf dem Weg :mad:

Die wichtigste Frage überhaupt die ich mir stelle... unterstützt GP104 Adaptive-Sync? Ansonsten ist Pascal völlig uninteressant, zumindest für mich. :wink:

Nö, aber sicher G-Sync. Reicht doch ;)

woodsdog
2016-05-06, 10:51:05
Irgendwie finde ich die 1080 immer uninteressanter. Man bekommt so herb das Gefühl verarscht zu werden. Da wäre imho so viel mehr möglich gewesen und jetzt bekommen wir wahrscheinlich im Schnitt 15-20% mehr real Game Performance auf die 980TI. Und das schlimmste daran ist, ich muss sie kaufen. Hab noch eine 780GTX und die Rift ist auf dem Weg :mad:



Nö, aber sicher G-Sync. Reicht doch ;)

stimmt. Die eingeschränkte TFT Auswahl ist ein prima Vorteil. :P

Ailuros
2016-05-06, 10:51:09
Irgendwie finde ich die 1080 immer uninteressanter. Man bekommt so herb das Gefühl verarscht zu werden. Da wäre imho so viel mehr möglich gewesen und jetzt bekommen wir wahrscheinlich im Schnitt 15-20% mehr real Game Performance auf die 980TI. Und das schlimmste daran ist, ich muss sie kaufen. Hab noch eine 780GTX und die Rift ist auf dem Weg :mad:



Nö, aber sicher G-Sync. Reicht doch ;)

Moment: ein <300mm2 performance chip soll um ca. 20% mehr leisten als ein voriger 600mm2 high end chip und dazu bei diametrisch niedrigerem Verbrauch und es ist eine jegliche Art von Verarschung? Mehr ist technisch gesehen nicht moeglich momentan und es war in der Vergangenheit auch nicht besonders besser oder schlechter mit wenigen Ausnahmen. Dieses gilt so oder so fuer beide IHVs.

kdvd
2016-05-06, 10:54:47
@MiamiNice
Ein neuer *04er war bisher immer nur zwischen 10-30% schneller als der letzte Big *00er.

Der_Korken
2016-05-06, 10:58:31
Die wichtigste Frage überhaupt die ich mir stelle... unterstützt GP104 Adaptive-Sync? Ansonsten ist Pascal völlig uninteressant, zumindest für mich. :wink:

Ist GSync nicht eine Unterform von A-Sync? Ansonsten könnte Nvidia afaik auch für die aktuellen Karten schon FreeSync bringen, da der Standard offen ist. Ich bezweifel aber, dass sie das tun, da sie schließlich ihre GSync-Ware teuer verkaufen wollen. Für mich persönlich ist Pascal daher auch völlig uninteressant.

Irgendwie finde ich die 1080 immer uninteressanter. Man bekommt so herb das Gefühl verarscht zu werden. Da wäre imho so viel mehr möglich gewesen und jetzt bekommen wir wahrscheinlich im Schnitt 15-20% mehr real Game Performance auf die 980TI.

Was hast du erwartet? Wann hat denn zuletzt ein Performance-Chip die alten High-End-Karten um 30% oder mehr überboten? Die GTX680 kam dem nahe, aber auch nur weil die GTX580 die ganze DP-Last mit sich rumgeschleppt hat.

MiamiNice
2016-05-06, 11:00:12
Der Ansatz des ganzen Chips ist imho verkehrt gerade für den Sprung auf ein kleineres Fertigungsverfahren. Ich hätte min. auf die Anzahl an Shadern wie in der 980TI getippt mit um 1600 Ghz Basetakt. Also so um 50% real Game Performance auf die 980TI. GP102 dann auf +100% auf die 980TI.
Hier hat man aktuell das Design so gestrickt das noch viel Luft nach oben ist um den Kunden zu melken. Gerade auch bezogen auf das Thema 4k Bildschirme bin ich schwer enttäuscht. Ich würde gerne GP104 auslassen und auf den 102er, wenn ich nicht noch die 780GTX hätte.
Die 1080GTX, sollte sie so kommen, ist irgendwie weder Fisch noch Fleisch, irgendwie fail. Gefühlt irgendwie ein Downgrade wenn man eine 980 (TI) hat. Das sollte so nicht sein.

sulak
2016-05-06, 11:03:55
Hoffe auf HDMI2.0 und Displayport 1.4 für HDR Monitore, echte 10Bit Farbübergänge :smile:

yamo
2016-05-06, 11:07:25
Könnte die 1080 auch zugunsten der yields/des hohen Takts zunächst teildeaktiviert daherkommen (2304/2560) um einen möglichen Konter in Form einer 1085 bzgl. AMD in der Hinterhand zu haben? Oder ist diese Idee völlig abwegig?

Nakai
2016-05-06, 11:07:26
Der Ansatz des ganzen Chips ist imho verkehrt gerade für den Sprung auf ein kleineres Fertigungsverfahren. Ich hätte min. auf die Anzahl an Shadern wie in der 980TI getippt mit um 1600 Ghz Basetakt. Also so um 50% real Game Performance auf die 980TI. GP102 dann auf +100% auf die 980TI.
Hier hat man aktuell das Design so gestrickt das noch viel Luft nach oben ist um den Kunden zu melken. Gerade auch bezogen auf das Thema 4k Bildschirme bin ich schwer enttäuscht. Ich würde gerne GP104 auslassen und auf den 102er, wenn ich nicht noch die 780GTX hätte.
Die 1080GTX, sollte sie so kommen, ist irgendwie weder Fisch noch Fleisch, irgendwie fail. Gefühlt irgendwie ein Downgrade wenn man eine 980 (TI) hat. Das sollte so nicht sein.

NV macht den Chip absichtlich "schwach"? Nein, es ging einfach nicht mehr. Finfet ist eben "entweder oder" und nicht "oder". Ergo höherer Takt und hohe Packdichte schließen sich eben aus.

Ansonsten ist jeder GTX980Ti-Besitzer bis zu GP102/Vega gut versorgt. GP104 wird kaum schneller werden.

sulak
2016-05-06, 11:11:44
Vielleicht gibt es ein neues Schema:

GP102 im Q2/2017, 450-550mm2 dann GV104 Q2/2018 wieder in 300mm2, GV102 Q2/2019 450-600mm2...
Falls das wirtschaftlicher ist als einfach den GP100/GV100 für die Titan Klasse zu nehmen.

MiamiNice
2016-05-06, 11:12:03
Sie hätten den Chip auch einfach etwas größer machen können, sagen wir um 350mm². Zumindest dieses "downgrade" Gefühl sollte vermieden werden bei einer neuen Gen mit neuer Fertigung.

Complicated
2016-05-06, 11:12:08
Ist GSync nicht eine Unterform von A-Sync? Ansonsten könnte Nvidia afaik auch für die aktuellen Karten schon FreeSync bringen, da der Standard offen ist. Freesync ist kein offener Standard. Freesync ist AMDs Umsetzung des offenen Standards A-Sync. Nvidia kann das auch tun unter jedem beliebigen Namen außer Freesync ;) Der gehört AMD.

Ailuros
2016-05-06, 11:15:04
Der Ansatz des ganzen Chips ist imho verkehrt gerade für den Sprung auf ein kleineres Fertigungsverfahren. Ich hätte min. auf die Anzahl an Shadern wie in der 980TI getippt mit um 1600 Ghz Basetakt.

Ein groesserer chip haette zu stark auf die Kosten gehauen und ihn weniger konkurrenzfaehig zu Polaris fuer die kleinen GP104 SKUs gemacht.

Also so um 50% real Game Performance auf die 980TI. GP102 dann auf +100% auf die 980TI.

Nochmal von einem 300mm2 chip? IHVs haben keinen Zauberstab.

Hier hat man aktuell das Design so gestrickt das noch viel Luft nach oben ist um den Kunden zu melken. Gerade auch bezogen auf das Thema 4k Bildschirme bin ich schwer enttäuscht. Ich würde gerne GP104 auslassen und auf den 102er, wenn ich nicht noch die 780GTX hätte.
Die 1080GTX, sollte sie so kommen, ist irgendwie weder Fisch noch Fleisch, irgendwie fail. Gefühlt irgendwie ein Downgrade wenn man eine 980 (TI) hat. Das sollte so nicht sein.

Wenn Du es immer noch nicht verstehen WILLST dass aus einem performance chip nicht mehr rauszuholen ist, kann Dir leider keiner weiterhelfen. Eine 1080 jeglicher Art basierend auf dem GP104 performance chip wird NIE eine wirkliche Aufruestung zu der high end 980Ti sein. Dafuer sollte man auf GP100/2 warten.

HOT
2016-05-06, 11:16:52
Freesync ist kein offener Standard. Freesync ist AMDs Umsetzung des offenen Standards A-Sync. Nvidia kann das auch tun unter jedem beliebigen Namen außer Freesync ;) Der gehört AMD.
GSync hat eh keine Zukunft, dafür ist es einfach zu teuer. Das wird sowieso kommen müssen, dass NV das den Herstellern überlässt. MMn spätestens wenn DP-Port 1.3-Monitore auf den Markt kommen muss man unbedingt den Absprung schaffen, denn Freesync wird dann absoluter Standard sein.

Jupiter
2016-05-06, 11:16:54
Das hört sich für mich gut an aber das Entscheidende ist der Preis. Ich bezahle jedenfalls keine 600€ für 15% mehr Performance zur GTX 980Ti. Da hätte ich mir die GTX 980Ti gleich kaufen können und hätte lange Spaß daran gehabt.

450€ wären in Ordnung aus meiner Sicht, dass ist aber leider zu unrealistisch. Wenn die 1080 und 1070 leistungsmäßig so abschneiden (keine 50% zur Standard GTX 980Ti) und so viel kosten wie erwartet, kann ich wohl bei meiner Karte bleiben.

Thunder99
2016-05-06, 11:20:58
Gehe auch davon aus, dass sich 980Ti Besitzer nicht fürchten müssen wenn sie ihre Karte modifiziert haben (300W BIOS ect) und Titan X Besitzer können sich sowieso entspannt zurück lehnen.

Was hier die meisten wollen ist GP102 oder Vega :naughty:

Tru
2016-05-06, 11:24:18
Hier übrigens das Ergebnis im Fire Strike Extreme, das Whycry nicht verlinken will. :P

http://www.3dmark.com/fs/8370501

Ailuros
2016-05-06, 11:26:25
Es ist eben leider so dass seit der GTX680 das Ganze verdammt verwirrend ist fuer den Endverbraucher, weil sich leider alle am MSRP und weniger an der chip-Groesse orientieren; aber da wir dieselbe alberne Marketing-Turnerei schon mehr als einmal hatten, koennte man sich langsam daran gewoehnen.

Hier übrigens das Ergebnis im Fire Strike Extreme, das Whycry nicht verlinken will. :P

http://www.3dmark.com/fs/8370501

Der Speicher auf jeden Fall auf default Frequenzen und eine anscheinend ziemlich hohe Uebertaktung vom core?

dargo
2016-05-06, 11:26:56
Nö, aber sicher G-Sync.
Ich investiere nicht in eine proprietäre, ähm... tote Technik.

fondness
2016-05-06, 11:40:06
Der Speicher auf jeden Fall auf default Frequenzen und eine anscheinend ziemlich hohe Uebertaktung vom core?

Oder das Ding taktet default wirklich so hoch^^. Dann will ich aber die TDP erst mal sehen.

yamo
2016-05-06, 11:43:24
NV macht das aus wirtschaftlicher Sicht sehr klug, da auch leider der Druck von AMD fehlt.
Wie Ailuros schon sehr gut erklärt, sind die Leistungssteigerungen im Rahmen der Spekulationen.
Die offensichtlich angedachte Preisgestaltung für "neues" high-end zum Preis von enthusiast-HW wirft allerdings fragen auf.
Ich erwarte 699-750 als Einstiegspreis.

BlacKi
2016-05-06, 11:49:05
Ich erwarte 699-750 als Einstiegspreis.
nv wird meiner meinung nach wohl 550-600$ verlangen, straßenpreise in € kann man nichtmal spekulieren, es sei denn man nimmt die schmerzfreiheit der nv user als indikator, dann könnten wir wirklich bei 700-800€ landen^^

Nakai
2016-05-06, 11:51:15
Also wer von NV einen Preis sub GTX980Ti für GP104-400 erwartet, hat sie nicht mehr alle. ;)

GP104 ist genau da, wo NV es eben wünscht, wo GP104 ist. Die hohen Taktraten sprechen von einem Zwang seitens NV gleich ans Limit zu gehen. Womöglich liegt P10 schon sehr nahe an Fury/GM200, dass man den Takt noch etwas hochgejagt hat. :freak:

Ailuros
2016-05-06, 11:53:48
Oder das Ding taktet default wirklich so hoch^^. Dann will ich aber die TDP erst mal sehen.

6+8+8 und eine 300W TDP? Ich halte die Veroeffentlichung vom Resultat auf jeden Fall NICHT als einen Zufall. Es haben einige wohl im Hintergrund die default Frequenzen erfahren und es faellt wohl schwer zu glauben dass es noch darueber Raum fuer Uebertaktungen geben wird.

Troyan
2016-05-06, 11:54:21
Genau wie Maxwell, gell? :rolleyes:

Und nVidia ist unter Zwang? Wie kann man unter Zwang sein, wenn die Konkurrenz nichts bieten kann?!

BlacKi
2016-05-06, 11:55:33
Also wer von NV einen Preis sub GTX980Ti für GP104-400 erwartet, hat sie nicht mehr alle. ;)
die alten bigchips waren bisher immer teurer als die neuen high end chips zum release, warum sollte es diesmal anders sein?

Der_Korken
2016-05-06, 11:55:42
Freesync ist kein offener Standard. Freesync ist AMDs Umsetzung des offenen Standards A-Sync. Nvidia kann das auch tun unter jedem beliebigen Namen außer Freesync ;) Der gehört AMD.

OK, danke für die Korrektur.

Lurtz
2016-05-06, 12:17:51
GSync hat eh keine Zukunft, dafür ist es einfach zu teuer. Das wird sowieso kommen müssen, dass NV das den Herstellern überlässt. MMn spätestens wenn DP-Port 1.3-Monitore auf den Markt kommen muss man unbedingt den Absprung schaffen, denn Freesync wird dann absoluter Standard sein.
Ich hoffe du hast recht, bezweifle es aber wenn die Marktverhältnisse so bleiben.
Async ist eigentlich zu wichtig, als dass jeder IHV sein eigenes Süppchen kocht :frown:

PHuV
2016-05-06, 12:25:59
Hier übrigens das Ergebnis im Fire Strike Extreme, das Whycry nicht verlinken will. :P

http://www.3dmark.com/fs/8370501
Was soll die erste Karte sein? :confused:

scully1234
2016-05-06, 12:26:50
Der Speicher auf jeden Fall auf default Frequenzen und eine anscheinend ziemlich hohe Uebertaktung vom core?

Ich weiss nicht ,wenn jemand vor haette zu uebertakten, wuerde er in 90% der Faelle, doch niemals den Speicher unangetastet lassen.

Ich denke das ist der Boosttakt den 3D Murks da ausliesst. 300MHZ mehr wie GP100 ist ja bezogen auf den kleinen Chip jetzt auch nicht die Welt:smile:

dildo4u
2016-05-06, 12:28:08
Der Speicher auf jeden Fall auf default Frequenzen und eine anscheinend ziemlich hohe Uebertaktung vom core?
3Dmark zeigt keine OC's an.Das ist meine 970@1.3Ghz.


http://abload.de/img/3dmarkb1ogy.png

fondness
2016-05-06, 12:31:35
3Dmark kennt den Chip noch nicht, das ist logisch.

Godmode
2016-05-06, 12:37:44
Gibts heute dann eigentlich eine Vorstellung von GP104, oder ist das wirklich nur eine Veranstaltung für die Presse und unter NDA?

dildo4u
2016-05-06, 12:39:54
Gibts heute dann eigentlich eine Vorstellung von GP104, oder ist das wirklich nur eine Veranstaltung für die Presse und unter NDA?
Es gibt ein stream also wohl Vorstellung für alle.


http://www.geforce.com

Troyan
2016-05-06, 12:41:00
Gibts heute dann eigentlich eine Vorstellung von GP104, oder ist das wirklich nur eine Veranstaltung für die Presse und unter NDA?

Es wird wohl identisch zum 2013 Event sein:
Viele Neuigkeiten + Spoilern von Pascal. Reviews gibt es dann in 2 bis 3 Wochen.

Hugo
2016-05-06, 12:41:44
Ich versteh den Aufwand für GP104 gerade nicht. Würde ein geshrinkter GM200 nicht auch auf ca 300mm² kommen? Wäre ein GM200@16nm nicht billiger und am Ende sogar performanter gewesen?

dildo4u
2016-05-06, 12:42:19
Kann auch sein das Karten schon im Umlauf sind ein Bench mit einem veraltetetn 3770k sieht nicht nach einer Hardwarseite aus.

Ich versteh den Aufwand für GP104 gerade nicht. Würde ein geshrinkter GM200 nicht auch auf ca 300mm² kommen? Wäre ein GM200@16nm nicht billiger und am Ende sogar performanter gewesen?
Die Frage ist ob der 1.8Ghz mitmachen würde.Ein Chip muss man umdesingen um hohe Taktraten zu erreichen ein einfaches shrinken reicht da nicht.

BlacKi
2016-05-06, 12:42:19
Gibts heute dann eigentlich eine Vorstellung von GP104, oder ist das wirklich nur eine Veranstaltung für die Presse und unter NDA?
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Pascal-Live-Stream-1194517/

Troyan
2016-05-06, 12:42:56
Es sind doch rund 300mm^2 bei ca. 8 Milliarden Transistoren. Aber nicht jeder Transistor wird für "sofortige Leistung" investiert.

Mit dem hohen Takt kann man dann einen Ausgleich schaffen.

Hugo
2016-05-06, 12:45:50
Es sind doch rund 300mm^2 bei ca. 8 Milliarden Transistoren. Aber nicht jeder Transistor wird für "sofortige Leistung" investiert.

Mit dem hohen Takt kann man dann einen Ausgleich schaffen.

Ja eben, es scheinen um die 300mm² zu werden. Deswegen frage ich mich, warum einen extra chip entwerfen (Neuerungen von GP10x kenn ich nicht) wenn ein shrink vielleicht das selbe Ergebnis gebracht hätte? :confused:

Der_Korken
2016-05-06, 12:50:28
Ja eben, es scheinen um die 300mm² zu werden. Deswegen frage ich mich ja warum einen extra chip entwerfen (Neuerungen von GP10x kenn ich nicht) wenn ein shrink vielleicht das selbe Ergebnis gebracht hätte? :confused:

Man weiß nicht, was noch an Architekturverbesserungen in Pascal steckt. In Hinblick auf DX12 bekommt man mit Maxwell eventuell mittelfristig Probleme und setzt daher lieber auf eine verbesserte Architektur. Außerdem weiß man nicht, ob ein geshrinkter GM200 sich überhaupt so viel besser takten lässt, um an einen hypothetischen GP104 ranzukommen. Die hohe Taktbarkeit wird ja wohl kaum allein durch die neue Fertigung kommen.

N0Thing
2016-05-06, 12:50:44
Warum einen alten Chip shrinken, wenn man bei den hohen hohen Kosten für die Produktion auch einen neuen Chip bringen kann, der in jedem Bereich besser abschneiden sollte als sein Vorgänger?

BlacKi
2016-05-06, 12:52:27
Ja eben, es scheinen um die 300mm² zu werden. Deswegen frage ich mich, warum einen extra chip entwerfen (Neuerungen von GP10x kenn ich nicht) wenn ein shrink vielleicht das selbe Ergebnis gebracht hätte? :confused:
bessere DX12 unterstützung, kleineres Speicher interface (kleiner und sparsamer), neues chipdesign lässt vermutlich mehr takt zu, gddr5x unterstützung. warum neuen wein in alte schläuche?

dildo4u
2016-05-06, 13:05:39
Jap unter DX12 muss was kommen.

http://www.pcper.com/image/view/68389?return=node%2F65213

Sunrise
2016-05-06, 13:09:52
Die offensichtlich angedachte Preisgestaltung für "neues" high-end zum Preis von enthusiast-HW wirft allerdings fragen auf.
Ich erwarte 699-750 als Einstiegspreis.
Enthusiast-HW ist seit Jahren über $900 US / 900 EUR. GP104 ist Performance-High-End-Klasse.

Und was daran so neu sein soll, wo hier doch schon zigfach geschrieben wurde, dass das exakt die GK104-Strategie ist, muss mir auch mal einer erklären.

Ohne Konkurrenz sind die Preise für NV eben festlegbar wie sie wollen. Punkt.

300mm^2 sind perfekt.

Ailuros
2016-05-06, 13:13:56
Es sind doch rund 300mm^2 bei ca. 8 Milliarden Transistoren. Aber nicht jeder Transistor wird für "sofortige Leistung" investiert.

Mit dem hohen Takt kann man dann einen Ausgleich schaffen.

Damit wir Missverstaendnissen entgehen: core Frequenzen SIND Architektur-bedingt. Offensichtlich hat es NV engineering mehr gebracht bei ihren fruehzeitigen Simulationen einen geringeren Anteil an extra Packdichte fuer 16FF+ zu investieren und dafuer noch mehr am Takt zu schrauben.

Packdichte soll bei allem unter P100 =/< von diesem liegen, ergo bei 25Mio/mm2 sind es bei hypothetischen 294mm2 7.35b Transistoren oder weniger bei leicht geringerer Packdichte. Takten sie default irgendwo in der 1500/1600MHz Region dann sind schon 25Mio/mm2 theoretisch zu viel.

Ätznatron
2016-05-06, 13:16:13
Jap unter DX12 muss was kommen.

http://www.pcper.com/image/view/68389?return=node%2F65213

Immerhin könnte nVidia mit Pascal dann wenigstens zu AMD unter DX12 aufschließen, wenn der postulierte Performance-Gewinn von 30-36% der GTX 1080 gegenüber der GTX 980 Ti tatsächlich zutrifft.

fondness
2016-05-06, 13:18:10
Ohne Konkurrenz sind die Preise für NV eben festlegbar wie sie wollen. Punkt.

Das muss man deshalb nicht auch noch gut heißen und verteidigen. Die Margen von Nvidia sind nicht ohne Grund da wo sie sind, die Preise sind sehr viel höher als sie sein müssten. Aber okay solange die Leute bereit sind soviel Geld auszugeben und dann auch noch glauben sie hätten einen "fairen" Preis bezahlt, sind sie eh selbst Schuld.

dildo4u
2016-05-06, 13:19:31
Immerhin könnte nVidia mit Pascal dann wenigstens zu AMD unter DX12 aufschließen, wenn der postulierte Performance-Gewinn von 30-36% der GTX 1080 gegenüber der GTX 980 Ti tatsächlich zutrifft.
Bei der 970 spielt der Vram mit rein der reale Abstand ist schwer abzuschätzen da auch Fury ein Speicher Krüppel ist.

Nakai
2016-05-06, 13:19:55
Damit wir Missverstaendnissen entgehen: core Frequenzen SIND Architektur-bedingt. Offensichtlich hat es NV engineering mehr gebracht bei ihren fruehzeitigen Simulationen einen geringeren Anteil an extra Packdichte fuer 16FF+ zu investieren und dafuer noch mehr am Takt zu schrauben.


Das kann man gar nicht oft genug sagen. Bevor wieder das Rumgeheule kommt, dass AMD nicht so hohe Taktraten schafft/schaffen wird. Bei AMD wird man möglicherweise genau das umgekehrte Verhalten sehen werden. Moderate Taktraten, aber dafür eine höhere Packdichte und einen höheren Fokus auf Effizienz. Das heißt nicht, dass NV diesmal mit der Effizienz zu kämpfen hat.
300W TDP für GP100-not full auf dem P100-Board sind eine Hausnummer. Aber das ist immer noch "nur" ~0,5W/mm² (und mir ist klar, dass man den ganzen Energieverbrauch nicht auf den Die schieben kann). AMD hat da völlig andere Werte und Parameter.

Ailuros
2016-05-06, 13:20:25
3Dmark zeigt keine OC's an.Das ist meine 970@1.3Ghz.


http://abload.de/img/3dmarkb1ogy.png

http://www.fudzilla.com/news/graphics/40615-alleged-nvidia-geforce-gtx-1080-benchmarks-spotted

Dann erklaer mir wofuer 570 und 1860MHz in beiden Faellen genau stehen.

Ätznatron
2016-05-06, 13:21:49
Bei der 970 spielt der Vram mit rein der reale Abstand ist schwer abzuschätzen da auch Fury ein Speicher Krüppel ist.

Trotzdem liegt der Speicherkrüppel Fury vor der 6 GB Konkurrenz.

Troyan
2016-05-06, 13:28:11
Das kann man gar nicht oft genug sagen. Bevor wieder das Rumgeheule kommt, dass AMD nicht so hohe Taktraten schafft/schaffen wird. Bei AMD wird man möglicherweise genau das umgekehrte Verhalten sehen werden. Moderate Taktraten, aber dafür eine höhere Packdichte und einen höheren Fokus auf Effizienz. Das heißt nicht, dass NV diesmal mit der Effizienz zu kämpfen hat.
300W TDP für GP100-not full auf dem P100-Board sind eine Hausnummer. Aber das ist immer noch "nur" ~0,5W/mm² (und mir ist klar, dass man den ganzen Energieverbrauch nicht auf den Die schieben kann). AMD hat da völlig andere Werte und Parameter.

Ach und nVidia kann das nicht? Du weißt schon, dass nVidia mehr Geld hat für R&D? Bei deinen Postings könnte man glauben, dass nVidia der Underdog ist. :freak:

Natürlich geht nVidia ebenfalls voll auf Effizienz. Die erreichen das eben auch mit 1860Mhz und müssen nicht mit lächerlichen 1150MHz (die bei Fury X z.B. auch fast 400W bedeuten) leben.

fondness
2016-05-06, 13:33:50
Abwarten, bevor hier schon die Felle der Bären verteilt werden :)

Sunrise
2016-05-06, 13:34:39
Das muss man deshalb nicht auch noch gut heißen und verteidigen. Die Margen von Nvidia sind nicht ohne Grund da wo sie sind, die Preise sind sehr viel höher als sie sein müssten. Aber okay solange die Leute bereit sind soviel Geld auszugeben und dann auch noch glauben sie hätten einen "fairen" Preis bezahlt, sind sie eh selbst Schuld.
Doch, das muss man, NV arbeitet eben höchst effektiv und wirtschaftlich. Der Markt regelt den Rest.

Nakai
2016-05-06, 13:35:23
Ach und nVidia kann das nicht? Du weißt schon, dass nVidia mehr Geld hat für R&D? Bei deinen Postings könnte man glauben, dass nVidia der Underdog ist. :freak:


Bitte das hier lesen:
Das heißt nicht, dass NV diesmal mit der Effizienz zu kämpfen hat.

Den Satz hab ich extra hinzugefügt, um mir solche Kommentare dann zu sparen. Vergebene Mühe.

fondness
2016-05-06, 13:36:25
Doch, das muss man, NV arbeitet eben höchst effektiv und wirtschaftlich. Der Markt regelt den Rest.

Ja schon sehr beeindruckend, wie der Kunde (=wir) maximal abgezockt werden. :ugly:
Ich finde es schon immer wieder sehr interessant, wie Unternehmen es schaffen, eine solche Tatsache auch noch zu ihren Vorteil zu verkaufen. Keine Ahnung welche "Triebe" da angesprochen werden.

Agent117
2016-05-06, 13:37:34
Das kann man gar nicht oft genug sagen. Bevor wieder das Rumgeheule kommt, dass AMD nicht so hohe Taktraten schafft/schaffen wird. Bei AMD wird man möglicherweise genau das umgekehrte Verhalten sehen werden. Moderate Taktraten, aber dafür eine höhere Packdichte und einen höheren Fokus auf Effizienz. Das heißt nicht, dass NV diesmal mit der Effizienz zu kämpfen hat.
300W TDP für GP100-not full auf dem P100-Board sind eine Hausnummer. Aber das ist immer noch "nur" ~0,5W/mm² (und mir ist klar, dass man den ganzen Energieverbrauch nicht auf den Die schieben kann). AMD hat da völlig andere Werte und Parameter.

Wenn man von GP100 ausgeht und mal grob überschlägt käme man für einen hypotetischen 2304-2560SP GP104 schon bei um die 200Watt raus.
Mal einfach 2304/3584*300W=192W. GP104 taktet zwar höher, hat aber auch keine Mehrverdrahtung für DP, die mehr ziehen könnte. Das passt aber auch ganz gut zur 67% höheren Effizienz die Nvidia angegeben hat.

MilesEdgeworth
2016-05-06, 13:38:42
Schon lustig wie auf einmal viel Takt ganz toll ist, wenn Nvidia stark den Takt erhöht.. :ugly:

Letztendlich macht das unterschiedliche Vorgehen von AMD und Nvidia die neue Generation erst so richtig interessant. Breites, dicht gepacktes, niedriger taktendes Design gegen "schmaleres", weniger dicht gepacktes Design, das auf enorm hohe Takte ausgelegt ist. Beeindruckend wäre es jedoch allemal, wenn die Spannung bei GP104 gegenüber GM204 nicht stark ansteigen würde und die geleakten Taktraten korrekt sind.

Ailuros
2016-05-06, 13:38:48
Ach und nVidia kann das nicht? Du weißt schon, dass nVidia mehr Geld hat für R&D? Bei deinen Postings könnte man glauben, dass nVidia der Underdog ist. :freak:

Natürlich geht nVidia ebenfalls voll auf Effizienz. Die erreichen das eben auch mit 1860Mhz und müssen nicht mit lächerlichen 1150MHz (die bei Fury X z.B. auch fast 400W bedeuten) leben.

Wie waere es wenn Du seine Posts vorsichtiger durchlesen wuerdest? Denn er behauptet sehr deutlich dass NV auch auf Effizienz geziehlt hat.

Wenn man von GP100 ausgeht und mal grob überschlägt käme man für einen hypotetischen 2304-2560SP GP104 schon bei um die 200Watt raus.
Mal einfach 2304/3584*300W=192W. GP104 taktet zwar höher, hat aber auch keine Mehrverdrahtung für DP, die mehr ziehen könnte. Das passt aber auch ganz gut zur 67% höheren Effizienz die Nvidia angegeben hat.

Dann lass Dich positiv ueberraschen.

Troyan
2016-05-06, 13:40:37
Bitte das hier lesen:


Den Satz hab ich extra hinzugefügt, um mir solche Kommentare dann zu sparen. Vergebene Mühe.

Der Satz macht null sinn. nVidia ging mit Kepler und Maxwell auf Effizienz pur. GTX980 taktet mit 11xxMhz und liegt unter Tonga mit 1000MHz bei >50% mehr Leistung. GTX980 taktet 53% höher als Nano und liegt bei 20W(11%) weniger Verbrauch.

nVidia kann also sehr wohl auf maximale Leistung bei maximaler Effizienz gehen.

Nakai
2016-05-06, 13:45:10
Wenn man von GP100 ausgeht und mal grob überschlägt käme man für einen hypotetischen 2304-2560SP GP104 schon bei um die 200Watt raus.
Mal einfach 2304/3584*300W=192W. GP104 taktet zwar höher, hat aber auch keine Mehrverdrahtung für DP, die mehr ziehen könnte. Das passt aber auch ganz gut zur 67% höheren Effizienz die Nvidia angegeben hat.

Mhh, sicherlich sollte eine DP-Operation natürlich mehr Energie verbraten, als eine SP-Operation (deutlich größere Multiplizierer). Der Durchsatz ist aber auch nur halb so hoch. Eine DP-Unit ist etwa Faktor 3 größer als eine SP-Unit und verbraucht damit definitiv mehr Energie. Ich würde dne Umstand aber nicht überbewerten. Am ehesten wird NVLink noch ordentlich Strom verbrauchen. Und dann ist der Chip noch sehr fett , was sonstige Nebeneffekte bzgl dem Clock Mesh/Tree und dem Interconnect/Verdrahtung nach sich ziehen wird. Es sind keine gute Vorraussetzungen, ja, aber nicht unbedingt vergleichbare Rahmenbedingungen.

;)

fondness
2016-05-06, 13:45:10
Ich bin mal so frei:

GP104-400:
- 2560 SPs
- 1,6Ghz Boost
- 256 bit SI
- 2500 Mhz GDDR5X
- 8GB VRAM
- 180W TDP

So und jetzt teert mich :ugly:

Performance von einem solchen Ding dürfte anhand der 3dmark-Werte bei ~980Ti@1,35Ghz liegen.

Andi Y
2016-05-06, 13:45:40
Was soll die erste Karte sein? :confused:
980 SLI

Ailuros
2016-05-06, 13:46:49
Uebrigens als Seitennotiz duerfte P100 tatsaechlich fast 18 Milliarden Transistoren haben; es wird wohl die Redundanz weggerechnet auf 15.x Milliarden? Wenn ja scheint die Redundanz Analogie bei 16FF+ zu steigen?

Ailuros
2016-05-06, 13:49:34
Ich bin mal so frei:

GP104-400:
- 2560 SPs
- 1,6Ghz Boost
- 256 bit SI
- 2500 Mhz GDDR5X
- 8GB VRAM
- 180W TDP

So und jetzt teert mich :ugly:

Performance von einem solchen Ding dürfte anhand der 3dmark-Werte bei ~980Ti@1,35Ghz liegen.

Wenn ich mich nicht irre ist nur der letzte Wert etwas zu hoch, wobei es sich um maximalen Verbrauch handelt und nicht TDP per se (wie seit Maxwell).

fondness
2016-05-06, 14:02:00
Wenn ich mich nicht irre ist nur der letzte Wert etwas zu hoch, wobei es sich um maximalen Verbrauch handelt und nicht TDP per se (wie seit Maxwell).

Okay danke für die Info, das ist ja dann sogar besser als ich gedacht hätte. Dann wohl 167W max. Verbrauch.

yamo
2016-05-06, 14:02:57
Enthusiast-HW ist seit Jahren über $900 US / 900 EUR. GP104 ist Performance-High-End-Klasse.

Und was daran so neu sein soll, wo hier doch schon zigfach geschrieben wurde, dass das exakt die GK104-Strategie ist, muss mir auch mal einer erklären.

Ohne Konkurrenz sind die Preise für NV eben festlegbar wie sie wollen. Punkt.

300mm^2 sind perfekt.

Die Strategie hat sich bewährt. ob Du nun Deinen Punkt hintertsetzt, oder ich geb nen Shit drauf, who cares?
Mir geht´s um den Preis weil NV hier den Daumen drauf hat. Kann man mitmachen, muss man nicht ;)

Gipsel
2016-05-06, 14:07:31
Uebrigens als Seitennotiz duerfte P100 tatsaechlich fast 18 Milliarden Transistoren haben; es wird wohl die Redundanz weggerechnet auf 15.x Milliarden? Wenn ja scheint die Redundanz Analogie bei 16FF+ zu steigen?Das könnte locker hinkommen, wenn man die Dummy-Transistoren mitzählt, die logisch gesehen an sich funktionlos sind und die man nur drin hat, damit die anderen Transistoren besser funktionieren. Dummy-Fins und -Gates gibt es übrigens auch noch, die beugen störenden Effekten bei der Produktion vor. Die sind inzwischen normaler Teil der Design Rules.

dildo4u
2016-05-06, 14:26:55
Ich bin mal so frei:

GP104-400:
- 2560 SPs
- 1,6Ghz Boost
- 256 bit SI
- 2500 Mhz GDDR5X
- 8GB VRAM
- 180W TDP

So und jetzt teert mich :ugly:

Performance von einem solchen Ding dürfte anhand der 3dmark-Werte bei ~980Ti@1,35Ghz liegen.
Nur 100Mhz mehr als der dicke Chip kannste vergessen,1.8Ghz wird default Boost sein.

StefanV
2016-05-06, 14:37:05
Das kann man gar nicht oft genug sagen. Bevor wieder das Rumgeheule kommt, dass AMD nicht so hohe Taktraten schafft/schaffen wird. Bei AMD wird man möglicherweise genau das umgekehrte Verhalten sehen werden. Moderate Taktraten, aber dafür eine höhere Packdichte und einen höheren Fokus auf Effizienz. Das heißt nicht, dass NV diesmal mit der Effizienz zu kämpfen hat.
Und das weißt du jetzt woher genau?

Warum glaubst du, dass AMD so schlecht wäre?
Welche Anzeichen dafür gibt es denn?!

Sollte es nicht eher bedenklich sein, dass nVidia jetzt schon Performance Werte raus haut?!

Wenn du dich mal zurück erinnerst, so gab es durchaus mal die Situation, dass AMD mit einem 'Performance Chip', der deutlich kleiner, deutlich niedriger getaktet war und auch nur ein 256bit Speicherinterface hatte, die Performance eines High End nVidia Chips erreicht hat, der deutlich höher getaktete Shader hatte, 512bit Speicherinterface, auch das Die deutlich größer war (AFAIR +50%)...

Zumal es ja auch kaum wirklich zuverlässige Aussagen zu der Performance der AMD Chips gibt, auch die Taktraten sind nicht wirklich bekannt. Kann ja auch sein, dass AMD hier die bisherigen Chips extra niedrig taktet und deutlich mehr drin ist, was ja gerade bei Notebookchips üblich ist, sie deutlich niedriger zu takten als die Desktop Chips...
Warum soll jetzt polaris nur moderate Taktsteigerungen ermöglichen?!
Welche Anzeichen gibt es dafür denn?!

Was spricht dagegen, dass AMD die Polaris Chips auch auf 1,5GHz bringen kann?!

StefanV
2016-05-06, 14:41:28
Nur 100Mhz mehr als der dicke Chip kannste vergessen,1.8Ghz wird default Boost sein.
Weil??

Sunrise
2016-05-06, 14:54:46
Ja schon sehr beeindruckend, wie der Kunde (=wir) maximal abgezockt werden. :ugly:
Ich finde es schon immer wieder sehr interessant, wie Unternehmen es schaffen, eine solche Tatsache auch noch zu ihren Vorteil zu verkaufen. Keine Ahnung welche "Triebe" da angesprochen werden.
Sind einfach unterschiedliche Sichtweisen. Du hättest gern deinen Wunschpreis als Endverbraucher, das interessiert aber nicht, weil ein Produkt das Wert ist was man bereit ist dafür zu zahlen.

Wenn es dir das nicht Wert ist, einfach nicht kaufen.

Gibt ja AMD.

PHuV
2016-05-06, 14:59:10
Sind einfach unterschiedliche Sichtweisen. Du hättest gern deinen Wunschpreis als Endverbraucher, das interessiert aber nicht, weil ein Produkt das Wert ist was man bereit ist dafür zu zahlen.

Wenn es dir das nicht Wert ist, einfach nicht kaufen.
Korrekt. Man sieht ja in den letzten Jahren, daß die Leute diese Preise bezahlen, und die Karten bei Release schnell weg gehen wie warme Semmeln.

fondness
2016-05-06, 14:59:42
Nur 100Mhz mehr als der dicke Chip kannste vergessen,1.8Ghz wird default Boost sein.

Die 1,86Ghz waren der NV-Marketing "sehr her, da ist auch noch OC-Spielraum vorhanden" Leak. Default Taktraten werden darunter liegen.

scully1234
2016-05-06, 15:03:05
Sind einfach unterschiedliche Sichtweisen. Du hättest gern deinen Wunschpreis als Endverbraucher, das interessiert aber nicht, weil ein Produkt das Wert ist was man bereit ist dafür zu zahlen.

Wenn es dir das nicht Wert ist, einfach nicht kaufen.

Gibt ja AMD.


Nennt sich glaub ich Marktwirtschaft sowas :smile:

Und es ist schon lange her ich weiß ,aber auch AMD hatte einstmals hochpreisige Hardware ''Athlon Black Edition''

Korrekt. Man sieht ja in den letzten Jahren, daß die Leute diese Preise bezahlen, und die Karten bei Release schnell weg gehen wie warme Semmeln.


Richtig und solange das geschieht waere ein Unternehmen ja selten doof den Bonus nicht einzustreichen

Wenn ich ein Produkt habe mit Alleinstellungsmerkmal ,werde ich immer bestrebt sein den hoechst moeglichen Profit zu generieren, und so wie es aussieht ist vorerst GP104 allein auf weiter Flur im Highendbereich

Ailuros
2016-05-06, 15:15:13
Und das weißt du jetzt woher genau?

Warum glaubst du, dass AMD so schlecht wäre?
Welche Anzeichen dafür gibt es denn?!

Da er nirgends erwaehnt hat dass AMD schlecht waere, musst Du Dich wohl als roter Anhaenger (genauso wie Troyan als gruener Anhaenger) fragen was Ihr eigentlich lest bzw. davon versteht.

Sollte es nicht eher bedenklich sein, dass nVidia jetzt schon Performance Werte raus haut?!

Es gibt immer leaks der letzten Minute sobald jegliche IHV Partner die erste hw ausgeliefert bekommen.

Wenn du dich mal zurück erinnerst, so gab es durchaus mal die Situation, dass AMD mit einem 'Performance Chip', der deutlich kleiner, deutlich niedriger getaktet war und auch nur ein 256bit Speicherinterface hatte, die Performance eines High End nVidia Chips erreicht hat, der deutlich höher getaktete Shader hatte, 512bit Speicherinterface, auch das Die deutlich größer war (AFAIR +50%)...

Ja und? Es gab etliche Architekturen von beiden Seiten seither.

Zumal es ja auch kaum wirklich zuverlässige Aussagen zu der Performance der AMD Chips gibt, auch die Taktraten sind nicht wirklich bekannt. Kann ja auch sein, dass AMD hier die bisherigen Chips extra niedrig taktet und deutlich mehr drin ist, was ja gerade bei Notebookchips üblich ist, sie deutlich niedriger zu takten als die Desktop Chips...
Warum soll jetzt polaris nur moderate Taktsteigerungen ermöglichen?!
Welche Anzeichen gibt es dafür denn?!

Kein Grund zur Panik. Polaris chips sind eben nicht fuer hohe Frequenzen ausgelegt.

Was spricht dagegen, dass AMD die Polaris Chips auch auf 1,5GHz bringen kann?!

Dass sie nicht dafuer ausgelegt wurden. AMD hat ihr Frequenz-ziel voll erreicht und konnte noch etwas dazustecken welches normal ist wenn mit dem chip alles nach Plan laeuft. Es gab sogar zuverlaessige Meldungen dafuer wo sie sich genau bewegt haben.

Gar nichts von dem was er postete ist negativ weder fuer AMD noch fuer NVIDIA. Er erwaehnte klipp und klar das beide eine andere Masche verwendet haben, welches erstmal stimmt, hat aber nirgends erwaehnt dass die eine oder andere Seite die bessere Effizienz hat.

Ailuros
2016-05-06, 15:17:12
Die 1,86Ghz waren der NV-Marketing "sehr her, da ist auch noch OC-Spielraum vorhanden" Leak. Default Taktraten werden darunter liegen.

Wenn die Frequenz auch wirklich stimmt. In einem vorigen link stand die gleiche GPU mit nur 570MHz da welches wohl auch nicht stimmen kann.

BlacKi
2016-05-06, 15:29:22
Wenn die Frequenz auch wirklich stimmt. In einem vorigen link stand die gleiche GPU mit nur 570MHz da welches wohl auch nicht stimmen kann.
wenn man die leaks der 680 und 980 heranzieht dann waren das immer non OC zahlen, teilweiße haben sie exakt denselben takt gehabt. daher muss man schon fast unterstellen das der angegebene boost stimmt.

N0Thing
2016-05-06, 15:36:18
Das kann man gar nicht oft genug sagen. Bevor wieder das Rumgeheule kommt, dass AMD nicht so hohe Taktraten schafft/schaffen wird. Bei AMD wird man möglicherweise genau das umgekehrte Verhalten sehen werden. Moderate Taktraten, aber dafür eine höhere Packdichte und einen höheren Fokus auf Effizienz. Das heißt nicht, dass NV diesmal mit der Effizienz zu kämpfen hat.
300W TDP für GP100-not full auf dem P100-Board sind eine Hausnummer. Aber das ist immer noch "nur" ~0,5W/mm² (und mir ist klar, dass man den ganzen Energieverbrauch nicht auf den Die schieben kann). AMD hat da völlig andere Werte und Parameter.


Ach und nVidia kann das nicht? Du weißt schon, dass nVidia mehr Geld hat für R&D? Bei deinen Postings könnte man glauben, dass nVidia der Underdog ist. :freak:

Natürlich geht nVidia ebenfalls voll auf Effizienz. Die erreichen das eben auch mit 1860Mhz und müssen nicht mit lächerlichen 1150MHz (die bei Fury X z.B. auch fast 400W bedeuten) leben.

Und das weißt du jetzt woher genau?

Warum glaubst du, dass AMD so schlecht wäre?
Welche Anzeichen dafür gibt es denn?!

Sollte es nicht eher bedenklich sein, dass nVidia jetzt schon Performance Werte raus haut?!

[...]

;D Herrlich.


Ich freue mich richtig auf die neue Generation, vermutlich unterschiedliche Ansätze bei der Frage Packdichte oder Frequenz, unterschiedliche Prozesse, unterschiedliche Segemnte, die zuerst bedient werden, da merkt man wieder, wie langweilig die letzten Jahre durch die langlebige 28nm Fertigung war.

Richtig cool wäre es, wenn am Ende auf beiden Seiten vergleichbar leistungsfähige und auch im Verbrauch ähnliche Produkte heraus kommen würden. :)

LSSJBroly
2016-05-06, 15:36:34
Zu den 1860 MHz - der Takt könnte aber auch das im BIOS festgelegte Boost-Limit sein. Da der Treiber/der 3DMark die Karte noch nicht erkannt hat, liest der halt diesen Takt aus. Die 1.860 MHz gibt es sogar als festgelegten Taktwert in einem Maxwell-Bios.
http://abload.de/img/boost-limittvy3j.jpg (http://abload.de/image.php?img=boost-limittvy3j.jpg)



Ein ähnliches Verhalten zeigt auch der Unigine 'Valley' Benchmark auf. Der zeigt bei Geforce Karten mit Boost ebenfalls immer das Boost-Limit an. Die reale Taktrate liegt deutlich niedriger. (oben rechts)
http://abload.de/thumb/valleyo2kcd.jpg (http://abload.de/image.php?img=valleyo2kcd.jpg)

Somit ist es möglich, dass die Karte im 3DMark real deutlich niedriger taktete - ich schätze eher in dem Bereich von rund 1.650 MHz. Das würde soweit passen, dass das rund 5% mehr Rechenleistung gegenüber meiner 1.430 MHz 980 Ti wäre - passend dazu sind die aufgetauchten Werte in etwa 5% höher als meine erreichten Werte:
http://www.3dmark.com/fs/8378736
http://www.3dmark.com/3dm11/11224238

Ailuros
2016-05-06, 15:40:17
LSSJBroly,

Guter Punkt; hab ich mir schon irgendwie so vorgestellt.

N0Thing,

Ich spendier ne Runde https://c1.staticflickr.com/9/8515/8538739184_77888e550f_m.jpg

Timbaloo
2016-05-06, 15:40:22
;D Herrlich.
Eher :facepalm:

Wird Zeit, dass die Karten kommen, den Käse hier kann man nur noch unter Drogeneinfluss lesen...

Agent117
2016-05-06, 15:45:45
Dann lass Dich positiv ueberraschen.

Ok, dann sieht das wieder recht gut für NV aus.
Da NV mich jetzt doch schon fast positiv überrascht hat, wenn sie GTX 980 Ti +15% bei ca 165W bringen, bleibt nur zu hoffen dass auch Polaris als Gesamtpacket überzeugen kann sonst wird sich AMD auch diese Generation kaum erholen können.
Hoffe man erreicht hier Fury bis Fury X Performance bei 150W dann könnte man biszchen über den Preis gehen ohne effizienztechnisch groß im Nachteil zu sein.

Nakai
2016-05-06, 16:19:52
Ich spendier ne Runde https://c1.staticflickr.com/9/8515/8538739184_77888e550f_m.jpg

;D

Der Smiley ist so schlecht...ich brauch den.:freak:

Da ich gerade auf Arbeit bin, hab ich sowieso keine Zeit zum ausufernden Antworten. Aber ich tu es mal doch. Nur soviel:
Wenn man von Leuten "beider" Lager so gelöchert wird, muss man was richtig gemacht haben.

Um trotzdem noch richtig zu antworten, damit Ail nicht die ganze Zeit für mich einspringen muss (;D).

@StefanV:
Siehe Treiberleaks zu P10/11 und eben auch Leaks bzgl Taktraten. Ich würde Polaris maximal 10~15%+ Takt bescheinigen. Aber im Endeffekt ist es egal, da der Speichertakt und die Bandbreite ziemlich gut vorgibt, wohin die Reise geht. Tongas DCC ist oft genug noch "schlecht", weswegen da Polaris definitiv Verbesserungen bringen wird, auch mit mehr L2-Cache.

Ansonsten, ein paar Speku hierzu von mir. GCNs Pipeline ist etwas kürzer, mit 4 Takten Latenz. NV hat 6 Takte. AMD hat immer deutlich mehr SPs/mm2 verbaut. AMD wird wohl deswegen eher auf Packdichte gehen, weil die architekturellen Rahmenbedingungen in diese Richtung gehen.

@Troyan:
NV hat seit jeher niemals so stark versucht, ihre Chips an die Grenze des Machbaren zu zwingen. Alle NV-Chips haben ungefähr 0,5W/mm² von der maximalen globalen TDP der Karte. Maxwell sogar noch etwas weniger.
AMD ist generell ein gutes Stück darüber. Die Folge: Die Karten laufen heiß und alles wird komplizierter. Bei ~300mm² wird NV bestimmt nicht über 200W gehen. Und wie es Ail gerade angedeutet hat, wird man auf Maxwell-Niveau bleiben.

@LSSJBroly:

Ich hoffe das stimmt nicht. Weil der Sprung von 1,6 auf 1,8Ghz ist nicht sonderlich groß. Das muss aber nix heißen, da BIOS einfach nur BIOS ist.

Unicous
2016-05-06, 16:26:48
Ich wollte eigentlich gestern schon schreiben, dass ich die "fast" 1,9 GHz für mehr als unwahrscheinlich halte, aber da so viele dermaßen überzeugt von diesem Wert sind wollte ich wenigstens Samstag Nacht abwarten.:wink:


Dank gilt LSSJBroly, der hier mal die Boost Clock Tabelle gepostet hat um uns alle ein wenig zu erden.

Finde es immer wieder lustig, wie man sich ohne Nachzudenken auf solche "Leaks" stürzt und wirklich keine Vorsicht walten lässt.

Skysnake
2016-05-06, 16:41:12
Das könnte locker hinkommen, wenn man die Dummy-Transistoren mitzählt, die logisch gesehen an sich funktionlos sind und die man nur drin hat, damit die anderen Transistoren besser funktionieren. Dummy-Fins und -Gates gibt es übrigens auch noch, die beugen störenden Effekten bei der Produktion vor. Die sind inzwischen normaler Teil der Design Rules.
Die sind aber schon seit 28nm zwingender Bestandteil der Designrules. Also von daher sollte sich da nicht wirklich viel ändern.

Wenn könnte es nur sein, das man mehr Fillerzelles einbauen muss. Ansonsten geht die Tendenz seit 28nm dazu breite Transistoren aufzubrechen, da die "langen" Kanäle schlechtere performen.

nVidia wird mit nVlink eher relativ viele Filler einbauen müssen auf den Baselayern, um die Gatedichte konstant zu halten. Durch den ganzen Analogkram mit nVLink usw. geht da die Schere zwischen genutzen und vorhandenen Transistoren natürlich auseinander.

yamo
2016-05-06, 17:14:35
Eher :facepalm:

Wird Zeit, dass die Karten kommen, den Käse hier kann man nur noch unter Drogeneinfluss lesen...

Weil hier nix mehr kommt:
Ich find´s so schön

Godmode
2016-05-06, 17:23:17
Sobald GP104 endlich vorgestellt ist, kommen sicher wieder einige Spezialisten auf die HBM Diskussion zurück, schließlich kommen ja noch andere Pascal Chips. Da kann man dann schon mal 100 Seiten darüber streiten, ob nun HBM verwendet wird oder nicht. Also langweilig wird es hier sicher nicht. :)

Ravenhearth
2016-05-06, 17:32:31
Ich könnte mir gut vorstellen, dass Nvidia nur bei GP100 HBM nutzt und GP102 mit 384 bit GDDR5X daherkommt. Wenn GP102 einfach ein GP100 mit viel weniger DP bzw. ein GP104 +50% wird, dann könnten 480 GB/s (bei 10 Mbps) doch ausreichen.

Sunrise
2016-05-06, 17:40:43
Ich könnte mir gut vorstellen, dass Nvidia nur bei GP100 HBM nutzt und GP102 mit 384 bit GDDR5X daherkommt. Wenn GP102 einfach ein GP100 mit viel weniger DP bzw. ein GP104 +50% wird, dann könnten 480 GB/s (bei 10 Mbps) doch ausreichen.
Das könnte es nicht nur, das tut es auch (zumindest rein rechnerisch von GP104 ausgehend). Für die Workstation-Karten reicht das auch allemal, HBM wäre nur für brutale Bandbreiten deutlich >500GB/s wirklich sinnvoll, was ein Chip aber nutzen muss und die IHVs sind selten zu großzügig. Da wird vorher eher am allgemeinen Durchsatz und Kompression optimiert, bevor man sich hier HBM ans Bein bindet.

StefanV
2016-05-06, 17:46:04
@StefanV:
Siehe Treiberleaks zu P10/11 und eben auch Leaks bzgl Taktraten. Ich würde Polaris maximal 10~15%+ Takt bescheinigen.
R9 M395X -> 909MHz Boost
R9 M390X -> 723MHz Boost
(Tonga)

R9-380X -> zwischen 970 und 1040MHz Chip

Und was hat AMD bisher meist vorgeführt?!
RICHTIG, Notebooks...

Denn woher weißt du jetzt, dass das kein mobile Chip war und dass AMD nicht mehr als diese niedrigen Taktraten 'freigegeben' hat und dass die Retail Produkte deutlich höher takten werden?!

Das von vornherein auszuschließen, ist schon nicht angebracht.

Zumal man auch nicht vergessen sollte, dass der gute alte Tahiti schon mit 1100MHz @ Default auf den Markt geschmissen wurde.
Von Gigabyte gibt es sogar R7 360 Chips, die mit 1200MHz ausgeliefert wurden.

Und jetzt nimmst du an, dass der Takt gering sein soll?!
Warum?
Was spricht dagegen, dass AMD auch die Taktbarkeit der Chips erhöht hat und z.B. 1500MHz möglich wären?!

@Troyan:
NV hat seit jeher niemals so stark versucht, ihre Chips an die Grenze des Machbaren zu zwingen. Alle NV-Chips haben ungefähr 0,5W/mm² von der maximalen globalen TDP der Karte.
Sicher, dass das auch bei Fermi der Fall war?
Oder bei G200??
Und anderen Karten...

dildo4u
2016-05-06, 17:47:31
Wurde doch erklärt Packdichte ist kompackter damit die Die kleiner wird das beschränkt die Taktbarkeit.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11023109&postcount=4561

Blediator16
2016-05-06, 18:00:28
Am Ende ist nur entscheidend was raus kommt ob bei 200 oder 2000mhz

Godmode
2016-05-06, 18:26:24
Am Ende ist nur entscheidend was raus kommt ob bei 200 oder 2000mhz

Sehe ich genau so. Es ist doch völlig egal, wieviel mm2, Takt, mit/ohne HBM, mit/ohne GDDR5(X), etc.. rauskommt, am Ende muss FPS/Watt und die absoluten FPS passen. Beide Kenngrößen (FPS/Watt und FPS) müssen mit jeder Generation ordentlich ansteigen, dann ist ein Chip gut.

Achill
2016-05-06, 18:30:54
Am Ende ist nur entscheidend was raus kommt ob bei 200 oder 2000mhz

Sehe ich genau so. Es ist doch völlig egal, wieviel mm2, Takt, mit/ohne HBM, mit/ohne GDDR5(X), etc.. rauskommt, am Ende muss FPS/Watt und die absoluten FPS passen. Beide Kenngrößen (FPS/Watt und FPS) müssen mit jeder Generation ordentlich ansteigen, dann ist ein Chip gut.

Genau!

dildo4u
2016-05-06, 18:31:51
Am Ende ist nur entscheidend was raus kommt ob bei 200 oder 2000mhz
Mehr Spielraum beim Takt bedeutet mehr Leistung ohne Aufpreis,eine 980Ti ohne OC ist im Bereich der Fury X,mit OC kann sie sich gut absetzen.

Ravenhearth
2016-05-06, 18:33:15
Wir werden ja sehen, wie viel Spielraum Pascal mit >1,5GHz noch haben wird...

Botcruscher
2016-05-06, 18:37:17
Selbst mit Fakten wäre ein Diskussion müßig. Polaris und Pascal haben ganz unterschiedliche Designziele.
Passende Vergleiche gibt es erst mit Vega.

scully1234
2016-05-06, 18:43:38
@LSSJBroly:

Ich hoffe das stimmt nicht. Weil der Sprung von 1,6 auf 1,8Ghz ist nicht sonderlich groß. Das muss aber nix heißen, da BIOS einfach nur BIOS ist.

Das kann in dem Fall dann aber auch bedeuten das hier jemand gezaubert haben koennte mit dem Ascii Editor :smile:

Soweit das damals korrekt war ,nimmt der 3D Murks bei unbekannter GPU eigentlich??? immer die Idle States als Referenz Wert.

Godmode
2016-05-06, 18:49:31
In 11 Minuten ist übrigens der Countdown auf Null:
http://orderof10.com/humanityshallbeenlightened

Mal sehen mit was sie uns erleuchten wollen :rolleyes:

scully1234
2016-05-06, 18:51:29
Der Vorhang faellt und man sieht Jensen beim Schnitzen:smile:

Godmode
2016-05-06, 18:55:38
Der Vorhang faellt und man sieht Jensen beim Schnitzen:smile:

Von Holzkarten? ;D

Eventuell wird ja schon irgendetwas gezeigt, zumindest irgendwelche nackten Daten.

Edit: Die Seite ist gerade etwas überlastet. ^^

ChaosTM
2016-05-06, 19:02:51
ein weißer Bildschirm - nicht sehr erleuchtend ^^

mckenzie
2016-05-06, 19:04:50
Welche Trails nehmt ihr ? Vielleicht können wir uns gegenseitig helfen.#

Ich habe mal 1/3/5 genommen.

Edit: macht wohl nur Sinn, wenn man jetzt gerade in Austin ist....

dildo4u
2016-05-06, 19:05:29
http://abload.de/img/nvidiaz0btf.png

scully1234
2016-05-06, 19:11:27
Ich bekomme immer noch ne weiße Seite angezeigt^^

Isen
2016-05-06, 19:15:01
Hoffnungslos abgeschmiert :D - ich kriegt nur 00:00:00 angezeigt. Dat wars.

mckenzie
2016-05-06, 19:15:07
Ich bekomme immer noch ne weiße Seite angezeigt^^

Es dürfte sich um eine Schnitzeljagd innerhalb von Austin handeln. Die ersten 50 bekommen Zutritt zum Event. Ohne physisch vor Ort zu sein, kann man die Aufgaben aber nicht lösen.

Triniter
2016-05-06, 19:42:09
8 PM CDT dürfte bei uns dann 2 Uhr in der Nacht sein. Naja schade, dann kommt das überraschende Battlefield 1 tatsächlich doch noch vorher. Schade das Hardware schwerer zu leaken ist als SW :-P

scully1234
2016-05-06, 19:43:07
3 Uhr oder bist du auf der Insel?

http://www.timeanddate.com/worldclock/fixedtime.html?p1=224&iso=20160506T18&msg=NVIDIA%20Livestream%20on%20Twitch.TV/NVIDIA

Triniter
2016-05-06, 19:57:54
3 Uhr oder bist du auf der Insel?

http://www.timeanddate.com/worldclock/fixedtime.html?p1=224&iso=20160506T18&msg=NVIDIA%20Livestream%20on%20Twitch.TV/NVIDIA
Mist, vertan...

StefanV
2016-05-06, 20:36:28
Wurde doch erklärt Packdichte ist kompackter damit die Die kleiner wird das beschränkt die Taktbarkeit.
...was bei dieser Generation aber eben noch NICHT geklärt ist, weswegen wir hierzu am besten kleinere Brötchen backen sollten und das nicht als Fakt hinstellen.
Denn diese Dinge sind noch völlig offen!

horn 12
2016-05-06, 23:17:58
Heute früh morgen das Event ( Um 3 Uhr Früh, gab es dies jemals?)
Still und ohne große Deutsche und Europäische Presse und morgens die Zusammenfassung
Zudem Battelfield 5 als Zusatz

Scheint so als ob dies nicht ein Großer Wurf werden dürfte und sich NV der Sache nicht allzusicher ist!
Mann muss wohl ordentlich Takt draufhauen um sich von Polaris absetzen zu können, Performancemässig meine ich!
Schlussendlich werden es vielleicht durch die Bank knappe 20% sein!

dildo4u
2016-05-06, 23:19:15
...was bei dieser Generation aber eben noch NICHT geklärt ist, weswegen wir hierzu am besten kleinere Brötchen backen sollten und das nicht als Fakt hinstellen.
Denn diese Dinge sind noch völlig offen!
Der Chip ist kleiner Physik und so Leckströme sind eine Realität.

sulak
2016-05-06, 23:21:44
Heute früh morgen das Event ( Um 3 Uhr Früh, gab es dies jemals?)
Still und ohne große Deutsche und Europäische Presse und morgens die Zusammenfassung
Zudem Battelfield 5 als Zusatz

Scheint so als ob dies nicht ein Großer Wurf werden dürfte und sich NV der Sache nicht allzusicher ist!
Mann muss wohl ordentlich Takt draufhauen um sich von Polaris absetzen zu können, Performancemässig meine ich!
Schlussendlich werden es vielleicht durch die Bank knappe 20% sein!

Hä? Amerikanische Firma zeigt ihre Produkte am Abend ihrer Zeitzone... und es nennt sich Battlefield 1 ;)

y33H@
2016-05-06, 23:48:50
Still und ohne große Deutsche und Europäische Presse und morgens die ZusammenfassungIch hab gehört, man kann Deutsche und Europäer in die USA einfliegen :eek:

Troyan
2016-05-06, 23:52:10
Ich hab gehört, man kann Deutsche und Europäer in die USA einfliegen :eek:

Wer wird denn am Zoll bevorzugt? Der Deutsche oder Europäer? :confused:

Unicous
2016-05-06, 23:53:22
Und warum werden kleine Deutsche diskriminiert?:eek:

horn 12
2016-05-07, 00:00:18
Nun gut, denke aber das weitaus weniger kommt als vielfalls angenommen
2GB Speicher mehr, ist NICE , aber NV hat auch mehr Speicher nötig als die Konkurrenz,
AMD geht da genügsamer mit um, und ist kein Aufspielen auf HBM welcher auch knapp ist mit seinen 4GB!

DX12 Schwäche vielleicht etwas ausgemärzt, und optimiert zwecks Treiber !!
Performance mässig wohl zwischen GTX 980TI Stock und GTX 980TI @1500 Mhz
Rechne vor Allem unter 4K wird die GTX 980TI schwer zu schlagen sein mit der GTX 1080
da auch die Bandbreite an die Übertaktete GTX 980TI nicht ganz heranreicht.

scully1234
2016-05-07, 01:02:47
Ich hab gehört, man kann Deutsche und Europäer in die USA einfliegen :eek:


Das ist nur ein unbestätigtes Gerücht ;D

Noch 2 Stunden bis zur Peepshow

Schrotti
2016-05-07, 01:48:52
Noch 2 Stunden bis zur Peepshow

Zumindest weiß ich morgen ob meine Übergangs R9 390 noch länger im PC verweilen muss oder ob die 1080 der Burner wird.

scully1234
2016-05-07, 01:52:32
http://i.imgur.com/larzO7w.png?1

Rente
2016-05-07, 03:03:18
Die Musik im Stream ist schon mal zum abgewöhnen.
Ach und es fängt jetzt an. ;)

https://www.twitch.tv/nvidia

scully1234
2016-05-07, 03:06:04
ich nehme noch Wetten an ob Jensen wieder im Rocker Outfit erscheint

illidan
2016-05-07, 03:06:20
Klingt sehr nach Fraktus.

Rente
2016-05-07, 03:07:48
ich nehme noch Wetten an ob Jensen wieder im Rocker Outfit erscheint
You just hit the Jackpot!

scully1234
2016-05-07, 03:07:52
ha wieder die ranzige Lederjacke:biggrin:

w0mbat
2016-05-07, 03:11:30
New King

Kappa

Rente
2016-05-07, 03:12:20
http://abload.de/img/newkingfmrax.png

:D

€: Built-In Injector/SweetFx+

Unicous
2016-05-07, 03:16:16
Was ist das denn für ein peinliches Klatschvieh vor Ort? :eek: :facepalm:

Ich bin hier schon wieder am Einschlafen und die woo'en und klatschen jeden Scheiß ab.:rolleyes:

illidan
2016-05-07, 03:16:49
€: Built-In Injector/SweetFx+
+ build in um die Ecke schau-Cheat?

scully1234
2016-05-07, 03:16:50
Daaaas ist mal ne Hausnummer mit DSR

Rente
2016-05-07, 03:17:45
+ build in um die Ecke schau-Cheat?
Geht wohl nur bei "Standbildern", das eigentliche Spiel wird eingefroren. Also auch keine Erweiterung für DSR.

Allerdings ist es natürlich ziemlicher Quatsch den die da beklatschen...
Ich glaube die merken aber auch einfach nicht das das Spiel dann nicht mehr live weiterläuft oder hab ich was falsch verstanden? ;(

Positional Audio? NVIDIA pls...
Alter Wein in neuen Schläuchen - am Ende klappt das bei den auch noch...

iuno
2016-05-07, 03:25:28
Ich finde die Idee hinter Ansel jetzt nicht so schlecht. Man kann so Screenshots in DSR Aufloesung machen, ohne die Aufloesung im Spiel zu aendern und ggf. die Kameraposition/Orientierung noch etwas anpassen. Die Filter sind halt noch zusaetzlicher Spielkram fuer die Instagram-Generation. Allerdings muss der Entwickler es implementieren. Ich gehe daher auch nicht davon aus, dass das zum Cheaten taugt, wie oben angesprochen. Die Moeglichkeiten sind sicher sehr eingeschraenkt und vor allem bleibt das Spiel ja dann stehen.

Wie das Publikum feiert ist aber wirklich kaum auszuhalten.

illidan
2016-05-07, 03:26:28
Ich glaube die merken aber auch einfach nicht das das Spiel dann nicht mehr live weiterläuft oder hab ich was falsch verstanden? ;(
Hm, evtl. wird das Spiel pausiert und das Rendering läuft dann in dieser NV-App weiter. Evtl. deutet darauf diese Support-Liste hin.

Diese Crowd gehört verprügelt...

Rente
2016-05-07, 03:33:05
Jetzt geht es endlich wirklich los.

Das Publikum ist speziell...

scully1234
2016-05-07, 03:34:17
Butter bei die Fische

iuno
2016-05-07, 03:34:34
GTX 1080 - das groesste Chipprojekt in der Geschichte der Menschheit

wtf?

von Richthofen
2016-05-07, 03:36:53
Erste GPU in 16FF+ Produktion - was ist mit GP100?

Unicous
2016-05-07, 03:39:23
Nur mal so zur Info. Bei GP100 hatte er ja auch schon bullshit erzählt. Der größte FinFET chip ever made ist... Knight's Landing. :rolleyes:

w0mbat
2016-05-07, 03:40:55
1080 > 980 SLI :D

scully1234
2016-05-07, 03:41:06
schneller als 980 SLI:freak:

Rente
2016-05-07, 03:41:07
Sinnloser Vergleich...
NVIDIA mit ihren geschönten Diagrammen jedes Mal. ;(

Und Sweeney braucht mal einen Modeberater...

MiamiNice
2016-05-07, 03:41:26
How much faster?????

iuno
2016-05-07, 03:42:58
How much faster?????
:facepalm:

Er hat es halt sogar nochmal wiederholt. GP100 wird jetzt wirklich totgeschwiegen? :ulol:

wolik
2016-05-07, 03:43:17
Es wird lüstig. 1080 soll so schnell sein wie 980SLI :)

scully1234
2016-05-07, 03:43:57
GP100 ist kein Geforce Chip

MiamiNice
2016-05-07, 03:44:11
Es wird lüstig. 1080 soll so schnell sein wie 980SLI :)
Nein schneller hat er gesagt :biggrin:

Nightspider
2016-05-07, 03:44:59
Habt ihr etwas anderes erwartet?

scully1234
2016-05-07, 03:45:00
das will ich erst live sehen

Seth
2016-05-07, 03:45:30
1080 kommt doch viel früher als GP100 und damit doch gewiss auch schon vorher in Produktion?

illidan
2016-05-07, 03:45:38
Sweeney rockt mal wieder die Menge mit seinem Serienkiller-Charme...

horn 12
2016-05-07, 03:45:42
180 Watt soll schon mal stimmen!
Laut Tabelle um die 20% bis 25% schneller als TITAN X

Schlussendlich Real wohl 15% ohne geschönte NV Folien!

Mortalvision
2016-05-07, 03:48:19
Auf dem Diagramm ca. 20-25% schneller als Titan X.

dildo4u
2016-05-07, 03:48:56
http://abload.de/img/80pb8pbhz.png

hardtech
2016-05-07, 03:49:09
Die Schuhe von Tim... Hart. Ist keine Rampenlicht und er fühlt sich unwohl Auge Bühne.

Unicous
2016-05-07, 03:49:33
http://cdn3.24live.co/images/2016/05/07/1462585362693480.png

MiamiNice
2016-05-07, 03:52:05
Wenn das Gerät wirklich so viel Strom hat von welcher Karte waren dann die Fire Strike Benches? Kleinster 104er?

2114 Clockspeed -.-

illidan
2016-05-07, 03:52:46
Autsch.

Rente
2016-05-07, 03:52:47
Wat? 2 GHz+? Count me in.

scully1234
2016-05-07, 03:52:48
2,1GHZ :freak::freak::freak:

iuno
2016-05-07, 03:52:53
wtf 2,1 GHz :eek:

dildo4u
2016-05-07, 03:52:56
2.1 Ghz.

w0mbat
2016-05-07, 03:53:06
2,1GHz!!!

hardtech
2016-05-07, 03:53:14
2,1 ghz gpu. Wow.

Mortalvision
2016-05-07, 03:53:32
Aircooled 2.1 GHz???

scully1234
2016-05-07, 03:54:12
die haben uns getrollt mit 1,8GHz;D

Rente
2016-05-07, 03:54:57
Sie kommen doch jetzt nicht mit Adaptive Sync oder? Ah ok, anderes Thema. ;(

scully1234
2016-05-07, 03:56:22
wo kann ich bestellen?

prinz_valium
2016-05-07, 03:56:30
holy shit
das ding kann bestimmt bis zu 2.5ghz fahren unter wasser und mit ordentlich power target
so ärgerlich, dass es erst mal nur den kleinen chip gibt.

die quatro hat also nicht getäuscht mit den hohen taktraten

MiamiNice
2016-05-07, 03:56:47
wo kann ich bestellen?

Das frage ich mich auch die ganze Zeit :biggrin:

Rente
2016-05-07, 03:58:11
http://imgur.com/qV8R55r.png

http://www.geforce.com/hardware/10series/geforce-gtx-1080

Unicous
2016-05-07, 03:58:11
Ich checke das mit den Taktraten echt nicht. Es scheint jedenfalls als hätten sie Dichte und Effizienz geopfert um das zu ermöglichen oder sie sind wieder zur Hot Clock Philosphie zurückgekehrt.:freak:

Rente
2016-05-07, 03:58:49
Die Karte in der Demo war übertaktet und sicherlich Cherry-picked.
Und woher die Luft für "Air-Cooled" kommt bzw. wie der Lüfter aussieht haben sie schließlich auch nicht gezeigt.

dildo4u
2016-05-07, 04:02:17
http://abload.de/img/1080wak43.png

Leonidas
2016-05-07, 04:02:52
Die Taktraten aus dem Spec-Sheet hören sich passend an. 1607/1753/2500 .... im Realboost dann hoch bis vielleicht 1866, speziell ausgesuchte bei 2,1 GHz.

Spec-Sheet stammt woher?

Rente
2016-05-07, 04:03:16
Direkt von NVIDIA: http://www.geforce.com/hardware/10series/geforce-gtx-1080

http://abload.de/img/gallery-2-large7juhl.jpg

Es gibt eine neue SLI-Bridge mit mehr Bandbreite.
NVIDIA’s new SLI HB bridge doubles the available transfer bandwidth compared to the NVIDIA Maxwell™ architecture.
Delivering silky-smooth gameplay, it’s the best way to experience surround gaming—and it’s only compatible with the GeForce GTX 1080


http://abload.de/img/sli8jjy8.png

prinz_valium
2016-05-07, 04:06:53
auf 180w ausgelegt

das verbraucht meine gtx470 unter windows mittlerweile :D

Seth
2016-05-07, 04:07:15
Das wars für Tom...

Unicous
2016-05-07, 04:08:42
2 - DisplayPort 1.2 Certified, DisplayPort 1.3/1.4 Ready.

Dürfte bedeuten, dass DP 1.4 nur eine Softwaresache ist.

wolik
2016-05-07, 04:09:04
SLI Bridge ? Ich dachte NV Link... und über PCIe kann man vergessen...

d2kx
2016-05-07, 04:09:12
#Pray4Tom

w0mbat
2016-05-07, 04:09:23
Läuft gerade etwas aus dem Ruder...

horn 12
2016-05-07, 04:10:19
Maximum GPU Tempurature (in C) : 94
Graphics Card Power (W) : 180 W

R9 290 lässt grüßen :-(
2 Ghz + Base und Boost weit abseits der 225Watt, Wetten!

Rente
2016-05-07, 04:10:27
Er muss sich gerade ziemlich zusammenreißen...

Die Karte war bei <70°C, selbst wenn sie alles perfekt vorbereitet haben ist es wohl eher nicht vergleichbar mit der 290X bei Launch...

Unicous
2016-05-07, 04:12:32
Hat Tom Peterson echt nicht verdient. Da sieht man mal wieder was Jensen für eine "interessante" Persönlichkeit hat.:rolleyes:

dildo4u
2016-05-07, 04:14:01
Maximum GPU Tempurature (in C) : 94
Graphics Card Power (W) : 180 W

R9 290 lässt grüßen :-(
2 Ghz + Base und Boost weit abseits der 225Watt, Wetten!
Die 980 hat Max Temp 98 und läuft deutlich Kühler.

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-980/specifications

Das ist nicht wie bei AMD die Maxwell Karten laufen nicht mit 100°.

wolik
2016-05-07, 04:15:18
Kann jemand mir erklären, wieso vergleicht man auf nvidia.com 1080 mit 980. Und nicht Titan X oder 980Ti?

Mortalvision
2016-05-07, 04:15:50
Nett, "Fenster in die Welt', und ein paar VR Verbesserungen...

hardtech
2016-05-07, 04:16:09
Kann jemand mir erklären, wieso vergleicht man auf nvidia.com 1080 mit 980. Und nicht Titan X oder 980Ti?

Weil es der direkte Nachfolger ist und der große Pascal erst als Nachfolger für 980ti in 2017 kommt.

dildo4u
2016-05-07, 04:16:12
Kann jemand mir erklären, wieso vergleicht man auf nvidia.com 1080 mit 980. Und nicht Titan X oder 980Ti?
Weil es der Nachfolger der 980 ist,der dicke Chip kommt 2017.

Rente
2016-05-07, 04:16:44
Kann jemand mir erklären, wieso vergleicht man auf nvidia.com 1080 mit 980. Und nicht Titan X oder 980Ti?Aus dem gleichen Grund weshalb sie 980 mit 680/770 verglichen haben = gleiches Powerbudget.
Teilweise gab es aber auch Vergleiche mit der Titan X, gerade eben z.B.
Hat Tom Peterson echt nicht verdient. Da sieht man mal wieder was Jensen für eine "interessante" Persönlichkeit hat.
Vor allem hat er ja selbst gesagt das sie davon nichts geprobt hatten... ziemlich unentspannt.

600$...

MiamiNice
2016-05-07, 04:18:25
Wann kann man das Gerät den nun käuflich erwerben.

Ah, 27.5 :)

w0mbat
2016-05-07, 04:18:32
2x Titan X Performance, 3x so Effizent.

$599

Mortalvision
2016-05-07, 04:19:00
Missverstanden

Rente
2016-05-07, 04:19:55
Oh, die 1070 ist AMDs Tod aktuell...

illidan
2016-05-07, 04:20:49
1070 hat ~28% weniger Rechenleistung.
Mal auf die ersten L2-Cache CUDA Werte gespannt, die Tools auslesen...

r3ptil3
2016-05-07, 04:20:50
Wow... geil!

dildo4u
2016-05-07, 04:20:53
http://i.picpar.com/L0Pb.png

http://i.picpar.com/M0Pb.png

Mortalvision
2016-05-07, 04:21:01
1070 mit 6,5 GFlops für 379€ ab 10. Juni. Das ist also Nvidias Ansage an Polaris 10!!!

MiamiNice
2016-05-07, 04:21:29
Da fällt mir nur noch eins ein:

http://thewatchlounge.com/wp-content/upLoads/2016/03/shut-up-and-take-my-money.jpg

wolik
2016-05-07, 04:23:40
Nein schneller hat er gesagt :biggrin:
Weil es der direkte Nachfolger ist und der große Pascal erst als Nachfolger für 980ti in 2017 kommt.
Der spricht von "King" und 2x performance als Titan X .:smile: Aber preis ist Hammer. Hat Nvidia richtig angst von AMD ?

Rente
2016-05-07, 04:24:22
Der Preis ist gar nicht so übertrieben hoch wie erwartet, eine Antwort auf die 1080 wird es von AMD ja wohl eine ganze Zeit nicht geben.
Dazu kommt die 1070 mit einem Kampfpreis gegen Polaris...

Wieso sollten sie bitte "Angst" haben? Sie sind Marktführer und eher am Markt...

Troyan
2016-05-07, 04:25:16
Angst? Wieso? Maxwell kostete leicht weniger. Die haben gerade AMD sowas von verarscht. Schön zu sehen, dass man Produkte nicht 6 Monate vorher paperlaunchen sollte.

Erste GPU mit Displaycontroller 1.3 und HDMI2.0b? Der Countdown läuft AMD.

dildo4u
2016-05-07, 04:25:47
NV wird nicht genug 1070 haben vor allem mit dem ganzen VR Gehype grr da wird man ewig keine Karte bekommen.

Ravenhearth
2016-05-07, 04:26:15
Hatte AMD nach eigenen Angaben nicht einen mehrmonatigen Vorsprung? Tja, das war wohl nix.

horn 12
2016-05-07, 04:26:20
Nicht schlecht muss ich sagen ist der Preis, vor Allem jener der GRX 1070
Da ist Polaris wohl doch schneller als angenommen!


GTX 1080 in Euroland wohl 649 Euro mindestens, eher mehr!

just4FunTA
2016-05-07, 04:27:05
599 was heißt das für uns? 700€?

crux2005
2016-05-07, 04:27:12
http://www.geforce.com/hardware/10series/geforce-gtx-1080

Eher keine "2x Titan X performance".

Unicous
2016-05-07, 04:27:25
btw. im Trailer wurden 7.2 Milliarden Transistoren genannt.

@just4FunTA

Höchstwahrscheinlich. U.U. sogar mehr, je nachdem wie Nvidia den Euro einpreist.

Troyan
2016-05-07, 04:27:33
599 was heißt das für uns? 700€?

Wahrscheinlich 650€. :rolleyes:

hardtech
2016-05-07, 04:28:01
Der spricht von "King" und 2x performance als Titan X .:smile: Aber preis ist Hammer. Hat Nvidia richtig angst von AMD ?

Ne Titan x hat 6,2 Tflops. Also 2x schneller wohl nur unter vr. Die 1070 ist wohl die neue gtx460, Hamma plv.

dildo4u
2016-05-07, 04:28:37
Ich erwarte 450 und 650.

Troyan
2016-05-07, 04:29:25
Displaycontroller 1.4 wird unterstützt. Och. Da hat AMD ja garnicht gelogen mit 1.3. :lol:

/edit: Baseclock ist 1607Mhz und Boost liegt angeblich bei 1733MHz.

Nightspider
2016-05-07, 04:30:45
2 - DisplayPort 1.2 Certified, DisplayPort 1.3/1.4 Ready.

Dürfte bedeuten, dass DP 1.4 nur eine Softwaresache ist.

Ja 1.4 ist Softwaresache. Ist schon vor ein paar Tagen durchgesickert. Polaris wird also auch 1.4 haben.

illidan
2016-05-07, 04:31:13
Wenn die 1070 keine bösartige Verkrüppelung hat, wird das Ding mit dem vermuteten Taktpotenzial AMD selbst bei den roten Fanboys in der Gunst wegfegen.
Womöglich kann selbst GP106 mit Polaris 10 konkurrieren, wenn der Verbrauch mit hohem Takt vergleichbar ist wie Polaris 10 mit niedrigem.
Wenn sich Polaris nicht auch noch als Taktwunder entpuppt, scheint es mir momentan echt böse für AMD auszusehen...

iuno
2016-05-07, 04:31:38
Hab jetzt nicht aufgepasst was ist die Founders Edition? Gibt es ja fuer beide (70 und 80). Ist das einfach nur eine Vorbestelleredition die teurer frueher ausgeliefert wird oder kann die was besonderes?

Verstehe auch das mit dem Single Pass Stereo nicht. Die Projektion auf mehrere Flaechen erscheint mir relativ trivial bzw. eben das Aufteilen des Viewports in abgeknickte Teile fuer den Einsatz von mehreren Monitoren um sich herum. Da muss man ja wirklich nur die Projektion 3D->2D anpassen, prinzipiell aendert sich an den anderen Schritten ja nichts.
Mir ist aber nicht klar, wie man das auf stereo uebertragen will. Immerhin hat man 2 Kameras, die Kameratransformation passiert vorher und das Lightning muss doch fuer jede extra gemacht werden. Erst danach kommt die 2D Projektion. Man kann sich doch durch andere Projektion nicht die doppelte Arbeit davor sparen, genau das wurde aber suggeriert. Was bedenke ich dabei nicht (ist ja auch schon spaet :P )?
Oder wurde das nur wieder (bewusst) so missverstaendlich dargestellt und dabei kommt nur der Vorteil der "intelligenteren" Projektion mit der Vorverzerrung zum Tragen?

Eher keine "2x Titan X performance".
Das galt nur fuer VR.

/edit: Baseclock ist 1607Mhz und Boost liegt angeblich bei 1733MHz.
Nichts angeblich. Die Specs sind auf der HP: http://www.geforce.com/hardware/10series/geforce-gtx-1080#specs

dildo4u
2016-05-07, 04:33:33
Wenn die 1070 keine bösartige Verkrüppelung hat, wird das Ding mit dem vermuteten Taktpotenzial AMD selbst bei den roten Fanboys in der Gunst wegfegen.
Womöglich kann selbst GP106 mit Polaris 10 konkurrieren, wenn der Verbrauch mit hohem Takt vergleichbar ist wie Polaris 10 mit niedrigem.
Wenn sich Polaris nicht auch noch als Taktwunder entpuppt, scheint es mir momentan echt böse für AMD auszusehen...
Die Frage ist ob Pascal die selbe Asnychron Compute Schwäche hat,das ist bei der 970 echt nervig sobald das aktiv ist wird die GPU nich mehr voll ausgelastet ,das kann man sogar beim Afterburner ablesen.

Scorpius
2016-05-07, 04:34:13
Das am Anfang mit der Soundphysik ist aber ein bissl übertrieben.
Die ersten sind sie damit ja nicht wirklich.
Die Anfänge haben da Aureal mit A3D und Creative mit EAX gemacht.
Bis dann mit dem Aufkauf von Aureal durch Creative über die Stagnation
wegen der Konsolenports mit dem Soundbrei und den finalen Todesstoß
durch Microsoft mit Vista das ganze dann in Sande verlief.

r3ptil3
2016-05-07, 04:35:25
http://fs5.directupload.net/images/160507/6fe24c33.jpg

Unicous
2016-05-07, 04:36:56
@iuno

Ist so wie ich es verstanden habe von Nvidia "Factory Overclocked" bzw. mit OC Headroom.


Kann mich übrigens mal jemand aufklären was "Displaycontroller 1.4" sein soll von dem Sontin LoveSuckZ Troyan schwafelt?:rolleyes:


@Nightspider


Durchgesickert? Wo?

Troyan
2016-05-07, 04:38:22
Ochje, da scheint jemand angepisst zu sein, weil sein Lieblingshersteller gelogen hat.

3 Wochen. Bis dahin hat AMD Zeit die erste GPU mit Displayport 1.3/1.4 zu veröffentlichen.

crux2005
2016-05-07, 04:39:48
Hab jetzt nicht aufgepasst was ist die Founders Edition? Gibt es ja fuer beide (70 und 80). Ist das einfach nur eine Vorbestelleredition die teurer frueher ausgeliefert wird oder kann die was besonderes?

Cherry-picked GPUs mit mehr OC Potential.

Das galt nur fuer VR.

OK. Da war ein Fußnote, konnte nur nicht schnell genug lesen.

iuno
2016-05-07, 04:40:07
@Unicous: DisplayPort 1.4 wird er meinen
Wo wurde gelogen? Verstehe gerade nicht ganz...

Wie viel GFLOPS soll die 1070 haben? Hab das verpasst bzw. nur noch kurz gesehen und kein Bild mehr gemacht...

wolik
2016-05-07, 04:40:21
Ne Titan x hat 6,2 Tflops. Also 2x schneller wohl nur unter vr. Die 1070 ist wohl die neue gtx460, Hamma plv.
Schneller in VR ? Wie bitte. Ist dort kein Pixel mehr, welche mann auf andere weise "berechnet". 1080 eine gute Karte. Aber ganze vergleich, sieht mehr nach... Marketing aus. :biggrin:

prinz_valium
2016-05-07, 04:41:12
Ich erwarte 450 und 650.

Wahrscheinlich 650€. :rolleyes:

wunschpreise
die 449 für die 1070 könnte stimmen
aber 1080 sollte eher 699 euro sein

als ob es nur 50 euro Aufpreis gibt für ~20% vat und den schwachen euro

399€
649€
wäre hammer. aber glaube ich im leben nicht dran



p.s wer will seine 970 für 50 euro verkaufen? ich hätte interesse

Bringhimup
2016-05-07, 04:41:46
Ich muss sagen, ich bin doch beeindruckt. Die GTX1080 scheint ein tolles Stück Hardware zu sein. Könnte glatt das erste Mal werden, dass ich direkt zum Release zuschlage (sofern man sich nicht um zu wenige verfügbare Karten prügeln muss;D).

Komme noch von einer GTX780, für die ich auch nicht viel weniger bezahlt habe und das wird schon ein netter Boost.

Und alle, die sich gerade gebraucht für 500-600 Euro ne GTX 980 Ti gekauft haben, werden sich wohl in den Arsch beißen.;D

Unicous
2016-05-07, 04:43:45
@iuno Ich schätze er spielt auf den Veröffentlichungszeitraum für Polaris an. Kindergartenscheiß halt.:wink:

dildo4u
2016-05-07, 04:44:51
Schätze mal das zwingt AMD Infos bis zum 27.5 rauszurücken.

crux2005
2016-05-07, 04:44:52
Schneller in VR ? Wie bitte. Ist dort kein Pixel mehr, welche mann auf andere weise "berechnet". 1080 eine gute Karte. Aber ganze vergleich, sieht mehr nach... Marketing aus. :biggrin:

Ich schätzen in 1440p wird die GTX 1080 gegenüber Titan X ~20% mehr Leistung bringen. In 4K wahrscheinlich mehr.

Troyan
2016-05-07, 04:45:11
Schneller in VR ? Wie bitte. Ist dort kein Pixel mehr, welche mann auf andere weise "berechnet". 1080 eine gute Karte. Aber ganze vergleich, sieht mehr nach... Marketing aus. :biggrin:

Tests und Erklärungen abwarten. Maxwell unterstützt auch schon Multiprojection Viewports.

KHJ
2016-05-07, 04:48:58
Also wenn ich mir abseits von vr die balken so ansehe die nv auf der homepage hat die 1080 gegen die 980 dann ist da nicht so viel hype vorhanden das sind ca 60% also im Rahmen für den Preis den sie kosten wird.
Interessant wird wo hier eine 1070 stehen würde die ja für denselben Preispunkt kommen soll.
Und schneller als 980 sli haut mich auch ned vom hocker da die 980 ja nur 4gb vram hat und hier schonmal ins limit kommen kann und sli halt auch ned perfekt skaliert.

Wenn AMD für ihre Polaris 10 auch solche Preise aufrufen kann dann dürften die ja für maximal 200-300€ kommen. Denke AMD wird schon genug Karten verkaufen können in ihrem Preisseqment.

prinz_valium
2016-05-07, 04:54:40
@Unicous: DisplayPort 1.4 wird er meinen
Wo wurde gelogen? Verstehe gerade nicht ganz...

Wie viel GFLOPS soll die 1070 haben? Hab das verpasst bzw. nur noch kurz gesehen und kein Bild mehr gemacht...

6.5 tlops
mich würde die cores anzahl interessieren und der takt
mag mal jemand rechnen?

Ravenhearth
2016-05-07, 04:56:59
Entweder 2304 Shader und 20% weniger Takt oder 2048 Shader und 10% weniger Takt. Oder halt was dazwischen.

Troyan
2016-05-07, 04:57:14
2048 Cores mit ~1600MHz. Takt scheint kein Problem zu sein. Daher eher weniger aktive SMP, um die Ausbeute zu erhöhen.

/edit: Gibt eine neue SLI-Bridge für Pascal, die auch nur mit Pascal kompartibel ist.

KHJ
2016-05-07, 05:01:26
Ich glaube auch eher das die mit weniger shader kommt dafür hohen takt den sonst bestünde die gefahr das die 1070 mit 2304 shader aber niedriegem takt dank gutem Oc ein zu gutes Angebot wäre.
Mit 2000 und 1600 ist da nicht mehr so viel machbar und es greifen doch einige zur 1080.

prinz_valium
2016-05-07, 05:01:37
option b klingt dann schon realistischer. ansonsten könnte man durch oc zu deutlich an (oder auch über) die gtx1080 kommen

also 2 cluster deaktiviert und nicht nur einer

iuno
2016-05-07, 05:02:49
2048 bei 1600 kommt aber nicht hin, das waeren schon ueber 6,5 TFLOPS (6,553 -> ~6,6).
Bei der 1080 rundet Nvidia ja auch schon grosszuegig auf (8,873 -> ~9000).

Wenn es ueberhaupt noch 2048 SP sind, wird der Takt also unter 1,6 GHz liegen. 1580 MHz oder so wuerden passen. Oder der Chip ist eben noch staerker beschnitten :usad: