PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1080: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17

Godmode
2016-05-11, 19:16:46
Alles zum Thema GTX 1080 bitte hier herein.

Specs von der Hauptseite (http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-1080):

Chipbasis: Nvidia GP104, 7,2 Mrd. Transist. in 16nm auf 314mm² Chipfläche
Architektur: Pascal, DirectX 12 Feature-Level 12_1
Technik: 2560 Shader-Einheiten
Rechenleistung: 9 TFlop/s FP32
Speicher: 8 GB GDDR5X @10 Gbps, 256 Bit Speicherinterface
Speicherbandbreite: 320 GB/s
Stromstecker: 1x8pol.
TDP: 180W
Taktraten: Baseclock 1607 MHz, Boostclock 1733 MHz
Overclocking: bis zu 2000 MHz, möglicherweise Richtung 2200 MHz
Vorstellung: 27. Mai 2016
Listenpreis: 699$ für die Founders Edition und 599$ für Karten zwei Wochen nach der Vorstellung
3DC FullHD Perf.Index: 960%
3DC 4k Perf.Index: 132%


Reviews (de):
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/
http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111.html
http://www.golem.de/news/geforce-gtx-1080-1070-im-test-zotac-kann-geforce-besser-als-nvidia-1606-121600.html

Reviews (en):
http://anandtech.com/show/10326/the-nvidia-geforce-gtx-1080-preview
http://www.guru3d.com/articles-pages/nvidia-geforce-gtx-1080-review,1.html
http://hardocp.com/article/2016/05/17/nvidia_geforce_gtx_1080_founders_edition_review
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72619-nvidia-geforce-gtx-1080-review.html
http://hexus.net/tech/reviews/graphics/92846-nvidia-geforce-gtx-1080-founders-edition-16nm-pascal/
http://hothardware.com/reviews/nvidia-geforce-gtx-1080-pascal-gpu-review
http://www.kitguru.net/components/graphic-cards/zardon/nvidia-gtx-1080-graphics-card-review/
http://www.overclockersclub.com/reviews/nvidia_geforcegtx_1080_founders_edition/
http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-1080-8GB-Founders-Edition-Review-GP104-Brings-Pascal-Gamers
http://www.pcgamer.com/gtx-1080-review/
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/
http://www.techspot.com/review/1174-nvidia-geforce-gtx-1080/

Reviews (andere Sprachen):
http://www.hardware.fr/articles/948-32/recapitulatif-performances.html
http://www.purepc.pl/karty_graficzne/test_geforce_gtx_1080_pascal_karta_graficzna_nowej_generacji
http://www.sweclockers.com/test/22087-nvidia-geforce-gtx-1080
http://nl.hardware.info/reviews/6740/nvidia-geforce-gtx-1080-review-de-nieuwe-koning
http://www.pcpop.com/view/2/2763/2763166_all.shtml?r=17180620


Was hat es mit der Founders-Edition auf sich?
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Founders-Edition-Geforce-GTX-1080-1195206/

http://cdn.wccftech.com/wp-content/uploads/2016/05/2016_NVIDIA_Pascal_FINAL_published-page-032-635x357.jpg

Benchmarks:

http://abload.de/thumb/3-1080.2961058080utkgi.jpg (http://abload.de/image.php?img=3-1080.2961058080utkgi.jpg) http://abload.de/thumb/1-1080.2531098131kuj03.jpg (http://abload.de/image.php?img=1-1080.2531098131kuj03.jpg) http://abload.de/thumb/2-1080.768803684jvja6.jpg (http://abload.de/image.php?img=2-1080.768803684jvja6.jpg)


http://abload.de/img/screenshot2016-05-12atzsaj.png

Nvidia Referenzdesign:

http://abload.de/thumb/gtx_1080_kv_1462594236ysfn.jpg (http://abload.de/image.php?img=gtx_1080_kv_1462594236ysfn.jpg) http://abload.de/thumb/xxgeforce_gtx_1080_toersro.jpg (http://abload.de/image.php?img=xxgeforce_gtx_1080_toersro.jpg) http://abload.de/thumb/geforce_gtx_1080_3qtrgsstd.jpg (http://abload.de/image.php?img=geforce_gtx_1080_3qtrgsstd.jpg) http://abload.de/thumb/geforce_gtx_1080_fronudsb0.jpg (http://abload.de/image.php?img=geforce_gtx_1080_fronudsb0.jpg) http://abload.de/thumb/geforce_gtx_1080_3qtrx8sr3.jpg (http://abload.de/image.php?img=geforce_gtx_1080_3qtrx8sr3.jpg)


Zotac Customdesign:

http://img1.gamersky.com/image2016/05/20160511_zy_71_1/gamersky_05small_10_201651199750.jpg

fulgore1101
2016-05-11, 20:16:13
Wo sind denn die Pre- oder Reviews?

Raff
2016-05-11, 20:25:53
Mehr als Gelaber gibt's derzeit nicht. ;)

Godmode, du verkaufst deine Super-TX echt für das Ding? Das hatten wir doch schon mal: Wer eine gute Titan Classic besaß, musste keine GTX 980 kaufen. Okay, neu und spannend, ohne Frage. Aber mir wär's den Aufriss nicht wert.

MfG,
Raff

Effe
2016-05-11, 20:28:33
Wo sind denn die Pre- oder Reviews?

Dort zB:
eB1nLydMNvI

Godmode
2016-05-11, 20:45:19
Mehr als Gelaber gibt's derzeit nicht. ;)

Godmode, du verkaufst deine Super-TX echt für das Ding? Das hatten wir doch schon mal: Wer eine gute Titan Classic besaß, musste keine GTX 980 kaufen. Okay, neu und spannend, ohne Frage. Aber mir wär's den Aufriss nicht wert.

MfG,
Raff

Nein, aber ich brauch die GPU momentan nicht, und will mich gegen den Wertverlust absichern. GP104 interessiert mich nicht wirklich, außer er kann 50% auf meine Titan X drauflegen, dann würde ich eventuell überlegen.

Nightspider
2016-05-11, 20:59:54
Mehr als Gelaber gibt's derzeit nicht. ;)

Godmode, du verkaufst deine Super-TX echt für das Ding? Das hatten wir doch schon mal: Wer eine gute Titan Classic besaß, musste keine GTX 980 kaufen. Okay, neu und spannend, ohne Frage. Aber mir wär's den Aufriss nicht wert.

MfG,
Raff

Die 1080 ist schneller, sparsamer, hat bessere Features, genügend VRAM und ist billiger. Er macht es genau richtig.
In Kürze ist eine Titan X deutlich weniger wert.

Ganz zu schweigen davon das die 1080 in VR angeblich doppelt so schnell sein soll.

phoenix887
2016-05-11, 21:45:10
Schneller? Wieviel Prozent? Bei 1.5? 10%? Neue Feature? Welche denn? Sparsamer? Interessiert das jemanden im High-End Bereich? Titan hat 12GB VRAM. 1080 8GB VRAM. Angeblich VR doppelt so schnell? Angeblich.....billiger? Kenne noch keine Euro Preise....

Da warte ich doch lieber auf offizielle Reviews bzw. auf die Ti. Ob 200 Euro mehr oder weniger kommt es auch nicht mehr drauf an, bzw. muss man auch mal der Nutzungsdauer gegen rechnen.

Aber Godemode hat ja auch andere Gründe genannt. Von daher....

kdvd
2016-05-11, 21:50:44
Von 12GB VRAM downgraden auf 8GB würde ich von der Psyche her nur verkraften, wenn es tatsächlich AIB Versionen der 1080 geben sollte, die (Out of the box) 2,5GHz packen . :biggrin:

Blediator16
2016-05-11, 21:56:47
Sind auf den DIE auch das Datum geprägt? Weil auf den aktuellen Fotos stehen da 1614 A1 und 1615 A1 was dann wohl bedeuten würde mitte/ende April. Für Ende Mai ist das schon etwas knapp oder irre ich mich?

Troyan
2016-05-11, 21:58:13
Nicht für nVidia. 6 Wochen von Massenproduktion bis erste Produkte im Laden sind "normal" für die High-End Produkte.

Nightspider
2016-05-11, 23:46:37
Neue Feature? Welche denn?

h.265 encoder (für höhere Auflösungen)
wahrscheinlich wieder schnellere encoder die weniger Leistung benötigen
DX12 improvements?
lautloser Lüfter im idle?
Simultaneous Multi-Projection

Würde mir mehr als reichen für ein kostenloses sidegrade. ;)
Dazu kommen eben noch die anderen Vorteile. Und 10-20% haben oder nicht haben sind auch ein Unterschied. Dafür zahlen wir Enthusiasten sonst gerne mal 100-200 Euro mehr. ;)

(del)
2016-05-12, 00:09:39
Ach Jungs. Ich habe mich gerade von meiner geliebten Enterprise getrennt, um überhaupt mal den Treiber installieren zu können... Alles so schon kompliziert dieses Mal :P

https://scontent.ftxl1-1.fna.fbcdn.net/v/t1.0-9/13220870_1231318856902776_7132606745215242730_n.jpg?oh=515797701775a38c3a0288033 33ead44&oe=57E3E67A

Kartenlehrling
2016-05-12, 00:13:43
@Format_C
Schau dir bitte auch den Kühlerblock an, ob es der Vaporblock ist oder der 3x Headpipes der gtx980.

N0Thing
2016-05-12, 00:36:29
Dort zB:
http://youtu.be/eB1nLydMNvI

Naja, das ist auch nicht viel mehr als eine Wiederholung von der Nvidia-Präsentation.

Erstaunlich (oder auch nicht) ist aber, dass selbst der Mastermind von PC Perspective Ryan Shrout nicht mitbekommen hat, dass die Aussage Nvidias von 2x Performance und 3x Efficiency gegenüber der 980Ti auf VR bezogen und nicht allgemeingültig war.

iuno
2016-05-12, 01:27:47
Erstaunlich (oder auch nicht) ist aber, dass selbst der Mastermind von PC Perspective Ryan Shrout nicht mitbekommen hat, dass die Aussage Nvidias von 2x Performance und 3x Efficiency gegenüber der 980Ti auf VR bezogen und nicht allgemeingültig war.
Naja wenn sie es alle als allgemeingültig annehmen und dann konsistent bleiben und es im review dementsprechend kritisieren, ist das auch OK. Daran glaube ich aber auch nicht :P

phoenix887
2016-05-12, 01:41:56
h.265 encoder (für höhere Auflösungen)
wahrscheinlich wieder schnellere encoder die weniger Leistung benötigen
DX12 improvements?
lautloser Lüfter im idle?
Simultaneous Multi-Projection

Würde mir mehr als reichen für ein kostenloses sidegrade. ;)
Dazu kommen eben noch die anderen Vorteile. Und 10-20% haben oder nicht haben sind auch ein Unterschied. Dafür zahlen wir Enthusiasten sonst gerne mal 100-200 Euro mehr. ;)

Brauche ich das als Gamer? Welche DX 12 Verbesserungen? Lautlose Lüfter gibt es auch bei Maxwell.;)

Stellst nur Behauptungen auf, ohne Quelle zu haben. Zeigt ja wie gut informiert du bist, alleine an deiner Aussage bezüglich VRAM und Lüfter im idle;)

scully1234
2016-05-12, 03:46:23
NzOD0WaUJVs

Blaire
2016-05-12, 04:05:39
https://forums.geforce.com/default/topic/935283/nvidia-only-supports-up-to-sli-on-10-series-cards-/?offset=4#4876714
"Yes the GeForce GTX 1080 supports two-way SLI. There are no plans for this to change in the future."

Maximal 2-Way SLI Support für GTX 1080...
3-/4-Way SLI-Support bleibt zumindest vorerst Maxwell-Usern vorbehalten. Gut, das dürfte hier im Forum die wenigsten stören. :)

Oliver_M.D
2016-05-12, 04:05:55
h.265 encoder (für höhere Auflösungen)
wahrscheinlich wieder schnellere encoder die weniger Leistung benötigenGibts dazu ne Source oder sind das nur vermutungen?
Hatte selbst ja eher endlich mal auf 120FPS support gehofft, und nicht schon wieder einfach nur höhere auflösungen...

dargo
2016-05-12, 08:26:21
Welche DX 12 Verbesserungen?
Verbesserungen beim Context Switch.
http://wccftech.com/preemption-context-switching-allegedly-best-amd-pretty-good-intel-catastrophic-nvidia/

Dural
2016-05-12, 09:09:38
@Format_C
Schau dir bitte auch den Kühlerblock an, ob es der Vaporblock ist oder der 3x Headpipes der gtx980.

Irgend wo habe ich Vapor gelesen, weis aber nicht mehr wo.

phoenix887
2016-05-12, 09:19:04
Verbesserungen beim Context Switch.
http://wccftech.com/preemption-context-switching-allegedly-best-amd-pretty-good-intel-catastrophic-nvidia/

Ok danke. So stelle ich mir einen Diakussionsbeitrag vor. Mit Quellenangabe die nachvollziehbar ist.

Raff
2016-05-12, 09:22:11
Die 1080 ist schneller, sparsamer, hat bessere Features, genügend VRAM und ist billiger. Er macht es genau richtig.
In Kürze ist eine Titan X deutlich weniger wert.

Er hat aber nicht irgendeine TX, sondern eine der besten auf Erden (1,5 GHz stable). Damit kann man noch prima bis 2017 auf die dicken Dinger warten.

Ganz zu schweigen davon das die 1080 in VR angeblich doppelt so schnell sein soll.

Angeblich, genau. ;)

MfG,
Raff

Dural
2016-05-12, 09:28:37
Du machst jetzt gute Werbung für seine TX ;)

Das Problem der 1080 dürfte die Bandbreite sein, ich habe Zweifel ob die ab sagen wir mal 2GHz+ noch vernünftig Skaliert. Wenn mit dem GDDR5X nur die 5,5GHz möglich sind sogar bestimmt.

iuno
2016-05-12, 09:34:55
Als potenzieller Kunde wuerde sowieso erstmal gerne wissen wollen, was hardwaremaessig die single pass stereo auf Maxwell verhindern soll oder was da ueberhaupt genau gemacht wird. So ein Wechsel ergibt doch fuer den Preis 0 Sinn.
Davon ab hat Godmode aber auch deutlich gemacht, dass er nicht spielt und deshalb verkauft. Der Plan ist ja dann zumindest zu warten und auf die grossen zu wechseln.
Das ergibt dann zumindest aus oekonomischer Sicht absolut Sinn ;)

Edit:
Single Pass Stereo turbocharges geometry performance by allowing the head-mounted display's left and right displays to share a single geometry pass. We're effectively halving the workload of traditional VR rendering, which requires the GPU to draw geometry twice — once for the left eye and once for the right eye.
http://www.geforce.co.uk/whats-new/articles/pascal-vrworks
:rolleyes: Wenn das nicht fuer Maxwell kommt ist das grobe Verarsche. Zumindest wurde Maxwell nachgesagt, das mit den Viewports auch zu unterstuetzen!? Quelle habe ich gerade aber keine, vielleicht kann das jemand bestaetigen/entkraeften - sofern das ganze ueberhaupt auch mit den Viewports zu tun hat, und nicht nur wirklich mit der reinen Geometrie. Dann waere das doch eine reine Software Sache

Verstehe auch das mit dem Single Pass Stereo nicht. Die Projektion auf mehrere Flaechen erscheint mir relativ trivial bzw. eben das Aufteilen des Viewports in abgeknickte Teile fuer den Einsatz von mehreren Monitoren um sich herum. Da muss man ja wirklich nur die Projektion 3D->2D anpassen, prinzipiell aendert sich an den anderen Schritten ja nichts.
Mir ist aber nicht klar, wie man das auf stereo uebertragen will. Immerhin hat man 2 Kameras, die Kameratransformation passiert vorher und das Lightning muss doch fuer jede extra gemacht werden. Erst danach kommt die 2D Projektion. Man kann sich doch durch andere Projektion nicht die doppelte sonstige Arbeit sparen, genau das wurde aber suggeriert.
Die Frage von damals ist damit zumindest jetzt beantwortet.

Man spart hier also tatsaechlich natuerlich nur was Geometrie betrifft, Pixel Shader sind davon natuerlich nicht betroffen. Letzteres wird ja mit MultiRes Shading angegangen und funktionierte auch schon mit Maxwell. Die Ansicht, es werde nur ein Bild gerendert und dann "mittels komplizierter Algorithmen" fuer das zweite Auge angepasst (wurde ja durchaus hier im Speku Thread so von manchen angenommen) ist damit schlicht voellig falsch.

Annaehernd 2x Perf bei VR wird es also nur in Szenen mit ultra heavy Geometrie geben. Ich will gar nicht wissen, wie viele Polys dieses Monster bei der Demo hatte :ugly:
Aber da das ganze sowieso mit VRWorks im Bezug steht, hat hat NV ja mit GameWorks schon lange die Grundlagen gelegt, um dahingehend fuer Pascal zu optimieren und heftig mit Tesselation anzusetzen :up:

Chris Lux
2016-05-12, 10:33:51
Als potenzieller Kunde wuerde sowieso erstmal gerne wissen wollen, was hardwaremaessig die single pass stereo auf Maxwell verhindern soll oder was da ueberhaupt genau gemacht wird. So ein Wechsel ergibt doch fuer den Preis 0 Sinn.
Davon ab hat Godmode aber auch deutlich gemacht, dass er nicht spielt und deshalb verkauft. Der Plan ist ja dann zumindest zu warten und auf die grossen zu wechseln.
Das ergibt dann zumindest aus oekonomischer Sicht absolut Sinn ;)

Edit:

http://www.geforce.co.uk/whats-new/articles/pascal-vrworks
:rolleyes: Wenn das nicht fuer Maxwell kommt ist das grobe Verarsche. Zumindest wurde Maxwell nachgesagt, das mit den Viewports auch zu unterstuetzen!? Quelle habe ich gerade aber keine, vielleicht kann das jemand bestaetigen/entkraeften - sofern das ganze ueberhaupt auch mit den Viewports zu tun hat, und nicht nur wirklich mit der reinen Geometrie. Dann waere das doch eine reine Software Sache


Die Frage von damals ist damit zumindest jetzt beantwortet.

Man spart hier also tatsaechlich natuerlich nur was Geometrie betrifft, Pixel Shader sind davon natuerlich nicht betroffen. Letzteres wird ja mit MultiRes Shading angegangen und funktionierte auch schon mit Maxwell. Die Ansicht, es werde nur ein Bild gerendert und dann "mittels komplizierter Algorithmen" fuer das zweite Auge angepasst (wurde ja durchaus hier im Speku Thread so von manchen angenommen) ist damit schlicht voellig falsch.

Annaehernd 2x Perf bei VR wird es also nur in Szenen mit ultra heavy Geometrie geben. Ich will gar nicht wissen, wie viele Polys dieses Monster bei der Demo hatte :ugly:
Aber da das ganze sowieso mit VRWorks im Bezug steht, hat hat NV ja mit GameWorks schon lange die Grundlagen gelegt, um dahingehend fuer Pascal zu optimieren und heftig mit Tesselation anzusetzen :up:
Der Witz an der Sache ist, dass sie ein Multi-Viewport Setup machen um auch Fill zu sparen. Ein riesiger Viewport bedeutet am Rand viele sinnlos gerenderte, am Ende gestauchte Pixel (ob da das Multi-Res Shading helfen kann ist natürlich eine gute Frage). Mehrere erlauben das ausrichten am Rand zum Auge hin.

Aber auch hier wieder. Das kann auch Maxwell. Reines Software Feature denke ich.

(del)
2016-05-12, 11:17:43
Aber auch hier wieder. Das kann auch MaxwellNein, genau das kann Maxwell eben nicht. Jedenfalls nicht so. ;)

scully1234
2016-05-12, 11:59:40
Also hardwaregebunden schade ich dachte die reichen das simultane Multi Reprojection irgendwann noch nach fuer Maxwell ueber ein Treiberupdate

Godmode
2016-05-12, 12:01:59
Erste Bilder der Zotac Karten:

http://img1.gamersky.com/image2016/05/20160511_zy_71_1/gamersky_05small_10_201651199750.jpg

http://www.gamersky.com/hardware/201605/751001_2.shtml

Megamember
2016-05-12, 12:04:21
Er hat aber nicht irgendeine TX, sondern eine der besten auf Erden (1,5 GHz stable).

Als ob 1,5GHZ mit Wakü sowas besonderes wären, vor allem weil er dazu ja auch noch die Spannung hochgejubelt hat.

scully1234
2016-05-12, 12:05:36
Erste Bilder der Zotac Karten:
]

Das ja zum Fremdschaemen:eek: Fehlt nur noch de neon gruene hello Kitty Aufkleber:facepalm:

Raff
2016-05-12, 12:21:01
Als ob 1,5GHZ mit Wakü sowas besonderes wären, vor allem weil er dazu ja auch noch die Spannung hochgejubelt hat.

Es ist besonders, die meisten Karten bleiben oberhalb von 1,4 GHz stecken. Mehr Spannung und Kühlung verlängert da nur die Nutzdauer, der Absturz kommt aber irgendwann. Anders sieht das bei der 980 Ti aus, da schaffen verhältnismäßig viele Karten 1,5 GHz. Nicht dass man die Differenz fühlen würde, das ist Psychologie. Insofern ist die GTX 1080 auch erst cool, wenn sie rockstable mindestens 2 GHz verkraftet. :ugly:

Das ja zum Fremdschaemen:eek: Fehlt nur noch de neon gruene hello Kitty Aufkleber:facepalm:

Stimmt schon. Ich kann mich aber nur wiederholen: Wenn dieser Kühler die Karte lautlos auf 50 °C halten würde und die schönen Designs daneben nicht, würde ich das hässliche Entlein kaufen und danach (bis zum Ausbau) nie wieder ansehen. Innere Werte und so. :biggrin:

MfG
Raff

scully1234
2016-05-12, 12:48:24
Wenn dieser Kühler die Karte lautlos auf 50 °C halten würde
MfG
Raff

ich fuehre mal fort: ...wuede trotzdem meine erste Amtshandlung die Amputierung dieser Geschmacksverirrung sein,und ein Echo wuerde durch den Raum hallen, Eddy wo bleibt der H2O Kuehler:biggrin:

yamo
2016-05-12, 12:53:45
Bin ich hier der Einzige, dem das Design der blau beleuchteten Backplate gefällt?
Ich find´s geil, aber vielleicht bin auch nur zu alt.
Viel spannender ist das von PCGH (Raff?) erwähnte OC-Plus-Modul.
Für die AMP Serie gabs ja auch Wakü-Blocks und i. V. m. der BP würde mich das schon reizen.

MfG,
Yamo

Troyan
2016-05-12, 13:09:48
Sehe auch kein Problem mit den Karten. Und die konfigurierbaren LEDs auf der Vorder- und Rückseite sind doch auch ganz nett:
http://videocardz.com/59857/zotac-teases-geforce-gtx-1080-pgf-edition-and-new-firestorm

(del)
2016-05-12, 13:16:35
So, heute war ein grandioses Schlachtfest: immerhin 51 Einzelteile (inklusive Schrauben).
Gutes Feinmechanikerwerkzeug einschließlich kleiner Steckschlüssel ist allerdings erforderlich. :)

Und ich merke immer wieder: ich brauche langsam eine Gleitsichtbrille :D

Dural
2016-05-12, 13:20:01
Vapor? ;)

The_Invisible
2016-05-12, 13:25:48
Wann ist eigentlich mit ersten Tests zu rechnen, erst bei offiziellen Releasetag? :D

(del)
2016-05-12, 13:27:48
Vapor? ;)Ich darf nix sagen. Aber man kann durchaus selbst draufkommen ;)

MiamiNice
2016-05-12, 13:30:04
Wurde nicht sogar schon im Livestream gesagt das der Kühler eine Vapor Chamber hat?

The new GeForce GTX 1080 is meticulously crafted to offer superior heat dissipation using vapor chamber cooling technology and premium materials, so it runs

http://www.geforce.com/hardware/10series/geforce-gtx-1080

Raff
2016-05-12, 13:31:49
Wann ist eigentlich mit ersten Tests zu rechnen, erst bei offiziellen Releasetag? :D

Die freundlichen Chinesen werden gewiss schon vorher leaken.

MfG,
Raff

scully1234
2016-05-12, 13:34:34
Wann ist eigentlich mit ersten Tests zu rechnen, erst bei offiziellen Releasetag? :D


Falls es nicht irgendwelche vorher vermasseln am 17.5

woodsdog
2016-05-12, 13:36:18
in china ist ja schließlich auch früher der 17. bzw Datum X - wo ist das problem?. :wink:

yamo
2016-05-12, 13:37:05
Es geht voran:wink: Bin sehr gespannt auf die Ergebnisse.
Und ich merke immer wieder: ich brauche langsam eine Gleitsichtbrille :D
Willkommen in meiner Welt:biggrin: Wir werden nicht jünger.

MfG
yamo

Wurde nicht sogar schon im Livestream gesagt das der Kühler eine Vapor Chamber hat?



http://www.geforce.com/hardware/10series/geforce-gtx-1080

Jup. Steht so auch bei EVGA.

Winter[Raven]
2016-05-12, 14:17:45
Also die Zotacs sehen echt cool aus.... eine bitte für mich :)

BlacKi
2016-05-12, 14:39:35
;11029663']Also die Zotacs sehen echt cool aus.... eine bite für mich :)
ein weiteres T muss erstmal ausreichen^^

Liquaron
2016-05-12, 14:47:34
Man darf bei der GTX 1080 nicht mit "kleinen" Karten rechnen, oder?

Das wird dann wohl wie bei der GTX 980 sein.

Die GTX 1070 wird dann wohl die kleinen custom designs haben.

Muss schließlich in mein Mini ITX reinpassen ;)

BlacKi
2016-05-12, 14:50:30
Man darf bei der GTX 1080 nicht mit "kleinen" Karten rechnen, oder?

Das wird dann wohl wie bei der GTX 980 sein.

Die GTX 1070 wird dann wohl die kleinen custom designs haben.

Muss schließlich in mein Mini ITX reinpassen ;)

man darf hoffen dass das erscheinen von der nano auch bei nv solche gedankengänge losgetreten hat, den die nano wurde in erster linie unvorteilhaft mit der "schwächeren" 970 verglichen. ich würds mir auch wünschen. machbar ist es auf jeden fall!

Gimmick
2016-05-12, 14:52:41
Bin gespannt ob NVidia Effekte wie HFTS auf Pascal erheblich schneller laufen :uponder:

Von der allgemeinen Leitung erwarte ich nichts überraschend weltbewegendes.

Raff
2016-05-12, 14:53:07
Vergesst nicht, dass die Nano dank HBM so klein ist. Weder die 1080 noch die 1070 nutzen HBM, aber eine 17-cm-Karte sollte möglich sein.

MfG,
Raff

Sunrise
2016-05-12, 14:59:08
Mal zur Abwechslung mal wieder was zum Thema:

Videocardz
ZOTAC teases GeForce GTX 1080 PGF Edition and new FireStorm utility (http://videocardz.com/59857/zotac-teases-geforce-gtx-1080-pgf-edition-and-new-firestorm)

Es ist echt erschreckend auffällig, wie früh NV die Chips neuerdings in die Massenproduktion bekommt.

Dass es bereits Custom-Partnerkarten von GP104 gibt, zeigt ganz klar, dass NV hier einen sehr starken Vorsprung vor AMD hatte, dies aber vollkommen geheim gehalten wurde.

Davon wurde sicherlich auch AMD überrascht. Normalerweise dauert es etwas, bis auch Custom-Partnerkarten erscheinen, die kommen aber laut der News sogar schon am 27. Mai von mehreren Partnern, die also auch mehr als genug Vorlaufzeit hatten. Diesen Teil wussten wir ja schon, aber es fällt mir beim Lesen dieser News einfach wieder erneut auf.

Die Übertaktung des Speichers auf 361GB/s Bandbreite kann sich auch sehen lassen, das entspricht dann etwa GDDR5X mit 12Gbps, also etwa 50% mehr als noch GDDR5 mit 8Gbps.

Kartenlehrling
2016-05-12, 15:13:38
vorallem finde ich die 17cm sinnfrei, viele itx gehäuse nehmen locker auch +24cm auf.
Dann würde ich lieber LowProfil Grafikkarten sehen, die durfen dann auch 21cm lang sein.

scully1234
2016-05-12, 15:24:17
Vergesst nicht, dass die Nano dank HBM so klein ist. Weder die 1080 noch die 1070 nutzen HBM, aber eine 17-cm-Karte sollte möglich sein.

MfG,
Raff

Sowas wie die Mini haben die bei der 1070 sicher wieder irgendwann im Gepaeck

2DfyBW2VbZA

Bösewicht
2016-05-12, 15:26:53
;11029663']Also die Zotacs sehen echt cool aus.... eine bitte für mich :)
mir gefällt die auch!

-/\-CruNcher-/\-
2016-05-12, 15:54:55
Viel interessanter sind die Verbesserungen von Boost 2.0 zu 3.0 darüber weiss man so gut wie noch 0 aber es hat mit einen der größten overall effekte ;)

Vor allem da ja AMD langsam dazu lernt und 2.0 langsam aber sicher am erreichen ist, es wurde sicher weiter auf Latenz optimiert im Zuge von VR, was allerdings dann den presure auf die anderen drumherum liegenden Komponenten nochmal steigern könnte wie schon bei Maxwell ;)

Gut bei Maxwell war der druck bedingt durch den selben Fertigungsprozess schon enorm im Overall Desgin das wird man diesmal sicher besser verteilt hatben deshalb wohl auch Boost 3.0 :D

Ein noch smarteres Boost erfordert es aber immer mehr den Nutzer vom OC und seinen Entscheidungsmöglichkeiten zu trennen und ihm nur noch das Gefühl zu vermitteln er ist der Boss was teils eh schon der Fall ist ;)

Bin gespannt was du herausfindest Format_C ;)

Unyu
2016-05-12, 16:00:26
Man darf bei der GTX 1080 nicht mit "kleinen" Karten rechnen, oder?

Wozu kurz, toll wäre endlich mal eine extra lange Version. Ein richtiger 40+ cm Hammer hätte schon was. Wer will denn diese Spielzeugkarten. Ein übliches Gehäuse sollte damit keinerlei Probleme haben. Aber wer gerne auf vermurkste Gehäuse steht, der braucht natürlich diese Winzigteile.

Liquaron
2016-05-12, 16:01:52
Wozu kurz, toll wäre endlich mal eine extra lange Version. Ein richtiger 40+ cm Hammer hätte schon was. Wer will denn diese Spielzeugkarten. Ein übliches Gehäuse sollte damit keinerlei Probleme haben. Aber wer gerne auf vermurkste Gehäuse steht, der braucht natürlich diese Winzigteile.


Naja manche möchten ihre PCs auch gerne im Wohnzimmer unterbringen.

Dann ist es auch eine Sache der Optik. Ist eben Geschmackssache.

Die kleinen leistungsstarken Karten haben sehr wohl ihre Daseinsberechtigung.

Unyu
2016-05-12, 16:13:13
Wenn Jemand wirklich Kleine wollte, gäbe es einen Markt. Die kaum existenten GTX 970 Mini oder früher 670 Mini zeigen eher, das es kaum einen Bedarf gibt. Es nervt wie das ständig gehypt wird.

Ohne Wakü würde ich mich darum kümmern, dass das Ding leise ist und nicht ob es in Schuhkartons gebastelt werden kann. Für letzteres muss man wohl gleich Ohrenschützer in die Packung legen.

MiamiNice
2016-05-12, 16:18:11
Wozu kurz, toll wäre endlich mal eine extra lange Version. Ein richtiger 40+ cm Hammer hätte schon was. Wer will denn diese Spielzeugkarten. Ein übliches Gehäuse sollte damit keinerlei Probleme haben. Aber wer gerne auf vermurkste Gehäuse steht, der braucht natürlich diese Winzigteile.

+1
und bitte um 400W TDP + entsprechende Leistung.
Gerne 2 oder 3x 8 Pin Stecker, wenn die Power stimmt.

-/\-CruNcher-/\-
2016-05-12, 16:24:02
1x8 Pin ist schon hammer für 6-9 TFLOP :)

Da könnte ich echt nochmal Nvidia schwach werden ;D

Raff
2016-05-12, 16:25:38
1 Pin ist schon hammer für 6-9 TFLOP :)

Jo, es sind aber acht "Pins". :D

MfG,
Raff

-/\-CruNcher-/\-
2016-05-12, 16:28:16
1x8 meine ich natürlich da könnte ich glatt mit meiner GTX970 schwach werden, wenn mich AMD nicht diesmal überzeugt ihrem im Aufbau befindlichen Ökosystem beizutretten aber diese Effizienz ist schon wieder mal yummy yummy und die bisherigen Nachteile eher verschwindend gering :D

Nvidia greift jetzt ja auch True Audio direkt an, da gehts jetzt gut los, die Frage wie realisieren sie es über die Shader resourcen oder ein Verbund zwischen ihrem HDMI Audio part und den Shadern oder doch ein eigener DSP ;)

Full HEVC HDR 10 bit support im neuen VPx kern scheint auch gesichert zu sein 1070 und 1080 werden auf jedenfall den selben kern wie die 950 spendiert bekommen + obligatorischer Performance Optimierung ;)

MiamiNice
2016-05-12, 16:36:06
Wo geht es den bitte "gut los"?
NV ruht sich wie eh und je auf dem fetten Marktanteil aus und bringt nur genau so viel Power wie unbedingt nötig ist. Ich denke wir würden einen wesentlich schnelleren Pascal sehen wenn AMD nur irgendwie mitkommen würde.
Natürlich alles imo.

yamo
2016-05-12, 16:48:24
anhand eines smilies könnte man auch andeuten, wie die 080 performed....gelle?

-/\-CruNcher-/\-
2016-05-12, 16:50:01
Bin gespannt auf AMDs Antwort aber die scheinen wirklich erstmal bedacht darin unten anzusetzen und mehr Casuals jetzt auf ihr Ökosystem zu ziehen was ja nicht verkehrt ist gegen die übermacht Nvidia muss ich erstmal eine Flotte mit meinem Ökosystem vertraut machen und aufbauen :D

Einige Daten liegen dort ja von Nvidia vor allerdings vieles eben auf ihrem GameWorks/Cuda Ökosystem. ;)

woodsdog
2016-05-12, 16:55:25
oh gott, jetzt haben sie den wieder rausgelassen *wegrenn* o.O

Godmode
2016-05-12, 16:57:31
Was ist bei der Founders Edition anders, verglichen mit bisherigen Referenzdesigns:
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Founders-Edition-Geforce-GTX-1080-1195206/

Lars Winand @ PCGH:
Lars Weinand: Im Vergleich zu früheren Nvidia-Designs haben wir folgende Bereiche verbessert: Bei der Stromversorgung gab es ein Upgrade von einem 4-Phasen- zu einem 5-Phasen-Dual-FET-Design; außerdem wurden Bandbreite, Phasen-Balance und Akustik optimiert. Wir haben die Kapazität unseres Filter-Netzwerks erweitert und die Stromversorgung des PCBs auf geringe Impedanz optimiert. Als Folge haben wir die Effizienz der Spannungsversorgung gegenüber der GTX 980 um 6 Prozent verbessert und die Amplitude der Spannungsspitzen von 209 mV auf 120 mV reduziert, um bessere Übtertaktbarkeit zu ermöglichen.

Das könnte bedeuten, dass die Dinger weniger fieper als früher. Auf den Kühler mit Vapor Chamber bin ich gauch gespannt. Das Ding könnte also deutlich leiser als die GTX 980 werden.

Dural
2016-05-12, 17:03:45
Und die 980 war schon recht leise.

Raff
2016-05-12, 17:06:15
Das Ding könnte also deutlich leiser als die GTX 980 werden.

Da muss aber mehr Hitze weg (180 zu 165W TDP). Das könnte sich ausgleichen.

MfG,
Raff

Godmode
2016-05-12, 17:08:26
Man darf bei der GTX 1080 nicht mit "kleinen" Karten rechnen, oder?

Das wird dann wohl wie bei der GTX 980 sein.

Die GTX 1070 wird dann wohl die kleinen custom designs haben.

Muss schließlich in mein Mini ITX reinpassen ;)

Wird es sicher geben, warum auch nicht?

Da muss aber mehr Hitze weg (180 zu 165W TDP). Das könnte sich ausgleichen.

MfG,
Raff

Das sind aber nur 15 Watt mehr und die Titan hatte 250 Watt.

-/\-CruNcher-/\-
2016-05-12, 17:08:37
Dazu ist ja auch Boost 3.0 da um es eben nochmal effizienter zu Managen und die Spitzen noch optimaler abzufedern, die Founders Edition ist eher was wie Leute die eine Phobie hin zu Luxus haben mehr nicht der Mehrwert ist eher gering bis 0 die Balance geht in den Geldbeutel des Early Adopter ;)

Und die Presse wird das wieder ordentlich vermarkten ;)

Woklbokl
2016-05-12, 17:09:00
Da muss aber mehr Hitze weg (180 zu 165W TDP). Das könnte sich ausgleichen.

MfG,
Raff

Hatten die Ref-Karten nicht eh Standard PT von 180 Watt? Zumindest war es bei meiner Referenz Karte von EVGA so.

scully1234
2016-05-12, 17:11:25
Da muss aber mehr Hitze weg (180 zu 165W TDP). Das könnte sich ausgleichen.

MfG,
Raff

Ist die Vapor Chamber nicht effizienter ,wie das was bei der 980 verbaut ist


Selbe Szene wenns stimmt


ZWhqAZ1hXvI

Godmode
2016-05-12, 17:29:49
Ist die Vapor Chamber nicht effizienter ,wie das was bei der 980 verbaut ist


Selbe Szene wenns stimmt


http://youtu.be/ZWhqAZ1hXvI

Der Uploader gehört alleine schon wegen der Videoauflösung geteert und gefedert.

scully1234
2016-05-12, 17:31:14
na wenigstens passt die Szene mal ueberein:smile:

Godmode
2016-05-12, 18:02:51
Ja das stimmt. Trotzdem gebe ich nichts auf YT-Videos ohne irgendwelche Kreditibilität des Uploaders.

Kartenlehrling
2016-05-12, 18:34:09
Das wichtigste konnte man lesen 30fps in BatmanAK, das recht viel ist, wobei die maxFPS anscheinen bei 144fps limitiert wird,
was wiederrum zu einem bessern ten80 Wert geführt hätte wär er nicht limitiert.

kdvd
2016-05-12, 18:40:46
Das sind aber nur 15 Watt mehr und die Titan hatte 250 Watt.

Der Chip ist aber deutlich kleiner und am ende hast du ~ 46% mehr Abwärme pro mm^2.

GM204 : 165W / 398mm^2 = 0,41W/mm2
GP104 : 180W / 300mm^2 = 0,6W/mm^2

0,6 / 0,41 = 1,46

Godmode
2016-05-12, 18:42:30
Stimmt, somit ist die Vapor Champer wohl fast Pflicht.

kdvd
2016-05-12, 18:59:30
Mal überraschen lassen, die TDP bezieht sich ja meines Wissens nach auf die gesamte Karte.
Und >>vielleicht<< ist einfach nur der GDDR5X ein Hitzkopf trotz gesunkener Spannung, denn da haben wir ja auch eine doppelte Packdichte wenn ich das richtig verstanden habe.

Moralelastix
2016-05-12, 19:10:47
Wieso verbaut NV bei ner Highend Karte 2016 immer noch den ollen DVI Anschluss und nutzt den Platz nicht viel sinnvoller als Abwärme Öffnung?

BlacKi
2016-05-12, 19:17:14
Wieso verbaut NV bei ner Highend Karte 2016 immer noch den ollen DVI Anschluss und nutzt den Platz nicht viel sinnvoller als Abwärme Öffnung?
nicht jeder 120/144hz monitor hat DP. er wird noch gebraucht. bist du mit max 70° nicht zufrieden?

Tamagothi
2016-05-12, 19:17:47
Der Chip ist aber deutlich kleiner und am ende hast du ~ 46% mehr Abwärme pro mm^2.

GM204 : 165W / 398mm^2 = 0,41W/mm2
GP104 : 180W / 300mm^2 = 0,6W/mm^2

0,6 / 0,41 = 1,46

Der wirkliche verbrauch liegt bei der GTX 980 aber >180 watt. Wird bei GP104 nicht anders sein.

http://www.tomshardware.de/nvidia-geforce-gtx-970-gtx-980-roundup-vergleichstest,testberichte-241658-20.html

kdvd
2016-05-12, 19:22:48
@Tamagothi

Abwärme pro mm^2

Damit eine GTX 980 hier auf den selben Index wie eine 1080 kommt, müsste sie 240W verbraten.

Moralelastix
2016-05-12, 19:23:59
nicht jeder 120/144hz monitor hat DP. er wird noch gebraucht. bist du mit max 70° nicht zufrieden?

Gibt's für son Mist nicht Adapter? Da kann ich ja gleich noch mit VGA daher kommen?

Tamagothi
2016-05-12, 19:29:28
Ich hab nur erwähnt das der verbrauch höher ist und damit die W/mm2 etwas schlechter sind ;)

Eine GTX 1080 wird natürlich nicht Leiser zu kühlen sein als GM204/200

Moralelastix
2016-05-12, 19:58:42
Es gibt doch aktive Adapter für son Mist. Aber scheinen wohl auch Probleme zu machen.

So oder so für ne Handvoll Heinis soll dann für die nächsten 10 Jahre noch der DVI Anschluss mit geschleppt werden?:freak:

(del)
2016-05-12, 20:08:57
Glaskugel-Party :P

Sagen wirs mal so: einige Zahlen aus der Präse von Mr. Black Leather Jacket stimmen, andere nicht wirklich. Jetzt dürft Ihr die Kaffeesatzkrümel umdrehen, ob es doch die Temperaturen, die Leistungsaufnahme oder die Performance ist. Oder eben alles oder nichts.

Trotzdem liegen hier viele ein wenig daneben. ;)

Gimmick
2016-05-12, 20:31:06
Glaskugel-Party :P

Sagen wirs mal so: einige Zahlen aus der Präse von Mr. Black Leather Jacket stimmen, andere nicht wirklich. Jetzt dürft Ihr die Kaffeesatzkrümel umdrehen, ob es doch die Temperaturen, die Leistungsaufnahme oder die Performance ist. Oder eben alles oder nichts.

Trotzdem liegen hier viele ein wenig daneben. ;)

Nach den klaren Hinweisen muss sie: weniger verbrauchen, dabei wärmer werden und langsamer, als die 980ti sein!

nordic_pegasus
2016-05-12, 20:36:08
Glaskugel-Party :P

Sagen wirs mal so: einige Zahlen aus der Präse von Mr. Black Leather Jacket stimmen, andere nicht wirklich. Jetzt dürft Ihr die Kaffeesatzkrümel umdrehen, ob es doch die Temperaturen, die Leistungsaufnahme oder die Performance ist. Oder eben alles oder nichts.

Trotzdem liegen hier viele ein wenig daneben. ;)

ich hoffe, in Deinem Review wird auch ein Satz zum Thema Spulenfiepen stehen :)

horn 12
2016-05-12, 20:37:44
Denke die Temperatur macht der Neuen NV Karte zu schaffen!
Deshalb auch die Wassserkühlung als Custom Modell und die 85+ Grad peile ich an bei NV FE

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Founders-Edition-Geforce-GTX-1080-1195206/

Nightspider
2016-05-12, 20:40:44
Brauche ich das als Gamer? Welche DX 12 Verbesserungen? Lautlose Lüfter gibt es auch bei Maxwell.;)

Stellst nur Behauptungen auf, ohne Quelle zu haben. Zeigt ja wie gut informiert du bist, alleine an deiner Aussage bezüglich VRAM und Lüfter im idle;)

Halt' mal den Ball flach!
Ob DU das brauchst ist völlig irrelevant. Einige hier würden diese Features gerne haben.
Das Pascal die neusten De-und Encoder besitzen wird ist völlig logisch. Dafür brauch ich dir keinen Beweis zu liefern.
Und Maxwell-Referenzkarten waren nicht lautlos im Idle. Mit stehendem Lüfter könnte die GTX1080 da punkten.
Vor allem wenn manche Wasserkühler-Enthusiasten die GTX1080 eh nur übergangsweise verbauen bis Big Pascal kommt ohne extra ein Wasserkühler für die Übergangslösung zu kaufen.

Als nächstes forderst du noch eine Quelle dafür, das 16FF effizienter arbeitet. ;D :rolleyes:

Und was hast du an meiner Aussage bezüglich VRAM zu nörgeln? Nur weil manche schlecht programmierten Spiele teilweise 12GB belegen heißt das nicht das diese zwingend vorrausgesetzt werden. Zeig mir mal ein Spiel wo eine 12GB Karte schneller ist als eine 8GB Karte, dann reden wir weiter.
Zumal die alte 12GB Karte eh nur den Auspuff sehen wird von der 8GB Karte welche 10-20% schneller sein wird. Ganz zu schweigen von den VR Games wo, wenn es stimmt, die GTX1080 Kreise um die alte Titan X drehen wird. :P

bardh
2016-05-12, 20:56:52
Denke die Temperatur macht der Neuen NV Karte zu schaffen!
Deshalb auch die Wassserkühlung als Custom Modell und die 85+ Grad peile ich an bei NV FE

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Founders-Edition-Geforce-GTX-1080-1195206/

Bei der Vorstellung letzte Woche hatte sie luftgekühlte 67° bei 2.1 Ghz. Alleine das deutet auf kein Problem bezüglich Temperatur hin, sonst hätte Nvidia niemals das Risiko gewagt und eine übertakte 1080 vorgestellt.

Jetzt stell dir mal vor was da mit einer Wasserkühlung geht...

Schnitzl
2016-05-12, 21:04:55
Hallo
gibts schon Infos über die Länge der Ref-Karte?
knapp 27cm wie die 980 Ref?

Raff
2016-05-12, 21:05:02
Zeig mir mal ein Spiel wo eine 12GB Karte schneller ist als eine 8GB Karte, dann reden wir weiter.

Das ist wirklich schwierig. Ich habe noch keinen derartigen Fall konstruieren können, sofern Spielbarkeit mit auf der Liste steht. Unterschiede zwischen 6 GiB und 8/12ern lassen sich aber raushauen. :D

Zumal die alte 12GB Karte eh nur den Auspuff sehen wird von der 8GB Karte welche 10-20% schneller sein wird. Ganz zu schweigen von den VR Games wo, wenn es stimmt, die GTX1080 Kreise um die alte Titan X drehen wird. :P

Warum redest du eigentlich die neue, überteuerte Karte schön und lässt parallel deinen Hass an der alten, ebenfalls überteuerten Karte raus? ;)

MfG,
Raff

woodsdog
2016-05-12, 21:05:10
Wieso wird hier ständig dieser VR corner-case ins Feld geführt? Welche Praxisrelevanz hat dieser quatsch?!

Godmode
2016-05-12, 21:08:24
Wieso wird hier ständig dieser VR corner-case ins Feld geführt? Welche Praxisrelevanz hat dieser quatsch?!

Nightspider ist VR Fan, daher merkt er das immer an. Ihm ist es also wichtig. Praxisrelevant wird es, wenn man eine VR Brille benutzt.

@Titan X: Ich habe die Karte damals nur wegen SLI genommen, sonst hätte ich wohl auch die 980 Ti genommen. Falls man seine Karten aber sehr lange behält, sind 12 GB sicher nicht verkehrt. Die 1080 mit ihren 8 GB wird auch wieder schnell an ihre grenzen stoßen, wie schon die 680 und 980.

Da hier teilweise die Stimmung schon wieder so gereizt ist: Ball flach halten, es geht nur um Grafikkarten.

Raff
2016-05-12, 21:13:47
Die 1080 mit ihren 8 GB wird auch wieder schnell an ihre grenzen stoßen, wie schon die 680 und 980.

Da wage ich jetzt mal zu widersprechen. :) Im Gegensatz zu den genannten Karten, welche jeweils das zeitgenössische Speicherminimum für eine High-End-Karte mitbrachten (ebenso die GTX 780 [Ti]), sind 8 GiByte heutzutage nicht das Minimum, sondern verdienen das Prädikat "gut gepolstert". Hier und da kann man jetzt schon eine 6-GiB-Karte plattmachen, aber nur mit der Keule. Das ist ein Indiz dafür, dass das noch lange gut gehen wird. Vorteile durch 12 GiB wird's in den kommenden Jahren bestimmt geben, aber nicht relevant. Ich bin gespannt, ob wir 2017 auch 12er-Karten als Zwischengröße zu den dicken 16-ern sehen werden.

MfG,
Raff

The_Invisible
2016-05-12, 21:20:32
8GB finde ich schon gut, da können selbst schlecht portierte Konsolenspiele komplett im VRAM liegen, und die aktuellen Konsolen werden wir noch recht lange haben. Zudem wird man sicher nicht so schnell die zahlreichen 4GB (3,5) Benutzer verägern wollen. Kommt auch drauf an wieviel Speicher die 1060er haben wird.

Kriegsgeier
2016-05-12, 21:50:10
Ok, ich dachte schon ;-)

PS: wir haben noch ein paar Tage bis zum 17 Mai ;-)

Vielleicht auch bewusst einprogrammiert? Für die Präsentation....

Godmode
2016-05-12, 21:52:10
Ich dachte die Vorstellung ist am 27. Mai?

Kriegsgeier
2016-05-12, 21:55:01
Es gab aber auch der 17. für den Ablauf der DNA, oder?

Isen
2016-05-12, 22:06:02
15, 17, 27.05 - die schwirren rum, ja :D

basix
2016-05-12, 22:30:29
15, 17, 27.05 - die schwirren rum, ja :D

soweit mir bekannt 17.5. = Founders Edition, 27.5. = Customs

Isen
2016-05-12, 22:32:52
Geht doch wohl eher um Benchmarks als um Customs.

Hübie
2016-05-12, 22:49:00
Glaskugel-Party :P

Sagen wirs mal so: einige Zahlen aus der Präse von Mr. Black Leather Jacket stimmen, andere nicht wirklich. Jetzt dürft Ihr die Kaffeesatzkrümel umdrehen, ob es doch die Temperaturen, die Leistungsaufnahme oder die Performance ist. Oder eben alles oder nichts.

Trotzdem liegen hier viele ein wenig daneben. ;)

Die Performance wird jedenfalls nur in cherry picked cases so sein wie dargestellt. VR ist so ein Fall (wobei das sehr wenig konkretes besagt). Wenn man 16 Viewports hat kann man natürlich die Auflösung selbiger gut skalieren und man braucht vor allem SFU um dies verlustfrei umzusetzen. Anders wüsste ich gerade nicht wie NV das sonst gelöst hat.
Ich stelle mir da allerhand lustiges vor. Warten wir mal ab. :D
Eines ist jedoch klar: AMD hat ein echtes Problem (und das sage ich nicht mit einem Lächeln auf den Lippen;().

bardh
2016-05-12, 22:56:55
Da habt ihr glaube ich etwas durcheinander gebracht:

17.05: Freigabe der Reviews (unbestätigt)
27.05: GTX 1080 Founders Edition im Handel (offiziell)

Troyan
2016-05-12, 22:58:15
17.05 is so gut wie sicher. Die Reviewers haben alle Karten. Ein zulanger Zeitraum wäre wegen NDA-Brüchen nur kontraproduktiv.

Hübie
2016-05-12, 23:08:04
Da habt ihr glaube ich etwas durcheinander gebracht:

17.05: Freigabe der Reviews (unbestätigt)
27.05: GTX 1080 Founders Edition im Handel (offiziell)

Plus die customs im Juni. :biggrin:

Dicker Igel
2016-05-12, 23:42:29
Da wage ich jetzt mal zu widersprechen. :) Im Gegensatz zu den genannten Karten, welche jeweils das zeitgenössische Speicherminimum für eine High-End-Karte mitbrachten (ebenso die GTX 780 [Ti]), sind 8 GiByte heutzutage nicht das Minimum, sondern verdienen das Prädikat "gut gepolstert". Hier und da kann man jetzt schon eine 6-GiB-Karte plattmachen, aber nur mit der Keule.
Sehe ich auch so. Nur weil hier und da 12GB genutzt werden, heißt das nicht, dass das Voraussetzung ist/wird. Manche Engines nutzen halt das, was verfügbar ist(wie's imo auch zu sein hat).

horn 12
2016-05-12, 23:59:15
http://videocardz.com/59871/nvidia-geforce-gtx-1080-3dmark-firestrike-and-3dmark11-performance

Wir wollen Spiele sehen, nicht diesen 3D Murks Hoch ³
Wenn es bei Games gleich zugeht, dann hat NV jedoch alles Richtig gemacht!

Raff
2016-05-13, 00:17:45
Im 3DMark gewinnt der, der den höchsten Boost hat, muss ja nur 30 Sekunden halten. :ugly: Grundsätzlich sind Fire-Strike-Werte (Extreme/Ultra) aber nicht weit von den echten Verhältnissen entfernt.

MfG,
Raff

Tamagothi
2016-05-13, 00:43:24
http://videocardz.com/59871/nvidia-geforce-gtx-1080-3dmark-firestrike-and-3dmark11-performance

Wir wollen Spiele sehen, nicht diesen 3D Murks Hoch ³
Wenn es bei Games gleich zugeht, dann hat NV jedoch alles Richtig gemacht!

Tabelle ist ein Witz!

Eine GTX 1080 mit >1800 Mhz gegen GTX 980ti/Tian mit <=1075 Mhz :ucrazy:

So kann man Tabellen auch verschönern.

kdvd
2016-05-13, 00:50:40
Das wird der "reale" Boost sein.

Meine Titan X boostet auch auf ~1200 MHz, ohne das ich dafür irgendwas anhebe.

BiZiNiZz
2016-05-13, 01:20:12
Tabelle ist ein Witz!

Eine GTX 1080 mit >1800 Mhz gegen GTX 980ti/Tian mit <=1075 Mhz :ucrazy:

So kann man Tabellen auch verschönern.


Lesen soll helfen, sie schreiben selbst, dass alle Benchmarks @Stock Settings gemacht wurden! Sollen sie jetzt die 1080 runtertakten, damit es "fair" ist oder wie darf ich mir dein Gemecker vorstellen? Die einzige Variable ist der Boost, und der ist Dynamisch je nach Auslastung.

Tamagothi
2016-05-13, 02:28:20
Ich mecker nicht sondern sage nur das die Tabelle verfälscht ist!

Ich glaube nämlich nicht das eine GTX 980ti nur mit max <=1075 Mhz mit @stock läuft. Das kannst du jemand anderem erzählen.

BiZiNiZz
2016-05-13, 02:42:07
Gut, dann zieh ich das Gemecker zurück. :biggrin:

Wenn du die Referenzkarten zugrunde legst, dann ja. Der Basis-Takt der 980Ti liegt bei 1000MHz und der Boost bei 1075MHz. Wobei der Boost ja auch wieder eine Variable ist je nach Auslastung ist.
Wir wissen ja auch nicht was nVidia in der neuen Boost 3.0 alles geändert hat.

Ich geh jetzt einfach mal von der Annahme aus, dass alle Grafikkarten Referenzmodelle waren um die Vergleichbarkeit zu Gewährleisten.

scully1234
2016-05-13, 04:03:41
Ich glaube nämlich nicht das eine GTX 980ti nur mit max <=1075 Mhz mit @stock läuft. Das kannst du jemand anderem erzählen.


Wo siehst du denn in dem Diagramm den Boost der 980ti, bzw woher nimmst du die 1075MHz?

Ich sehe da 3 Slides, einmal die Tabelle ,und 2x 3Murks Werte der GTX 1080

AnarchX
2016-05-13, 07:32:05
GTX 1080 im CompuBench: https://compubench.com/compare.jsp?benchmark=compu15d&did1=33974771&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=NVIDIA+GeForce+GTX+1080&D2=NVIDIA+GeForce+GTX+980

Es werden von OpenCL nur 20 Compute Units erkannt. Insofern sind es vielleicht weiterhin SMs mit 128SPs.


Offenbar boostet die GTX 1080 schon im Standard auf 2.1GHz: http://tieba.baidu.com/p/4543564804?pid=89549319078&cid=#89549319078

Godmode
2016-05-13, 08:42:58
GTX 1080 im CompuBench: https://compubench.com/compare.jsp?benchmark=compu15d&did1=33974771&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=NVIDIA+GeForce+GTX+1080&D2=NVIDIA+GeForce+GTX+980

Es werden von OpenCL nur 20 Compute Units erkannt. Insofern sind es vielleicht weiterhin SMs mit 128SPs.


Offenbar boostet die GTX 1080 schon im Standard auf 2.1GHz: http://tieba.baidu.com/p/4543564804?pid=89549319078&cid=#89549319078

Wenn die 1080 beim Mining wirklich 5x so schnell ist, wie die 980, dann darf man sich schon mal auf schlechte Verfügbarkeit einstellen.

Entweder reizt der Boost 3.0 den maximal möglichen Takt besser aus, oder wir können auf die 2,1 GHz noch einmal mit 30-40% Overclocking rechnen.

bardh
2016-05-13, 08:45:52
Offenbar boostet die GTX 1080 schon im Standard auf 2.1GHz: http://tieba.baidu.com/p/4543564804?pid=89549319078&cid=#89549319078


Ich lese da eher, dass er die Frequenz von 1.86Ghz auf 2.114Ghz erhöht hat... Und irgendwas von wegen OC Fähigkeiten schrecklich, damit meinen sie ja viellicht die 2.114Ghz. Nicht überbewerten jetzt. ;-)

kdvd
2016-05-13, 08:49:56
Wenn die 1080 beim Mining wirklich 5x so schnell ist, wie die 980, dann darf man sich schon mal auf schlechte Verfügbarkeit einstellen.

Die Verlinkung ist nicht ganz korrekt, da Windows und OSX verglichen wird.
Unter Windows ist die 1080 nur noch doppelt so fix.

Godmode
2016-05-13, 08:55:10
Die Verlinkung ist nicht ganz korrekt, da Windows und OSX verglichen wird.
Unter Windows ist die 1080 nur noch doppelt so fix.

Ok, dann ist das wie bisher und die Miner werden zu Radeons greifen, da diese einfach deutlich günstiger sind.

Darlie
2016-05-13, 08:59:18
http://cdn.videocardz.com/1/2016/05/NVIDIA-GeForce-GTX-1080-PCB-2.jpg
Von : http://videocardz.com/59818/nvidia-geforce-gtx-1080-taken-apart

Gimmick
2016-05-13, 09:28:28
Entweder reizt der Boost 3.0 den maximal möglichen Takt besser aus, oder wir können auf die 2,1 GHz noch einmal mit 30-40% Overclocking rechnen.

Das bezweifel ich. Bisher hab ich von ~1600Mhz Standardtakt und ~1700MHz Boosttakt gelesen.
Die 2,1GHz nochmal um 40% zu erhöhen wär ja fast der doppelte Standardtakt :freak:

Ich gehe von einer mittleren Übertaktbarkeit von 30% vom Standardtakt aus. Das sind ja dann ca. 2,1GHz.

Zergra
2016-05-13, 10:41:25
Ich gehe von einer mittleren Übertaktbarkeit von 30% vom Standardtakt aus. Das sind ja dann ca. 2,1GHz.

Kann ja sein das die Karte sich weit übertakten lässt, die frage ist halt wie Stabil das ganze bei längerer Last wird. Daher sobald der Chip warm wird, wird die Karte wie bekloppt drosseln. Wer weiß ob sich das PT überhaupt verändern lassen wird. :confused:

phoenix887
2016-05-13, 10:46:40
Kann ja sein das die Karte sich weit übertakten lässt, die frage ist halt wie Stabil das ganze bei längerer Last wird. Daher sobald der Chip warm wird, wird die Karte wie bekloppt drosseln. Wer weiß ob sich das PT überhaupt verändern lassen wird. :confused:

Stimmt. Wer weiß was sich NVIDIA an sperren eingefallen hat.

MorPheuZ
2016-05-13, 10:51:09
@Raff

In Eurem Interview hatte Lars von Verbesserungen bei der Spannungsversorgung und anderen Kleinigkeiten gesprochen. Er Vergleicht aber trotz eurer Frage immer mit der 980. Lässt sich daraus ableiten dass sich die FE Edition NICHT von der "echten" Retail Version unterscheidet und qualitativ die selben Komponente verbaut werden? Nur um sich der Frage endlich sicher zu sein und man doch noch ein paar Wochen warten muss ;)

ZapSchlitzer
2016-05-13, 11:07:36
Laut guru3d.com (http://www.guru3d.com/news-story/geforce-gtx-1070-1080-founders-edition-explained.html) unterscheidet sich die FE lediglich durch den Kühler und der Tatsache dass sie ~100$/€ teuer wird, von der normalen Version.

Godmode
2016-05-13, 11:20:37
Laut guru3d.com (http://www.guru3d.com/news-story/geforce-gtx-1070-1080-founders-edition-explained.html) unterscheidet sich die FE lediglich durch den Kühler und der Tatsache dass sie ~100$/€ teuer wird, von der normalen Version.

Mein Gefühl sagt mir, dass das ein Marketingtrick ist um die Preise wieder etwas erhöhen zu können.

Darlie
2016-05-13, 11:42:12
@videocardz
http://cdn.videocardz.com/1/2016/05/NVIDIA-GTX-1080-GPUZ.jpg
boostclock 1734mhz

Disco_STFU
2016-05-13, 11:47:00
Mein Gefühl sagt mir, dass das ein Marketingtrick ist um die Preise wieder etwas erhöhen zu können.

Definitiv! Im Zweifel geb ich nix auf irgendwelches Marketinggelaber. Ist das doch klar, dass die sich nicht hinstellen können und sagen "Das ist ne stinknormale Version aber mit Premium Deppenaufschlag" :freak:

Raff
2016-05-13, 11:51:27
@videocardz
http://cdn.videocardz.com/1/2016/05/NVIDIA-GTX-1080-GPUZ.jpg
boostclock 1734mhz

Das ist die offiziell von Nvidia genannte Angabe: http://www.geforce.com/hardware/10series/geforce-gtx-1080#specs

MfG,
Raff

Dural
2016-05-13, 11:59:17
64ROPs und 160TMUs wurde noch nirgends genannt.

(del)
2016-05-13, 12:05:08
Die Glaskugelparty ist ja noch immer voll im Gange :D

Nur mal so als kurze Korrektur zum Mr.-Leather-Jacket-Auftritt:
Die 67°C waren von einem offensichtlich wassergekühlten System. Auch wenn sich NV beim Kühler wirklich wieder mal Mühe geben hat, zaubern kann auch diese Firma nicht :D

Ich habe das Schlachtfest ja schon hinter mir und auch das Optimieren der Paste brachte keinen wirklich signifikanten Unterschied, man erhält nur einen gewissen Zeitaufschub. Mehr sage ich dazu nicht, weil jeder die kostenlose Brain-2.0-App selbst nutzen kann. :P

Was aber interessant ist, sind das Platinenlayout und die verwendeten Chips. Ich habe da mal bissl Reverse-Engineering betrieben...

Auch der GDDRX5 unterscheidet sich beim finalen Sample etwas von den geleakten Bildern, genauso wie die ID des Chips zwischen Engineering Sample und finalem Exemplar. Ein Schelm, der Böses dahinter vermutet.

PHuV
2016-05-13, 12:09:20
GTX 1080 im CompuBench: https://compubench.com/compare.jsp?benchmark=compu15d&did1=33974771&os1=Windows&api1=cl&hwtype1=dGPU&hwname1=NVIDIA+GeForce+GTX+1080&D2=NVIDIA+GeForce+GTX+980


Wenn die 1080 beim Mining wirklich 5x so schnell ist, wie die 980, dann darf man sich schon mal auf schlechte Verfügbarkeit einstellen.
5x Bitcoin Mining finde ich schon krass. :eek:

Und Video Composion mit Faktor 3,5 ist auch beachtlich. Da soll noch jemand mal hier behaupten, Pascal wäre gar nicht viel besser als Maxwell.

iuno
2016-05-13, 12:13:25
Bezichtigst du Jensen etwa der Luege :eek:
Naja, wenn die Szene keine grosse Last erzeugt und der Luefter auf 100% gestellt wird oder es sogar ein Partnerdesign ist, hielt ich es vielleicht schon moeglich. Aber wenn du das sagst...

Ist es eigentlich nicht gefaehrlich, wie viele Infos du rausgibst? Ich meine, uns gefaellt es ja, aber wir wollen dass auch auch noch lange testen darfst :P

(del)
2016-05-13, 12:14:20
5x Bitcoin Mining finde ich schon krass....

Nur Deppen und Geldwäscher minen mit Grafikkarten. Mein Stick zieht ganze 430 mA auf 5 Volt und hält ganz gut mit :D
https://scontent.ftxl1-1.fna.fbcdn.net/t31.0-8/13220678_247094745680145_5266421860876651669_o.jpg

Bezichtigst du Jensen etwa der Luege :eek:
Naja, wenn die Szene keine grosse Last erzeugt und der Luefter auf 100% gestellt wird oder es sogar ein Partnerdesign ist, hielt ich es vielleicht schon moeglich. Aber wenn du das sagst...
Ist es eigentlich nicht gefaehrlich, wie viele Infos du rausgibst? Ich meine, uns gefaellt es ja, aber wir wollen dass auch auch noch lange testen darfst :P


Erstens hat er NICHT gesagt, dass das System luftgekühlt war, aber eben auch nicht womit. Und die tatsächliche Last war auch nicht bekannt.
Ich möchte mit meinem Einwurf nur den Eindruck korrigieren, den das Wunschdenken mancher Leser so geweckt haben könnte.
Das ist nicht verboten, sondern dient nur der Wahrheitsfindung. Außerdem poste ich ganz bewusst nichts, was nicht schon bekannt wäre.

Da passe ich sehr wohl auf, ich bin ja nicht wahnsinnig :)

Godmode
2016-05-13, 12:19:30
5x Bitcoin Mining finde ich schon krass. :eek:

Und Video Composion mit Faktor 3,5 ist auch beachtlich. Da soll noch jemand mal hier behaupten, Pascal wäre gar nicht viel besser als Maxwell.

Es wurde OSX vs Windows verglichen. Ein paar Posts nach meinem gabs die Aufklärung. Windows vs Windows sind es dann doch nur eine Verdoppelung.

Die Glaskugelparty ist ja noch immer voll im Gange :D

Nur mal so als kurze Korrektur zum Mr.-Leather-Jacket-Auftritt:
Die 67°C waren von einem offensichtlich wassergekühlten System. Auch wenn sich NV beim Kühler wirklich wieder mal Mühe geben hat, zaubern kann auch diese Firma nicht :D

Ich habe das Schlachtfest ja schon hinter mir und auch das Optimieren der Paste brachte keinen wirklich signifikanten Unterschied, man erhält nur einen gewissen Zeitaufschub. Mehr sage ich dazu nicht, weil jeder die kostenlose Brain-2.0-App selbst nutzen kann. :P

Was aber interessant ist, sind das Platinenlayout und die verwendeten Chips. Ich habe da mal bissl Reverse-Engineering betrieben...

Auch der GDDRX5 unterscheidet sich beim finalen Sample etwas von den geleakten Bildern, genauso wie die ID des Chips zwischen Engineering Sample und finalem Exemplar. Ein Schelm, der Böses dahinter vermutet.

Wassergekühlt? Dafür ist die Temperatur aber dann extrem schlecht. Ich hätte eher erwartet, das die Szene nicht genügend Last erzeugt, was dann auch den hohen Boosttakt erklärt.

TobiWahnKenobi
2016-05-13, 12:24:21
*del*

naja.. erstmal zurücklehnen und entspannt durch die hose atmen.. pfingsten! die olle graka wird sich hier schon zeitnah einfinden.. es war immer so.


(..)

mfg
tobi

iuno
2016-05-13, 12:26:50
Erstens hat er NICHT gesagt, dass das System luftgekühlt war, aber eben auch nicht womit. Und die tatsächliche Last war auch nicht bekannt.

https://youtu.be/ur4ntAKNLHk?t=4370

Ich muss einen ganz gehoerigen Gehoerfehler haben

edit: Es kann natuerlich sein, dass auch das ein Fehler seitens Jensen war und Nvidia das im Recap auch rausgeschnitten hat. Das habe ich nicht nachgeprueft. Gesagt hat er es live aber definitiv und in aller Deutlichkeit :rolleyes:

(del)
2016-05-13, 12:31:39
Stimmt, ich erinnere mich, ich saß ja auch dort. Da hatte ich nur den zweiten Teil noch im Gedächtnis. :)

Nur ist die Last, die dort anlag, ja nicht wirklich bekannt, denn die Demo habe ich leider nicht zum Verifizieren. Mehr Details kann ich aktuell allerdings wirklich nicht ins Umland schießen :)

MiamiNice
2016-05-13, 12:33:54
Stell Dich nicht so an. Schmeiß die Details an jemanden raus der nicht unter NDA steht, dann findet sich der Rest von alleine :wink:

(del)
2016-05-13, 12:36:50
Meine Güte, die paar Tage wird es auch mal ohne gehen :P

ChaosTM
2016-05-13, 12:36:58
Hm - Ich glaube mich auch erinnern zu können, dass die Jacke irgendwann "luftgekühlt" gesagt hat aber das fällt wahrscheinlich unter selektive Wahrnehmung bzw. Wunschdenken.

Godmode
2016-05-13, 12:53:50
Hm - Ich glaube mich auch erinnern zu können, dass die Jacke irgendwann "luftgekühlt" gesagt hat aber das fällt wahrscheinlich unter selektive Wahrnehmung bzw. Wunschdenken.

Er hat definitv luftgekühlt gesagt, aber ohne die Last zu kennen, ist das alles nicht viel Wert.

Dural
2016-05-13, 14:03:09
Referenz @ 100% Lüfter und da kommen die 67°C auch in etwa hin. Und wenn NV 2,1GHz OC verspricht werden das auch 99% der Karte schaffen, NV ist nicht AMD so von wegen neuer OC Traum :wink:

Nightspider
2016-05-13, 14:29:29
"GTX 1080 mit OC deklassiert Titan X"
http://www.computerbase.de/2016-05/nvidia-geforce-gtx-1080-pascal-oc-benchmarks-deklassieren-titan-x/

Und der Video Composition Wert lässt auch auf deutlich bessere Coder schließen.

Und ich werde hier blöd angemacht. Typisch 3DC. :P

Liquaron
2016-05-13, 14:36:24
"GTX 1080 mit OC deklassiert Titan X"
http://www.computerbase.de/2016-05/nvidia-geforce-gtx-1080-pascal-oc-benchmarks-deklassieren-titan-x/

Und der Video Composition Wert lässt auch auf deutlich bessere Coder schließen.

Und ich werde hier blöd angemacht. Typisch 3DC. :P


Mal eben doppelt so schnell wie eine GTX 970^^

Alter Falter....ich hoffe die GTX 1070 wird nicht sehr viel langsamer.

phoenix887
2016-05-13, 14:44:37
"GTX 1080 mit OC deklassiert Titan X"
http://www.computerbase.de/2016-05/nvidia-geforce-gtx-1080-pascal-oc-benchmarks-deklassieren-titan-x/

Und der Video Composition Wert lässt auch auf deutlich bessere Coder schließen.

Und ich werde hier blöd angemacht. Typisch 3DC. :P

oh man verstehst echt nicht oder? Titan X@1,5ghz.:rolleyes: Dann noch 3DMark. Lass gut sein.

Godmode
2016-05-13, 14:46:53
@Nightspider und phoenix887:
Ist es echt nicht möglich, dass ihr euch mal nicht gegenseitig anmacht?

Zu den Werten: Natürlich muss man TX vs 1080 Stock oder eben TX OC vs 1080 OC vergleichen. Stock vs Stock sieht dann wie gehabt aus und die 1080 ist irgendwo um die 20-30% schneller als die TX.

Thunder99
2016-05-13, 14:47:33
Nett, aber:

eine Titan X kann man auch gut takten 1,5GHz Titan X gegen 2,1GHz Vergleich ist da besser angebracht
verhungert der Chip nicht in realen Anwendungen an der Bandbreite?

Nightspider
2016-05-13, 14:48:17
oh man verstehst echt nicht oder? Titan X@1,5ghz.:rolleyes: Dann noch 3DMark. Lass gut sein.
Warum pöbelst du mich schon wieder ohne Grund an?
Habe ich überhaupt eine Titan X mit 1,5 Ghz erwähnt? Irgendwo? Mit Prozentzahlen?

Ich habe nur gesagt die 1080 mit OC mit Sicherheit schneller sein wird als Godmodes Titan X.

Und etwas anderes sagen obige Benchmarks auch nicht aus.

@Godmode: Wo habe ich ihn denn angemacht? Der kann sich doch seit seinem ersten Post hier nicht zusammenreißen.

iuno
2016-05-13, 14:52:27
Habe ich noch nicht hier gesehen:
I can confirm that the older SLI bridges will work, but the performance will not be as high as with the new bridge.
http://forums.evga.com/FindPost/2477459

Vielleicht geht dann inoffiziell doch auch noch 3- und 4-way SLI

verhungert der Chip nicht in realen Anwendungen an der Bandbreite?
Das kann dir keiner sagen, bzw. erst wenn es dementsprechende Tests gibt

dargo
2016-05-13, 14:53:07
Referenz @ 100% Lüfter und da kommen die 67°C auch in etwa hin. Und wenn NV 2,1GHz OC verspricht werden das auch 99% der Karte schaffen, NV ist nicht AMD so von wegen neuer OC Traum :wink:
Du meinst so wie NV den DX12 Support für Fermi versprochen hat? :ulol:

BlacKi
2016-05-13, 15:00:16
Nett, aber:

eine Titan X kann man auch gut takten 1,5GHz Titan X gegen 2,1GHz Vergleich ist da besser angebracht
verhungert der Chip nicht in realen Anwendungen an der Bandbreite?

lol, titanx 1,3 vs 1080 2,1 könnte man wohl vergleichen. die 2,1 liefen 100% auf der referenz karte, wohl mit 190w tdp(180w+6%). rate mal welche nicht die 1,3 hält?

Speicherbandbreite 1080 320 GB/s vs titan x 336,5 GB/s

"verhungern" kann man das wohl nicht nennen. höchstens leichtes defizit, welcher durch mehr oc performance nicht nur ausgleichen sondern nochmals obendrauflegt.

Nightspider
2016-05-13, 15:02:37
Korrekt aber auch bitte nicht vergessen das die Kompression bei Pascal mit sehr hoher Wahrscheinlichkeit besser ist und die effektive Bandbreite höher ausfällt bei der GTX1080.

Ob Pascal überhaupt verhungert und wenn wie stark müssen erstmal die Benchmarks zeigen. Vorher braucht man sich da keine Sorgen zu machen. Vor allem wenn die vorab Benchmarks schon so glänzen.

dildo4u
2016-05-13, 15:05:31
Nett, aber:

eine Titan X kann man auch gut takten 1,5GHz Titan X gegen 2,1GHz Vergleich ist da besser angebracht
verhungert der Chip nicht in realen Anwendungen an der Bandbreite?

Titan X kannste wegschmeißen,da DX12 Performance nur bei Pascal gefixt wurde.

Superb Craftsmanship

New asynchronous compute advances improve efficiency and gaming performance



http://nvidianews.nvidia.com/news/a-quantum-leap-in-gaming:-nvidia-introduces-geforce-gtx-1080

BlacKi
2016-05-13, 15:08:06
vl gehört mit boost3 das bios modden der vergangenheit an.

Hübie
2016-05-13, 15:24:00
Habe ich noch nicht hier gesehen:

http://forums.evga.com/FindPost/2477459

Vielleicht geht dann inoffiziell doch auch noch 3- und 4-way SLI


Das kann dir keiner sagen, bzw. erst wenn es dementsprechende Tests gibt

Der soll mal zwei alte nehmen und dann sehen wie die Bandbreite ist. :D

bardh
2016-05-13, 15:25:46
http://nvidianews.nvidia.com/news/a-quantum-leap-in-gaming:-nvidia-introduces-geforce-gtx-1080

Vielleicht können hier im Forum noch die Insider zu asynchronous compute was sagen im Bezug auf Maxwell/Pascal...

Was ich so gelesen habe, wird es auch mit Pascal nicht vollständig unterstützt werden, sondern nur eine Art "Zwischenlösung" sein. (Legt nicht zu viel Wert auf die Aussage, nur ein Konjunktiv.)

Godmode
2016-05-13, 15:28:07
vl gehört mit boost3 das bios modden der vergangenheit an.

Das wäre auch nicht weiter schlimm. Nur das 1. mal tut es weh, wenn man von einer hoch übertakteten Maxwell Karte auf eine gelockte Pascal umsteigt.

Hübie
2016-05-13, 15:42:12
Vielleicht können hier im Forum noch die Insider zu asynchronous compute was sagen im Bezug auf Maxwell/Pascal...

Was ich so gelesen habe, wird es auch mit Pascal nicht vollständig unterstützt werden, sondern nur eine Art "Zwischenlösung" sein. (Legt nicht zu viel Wert auf die Aussage, nur ein Konjunktiv.)

Wahrscheinlich durch Preemption und dem hohen Takt. Man muss dem ganzen auch nicht immer zuviel Aufmerksamkeit widmen, denn NVIDIA hat grundlegend andere Ansätze ihre Hardware auszulasten. Grundsätzlich kann man es sich bei einigen Berechnungen sparen den Weg durch TAU/TMU, ROP etc zu gehen, aber es ist alles ein tradeoff.
Wenn ich mich recht erinnere stieg der Verbrauch der Radeons auch etwas an was ein hint darauf ist. Ich sage zwar nicht dass es Blödsinn ist, aber genau so wenig ist es Allheilmittel. AotS nutzt es im bestcase, aber man kann für all das andere Lösungen finden. Die wären eventuell aufwändiger etc. also entschied sich der Entwickler für AC.

dargo
2016-05-13, 15:47:26
AotS nutzt es im bestcase, aber man kann für all das andere Lösungen finden.
Nein, tut es nicht. Das wurde dir schon mehrmals gesagt.

Hübie
2016-05-13, 15:59:39
Und wo gibt es ähnliche Sprünge? :|

dargo
2016-05-13, 16:08:00
1. Wir haben gerade mal 2 weitere DX12 Titel mit AC bei denen man keinen Vergleich zwischen DX12 AC On und DX12 AC Off anstellen kann.
2. Nur weil keine anderen Entwickler aktuell höhere Vorteile durch AC erzielen ist AotS automatisch bestcase? Ich bitte dich, die Entwickler haben doch selbst offiziell gesagt, dass die Implementierung in AotS kein Paradebeispiel für AC ist.
3. bestcase sind die +46% beim Postprocessing aus der AMD-Folie. Davon sind wir bei aktuellen Games (insgesamt erst 3) noch weit entfernt.
4. Einige Entwickler hatten sich zu AC geäußert und sprachen afaik von möglichen 20-30%.

Hübie
2016-05-13, 16:14:31
Ach dann haben wir uns missverstanden. Ich bezog mich nicht auf die Performance, sondern auf das Szenario: viele kleine und simultane Rechenpakete ohne Grafiklast. Das man bestcase Performance nie im Spiel sieht sollte doch allen klar sein. Sonst wäre etwas massiv kaputt, denn ein Computeshader hat ja dennoch mehrere stages. Was man jedoch alles "auslagern" kann ist wahrscheinlich noch Untersuchungsgegenstand einiger Entwickler.

(del)
2016-05-13, 17:41:47
Asynchronous Shading und Compute im Zusammenhang wird in der Praxis als Gesamtpaket noch immer überbewertet. So lange CUDA basierte Effekte existieren (Gamemurks), so lange kann Nvidia das ganze schön brav trennen und wird einen Teufel tun, alles über den Haufen zu schmeißen. Schön ist es nicht, aber eben leider die Realität. Das ganze DX12-Geraffel ist bisher noch nicht mal Wert, genauer beschrieben zu werden, da es in freier Wildbahn bisher leider nichts wirklich zu Bewertendes gibt.

Mcdave
2016-05-13, 19:11:11
Ich freue mich auch auf die neuen Karten, allerdings ist mir der Hype aktuell etwas zu ausgeprägt. Mein untenstehender Reality Check zeigt das in Zahlen recht deutlich (die Werte der GTX 1080 habe ich von hier entlehnt):

http://666kb.com/i/d8wnrglghy3civz1v.jpg

Meine GTX 980 @ 1520/3900MHz ---> Achtung: "Graphics Score", nicht "Total Score"

3dmark 11 Performance: 21705
3dMark 11 Extreme: 6778
Firestrike Performance: 16303
Firestrike Extreme: 7604
Firestrike Ultra: 3842

Performancevorteil der (vermutlich stock) GTX 1080 @ ~1870MHz gegenüber meiner ziemlich ausgequetschen GTX 980:

3dMark 11 Performance: +27.5%
3dMark 11 Extreme: +37.7%
Firestrike Performance: +33.9%
Firestrike Extreme: +36.3%
Firestrike Ultra: +30%

Das ist zwar ganz nett, aber nun auch nicht derart weltbewegend, dass es einen aus der Laufbahn wirft.
Freilich bleibt abzuwarten, wie gut sich die 1080 übertakten lässt. Wenn 2100MHz dauerhaft machbar sind (ergo nicht mit dauerndem Heruntertakten oder Lüfter mit Lärm wie bei einer Saturn V Rakete @ takeoff thrust), werde ich die GTX 980 durch eine GTX 1080 ersetzen, weil sich dann das von mir geforderte Ziel von mindestens 50%
Tempozuwachs gegenüber der Vorgängerkarte erzielen lässt. Die 1070 ihrerseits dürfte ohne Übertaktung ungefähr die Performance meiner Karte erreichen.

Ex3cut3r
2016-05-13, 19:37:42
Synthetische Benchmarks als Beurteilung herziehen...naja....

außerdem vergessen viele auch, dass die neue Gen nach ein paar Monaten die alten Karten noch mehr überholt, da Nvidia in den späteren Treibern noch mehr rausholt als zum Release.

Andere wiederum vermuten einen Downgrade per Treiber der alten Gen, um so die neue Gen noch besser aussehen zu lassen. Die Wahrheit liegt wohl irgendwo in der Mitte. :D

Aber, allein die 4GB der Gtx 980 sind schon ein Umstiegs Grund.

Ich freue mich natürlich auch, da ich dann endlich meinen 34" @ 3440x1440 anständig füttern kann, mit der GTX 770 mit 2GB macht das grade nur bedingt Spaß. ^^

MFG

bardh
2016-05-13, 19:48:31
@Hübie und Format_C

Danke für die kurze Erklärung. Relativiert den Stellenwert von AC natürlich um einiges aus dieser Sicht.

In dem Fall wird also das "Problem" nicht gelöst, sondern einfach kompensiert so gut es geht, wenn es denn mal in einem Game so weit sein sollte.

VooDoo7mx
2016-05-13, 19:49:02
Ich freue mich auch auf die neuen Karten, allerdings ist mir der Hype aktuell etwas zu ausgeprägt. Mein untenstehender Reality Check zeigt das in Zahlen recht deutlich (die Werte der GTX 1080 habe ich von hier entlehnt):

http://666kb.com/i/d8wnrglghy3civz1v.jpg

Meine GTX 980 @ 1520/3900MHz ---> Achtung: "Graphics Score", nicht "Total Score"

3dmark 11 Performance: 21705
3dMark 11 Extreme: 6778
Firestrike Performance: 16303
Firestrike Extreme: 7604
Firestrike Ultra: 3842

Performancevorteil der (vermutlich stock) GTX 1080 @ ~1870MHz gegenüber meiner ziemlich ausgequetschen GTX 980:

3dMark 11 Performance: +27.5%
3dMark 11 Extreme: +37.7%
Firestrike Performance: +33.9%
Firestrike Extreme: +36.3%
Firestrike Ultra: +30%

Das ist zwar ganz nett, aber nun auch nicht derart weltbewegend, dass es einen aus der Laufbahn wirft.
Freilich bleibt abzuwarten, wie gut sich die 1080 übertakten lässt. Wenn 2100MHz dauerhaft machbar sind (ergo nicht mit dauerndem Heruntertakten oder Lüfter mit Lärm wie bei einer Saturn V Rakete @ takeoff thrust), werde ich die GTX 980 durch eine GTX 1080 ersetzen, weil sich dann das von mir geforderte Ziel von mindestens 50%
Tempozuwachs gegenüber der Vorgängerkarte erzielen lässt. Die 1070 ihrerseits dürfte ohne Übertaktung ungefähr die Performance meiner Karte erreichen.

Dein Vergleich hinkt gewaltig, du vergleichst eine ziemlich stark übertaktete Karte mit einer Stock Karte. Wenn dann vergleiche eine ziemlich sztark übertaktete GTX 980 mit einer ziemlich stark übertakteten GTX 1080.

Cubitus
2016-05-13, 19:49:55
Ich freue mich natürlich auch, da ich dann endlich meinen 34" @ 3440x1440 anständig füttern kann, mit der GTX 770 mit 2GB macht das grade nur bedingt Spaß. ^^

MFG

Wills dir nicht madig reden,
aber eine 980GTX reicht nur mit Kompromissen bei 3440*1440...

Mit der 1080 GTX dürfte es damit aber überhaupt keine Probleme geben. :biggrin:

Mcdave
2016-05-13, 20:04:58
Dein Vergleich hinkt gewaltig, du vergleichst eine ziemlich stark übertaktete Karte mit einer Stock Karte. Wenn dann vergleiche eine ziemlich sztark übertaktete GTX 980 mit einer ziemlich stark übertakteten GTX 1080.

Da hinkt rein gar nichts, da ich meine Karte mit mehr oder weniger gesicherten Grundwerten einer kommenden GPU vergleiche. Hab ich eigentlich nur für mich gemacht. Aber da dachte ich, es sei für den einen oder anderen User eventuell auch interessant zu sehen, wie sich eine anständig übertaktete GTX 980 in dem Szenario schlägt. Nicht mehr, nicht weniger.

Wie gut sich die GTX 1080 tatsächlich takten lässt, wissen wir noch nicht. Eventuell sind die 2.1GHz, die man herumschwirren sieht, quasi ein Golden Sample und die "normalen" Karten laufen mit den regulären ~ 1900MHz schon praktisch am Limit. Aber eventuell laufen die Dinger scharenweise mit 2.4GHz. Wir werden sehen.

Zudem ging es mir auch etwas darum, den hype train etwas zu bremsen. Hier wird ja schon eine Titan X zu Elektroschrott degradiert.

VooDoo7mx
2016-05-13, 20:17:06
Eine interessante Rechnung anhand der 3D Quark Messwerte was das OC Verhalten der daraus resultierenden Performance angeht:

Ich geh mal davon aus, dass die 1080 normal auf 1860MHz im 3D Mark boostet. Die OC Benchmarks wurden (angeblich) mit 2114MHz GPU und ohne Memory Overclocking durchgeführt. Das sind 13,65% mehr GPU Takt. Aber laut der Grafik ergeben das 24,69% mehr Performance beim Firestrike Ultra. Also irgendwas scheint da an den Grafiken nicht zu stimmen. Selbst wenn ich 1733MHz Boost als Basis nehme.

Ich glaube diese Wrte sind abgefuckte scheiße von irgendjemanden der mehr Klicks und Aufmerksamkeit braucht oder die Karte lief da mit deutlich mehr als mit 2114MHz.

Da hinkt rein gar nichts, da ich meine Karte mit mehr oder weniger gesicherten Grundwerten einer kommenden GPU vergleiche. Hab ich eigentlich nur für mich gemacht. Aber da dachte ich, es sei für den einen oder anderen User eventuell auch interessant zu sehen, wie sich eine anständig übertaktete GTX 980 in dem Szenario schlägt. Nicht mehr, nicht weniger.

Wie gut sich die GTX 1080 tatsächlich takten lässt, wissen wir noch nicht. Eventuell sind die 2.1GHz, die man herumschwirren sieht, quasi ein Golden Sample und die "normalen" Karten laufen mit den regulären ~ 1900MHz schon praktisch am Limit. Aber eventuell laufen die Dinger scharenweise mit 2.4GHz. Wir werden sehen.

Doch deine Vergleich ist fürn Arsch. Akzeptier es einfach.
Jemand der heute eine Stark übertaktete GTX 980, 980Ti oder Titan X hat wird sicher nicht eine 1080 kaufen und diese dann auf Standard lassen. Müsstest du doch selber selber merken, dass dies Bullshit³ ist.
Für den Enthusiasten, sind max OC Werte der Karte die er aktuell hat, gegen den Max OC Werte der eventuell nächsten Karte interessant.

Und die 2114MHz werden bei einer 1080 nichts besonders sein. Es gibt schon viele Leute die Karten haben und schon etwaige Sachen schon hier im Forum andeuten. Igor von Tomshardware (Hier im Forum Format_C) Meinte das 2,1GHz eher wenig sind was man mit den Karten erreichen kann.

Den Hype Train bremsen ist schön und gut, hab ich oben auch gemacht an Hand der der 3D Mark Werte die so gar nicht stimmen können.
Doch du willst dir deine 980 schön reden. Das ist ein automatische Reflex um die eigene Investion sich im Kopf nicht abwarten zu müssen, die Dinger sind einfach sehr teuer. Ach die ist ja nur 30% schneller. Ach die wird sich nicht gut übertalten lassen. Alles Bullshit und Selbstbetrug!
Wenn die Karte ja nur wenig schneller ist, ist es ja nur halb so schlimm, wenn man vor ein paar Monaten über 500 Latten in eine 980 gesteckt hat... Merkst du was?

Mcdave
2016-05-13, 20:38:51
Doch du willst dir deine 980 schön reden. Das ist ein automatische Reflex um die eigene Investion sich im Kopf nicht abwarten zu müssen, die Dinger sind einfach sehr teuer. Ach die ist ja nur 30% schneller. Ach die wird sich nicht gut übertalten lassen. Alles Bullshit und Selbstbetrug!
Wenn die Karte ja nur wenig schneller ist, ist es ja nur halb so schlimm, wenn man vor ein paar Monaten über 500 Latten in eine 980 gesteckt hat... Merkst du was?

Glaube mir, aus dem Alter bin ich seit mindestens 15 Jahren raus.
Anyway, die Intention meines Postings war eine andere. Egal...Es ist mir zu kleinkariert, über etwas derart Unwichtiges wie meinen Pups-Vergleich groß zu diskutieren.

PS: Ich habe meine Karte vor 1 Jahr für CHF 455 gekauft.

Kriegsgeier
2016-05-13, 20:43:42
VooDoo, finde überhaupt nicht schön wie du hier die Leute abfertigst! Wirklich nicht schön!

uweskw
2016-05-13, 21:26:33
Mal eben doppelt so schnell wie eine GTX 970^^

Alter Falter....ich hoffe die GTX 1070 wird nicht sehr viel langsamer.

Wie macht sich da Boost 3.0 bemerkbar? Vieleicht wurden die Karten für Benchmarks am offenen Bench-Table totoptimiert.
Hoffentlich machen sich wenigstens ein paar Tester die Arbeit Dauerbetrieb im Gehäuse mit zu testen. Super interessant sind da natürlich auch Framtime Messungen.

greetz
US

BlacKi
2016-05-13, 21:28:15
irgendwie will man sofort irgenwelche leaks, um dann schlussfolgerungen ziehen zu können, aber irgenwie sind alle leaks alleine nichts wert und zusammenrechnen geht oft nicht.

ich lasse das mal auf mich zukommen. wenn es wenigstens ordentliche leaks wären die man einordnen könnte, aber so kommt man höchstens auf eine falsche fährte.

Schrotti
2016-05-13, 21:30:57
Ich werde wohl auf was schnelleres warten.

Habe mir gerade die Firestrike Ultra Werte angeschaut und da wäre es nur ein Sidegrade für mich.
Ich möchte ordentliche Performance in 4K und nicht wieder SLI fahren müssen.


http://abload.de/img/benchmark_ultrazms8n.jpg (http://abload.de/image.php?img=benchmark_ultrazms8n.jpg)

Megamember
2016-05-13, 22:17:50
Eine interessante Rechnung anhand der 3D Quark Messwerte was das OC Verhalten der daraus resultierenden Performance angeht:

Ich geh mal davon aus, dass die 1080 normal auf 1860MHz im 3D Mark boostet. Die OC Benchmarks wurden (angeblich) mit 2114MHz GPU und ohne Memory Overclocking durchgeführt. Das sind 13,65% mehr GPU Takt. Aber laut der Grafik ergeben das 24,69% mehr Performance beim Firestrike Ultra. Also irgendwas scheint da an den Grafiken nicht zu stimmen. Selbst wenn ich 1733MHz Boost als Basis nehme.

Ich glaube diese Wrte sind abgefuckte scheiße von irgendjemanden der mehr Klicks und Aufmerksamkeit braucht oder die Karte lief da mit deutlich mehr als mit 2114MHz.



Doch deine Vergleich ist fürn Arsch. Akzeptier es einfach.
Jemand der heute eine Stark übertaktete GTX 980, 980Ti oder Titan X hat wird sicher nicht eine 1080 kaufen und diese dann auf Standard lassen. Müsstest du doch selber selber merken, dass dies Bullshit³ ist.
Für den Enthusiasten, sind max OC Werte der Karte die er aktuell hat, gegen den Max OC Werte der eventuell nächsten Karte interessant.

Und die 2114MHz werden bei einer 1080 nichts besonders sein. Es gibt schon viele Leute die Karten haben und schon etwaige Sachen schon hier im Forum andeuten. Igor von Tomshardware (Hier im Forum Format_C) Meinte das 2,1GHz eher wenig sind was man mit den Karten erreichen kann.

Den Hype Train bremsen ist schön und gut, hab ich oben auch gemacht an Hand der der 3D Mark Werte die so gar nicht stimmen können.
Doch du willst dir deine 980 schön reden. Das ist ein automatische Reflex um die eigene Investion sich im Kopf nicht abwarten zu müssen, die Dinger sind einfach sehr teuer. Ach die ist ja nur 30% schneller. Ach die wird sich nicht gut übertalten lassen. Alles Bullshit und Selbstbetrug!
Wenn die Karte ja nur wenig schneller ist, ist es ja nur halb so schlimm, wenn man vor ein paar Monaten über 500 Latten in eine 980 gesteckt hat... Merkst du was?

Was du hier für einen Aufriss wegen eines kleinen harmlosen Vergleichs veranstaltest, um himmels willen.

illidan
2016-05-13, 22:25:12
Hoffentlich machen sich wenigstens ein paar Tester die Arbeit Dauerbetrieb im Gehäuse mit zu testen. Super interessant sind da natürlich auch Framtime Messungen.

Die üblichen Seiten werden wieder in vorgeheizten Gehäusen testen und die Frametimes werden wohl kaum das Problem sein, wenn sie es mit Boost 2.0 auch nicht waren.

MorPheuZ
2016-05-13, 23:57:33
Und was soll das obige mit dem unteren zusammenhängen?

Dass deine 2 980 knapp schneller sind als eine 1080 ?

Ex3cut3r
2016-05-14, 00:08:39
Das untere ist wohl sein System aktuell, er möchte sich damit einreden, dass er kein Update machen muss, da er mit SLi sowieso schon so schnell ist, dabei vergisst er aber imo ein paar Sachen SLi ist nicht wirklich jedermanns Sache (Microruckler, Skaliert nicht immer so toll mit, 4GB, Stromverbrauch einen Atomwerks usw.) Sobald die neue Archtiektur raus ist, wird Nvidia die alte sowieso vernachlässigen, wurde mich nicht wundern wenn Hawai am ende auch wieder Maxwell überholt. :ulol:

scully1234
2016-05-14, 02:07:50
http://cdn.videocardz.com/1/2016/05/BYSKI-GeForce-GTX-1080-WaterBlock-1.jpg


http://cdn.videocardz.com/1/2016/05/BYSKI-GeForce-GTX-1080-WaterBlock-2.jpg

Irgend ne chinesische Firma Byksi , und ich dachte EK schlaegt als erster auf

kruemelmonster
2016-05-14, 02:18:11
Andere wiederum vermuten einen Downgrade per Treiber der alten Gen, um so die neue Gen noch besser aussehen zu lassen.


...was nachweislich nicht korrekt ist:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=567806

Und ich hätte es mitbekommen, nutze immer noch Little Kepler und Big Fermi.

Hübie
2016-05-14, 02:40:29
Man muss einfach keine Optimierungen für die alten Gen implementieren um strategisch zu agieren. Reicht ja wenn alle Spiele sauber laufen, aber da wird sicher kein Aufwand für Performancesteigerungen investiert. Man könnte es auch nie nachweisen.
Spiel erscheint, Game Ready Treiber für aktuelle Gen: Max Perf+Kompatiblität und für alte Gens: max Kompatiblität ohne je den Versuch gestartet zu haben mehr heraus zu holen. ;)

scully1234
2016-05-14, 02:48:18
...was nachweislich nicht korrekt ist:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=567806

Und ich hätte es mitbekommen, nutze immer noch Little Kepler und Big Fermi.

Ja ja die lieben Geruechteverbreiter


http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/

Kepler ist ja so dermaßen schlecht da wird einen richtig uebel :smile:

illidan
2016-05-14, 02:55:10
Zum Maxwell-Release war die 970 quasi nie 20% vor der 780 Ti. Ja, das läuft auf Kepler nicht schnell. Aber auf GCN aber halt auch nicht, u.a. wegen seltsam teurem AF.

scully1234
2016-05-14, 04:44:31
Expect clock rates of 2.1 Ghz and above. In fact, word on the rumor mill is that Gigabyte’s air-cooled Xtreme Gaming GTX 1080 should be able to hit a solid 2.4 Ghz– on air! If that isn’t impressive, I don’t know what is...... (http://wccftech.com/geforce-gtx-1080-blow-p100-gpu-single-precision-performance-variants-including-25-ghz-liquid-cooled-edition/)

froehliche Overclocking

BlacKi
2016-05-14, 07:43:51
froehliche Overclocking
Sounds good, und komischer weise genau das was ich aus den leaks herausgelesen habe, bis auf den stromverbrauch.

und gleich mit gp100 verglichen^^

so wird die gp100(falls er so hätte kommen sollen) nicht genügend abstand aufbauen können.

hab ich das richtig verstanden, das die Wakü modelle direkt aus dem werk mit 2,5ghz boosts laufen werden?

(del)
2016-05-14, 08:48:34
Expect clock rates of 2.1 Ghz and above. In fact, word on the rumor mill is that Gigabyte’s air-cooled Xtreme Gaming GTX 1080 should be able to hit a solid 2.4 Ghz– on air! If that isn’t impressive, I don’t know what is......
Bullshit hoch drei. Gigabyte hatte bis diese Woche NUR Engineering Samples, keine finalen GPUs (andere ID) und auch nur den generischen Treiber zum Testen ("greenlight driver"). Nur der Kühler ist wirklich fertig und in MP. Die Platinen sind Referenz, allerdings leicht erweitert. Die MP für die Karten startet erst nächste Woche.

Wie hoch die ES takten, weiß ich. Aber drei ES, drei unterschiedliche Ergebnisse :D

TheCounter
2016-05-14, 09:46:29
Wenn der Preis jetzt noch stimmt, würde ich sofort zuschlagen. Mal schauen was EVGA so anbieten wird.

Dimon
2016-05-14, 10:09:16
Ja ja die lieben Geruechteverbreiter


http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/

Kepler ist ja so dermaßen schlecht da wird einen richtig uebel :smile:

Ich weiss nicht was du hast, die laufen doch garnicht so schlecht, eine alte titan ist sogar fast so schnell wie eine furyX, der 20% abstand wird überdies von der GTX780ti zur GTX970 eingehalten ;)

gnomi
2016-05-14, 10:48:53
Finde die 1080 GTX so vom Hören Sagen schon überraschend schnell. (dem neuen Fertigungsprozess und den damit eingehenden OC Fähigkeiten plus einigen Architekturverbesserungen sei Dank)
Ich finde es beinahe schade, dass meine Launch 980 damit nach noch nicht mal 2 Jahren wohl quasi ausgedient hat.
Das einzig Negative ist für mich, dass ich nun ganz sicher deutlich mehr als 480 Euro für Referenzdesign wie letztes Mal locker machen muss. Das missfällt mir doch ziemlich. Es hat sich leider über die Zeit und bei dem Marktanteil angedeutet.
Für Minimum 50% GPU Leistung und doppelten Speicher geht es aber in Ordnung, denn mit 1440P kann man jetzt schon nicht mehr ganz die Spiele ausfahren, und das ist eben immer ein wenig schade. (auch wenn es optisch nur Kleinigkeiten sind- PC Gaming macht nur mit Super Hardware Spaß)

kdvd
2016-05-14, 11:18:14
Kepler ist ja so dermaßen schlecht da wird einen richtig uebel :smile:

Die GTX Titan Classic 6G ist doch 20% vor der "Titan Killer" R9 290X und nur 3% langsamer als eine R9 Fury X.
Eine Titan Black wäre nochmal 7-8% schneller als die Classic und damit vor der Fury X. Mehr kann man von Kepler wohl nicht erwarten.

Die GTX 780Ti ist anno 2016 natürlich ein VRAM Krüppel.

scully1234
2016-05-14, 12:37:46
Ich weiss nicht was du hast, die laufen doch garnicht so schlecht,

Genau das wollte ich ja auch aufzeigen mit dem Link, Ironie ist im geschriebenen Wort wohl nie so gut erkennbar:smile:


Bullshit hoch drei. :D

Nur hoch 3 Igor, das laesst hoffen das da doch noch was geht:biggrin:

Ex3cut3r
2016-05-14, 14:35:02
...was nachweislich nicht korrekt ist:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=567806

Und ich hätte es mitbekommen, nutze immer noch Little Kepler und Big Fermi.
Naja, die alten Schinken (Far Cry 3, Sleeping Dogs, Metro) bei Gta 5 gabs 100% einen Kepler Downgrade, spreche da aus eigener Erfahrung, habe selbst eine GTX 770

Ist aber eh OT, deswegen sollten wir das nicht noch größer ausweiten.

(del)
2016-05-14, 15:26:03
Nur hoch 3 Igor, das laesst hoffen das da doch noch was geht:biggrin:
Mit Bullshit meine ich die Meldung, die jeglicher Grundlage entbehrte und nicht generell den Umstand, was an OC möglich ist. Auch wenn Gigabyte die Karten mittlerweile in Dongguan zusammenschraubt und dadurch so einiges auf dem grauen Markt viel eher auftaucht als im normalen Handel - sie können keine finale Karte getestet haben, weil es einfach noch keine gab. Und dass das R&D dort selbst leakt, das halte ich für komplett ausgeschlossen. :D

BlacKi
2016-05-14, 15:30:15
bezügl. des videocards benchs stelle ich mir die frage, wie können 21% mehr gpu takt 24% mehr performance bringen?

Kriton
2016-05-14, 16:01:21
Mein Gefühl sagt mir, dass das ein Marketingtrick ist um die Preise wieder etwas erhöhen zu können.

Natürlich. Stellt das ernsthaft jemand in Frage?

Referenz @ 100% Lüfter und da kommen die 67°C auch in etwa hin. Und wenn NV 2,1GHz OC verspricht werden das auch 99% der Karte schaffen, NV ist nicht AMD so von wegen neuer OC Traum :wink:

Stimmt, Nvidia lügt nur beim Speicher und dessen Anbindung. :rolleyes:

Andere wiederum vermuten einen Downgrade per Treiber der alten Gen, um so die neue Gen noch besser aussehen zu lassen. Die Wahrheit liegt wohl irgendwo in der Mitte. :D

Im Zweifelsfall genügt es die neuen Treiber für die alte Gen nicht (derart) zu optimieren (wie es möglich wäre).

kruemelmonster
2016-05-14, 16:47:21
Im Zweifelsfall genügt es die neuen Treiber für die alte Gen nicht (derart) zu optimieren (wie es möglich wäre).

Reiner Spekulatius. Einzelne Performance Regressionen kann es immer geben, ein genereller und nachvollziehbarer Trend wurde imho noch nie dargelegt. Eher ist das Gegenteil der Fall wie der in #186 verlinkte Benchmark zeigt.

Nichts gegen eine gesunde Skepsis, aber dann sollten auch zumindest Indizien vorhanden sein. Wo sind die Benchmarks wenn diese Theorie ja scheinbar Allgemeinwissen ist?

(del)
2016-05-14, 17:14:51
Um Euch mal zu beruhigen (und da es ja keine Geheimnisse verrät):

Ich habe den Pressetreiber für die neue Karte mit dem alten generischen Treiber für die Ingenieure und dem sogenannten "Greenlight Driver" für die Finalisierung der Herstellung verglichen. Dabei habe ich festgestellt, dass die Performance der älteren Generation bei allen Treibern GLEICH war. Ob in Zukunft für einzelne Spiele eher auf Pascal optimiert wird, ist natürlich offen. Allerdings gibt es schon technische Unterschiede, die dann der neueren Generation vielleicht wieder Vorteile verschaffen könnten.

So und nun haben die Verschwörungstheotiker wieder Freizeit. :)

scully1234
2016-05-14, 17:29:15
So und nun haben die Verschwörungstheotiker wieder Freizeit. :)

So leicht machen es dir die Troofer nicht=)

Edit:

Hier hat mal jemand n Bisschen mit Ansel gespielt

qdS-YJPD5Fo

illidan
2016-05-14, 17:54:23
ein genereller und nachvollziehbarer Trend wurde imho noch nie dargelegt. Eher ist das Gegenteil der Fall wie der in #186 verlinkte Benchmark zeigt.

Da steht doch nur, dass die Performance nicht per Treiber verschlechtert wurde (oh, welch Überraschung).
Trotzdem bleibt schon festzuhalten, dass Kepler auch mit vergleichbar viel VRAM im Schnitt deutlich schlechter als GCN gealtert ist. Eigentlich sind alle Chips bis auf den voll aktivierten GK110 einfach nur noch ziemlich mies dabei.

(del)
2016-05-14, 18:00:48
rotzdem bleibt schon festzuhalten, dass Kepler auch mit vergleichbar viel VRAM im Schnitt deutlich schlechter als GCN gealtert istNö, AMD hat GCN im Verhältnis zu Kepler in den Treibern immer besser in den Griff bekommen. Meist sind nicht Nvidia die Bösen, sondern AMD die Guten, wenn auch so langsam wie Schildkröten. Mit AMD-Treibern ist es wie mit Stinkekäse. Der schmeckt auch erst richtig gut, wenn er so richtig fies abgelagert und angegangen ist. :P

PS: Meine Oma sagte immer alter Mann dazu. :D

Blediator16
2016-05-14, 18:07:11
Eher hat der Käse schon damals ziemlich gleich gut wie der andere Stinkekäse geschmeckt, nur dass der andere Stinkekäse vergammelt ist, während der eine heute noch besser schmeckt als damals.

Kriton
2016-05-14, 18:21:59
Reiner Spekulatius. Einzelne Performance Regressionen kann es immer geben, ein genereller und nachvollziehbarer Trend wurde imho noch nie dargelegt. Eher ist das Gegenteil der Fall wie der in #186 verlinkte Benchmark zeigt.

Nichts gegen eine gesunde Skepsis, aber dann sollten auch zumindest Indizien vorhanden sein. Wo sind die Benchmarks wenn diese Theorie ja scheinbar Allgemeinwissen ist?

Ich wollte damit nicht sagen, dass sie es tun, nur dass es dafür keines (aktiven) Tuns bedarf.

BlacKi
2016-05-14, 19:57:31
Eher hat der Käse schon damals ziemlich gleich gut wie der andere Stinkekäse geschmeckt, nur dass der andere Stinkekäse vergammelt ist, während der eine heute noch besser schmeckt als damals.
es gibt genug beispiele wo amd zum release abstinkt(unterirdisch), dann aber nach 1-2 monaten zumindest nachbessert. bf3 lief am anfang unterirdisch, da lief sogar ne 670 ohne oc schneller als eine 7970 ghz. vor einem jahr mit project cars.

wäre aber alles nicht so schlimm, wenn man den dx11 treiber bezügl. drawcalls fixen würde... das ist der hauptgrund warum für ich über eine amd karte nichtmal nachdenke, egal wie gut sie wird.

Dural
2016-05-15, 01:30:06
Also ich habe heute mal eine runde 3dmark mit der tx laufen lassen. Wenn die 1080 werte stimmen sind die wirklich beeindruckent! Selbst mit 1360/2050mhz komme ich nicht an die stock 1080 ram.

-=Popeye=-
2016-05-15, 02:51:49
Klar, mit ~1480/2000 biste dran.

http://www.3dmark.com/3dm/10044718?

edit: DOOM ist jetzt auch nicht zwingend der Burner auf einer 1080 mit #superdupervulcan#

http://abload.de/thumb/doomx64_2016_05_15_01fdspt.png (http://abload.de/image.php?img=doomx64_2016_05_15_01fdspt.png)

Raff
2016-05-15, 11:13:11
Die 1080 werde ich vermutlich auslassen.

Zwar könnte sie deutlich schneller sein als die X, aber dann halt noch immer zu langsam.
Abwarten was der große Ausbau so leistet.

Außerdem geht mein persönlicher Trend eher zu AMD.

Insgesamt sehe ich das genauso wie du. Ein Faktor kann aber darüber enscheiden, ob die GTX 1080 für Besitzer einer schnellen 980 Ti oder TX ein Aufrüstgrund wird: Modbarkeit. Wenn sich wieder BIOS-Mods auftun, die der Karte wesentlich höhere TDPs und Spannungen entlocken, man das Teil inoffiziell also ähnlich gut ausfahren kann wie die Vorgänger, könnte das spaßig werden – allein schon, um eine Grafikkarte mit weit über 2 GHz zu nutzen. :biggrin:

MfG,
Raff

scully1234
2016-05-15, 11:21:48
könnte das spaßig werden – allein schon, um eine Grafikkarte mit weit über 2 GHz zu nutzen. :biggrin:

MfG,
Raff

Harr hoer auf zu teasern sonst fuehlt sich Igor auch gleich wieder genoetigt:smile:

Raff
2016-05-15, 11:54:23
Irgendwie muss man den Überstundenwahnsinn doch zwischendrin auflockern. :ugly:

MfG,
Raff

Godmode
2016-05-15, 12:26:33
Insgesamt sehe ich das genauso wie du. Ein Faktor kann aber darüber enscheiden, ob die GTX 1080 für Besitzer einer schnellen 980 Ti oder TX ein Aufrüstgrund wird: Modbarkeit. Wenn sich wieder BIOS-Mods auftun, die der Karte wesentlich höhere TDPs und Spannungen entlocken, man das Teil inoffiziell also ähnlich gut ausfahren kann wie die Vorgänger, könnte das spaßig werden – allein schon, um eine Grafikkarte mit weit über 2 GHz zu nutzen. :biggrin:

MfG,
Raff

Wenn sie BIOS-Mods sperren, werden sie weniger Karten verkaufen, weil ein GM200 User hat dann keinen Grund zum wechseln.

Raff
2016-05-15, 12:27:34
Wenn sie BIOS-Mods sperren, werden sie weniger Karten verkaufen, weil ein GM200 User hat dann keinen Grund zum wechseln.

Es soll auch Leute geben, die für ein Fps-Sidegrade in Kombination mit heftigem Watt-Downgrade Unsummen ausgeben. ;)

MfG,
Raff

scully1234
2016-05-15, 13:39:43
Open CL Benchmarks

http://videocardz.com/59951/nvidia-geforce-gtx-1080-opencl-performance-leaked

Zergra
2016-05-15, 14:44:40
Es soll auch Leute geben, die für ein Fps-Sidegrade in Kombination mit heftigem Watt-Downgrade Unsummen ausgeben. ;)

MfG,
Raff
Hört sich wohl danach an, das die 1080GTX sehr schnell ins Powerlimit rennt :D, da wirds wohl aktuell keinen großen Abstand zur TX geben. Da wird es wohl mal wieder das Bios zeigen.

phoenix887
2016-05-15, 14:56:34
Wenn sie BIOS-Mods sperren, werden sie weniger Karten verkaufen, weil ein GM200 User hat dann keinen Grund zum wechseln.

Naja, wenn man das 3DCenter betrachtet, könnte man zu der Schlussfolgerung kommen. Aber das 3Dcenter.org ist nicht die breite Maße.;)

uweskw
2016-05-15, 15:49:23
Ja und obendrein bewegen sich alle potenziellen Käufer hier, nicht wahr? X-D Aber ich bin keeeeeiiiiin Fanboy.

Gerade das 3dcenter Forum hat im deutschsprachigen Raum sehr viel Einfluss auf das Kaufverhalten.
Die "Checker", die ihren Bekanntenkreis in Sachen PC-Gaming beraten, zeichnen sich dadurch aus, dass sie wissen das PCGH ne Webseite und ein Forum hat.
Und die ganz fitten "Checker" die dort beraten kennen sogar das 3dcenter, und was von hier kommt ist grundsätzlich First-Class Insider Wissen :freak:

greetz
US

Hübie
2016-05-15, 16:02:47
Das meinte ich gar nicht. Die typischen Verdächtigen hängen in den jeweils gegnerischen Threads herum und behaupten stets sie seien keine Fanboys weil man vor 10 Jahren mal was vom anderen IHV hatte. Egal ist OT.

Für mich kommt eine 1080 ja eh nicht in Frage und vermutlich wird der Zugewinn von meiner zur 1080 eher messbar aber nicht fühlbar ausfallen. Wenn 4k mit 60 fps geschafft werden reden wir wieder. Dieses Jahr kommt wohl ein Zen rein und dann muss der Basteldrang halt befriedigt sein.

Raff
2016-05-15, 16:31:44
Wenn 4k mit 60 fps geschafft werden reden wir wieder.

Das geht auch ohne GTX 1080, allerdings nur bei der feinsten Selektion an Spielen, die ... äähh ... ihren Fokus auf den inneren Werten haben. :uup:

MfG,
Raff

Ravenhearth
2016-05-15, 17:00:04
Wenn 4k mit 60 fps geschafft werden reden wir wieder.

This!

Im Moment habe ich eine 980 drin, die die meisten Spiele in 1080p mit 60fps und maximalen Details schafft - Ausnahmen sind bspw. Hairworks in TW3, Ultra-Vegetation in GTA V und sehr hohe Texturen in ROTTR. Für 60fps in 4k mit den gleichen Settings brauche ich etwa die 3-fache Performance. Das werden GP102 und Vega11 wohl schaffen, wenn auch wahrscheinlich nur mit OC. Dann bin ich dabei :)

(del)
2016-05-15, 17:30:02
Teasern ist gut... Und viel Zeit ist auch relativ, wenn man bedenkt, dass auch wir eher häppchenweise beliefert werden. Aber es ist doch ganz nett, mal was Neues in den Händen zu halten :)

Nur mal so am Rande:
Ich schrieb deswegen Fanboys, weil es genau diejenigen sind, die sich an Verschwörungstheorien und Mutmaßungen am meisten aufgeiern. Ich habe auch eine Fury Nano im täglichen Einsatz (die mit dem Lüftermod) und meine Frau spielt Witcher 3 mit Controller am HTPC samt Wohnzimmer-TV. Da wir die Tessellation generell begrenzen, stört es also weder mich noch meine Frau. So what? Ist keine Zeile wert, die man darüber lamentiert und auch kein Tränchen, das man emotional entfesselt verdrückt. Ein echter AMD-User weint nicht, der ist eisern und abgehärtet gegen alles. Isso und fertig. :D

Und was das SUV betrifft - ich brauche einen Siebensitzer, der im Umkehrschluss auch mal zwei Kinderwagen und einen Schlitten fasst, sowie eine gescheite Zuladung zulässt. Blieben nur langweilige Hämorrhoidenschaukeln nach System Maginot oder die softwareversifften Dieselstinker von Holzwagen & Co. Beides will ich nicht, also ist es ein Ami im europäischen Gewand geworden. Ein Audi als Neuwagen reicht mir nämlich, bitte nie wieder. :)

ux-3
2016-05-15, 18:41:16
Im Oktober wird meine 670 GTX vier Jahre alt. Auch wenn ich noch nicht wirklich das Gefühl habe, dass ein Wechsel not tut, diese neuen Karten klingen doch irgendwie verlockend.

Ich vermute, dass ich wg Lautstärke noch eine Weile auf ein leises Modell warten muss.

Kann mir jemand knapp erklären, auf was ich bei einer 1070 verzichten würde. Was ist der Energiebedarf der 1070? Ich hab die Zahlen für die 1080 gesehen, liegt die 1070 deutlich darunter?

Mir ist klar, dass die 1070 deutlich günstiger ausfällt. Aber bei einer Nutzungsdauer von 4 Jahren wäre mir das egal. Ich will die Karte nur nicht hören, dass ist mir wichtiger als 20% mehr FPS Leistung.

Und wann kann ich mit custom Kühlung bei den Karten rechnen?

(del)
2016-05-15, 19:50:00
Kann mir jemand knapp erklären, auf was ich bei einer 1070 verzichten würde.Nein. weil nichts genaues weiß man (noch) nicht :)

fondness
2016-05-15, 21:10:37
Here it is:
http://videocardz.com/59962/nvidia-geforce-gtx-1080-final-specifications-and-launch-presentation

NVIDIA GeForce GTX 1080 Final Specifications and Launch Presentation

-/\-CruNcher-/\-
2016-05-15, 21:20:01
Die Fourth Generation Delta Compression wird wohl zu teilen aus dem Fortschritt bei H.265 bestehen ;)

Bin mal gespannt bis wann Nvidia ihren eigenen GPU Optimierten Codec der Welt präsentiert ;)

Troyan
2016-05-15, 21:21:15
Sieht gut aus. Fast Sync wird wohl A-Sync sein, Async Compute Support ist verbessert, Preemption macht den nächsten Schritt.

Die Fourth Generation Delta Compression wird wohl zu teilen aus dem Fortschritt bei H.265 bestehen ;)

Bestimmt nicht. :freak:

-/\-CruNcher-/\-
2016-05-15, 21:31:03
Wenn du jetzt denkst das H.265 immer lossy ist liegst du Falsch natürlich arbeitet Nvidia auch intern an ihren eigenen Codecs aber teils bauen die auf dem selben Prinzipien auf.

Natpürlich ist Nvidias Delta Kompression nochmal was anderes es ist ihre Interne Research um die Effizienz ihrer hardware zu steigern und Kosten zu senken.

Es ist aber auch der Weg zu einem eigenen Codec der vollkommen auf die GPU optimiert ist.

SWBF lässt sich also am schlechtesten Komprimieren wer hätte das gedacht BC7 halt ;)

Thief schneidet garnicht schlecht ab :)

Ex3cut3r
2016-05-15, 21:42:27
Meine iChill GTX 770 (die 3440x1440 waren dann wohl doch etwas zu viel) ist heute tatsächlich über den Jordan gegangen. Schwarzbild beim Booten, die alte GTX 260 liefert sofort ein Bild genauso die Intel HD 4600 die auch jetzt benutze, oh mann dann muss ich so schnell wie möglich eine GTX 1080 kaufen. :freak:

Lurtz
2016-05-15, 21:52:58
Sieht gut aus. Fast Sync wird wohl A-Sync sein, Async Compute Support ist verbessert, Preemption macht den nächsten Schritt.
Damit wäre Pascal aus dem Stand gleich mal deutlich interessanter für mich.

Troyan
2016-05-15, 21:53:42
Ich wüsste jedenfalls nicht, was Fast-Sync sonst sein sollte. Keine Latenz, kein Tearing, kein Inputlag? Hört sich nach G-Sync an. :D

Lurtz
2016-05-15, 21:58:25
Ich wüsste jedenfalls nicht, was Fast-Sync sonst sein sollte. Keine Latenz, kein Tearing, kein Inputlag? Hört sich nach G-Sync an. :D
Videocardz setzt das in den VR-Kontext. Aber es wäre ja Schwachsinn, das nur darauf zu beschränken.

Achill
2016-05-15, 21:59:04
[...]
Nur mal so am Rande:
Ich schrieb deswegen Fanboys, weil es genau diejenigen sind, die sich an Verschwörungstheorien und Mutmaßungen am meisten aufgeiern. Ich habe auch eine Fury Nano im täglichen Einsatz (die mit dem Lüftermod) und meine Frau spielt Witcher 3 mit Controller am HTPC samt Wohnzimmer-TV. Da wir die Tessellation generell begrenzen, stört es also weder mich noch meine Frau. So what? Ist keine Zeile wert, die man darüber lamentiert und auch kein Tränchen, das man emotional entfesselt verdrückt. Ein echter AMD-User weint nicht, der ist eisern und abgehärtet gegen alles. Isso und fertig. :D
[...]


Genau! Der Beweiß ist allein schon das es Ruby in 40k Jahren noch gibt ... ;)

https://s-media-cache-ak0.pinimg.com/564x/ae/e1/4a/aee14aadad695df1217f8a7d9c7b803b.jpg

(del)
2016-05-15, 21:59:07
Fast-Sync <> G-Sync ;)

BTW:
Rothaarige sind mir im Unterhalt zu kostspielig ;)

scully1234
2016-05-15, 22:59:23
Ja dann machen wir mal Schluss mit dem asynchronen Guerillera Krieg wuerde ich sagen


http://cdn.videocardz.com/1/2016/05/NVIDIA-GeForce-GTX-1080-Pascal-Preemption-900x436.jpg

Isen
2016-05-15, 23:11:06
lol...:freak:

Naja... Absinth-Style - Grün ist Programm.

http://images.anandtech.com/doci/10195/pastedImage_5.png


@ChaosTM, stimmt. Danke :)

BlacKi
2016-05-15, 23:20:15
funzt jetzt boost umgekehrt, also die taktrate wird an der Voltage festgemacht? ich check das dia net.

fast sync heißt wohl man muss auf neue monitore warten? oder a sync klingt einfach nicht genug nach nvidia und nennt es deshalb um, genau wie freesync eigentlich a sync ist.

Isen
2016-05-15, 23:23:55
@BlacKi,

waren vor über einem Jahr gewisse Spekus, dass NV dies eh Supporten wird, entweder weiterhin so nennt wie es bekannt ist, oder einen neuen Namen dafür verwendet. Letzteres scheint wohl zu sein.

scully1234
2016-05-15, 23:26:02
lol...:freak:

Naja... Absinth-Style - Grün ist Programm.

http://images.anandtech.com/doci/10195/pastedImage_5.png



Funktioniert und nur das zaehlt letzten endes

illidan
2016-05-15, 23:27:28
Funktioniert und nur das zaehlt letzten endes
Genau wissen wir es erst, wenn jemand on vs. off getestet hat.
Aber ein hoher Vorsprung zur 980 Ti deutet das wohl an.

Leonidas
2016-05-16, 03:13:18
Hoffentlich werden die OC-Fähigkeiten von Pascal nicht künstlich durch NV beschnitten.


Genau das ist zu befürchten - und hier liegen auch die wichtigen Fragen, die vom Launch zu beantworten sind. PowerLimit - und maximales PowerLimit???

illidan
2016-05-16, 03:28:47
Bei der 980 waren 125% das Maximum, vielleicht wiederholen sie das.
Bei den Custom Designs hängt es sicher wieder an den verschiedenen Herstellern.

Ex3cut3r
2016-05-16, 03:34:57
Mit Bios Tweaker wird man bestimmt wieder die Spannung und Verbrauch hochjagen, dann sind 300 Watt bestimmt möglich @ 2750 MHZ :cool:

Cubitus
2016-05-16, 06:15:33
Bei der Founders Edition steht zumindest folgendes Feature:

http://abload.de/img/2016-05-1606_14_18-evpabl1.png (http://abload.de/image.php?img=2016-05-1606_14_18-evpabl1.png)

Ich lese hier keine Beschneidung heraus, im Gegenteil..

Nightspider
2016-05-16, 06:45:42
Ich habs ja gesagt:
http://abload.de/img/gtx1080videoaau7y.png

-/\-CruNcher-/\-
2016-05-16, 07:54:56
Bei der Founders Edition steht zumindest folgendes Feature:

http://abload.de/img/2016-05-1606_14_18-evpabl1.png (http://abload.de/image.php?img=2016-05-1606_14_18-evpabl1.png)

Ich lese hier keine Beschneidung heraus, im Gegenteil..

Ich lese daraus das es dir alles vorgibt was du darfst und was nicht und im Prinzip nur noch knöpfchen verschiebst der Alogrithmus aber entscheidet ob du das bekommst was du auch willst um die Hardware besser zu schützen und ihren Verbrauch zu Optimieren ;)

Es ist jetzt fast so weit auf dem Level wie Intels Speedstep ;)

Versteh es doch endlich dir wird nur etwas verkauft das den namen OC noch trägt, OC passt überhaupt nicht in ein Effizientes Design mehr ;)


Nightspider das war logisch es ist fast die selbe einheit wie beim Tegra X1, das hab ich aber schon vor 1 jahr gesagt, weil es bei Nvidia immer so abläuft nur diesmal werden die kleineren Karten wohl keine Verbesserungen mehr erhalten aus dem einfachen Grund es gibt nicht wirklich irgendwas zu adden momentan was irgendwas bringen würde die Entwicklung ist erstmal ziemlich stabil bis auf Profile 2/3 bei VP9 ;)

Nun wird es interessant ob AMD den selben Level mit UVD erreichen wird und wie Stabil der Kern mittlerweile ist "damals das kann ich dir sagen war es nur grausam als ich weg bin von ATI, hatte Nvidia angefangen sie so heftig zu überholen und Nvidia hatte ein sehr offenes Ohr für Feedback um den Kern zu Optimieren".

Dann kann man sie endlich 1 zu 1 vergleichen, es gibt ja einen Haufen mehr als den reinen Codec support selbst, vor allem wenn er in einer Marketing Präsentation so schwamig definiert wird :D

Und im schwammig definieren sind Nvidias Marketing Profis die Könige ;)

phoenix887
2016-05-16, 08:14:12
Bei der 980 waren 125% das Maximum, vielleicht wiederholen sie das.
Bei den Custom Designs hängt es sicher wieder an den verschiedenen Herstellern.

Nein auch bei NVIDIA. Den jedes BIOS einer Customkarte wird von Nvidia geprüft und dann freigegeben.

Oder sehe ich das falsch Format C?

Raff
2016-05-16, 08:24:41
Ja, die Partner haben aber gewisse Freiheiten (was auch die unterschiedlichen Limits erklärt).

MfG,
Raff