PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1080: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17]

phoenix887
2017-04-28, 22:01:17
Die G1 Gaming war/ist trivial aber solide. Von allem irgend etwas. Nirgendwo absolute Spitze, dafür auch kein Spartenversager. Also eine Art Golf, bevor VW angefangen hat zu schummeln. ;)

Gratulation zur neuen Karte, ist durchaus günstig. :)


Habe letzte Woche eine MSI GTX 1080 X Gaming für 390 Euro gekauft. Zwar gebraucht, aber Top Zustand. Das nenne ich mal günstig:D

JaniC
2017-04-28, 22:41:39
Ist das normal, dass ich ohne PT zu erhöhen 140 Mhz mehr Takt auf den Core geben kann ohne Probleme?
Habe ingame jetzt nach ner Stunde oder so bei 74°C 2025 Mhz.. könnte noch weiter, glaube ich.

Und das bei relativ angenehmen 1900rpm.

dildo4u
2017-04-28, 22:49:42
Hängt vom Game und Auflösung ab,4k lastet die Karte wesentlich dramatischer aus als 1440p.Böse Fresser sind Witcher 3 und Mass Effect 4@4k.

JaniC
2017-04-28, 23:17:13
Habe dann BF4 mit DSR auf 4k gestellt und nach 20 Minuten und +150Mhz ohne PT Erhöhung ist er mir abgekackt. 77°@1900rpm.

Bin aber doch positiv überrascht. Das war jetzt ohne mehr PT und mit manueller Lüftersteuerung.
Ist doch eh nur Spielerei, die paar fps machen nicht den Unterschied zwischen spielbar und nicht spielbar.
BF4 in 4K mit Ultra, ohne AA - 60-100fps, je nachdem. Schon sehr geil :)
Muss wohl GTA V und Witcher 3 wieder runterladen.

/edit: DOOM in 1440p mit Vulkan, alles Ultra, 8xTSSAA ... 160fps. Wie krank geil fühlt sich das denn an? So worth it. OC/Non-OC machen da so 5-7fps aus. Aber das merkste bei 150-160fps eh nicht.

(del)
2017-04-28, 23:28:45
Habe letzte Woche eine MSI GTX 1080 X Gaming für 390 Euro gekauft. Zwar gebraucht, aber Top Zustand. Das nenne ich mal günstig:D
Die Bucht hat mir für ein 980er SLI custom mit Wasserblock und Bridge noch über 400 ausgespuckt - war auch nicht ungünstig... ;)

JaniC
2017-04-29, 17:31:54
Also bin soweit zufrieden mit der Karte (Gigabyte G1 Gaming). Aber vielleicht ist sie mir einen Tacken zu laut.
Die 33 bzw. 34dB der Palit/Gainward aus den Tests sind schon ein hörbarer Unterschied, oder nicht?

So auf 1800rpm ist sie ok aber dann geht es unter Vollast auf 77-78°C Grad hoch, bei stundenlangen Sessions vielleicht auch auf 80°C.
Laut CB (https://www.computerbase.de/2016-06/gigabyte-geforce-gtx-1080-g1-gaming-test/4/#abschnitt_lueftersteuerung_anpassen_update) hat sie bei 1850rpm 36dB.. also immer noch mehr als die Palit/Gainward.

Wie DOOM unter Vulkan abgeht, ist ja nicht normal. Sowas responsives habe ich noch nie erlebt. Wo bleiben mehr Vulkan-Games?

JaniC
2017-04-29, 20:26:01
Habe jetzt mal die Gigabyte Software (links) installiert, das Lüfterprofil "Silent" dort "kopiert" und in Afterburner (rechts) "nachgebaut".

http://abload.de/img/fanspeedgigabytetools6ksz9.jpg http://abload.de/img/afterburner3bs2x.jpg

Damit habe ich eben ne Stunde Wildlands getestet, inklusive 100Mhz OC komme ich auf ~ 75°C (max: 76) bei 2000 bis 1978 (max: 2025) Takt. Dabei seuselt der Lüfter mit super angenehmen 1700rpm (max: 1717) vor sich hin.


Sind 75°C für den Dauerbetrieb ok?

Meine 970 Omega AMP! lief eigentlich unter Vollast so bei 79-81°C (Division, BF4).. kp wie das bei Pascal ist. TT ist ja 83°C, afaik.

dildo4u
2017-04-29, 20:59:50
75 is ok.

Bei den Temperaturen sind lediglich die Inno3D-Grafikkarte mit 82 und das EVGA-Modell mit 80 Grad Celsius auffällig. Bei beiden Versionen könnte im Hochsommer die 83-Grad-Marke erreicht werden, womit die 3D-Beschleuniger in das Temperature-Target geraten würden. Alle anderen Probanden erzielen dagegen deutlich geringere Temperaturen und bleiben bei rund 75 Grad Celsius oder weniger.

https://www.computerbase.de/2016-07/geforce-gtx-1080-partnerkarten-vergleich-test/4/

dildo4u
2017-05-04, 14:54:52
GTX 1060/1080 9/11 Gbps im Test: Der schnellere Speicher bringt ein wenig mehr Schub


https://www.computerbase.de/2017-05/geforce-gtx-1060-1080-speicher-test/

JaniC
2017-05-04, 16:42:43
Dies zeigt, dass beide neuen Grafikkarten zwar mit einem höheren Speichertakt laufen, gleichzeitig aber auch die Speicherlatenzen erhöht worden sind. Und bei gleichem Takt arbeiten die neuen Versionen daher etwas langsamer als die älteren Modellen. Wären die Latenzen identisch, könnten sowohl die GeForce GTX 1060 als auch die GeForce GTX 1080 also noch etwas mehr von der höheren Speicherbandbreite profitieren.

Das heisst andersherum auch, dass meine "alte" 1080 mit auf 5500Mhz übertakteten Speichertakt schneller (1-2%) ist als die neue mit 5500 Mhz, amiright?

Lasse sie aktuell mit +350 laufen, mehr noch nicht probiert.

PS: Bin mit der G1 total zufrieden, habe sie jetzt auf 1600-1650rpm unter Volllast eingestellt. Gehäuselüfter scheinen gut zu funktionieren, eiert bei Wildlands WQHD so zwischen 70 und 77 rum, meist 75°C. Mit 100Mhz OC. Ingame sind das meist 1989 Mhz. Bei 125 ist mir das Spiel nach ner Stunde abgeschmiert (ohne PT-Erhöhung).
Vielleicht nochmal Witcher 4k testen für maximalen Stress.
Das Standardlüfterprofil ist viel zu aggressiv.
Für 509€ ein Superdeal.

JaniC
2017-05-05, 14:26:24
Hier scheint keiner mehr reinzugucken, alle hängen im Ti Thread ab - verständlich. ;)

Habe aber hier doch noch mal ein Anliegen. Also:

Die G1 Gaming ist soweit super, wie beschrieben habe ich bei Wildlands auch nach Stunden nie mehr als 77°C. Da man auch zwischendurch mal ins Menü oder Loadout geht, wo die Temperatur sofort sinkt - und man ab und zu im CPU Limit hängt (in Städten z.b.) - eiert sie meist bei 73-75°C rum. Das ist ok. Das ist erreichbar mit einer total angenehmen Lüfterdrehzahl von 1600-1700rpm, was aus dem geschlossenen FD R4 unterm Schreibtisch kaum rauszuhören ist - natürlich ist das zu hören, ohne Gamesound -aber man zockt ja, das überdeckt das Geräusch, ohne übertrieben aufdrehen zu müssen. Auch von der "Frequenz" ist das Geräusch bei der Drehzahl angenehm - kein Brummen, kein Surren.

Also war ich total happy - die behalte ich. Aber dann habe ich gestern nochmal ausführlich Witcher 3 getestet..

Da ist das temperaturtechnisch n anderer Schnack. Mit dem gleichen Lüfterprofil komme ich nach 20 Minuten auf 79-80°C.

Um 75°C maximal zu erreichen, muss ich auf 2200rpm oder mehr gehen. Was inakzeptabel laut ist.

77-78°C bekomme ich mit einigermaßen passablen Lüfterdrehzahlen hin... nun also meine Frage:

Welche Temperatur ist denn bedenkenlos auf Dauer (also wirklich auf Dauer, bis ich sie verkaufe usw.) ok? Kann man wirklich bis 83°C gehen oder ist das nicht so geil?
Hat die Temperatur eigentlich Auswirkungen auf die Frametimes?

Eine Woche habe ich noch Zeit, sie im 14-Tage-Fenster zu Mindfactory zurückzuschicken und gegen eine Gainward GLH oder Palit PE zu tauschen - die sollen ja viel leiser sein.
Hat jemand eine der beiden Karten und kann mir mal seine realen Lüfterdrehzahlen unter Volllast im geschlossenen Case mitteilen? In den Tests sind es meist Unterschiede von 5-6dbA, aber eben genau die entscheidenen dbA.

Also: Sind die GLH und PE wirklich merklich leiser und liefern dabei Temperaturen unter 75°C? Dann würde ich wohl 50€ mehr zahlen und den Tauschaufwand auf mich nehmen.

Alternative: Witcher 3 auf 60fps cappen. Dann eiert sie mit 70-72°C rum und ist ruhig. Aber das kann's irgendwie auch nicht sein.

Also Empfehlungen und Erfahrungen würden mich interessieren.
Und nein, ich baue mir keine Wakü ein. Noch nicht. ;)

dildo4u
2017-05-05, 14:31:16
Nvidia selber lässt ihre Karten mit 83° laufen es ist also ok,es sollte für die Frametimes keine Rolle spielen,da Pascal wegen dem Boost eh ständig Takt Schwankungen hat.Das einzige Problem was ich jetzt sehe ist das du kein Spielraum mehr für den Sommer hast.

JaniC
2017-05-05, 14:34:38
Sommer..stimmt. Schwer daran zu denken, bei 7°C, Nordostwind und Dauerregen.

Könnte überlegen, den 2500K von 4,5 auf 4,2 oder so zu senken, das würde den ganzen Tower vielleicht ein paar Grad runterkühlen. Der Brocken 2 bringt den 2500K nur noch auf 65°C runter mit der neuen Graka. Das ist ja auch schon eher am oberen Grenzbereich, wenn auch unbedenklich.
Aber auch nicht optimal.

Also die GLH und PE sind schon deutlich besser, was Kühlung angeht, oder? Sind ja auch 2,5 Slot Designs.. Platz habe ich genug.


Was anderes: Ab und zu "laggt" Chrome auf einmal beim scrollen.. erst geht alles ganz normal und dann ist er auf einmal total träge, als wäre irgendeine Beschleunigung abgeschaltet. Das hatte ich vorher nicht. 165hz-Scrollen ist das nicht. Eher 30hz. Fenster verschieben ist hingegen total flüssig. Muss iwie an Chrome liegen.

/edit: Sandy runtertakten hat zwar der CPU Temp geholfen, auf die Graka aber keinen Einfluss:

Wildlands nach 30 Minuten, 1670rpm sind super angenehm und kaum wahrnehmbar beim Zocken. Temperatur auch voll ok.

http://abload.de/img/grw20m45z97.jpg

Witcher 3 1440p Ultra (ohne Hairworks), 20 Min an der Stelle da mit 100% Auslastung gestanden und währenddessen die Bude gesaugt - 81/82°C und aushaltbare 1850rpm.

http://abload.de/img/witcher20min5puyk.jpg

Im Sommer wird's eng.

Krass: Wenn ich die Gehäuselüfter von 5 auf 7 Volt hochstelle mit der R4 Lüftersteuerung, geht die Temperatur von 82 auf 77 runter. Problem solved. 7 Volt geht klar, 12V ist natürlich viel zu laut.

http://abload.de/img/witcher7voltxdxas.jpg

Und wenn ich auf 60 cappe, dann habe ich 70-72. Ach, ich behalt das Teil.

k0nan
2017-05-05, 23:52:19
Ach, ich behalt das Teil.

:up:

Immer wenn man denkt, das Gras wäre woanders grüner, stellt sich hinter her heraus, man hat zuviel gewollt :wink:

Danke für's teilen deiner 1080 Story :up:

woodsdog
2017-05-06, 07:32:57
Ich versteh das Problem nicht so ganz. Du kannst halt nicht ALLES gleichzeitig haben.

wenn du im Sommer ein Temperaturproblem siehst, hast du folgende Optionen:
- ~100 MHz weniger (IMO kaum spührbarer Leistungsverlust)
- Lüfter höher drehen (Lauter)
- Temp-Target auf 80 setzen und Boost das regeln lassen (versaut dir ggf frametimes?)

ich persöhnlich würde an der Stelle immer etwas Leistung liegen lassen. Die letzten 10% oben raus sind so teuer was Strom/Hitze/Geräusche angeht das es halt schon unheimlich viel bringt. Merkt man eh kaum. Im zweifel einfach mal beim zocken das OSD ausblenden ;)

JaniC
2017-05-06, 16:29:48
Im zweifel einfach mal beim zocken das OSD ausblenden ;)

Du hast so Recht ;D :up:

Aber das sind halt immer die ersten Tage... da probiert man rum, diskutiert jedes Grad, jeden Boost-Step .. 3 Wochen später hat man Afterburner nur noch für die Lüftersteuerung an und versinkt in sehr flüssigen, sehr hübschen Welten.
Witcher und Wildlands sind einfach Jawdropper. Bleibe ständig stehen und feiere innerlich die geile Optik und Stimmung.

gnomi
2017-05-08, 09:52:08
Ich denke, der Chip ist allgemein eben sehr gut, egal welche spezielle Karte man dann erworben hat. =)
Bei mir war es die Palit Gamerock Premium, die ja in den Tests gut ankam.
Aktuell versuche ich, auch noch etwas mehr hier herauszuholen.
Jedoch ist alles schon ziemlich ideal eingestellt muss ich sagen.
Ich habe jetzt den Speicher von 10500 noch auf 11000 hochgezogen und dafür gesorgt, dass sie noch etwas aggressiver boosten kann und möglichst nicht unter 2000 Mhz fällt.
Aber das sind ehrlich gesagt nur kleinere Korrekturmaßnahmen, die nicht unbedingt viel bringen.
In Mass Effect Andromeda & Wildlands habe ich die Karte aber schon echt auf Anschlag und kann ein paar fps mehr messen.
Lüfter und Temperatur gehen dann aber auch noch ein paar Prozentpunkte höher. (es bleibt aber noch leise und irgendwo bei 70 Grad)
Wichtig ist auch einfach Platz im Gehäuse bei der Art von Karte. (ich habe so ein Uralt liebgewonnenes Antec CS 601 like aussehendes)

Sonyfreak
2017-05-08, 12:54:40
Die Spannung lässt sich nicht mehr weiter senken? Meine Zotac Geforce GTX 1080 AMP! läuft auf 2000/5505Mhz mit nur 0,931V und hält den Takt etwa in Shadow of Mordor (4K) auch stabil. Im Auslieferungszustand wäre dieser Takt bei mir temperaturbedingt nicht möglich gewesen. Witcher 3 habe ich aber zugegebenermaßen noch nicht probiert. :redface:

Wenn der Chip mit nur ein paar Prozentpunkten weniger Spannung noch stabil läuft, bringt dir das oft mehr als ein hochdrehender Lüfter. :up:

mfg.

Sonyfreak

JaniC
2017-05-09, 16:08:58
@gnomi: Was sind denn deine Lüfterdrehzahlen bei 2000Mhz?

Würde gerne mal Screenshots im Witcher nach 20 Min mit Afterburner Overlay sehen, so wie ich sie auch zur Verfügung stelle.
Wildlands ist wie gesagt 6-8°C kühler, also auch nicht tauglich für einen Vergleich. Der Hexer verlangt der Karte echt alles ab. Andromeda habe ich leider nicht, taugt aber sicherlich auch.

15-20 Min, closed Case, Vollauslastung, Boosttakt, Lüfter rpm, Temp. Das sollte schon angezeigt werden.

So dieses gefühlte "Ja, das ist dann noch ruhigt und bleibt so um die 70°C" ist lieb gemeint aber mir immer zu bauchgefühlig. Auf Grundlage solcher Aussagen schicke ich keine Karte zurück. ;)

Trotzdem natürlich danke für deinen Bericht.

@Sonyfreak: Bin ich zu blöd? Kann bei Afterburner bei Core Voltage nicht in den Minusbereich?

/edit: Habe ein Tutorial gefunden. https://www.youtube.com/watch?v=o_CRCZxtlRs
Bei 2000@1000mV kackt er aber direkt ab, wenn Witcher 3 im Hintergrund läuft.

/edit: 0,950mV und 1870 Boost.. bin da noch sehr vorsichtig. Wie gesagt, alles mit dem Witcher 3. Wenn, dann gleich richtig.
Temperatur geht nicht übermäßig runter, da ich aber auch eine Silent-Kurve eingestellt habe:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=59946&stc=1&d=1494343598

/edit: 1860@0,931 .. mal gucken was noch geht. Aber 2000? Nie im Leben.
/edit: 1900@0,931 .. ist das aufregend. ;)

/edit: 1936 schaffe ich, dadrüber (+175Mhz) kackt er bei 0,931 beim Witcher ab. Gehe jetzt eine Stufe zurück, auf 1911 (+150) Mhz. Da lief er eben ne halbe Stunde beim Zocken super. Erstaunlich, was da möglich ist. Hätte ich nicht erwartet.

Sonyfreak
2017-05-09, 19:24:19
OK, dann hast du mittlerweile eh schon den passenden Artikel gefunden. Ich hab auch ein bisschen getüftelt, bis ich die richtigen Einstellungen gefunden habe. Meine Spannungskurve sieht so aus, aber die Karte taktet wie gesagt bis über 2Ghz hinauf. :) Abstürze hatte ich, seit die Karte gut eingestellt ist, überhaupt keine mehr.

http://666kb.com/i/dj2nkynzq04qd5ebv.png

mfg.

Sonyfreak

JaniC
2017-05-09, 19:36:10
Hä? Bei dir geht es doch höher als 0.931? 2000 erreichst du laut Grafik erst bei 1.030 oder so.


Also meine sieht jetzt so aus und damit halte ich selbst nach einer Stunde in Witcher 3 1911 Mhz bei 0.931:

http://abload.de/img/voltagecorexguab.jpg

Das bei angenehmen 68-72°C und 1500-1700rpm.

Sonyfreak
2017-05-09, 20:26:12
Hä? Bei dir geht es doch höher als 0.931? 2000 erreichst du laut Grafik erst bei 1.030 oder so.Du hast recht. Ich habe unabsichtlich einen Screenshot des falschen Profils gemacht. :facepalm:

Jetzt aber:
http://666kb.com/i/dj2p5oy3bno2kdscr.png


Also meine sieht jetzt so aus und damit halte ich selbst nach einer Stunde in Witcher 3 1911 Mhz bei 0.931:

http://abload.de/img/voltagecorexguab.jpg

Das bei angenehmen 68-72°C und 1500-1700rpm.Na das klingt doch schon sehr nett. Mehr Takt und weniger Temperatur. :up:

mfg.

Sonyfreak

JaniC
2017-05-09, 20:39:02
Richtig geil, danke für den Anstoß. Gar nicht drauf gekommen vorher.

/edit: Dauerhaft 70°C mit 1400rpm bei der Einstellung. 1911@0.931mV. Ist ein Offset von 150. Damit spiele ich jetzt seit 4-5 Stunden Witcher 3. Sauber. :) :)

Auf 0.850mV macht sie auch noch 1740 Mhz (+100, mehr bisher nicht getestet), da sind nochmal 4 Grad weniger drin.

Darkseth
2017-05-13, 20:28:42
Hey leute ^^"
Habe nun auch eine GTX 1080: https://geizhals.de/msi-geforce-gtx-1080-gaming-x-8g-v336-001r-a1449271.html
Die normale, nicht die "+" mit 5500 mhz speicher (Wobei meine wohl anscheinend die 5500 Mhz OC stabil hält).

Hab ein paar Fragen an die, die damit schon intensiver rumgespielt haben, insbesondere Raff und Format_C:

- Wie ist die WLP? Taugt die was, oder kriegt man locker 5+°C raus, wenn man die wechselt?
@ Stock out of the box wird die unter Last nämlich leider wärmer als die Reviews es suggerieren. Bei mir schnell 77-78°C, und die Lüfterdrehzahl steigt schon gern auf 60%~ (1650 rpm~).
Dabei sind es "nur" 1.025 / 1.037 Volt, bei 1962 Mhz~.
gehäuse ist ein Fractal Design Define R5 mit stock belüftung (beide Lüfter auf relativ max), mittlerweile kam aber ein dritter hinzu.

Bin daher erstmal runter auf 0.8 Volt bei 1810 / 1823 Mhz (5500 Mhz speicher), was die temperatur um gute 10°C senkt, Lüfter gehen nur auf <1100-1150~ rpm hoch, und der stromverbrauch des gesamtsystems sinkt von 340 auf 240 Watt :P
Lautstärke entsprechend niedriger, Leistung nur geringfügig geringer.

Bei der GTX 1060 MSI Gaming X war das weniger ein Problem, die war selbst bei hoher spannung und max OC recht Silent und <70°C.

Hat da schon jemand die WLP erfolgrech getauscht? Einen post (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11103026&postcount=15) hab ich gefunden, das ist aber nur die Armor OC, wo die tempertatur von 72+ auf 63-67°C gesunken ist. Kan nman bei der gaming X sowas auch erwarten?

- Beim techpowerup Test für die Gaming X (https://www.techpowerup.com/reviews/MSI/GTX_1080_Gaming_X/28.html) und die neuere Gaming X Plus (https://www.techpowerup.com/reviews/MSI/GTX_1080_Gaming_X_Plus_11_Gbps/34.html) sind die temperaturen auch unterschiedlich. die "normale" erreicht 72°C, die Plus 67°C, beide ähnliche Spannung/Takt (+- eine stufe höher/niedriger).

Beim Bios hat die Plus ein stock Powertarget von 220 Watt (geht bis 250 Watt hoch), die "normale" hat 240 Watt und geht bis 291W hoch.
Liegt es daran? Bessere WLP? Hat MSI etwa den Kühler überarbeitet? Das müsste doch genau der gleiche sein, oder?

- Hat jemand schon versucht, das Bios der Gaming X Plus auf die normale zu flashen, ob das was an den temperaturen ändert? Eventuell zieht die normale ja wegen dem hohen Powerlimit unnötig viel strom, was sich dann in Abwärme zeigt?

Bem Kaufzeitpunkt waren da 66 € Preisunterschied, daher hab ich zur günstigeren normalen gegriffen (544€, statt 599€. Beides jeweils mit 50€ Cashback).
Zudem auch nicht soo ein "big deal", da ich tendenziell nicht auf max OC aus bin, sondern lieber undervolte bei kaum Leistungsverlust. Gerade bei der 1080 zeigt sich das ja ziemlich deutlich im stromverbrauch.
Aber optimieren in der Lautstärke geht ja immer :D


Wäre sehr hilfreich, wenn jemand mehr dazu sagen kann^^


Edit: Mal was anderes, die Frage besonders an Format_C / Raff (Ihr testet ja wesentlich mehr als "normale" user, und habt auch entsprechend Kontakt zu den Herstellern).

Kommt es mir nur so vor, oder sind die meisten GPU Kühler heutzutage ziemliche... naja.. Mist?
Ich erinnere mich an meine GTX 570 damals, mit einem gigabyte Windforce Kühler. Der Chip hatte ja ne TDP von 220+ Watt oder so, hat unter Furmak aber den Chip auf 60°C~ gehalten, während die Lüfter lediglich sanfte 1400 rpm~ erreicht haben.
Und heute die Windforce / Gaming G1 von gigabyte mit popligen 180w einer GTX 1080? Lüfter auf 2400 rpm+, temperaturen kratzen an der 75-80°C marke.
Hätte Gigabyte da nicht einfach 1:1 den alten Kühler behalten können, und nur das Layout ändern? :P Weil kann doch nicht so schwer sein, ne 180w GPU silent auf ner vernünftigen temperatur zu halten.

Oder hat sich an den GPUs technisch grundlegend so viel geändert, dass das solche auswirkungen hat?

Geächteter
2017-05-14, 14:09:05
Edit: Mal was anderes, die Frage besonders an Format_C / Raff (Ihr testet ja wesentlich mehr als "normale" user, und habt auch entsprechend Kontakt zu den Herstellern).
Kommt es mir nur so vor, oder sind die meisten GPU Kühler heutzutage ziemliche... naja.. Mist?
Ich erinnere mich an meine GTX 570 damals, mit einem gigabyte Windforce Kühler.

Der Oschi hier?
https://www.vortez.net/index.php?ct=articles&action=file&id=9854

Kein Wunder, massive große Grundplatte aus Vollkupfer? mit Kühlfinnen direkt verbunden, Heatpipes on top für den vorderen Teil. Das Ding war teuer in der Herstellung.
Dazu dann noch der gröbere Fertigungsprozess, dürfte sich auch positiv auf die Chiptemperatur auswirken.

(del)
2017-05-14, 15:36:13
Der Killer schlechthin heißt Density. Kupfer schön und gut, aber das Wichtigste ist der möglichst schnelle Abtransport, nicht die Kühlerfläche als solche. Die Peakwerte in der GPU liegen heuzutage deutlich höher. Das kann man so einfach nicht miteinander vergleichen. Ein weiterer Punkt sind die Multi-Layer-Platinen, die immer mehr voller Kupfer stecken. Die Hotspots waren früher einfacher und punktueller zu lokalisieren und zu handhaben, heutzutage wandert der Abwärmedreck sonstwohin. :D

Kartenlehrling
2017-05-14, 15:48:40
Der Oschi hier?
https://www.vortez.net/index.php?ct=articles&action=file&id=9854

Kein Wunder, massive große Grundplatte aus Vollkupfer? mit Kühlfinnen direkt verbunden, Heatpipes on top für den vorderen Teil. Das Ding war teuer in der Herstellung.
Dazu dann noch der gröbere Fertigungsprozess, dürfte sich auch positiv auf die Chiptemperatur auswirken.

Die vermeindliche Grundplatte ist aber auch eine Vapor-Chamber Platte, in zb. bei Radialkühler zum einsatzkommen.

http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_570/i/GeForce_GTX_580_Vapor_Chamber_Cooling_Design.jpg

Darkseth
2017-05-14, 17:56:06
Die hier, falls die Gigabyte gemeint war: https://geizhals.de/gigabyte-geforce-gtx-570-oc-gv-n570oc-13i-a615694.html
Hab den noch nie von unten gesehen^^ War soweit ich weiß sogar als Vapor Chamber beworben.

Wobei ich bei der relativ schnell das Bios geflasht hab, jetzt bei der 1080 mich aber etwas anstelle, das gaming X+ Bios zu probieren. ^^"

Reaping_Ant
2017-05-26, 04:44:23
Nach mittlerweile etwas ueber einem Jahr mit der 1080 FE muss ich mal eine Lanze fuer die Karte brechen. Der Preis am Anfang war zwar recht happig und mittlerweile bekommt man eine 1080 TI fuer das gleiche Geld. Allerdings ist die 1080 in meiner langen Grafikkarten-Historie (beginnend mit einer Kombination aus Matrox Mystique und Voodoo 2) diejenige Karte, mit der ich alles in allem am zufriedensten bin. Zuvor habe ich immer eher im Performance-Segment gekauft (Vorgaengerkarte war eine 970) und irgendwie hat immer das letzte bisschen Leistung zur voelligen Zufriedenheit gefehlt, besonders da ich schon seit 2007 in 2560x1600 unterwegs war.

Fast alle Spiele (zuletzt Mass Effect Andromeda) sind mit der 1080 in 1440p oder 1800p bei Details nahe am Anschlag fluessig spielbar, was mir auf einem 4K Monitor meist ausreicht. Entsprechend zocke ich, seit ich die Karte habe, auch wieder deutlich mehr. Und auch den Kuehler der FE finde ich gar nicht so schlecht. Klar, gerade im Sommer bei knapp 40 Grad und 90% Luftfeuchtigkeit hat er schon zu kaempfen, aber um die 1.7 GHz gehen eigentlich immer bei akzeptabler Lautstaerke.

Fazit fuer mich selbst: Nicht mehr an der Grafikkarte sparen und gleich High-End kaufen, dann hat man (auch als Einstellungs-maximier-Zwangsneurotiker) mehr und laenger Spass am zocken.

Slipknot79
2017-05-26, 20:11:06
Nach mittlerweile etwas ueber einem Jahr mit der 1080 FE muss ich mal eine Lanze fuer die Karte brechen. Der Preis am Anfang war zwar recht happig und mittlerweile bekommt man eine 1080 TI fuer das gleiche Geld. Allerdings ist die 1080 in meiner langen Grafikkarten-Historie (beginnend mit einer Kombination aus Matrox Mystique und Voodoo 2) diejenige Karte, mit der ich alles in allem am zufriedensten bin. Zuvor habe ich immer eher im Performance-Segment gekauft (Vorgaengerkarte war eine 970) und irgendwie hat immer das letzte bisschen Leistung zur voelligen Zufriedenheit gefehlt, besonders da ich schon seit 2007 in 2560x1600 unterwegs war.

Fast alle Spiele (zuletzt Mass Effect Andromeda) sind mit der 1080 in 1440p oder 1800p bei Details nahe am Anschlag fluessig spielbar, was mir auf einem 4K Monitor meist ausreicht. Entsprechend zocke ich, seit ich die Karte habe, auch wieder deutlich mehr. Und auch den Kuehler der FE finde ich gar nicht so schlecht. Klar, gerade im Sommer bei knapp 40 Grad und 90% Luftfeuchtigkeit hat er schon zu kaempfen, aber um die 1.7 GHz gehen eigentlich immer bei akzeptabler Lautstaerke.

Fazit fuer mich selbst: Nicht mehr an der Grafikkarte sparen und gleich High-End kaufen, dann hat man (auch als Einstellungs-maximier-Zwangsneurotiker) mehr und laenger Spass am zocken.


Ich glaube auch, dass man mit High End Karten sogar Kohlen sparen kann. Meine bisherigen High-End Karten behielt ich über viele Jahre. 280 GTX, dann 580 GTX, und jetzt eine 980 GTX Ti um 45% oced. Ich unterstelle mal, dass die Midrange-Karten-Käufer in diesem Zeitraum häufiger Midrange-Karten kaufen.

Darkseth
2017-05-27, 02:40:22
Klar, gerade im Sommer bei knapp 40 Grad und 90% Luftfeuchtigkeit hat er schon zu kaempfen, aber um die 1.7 GHz gehen eigentlich immer bei akzeptabler Lautstaerke.
Schon mal Undervolting probiert?
Gerade bei ner Founders bewirkt das wahre Wunder ^^"

gnomi
2017-05-31, 10:11:51
Nach mittlerweile etwas ueber einem Jahr mit der 1080 FE muss ich mal eine Lanze fuer die Karte brechen. Der Preis am Anfang war zwar recht happig und mittlerweile bekommt man eine 1080 TI fuer das gleiche Geld. Allerdings ist die 1080 in meiner langen Grafikkarten-Historie (beginnend mit einer Kombination aus Matrox Mystique und Voodoo 2) diejenige Karte, mit der ich alles in allem am zufriedensten bin. Zuvor habe ich immer eher im Performance-Segment gekauft (Vorgaengerkarte war eine 970) und irgendwie hat immer das letzte bisschen Leistung zur voelligen Zufriedenheit gefehlt, besonders da ich schon seit 2007 in 2560x1600 unterwegs war.

Fast alle Spiele (zuletzt Mass Effect Andromeda) sind mit der 1080 in 1440p oder 1800p bei Details nahe am Anschlag fluessig spielbar, was mir auf einem 4K Monitor meist ausreicht. Entsprechend zocke ich, seit ich die Karte habe, auch wieder deutlich mehr. Und auch den Kuehler der FE finde ich gar nicht so schlecht. Klar, gerade im Sommer bei knapp 40 Grad und 90% Luftfeuchtigkeit hat er schon zu kaempfen, aber um die 1.7 GHz gehen eigentlich immer bei akzeptabler Lautstaerke.

Fazit fuer mich selbst: Nicht mehr an der Grafikkarte sparen und gleich High-End kaufen, dann hat man (auch als Einstellungs-maximier-Zwangsneurotiker) mehr und laenger Spass am zocken.

Habe zuletzt auch immer lieber die größere Karte genommen. Gerade bei der 980 und der 1080 waren das sehr gute Entscheidungen. =)
Die 1080 FE hatte ich da, und ja, die ist gut genug, war aber mit 789 Euro @ Launch definitiv zu teuer. Ich habe die nicht behalten und 6 Wochen später eine weit bessere Custom mit Bundle und Werks OC für 650 bekommen.
Also das war sehr unschön von nvidia hier so aufzuschlagen. (haben sie mit der 980 Referenz nicht gemacht, und die Unterschiede beim Kühler waren minimal)
1080 TI ist schön schnell, aber auch unverschämt teuer. Da entsteht auch jetzt auf PC schnell eine 2 Klassen Gesellschaft. Die 200-300 Euro Karten sind erst eine Generation später so gut wie die 500 Euro Karte.
Und für die beste Performance legt man nicht mehr 500 hin, sondern bis zu 800 mit einem quasi zurückgehaltenem Chip, der nicht so stromoptimiert mehr rausholt. (780 TI, 980 TI, 1080 TI)
Die Strategie geht beim Kunden auf, ist aber tatsächlich hinterfragbar.
Von daher ist es gut, wenn AMD wie jetzt mit der Polaris auch stark im Midrange Bereich aufgestellt ist.

JaniC
2017-05-31, 12:40:54
Da entsteht auch jetzt auf PC schnell eine 2 Klassen Gesellschaft. Die 200-300 Euro Karten sind erst eine Generation später so gut wie die 500 Euro Karte.

Frechheit, oder? Dein Alternativvorschlag? Eine Karte für alle? Ein Preis?

Sorry, aber da hast du irgendwo einen Denkfehler.
Das ist keine "2-Klassen-Gesellschaft" sondern einfach eine Leistungsabstufung, die man entsprechend bezahlt!
Und das ist nun wahrlich nichts neues - und nichts verwerfliches.

kokett
2017-05-31, 13:25:06
Hinsichtlich 1080 ti. Ich habe gestern eine für 599 € inkl geschossen.
Jetzt interessiert mich, ob Kompatibilität zwischen Titan XM und Titan Xp / 1080 ti in Bezug auf die Fullcover Wasserkühler besteht - ich also meinen Kühler wiederverwenden kann?

Wenn man sich das Angebot bei Aquacomputer anschaut, scheint es nicht so zu sein. Andererseits sehen die Kühler vom Layout der Bodenplatte ähnlich (aber nicht gleich) aus.

Gibt es hier Erfahrungen?

Fullcoverkühler sind bei Waküs immer etwas ätzend beim Aufrüsten. Der alte ist kaum was wert. Selbst vormontiert auf einer Grafikkarte bringt er praktisch keinen Mehrwert. Der neue kostet dann wieder >100 € extra. Kein Weltuntergang aber etwas ärgerlich.

Ich war/bin in der gleichen Situation wie du und habe die exponierten/erhöhten Stellen meines Titan X Maxwell Wasserkühlers mit etwas billiger weißer WLP bestrichen und vorsichtig lose auf die Karte gelegt (natürlich so, dass die GPU mit der passenden Kontaktfläche des Kühlers Kontakt hat).
Ergebnis: Es entstehen unerwünschte Kontaktpunkte mit dem Pascal Founders Edition PCB und des Titan X Maxwell Wasserkühlers, die mit Sicherheit einen Kurzschluss verursachen würden. Das PCB hatte an mehreren Stellen Wärmeleitpaste, wo keine sein sollte (die Flächen für RAM und VRM sind nicht deckungsgleich), das Layout ist an mehreren Stellen um wenige MM anders - allerdings zu arg um das selbst irgendwie auszugleichen.

Also auf gar keinen Fall den Kühler "recyclen", das würde böse ins Auge gehen. Wie du schon sagtest, dass man jedesmal einen neuen fullcover Block braucht, ist ärgerlich. Allerdings kann man mit den Blöcken wirklich das Maximum an Leistung bei minimaler Lautstärke erhalten und mir ist dieser Punkt deutlich ins Bewusststein getreten, als ich die Titan X wieder mit ihrem Referenzkühler versehen habe und zum Testen mit ihr gespielt habe. Die Karte ist permanent im Temp. Limit (83°+) und läuft daher nur mit 1050-1080 MHz. Damit reicht die Leistung mit ach und Krach an eine GTX 1070 heran, das ist schon ein Unterschied zu den +400 MHz die mit Wakü drin waren. Und die Karte ist mit dem Luftkühler auch wirklich nervig laut (+ langsam).

Die 1080 Ti ist übrigens selbst mit dem popligen FE Luftkühler deutlich (~20%) schneller als die maximal übertaktete Maxwell Titan und das obwohl die FE konstant aufgrund des Luftkühlers nur mit 1550 Mhz boostet.

Rampage 2
2017-05-31, 21:42:59
Reicht eine bis zum Anschlag übertaktete 1080 (non-Ti, 2100/6000 MHz) um 4K für die nächsten 1-2 Jahre halbwegs sorgenfrei zocken zu können?

Die Ti lässt sich, soweit ich gehört habe, nicht ganz so gut übertakten wie 1060/1070/1080 (~ 2 GHz statt 2,1 GHz) - um wieviel % schneller wäre eine Ti am Anschlag versus eine 1080 am Anschlag?

Wenn man schon in 4K zockt, dann braucht man oft kein zusätzliches AA mehr - nur AF und AO und gut ist...

R2

JaniC
2017-05-31, 22:07:11
Die Frage ist halt, was für dich sorgenfrei bedeutet.

Was ist das Ziel? 60fps? Gar mehr? Oder reichen dir, vielleicht dank G-Sync oder so, auch 30-45fps?

AAA-Titel wie Wildlands bekommst du jetzt schon nicht auf 60 in 4K mit der 1080. Auch nicht ohne AA.
Klar, du kannst die Details runterstellen.

Aber ist das dann noch sorgenfrei?

Ich wage mal zu behaupten: Ja, für 80-95% der Titel. Bei den restlichen 5% musst du eben Details runterstellen oder auf geringere Framerates ausweichen.

Musst du selbst abwägen.

Rampage 2
2017-06-01, 04:03:38
Die Frage ist halt, was für dich sorgenfrei bedeutet.

Was ist das Ziel? 60fps? Gar mehr? Oder reichen dir, vielleicht dank G-Sync oder so, auch 30-45fps?

AAA-Titel wie Wildlands bekommst du jetzt schon nicht auf 60 in 4K mit der 1080. Auch nicht ohne AA.
Klar, du kannst die Details runterstellen.

Aber ist das dann noch sorgenfrei?

Ich wage mal zu behaupten: Ja, für 80-95% der Titel. Bei den restlichen 5% musst du eben Details runterstellen oder auf geringere Framerates ausweichen.

Musst du selbst abwägen.

Sorgenfrei bedeutet für mich, jedes Spiel mit maximalen Grafiksettings (außer AA) zusammen mit AF und HBAO bei spielbaren Frames betreiben zu können - bei SP-Spielen reichen mir oftmals schon 40-45fps (je nach Spiel; je nach Situation auch 30fps als Minimum-fps), bei MP-Spielen müssen es dann meistens mindestens 50-60fps sein (gelegentliche Slowdowns auf 40-45fps sollten noch verschmerzbar sein).

Allerdings habe ich nicht die geringste Ahnung, wie das Ganze dann mit G-Sync aussieht (habs noch nie in Action erlebt und habe auch keine Vorstellung davon, wie es sich anfühlen muss) - gut möglich, dass ich dann zumindest SP-Spiele mit nur 30-45fps passabel zocken kann.

R2

Angiesan
2017-06-01, 09:03:51
Reicht eine bis zum Anschlag übertaktete 1080 (non-Ti, 2100/6000 MHz) um 4K für die nächsten 1-2 Jahre halbwegs sorgenfrei zocken zu können?

Die Ti lässt sich, soweit ich gehört habe, nicht ganz so gut übertakten wie 1060/1070/1080 (~ 2 GHz statt 2,1 GHz) - um wieviel % schneller wäre eine Ti am Anschlag versus eine 1080 am Anschlag?

Wenn man schon in 4K zockt, dann braucht man oft kein zusätzliches AA mehr - nur AF und AO und gut ist...

R2

Das reicht definitiv heute schon nicht! 4K stellt aktuell jede Grafikkarte vor eine Herausforderung, da kann es noch nicht zu schnelle sein.
In 1440p würde ich zur 1080 raten, da man damit fast alles wirklich sehr flüssig spielen kann. Wie das in ein oder 2 Jahren aussieht kann Dir aber niemand genau sagen da man halt nicht weiß, wie sich die Spiele weiterentwickeln. Zumindest das Problem was z.B die 980 bekommen hat, eigentlich noch genug Power für 1440p wenn man bereit ist kleine Abstriche zu machen aber nur 4 GB VRam könnte nicht ganz so deutlich hervortreten. Die 8 GB der 1080 sollten auch in den kommenden 2 Jahren noch ausreichen. Wenn Du die Karte wirklich 1,2 oder vielleicht 3 Jahre behalten willst und 4K deine Auflösung ist, bleibt nur Titan oder 1080Ti als Empfehlung übrig und selbst da bin ich mir nicht sicher ob die Rohleistung in 2 Jahren noch ein sorgenfreies Spielen garantiert. Du hast aber auf alle Fälle mehr Reserven den gute 25% mehr Leistung schlagen eben genau dann durch, wenn es eng wird. Es ist vielleicht heute keine groß spürbarer Unterschied ob du mit 77 FPS oder 60 FPS unterwegs bist, wenn wir aber von 35 FPS zu 42-43 FPS reden kann das schon fühlbar sein und je nach Engine den Unterschied zwischen Frust und Lust ausmachen. Hinzu kommt der größere VRam der heute noch keine Rolle spielt aber auch hier gilt, mehr ist auf keinen Fall schlechter. Die Mehr-Kosten in Höhe von EUR 200,-- auf 2 oder 3 Jahre gerechnet ist jedes Jahr auf einen Abend beim Italiener mit Frau oder Freundin verzichten :eek::biggrin: Muss man ja nicht so verkaufen:tongue:

gnomi
2017-06-01, 09:38:51
Frechheit, oder? Dein Alternativvorschlag? Eine Karte für alle? Ein Preis?

Sorry, aber da hast du irgendwo einen Denkfehler.
Das ist keine "2-Klassen-Gesellschaft" sondern einfach eine Leistungsabstufung, die man entsprechend bezahlt!
Und das ist nun wahrlich nichts neues - und nichts verwerfliches.

Das Problem ist imho diese Abstufung.
Also zunächst einen Performance, und dann den ausgebauten Chip zu bringen. (980 & 980 TI, 1080 & 1080 TI)
Dadurch wird der Produktzyklus (zum Beispiel jetzt Maxwell zu Pascal) länger und der Preis zusätzlich trotzdem höher. (549 Euro 980 FE, 789 Euro 1080 FE)
Eine 1080TI für 799 Euro! erscheint als Schnäppchen mangels Konkurrenz.
Wer das glaubt, ist reingefallen. Und das sind einige...
Deshalb gibt es für 500 Euro auch keine Top Karten mehr, und für Midrange muss man länger warten und etwas mehr zahlen. (1060 ist ein gutes Beispiel, noch recht teuer und alles darunter ist lahm für Gaming)
Hier kann nur Konkurrenz und ablehnendes Kaufverhalten für Besserung sorgen.
Ein gutes Beispiel wären das kritische Angehen der 970 und das Loben der Polaris Chips, welche sehr gut dastehen.
Die Entwicklung profitiert stärker, je früher die Leistung nach unten ankommen kann.

Iruwen
2017-06-01, 14:12:04
Hier kann nur Konkurrenz und ablehnendes Kaufverhalten für Besserung sorgen.
Gäbe es Konkurrenz sähen die Preise nicht so aus. Was soll denn "ablehnendes Kaufverhalten sein", kaufen ja, dabei aber angewidert gucken?

gnomi
2017-06-01, 22:03:41
Das kann zum Beispiel heißen, sich mal ein Budget aufzuerlegen und keine Impulskäufe zu sehr nach oben zu tätigen.
Oder Abwarten und unter Umständen tatsächlich eine Nummer kleiner/bei der Konkurrenz kaufen.
Also da gäbe es imho schon Möglichkeiten, ein wenig gegen die anziehenden Preise zu unternehmen. (ist natürlich nicht gerade einfach, gerade falls man qualitativ immer prinzipiell sehr zufrieden war)

Ex3cut3r
2017-06-01, 22:45:33
Warum soll ich AMD Geschenke machen? Und wenn ich Leistung brauche, kaufe ich auch ein. Letzes Jahr ist meine GTX 770 kaputt gegangen. Brauchte eine neue, glücklicherweise kam grade Pascal und Polaris raus. Die RX 480 war mir zu langsam, also könnte es nur die 1070er werden. Von AMD kam ja bis heute nichts vergleichbares. Punkt! Oder hätte ich jetzt über ein Jahr auf Vega warten sollen? :freak:

Leider ist Vega wenn er in 2 Monaten kommt, auch schon wieder veraltet, Volta kommt schon im März. Wenn man so lange gewartet kann man gleich darauf warten, vor allem da Volta wohl alles besser können wird, als Vega.

Es ist ja löblich, dass Ryzen ein toller Fang geworden ist, aber irgendwie kann AMD nicht beides. Jahrelang war man bei den CPUs hinten dran, und bei den GPUs wenigsten eng dabei. Jetzt ist man bei den CPUs sehr gut aufgestellt, dafür lässt man die GPUs draußen. Lächerlich, beides gleichzeitig können sie anscheidend nicht.

gnomi
2017-06-01, 22:52:28
Die 1070 ist ja auch eine runde Sache. (auch wegen der scharfen Kritik an der 970)
Kaufe ja selber gerne nvidia. (mir war die von einer 980 ausgehend nur zu lahm)
Und die Entwicklung bei den größten Chips ist schon etwas bedenklich.
Eigentlich gab es immer für 500 Euro das schnellste, bis der Titan und TI Mist kam. :(

Troyan
2017-06-01, 23:19:06
Du bekommst doch seit ein Jahr für 500€ das schnellste. Alles ab einer GTX1060 ist schneller als von AMD.

Man sollte sich eher fragen: Wieviel Wert ist einem ein Jahr Lebenszeit? Wenn Vega kommt, dann sind GTX1070 und GTX1080 14 Monate auf den Markt. Da spielt man doch liebers 14 Monate mit einer 700€ GTX1080 Karte als vielleicht im August oder September 2017 für 500€ eine Vega Karte kaufen zu können, die vielleicht 30% schneller ist...

gnomi
2017-06-02, 13:54:11
Na ja. Bei der 980 habe ich AFAIR 480 Euro 2014 bezahlt.
Die 1080 Referenz 2016 für 789 ging zurück (schlechter Zug :down: ), die Custom für 650 6 Wochen später habe ich dann doch behalten.
Das sind jedoch immer noch 30% Aufpreis. (vorher über 50%)
Ich rechne immer zum Release Zeitraum der Chips. (kaufe schließlich dann und benutze die Karten bis zur nächsten Generation)
Alles in allem sind die Karten ohne Frage äußerst gut, (1080 liefert meist dreistellige fps Zahlen in Games ohne Probleme) aber nvidia lässt es sich leider arg vergolden.
Ich kaufe ja schon seit TNT Zeiten beinahe ausschließlich nvidia, da imho besser.
Dennoch bin auf jeden Fall geneigt, wieder etwas mit dem Budget runterzugehen und die Karten ein paar Monate länger zu behalten.
Aber auch das ist schwer, denn ständig kommen gute Games mit entsprechenden Features, die natürlich einen Mehrwert aus was Besserem ziehen.
Also von der Zielgruppe und den Betriebsstunden, die eine GPU läuft, bin ich ganz klar Enthusiast.
Die Leistung einer 1060 bringt mir zum Beispiel Null, wenn ich schon eine 980 OC einsetze.
Trotzdem habe ich mittlerweile ein wenig das Gefühl, da etwas über den Tisch gezogen zu werden.
Gutes Geld ausgeben geht auch ohne derartige Verteuerungen.
Nvidia kann denke ich alle 24 Monate 80% Leistung für 500 Euro abliefern. ;)

Angiesan
2017-06-02, 19:00:42
Na zumindest da funktioniert der Markt noch, von AMD kommt bis heute nichts auf 1070 Leistungslevel und NV ist schon 2 Schritte weiter! Was soll man da erwarten? Die setzten den Preis so an das Sie ihre Bestände zum besten Preis verkaufen, würde man viel günstiger anbieten wären die Karten nie lieferbar da jeder eine haben will.
NV versteht das Geschäft und ist klar Marktführer, das konnten sie auch nur werden da es mit ATi und dann AMD einfach nur noch bergab ging.
Die letzten wirklich guten Karte waren die 58er Serie und dann wenn man so will noch die 79er, alles danach war einfach nicht wirklich konkurrenzfähig, was ich persönlich sehr schade finde. Ich hatte immer große Sympathie für das Unternehmen und verbaute gerne und oft deren Karten. In letzter Zeit weiß ich aber schon vor dem Relais, dass sie es mal wieder vergeigt haben, irgendwas stimmt bei deren Qualitätskontrolle und Management überhaupt nicht.
Ich will mir überhaupt nicht ausmalen, wie der Markt und damit die Preise aussehen werden wenn NV mal alleine den Markt bedient.
Wenn AMD so weiter macht landen sie in dem früher so starken Segment der GPU in der Bedeutungslosigkeit. Ich habe aktuell Null Vertrauen das die überhaupt in der Lage sind was Vergleichbares wie eine 1080 auf die Beine zu stellen, lasse mich aber gerne überraschen, nur warten würde ich da auf gar nix, dann kann man auch nicht enttäuscht werden.

AffenJack
2017-06-02, 20:37:49
Ich will mir überhaupt nicht ausmalen, wie der Markt und damit die Preise aussehen werden wenn NV mal alleine den Markt bedient.

Genauso wie jetzt, AMD spielt doch für Nvidias Preisgestaltung keine Rolle und die Leute können sich gerne einreden, dass die 1080Ti für 700€ als Reaktion auf Vega kam. Die Realität ist eine andere, in Q1 sind die Verkaufszahlen noch stärker als normal eingebrochen. Um wieder Kaufanreize für Q2 zu liefern hat man die 1080 im Preis gesenkt und die 1080TI zu einem Preis gebracht, der ganz gute Verkaufszahlen und nicht nur Marge liefert. Nvidia analysiert den Markt perfekt und nimmt soviel wie sie nehmen können, aber wenn die Leute anfangen weniger zu kaufen gehen sie auch alleine runter. Aber auch mit Vega wird man wegen HBM sehen müssen, ob AMD überhaupt die Preise nach unten korrigieren wird.

scully1234
2017-06-02, 21:54:39
Eigentlich gab es immer für 500 Euro das schnellste, bis der Titan und TI Mist kam. :(
Das ist schon mehrfach widerlegt worden,das es eben nicht so ist

Lässt man Inflation aus der Rechnung ,liegt die Ti auf dem selben Niveau wie die damalige 8800 Ultra(das Ultra Kürzel wurde dann durch Ti ersetzt)

Und es gab noch früher ,auch schon Grafikkarten mit Ultra Label ,die im 1500 DM Bereich lagen

Zudem sind die Rohstoffkosten gestiegen von Jahr zu Jahr, man muss also nicht immer jede Situation dem Hersteller anlasten, wenn man sich mal die Mühe macht vergangene Generationen in die Rechnung zu nehmen

Einzig die Titan hat ein extra Preislevel geschaffen

Angiesan
2017-06-02, 22:34:47
Das ist schon mehrfach widerlegt worden,das es eben nicht so ist

Lässt man Inflation aus der Rechnung ,liegt die Ti auf dem selben Niveau wie die damalige 8800 Ultra(das Ultra Kürzel wurde dann durch Ti ersetzt)

Und es gab noch früher ,auch schon Grafikkarten mit Ultra Label ,die im 1500 DM Bereich lagen

Zudem sind die Rohstoffkosten gestiegen von Jahr zu Jahr, man muss also nicht immer jede Situation dem Hersteller anlasten, wenn man sich mal die Mühe macht vergangene Generationen in die Rechnung zu nehmen

Einzig die Titan hat ein extra Preislevel geschaffen

Ne das ist so auch nicht ganz richtig, früher gab es das Größte für den Preis einer ti. Heute verlangt man mal schlappe 40% mehr und nennt es Titan.

MartinRiggs
2017-06-02, 22:50:14
Ne das ist so auch nicht ganz richtig, früher gab es das Größte für den Preis einer ti. Heute verlangt man mal schlappe 40% mehr und nennt es Titan.

Stimmt, aber stört dich das wirklich?
Mich nicht, solange es Karten wie 980TI und 1080TI gibt die als Custom-Design zu wesentlich verträglicheren Preisen eine Top-Performance abliefern.

AffenJack
2017-06-02, 23:17:07
Ne das ist so auch nicht ganz richtig, früher gab es das Größte für den Preis einer ti. Heute verlangt man mal schlappe 40% mehr und nennt es Titan.

Früher hatten die Prozesse aber auch bessere Yield, die Wafer kosteten weniger und dazu haben sich seit G80 die Entwicklungskosten alleine schon ~verzehnfacht. Die Alternative zu den Preisen ist ein Ende der Leistungssteigerungen und nur noch neue Chips alle, ~3Jahre mit marginalen Refreshes dazwischen. Erst wenn AMD und Nv es beide schaffen eine GPU aus vielen kleineren Dies zu bauen wird sich die Situation bei der Kostenexplosion bessern.

Angiesan
2017-06-02, 23:56:32
Stimmt, aber stört dich das wirklich?
Mich nicht, solange es Karten wie 980TI und 1080TI gibt die als Custom-Design zu wesentlich verträglicheren Preisen eine Top-Performance abliefern.
Nein die Top-Performance würde eine Titan xp Custom Design liefern und dafür wäre auch der Preis ok. So bekommt man einen Abfall-Chip zum Premium-Preis und ja irgendwie stört mich das, auch wenn ich es nicht ändern kann. Aber ging bei der 780ti ja auch!

Angiesan
2017-06-03, 00:08:02
Früher hatten die Prozesse aber auch bessere Yield, die Wafer kosteten weniger und dazu haben sich seit G80 die Entwicklungskosten alleine schon ~verzehnfacht. Die Alternative zu den Preisen ist ein Ende der Leistungssteigerungen und nur noch neue Chips alle, ~3Jahre mit marginalen Refreshes dazwischen. Erst wenn AMD und Nv es beide schaffen eine GPU aus vielen kleineren Dies zu bauen wird sich die Situation bei der Kostenexplosion bessern.
Da kannst Du sicher auch ein paar Quellen liefern. Das die Produktion teurer geworden ist mag ich gerne glauben, das die Wafer teurer geworden sind kann man nachlesen. Faktor 10 bei den Entwicklungskosten möchte ich jetzt nicht glauben oder die Tesla Sparte ist höchst profitabel und spielt da mit rein. Die Ausbeute sollte sich jetzt auch schon deutlich gebessert haben, wenn sie dann jemals schlecht war.

Hübie
2017-06-03, 01:21:15
15-20% der GP104 Wafer sind für eine 1080 geeignet. :freak:
Und du kannst in jeder Keynote hören, wie hoch die Kosten waren. Mittlerweile liegt man für Volta bei ~3 Mrd. US-Dollar über 5 Jahre verteilt. Maxwell k.A. aber war sicher n Witz, Kepler war die Hälfte von Volta. Tesla (also GT200 & Co, nicht die Marke oder der Autohersteller - was für ein inflationär beworbener und abgenutzter Name ;D). Sicher unter 1 Mrd und G80 - hab den Codenamen vergessen - war möglicherweise sogar unter 500 Mio.

Quellen wirst du partiell in den Bilanzen finden, aber da steht nur das gesamte Budget. Verzehnfacht ist also gar nicht mal so weit her geholt, das kannst du ruhig glauben.
Es gab hier und da mal slides wo die (Wafer-)Kosten pro TFLOP, pro mm² oder pro Watt drauf standen, aber ich bekomm die sicher nicht mehr ergoogelt, weil ich immer das falsche eingebe. ;);)

Edit: Mal noch ne Randnotiz: Die Foundries sind auch darauf angewiesen von 300 auf 400 mm Wafer zu gehen, damit die Kosten - insbesondere durch EUV Anfangs sehr hoch - im Zaum gehalten werden. Von 100 hergestellten 300-mm-Wafern gehen nur gerade mal 10% in die Produktion für Chips.

AffenJack
2017-06-03, 08:13:28
Da kannst Du sicher auch ein paar Quellen liefern. Das die Produktion teurer geworden ist mag ich gerne glauben, das die Wafer teurer geworden sind kann man nachlesen. Faktor 10 bei den Entwicklungskosten möchte ich jetzt nicht glauben oder die Tesla Sparte ist höchst profitabel und spielt da mit rein. Die Ausbeute sollte sich jetzt auch schon deutlich gebessert haben, wenn sie dann jemals schlecht war.

Die Ausbeute wird schon ganz gut sein, allerdings wird man nie die Ausbeuten der größeren Prozesse erreichen. Das Problem ist einfach, dass du heutzutage mehr Prozessschritte hast als früher. Auch grob 2mal soviel wie bei ~90nm meine ich war das. Du müsstest also die Ausbeuten pro Prozessschnitt noch verbessern im Vergleich zu den alten Prozessen, aber man ist eher froh, wenn man die gleichen Ausbeuten pro Schritt erreicht.

Jop, da gibts einige Design Cost Analysen:

http://electroiq.com/insights-from-leading-edge/wp-content/uploads/sites/4/2014/02/GF1.jpg
http://electroiq.com/insights-from-leading-edge/2014/02/gatech-interposer-conf-amkor-globalfoundries/

http://semiengineering.com/wp-content/uploads/2014/03/image001.jpg
http://semiengineering.com/how-much-will-that-chip-cost/

Die schreiben, dass dies Kosten bei einer totalen Neuentwicklung von SoCs sind und teilweise die Kosten auch durch wiederverwendung von IP etc reduziert werden können, aber das ging bei den vorherigen Generationen ja auch. Aber um genaue Kosten geht es mir auch gar nicht. Was man klar sieht ist der Trend, der auch bei GPUs nicht anders sein wird. Die Kosten sind explodiert und sind bald nicht mehr tragbar, wenn man nicht auf Multidie Chips setzt.

gnomi
2017-06-03, 08:42:40
Entwicklungskosten gut und schön, aber habt ihr auch mal die Quartalsgewinne und deren Entwicklung von nvidia gesehen? :freak:

scully1234
2017-06-03, 10:04:57
Entwicklungskosten gut und schön, aber habt ihr auch mal die Quartalsgewinne und deren Entwicklung von nvidia gesehen? :freak:

Das zeigt doch nur das derzeitige fehlen eines Mitbewerbers auf, und es wäre schlicht und ergreifend fatal, eine Preisfindung auf dem Status Quo zu eröffnen

Was macht man denn ,wenn AMD wieder Gripp bekommt, die Sparpreise wieder umwälzen auf das jetzige Niveau, damit die Margen wieder stimmen?

Es würde doch kein Unternehmen freiwillig auf Gewinn verzichten, wenn so eine Konstellation eintritt wie derzeit .

Immerhin ist eine AG auch noch anderen verpflichtet, und kein Wohltätigkeitsverein

Troyan
2017-06-03, 10:21:29
Entwicklungskosten gut und schön, aber habt ihr auch mal die Quartalsgewinne und deren Entwicklung von nvidia gesehen? :freak:

nVidia hat "nur" Fixkosten. Je mehr Umsatz gemacht wird, umso besser steht der Gewinn dar.

10 Jahre zurück: 8800GTX kostete $649. Heute gibt es die GTX1080TI für $699. Es hat sich kaum etwas getan. Alleine durch die Inflation müsste eine GTX1080TI mindesten $780 kosten...

Angiesan
2017-06-03, 12:36:51
15-20% der GP104 Wafer sind für eine 1080 geeignet. :freak:
Und du kannst in jeder Keynote hören, wie hoch die Kosten waren. Mittlerweile liegt man für Volta bei ~3 Mrd. US-Dollar über 5 Jahre verteilt. Maxwell k.A. aber war sicher n Witz, Kepler war die Hälfte von Volta. Tesla (also GT200 & Co, nicht die Marke oder der Autohersteller - was für ein inflationär beworbener und abgenutzter Name ;D). Sicher unter 1 Mrd und G80 - hab den Codenamen vergessen - war möglicherweise sogar unter 500 Mio.

Quellen wirst du partiell in den Bilanzen finden, aber da steht nur das gesamte Budget. Verzehnfacht ist also gar nicht mal so weit her geholt, das kannst du ruhig glauben.
Es gab hier und da mal slides wo die (Wafer-)Kosten pro TFLOP, pro mm² oder pro Watt drauf standen, aber ich bekomm die sicher nicht mehr ergoogelt, weil ich immer das falsche eingebe. ;);)

Edit: Mal noch ne Randnotiz: Die Foundries sind auch darauf angewiesen von 300 auf 400 mm Wafer zu gehen, damit die Kosten - insbesondere durch EUV Anfangs sehr hoch - im Zaum gehalten werden. Von 100 hergestellten 300-mm-Wafern gehen nur gerade mal 10% in die Produktion für Chips.
Ne glaube ich nicht und werde das mal genau ansehen ;-).
Fakt ist, dass NV in den letzten Jahren sein EBIT deutlich steigern konnte, auch das Verhältnis Umsatz zu EBIT(operatives Ergebnis) hat sich deutlich verbessert. Die Prognose für das laufende Geschäftsjahr gehen gerade zu durch die Decke! Verhältnis Umsatz zu operativem Ergebnis glatt mal verdoppelt!!!! Du solltest bei den Entwicklungskosten auch nicht vergessen, dass die Architekturen nicht bei jedem Shrink komplett verändert werden sondern zum Teil eben nur Design-Verbesserungen einfließen. das war schon in den vergangenen Jahren so und ist seit G80 bis heute so geblieben. G80 war für NV das gleiche wie Sandy Bridge für Intel, damit konnte man dem Mitbewerber einfach enteilen. Was die Marketingabteilung der einzelenen Unternehmen dann daraus machen ist noch mal eine andere Sache.
Guck Dir mal schnell den Anhang an ;-)
Ich gehe sogar soweit zu sagen, dass die gestiegenen Produktionskosten, Wafer, Masken, nur eine untergeordnete Rolle spielen oder aber die Entwicklungskosten deutlich geringer sind wie von Dir vermutet bzw. wie von vielen anderen Quellen propagiert. Eins von beiden kann nicht stimmen sonst wären solche Steigerungen bei gestiegenen Kosten nicht möglich.

Die Ausbeute wird schon ganz gut sein, allerdings wird man nie die Ausbeuten der größeren Prozesse erreichen. Das Problem ist einfach, dass du heutzutage mehr Prozessschritte hast als früher. Auch grob 2mal soviel wie bei ~90nm meine ich war das. Du müsstest also die Ausbeuten pro Prozessschnitt noch verbessern im Vergleich zu den alten Prozessen, aber man ist eher froh, wenn man die gleichen Ausbeuten pro Schritt erreicht.
Die schreiben, dass dies Kosten bei einer totalen Neuentwicklung von SoCs sind und teilweise die Kosten auch durch wiederverwendung von IP etc reduziert werden können, aber das ging bei den vorherigen Generationen ja auch. Aber um genaue Kosten geht es mir auch gar nicht. Was man klar sieht ist der Trend, der auch bei GPUs nicht anders sein wird. Die Kosten sind explodiert und sind bald nicht mehr tragbar, wenn man nicht auf Multidie Chips setzt.
Aber das haben wir doch eigentlich schon die Chips lassen sich wunderbar skalieren, das war früher nicht so und genau das macht doch Luft nach Oben.
Man packt aktuell immer mehr Einheiten in den Chip da man durch die Shrinks eben mehr Platz zur Verfügung hat.
Das zeigt doch nur das derzeitige fehlen eines Mitbewerbers auf, und es wäre schlicht und ergreifend fatal, eine Preisfindung auf dem Status Quo zu eröffnen

Was macht man denn ,wenn AMD wieder Gripp bekommt, die Sparpreise wieder umwälzen auf das jetzige Niveau, damit die Margen wieder stimmen?

Es würde doch kein Unternehmen freiwillig auf Gewinn verzichten, wenn so eine Konstellation eintritt wie derzeit .

Immerhin ist eine AG auch noch anderen verpflichtet, und kein Wohltätigkeitsverein
Genau so ist es und ehrlich, wenn es mein Laden wäre, ich würde es nicht anders machen!:eek::biggrin: Außerdem muss man auch Reserven aufbauen um den technologischen Vorsprung zu wahren, den in der Tat ist das Know How bei Techunternehmen das eigentliche "Kapital" Und da hat NV aus Unternehmer-Sicht alles richtig gemacht.

Um eins noch mal klar zustellen bevor bei einigen wieder der Schnapp-Instinkt durchbricht. Ich sage nicht, dass NV etwas falsch macht, ich sage nur, das es selbst zu Kepler Zeiten noch üblich war, dass man einen Vollausbau zum Preis eines Teilausbaus nach heutiger Sicht bekommt und ja das stört mich immer noch :P Denn das ist eben 28nm gegen 16nm und nein da sind die Kosten nicht explodiert;) und wer will schon gerne das Zweitbeste haben:wink:

Hübie
2017-06-03, 19:36:43
Allein dass du bei dem Umstieg dual pattern hast, Verilog-Arbeit um 40% teurer geworden ist und immer größere, sowie komplexere Chips aufwändige Simulationen erfordern sollte doch gestiegene Entwicklungskosten einleuchten lassen. Das kannst du doch nicht an den Zahlen der GuV sehen. Dort gibt es keine Stückzahlen, keine Unterteilungen nach Märkten oder Marktsegmenten (Stichwort Automotive oder Konsolen: guck mal wie viel dort abgesetzt wurde). Früher gab es nicht mal halb soviel Geschäftsfelder wie heute. Berücksichtigst du das in deiner Argumentation und Sichtweise? Warum versperrst du dich den oben getätigten Aussagen so? Wenn du gräbst musst du tiefer gehen.

grobi
2017-06-03, 20:16:31
Hallo!

Ich habe jetzt fast genau 3 Jahre eine Radeon 290 gehabt, über Ebay Kleinanzeigen habe ich mir heute Spontan eine Palit GeForce GTX 1080 JetStream für 420€ gekauft. Eigentlich wollte ich auf die neue Generation von AMD warten aber meine Geduld war am Ende und nun habe ich nach 5 jahren auch mal wieder eine Nvidia im Rechner. Ich denke den Kauf werde ich nicht bereuen.

gruß grobi

Angiesan
2017-06-04, 00:03:31
Allein dass du bei dem Umstieg dual pattern hast, Verilog-Arbeit um 40% teurer geworden ist und immer größere, sowie komplexere Chips aufwändige Simulationen erfordern sollte doch gestiegene Entwicklungskosten einleuchten lassen. Das kannst du doch nicht an den Zahlen der GuV sehen. Dort gibt es keine Stückzahlen, keine Unterteilungen nach Märkten oder Marktsegmenten (Stichwort Automotive oder Konsolen: guck mal wie viel dort abgesetzt wurde). Früher gab es nicht mal halb soviel Geschäftsfelder wie heute. Berücksichtigst du das in deiner Argumentation und Sichtweise? Warum versperrst du dich den oben getätigten Aussagen so? Wenn du gräbst musst du tiefer gehen.

Ich versperre mich überhaupt nicht, melde mich nur dann wenn irgendwelche Leute irgendwas nachlabern was irgendein Redakteur in irgend einem Nebenraum von einem Vertrauensmann angeblich gesagt bekommen hat und einfach nicht einschätzen kann wie sich dies auf die Straßenpreise auswirkt.
Dann die normale Übertreibung im I-Net dazukommt nur um aus welchem Grund auch immer etwas inopportun aussehen zu lassen. Dann noch was möglichst klever klingendes zurückschreiben und schon ist der Daumen oben.

Auf die Schnelle weil ich das Thema jetzt nicht weiter ausweiten möchte. Guck dir das an und dann kannst Du mich gerne per pn mit dem Thema weiter penetrieren:wink: Fakt ist der Markt hat durch die Schwäche von AMD eine klare Schieflage, da gibt es nix kleinzureden und ja was Du schreibst ist sicherlich alles richtig, löst aber offensichtlich nicht die Kosteneffekte aus die man gerne für die Teuerung der Grafikkarten von NV nach vorne schiebt. NV macht das was jedes Unternehmen in dieser Situation machen würde und füllt schön die R+D und Kriegskasse. Bezahlen tut dies der Verbraucher weil er bekommt einfach weniger für sein Geld wie in der Vergangenheit. Wie schon beschrieben ein normale Marktentwicklung unter den gegebenen Umständen.

NV fliegt gerade und steht fest auf einem dicken Grafikkarten-Bein, sollte AMD zurückkommen, könnte dies NV langfristig in Probleme bringen, denn NV entwickelt gerade erst die anderen Geschäftsfelder und dies mit sehr unterschiedlichem Erfolg. Umsatz und Margentreiber bleibt und ist die GPU Sparte. Da die Märkte und Anforderungen sich aktuell schnell und sehr dynamisch verschieben ist NV bestrebt die weiteren Geschäftsfelder deutlich zu stärken, da spielen sie aber auf einmal nicht gegen eine weitwundes Unternehmen, AMD die sich faktisch selbst besiegt haben, sondern gegen Global-Player mit deutlich mehr Resourcen und Cash und einem vernünftigen Management, was die Entwicklung und Gewinnung von Marktanteilen schwierig macht.
Sollte die Grafikkatensparte aus welchen Grund auch immer einbrechen würde das NV zum heutigen Zeitpunkt im wahrsten Sinn des Wortes auf dem falschen Bein erwischen, ich wünsche ihnen das nicht.

Also:
Um was ging es eigentlich? Darum das man für mehr Geld weniger Leistung bekommt, warum das so ist kann jetzt jeder für sich selbst recherchieren. Wenn du der Meinung bist, das dies die gestiegenen Produktionskosten sind herzlichen Glückwunsch. Ich denke das es die Wettbewerbssituation ist und wir aktuell unseren Lieblingsgrafikkartenhersteller:biggrin: gerade als Cashcow für die Finanzierung seiner weiteren Standbeine dienen :freak::biggrin: Aber darin kann man ja auch was Gutes sehen, zumindest bleibt der letzte ernst zunehmende GPU Hersteller uns erhalten. Hoffentlich erinnert er sich noch an uns, wenn die anderen Beine stärker geworden sind und Spiele GPU´s an Bedeutung für NV verlieren:wink:

Hübie
2017-06-04, 02:15:40
Ich stellte lediglich richtig, dass die 10-fachen R&D-Kosten nicht sehr weit weg liegen. Lass es im Bereich des Faktor 8 liegen. Natürlich rechtfertigt dies nicht die Preise am Markt - keineswegs. Wenn es dir darum geht kauf doch AMD, denn da ist ziemliche Stagnation bei Preis / Leistung. Du hast ja Recht mit dem was du sagst und kannst nun die steigenden Kosten noch akzeptieren. Die Marge bewegt sich überproportional zur Leistungssteigerung nach oben - no offense here.

Und verlinke doch künftig bitte die Quellen deiner Bilder, damit andere es nachvollziehen können. Ich übernehme das mal:
http://investor.nvidia.com/secfiling.cfm?filingid=1045810-14-30&cik=
https://www.fool.com/investing/2017/02/15/nvidia-corporations-staggering-growth-in-4-charts.aspx

NVIDIA legt sich faktisch gerade mit allen an. Xilinx, Mellanox, Intel / Altera, Lattice, ST Micro, ARM, AMD und weiß der Geier wen noch. Die haben jahrelang den automotive Markt unter sich aufgeteilt und dort kleinste Salamischeiben verteilt. In diesem Hai-Becken ist NV wirklich ein kleiner Fisch. Übernehmen kann die dennoch keiner so einfach. ;)

Angiesan
2017-06-04, 11:59:56
Ich stellte lediglich richtig, dass die 10-fachen R&D-Kosten nicht sehr weit weg liegen. Lass es im Bereich des Faktor 8 liegen. Natürlich rechtfertigt dies nicht die Preise am Markt - keineswegs. Wenn es dir darum geht kauf doch AMD, denn da ist ziemliche Stagnation bei Preis / Leistung. Du hast ja Recht mit dem was du sagst und kannst nun die steigenden Kosten noch akzeptieren. Die Marge bewegt sich überproportional zur Leistungssteigerung nach oben - no offense here.

Und verlinke doch künftig bitte die Quellen deiner Bilder, damit andere es nachvollziehen können. Ich übernehme das mal:
http://investor.nvidia.com/secfiling.cfm?filingid=1045810-14-30&cik=
https://www.fool.com/investing/2017/02/15/nvidia-corporations-staggering-growth-in-4-charts.aspx

NVIDIA legt sich faktisch gerade mit allen an. Xilinx, Mellanox, Intel / Altera, Lattice, ST Micro, ARM, AMD und weiß der Geier wen noch. Die haben jahrelang den automotive Markt unter sich aufgeteilt und dort kleinste Salamischeiben verteilt. In diesem Hai-Becken ist NV wirklich ein kleiner Fisch. Übernehmen kann die dennoch keiner so einfach. ;)

Wenn Du Dir die Charts angeguckt hättest, hättest Du festgestellt, dass wir hier noch nicht mal von Faktor 2 reden sondern von 10 % Steigerung im Vergleich zum erzielten Umsatz aus dem operativen Geschäft, ich habe am Dienstag auch Zugang zu historischen Charts, da wird es aber nicht anders aussehen. Von Faktor 10 oder 8 kann also überhaupt nicht die Rede sein. Das könnte auch daran liegen, dass die aktuellen Architekturen sich hervorragend skalieren lassen, was sicherlich die Shrinks aber auch Weiterentwicklungen vereinfacht und eben genau die R+D Kosten nicht explodieren lässt. Das NV aber weiter entwickelt und irgendwann ein komplett neues Design präsentieren wird, steht sicherlich außer Frage. Nur wie aufwendig genau dies ist, mag ich natürlich überhaupt nicht beurteilen. Volta ist ja auch nicht komplett neue, sondern sinnvoll ergänzt und somit für Spezialaufgaben deutlich flexibler gestaltet. Ich denke interessant wird es dann, wenn wir in einigen Jahren die 7nm oder 5 nm Strukturen im Markt haben und dann irgendwann das Ende der Fahnenstange erreicht ist. Dann muss was komplett Neues her denn dann sind irgendwann die Möglichkeiten erschöpft und man kann einen Chip ja nicht beliebig auf der Fläche ausdehnen.

Da es keinen Alternative von AMD zu der von mir gewählten Leistungsklasse gibt, was Du sehr gut weißt, tue ich das mal als Polemik ab.:P

Und zum 3. Punkt, NV hat noch ein weiteres Problem, dass in den kommenden Jahren deutlicher Auswirkungen haben könnte, sie haben keinen eigenen Produktion sondern sind auf Auftragsfertiger angewiesen. Solange die funktionieren ist alles gut.
Sollte aber einer dieser Fertiger in Schieflage kommen oder eine Fusion mit einem, wenn auch nur in Teilsegmenten, konkurierendem Unternehmen kommen, hätte NV sofort und unmittelbar einige ernst zunehmende Probleme, auch wenn die Fertigungsverträge sicherlich recht langfristig ausgelegt sind. NV hat einfach noch nicht die "kritische Masse" erreicht wie z.B. Apple wo die reine Stückzahl an in Auftrag gegebene Chips über Wohl oder Leid des Auftragsfertigers entscheidet. Dies wird durch die Knappheit der Produktionskapazitäten in diesem Bereich noch verschärft, die Fertiger haben aktuell ja eine Schlange von willigen Kunden vor ihren Tür stehen. Ein mittelgroßer Auftraggeber ist natürlich deutlich besser zu kompensieren und zu ersetzen wie ein Gigant:biggrin:

Ich hatte mit keiner Silbe erwähnt, das NV ein Übernahme Kandidat ist, obwohl die daraus resultierenden Synergien mit dem richtigen Partner sicherlich interessante Ergebnisse liefern könnten aber mit Sicherheit zu einer weiteren Konzentration im Markt führen würde. Also solange es denen gut geht, geht es uns als Spieler auch gut, auch wenn wir etwas mehr zahlen müssen:wink:

Hübie
2017-06-04, 21:54:41
Zeige mir die Stelle in den Charts die R&D seit G80 widerspiegeln. :| Muss an mir vorbei gegangen sein. Das war doch die ursprüngliche Aussage.

Edit: So da ich nun mal am PC bin hab ich mir die Daten mal angesehen: R&D ist um den Faktor 4 seit 2005 gestiegen (G80 kam 2006). Allerdings hab ich keine verlässlichen Daten seit Beginn der Entwicklung von G80 was so ~2003 gewesen sein muss. Da hatte AMD noch etwa das doppelte Budget (~300 Mio) ggü NVIDIA. Also sagen wir großzügig 200 Mio. dieses Jahr kommen wir auf knapp 8 Mrd. Macht also round about Faktor 8. Nun ist das hier aber mittlerweile so arg OT dass wir es verschieben sollten. ;)
Edit2: Ich korrigiere mich bzgl. AMD--> Damals war es ja noch ATi und die hatten 2003 etwa 200 Mio R&D (https://www.sec.gov/Archives/edgar/data/1065331/000119439604000136/ati6k_59413.htm). Brainfart meinerseits. Ich schätze NVIDIAs dennoch um die 200 Mio. Lass es 250 gewesen sein.

Our 2004 R&D expenses increased by 26.7% to $269.9 million; however, they declined as a percentage of revenues to 13.5% from 15.4% in 2003.

R&D expenses include engineering salaries, costs of development tools and software, component and board prototype costs, consulting fees, licensed technology fees and patent filing fees.

April 30, 2017 411.000.000
Jan. 31, 2017 394.000.000
805.000.000
2016 Oct. 31, 2016 373.000.000
July 31, 2016 350.000.000
April 30, 2016 346.000.000
Jan. 31, 2016 344.000.000
1.413.000.000
2015 Oct. 31, 2015 329.000.000
July 31, 2015 320.000.000
April 30, 2015 339.000.000
Jan. 31, 2015 349.000.000
1.337.000.000
2014 Oct. 31, 2014 340.000.000
July 31, 2014 337.000.000
April 30, 2014 334.000.000
Jan. 31, 2014 336.810.000
1.347.810.000
2013 Oct. 31, 2013 340.290.000
July 31, 2013 331.740.000
April 30, 2013 327.160.000
Jan. 31, 2013 298.010.000
1.297.200.000
2012 Oct. 31, 2012 284.180.000
July 31, 2012 281.190.000
April 30, 2012 283.900.000
Jan. 31, 2012 266.860.000
1.116.130.000
2011 Oct. 31, 2011 256.500.000
July 31, 2011 247.720.000
April 30, 2011 231.520.000
Jan. 31, 2011 215.560.000
951.300.000
2010 Oct. 31, 2010 204.530.000
July 31, 2010 210.640.000
April 30, 2010 218.100.000
Jan. 31, 2010 216.250.000
849.520.000
2009 Oct. 31, 2009 197.950.000
July 31, 2009 192.860.000
April 30, 2009 301.800.000
Jan. 31, 2009 211.780.000
904.390.000
2008 Oct. 31, 2008 212.360.000
July 31, 2008 212.910.000
April 30, 2008 218.830.000
Jan. 31, 2008 195.840.000
839.940.000
2007 Oct. 31, 2007 179.530.000
July 31, 2007 157.950.000
April 30, 2007 158.320.000
Jan. 31, 2007 162.280.000
658.080.000
2006 Oct. 31, 2006 140.730.000
July 31, 2006 127.260.000
April 30, 2006 122.400.000
Jan. 31, 2006 93.350.000
483.740.000
2005 Oct. 31, 2005 88.830.000
July 31, 2005 87.110.000
April 30, 2005 85.910.000
Jan. 31, 2005 97.170.000
359.020.000


Quelle (https://ycharts.com/companies/NVDA/r_and_d_expense)
Quelle2 (http://www.icinsights.com/news/bulletins/Top-Semiconductor-RD-Leaders-Ranked-For-2014/)

Angiesan
2017-06-05, 17:25:39
Hübie du bist so verpicht darauf recht behalten zu wollen, das Du jetzt anfangst alles durcheinander zu werfen.
1.) Wenn du anfängst und die Entwicklungskosten für G80 zurück rechnest, müsstest Du dies auch für die aktuelle Generation machen.
2.) Sollte man bei der Preisfindung auch die deutlich gestiegenen Stückzahlen berücksichtigen da sich die Entwicklungskosten eben auf diese verteilen.
Wie den vorher verlinkten Grafiken entnehmen kannst sind diese im Vergleich zum Umsatz deutlich gesunken.auch wenn das für deine primäre Aussage nicht von Bedeutung ist.
3.) Sollte man dann aus den R+D Kosten der letzten Jahren auch die R+D Kosten für die anderen Geschäftsfelder rausrechnen. Diese sind bestimmt nicht unerheblich da man in einen Neuen Markt, mit neuen Produkten sicherlich etwas mehr investieren muss und will.
4.) 8Mrd. sehe ich nicht, 800 Mio sind nicht 8 Mrd, das wären 8000 Mio aber das war sicherlich nur ein versehen.
Du wolltest wohl 1,6 Mrd schreiben, 800Mio für Q1 und Q2 und dann bei bleibendem Budget mal 2 was aber von NV anders gemeldet wurde

Selbst wenn ich all das außer acht lasse, komme ich maximal auf den Faktor 6 und ja das ist ein Unterschied zu 10 und auch zu 8 zumal wie schon beschrieben das immer noch viel zu viel sein wird. Faktor 3-4 ohne jetzt die R+D Kosten der einzelnen Sparten zu kenne dürfte den Kern treffen wohlgemerkt von G80 kommenden. Bei 780 ti reden wir über keine nennenswerte Steigerung.
Und wie Du in deinere eigens verlinkten Grafik gesehen hast, sind die R+D Kosten in den letzten Jahren nur im einstelligen Bereich gewachsen, wenn überhaupt. Mann kann gut sehen wann cuda angefangen hat, man kann gut sehen wie man in anderen Bereichen anfing sich zu bemühen.
Laut diesem kurzen Bericht hat alleine Tegra in 5 Jahren 2 Mrd. an R+D Kosten verursacht oder verschlungen, wir reden hier von Aussagen aus dem Jahr 2011. Fang mal an zu rechnen was da noch übrig bleibt für Maxwell :biggrin:
Leider ist es mir nicht gelungen genau Zahlen für die einzelnen Projekte zu bekommen, ich denke, dass ist auch nicht öffentlich zugänglich da man daraus natürlich so einiges ablesen könnte und dies ist sicherlich nicht erwünscht und fällt unter Firmengeheimnisse =)

Lass uns einfach jetzt aufhören, ich habe keine Lust mehr:freak:

Hübie
2017-06-05, 17:47:56
Dieses Jahr sind etwa 1,6 Mrd veranschlagt. 800 Mio haben wir schon. Die 8 Mrd sind natürlich ein Versehen. Die R&D entstehen sobald man ein Projekt beginnt und wie du weißt ist das fortlaufend aus dem aktuellen Budget abgegrast, was man ein Jahr zuvor hochgerechnet hat.

Ich bin nicht erpicht darauf Recht zu haben, sondern zeige lediglich dass es schon ganz gut hin kommt mit Faktor 8. Maxwell hat in jedem Geschäftsfeld ein und die selbe (skalierbare) Architektur. Was 2 Mrd über fünf Jahre verschlungen hat waren die Denver Kerne und im Anschluß Denver 2 (Lizenz- und Produktionskosten für ARM tauchen ja nicht im R&D auf). Die muss man tatsächlich ausklammern plus die Projekte welche zu einer Entscheidung führen, Projekte mit Unis, Studenten und Unternehmen. Wenn du das alles heraus nimmst stimmt wiederum dein Faktor eher, ja. Andererseits entstehen daraus ja die µArchs bzw. die Ansprüche (zuletzt Tensor Cores).

Darkseth
2017-06-09, 22:55:44
Hey leute ^^"
Habe nun auch eine GTX 1080: https://geizhals.de/msi-geforce-gtx-1080-gaming-x-8g-v336-001r-a1449271.html
Die normale, nicht die "+" mit 5500 mhz speicher (Wobei meine wohl anscheinend die 5500 Mhz OC stabil hält).

Hab ein paar Fragen an die, die damit schon intensiver rumgespielt haben, insbesondere Raff und Format_C:

- Wie ist die WLP? Taugt die was, oder kriegt man locker 5+°C raus, wenn man die wechselt?

Würde die Frage gerne noch mal vor holen^^"
@ Format_C, du hattest doch den Kühler ab in dem Roundup. Ist dir da was aufgefallen? Lohnt es sich, die zu tauschen?
Hab das gefühl, bei meiner wäre etwas zu wenig (oder eine zu schlechte).

Bei der Armor scheint es ja 5°~ zu bringen, aber bei der besseren Gaming X?


... Edit: Nagut, der Basteltrieb + Neugier juckt...
Ich hol mir morgen mal ne spritze Kryonaut (Hab nur Arctic Cooling MX-2 hier), und werde morgen evtl gleich mal umbauen. ^^
Bei MSI erlischt ja die Garantie nicht, wenn man den Kühler abschraubt. Bin schon gespannt (und gleich mal an der CPU tauschen. Aktuell: i7 6700k + MX-2 + Macho HR02)

Ich berichte mal über die Ergebnisse, falls es wen interessiert.


Edit: interessant, da war ja doch ein Warranty void aufkleber auf einer schraube (aber die aussagen von MSI gehen alle dahin, dass man die Garantie nicht verliert, solange man nix beschädigt).
Kühler abmontieren war aber sehr easy. 4 schrauben, fertig.

So, aber die Kryonaut ist drauf.
Hab die Raumtemperatur nicht exakt gemessen, aber etwa zur gleichen Zeit (gestern + heute) verglichen.
@ stock pendelt sich meine 1080 gaming X bei 1.025 Volt bis 1.031 Volt ein. Je nach stufe kurz anfangs 1.043 (die Afterburner Kurve spinnt wohl manchmal... egal) Bei zwischen 1949 Mhz bis 1963 Mhz, evtl auch mal 1978~ Mhz oder so. Je nach Spannungsstufe.

In Witcher 3 erreichte sie gestern noch 77-78°C, Lüfter gingen auf knapp 1700 rpm hoch.
Heute mit neuer WLP sind es nur noch 74°C max, Lüfter bleiben <1500 rpm.
War selbst heute mittag (und es war ziemlich heiß hier) schon bei 75°C~ also auf jeden Fall ne verbseserung.

Im Idle gefühlt kein unterschied. Ohne angepasste Lüfterkurve im AB ist ja der Zero Fan mode an, die karte wird im Idle recht fix 60°C warm, und ab 61-62°C gehen die Lüfter kurz an, kühlen die karte auf 55~ und gehen wieder aus. Die drehen aber nur auf 650-700 rpm hoch, was immer noch völlig unhörbar ist. Ich hör es absolut nicht raus.
Hab daher keine Ahnung wie andere Leute teilweise <36°C erreichen.

Dazu muss ich aber sagen, ich habe einen 1440p 165 Hz Monitor mit G-Sync, und daneben einen 1080p / 60 Hz Monitor.
Beide sind an, laufen in jeweils maximaler Bildwiederholrate, auf dem Zweitens creen evtl mal nen stream und son kram.

GPU Takt ist meist bei 683 Mhz, Speicher bei 405 laut AB. Spannung auf 637.
Takt geht auf minimum 215 Mhz runter, wenn keine streams / Youtube oder ähnliches laufen und ich z.B. nur auf dem desktop bin.
Mit einem Monitor, bzw <120 Hz könnte das sicher anders aussehen. vllt teste ich das ja noch mal.
An sich bin ich zufrieden. Hätte mir zwar doch mehr erhofft, aber wayne. @ stock passt die Lautstärke nun ganz gut, aber stock wird die karte NIE laufen.
Entweder 0.8 Volt mit 1821~ Mhz rum und 5500 mhz Speicher, oder eben was dazwischen. 0.875 Volt, 0.9 Volt, 0.943 Volt, sowas. Und dann jeweils 1900, 1950, 2000 Mhz, was auch immer sich dann als Stabil herausstellt.
Dank g-Sync sind paar Mhz mehr oder weniger sowieso nicht spürbar, die 100 Watt ersparnis bei 0.8 Volt und 10°C weniger Temperaturen nimmt man aber gerne mit ^^"

Wird aber auf lange Sicht wohl auf 0.9 Volt~ hinauslaufen etwa um den Dreh rum. Besonders im Sommer.

Mein Macho HR02 hat auch neue WLP bekommen, hat wohl auch paar °C gebracht. Schwer zu sagen, die Temperaturen bei der CPU schwanken viel zu stark, wenn man nicht gerade bei gleicher Raumtemperatur 1-2 stunden PRime laufen lassen will für 100% max temps. So nach paar minuten ist es aber das ein oder andere Grad kühler.

Erbsenkönig
2017-06-19, 19:36:41
Ich hole den Thread mal ein wenig aus der Versenkung.;)

Bin gerade auf der Suche nach 1080er als Ersatz für meine R9 390, die ich im Rahmen des Miningrausches verkaufen möchte. Meine Frage nun (da ich noch am Anfang meiner Recherche bin): Gibt es Modelle von denen man die Finger lassen sollte? Und von der anderen Seite: Gibt es Modelle, die man (allen) anderen vorziehen sollte?

Ich hab im Moment zwei Verkaufsangebote vorliegen: Jeweils 460 € für eine Palit Gamerock Premium bzw. eine FTW. Kann man da bedenkenlos zuschlagen?

dildo4u
2017-06-19, 19:39:51
Die Palit hat den potenteren Kühler,die FTW ist kompakter dadurch aber auch lauter.

24p
2017-06-19, 19:51:08
Die Palit ist eine gute.

grobi
2017-06-19, 20:29:53
Die Jetstream oder Superjetstream nehmen. Die ist leiser als die Gamerock.

dildo4u
2017-06-19, 20:35:26
Der Kühler ist der Selbe sie ist nur höher OC,die 1080 Ti hat den Kühler mit den 4 Lüftern der ist Schrott.PCGH hat die 1080 Version bei 1.5 Sone mit die leiste 1080.

http://abload.de/img/img_20170619_20382637mdsmd.jpg

grobi
2017-06-19, 20:36:30
Die Gamerock hat doch den gleichen Kühler auf der Ti und ohne.

Stimmt du hast recht.

ja nimm die Gamerock :wink:

Erbsenkönig
2017-06-22, 21:37:46
Ich denke ich werde mir die Gainward Phoenix besorgen. Die sollte gut kühlen und ist zudem auch noch mit am billigsten neu.

Mortalvision
2017-06-23, 10:50:00
https://geizhals.de/gigabyte-geforce-gtx-1080-windforce-oc-8g-gv-n1080wf3oc-8gd-a1475692.html?hloc=at&hloc=de

Das ist meine, und ich kann nicht über Spulenfiepen oder Ohrenschmerzen klagen ;)

Erbsenkönig
2017-06-24, 20:18:29
Wenn mich da nicht einer über den Tisch ziehen will (sieht nicht so aus, hab auch eine Rechnungskopie von Amazon erhalten...), dann werde ich wohl demnächst für unter 400 € eine 3 Monate alte Phoenix Golden Sample erwerben und auch Teil des grünen Lagers werden :)

Ex3cut3r
2017-06-24, 20:22:32
https://abload.de/img/dark-sith-lord-yesyesy7se8.jpg

Sven77
2017-06-24, 20:35:44
Ich bin mit dem kühler der Gamerock nicht so zufrieden, auf der 1070 leise auf der 1080 ist er ein wenig überfordert.

Erbsenkönig
2017-06-24, 20:35:51
/Doppelt/

Erbsenkönig
2017-06-24, 20:39:50
https://abload.de/img/dark-sith-lord-yesyesy7se8.jpg

Hatte keine Nvidia mehr seit der 8800 GT. Das waren noch Zeiten - die hab ich noch gebacken, damit sie ein paar Wochen noch hält :D

Jetzt muss ich noch einen Abnehmer für meine 390er finden. Die Kleinanzeigen werden gerade überschwemmt damit; keine Chance da einen Abnehmer zu finden. Muss wohl doch auf ebay.

Ich bin mit dem kühler der Gamerock nicht so zufrieden, auf der 1070 leise auf der 1080 ist er ein wenig überfordert.

In Tests war dieser doch aber immer hervorragend, gerade auf der 1080er.:confused:

-----------------------

Eine etwas naive Frage habe ich noch: Hinsichtlich der Gainward Phoenix/Palit Gamerock wird ja immer davon gesprochen, wie groß diese sind. Hab seitlich und nach "unten" hin ausreichend Platz, nur nach oben hin ist mein CPU Kühler auch selbst etwas größer. Die Karte ist aber nur in eine Richtung "ausladend", oder? :redface:

Mortalvision
2017-06-24, 20:41:36
Du wirst deine 390 nicht los? Mach im Verkaufsforum einen Thread auf, und du wirst sie noch heute Nacht für über 200EUR los!

Erbsenkönig
2017-06-24, 20:45:14
Du wirst deine 390 nicht los? Mach im Verkaufsforum einen Thread auf, und du wirst sie noch heute Nacht für über 200EUR los!

Ich möchte ja einen 3er vorne dran haben. Deswegen dauert das ein wenig :D

Ich hatte schon einen, der mir 335 geben wollte, aber der ist dann abgesprungen, da nur Paypal und ganz ganz schneller Versand.

EDIT: So, hab sie mal reingestellt. Vielleicht wird man sich ja einig :)

BlacKi
2017-06-24, 21:57:10
Ich möchte ja einen 3er vorne dran haben. Deswegen dauert das ein wenig :D

Ich hatte schon einen, der mir 335 geben wollte, aber der ist dann abgesprungen, da nur Paypal und ganz ganz schneller Versand.

EDIT: So, hab sie mal reingestellt. Vielleicht wird man sich ja einig :)
the greed, the fking greed^^

Erbsenkönig
2017-06-24, 21:59:53
the greed, the fking greed^^

https://brobible.files.wordpress.com/2015/09/diddy2.gif?w=650

Das geht nicht ohne!:biggrin:

Sven77
2017-06-24, 22:20:05
In Tests war dieser doch aber immer hervorragend, gerade auf der 1080er.:confused:


Wie gesagt, ich bin nicht begeistert..

dildo4u
2017-06-24, 22:22:41
In Tests war dieser doch aber immer hervorragend, gerade auf der 1080er.

Es kommt natürlich auch auf das Gehäuse und dessen Belüftung drauf an,die Test's werden meistens nicht im Gehäuse gemacht.

Erbsenkönig
2017-06-24, 22:29:53
Wie gesagt, ich bin nicht begeistert..

Müssen die Lüfter zu stark aufdrehen? Vielleicht sitzt ja der Kühler nicht richtig.:confused:

Es kommt natürlich auch auf das Gehäuse und dessen Belüftung drauf an,die Test's werden meistens nicht im Gehäuse gemacht.

Das stimmt natürlich, aber wenn eine Grafikkarte durchgehend als die beste in Sachen Kühlung und Lautstärke abschneidet, dann dürfte die sich eigentlich auch in einem schlecht belüfteten Gehäuse gut schlagen.:confused:

Sven77
2017-06-27, 10:07:25
Naja, selbst im offen Aufbau fand ich sie zu heiss und zu laut im Vergleich zur 1070. Bei den derzeitigen Temperaturen sowieso..

Ich habe es jetzt mit anpassen der Voltage-Kurve und 75% Power-Target in den Griff bekommen, boostet durchgehend über 2Ghz und max 72Grad.
Vorher im Stock max. 1987Hz und 80-82Grad und dabei gingen die Lüfter auf 60%. Das war mir persönlich zu laut.

Vielleicht hab ich auch einfach ne schlechte erwischt.

dildo4u
2017-06-27, 11:30:14
Hier ist noch mal der Test von der PCGH,Raff hatte dort 70° bei 1000 RPM.

https://youtu.be/n0lj0nmKHYw

Sven77
2017-06-27, 13:08:45
Hier ist noch mal der Test von der PCGH,Raff hatte dort 70° bei 1000 RPM.

https://youtu.be/n0lj0nmKHYw

Diese Tests interessieren mich nicht mehr.. die Streuung bei den Herstellern ist zu groß und die Redaktionen werden sicherlich nicht die schwarzen Schafe abbekommen. Ich kann mit Sicherheit sagen das sich meine nicht so verhält wie in dem Video (ist aber auch keine Premium)

Darkseth
2017-06-29, 09:36:59
Und hier ist das Video der MSI Gaming X: https://www.youtube.com/watch?v=zQI9zrKnH5Y
Hier knapp 70°C bei 1230 rpm, 1.05 Volt.
Bei mir in Witcher 3 (und das sogar "nur" in 1440p) @ Stock gerne 78°C (wenn auch kein klimatisierter Raum), je nach Raum temperatur sogar das ein oder andere grad mehr.
Und das bei dann 1600-1700 rpm.
Und 1.031 Volt, bzw teilweise 1.025 Volt.

69°C hab ich btw auch erreicht.... mit 0.8 Volt und 1810 Mhz. ^^

Gehäuse ist ein Freactal Design Define R5 mit stock belüftung gewesen.

WLP getauscht gegen ne Kryonaut, hat nur 2-3°C gebraucht. ^^"

Dabei war das Presse-Bios des Tests hier ja auf 270W Powertarget eingestellt, @ Stock.

Open Bench + Klimatisierter Raum (vermute ich mal) können wohl einiges bringen.

@ Sven: Welche Temperatur / Lüfterdrehzahl / Spannung hattest du denn @ stock unter Last nach aufwärmphase?
Und wie viel nach deiner jetzigen Kurve? Wie genau ist die eingestellt?
Sind die 75% PT ausgehend von 200w, oder was ist genau das Powerlimit bei deiner?

-/\-CruNcher-/\-
2017-06-29, 20:56:47
Bitte mal mit allen euren OC und verschiedenen System stages Ergebnisen flooden danke

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581686


Aber vorsicht OC könnte crashen

Für jegliche Hardwareschäden OC or non OC übernehme ich keine Verantwortung, last ist durch 720p allerdings etwas niedrieger sollte noch nicht so problematisch werden.

Teilnahme auf eigene Gefahr !

Erbsenkönig
2017-08-28, 20:03:59
Heute eine Zotac 1080 Extreme geordert. Dürfte am Mittwoch oder Donnerstag kommen - ich berichte dann ;)

EDIT:

Geht gleich wieder zurück

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11477083#post11477083

dildo4u
2018-09-06, 13:33:14
NVIDIA GPU Generational Performance Part 1(780,980,1080)

https://www.hardocp.com/article/2018/07/25/nvidia_gpu_generational_performance_part_1/1

vinacis_vivids
2018-09-06, 15:18:55
Passt auch hierhin:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11792748&postcount=274

dildo4u
2018-09-08, 00:07:52
Nvidia-Grafikkarten im Test: GeForce GTX 480, 580, 680, 780, 980 und 1080 im Vergleich

https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/

Pascal ist sowas von Beeindruckend, kein Wunder daß es schwer ist den Sprung mit Turing zu wiederholen.

gnomi
2018-09-08, 07:27:05
Würde ich nicht unbedingt sagen.
580 & 780 waren ja nur Aufgüsse.
Die kann man also quasi rausnehmen. :wink:

Ex3cut3r
2022-08-27, 18:36:06
Erschreckennd IHMO wie schlecht Pascal bzw. die 1080 gealtert sind. Die Treiberpflege für die 10er Gen lässt wohl zu wünschen übrig. Man muss aber auch im Hinterkopf haben, dass die meisten Gamer immer noch eine 10er GPU im PC stecken haben. Umso mehr erschreckender. Ein upgrade 2018 auf Turing wäre IMHO damals gar nicht so verkehrt gewesen, auch wenn die meisten damals schon über die Preise "geheult" haben. Turing war um einiges moderner/zukunfsicherer als Pascal, das habe ich damals schon gepredigt. DLSS fehlt Pascal heut auch immens.

rHlpSH5mMuo

djeL6qUTDTo

The_Invisible
2022-08-27, 18:57:02
Ist halt auch schon 6 Jahre alt und man kann noch immer zocken, früher einmal hätte man so eine alte Graka wohl nur mehr als Briefbeschwerer nutzen können.
Aber auch ein Grund warum ich jede Gen mitgehen auch wenns nur ein besseres Sidegrade ist, besten Support/Features gibts halt nur immer mit der neuesten Gen.

Raff
2022-08-27, 19:06:00
GP102 erschien (als Titan X) bereits 2016 und dafür ist das Ding immer noch verdammt gut zum Spielen geeignet. Dass Turing mit all den schönen neuen Dingen, die sogar in DirectX spezifiziert sind, gut altern würde, konnte man auch absehen. Dass eine RTX 2080 Ti bei anspruchsvollem Raytracing vier Jahre später der dann aktuellen AMD-Spitze oft das Wasser reichen kann, wäre damals aber eine kühne Behauptung gewesen. :D Das ist im Grunde auch nur eine von zwei Karten der Turing-Generation, die auch 2023+ noch gut laufen werden, weil genug Speicher drauf ist.

MfG
Raff

ChaosTM
2022-08-27, 19:16:21
Meine 1080ti leistet aus Ermangelung einer neuen Karte immer noch gute Dienste. Für den FS 2020 @ 1080p reichts grade noch.
Wenn ich was neueres spiele, dann meist auf dem Laptop und er kann dank 3080er deutlich mehr.

DrFreaK666
2022-08-27, 19:48:33
Wieso spielst nicht nur auf dem Notebook? Wegen der Lautstärke?

ChaosTM
2022-08-27, 20:01:14
Kommt drauf an wo ich grad bin. Meistens bin ich unterwegs.
Dank ANC Kopfhörer hör ich genau nix von dem Computer. ;)

Und der XMG ist vergleichsweise leise. Im normalen Desktop Modus hört man genau nichts.

Bei Spielen wirds schon relativ laut ohne ANC.

Lehdro
2022-08-27, 20:09:43
Das ist im Grunde auch nur eine von zwei Karten der Turing-Generation, die auch 2023+ noch gut laufen werden, weil genug Speicher drauf ist.

RTX 2060 12 GiB und Titan RTX > 2080 Ti? ;)

Raff
2022-08-27, 20:23:41
Oh, stimmt - drei Karten mit der RTX 2060/12G. Ich habe jetzt nur an das Launch-Jahr 2018 gedacht. Allerdings haben nur die TU102-SKUs genug von allem, Speicher ist ja nicht alles. ;)

MfG
Raff

Ex3cut3r
2022-08-27, 21:28:07
Manche haben sich jetzt erst eine 300€ 6600 Non XT geholt mit 8GB, dazu kommt auch noch, das die Nvidias ab Turing das bessere Speichermangement aufweisen. Damit sagt du diesen Leuten quasi -> Fehlkauf. X-D

Raff
2022-08-27, 22:18:18
So drastisch würde ich das nicht formulieren und es kommt auf den Einsatzzweck an. Die Tatsache, dass die ersten 8-GiByte-Grafikkarten vor acht Jahren (!) auf den Markt kamen, sollte einem aber zu denken geben. Das ging nur so lange gut, weil die Zyklen auch bei den Konsolen immer länger werden (https://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Next-Gen-Spiele-vs-Current-Gen-Grafikkarten-1395343/) - 2023 kommt aber die Next-Gen. Diesmal wirklich. Oder so. :ugly:

MfG
Raff

dildo4u
2022-08-28, 06:25:45
Bin mit meiner 1070 zufrieden alles was danach kam ist Müll, was Cool gewesen wäre eine 3060 Ti mit 12GB.
Muss halt drauf hoffen das 2023 was kommt was keine 300Watt Plus zieht und ordentlich performt.Nvidia gibt ja keinen Fick mehr wie man bei der 3070 Ti gesehen hat + 20% Leistung doppelter Verbrauch.

https://youtu.be/nWnpfBxKgfU?t=649

Raff
2022-08-28, 10:46:48
Wenn du eine RTX 3060 ordentlich mit der Keule bearbeitest und auf gut 2,1 GHz taktest (mit Glück 2,2 GHz), hast du ja schon fast eine Ti mit 12 GiB – idR ohne dass der Verbrauch eine 2 vorne hat.

MfG
Raff

The_Invisible
2022-08-28, 11:23:04
So drastisch würde ich das nicht formulieren und es kommt auf den Einsatzzweck an. Die Tatsache, dass die ersten 8-GiByte-Grafikkarten vor acht Jahren (!) auf den Markt kamen, sollte einem aber zu denken geben. Das ging nur so lange gut, weil die Zyklen auch bei den Konsolen immer länger werden (https://www.pcgameshardware.de/Benchmarks-Thema-58180/Specials/Next-Gen-Spiele-vs-Current-Gen-Grafikkarten-1395343/) - 2023 kommt aber die Next-Gen. Diesmal wirklich. Oder so. :ugly:

MfG
Raff

Naja auch die Konsolen bremsen speicherseitig, gab es bis zur PS4 immer 16x ! so viel Speicher zum Vorgänger waren es diesmal nur doppelt so viel, die Xbox hat gar nur einen 10GB großen schnellen Speicherpool.

8GB wird noch lange im Mainstream erhalten bleiben, 12GB wird wohl irgendwann der Nachfolger aber das wird noch dauern. Seht mal auf Reddit und Co mit was dort die Leute so herumgurken, finds immer lustig wenn dieses "Nerdforum" als Standard genommen wird und dann so Sätze liest wie "mit einer 10GB 3080 ist alles unspielbar", muss da selber oft lachen :D

gnomi
2022-09-02, 18:39:42
War absehbar, dass Pascal verglichen mit Turing schlechter altert.
Dennoch sehe ich kein großes Problem drin.
Selbst Spiele weit nach Release laufen in 1440P zufriedenstellend auf einer 1080.
Und Besitzer einer 1080TI werden sich jetzt auch nicht so ärgern, dass eine 2080 bei modernen Spielen besser ist.
8GB Ram waren zu Zeiten der 1080 viel und haben muss man feststellen gelangt, weil Konsolen nicht mehr diese Sprünge bieten und bei der Software/Spielen nach unten skalieren.
Man kann so viel noch passabel auf PS4 spielen. Lediglich die Ur Xbox One war etwas knapp mit der GPU Power- aber auch das wurde festgestellt/kritisiert und mit der One X und paar netten Updates bei der Software korrigiert.

3060 ist tatsächlich die aktuell passendste GPU, um günstig mit der aktuellen Konsolen Generation mitzuschwimmen.
Mein Update von der 2080 auf die 3080TI hätte ich mir bequem sparen können. Habe mich da anfixen lassen in der Zeit. Na ja. Spiele halt gerne auf der aktuellen Generation.:redface: