Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
TheAntitheist
2021-02-23, 16:51:27
Ändert nichts an meiner Aussage, dass Ampere schlecht skaliert.
Nochmal für dich: Ampere schluckt viel und produziert viel heiße Luft. Das ist einfach schlecht. Was ist daran so kompliziert?
ändert eine Menge, du kannst es wohl nicht verstehen. Lassen wir es ;D
-/\-CruNcher-/\-
2021-02-24, 01:27:21
Ändert nichts an meiner Aussage, dass Ampere schlecht skaliert.
Nochmal für dich: Ampere schluckt viel und produziert viel heiße Luft. Das ist einfach schlecht. Was ist daran so kompliziert?
Wo schluckt es den viel wenn du es von Samsungs Node aus vergleichst, wenn Ampere auf TSMC 7nm für Gaming erschienen wäre würde es ganz anders aussehen dann hätte Nvidia die ganze Skalierung noch breiter aufgestellt und Navi 21 würde nur noch momentan wieder Rücklichter sehen.
So hat Jensen unheimlich gespart und Ampere steht gegenüber den Kosten extreme gut gegen Navi 21 da und kompensiert den rest mal so im Software stack und durch Nvidias AI R&D.
Es war aber garnicht wirklich der Zwang da alles breiter aufzustellen, weil die Nvidia Engineers schon lange wussten wo AMD hin will und dann passt man sich in etwa an und wenn man noch die Möglichkeit hat durch seinen existierenden Vorsprung jetzt immernoch einzusparen dann wäre Jensen absolut dumm gewesen das nicht zu tun, wie gesagt der Infinity Cache scheint so ziemlich die einzige Überraschung gewesen zu sein in Nvidias AMD Big Navi outcome prediction.
Wenn du mal den Verlust über die Jahre vergleichst auf AMD seiten dann ist der jetzige von Nvidia pille palle
AMD hat Scalar aufgeholt "beachtlich" aber sie haben Nvidia "noch" nicht geschlagen seit ihrem VLIW turn over und ihrer begonnenen Maxwell Aufholjagd.
Nvidia kämpft eher härter gegen die ganzen AMD Optimierungen die immer problematischer werden und mehr Zeit in Anspruch nehmen zu kompensieren und durch die Konsolendominanz in der jetzt 2nd Generation ihre eigenen Optimierungen Exclusiv zu pushen weiter in den Kosten gestiegen sind.
Man ist wieder in dem Modus NDA hürden runter und so schnell wie möglich in Masse raus damit.
Wohl auch ein Versuch den Verlust zu RDNA3 so schnell wie möglich zu minimieren.
Das alle Indies jetzt DLSS 2.0 implementieren können das war extreme wichtig.
dildo4u
2021-02-24, 04:45:36
Ändert nichts an meiner Aussage, dass Ampere schlecht skaliert.
Nochmal für dich: Ampere schluckt viel und produziert viel heiße Luft. Das ist einfach schlecht. Was ist daran so kompliziert?
Kommt doch drauf an was man als wichtig erachtet RDNA2 spart massiv an RT Performance damit der Chip nicht auf + 700mm² anwächst , dort ist es ein Total Ausfall.
6800XT = 3070
https://www.computerbase.de/2021-02/amd-radeon-nvidia-geforce-benchmark-test-2021/4/#diagramm-performancerating-fuer-raytracing-2560-1440
Ampere hat dafür kein Monster Cache auf dem Chip um Bandbreiten Limits zu umgehen was dort wiederum Die Space spart.
w0mbat
2021-02-24, 09:52:48
Also ist für dich alles unterhalb einer 3080 ein "Total Ausfall"?
Die 6800 XT liegt auf dem Niveau einer 3070/2080Ti und die 6900 XT ist schneller. Selbst Nvidia hat nur zwei schnellere Karten, nämlich 3080 und 3090. Und bei der 3080 sind die 10GB VRAM für 4K+RT sehr knapp bemessen.
RT ist wirklich nett, erlebe es gerade selbst in Metro Exodus (was meine RX 6800 RT@high problemlos schafft mit immer >60FPS und meist auch deutlich höher). Macht das Bild eindeutig realistischer, das Gehirn lässt sich einfacher austricksen, weil die Beleuchtung einfach passt.
Für mich klar die Zukunft, aber eben in Zukunft. Mit PS5/XBS werden wir langsam mehr RT Spiele sehen, aber ich denke es braucht noch 2-3 Jahre, bis es wirklich am Markt ankommen wird. Der Ampere-Nachfolger und RDNA3 werden hier liefern müssen.
-/\-CruNcher-/\-
2021-02-24, 10:49:04
Also ist für dich alles unterhalb einer 3080 ein "Total Ausfall"?
Die 6800 XT liegt auf dem Niveau einer 3070/2080Ti und die 6900 XT ist schneller. Selbst Nvidia hat nur zwei schnellere Karten, nämlich 3080 und 3090. Und bei der 3080 sind die 10GB VRAM für 4K+RT sehr knapp bemessen.
RT ist wirklich nett, erlebe es gerade selbst in Metro Exodus (was meine RX 6800 RT@high problemlos schafft mit immer >60FPS und meist auch deutlich höher). Macht das Bild eindeutig realistischer, das Gehirn lässt sich einfacher austricksen, weil die Beleuchtung einfach passt.
Für mich klar die Zukunft, aber eben in Zukunft. Mit PS5/XBS werden wir langsam mehr RT Spiele sehen, aber ich denke es braucht noch 2-3 Jahre, bis es wirklich am Markt ankommen wird. Der Ampere-Nachfolger und RDNA3 werden hier liefern müssen.
Es sieht eher anders rum aus alles über 3070 (GA104) im Samsung Node ist nicht effizient genug nur A100 ist es.
Nvidia hat nur damit gerechnet das AMD (104) effizient genug erreichen wird und schlussendlich den Gamer verlust auch in Kauf genommen.
Teils haben sie recht behalten teils nicht.
dildo4u
2021-02-24, 11:35:06
3DMark Leak der Timespy Werte der 2060 stimmt nicht liegt über 2070.
https://videocardz.com/newz/nvidia-geforce-rtx-3060-3dmark-and-superposition-performance-leaked
Dampf
2021-02-24, 11:36:12
Also ist für dich alles unterhalb einer 3080 ein "Total Ausfall"?
Die 6800 XT liegt auf dem Niveau einer 3070/2080Ti und die 6900 XT ist schneller. Selbst Nvidia hat nur zwei schnellere Karten, nämlich 3080 und 3090. Und bei der 3080 sind die 10GB VRAM für 4K+RT sehr knapp bemessen.
RT ist wirklich nett, erlebe es gerade selbst in Metro Exodus (was meine RX 6800 RT@high problemlos schafft mit immer >60FPS und meist auch deutlich höher). Macht das Bild eindeutig realistischer, das Gehirn lässt sich einfacher austricksen, weil die Beleuchtung einfach passt.
Für mich klar die Zukunft, aber eben in Zukunft. Mit PS5/XBS werden wir langsam mehr RT Spiele sehen, aber ich denke es braucht noch 2-3 Jahre, bis es wirklich am Markt ankommen wird. Der Ampere-Nachfolger und RDNA3 werden hier liefern müssen.
*schnüff*
Wie schön dass du es nun auch anerkennst, Womby!
Fehlt nur noch DLSS :tongue:
Thunder99
2021-02-24, 11:58:42
Also ist für dich alles unterhalb einer 3080 ein "Total Ausfall"?
Die 6800 XT liegt auf dem Niveau einer 3070/2080Ti und die 6900 XT ist schneller. Selbst Nvidia hat nur zwei schnellere Karten, nämlich 3080 und 3090. Und bei der 3080 sind die 10GB VRAM für 4K+RT sehr knapp bemessen.
RT ist wirklich nett, erlebe es gerade selbst in Metro Exodus (was meine RX 6800 RT@high problemlos schafft mit immer >60FPS und meist auch deutlich höher). Macht das Bild eindeutig realistischer, das Gehirn lässt sich einfacher austricksen, weil die Beleuchtung einfach passt.
Für mich klar die Zukunft, aber eben in Zukunft. Mit PS5/XBS werden wir langsam mehr RT Spiele sehen, aber ich denke es braucht noch 2-3 Jahre, bis es wirklich am Markt ankommen wird. Der Ampere-Nachfolger und RDNA3 werden hier liefern müssen.
Eine 6800XT ist Mal schneller Mal langsamer als die 3080 (außerhalb RT).
Eine 3080Ti kann die 6800XT besser schlagen, so ist meine Erwartungshaltung.
w0mbat
2021-02-24, 12:01:11
Ich hab nie gesagt, dass RT nicht gut sein kann. Nur, dass es sehr wenige RT-Spiele gibt und noch weniger das auch noch gut umsetzten.
Reflexionen in BF5 sind völlig egal, das GI-RT in BO: Cold War ist nicht wirklich gut und bringt nichts in einem Spiel, in dem man möglichst viel FPS haben will.
Aber in Metro Exodus ist es gut umgesetzt und kostet nicht allzu viel Leistung. Dabei muss man bedenken, dass ich ne RX 6800 hab, aber "nur" in 1080p UW spiele.
Gerade für ein eher langsameres single-player FPS Spiel ist RT bei Licht und Schatten doch perfekt. Das witzige ist, die artistische Atmosphäre ist ohne RT manchmal sogar besser, aber der Realismus den RT bringt macht es mMn wett. Ich hätte gerne RT bei Hunt Showdown.
Ich denke auch, Ampere und RDNA2 sind beide noch zu schwach für die RT-Revolution. Wir brauchen doppelte 3090 Leistung im mainstream (RTX 4070, RX 7800, etc.) und dann hoffen wir mal, dass die neuen Konsolen etwas bei der Verbreitung helfen.
Thunder99
2021-02-24, 12:18:33
This! :)
Der Anfang ist gemacht und es wird hoffentlich stetig weiterentwickelt.
Leonidas
2021-02-24, 15:58:46
3DMark Leak der Timespy Werte der 2060 stimmt nicht liegt über 2070.
https://videocardz.com/newz/nvidia-geforce-rtx-3060-3dmark-and-superposition-performance-leaked
Auch abseits davon könnte hier einiges falsch sein. Meine spekulative Auslegung: Wir sehen hier die Performance der GeForce RTX 3060 6GB mit 24SM - nicht die Performance der GeForce RXT 3060 12GB mit 28SM:
https://www.3dcenter.org/news/benchmark-werte-zur-geforce-rtx-3060-unter-3dmark13-und-superposition-aufgetaucht
Ravenhearth
2021-02-25, 04:16:03
Aber die RTX 3060 6GB launcht doch morgen nicht?
horn 12
2021-02-25, 06:26:41
Heute nachmittags!
Leonidas
2021-02-25, 10:56:28
Nein, die 6GB-Version nicht. Aber die Hersteller könnten damit schon spielen. Wir werden sehen, was herauskommt.
vinacis_vivids
2021-02-25, 11:46:00
Vietnam’s first NVIDIA AI supercomputer launched
https://en.qdnd.vn/social-affairs/news/vietnam-s-first-nvidia-ai-supercomputer-launched-516965
Platos
2021-02-28, 14:30:54
Das Video ist schon ein paar Tage alt, aber ausnahmsweise finde ich mal, dass Linus wirklich mal was wichtiges angesprochen hat.
XfIibTBaoMM
hasebaer
2021-02-28, 16:00:45
Linus hat ja recht, aber ich denk mir die ganze Zeit, so ein Video kannst du aber auch über jede neuen Handy Gen machen,
bei der der Akku verklebt ist, denn nach zwei-drei Jahren ist der Akku runtergerockt.
Angebote laut Geizhals:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74375&d=1614524390
just4FunTA
2021-02-28, 16:17:23
das man die rtx3060 entsperren sollte dem stimme ich absolut nicht zu, warten wir einfach ab ob sie sie wirklich cracken können und wie lange es dauert dann sehen wir weiter.
Platos
2021-02-28, 20:08:06
Linus hat ja recht, aber ich denk mir die ganze Zeit, so ein Video kannst du aber auch über jede neuen Handy Gen machen,
bei der der Akku verklebt ist, denn nach zwei-drei Jahren ist der Akku runtergerockt.
Angebote laut Geizhals:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=74375&d=1614524390
Ja ist das jetzt so ein Argument wie: "machen andere schon, also kann ich auch" ?
Abgesehen davon ist doch gerade die EU dabei (angeblich/anscheinend), einen 5 Jahressupport (software) und austauschbarer Akku zu fordern (also reparierbar...), wenn ich mich nicht irre.
Und es ist ein Unterschied, wenn es grundsätzlich reparierbar ist (Bezahlbarkeit ist dann wieder eine weitere Sache) oder generell technisch gar nicht mehr möglich ist. Vergleichbar ist das eher mit verlötetem Arbeitsspeicher bzw. verlöteter SSD bei Laptops, aber selbst da hinkt der Vergleich.
das man die rtx3060 entsperren sollte dem stimme ich absolut nicht zu, warten wir einfach ab ob sie sie wirklich cracken können und wie lange es dauert dann sehen wir weiter.
Ich würde dem auch nur mit einem Jein beipflichten. Keine extra Grafikkarten für Miner, wäre mein Vorschlag, denn die Kapazitäten steigen nicht auf einmal an für die Gamer, schliesslich fliegen die Chips für die Minerkarten nicht vom Himmel.
Und dann kann man meinetwegen sogar gleichzeitig den Treiber locken (wobei das zu viel Wunschträumen ist und nvidia das nicht tut).
Es ging mir vor allem um den Gebrauchtmarkt, den Linus angesprochen hat. Mit solchen Mining GPUs (ich glaube, ich habe selbst eine gebrauchte Miningkarte), wird man die nur noch in den Eimer werfen können. Und ihr wisst ja, wie es bei den Minern ist. Kommt eine neue Generation (die ordentlich mehr Leistung für's Mining liefert), wird gleich alles erneuert. Also jede Generation neue Grafikkarten, und die alten landen dann anschliessend direkt im Eimer, da sie nicht mehr weiter verkauft werden können (für's Mining ist die alte Gen ja quasi wertlos).
Thunder99
2021-03-01, 12:30:00
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/News/Radiallueftermodelle-ohne-Zukunft-1367793/
Neue GPU(s) in Anmarsch? Refresh oder neue Revision? Im Zuge der Knappheit der Komponenten eine nicht unwahrscheinliche Maßnahme, da es etwas Zeit gibt.
Was denkt ihr? :confused:
Birdman
2021-03-01, 15:03:30
das man die rtx3060 entsperren sollte dem stimme ich absolut nicht zu, warten wir einfach ab ob sie sie wirklich cracken können und wie lange es dauert dann sehen wir weiter.
Sehe ich ähnlich.
Treiber entsperren hilft aktuell ausschliesslich den Minern und sicher keinem Gamer.
Ich bin mir auch nicht sicher wie stichhaltig das Argument mit dem 2nd-hand Markt dieser Miner-GPUs ist. Imho gibt und gab es immer mehr als genug Karten der Vor(-vor)Gänger Generationen bei Ebay und co, daher glaub ich nicht dass durch die expliziten Cryptokarten dieser Markt gross beeinflusst wird.
Beim Rest hat Linus im grossen und ganzen aber durchaus recht, bzw. deckt es sich mit meiner eigenen Meinung.
Der Split von Miner/Gamer kam hauptsächlich weil man hier einen lukrativen Markt vermutet, den man allenfalls mit minderwertigen GPUs zu einem höheren Preis abdecken kann.
Dass man hierbei für die "Gamer" etwas tut ist maximal zu 50% die eigentliche Intention, sehr warscheinlich aber einfach eine äusserst willkommene Nebenwirkung
Platos
2021-03-01, 19:59:52
Aber es geht ja (auch) darum, dass die Karten danach Elektroschrott sind und nicht mehr zurück den Kreislauf kommen können, obwohl sie noch brauchbar wären.
Und wenn die Karten bei Ebay und co. verkauft werden, dann ist auch dementsprechend Nachfrage da. Also solange die Karten bei den Minern nicht liegen bleiben, sollte dieses Argument schon stimmen. Das ginge ja nur, wenn das Angebot zu gross wäre.
[VideoCardz]NVIDIA GeForce RTX 3080 Ti to feature cryptocurrency mining limiter (https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-to-feature-cryptocurrency-mining-limiter)
Spekulierte Specs
https://i.imgur.com/GhtVUC7.png
Ursprünglich von kopite7kimi (https://twitter.com/kopite7kimi/status/1367494156432637954).
Edit - Specs unter Spoiler gestellt der Übersichtlichkeit halber.
Joa, kalter Kaffee und in der Form bestenfalls ein okayes Produkt. Neu wäre eine offizielle Ankündigung.
MfG
Raff
Das Augenmerk der News war auch eher auf den "Limiter" gerichtet, die Specs hab ich nur der Vollständigkeit halber gleich erwähnt. Mit 12GB wär es aber echt etwas mau, hätte da auch eher 20 vermutet.
Evtl. waren Nvidia die Radeons etwas zu nahe gekommen, sodass nun für mehr Leistung im niedrigeren Preis-Bracket gesorgt werden soll?
r3ptil3
2021-03-04, 19:23:34
Ich will eine effizientere 3080 Super.
Denniss
2021-03-04, 19:43:17
Gibt ja bald neuere Grafikbiosversionen für rBar, ob Nvidia da auch gleich die Minigbremse mit einbaut?
Gibt ja bald neuere Grafikbiosversionen für rBar, ob Nvidia da auch gleich die Minigbremse mit einbaut?
Den Move fänd ich geilmein. :ulol:
MfG
Raff
Rampage 2
2021-03-04, 21:28:40
Ich will eine effizientere 3080 Super.
Jo, mit nur 12GB VRAM hätte es eher das Suffix "Super" als "Ti" verdient - eine Ti müsste schon 20-24GB haben, um sich seinen Namen zu verdienen. Aber wir kennen Nvidia ja zur Genüge:redface:
R2
Den Move fänd ich geilmein. :ulol:
MfG
Raff
Wieso? Weil die Profi-Miner einfach kein Update machen und die Gamer ne beschnittene Grafikkarte bekommen?
Fragman
2021-03-05, 09:17:39
Die Hersteller koennten sich solche Moves sparen indem sie direkt an die Kunden verkaufen wuerden. Diese Heuchelei mit dem Miningblocker ist doch eine Beruhigungspille.
Alter Löwe
2021-03-05, 11:42:51
Die Hersteller koennten sich solche Moves sparen indem sie direkt an die Kunden verkaufen wuerden. Diese Heuchelei mit dem Miningblocker ist doch eine Beruhigungspille.
Absolut richtig. Es ist einfach nur Heuchelei. Denen ist das doch sowas von Wurst wem die das verkaufen. Das hätte man gleich von Anfang an machen müssen, dazu noch viel rigoroser.
Dann noch die sinnlose Verwertung von angeblicher Ausschussware die keinen Displayausgang besitzt und dann irgendwann auf der Müllhalde landen wird und es an der Marktsituation überhaupt nichts verändern wird.
Troyan
2021-03-05, 11:55:04
Die Hersteller koennten sich solche Moves sparen indem sie direkt an die Kunden verkaufen wuerden. Diese Heuchelei mit dem Miningblocker ist doch eine Beruhigungspille.
Und wie soll das nVidia machen? So wie 3DFX, die dann Pleite gegangen sind? :cool:
dildo4u
2021-03-05, 12:02:33
Absolut richtig. Es ist einfach nur Heuchelei. Denen ist das doch sowas von Wurst wem die das verkaufen. Das hätte man gleich von Anfang an machen müssen, dazu noch viel rigoroser.
Dann noch die sinnlose Verwertung von angeblicher Ausschussware die keinen Displayausgang besitzt und dann irgendwann auf der Müllhalde landen wird und es an der Marktsituation überhaupt nichts verändern wird.
Das Top Modell ist Heuchlerei, die anderen Mining Chips werden nicht beim Samsung produziert alles unter der 3080 könnte dadurch besser Verfügbar sein.
Rampage 2
2021-03-06, 10:56:24
Eine technische Frage zur Ampere-Architektur:
Die Organisation der ROPs wurde ja geändert (eine ROP-Partition ist nicht mehr dem SI, sondern einem GPC zugeordnet) und pro GPC gibt es 16 ROPs, also bei 7 GPCs beim GA102 = 112 ROPs insgesamt. Ist es jetzt immer noch so, dass bei einem teilaktiviertem/beschnittenem Chip (etwa 3080 Ti mit 80 von 84 SMs) nicht *alle* ROPs mit Pixeln gefüttert werden können, also effektiv weniger als die tatsächliche Anzahl verfügbar sind? (bei der 3080 Ti müssten es dann etwa 104 von 112 ROPs sein)
R2
Asaraki
2021-03-06, 11:15:53
Wieso? Weil die Profi-Miner einfach kein Update machen und die Gamer ne beschnittene Grafikkarte bekommen?
Ne die Sache macht schon Sinn, man muss da nur mal ein bisschen weiter denken :
Keine neuen RTX mehr, die sehr effizient ETH minen können
=> Wenn AMD nicht mitzieht, werden AMD Karten überproportional teuer sein am Markt, einfach weil man für eine ETH Karte mehr bezahlen kann, ohne 'Verlust' zu machen
=> Die Miningkarten können dann - vermutlich sogar zur Freude der Gamer - relativ teuer gemacht werden. Bin sehr gespannt wie günstig die dann auf der Strasse(!) sind. UVP ist da komplett egal.
Gibt also zwei Optionen :
AMD zieht mit und muss jetzt ebenfalls sehr kurzfristig ein neues Portfolio auflegen (was sie afaik kaum wollen / geplant haben)$
AMD zieht nicht mit und macht zwar kurzfristig ein klein wenig mehr Profit, gibt aber im Gaming dann massiv Marktanteile ab, wenn für x Monate nur nV in Gamingsysteme wandern und alle AMDs in Miningrigs.
Sofern sie da die Lieferbarkeit hinkriegen werden noch mehr Turing in Ampere-Gaming gewandelt werden, da die letzten Mining-Nvidias dann sicher nochmal im Preis steigen werden.
(Aluhuttheorie : nV hat das alles geplant um den Anteil an DLSS und RTX Karten künstlich in die Höhe zu treiben)
Alter Löwe
2021-03-06, 12:08:25
Das Top Modell ist Heuchlerei, die anderen Mining Chips werden nicht beim Samsung produziert alles unter der 3080 könnte dadurch besser Verfügbar sein.
Turing ist doch letztes Jahr schon EOL gegangen: https://www.google.com/amp/s/www.gamestar.de/artikel/nvidia-rtx-3000-krypto-mining,3359791.amp
Nvidia hat absichtlich die Produktion früh eingestellt wegen befürchteten Mining Boom🤣
Jetzt wird die Produktion wieder hochgefahren? Oder seit wann? Und woher kommt der ganze Ausschuss? Sammeln die den?
Es ist einfach Heuchelei egal was die da machen. Es ist ihnen scheiss Egal wem die was verkaufen, das ist auch deren gutes Recht als Gewinnorientiertes Unternehmen. Mich regt einfach auf das sie jetzt "Gamern" erzählen sie würden was dagegen tun. Das ist einfach nur Manipulativ und nichts anderes!
Rampage 2
2021-03-07, 11:49:18
Eine technische Frage zur Ampere-Architektur:
Die Organisation der ROPs wurde ja geändert (eine ROP-Partition ist nicht mehr dem SI, sondern einem GPC zugeordnet) und pro GPC gibt es 16 ROPs, also bei 7 GPCs beim GA102 = 112 ROPs insgesamt. Ist es jetzt immer noch so, dass bei einem teilaktiviertem/beschnittenem Chip (etwa 3080 Ti mit 80 von 84 SMs) nicht *alle* ROPs mit Pixeln gefüttert werden können, also effektiv weniger als die tatsächliche Anzahl verfügbar sind? (bei der 3080 Ti müssten es dann etwa 104 von 112 ROPs sein)
R2
*bump*
Scheint wohl durch die nachfolgenden Postings untergegangen/übersehen worden zu sein...
R2
-/\-CruNcher-/\-
2021-03-07, 11:59:44
Und wie soll das nVidia machen? So wie 3DFX, die dann Pleite gegangen sind? :cool:
Wir sind in einer ganz anderen Situation die Pläne zu diesen sachen liegen in der Schublade in Jensens schreibtisch bereit.
Testläufe sind ja schon gelaufen.
Turing ist doch letztes Jahr schon EOL gegangen: https://www.google.com/amp/s/www.gamestar.de/artikel/nvidia-rtx-3000-krypto-mining,3359791.amp
Nvidia hat absichtlich die Produktion früh eingestellt wegen befürchteten Mining Boom��
Jetzt wird die Produktion wieder hochgefahren? Oder seit wann? Und woher kommt der ganze Ausschuss? Sammeln die den?
Es ist einfach Heuchelei egal was die da machen. Es ist ihnen scheiss Egal wem die was verkaufen, das ist auch deren gutes Recht als Gewinnorientiertes Unternehmen. Mich regt einfach auf das sie jetzt "Gamern" erzählen sie würden was dagegen tun. Das ist einfach nur Manipulativ und nichts anderes!
Ca 10 Jahre
Linmoum
2021-03-15, 14:23:09
https://www.computerbase.de/2021-03/mining-bremse-geforce-rtx-3060-umgehbar-eth-hashrate/#update-2021-03-15T14:10
Aha. War doch laut Nvidia genauso eine BIOS-Sache. Und jetzt reicht doch einfach die Installation eines Beta-Treibers für die volle Mining-Leistung. Wahrscheinlich nicht die einzige Lüge von Nvidia beim Thema Mining.
Dass ausgerechnet Nvidia selbst jetzt dafür sorgt, dass die Bremse hinfällig wird, ist fast schon grotesk.
In Wahrheit war es also nur eine Treiber-Beschränkung. Naja, jetzt sowieso hinfällig. Der Treiber ist im Umlauf und wird auch nicht mehr verschwinden. Good job.
FastAndy
2021-03-15, 15:05:46
Ich glaube hier an keine Zufälle. NV spielt es schön in die Karten, wenn denen diese Karte noch mehr aus den Händen gerissen wird, als jetzt schon.
Hakim
2021-03-15, 16:11:40
Nicht das selbst die Karten schon zu nahezu doppeltem Preis verkauft wurden.
Nötig hatten sie es nicht, jeder Karte wurde schon so von Händlern abgenommen und zu Wucherpreisen verkauft.
Und wie soll das nVidia machen? So wie 3DFX, die dann Pleite gegangen sind? :cool:
Zu der Zeit haben die Hersteller mit den PCB ganz gutes Geld verdient IIRC, das wurde mit zunehmenden Beschränkungen der GPU-Hersteller (Geforce, Radeon) immer schwieriger, dann fing die Aufkauf- und Pleitewelle an (Elsa, Diamund, STB, Hercules usw.). Soweit stimmt das, genau soweit sind wir heute im Prinzip wieder. Der riesige Unterschied ist aber heute das Mining. Die Boardhersteller können qualitativ auf Kante genähte PCBs bauen und diese mit Marge in großen Mengen ohne Gefahr von großen Rückläufern zu haben, verkaufen, was im Geforce-Markt <500€ ja schon lange nicht mehr geht. NV wird darüber keine Konrolle erlangen, wenn man diese PCB-Hersteller nicht eiskalt komplett reguliert, also quasi aufkauft. Dann könnte NV entscheiden, wieviele ins Gaming gehen und wieviele ins Mining. Das heißt aber nicht, dass das ne tolle Lösung ist, das ist alles irgendwie Scheisse.
maximus_hertus
2021-03-15, 16:51:09
Ich glaube hier an keine Zufälle. NV spielt es schön in die Karten, wenn denen diese Karte noch mehr aus den Händen gerissen wird, als jetzt schon.
Inwiefern? nV verkauft ja nciht an die Miner, sondern an MSI, EVGA und Co.
Da nV aktuell eh alles verkauft was nicht bei 3 aus dem LAger ist, macht dieser "Move" nur wenig Sinn.Selbst wenn die KArtenpreise sich verdoppeln, nV verdient keinen Dollar extra, da sich die Händler, Großhändler, Grakahersteller daran bereichern.
Thunder99
2021-03-16, 21:51:05
https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Radeon-Geforce-CPU-Limit-Test-1368614/
AMD GPUs sind in DX12 im CPU LIMIT im Schnitt (erheblich) schneller als Nvidia GPUs.
Liegt das an der Architektur oder mehr am Treiber oder beidem? Da es sich nicht auf eine Grafikkarte spezifisch dreht und eine Spekulation ist mit Frage habe ich es hier rein gepackt :D
Lurtz
2021-03-17, 09:16:14
https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Radeon-Geforce-CPU-Limit-Test-1368614/
AMD GPUs sind in DX12 im CPU LIMIT im Schnitt (erheblich) schneller als Nvidia GPUs.
Liegt das an der Architektur oder mehr am Treiber oder beidem? Da es sich nicht auf eine Grafikkarte spezifisch dreht und eine Spekulation ist mit Frage habe ich es hier rein gepackt :D
Das Thema wird hier diskutiert: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605303
horn 12
2021-03-21, 17:15:35
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-to-feature-ga102-225-gpu-rtx-3070-ti-gets-ga104-400
12 und 8 GDDR6X Speicher!
Himmel und Hölle was reitet Nvidia
dargo
2021-03-21, 17:22:17
Ist das ein verfrühter Aprilscherz? ;D Ich meine die 8GB für die RTX 3070TI sind schon Comedy pur. Aber dann auch noch GDDR6X? WTF? :| Wofür denn so viel mehr Bandbreite bei nur +2 SM?
Ex3cut3r
2021-03-21, 17:24:16
Oh Mann, wenn 8GB stimmen. Fail. Aber andererseits eh nur wieder Mining GPUs, die werden sowieso nie im normalen Markt ankommen, und wenn dann 1300-1500€ kosten und die die Ti geht so ab 2500€ los.
Kann man komplett vergessen diese Gen, mein Tipp wartet gleich auf die neue Gens. Dürfen zwar auch nicht mehr so billig sein, wie davor all die Jahre, aber wenn "normalität" herrschen sollte, sicherlich humaner. Oder ne PS5 für 499€ holen, wenn verfügbar und diesen Wahnsinn einfach nicht mehr mitmachen. Auch eine Lösung.
dargo
2021-03-21, 17:27:34
Oh Mann, wenn 8GB stimmen. Fail. Aber andererseits eh nur wieder Mining GPUs, die werden sowieso nie im normalen Markt ankommen, und wenn dann 1300-1500€ kosten und die die Ti geht so ab 2500€ los.
Da hast du vollkommen recht. Gerade mit dem GDDR6X (sollte das Gerücht stimmen) geht die Bandbreite bei 19Gbps auf 608GB/s hoch. Die Dinger werden gleich beim Großhändler abgegriffen und erreichen den Gamer eh nicht. :tongue:
AffenJack
2021-03-21, 18:51:17
Man kriegt eh jede GPU los, die man produziert. Also bleibt man lieber bei 12/8GB und nimmt die zusätzliche Marge mit. Ich hab nix anderes mehr erwartet. Beidseitig bestücken wird man eh nicht, da zu teuer und man weiß auch nicht wie weit Micron mit den 16Gb GDDR6X nun ist.
Frage ist für mich eher, was denn nun mit GA103 ist? Eigentlich war der Salvage davon ja eher der Kandidat für die 3070Ti.
Rampage 2
2021-03-21, 19:25:14
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-to-feature-ga102-225-gpu-rtx-3070-ti-gets-ga104-400
12 und 8 GDDR6X Speicher!
Himmel und Hölle was reitet Nvidia
Wurde(n) die nicht von Nvidia schon letztes Jahr gecancelt? (also die 3070 16GB und die 3070 Ti) :|
R2
r3ptil3
2021-03-21, 19:39:15
Abwarten... wenn Ethereum auf PoS umstellt, dann wären auf einen Schlag über 90% der GPU-Interessenten weg. Dann zahlen die restlichen Käufer keine 2000$ mehr, auch nicht 1000$ oder gar 600$ für eine gebrauchte Miner RTX 3080 und hinzu kommt, dass dann der Gebrauchtmarkt wortwörtlich mit RTX 3000 GPUs überflutet wird.
Wann diese Umstellung vollzogen wird, ist die Frage.
In einem solchen Fall würde ich sogar die Top-RTX-3080-Ti-Customs auf UVP Niveau der FE oder vielleicht sogar leicht darunter sehen.
rentex
2021-03-21, 19:53:28
Warten auf Godot....
Abwarten... wenn Ethereum auf PoS umstellt, dann wären auf einen Schlag über 90% der GPU-Interessenten weg. Dann zahlen die restlichen Käufer keine 2000$ mehr, auch nicht 1000$ oder gar 600$ für eine gebrauchte Miner RTX 3080 und hinzu kommt, dass dann der Gebrauchtmarkt wortwörtlich mit RTX 3000 GPUs überflutet wird.
Wann diese Umstellung vollzogen wird, ist die Frage.
In einem solchen Fall würde ich sogar die Top-RTX-3080-Ti-Customs auf UVP Niveau der FE oder vielleicht sogar leicht darunter sehen.
Das werde ich nicht mehr erleben ...
r3ptil3
2021-03-22, 11:45:58
Gerade gelesen:
GeForce RTX 3070 Ti mit schnellerem Speicher
Wenngleich die GeForce RTX 3070 Ti nach aktuellem Stand mit 8 GB über die gleiche Speichermenge wie die GeForce RTX 3070 verfügen soll, spendiert Nvidia der Grafikkarte sehr wohl schnelleren VRAM vom Typ GDDR6X.
https://www.computerbase.de/2021-03/nvidia-geforce-rtx-3080-ti-3070-ti/#update-2021-03-22T11:33
GDDR6X... nach aktuellem Stand würde die Karte wohl auf 2000 Euro klettern bei Ebay und Co.
Die 3080 Ti irgendwo bei 2500 oder mehr.
Viel zu wenig Speicher für die Klasse, dafür das schnellste was es gibt. Seltsam, dass genau Miner von dieser Kombination besonders profitieren.
ShinyMcShine
2021-03-22, 12:02:30
Mittlerweile wäre ich für eine RTX3070Ti mit unkastriertem Chip und 8GB VRAM sogar bereit 1000€ zu zahlen (also vieles richtig gemacht, NVIDIA), aber [a] ist das wohl ein unrealistischer Preis [b] wird die Karte 'eh nicht lieferbar sein und [c] habe ich nun doch gelernt, mit meiner alten GTX 1080 zu leben und kann wohl auf die 4000er mit dann hoffentlich 16GB warten (also doch nicht alles richtig gemacht, NVIDIA :D)...
Neosix
2021-03-22, 12:11:09
Wow Nvidia macht also echt hin und zurück, hin und zurück bei den Entscheidungen. Weil wenn die Specs der 70TI so stimmen, war die exakt so schon vor 6? Monaten geplant und dann doch gecancelt. Nur um jetzt wieder so aufzuerstehen? Zu mindestens wenn man dem leaker kopite7kimi trauen konnte.
just4FunTA
2021-03-22, 12:20:10
Wow Nvidia macht also echt hin und zurück, hin und zurück bei den Entscheidungen. Weil wenn die Specs der 70TI so stimmen, war die exakt so schon vor 6? Monaten geplant und dann doch gecancelt. Nur um jetzt wieder so aufzuerstehen? Zu mindestens wenn man dem leaker kopite7kimi trauen konnte.
gerüschte sind halt eben doch nur gerüchte..
Thunder99
2021-03-22, 12:59:05
Wäre nur konsequent die eigene 3080 nicht zu kanabalisieren...
Oh wait, die 3060 hat mehr Speicher als alle Karten ausser 3090 :eek:
Mit dieser Politik "zwingt" man den Nvidia Käufer die nächste Generation zu kaufen, da die aktuelle wegen VRAM Mangel immer mehr Nachteile hat...
Und wieder ein Beispiel, 1080Ti behalten uns sich freuen damals alles richtig gemacht zu haben :wink:
Alles unter Vorbehalt die Gerüchte werden wahr.
mironicus
2021-03-22, 13:07:27
Ich wäre dafür die gesamte momentane Grafikkartengeneration aufzugeben und sich in Disziplin zu üben keinen Kaufangebot mehr nachzugehen und sich mit dem vorhandenen zufriedenzugeben.
just4FunTA
2021-03-22, 13:19:11
ich habe blöderweise den Fehler gemacht und meine GTX1080 für 300€ verkauft weil ich dachte ich überbrücke die Zeit bis BF6 kommt schon mit der PS5, und ja Dirt5 ist auf der PS5 ja auch besser als auf der gtx1080 aber battlefield auf der Konsole mit Gamepad ist ein Albtraum.
Und jetzt kriegste einfach keine Grafikkarte zu einem normalen Preis. Habe aktuell für ~630€ eine RTX3060 die geht aber innerhalb der 2 Wochen zurück zum Verkäufer, für 300€ wäre das schon eine gute Karte aber für 630€ ein absolutes nogo und ein schlechtes Gewissen gegenüber dem Verkäufer habe ich bei solchen Preisen auch nicht.
Nur was mache ich dann? Selbst wenn ich die rx6900 für 1000€ bei AMD bekomme sind das immernoch extreme Preise. ~650€ für die rx 6800xt das wäre ein gutes Angebot aber das ist wohl ein Ding der Unmöglichkeit zurzeit.
Also wer auch immer noch eine GTX1080 hat, hat alles richtig gemacht. :up:
dargo
2021-03-22, 13:33:39
Und wieder ein Beispiel, 1080Ti behalten uns sich freuen damals alles richtig gemacht zu haben :wink:
Ähm.... moment bitte, kein performantes Raytracing und kein DLSS. Wie kannst du da bloß Games zocken? :eek: :wink:
Redneck
2021-03-22, 13:36:26
Wurde(n) die nicht von Nvidia schon letztes Jahr gecancelt? (also die 3070 16GB und die 3070 Ti) :|
R2
Das wird dann die Mutter aller Einhörner werden... Nettes Produkt auf nem Spec Sheet zum anschauen aber ran zu kommen wird dann wohl noch schwerer als bei den normalen 3070/3080.
Dampf
2021-03-22, 13:45:19
Und wieder ein Beispiel, 1080Ti behalten uns sich freuen damals alles richtig gemacht zu haben :wink:
Das wird aber ein böses Erwachen geben, wenn die ersten richtigen Next Gen Titel kommen, die von Raytracing und DX12 Ultimate Support deutlich profitieren oder es gar erfordern.
ShinyMcShine
2021-03-22, 13:45:42
Also wer auch immer noch eine GTX1080 hat, hat alles richtig gemacht. :up:
:uwave:
mironicus
2021-03-22, 13:55:35
Zumindest gibt es Laptops mit RTX 3080 und 16 GB Speicher. :D
r3ptil3
2021-03-22, 14:01:22
Ich wäre dafür die gesamte momentane Grafikkartengeneration aufzugeben und sich in Disziplin zu üben keinen Kaufangebot mehr nachzugehen und sich mit dem vorhandenen zufriedenzugeben.
Gehen wir mal 6 Monate zurück als die RTX 3080 vorgestellt wurde: Kritiker gab es, aber der Grossteil war fasziniert.
Was war die Folge? RTX 2080 TI Modelle wurden im Gebrauchtmarkt für teilweise schon für 400 Euro weitergegeben - Tatsache, 400 Euro. :freak:
Bedeutet eigentlich nur, dass nicht der zweifellos geringe Speicher das Problem ist oder war, sondern die katastrophale Verfügbarkeit. Der Frust am Speicher wird dadurch konzentriert und man redet sich das Produkt schlecht, weil man an der Verfügbarkeit sowieso nichts ändern kann.
JEDER würde eine RTX 3080 zum Referenzpreis nehmen, auch die grössten Speicherkritiker. :)
Thunder99
2021-03-22, 14:09:44
Ähm.... moment bitte, kein performantes Raytracing und kein DLSS. Wie kannst du da bloß Games zocken? :eek: :wink:
Sitze in der Vergangenheit fest, was Spiele betrifft :redface: Einzig das "Haben will Syndrom" hat mich darüber nachdenken lassen was Neues zu kaufen. Das Syndrom wird mehr und mehr aber vernichtet :D
Hakim
2021-03-22, 14:28:34
GA104 Vollausbau mit 8 GB GDDRX6 Speicher? Das wird eine richtig gute mining Karte :)
JEDER würde eine RTX 3080 zum Referenzpreis nehmen, auch die grössten Speicherkritiker. :)
Klar! Lässt sich im Moment mit gutem Gewinn verkaufen :biggrin:
M.f.G. JVC
dargo
2021-03-22, 14:31:13
Sitze in der Vergangenheit fest, was Spiele betrifft :redface:
Ach... das war nur von mir sarkastisch gemeint. Ein kleiner Seitenhieb für die ganzen Raytracing-Marketingopfer. :wink:
mironicus
2021-03-22, 14:38:55
Gehen wir mal 6 Monate zurück als die RTX 3080 vorgestellt wurde: Kritiker gab es, aber der Grossteil war fasziniert.
Ich habe meine RTX 2080 Ti glücklicherweise behalten und sehe darin eine Karte, mit der man noch locker einen längeren Zeitraum überbrücken kann. Die 3000er-Reihe hat mich maßlos enttäuscht.
Neosix
2021-03-22, 15:04:00
Ich habe meine RTX 2080 Ti glücklicherweise behalten und sehe darin eine Karte, mit der man noch locker einen längeren Zeitraum überbrücken kann. Die 3000er-Reihe hat mich maßlos enttäuscht.
Jedem seine, ich war einer der Glücklichen die eine 3070FE für 499 kaufen konnten. Damit hab ich quasi deine Performance für weniger als die Hälfte. Ich bin mit dieser Karte mehr als zufrieden. In 1080p reichen mir die 8GB dicke und der Sprung von der 1060 war mehr als gewaltig. Klar wenn man von der 2000 Serie umsteigen will gerade von so einer potenten Karte ist der Sprung von der reinen Performance nicht groß. Aber ich bin mehr als zufrieden. Wären nicht die Corona/Mining "Probleme" eingetreten, bin ich mir sicher, dass Nvidia dennoch nciht auf ihren 3000er Karten sitzen geblieben wäre.
mironicus
2021-03-22, 15:23:45
Sie bleiben auf den Karten ja nicht sitzen, es werden viele Karten produziert und verkauft, aber halt an die Falschen.
Aber ja, aus der Perspektive eines RTX 2080 Ti-Besitzers sind die Ampere-Karten nicht so attraktiv.
[...]
JEDER würde eine RTX 3080 zum Referenzpreis nehmen, auch die grössten Speicherkritiker. :)
Definitiv nicht. Jedenfalls nicht solange es eine Alternative gibt, aber auch so wahrscheinlich nicht. So ne idiotische FB-Aussage läd ja geradezu dazu ein dem zu Widersprechen.
Thunder99
2021-03-22, 19:27:20
Ach... das war nur von mir sarkastisch gemeint. Ein kleiner Seitenhieb für die ganzen Raytracing-Marketingopfer. :wink:
Keine Sorge, alles in Ordnung :wink: :)
Es wird immer grotesker...
https://www.pcgameshardware.de/Kryptowaehrung-Thema-267078/News/Ampere-A100-Server-Grafikkarte-Schuerfer-10000-Euro-1368971/
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/News/Mining-Bremse-ausgehebelt-6-Dollar-HDMI-Stecker-1368996/
Keine Sorge, alles in Ordnung :wink: :)
Es wird immer grotesker...
https://www.pcgameshardware.de/Kryptowaehrung-Thema-267078/News/Ampere-A100-Server-Grafikkarte-Schuerfer-10000-Euro-1368971/
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/News/Mining-Bremse-ausgehebelt-6-Dollar-HDMI-Stecker-1368996/
Liegt so ein HDMI_Tot-Stecker nicht bereits jeder 306ß-Custom bei - so als Super Mining-Edition für 1500€ :freak: Wen interessieren noch Spiele? Wird Zeit, dass der 3dmark noch einen Bench explizit fürs Mining bekommt :mad:
TheAntitheist
2021-03-22, 23:04:49
Ach... das war nur von mir sarkastisch gemeint. Ein kleiner Seitenhieb für die ganzen Raytracing-Marketingopfer. :wink:
Jopp Marketing-Opfer, aber warum redest du so über dich selbst?
Slipknot79
2021-03-23, 01:41:07
Ich habe meine RTX 2080 Ti glücklicherweise behalten und sehe darin eine Karte, mit der man noch locker einen längeren Zeitraum überbrücken kann. Die 3000er-Reihe hat mich maßlos enttäuscht.
Yea nice same hier. 2080Ti reicht hier noch locker, auch dank DLSS. (y)
Nur enttäuscht bin ich nicht von der 3000er Generation, verprügelt standesgemäß mal wieder die AMD Teile. Schon ok so.
Nur die +40% vs 2080Ti howen nun mal nicht wirklich vom Hocker. Ich steige nur dann um wenn +100% rausschauen. Und dann dürfen die Preise aus Prinzip auch nicht über UVP liegen. :cool:
Godmode
2021-03-23, 08:32:05
Abwarten... wenn Ethereum auf PoS umstellt, dann wären auf einen Schlag über 90% der GPU-Interessenten weg. Dann zahlen die restlichen Käufer keine 2000$ mehr, auch nicht 1000$ oder gar 600$ für eine gebrauchte Miner RTX 3080 und hinzu kommt, dass dann der Gebrauchtmarkt wortwörtlich mit RTX 3000 GPUs überflutet wird.
Wann diese Umstellung vollzogen wird, ist die Frage.
In einem solchen Fall würde ich sogar die Top-RTX-3080-Ti-Customs auf UVP Niveau der FE oder vielleicht sogar leicht darunter sehen.
Kann schon sein das heuer PoS kommt, aber das hört man ja schon von Anfang an. Von Innosilicon kommt ein neuer Ethash ASIC, der dürfte auch etwas Druck von den GPUs nehmen. Es gibt allerdings auch noch viele andere Coins die man minen kann, natürlich nicht mit dem Volumen wie bei ETH. Ich denke man muss einfach Geduld haben. Ich kaufe jetzt nichts, weder als Miner noch als Gamer.
Nie im Leben würde ich mir eine 3070 Ti mit 8 GB oder eine 3080 Ti mit 12 GB kaufen. Highendkarten mit 11-12 GB Karten hat man 2017 gekauft, 2021 ist das ein massiver Fehlkauf, IMHO.
-/\-CruNcher-/\-
2021-03-23, 09:18:49
Wieso ein Fehlkauf das ist doch Blödsinn die Konsolen geben den Entwicklungstakt an das heist es wird effizienter.
Es ist nicht das Maximum aber für das Maximum entwickelt auch keiner mehr wirklich das wird nur hinauf skaliert.
Godmode
2021-03-23, 10:57:39
Wieso ein Fehlkauf das ist doch Blödsinn die Konsolen geben den Entwicklungstakt an das heist es wird effizienter.
Es ist nicht das Maximum aber für das Maximum entwickelt auch keiner mehr wirklich das wird nur hinauf skaliert.
Frag mal Raff. 😁
Wieso ein Fehlkauf das ist doch Blödsinn die Konsolen geben den Entwicklungstakt an das heist es wird effizienter.
Es ist nicht das Maximum aber für das Maximum entwickelt auch keiner mehr wirklich das wird nur hinauf skaliert.
Das ist Blödsinn. Die Konsolen können auf doppelt soviel Speicher zurückgreifen. Das bedeutet im Klartext, dass der Speicherbrauch im PC-Bereich steigen wird. 8GB sind definitiv zu wenig, heute schon. 10GB werden sicherlich auch mittelfristig recht knapp und 12GB ist zuwenig für den Preisbereich.
basix
2021-03-23, 12:35:12
Ich hätte allenfalls mit einer 3080 Ti 20GB geliebäugelt aber mit 12GB ist es das mir nicht Wert. Vor allem nicht bei den momentan vorherrschenden Preisen und den Umständen, überhaupt an eine ranzukommen.
Thunder99
2021-03-23, 12:58:24
Aus Sicht der Speicherausstattung ist bis auf 3060 und 3090 die Generation ein Fail. Hat quasi nur Status quo welches jetzt schon ans Limit kommt.
Entweder leidet die Qualität, da die Entwickler Kompromisse eingehen müssen (theoretisch schnell genug aber zu wenig Speicher...) Oder es zeigt sich in schlechtere Frametimes (gibt schon Test/Spiele die das zeigen).
Keine gute Voraussetzungen für 2021+ bis Hopper / next Gen
ShinyMcShine
2021-03-26, 10:40:22
Hier kommt meine Grafikkarte: 3070Ti@full_GA104-400 mit 16GB (https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-could-feature-8gb-and-16gb-gddr6x-variants)
Jetzt nur noch kaufen können... lol
Shaft
2021-03-26, 12:23:40
Zu welchen preis? 🤣
Das wäre meine karte, so muss eine speicherbestückung 2021 aussehen.
Fragman
2021-03-26, 12:28:10
1500 Euro fuer die 16GB und 1000 fuer die 8GB Version.
Damit muss man aktuell rechnen. Die Supercustoms dann nochmal etwas mehr.
Btw die Asus ROG Abteilung hat schonmal Koksschalen aufstellen lassen.
ShinyMcShine
2021-03-26, 12:29:58
Zu welchen preis? 🤣
Das wäre meine karte, so muss eine speicherbestückung 2021 aussehen.
Die Frage ist, ob es eine FE gibt, die man (wenn man aussergewöhnlich viel Glück hat) auf der NVIDIA Homepage für ca. 2 Sekunden nach Freischaltung zum UVP kaufen kann...
Dural
2021-03-26, 14:14:24
Ich kann die Gerüchte langsam aber sicher nicht mehr ernst nehmen, seit praktisch 6 Monaten sehen die Karten jede Woche wieder anders aus :rolleyes:
Ich glaube es den wenn die Karte bei mir auf den Tisch liegt ;)
Hakim
2021-03-26, 15:06:32
Vollausbau GA104 mit 16GB GDDRX6 wäre auch genau was für mich. Ob der Vollausbau samt der breiteren Speicherbandbreite die 6800 schlagen?
Vom UVP ausgehend nur bitte nicht zu nahe der 3080
Troyan
2021-03-26, 15:09:50
Nicht schlagen, aber auf exakt dem selben Niveau. Mit Raytracing und DLSS dann meilenweit voraus.
robbitop
2021-03-26, 15:12:54
Das Traurige ist, dass all diese Kartenvariationen in dieser Marktsituation niemandem helfen werden. Eine Normalisierung des Marktes ist nicht in Sicht.
ShinyMcShine
2021-03-26, 15:13:54
Eine RTX3070Ti@full_GA104 dürfte eine Verdopplung der Leistung ausgehen von meiner GTX1080 sein. Das wäre das, wo ich hin will.
Ob ich eine kaufen will: Ja?
Ob ich dafür 1500€ ausgeben will: Nein!
Aber 1. und 2. erübrigen sich wohl eh, weil:
Ob ich eine kaufen kann: Unwahrscheinlich...
Hakim
2021-03-26, 15:20:47
Ich finde es interessant das man einfach zwischen GDDRX6 und GDDR6 switchen kann. Der eine Russe der auf seinem 3070 16 GB GDDR6 gelötet hat, ob das auf Anhieb auch mit X6 geht?
Also bei dem Quatsch, der jetzt die ganze Zeit da herumgeisterte, sollte man alle Infos in die Tonne schmeißen. Igor meinte, es gäbe keinerlei Aktivität bei den Boardherstellern. Also wird das vor Mai, eher Juni eh nichts. Ist ja auch sinnlos, solange nichts lieferbar ist.
Troyan
2021-03-27, 15:39:45
3080TI ist aufgetaucht: https://www.reddit.com/r/nvidia/comments/mecue1/seems_like_my_3090_was_supposed_to_be_a_3080_ti/
Hakim
2021-03-27, 17:06:06
Was wäre euch eigentlich lieber für eine 3070Ti, eine Abgespeckte Version des GA102 mit 256Bit GDDRX6 mit 16 GB oder eine volle GA104 mit dem selben SI?
-/\-CruNcher-/\-
2021-03-27, 17:17:59
Da der GA102 0 differenz im wirklich gesammten Featureset aufzeigt dem anschein momentan jedenfalls macht es diesmal absolut 0 Unterschied
Der GA102 brauch nur enorm viel PCB und Netzteil Power um seine Ziele Stabil zu erreichen das Design des GA104 ist da sehr viel bescheidener mit 30 FPS Hybrid 3D Target
Mit TSMC währe das für den GA102 wessentlich besser ausgefallen
vinacis_vivids
2021-03-27, 18:02:58
Bei Ampere frisst auch das breite SI sehr viel Strom.
Nvidia wird sicherlich die 16GB des GA104 durchgetestet haben und für zu teuer und zu langsam befunden haben. Und da die Strategie bei Nvidia ist, möglichst wenig Speicher und eine billige Fertigung möglichst teuer zu verkaufen, passen die 16GB bei GA104 ~ 3070Ti hinten und vorne nicht.
Die 16GB Austattung passen überhaupt nicht zum DLSS - Speichercut - Marketing.
Nvidia hat die Gamer verkauft für weniger Speicher = weniger Details und dazu eine billige Fertigung.
Dass die Ampere Generation keine "Titan" Karte hat, sagt schon einiges aus.
Das teure 7nm TSMC Wafer wurde ausschließlich für Datacenter und Supercomputer des A100 reserviert.
y33H@
2021-03-27, 18:08:39
Wieso sollten 16GB zu langsam sein? :freak:
Mandalore
2021-03-27, 21:58:58
Wie hätte Ampere denn mit TSMCs 7nm ausgesehen im Vergleich zu jetzt?
SKYNET
2021-03-27, 22:00:31
Das wird aber ein böses Erwachen geben, wenn die ersten richtigen Next Gen Titel kommen, die von Raytracing und DX12 Ultimate Support deutlich profitieren oder es gar erfordern.
wird nicht passieren... zumindest nicht in den kommenden 5 jahren
Was wäre euch eigentlich lieber für eine 3070Ti, eine Abgespeckte Version des GA102 mit 256Bit GDDRX6 mit 16 GB oder eine volle GA104 mit dem selben SI?
Da der GA102 0 differenz im wirklich gesammten Featureset aufzeigt dem anschein momentan jedenfalls macht es diesmal absolut 0 Unterschied
Der GA102 brauch nur enorm viel PCB und Netzteil Power um seine Ziele Stabil zu erreichen das Design des GA104 ist da sehr viel bescheidener mit 30 FPS Hybrid 3D Target
Mit TSMC währe das für den GA102 wessentlich besser ausgefallen
Interessante Frage. Ich, der stark beschnittene Chips ungeil findet, würde trotzdem einen kastrierten GA102 nehmen. Man kriegt mehr Silizium (praktisch irrelevant) und ein größerer Chip bietet mehr Angriffsfläche für Kühler - und das ist tatsächlich praktisch relevant. :)
Wie hätte Ampere denn mit TSMCs 7nm ausgesehen im Vergleich zu jetzt?
Mit einer "billigen" Portierung wohl sehr ähnlich, nur etwas kleiner und effizienter. Mit einer custom-tuned Fertigung und entsprechender Vorlaufplanung hätte man das Ding aber mit ein paar Zusatztransistoren bestücken können, um die Kiste höher zu takten. Einen GA102-Refresh mit TSMCs 7NFF+ (enthält EUV-Layer) würde ich gerne sehen. Und ich wüsste ja gerne, wie sehr Intel gekotzt hat, um Rocket Lake bzw. Cypress Cove auf 14 nm++++[...] zurückzuportieren. Das dürfte ähnlich schmerzhaft sein. Eventuell kann das einer der Fertigungsgurus und Packdichtenjongleure hier mal durchrechnen. :D
MfG
Raff
Ghost1nTh3GPU
2021-03-27, 22:18:38
3080TI ist aufgetaucht: https://www.reddit.com/r/nvidia/comments/mecue1/seems_like_my_3090_was_supposed_to_be_a_3080_ti/
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/55800-ga102-250-gpu-der-geforce-rtx-3080-ti-aufgetaucht.html
Das passt ja zu Kopites Gerüchten, dass Jensen wild am Binnen ist. Nvidia im Panic Mode seit Big Navi...
vinacis_vivids
2021-03-27, 22:20:08
Wieso sollten 16GB zu langsam sein? :freak:
16GB fressen mehr Energie, die wiederum den GPU-Takt bei gleichem Power-Budged senken.
Also:
Mehr Speicheranbindung = mehr Hitze
-> GPU-Takt runter = weniger Rechenleistung
-> Weniger Rechenleistung = langsamer
Der Tradeoff , spricht Gewinn für 16GB bei einer GA104 (3070) ist zu schlecht und zu unwirtschaftlich bei 499$ Preisansatz.
= RTX3070 16GB
Desweiteren sind 8GB im Treiber einfach zu Programmieren, weil 8GB schon lange existieren.
Alles logische Schritte für Nvidia als massivst gewinnorientierten Unternehmens.
Wieso sollte Nvidia mehr Speicher anbieten, wenn Huang der Masse mit Kompressionstechniken schöne Artefakte verkaufen kann?
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/55800-ga102-250-gpu-der-geforce-rtx-3080-ti-aufgetaucht.html
Das passt ja zu Kopites Gerüchten, dass Jensen wild am Binnen ist. Nvidia im Panic Mode seit Big Navi...
Nice find. Da steht aber etwas von 384 Bit beim "GA102-250-KD" - kann aber nicht sein, denn K+x steht immer für einen SI-Beschnitt. Der Chip wurde also zwischenzeitlich "heruntergedumbt" – das sehe ich als felsenfestes Indiz für eine 20-GiB-Variante. Nun ist das aber leider Geschichte und eine weitere in der Reihe von Nvidias Fehlentscheidungen (aus Sicht der Kunden).
MfG
Raff
Ghost1nTh3GPU
2021-03-27, 23:11:46
Der Laser kam wohl aber nicht zum Einsatz beim kastrieren, wenn man nochmal zurück zum vollen SI konnte. ;D
GA103 ist wohl so ein ähnlicher Stunt. Da kann Nvidia noch froh sein, dass AMD mit Big Navi nicht in guter alter Orton-R300-Manier die Grenzen des Prozesses angezielt hat und nicht auf 600mm2+ gegangen ist. :udevil:
Hast du noch nie X4 oder anderes Sci-Fi-Gedöns gespielt? Es gibt längst Reparatur-Laser! :biggrin:
Im Ernst: AFAIK ist die Zeit der Laser-Schnitte längst vorbei. Das wird jetzt mithilfe von winzig kleinen Package-Änderungen gemacht, die selbst mit dem nötigen Detailwissen niemand umlöten kann.
MfG
Raff
WedgeAntilles
2021-03-27, 23:52:12
Nvidia im Panic Mode seit Big Navi...
Du meinst, weil Nvidias steigender Marktanteil ihnen Angst macht?
Glaubst du Nvidia hat Angst wegen dem Kartellamt?
Oder macht Nvidia das viele Geld Angst, das sie mit Ampere verdienen?
"Scheiße, wir haben einen zu hohen Marktanteil und verdienen zu viel Kohle."
Ja, doch, da hast du bestimmt recht. Gibt nix schlimmeres für Unternehmen. Panikmodus.
Egal was du nimmst - nimm weniger davon.
MiamiNice
2021-03-28, 00:11:23
Das Problem ist heute, das Geld haben auch ne Menge Geld kostet. Deswegen ist zu viel Geld nicht gut. Da ist NV glatt im Panikmodus.
Nein, NV hat schiss einen Großteil des Gamingmarktes an AMD zu verlieren während man alles für die Miner produziert. Das erklärt i.Ü. auch die Speichermengen. Das war NV von Anfang an klar, dass 90% zu den Minern gehen wird und dadurch auch Stammkunden gezwungen sind Radeons zu kaufen, wie das ja sogar hier im Forum etliche Male passiert ist. NV lebt ja ein bisschen davon, dass ein Großteil der Kundschaft noch nie ne Radeon aus der Nähe gesehen hat.
Dass der Marktanteil steigt heißt eigentlich nur, dass NV mehr Kapazität hat als vorher und alles absetzt, während AMD nur bestimmte Chips produzieren kann aufgrund der Kapazitätsknappheit. Dummerweise eignen sich die Radeons aber weniger fürs Mining.
Leonidas
2021-03-28, 10:50:45
Ich denke nicht, das für derzeit und in den nächsten Monaten irgendwas in Form von real wertbaren Marktanteilen sehen werden. Alles verzerrt durch Miner und Produktionsprobleme, nirgendwo Ausdruck einer soliden Verbraucherentscheidung.
Platos
2021-03-28, 11:02:56
Ja, nvidia scheisst förmlich in die Hosen bei den hohen Stückzahlen, die AMD an die Gamer abgibt. Da müssen sie schon aufpassen :)
MiamiNice
2021-03-28, 11:06:36
Zusätzlich dazu sehe ich das Problem von HOT nicht. Es haben imo sogar die eine NV gekauft die gar nicht wollten. AMD Karten bekommt man doch noch viel schwerer. Oder hab ich was verpasst? Keiner meiner Kumples hat ne AMD gekauft - alle 3090 Strix OC. Und jeder hat eine.
dildo4u
2021-03-28, 11:41:50
Es wurden fast keine RDNA 2 Karten verkauft so lange AMD über 500€ mit CPUs umsetzt, mach es null sinn stattdessen diese großen Chips zu bauen.
https://benchmarks.ul.com/compare/best-gpus?amount=0&sortBy=POPULARITY&reverseOrder=true&types=MOBILE,DESKTOP&minRating=0
Asaraki
2021-03-28, 11:51:15
Zusätzlich dazu sehe ich das Problem von HOT nicht. Es haben imo sogar die eine NV gekauft die gar nicht wollten. AMD Karten bekommt man doch noch viel schwerer. Oder hab ich was verpasst? Keiner meiner Kumples hat ne AMD gekauft - alle 3090 Strix OC. Und jeder hat eine.
Du hast zu wenig Kumpels :D jk ^^
Ne Quatsch, hier kauft jeder was er kriegt... selten eine Zeit gesehen wo es den Leuten so egal war von wem die Karte ist.
Denn selbst in einem "DLSS & RT" Game liefert die 6800XT mehr Frames als die nicht erhältliche 3080 :D
Aber eh, das ist HOT... der fantasiert wieder seinen Markt zum Sonntag ^^
Lehdro
2021-03-28, 21:45:11
Zusätzlich dazu sehe ich das Problem von HOT nicht. Es haben imo sogar die eine NV gekauft die gar nicht wollten. AMD Karten bekommt man doch noch viel schwerer. Oder hab ich was verpasst? Keiner meiner Kumples hat ne AMD gekauft - alle 3090 Strix OC. Und jeder hat eine.
Ist das so? Ich habe mir eine Referenz 6900XT bei AMD Shop bei meinem ersten Versuch am Droptag letzte Woche bestellt. Ich wollte aber eigentlich definitiv eine 3090, aber wo kriege ich die her ohne massiv draufzuzahlen? Ich sehe da absolut keine Möglichkeit, während AMD jede Woche hunderte RDNA2 im eigenen Shop dropped.
Schon "lustig" dass die Karte mit dem absurdestem P/L, die 6900XT (3090 zählt da nicht, da Alleinstellungsmerkmal als TopDog und Speicherking), am leichtesten zu bekommen ist, sogar zum UVP. Traurige Welt...
Sardaukar.nsn
2021-03-29, 00:50:00
Die Nachfrage nach der 3080 ist halt am größten. Daher auch der extremste Aufpreis zur UVP. Das Speicher-Krüppel Argument scheint sich hier nicht zu bestätigen.
MiamiNice
2021-03-29, 01:03:44
Es wurden fast keine RDNA 2 Karten verkauft so lange AMD über 500€ mit CPUs umsetzt, mach es null sinn stattdessen diese großen Chips zu bauen.
https://benchmarks.ul.com/compare/best-gpus?amount=0&sortBy=POPULARITY&reverseOrder=true&types=MOBILE,DESKTOP&minRating=0
Danke Dir :redface:
Wusste doch das da was war. Irgendwas mit begrenzten Wafercontigent, da ist es wirtschaftlicher Chiplets zu bauen.
Du hast zu wenig Kumpels :D jk ^^
Ne Quatsch, hier kauft jeder was er kriegt... selten eine Zeit gesehen wo es den Leuten so egal war von wem die Karte ist.
Denn selbst in einem "DLSS & RT" Game liefert die 6800XT mehr Frames als die nicht erhältliche 3080 :D
Aber eh, das ist HOT... der fantasiert wieder seinen Markt zum Sonntag ^^
+1
Ist das so? Ich habe mir eine Referenz 6900XT bei AMD Shop bei meinem ersten Versuch am Droptag letzte Woche bestellt. Ich wollte aber eigentlich definitiv eine 3090, aber wo kriege ich die her ohne massiv draufzuzahlen? Ich sehe da absolut keine Möglichkeit, während AMD jede Woche hunderte RDNA2 im eigenen Shop dropped.
Schon "lustig" dass die Karte mit dem absurdestem P/L, die 6900XT (3090 zählt da nicht, da Alleinstellungsmerkmal als TopDog und Speicherking), am leichtesten zu bekommen ist, sogar zum UVP. Traurige Welt...
Kann ich Dir nicht sagen. Ich gehöre, wie viele andere, zu den Vorbestellern. Hab das Teil schon diverse Monate in der Kiste, ich habe tatsächlich länger auf den WaKü Block gewartet als auf die Karte. Deswegen bin ich "raus", hab schon länger nicht mehr nach Preisen geschaut.
Ich rechne meine HW Kosten über deren Laufzeit. Ich kaufe daher HW generell bei Release wenn ich ein Upgrade plane.
Manchmal passt es dann eben doch, wenn man einen Bias (ich nenne es gerne Erfahrung^^) hat und nicht lange überlegen muss oder vergleichen muss, was man kauft.
crux2005
2021-03-29, 01:58:56
Die Nachfrage nach der 3080 ist halt am größten. Daher auch der extremste Aufpreis zur UVP. Das Speicher-Krüppel Argument scheint sich hier nicht zu bestätigen.
Die Karte ist ein Speicherkrüppel. Aber wer sich eine 3080 zu UVP oder sogar mehr leisten kann, der kann sich auch in 1-2 Jahren eine 80-er/High-end Karte kaufen wenn der VRAM knapp wird. Also ist ihm das egal.
Thunder99
2021-03-29, 10:23:55
Die Karte ist ein Speicherkrüppel. Aber wer sich eine 3080 zu UVP oder sogar mehr leisten kann, der kann sich auch in 1-2 Jahren eine 80-er/High-end Karte kaufen wenn der VRAM knapp wird. Also ist ihm das egal.
Das sind falsche Rückschlüsse. Kann sein, muss aber nicht. Ich habe mich bewusst damals für eine 1080Ti entschieden, damit ich länger was davon habe. Ist anscheinend nicht mehr möglich bei der 3080. Wer teuer kauft, kauft 2x :freak:
Natürlich ist das so. Es ist doch total naiv zu glauben, dass der Speicherverbrauch nicht steigen wird :freak:.
Er ist in den letzten Jahren suksessive angestigen, wieso soll das jetzt stoppen?
Im Moment gibts weder noch zu kaufen. Die NVs gibts zwar mittlerweile mehr als AMDs, aber die Preise sind derart beim Mond... von 1 Monat bekam man noch 6900XT problemlos für akzeptable Preise und da haben viele gekauft. Ich hab meine 6800 für 839 noch bekommen. Das ist zwar teuer gewesen, aber heute würde man davon träumen. Ich gebe Leo recht, der Markt ist einfach kaputt. Es ist aber eben so, dass die Miner vor allem die Amperes und Turings weggekauft haben und AMDs erst dann weggekauft haben, also diese nicht mehr zu bekommen waren. Das passt auch zur Marktlage. Das einzige, was die Marktanteile anzeigen, ist die Produktionskapazität, die für die Produkte verwendet wird. Bei NV sind das eben nicht nur 8nm Amperes, sondern auch 12FFN Turings in großem Stil. AMD hat halt nur noch veraltete Polaris, die aber sicherlich nur in kleinerer Serie produziert werden.
Daredevil
2021-03-29, 11:00:20
Er ist in den letzten Jahren suksessive angestigen, wieso soll das jetzt stoppen?
Was kann ich denn mit einer 390X 8GB heute nicht mehr spielen in FullHD, was 2015 kein Problem war? Kannst du mir da 10 Spiele nennen?
Weil das wäre in der Tat ein Beweis dafür, dass der Bedarf stetig ansteigt, das sehe ich aktuell aber nicht.
( Wenn du mit Bedarf meinst, das jeder User seine Auflösung auf WQHD-4K-8K aufbläht, stimmt das natürlich. Da hat aber der User den Regler gedrückt, nicht der Hersteller des Spiels )
Ravenhearth
2021-03-29, 11:14:28
Was kann ich denn mit einer 390X 8GB heute nicht mehr spielen in FullHD, was 2015 kein Problem war? Kannst du mir da 10 Spiele nennen?
Weil das wäre in der Tat ein Beweis dafür, dass der Bedarf stetig ansteigt, das sehe ich aktuell aber nicht.
( Wenn du mit Bedarf meinst, das jeder User seine Auflösung auf WQHD-4K-8K aufbläht, stimmt das natürlich. Da hat aber der User den Regler gedrückt, nicht der Hersteller des Spiels )
Die 390X 8GB war für 2015 aber sehr üppig ausgestattet, nicht unähnlich zu 16GB-Karten heute. Ein besserer Vergleich zu heutigen Karten mit 8GB wären 4GB-Karten von damals. Die haben 2015 ausgereicht, aber heute gilt das nicht mehr, siehe z.B. das Fazit aus dem CB-Übersichtsartikel (https://www.computerbase.de/2021-02/amd-radeon-nvidia-geforce-benchmark-test-2021/4/):
Erwähnenswert ist zudem der VRAM-Hunger, der mit den neuen Spielen teils deutlich angestiegen ist. Während im alten Parcours 6 GB ausreichend gewesen sind und selbst 4 GB noch ordentlich liefen, geraten nun selbst 6-GB-Karten immer mal wieder in starke Bedrängnis und 4-GB-Modelle fallen deutlich zurück. Wer mit maximalen Details spielen möchte, sollte daher gleich zu einer Grafikkarte mit mindestens 8 GB greifen. In Raytracing-Titeln reicht selbst das des Öfteren nicht mehr aus, bedenkenlos sind erst 10 GB. Und die dürften ebenfalls nicht mehr lange für alles genügen.
Was kann ich denn mit einer 390X 8GB heute nicht mehr spielen in FullHD, was 2015 kein Problem war? Kannst du mir da 10 Spiele nennen?
Weil das wäre in der Tat ein Beweis dafür, dass der Bedarf stetig ansteigt, das sehe ich aktuell aber nicht.
( Wenn du mit Bedarf meinst, das jeder User seine Auflösung auf WQHD-4K-8K aufbläht, stimmt das natürlich. Da hat aber der User den Regler gedrückt, nicht der Hersteller des Spiels )
Was soll der Quatsch? Was kann man mit einer GTX980 nicht mehr spielen? Da biste dann auf dem richtigen Weg.
mksn7
2021-03-29, 13:11:23
Wir hatten mal eine Diskussion, warum Ampere keine 100% zulegt in Spielen, trotz der verdoppelten FP32 Einheiten. Die Diskussion hatten wir im RDNA3 thread, aber weil das dort eigentlich fehl am Platz war verlager ich das mal hier her.
Wir waren uns (fast) alle einig, dass reiner FP32 Durchsatz schlicht und einfach meistens nicht der limiter ist, und dass es genug andere Flaschenhälse gibt.
Gipsel hatte damals eine Vermutung angestellt:
aber wie mskn7 schon angedeutet hat, dürfte das oft nicht wirklich entscheidend sein (zusätzlich zu den genannten Punkten habe ich auch den leisen Verdacht, daß die Anzahl der Register-Ports bzw. -Bänke bei nV eventuell nicht ausreicht, um in jeder Situation genügend Operanden für alle ALUs ranzuschaffen; bei älteren nv-GPUs war das ja auch schon mal so; spart halt Aufwand [und Strom] bei den Registern [ein wesentlicher Stromfresser bei GPUs]).
Dazu hab ich mittlerweile ein paar interessante Daten dazu. Wir haben hier im Rechenzentrum mit 3-4 Monaten Verspätung ein paar neue nodes mit RTX 3080 bekommen. Um zu testen, ob es mit 8 Stück davon in einem Node mit Temperatur und Throttling Probleme gibt, hab ich einen Code geschrieben, der maximal Strom verbrauchen und maximalen FP32 Durchsatz (ist nicht unbedingt das Gleiche) haben soll. Mit meinem bisherigen Code, der bei Turing und Volta gut funktioniert hat:
for (int i = 0; i < N; i++) {
v = v * a - b;
}
(N ist groß und zur Compilezeit bekannt, wird komplett geunrolled vom Compiler)
hab ich nur 15.6 TFlop/s erreicht, also etwa die Hälfte des möglichen (Ppeak). Das gleiche haben wir mit CUBLAS SGEMM (ohne TC) gemessen.
Das Problem an dem Code ist, dass er eine lange Abhängigkeitskette auf v erzeugt, so dass es innerhalb eines threads keine zwei unabhängigen Instruktionen gibt die gleichzeitig ausgeführt werden können (Anscheinend müssen die beiden Befehle die der scheduler nacheinander issuen kann aus dem gleichen thread kommen)
Also hab ich zwei Summen draus gemacht:
for (int i = 0; i < N; i++) {
v = v * a - b;
v2 = v2 * a2 - b2;
}
So dass es immer zwei unabhängige Befehle gibt. Das hat den Durchsatz auf 20.6 TFlop/s gesteigert, oder fast genau 2/3 Ppeak.
Der code erzeugt folgenden Assambler:
FFMA R17, R10, R17, -R8 ;
FFMA R16, R11, R16, -R9 ;
mit drei Quellregistern. Weil das doch sehr nach einer Registerbandbreitenlimitierung riecht, wie Gipsel vermutet hat, hab ich den Code nochmal geändert und das b weggelassen:
for (int i = 0; i < N; i++) {
v = v * a - a;
v2 = v2 * a2 - a2;
}
Das erzeugt dann
FFMA R14, R8, R14, -R8 ;
FFMA R9, R7, R9, -R7 ;
mit nur zwei Quellregistern. Und, siehe da, damit hab ich dann 29.7 TFlop/s oder 93% Ppeak erreicht. Damit von den zusätzlichen FP32 Einheiten was dabei rumkommt, muss also sowohl genug ILP, also parallel ausführbare Befehle innerhalb eines threads vorhanden sein, und diese Befehle dürfen nur begrenzt viele Register verwenden. Ersteres wird sicherlich öfter mal vorkommen, zweiteres ist schon spezieller. Für FADD oder FMUL ist das aber kein Problem.
TL; DR: NVIDIAS groß angepriesene zusätzliche FP32 Einheit kann nur in speziellen Fällen wirklich genutzt werden.
Troyan
2021-03-29, 13:25:22
Na, eher ist dein Code ineffizient.
Hier mal Luxmark und andere Compute-Benchmarks:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54210-wenig-geforce-fuer-einen-hohen-aufpreis-gigabyte-geforce-rtx-3090-gaming-im-test.html?start=9
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54210-wenig-geforce-fuer-einen-hohen-aufpreis-gigabyte-geforce-rtx-3090-gaming-im-test.html?start=10
Daredevil
2021-03-29, 13:36:00
Was soll der Quatsch? Was kann man mit einer GTX980 nicht mehr spielen? Da biste dann auf dem richtigen Weg.
Also kannst du mir keine nennen? Okay.
Das bedeutet, der Speicherbedarf ist seit 6 Jahren "suksessive angestigen", aber mit einer GPU von 2015 kann ich immer mit wenigen Ausnahmen alles gescheit spielen in FullHD, so das der Speicher nicht überläuft.
Und wenn man nun sagt "Früher waren 8GB aber fürstlich ausgestattet", hätte man früher denn mit einer 390X in 4K spielen können, oder wäre die fürstliche Ausstattung dann nicht doch zusammen gebrochen?
Platos
2021-03-29, 13:49:05
Deine Argumentation ist lächerlich und ich denke, du weisst das genau;)
Der Speicherbedarf misst man nicht am Speicherausbau irgend einer Grafikkarte sondern am Speicherbedarf.
Daredevil
2021-03-29, 13:57:45
Naja okay.
2015 waren 4GB zu wenig und 8GB offensichtlich zu viel.
Heute sind 8GB anscheinend kein Problem für FullHD, das bedeutet in 6 Jahren ist der Bedarf von 4GB auf unter 8GB gestiegen, weil die Menge ja anscheinend ausreicht.
max. 4GB in 6 Jahren.
Das bedeutet also heute, wir brauchen mind. 12GB für FullHD, 16GB für WQHD und 24GB für UHD? ^^
Ich finde Aussagen wie "reicht nicht" und "reich bald nicht mehr" schwierig, wenn die Vergangenheit was anderes gesagt hat.
Sehrwohl sage ich aber auch beim Nvidia Lineup, dass die 3070 keine WQHD Karte ist, die 3080 keine 4K Karte und einzig und alleine die 3090 dort hin passt, wo sie ist.
Lehdro
2021-03-29, 14:00:32
Und wenn man nun sagt "Früher waren 8GB aber fürstlich ausgestattet", hätte man früher denn mit einer 390X in 4K spielen können, oder wäre die fürstliche Ausstattung dann nicht doch zusammen gebrochen?
Was für ein Unsinn. Konnte denn die 4 GiB Karte 4k? Oh wait.
Es tut sich definitiv etwas beim Speicherbedarf, das zu verleugnen ist einfach nur fehl am Platze. Das einzige worüber man diskutieren kann, ist der wirklich benötigte Speicherausbau in der Praxis. Da kommt man mit 10 GiB derzeit noch gut hin, aber in der Zukunft kann sich das auch schnell mal ändern. Siehe 4 & 6 GiB Karten von vor 2 Jahren.
Das bedeutet also heute, wir brauchen mind. 12GB für FullHD, 16GB für WQHD und 24GB für UHD? ^^
8 GiB FullHD, 12 GiB WQHD und 16 GiB und mehr für alles ab 4k. Und die 3070 ist definitiv keine FullHD Karte, das ist wohl eher die 3060 non Ti.
Daredevil
2021-03-29, 14:03:09
Es tut sich definitiv etwas beim Speicherbedarf
Show me. Wo verbrauchen Spiele abseits von höheren Auflösungen viel mehr Speicher als früher?
Mehr will ich doch gar nicht. ^^
12GB reichen nicht für Horizon in WQHD
16GB reichen nicht in CoD für 4K
Warum jetzt so niedrig stapeln?
4k+ braucht den maximal möglichen Ausbau, der war früher 16GB bei der VII und jetzt sind es 24GB bei der 3090, damit man kompromisslos voran gehen kann.
mksn7
2021-03-29, 14:05:04
Na, eher ist dein Code ineffizient.
Die dritte Variante hat 93% Ppeak oder 29.2 TFlop/s (3080) erreicht. Also definitiv nicht ineffizient. Die einzigen Unterschiede du den anderen Varianten liegt in ILP und Registerverwendung. Der gezeigte Code ist ein rein synthetisches code keine Anwendung. Da gibt es keine anderen Limiter mehr.
Der AIDA FP32 henchmark, der auf einer 3090 32 TFlop/s erreicht, ist auch nur ein synthetischer code. Echte Anwendungen können nicht einfach mal was anderes berechnen, so wie ich das getan hab um die Registerbandbreite zu senken.
Die anderen benchmarks geben nur relative Leistung, und keine Floprate an. Wenn ein benchmark eher FADDs und FMULs statt FMAs macht, dann bringt die zweite Einheit auch was. Bei den beiden Renderbenchmarks scheints zu funktioneren.
Wie gesagt, ich habe nur gezeigt dass die Anwendung sich eignen muss, und dass es mehr Hürden gibt um aus der zusätzlichen FP32 Einheit auch was herauszuholen.
Lehdro
2021-03-29, 14:11:26
Show me. Wo verbrauchen Spiele abseits von höheren Auflösungen viel mehr Speicher als früher?
Mehr will ich doch gar nicht. ^^
Trollst du noch, oder diskutierst du schon :tongue:
Du bringst doch selber deine Beispiele:
12GB reichen nicht für Horizon in WQHD
16GB reichen nicht in CoD für 4K
Ansonsten verlinke ich das gerne. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12333334&postcount=19)
Warum jetzt so niedrig stapeln?
Weil es noch Ausnahmefälle sind. In 2 Jahren ist es dann Standard, aber da gibt es dann auch wieder neue Karten mit dann hoffentlich mehr Speicherausbau. Man kann nur hoffen das NV mit dem Speicherknausern irgendwann mal richtig auf die Fresse fällt und dann mal die Lektion lernt. Aber so wie ich unser Glück kenne, wird AMD irgendwann bei dem Spiel lieber mitmachen, siehe 5600XT. Das kann doch nicht im Sinne von uns Endkunden sein...
Daredevil
2021-03-29, 14:18:00
Was mich in der Tat interessiert ist der tatsächliche Bedarf nach mehr Speicher in Spielen, weil der hier oft genannt wird im Vergleich zu "früher".
Also abseits von höheren Auflösungen oder Features, welches man optional einschalten kann, die den Bedarf erhöhen ( DLSS, RT ect. )
Ghost Recon und auch CoD sind in der Tat Spiele, die heute schon in FullHD über die 8GB gehen bzw. man vorher Einschränkungen in kauf nehmen muss. Aber das ist nicht mal eine Hand voll. ( Aber gute Beispiele! )
Das etwaige Features oder höhere Auflösungen den Bedarf steigen lassen, ist mir wohl klar. Das hat aber nichts damit zutun dass Spiele "allgemein" viel mehr Speicher möchten. Das wird oft erwähnt, aber selten mit Fakten belegt.
Hakim
2021-03-29, 14:23:29
Cod WZ zieht schon in der Menü Ansicht teils über 16GB wenn mehr vorhandrn ist, ich weiß nicht ob es ein gutes Beispiel ist. Hatten schon die Diskussion wegen CoD. Sieht so aus als ob es sich einfach viel reserviert wenn ausreichend vorhanden ist
Daredevil
2021-03-29, 14:29:53
Das wäre auch fatal, wenn CoD wirklich soviel braucht, weil als ich das letztens angeschmissen habe, wurden 23GB reserviert in 4K@RT Mid @ High Res Texturen. ( Fand die btw. nicht sehr bemerkenswert, vielleicht bin ich aber auch blind ^^ )
Da würde eine 6900xt ja komplett abstinken gegen, das tut sie ja nicht.
Im Optionsmenu kann man ja auch einstellen, wieviel Speicher das Spiel "reservieren" soll.
Aber die Option gibt es bestimmt auch nicht nur zum Spaß, irgendeinen Sinn wird die ja haben.
Also kannst du mir keine nennen? Okay.
Das bedeutet, der Speicherbedarf ist seit 6 Jahren "suksessive angestigen", aber mit einer GPU von 2015 kann ich immer mit wenigen Ausnahmen alles gescheit spielen in FullHD, so das der Speicher nicht überläuft.
Und wenn man nun sagt "Früher waren 8GB aber fürstlich ausgestattet", hätte man früher denn mit einer 390X in 4K spielen können, oder wäre die fürstliche Ausstattung dann nicht doch zusammen gebrochen?
Eine 390 hat 8GB, natürlich reicht das noch. Was hat das denn mit steigendem Speicherbedarf zu tun? Nachts ist kälter als draußen oder was? Wie gesagt, probier mit heutigen Games mal ne GTX980 aus, dann weisst du wie die Speicherbedarfe gestiegen sind.
Daredevil
2021-03-29, 14:35:47
Wenn man sagt, dass der Speicherbedarf stetig steigt und man deswegen eine GPU mit sehr viel Speicher nehmen sollte, der Bedarf aber so langsam steigt, dass man ihn halt nicht benötigt, dann ist erstere Aussage mit wenig Wert versehen.
Zahlen, Daten und Fakten sind essentiell, weil man sonst nicht die passende Zuordnung findet.
Für mich ist ein "Bedarf steigt stetig" ein "Früher hat ein Spiel 4.4GB benötigt, heute sind es schon 8.9GB in FullHD!"
Diese Aussage habe ich gelesen, als du meintest, dass es "suksessive angestigt".
Was "Bedarf steigt stetig" nicht für mich ist, sind "Früher hat ein Spiel 4.4GB benötigt, heute sind es schon 6,2GB in FullHD!"
Das ist laut den aktuellen Daten im Schnitt der Spiele die gelebte Realität, abseits von gestiegenen Auflösungen und optionalen Features.
Warum soll ich Angst haben, heute 8GB für FullHD oder 12GB für WQHD zu kaufen, wenn der Bedarf zwar stetig steigt, aber in so einem Schneckentempo, dass es mir egal sein kann?
( Natürlich nimmt man lieber eine 6800xt als eine 3080 für WQHD, das steht ja außer Frage. Weil das Gesamtpaket ohne RT+DLSS besser ist, nicht nur der Speicher )
FastAndy
2021-03-29, 14:36:15
Die Karte ist ein Speicherkrüppel.
ja in foren für bestimmte user. die 98% draußen in der realen welt feiern die karte und freuen sich daran, wenn überhaupt mal nen ruckler kommt, kümmert das niemanden.
diese ganzen dramen kommen nur von freaks insbesondere in diesem forum, da wird nur auf den frametimes graphen gestarrt und gleich ausgeflippt wenn da mal was ausschlägt. :comfort2:
klar, hier geht es um so sachen, aber das hat mit normalen usern einfach mal gar nichts zu tun, die schließen aber von sich auf andere. beweisen ja auch genug zahlen:P
Daredevil
- 2012 hat man sich über die 3GB der Tahiti lustig gemacht
- 2013 hat man die 4GB der Hawaii schon respektiert
- 2014 hat man die 4GB der 9x0 schon mit skeptischem Auge betrachtet
- 2015 hat man sich über die 8GB der 3090 lustig gemacht aber auf der anderen Seite die nur 4GB der Fury schon stark kritisiert
- 2016 hat man die 8GB begrüßt und die 3GB der 1060 war schon damals stark einschränkend
- 2017 bis 19 gabs 6-8GB, das war kein Problem, wir hatten aber keine neue Konsolengeneration und die alte Generation stieß an ihre Grenzen
- 2020 gibts schon Titel die von mehr als 8GB profitieren und das vor(!) der neuen Konsolengeneration
Jetzt die Preisfrage:
Was meinst du, wie das jetzt in Zukunft mit einer neuen(!) Konsolengeneration, die doppelt soviel VRAM mitbringt, laufen wird?! Wir haben von 4GB ist knapp bis zu 8GB ist Knapp in einer Konsolengeneration geschafft. Vielleicht braucht man keine 16GB, aber 12GB wird man mittelfristig auf jeden Fall brauchen. Und dann kommt auch noch VRAM-Fresser RT dazu, der der PC-Technik noch so richtig Beine machen wird. Schon das billige Tomb Raider, das nur RT-Schatten hat, braucht massiv mehr VRAM, wenn RT eingeschaltet wird. PCGH hat ja jetzt schon einige RT-Fälle, bei denen 12GB 3060 schneller ist als eine 8GB 3070 wegen VRAM. Ich kauf mir extra ne 3070 wegen schnellem RT - tja schade...
Daredevil
2021-03-29, 15:31:40
Jetzt die Preisfrage:
Was meinst du, wie das jetzt in Zukunft mit einer neuen(!) Konsolengeneration, die doppelt soviel VRAM mitbringt, laufen wird?! Wir haben von 4GB ist knapp bis zu 8GB ist Knapp in einer Konsolengeneration geschafft. Vielleicht braucht man keine 16GB, aber 12GB wird man mittelfristig auf jeden Fall brauchen. Und dann kommt auch noch VRAM-Fresser RT dazu, der der PC-Technik noch so richtig Beine machen wird. Schon das billige Tomb Raider, das nur RT-Schatten hat, braucht massiv mehr VRAM, wenn RT eingeschaltet wird. PCGH hat ja jetzt schon einige RT-Fälle, bei denen 12GB 3060 schneller ist als eine 8GB 3070 wegen VRAM. Ich kauf mir extra ne 3070 wegen schnellem RT - tja schade...
Das sind aber alles Beispiele, die mit WQHD zusammen hängen und nicht von Spielen allgemein abhängig sind.
Ich kenne die PCGH Tests und finde auch das Fazit gut:
https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/RTX-3060-Was-bringen-12-GByte-1367634/
Die Benchmarks der speicherseitig anspruchsvollsten PC-Spiele mit aktivem Raytracing bestätigen, dass mit 6 GiByte nichts mehr zu holen ist. Sie zeigen aber auch, dass 8 GiByte über kurz oder lang zum Problem werden. Da wir hier von Full HD und WQHD (mit DLSS-Upscaling) sprechen, also keineswegs abgehobenen Auflösungen, ist zumindest eine milde Panik angebracht. Die markanten Siege der Geforce RTX 3060 12GB gegenüber der gewöhnlich um 29 Prozent schnelleren RTX 3060 Ti 8GB zeigen, wohin die Reise künftig gehen könnte. Was Sie mit dieser Information anfangen, bleibt Ihnen überlassen.
Künftige Spiele werden zeigen, wie die Geschichte mittelfristig ausgeht. Mit DirectX 12 Ultimate respektive dessen Entsprechung bei Next-Gen-Konsolen stehen neue Möglichkeiten bereit, um die neuen Effekte effizienter zu berechnen und auch Speicher zu sparen. Wir skizzieren hier somit nur ein mögliches Zukunftsszenario. Die Erfahrung lehrt, dass es immer schlecht optimierte Spiele und Effizienzperlen geben wird - aber für welche rüsten Sie auf?
Aber nach wie vor sehe ich noch nicht den dringenden Bedarf, 8GB bei FullHD zu verteufeln und 16GB bei UHD+ zu deckeln, weil da der Bedarf aufhört. :D
Wenn man 12GB für FullHD braucht, dann ist jede Navi2 Karte für UHD ebenfalls unbrauchbar und maximal eine WQHD Karte.
Ist dem so? Ich denke nicht.
Spielst du in FullHD? :freak:
WQHD ist heute Standard.
Ich glaube auch, dass du den VRAM-Verbrauch der Auflösung massiv überschätzt. Und nein, das ist unabhängig von der Auflösung. Dass die PCGH trotzdem diplomatisch bleibt ist logisch, denn deren Kunden kaufen ja auch Hardware, zu der sie gern was lesen wollen. Und du gehts überhaupt nicht auf meine Historie ein. Denn es ist so sonnenklar, wie dass auf dem Tag die Nacht folgt, dass der VRAM-Verbrauch in Zukunft weiterhin steigen wird. Das ist ne Binsenweisheit, dem entkommst du nicht.
Daredevil
2021-03-29, 15:47:06
Ich weiß ehrlich gesagt nicht, was ich mit deiner Historie anfangen soll.
Wir sind in 2021 und heute gibt es viele Möglichkeiten, RAM Bedarf abzudämpfen ohne mehr RAM zu verbauen.
PCIe 4.0 + Geschwindigkeit des Speichers allgemein
DLSS bzw. ein AMD Äquivalent ( weniger Last, gleichbleibende Qualität )
Resizable BAR
DirectStorage
Shared Memory ( Apple M1 )
Es gibt mittlerweile viele interessanten Technologien, welche nicht immer mehr erfordern, das man mehr Ressourcen einsetzt, sondern das man sie auch klug nutzt. Das gleiche gilt natürlich auch für die Konsolen.
Wir reden ja jetzt von WQHD, WQHD ist die Zielauflösung der Series S, welche 10GB verbaut hat für System UND Spiele. ( 8 GB @ 224 GB/s, 2GB @ 56 GB/s
)
Erscheinen dort Spiele in WQHD nun gar nicht, oder muss sich jeder eine Series X kaufen?
Du redest ja von neuen Konsolen, die kleinste der neuen hat 8GB schnellen shared Speicher. Warum brauche ich dann 12GB auf dem PC nochmal?
Aber ich denke, wir wissen so langsam, wie der andere die Zukunft sieht. :)
Denniss
2021-03-29, 15:47:39
wer ne 3080 feiert und ob der 10GiB VRAM noch lobt der hat keinen Plan von Hardware. Für eine Karte in der Preisklasse (nach UVP) ist das heutzutage einfach mindestens 2 GiB zuwenig (wenn nicht gar 6 GiB).
THEaaron
2021-03-29, 15:51:30
Spielst du in FullHD? :freak:
WQHD ist heute Standard.
Öhm für wen soll WQHD denn Standard sein? Ich würde eher noch auf eine starke Dominanz in 1080p setzen die sich langsam zu 1440p bewegt mit 2160p als absolute Nische in Betrachtung zum Gesamtmarkt.
FastAndy
2021-03-29, 16:08:04
wer ne 3080 feiert und ob der 10GiB VRAM noch lobt der hat keinen Plan von Hardware. Für eine Karte in der Preisklasse (nach UVP) ist das heutzutage einfach mindestens 2 GiB zuwenig (wenn nicht gar 6 GiB).
deswegen kauft die auch keiner. :rolleyes:
ich hab selbst 24gb aber keine ahnung wofür. völliger schwachsinn für mich (und alle die ich kenne)
mironicus
2021-03-29, 16:28:56
NVidia ist halt schlau. Die Nachfolgegeneration hat sicherlich mehr Speicher und der Haben-Drang wird dadurch noch mehr getriggert, die RTX 3070/3080 mit der direkten Nachfolgerkarte zu ersetzen. 3090-Besitzer können da etwas entspannter sein.
Daredevil
2021-03-29, 16:38:55
Und bislang sind die neuen NextGen Spiele auch noch nicht da, weil es die NextGen nicht zu kaufen gibt für nen gescheiten Preis. Nvidia ist mit dieser 10GB Kiste wahrlich gut durch den Markt gekommen, als hätten sie mehr gewusst.
Spiele gibts ja auch kaum neue, die irgendwie Richtung NextGen gehen könnten.
Die haben sich da schon echt durchgemogelt, auch durch das aussetzen der "3080ti mit 20GB Speicher".
Entweder nimmste ne 3090, oder du lässt es für 4K.
just4FunTA
2021-03-29, 16:39:26
Öhm für wen soll WQHD denn Standard sein? Ich würde eher noch auf eine starke Dominanz in 1080p setzen die sich langsam zu 1440p bewegt mit 2160p als absolute Nische in Betrachtung zum Gesamtmarkt.
Ich glaube nicht das sich jemand eine rtx3080 kauft um dann in fullhd zu spielen. Also falls sie denn verfügbar wäre. Finde diese Fullhd Diskussion mehr als befremdlich.
Klar gibt es fullhd Spieler aber die kaufen doch jetzt keine highendkarten, die spielen eher ihr wow, cstrike und co auf nem uraltrechner.
Denniss
2021-03-29, 17:02:31
bei nvidia ist halt ein riesenloch im Portfolio, da ist nix zwischen 10 und 24GiB VRAM. 24 braucht kein Spieler aber mehr als 10 könnte man schon gebrauchen speziell im von nvidia angepriesen 4k und 8k gaming.
Dural
2021-03-29, 17:05:31
Die neuen Konsolen haben 16GB VMemory? Alles klar :freak:
Wo würden wir den hinkommen wenn ein Betriebssystem und sonstiges zeug auch Speicher benötigen was aber NICHT bei Grafikkarten im Speicher liegt.
Die Diskussion ist so was von lächerlich, erst recht weil es Alternativen gibt, die aber auch nicht lieferbar sind :freak:
Daredevil
2021-03-29, 17:18:30
@Denniss
Jep!
Und da der Speed am schwächsten gemeinsamen Nenner hängt, ist das Portfolio halt so:
3060:
FHD ++++
WQHD ++
UHD +
3060ti:
FHD ++++
WQHD +
UHD +
3070:
FHD +++++
WQHD +
UHD +
2080ti:
FHD +++++
WQHD ++++
UHD ++
3080:
FHD +++++
WQHD +++
UHD ++
3090:
FHD +++++
WQHD +++++
UHD +++
FHD haste mitder 3060 safe, mit der 3070 gehts in die HighFPS Range.
WQHD hat die 3060 den Speicher, ist aber generell zu lahm. Die 3080 hat den Speed, aber teilweise zu wenig Speicher.
UHD hat die 3090 den Speicher, der Speed könnte aber immer mehr sein für RT.
Ne 2080ti ist die bessere 3070, ansonsten hat man nur Kompromisse.
AMD deckt FullHD komplett ab, WQHD ebenso und halt UHD schon alleine mit der 6800. Wer mehr Speed will, kauft die nächst größere. Man erstickt aber generell immer im Speicher.
Nvidias Lineup sieht aus wie zusammen gewürfelt. :D
Die neuen Konsolen haben 16GB VMemory? Alles klar :freak:
Die PS5 kann scheinbar theoretisch bis zu 100Gb "für Texturen verwenden"...
X-Box (Microsoft) sprach von der ~3 fachen Menge des dezidierten GPU-Speichers für Texturen...
https://itigic.com/de/what-is-amd-hbcc-features-and-how-it-works/ (5.20)
"Es wird davon ausgegangen, dass diese Technologie in Zukunft den Grafikspeicherbedarf der anspruchsvollsten Spiele reduzieren wird, da sie, wie wir erklärt haben, einen Teil des Arbeitsspeichers des Computers verwendet."
Die Konsolen nutzen dafür aber die schnelle SSD direkt.
Keine Ahnung wie schnell und wo hin der Zug fährt... (eigentlich sieht man es aber schon)
Ich kaufe neu nichts mehr unter 16Gb und 4K hab ich seit Anfang 17... für mich ist das keine Nische.
M.f.G. JVC
Eben da die neuen Konsolen nur 16gb RAM gesamt haben und aktuell auch noch die alten Konsolen unterstützt werden, ist das die nächsten 2 Jahre kein Problem und auch danach. Höhere Auflösungen bei den kleineren kann man problemlos mit DLSS erreichen.
Dural
2021-03-29, 17:27:38
Find es einfach lustig, gerade die neuen Konsolen haben viel zu wenig Ram, erst recht im Vergleich zu der Vorgänger Generation. Das wird aber nie beanstandet und durch Marketing blabla schön geredet.
Hätten die neuen Konsolen 24GB+ hätte NV nach ziehen müssen, jetzt haben sie halt nur darauf reagiert.
Der Speicher ist aktuell einfach zu teuer, deswegen wählt man diesen Weg.
Lehdro
2021-03-29, 17:55:02
Der Speicher ist aktuell einfach zu teuer, deswegen wählt man diesen Weg.
Deswegen ist die 3060 mit 12 GiB ausgestattet, aber die viel teurere 3070 nur mit 8 GiB. So ein Quatsch. NV hat Mist gebaut und löffelt die Suppe jetzt so gut es geht aus. Aber gemerkt dass da was nicht passt haben sie garantiert, dafür kommen dann die Tis um den Markt abzugreifen, der eben jetzt nicht zugreift/zugreifen will.
MiamiNice
2021-03-29, 18:00:24
Find es einfach lustig, gerade die neuen Konsolen haben viel zu wenig Ram, erst recht im Vergleich zu der Vorgänger Generation. Das wird aber nie beanstandet und durch Marketing blabla schön geredet.
Hätten die neuen Konsolen 24GB+ hätte NV nach ziehen müssen, jetzt haben sie halt nur darauf reagiert.
Der Speicher ist aktuell einfach zu teuer, deswegen wählt man diesen Weg.
:uconf3:
Hakim
2021-03-29, 23:38:18
Wow Asrock hat jetzt tatsächlich für meinen alten z370 Taichi einen Beta Bios mit rBAR veröffentlicht. Nennen die zwar C.A.M aber who cares. Richtig nice, hätte nicht mit gerechnet. Die Motivation meine Graka zu flashen steigt doch somit.
Rampage 2
2021-03-30, 06:44:24
Wir hatten mal eine Diskussion, warum Ampere keine 100% zulegt in Spielen, trotz der verdoppelten FP32 Einheiten. Die Diskussion hatten wir im RDNA3 thread, aber weil das dort eigentlich fehl am Platz war verlager ich das mal hier her.
Wir waren uns (fast) alle einig, dass reiner FP32 Durchsatz schlicht und einfach meistens nicht der limiter ist, und dass es genug andere Flaschenhälse gibt.
Gipsel hatte damals eine Vermutung angestellt:
Dazu hab ich mittlerweile ein paar interessante Daten dazu. Wir haben hier im Rechenzentrum mit 3-4 Monaten Verspätung ein paar neue nodes mit RTX 3080 bekommen. Um zu testen, ob es mit 8 Stück davon in einem Node mit Temperatur und Throttling Probleme gibt, hab ich einen Code geschrieben, der maximal Strom verbrauchen und maximalen FP32 Durchsatz (ist nicht unbedingt das Gleiche) haben soll. Mit meinem bisherigen Code, der bei Turing und Volta gut funktioniert hat:
for (int i = 0; i < N; i++) {
v = v * a - b;
}
(N ist groß und zur Compilezeit bekannt, wird komplett geunrolled vom Compiler)
hab ich nur 15.6 TFlop/s erreicht, also etwa die Hälfte des möglichen (Ppeak). Das gleiche haben wir mit CUBLAS SGEMM (ohne TC) gemessen.
Das Problem an dem Code ist, dass er eine lange Abhängigkeitskette auf v erzeugt, so dass es innerhalb eines threads keine zwei unabhängigen Instruktionen gibt die gleichzeitig ausgeführt werden können (Anscheinend müssen die beiden Befehle die der scheduler nacheinander issuen kann aus dem gleichen thread kommen)
Also hab ich zwei Summen draus gemacht:
for (int i = 0; i < N; i++) {
v = v * a - b;
v2 = v2 * a2 - b2;
}
So dass es immer zwei unabhängige Befehle gibt. Das hat den Durchsatz auf 20.6 TFlop/s gesteigert, oder fast genau 2/3 Ppeak.
Der code erzeugt folgenden Assambler:
mit drei Quellregistern. Weil das doch sehr nach einer Registerbandbreitenlimitierung riecht, wie Gipsel vermutet hat, hab ich den Code nochmal geändert und das b weggelassen:
for (int i = 0; i < N; i++) {
v = v * a - a;
v2 = v2 * a2 - a2;
}
Das erzeugt dann
mit nur zwei Quellregistern. Und, siehe da, damit hab ich dann 29.7 TFlop/s oder 93% Ppeak erreicht. Damit von den zusätzlichen FP32 Einheiten was dabei rumkommt, muss also sowohl genug ILP, also parallel ausführbare Befehle innerhalb eines threads vorhanden sein, und diese Befehle dürfen nur begrenzt viele Register verwenden. Ersteres wird sicherlich öfter mal vorkommen, zweiteres ist schon spezieller. Für FADD oder FMUL ist das aber kein Problem.
TL; DR: NVIDIAS groß angepriesene zusätzliche FP32 Einheit kann nur in speziellen Fällen wirklich genutzt werden.
Hatte nicht schon Nvidia's NV3x (GeForce FX 5xxx) ein Problem mit einem zu knappen Register-File? Laut robbitop sogar dessen Nachfolger (NV4x, G70) bis zu einem gewissen Grad. Blieb dieses Problem auch beim G80 noch bestehen?
zum Thema: was für Flaschenhälse könnte es denn noch geben bei der Ampere-Architektur? Zu wenig Raster-Engines/Polygon-Durchsatz (deren Anzahl hat sich NICHT analog zu der Verdopplung der Recheneinheiten verdoppelt; so dass ein Ampere-GPC jetzt doppelt so viele SPs hat, wie ein Turing-GPC), weniger Granularität pro GPC = weniger Kontrollogik = weniger Auslastung der Recheneinheiten, keine nennenswerte Steigerung der ROPs & TMUs, etc. ...
Und lässt sich der GA104 besser auslasten als GA102 - analog zum Phänomen beim TU104 vs. TU102? Letztere hat 12 SMs/768 SPs pro GPC während Erstere viel schlanker ist mit nur 8 SMs/512 SPs pro GPC und deswegen eine höhere Auslastung/Recheneffizienz schafft als ein TU102-GPC - bei Ampere ist es prozentual Dasselbe: GA102 hat 1536 SPs pro GPC, GA104 "nur" 1024 SPs/GPC. Müsste der GA104 deswegen nicht deutlich besser ausgelastet werden bzw. mehr von seinem theoretischen FP32-Durchsatz erreichen können als die GA102-GPUs?
R2
robbitop
2021-03-30, 08:49:33
Ich finde die Anzahl an FPU wird heute zu schnell als Indikator für Leistung genommen.
Die INT ALUs im SM wurden lediglich um die Fähigkeit erweitert auch FP32 Formate zu verarbeiten. Das war sicherlich ziemlich günstig ausgehend vom Turing SM. Somit sicher ein geschickter Schachzug. Dass das aber keine Leistungsverdoppelung allein bringt, sollte klar sein.
@mksn7
Hast du diesen Test auch mal bei Pascal oder Maxwell gemacht? Dort hat jeder SM IIRC ja einen recht ähnlichen Aufbau was die FPUs betrifft. Allerdings mit dem Unterschied, dass alle FPUs auch INT verarbeiten können bei Pascal. Ggf. gab es da mehr Register pro FPU? Die Abhängigkeit aus dem ersten Programmteil würde ich ähnlich vermuten.
Kepler war in der Hinsicht sogar noch "schlimmer" mit +50% FPUs pro SM ggü Pascal, Maxwell und Ampere.
Sonyfreak
2021-03-30, 09:23:43
AMD deckt FullHD komplett ab, WQHD ebenso und halt UHD schon alleine mit der 6800. Wer mehr Speed will, kauft die nächst größere. Man erstickt aber generell immer im Speicher. Nvidias Lineup sieht aus wie zusammen gewürfelt. :DNvidia hätte den Bordpartnern ja auch die Möglichkeit geben können, zwei Versionen der Karten aufzulegen: Zum Beispiel die 3070 mit 8 und 16GB und die 3080 mit 10 und 20GB. Und schon wären alle zufrieden gewesen. So hat sich Nvidia für die kundenfeindliche Variante entschieden.
mfg.
Sonyfreak
Darauf läuft es hoffentlich auch hinaus, wenn der Miningkram abebbt irgendwann mal.
mksn7
2021-03-30, 10:30:26
zum Thema: was für Flaschenhälse könnte es denn noch geben bei der Ampere-Architektur? Zu wenig Raster-Engines/Polygon-Durchsatz (deren Anzahl hat sich NICHT analog zu der Verdopplung der Recheneinheiten verdoppelt; so dass ein Ampere-GPC jetzt doppelt so viele SPs hat, wie ein Turing-GPC), weniger Granularität pro GPC = weniger Kontrollogik = weniger Auslastung der Recheneinheiten, keine nennenswerte Steigerung der ROPs & TMUs, etc. ...
R2
Der Klassiker wäre ja die Speicherbandbreite, aber ich glaube dass Tests eher gezeigt haben dass die Performance mit mehr Speicherbandbreite nicht soo stark steigt.
Ein anderer Grund sind sicherlich all die geteilten Ressourcen wie die fixed function Sachen, wie du genannt hast.
Ich denke aber auch dass die meisten Non FP32 Ressourcen innerhalb einer SM, sich eben nicht verdoppelt haben. Die maximale IPC (im buchstäblichsten Sinne) hat sich nicht verändert, die Load/Store rate (wobei, gab es bei Ampere nicht eine L1 cache Änderung?) die Menge an Registern um mehr Threads gleichzeitig vorzuhalten, buffer für outstanding loads um Speicherlatenzen zu überbrücken, die L2 Cachebandbreite (pro SM), usw...
Ich denke wenn NVIDIA doppelt soviele SMs bei gleicher FP32 Einheitenzahl (also Turing SMs) verbaut hätte, dann wäre der Speedup deutlich höher gewesen. (aber wäre eine dumme Konfiguration, weil rießiger, unausgewogener Chip)
mksn7
2021-03-30, 10:33:34
Ich finde die Anzahl an FPU wird heute zu schnell als Indikator für Leistung genommen.
Die INT ALUs im SM wurden lediglich um die Fähigkeit erweitert auch FP32 Formate zu verarbeiten. Das war sicherlich ziemlich günstig ausgehend vom Turing SM. Somit sicher ein geschickter Schachzug. Dass das aber keine Leistungsverdoppelung allein bringt, sollte klar sein.
@mksn7
Hast du diesen Test auch mal bei Pascal oder Maxwell gemacht? Dort hat jeder SM IIRC ja einen recht ähnlichen Aufbau was die FPUs betrifft. Allerdings mit dem Unterschied, dass alle FPUs auch INT verarbeiten können bei Pascal. Ggf. gab es da mehr Register pro FPU? Die Abhängigkeit aus dem ersten Programmteil würde ich ähnlich vermuten.
Kepler war in der Hinsicht sogar noch "schlimmer" mit +50% FPUs pro SM ggü Pascal, Maxwell und Ampere.
Die meisten INT instructions haben vermutlich auch eher zwei Operanden, da wäre eine volle Anbindung mit drei Operanden auch verschwendet gewesen. Ich glaube auch dass es einfach günstig war. Die Datenpfade waren schon da.
Maxwell ist nicht mehr drin in unserem Testcluster. Aber mal mit Pascal:
GTX 1080 Ti 28 SM, 4*32 FP32/SM | 1771 MHz 11317 GFlop/s 0.89 Flop/cycle
| 1733 MHz 11631 GLop/s 0.94 Flop/cycle
| 1809 MHz 12133 GFlop/s 0.94 Flop/cycle
(Tabelle hab ich nicht hinbekommen)
In jedem Fall geht bei Pascal 1 FP32 Instruktion pro Takt (und scheduler), egal wie der Test aussieht. Mit zwei unabhängigen Befehlen kommt man ein klitzekleines bisschen näher ans Limit. Der dritte Test, wo nur 2 statt 3 Quelloperanden gelesen werden, hat die gleiche performance wie der zweite, aber anscheinend wird ein klein wenig Energie gespart. Dadurch ist der Takt ein wenig höher (alle Messungen hängen immer im power limit, der ungethrottelte Takt wäre 1885 MHz)
WedgeAntilles
2021-03-30, 10:35:31
Ich glaube nicht das sich jemand eine rtx3080 kauft um dann in fullhd zu spielen. Also falls sie denn verfügbar wäre. Finde diese Fullhd Diskussion mehr als befremdlich.
Klar gibt es fullhd Spieler aber die kaufen doch jetzt keine highendkarten, die spielen eher ihr wow, cstrike und co auf nem uraltrechner.
Ich hätte mir vermutlich eine 3080 gekauft.
Und ich spiele auf FullHD.
Die 3080 hätte mir dann wieder 5,6 Jahre gereicht und wäre daher eine tolle Karte für mich gewesen. Für 700-750 Euro.
So wie ich aktuell immer noch eine 970 drin habe. (Ja, die Karte die laut vielen hier völlig unbrauchbarer Müll ist. Ich bin mit der Karte völlig zufrieden.)
Die Diskussion ist eigetnlich auch ziemlich müsig und für den Massenmarkt uninteressant.
Alleine, dass Nvidia eben keine größeren Speicherbestückungen anbietet (was technisch ja problemlos möglich wäre. Sei es durch doppelte Speicherbelegung oder durch Produktion von 1,5GB Chips und damit +50% Speicherbestückung) zeigt ja eindeutig, dass es schlicht und ergreifend nicht notwendig ist.
Der Marktanteil steigt auch so. Weil das Speicherargument wohl für die Masse ein absolutes Nicht-Thema ist.
Ob das jetzt primär dran liegt das AMD nix liefern kann? Völlig irrelevant.
Ich denke schon, dass bei einer anderen Marktsituation Nvidia speichertechnisch Alternativen geboten hätte - das sie das nicht tun, finde ich sehr negativ - wenn ich als Kunde die Wahl habe ist das immer besser.
Fakt ist aber: Der Marktanteil steigt auf über 80%.
Wie wird also wohl der Speicherbedarf in den nächsten Jahren bei Spielen sein?
So, dass die große Mehrheit das Spiel kaum zocken kann weil zu wenig Vram?
Oder so, dass die gigantische Mehrheit es zocken können wird?
Ja, schwierige Frage. Nicht.
Fragman
2021-03-30, 10:45:14
Die Frage kann man vielleicht beim Nachfolger aufmachen falls nv wieder zu wenig verbaut. Die aktuelle Situation laesst die Frage aber komplett unwichtig erscheinen.
WedgeAntilles
2021-03-30, 10:52:50
Die Frage kann man vielleicht beim Nachfolger aufmachen falls nv wieder zu wenig verbaut. Die aktuelle Situation laesst die Frage aber komplett unwichtig erscheinen.
Also ich hoffe doch sehr, dass Lovelace nicht wieder ne 4070 mit 8GB bringt.
Sonderlich sexy wäre ihr Pornchip (jaja, ich weiß, dass der Name angeblich auf Ada basiert...) dann nämlich nicht.
Denke aber schon, dass wir da die 16GB sehen werden.
Und vielleicht kann man die Generation dann ja sogar zu nem halbwegs normalen Preis kaufen - langsam aber sicher muss meine 970 nämlich in Rente...
mksn7
2021-03-30, 11:40:40
So, jetzt auch noch mal mit Turing, und mit vollständigeren Daten von Ampere:
GTX 1080Ti, Pascal, 28 SM, 4*32 FP32/SM | 1771 MHz 11317 GFlop/s 0.89 Flop/cycle
| 1733 MHz 11631 GLop/s 0.94 Flop/cycle
| 1809 MHz 12133 GFlop/s 0.94 Flop/cycle
RTX 2080Ti, Turing, 68SM, 4*16 FP32/SM | 1860 MHz 15509 GFlop/s 0.96 Flop/cycle
| 1890 MHz 15981 GLop/s 0.97 Flop/cycle
| 1890 MHz 16180 GFlop/s 0.98 Flop/cycle
RTX 3080, Ampere, 68SM, 4*2*16 FP32/SM | 1920 MHz 16315 GFlop/s 0.97 Flop/cycle
| 1920 MHz 21357 GFlop/s 1.28 Flop/cycle
| 1800 MHz 29183 GFlop/s 1.86 Flop/cycle
Bei Turing kann man spekulieren, dass man einen höheren Prozentsatz vom Maximum sieht, weil die Integer unit den ein oder anderen Overhead (loop mechanics) noch übernimmt. Der Einfluss ist aber bei diesem Test auf jeden Fall super klein, weil auf 256 FMAs nur noch ~6 integer instructions kommen. Man kann sich auch einbilden, dass man sehen kann, wie bei den registerbandbreitenintensiveren ersten zwei Tests dieser Vorteil geringer ist. Um das herauszuarbeiten müsste ich wohl weniger FMAs machen, so dass das ratio mehr Int hat.
Bei Ampere wären die theoretischen Werte, falls meine Theorie richtig ist, 1.0 Flop/cycle, 1.33 Flop/cycle und 2.0 Flop/cycle. Es werden wohl immer zwei Instruktionen aus dem gleichen thread zusammen geiussed, deswegen die Steigerung von 1 auf 1.33 Instruktionen wenn es unabhängige Instruktionen gibt. Das register file müsste dann 4 Operanden pro Takt liefern können, bei 3 Quelloperanden pro Instruktion sind das dann 4/3 = 1.33 Instruktionen pro Takt.
@mksn7: danke für die Test und das Teilen der Ergebnisse. Sehr interessant Irgendwie erwartbar aber dennoch schön zu sehen. Vorallem Turing vs. Ampere. Nimmste dann noch inbetracht, dass Turing IOPS parallel ausführen kann ohne FP-Rechenwerke zu blockieren relativiert sich das Ampere-Wunder schon ziemlich.
robbitop
2021-03-30, 12:57:51
Interessant, dass Pascal seine Leistung in allen 3 Szenarien gut auf die Straße zu bringen können scheint. Obwohl es auch 128 SPs pro SM sind. Anscheinend sind die Ampere SMs wohl doch trotz gleiche Anzahl an FPUs limitierter als Pascals.
mksn7
2021-03-30, 14:01:23
Pascal's SMs sind dicker, mit 4 dual issue schedulers. Von Pascal zu Turing sind es dann nur noch 4 single issue scheduler, und aber auch halbierte FP32 Einheiten, so dass issue rate und FP32 Einheiten die gleiche Balance haben. Ampere hat die FP32 Zahl wieder auf den Stand von Pascal gebracht, aber trotzdem noch nur halbe issue rate. Da ist es natürlich schwieriger ans Maximum ranzukommen.
robbitop
2021-03-30, 14:09:30
Ggf. bohrt man die SMs ja bei Lovelace wieder auf.
AffenJack
2021-03-30, 17:56:21
Ggf. bohrt man die SMs ja bei Lovelace wieder auf.
Das glaube ich tatsächlich auch. Man muss sich ja nur angucken, wie groß die Amperes sind. Ich glaube am Ende ist man da den Kompromiss eingegangen und hat etwas Fläche gespart. Die Alternative wäre gewesen weniger SM, damit aber auch weniger TMUs insgesamt. Dies sah man wohl erstmal noch als nachteiliger. Da sich Engines aber immer mehr Richtung pures Compute entwickeln kann man das mit der nächsten Gen erweitern.
-/\-CruNcher-/\-
2021-04-03, 19:58:42
Scheisse er hat Architect Samples von zwei Lovelace Karten LiftOFF
0frNP0qzxQc
Screemer
2021-04-03, 20:27:41
Scheisse er hat Architect Samples von zwei Lovelace Karten LiftOFF
https://youtu.be/0frNP0qzxQc
A+ for effort!
-/\-CruNcher-/\-
2021-04-03, 20:29:35
Manche sachen sind der Hammer die blenden selbst mich wie er das durchführt der könnte nen kompletes Fake Review machen das würde wohl niemand in Frage stellen :D
Das Timing das ist der Hammer wie der noteit exakt wams und rein und es ist kein CGI/VFX definitiv nicht wobei muss man sich frame by frame anschauen ist schon auffälig das es seine Details verliert was wie nen plötzlicher Luminance change aussieht aber eben bei der Youtube Qualität absolut schwer zu sagen und auch das tonemapping verändert sich so als würde die Sonne plötzlich durchs Fenster scheinen und ne Auto White Balance Verschiebung stattfinden.
Sunrise
2021-04-04, 11:41:06
Scheisse er hat Architect Samples von zwei Lovelace Karten LiftOFF
https://youtu.be/0frNP0qzxQc
Alter, der Typ hats irgendwie drauf, die Dummys sehen besser aus als NVs eigene, die sie in der Vergangenheit präsentiert hatten...
Nur aufgrund der Übertreibung weiß man dass es Fake ist, aber echt sehr gut gemacht.
-/\-CruNcher-/\-
2021-04-04, 14:05:27
Er bekommt nur ein immer "größeres" Problem pun intended, die nächsten Karten werden nicht mehr in den ganzen Frame passen :D
Irgendwann haben die Karten die Dimension eines DXG Pods :D
prinz_valium_2
2021-04-17, 12:28:54
https://cdn.videocardz.com/1/2021/04/MSI-GeForce-RTX-3080-Ti-VENTUS-3X-1.jpg
Da sind sie.
Hoffe mal auf Referenz Modelle, die es für 999€ gibt.
Aber es wird wohl auf 1200 bis 1500 UVP für custom Modelle hinauslaufen :(
Troyan
2021-04-17, 12:41:40
Hoffe auf eine Krypto-Bremse. Dann kann ich meine 3090 für 2500€ verkaufen. :D
-/\-CruNcher-/\-
2021-04-17, 12:42:46
Btw Nvidia hat eigentlich schon weitaus länger selbst durchsickern lassen seit Ampere release das die 3070 TI mit GDDR6X eine mögliche Option sein wird.
and while GA104 supports GDDR6X, the RTX 3070 GPU uses GDDR6, not GDDR6X
basix
2021-04-17, 13:33:41
https://cdn.videocardz.com/1/2021/04/MSI-GeForce-RTX-3080-Ti-VENTUS-3X-1.jpg
Da sind sie.
Hoffe mal auf Referenz Modelle, die es für 999€ gibt.
Aber es wird wohl auf 1200 bis 1500 UVP für custom Modelle hinauslaufen :(
12 GByte my ass...verst$ndlich, hohe Nachfrage, kein Druck, schwierige Liefersituation von Halbleitern (DRAM), evtl. 16Gbit Chips für GDDR6X nicht verfügbar. Für uns leider schade. Ich würde ja gerne was schnelleres haben, da ich auf 4K umsteigen will. Aber 12GByte ist dazu mittelfristig zu wenig.
prinz_valium_2
2021-04-17, 14:00:57
12 GByte my ass...verst$ndlich, hohe Nachfrage, kein Druck, schwierige Liefersituation von Halbleitern (DRAM), evtl. 16Gbit Chips für GDDR6X nicht verfügbar. Für uns leider schade. Ich würde ja gerne was schnelleres haben, da ich auf 4K umsteigen will. Aber 12GByte ist dazu mittelfristig zu wenig.
Die Karte setzt genau da an, wo die 3080 zu schlecht war und 3090 overkill.
12GB anstatt 10GB Ram, dazu 384bit statt nur 320bit und der dadurch resultierenden höheren Bandbreite. Dazu etwas mehr Rechenleistung und schon hat man ein sehr gut platziertes Produkt.
Einzig der Preis wird hoch, aber Nvidia kann sich das zur Zeit leisten.
In einer idealen Welt, würde die 3080TI 699€ Kosten und die 3070TI 499€
Aber im Moment kostet die 3060 499€ und mehr
Thunder99
2021-04-17, 14:17:56
Obwohl 12GB wenig erscheinen ist es wohl sweetpoint.
Langfristig natürlich nicht, das wären 16GB+
Rampage 2
2021-04-17, 15:03:36
Wie weit oberhalb der eigentlichen UVP wird die 3080 Ti wohl zu kaufen sein bei sagen wir mal 999$ bzw. € (herrscht ja schon seit längerem 1:1 Umrechnung zwischen den beiden Währungen) UVP ? Etwa 1500€ für gute Custom-Modelle oder gar mehr?
Dieselbe Frage (Schätzung) zur 3070 Ti - ich gehe mal davon aus, dass die 8GB-Variante eine UVP von 599€ hat und die 16GB-Variante 699-799€.
R2
Hakim
2021-04-17, 15:44:53
Eine 3070ti (GA104) darf normal nicht mehr kosten wie eine 3080, egal ob sie mehr Speicher hat, mMn
Hakim
2021-04-17, 15:48:39
Glaubt ihr das die Hardware id Sperre des neuen Lineup dafür sorgen könnte das die vorhandenen Versionen abermals an Wert zulegen? Ausgehend das man es nicht so einfach entsperren kann
r3ptil3
2021-04-17, 16:49:20
Wenn Nvidia tatsächlich irgendein ernsthaftes Interesse an einer Mining-Bremse hätte, dann werden die alten Modelle (3060, 70, 80, 90) zu Goldklumpen.
Ich würde sogar sagen, dass eine RTX 3080 2500-3000 Euro Wert sein wird, eine 3090 bei 3000+.
Ether bricht gerade neue Rekorde und selbst auf dem Gebrauchtmarkt, hat es nicht mehr so viele neue 3080/3090er Karten.
Meine Strix 3080 gebe ich jedenfalls nicht mehr weg.
Hakim
2021-04-17, 18:21:44
Glaube auch das es so kommen könnte, das neue Lineup würde dennoch am Anfang aber noch wert stabil sein, einfach weil zu viele Gamer derzeit eine Karte wollen.
Lehdro
2021-04-17, 22:07:15
Wenn Nvidia tatsächlich irgendein ernsthaftes Interesse an einer Mining-Bremse hätte, dann werden die alten Modelle (3060, 70, 80, 90) zu Goldklumpen.
Ich würde sogar sagen, dass eine RTX 3080 2500-3000 Euro Wert sein wird, eine 3090 bei 3000+.
Ether bricht gerade neue Rekorde und selbst auf dem Gebrauchtmarkt, hat es nicht mehr so viele neue 3080/3090er Karten.
Meine Strix 3080 gebe ich jedenfalls nicht mehr weg.
Bei diesen Aussichten wäre es doch geradezu töricht die 3080 nicht gegen eine eventuelle 3080Ti einzutauschen. Wäre zumindest meine Schlußfolgerung aus der Sache.
Troyan
2021-04-18, 11:30:57
Glaube auch das es so kommen könnte, das neue Lineup würde dennoch am Anfang aber noch wert stabil sein, einfach weil zu viele Gamer derzeit eine Karte wollen.
Naja, selbst mit der halben Hashrate verdient man sich dumm und dämmlich. nVidia kann nur mit CMP gegensteuern, dass die den Druck für die großen Farmen rausnimmt. Oder eben den Limiter aggressiver machen und nur 1/4 oder weniger bereitstellen.
Slipknot79
2021-04-18, 13:01:07
Es gibt auch eine andere Lösung gegen Karten mit Hashbremse. Wenn die Hashrate halbiert wird, dann einfach den Shitcoin-Preis verdoppeln und gut ist. Der Markt wird das in diese Richtung regeln.
Troyan
2021-04-18, 13:02:37
Ja, aber der Aufwand zur Berechnung sollte ja steigen. Damit wird mehr Zeit benötigt und die Energiekosten reduzieren den Gewinn. Den Preis einfach zu verdoppeln, würde nur funktionieren, wenn jemand mit viel Geld sehr viele Coins kauft.
Slipknot79
2021-04-18, 13:26:10
Die dicken Miner sind doch Walfische oder nicht? :redface:
Rampage 2
2021-04-19, 11:59:21
Eine 3070ti (GA104) darf normal nicht mehr kosten wie eine 3080, egal ob sie mehr Speicher hat, mMn
Erklär das mal Nvidia...
Abgesehen davon, bin ich mir sicher, dass ein technisch versierter bzw. gut informierter Käufer eine 16GB 3070 Ti einer 10GB 3080 vorziehen würde;) (oder gleich zu einer 3080 Ti greift - 12GB sollten ja auch 'ne Weile reichen; zumindest für 1440p...)
Oder eben den Limiter aggressiver machen und nur 1/4 oder weniger bereitstellen.
Dem kann ich nur absolut zustimmen - nur 1/2 Bremse ist bei Weitem nicht genug! Mindestens 1/4 oder besser 1/8 sollten es sein - bei 1/8 Hashrate würde eine GPU nur noch etwa ein Zehntel (aufgerundet von 1/8) des ursprünglichen Gewinns erwirtschaften und das würde selbst einem Hardcore-Miner spürbar wehtun...
1/2 Hashrate ist als Bremse lächerlich gering:rolleyes:
R2
robbitop
2021-04-19, 13:18:17
Am meisten wäre wohl allen geholfen, wenn es richtig gute ASICs für Etherium geben würde, die Grafikkarten zum Minen obsolet machen würden. In der Regel sind die idR auch noch massiv energieeffizienter, was auch dem Umweltanteil helfen würde. BTC mint heute kein Mensch mehr ernsthaft mit Gewinnabsicht mit einer GPU. Wäre sinnvoll wenn das bei ETH passieren würde.
Beschränkungen helfen praktisch nicht - die werden eh in kurzer Zeit geknackt.
arcanum
2021-04-19, 13:31:56
Am meisten wäre wohl allen geholfen, wenn es richtig gute ASICs für Etherium geben würde, die Grafikkarten zum Minen obsolet machen würden. In der Regel sind die idR auch noch massiv energieeffizienter, was auch dem Umweltanteil helfen würde. BTC mint heute kein Mensch mehr ernsthaft mit Gewinnabsicht mit einer GPU. Wäre sinnvoll wenn das bei ETH passieren würde.
Beschränkungen helfen praktisch nicht - die werden eh in kurzer Zeit geknackt.
das problem ist, dass der ethash-algorithmus mit absicht so gestaltet ist, dass er optimal auf gpus läuft.
mit der vollständigen umstellung auf proof-of-stake sollte sich das ganze mining ohnehin von allein erledigen aber das wird wahrscheinlich noch mindestens 1 jahr dauern. viel wahrscheinlicher bis dahin ist eine starke korrektur am crypto-markt, die das mining für viele wieder unattraktiv macht.
robbitop
2021-04-19, 13:51:37
Ist zwar OT. Aber ob es eine wirklich starke und nachhaltige Korrektur geben wird, in Zeiten wo selbst institutionelle Anleger in Krypto investieren (und es eher danach aussieht, dass es immer mehr werden und es ggf eher einen lawinenartiges Zunehmen von institutionellen Anlegern hindeutet)? IMO wird es mittelfristig eher immer weiter steigen (ggf. mit zeitlich begrenzten Rücksetzern).
Mit dem im Hinterkopf sieht es nicht besonders gut aus für die Verfügbarkeit von GPUs.
Fragman
2021-04-19, 17:31:10
Intel rechnet nicht mit einer Entspannung vor 2023 im Halbleitersektor.
Im schlimmsten Fall kann man die naechste Gen dann auch wieder abschreiben.
Koennte eine lange Durststrecke werden.
dildo4u
2021-04-23, 05:24:56
Angebliche 3080 Ti Specs.
https://videocardz.com/newz/nvidia-geforce-rtx-3080-tis-ga102-225-gpu-pictured-and-specifications-leaked
Zossel
2021-04-23, 07:56:12
Am meisten wäre wohl allen geholfen, wenn es richtig gute ASICs für Etherium geben würde, die Grafikkarten zum Minen obsolet machen würden. In der Regel sind die idR auch noch massiv energieeffizienter, was auch dem Umweltanteil helfen würde. BTC mint heute kein Mensch mehr ernsthaft mit Gewinnabsicht mit einer GPU. Wäre sinnvoll wenn das bei ETH passieren würde.
Beschränkungen helfen praktisch nicht - die werden eh in kurzer Zeit geknackt.
Ich wäre für eine Erweiterung des Völkerrechts welche das bombardieren von Mininigfarmen mit Lenkwaffen weltweit gebietet.
Denniss
2021-04-23, 10:33:51
Brauchst keine Lenkwaffen, nur ein paar Mäuse die an den Stromkabeln knabbern. Oder halt durchknipsen lassen
Der Scheiß crasht ja eh gerade. Vielleicht ist der Spuk bald vorbei :)
Thunder99
2021-04-23, 11:33:25
Durch was wurde damals der Crash verursacht?
Ich vermute eher das wir diesmal lange mit dem Coin hohen Wert leben müssen, da es mehr und mehr in der sehr hohen verschuldeten Welt eine Alternative ist. Daher wird sich noch eine Weile das schürfen rentieren.
Es müssen schon bedeutend politische Entscheidungen im Finanzwesen kommen, damit das wieder fällt.
Godmode
2021-04-23, 12:03:05
Angebliche 3080 Ti Specs.
https://videocardz.com/newz/nvidia-geforce-rtx-3080-tis-ga102-225-gpu-pictured-and-specifications-leaked
12 GB sind einfach sooo 2015, WTF... :freak:
Fragman
2021-04-23, 12:27:02
12 GB sind einfach sooo 2015, WTF... :freak:
Das Ding waere aktuell selbst mit 6GB der Renner und wuerde Rekordpreise erzielen. :D
arcanum
2021-04-23, 12:39:28
12 GB sind einfach sooo 2015, WTF... :freak:
ich merke in spielen für die sich solche karte überhaupt lohnen keinen unterschied zwischen 10 und 24gb und die 3080ti wäre für mich die optimale karte wenn ~500€ güntiger als eine 3090. für leute die ihre karten 5 jahre lang behalten ist eine 3090 natürlich der bessere kauf.
ChaosTM
2021-04-23, 13:45:10
Am meisten wäre wohl allen geholfen, wenn es richtig gute ASICs für Etherium geben würde, die Grafikkarten zum Minen obsolet machen würden. In der Regel sind die idR auch noch massiv energieeffizienter, was auch dem Umweltanteil helfen würde. BTC mint heute kein Mensch mehr ernsthaft mit Gewinnabsicht mit einer GPU. Wäre sinnvoll wenn das bei ETH passieren würde.
Beschränkungen helfen praktisch nicht - die werden eh in kurzer Zeit geknackt.
Beim letzten Mining Boom hat es ca. ein Jahr gedauert, bis die ASICs die Grafikkarten obsolet gemacht hatten (iirc). Ein paar Monate müssen wir wohl noch durchhalten.
Wie weit man die heutige Situation mit damals vergleichen kann weiß ich aber nicht.
davidzo
2021-04-23, 14:52:26
Ethereum braucht in erster Linie Bandbreite. Asics laufen also darauf hinaus dass eine Speichercontroller IP mit GDDR6 oder HBM verwendet wird, genau wie bei GPUs und eine Speichermenge genau wie bei GPUs.
Selbst wenn es also Asics gäbe die sich lohnen, würde das den ohnehin angestrengten Speichermarkt für GPUs belasten. Ohne GDDR6 keine GPUs.
Wobei LPDDR4X auch eine gute Wahl wäre, weil man mit relativ wenigen chips auf hohe bandbreiten kommt. Das würde dann in den mobile bereich fressen. Es gibt schon erste Tests von eth mining auf nvidia tegra socs etc.
Ich finde ETH mining einfach nur abartig. Die haben den Algorithmus absichtlich so designed dass er schlecht auf asics läuft und eine große Menge Energie verbraucht. Was für asoziale leute! Den Klimawandel vorrantreiben um damit eine Währung zu fördern die in erster Linie dazu dient um Steuern zu hinterziehen und Drogen und Waffenhandel zu ermöglichen. Miner haben Blut an den Händen!
Mal ehrlich, wenn Cryptocurrencies Geldflüsse genau so beim Finanzamt angemeldet und versteuert würden, wäre das noch so populär? Das ist für mich einfach nur eine andere Form von Steuerhinterziehung, Aushebelung unserer Gesetze gegen soziale Ungleichheit. Ich finde der Besitz, Handel, Generierung etc. sollte strafbar sein und Vermögen in Cryptowährungen eingefroren solange bis die Versteuerbarkeit und die Herkunft und Gegenleistung der Zahlungsflüsse geklärt ist.
|MatMan|
2021-04-23, 15:11:50
Dann musst du Bargeld gleich mit verbieten, sonst wäre es etwas scheinheilig...
Troyan
2021-04-23, 15:12:53
Warten wir ab. Wenn Biden sein Wunsch nach doppelter Besteuerung nachgeht, werden die meisten verkaufen. Dann wird es wieder ein bisschen werden.
Dann musst du Bargeld gleich mit verbieten, sonst wäre es etwas scheinheilig...
Das geht nicht in den Größenordnungen wie mit Crypto.
Der Crash wird schon kommen.
BlacKi
2021-04-23, 15:19:12
die trading apps führen alle automatisch steuern ab. und die machen gerade das geschäft ihres lebens.
die menschen haben das selbst in der hand. einfach nichtmehr dran glauben, dann würden alle coins crashen. alle staaten könnten auch den handel verbieten, aber das würde die menschen stören. es gäbe wohl weitere demonstrationen und aufstände. dann könnten nur noch die profitieren, die das ganze illegal weiter bertreiben, also die mit blut an den händen! allerdings würden dann eben doch die coins crashen. aber aufhören würde es nicht, die schwierigkeit würde wieder abnehmen, und damit würde das minen wieder profitabler werden.
DavChrFen
2021-04-23, 15:27:23
Aber GDDR6(X) ist ja nicht die Spitze des Eisbergs: Es gibt ja noch SD-Ram oder ähnliches, das wesentlich schneller als DDR ist. Insofern wäre da noch genug Luft nach oben.
rentex
2021-04-23, 15:38:17
die trading apps führen alle automatisch steuern ab. und die machen gerade das geschäft ihres lebens.
die menschen haben das selbst in der hand. einfach nichtmehr dran glauben, dann würden alle coins crashen. alle staaten könnten auch den handel verbieten, aber das würde die menschen stören. es gäbe wohl weitere demonstrationen und aufstände. dann könnten nur noch die profitieren, die das ganze illegal weiter bertreiben, also die mit blut an den händen! allerdings würden dann eben doch die coins crashen. aber aufhören würde es nicht, die schwierigkeit würde wieder abnehmen, und damit würde das minen wieder profitabler werden.
Wegen eines Verbotes der Kryptowährungen, geht kein Mensch auf die Strasse...das ist für 75% Bevölkerung, ein Buch mit Sieben Siegeln.
BlacKi
2021-04-23, 15:46:04
es reichen doch schon 5%, das wären immernoch 4mio menschen hier in D.
Godmode
2021-04-23, 15:47:27
Beim letzten Mining Boom hat es ca. ein Jahr gedauert, bis die ASICs die Grafikkarten obsolet gemacht hatten (iirc). Ein paar Monate müssen wir wohl noch durchhalten.
Wie weit man die heutige Situation mit damals vergleichen kann weiß ich aber nicht.
Im Boom kauft jeder GPUs fürs Mining, also auch viele Gamer, die sich da Gewinn erhoffen. Sobald der Markt crasht, fluten die Gamer den Markt mit gebrauchten Karten. Die Profis erweitern ihre Miningleistung in dieser Marktphase noch eine ganze Weile, da sie durch niedrigere Strompreise immer noch Profit generieren. Erst wenn der Markt wirklich länger nach unten geht, stellen auch größere Farmen Investitionen ein. Wenn der Strompreis unter 0,1€ /kWH liegt, kannst eigentlich immer minen. ASICs machten GPUs bei ETH nie obsolet. Wenn du 2017 1060er, 1070er, etc. gekauft hast, dann laufen die auch heute noch profitabel, vorausgesetzt dein Strompreis ist niedrig genug. Diese Karten werden nach diesem Zyklus allerdings obsolet, da Hashrate/Watt nicht mehr stimmt.
Ich finde ETH mining einfach nur abartig. Die haben den Algorithmus absichtlich so designed dass er schlecht auf asics läuft und eine große Menge Energie verbraucht. Was für asoziale leute! Den Klimawandel vorrantreiben um damit eine Währung zu fördern die in erster Linie dazu dient um Steuern zu hinterziehen und Drogen und Waffenhandel zu ermöglichen. Miner haben Blut an den Händen!
Mal ehrlich, wenn Cryptocurrencies Geldflüsse genau so beim Finanzamt angemeldet und versteuert würden, wäre das noch so populär? Das ist für mich einfach nur eine andere Form von Steuerhinterziehung, Aushebelung unserer Gesetze gegen soziale Ungleichheit. Ich finde der Besitz, Handel, Generierung etc. sollte strafbar sein und Vermögen in Cryptowährungen eingefroren solange bis die Versteuerbarkeit und die Herkunft und Gegenleistung der Zahlungsflüsse geklärt ist.
Die Idee war, dass jeder ETH Mining betreiben kann und sich die Hashleistung eben nicht nur auf ASICs konzentriert, die nur ein kleiner Teil der Miner kaufen kann -> Dezentralisierung.
Und nein, für Drogengeschäfte, etc. nimmt man sicher keine Cryptos, da dies viel zu transparent ist. Bzgl. Klimawandel gibt es andere Baustellen. Crypto-Mining in Summe mag viel Energie verschleudern, aber insgesamt total vernachlässigbar.
Und ja als Firma musst du alles anmelden. Glaubst du ernsthaft das FA glaubt dir, wenn du denen sagst: Ja ich kaufte Hardware für 5 Mio. Euro und verblase jeden Monat Strom 150k €, aber produzieren tu ich nur heiße Luft. Etwas naiv von dir... :rolleyes:
Zossel
2021-04-23, 16:43:32
Durch was wurde damals der Crash verursacht?
Ich vermute eher das wir diesmal lange mit dem Coin hohen Wert leben müssen, da es mehr und mehr in der sehr hohen verschuldeten Welt eine Alternative ist. Daher wird sich noch eine Weile das schürfen rentieren.
Es müssen schon bedeutend politische Entscheidungen im Finanzwesen kommen, damit das wieder fällt.
Der Klassiker zu dem Thema: https://www.youtube.com/watch?v=vzUNwWpk6CE
Nach zutragen zu der Tafelnummer wäre noch das in diesen Kreisen handlungsfähige Staaten ideologisch nicht erwünscht sind, damit der Markt alles regeln kann.
Zossel
2021-04-23, 16:48:44
Die Idee war, dass jeder ETH Mining betreiben kann und sich die Hashleistung eben nicht nur auf ASICs konzentriert, die nur ein kleiner Teil der Miner kaufen kann -> Dezentralisierung.
Seit wann regelt sich der Markt auf Dezentralisierung?
Seit wann interesiert sich der für die feuchten Träume irgentwelcher Nerds und Hippies?
Der Traum ist aus, es wird Zeit zum aufwachen.
Bzgl. Klimawandel gibt es andere Baustellen. Crypto-Mining in Summe mag viel Energie verschleudern, aber insgesamt total vernachlässigbar.
In New York haben irgentwelche Wichser ein altes Kohlekraftwerk gekauft um das wieder in Betrieb zu nehmen um damit Cryptoscheisse zu minen.
Und ganz bestimmt ist das keine Baustelle bzgl. Klima, sollen doch die anderen was tun.
davidzo
2021-04-23, 18:49:43
Die Idee war, dass jeder ETH Mining betreiben kann und sich die Hashleistung eben nicht nur auf ASICs konzentriert, die nur ein kleiner Teil der Miner kaufen kann -> Dezentralisierung.
Haha, da einen demokratischen Charakter hinein zu interpretieren finde ich echt absurd. zum Glück kommt nicht jeder auf die Idee seine GPU zum Minen zu verwenden, sonst könnten wir gleich ein paar Atomkraftwerke extra wieder anschalten.
Das schlimme ist ja dass mining selber keinerlei Beitrag zur Realwirtschaft leistet, sondern nur Schaden anrichtet durch den Energieverbrauch und Entzug von Rechenleistung und Manpower von wichtigeren Fragen. Genau wie beim Goldrausch früher, bleiben am Ende nur Geisterstädte, soziale Ungleichheit und die Realwirtschaft, nämlich Industrie, Arbeitsplätze, Wohlstand und Sozialgefüge hat durch die Kursfluktuation nur Schaden genommen.
Mit Kryptowährungen fallen jegliche regulatorische Möglichkeiten der Geldpolitik weg und die Nutzer der Currency werden zum Spielball des Geldes. Die Verfügbare Gesamtmenge an ETH ist nur durch neue Hardware zu beeinflussen, was ist mit Zinspolitik, bonds, etc., stattdessen Fatalismus als ultimative Ausprägung grenzenlose Marktwirtschaftlicher Unterordnung?
Und nein, für Drogengeschäfte, etc. nimmt man sicher keine Cryptos, da dies viel zu transparent ist.
Wer dann? Was für wichtige Deals werden denn in ETH sonst abgewickelt für die sich die enormen Transaktionskosten lohnen? klär mich auf.
Und ja als Firma musst du alles anmelden.
Als Privatperson bitteschön auch!
Und ich kenne keine Miner die ihre Nebentätigkeit bzw. Nebeneinkünfte angemeldet haben. Das Finanzamt ist auf dem Auge auch Blind, als was soll das denn versteuert werden, als Kapitalertrag? Ja wenn dann erst wenn es in Euros eingetauscht wird. Viele kaufen von ETHs aber auch einfach Aktien, Kunst oder halten das erstmal ne weile. Wenn du also Leistungen/Konsum direkt damit bezahlst wird das nicht versteuert, weder Mehrwertsteuer, noch Einkommensteuer (wenn du private Konsumgegenstände kaufst) noch richtige verzollung passiert da. Das ist sozial total unverantwortlich.
Ich bin sicher die ganzen Chinesen Minen ja auch nur im Auftrag der Partei, weil sie das Geld dann ganz reell abführen bzw. versteuern wollen und nicht um im Ausland schwarze Kassen anzulegen, Immobilien zu kaufen, ihre Kinder auf Elitehochschulen zu schicken, weit entfernt von den gesetzen der sozialistischen volkswirtschaft.
Godmode
2021-04-23, 20:18:47
Haha, da einen demokratischen Charakter hinein zu interpretieren finde ich echt absurd.
GPUs kann jeder kaufen und bekommt jeder, ASICs nicht und genau darum ging es.
Zum Glück kommt nicht jeder auf die Idee seine GPU zum Minen zu verwenden, sonst könnten wir gleich ein paar Atomkraftwerke extra wieder anschalten.
:rolleyes:
Das schlimme ist ja dass mining selber keinerlei Beitrag zur Realwirtschaft leistet, sondern nur Schaden anrichtet durch den Energieverbrauch und Entzug von Rechenleistung und Manpower von wichtigeren Fragen.
Die Hardware wird einem also von NV oder AMD geschenkt oder wie. Der Strom kommt einfach aus der Steckdese? Die Mining-Rigs laufen nach dem Aufstellen bis in alle Ewigkeit ohne Ausfälle? Du hast null Ahnung. :rolleyes:
Genau wie beim Goldrausch früher, bleiben am Ende nur Geisterstädte, soziale Ungleichheit und die Realwirtschaft, nämlich Industrie, Arbeitsplätze, Wohlstand und Sozialgefüge hat durch die Kursfluktuation nur Schaden genommen.
:facepalm:
Mit Kryptowährungen fallen jegliche regulatorische Möglichkeiten der Geldpolitik weg und die Nutzer der Currency werden zum Spielball des Geldes.
Es wird niemand gezwungen es zu benutzen.
Die Verfügbare Gesamtmenge an ETH ist nur durch neue Hardware zu beeinflussen
Die verfügbare Gesamtmenge an ETH ist nicht durch die Hardware beinflussbar, sondern ist ins Protokoll gegossen. Es wird maximal die Menge beeinflusst die ein Miner bekommt, und die hängt vom Verhältnis seiner Hashrate gegenüber der Netzwerkhashrate ab.
Wer dann? Was für wichtige Deals werden denn in ETH sonst abgewickelt für die sich die enormen Transaktionskosten lohnen? klär mich auf.
2 Sekunden Google würde reichen. Die Transaktionskosten werden mit ETH 2.0 wieder niedrig werden.
Als Privatperson bitteschön auch!
Und ich kenne keine Miner die ihre Nebentätigkeit bzw. Nebeneinkünfte angemeldet haben. Das Finanzamt ist auf dem Auge auch Blind, als was soll das denn versteuert werden, als Kapitalertrag? Ja wenn dann erst wenn es in Euros eingetauscht wird. Viele kaufen von ETHs aber auch einfach Aktien, Kunst oder halten das erstmal ne weile. Wenn du also Leistungen/Konsum direkt damit bezahlst wird das nicht versteuert, weder Mehrwertsteuer, noch Einkommensteuer (wenn du private Konsumgegenstände kaufst) noch richtige verzollung passiert da. Das ist sozial total unverantwortlich.
Das ist ein Spiel mit dem Feuer. Die Behörden sind jetzt vielleicht noch blind, aber früher oder später werden sie an die Daten kommen und dann wird der eine oder andere ein langes Gesicht bekommen, wenn er plötzlich die Nachzahlung vor Augen hat, bzw. sogar eine Strafe, wegen Abgabenbetrug.
Btw. ist das hier massiv OT. Also EOD hier von mir.
rentex
2021-04-23, 21:16:53
es reichen doch schon 5%, das wären immernoch 4mio menschen hier in D.
Glaubst du eigentlich, was du schreibst?
Slipknot79
2021-04-23, 22:32:02
>Durch was wurde damals der Crash verursacht?
Was ist "damals"? Ende 2017? Wurde Monate davor gepumpt wegen anstehender News in der Bitcoinwelt (Zulassung als Finanzkonstrukt an irgendeiner Börse oder sowas), Termin war bekannt, um Weihnachten 2017. Danach? Keine News, nichts, keine Puste mehr, dann crashte es.
Autos, Einbauküchen, Häuser usw... wollten ausbezahlt werden, die Trader stiegen alle aus. Ich selbst habe damals auch gut abgeräumt. (y)
SKYNET
2021-04-23, 23:23:31
falls die 3080 Ti wirklich kommt, und die dank der miningbremse -wenn sie denn wirklich funzt- zu normalen preisen kaufbar ist, wird sie den plan der 6900XT verwerfen... ansonsten bleibts beim 6900XT plan... RT und das noch schrottigere DLSS interessiert mich nicht, und speedmässig sind dann wohl beide gleich auf... stromverbrauch geht mir am :ass: vorbei....
Krass emotionale Diskussion über eine Software. oO
Mit Kryptowährungen fallen jegliche regulatorische Möglichkeiten der Geldpolitik weg und die Nutzer der Currency werden zum Spielball des Geldes. Die Verfügbare Gesamtmenge an ETH ist nur durch neue Hardware zu beeinflussen, was ist mit Zinspolitik, bonds, etc., stattdessen Fatalismus als ultimative Ausprägung grenzenlose Marktwirtschaftlicher Unterordnung?
Bleib doch bei der von oben verordneten (Minus-)Zinspolitik, bonds, etc. Keiner zwingt dich auf Kryptowährungen zu wechseln.
Und nein, für Drogengeschäfte, etc. nimmt man sicher keine Cryptos, da dies viel zu transparent ist.
Wer dann? Was für wichtige Deals werden denn in ETH sonst abgewickelt für die sich die enormen Transaktionskosten lohnen? klär mich auf.
Stichworte: Decentralized Finance, NFT, Blockchain Apps. Mehr dazu findest du bei defipulse.com
Es wird aktuell das komplette Bankensystem auf die Blockchain portiert. Und jede Privatperson kann sich als Coder oder Kapitalgeber beteiligen.
Und ja als Firma musst du alles anmelden.
Als Privatperson bitteschön auch!
Und ich kenne keine Miner die ihre Nebentätigkeit bzw. Nebeneinkünfte angemeldet haben. Das Finanzamt ist auf dem Auge auch Blind, als was soll das denn versteuert werden, als Kapitalertrag? Ja wenn dann erst wenn es in Euros eingetauscht wird. Viele kaufen von ETHs aber auch einfach Aktien, Kunst oder halten das erstmal ne weile. Wenn du also Leistungen/Konsum direkt damit bezahlst wird das nicht versteuert, weder Mehrwertsteuer, noch Einkommensteuer (wenn du private Konsumgegenstände kaufst) noch richtige verzollung passiert da. Das ist sozial total unverantwortlich.
...
Als Privatperson musst du Mining auch als Gewerbe angeben, selbst bei kleineren Beträgen.
Ich kenne einige Miner die das angegeben haben, als es noch lukrativ war in Deutschland. Krypto Einnahmen werden über die Einkommenssteuer progressiv besteuert und müssen angegeben werden. Nach 12 Monaten Haltefrist sind die Gewinne steuerfrei, äquivalent zu Devisen oder Goldkäufen. Konsum/Einkauf mit Kryptowährungen gilt als Verkaufsaktion und muss bei eventuellen Gewinnen bei der Einkommenssteuerabgabe angegeben werden.
Mehrwertsteuer? Verzollung? Ähm... ? Da würfelst du aber auch nur noch Themen durcheinander, right ?
Viel emotionales blabla und sehr wenig Ahnung. Befass dich doch mal in Ruhe erst mit einer Thematik bevor du solche Postings verfasst die absolut offtopic und sich an der unteren Qualitätsgrenze befinden.
=Floi=
2021-04-24, 03:44:07
In New York haben irgentwelche Wichser ein altes Kohlekraftwerk gekauft um das wieder in Betrieb zu nehmen um damit Cryptoscheisse zu minen.
mimimimimi
Das ist fürs klima sowas von egal.
Rampage 2
2021-04-25, 18:00:36
Glaubt ihr, dass Nvidia eine 16GB-Variante der 3070 Ti (mit 100-200$ Aufpreis) rausbringen wird? Denn die RX 6800 ist in den meisten Spielen nicht nur schneller als die reguläre 3070, sondern hat auch noch 16GB Grafikspeicher als Kaufargument - selbst wenn die 3070 Ti mit vollaktiviertem GA104-Chip und schnellem GDDR6X-RAM die RX 6800 performancemäßig einholen oder sogar leicht überflügeln sollte, wird sie mit wieder nur 8GB VRAM kein starkes Gegenargument/Kaufargument sein...
R2
Ex3cut3r
2021-04-25, 18:06:58
Glaubt ihr, dass Nvidia eine 16GB-Variante der 3070 Ti (mit 100-200$ Aufpreis) rausbringen wird? Denn die RX 6800 ist in den meisten Spielen nicht nur schneller als die reguläre 3070, sondern hat auch noch 16GB Grafikspeicher als Kaufargument - selbst wenn die 3070 Ti mit vollaktiviertem GA104-Chip und schnellem GDDR6X-RAM die RX 6800 performancemäßig einholen oder sogar leicht überflügeln sollte, wird sie mit wieder nur 8GB VRAM kein starkes Gegenargument/Kaufargument sein...
R2
Nein, da die Hauptkäufer nicht Gamer sondern Miner sind. Vergiss diese Generation einfach, und bete das sich die Situation in 2 Jahren wieder normalisiert hat, sonst kannst du Gaming eh begraben, es sei denn du bist Rockefeller.
Platos
2021-04-25, 18:50:08
Ich würde das auch ganz schnell wieder vergessen. Und was soll sie denn bieten anstelle von 8GB ? 16GB sicherlicht nicht, wenn die 3080Ti mit 12GB daherkommen soll.
Aber so oder so, vergiss es. Ampere kannst du rauchen. Abgesehen von der 3060 ist da gar nichts, was man aus Preis/Leistungs Sicht emfpehlen könnte. Wobei selbst die eig. vom Listenpreis leicht zu teuer ist.
Aber was sind schon Listenpreise bei diesen Strassenpreisen?
Also ich würde auch mal drauf hoffen, dass es sich in der nächsten Generation wieder normalisiert und sich die Preise nicht längerfristig steigern.
Aber Miner vermiesen die Sache ja immer noch zusätzlich.
mimimimimi
Das ist fürs klima sowas von egal.
Der zusätzliche Stromverbrauch der Miner ist sicherlich nicht egal.
TheAntitheist
2021-04-25, 19:29:51
Nein, da die Hauptkäufer nicht Gamer sondern Miner sind. Vergiss diese Generation einfach, und bete das sich die Situation in 2 Jahren wieder normalisiert hat, sonst kannst du Gaming eh begraben, es sei denn du bist Rockefeller.
Steam sagt da was anderes, da laufen die Nvidia Karten deutlich besser als die von AMD. Faktor 5+
Rampage 2
2021-04-25, 21:11:55
Ich würde das auch ganz schnell wieder vergessen. Und was soll sie denn bieten anstelle von 8GB ? 16GB sicherlicht nicht, wenn die 3080Ti mit 12GB daherkommen soll.
Aber so oder so, vergiss es. Ampere kannst du rauchen.
[...]
1. ist die 3080 Ti eine ganz andere Leistungsklasse als die 3070 Ti (vermutlich 40% schneller und damit primär für 4K-Gaming gedacht), wo 12GB Grafikspeicher vielleicht so gerade noch für 4K reichen (wobei ich das ein wenig bezweifle). Die Mehrleistung ist hier klar das entscheidendere Kaufargument als Speichermenge - so, dass es nicht so schlimm ist, wenn die deutlich langsamere 3070 Ti mehr Grafikspeicher hat. Bei der regulären 3080 sieht das ganz anders aus, weil 10GB für 4K definitiv nicht reichen (trotz vorhandener Leistung) und sogar für 1440p schon knapp sind...
2. konkurriert die 3070 Ti nicht mit der 3080 Ti, sondern mit der RX 6800 - und die ist nicht nur schneller als die jetzige 3070, sondern hat auch genug Grafikspeicher für 1440p und sogar für 4K. 8GB werden auch für 1440p auf absehbare Zeit nicht mehr ausreichen oder reichen jetzt schon nicht...
3. brauche ich die Mehrleistung (und am Liebsten auch mehr Grafikspeicher) JETZT, weil ich seit meinem neuen Monitor über 75% mehr Pixel mit Rechenleistung befeuern muss (Umstieg 1080p -> 1440p), wo meine jetzige 2070 klar nicht mehr genug Leistung für aktuelle und kommende Spiele hat...
R2
Dieses Mal endet der Miningboom mit Grafikkarten mit spezialisierten ASICs.
https://www.techpowerup.com/281471/bitmain-releases-antminer-e9-ethereum-asic-with-performance-of-32-rtx-3080-cards
NV wartet ja mMn mit dem Super-Refresh, bis man wieder normal am Gamingmarkt agieren kann. Wenn sich die Preise etwas normalisieren, wird man mMn überall auf vertretbare Speichergrößen upgraden. Eine 3070Ti mit 8GB jedenfalls kann man niemandem guten Gewissens empfehlen. Spätestens wenn man RT nutzt ist der Speicher zuwenig in WQHD.
ShinyMcShine
2021-04-26, 09:01:20
Ich würde zumindest für alles was ich momentan mache (und das ist ausschließlich VR und dort Elite und Assetto Corsa Competitzione) einen Austausch meiner 1080 auf eine 3070Ti machen. Wenn es denn einigermaßen eine vernünftige Preislage gibt.
Für mein momentanes Spielprofil brauche ich keine 16GB. Ich bin zwar normalerweise jemand, der Grafikkarten über einen langen Zeitraum im System hält. Aber für mehr Power mit der G2 in VR würde ich auch ein reines Rohpower-Upgrade ohne Speichererhöhung erwägen...
Thunder99
2021-04-26, 10:11:49
Es ist halt schade, wenn das Spiel ruckelt, da zu wenig Speicher vorhanden ist und nicht wegen zu wenig Rohpower.
Nvidia möchte anscheinend lieber, dass man öfters bei ihnen kauft anstelle von ausreichend ausgestattete Karten zu haben die zwei+ Generationen durchhält...
Zur Erinnerung:
- 1080 8GB
- 2080 8GB
- 3070Ti 8GB
--> 3 Generation von x04 Chips haben maximal 8GB Grafikkartenspeicher...
ShinyMcShine
2021-04-26, 10:21:08
Es ist halt schade, wenn das Spiel ruckelt, da zu wenig Speicher vorhanden ist und nicht wegen zu wenig Rohpower.
Nvidia möchte anscheinend lieber, dass man öfters bei ihnen kauft anstelle von ausreichend ausgestattete Karten zu haben die zwei+ Generationen durchhält...
Zur Erinnerung:
- 1080 8GB
- 2080 8GB
- 3070Ti 8GB
--> 3 Generation von x04 Chips haben maximal 8GB Grafikkartenspeicher...
Dagegen sage ich gar nichts. Das Produktportfolio von NV war schon immer sehr "geschäftfördernd".
Mir wäre eine größere Speichermange auch lieber, ganz klar! Allerdings hat sich mein Spieleprofil seit ein paar Jahren massiv verändert und ich spiele nur noch "ältere" Sachen in VR. Würde ich immer die neuesten AAA in 1440p und höheren Auflösungen spielen, wäre ich demgegenüber wohl weniger gleichgültig eingestellt...
Fragman
2021-04-26, 15:05:19
...ausreichend ausgestattete Karten zu haben die zwei+ Generationen durchhält...
Die heutigen Preise (unabhaengig des Cryptobooms) sind sowieso viel zu hoch um jedes Jahr sein Equipment zu tauschen, wie noch vor 20 Jahren.
Die Spieleentwicklungszyklen sind so lang, das es auch deshalb keinen Grund mehr gibt, oft zu upgraden. Sprich, die Treiber der Upgradeentwicklung von damals gibt es so nicht mehr. Ich seh das mittlerweile auch als Vorteil. Mehr RAM gibt es ja auch wenn man will, kostet halt mehr. Naja, und son richtigen Mainstreammarkt bei neuen Karten gibts ja auch nicht mehr. Dafuer sind halt die Einstiegspreise zu hoch als das die Masse an Konsumenten entsprechend mehr RAM mit ihrer Kaufentscheidung bewirken koennten, imho.
DavChrFen
2021-04-26, 21:00:05
Mehr RAM ist doch gerade im kommen, alle wollen RTX und bei der Veröffentlichung der UVP der 3060, 3070 und 3080 haben die meisten gesagt, dass sich die Preise dank Konkurrenz wieder in die richtige Richtung bewegen.
Und entscheidend ist welcher Chip drauf ist und nicht ob das jetzt xy60 Ti oder xy70 heißt: Von den Bezeichnungen ausgehend auf das Preisgefüge oder die Preisentwicklung, ohne den Chip anzuschauen, zu schließen, ist IMHO nicht ganz richtig.
=Floi=
2021-04-26, 23:08:06
Mehr RAM ist doch gerade im kommen,
Die 3070ti 8gb
3080ti 12gb
Wo?
TheAntitheist
2021-04-27, 02:18:16
Die 3070ti 8gb
3080ti 12gb
Wo?
3060 12GB
3090 24GB
da...
TheAntitheist
2021-04-27, 02:22:05
2. konkurriert die 3070 Ti nicht mit der 3080 Ti, sondern mit der RX 6800 - und die ist nicht nur schneller als die jetzige 3070, sondern hat auch genug Grafikspeicher für 1440p und sogar für 4K. 8GB werden auch für 1440p auf absehbare Zeit nicht mehr ausreichen oder reichen jetzt schon nicht...
bei raytracing Titeln konkurriert die 6900 mit der 3060 obwohl die nur 1/3 kostet...
Nvidia hat soviel Platz fürs RT und für die Tensor Kerne verbraucht, das für Rasterizer Leistung eben weniger Platz da war. Dennoch ist sie dabei genauso schnell, nicht zu vergessen das die Radeon dank besserer Fertigung auch viel höher taktet und gerade so beim rastern die gleiche Leistung hat ;D
Linmoum
2021-04-27, 06:24:40
3060 12GB
3090 24GB
da...Nvidia nennt die 3090 selbst in einem Atemzug mit einer Titan. Die hatte schon vorher 24GiB. Fällt also schon mal raus.
Bleibt die 3060 mit 12 GiB. Also eines von 5 (!) SKUs, aus denen das Ampere-Portfolio aktuell besteht, wo ein klarer Fortschritt beim Speicher gemacht wurde. Mit 3080Ti und 3070Ti, so die Gerüchte stimmen werden, ist es dann 1 aus 7, weil es weiterhin einzig bei der 3060 mit deutlichem Speicherplus bleibt. Wahnsinn. ;D
Der größte Witz an der Geschichte ist ja, dass die mobilen 3080er wieder 16GB haben :freak:.
robbitop
2021-04-27, 09:38:07
Die aber nur umgelabelte 3070 sind. :D (war doch GA104, oder?)
Rampage 2
2021-04-27, 12:49:29
Die aber nur umgelabelte 3070 sind. :D (war doch GA104, oder?)
Nicht ganz, sondern der Vollausbau des GA104 und dann auch noch mit 16GB Grafikspeicher - also GENAU das, was die 3070 Ti werden soll(te) und hoffentlich auch wird...
Edit: Wobei der mobile GA104-Vollausbau wohl weiterhin auf regulären GDDR6-Speicher setzt - die kommende 3070 Ti soll ja mit GDDR6X befeuert werden. Ansonsten sind aber beide Modelle absolut identisch (wenn man von der anderen Bezeichnung für den Mobil-Ableger ("3080") und das mögliche Fehlen einer 16GB-Variante der Desktop-Version mal absieht.)
R2
robbitop
2021-04-27, 20:02:32
Nagut aber eine 3080 ist es jedenfalls nicht. ;)
Rampage 2
2021-04-27, 20:43:01
Warum sollte Nvidia diesmal auch keine 16GB-Variante der 3070 Ti für 100-200€ Aufpreis anbieten, wenn sie es bei der 3060 schon gemacht haben? Es ist doch ausgeschlossen, dass so eine Karte die 3080 Ti kannibalisieren würde - denn diese hat satte 66,6% mehr Recheneinheiten und glatt 50% mehr Bandbreite, dürfte also mindestens 40% schneller sein als eine 3070 Ti und damit für eine ganz andere Leistungsklasse und Nutzergruppe bestimmt sein, wo nicht der dann kleinere Grafikspeicher (12GB), sondern die Mehrleistung zählt - wem die 12GB VRAM nicht ausreichen, der kann (soll?) ja gleich zur 3090 greifen...
R2
SKYNET
2021-04-28, 10:16:47
Und nein, für Drogengeschäfte, etc. nimmt man sicher keine Cryptos, da dies viel zu transparent ist.
was ist da transparent... sagst einfach "ich habe summe xxxxx mit mining erwirtschaftet" versteuerst das und schon hast die drogenkohle gewaschen.
drogenhandel selber gebe ich dir aber recht, da wird weiterhin mit harter währung gezahlt werden.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.