Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Naja, offen wäre das auch nur, wenn noch mal 25% oben drauf gehen.
Mehr als 450W macht zwar unter Skalierungsgesichtspunkten keinen Sinn mehr aber wer das ding voll ausfahren will / Benchmarks, der müsste 600W durch lassen. TimeSpy 4k mit Extreme Shadern jagt bei meiner 540W durch und das ist immernoch ganz leicht Powerlimitiert. Mit normaler Kühlung kannste das natürlich vergessen.
Troyan
2022-01-04, 12:34:57
Die meisten 3090 Karten sind bei 375W limitiert. 450W sind schonmal 20% mehr als das. Und bei einem Limit von 600W oder so durch den Stromstecker, sollte das Powerlimit über die 450W angehoben werden.
dildo4u
2022-01-04, 17:25:12
3050 hat zumindest 8GB, die AMD Low End Karten sind nutzlos mit 4GB.
prinz_valium_2
2022-01-04, 18:08:31
Jup. Aber wie ist die Leistung im Vergleich zu einer GTX 1080?
MSABK
2022-01-04, 18:12:15
3050 hat zumindest 8GB, die AMD Low End Karten sind nutzlos mit 4GB.
Dann wird der Straßenpreis der 3050 eine Liga über den AMD-Karten sein.
dildo4u
2022-01-04, 18:22:25
Hilft leider nicht mit der GPU Knappheit wenn Chips,Vram und PCB für unnötige Karten verbrannt wird.Ich hab lieber nur 8GB Modelle die den Kunden zufrieden stellen, ich könnte mir vorstellen das sogar Mainstream Games wie Call of Duty böse Probleme mit 4GB haben.
Daredevil
2022-01-04, 18:26:12
LowEnd/MidEnd Karten mit FSR/DLSS können "auf einmal" zu schnelleren Karten werden, insofern ist sowas sehr effizient. Ob das mit 4GB gutgeht, muss man dann halt schauen.
Troyan
2022-01-04, 19:37:59
Jup. Aber wie ist die Leistung im Vergleich zu einer GTX 1080?
Laut nVidia in Borderlands 3 ca. doppelt so schnell als eine 1650: https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/rtx-3050/
Entspricht wohl GTX1080 Level: https://www.techpowerup.com/review/sapphire-radeon-rx-5600-xt-pulse/8.html
prinz_valium_2
2022-01-04, 19:47:23
Laut nVidia in Borderlands 3 ca. doppelt so als eine 1650: https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/rtx-3050/
Entspricht wohl GTX1080 Level: https://www.techpowerup.com/review/sapphire-radeon-rx-5600-xt-pulse/8.html
Hoffen wir es. Würde dann meine 1070 für knapp 400€ auf Ebay verkaufen und die hier nehmen.
Aber wer weiß wie der Euro Preis wird und die Verfügbarkeit
Rampage 2
2022-01-13, 03:47:17
Gibt es schon irgendwelche Meldungen oder Gerüchte zum offiziellen Preis (also die UVP von Nvidia, nicht die der Custom-Designs) der kommenden 3090 Ti?
Ich dachte, Nvidia wollte die Karte auf der CES offiziell vorstellen? :|
R2
davidzo
2022-01-13, 17:23:18
Jetzt heißt es ende Januar.
Ob es eine Founders-Edition geben wird ist noch gar nicht klar. Könnte gut sein dass es wie bei den anderen Refreshkarten ein reiner Boutique-Launch für die Partner wird. Also Mondpreise und Koksparties für die Boardpartner.
dildo4u
2022-01-13, 17:41:18
Kann es Problemlos geben da sie den Preis anpassen können, natürlich wollen sie keine 3080 für 700€ mher verkaufen aber 3090 Ti für 1799 mit Sicherheit.
davidzo
2022-01-13, 18:56:10
Kann es Problemlos geben da sie den Preis anpassen können, natürlich wollen sie keine 3080 für 700€ mher verkaufen aber 3090 Ti für 1799 mit Sicherheit.
Das wird nicht passieren, wäre ja kaum mehr als die Hälfte der aktuellen Marktpreise. Niedrige UVPs zum Start sind Geschichte seit nvidia keine eigenen Preis-Empfehlungen mehr veröffentlicht. Bei der aktuellen Marktsituation lohnt es sich nicht mehr Anstand vorzutäuschen, die Hüllen sind längst gefallen.
Die UVPs der 3080 12GB entsprechen ja auch den aktuellen Marktpreisen.
Die 308012gig kostet ca. 100€ Aufpreis zum Marktpreis der 3080 10GB, also 1500 bis 1700€. Die 3090ti hat auch immerhin doppelt soviel Speicher und noch dazu höher geratete Module.
Bei aktuellen 3090 Marktpreisen um 2800€, erwarte ich die Karte eher bei rund 3K.
TheAntitheist
2022-01-13, 20:54:33
Das wird nicht passieren, wäre ja kaum mehr als die Hälfte der aktuellen Marktpreise. Niedrige UVPs zum Start sind Geschichte seit nvidia keine eigenen Preis-Empfehlungen mehr veröffentlicht. Bei der aktuellen Marktsituation lohnt es sich nicht mehr Anstand vorzutäuschen, die Hüllen sind längst gefallen.
Die UVPs der 3080 12GB entsprechen ja auch den aktuellen Marktpreisen.
Die 308012gig kostet ca. 100€ Aufpreis zum Marktpreis der 3080 10GB, also 1500 bis 1700€. Die 3090ti hat auch immerhin doppelt soviel Speicher und noch dazu höher geratete Module.
Bei aktuellen 3090 Marktpreisen um 2800€, erwarte ich die Karte eher bei rund 3K.
was erzählst du da fürn Quatsch... Nvidia hat sehr wohl UVPs rausgegeben. nicht für alle Modelle aber für die neuen low end Teile doch... wen interessieren dennoch UVPs wenn die Händler die Preise selbst bestimmen? könnte man ja AMD dann auch Preistreiberei unterstellen weil sie einfach viel weniger GPUs herstellen als mehr gebraucht wurden :rolleyes:
Linmoum
2022-01-13, 21:02:38
Es ist mit Blick auf die 2060 12GiB und 3080 12GiB (also die beiden aktuellsten dGPUs von NV) kein Quatsch, für beide gibt es keine offizielle UVP. Wahrscheinlich passiert mit der 3090Ti genau dasselbe.
Im Endeffekt natürlich mit Blick auf die tatsächlichen Preise wenig relevant, aber verwundern tut es dennoch. Trotzdem etwas, woran sich Kunden orientieren und anhand dessen sie ggf. entscheiden, ob sie den tatsächlichen Marktpreis überhaupt bezahlen wollen.
BlacKi
2022-01-13, 21:07:39
Das wird nicht passieren, wäre ja kaum mehr als die Hälfte der aktuellen Marktpreise. Niedrige UVPs zum Start sind Geschichte seit nvidia keine eigenen Preis-Empfehlungen mehr veröffentlicht. Bei der aktuellen Marktsituation lohnt es sich nicht mehr Anstand vorzutäuschen, die Hüllen sind längst gefallen.
Die UVPs der 3080 12GB entsprechen ja auch den aktuellen Marktpreisen.
Die 308012gig kostet ca. 100€ Aufpreis zum Marktpreis der 3080 10GB, also 1500 bis 1700€. Die 3090ti hat auch immerhin doppelt soviel Speicher und noch dazu höher geratete Module.
Bei aktuellen 3090 Marktpreisen um 2800€, erwarte ich die Karte eher bei rund 3K.
das kommt drauf an ob LHR an board ist. wenn ja, dann könnten sub 2000€ passen. wenn LHR nicht dabei ist , dann wohl definitiv über der 3090.
uvp preise wird nv wohl keine mehr machen. das finde ich zur aktuellen situation sowieso unnötig. und für nv wäre es nur ein nachteil ihn zu nennen. sowohl einen niedrigen als auch einen hohen.
Es ist mit Blick auf die 2060 12GiB und 3080 12GiB (also die beiden aktuellsten dGPUs von NV) kein Quatsch, für beide gibt es keine offizielle UVP. Wahrscheinlich passiert mit der 3090Ti genau dasselbe.
Im Endeffekt natürlich mit Blick auf die tatsächlichen Preise wenig relevant, aber verwundern tut es dennoch. Trotzdem etwas, woran sich Kunden orientieren und anhand dessen sie ggf. entscheiden, ob sie den tatsächlichen Marktpreis überhaupt bezahlen wollen.
2060 12GB und 3080 12GB gibbet nich als FE – die 3090 Ti aber schon, denn so eine hatte Jeff Fisher schließlich in der Hand. In einer! Was ein Hulk! ;D ;)
-> RTX 3090 Ti kriegt hoffentlich eine UVP und somit die Option, eine bei Nvidias Haus-und-Hof-Shop Notebooksbilliger zu "schießen"
MfG
Raff
Rampage 2
2022-01-14, 00:28:15
uvp preise wird nv wohl keine mehr machen. das finde ich zur aktuellen situation sowieso unnötig. und für nv wäre es nur ein nachteil ihn zu nennen. sowohl einen niedrigen als auch einen hohen.
In der !aktuellen Situation! ist es in der Tat belanglos, aber was wenn die GPU-Preise je wieder (halbwegs) normales Niveau erreicht haben z.B. nachdem PoS bei Ethereum endlich eingeführt wird (Mitte 2022?) oder wenn die Corona-bedingten Probleme anfangen sich zu entspannen? Dann braucht man eine UVP!
R2
OgrEGT
2022-01-15, 07:34:00
NVIDIA asks board partners to halt GeForce RTX 3090Ti production, citing BIOS & hardware issues
https://videocardz.com/newz/nvidia-asks-board-partners-to-halt-geforce-rtx-3090ti-production-citing-bios-hardware-issues
Ob die Karte ein neues PCB oder neue Hardware Komponenten benötigt? Womöglich aufgrund der TDP von 450W?
OgrEGT
2022-01-15, 07:37:59
Komisch... Mein Beitrag wird mit 08:34 angezeigt... hier auf Teneriffa ist es 06:34 und in DE 07:35... 3DC noch auf Sommerzeit?:ugly:
BlacKi
2022-01-15, 12:54:58
In der !aktuellen Situation! ist es in der Tat belanglos, aber was wenn die GPU-Preise je wieder (halbwegs) normales Niveau erreicht haben z.B. nachdem PoS bei Ethereum endlich eingeführt wird (Mitte 2022?) oder wenn die Corona-bedingten Probleme anfangen sich zu entspannen? Dann braucht man eine UVP!
R2
ist eine uvp angabe eigentlich pflicht? als kunde mag eine uvp noch einen nutzen haben, aber wenn nv keine angabe machen will, dann ist das halt so. vorteile hat das für nv auf jeden fall nicht derzeit.
Rampage 2
2022-01-17, 04:10:16
Nimmste dann noch inbetracht, dass Turing IOPS parallel ausführen kann ohne FP-Rechenwerke zu blockieren relativiert sich das Ampere-Wunder schon ziemlich.
Diese "Blockade" bei Ampere ist aber nicht dieselbe Art von Blockade, wie sie damals bei CineFX (NV30 bis G70/71; TEX- und Shader-Ops nicht gleichzeitig, sondern nacheinander/müssen aufeinander warten) der Fall war, nicht wahr?
Die Flaschenhälse bei Ampere sind also die Anzahl der SMs (Kontrolllogik), Registerbandbreite, Anzahl & Fähigkeiten der Scheduler und die Anzahl der Ports? Rechenleistung und Bandbreite hat Ampere ja im Überfluss...
Wie hoch wird nach Meinung der Experten hier die Leistungseffizienz (Pro-MHz, IPC, Umsatz von Rohleistung in Realleistung) bei Lovelace steigen ggü. Ampere? Sind 20% zu hoch gegriffen?
R2
Leonidas
2022-01-17, 07:08:43
Komisch... Mein Beitrag wird mit 08:34 angezeigt... hier auf Teneriffa ist es 06:34 und in DE 07:35... 3DC noch auf Sommerzeit?:ugly:
Deine eigene Zeiteinstellung fürs Forum ist falsch. Schau mal in den Foren-Optionen nach, da ist das tatsächlich versteckt. Hatte denselben Fehler.
Rampage 2
2022-01-18, 02:29:53
Diese "Blockade" bei Ampere ist aber nicht dieselbe Art von Blockade, wie sie damals bei CineFX (NV30 bis G70/71; TEX- und Shader-Ops nicht gleichzeitig, sondern nacheinander/müssen aufeinander warten) der Fall war, nicht wahr?
Die Flaschenhälse bei Ampere sind also die Anzahl der SMs (Kontrolllogik), Registerbandbreite, Anzahl & Fähigkeiten der Scheduler und die Anzahl der Ports? Rechenleistung und Bandbreite hat Ampere ja im Überfluss...
Wie hoch wird nach Meinung der Experten hier die Leistungseffizienz (Pro-MHz, IPC, Umsatz von Rohleistung in Realleistung) bei Lovelace steigen ggü. Ampere? Sind 20% zu hoch gegriffen?
R2
Scheint wohl hinter Leonidas' Beitrag untergegangen zu sein;)
Insbesondere zum letzten Absatz hätte ich gerne Meinungen der Gurus hier:)
R2
BlacKi
2022-01-18, 02:53:14
Scheint wohl hinter Leonidas' Beitrag untergegangen zu sein;)
Insbesondere zum letzten Absatz hätte ich gerne Meinungen der Gurus hier:)
R25nm vs 10nm+? 20%? ich denke der schritt wird heftig werden. in leistung und effizienz. und wenn sie gddr6x weglassen, dann gibts krasse effizienz. angeblich kommt auch noch sowas ähnliches wie der infinity cache. sollte dann auch nochmal bandbreite sparen. gut für die gamer, schlecht für die miner.
Leonidas
2022-01-18, 05:00:16
Naja, ob sie weniger Bandbreite haben werden, waage ich zu bezweifeln. Sie werden mit mehr Cache das mehr an effektiver Bandbreite herausholen, was sie nicht über größere Interfaces liefern können.
basix
2022-01-18, 08:15:39
5nm vs 10nm+? 20%? ich denke der schritt wird heftig werden. in leistung und effizienz. und wenn sie gddr6x weglassen, dann gibts krasse effizienz. angeblich kommt auch noch sowas ähnliches wie der infinity cache. sollte dann auch nochmal bandbreite sparen. gut für die gamer, schlecht für die miner.
8LPU ist deutlich näher an N7 dran als viele denken:
https://chipsandcheese.com/2021/06/22/nvidias-ampere-process-technology-sunk-by-samsung/
Und in gewissen Teilen auch moderner als Samsungs 1st Gen 7nm Node, da 8nm gewisse Designmerkmale mit 2nd Gen 7nm sowie 5nm teilt:
https://fuse.wikichip.org/news/2259/samsung-ramps-7nm-preps-5nm-and-adds-6nm/
https://fuse.wikichip.org/news/1479/vlsi-2018-samsungs-2nd-gen-7nm-euv-goes-hvm/
Und laut Gerüchten, wird es 21Gbps GDDR6X werden. Zusätzlich zu evtl. 64 MByte LLC (meine Speku anhand "bigger Caches" und der nur geringfügig ansteigenden VRAM-Bandbreite). Bei der zweiten Generation werden sie die Energieffizienznachteile verglichen mit GDDR6 vermutlich aber ausgebügelt haben. Ebenso vermutlich ein Grossteil der Dinge, welche Ampere etwas unbalanced gemacht haben (eher auf Compute denn auf Games ausgerichtet).
Anyways, +20% Effizienzsteigerung sind deutlich zu tief gestapelt. Ca. 1.7...2.0x wird es schon sein. Das würde ca. 390-450W entsprechen, wenn die 2.2x Performance im Vergleich zu einer 3090 stimmen sollten.
robbitop
2022-01-18, 09:27:21
8LP mag besser sein als deren 10 nm. Vor allem in Bezug auf Dichte. Aber: ich erinnere mich noch gut an den Anandtech Test, wo sie Samsungs 5nm gegen TSMCs 5nm und 7nm getestet haben in Bezug auf den Verbrauch eines A55 Cores (taktnormiert).
Samsungs 5 nm kam gerade so an TSMCs 7 nm heran. TSMCs 5 nm ist auf und davon gezogen. Ich gehe davon aus, dass Samsungs 7 nm sicherlich auch nochmal besser ist in Bezug auf Power als ihr 8LP. Ich fresse einen Besen, wenn es da keine Powernachteile gibt mit Samsungs 8LP ggü TSMCs N7.
Density: ja da sind sie nicht weit weg. Aber Density ist eben auch nicht alles.
basix
2022-01-18, 10:10:56
Im verlinkten Chips & Cheese Artikel geht er auch auf Energieffizienz anhand von Mali GPUs ein. Und dort scheint der Samsung Prozess nicht wirklich zurückzuliegen. Fazit ist aber auch, das TSMCs N7 für typische Anwendungen der wohl bessere Prozess ist.
Aber: Aben nicht um Faktoren oder gar ganze Full-Node Sprünge.
robbitop
2022-01-18, 11:00:05
Die Frage ist ob sie beim Mali eben taktnormiert verglichen haben. Andere Betriebspunkte haben schnell einen größeren Einfluss als Fertigungsprozesse oder sogar signifikanter uArchverbesserungen da f~P^3.
Anand hatte das zumindest für A55 gemacht IIRC. Im chips and cheese Artikel steht darüber (auf den ersten Blick) zumindest nichts. Ggf. sogar die Resultate bloß aus einer Datenbank gezogen.
Auch ist bei GPUs der Grafiktreiberversion und die API Version nicht ganz irrelevant. All das entfällt bei einem CPU Vergleich deutlich einfacher.
BlacKi
2022-01-18, 11:19:56
Density: ja da sind sie nicht weit weg. Aber Density ist eben auch nicht alles.
a100 vs ga102 über 40%:freak: das ist schon viel holz. ich glaub nicht daran, das man a100 soviel dichter gepackt hat. die taktangaben geben für mich keinen eindeutigen hinweis darauf, das soviel dichter gepackt wurde. die hpc karten sind sowieso powerlimitiert, die brauchen die taktraten schlicht nicht. das ist doch kein argument dafür, das stärker gepackt wird.
basix
2022-01-18, 11:32:42
Nochmals: A100 nutzt nicht den selben N7 Prozess wie die RDNA2 GPUs. Das ist eher der Mobile Ableger, bei welchen Mobile SoCs sogar in Richtung 90 MTr/mm2 erreichen verglichen A100 mit 66 MTr/mm2.
N7 != N7, wenn man so will. Ist auch eine der Frage, welche Libraries man benutzt (HP, HD, UHD, ...). MI100/200 scheinen ebenfalls um ~65 MTr/mm2 zu erreichen. Renoir/Lucienne etc. sind ebenfalls bei ~63MTr/mm2 unterwegs (9.8 Mia. Transistoren bei 156mm2). RDNA2 bei N21 trotz sehr viel eng gepacktem SRAM nur ~51 MTr/mm2
Da A100 in Richtung Reticle Limit designed wurde, hat man Performance vs. Density geopfert. Das selbe bei Mobile SoCs wie auch anderen eher grossen Chips.
Edit:
Hier stellt sich bei der Prozess-Density eher die Frage: Ginge das bei Samsungs 8nm auch oder ist man hier ebenfalls etwas näher ans Density-Limit gegangen? Darauf habe ich keine Antwort. Da müsste man Samsungs Mobile SoCs sezieren und dann vergleichen.
Troyan
2022-01-18, 11:38:56
Im verlinkten Chips & Cheese Artikel geht er auch auf Energieffizienz anhand von Mali GPUs ein. Und dort scheint der Samsung Prozess nicht wirklich zurückzuliegen. Fazit ist aber auch, das TSMCs N7 für typische Anwendungen der wohl bessere Prozess ist.
Aber: Aben nicht um Faktoren oder gar ganze Full-Node Sprünge.
TSMCs 7nm Prozess ist ein Fullnode weiter als Samsung 10nm Prozess, worauf 8nm beruht. Die Packdichte liegt >50% höher, wie Qualcomm gezeigt hat.
Die Energieffizienz ist nicht das Problem von Samsung. Die Packdichte ist einfach schlechter, wodurch die GPUs höher getaktet werden müssen.
basix
2022-01-18, 11:40:42
Und hast du den Artikel gelesen, was bei Samsung in den Zwischen-Nodes gemacht wird und wieso bei 8nm das näher zu 7nm als 10nm gerechtfertigt ist?
robbitop
2022-01-18, 12:13:49
Die Energieffizienz ist nicht das Problem von Samsung.
Zumindest bei Samsungs 5 nm ist das ein Nachteil, da der 5 nm Prozess nur so energieeffizient ist wie TSMCs N7. Siehe Anandtech Test.
Schwer zu glauben, dass der Vor-vorgänger Node von Samsungs 5nm (also 8LP) den Nachteil ggü N7 nicht haben sollte - also genauso effizient ist wie sein Nach-nachfolgenode.
Troyan
2022-01-18, 12:20:56
Es sind <=15% von TSMCs 7nm zu Samsungs 10nm: https://www.anandtech.com/show/14072/the-samsung-galaxy-s10plus-review/10
8nm war laut Samsung 10% effizienter. Energieeffizienz auf Transistorebene unterscheidet sich kaum.
robbitop
2022-01-18, 12:26:19
Ich sehe da keine Normierung des Betriebspunktes. Ohne die kann man gar keine Rückschlüsse ziehen.
Troyan
2022-01-18, 12:28:51
https://www.anandtech.com/show/14072/the-samsung-galaxy-s10plus-review/3
Adreno640 hat 50% mehr Ausführungseinheiten, jedoch einen 18% geringen Takt. Effizienz kam nicht durch den Prozess sondern durch die Möglichkeit auf gleicher Fläche 50% mehr Transistoren packen zu können.
Rampage 2
2022-01-19, 02:24:54
5nm vs 10nm+? 20%? ich denke der schritt wird heftig werden. in leistung und effizienz. und wenn sie gddr6x weglassen, dann gibts krasse effizienz. angeblich kommt auch noch sowas ähnliches wie der infinity cache. sollte dann auch nochmal bandbreite sparen. gut für die gamer, schlecht für die miner.
Mit der "Leistungseffizienz" meinte ich nicht den Stromverbrauch/Energieeffizienz, sondern Rohleistung -> Realleistung; also wie stark die Realleistung in Spielen bei gleicher Rohleistung alleine durch architektonische Verbesserungen steigen wird. Ich gehe von 15-25% aus. Und natürlich habe ich in meinem vorletztem Posting die Fragestellung detailliert formuliert, wo *bei Ampere* die derzeitigen architektonischen Flaschenhälse liegen?
R2
robbitop
2022-01-19, 06:29:50
https://www.anandtech.com/show/14072/the-samsung-galaxy-s10plus-review/3
Adreno640 hat 50% mehr Ausführungseinheiten, jedoch einen 18% geringen Takt. Effizienz kam nicht durch den Prozess sondern durch die Möglichkeit auf gleicher Fläche 50% mehr Transistoren packen zu können.
Es ging aber um einen Vergleich der Prozesscharakteristik und nicht um eine andere Auslegung. Betriebspunktnormierte Effizienz.
Dichter als 8LP ist N7 ja auch noch. Aber eben sehr wahrscheinlich auch noch energieeffizienter.
TheAntitheist
2022-01-19, 07:55:06
Mit der "Leistungseffizienz" meinte ich nicht den Stromverbrauch/Energieeffizienz, sondern Rohleistung -> Realleistung; also wie stark die Realleistung in Spielen bei gleicher Rohleistung alleine durch architektonische Verbesserungen steigen wird. Ich gehe von 15-25% aus. Und natürlich habe ich in meinem vorletztem Posting die Fragestellung detailliert formuliert, wo *bei Ampere* die derzeitigen architektonischen Flaschenhälse liegen?
R2wird schon mehr sein, die werden die Register verdoppeln, dann kommt wieder mehr Rohleistung an. Dazu noch Architekturverbesserungen und deutlich bessere Fertigung. Da geht einiges. 30% wird das minimum sein. Aber keine Ahnung ob du Raster oder RT Leistung meinst. Heutztage würde ich den Fokus auf jedenfall zu RT verlagern, da kannst du viel mehr Geschwindigkeit rausholen.
basix
2022-01-19, 09:15:11
wird schon mehr sein, die werden die Register verdoppeln, dann kommt wieder mehr Rohleistung an. Dazu noch Architekturverbesserungen und deutlich bessere Fertigung. Da geht einiges. 30% wird das minimum sein. Aber keine Ahnung ob du Raster oder RT Leistung meinst. Heutztage würde ich den Fokus auf jedenfall zu RT verlagern, da kannst du viel mehr Geschwindigkeit rausholen.
Ich hatte es ja mal ausgerechnet anhand des FP/INT Verhänltisses, welches Nvidia bei der Vorstellung von Turing präsentiert hat.
Ohne zusätzliche Execution-Pipelines ist da nicht so viel mehr zu holen. Ideal könnte Ampere pro SM 1.47x schneller als Turing sein. Real sind es so ~1.3x. Da liegen also noch höchstens 10% drin. Natürlich kann man noch mehr IPC als Turing extrahieren, das geht sicher. Die einfachste Möglichkeit ist aber eine 2:1 Struktur aus FP:INT mit dedizierten FP und INT Einheiten. Bei Turing war sie 1:1. Zusätzlich natürlich was es darum herum benötigt wie Register und Scheduler. Durch diese Massnahme könnte die IPC pro SM auf 2.0x steigen (verglichen mit Turing). Verglichen mit Ampere wäre das dann im Rahmen +50% IPC pro SM (als obere Limite).
robbitop
2022-01-19, 09:20:15
Der Grund warum Ampere selten seine volle Rohleistung auf die Straße bringt ist nicht, dass man INT und FP shared ggü Turing. Ein großes Problem ist, dass man die Einheiten aufgebohrt hat ohne die Register im gleichen Zug zu vergrößern. Sicherlich auch Kontrolllogik pro SM.
Eine weitere INT Unit allein wird nicht viel bringen. Es war halt relativ billig (in Bezug auf Transistoren pro SM) die INT ALU auch FP fähig zu machen und damit den theoretischen FP Durchsatz zu steigern. Aber alles zu vergrößern war dann wieder zu teuer. Ich gehe davon aus, dass man das bei der nächsten Generation verändert und allein dadurch wieder deutlich mehr pro SM auf die Straße bringen kann.
Troyan
2022-01-19, 11:47:49
Ich hatte es ja mal ausgerechnet anhand des FP/INT Verhänltisses, welches Nvidia bei der Vorstellung von Turing präsentiert hat.
Ohne zusätzliche Execution-Pipelines ist da nicht so viel mehr zu holen. Ideal könnte Ampere pro SM 1.47x schneller als Turing sein. Real sind es so ~1.3x. Da liegen also noch höchstens 10% drin. Natürlich kann man noch mehr IPC als Turing extrahieren, das geht sicher. Die einfachste Möglichkeit ist aber eine 2:1 Struktur aus FP:INT mit dedizierten FP und INT Einheiten. Bei Turing war sie 1:1. Zusätzlich natürlich was es darum herum benötigt wie Register und Scheduler. Durch diese Massnahme könnte die IPC pro SM auf 2.0x steigen (verglichen mit Turing). Verglichen mit Ampere wäre das dann im Rahmen +50% IPC pro SM (als obere Limite).
Ampere kann pro Compute-Unit die doppelte FP32 Rechenleistung liefern, was sich auch 1:1 durchschlägt. Deswegen ist eine 3070 in reinen Compute-Anwendungen auch erheblich schneller als eine 2080.
Spiele sind ein Kontrukt aus vielen verschiedenen Operationen. GA104 und TU104 haben die selbe Konfiguration an Einheiten und Bandbreite. Trotzdem liefert eine 3070 im Schnitt 30% Mehrleistung gegenüber einer 2080.
robbitop
2022-01-19, 11:56:00
Auch nicht alle Computeanwendungen skalieren voll. Sobald registerpressure limitiert nicht mehr. Die Register wurden halt nicht mit verdoppelt. Das wird defintiv besser - vor allem bei Spielen (wo register pressure schon eher ein Problem sein kann) wenn die Nachfolge uArch den Rest des SMs inkl Register auch aufbohrt.
basix
2022-01-19, 15:06:55
Ampere kann pro Compute-Unit die doppelte FP32 Rechenleistung liefern, was sich auch 1:1 durchschlägt. Deswegen ist eine 3070 in reinen Compute-Anwendungen auch erheblich schneller als eine 2080.
Bei einigen Produktivanwendungen ist das so, dann sieht man fast 2x Steigerung. Ampere ist genau aus diesem Grund auch eher eine Compute/Production/Quadro/Creator GPU. Dafür weniger aufs Gaming spezialisiert.
Spiele sind ein Kontrukt aus vielen verschiedenen Operationen. GA104 und TU104 haben die selbe Konfiguration an Einheiten und Bandbreite. Trotzdem liefert eine 3070 im Schnitt 30% Mehrleistung gegenüber einer 2080.
Genau das ist der "Haken" an Ampere. Doppelter FP32 Durchsatz aber nur +30% Performance in Spielen. Dabei liegt es nicht nur daran, dass die Register nicht mitgewachsen sind, sondern das aufgrund des FP/INT Instruction Mix in Games einfach auch nicht so viel mehr geht (wie gesagt +47% verglichen mit Turing; +10...15% verglichen mit Ampere).
Mit 2x FP32 und dedizierter 1x INT32 Pipe sowie aufgebohrtem Frontend mit Register, Scheduler usw. könnte man in Richtung +50% Spiele-Performance pro SM gehen, ohne die FP-Performance steigern zu müssen. Ohne dedizierte INT Einheit ist das Wachstum deutlich limitierter (bezogen auf die Peak FP32 Leistung). 2:1 FP/INT wäre das optimale Verhältnis für Spiele. Laut Nvidia ist es typ. ein 100:36 Verhältnis bezüglich FP/INT Operationen. Und in den damaligen Beispielen bei Turing gab es nur sehr selten Spiele, die ein 100:>50 oder 2:>1 Verhältnis überschreiten. Deswegen wäre ein 2:1 Verhältnis perfekt für Spiele ausbalanciert. FP wäre fast immer voll ausgelastet und INT nur sehr selten der limitierende Faktor. Turing war mit einem 1:1 Verhältnis in dieser Hinsicht bei INT overpowered.
Evtl. ist dieses 2:1 FP:INT Verhältnis auch der Grund, wieso im Gaming Lovelace kommt und bei HPC Hopper: Lovelace = Gaming optimized Architektur, ähnlich wie es Pascal war. Hopper = HPC optimiert und allenfalls abweichendes FP/INT Verhältnis.
Edit:
Bezüglich FP/INT Instruction Mix und Ampere vs. Turing könnte man eine Probe aufs Exempel machen.
- Man nehme von Turing die Concurrent Execution Folie mit FP/INT Anteilen (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47269-die-turing-architektur-mit-rtx-ray-tracing-und-den-neuen-shader-funktionen.html?start=1)
- Und vergleicht die relative Performance von Turing und Ampere bei 4K bei diesen Spielen (RTX 3070 vs. RTX 2080 oder RTX 3080 vs. RTX 2080 Ti)
These:
- Battlefield 1, RoTR, SoW, Division: Ampere kann sich schlecht von Turing absetzen
- Witcher 3, GTA V: Ampere kann sich gut von Turing abesetzen
https://www.hardwareluxx.de/images/cdn01/53B794F5D59B426390A52E7DFFE202AE/img/4795153C1BC0413F83A447BA7C1DC77A/Turing-EditorsDay-Presentation-011_4795153C1BC0413F83A447BA7C1DC77A.jpg
robbitop
2022-01-19, 15:32:43
Naja teilweise sind Spiele auch einfach nicht komplett arithmetisch limitiert.
Man schaue sich an was die zusätzliche INT Unit pro Takt und SM brachte bei Turing ggü Pascal. IIRC waren das nicht mehr als 10% in Spielen. NV gab an, dass 3x% der Instruktionen INT sind - aber das spiegelte sich nicht mal ansatzweise in Spielen wieder.
+50% klingt da schon optimitisch. Ggf. durch zusätzliche andere Maßnahmen.
Troyan
2022-01-19, 15:45:34
Bei einigen Produktivanwendungen ist das so, dann sieht man fast 2x Steigerung. Ampere ist genau aus diesem Grund auch eher eine Compute/Production/Quadro/Creator GPU. Dafür weniger aufs Gaming spezialisiert.
Hä? Ampere ist eine Gaming-Architektur und ist doppelt so schnell als AMD. Wäre Ampere keine Gaming-Architektur, was hat eigentlich AMD produziert? :eek:
Genau das ist der "Haken" an Ampere. Doppelter FP32 Durchsatz aber nur +30% Performance in Spielen. Dabei liegt es nicht nur daran, dass die Register nicht mitgewachsen sind, sondern das aufgrund des FP/INT Instruction Mix in Games einfach auch nicht so viel mehr geht (wie gesagt +47% verglichen mit Turing; +10...15% verglichen mit Ampere).
Du beschreibst eher dein Unverständnis über "Effizienz". Bei Turing liegt der zweite Datenpfad zu ca. 70% der Zeit brach. Bei Ampere wird der zweite Datenpfad immer genutzt - entweder durch zusätzliche FP32 Operationen oder anfallende INT32 Ausführungen. Ampere ist also der gewollte Zustand und nicht Turing.
Ampere hat 30% mehr Transistoren als Turing und erreicht ~30% mehr Leistung in altertümlichen Spielen. Deine Logik daraus folgt: Ampere ist schlecht.
Hier mal die Realität: AMD benötigt 70% mehr Transistoren für 30% Mehrleistung. Da hört man von dir irgendwie nie was.
basix
2022-01-19, 16:42:56
@Troyan:
Wieso kommst du immer mit dem Vergleich zu AMD. Vergleiche doch lieber Nvidia Architekturen untereinander. Dann sieht das mit Gaming fokussierter Architektur eben ganz anders aus.
Und zu Effizienz: Ich sage nicht, dass die Auslastung von Ampere schlecht ist. Ich sage ja selbst, dass man verglichen zum Turing SM-Aufbau in etwa 85-90% der maximal möglichen Leistung auf den Boden bringt (auf FP-Leistung zusammen mit FP/INT Mix bezogen!) und dass Turing im Vergleich dazu bei INT overpowered war (und somit schlecht ausgelastet auf dem INT Pfad). So schlecht ist das bei Ampere also nicht. Register usw. scheinen etwas zu limitieren aber eben nicht so viel, wie man auf den ersten Blick anhand des Peak FP32 Durchsatzes meinen könnte. 37 vs. 15 TFlops bei +60% Performance implizieren eine Auslastung von ~65%. Dem ist aber wie gesagt nicht so, eher 85-90%. Dies aufgrund des FP/INT Instruction Mix.
Im Verhältnis zum Peak FP32 Durchsatz ist die Performance in Spielen aber dennoch deutlich geringer als bei den Vorgänger-Architekturen. Und genau hier könnte man das mit einer (mMn relativ geringfügigen) Verbreiterung der Pipes deutlich beschleunigen. Und wenn aus deiner Sicht Ampere schon der bessere Zustand ist, ist eben ein 2:1 FP/INT Verhältnis ein nochmals verbesserter Zustand. mMn für Gaming mehr oder minder das Optimum.
Edit:
Typo fixes
Naja teilweise sind Spiele auch einfach nicht komplett arithmetisch limitiert.
Man schaue sich an was die zusätzliche INT Unit pro Takt und SM brachte bei Turing ggü Pascal. IIRC waren das nicht mehr als 10% in Spielen. NV gab an, dass 3x% der Instruktionen INT sind - aber das spiegelte sich nicht mal ansatzweise in Spielen wieder.
+50% klingt da schon optimitisch. Ggf. durch zusätzliche andere Maßnahmen.
+50% sind sicher hoch gegriffen und nahe am Optimum. Und klar, der Rest um die Arithmetik-Leistung herum muss entsprechend mitwachsen.
Tesseract
2022-01-19, 17:20:14
dein denkfehler ist, dass du davon ausgehst dieses 2:1 verhältnis würde in jedem spiel und da in jeder situation so ausfallen. in der praxis ist das aber nicht der fall. mit festem 2:1 einheitenmix würden die INT trotzdem stellenweise überfordert und stellenweise idle sein. amperes flexibes verhältnis von 50-50 zu 100-0 ist (unter der annahme, dass ein spiel nie ohne FP32 laufen wird, sonst könnte man 0-100/100-0 machen) deutlich sinnvoller. das einzige was man damit verliert ist der "verschnitt" wenn zwischen INT und FP hin und her gewechselt wird usw. - da kann man im datail sicher noch was optimieren aber feste 2:1 wären ein rückschritt.
robbitop
2022-01-19, 17:31:30
Bei Ampere war es einfach "billig" die INT ALU auch mit FP auszustatten und alles andere so zu lassen (im Vektor FPU Bereich). Mit wenig Mehrtransistoren relativ viel Leistung. Was Leistung pro Transistor angeht hat das Ampere sicherlich geholfen.
Diese Entscheidung muss man natürlich je nach dem was die Basis für den nächsten Sprung ist (und was die Kriterien der aktuellen Software die darauf laufen muss sind) jedes Mal neu treffen.
Ampere mag pro TFLOP nicht so viel umsetzen wie Turing oder Pascal. Aber macht es ihn ineffizient? Am Ende ist doch viel eher relevant wie viel punch pro Transistor herauskommt oder ggf. wie viel Punch pro Watt.
Wenn man eine uArch bewerten wollte - dann muss sie mit der Vergleichs uArch aber auch ISO Fertigungsprozess und ISO Betriebspunkt verglichen werden. Gerade letzteres hat einen so großen Einfluss.
IMO war die Entscheidung von NV clever und nachvollziehbar. Der nächste Chip wird den SM dann wieder ausbauen.
RDNA3 hat auch vor, die SMs einfach breiter zu machen - und da wird ggf. auch Performance pro TFLOP liegen bleiben. So lange es sich in Bezug auf Punch pro Transistor und pro Watt lohnt und ein gutes Produkt bei herumkommt sicherlich keine falsche Entscheidung. :)
mksn7
2022-01-20, 10:32:30
Mal als Grundsatzfrage, bei den SMs/CUs wird oft ein "mehr" für die nächste Generation prognostiziert, meistens mehr Einheiten pro Scheduler, was dann in höherer single thread Leistung pro Takt resultieren würde.
Glaubt ihr dass das auf jeden Fall der Trend für die nächsten Jahre wird?
Jetzt ist es eigentlich eine Binsenweisheit, dass single thread Leistung für GPUs im Vergleich zu CPUs egal ist, da der Gesamtdurchsatz durch Parallelität erzeugt wird. Auf der anderen Seite haben wir in Spielen mittlerweile oft Auslastungsprobleme, wo die Parallelität nicht langt und es schon was wert ist wenn threads nicht ewig lang auf dem chip verweilen und gerade synchrone kleine draw calls schnell durchgehen.
Meiner Meinung nach gibt es in den letzten zehn Jahren keine so klare Richtung:
Terrascale -> GCN: Die Terrascale VLIW Architektur mit 5(4) Instruktionen aus einem thread setzt sehr auf Instruction Level Parallelism (ILP). Keine Ahnung wie schnell hintereinander so ein instruction bundle aus dem gleichen thread geissued werden kann, aber das klingt für mich nach recht hoher single thread Leistung. GCN dagegen pfeift völlig auf Vector ILP, mit nur 16/64 = 1/4 breiten Einheiten. Stattdessen wird halt einfach was an anderen threads gemacht. Klingt für mich nach einem takt normierten Rückschritt in der single thread performance.
GCN -> RDNA: RDNA bewegt sich definitiv sehr stark in Richtung mehr single thread performance, mit breiteren Einheiten und Ausnutzung von ILP.
Kepler -> Maxwell/Pascal: Bei Kepler teilen sich vier dual issue scheduler 6 volle Vektoreinheiten. Maxwell streicht die zwei geteilten Vektoreinheiten, was zwar theoretisch ein Rückschritt in der single thread performance pro Takt ist, aber praktisch nicht so relevant ist, und dafür einiges an Komplexität reduziert. Unter anderem deswegen mehr Energieeffizienz und Takt, was unter dem Strich die single thread performance mit Takt vermutlich eher erhöht hat.
Maxwell/Pascal -> Turing: Aus den dual issue schedulern werden jetzt single issue scheduler und die Vektoreinheiten sind nur noch halb so breit. Man könnte sagen, aus einer 32x FP/Int unit werden zwei 16x FP + 16x Int units. Weil die halb breiten units doppelt so lange brauchen, kann der single issue scheduler immer noch beide Einheiten komplett auslasten. Andere Instruktionen (load/store, branch, ...) klauen jetzt aber issue cycles, die vorher für umsonst auf der dual issue Einheit mitgelaufen sind. Das ist definitiv ein Rießenrückschritt in der single thread performance pro Takt! Höchstens bei einem 50/50 FP/Int instruction mix wird der gleiche Durchsatz erzielt. NVIDIA hat das ganz toll als Fortschritt verkauft... Es gibt jetzt dafür doppelt soviele scheduler, also mehr Parallelität. Es gibt auch deutlich mehr Takt, was insgesamt den Rückschritt in der single thread performance vermutlich etwas reduziert.
Turing -> Ampere: Die zweite Einheit wird jetzt wieder flexibler, auch bei sehr hohem FP Anteil kann der alte Durchsatz erreicht werden.
Für mich gibt es insgesamt keine so klare Richtung. Während AMD mit RDNA vermutlich ihre bislang IPC stärkste Architektur (aarhhh, jetzt hab ich doch das böse I-Akkronym verwendet, IPC ist natürlich falsch, weil jede Architektur völlig unterschiedliche instructions ausführt. Aber mittlerweile versteht wohl jeder takt normierte single thread performance darunter) aufgelegt hat, hat NVIDIA den reinen instruction throughput pro Takt und thread erst mal reduziert, und dann wieder etwas gesteigert. Auf der anderen Seite ist der Takt deutlich gestiegen, und hat das wieder aufgefangen.
Ich halte mehr Einheiten pro scheduler deswegen nicht für so unausweichlich wie das sowohl für AMD als auch NVIDIA oft prognostiziert wird. Was soll da als nächstes kommen um die Einheiten auch auszulasten, branch prediction und Out-of-Order execution?
Und letztendlich ist der reine instruction throughput ist auch selten der limiter, weswegen diese Milmädchenrechnungen mit instruction mixes und Einheiten auch Quatsch sind. Stattdessen haben beide Hersteller in den letzten Jahren deutlich mehr an anderen Stellen investiert die viel mehr bei den echten Limits bringen, wie mehr, größere, breitere, schnellere und allgemein geilere caches. Bringt viel mehr als eine execution unit mehr oder weniger.
basix
2022-01-20, 10:43:11
dein denkfehler ist, dass du davon ausgehst dieses 2:1 verhältnis würde in jedem spiel und da in jeder situation so ausfallen. in der praxis ist das aber nicht der fall. mit festem 2:1 einheitenmix würden die INT trotzdem stellenweise überfordert und stellenweise idle sein.
Diesen Denkfehler habe ich definitiv nicht ;) Mir ist schon bewusst, dass bei 2:1 die INT Einheiten zum Teil limitieren oder brach liegen würden.
amperes flexibes verhältnis von 50-50 zu 100-0 ist (unter der annahme, dass ein spiel nie ohne FP32 laufen wird, sonst könnte man 0-100/100-0 machen) deutlich sinnvoller. das einzige was man damit verliert ist der "verschnitt" wenn zwischen INT und FP hin und her gewechselt wird usw. - da kann man im datail sicher noch was optimieren aber feste 2:1 wären ein rückschritt.
Mir geht es darum, dass man mit 2:1 den FP-Durchsatz in Spielen fast immer voll ausnutzen könnte. Und ich behaupte, dass dies pro Transistor vermutlich effizienter ist. FP-Einheiten sind einiges schwerer als reine INT-Einheiten Und Ampere hat sogar noch eine kombinierte FP+INT Einheit, welche nochmals etwas schwerer als eine reine FP-Einheit ist. Nun, gehen wir von Ampere @ max. IPC aus und setzen das auf ein 2:1 Verhältnis mit ebenfalls max. IPC um, liegen etwa +36% IPC dazwischen (pseudo-korrekt, da auf Turing IPC normiert). Ich behaupte, das man für FP/FP/INT nicht mehr als 1.36x Chipfläche benötigt wie für FP/FP+INT. Ergo könnte ein 2:1 Verhältnis sogar flächeneffizienter sein (in Spielen). Was allenfalls aber zusätzliche Fläche kostet, sind Register, Scheduler etc. Das müsste ausgehend von Ampere aber sowieso aufgebohrt werden, wenn man näher in Richtung max. IPC kommen will.
Ich denke, dass ein 2:1 Verhältnis bezüglich Performance/Chipfläche ähnlich oder sogar besser aussieht wie es heute bei Ampere ist. Dies explizit auf Spiele bezogen. Hier komme ich aber nochmals darauf zurück, dass Ampere einen deutlichen Fokus auf Produktiv-Anwendungen gelegt hat. Und genau hier, ist Ampere extrem flächeneffizient, da Nvidia hier den doppelten FP32-Durchsatz viel häufiger auf den Boden bringt. Deswegen sieht Ampere auch so aus wie er jetzt ist. Bezüglich Spiele Performance das gemacht was nötig ist, bei Produktiv-Anwendungen überproportionale Steigerung.
Für die Zukunft würde eine erhöhte IPC pro SM dennoch von Vorteil sein, bei allen Anwendungen aber besonders in Spielen: GPUs skalieren nicht linear mit der Anzahl SMs. Wenn man hier die IPC pro SM erhöht, kann man für die selbe Performance deutlich weniger SMs verbauen. Hier würden bei Lovelace besonders Spiele profitieren, aber auch einige Produktivanwendungen welche nicht >75% FP-Instruktionen verwenden.
Edit:
Mal als Grundsatzfrage, bei den SMs/CUs wird oft ein "mehr" für die nächste Generation prognostiziert, meistens mehr Einheiten pro Scheduler, was dann in höherer single thread Leistung pro Takt resultieren würde.
Glaubt ihr dass das auf jeden Fall der Trend für die nächsten Jahre wird?
Jetzt ist es eigentlich eine Binsenweisheit, dass single thread Leistung für GPUs im Vergleich zu CPUs egal ist, da der Gesamtdurchsatz durch Parallelität erzeugt wird. Auf der anderen Seite haben wir in Spielen mittlerweile oft Auslastungsprobleme, wo die Parallelität nicht langt und es schon was wert ist wenn threads nicht ewig lang auf dem chip verweilen und gerade synchrone kleine draw calls schnell durchgehen.
Bei GPUs sind hohe Auflösungen und wohl auch Raytracing von Vorteil. Da verschiebt sich das Problem eher in Arithmetik-Leistung. Wir wanderen schon langsam in eine Region, wo 4K im High-End langsam normal wird. Und RT bei deutlich mehr Spielen zum Einsatz kommt. Irgendwo habe ich im Kopf, im Zusammenhang mit der PS5 und Mark Cerny, das 40-50% ALU-Load eigentlich schon sehr gut sind. Da wäre also hinsichtlich IPC (oder sagen wir korrekter Performance/Flop ;)) noch einiges möglich.
Und letztendlich ist der reine instruction throughput ist auch selten der limiter, weswegen diese Milmädchenrechnungen mit instruction mixes und Einheiten auch Quatsch sind. Stattdessen haben beide Hersteller in den letzten Jahren deutlich mehr an anderen Stellen investiert die viel mehr bei den echten Limits bringen, wie mehr, größere, breitere, schnellere und allgemein geilere caches. Bringt viel mehr als eine execution unit mehr oder weniger.
Klar sind das alles Milchmädchenrechnungen, da sie rein den Peak Throughput widerspiegeln und nicht das, was auf den Boden gebracht wird. Dennoch ist mit mehr Execution Units auch mehr Potential für Peak-Performance vorhanden ;) Und wie du sagst: Bigger Caches und anderweitige Optimierungen. Obwohl bei bigger Caches zwischen Turing und Pascal sehr viel grössere L1-Caches liegen, die IPC aber eher gering angestiegen ist. Ein Allheilmitel scheinen grosse und schnelle Caches auch nicht zu sein. Ausnahmen sind hier typischerweise Games und Anwendungen mit viel Compute. Da ist Turing deutlich schneller als Pascal. Doom ist da so ein Beispiel.
mksn7
2022-01-20, 12:20:49
FP-Einheiten sind einiges schwerer als reine INT-Einheiten Und Ampere hat sogar noch eine kombinierte FP+INT Einheit, welche nochmals etwas schwerer als eine reine FP-Einheit ist.
Da bin ich kein Experte, aber ich glaub das stimmt nicht. Jedenfalls wenn man einen FP32 und eine Int32 Einheit vergleicht. Für eine single precision Multiplikation muss die Multipliziereinheit nur 23 Bit breit sein für die 23 Bit der Mantisse im IEEE754 single precision format. Bei 32 Bit integer sind es eben 32 Bit. FP32 braucht noch einen kleinen Addierer für die Exponenten und ein bisschen Extralogik für die Spezialfälle. Ich denke aber das ist alles nicht so aufwändig wie die quadratisch aufwändiger werdende Multipliziereinheit.
Deswegen hat nichtmal jede GPU eine 32 bit Integermultiplikation. Kepler konnte das, Maxwell nicht, danach bin ich mir nicht sicher.
Edit: Vielleicht stimmt das auch nicht, jedenfalls ist für Maxwell auch ein IMAD aufgeführt. Ich dachte ich hatte mal was gelesen dass Maxwell nur ein halb breites XMAD hat.
basix
2022-01-20, 12:31:28
Ich bin auf dem Gebiet auch kein Experte. Aber das was man so von Microcontroller-Herstellern so hört ist, dass eine FPU viel mehr Platz braucht (neben mehr Energie). Eine Vector-Unit besteht sicher nicht nur rein aus ALUs, aber alle Aussagen die ich kenne gehen in eine Richtung: FPU braucht mehr Platz. Ich meine, der erhöhte Energieverbrauch von Floating Point vs. Integer wird mit hoher Wahrscheinlichkeit auch mit mehr Transistoren korrelieren. Zumindest wäre das ein logischer Zusammenhang.
Leider findet man in der Literatur nur schwer Gate Count Zahlen von solchen Dingen.
Timbaloo
2022-01-20, 12:52:08
Natürlich ist eine (32-Bit) FPU deutlich aufwändiger als entsprechende Integereinheiten. Siehe praktisch alle µCs, DSPs, etc. pp., ebenso ein Hinweis, dass viele FPUs (gerade in GPUs) explizit nicht IEEE754-konform sind um Platz zu sparen bzw. effizienter zu werden.
basix
2022-01-20, 13:08:25
Genau so habe ich es auch im Kopf (aber halt ohne Beleg).
Die Aussage zu IEEE754 konform ist eigentlich noch eine interessante. Damit kann darauf schliessen, dass die reinen Rechenwerke eine begrenzten Anteil der Fläche einnehmen und die darum liegende Logik entscheidend zum Flächenbedarf beiträgt. Und anscheinend ist die bei Integer deutlich schlanker.
mksn7
2022-01-20, 17:38:43
Ok, dann beuge ich mich dem 3DCenter hive mind: FP units sind aufwändiger als INT units.
Vermutlich ist beides aber nicht so gewichtig im Vergleich zu den Datenpfaden die dazugehören.
dildo4u
2022-01-22, 16:25:11
3DMark Werte der 3050.
https://videocardz.com/newz/nvidia-geforce-rtx-3050-gets-first-3dmark-scores-gtx-1660ti-performance-with-dlss-raytracing
Troyan
2022-01-25, 19:42:31
Laut Computerbase ist die 3080 TI im Notenbook mit 16gbit/s zwischen 15% und 20% schneller und somit effizienter als die 3080: https://www.computerbase.de/2022-01/gaming-notebook-rtx-3080-ti-laptop-gpu-test/3/
GA103S taktet bei 20% mehr Einheiten sowie 14% mehr Bandbreite genauso hoch. Ein ziemlich guter Effizienzgewinn auf dem selben Prozess.
basix
2022-01-25, 21:40:52
Das mit dem Takt bei mehr SMs mich auch etwas erstaunt. Leider wird das nicht ganz in der Performance widergespiegelt. Bei gleicher TDP ~10% schneller als die 3080.
Ein Teil des Effizienzgewinns wird sicher darüber erreicht, dass die GPU ca. 10°C Kühler bleibt. Ein anderer Teil dadurch, dass andere Strukturen wie GPCs, L2$ usw. nicht erweitert worden sind. GA103 fährt also einfach mehr SMs pro GPC, ansonsten ist der Chip fast identisch mit GA104.
Edit:
GA103 im Vollausbau, 16GByte VRAM und 16...18 Gbps GDDR6 wären recht nice, ca. +20% auf eine 3070.
3DMark Werte der 3050.
https://videocardz.com/newz/nvidia-geforce-rtx-3050-gets-first-3dmark-scores-gtx-1660ti-performance-with-dlss-raytracing
Und das ist im Vergleich mit der RX 6500 XT sowas wie der Worst Case.
MfG
Raff
Linmoum
2022-01-26, 00:09:18
Nuja, 276mm2 vs. 107mm2. Wäre auch schockierend, wenn sich beide Karten auf demselben Niveau rumprügeln würden. ;)
Jo, aber ich schätze, dass die beiden gar nicht furchtbar weit auseinander lägen, wenn die AMD-Karte mit 8 GiB verfügbar wäre. Da könnten aus 50 nur noch 20 Prozent werden. Hoffentlich kriegen wir noch die Chance, das zu überprüfen. Nein, eine RTX 3050 4GB braucht niemand, auch wenn das ebenfalls interessant wäre. :ugly:
MfG
Raff
TheAntitheist
2022-01-26, 00:43:21
Jo, aber ich schätze, dass die beiden gar nicht furchtbar weit auseinander lägen, wenn die AMD-Karte mit 8 GiB verfügbar wäre. Da könnten aus 50 nur noch 20 Prozent werden. Hoffentlich kriegen wir noch die Chance, das zu überprüfen. Nein, eine RTX 3050 4GB braucht niemand, auch wenn das ebenfalls interessant wäre. :ugly:
MfG
Raff
mit DLSS und rtx könnten es auch 200% werden xD aber RT auf diesen Karten wäre ja lächerlich. DLSS sollte man dennoch mit einbeziehen, gerade bei diesen low end karten sind die user jetzt so grafikaffin.
Aber sind wir ehrlich, beide Karten sind Schrott, AMDs ist dazu noch dreist. die 3060 ist dagegen ein unfassbares Angebot (MSRP Vergleich natürlich)
Troyan
2022-01-26, 10:15:10
Mit 8GB sogar uendlich viel schneller. Dazu noch volle PCIe-Geschwindigkeit. Also im Grunde ist es schon heftig, was nVidia so alles in 2,7x mehr Größe packen kann. XD
DrFreaK666
2022-01-26, 10:29:53
Wurde es schon gepostet?
https://videocardz.com/newz/evga-geforce-rtx-3050-review-leaks-out-ahead-of-the-embargo
dildo4u
2022-01-26, 11:27:03
Jo, aber ich schätze, dass die beiden gar nicht furchtbar weit auseinander lägen, wenn die AMD-Karte mit 8 GiB verfügbar wäre. Da könnten aus 50 nur noch 20 Prozent werden. Hoffentlich kriegen wir noch die Chance, das zu überprüfen. Nein, eine RTX 3050 4GB braucht niemand, auch wenn das ebenfalls interessant wäre. :ugly:
MfG
Raff
Bei der Marktlage wird sie auch fast 50% mher kosten 350 vs 500€ sind möglich.
Bin gespannt wie die Reviews das einschätzen werden.
Rancor
2022-01-26, 11:40:00
Also für Full HD 60 FPS ohne RT scheint sie ja zu reichen. Ist also für den Casual-Gamer genau das richtige, wenn sie denn keine 350€ oder mehr kosten wird :D
dildo4u
2022-01-26, 11:46:01
2060 mit 6GB sind um 500€ ich sehe ehrlich gesagt nicht wie die 3050 billiger zu fertigen sind oder NV verzichtet bewusst auf Marge.
Rancor
2022-01-26, 11:52:26
2060 mit 6GB sind um 500€ ich sehe ehrlich gesagt nicht wie die 3050 billiger zu fertigen sind oder NV verzichtet bewusst auf Marge.
Da die aktuellen Preise wenig mit den Herstellungskosten zu tun haben, weiß ich nicht worauf du hinaus willst?
Die 3050 ist fürs Mining offenbar ungeeignet und sie spricht Enthusiasten nicht an. Am Anfang dürften die Preise dennoch über UVP liegen, da der Bedarf an einer solchen Karte, etwa für BudgetBuilds, nicht unerheblich sein dürfte. Die RX6500 kann man ja nun wirklich niemanden empfehlen leider.
dildo4u
2022-01-26, 11:56:53
Ich vermute mal Samsung wird eher ausgelastet sein als der alte TSMC Prozess NV fertig ja seine komplette 30 Serie in 8nm.
Kann mich irren aber ich glaube 12nm wird nur für Low End 20 Serie genutzt.
Dampf
2022-01-26, 13:25:56
Nvidia ist tot im Einsteiger-Desktop Bereich.
AMD hat gewonnen.
Rancor
2022-01-26, 13:27:26
Nvidia ist tot im Einsteiger-Desktop Bereich.
AMD hat gewonnen.
Wie kommst du darauf?
Die RTX 3050 ist einfach 'ne Liga drüber sowie teurer und es gibt keine "RT 3030".
MfG
Raff
r3ptil3
2022-01-26, 14:38:44
Die ersten Listungen sagen schon alles: 500 Euro+
DrFreaK666
2022-01-26, 14:45:30
Für 500€ ist die 6600 die bessere Wahl - für die Mehrheit
Lehdro
2022-01-26, 15:21:44
Dazu noch volle PCIe-Geschwindigkeit.
Aber die RTX 3050 hat nur x8 4.0? :rolleyes:
Rancor
2022-01-26, 15:24:04
Die RTX 3050 ist einfach 'ne Liga drüber sowie teurer und es gibt keine "RT 3030".
MfG
Raff
Aber 1050er.
Dampf
2022-01-26, 16:03:13
Für 500€ ist die 6600 die bessere Wahl - für die Mehrheit
Die Mehrheit gibt keine 500€ für ne GPU aus.
AMD ist mit der 6500XT voll drin bei 300€ und sie ist die einzig erhältliche GPU für einen akzeptablen Preis mit dem DX12U Featureset.
Du hast echt ein Herz für Speicherkrüppel mit (liegen gelassenem) Potenzial. :D
MfG
Raff
robbitop
2022-01-26, 16:56:59
Ich denke man muss derzeit einfach akzeptieren, dass GPUs extrem teuer sind. Deswegen würde ich mir persönlich keine GPU kaufen, welche meine Kriterien nicht erfüllt. Was bedeutet: entweder mehr Geld ausgeben oder verzichten.
Ich persönlich gehe d'accord (ist aber eigener Geschmack), dass die 3050 das unterste sinnvolle Limit an GPU darstellt. Für mich käme sie dennoch nicht in Frage, da eher richtung High End unterwegs. Also eine xx80 oder xx90 sollte es schon sein. Da viel zu teuer -> Verzicht.
dargo
2022-01-26, 18:39:35
Nvidia ist tot im Einsteiger-Desktop Bereich.
AMD hat gewonnen.
Also offiziell heißt es afaik 199$ für RX 6500XT und 279$ für RTX 3050. Laut CB soll letzteres aber später als GA107 kommen. Wird es keinen Salvage von GA107 geben? Den könnte NV dann für 199$ anbieten.
dildo4u
2022-01-27, 07:45:43
Macht sinn GA107 für Notebooks mit 4GB zu behalten diese Modelle beachtet niemand, für den Desktop handelt man sich nur schlechte PR ein.
Ich kann mich nicht erinnern das 1650 sonderlich positiv aufgenommen wurde, die Minium Empfehlung war immer die 1660.
Das selbe bei AMD 560 mäh,570 ok.
TheAntitheist
2022-01-27, 19:26:46
bevor man sich doch so eine lowest end GPU holt, kauft man doch lieber eine APU oder? sollte preislich viel besser sein.
Rampage 2
2022-02-06, 03:12:59
@ TheAntitheist, basix, robbitop, Tesseract & mksn7:
Danke für eure detaillierten Analysen über die architektonischen Flaschenhälse und Verbesserungspotential bei Ampere bzw. Lovelace:up: Man kann also in der Tat davon ausgehen, dass bei LL die effektive Leistung um mindestens 20% pro Recheneinheit steigen wird:)
Dazu kommt höherer Takt - sind nach gegenwärtigem Gerüchtestand 2.5 GHz OC-Takt bei LL zu optimistisch oder doch im Bereich des Möglichen? Auch mit Luftkühlung?
R2
TheAntitheist
2022-02-06, 19:55:40
Die RTX 3050 ist einfach 'ne Liga drüber sowie teurer und es gibt keine "RT 3030".
MfG
Raff
aber die 1650 ist doch genauso "gut" wie eine 6500xt oder? dann haste doch da deine Einstiegslösung.
@Rampage
Ja der Taktsprung sollte bei Nvidia größer sein weil der Nodevorteil ja größer ist. Die Frage ist eher wie die Architektur ausgelegt ist. 2.5GHz sind möglich aber kein Muss. Die Gerüchteküche hat dazu soweit ich weiß auch noch nichts berichtet. Der Takt ist ja egal für die Kühlung, nur die Verlustleistung/Hitzeentwicklung zählt.
Nvidia ist tot im Einsteiger-Desktop Bereich.
AMD hat gewonnen.
Ich würde eher sagen, der gesamte Einsteigerbereich ist tot und Intel und AMD haben gewonnen - mit APUs. Wenn Intel jetzt noch was stärkeres im Desktop bringen würde und wenn man Rembrandt betrachtet gibts eigentlich kaum einen Grund ne extra Grafikkarte zu kaufen im Einstieg.
Thunder99
2022-02-07, 18:52:45
Ich würde eher sagen, der gesamte Einsteigerbereich ist tot und Intel und AMD haben gewonnen - mit APUs. Wenn Intel jetzt noch was stärkeres im Desktop bringen würde und wenn man Rembrandt betrachtet gibts eigentlich kaum einen Grund ne extra Grafikkarte zu kaufen im Einstieg.
Für OEM schon, Hauptsache damit werben "Extra GPU verbaut"
basix
2022-02-07, 21:08:56
Für OEM schon, Hauptsache damit werben "Extra GPU verbaut"
Ach, denen fällt dann schon was ein wie "Desktop/Discrete Class Graphics" ;)
dildo4u
2022-02-13, 10:39:00
GA107 soll Pin Kompatibel mit den aktuellen 3050 Boards sein, TBP soll mit diesem Chip auf 115 Watt sinken.
https://www.igorslab.de/en/the-two-faces-of-geforce-rtx-3050-8gb-different-chips-and-different-thirsts/
r3ptil3
2022-02-14, 17:13:26
Nvidia-Statement zur RTX 3090 TI:
"We don’t currently have more info to share on the RTX 3090 Ti, but we’ll be in touch when we do."
https://www.theverge.com/2022/2/14/22932832/nvidia-rtx-3090-ti-delay-issues
Hoch arrogant - na dann darauf warten, dass AMD vielleicht sämtliche Konkurrenzprodukte in der Kommenden Gen platt macht.
Ich seh das eher so, dass die an dem Ding die Telemetrie richtig einstellen wollen und die Produktionsabläufe so weit optimieren, dass man ein gutes Ergebnis bei den 500W+-Lovelace-Karten erreichen kann um konkurrenzfähig zu sein. Erst recht wenn man wirklich hoch getaktete Speicher nutzen will, wie 24GT/s von Samsung oder gar 27GT/s von SKHynix. Die 3090Ti kommt eben erst dann auf den Markt, wenn das alles gut passt und man testet damit einfach die Massenproduktion, damit man bei Lovalace keine Überraschungen erlebt. Besser verzögert sich die 3090Ti ohne Ende, als dass sich Lovelace verzögert.
BlacKi
2022-02-14, 17:17:13
war die 3090ti nicht so ein testboot für ein neues feature?
Linmoum
2022-02-14, 18:09:47
Ja, das Feature nennt sich deutlich höherer Verbrauch, damit die AIB sich schon einmal auf die nächste Gen vorbereiten können. ;)
davidzo
2022-02-14, 23:49:43
GA107 soll Pin Kompatibel mit den aktuellen 3050 Boards sein, TBP soll mit diesem Chip auf 115 Watt sinken.
https://www.igorslab.de/en/the-two-faces-of-geforce-rtx-3050-8gb-different-chips-and-different-thirsts/
Macht überhaupt keinen Sinn den Pinkompatibel zu machen. Wieso sollten die Hersteller ein Interesse daran haben weiter ein 8 Layer board mit 192bit SI und nur halb bestückten VRMs zu bauen wenn 6 Layer mit 128bit und sparsamem VRM auch genügen? Das ist schließlich eine high volume karte, ein eigenes PCbdesign lohnt sich da allemal.
Für die Boardpartner sind die schmalen GA106 yields also eher ein Ärgernis. GA107 wäre soviel ökonomischer um die 3050 zu produzieren, nicht nur beim PCB, sondern auch bei VRM und Kühler.
dildo4u
2022-02-15, 04:31:16
Ist das Interface nicht schon bei 128bit daher die 8 GB?
dildo4u
2022-03-26, 04:08:33
Angepasster 3900 Ti Kühler von MSI.
https://videocardz.com/newz/msi-geforce-rtx-3090-ti-suprim-x-leaked-3-5-slot-design-with-16-pin-connector-and-480w-tdp
TheAntitheist
2022-03-26, 05:39:28
Nvidia-Statement zur RTX 3090 TI:
"We don’t currently have more info to share on the RTX 3090 Ti, but we’ll be in touch when we do."
https://www.theverge.com/2022/2/14/22932832/nvidia-rtx-3090-ti-delay-issues
Hoch arrogant - na dann darauf warten, dass AMD vielleicht sämtliche Konkurrenzprodukte in der Kommenden Gen platt macht.
du postest hier nur was zum bashen und Stimmung für AMD zu machen ;D Bei der Aussage ist nichts Arrogant, bei deiner aber ganz schön viel Sülze.
Sardaukar.nsn
2022-03-26, 07:31:01
Angepasster 3900 Ti Kühler von MSI.
https://videocardz.com/newz/msi-geforce-rtx-3090-ti-suprim-x-leaked-3-5-slot-design-with-16-pin-connector-and-480w-tdp
Den Suprim Kühler habe ich schon mal auseinander gebaut, ganz schöner Klopper, der aber gut funktioniert. Aber jetzt noch mal 200g mehr.
Die aktuelle 1-Slot Lösung wiegt übrigens 1,3kg https://imgur.com/a/SX6hcAZ
dildo4u
2022-09-07, 14:23:30
Es sollen noch mal neue 8GB Modelle für den Abverkauf kommen.
https://wccftech.com/nvidia-readies-rtx-3060-8-gb-rtx-3060-ti-with-gddr6x-rtx-3070-ti-with-ga102-gpu-to-clear-away-ampere-inventory/
Platos
2022-09-07, 14:31:44
Hoffentlich bleiben sie komplett darauf sitzen :freak:
r3ptil3
2022-09-07, 14:36:27
du postest hier nur was zum bashen und Stimmung für AMD zu machen ;D Bei der Aussage ist nichts Arrogant, bei deiner aber ganz schön viel Sülze.
Stimmt doch nicht... Nvidia war zu der Zeit auf einem Allzeithoch was Verkäufe anging.
Mit der Aussage bzgl. AMD meinte ich genau das, was mit Intel jetzt passiert ist.
Und du musst zweifellos zugeben, dass die aktuelle CPU-Entwicklung um Welten besser ist, als das was wir von 2010 - 2017 hatten.
prinz_valium_2
2022-09-07, 17:03:47
Hoffentlich bleiben sie komplett darauf sitzen :freak:
Wieso? Für $199 können die das doch gerne verkaufen.
Die TI auch für $299
aufkrawall
2022-09-07, 17:57:41
Bei der 6X-Bestückung der 3080 gegeizt, und jetzt den Kram noch irgendwie unnütz loswerden... :facepalm:
Dieser Markt ist immer noch völlig im Arsch.
Gott1337
2022-09-07, 18:31:21
Stimmt doch nicht... Nvidia war zu der Zeit auf einem Allzeithoch was Verkäufe anging.
Mit der Aussage bzgl. AMD meinte ich genau das, was mit Intel jetzt passiert ist.
Und du musst zweifellos zugeben, dass die aktuelle CPU-Entwicklung um Welten besser ist, als das was wir von 2010 - 2017 hatten.
Die Entwicklung der Performance ist besser ja, die der Preise ist aber komplett beschissen geworden. vorher gab es immer den Top dog für 300-350€ jetzt waren es 799€. Dazu kommt noch das die boards das 2-3x kosten.
AMD zeigt ja selbst auf das deren CPUs viel kleiner sind, ergo billiger herzustellen, als jene von Intel, dennoch verlangen sie viel mehr. Die wurden innerhalb von 4 Jahren viel gieriger als Intel es je war. Diese Entwicklung ist nicht gut.
Die neuesten AMD Boards kosten bis zu 1300€, das ist absolut Krank. DIESER Markt ist im Arsch, denn dort übersteigt die Nachfrage nicht das Angebot, die Herstellungskosten sind 1/4 die der Grakas und dennoch sind die Preise krank hoch.
prinz_valium_2
2022-09-07, 18:43:34
Bei der 6X-Bestückung der 3080 gegeizt, und jetzt den Kram noch irgendwie unnütz loswerden... :facepalm:
Dieser Markt ist immer noch völlig im Arsch.
Oder den dicken CHIP als massig kastrierte 1070TI verkaufen.
Alles nur, damit es nicht den Anschein hat, dass man die teuren Modelle billig machen muss um sie verkaufen zu können.
basix
2022-09-07, 18:46:31
Bei der 6X-Bestückung der 3080 gegeizt, und jetzt den Kram noch irgendwie unnütz loswerden... :facepalm:
Dieser Markt ist immer noch völlig im Arsch.
3060 8G ist immerhin noch einigermassen OK. Den Rest können sie behalten.
dildo4u
2022-10-22, 16:49:26
Asus TUF 3060 TI mit GDDR6X bestätigt.
https://videocardz.com/newz/asus-launches-geforce-rtx-3060-ti-with-gddr6x-memory
bbott
2022-10-22, 17:04:55
Es sollen noch mal neue 8GB Modelle für den Abverkauf kommen.
https://wccftech.com/nvidia-readies-rtx-3060-8-gb-rtx-3060-ti-with-gddr6x-rtx-3070-ti-with-ga102-gpu-to-clear-away-ampere-inventory/
Wenn die Lager voll sind muss man kreativ werden :D Je voller je kreativer....
Dural
2022-10-22, 18:59:39
Das ist Abverkauf von Chips die sonst in der Tonne landen. Ich sehe da ein ganz normaler Abverkauf der alten Generation, oft gibt es solche Karten nur in China oder nur für OEM.
dildo4u
2022-10-26, 14:55:14
GA 102 Verwertung in der 3070 Ti.
https://videocardz.com/newz/zotac-launches-geforce-rtx-3070-ti-with-ga102-150-gpu
davidzo
2022-10-29, 13:23:50
Hm, ist es wirklich der Abverkauf von Chips, oder nicht viel eher der Abverkauf von Boards welche die Qualitätskriterien nicht erreichen? Letzteres wäre ein Armutszeugnis für NVIDIAs ASIC Testing. Die Boardhersteller sollten normalerweise vorher wissen für welche SKUs der Chip taugt den sie kaufen.
Überlegt doch mal, wieso gibt es eine 3060ti mit G6X und eine 8GB 3060 mit normalem GDDR6?
Die 3060ti kann überhaupt nichts anfangen mit der erhöhten Speicherbandbreite. Es würde dagegen viel mehr Sinn machen die 3060 8GB mit G6X auszustatten um das mickrige 128bit SI auszugleichen und die performance zumindest ansatzweise in Richtung der 12GB Version auszurichten.
Die 3070ti GA102 ist ein weiterer Hinweis dass hier teildefekte Boards downgerated weiterverkauft werden. Zotac verwendet das exakte Layout der eigenen RTX3080 Apocalypse OC. Mich würde nicht wundern wenn da sogar weitere 2GB GDDR6C auf dem Board zu finden sind.
Die 3060ti G6X ist eine 3070ti welche die Spezifikationen nicht erreicht und die 3060 8GB eine teildefekte 3060.
dildo4u
2022-10-29, 13:34:13
Mal offizielle Benches abwarten aber laut dem war die 3060 Ti durch den Speicherspeed eingeschränkt.
https://videocardz.com/newz/galax-shares-first-geforce-rtx-3060-ti-gddr6x-performance-showcase
davidzo
2022-10-29, 16:11:25
Mal offizielle Benches abwarten aber laut dem war die 3060 Ti durch den Speicherspeed eingeschränkt.
https://videocardz.com/newz/galax-shares-first-geforce-rtx-3060-ti-gddr6x-performance-showcase
Man findet sicher die eine oder andere cherry, aber mich möchte doch daran erinnern dass die 3070ti zur Vorstellung lediglich 5% schneller war als die 3070.
Und das ist Full GA104, also sogar mit mehr Alus hat als die vanilla 3070 geschweige denn 3060ti.
Die 3060ti wird noch viel weniger von der gesteigerten Bandbreite profitieren als der Full GA104, eher im Bereich 2-3% also dem was man auch durch factory OC Karten bekommen kann.
BlacKi
2022-10-29, 16:43:03
Die neuesten AMD Boards kosten bis zu 1300€, das ist absolut Krank. DIESER Markt ist im Arsch, denn dort übersteigt die Nachfrage nicht das Angebot, die Herstellungskosten sind 1/4 die der Grakas und dennoch sind die Preise krank hoch.die letzten gewinneinbrüche bei nv und amd sagen mir eher, das man knapp über den herstellungskosten karten verkauft. vorallendingen bei nv. zum verschenken zu viele und amd hat ebenfalls kein interesse das nv karten verschenkt.
aber vom markt ist am arsch, nur weil sie noch gewinne machen, zu reden, wäre zuviel.
die letzten gewinneinbrüche bei nv und amd sagen mir eher, das man knapp über den herstellungskosten karten verkauft. vorallendingen bei nv.
Nvidia vermeldete bei den letzten Quartalszahlen eine Marge von 43,5%. Das ist schon sehr knapp über den Herstellungskosten ;D;D;D. Die 4090 wird ebenfalls eine fürstliche Marge besitzen.
Bitte erst informieren, bevor man mit solchen Aussagen daherkommt.
Linmoum
2022-10-29, 16:58:42
Und du hast bei deinen 43.5% Marge auch brav zwischen GeForce und HPC/AI unterschieden, hm? Es ist ersichtlich, dass Blacki konkret dGPUs meint.
Man sollte sich mal die Frage stellen, warum quasi jede Karte (schon) unter der UVP war/ist, nur die tolle 3080 mit ihrem GA102 nicht. Bestimmt nicht, weil NV damit >40% Marge hat. ;)
r3ptil3
2022-10-29, 17:28:56
Sieht immerhin richtig schön aus:
https://pics.computerbase.de/1/0/5/5/1/2-77e38a08ecd1adff/8-1280.5d6851fa.png
https://www.computerbase.de/2022-10/gigabyte-geforce-rtx-4080-aorus-waterforce-aero-eagle/
Und du hast bei deinen 43.5% Marge auch brav zwischen GeForce und HPC/AI unterschieden, hm? Es ist ersichtlich, dass Blacki konkret dGPUs meint.
Nvidia nennt in den Quartalszahlen nur die Overall Marge, nicht die Marge für jede einzelne Sparte.
Man sollte sich mal die Frage stellen, warum quasi jede Karte (schon) unter der UVP war/ist, nur die tolle 3080 mit ihrem GA102 nicht. Bestimmt nicht, weil NV damit >40% Marge hat.
An den Herstellungskosten wird das wohl kaum liegen, selbst die inzwischen so gut wie vom Markt verschwundene 3090 Ti war schon leicht unter der UVP zu haben. Ohne die vertraglich vereinbarten Kosten zu kennen, kann man sich solche Diskussionen einfach sparen. Das ist von Anfang bis Ende 100% Spekulatius.
BlacKi
2022-10-29, 17:31:21
Nvidia vermeldete bei den letzten Quartalszahlen eine Marge von 43,5%. Das ist schon sehr knapp über den Herstellungskosten ;D;D;D. Die 4090 wird ebenfalls eine fürstliche Marge besitzen.
Bitte erst informieren, bevor man mit solchen Aussagen daherkommt.
Gaming ist schuld
https://www.gevestor.de/aktienmarkt-boerse/usa/nvidia-aktie/probleme-bei-nvidia-umsatz-und-marge-in-bereich-gaming-implodieren.html
Gaming ist schuld
https://www.gevestor.de/aktienmarkt-boerse/usa/nvidia-aktie/probleme-bei-nvidia-umsatz-und-marge-in-bereich-gaming-implodieren.html
Eher Mining weil bei Nvidia Mining = Gaming Sparte bedeutet. Offen zugeben wird Nvidia das aber nicht.
BlacKi
2022-10-29, 17:57:20
was gibts da zuzugeben. eine kleine delle in 1-2 quartalen ist der mining ausflug wert gewesen.
Gott1337
2022-10-30, 09:17:32
Nvidia nennt in den Quartalszahlen nur die Overall Marge, nicht die Marge für jede einzelne Sparte.
Stimmt doch gar nicht, du kannst dir jede einzelne Sparte angucken... Und die Marge die dort meistens angegeben wird ist ohne die Produktionskosten.
vinacis_vivids
2022-10-30, 14:24:38
Hier gibs Ampere bevorzugt kiloweise 😂 vom "King of VGA"
https://www.tomshardware.com/news/gpu-oversupply-spills-onto-the-streets-in-vietnam
Monsta
2022-12-02, 11:27:13
Achtung, Nvidia launcht eine 3060 mit 8GB anstatt 12GB.
Die hat nicht nur weniger Speicher, hat auch beschnittenes Speicherinterace. Ist also deutlich langsamer als das 12GB Modell. Ist eher eine 3050ti.
https://www.youtube.com/watch?v=tPbIsxIQb8M
Leonidas
2023-12-06, 15:33:48
Die Karte, auf die alle gewartet haben:
NVIDIA preparing GeForce RTX 3050 with 6GB VRAM, 8GB model to be phased out
https://videocardz.com/newz/nvidia-preparing-geforce-rtx-3050-with-6gb-vram-8gb-model-to-be-phased-out
Lehdro
2023-12-06, 16:25:23
Die Karte, auf die alle gewartet haben:
NVIDIA preparing GeForce RTX 3050 with 6GB VRAM, 8GB model to be phased out
https://videocardz.com/newz/nvidia-preparing-geforce-rtx-3050-with-6gb-vram-8gb-model-to-be-phased-out
Das ging ja auch echt nicht, als Entry Karte hatte die 3050 echt zu viel Speicher, vor allem wenn die 3060* auch nur mit 8 GiB auskommen muss. :freak:
Leonidas
2023-12-07, 12:55:40
RTX 3050 6GB may be between US$179-189
GeForce RTX 3050 6GB is 75W
https://twitter.com/harukaze5719/status/1732646184429441362
Denniss
2023-12-07, 13:59:39
Die wäre nur nur irgendwie interessant wenn die ohne externen Stromanschluß auskommt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.