Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Schnäppchenjäger
2020-05-19, 13:11:23
All previous "leaks" are wrong. Next gaming lineup won't be named Ampere. It will be Hopper directly (like Volta-Turing). Will be a multi chip solution, designed to minimize production cost. Launch Q4 2020.Wo haste den Mist her??
Klevapalis
2020-05-19, 13:53:24
War Tapeout von GA100 nicht im Nov 2019?
Dann wären es beim Big Chip gerade mal 6 Monate zwischen TapeOut und Release.
w0mbat
2020-05-19, 13:54:54
Haben wir überhaupt belastbare Daten zum tape out, oder verlassen wir uns da gerade auf Gerüchte?
Platos
2020-05-19, 14:26:51
Haben wir überhaupt belastbare Daten zum tape out, oder verlassen wir uns da gerade auf Gerüchte?
Offiziell ist zumindest nichts, aber siehe PCGH: https://www.google.ch/amp/s/www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Angeblicher-Tape-Out-des-GA104-Chips-wirft-Fragen-auf-1350445/amp/
War Tapeout von GA100 nicht im Nov 2019?
Dann wären es beim Big Chip gerade mal 6 Monate zwischen TapeOut und Release.
Da musst ich laut loslachen...
Release heißt nicht ausgeliefert, siehe GP100 und hier handelt es sich ja nicht um ein Massenprodukt. GA100 muss nicht Monate vorproduziert werden, solche Kleinserienmodelle werden zum Produktionsstart gelauncht. Bei V20 war das i.Ü. genauso, Launch ca. 1/2 Jahr nach Tapeout. Zudem siehe den Salvagegrad. Äpfel != Birnen.
GAxxx braucht neue Boards, neuen Speicher und ist schwerer zu produzieren als bisherige Produkte über alle Bereiche. Nichts davon war bei GM204 der Fall, Im Gegenteil.
Klevapalis
2020-05-19, 15:22:59
Da musst ich laut loslachen...
Release heißt nicht ausgeliefert [Geschwurbel]
Ja, blamiere dich ruhig weiter:
NVIDIA DGX A100 systems start at $199,000 and are shipping now through NVIDIA Partner Network resellers worldwide.
Immerhin wissen wir, dass wenn du was schätzt, dass es mindestens 6 Monate früher wird bei NVIDIA - und bei AMD 6 Monate später :ulol:
Jo wenn man nur versteht, was man verstehen will, ist das so ;).
Wie gesagt, Kleinserie vs. Massenmarkt. Äpfel vs. Birnen.
Klevapalis
2020-05-19, 15:49:11
Jo wenn man nur versteht, was man verstehen will, ist das so ;).
Wie gesagt, Kleinserie vs. Massenmarkt. Äpfel vs. Birnen.
Haben aber eines gemeinsam: Bei Beidem liegst du jedes Mal mindestens ein halbes Jahr daneben :ulol:
Wenn schon was in Q3 was kommt wird das ein Titan. "Kleinere" GP100-Varianten sind sicherlich eher Q4 oder Q1 17 zu erwarten
Statt Q4 war es Q2 - genau die 6 Monate früher :D
Jetzt bist du auch wieder bei Q1/21. Mal sehen, wer Recht hat. Schade, dass du aus deinen ständigen Fehltritten nicht mal was lernst. Dann würde der Thread vielleicht lesbarer werden.
Ex3cut3r
2020-05-19, 16:21:18
Ich tendiere immer mehr dazu mir keine 3070 oder 3080 zu kaufen. Vor allem nicht, wenn diese schon wieder nur 8GB haben werden. Dann warte ich mit meiner 2080 bis dahin auf den Nachfolger.
Haben aber eines gemeinsam: Bei Beidem liegst du jedes Mal mindestens ein halbes Jahr daneben :ulol:
Statt Q4 war es Q2 - genau die 6 Monate früher :D
Jetzt bist du auch wieder bei Q1/21. Mal sehen, wer Recht hat. Schade, dass du aus deinen ständigen Fehltritten nicht mal was lernst. Dann würde der Thread vielleicht lesbarer werden.
Geil du machst dir echt die Mühe sowas altes hervorzugraben? :eek: Danke für denen Support ;D. Und du hast das Zitat nicht mal kapiert :D.
Ich tendiere immer mehr dazu mir keine 3070 oder 3080 zu kaufen. Vor allem nicht, wenn diese schon wieder nur 8GB haben werden. Dann warte ich mit meiner 2080 bis dahin auf den Nachfolger.
Wenn die so spät kommen haben die eh 16GB.
Thunder99
2020-05-19, 17:29:07
Ernstgemeinte Frage. Was bringt es immer eine Verdoppelung zu machen? Der Bedarf steigt ja nicht mehr in dem Maßen.
Ex3cut3r
2020-05-19, 17:37:26
Neue Konsolen kommen? Nach der 1070 mit 8GB und der 2080 mit 8GB kaufe ich nicht schon wieder 8GB, grade mit einem neunen Konsolen Launch und einer unsicheren Anforderungs Zukunft auf die Leistung kommender Games ab ende 2020/2021.
Neosix
2020-05-19, 17:40:50
Ich bin da absolut bei dir, aber ich will Cyberpunk irgend wann mit RT spielen, und da gibts nun mal keine alternative. Meine 1060 kommt bei neueren Games schon arg ins straucheln. Und wenn die 30xx Serie kommt werde ich da nicht auf die 20xx aufrüsten... Ram hin oder her.
Birdman
2020-05-19, 17:43:29
@Thunder99
Das "Problem" ist hier dass es halt die Speicherchips nur in 1GB oder 2GB gibt.
Will man z.B. eine 10GB Karte realisieren, hat man zwei Möglichkeiten
- 10x 1GB an einem 320bit Speicherinterface
- 5x 2GB an einem 160bit Speicherinterface
Das erste ist halt teuer im Layout und lässt allenfalls einen "grossen" Bruder mit 16GB (8x 2GB) an einem 256bit Interface blöde aussehen.
Und das zweite ist ein Bandbreitenkrüppel, selbst wenn man den Speichertakt hochprügelt, also nix was xx70er oder xx80er Käufig goutieren würden.
Ex3cut3r
2020-05-19, 17:53:15
Ich bin da absolut bei dir, aber ich will Cyberpunk irgend wann mit RT spielen, und da gibts nun mal keine alternative. Meine 1060 kommt bei neueren Games schon arg ins straucheln. Und wenn die 30xx Serie kommt werde ich da nicht auf die 20xx aufrüsten... Ram hin oder her.
Ist ja auch legitim. Und eine andere Situation, als bei mir. :wink:
Weiß nicht, habe immer mehr ein Gefühl, dass Nvidia diesmal ein wenig enttäuschen wird. Und der Nachfolger von Ampere nicht sooo lange auf sich warten lässt, wie üblich.
Dural
2020-05-19, 17:58:09
Ampere wird das deutlich rundere Produkt als Turing.
Ich befürchte das wir bald nur noch "kaputte" Chips bekommen werden, jedenfalls alles über xx70 und das stört mich extrem.
Nuvirus
2020-05-19, 18:17:39
ne 8GB Karte werde ich mir auch nicht mehr holen, will ja 4k auf meinem TV nutzen.
Klevapalis
2020-05-19, 18:21:30
Geil du machst dir echt die Mühe sowas altes hervorzugraben?
Ui, zwei Minuten Forensuche :rolleyes:
Und du hast das Zitat nicht mal kapiert
Warum? Weil du einfach immer trollst und man dich nicht ernst nehmen darf? ;D Keine Sorge, macht hier sowieso niemand.
Kleiner GP100 Chips im Q1/17 und Ampere kommt im Q1/21. Wir schauen mal, ob du deine Trefferquote auf 0% verbessern kannst :cool:
Ich tendiere immer mehr dazu mir keine 3070 oder 3080 zu kaufen. Vor allem nicht, wenn diese schon wieder nur 8GB haben werden. Dann warte ich mit meiner 2080 bis dahin auf den Nachfolger.
Es ist doch komplett unglaubwürdig, dass man nach 2 Jahren kein VRAM-Wachstum hat. Warum glaubt man so einen Leaker Stuss?
Linmoum
2020-05-19, 18:24:53
Es ist doch komplett unglaubwürdig, dass man nach 2 Jahren kein VRAM-Wachstum hat. Warum glaubt man so einen Leaker Stuss?
Ja, so unglaubwürdig wie bei Pascal zu Turing. Oh, ups...
Klevapalis
2020-05-19, 18:54:18
Ja, so unglaubwürdig wie bei Pascal zu Turing. Oh, ups...
Vier statt zwei Jahre erhöhne sogar die Wahrscheinlichkeit :tongue:
Dampf
2020-05-19, 18:55:21
Es ist doch komplett unglaubwürdig, dass man nach 2 Jahren kein VRAM-Wachstum hat. Warum glaubt man so einen Leaker Stuss?
Informiere dich mal, was nächste Generation so abgeht. Direct Storage, SSD, Sampler Feedback. VRAM ist einfach nicht mehr so wichtig, wie es damals war und dementsprechend reicht auch die heutige Speicherbestückung aus für die nächste Generation.
Der Leaker hat übrigens die Chipgröße des HPC Ampere bis auf den mm genau vorhergesagt und zwar vor Monaten. Die Angaben stimmen sehr wahrscheinlich. Solltest dich damit abfinden.
Ich kann nicht nachvollziehen, warum so viele (besonders deutschsprachige) User nach mehr VRAM schreien. Lasst doch einfach die Entwickler und Vendoren darüber entscheiden, wie viel VRAM gebraucht wird. Ihr bekommt davon eh nix mit.
Klevapalis
2020-05-19, 19:14:04
Der Leaker hat übrigens die Chipgröße des HPC Ampere bis auf den mm genau vorhergesagt und zwar vor Monaten. Die Angaben stimmen sehr wahrscheinlich. Solltest dich damit abfinden.
Kann auch gezielt sein - weil relativ uninteressant - um seine Quelle zu schützen.
robbitop
2020-05-19, 19:20:26
Ernstgemeinte Frage. Was bringt es immer eine Verdoppelung zu machen? Der Bedarf steigt ja nicht mehr in dem Maßen.
"Immer" ist gut. Wir kauen seit 2016 auf 8 GB herum. Bzw. 2015 auf 11 GB bei den 102s.
Eine Verdopplung wäre mal wieder angesagt.
Dazu kommt, dass Speicherbedarf historisch nunmal wächst. Da die HW stehen geblieben ist, bremst das sicherlich auch bei der Erstellung höherwertiger Assets. Der Fortschritt der BQ kommt also in's Stocken.
Informiere dich mal, was nächste Generation so abgeht. Direct Storage, SSD, Sampler Feedback. VRAM ist einfach nicht mehr so wichtig, wie es damals war und dementsprechend reicht auch die heutige Speicherbestückung aus für die nächste Generation.
Das ist auf der Konsole ganz anders umsetzbar als auf dem PC. Dennoch wird es schon was bringen. Aber zaubern kann man damit nicht. Es ist ein Henne-Ei Problem. Gibt es keine Grafikkarten mit mehr VRAM, werden die Spiele eben nur mit entsprechenden Assets versehen. Nicht ohne Grund verdoppelte sich der VRAM bis Maxwell in fast jeder Generation.
Diesmal ist es eben nicht möglich, da die Speicherpreise seit Jahren kaum noch gefallen sind. Bis zu Maxwell war das jedoch noch der Fall.
nordic_pegasus
2020-05-19, 20:34:12
Ich befürchte das wir bald nur noch "kaputte" Chips bekommen werden, jedenfalls alles über xx70 und das stört mich extrem.
wieso sollte die 3080 nicht wieder den vollen x104er Chip bekommen und die "Titan A" nicht wieder den vollen 102er Chip?
Vielleicht wieder gestaffelt (wie die erste Titan X(P) und dann die vollen Titan Xp oder die 2080Super nach der 2080).
Der VRAM wird nächstes Jahr wichtig, 8GB wird unterstes Limit, da 6GB jetzt schon unterstes Limit ist. Und die Konsolen mögen weniger RAM haben, aber sie haben dennoch doppelt soviel wie die letzte Generation. Das kann man irgnorieren, wär aber schön blöd.
Ich wette, dass NV das wieder sehr geschickt machen wird. Die bringen zum Ende des Jahres (so Ende Oktober) eine GA102 Titan und Quadro mit 24GB raus und setzen die über die 2080Ti an. Dann launchen sie zur CES das Erstlineup wie bei Turing, also GA104 in 2 Varianten und GA102 in 2 Varianten (GA103 muss ja ersetzt werden). Das würde in etwa folgendes bedeuten:
GA102 -> Titan X2 oder sowas mit 24GB VRAM und 80 SMs
GA102 -> 3080Ti mit 22GB VRAM (352 von 384Bit) mit 76 SMs
GA102 -> 3080 mit 20GB VRAM (320Bit) mit 64SMs (war mal der 103er Spot)
GA104 -> 3070Ti mit 16GB VRAM mit 48 SMs
GA104 -> 3070 mit 16GB VRAM mit 40 SMs
Ich wette, dass man den 103er gestichen hat, weil NV das Teil für zu langsam hält als 3080. Man wird da lieber 64SMs aktivieren als 56SMs, dann ergibt der Chip ja keinen Sinn mehr. Zudem ist man gezwungen, die Speichermengen zu erhöhen, wegen der neuen Konsolen. Denn mit den bisherigen Mengen wird man einfach zu schnell in Limits laufen.
Es könnte auch folgendes Lineup sein, wenn man andere Daten zugrunde legt:
GA102 (8LPP) -> Titan und 3080Ti wie oben
GA104 (7LPP) -> 3080 mit 16GB 20GT/s VRAM und 48SMs @2,4GHz oder sowas
Das würd die Verspätung und die kolpotierten höheren Taktraten für kleinere Chips erklären.
Wenn man damit rechnet, dass AMD mit 16GB über das komplette RDNA2 Lineup kommt, weil die da HBM verwenden, wäre das ein handfester Vorteil, mehr Speicher anzubieten.
mironicus
2020-05-19, 21:02:51
Ich wette die RTX 3070/80 haben wieder nur 8 GB, und die Ti auch nur 11 oder 12.
crux2005
2020-05-19, 21:03:57
Wenn die so spät kommen haben die eh 16GB.
Macht mMn. keinen Sinn. Sie kommen ob früher oder später mit der VRAM Kapazität mit der sie schon immer geplant waren. Kein Hersteller verdoppelt den VRAM um konkurrenzfähiger zu sein (weil sie später als Geplant auf den Markt kommen).
Der VRAM wird nächstes Jahr wichtig, 8GB wird unterstes Limit, da 6GB jetzt schon unterstes Limit ist.
Das ist ein Witz oder?
Gouvernator
2020-05-19, 21:38:43
VRAM wird schon extrem wichtig sein wegen 8K, egal ob nativ oder DSR. Die Leistung wird dafür vorhanden sein aber VRAM nicht? Oder NV zockt die Leute mit einer Titan ab die als einzige dafür VRAM besitzen würde.
Klar UHD wird in den kommenden OLED-Zeiten WQHD beerben und dann werden auch immer mehr Leute 5k nutzen. Zudem steigt der VRAM-Verbrauch aufgrund der Konsolen stark an, denn das Streaming kann auf dem PC nicht so aggressiv erfolgen wie auf den Konsolen, will heißen, hier wird noch deutlich mehr geladen werden müssen, trotz Microsofts VRAM-API. 8GB ist für die nächste Generation definitiv zu wenig. Wir sind auf dem Sprung wie bei Pascal. Damals war 8GB recht viel, 6GB waren eigentlich ausreichend, aber Pascal kam halt mit 256Bit. Genau das Gleiche wird heute wieder passieren.
Außerdem wird RDNA2 wie gesagt sicherlich über alle 3 Chips 16GB bieten, auf jeden Fall aber bei den größeren beiden. Da besteht also auch Konkurrenzdruck.
Gouvernator
2020-05-19, 21:45:27
Mit HDMI 2.1 wird es ganz neue Grafikdimension aufgetan. Und zwar 8K@120Hz DSR auf einem 4K TV. So wie die Leute das jetzt mit 4K DSR auf 1080p@120Hz machen. Da ist eine Titan mit reichlich VRAM eigentlich Pflicht.
Das packen die nächsten Grafikkarten nicht bei AAA-Titeln.
TheAntitheist
2020-05-20, 02:48:49
Das packen die nächsten Grafikkarten nicht bei AAA-Titeln.
auch die über über nächste gen auf keinen fall.
BlacKi
2020-05-20, 05:04:39
Da ist eine Titan mit reichlich VRAM eigentlich Pflicht.
sind da 24gb nicht eigentlich genug?
Leonidas
2020-05-20, 10:18:27
All previous "leaks" are wrong. Next gaming lineup won't be named Ampere. It will be Hopper directly (like Volta-Turing). Will be a multi chip solution, designed to minimize production cost. Launch Q4 2020.
Wer hat denn das wieder rausgehauen?
PS: NV A100 Whitepaper
https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/nvidia-ampere-architecture-whitepaper.pdf
"multichip solution" entlarvt das als BS. Solange es noch geht, werden beide Hersteller die Fertigungsgrößen ausnutzen.
pixeljetstream
2020-05-20, 10:49:56
Wer hat denn das wieder rausgehauen?
PS: NV A100 Whitepaper
https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/nvidia-ampere-architecture-whitepaper.pdf
„ Note that unit sizes depicted do not correspond to actual physical area on the GPU die.“
Da wollte jemand verhindern dass Leute wie bei Turing Präsentation glauben RT cores wären 1/3 des Chips ;)
=Floi=
2020-05-20, 11:04:09
Macht das ganze jetzt auch nicht besser. Man hat als laie überhaupt keine vorstellung wie "teuer" ;) das ganze ist.
Auch durch diese intransparenz kommt das gehate der masse über den preis zustande.
Ich habe zum beispiel noch immer nicht verstanden, wie die tensor cores funktionieren. Wie wird das dreidimensionale in eine fläche auf dem chip umgelegt?!
Geächteter
2020-05-20, 12:22:10
Dazu kommt, dass Speicherbedarf historisch nunmal wächst. Da die HW stehen geblieben ist, bremst das sicherlich auch bei der Erstellung höherwertiger Assets. Der Fortschritt der BQ kommt also in's Stocken.
Eher erscheint es mir so, als sei es ausschließlich eine Geldfrage bei den Enwicklungsstudios. Dass die meisten klamm mit Zeit- und Personalbudget sind, sieht man an den Assets. Heute kann man als Spieler schon dankbar sein, wenn es mal wieder mehrere, abwechslunsreiche per Fotogrammetrie erstellte Assets gibt. Das heutige Aufgeblähe des VRAM-Bedarfs hat sich nur bei ganz wenigen Spielen in einer Verbesserung des allgemeinen optischen Eindrucks bemerkbar gemacht.
basix
2020-05-20, 12:59:37
PS: NV A100 Whitepaper
https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/nvidia-ampere-architecture-whitepaper.pdf
Ich bin jetzt über die Mittagspause so ca. halb durch und ich bin immer mehr beeindruckt. Viele Verbesserungen und Optimierungen. Pfade breiter und Caches grösser gemacht, Speicherkompression etc. hinzugefügt. Weniger Register File Usage und optimierte Zugriffspattern mit weniger Befehlen usw. Wenn man das alles einbezieht, hat eine einzelne MIG Partition ganz grob in etwa ähnliche oder sogar etwas mehr Cache und Bandbreiten Ressourcen zur Verfügung wie ein ganzer V100 :D Das kompensiert zu einem Teil sicher die geringere DRAM-Bandbreite. Interessatn finde ich auch TCAIRS um mit Tensor Cores höhere Präzisionen zu "emulieren" und damit den Throughput zu erhöhen.
On top noch viele weitere Usability und SW-Features.
robbitop
2020-05-20, 13:12:27
Eher erscheint es mir so, als sei es ausschließlich eine Geldfrage bei den Enwicklungsstudios. Dass die meisten klamm mit Zeit- und Personalbudget sind, sieht man an den Assets. Heute kann man als Spieler schon dankbar sein, wenn es mal wieder mehrere, abwechslunsreiche per Fotogrammetrie erstellte Assets gibt. Das heutige Aufgeblähe des VRAM-Bedarfs hat sich nur bei ganz wenigen Spielen in einer Verbesserung des allgemeinen optischen Eindrucks bemerkbar gemacht.
Heute gibt es schon sehr interessante Möglichkeiten, kosteneffizient auch high detail content zu erzeugen.
- 3D Scans und 3D Fotografie und eine Toolchain um hier entsprechend bedeutsame Modifikationen vorzunehmen. (betrifft Meshes, Texturen, Heightmaps etc)
- Prozedurale Generierung von Content
Man schaue sich mal an, was die UE5 Demo an Detail abliefert.
Was natürlich stark greift ist das Gesetz des abnehmenden Grenzertrags. Zunehmender Detailreichtum fällt ab einem gewissen Level leider immer weniger auf.
Und man muss konstatieren, dass der Content ja doch relativ stark an die verbreitete HW Basis angepasst wird. Ein Großteil davon stellen die heutigen Konsolen dar. Die sitzen ja (in Bezug auf die base modells) auf 8 GiB herum.
IMO merkt man bei jedem Konsolensprung schon einen gewissen Sprung in den Assets. Ich tippe darauf, dass es diesmal nicht anders sein wird. Dank doppeltem RAM + zusätzlicher Möglichkeiten mit dem Umgang mit neuen SSDs (und dessen spezifischer Anbindung an die HW) wird es da schon Ergebnisse geben, die zu einer Verbesserung führen. Ansonsten hätte man das ja nicht gemacht. Ich unterstelle sogar mal, dass mehr Speicher verbaut worden wäre, wenn die Speicherpreise sich historisch normal entwickelt hätten.
Außerdem hat auch hier im Forum schon einer der Entwickler der id tech Engine dargelegt, dass wesentlich mehr Speicher (jedoch nicht nur für die Assets - sondern auch für Datenstrukturen für Effekte) deutliche optische Vorteile bringen würden.
IMO ist die id Tech Engine schon eine der modernsten, best optimiertesten Engines, so dass diese Stimme schon einiges an Gewicht haben sollte.
Auch erhöht RT den Speicherbedarf nochmal zusätzlich.
Heute gibt es schon sehr interessante Möglichkeiten, kosteneffizient auch high detail content zu erzeugen.
- 3D Scans und 3D Fotografie und eine Toolchain um hier entsprechend bedeutsame Modifikationen vorzunehmen. (betrifft Meshes, Texturen, Heightmaps etc)
- Prozedurale Generierung von Content
Das ist ein wichtiger Punkt. Photogrammetrie ist inzwischen oft günstiger als normale Modellierung und hier muss man die Geometrie mal wieder stark vereinfachen, um sie nutzen zu können. Kann man das auf ein kleineres Maß einschränken, wird der Kostenvorteil noch größer.
Ich bin mal gespannt, ob Quixel als Teil von Epic nun neben der (halb-)prozeduralen Textursynthese mit Geometriesynthese anfängt.
pixeljetstream
2020-05-20, 15:17:20
Die Bedeutung davon und ich vermute AI-assisted Tools wird bestimmt zunehmen. Substance vermutlich auch mit 3D irgendwas. Aber halte ich alles noch für etwas weiter weg um sowas wie die ue5 Demo (wo man nicht auf kosten schaut) relativ oft zu sehen. Man darf sich das mit der photogrammetry auch nicht so einfach vorstellen, das haben Artists schon öfter betont. Ein Alien kann man halt auch schlecht einfach so Einscannen ;)
Aber halte ich alles noch für etwas weiter weg um sowas wie die ue5 Demo (wo man nicht auf kosten schaut) relativ oft zu sehen.
Selbst in der UE5 Demo hat man wohl fast vollständig auf existierende Quixel Assets gesetzt.
Screemer
2020-05-20, 15:43:57
Was ja kein Wunder ist, da quixel zu Epic gehört. Ich hab die Befürchtung, dass ue Games in Zukunft mehr und mehr "gleich" aussehen. Man konnte ja früher wirklich oft auf den ersten Blick sagen mit welcher engine eine Spiel entstanden ist. In Zukunft dann eben durch die verwendeten assets, da sich kaum ein Studio absetzen kann. Denn photogrammetry ist teuer und aufwendig und man wird eben auf Quellen wie quixel zurückgreifen müssen. Da gibt's Tonnen an Material frei durch Epic.
TheAntitheist
2020-05-20, 15:45:27
ich frag mich eher wie die highpoly modelle unwrapped und texturiert werden, dafür brauch man doch dann auch neue tools ausser man lässt es automatisch unwrappen, funktioniert aber nicht bei allen Sachen gut. Oder man muss sich in Zukunft ganz von UV Maps verabschieden und geht zurück zu vertex color ;D
Denn photogrammetry ist teuer und aufwendig und man wird eben auf Quellen wie quixel zurückgreifen müssen. Da gibt's Tonnen an Material frei durch Epic.
Das ist imo eben eine Fehlannahme.
Ich werfe da mal die Slides ein:
https://image.slidesharecdn.com/gdc2016diceeaphotogrammetrystarwarsbattlefrontv7-160329211033/95/photogrammetry-and-star-wars-battlefront-62-1024.jpg
https://image.slidesharecdn.com/gdc2016diceeaphotogrammetrystarwarsbattlefrontv7-160329211033/95/photogrammetry-and-star-wars-battlefront-63-1024.jpg
*Quelle* (https://www.ea.com/frostbite/news/photogrammetry-and-star-wars-battlefront)
Oder man muss sich in Zukunft ganz von UV Maps verabschieden und geht zurück zu vertex color
Es gibt ja noch Alternativen wie Ptex. Allerdings bin ich mir da nicht sicher, wie gut sich das für Spiele auch in Zukunft eignen wird.
TheAntitheist
2020-05-20, 18:20:32
Es gibt ja noch Alternativen wie Ptex. Allerdings bin ich mir da nicht sicher, wie gut sich das für Spiele auch in Zukunft eignen wird.
ptex ist doch das von pixar oder? das funktioniert nicht performant, selbst die haben beim rendern probleme damit, daher nutzen das nicht viele. Kommt für Spiele also nicht in Frage.
Screemer
2020-05-20, 18:41:51
Das ist imo eben eine Fehlannahme.
Ich werfe da mal die Slides ein:
https://image.slidesharecdn.com/gdc2016diceeaphotogrammetrystarwarsbattlefrontv7-160329211033/95/photogrammetry-and-star-wars-battlefront-62-1024.jpg
https://image.slidesharecdn.com/gdc2016diceeaphotogrammetrystarwarsbattlefrontv7-160329211033/95/photogrammetry-and-star-wars-battlefront-63-1024.jpg
*Quelle* (https://www.ea.com/frostbite/news/photogrammetry-and-star-wars-battlefront)
Es gibt ja noch Alternativen wie Ptex. Allerdings bin ich mir da nicht sicher, wie gut sich das für Spiele auch in Zukunft eignen wird.
Dass das für dice und ander AAA günstiger sein kann steht doch gar nicht zur Debatte.
Hab mich evtl. auch nicht richtig ausgedrückt.
Gouvernator
2020-05-21, 00:22:59
sind da 24gb nicht eigentlich genug?
Nein. Ich schiele ja schon auf 16K DSR auf 8k native. Auch wenn nur 30 FPS aber Hauptsache VRAM muss es erst hergeben. Bei 8Gb ist 8K zumeist unmöglich, bei 16Gb dann wohl ok. Mit 24Gb sicher durchgehend 8K. Und bei 16k DSR mindestens 32Gb für alle Fälle.
Aus meiner Sicht wäre eine Ti mit 24Gb ein guter und vielleicht bester Deal. Alles unter 22-24GB ist Verarsche. Und 32Gb ist bei einer Titan Pflicht. Eine Titan mit 24Gb ist Verarsche und eine Ti mit 16 Gb auch. Unter diesen Umständen dann lieber einfach irgendwas günstiges kaufen und paar Jahre abwarten. Oder gucken was AMD an VRAM anbieten kann. Sprich HDMI 2.1 mit 16Gb für möglichst wenig Geld.
Daredevil
2020-05-21, 02:01:45
Erstmal muss AMD Performance anbieten, bevor sie sich nen Kopf um RAM für 16K machen. :D
hatten wir das hier schon?
A100: Yes, it could run Crysis
Von Rasterisierugseinheiten bis zur Raster-Endstufe sei alles vorhanden, nur auf die Raytracing-Kerne der Turing-Gamer-Grafikkarten müsse A100 weiterhin verzichten.
https://www.heise.de/news/Nvidia-Ampere-A100-Volle-Grafikfunktion-und-CPU-unabhaengig-4726187.html
TheAntitheist
2020-05-22, 00:35:16
Es gibt ja noch Alternativen wie Ptex. Allerdings bin ich mir da nicht sicher, wie gut sich das für Spiele auch in Zukunft eignen wird.
ich hab nochmal danach gegoogled und es ist wohl reatime ptex v2 in der Entwicklung
https://developer.nvidia.com/sites/default/files/akamai/gamedev/docs/Borderless%20Ptex.pdf
pixeljetstream
2020-05-22, 01:01:40
Diese ptex slides sind ur-alt. Allerdings hat Turing noch hw Support für ein neuen Textur Modus bekommen um besser mit ptex umgehen zu können.
https://www.khronos.org/registry/vulkan/specs/1.2-extensions/man/html/VK_NV_corner_sampled_image.html
Im übrigen benutzten die Waffen in CoD afaik subdiv surfaces. Weiß nicht ob immer noch
TheAntitheist
2020-05-22, 01:09:50
Diese ptex slides sind ur-alt. Allerdings hat Turing noch hw Support für ein neuen Textur Modus bekommen um besser mit ptex umgehen zu können.
Im übrigen benutzten die Waffen in CoD afaik subdiv surfaces. Weiß nicht ob immer noch
hab auch gerade gesehen dass das von 2013 ist ;D
subd hat ja aber erstmal nix mit texturen zutun, ausser du meinst was anderes.
Auf jeden Fall wird sich da in den nächsten Jahren nichts ändern, aber die UE5 wird auch noch einige Zeit brauchen bis sie in fahrt kommt.
pixeljetstream
2020-05-22, 08:36:04
Doch weil die Parametrierung von ptex für "normale" Dreiecksmeshes wenig Sinn macht.
Leonidas
2020-05-22, 08:50:20
Nächste Grafikkarten-Generationen von AMD & nVidia im September (lt. DigiTimes):
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-21-mai-2020
TheAntitheist
2020-05-22, 14:47:19
Doch weil die Parametrierung von ptex für "normale" Dreiecksmeshes wenig Sinn macht.
naja man modelt ja sowieso in quads, wird dann für die Spiele halt nur in Tris gewandelt. Für Ptex brauch man immer quads, für subd sollte man immer quads benutzen, ist aber keine voraussetztung. Mit SubD teilt mandoch nur ein quadpoly in 4 weitere auf, weiß jetzt nicht was das direkt damit zu tun hat.
Alex1973
2020-05-25, 14:45:57
Ich frag mal in die Runde, vielleicht hat jemand Lust drauf einzugehen. Es passt ja auch zum Thema hier, weil wir über die Ampere Preise spekulieren wollen.
In 5 Monden ist die neue xbox da. Die RDNA 2 Grafikeinheit mit 16 GB VRAM drin hat 12,1 TFLOPS.
Die Standard RTX 2080Ti mit 11 GB VRAM für 1144 Euro hat 13.45 TFLOPS, das sind 10 % mehr Leistung, vielleicht weniger, weil wir nicht wissen, wie RDNA 2 ist.
Sagen wir mal, dass die xbox Grafik mit 16 GB VRAM abzüglich allem Anderen 280 Euro kostet.
Kann mir jemand die Preise für Desktop Hardware erklären? Sind da die Preise ins Weltall abgehoben, ohne die mickrige Leistung mit zu berücksichtigen.
RTX 2080ti ist Luxus aber doch sicher ohne Luxus-Leistung.
Glaubt jemand, dass der Ampere Pendant der RTX 2080 ti mit 16 GB VRAM
280 Euro kosten wird ? (Immerhin wäre das um 400 % weniger, als die RTX 2080 Ti grade kostet)
Was wärst du bereit für Ampere mit xbox Leistung hinzublättern?
Ich wäre bereit dafür 280 Euro zu bezahlen, aber nicht mehr, wegen Markt-Situation.
y33H@
2020-05-25, 14:47:37
Quersubventionierung über Jahre hinweg ... und ach ja, Nvidia hat keine Konkurrenz und mag Marge.
dildo4u
2020-05-25, 14:57:38
Ich frag mal in die Runde, vielleicht hat jemand Lust drauf einzugehen. Es passt ja auch zum Thema hier, weil wir über die Ampere Preise spekulieren wollen.
In 5 Monden ist die neue xbox da. Die RDNA 2 Grafikeinheit mit 16 GB VRAM drin hat 12,1 TFLOPS.
Die Standard RTX 2080Ti mit 11 GB VRAM für 1144 Euro hat 13.45 TFLOPS, das sind 10 % mehr Leistung, vielleicht weniger, weil wir nicht wissen wie RDNA 2 ist.
Sagen wir mal, dass die xbox Grafik mit 16 GB VRAM abzüglich allem Anderen 280 Euro kostet.
Kann mir jemand die Preise für Desktop Hardware erklären? Sind da die Preise ins Weltall abgehoben, ohne die mickrige Leistung mit zu berücksichtigen.
RTX 2080ti ist Luxus aber doch sicher ohne Luxus-Leistung.
Glaubt jemand, dass der Ampere Pendant der RTX 2080 ti mit 16 GB VRAM
280 Euro kosten wird ?
Ohne die neuen Modelle zu kennen schwer Aussagen zu treffen, es ist realistisch das ein 500€ Modell 2080 Ti Leistung hat, dafür aber massiv bessere Ray Tracing Performance als die neuen Konsolen darauf wird NV setzen.
Die werden nicht ohne Grund Cyberpunk mit allen möglichen RT Effekten bestücken, in dem Fall kommt es hin das es auf der XBox One X mit 30fps läuft und nur der PC die Option auf 60fps mit allen Effekten hat.
Bucklew
2020-05-25, 15:02:38
Sagen wir mal, dass die xbox Grafik mit 16 GB VRAM abzüglich allem Anderen 280 Euro kostet.
Kann mir jemand die Preise für Desktop Hardware erklären?
1. Die 2080Ti kannst du schon seit 2018 kaufen und ist mit Erscheinen der XBox quasi EoL. Der Vergleich hinkt da natürlich.
2. Schau dir mal die Spielepreise im Vergleich an, gerade mit den ganzen Key-Portalen fährst du auf Dauer mit dem PC gar nicht so schlecht.
WedgeAntilles
2020-05-25, 15:15:06
(Immerhin wäre das um 400 % weniger, als die RTX 2080 Ti grade kostet)
Check your math :wink:
16GB Vram hat die Konsole übrigens auch nicht.
Wie hier ja schon angesprochen: Natürlich ist eine Konsole in der Anschaffung immer preiswerter, als ein leistungsähnlicher PC.
Allerdings eben nur die Anschaffung an sich.
Über die Jahre zahlst du bei Konsolen mehr für die Spiele, teils gibt es Onlinegebühren für Playstation Now oder wie das ding heißt (Fifa PS4 vs Fifa PC z.B.).
Da hast du schnell einen hunderter oder mehr im Jahr an zusätzlichen Kosten.
Je nach dem wie viele verschiedene Spiele du so spielst kannst du nach 5 Jahren mit einem PC sogar weniger Geld ausgegeben haben.
Und: Ersetzt die Konsole den Rechner komplett? Oder brauchst du ggf. trotz Konsole einen PC? Andersrum ersetzt der PC die Konsole definitiv zu 100%.
Du musst also ggf. trotz Konsole einen (leistungsschwachen) PC kaufen.
Wobei man da natürlich fairerweise sagen muss, dass ein 10 Jahre alter PC ausreicht - falls man nicht zockt.
Ravenhearth
2020-05-25, 15:22:20
Ich frag mal in die Runde, vielleicht hat jemand Lust drauf einzugehen. Es passt ja auch zum Thema hier, weil wir über die Ampere Preise spekulieren wollen.
In 5 Monden ist die neue xbox da. Die RDNA 2 Grafikeinheit mit 16 GB VRAM drin hat 12,1 TFLOPS.
Die Standard RTX 2080Ti mit 11 GB VRAM für 1144 Euro hat 13.45 TFLOPS, das sind 10 % mehr Leistung, vielleicht weniger, weil wir nicht wissen, wie RDNA 2 ist.
Sagen wir mal, dass die xbox Grafik mit 16 GB VRAM abzüglich allem Anderen 280 Euro kostet.
Kann mir jemand die Preise für Desktop Hardware erklären? Sind da die Preise ins Weltall abgehoben, ohne die mickrige Leistung mit zu berücksichtigen.
RTX 2080ti ist Luxus aber doch sicher ohne Luxus-Leistung.
Glaubt jemand, dass der Ampere Pendant der RTX 2080 ti mit 16 GB VRAM
280 Euro kosten wird ? (Immerhin wäre das um 400 % weniger, als die RTX 2080 Ti grade kostet)
Was wärst du bereit für Ampere mit xbox Leistung hinzublättern?
Ich wäre bereit dafür 280 Euro zu bezahlen, aber nicht mehr, wegen Markt-Situation.
Konsolen werden ohne Gewinn verkauft, den machen die Hersteller mit Spielen und Abos. Das kann Nvidia natürlich nicht, also müssen sie ihr Geld mit der Hardware einnehmen. Der bessere Vergleich ist hier zudem Ampere, die RTX 2080 Ti ist ja alt. Wenn die Gerüchte stimmen, kommt die 3070 mit ~95% der Leistung der 2080 Ti. Und mit 500€ würde die ähnlich viel kosten wie die Xbox. Dann passt das Verhältnis auch ganz gut.
Ex3cut3r
2020-05-25, 15:22:52
Was kann man den mit einer Konsole machen?
Geht surfen mittlerweile? Kann man encodieren? Kann man Minen? Kann man TB an Filmen/Pornos speichern? Kann man Highend VR betreiben? Kann man 144hz Gaming betreiben? Geht Ultrawide sprich 21:9 Gaming? Hat es VRR? Sind die Spiele günstig? (Key Seller) Kann man Maus und Tastaur in jedem Game einsetzen? Am PC funktioniert der XBOX/PS4 Controller in 98% der Games out of the box. Kann man Youtube Videos runterladen? Ist die Konsole erweiterbar? Sprich neue GPU/RAM/CPU/SSD einsetzen? Kostet Online Spielen immer noch eine Gebühr? Kann man Emulatoren benutzen und z.B. N64 Games zocken? Kann man Chatten mit Webcam? Kann man Streamen? usw.
Mit einem PC kann einfach viel mehr machen.
WedgeAntilles
2020-05-25, 15:28:13
Kann man TB an Filmen/Pornos speichern?
;D
Da fällt mir ein Kommentar unter einem Youtube Video ein, bei dem irgendwelche zwei CPUs miteinander verglichen worden sind.
Best bewerteter Kommentar war:
"Which one downloads porn faster?"
Alex1973
2020-05-25, 15:29:41
Und: Ersetzt die Konsole den Rechner komplett? Oder brauchst du ggf. trotz Konsole einen PC? Andersrum ersetzt der PC die Konsole definitiv zu 100%.
Du musst also ggf. trotz Konsole einen (leistungsschwachen) PC kaufen.
Wobei man da natürlich fairerweise sagen muss, dass ein 10 Jahre alter PC ausreicht - falls man nicht zockt.[/QUOTE]
Das ist ja das. Einen schwachen PC habe ich schon, welcher für die meisten Spiele noch reicht.
Was mache ich aber mit den neuen Games, siehe UE 5 ?
Ich scheue 1200 Euro für den neuen PC zu zahlen, und deswegen fange ich mal wieder an, auf günstige Konsolen zu schielen. ;D
Ex3cut3r
2020-05-25, 15:33:01
;D
Da fällt mir ein Kommentar unter einem Youtube Video ein, bei dem irgendwelche zwei CPUs miteinander verglichen worden sind.
Best bewerteter Kommentar war:
"Which one downloads porn faster?"
:up: Also für mich stellt sich diese Frage gar nicht, ob eine Konsole einen PC ersetzen kann, wäre für nicht tragbar. Und ich habe selbst an der Konsole angefangen. Mein letze Konsole war eine PS3 mit 3.55 CFW. ;)
Der einzige Grund der mir einfällt eine Konsole zu kaufen, sind die Sony Exclusive Games, aber davon findet man mittlerweile einige auch am PC, Death Stranding, Horizon Zero Dawn, Heavy Rain, Detoit Become Human und noch eins, welches ich grade vergessen habe, vlt. kommen in Zukunft ja immer mehr PS Games auf dem PC.
WedgeAntilles
2020-05-25, 15:47:06
Das ist ja das. Einen schwachen PC habe ich schon, welcher für die meisten Spiele noch reicht.
Was mache ich aber mit den neuen Games, siehe UE 5 ?
Ich scheue 1200 Euro für den neuen PC zu zahlen, und deswegen fange ich mal wieder an, auf günstige Konsolen zu schielen. ;D
Ich würde an deiner Stelle abwarten, bis es diese neuen Games auch tatsächlich gibt.
Ja, die UE5 sieht hammer aus - aber wie lange dauert es, bis es da ein Spiel dazu gibt? 1 Jahr? 2 Jahre?
Wenn du aktuell nicht wirklich etwas neues brauchst würde ich einfach schauen, was die Preise in der Zukunft machen werden.
Klar, wenn du pro Jahr nur sehr wenige Spiele hast, dich die kleineren Indie-Titel, Mods und co nicht interessieren - dann wirst du mit ner Konsole auf der deine zwei, drei Wunschspiele herauskommen eine gute Wahl treffen.
Und billiger fahren als mit einem PC.
Ich persönlich möchte nicht auf das Steam-Sale + HumbleBundle verzichten, da gibt es massig tolle kleine Spiele für eine handvoll Euro.
Auch der tolle Mod-Support ist für mich ein unschlagbares Argument pro PC.
Was man sich kauft ist schlussendlich einfach massiv davon abhängig, wie dein Spiele-Konsum ist.
Da gibt es kein pauschales "richtig" oder "falsch"
Slipknot79
2020-05-25, 20:50:40
:up: Also für mich stellt sich diese Frage gar nicht, ob eine Konsole einen PC ersetzen kann, wäre für nicht tragbar. Und ich habe selbst an der Konsole angefangen. Mein letze Konsole war eine PS3 mit 3.55 CFW. ;)
Der einzige Grund der mir einfällt eine Konsole zu kaufen, sind die Sony Exclusive Games, aber davon findet man mittlerweile einige auch am PC, Death Stranding, Horizon Zero Dawn, Heavy Rain, Detoit Become Human und noch eins, welches ich grade vergessen habe, vlt. kommen in Zukunft ja immer mehr PS Games auf dem PC.
Sind die Exlcusive Games so horny? :confused: (Habe mich nie damit befasst)
Triniter
2020-05-26, 09:33:46
Sind die Exlcusive Games so horny? :confused: (Habe mich nie damit befasst)
Die von Sony sind teilweise schon wirklich gut. Da Sony jetzt aber einiges davon im Epic Store anbietet wird der Vorteil langsam kleiner. Aber es gibt schon immer noch ein paar Schmankerl die mich vermutlich wieder zu einer PS5 zusätzlich zum PC greifen lassen werden.
disap.ed
2020-05-26, 09:50:03
Und: Ersetzt die Konsole den Rechner komplett? Oder brauchst du ggf. trotz Konsole einen PC? Andersrum ersetzt der PC die Konsole definitiv zu 100%.
Nein, wegen der Konsolen-exklusiven Spiele (zumindest bei Nintendo und Sony). Bei der XBox gebe ich dir Recht.
Dural
2020-05-26, 10:24:40
Immer die ständigen sinnlosen Diskussionen, jetzt schon seit über 20 Jahren. :rolleyes:
Fakt ist der PC wird die Konsolen überleben, Fakt ist der PC war immer die bessere Alternative.
Und überhaupt, eine Konsole ist im Jahr 2020 ja im Grunde nichts anderes als ein PC: Hardware, Software, Updates, Spiele die man Installieren muss etc. Die Zeiten wo man ein Spiel rein legt und gleich los spielt sind schon sehr lange vorbei. Meine PS4 und XOne stehen seit längerem nur noch rum, weil es mich nur noch nervt.
WedgeAntilles
2020-05-26, 12:08:52
Nein, wegen der Konsolen-exklusiven Spiele (zumindest bei Nintendo und Sony). Bei der XBox gebe ich dir Recht.
Naja, nach der Argumentation "brauchst" du ja alles.
Eine X-Box, ein PC, eine Playstation, eine Switch und was weiß ich.
Klar gibt es einzelne Spiele die es nur auf einem System gibt.
Aber generell gibt es am PC jedes Genre und quasi "alles".
Daher ersetzt ein PC eine Konsole.
Eine Konsole ersetzt einen PC aber nicht, da man auf der Konsole keine Mails bearbeiten kann, kein Office hat und auch nix einscannen oder ausdrucken kann. Und man eben auch nicht die schon erwähnte Porno-Sammlung anlegen kann^^
Darum ging es mir, dass man halt nicht nur den reinen Kaufpreis beachten darf.
Wenn ich ne Konsole kaufe, muss ich trotzdem noch einen PC haben.
Wenn ich aber einen PC habe, muss ich keine Konsole haben.
(Klar ist aber natürlich auch, dass ein viele Jahre alter PC ausreicht, wenn er nicht zum spielen gebraucht wird.)
Monsta
2020-05-26, 15:05:24
OT:
Ich kenne einige Leute die lediglich eine Konsole und den Rest mit nem Tablet/Ipadpro machen. Die haben noch nicht mal nen Schreibtisch in der Bude.
Die würden sich niemals nen PC in die Hütte stellen.
Konsole und PC kannibalsiert sich nicht gegenseitig, das sind komplett andere Märkte. Das war eigentlich schon zu den "Konsolenwars" so, dort ist das PC-Gaming ja nur deshalb abgestorben, weil WoW da ne Komplettübernahme gemacht hat zeitweilig. Das war die eigentliche Gebuhrt der Multi-Plattform-Strategien. Heute bleibt diese Strategie aktuell, eben weil die Märkte größtenteils getrennt sind und sich dasselbe Spiel auf allen Systemen verkaufen kann, also jede Plattform im Grunde den Marktanteil wirklich vergrößert.
Das ist ja sogar bei XBox/PSx vs. Switch so, denn das sind wiederum andere Käufer. Daher lohnt es sich sogar nachträglich den Witcher3 noch für Switch umzusetzen.
Konsole vs. PC ist einfach der falsche Ansatz, damit kommt man nicht weit.
Diese Strategie der Spielehersteller ist natürlich mit Einschränkungen verbunden für die überlegenen Systeme, da bei der Softwareentwicklung die maximal mögliche Synergie gesucht wird um möglichst wenig Kosten zu verursachen. Daher macht ja ein Studio die Hauptarbeit für die beiden Konsolen und andere Studios übernehmen dann die Portierung auf PC oder Switch. Für den PC musste bisher salopp gesagt das Game für NV+Intel fit gemacht werden (Entwicklungsbasis war ja Jaguar und custom GCN1.x). Damals konnte man auch gut auf Gameworks zurückgreifen um das Spiel optisch zu verbessern. Heute ist das wieder ein bisschen anders.
TheAntitheist
2020-05-26, 17:08:20
Naja ich kenne viele die vom PC zur Konsole gewechselt sind, hauptsächlich wegen der fehlenden Spiele. Klar gibts auf dem PC ein größeres Angebot, aber die Qualität ist sicherlich dadurch nicht höher, eher niedriger.
Aber wenn man Irgendwelche Strategiespiele zocken will, kommt niemand um den PC herum. Blizzard war mal ein Zugpferd für den PC aber DAS ist schon lange her, die bringen ja gar nichts gescheites mehr heraus.
Ailuros
2020-05-27, 07:18:03
Kein Wunder NV meckerte vor einiger Zeit dass HBM nicht so wie man erwarten wuerde skaliert. Ich bezweifle zwar dass Ampere nicht genug Bandbreite hat (absurde Grenzfaelle mal weg...), aber irgendwo hat jemand gemeckert dass das Ding zu "wenig" FP32 Leistung haben soll.
Wenn man bedenkt dass sowohl die Herstellungsprozesse als auch die Bandbreite weiterhin Grenzen setzen, kann man keine brutalen Leistungssteigerungen erwarten. IHVs versuchen eben stets das bestmoegliche innerhalb aller dieser Begrenzungen herauszuquetschen.
Uebrigens wieso steht im Thread-titel Ampere immer noch als Turing-Nachfolger? Volta und Ampere sind offensichtlich HPC only - Tiere.
Timbaloo
2020-05-27, 09:04:39
Uebrigens wieso steht im Thread-titel Ampere immer noch als Turing-Nachfolger? Volta und Ampere sind offensichtlich HPC only - Tiere.
Ja, so langsam bin ich auch davon überzeugt, dass Hopper Next-Gen-Gaming ist. Passt auch zum Codenamen-Schema Volta (Naturwissenschaftler) / Turing (Informatiker/Informatikpioniere). Dass Compute und Gaming zunehmend auseinanderlaufen hat ja unser Insider (pixeljetstream) praktisch bestätigt.
Das Gerücht, dass Hopper ein MC-Design sein soll, das passt noch nicht so 100% in meine Erwartungshaltung für eine Architektur in 2020/21.
Auf jeden Fall erstaunlich wie wenig wir über den Turing-Nachfolger wissen. Eigentlich gar nichts.
genervt
2020-05-27, 09:29:56
Kein Wunder NV meckerte vor einiger Zeit dass HBM nicht so wie man erwarten wuerde skaliert. Ich bezweifle zwar dass Ampere nicht genug Bandbreite hat (absurde Grenzfaelle mal weg...), aber irgendwo hat jemand gemeckert dass das Ding zu "wenig" FP32 Leistung haben soll. ....
Wieso zu wenig FP32 Leistung? Aus der CB Übersicht entnehme ich Volta mit FP32 14,9 TFlops Peak bei 5.120 Cuda Cores (FP32) und 1455 MHz Takt.
A100 bringt 19,5 TFlops Peak bei 6.912 Cuda Cores (FP32) und 1410 MHz Takt. Die Cuda Cores steigen um 1,35 und TFlops um 1,31 das ist doch gut?
AMD hat da imo aktuell kein Produkt dagegen zu setzen.
basix
2020-05-27, 10:22:50
Wieso zu wenig FP32 Leistung? Aus der CB Übersicht entnehme ich Volta mit FP32 14,9 TFlops Peak bei 5.120 Cuda Cores (FP32) und 1455 MHz Takt.
A100 bringt 19,5 TFlops Peak bei 6.912 Cuda Cores (FP32) und 1410 MHz Takt. Die Cuda Cores steigen um 1,35 und TFlops um 1,31 das ist doch gut?
AMD hat da imo aktuell kein Produkt dagegen zu setzen.
1.31 ist für 12nm vs. 7nm aber nicht berauschend. Um das ging wohl die Aussage.
crux2005
2020-05-27, 17:13:53
Kein Wunder NV meckerte vor einiger Zeit dass HBM nicht so wie man erwarten wuerde skaliert. Ich bezweifle zwar dass Ampere nicht genug Bandbreite hat (absurde Grenzfaelle mal weg...), aber irgendwo hat jemand gemeckert dass das Ding zu "wenig" FP32 Leistung haben soll.
Wenn man bedenkt dass sowohl die Herstellungsprozesse als auch die Bandbreite weiterhin Grenzen setzen, kann man keine brutalen Leistungssteigerungen erwarten. IHVs versuchen eben stets das bestmoegliche innerhalb aller dieser Begrenzungen herauszuquetschen.
Uebrigens wieso steht im Thread-titel Ampere immer noch als Turing-Nachfolger? Volta und Ampere sind offensichtlich HPC only - Tiere.
Ich musste kurz die Brille putzen damit ich mir sicher bin was ich sehe. :P
Vielleicht hat Ampere zu wenig FP32 im Vergleich zu Arcturus? Offensichtlich hat sich NV nicht mehr sehr bemüht den FP32 Durchsatz zu steigern. Wozu auch? Diese 1% die mehr FP32 Leistung wollen sind nicht interessant.
Das die Leistung in den kommenden Jahren nicht mehr so stark steigen wird war mir bei der Vorstellung von DLSS klar.
Die Gaming Version von Ampere ist also Hopper? Wäre schon wieder ein Dejavu wie bei Volta-Turing.
Timbaloo
2020-05-27, 17:21:58
Das die Leistung in den kommenden Jahren nicht mehr so stark steigen wird war mir bei der Vorstellung von DLSS klar.
Was hat DLSS mit HPC zu tun?
crux2005
2020-05-27, 18:35:45
Was hat DLSS mit HPC zu tun?
NVidia.
Und das Tema ist Ampere (Turing-Nachfolger, 7/8nm, Mitte/Ende 2020). Es war auf gaming GPUs bezogen. ;)
reaperrr
2020-05-27, 20:04:36
Wieso zu wenig FP32 Leistung? Aus der CB Übersicht entnehme ich Volta mit FP32 14,9 TFlops Peak bei 5.120 Cuda Cores (FP32) und 1455 MHz Takt.
A100 bringt 19,5 TFlops Peak bei 6.912 Cuda Cores (FP32) und 1410 MHz Takt. Die Cuda Cores steigen um 1,35 und TFlops um 1,31 das ist doch gut?
AMD hat da imo aktuell kein Produkt dagegen zu setzen.
1,31x TFLOPs, trotz 7nm und mehr als verdoppelter Transistoren, ist wirklich schwach. Dazu noch - trotz viel stärker beschnittener GPU und etwas weniger Takt - höherer Verbrauch als Volta.
Ich denke, dass Arcturus weniger Fläche und Strom benötigen und das Top-Modell weniger stark beschnitten sein wird, in normalen FP32/FP64-Workloads dürfte Arcturus sowohl bei der Rohleistung als auch Perf/W und Perf/$ relativ deutlich gewinnen.
Natürlich gilt das nur für Fälle, die nicht von Nvidia's TensorCores beschleunigt werden können, grundlos wird NV das ganze Zeug (TCs, größere L1Caches etc.) natürlich nicht eingebaut haben.
Ghost1nTh3GPU
2020-05-27, 20:44:06
Deep Learning hat einen erheblichen Anteil am Workload in den HPC-Rechenzentren und mit A100 werden nun auch komplexere Datentypen über die Tensor-Cores beschleunigt. Und da sind die Zuwächse überdurchschnittlich.
AffenJack
2020-05-27, 21:13:14
Es sind auch nicht nur Deep Learning Workloads, HPC Workloads können durch die FP64 Tensor Cores genauso beschleunigt werden und da hat A100 2,5x soviele FP64 Flops wie V100.
Soweit ich das verstehe ist zb Linpack, womit die Supercomputergeschwindigkeit gemessen wird, Matrixmultiplikation und daher sollte A100 da theorethisch 19,5 Tflops auf die Straße bringen.
Wieviel praktisch dann ankommt wird interessant. Ich weiß nicht wie hoch der Matrixmultiplikationsanteil generell bei anderen Problemen im HPC Bereich ist, aber da wo es ein größerer Anteil ist, dürfte A100 Arcturus locker plattmachen.
Timbaloo
2020-05-27, 23:57:57
NVidia.
Und das Tema ist Ampere (Turing-Nachfolger, 7/8nm, Mitte/Ende 2020). Es war auf gaming GPUs bezogen. ;)
Du kannst auch einfach meine Frage beantworten.
Wait, kannst du ja nicht ;D
MiamiNice
2020-05-28, 01:09:20
Naja ich kenne viele die vom PC zur Konsole gewechselt sind, hauptsächlich wegen der fehlenden Spiele. Klar gibts auf dem PC ein größeres Angebot, aber die Qualität ist sicherlich dadurch nicht höher, eher niedriger.
Sorry das ich das nochmals aufgreife aber ich denke die Wahrheit liegt genau anders herum. Als die Masse das Gaming als Freizeitbeschäftigung erkannte und die Konsolen immer mehr an Popularität gewonnen, musste man ein immer breiteres Publikum ansprechen. Das tat man durch mehr Grafik, mehr Zwischensequnzen, einfacheren Einstieg, unkompliziertes und einfach zugängliches Gameplay, Archivments die das Belohnungszentrum triggern um die Spieler bei Laune zu halten etc. pp. Es entickelte sich viele Jahre und heute ist so ziemlich jedes Spiel welches auf Konsolen und PC zusammen released wird hauptsächlich von dargelegten Faktoren geprägt und, fast vergessen, Loot Boxen.
Einzig auf dem PC gibt es noch Games die anders sind. Nicht nur die Quantität ist höher, auch die Qualität in Sachen Spieltiefe und damit Spielspaß. Abseits von Blizzard, EA und den anderen Verrätern des Spielspaßes für mehr Massenumsatz gibt es am PC überhaupt noch Spiele die aus Liebe am Spiel gemacht werden.
Außerdem macht eine Konsole genau eines mit seinen Usern: Es sperrt sie ein und lässt Hardware brach liegen durch zwangskastrietes OS (wie geil wäre z.b. eine offnene PS4 Pro auf der man im Bootcamp Windows installieren kann). Im Prinzip ist eine Konsole ein PC auf dem Du keine Rechte hast außer original vom Hersteller signierte Software laufen zu lassen. Genau genommen ein "Brick" :biggrin:
Ja, so langsam bin ich auch davon überzeugt, dass Hopper Next-Gen-Gaming ist.
Das dachte ich auch lange. Mittlerweile bin ich allerdings überzeugt das es das wird was Leo skizziert hat.
Dampf
2020-05-28, 07:10:38
Hat Jensen nicht gesagt, Ampere würde Turing ersetzen? Sonst wäre ich auch davon ausgegangen dass Ampere eine HPC Generation wie Volta ist.
Leonidas
2020-05-28, 07:29:11
Auf jeden Fall erstaunlich wie wenig wir über den Turing-Nachfolger wissen. Eigentlich gar nichts.
NV hatte schon indirekt gesagt: Ampere kommt auch für Gaming (https://videocardz.com/newz/nvidia-confirms-ampere-architecture-to-launch-under-geforce-series). Ergo ist Hopper Nextgen nach Ampere.
PS: Thema Release-Abfolge bei nVidia - was ja dann bei Ampere wieder an der Reihe ist:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-27-mai-2020
Diving Deep Into The Nvidia Ampere GPU Architecture
https://www.nextplatform.com/2020/05/28/diving-deep-into-the-nvidia-ampere-gpu-architecture/
Alex1973
2020-05-29, 15:19:24
[QUOTE=Dural;12319291]Immer die ständigen sinnlosen Diskussionen, jetzt schon seit über 20 Jahren. :rolleyes:
Fakt ist der PC wird die Konsolen überleben, Fakt ist der PC war immer die bessere Alternative.
Ich gäbe dir absolut Recht. Der PC ist auch für mich aus langjähriger Erfahrung das Beste, und ich habe damit am meisten Spaß und verbringe 80% meiner Zeit am Pc und nicht auf xbox one. Es geht mir hier nur um den Preis der PC Hardware.
Ich habe xbox one gebraucht vor vielen Jahren gekauft, als sie unter 200 Euro rutschte, weil ich nicht auf The Witcher 3 und Dark Souls 3 verzichten wollte.
Meinen jetzigen PC aber habe ich erst seit ungefähr 2 Jahren (um 200 Euro) und habe schon Grafikkarte einmal nachgerüstet.
Und auch diesmal werde ich wohl dieselbe Strategie fahren. Zuerst kommt die günstige Konsole, dann in 5 Jahren ein günstiger PC, der aber alle neuen Games auch hinbekommt.
Wenn neue Konsolen kommen, weiß keiner ob die Spiele auch auf neuestem PC überhaupt laufen, wegen schneller SSD bei der PS 5.
Ich tue das nicht, weil ich mir etwas teurer Hardware nicht leisten kann, sondern, weil ich aus langjähriger Erfahrung keinen Sinn mehr darin sehe. Diese ganzen super teuren Sachen landen irgendwann mal auf ebay oder auf dem Müll u.s.w. (Man muss auch an die Umwelt denken; wie viele meiner PC´s habe ich weggeworfen, 5 oder 6?)
Timbaloo
2020-05-29, 15:45:55
NV hatte schon indirekt gesagt: Ampere kommt auch für Gaming (https://videocardz.com/newz/nvidia-confirms-ampere-architecture-to-launch-under-geforce-series). Ergo ist Hopper Nextgen nach Ampere.
Ich nehme an du spielst auf diesen Satz an:
“there’s great overlap in the architecture, but not in the configuration.”
Der Satz wäre bei Volta/Turing genauso gültig gewesen. Das einzige was bei Ampere/Hopper nicht so passen würde ist das MC-Gerücht um Hopper, denn eine MC-Arch wäre wahrscheinlich deutlich anders als eine "monolithische".
Und btw. seit wann glauben "wir" hier Aussagen von NV, machen "wir" ja auch beim Fertigungsprozess nicht ;)
Leonidas
2020-05-30, 05:52:57
Ja. 100%ig eindeutig ist der Satz nicht. Also Restchancen für alles.
Badesalz
2020-06-01, 00:02:14
Es sind auch nicht nur Deep Learning Workloads, HPC Workloads können durch die FP64 Tensor Cores genauso beschleunigt werden und da hat A100 2,5x soviele FP64 Flops wie V100.Ist jetzt alles was bei NV etwas rechnet, ein Tensor-xy? Jetzt rechnen Tensors auch schon FP64? (kopfkratz)
Die 2.5x ist auch "up to". Ich denke aber doppelt so schnell bei FP64 wird das Teil grundsätzlich sein.
AffenJack
2020-06-01, 09:33:57
Ist jetzt alles was bei NV etwas rechnet, ein Tensor-xy? Jetzt rechnen Tensors auch schon FP64? (kopfkratz)
Die 2.5x ist auch "up to". Ich denke aber doppelt so schnell bei FP64 wird das Teil grundsätzlich sein.
Es sind sowohl normale FP64 Units drin (9,7 Tflops) und TC FP64 19,5 TFlops.
Das sind theorethische Zahlen, echte Workloads sind je nachdem eh immer unterschiedlich limitiert. Auch 2x würde ich nicht erwarten, da Anwendungen zb auch oft Bandbreitenlimitiert sein können. Aber da kann dann der fast 7x größere L2 vll bei einigen Dingen helfen, Computekompression etc. Ampere hat schon einiges neues. Aber wie sich das auswirkt, wird man erst später sehen, wenn mehr als nackte Zahlen bekannt sind und die Programme zb zur Nutzung von TC FP64 optimiert wurden.
Mal zum Gaming Ampere von kopite7kimi:
https://twitter.com/kopite7kimi/status/1267293095873220609
Maybe,
the new TITAN(?), 5376, GA102-400,
RTX3090(?), 5248, GA102-300, 21Gbps GDDR6X,
RTX3080(?), 4352, GA102-200.
Alles was er mit "Maybe" betitelt, da ist er sich nicht sicher.
Auch wenn er bei GA100 alles richtig hatte, lässt mich GDDR6X und die Ramgeschwindigkeit doch sehr zweifeln. Man hat noch nie was von GDDR6X gehört.
Badesalz
2020-06-01, 09:53:01
Es sind sowohl normale FP64 Units drin (9,7 Tflops) und TC FP64 19,5 TFlops.Und wonach geht man, wenn man entscheidet, ob man sein FP64 Workload auf den normalen oder den TCs rechnen soll?
Oder ist das jetzt ein Migrationsweg wo man wegen der bestehenden Codebasis beides liefert, später aber alles auf Tensors laufen soll und man die normalen Einheiten immer weiter zurückfährt?
AffenJack
2020-06-01, 10:09:44
Und wonach geht man, wenn man entscheidet, ob man sein FP64 Workload auf den normalen oder den TCs rechnen soll?
Oder ist das jetzt ein Migrationsweg wo man wegen der bestehenden Codebasis beides liefert, später aber alles auf Tensors laufen soll und man die normalen Einheiten immer weiter zurückfährt?
Ohne Code Optimierung stehen die TCs erstmal still. Kein Plan, bin da kein Programmierer. Im Endeffekt ist es bestimmt einerseits ausprobieren, ob man einen ordentlichen Speedup durch die Nutzung aber TCs erhalten kann, aber andererseits sollten die Leute die sowas programmieren auch relativ gut einschätzen können, was für Rechenoperationen das Programm nutzt und ob das Vorteile bringen kann. Ich glaube nicht, dass man alles auf die Tensor Cores auslagern kann, aber auch wenn nur Teile 2x beschleunigt werden, sollte das ordentliche Vorteile bringen. Aber da bin ich zu sehr Laie, um adäquate Aussagen zu treffen.
Ailuros
2020-06-01, 10:20:32
Der Satz wäre bei Volta/Turing genauso gültig gewesen. Das einzige was bei Ampere/Hopper nicht so passen würde ist das MC-Gerücht um Hopper, denn eine MC-Arch wäre wahrscheinlich deutlich anders als eine "monolithische".
Und btw. seit wann glauben "wir" hier Aussagen von NV, machen "wir" ja auch beim Fertigungsprozess nicht ;)
Ich will hoffen dass die Geruechtekueche nicht schon seit einiger Zeit alles MC mit MIG verwechselt hat.
Timbaloo
2020-06-01, 14:54:16
MIG?
w0mbat
2020-06-01, 17:46:01
https://upload.wikimedia.org/wikipedia/commons/5/56/Aviamix2015-03_%28cropped%29.jpg
basix
2020-06-01, 17:46:43
MIG?
Many Integrated Graphics ;D
Nein, es geht um Multi Instancing GPUs, also GPU Virtualisierung auf einer GPU.
https://www.nvidia.com/de-de/technologies/multi-instance-gpu/
Timbaloo
2020-06-02, 01:36:42
Ah ok, danke.
Ailuros
2020-06-04, 08:46:27
Many Integrated Graphics ;D
Nein, es geht um Multi Instancing GPUs, also GPU Virtualisierung auf einer GPU.
https://www.nvidia.com/de-de/technologies/multi-instance-gpu/
Schon klar. Nur ist es eben daemlicherweise so dass so manches von vielen in der Geruechtekueche falsch verstanden wird.
amdfanuwe
2020-06-04, 09:02:57
Die Grafikkarten sollen vor allem in Umgebungen eingesetzt werden, die auf Hardware-Virtualisierung setzen. Denn Tonga ermöglicht dies im Gegensatz zu anderen FirePro-GPUs auf der Hardware. Damit lassen sich mehrere Workstations auf einer GPU berechnen.
https://www.computerbase.de/2016-02/amd-firepro-s7150-x2/
Schön das Nvidia ein Feature implementiert, dass AMD seit 4 Jahren bietet. Nennt sich bei AMD MxGPU.
Hasenpfote
2020-06-04, 14:14:11
https://www.computerbase.de/2016-02/amd-firepro-s7150-x2/
Schön das Nvidia ein Feature implementiert, dass AMD seit 4 Jahren bietet. Nennt sich bei AMD MxGPU.Also Nvidia bietet seit Jahren virtuelle GPUs an und im Gegensatz zu AMD nutzt das auch jemand ;D . Die Frage ist, ob sie das nun endlich mal im Consumer-Bereich bringen. Und sei es als abgespeckte Variante mit max 2 VMs oder sowas.
amdfanuwe
2020-06-04, 14:34:38
Also Nvidia bietet seit Jahren virtuelle GPUs an und im Gegensatz zu AMD nutzt das auch jemand
Ja, mittels Software ohne Hardwareunterstützung, nennt sich GRID.
Und AMDs Lösung wird wohl auch genutzt: https://azure.microsoft.com/en-us/blog/power-your-azure-gpu-workstations-with-flexible-gpu-partitioning/
TheAntitheist
2020-06-04, 16:24:40
Ja, mittels Software ohne Hardwareunterstützung, nennt sich GRID.
Und AMDs Lösung wird wohl auch genutzt: https://azure.microsoft.com/en-us/blog/power-your-azure-gpu-workstations-with-flexible-gpu-partitioning/
Bahnbrechend, danke für dein Flamewar gegen Nvidia im Ampere thread...
AffenJack
2020-06-06, 10:53:38
Sieht danach aus, als wäre das Design der RTX 3080 geleakt:
https://pbs.twimg.com/media/EZz-xWEU8AAvo4I?format=jpg&name=large
https://twitter.com/9550pro/status/1269169497652424711
oder auch:
https://videocardz.com/newz/nvidia-geforce-rtx-3080-pictured
Sieht zwar sehr merkwürdig aus, aber der Aufwand sowas zu faken ist eigentlich zu groß. Die letzten Male haben sich die Designs nach den Leaks immer als wahr rausgestellt.
Neben der merkwürdigen PCB Form stellen sich 2 Fragen, Stromanschlüße? Ganz hinten?
Und so ein kurzes PCB? Eigentlich galt das ohne HBM nicht als realisierbar.
Troyan
2020-06-06, 10:57:57
Kurze PCB gibt es doch längst mit 256bit Interface. Z.B. GTX670:
https://www.pcgameshardware.de/screenshots/970x546/2012/05/Nvidia_Geforce_GTX_670__15_.JPG
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-670-Test-882634/
AffenJack
2020-06-06, 11:03:08
Das ist 8 Jahre her, da war die ganze Ansteuerung in Sachen Boost doch noch deutlich einfacher. In den letzten Jahren kann ich mich da nicht wirklich an solche GPUs erinnern. Aber mag sein, dass es doch geht. Hat mich allerdings schon ziemlich gewundert.
Troyan
2020-06-06, 11:08:40
Gibt ja auch ITX-Versionen der RTX2070. Und die 2060 FE hatte auch ein ITX-Format als PCB:
https://www.pcgameshardware.de/screenshots/1020x/2019/01/DSC_1489-copy-pcgh.jpg
https://www.pcgameshardware.de/Geforce-RTX-2060-Grafikkarte-268170/News/Nvidias-Founders-Edition-Teardown-Kleber-1272788/
/edit: Die 2070 FE wurde mit kurzem PCB veröffentlicht:
https://proclockers.com/wp-content/uploads/2018/10/Nvidia_RTX2070_FE_29.jpeg
https://proclockers.com/review/nvidia-geforce-rtx-2070-founders-edition-review/5/
Ghost1nTh3GPU
2020-06-06, 11:10:26
Der 2. Lüfter ist wohl auf der Rückseite? :freak:
Der spekulierte ~20GBps GDDR6 sitzt vielleicht extrem dicht am Package. Igor hatte ja behauptet, dass die PCB wohl aufwendiger / mehr Lagen bekommen und die Hersteller eine neue Bohrtechnik implementieren müssen.
mac_skull
2020-06-06, 11:20:15
Sehe ich da was falsch, oder ist bei der rechten Karte, der Lüfter hinten eingebaut...zumindest deutet das Slotblech das doch an, oder?:confused:
AffenJack
2020-06-06, 11:21:39
@Troyan
stimmt, hast Recht.
Ich bin ja gespannt ob die neue Form mit Lüfter auf verschiedenen Seiten so große Vorteile bringt.
Es ist auf jeden Fall gut ein Lebenszeichen der GPU zu sehen, weiß nicht mehr wie lange es bei Turing oder Pascal vom Leak des Designs bis Release war, aber ich meine max. 3 Monate. Würde zu einem September Release passen.
@mac_skull
Jup. Die andere Karte ist nur gedreht. Die Lüfter sind auf gegensätzlichen Seiten eingebaut.
OgrEGT
2020-06-06, 11:22:41
Sehe ich da was falsch, oder ist bei der rechten Karte, der Lüfter hinten eingebaut...zumindest deutet das Slotblech das doch an, oder?:confused:
Oder es sind auf beiden Seiten Lüfter...?
AffenJack
2020-06-06, 11:25:54
Ich klaue mal von Chiphell:
https://static.chiphell.com/forum/202006/06/154307hi5nw52weefl22s2.jpg
https://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=2226236&pid=45170411
So müsste das aussehen.
Troyan
2020-06-06, 11:26:05
Bei Pascal gab es erste Leaks der Kühlerabdeckung ende März 2016: https://videocardz.com/58674/nvidia-geforce-gtx-1080-geforce-gtx-1070-cooler-shrouds-pictured
Bis zur Vorstellung waren das 1 1/2 Monate. Wenn die Karten (und eben nicht nur der Kühler) schon produziert werden, müsste die Veröffentlichung vielleicht schon früher kommen als im September...
MiamiNice
2020-06-06, 11:28:58
Sieht danach aus, als wäre das Design der RTX 3080 geleakt:
https://pbs.twimg.com/media/EZz-xWEU8AAvo4I?format=jpg&name=large
https://twitter.com/9550pro/status/1269169497652424711
oder auch:
https://videocardz.com/newz/nvidia-geforce-rtx-3080-pictured
Sieht zwar sehr merkwürdig aus, aber der Aufwand sowas zu faken ist eigentlich zu groß. Die letzten Male haben sich die Designs nach den Leaks immer als wahr rausgestellt.
Neben der merkwürdigen PCB Form stellen sich 2 Fragen, Stromanschlüße? Ganz hinten?
Und so ein kurzes PCB? Eigentlich galt das ohne HBM nicht als realisierbar.
Das Design habe ich schon mal gesehen, weiss aber gerade nicht wo.
Deswegen hätte ich glatt auf Fake getippt. Allerdings der Schriftzug unter der Folie, ist schwer zu fäschen.
Kommt euch das Design nicht auch extrem bekannt vor?
mac_skull
2020-06-06, 11:32:47
Oder es sind auf beiden Seiten Lüfter...?
Interessant...mal gespannt was das bringt. Danke für die Antwort!
Ghost1nTh3GPU
2020-06-06, 11:35:24
Jup. Die andere Karte ist nur gedreht. Die Lüfter sind auf gegensätzlichen Seiten eingebaut.
Das Blech mit "RTX 3080" ist wohl eher die Backplate, die man auf die Vorderseite draufgelegt hat. Wenn die Karte im PC eingebaut ist, kann man den Schriftzug normal lesen. Die Vorderseite wird wohl ohne Abdeckung auskommen, da hier ja der hintere Fan von oben die Luft durchblasen muss. edit: Das ist die Karte von der Rückseite.
Wahrscheinlich sieht das PCB ähnlich wie bei der EGX100 aus: https://www.nvidia.com/en-us/data-center/products/egx-a100/
mironicus
2020-06-06, 12:02:29
Ist Fake, das RTX 3080-Logo ist verkehrt herum platziert.
w0mbat
2020-06-06, 12:13:34
Nein, ist es nicht.
Ghost1nTh3GPU
2020-06-06, 12:13:44
Ist Fake, das RTX 3080-Logo ist verkehrt herum platziert.
Nochmal genauer hinschauen. Das untere Bild zeigt, wie die Karte im PC eingebaut wird, die PCIe-Kontakt sind auf der Höhe des PCBs. Insgesamt etwas verwirrend auf den ersten Blick. ;D
Das fehlt nur etwas Zierleiste auf der Seite des Kühlers.
robbitop
2020-06-06, 12:25:37
Wobei das blau etwas nv untypisch ist. IMO wäre es auch schlauer gewesen den 2. Lüfter auf der Vorderseite zu platzieren. So kann der vordere Lüfter einen Teil der warmen Abluft nochmal einsaugen und das senkt dann die Kühlleistung. Außerdem ist es sinnvoller wenn warme Luft im Gehäuse nach oben strömt. Da wird eigentlich standardmäßig abgesaugt.
Ghost1nTh3GPU
2020-06-06, 12:29:13
Blau ist nur die Schutzfolie. Bei den Chiphell Bildern kann man "EMC Certification Pending" auf dem PCB lesen. Insofern dürfte das hier schon kurz vor der finalen Produktion sein.
elhomomomo
2020-06-06, 12:30:04
Wobei das blau etwas nv untypisch ist.
I for one love the symmetric and futuristic looking shape (the graphics card isn't actually blue by the way, that is just the packaging film on it. It is still very much polished metal).
https://wccftech.com/nvidia-rtx-3080-pictured/
Gehe auch von nem Fake aus. Auf einem Bild von Chiphell ist deutlich zu sehen, dass am PCB herumgesägt wurde.
Zudem bezweifle ich doch schwer, dass das Lüfterkonstrukt überhaupt funktionieren würde :confused:
robbitop
2020-06-06, 12:34:17
Blau ist nur die Schutzfolie. Bei den Chiphell Bildern kann man "EMC Certification Pending" auf dem PCB lesen. Insofern dürfte das hier schon kurz vor der finalen Produktion sein.
Guter Hinweis! Dann kann das schon gut sein.
Für einen Fake IMO zu aufwändig. Ist wahrscheinlich noch pre production.
Troyan
2020-06-06, 12:35:49
Da gibt es sogar ein kleines nVidia Logo auf der Rückseite. Kann mir nicht vorstellen, dass jemand mindesten zwei Karten "produziert", um dann jemanden die Bilder in einem Forum veröffentlichen zu lassen...
mironicus
2020-06-06, 12:48:19
Würde das denn zeitlich passen für einen Release im September? Wieso bringen NVidia + AMD überhaupt zur gleichen Zeit ihre Karten auf den Markt? NVidia hätte doch schon früher 7 nm Karten bringen können.
Linmoum
2020-06-06, 12:52:13
Warum müssen die Karten zeitversetzt erscheinen? Davon ab hätte Nvidia das nicht früher tun können, sofern GA102 und Co. N7+ nutzen.
Die können 2080 bis Titan launchen, weil der GA103 gecancelt wurde und durch einen weiter gesalvage-ten GA102 ersetzt wurde und weil der Chip Anfang des Jahres ins Tape Out ging. Der ist halt bald fertig. Der GA104 war deutlich später fertig und kommt dementsprechend später.
Da TSMC für den großen GA100 schon N7 nutzt denke ich nicht, dass man jetzt N7+ nutzt. Entweder ist das N7 oder irgendwas bei Samsung.
Benutzername
2020-06-06, 13:20:31
Gehe auch von nem Fake aus. Auf einem Bild von Chiphell ist deutlich zu sehen, dass am PCB herumgesägt wurde.
Zudem bezweifle ich doch schwer, dass das Lüfterkonstrukt überhaupt funktionieren würde :confused:
Ja, die Kühlung sieht komisch aus. vielleicht sowas Blower-artiges mit dem einen Lüfter rechts der die Luft dann nach links aus dem Gehäuse drückt? :confused:
Da sieht fast nach HBM aus. ein so kleines PCB für so einen Chip ist eigentlich nur mit HBM möglich.
unl34shed
2020-06-06, 13:51:52
Unmöglich in einer Consumer Karte, HBM soll doch voll teuer sein :rolleyes:
Linmoum
2020-06-06, 13:53:33
Siehe u.a. das von Troyan verlinkte PCB der 2070 FE. Das geht auch problemlos ohne HBM.
Hakim
2020-06-06, 13:56:29
Design und Farbe sagen mir nicht sehr zu, da sahen die Turing FE besser für mich aus, mal sehen wie effizient es ist, wenns den überhaupt legit ist
Linmoum
2020-06-06, 13:58:34
Das blaue ist nur 'ne Schutzfolie.
BlacKi
2020-06-06, 14:33:02
darunter ist aber auch nur silber, auch nicht prickelnd.
und ich würde behaupten das die bilder eine fertige karte zeigen, also wirds schon im august zur gamescom die karte vorgestellt und dann nach und nach im september kaufbar sein. die custom modelle werden wie immer 2-4 wochen länger dauern.
Linmoum
2020-06-06, 14:34:56
Was für Nvidia ja auch eine völlig neue Dimension wäre. Silber, das gab's noch nie.
Fancy Bling Bling gibt's bei Customs wer darauf steht und es dort vermisst. ;)
=Floi=
2020-06-06, 14:35:51
und 200 schrauben!!!!11111
Die Lüfter sehen nicht nach Radial Lüfter aus oder? Die haben doch einen geschlossenen Ring außen rum. Da wird doch gar keine Luft zu den Seiten bewegt. Sieht schon komisch aus die Kühlerkonstruktion. Beim hinteren Lüfter ok, der bläst komplett durch dem Kühler. Aber wo geht die Luft des vorderen Lüfter hin? :uponder:
Neurosphere
2020-06-06, 14:37:35
Der einzige dicke Vorteil der mir einfallen würde wäre SLI....
Auf der Seite ohne PCB kann die Luft quasi durchrauschen. Aber Sli ist doch tot....
BlacKi
2020-06-06, 14:40:18
und 200 schrauben!!!!11111
ich hab nichts gegen schrauben. mein kritikpunkt bei turing war eher, das da schrauben zugeklebt waren.
Der einzige dicke Vorteil der mir einfallen würde wäre SLI....
Auf der Seite ohne PCB kann die Luft quasi durchrauschen. Aber Sli ist doch tot....
nv link scheint es aber zu geben.
Beim hinteren Lüfter ok, der bläst komplett durch dem Kühler. Aber wo geht die Luft des vorderen Lüfter hin? :uponder:slotblende und zur seite.
https://abload.de/img/23243423421jcw.png
Was für Nvidia ja auch eine völlig neue Dimension wäre. Silber, das gab's noch nie.
meine rede, wie langweilig.
Linmoum
2020-06-06, 14:52:27
Dann kauf dir irgendeine Custom, wenn dir das zu langweilig ist. Da wird es genug Auswahl geben. Ist ja nicht so, dass man nur die FE bekommt und das war es. ;)
Beglückwünsche jeden Hersteller, der fancy RGB-Zeugs weglässt und nicht auf den hippen Kiddie-Train mit aufspringt.
BlacKi
2020-06-06, 15:02:36
natürlich wird die beleuchtet sein. natürlich werde ich mich nach customs umsehen. auf rgb hab ich auch keinen bock. die guten kühler sind leider alle beleuchtet. natürlich kann man die deaktivieren.
Siehe u.a. das von Troyan verlinkte PCB der 2070 FE. Das geht auch problemlos ohne HBM.
Nope 384Bit 16GT+ GDDR6 geht definitiv nicht auf so einem kleinen PCB, erst Recht nicht, wenn die Karte 300W braucht, wie der Kühler aussieht, dafür brauchst entsprechendes Routing und entsprechen 10 Phase Powerstages mit Klimbim, das scheidet einfach aus. Die verlinkte Karte hat 256Bit und 150W, das ist genau 0 vergleichbar hiermit. Wenn das alles stimmt, haben wir es mit an Sicherheit grenzender Wahrscheinlichkeit mit HBM zu tun in der Leistungsklasse.
Wir erinnern uns, GA102 mit 4k+ Shadern soll die 3080 werden.
BlacKi
2020-06-06, 15:24:37
Nope 384Bit 16GT+ GDDR6 geht definitiv nicht auf so einem kleinen PCB, erst Recht nicht, wenn die Karte 300W braucht, wie der Kühler aussieht, dafür brauchst entsprechendes Routing und entsprechen 10 Phase Powerstages mit Klimbim, das scheidet einfach aus. Die verlinkte Karte hat 256Bit und 150W, das ist genau 0 vergleichbar hiermit. Wenn das alles stimmt, haben wir es mit an Sicherheit grenzender Wahrscheinlichkeit mit HBM zu tun in der Leistungsklasse.
mhh, man spekuliert auf 320bit SI mit 10gb und vermutlich weniger als 250w, vl 220-230? das hier sind 352bit an 250w, mit 384bit layout.
http://cdn01.hardwareluxx.de/razuna/assets/1/F4F19A68D9B544059FBFB3851B562C9E/img/BF354F6E40CD45E6969B508828718AF5/zotac-gtx1080ti-mini-09_BF354F6E40CD45E6969B508828718AF5.jpg
So und jetzt mal angucken, wie groß das PCB ist. Das geht nämlich nur bis knapp über das Slotende, die abgebildete Karte ist erheblich länger. Das eingezeichnete PCB endet in der Ecke, also der kürzeste Stelle, bei den hinteren Speicherbausteinen. Insgesamt wird die Länge passen, aber auf der 3080 ist diese dämliche Ecke ausgesägt. Das passt hinten und vorne nicht. Das Bild zeigt die Backplate des PCB. Und GA103 soll gecancelt sein, also keine 320Bit. Würde auch trotzdem nicht passen.
https://www.techpowerup.com/img/W57qmF3yuUJEC4aN.jpg
=Floi=
2020-06-06, 15:45:10
Den zweiten lüfter von der rückseite blasend ergibt auch keinen sinn.
Den einen lüfter so und den anderen so. Das sind irgendwelche prototypen oder versuchskarten.
mironicus
2020-06-06, 15:51:20
Vielleicht verbaut NVidia dieses Mal tatsächlich HBM-Speicher - weil der Chip aufgrund der 8 nm-Fertigung mehr Strom verbraucht und um die Leistung noch in ein 280 Watt TDP unterbringen zu können.
Nein tun sie nicht :D, war ich auf dem Holzweg - aus Informationsmangel. Lt. Igor verbaut NV GDDR6X und die Gerüchte mit den 20+GT stimmten. Lt. Igor wandert der RAM erheblich näher an den Chip heran, was Kühlungsprobleme zur Folge hat. Und was tut man in so einem Fall? (jetzt meine Interpretation), man packt auf den RAM ne eigene Heatpipe und lässt den von einem separaten Kühler kühlen.
So wird die 3080 sicherlich 256Bit GDDR6X mit 21GT/s besitzen (16GB halte ich für gesetzt) und das erklärt sowohl das kleine PCB als auch den separierten Kühler mit gedrehtem Lüfter.
https://www.youtube.com/watch?v=9CclogObWzk
Igor bestätigt i.Ü. auch, dass die 3 Karten, also 3080, 3090 und Titan, auf GA102 basieren, was das canceln des 103ers bestätigt und er sagt, dass der 104er eben deutlich später kommt (der dann würd ich vermuten in N7). Er meint auch, dass der Chip ein wahres Monster ist, was 8LPP-Fertigung mMn bestätigt. Igor meint auch, es gibt eine geringere Wärmestromdichte als bei jetzigen Chips und das Ding soll in der Spitze um die 350W rauskommen. Es ist mMn recht klar wo wir das rauskommen.
BlacKi
2020-06-06, 16:01:37
ich verstehe.
Edit: wenn die testsamples schon unterwegs sind, dann dauert es wohl nicht mehr bis zu gamescom.
au weia, wenn das stimmt wass igor das raushaut, dann...
Linmoum
2020-06-06, 16:18:42
Verbrauch für sich genommen ist wenig aussagekräftig, solange man die Performance nicht kennt. Wenn die passt, kann und darf aus der Steckdose genuckelt werden.
Auch, wenn es mich überrascht bzw. überraschen würde, wenn Nvidia hier jetzt deutlich die 300W bei Consumern reißt. Das wäre eigentlich ein AMD-Move.
mironicus
2020-06-06, 16:19:07
350 Watt, ein Riesen-Chip (größer als 2080Ti) und sehr hohe Temperaturen. Das braucht NVidia also, um sich von AMD abzusetzen mit ihren viel kleineren Chips? Hm.....
MiamiNice
2020-06-06, 16:24:39
Bei 350W ist mein Interesse an der Gen tatsächlich wieder da.
Mehr Saft = mehr Power :wink:
sehr hohe Temperaturen
Wenn stört es -> WaKü :)
Das braucht NVidia also, um sich von AMD abzusetzen mit ihren viel kleineren Chips? Hm.....
So weit mir bekannt muss sich NV bisher von niemanden absetzen. Sie sind unangefochtener Tech Leader im GPU Bereich.
AMD muss erstmal zeigen das die da überhaupt hinkommen können und nicht umgekehrt.
Mal auf dem Boden der Tatsachen bleiben ^^
Linmoum
2020-06-06, 16:27:18
Bei 350W ist mein Interesse an der Gen tatsächlich wieder da.
Mehr Saft = mehr Power :wink:Das geht aber auch manuell und ohne, dass AMD/NV das default den GPUs mitgeben. Warum sollte das also das Interesse steigern? ;) Eine 2080Ti kriegste genauso dahin.
MiamiNice
2020-06-06, 16:30:25
Weil ich auf hohe Power Targets stehe und im Gegensatz zu den meisten anderen stehe ich auch daruf wenn mein Stromzähler durch Rotation abhebt.
Meine Pascal hat ein 450W Powertarget Bios drauf, ich mag so was.
mironicus
2020-06-06, 16:32:59
Und was würdest du sagen, wenn NVidia sich bei der Preisgestaltung/Leistung einfach an der alten Generation orientiert?
RTX 2080 Ti = 999 Dollar
RTX 3080 = 1399 Dollar
RTX 3090 = 1799 Dollar
RTX Titan = 2999 Dollar
Sollte NVidia wirklich einen Chip mit >800 nm² bringen, wird das richtig teuer. Die neuen Platinen mit besserer Signalverarbeitung werden auch nicht billig sein.
BlacKi
2020-06-06, 16:33:49
jaber mit OC bist du dann bei 450w? bei mir wirds dann eben nicht das topmodell.
Linmoum
2020-06-06, 16:34:26
Weil ich auf hohe Power Targets stehe und im Gegensatz zu den meisten anderen stehe ich auch daruf wenn mein Stromzähler durch Rotation abhebt.
Meine Pascal hat ein 450W Powertarget Bios drauf, ich mag so was.Ist ja kein Thema.
Aber dafür ist es doch egal, was NV selbst macht. Das liest sich bei dir so, als wäre dein Interesse weg, wenn NV die Titan mit 270W statt 350W TDP bringt. Obwohl du die 270W dann ja auch entsprechend einfach anheben könntest. ;)
MiamiNice
2020-06-06, 16:37:03
Und was würdest du sagen, wenn NVidia sich bei der Preisgestaltung/Leistung einfach an der alten Generation orientiert?
Was soll ich dazu sagen? Hätte ich jetzt nicht anders erwartet.
jaber mit OC bist du dann bei 450w? bei mir wirds dann eben nicht das topmodell.
Nein, die Karte frisst um 400W. Kann man ja einzeln mit Hausmittel leider nicht vermessen.
Ich bin mit der ganzen Kiste bei knapp 700 Watt an der Steckdose ohne Moni mit Prime und Furmark paralell.
Ist ja kein Thema.
Aber dafür ist es doch egal, was NV selbst macht. Das liest sich bei dir so, als wäre dein Interesse weg, wenn NV die Titan mit 270W statt 350W TDP bringt. Obwohl du die 270W dann ja auch entsprechend einfach anheben könntest. ;)
Da hast Du generell recht. Ampere war für mich recht uninteressant bisher, ein höheres PT von Werk ab hört sich aber erstmal sehr gut an.
Sprich aus 0 Interesse ist wieder Interesse geworden :)
Hakim
2020-06-06, 17:00:30
Für mich wäre es blöd wenn wirklich die 3070 deutlich später kommt, wollte eigentlich 3070 oder 3060 kaufen, aber wenn erst 3080=> kommt, müsste ich noch länger warten...
crux2005
2020-06-06, 17:20:41
Interessantes Design was NV für die RTX 3080 da gebaut hat. Wenn es HBM wäre, würde es IMHO gut erklären wieso "nur" 10-12 GB VRAM. Aber kann auch gut GDDR6 und deswegen dann keine 16 GB weil kein Platz mehr auf dem PCB übrig war. In jedem Fall glaube ich an keine 16 GB VRAM mehr bei dieser Gen. :(
im Gegensatz zu den meisten anderen stehe ich auch darauf wenn mein Stromzähler durch Rotation abhebt.
:up:
Wird es bei dir auch nicht wärmer, sondern nur teurer? ;)
Solang der PC nur ein Hobby ist, juckt mich Lärm*, Abwärme und Verbrauch nicht wirklich :rolleyes:
M.f.G. JVC
*Der PC steht im Nachbarraum bei der Klimaanlage ^^
AffenJack
2020-06-06, 17:25:58
Hmm, mal so die Spekus mit ein wenig eigenen Gedanken:
Cores von hier genommen, da kopite oft richtig lag:
https://twitter.com/kopite7kimi/status/1269239881512873984
RTX3080 vs RTX2080 Super:
4352 Cuda Cores vs 3072 Cuda Cores = +42%
320 Bit ,~20 Gbps (18 Gbps) vs 256 Bit 15,5 Gbps = +61% (+45%)
275 -300 W? TDP vs 250 W TDP = +10-20%
Taktraten beider Karten relativ gleichbleibend? 2080 Super ~1890mhz Boost
Die RTX3080 wird man in der Leistungsaufnahme erhöhen, aber max 300W könnte ich mir vorstellen. Igor meinte ja auch, dass die größte Karte 350W braucht. Das sollte bei ähnlichen Taktraten wie jetzt bei der 2080 auch funktionieren denke ich und würde in der Rechnung gut zusammenpassen für eine Karte die je nach Architekturverbesserungen +40-+50% schneller als ne RTX2080 wäre.
RTX3080 Ti (3090) vs 2080 Ti
5248 Cores vs 4352 Cores = +20%
352 Bit? 21 Gbps vs 352 Bit 14 Gbps = +50%
~350 W TDP vs 275 W TDP = +27%
Taktratenerhöhung bei der 3080Ti? 2080 Ti Fe ist bei ~1730mhz Boost, 3080Ti bei 1900 mhz?
Bei der RTX3080Ti (3090) wäre der Sprung bei den Cudacores aber recht niedrig und dafür der Sprung bei der Speicherbandbreite zu hoch. Nimmt man noch die TDP Erhöhung dazu, passt das in meinen Augen nur, wenn man die Taktraten bei der größten Karte diesmal nicht verringert im vergleich zur kleineren, sondern gleich behält oder sogar in Richtung 2000mhz vergrößert. Das würde auch die hohe TDP erklären. Damit könnte man dann vll 30-40% auf die 2080 Ti drauflegen. Kleinere Sprünge würde ich nicht erwarten, denn sonst würde Nvidia nicht so agressiv mit den Ramtakten und Speicherbandbreiten hoch gehen. Nvidias Karten waren jetzt nicht groß Bandbreitenlimitiert in der letzten Gen, dass die Steigerung da überproportional sein müsste.
Generell wären solche Konfigurationen auf jeden Fall ein Zeichen, dass man sich durch Navi21 bedroht fühlt und deshalb komplett in die vollen geht.
Troyan
2020-06-06, 17:36:43
Die Leistungssteigerung ist doch nicht mehr abhängig der normalen Cuda Cores. Wie bei A100 wird in Zukunft vieles über die TensorCores laufen.
Wenn Igor recht haben sollte, dann reden wir von 40 Mrd+ Transistoren. Wie soll da AMD mit ihren 20 Mrd. oder so mithalten?
mironicus
2020-06-06, 17:45:17
Ein Großteil der Transistorfläche geht wohl wieder dafür drauf, um die Raytracing-Leistung stark zu erhöhen. Da bin ich auch gespannt was AMD für eine Leistung für Raytracing aus ihren viel kleineren Chips rausholt, vor allem auch die gesamte Leistung wenn ihre Chips dieses Mal vielleicht höher takten als NVidias Ampere-GPUs.
Troyan
2020-06-06, 17:56:02
Soviel ist es nicht, wie man bei Turing gegenüber Volta sieht.
Der komplette GA100 Chip hat trotz 2,5x mehr Transistoren auch nur 1,6x mehr Recheneinheiten gegenüber GV100. Vieles geht für den 4x schnelleren TensorCores, den 3,33x größeren L2, den 1,71x größeren L1 pro SM (60x mehr SM im Chip!), die Hardwarekompression von Speichertransfer OnChip sowie die weiteren Features drauf.
AffenJack
2020-06-06, 18:06:09
Die Leistungssteigerung ist doch nicht mehr abhängig der normalen Cuda Cores. Wie bei A100 wird in Zukunft vieles über die TensorCores laufen.
Wenn Igor recht haben sollte, dann reden wir von 40 Mrd+ Transistoren. Wie soll da AMD mit ihren 20 Mrd. oder so mithalten?
Die einzige Möglichkeit damit Igor recht hat, wäre wenn man wegen Samsung 8Lpp große Chips bringen muss, weshalb du A100 nicht in den Vergleich nehmen kannst, da anderer Prozess. Bisher hat Igor praktisch alles bestätigt, was kopite7kimi genannt hat und das wars. Kopite war eine sehr zuverlässige Quelle und nennt 5376 Cuda Cores für GA102.
Völlige Milchmädchenrechnung:
V100 vs Tu102: ~10% größer bei 10~ mehr Cuda Cores.
GA100 vs GA102: 8096 Cuda Cores vs 5376 Cuda Cores = 52% mehr.
Mal weitergerechnet im gleichen Prozess und 826 mm² GA100 landen wir bei 542 mm² für GA102. Vll Richtung ~600mm² um die Taktbarkeit zu erhöhen, das wars aber auch. Was größeres werden wir nur sehen, wenn Nvidia 8Lpp nutzt.
Troyan
2020-06-06, 18:27:46
Samsungs 8nm Prozess ist seit fast 2 Jahren in Produktion. Qualcomms letzter Chips auf Samsungs 10nm Prozess hatte eine Packdichte von ca. 55 millionen Transistors pro mm^2. 8nm soll ca. 10% besser sein.
SD820 auf 14nm hatte 3 Mrd. Transistoren bei ca. 94mm^2, macht also 32 millionen T pro mm^2. GP107 lag bei 25 millionen T pro mm^2. Warum sollten also 50+ millionen pro mmm^2 bei 30 Mrd. Transistoren und mehr nicht möglich sein?
unl34shed
2020-06-06, 22:52:27
Die Leistungssteigerung ist doch nicht mehr abhängig der normalen Cuda Cores. Wie bei A100 wird in Zukunft vieles über die TensorCores laufen.
Aber bis auf ein besseres Upscaling können die Tensor Cores in der Grafik Pipeline bis jetzt auch nichts liefern...
Anderes Thema, was soll den GDDR6X sein?
Das ist 100% die Preisfrage hierbei. Was ist GDDR6X? Ich spekulier jetzt mal ganz wild drauf los:
Was braucht man denn für die neue Generation? Viel, sehr viel Bandbreite und Speichermenge für RT. Und man wird das erreichen, indem man einige Innovationen zusammenwürftelt:
1.) man braucht kompaktere Speichercontroller und kompaktere PHYs, die einen größeren Bereich abdecken um Chipfläche zu sparen und die Leistung zu erhöhen ohne, dass die Verlustleistung der Controller durch die Decke geht. Statt 4 32Bit Bausteinen mit eigenen Controlleranbindungen in seiner bisheriger Bauform anzubinden wäre es sicherlich praktisch die Controller auf ein 128Bit-Format zusammenzudampfen, um Platz zu sparen und mehr Takt rauszuholen und die Verbindungen zu vereinfachen.
Wie es der Zufall will, ist es ja genau das, was Locuza für N21 herausgefunden hat. AMD bindet GDDR6 mit 128Bit Controllern an, es ist also naheliegend, dass beide Hersteller auf den gleichen Speichertyp setzen.
2.) Man braucht aus meiner Sicht definitiv ein neues Package. GDDR6 im klassischen Package wird scheisse heiß (jo, ultralativ :D). Für höhere Taktraten wird mMn ein ganz neues Package benötigt, was Wärme erheblich besser ableiten kann - vielleicht eins mit Metallgehäuse?
3.) Der Speicher muss nah an den Chip heran, am besten direkt dran. Das bedeutet, man muss 2 oder 4 DRAM-Dies in ein Package verfrachten (so ne Art Stacked-GDDR6?) und das ganze Ding mit 128Bit direkt an den Chip verdrahten, da man sonst zuviel Routing auf der Platine in engem Bereich machen muss. Man will ja möglichst wenig Fehler haben. Ich könnt mir also gut vorstellen, dass man je ein Package mit mehreren Speicherchips (also 2 4Gb oder 4 2Gb-Chips) pro Package verbaut. Das würde gleichzeitig die Packages verbilligen, den Materialaufwand senken und die Wärmeableitung vereinfachen.
Schlussfolgerung aus diesen Überlegungen:
a.) Die Speichermengen steigen entsprechend. Für RT ist das auch dringend notwendig, wie man an Minecraft sieht, die VRAM-Menge muss für ernsthaften RT-Einsatz drastisch steigen, es gibt keine Alternative.
b.) Man kann nur noch in 128Bit-Schritten operieren. Vorbei sind die krummen Speicherbestückungen.
Daraus würde folgen:
GA102 300/400: 384Bit (3 Packages an 3 Kanten) mit 20GT/s+ VRAM = 24GB (3090/Titan)
GA102 200: 256Bit (nur 2 Packages) mit 20GT/s+ VRAM = 16GB (3080)
Der Vollständigkeit halber:
N21: 384Bit (3 Packages) = 24GB
N22: 256Bit (2 Packages) = 16GB
N23: 128Bit (1 Package) = 8GB
Das ist reine Spekulation, wie sowas aussehen könnte aus meiner Sicht. Wahrscheinlich kommt es ganz anders, wir werden sehen :D. Aber Spannend ist der Kram allemal.
SKYNET
2020-06-07, 01:02:53
Bei 350W ist mein Interesse an der Gen tatsächlich wieder da.
Mehr Saft = mehr Power :wink:
nach der rechnung, müsste der neue intel 10-kerner ja nen TR3970X in sämtlichen situationen schlagen.... :freak:
Hakim
2020-06-07, 01:11:46
Man stelle sich mal vor jemand würde beim Autokauf auch danach gehen :)
Troyan
2020-06-07, 08:59:24
Aber bis auf ein besseres Upscaling können die Tensor Cores in der Grafik Pipeline bis jetzt auch nichts liefern...
Anderes Thema, was soll den GDDR6X sein?
Turings TCs arbeiten mit FP16 Input. Amperes TCs mit FP64 bzw. FP32 (wird dann auf TF32 runtergebrochen).
pixeljetstream
2020-06-07, 09:20:15
Turings TCs arbeiten mit FP16 Input. Amperes TCs mit FP64 bzw. FP32 (wird dann auf TF32 runtergebrochen).
Und was willst du damit sagen?
robbitop
2020-06-07, 09:31:50
Nope 384Bit 16GT+ GDDR6 geht definitiv nicht auf so einem kleinen PCB, erst Recht nicht, wenn die Karte 300W braucht, wie der Kühler aussieht, dafür brauchst entsprechendes Routing und entsprechen 10 Phase Powerstages mit Klimbim, das scheidet einfach aus. Die verlinkte Karte hat 256Bit und 150W, das ist genau 0 vergleichbar hiermit. Wenn das alles stimmt, haben wir es mit an Sicherheit grenzender Wahrscheinlichkeit mit HBM zu tun in der Leistungsklasse.
Wir erinnern uns, GA102 mit 4k+ Shadern soll die 3080 werden.
Aber ist das nicht die 3080 nonTi auf dem Bild? Entsprechend kann man doch eher von 256 bit ausgehen, oder?
Aber ist das nicht die 3080 nonTi auf dem Bild? Entsprechend kann man doch eher von 256 bit ausgehen, oder?
Das ist veraltet.
mironicus
2020-06-07, 09:43:29
Wieso braucht NVidia eigentlich solche speziellen Platinen mit hoher Signalqualität wenn AMD es nicht braucht? Ist der Mehraufwand immer noch günstiger mitsamt GDDR6 als wenn man stattdessen HBM2 nehmen würde?
Wie teuer sind 16 GB GDDR6 und 16 GB HBM2?
horn 12
2020-06-07, 09:47:16
Sicherlich 30% Billiger als damals bei der Radeon VII
unl34shed
2020-06-07, 09:55:10
Wieso braucht NVidia eigentlich solche speziellen Platinen mit hoher Signalqualität wenn AMD es nicht braucht? Ist der Mehraufwand immer noch günstiger mitsamt GDDR6 als wenn man stattdessen HBM2 nehmen würde?
Wer sagt dann, dass AMD nicht auch die gleichen vias verwendet? Nur weil Nvidia oder irgendwelche Youtuber einen Industrie-Standard als super Innovation verkaufen, ist das immer noch nichts besonderes.
robbitop
2020-06-07, 09:59:14
Offenbar scheint das für >20 GT/s nach heutigem Stand nötig zu sein.
edit:
350W? Das wirkt (für NV Verhältnisse) arg hochgeprügelt out of the box (im historischen Vergleich). Ob die ggf. nötig sein werden gegen den RDNA2 top dog?
AffenJack
2020-06-07, 10:12:21
Wieso braucht NVidia eigentlich solche speziellen Platinen mit hoher Signalqualität wenn AMD es nicht braucht? Ist der Mehraufwand immer noch günstiger mitsamt GDDR6 als wenn man stattdessen HBM2 nehmen würde?
Wie teuer sind 16 GB GDDR6 und 16 GB HBM2?
Das ganze sieht nach einer Speziallösung mit extrem hochgezüchteten/veränderten GDDR6 aus im Moment. AMD dürfte eher auf 16 Gbps Ram gehen mit RDNA2, der von der Jedec spezifiziert ist. Unter Umständen 18 Gbps. Für das letzte bisschen zu den 21 Gbps steigt der Aufwand bei Nvidia dann überproportional.
Kosten kennt hier keiner, aber anscheinend sind die Gesamtkosten inkl. Interposer etc bei HBM2 noch immer zu hoch.
Nope ich denke vielmehr, dass es sich hier um ne Standardlösung eines Speicherherstellers für das RAM-Problem bei Grafikkarten handelt, die alle GPU-Hersteller jetzt einsetzen. Das wird sicherlich bald vorgestellt werden. Ich hab da Samsung im Verdacht, die da ne Art Stacked-GDDR6 anbieten könnten.
Troyan
2020-06-07, 10:16:04
edit:
350W? Das wirkt (für NV Verhältnisse) arg hochgeprügelt out of the box (im historischen Vergleich). Ob die ggf. nötig sein werden gegen den RDNA2 top dog?
Da der Top Dog kaum schneller als die 2080TI wird, nope.
robbitop
2020-06-07, 10:18:45
Da der Top Dog kaum schneller als die 2080TI wird, nope.
Aha und die Erkenntnis kommt woher? Was heißt "kaum" schneller?
Na ja, das sind ja nur ein paar W mehr als der 2080Ti verbraucht. Der eigentliche Fortschritt bei der Generation liegt eben im RT.
robbitop
2020-06-07, 10:21:03
Na ja, das sind ja nur ein paar W mehr als der 2080Ti verbraucht. Der eigentliche Fortschritt bei der Generation liegt eben im RT.
Die 2080ti ist standardmäßig mit 250W TDP spezifiziert.
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-ti/#specs
350W würde einer Anhebung der TDP um 40% bedeuten. Das ist schon nicht unwesentlich.
unl34shed
2020-06-07, 10:26:54
Da der Top Dog kaum schneller als die 2080TI wird, nope.
Was glaubst du denn wie viel schneller die 3080 ti (oder 3090) als die 2080 ti wird?
Bis jetzt fand ich die 400W TDP bei GA100 für 23TFLOPS auch schon etwas interessant und habe sie auf ihre FP64 Tensor Cores geschoben.
Aber sollte das wirklich die FP32 Leistung begrenzen, wäre GA100 nur 10% effizienter als V100. Und das trotz 7nm.
Übertragen auf die 350W, die im Raum stehen, wären dass dann auch nur knapp 40% Mehrleistung. Ja ich weiß, Milchmädchenrechnung.
@Troyan: Bevor du jetzt mit Tensorcores, RT-Cores und andere Buzzwords antwortest, bitte schreib doch auch dazu, für was die gut sein sollen und spiel hier nicht einfach nur Buzzword-Bingo.
Na ja, das sind ja nur ein paar W mehr als der 2080Ti verbraucht. Der eigentliche Fortschritt bei der Generation liegt eben im RT.
Bei 20W Mehr braucht man bei AMD schon ein AKW im Keller und hier sind es 70W mehr als die Titan und (bis zu?) 100W mehr als die 2080 ti. Aber dafür gibts natürlich auch Ausreden, warum Verbrauch jetzt nicht mehr Wichtig ist, genauso wie VRAM unwichtig ist, bei allen Karten außer Fury, etc. :freak:
Troyan
2020-06-07, 10:27:35
Aha und die Erkenntnis kommt woher? Was heißt "kaum" schneller?
Wieso sollte AMD bei einer Verdopplung der Leistung von RDNA2 von 225W nur auf 300W steigen, aber nVidia bei Ampere von 16nm auf 7/8nm mit neuer Architektur auf 350W gehen müssen, wenn nVidia jetzt schon 18,6 Mrd. Transistoren in 275W (FE) schafft?
Die 2080TI ist knapp 50% schneller und benötigt 25% mehr Strom (mit 11GB und 616GB/s) als die 5700XT.
Was glaubst du denn wie viel schneller die 3080 ti (oder 3090) als die 2080 ti wird?
Bis jetzt fand ich die 400W TDP bei GA100 für 23TFLOPS auch schon etwas interessant und habe sie auf ihre FP64 Tensor Cores geschoben.
Aber sollte das wirklich die FP32 Leistung begrenzen, wäre GA100 nur 10% effizienter als V100. Und das trotz 7nm.
Übertragen auf die 350W, die im Raum stehen, wären dass dann auch nur knapp 40% Mehrleistung. Ja ich weiß, Milchmädchenrechnung.
@Troyan: Bevor du jetzt mit Tensorcores, RT-Cores und andere Buzzwords antwortest, bitte schreib doch auch dazu, für was die gut sein sollen und spiel hier nicht einfach nur Buzzword-Bingo.
Lies das Whitepaper von Ampere durch. Da steht drin, warum nVidia die TensorCores für FP64 aufgebohrt hat. Es ist wohl logisch, dass A100 keine 400W benötigt, um 1,25x mehr FP32 Leistung zu erreichen, wenn man FP16/FP64 bis zu 2.5x mehr Leistung ermöglicht. Dazu kommen auch noch die 70% höhrere Bandbreite, die ebenfalls mehr Strom benötigen als bei Volta.
AffenJack
2020-06-07, 10:28:25
Offenbar scheint das für >20 GT/s nach heutigem Stand nötig zu sein.
edit:
350W? Das wirkt (für NV Verhältnisse) arg hochgeprügelt out of the box (im historischen Vergleich). Ob die ggf. nötig sein werden gegen den RDNA2 top dog?
Die 350W könnten auch gerade durch den Speicher bedingt sein. Total hochgeprügelter Speicher dürfte schon ordentlich verbrauchen und man braucht die Bandbreite um sich ordentlich vor RDNA2 zu setzen.
N21 mit max 864 GB/s an Bandbreite vs GA102 max 1008 Gb/s = +17%
Damit sollte ne 3090 dann möglich sein, die von der Leistung auch +15% hat. Bei gleicher Speicherbandbreite ist sowas dagegen schwieriger.
Wenn N21 nur 16Gbps nutzt, kann man sogar wie bei den letzten Tis auf 352 Bit gehen und hat immernoch genug Bandbreitenvorsprung um 15% vorne zu landen.
Das stimmt sicherlich. Der Speicher und entsprechende Controller könnten ordentlich Saft brauchen...
Aber wie gesagt, der ist ja offenbar in 8LPP gefertigt, das ist jetzt auch nicht so der Burner.
AMD ist ne andere Nummer, die haben offenbar noch einiges an Taktpotenzial gehabt, was man an den neuesten APUs mit ihrer Vega-Grafik ja sieht. Das ist einfach nicht vergleichbar.
Bei der 2080Ti hatte ich was von 285W im Kopf, das war alles. Die 350W werden für die neue Titan gelten, ich vermute, dass man die 3090 auf 300W spezifiziert und die 3080 auf 250W.
robbitop
2020-06-07, 10:36:50
Wieso sollte AMD bei einer Verdopplung der Leistung von RDNA2 von 225W nur auf 300W steigen, aber nVidia bei Ampere von 16nm auf 7/8nm mit neuer Architektur auf 350W gehen müssen, wenn nVidia jetzt schon 18,6 Mrd. Transistoren in 275W (FE) schafft?
Die 2080TI ist knapp 50% schneller und benätigt 25% mehr Strom (mit 11GB und 616GB/s) als die 5700XT.
Gibt es schon fixierte TDP von 300W für Big Navi 2x?
Laut AMD steigert RDNA2 ggü RDNA die Energieeffizienz um 50%. Für Navi10 heruntergebrochen @RDNA2 wären das dann 150W. Eine Verdopplung der Rechenleistung kommt dann auf 300W.
Mit 80 CUs und einer verbesserten uArch (und man wird sicherlich keine geringeren Taktraten fahren als RDNA1 - ggf eher im Gegenteil, wenn man auf die Indizien schaut...) wird sicherlich bei rund Faktor 2x von Navi 10 liegen. Die 2080Ti liegt ~50% vor der 5700XT. Es werden sicherlich gut 30% mehr Performance sein.
Die 350W könnten auch gerade durch den Speicher bedingt sein. Total hochgeprügelter Speicher dürfte schon ordentlich verbrauchen und man braucht die Bandbreite um sich ordentlich vor RDNA2 zu setzen.
Das mag ein Faktor sein. Aber die Differenz macht doch noch lange keine 100W aus. Für Mehrverbrauch vom Speicher und IMC.
Daredevil
2020-06-07, 10:40:04
Na ja, das sind ja nur ein paar W mehr als der 2080Ti verbraucht. Der eigentliche Fortschritt bei der Generation liegt eben im RT.
Die 2080ti ist standardmäßig mit 250W TDP spezifiziert.
https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305
https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-ti/#specs
350W würde einer Anhebung der TDP um 40% bedeuten. Das ist schon nicht unwesentlich.
Wenn die Anwendung mit RT stark limitiert ist, ist Takt/TDP so oder so fast Nebensache.
Siehe hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12323331&postcount=1
1470/8000
994pts
1950/8000
1114pts
32% mehr Takt, 12% mehr Performance. Obwohl die Karte bis auf 330w hochgehen könnte, tut sie es nicht.
Selbst die UV Variante könnte bis 180w hochgehen, das macht sie bei Spielen z.B.. Die ist aber fix bei 150w.
Bei BF5 in WQHD@RTX on kam ich selbst kaum ins PowerLimit, die 2080ti gammelte so bei ~200-250w rum, obwohl sie 330w haben könnte.
Also auch da das Limit auf 1000w hochzuheben, hätte in dem Fall zumindest nichts gebracht, da der Bottleneck einfach im RT bestanden hat?!
reaperrr
2020-06-07, 10:43:33
Offenbar scheint das für >20 GT/s nach heutigem Stand nötig zu sein.
edit:
350W? Das wirkt (für NV Verhältnisse) arg hochgeprügelt out of the box (im historischen Vergleich). Ob die ggf. nötig sein werden gegen den RDNA2 top dog?
Gut möglich.
Ich meine ich hab es schon irgendwo geschrieben, aber: Es ist schon auffällig, dass A100 trotz starker Beschneidung UND moderatem Takt satte 400W braucht, deutlich mehr als ein Fast-Vollausbau-Volta. Eventuell hat NV mit Ampere ein ähnliches Problem wie Intel mit ICL, dass die neuen Features und IPC-Verbesserungen unverhältnismäßig die Transistorzahl und den Verbrauch je Takt hochgetrieben haben, so stark, dass der Prozess es nicht rausreißt, während AMD mit RDNA2 den Fokus auf Effizienz und Taktbarkeit gelegt hat und dadurch evtl. jetzt seinen Maxwell-Moment haben könnte.
Troyan
2020-06-07, 10:48:56
Gibt es schon fixierte TDP von 300W für Big Navi 2x?
Laut AMD steigert RDNA2 ggü RDNA die Energieeffizienz um 50%. Für Navi10 heruntergebrochen @RDNA2 wären das dann 150W. Eine Verdopplung der Rechenleistung kommt dann auf 300W.
Mit 80 CUs und einer verbesserten uArch (und man wird sicherlich keine geringeren Taktraten fahren als RDNA1 - ggf eher im Gegenteil, wenn man auf die Indizien schaut...) wird sicherlich bei rund Faktor 2x von Navi 10 liegen. Die 2080Ti liegt ~50% vor der 5700XT. Es werden sicherlich gut 30% mehr Performance sein.
RTX2070 ist 10% effizienter als 5700. Hier wird einfach so getan, dass Ampere eine geringere Effizienzssteigerung aufweisen werde als RDNA2 gegenüber RDNA1.
Weißt du eigentlich, dass Turing weiterhin auf 16nm gefertigt wird?
Gut möglich.
Ich meine ich hab es schon irgendwo geschrieben, aber: Es ist schon auffällig, dass A100 trotz starker Beschneidung UND moderatem Takt satte 400W braucht, deutlich mehr als ein Fast-Vollausbau-Volta. Eventuell hat NV mit Ampere ein ähnliches Problem wie Intel mit ICL, dass die neuen Features und IPC-Verbesserungen unverhältnismäßig die Transistorzahl und den Verbrauch je Takt hochgetrieben haben, so stark, dass der Prozess es nicht rausreißt, während AMD mit RDNA2 den Fokus auf Effizienz und Taktbarkeit gelegt hat und dadurch evtl. jetzt seinen Maxwell-Moment haben könnte.
A100 ist erheblich effizienter als alles, was AMD anbietet. A100 erreicht mit FP16 78TFLOPs, MI60 bei 300W nur 25TFLOPs. Das entspricht selbst mit A100 und 60% mehr Bandbreite 2x bessere effizienz auf dem selben Prozess.
Stromverbrauch ohne Leistungswerte ist keine relevante Metrik.
Gut möglich.
Ich meine ich hab es schon irgendwo geschrieben, aber: Es ist schon auffällig, dass A100 trotz starker Beschneidung UND moderatem Takt satte 400W braucht, deutlich mehr als ein Fast-Vollausbau-Volta. Eventuell hat NV mit Ampere ein ähnliches Problem wie Intel mit ICL, dass die neuen Features und IPC-Verbesserungen unverhältnismäßig die Transistorzahl und den Verbrauch je Takt hochgetrieben haben, so stark, dass der Prozess es nicht rausreißt, während AMD mit RDNA2 den Fokus auf Effizienz und Taktbarkeit gelegt hat und dadurch evtl. jetzt seinen Maxwell-Moment haben könnte.
Das würde bedeuten, diese massive Ausrichtung auf RT würde den Stromverbrauch hochtreiben. Das ist denkbar. Es wird viel zu sehr in alten Kategorien gedacht mMn. Eine Ausrichtung auf RT bedeutet:
- Veränderte SMs, um das möglichst effizient abarbeiten zu können
- eine Verdopplung des Speicherpools, die bisherigen Mengen werden für qualitativ hochwertigen RT-Einsatz nicht mal ansatzweise reichen
- erheblich mehr Bandbreite als bisher genutzt wird für Rasterizing
wir stehen hier grad mal am Anfang der Reise und die 3k-Serie ist die erste Serie, in der man RT auch ernst meinen wird. Ich könnt mir sogar vorstellen, dass die bisherigen Micky-Maus-Implementierungen auf den neuen Karten fast gänzlich ohne Performanceeinbußen laufen könnten.
Um das direkt abzuwürgen: Bezüglich AMD ist nichts bekannt, ich möchte nochmals daran erinnern. Das 50% Perf/W-Ziel gilt sicherlich für Rasterizing, aber auch hier kann, wenn RT zum Einsatz kommt, das Powertarget durchaus um die 400W ausfallen. Der Vergleich ist aber eh Blödsinn, weil hier keine Vergleichsbasis bezüglich der Implementation existiert. Das wird man erst sehen, wenn die Karten launchen. Nur weil AMD offenbar das Taktwunder gefunden hat, hat das genau nichts mit NV oder der neuen Karte zu tun, das ist vollständig unabhängig davon zu betrachten.
basix
2020-06-07, 11:09:13
A100 ist erheblich effizienter als alles, was AMD anbietet. A100 erreicht mit FP16 78TFLOPs, MI60 bei 300W nur 25TFLOPs. Das entspricht selbst mit A100 und 60% mehr Bandbreite 2x bessere effizienz auf dem selben Prozess.
Stromverbrauch ohne Leistungswerte ist keine relevante Metrik.
A100 wurde gerade erst vorgestellt. Vega als Architektur ist von 2017. Und A100 ist 2.5x so gross wie Vega 20. Natürlich sollte A100 effizienter sein. Alles andere wäre ein Armutszeugnis.
Der Gegenspieler wird CDNA im Herbst dieses Jahres sein. Dann können wir nochmals über Effizienz sprechen ;)
Troyan
2020-06-07, 11:23:11
Na, wie erwähnt: Ohne reale Leistungswerte sind Aussagen zur Effizienz einfach unmöglich. Ich kann auch Navi nehmen: 78 TFLOPs und 400W zu 20 TFLOPs mit 225W. Das entspricht 2,25x bessere Effizienz (ignorierend der realen Verbrauchs- und Leistungswerte). Das selbe gilt auch gegenüber der RTX2080 mit 225W.
Dampf
2020-06-07, 11:39:14
Speicherbandbreite ist auch eine nicht zu verachtende RT Leistungslimitation, von daher wäre es gut wenn hier Ampere ordentlich Stoff gibt.
unl34shed
2020-06-07, 14:02:36
Weißt du eigentlich, dass Turing weiterhin auf 16nm gefertigt wird?
Naja eigentlich ist es doch ein 12nm spezial Nvidia Prozess und nicht weitrerhin nur 16nm.
https://www.3dcenter.org/news/was-kann-nvidias-ampere-generation-mit-der-12nm-10nm-oder-7nm-fertigung-von-tsmc-erreichen
reaperrr
2020-06-07, 15:30:56
A100 ist erheblich effizienter als alles, was AMD anbietet. A100 erreicht mit FP16 78TFLOPs, MI60 bei 300W nur 25TFLOPs. Das entspricht selbst mit A100 und 60% mehr Bandbreite 2x bessere effizienz auf dem selben Prozess.
Stromverbrauch ohne Leistungswerte ist keine relevante Metrik.
- MI60 braucht für seine Leistung aber auch nur 324mm² statt 826mm²
- MI60 läuft WEIT überm Sweetspot, es ist allgemein bekannt dass z.B. die VII untertaktet auf ~ V64Ref-Takt auf ~150W Verbrauch absackt, im Taktbereich des A100 käme auch V20 auf ähnliche TFLOPs/W
- es ist immer noch die olle Vega-Architektur, und V20 ist über anderthalb Jahre älter als A100, auch was den Zustand des Prozesses angeht
Wäre nicht überrascht, wenn bereits CDNA1/Arcturus den A100 in puncto rohe TFLOPs/W deutlich schlägt, mit deutlich weniger Fläche.
Real-Performance mag ne andere Geschichte werden, aber in jedem Fall ist A100 längst nicht so überragend wie GV100, weil sowohl Yields als auch Verbrauch/mm² massiv schlechter zu sein scheinen.
AffenJack
2020-06-07, 16:24:51
- MI60 braucht für seine Leistung aber auch nur 324mm² statt 826mm²
- MI60 läuft WEIT überm Sweetspot, es ist allgemein bekannt dass z.B. die VII untertaktet auf ~ V64Ref-Takt auf ~150W Verbrauch absackt, im Taktbereich des A100 käme auch V20 auf ähnliche TFLOPs/W
- es ist immer noch die olle Vega-Architektur, und V20 ist über anderthalb Jahre älter als A100, auch was den Zustand des Prozesses angeht
Wäre nicht überrascht, wenn bereits CDNA1/Arcturus den A100 in puncto rohe TFLOPs/W deutlich schlägt, mit deutlich weniger Fläche.
Real-Performance mag ne andere Geschichte werden, aber in jedem Fall ist A100 längst nicht so überragend wie GV100, weil sowohl Yields als auch Verbrauch/mm² massiv schlechter zu sein scheinen.
Wen interessiert was V64 untertaktet verbraucht? Du weißt genausowenig ob A100 bei FP32/Fp64 nicht nur mit 200-300W läuft?
Mal abgesehen davon bringt es CDNA1 nix, wenn er in Tflops/W schneller ist, wenn niemand mehr herkömmliche FP Units nutzt, sondern alle die Tensor Cores wo A100 deutlich schneller ist. FP32 interessiert im Serverbereich sogut wie niemanden mehr. Entweder FP64 für HPC oder Bfloat16/FP16/Int8 für DL. In Sonderfällen noch FP32 für DL Training, wo Bfloat16 nicht ausreicht, aber auch da dürfte Nv mit TF32 (beschissener Name) was haben, was sogut wie jedem ausreicht.
Troyan
2020-06-07, 17:02:28
Wäre nicht überrascht, wenn bereits CDNA1/Arcturus den A100 in puncto rohe TFLOPs/W deutlich schlägt, mit deutlich weniger Fläche.
Real-Performance mag ne andere Geschichte werden, aber in jedem Fall ist A100 längst nicht so überragend wie GV100, weil sowohl Yields als auch Verbrauch/mm² massiv schlechter zu sein scheinen.
19,5 TFLOPs FP64 Leistung bei 826mm^2 (eigentlich weniger, da A100 um 15% beschnitten ist) gegen 6,6 TFLOPs bei 324mm^2. Das entspricht 2.95x mehr Leistung bei 2,54x größeren kompletten Chip. Auf A100 nomiert, ist "Ampere" ca. 33% flächeneffizienter.
Und A100 ist nicht so überragend? Doppelt soviel Leistung mit DP und 3x beim DL-Training (FP16) gegenüber V100 ist weit mehr als der Konkurrent mit seinen 7nm Produkten produziert hat.
/edit: Und der Flächenvergleich ist einzig auf DP-Leistung gemünzt. Dabei wird die Lichtjahre bessere Architektur von GA100 ignoriert. CDNA hat überhaupt keine Chance, da man den selben Prozess und den selben Naturgesetzen unterliegt.
Digidi
2020-06-07, 21:24:53
19,5 TFLOPs FP64 Leistung bei 826mm^2 (eigentlich weniger, da A100 um 15% beschnitten ist) gegen 6,6 TFLOPs bei 324mm^2. Das entspricht 2.95x mehr Leistung bei 2,54x größeren kompletten Chip. Auf A100 nomiert, ist "Ampere" ca. 33% flächeneffizienter.
Und A100 ist nicht so überragend? Doppelt soviel Leistung mit DP und 3x beim DL-Training (FP16) gegenüber V100 ist weit mehr als der Konkurrent mit seinen 7nm Produkten produziert hat.
/edit: Und der Flächenvergleich ist einzig auf DP-Leistung gemünzt. Dabei wird die Lichtjahre bessere Architektur von GA100 ignoriert. CDNA hat überhaupt keine Chance, da man den selben Prozess und den selben Naturgesetzen unterliegt.
Du bist einfach nur noch peinlich Troyan....
324 mm² ist nicht vergleichbar mit 826mm². Man müsste die reine Recheneinheitsgröße vergleichen. Teile wie das Displayinterface, Videoencoding etc. wachsen nicht im gleiche Maße mit wie die Shader bzw wachsen gar nicht. Kann gut sein das 100mm² nur für Dinge draufgehen die eine feste mm² Größe haben und nichts mit Shadern oder der eigentlichen Geometry engine zu tun haben.
Schaltest du deinen Kopf ein? Wie kann man nur so geil auf eine Marke sein?
mironicus
2020-06-08, 09:53:39
Ich nehme mal Bezug auf das gute Renderbild der geleakten Ampere-Karte auf der Hauptseite. Meint ihr mit nur einem Lüfter pro Seite wird das Teil leise kühlbar sein können? Und vor allem: Was machen die Marken-Hersteller wenn NVidia Vorgaben zur notwendigen Kühlung macht und sie dann ihre bestehenden und bekannten Designs stark ändern müssen? Dann werden zum Start eventuell erst mal nur Referenz-Designs erscheinen können.
basix
2020-06-08, 10:04:49
Die Kühlerkonstruktion sieht interessant aus. Ich sehe gewisse Vorteile hinsichtlich Grösse der Kühleroberfläche. Beim Airflow bin ich unschlüssig, ob die gegengerichtete Ansaugrichtung gut oder schlecht ist. Kommt vermutlich stark auf das Gehäuse an. Was mich am meisten stört ist, dass der Lüfter an der Front gegen unten bläst. Warme Luft steigt, Gehäuse mit Lüfter am Boden arbeiten dagegen, man bläst warme Luft nach unten welche vom anderen Lüfter wieder angesogen wird. Irgendwie alles entgegen der Intuituion. Aber ich bin da kein Fachmann und man wird das Design wohl gründlich evaluiert haben.
Bei den Partnerkarten sehe ich kein Problem. Die kühlen im Normalfall besser als das Referenzdesign (z.B. aufgrund Triple Slot).
dildo4u
2020-06-08, 10:17:21
19,5 TFLOPs FP64 Leistung bei 826mm^2 (eigentlich weniger, da A100 um 15% beschnitten ist) gegen 6,6 TFLOPs bei 324mm^2. Das entspricht 2.95x mehr Leistung bei 2,54x größeren kompletten Chip. Auf A100 nomiert, ist "Ampere" ca. 33% flächeneffizienter.
Und A100 ist nicht so überragend? Doppelt soviel Leistung mit DP und 3x beim DL-Training (FP16) gegenüber V100 ist weit mehr als der Konkurrent mit seinen 7nm Produkten produziert hat.
/edit: Und der Flächenvergleich ist einzig auf DP-Leistung gemünzt. Dabei wird die Lichtjahre bessere Architektur von GA100 ignoriert. CDNA hat überhaupt keine Chance, da man den selben Prozess und den selben Naturgesetzen unterliegt.
Bringt nur nix wenn man sich mit diesen Monster Dies selber rauspreist.
Ich vermute mal die internen AMD Roadmaps haben infos was CDNA wirklich kann.
https://www.anandtech.com/show/15581/el-capitan-supercomputer-detailed-amd-cpus-gpus-2-exaflops
robbitop
2020-06-08, 10:44:26
Wieso sollte AMD bei einer Verdopplung der Leistung von RDNA2 von 225W nur auf 300W steigen, aber nVidia bei Ampere von 16nm auf 7/8nm mit neuer Architektur auf 350W gehen müssen, wenn nVidia jetzt schon 18,6 Mrd. Transistoren in 275W (FE) schafft?
Die 2080TI ist knapp 50% schneller und benötigt 25% mehr Strom (mit 11GB und 616GB/s) als die 5700XT.
Dein Punkt war aber, dass Big Navi die 2080 Ti kaum schlägt. Warum weichst du jetzt auf Ampere aus? Ampere war doch gar nicht der Punkt...
Da der Top Dog kaum schneller als die 2080TI wird, nope.
Und wie man von 225W auf 300W bei einer Leistungsverdopplung kommt: +50% Energieeffizienz. Und die hat AMD bereits schriftlich zugesagt.
Ganz unrealistisch ist es nicht. Denn bereits Turing zeigt, dass AMD offenbar noch signifikantes Potenzial nach oben hat in Bezug auf Energieeffizienz.
Dass GA102 am Ende schneller wird - würde mich nicht wundern - war aber in unserem Dialog nicht der Punkt.
Ggf. muss man sich aber ein wenig strecken, damit der Top Dog schneller bzw deutlich schneller als Big Navi wird um die Marge zu halten.
Turing ist 12 nm btw. Der hat zwar keine höhere Packdichte als 16 nm aber ist in Bezug Performance und Energy eine deutliche Verbesserung.
davidzo
2020-06-08, 11:35:46
Die Kühlerkonstruktion sieht interessant aus. Ich sehe gewisse Vorteile hinsichtlich Grösse der Kühleroberfläche. Beim Airflow bin ich unschlüssig, ob die gegengerichtete Ansaugrichtung gut oder schlecht ist. Kommt vermutlich stark auf das Gehäuse an. Was mich am meisten stört ist, dass der Lüfter an der Front gegen unten bläst. Warme Luft steigt, Gehäuse mit Lüfter am Boden arbeiten dagegen, man bläst warme Luft nach unten welche vom anderen Lüfter wieder angesogen wird. Irgendwie alles entgegen der Intuituion. Aber ich bin da kein Fachmann und man wird das Design wohl gründlich evaluiert haben.
In den meisten modernen Gehäusen wird eine GPU ja mittlerweile umgekehrt oder gar vertikal eingebaut (mit riserkabel). Ich denke deshalb hat sich nvidia dazu entschlossen die alte ATX-Anordnung einfach mal zu ignorieren.
Einen kleinen Vorteil sehe ich darin, dass die Lüfter sich die Ansaugluft nicht aufteilen müssen, was sonst der Fall ist wenn alle Lüfter auf einer Seite sind.
Freiestehende Radiatoren zum Durchblasen sind außerdem immer effzienter als wenn die Luft auf das PCB geblasen wird und irgendwie seitlich ausströmen muss. Analog zum tower vs top blow Kühler erreicht man dort viel mehr Airflow bei gleicher Drehzahl bzw. weniger Geräusch und Luftverwirbelungen.
Trotzdem sieht es weitestgehend nach einem Design-motivierten Kühler aus. Es geht auch um den Show-effekt, wie schon bei früheren Founders Edition Kühllösungen. Deswegen glaube ich auch nicht dass das Fake ist, dafür trägt das schon zu sehr die Handschrift des nvidia Designteams. Ich meine guckt euch mal DGX A100 an, wie dort das Design für showzwecke gestaltet wurde. Und das ist ein Server wo man meinen müsste dass das nicht notwenig ist :eek:
Vermutlich hat der Kühler auf der Vorderseite eine Vaporchamber auf der die V-förmigen Lamellen aufgelötet sind und dann zwei oder vier Heatpipes auf die man die Lamellen des freistehenden Radiators hinten draufsteckt.
Durch den dreieckigen cutout im PCB ist echt wenig Platz vorhanden. Ich würde mich nicht wundern wenn nvidia uns alle getäuscht hat und nun doch mit HBM heraus kommt. Alternativ handelt es sich um 256bit GDDR6. Durch den Cutout ist das nutzbare PCB noch kürzer als die hier gezeigten kompakten 2070 Karten. 384bit geht da beim besten Willen nicht drauf.
Das PCB hat eine sehr rauhe Kante gerade weil es eben nicht gesägt wurde. Stattdessen hat man einfach viele Vias eingebracht und das PCB dann entlang der Kante gebrochen. Das kann man so für Prototypen machen wenn man sich einen Arbeitsschritt bzw. Werkzeugwechsel sparen will (v-grooving / milling).
Es könnte aber auch sein, dass der Rand des PCBs auf dem Foto einfach von etwas schwarzem verdeckt wird (Backplate?) und die Kante so zustande kommt, also eine optische Täuschung ist.
Auf "ducted" Fans, also Lüfter mit Außenring habe ich eigentlich schon länger gewartet, weil das die Luftverwirbelungen an der Spitze reduziert und somit leiser sein dürfte und etwas mehr statischen druck entwickelt als normale Lüfter. Interessant dass Nvidia das asgerechnet bei diesem Design als erstes einsetzt.
robbitop
2020-06-08, 11:41:04
Wobei der vertikale Einbau mit einem Riserkabel realisiert wird. Das wird mit zunehmender Frequenz des PCIes immer schwieriger.
basix
2020-06-08, 12:31:25
In den meisten modernen Gehäusen wird eine GPU ja mittlerweile umgekehrt oder gar vertikal eingebaut (mit riserkabel). Ich denke deshalb hat sich nvidia dazu entschlossen die alte ATX-Anordnung einfach mal zu ignorieren.
ATX ist aber nur mal eben 90+% des Desktop PC Marktes. Good Luck at ignoring it ;) Garantiefälle aufgrund ständig überhitzten Grafikkarten will man sich definitiv nicht einhandeln. Vor allem nicht bei seinem Prestige-Produkt.
Und wie meinst du das mit "umgekehrt eingebaut"?
robbitop
2020-06-08, 12:49:42
Es gibt doch diese Gehäuse bei denen Das Board um 180° umgedreht eingebaut wird, oder?
Für Standard ATX Konfiguration wäre es schon besser IMO wenn der rückseitige Lüfter vorn wäre und die warme Luft nach oben zur Absaugung fließen würde. So wird ein Teil der warmen Abluft durch den vorderen Lüfter eingesaugt. Das reduziert die Temperaturdifferenz zwischen Luft und Kühlkörper. Kühlleistung sinkt.
Thunder99
2020-06-08, 13:08:07
Alle die ich kenne verbauen die Grafikarte nach ATX Norm und nicht gedreht. Das mag für Enthusiasten oder Freaks gelten aber nicht für die allgemeine Masse.
Von Radial auf Axial zu wechseln hat mehrheitlich Vorteile gebracht, obwohl bei schlecht belüfteten Gehäusen Radial nach wie vor besser sein kann.
Das Bild sieht aber interessant aus. Vermute unter dem Mesh Gitter ist der zweite Lüfter. Das Design erinnert mich an Gainward Karte von damals :D
davidzo
2020-06-08, 15:51:25
ATX ist aber nur mal eben 90+% des Desktop PC Marktes. Good Luck at ignoring it ;) Garantiefälle aufgrund ständig überhitzten Grafikkarten will man sich definitiv nicht einhandeln. Vor allem nicht bei seinem Prestige-Produkt.
Und wie meinst du das mit "umgekehrt eingebaut"?
Eben und 90%+ des Desktop Markts sind auch graue/schwarze Schreibtischboxen. Nix Enthusiast Gaming.
Alle die ich kenne verbauen die Grafikarte nach ATX Norm und nicht gedreht. Das mag für Enthusiasten oder Freaks gelten aber nicht für die allgemeine Masse.
und was sind die Käufer eine 3080? - Enthusiasten. Wieviele kennst du denn mit einer 2080 im PC?
Das Bild sieht aber interessant aus. Vermute unter dem Mesh Gitter ist der zweite Lüfter. Das Design erinnert mich an Gainward Karte von damals :D
Da sind keine Mesh Gitter, das sind alles Lamellen.
Gainward hat damals die Lüfter zwischen PCB und Lamellen gepackt und die Lüfter nach außen pusten lassen. Das war ziemlich ineffizient, obwohl die Phantoms damals gut aussahen. Der Grund für die Anordnung war in erster Linie der Biegeradius für die U-förmig gebogenen Heatpipes der es erforderte den Radiator einige Zentimeter vom PCB entfernt zu positionieren.
Zählt doch mal die Lamellen die da waagerecht sind und dann die 45 grad abgeknickten Zentral. Bis auf die äußere Lamelle geht es auf.
Ich vermute deshalb das es die Fortführung der Lamellen ist, welche 45grad abgekantet sind und auf eine Vaporchamber aufgelötet.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70478&stc=1&d=1591624195
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70480&stc=1&d=1591624195
Der hintere Radiator ist durch den durchblasenden Lüfter deutlich effektiver und kann entweder mit Heatpipes angebunden werden oder die Vaporchamber setzt sich dort fort, ist da aber wesentlich schmaler um ein durchblasen des Lüfters zu ermöglichen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70479&stc=1&d=1591624195
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70481&stc=1&d=1591624195
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70482&stc=1&d=1591624195
Klevapalis
2020-06-08, 18:30:42
Zählt doch mal die Lamellen die da waagerecht sind und dann die 45 grad abgeknickten Zentral. Bis auf die äußere Lamelle geht es auf.
Ich vermute deshalb das es die Fortführung der Lamellen ist, welche 45grad abgekantet sind und auf eine Vaporchamber aufgelötet.
Der hintere Radiator ist durch den durchblasenden Lüfter deutlich effektiver und kann entweder mit Heatpipes angebunden werden oder die Vaporchamber setzt sich dort fort, ist da aber wesentlich schmaler um ein durchblasen des Lüfters zu ermöglichen.
Danke, mega spannend und genau so etwas hatte ich mir auch schon gedacht.
So kann man über den hinteren Part die GPU deutlich leiser kühlen und die restlichen Komponenten werden über den zweiten Lüfter gekühlt.
Da diese Komponenten weniger Hitze-empfindlich sind (SpaWas halten ja locker 80°C aus, RAM-Chips ebenfalls) als die GPU, kann man so unter Last den Boost maximieren und im Leerlauf kann theoretisch die GPU nur über den Kamineffekt gekühlt werden.
Da kommt was auf uns zu :)
Mr.Scott
2020-06-08, 18:53:22
Denkt ihr es könnte mit Ampere, Grafikkarten auf GTX 980(Ti) Leistung @ 75Watt geben? Also ohne Stromanschluss?
crux2005
2020-06-08, 19:32:03
Hmm, mal so die Spekus mit ein wenig eigenen Gedanken:
Cores von hier genommen, da kopite oft richtig lag:
https://twitter.com/kopite7kimi/status/1269239881512873984
10 GB VRAM würde irgendwie zu den Bildern passen. Auf der anderen Seite wäre das nicht der große Sprung bei VRAM den HOT und co. prophezeien.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70482&stc=1&d=1591624195
Nichts für ungut aber das sieht nicht sehr effizient aus. Für low-mid Grafikkarten vielleicht aber nicht für High-end. Glaube so etwas hat NV nicht verbaut.
Troyan
2020-06-08, 19:33:17
GTX980 sollte machbar sein. Im Notebookmarkt ist man mit den Max-Q Designs ja schon auf dem Level.
Thunder99
2020-06-08, 19:49:26
@davizo, ist die 2080/3080 Massenmarkt? ;) Die breite Masse kauft in der 300€ Klasse. Dein Beispiel ist für mich eine Randgruppe.
Slipknot79
2020-06-08, 19:59:50
Und was willst du damit sagen?
Kannst du dich nicht hier anonym anmelden und ein paar Infos dropen? :redface:
https://staunen.files.wordpress.com/2012/12/image5.jpg
Wir (ich zumindest) sind schon horny auf die nexte Generation :redface:
nordic_pegasus
2020-06-08, 20:28:59
bedeutet eigentlich der Code über dem PCIe Slot auf dem PCB in dem Foto bei Chiphell irgendwas besonderes? DA217892
Bei Videocardz wird auch ein Render-Modell gezeigt. Ich finde auffällig, dass in dem Render kein USB-C Stecker an der Slotblende dargestellt wurden, sondern nur 4 Ausgängen (3x DP, 1x HDMI). Ist das nur reine Fantasie des Zeichners oder dropped Nvidia den USB-C Anschluss wieder?
Die Stromanschlüsse am Ende der Karte gefallen mir, würde die Kabelverlegung in einigen Gehäusen optimieren.
SKYNET
2020-06-08, 20:58:12
Denkt ihr es könnte mit Ampere, Grafikkarten auf GTX 980(Ti) Leistung @ 75Watt geben? Also ohne Stromanschluss?
980 mit sicherheit, die 1650S hat jetzt ja schon "nur" 100W bei gleichem speed... 980Ti wirst wohl noch nach ampere abwarten müssen.
Mir erschließt sich das Kühlkonstrukt trotzdem nicht wirklich :confused: Soll der hintere Lüfter lediglich die 2 Stromanschlüsse vom Netzteil kühlen :freak:
Und die 2 Kühlkörper in der der Mitte. Passivkühlung für die SpaWas :freak:
Und Troyan - rede nicht über Sachen von denen du keine Ahnung zu haben scheinst!
Gipsel
2020-06-08, 22:20:38
Mir erschließt sich das Kühlkonstrukt trotzdem nicht wirklich :confused: Soll der hintere Lüfter lediglich die 2 Stromanschlüsse vom Netzteil kühlen :freak:
Siehe hier:
Der hintere Radiator ist durch den durchblasenden Lüfter deutlich effektiver und kann entweder mit Heatpipes angebunden werden oder die Vaporchamber setzt sich dort fort, ist da aber wesentlich schmaler um ein durchblasen des Lüfters zu ermöglichen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70479&stc=1&d=1591624195
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70481&stc=1&d=1591624195
Das Fette wäre bei einem durchblasenden Lüfter sicher wahr.
Elite_Warrior
2020-06-08, 22:37:58
Man muss sich fragen, ob nicht die Fury Bauweise sinniger wäre. Vorausgesetzt dass es echte Karten sind.
https://www.pcgameshardware.de/screenshots/original/2015/07/Radeon_R9_Fury_Aufmacher_125335.jpg
Hm - überzeugt mich trotzdem wenig! NV will mit so einem Konstrukt bis zu 350W abführen, was halbwegs effektiv eh nur unter Wasser geht ... Ich kann mir ja viel vorstellen, aber ...
Zudem, wenn da Heatpipes verbaut sind, wo bleibt dann bei ner 2 Slot-Variante Platz für die Stromzufuhr (außer die 3080 gibt sich mit 75W zufrieden)?
Ich glaube nach wie vor an einen Fake, welcher nun breit getreten wird!
crux2005
2020-06-08, 23:13:44
Zudem, wenn da Heatpipes verbaut sind, wo bleibt dann bei ner 2 Slot-Variante Platz für die Stromzufuhr (außer die 3080 gibt sich mit 75W zufrieden)?
Hinten sind 2x 8Pin verbaut. Bei den render Bildern gut zu sehen. https://www.reddit.com/r/nvidia/comments/gy99ta/rtx_3080_renders/
Edit: Wenn ich nachdenke, ergibt das keinen Sinn. Da wo die 8 Pin sein sollten, sollte kein PCB mehr sein. Also keine Ahnung woher der Typ es hat. Wohl ausgedacht. :)
Ex3cut3r
2020-06-08, 23:26:02
Also ich weiß auch nicht, wenn das wirklich das fertige Ampere FE Konstrukt ist, dann ist es IMO optisch aber ein Rückschritt zum Turing Axial FE Design. Ob es aber leiser und besser kühlt mag ich nicht zu beurteilen können.
Bin gespannt was die 3080 drauf hat und wie viel VRAM es diesmal gibt. Mit 8GB bei der 3070/3080 werde ich nichts kaufen, und warte auf AMD oder den Nachfolger und behalte solange meine 2080 notfalls werden Regler bedient.
[MK2]Mythos
2020-06-08, 23:29:39
Hinten sind 2x 8Pin verbaut. Bei den render Bildern gut zu sehen. https://www.reddit.com/r/nvidia/comments/gy99ta/rtx_3080_renders/
Edit: Wenn ich nachdenke, ergibt das keinen Sinn. Da wo die 8 Pin sein sollten, sollte kein PCB mehr sein. Also keine Ahnung woher der Typ es hat. Wohl ausgedacht. :)
Es wäre ja nun keine ingenieurstechnische Unmöglichkeit eine Kabeldurchführung durch die Unterseite des Kühlers bis nach hinten zu führen. Wenn nv die "Modder" ansprechen möchte und die Karten daher seitlich "clean" gestaltet, wäre das die einzige logische Variante und ist für mich kein Indiz für ein fake-render.
Im übrigen sieht man ja auf den Fotos dass die Spannungsversorgung nicht mehr seitlich ist, also bleibt nur noch hinten. Also alles korrekt an dem Renderbild.
MiamiNice
2020-06-08, 23:30:33
Ich finde das sieht gar nicht mehr nach Fake aus. Die Bilder sind sehr klar und das Design kann durchaus von NV stammen. Das Kühlsystem ist neu - sieht aber imo potent aus. Die Schriftzüge und andere Details sind da wo man sie erwarten würde.
Imo sehr schwer vorstellbar das wir hier noch einen Fake sehen. Alleine die ersten Bilder mit der Folie über den Schriftzügen. Das ist schon ziemlich schwer zu fälschen.
Ich würde klar zu "Fakt" tendieren zumindest was die Optik bzw. Design und Kühler betrifft.
w0mbat
2020-06-08, 23:34:10
Sehe ich genauso wie Miami. Klar, es kann trotzdem ein guter fake sein, aber das seht für micht sehr, sehr echt aus.
Dampf
2020-06-08, 23:48:21
Also ich weiß auch nicht, wenn das wirklich das fertige Ampere FE Konstrukt ist, dann ist es IMO optisch aber ein Rückschritt zum Turing Axial FE Design. Ob es aber leiser und besser kühlt mag ich nicht zu beurteilen können.
Bin gespannt was die 3080 drauf hat und wie viel VRAM es diesmal gibt. Mit 8GB bei der 3070/3080 werde ich nichts kaufen, und warte auf AMD oder den Nachfolger und behalte solange meine 2080 notfalls werden Regler bedient.
Die 3080 wird wohl 10 GB haben.
SKYNET
2020-06-09, 00:14:40
Die 3080 wird wohl 10 GB haben.
entweder sie hat 8GB oder 12GB... da wie immer nen 256er interface.
[MK2]Mythos
2020-06-09, 00:18:44
entweder sie hat 8GB oder 12GB... da wie immer nen 256er interface.
Vielleicht ja wieder 8GB +2GB, die "kreativ" angebunden sind. :biggrin:
Dampf
2020-06-09, 00:23:01
entweder sie hat 8GB oder 12GB... da wie immer nen 256er interface.
Das ist die 3070. Die 3080 hat ein 320 bit interface!
MiamiNice
2020-06-09, 00:24:14
Mythos;12331677']Vielleicht ja wieder 8GB +2GB, die "kreativ" angebunden sind. :biggrin:
Das leistet sich NV kein zweites Mal. Dafür war der Aufschrei imo zu groß und AMD kommt zu nah um negative PR zu riskieren.
crux2005
2020-06-09, 00:30:31
Mythos;12331640']Es wäre ja nun keine ingenieurstechnische Unmöglichkeit eine Kabeldurchführung durch die Unterseite des Kühlers bis nach hinten zu führen. Wenn nv die "Modder" ansprechen möchte und die Karten daher seitlich "clean" gestaltet, wäre das die einzige logische Variante und ist für mich kein Indiz für ein fake-render.
Im übrigen sieht man ja auf den Fotos dass die Spannungsversorgung nicht mehr seitlich ist, also bleibt nur noch hinten. Also alles korrekt an dem Renderbild.
Unmöglich definitiv nicht. Nur unnötig kompliziert. Hätte eher die übliche Position für die 2x 8 Pins erwartet. Aber da sind sie laut den Bildern nicht: https://videocardz.com/newz/nvidia-geforce-rtx-3080-pictured
Und jetzt sehe ich, das letzte Bild zeigt die 2 Pins auch hinten an der Karte.
BlacKi
2020-06-09, 00:33:35
irgendwo hab ich es gelesen, das angeblich die karte noch nicht beim FCC eingetragen wurde. das würde für ein testsample sprechen, das noch nicht final ist.
auch wenns für mich wie ne fertige karte für den handel aussieht.
nordic_pegasus
2020-06-09, 06:35:07
Edit: Wenn ich nachdenke, ergibt das keinen Sinn. Da wo die 8 Pin sein sollten, sollte kein PCB mehr sein. Also keine Ahnung woher der Typ es hat. Wohl ausgedacht. :)
bei der Founders Edition der RTX 2070 (nonSuper) und RTX 2060 Super hat Nvidia die Stromanschlüsse mit kurze Verlängerungskabeln ans Ende des Kühlers gepackt. Sowas erwarte ich auch bei Ampere, sofern die Bilder bei chiphell kein Fake sind.
zum Vergleich mal Fotos des PCBs der 2070/60 mit den Stromanschlüssen.
https://www.techpowerup.com/review/nvidia-geforce-rtx-2060-super/4.html
https://www.techpowerup.com/review/nvidia-geforce-rtx-2070-founders-edition/5.html
BoMbY
2020-06-09, 11:39:37
Könnte das sein dass der neue Kühler ein anderes Material wie Graphit ist, und deshalb der neue Aufbau und vielleicht deshalb auch ohne Heatpipes oder Vapour Chamber?
unl34shed
2020-06-09, 11:44:44
Graphit? Die kühler sind aus Alu, vielleicht stahlblech und sehr sehr selten Kupfer, weil zu teuer. Graphit ist dafür komplett ungeeignet, da spröde...
Da drin sitzen mit sehr großer Wahrscheinlichkeit Heatpipes und eine vaporchamber ist auch nicht auszuschließen.
X-Bow
2020-06-09, 11:48:21
Man muss sich fragen, ob nicht die Fury Bauweise sinniger wäre. Vorausgesetzt dass es echte Karten sind.
https://www.pcgameshardware.de/screenshots/original/2015/07/Radeon_R9_Fury_Aufmacher_125335.jpg
Eher nicht. Durch die Biegungen und Radien vergrößert sich die Oberfläche des Kühlers. Auch wird die Kühlfläche kompakter unter einen Lüfter gebracht.
Desweiteren vermute ich das es sich nicht um ein Kühler mit zwei Lüftern handelt sondern um zwei Kühler mit jeweils einem Lüfter, sprich SpaWa und Ram von der GPU Kühlung getrennt wurden. Dadurch macht auch die gegeneinander gedrehten Lüfter Sinn da sich so die führung der HTs effizienter lösen lassen als wenn beider Lüfter auf der gleichen Seite wären.
Sollte es tatsächlich so sein, dann würde auch eine getrennte Lüftungssteuerung denkbar.
BoMbY
2020-06-09, 11:48:27
Ich sagte etwas "wie Graphit", nicht dass es explizit "Graphit" ist. Es gibt da eben auch dieses Gerücht von Igor dass das angeblich 150 USD kosten soll, dass wäre ein wenig überteuert für nur Aluminium mit zwei Lüftern.
Edit: Von Cryorig gab es zum Beispiel scheinbar schonmal einen Graphen-Beschichteten Kühler.
unl34shed
2020-06-09, 12:08:26
Ich sagte etwas "wie Graphit", nicht dass es explizit "Graphit" ist.
Kommas hätten das aus dem Satz machen können...
So wie es geschrieben wurde bestehen kühler aus Graphit und du fragst ob es etwas anderes sein könnte. Satzzeichen retten Leben!
"Könnte das sein dass der neue Kühler ein anderes Material wie Graphit ist"
ungleich
"Könnte das sein dass der neue Kühler ein anderes Material, wie Graphit, ist"
X-Bow
2020-06-09, 12:13:47
Ich sagte etwas "wie Graphit", nicht dass es explizit "Graphit" ist. Es gibt da eben auch dieses Gerücht von Igor dass das angeblich 150 USD kosten soll, dass wäre ein wenig überteuert für nur Aluminium mit zwei Lüftern.
Edit: Von Cryorig gab es zum Beispiel scheinbar schonmal einen Graphen-Beschichteten Kühler.
Weder glaub ich das hier groß andere Materialien verwendet werden noch das der Kühler am Ende 150 USD Produktionskosten haben wird. Aktuell dürfte ein Kühler wie sie bei den meisten GraKa-Partnern zu finden sind um die <20USD pro Stück produziert werden.
Wenn meine Vermutung mit zwei Kühlern stimmt, dann werden sich die Herstellungskosten hierfür verdoppeln + Umformprozess, sprich um die 40-50 USD liegen.
Igor bestätigt das Kühlerdesign:
https://www.youtube.com/watch?v=MPqHBFUvwjs
Kühler ist echt und die PCB ist für 3080 bis Titan gleich, nur die Bestückung natürlich nicht.
Speicherbestückung ist auch bekannt, ich könnte kotzen. 10 und 11GB kommt mir nicht ins Haus. Und 3090 wird sicher wieder sackteuer.
dargo
2020-06-09, 13:00:07
Die 3080 soll schon 320W saufen? Dann wird das aber eine recht laute Generation.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.