Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Linmoum
2020-06-09, 13:02:18
Bei mir wird unter Wasser nichts laut. :P
dargo
2020-06-09, 13:04:25
Weil die Masse Wakü hat? :rolleyes: Ich spreche selbstverständlich von Lukü. Außerdem hieß es doch von Dural immer Nvidia braucht keine Wakü. :wink:
btw.
Kennt jemand den Grund warum Nvidia mal eben +100W höher geht? Das ist schon nicht ohne.
dildo4u
2020-06-09, 13:08:14
Bei 700€+ kann man ordentliche Luftkühler verbauen, MSI 2080 Super ist recht leise.
https://www.igorslab.de/msi-geforce-rtx-2080-super-gaming-x-trio-im-test-schwerer-brocken-auf-leisen-sohlen/8/
Bei 320W für die Founders-Edition bleibt aber kaum noch was für Herstellerdesings übrig, um wirklich schneller zu sein.
Timbaloo
2020-06-09, 13:11:30
Die 3080 soll schon 320W saufen? Dann wird das aber eine recht laute Generation.
Gerade dieser Punkt irritiert mich ungemein.
Irgendwie ist die Gerüchte/Leak-Welt noch nicht ganz rund...
dildo4u
2020-06-09, 13:16:49
Bei 320W für die Founders-Edition bleibt aber kaum noch was für Herstellerdesings übrig, um wirklich schneller zu sein.
Normal ist genau das selbe im CPU Bereich es gibt immer weniger Spielraum, es macht kein Sinn was liegen zu lassen weil so die ersten Reviews kein überzeugenden Sprung zum Vorgänger zeigen.
robbitop
2020-06-09, 13:21:04
Ich tippe auf hohen Takt gepaart mit "nur" 8 nm. Würde mich nicht überraschen, wenn die Dinger mit >2,2 GHz laufen. Man will ja trotz dem RDNA2 Flaggschiff (man rechnet wohl mit 80CUs und >2 GHz) die Leistungskrone behalten (und die möglichst sicher) um die Margen hochhalten zu können.
Linmoum
2020-06-09, 13:21:08
Ich hab das Video noch nicht gesehen, vielleicht spricht Igor ja auch darüber. Aber normal kriegt er Infos ja immer von den Boardpartnern direkt und gerade zum aktuellen Zeitpunkt, wenn September als Launchfenster passt, grobe Specs in Erfahrung zu bringen ist jetzt nicht so überraschend.
Ich würde es aber immer noch komisch finden, wenn NV wirklich deutlich(er) die 300W reißt. Das passt nicht zu denen.
Sunrise
2020-06-09, 13:21:09
Sieht stark danach aus, als rechnet NV damit, dass AMD bei Big Navi zu 100% mit 16GB kommt, denn NV positioniert die 3090 vom Speicher nochmal ein gutes Stück darüber, sodass hier wieder Schweinepreise verlangt werden können. Auch weils sie genau wissen, dass 11/10GB ein schlechter Witz für Enthusiasten sind.
Auch sieht das alles sehr stark nach Samsungs typischen, leakenden 8nm LPP aus. Würde mich stark überraschen, wenn das N7 ist.
robbitop
2020-06-09, 13:24:08
Ich kann mir weiterhin auch gut vorstellen, dass man aufgrund der Kühlerkonstruktion nicht besonders lauter werden wird als Turing. Der add-on Kühlkörper ist ohne Richtungsänderung durchströmbar und relativ gesehen auch dick. Die Lüfter sehen auch eher danach aus als ob sie auf Schall und nicht so hohe Drehzahlen optimiert sind. Schaufelgeometrie eher auf Druck optimiert und die Tips der Schaufeln sind über einen Kreisring verbunden - das sollte Randwirbel gut bekämpfen und die Druckverluste weiter reduzieren.
Ex3cut3r
2020-06-09, 13:26:21
10 GB für die 3080 und 320W kommen mir nicht ins Haus. Was soll das denn? Versuchen Sie jetzt einen auf AMD zu machen? :D Ich glaube ich lasse diese Gen wirklich im Regal liegen. Der bessere TSMC Nachfolger dürfte eh schnell kommen hoffentlich. Dieser Samsung Prozess scheint mal richtig kacke zu sein wenn Nvdia plötzlich 320W braucht.
Troyan
2020-06-09, 13:31:24
Ich tippe auf hohen Takt gepaart mit "nur" 8 nm. Würde mich nicht überraschen, wenn die Dinger mit >2,2 GHz laufen. Man will ja trotz dem RDNA2 Flaggschiff (man rechnet wohl mit 80CUs und >2 GHz) die Leistungskrone behalten (und die möglichst sicher) um die Margen hochhalten zu können.
Aha, 20 Mrd. Transistoren bei über 2Ghz und bei 300W. Klaro.
Aber nVidia muss natürlich zwanghaft vorne bleiben. Sag mal, nVidia kann 40 Mrd. Transistoren produzieren. Wie genau soll AMD da eigentlich mithalten?
Linmoum
2020-06-09, 13:35:35
Sag mal, nVidia kann 40 Mrd. Transistoren produzieren. Wie genau soll AMD da eigentlich mithalten?
Die Frage ist, wie du darauf kommst, dass sie es nicht tun (können)?
Der popelige Renoir hat bereits 9.8 Mrd. Transistoren. Auch, wenn ich jetzt schon weiß, dass du natürlich die 10.3 Mrd von Navi als Grundlage für deine Aussage genommen hast.
Troyan
2020-06-09, 13:39:45
Wie sollen die 40 Mrd. Transistoren produzieren können, wenn die schon bei 20 Mrd. bei 300W+ liegen?
nVidia produziert 18,6 Mrd auf 16nm bei 275W. Jetzt faseln Leute hier, dass die Probleme hätten gegen 20 Mrd. Transistoren konkurrieren zu können, selbst wenn die mit selber Anzahl an Transistoren 30% effizienter sind.
Achja, AMD kann natürlich bei 20 Mrd. Transistoren auch über 2GHz takten.
davidzo
2020-06-09, 13:48:11
Man muss sich fragen, ob nicht die Fury Bauweise sinniger wäre. Vorausgesetzt dass es echte Karten sind.
https://www.pcgameshardware.de/screenshots/original/2015/07/Radeon_R9_Fury_Aufmacher_125335.jpg
Ist praktisch das gleiche. Die FPI(bzw. Oberfläche), heatpipeverteilung und der Luftstrom sind entscheidend für die Kühlleistung, relativ egal ob die Lamelle nun gerade oder gebogen ist. Gebogene/Abgewinkelte sind nur fertigungsintensiver, bzw. eigentlich unmöglich wenn man das nur mit aufgepressten Lamellen machen möchte, wie die meisten Partner das machen.
Bei Nvidias Founder Edition Kühlkörpern waren die Lamellen aber traditionell schon immer verlötet. Das macht den Übergang von Lamelle zur Heatpipe einfacher, man muss keinen Flansch in die Lamelle pressen.
Was aber richtig teuer wird für Nvidia ist der eingepasste Lüfter. Das bedeutet dass jede Lamelle verschieden ist und einsortiert werden muss. Wären alle Lamellen gleich wäre das viel besser automatisierbar.
Hinten sind 2x 8Pin verbaut. Bei den render Bildern gut zu sehen. https://www.reddit.com/r/nvidia/comments/gy99ta/rtx_3080_renders/
Edit: Wenn ich nachdenke, ergibt das keinen Sinn. Da wo die 8 Pin sein sollten, sollte kein PCB mehr sein. Also keine Ahnung woher der Typ es hat. Wohl ausgedacht. :)
Wer sagt denn dass die Renderings offiziell sind?
Da hat jemand mal kurz was modelliert. Sieht man ja wie schnell das geht, habe ja auch den Kühlkörper in 5min gezeichnet.
In den Fotos gibt es einen sehr logischen Platz für den 8Pin Connector, wo sich auch etwas großes befindet was nicht nach einem Cap aussieht. smd caps sind flacher und üblicherweise silbergrau, den letzten THT cap auf einer Grafikkarte habe ich zu nv40 Zeiten gesehen...
Von der Kabelführung wäre das auch sehr elegant an dieser Stelle. Interessanterweise ist es aber nur einmal 8Pin, also bis zu 225Watt. Das mit den 350Watt ist dann wohl ein Ablenkungsmanöver.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70493&stc=1&d=1591703271
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70494&stc=1&d=1591703271
Eher nicht. Durch die Biegungen und Radien vergrößert sich die Oberfläche des Kühlers. Auch wird die Kühlfläche kompakter unter einen Lüfter gebracht.
Nicht so richtig, entscheidend sind die Fins per Inch. Das was die Lamellen Länger sind ist ja hinten bei den letzten Lamellen wieder abgeschnitten. Die Oberfläche ist bei gleichem Lamellenabstand gleich.
Desweiteren vermute ich das es sich nicht um ein Kühler mit zwei Lüftern handelt sondern um zwei Kühler mit jeweils einem Lüfter, sprich SpaWa und Ram von der GPU Kühlung getrennt wurden.
Glaube ich nicht, der vordere Lüfter für die GPU ist zu schwach. Der ist viel weniger effektiv als der hintere Radiator, da er nicht durchblasen kann und seitlich noch dazu gegen die Lamellenknicke ankämpfen muss. 60% der Kühlleistung kommt durch den hinteren, durchblasenden radiator.
Dieser muss zudem per heatpipes oder vapor chamber unter den anderen Kühlkörper angebunden sein, da sich unter ihm gar kein PCB mehr befindet. Es wäre viel aufwändiger wenn man wollte dass die Kühler nicht verbunden sind (auch instabil bei der Montage, doppelt soviele mounting holes etc).
Bei 320W für die Founders-Edition bleibt aber kaum noch was für Herstellerdesings übrig, um wirklich schneller zu sein.
I call it Fake! Igor hat sich aus dem 10/8nm Samsung Gerücht und dem Umstand dass nvidia gern zu TSMC zurück würde und AMD einen "Killer" angekündigt hat was zusammengereimt. Nvidia müsse seine Chips mega übertakten etc. - ich glaube kaum das sie sich schon dazu genötigt sehen ohne dass irgendwelche karten auf dem Tisch sind. Die 2080 hat aktuell auch nur 215Watt, das passt schon wenn die 3080 auch in der ±200Watt Klasse bleibt und man sich die 300Watt für die Ti aufhebt.
Adam D.
2020-06-09, 14:00:29
10 GB für die 3080 und 320W kommen mir nicht ins Haus. Was soll das denn? Versuchen Sie jetzt einen auf AMD zu machen? :D Ich glaube ich lasse diese Gen wirklich im Regal liegen. Der bessere TSMC Nachfolger dürfte eh schnell kommen hoffentlich. Dieser Samsung Prozess scheint mal richtig kacke zu sein wenn Nvdia plötzlich 320W braucht.
Nvidia ist ja in den letzten Jahren nicht dafür bekannt gewesen, ihre Karten am absoluten Limit zu fahren. Irgendeine sehr gewichtige Erwägung muss dahinter gesteckt haben. Vielleicht brauchen sie sehr hohe Taktraten, um ihr Leistungsziel zu erreichen? Oder sie erwarten tatsächlich brauchbare Konkurrenz von AMD? Oder sie erhöhen nochmal die Preise der High-End-Abteilung, hauen dafür aber richtig ordentlich Performance zu Turing drauf?
davidzo
Sry, aber dennoch glaub ich Igor mehr.
dargo
2020-06-09, 14:24:05
Bei 700€+ kann man ordentliche Luftkühler verbauen, MSI 2080 Super ist recht leise.
https://www.igorslab.de/msi-geforce-rtx-2080-super-gaming-x-trio-im-test-schwerer-brocken-auf-leisen-sohlen/8/
Das Ding nuckelt 265W und keine 320W oder gar 350W. Das ist ne ganz andere Hausnummer. Und selbst diese Karte bezeichne ich nicht als leise genug. Mal ganz davon abgesehen, dass nicht jeder so einen Klotz im Rechner haben will.
Nazar
2020-06-09, 14:29:52
I call it Fake! Igor hat sich aus dem 10/8nm Samsung Gerücht und dem Umstand dass nvidia gern zu TSMC zurück würde und AMD einen "Killer" angekündigt hat was zusammengereimt. Nvidia müsse seine Chips mega übertakten etc. - ich glaube kaum das sie sich schon dazu genötigt sehen ohne dass irgendwelche karten auf dem Tisch sind. Die 2080 hat aktuell auch nur 215Watt, das passt schon wenn die 3080 auch in der ±200Watt Klasse bleibt und man sich die 300Watt für die Ti aufhebt.
Die Annahme, dass nV hier alleine mit AMD rechnet, sehe ich als nicht zielführend an. nV ist nicht dumm und sie können in etwa von den bisher bekannten Werten auf eine möliche Leistung, selbst wenn es für AMD richtig schlecht läuft, spekulieren.
Gleichzeitig haben sie ihre eigenen Vorgängerkarten als Referenzpunkt.
Fakt ist, dass das "Shrinken" kein "Heiliger Gral" was Performance Zuwachs ist, dass kann nämlich richtig nach hinten losgehen und man muss richtig Leistung (Watt) verbraten, um Leistung (FPS) zu erhalten.
Sollten die Watt-Zahlen stimmen, tippe ich eher darauf, dass nV mit Ihrem Design und dem neuem Prozess, sich ungwollt eine FPS Bremse eingebaut haben und nun viel höhere Frequenzen als geplant fahren müssen, um ihr eigenes Produkt überhaupt schlagen zu können.
AMD hingegen hat den Vorteil aus der CPU Produktion schon Lehrneffekte ziehen zu können und vermutlich geht davon auch nV aus. Auch das kann dann zu der Annahme führen, dass AMD mit der neuen GPU entweder nicht mehr so weit weg sein wird wie bisher oder sogar besser sein könnte (rein von der Performance).
Es kann natürlich auch ganz anders sein und nV steht deutlich besser da, als bisher geglaubt.... :wink:
dildo4u
2020-06-09, 14:31:51
Das Ding nuckelt 265W und keine 320W oder gar 350W. Das ist ne ganz andere Hausnummer. Und selbst diese Karte bezeichne ich nicht als leise genug. Mal ganz davon abgesehen, dass nicht jeder so einen Klotz im Rechner haben will.
Hattes du nicht Vega LC mit der 120 Wakü? Ich würde mal der vermuten das der MSI Kühler dem Meilen voraus ist.
120 Waküs sind ziemlich Low End wenn man es mit High-End Luftkühler vergleicht.
Ex3cut3r
2020-06-09, 14:34:32
Nvidia ist ja in den letzten Jahren nicht dafür bekannt gewesen, ihre Karten am absoluten Limit zu fahren. Irgendeine sehr gewichtige Erwägung muss dahinter gesteckt haben. Vielleicht brauchen sie sehr hohe Taktraten, um ihr Leistungsziel zu erreichen? Oder sie erwarten tatsächlich brauchbare Konkurrenz von AMD? Oder sie erhöhen nochmal die Preise der High-End-Abteilung, hauen dafür aber richtig ordentlich Performance zu Turing drauf?
Das stimmt, deswegen die Verwunderung meinerseits warum jetzt 320W verbraucht werden sollen. Sry, aber da bin ich raus Nvidia. Ich habe momentan eine Gigabyte RTX 2080 die voll aufgerissen PT 300W verbraten kann. Ich selber betreibe die Karte mit 84% PT und damit mit max 205W. Und 1350-1500RPM bei schnuckeligen Max 66 Grad. Selbst 250W sind mir im Sommer zu viel. Ich ziehe mal wirklich eine AMD Karte in den Sinn. Wenn die auch noch 16GB VRAM haben, wirds schwer IMO. Nur diese Treiber und das CP von AMD sind nicht so meins.
Von Nvidia bin ich enttäuscht sollte es so kommen. 10GB VRAM, 320W out of the box. Samsung Low Quality Prozess....seit Turing haben Sie doch geschlafen. Chance für AMD. Verstehe nicht, wie man als Marktführer nicht bei TSMC produzieren lassen kann. Peinlich IMO.
dargo
2020-06-09, 15:01:15
Hattes du nicht Vega LC mit der 120 Wakü? Ich würde mal der vermuten das der MSI Kühler dem Meilen voraus ist.
Dann muss ich dich enttäuschen, denn du liegst voll daneben damit.
robbitop
2020-06-09, 15:03:16
Aha, 20 Mrd. Transistoren bei über 2Ghz und bei 300W. Klaro.
Aber nVidia muss natürlich zwanghaft vorne bleiben. Sag mal, nVidia kann 40 Mrd. Transistoren produzieren. Wie genau soll AMD da eigentlich mithalten?
naja zwischen 7 nm und 8 nm liegt fast ein Fullnodeshrink (8nm ist ja praktisch nur 10nm+ - dazu ist Samsung idR bei hohen Taktraten auch nicht auf dem Level von Samsung) - sofern GA102 in 8 nm gefertigt ist.
Und der Zusammenhang zwischen Takt und einer Potenzfunktion sollte klar sein. Gerüchte sprechen ja von sehr, sehr hohen Taktraten. (2,2 - 2,5 GHz)
Ggf. ist die Motivation von NV auch woanders, den Takt nach oben zu bringen. Einfach um noch einmal richtig was draufzupacken. Spielt am Ende auch keine Rolle, warum man erstmalig seit Jahren so viel TDP drauflegt.
WedgeAntilles
2020-06-09, 15:06:03
Wenn man all die Gerüchte der letzten Wochen mal zusammenfasst bringt Nvidia also:
- Eine Ampere Generation die kaum schneller als die 2xxx Generation ist
- eine Ampere Generation, die im Bereich 3060, 3070 und 3080 die gleiche Ram-Bestückung wie die 2xxx Generation hat
- +100 Watt mehr verbraucht als Turing
- erst im Laufe von 2021 erscheint
- preislich mindestens auf dem Niveau von Turing ist
Zusammengefasst:
Langsam, teuer, spät, extrem energiehungrig, wenig Ram
Ja, klingt glaubwürdig...
Ich lehne mich jetzt mal ganz weit aus dem Fenster und vermute, dass einige dieser Gerüchte / Leaks wohl nicht ganz stimmen werden.
Edgecrusher86
2020-06-09, 15:06:51
Es könnte doch auch sein, dass die 350W und 320W inkl. max. PT sind. Dann wäre das sehr ähnlich wie bislang. Zum Beispiel 280W 100% PT für die "3090" (+25% PT möglich, analog zur 2080 Ti FE -> 260W auf 325W) und 250W 100% für eine 3080 (320W wären dann +28%). Ansonsten müsste das max. PT beim großen Modell ja locker bei z.B. 385W liegen und bei den SKUs darunter z.B. bei 350W.
Mich würde es nicht überraschen, wenn NV den genannten SKU30 als eine Art aufgewertete RTX 3070 bringt - zum Beispiel mit GA102 @ 3840SP [das PT weiter zu senken, wäre hier natürlich auch noch ein probates Mittel, um die 3080 besser da stehen zu lassen]. Dann wäre der Abstand zu einer RTX 3080 (SKU20) mit geschätzten 4352SP noch gewährleistet und man dürfte einen möglichen RX 5700XT-Nachfolger mit z.B. 3584SP überbieten. 8GB wäre definitiv zu wenig für eine RTX 3070 - eine RTX 3060 könnte man sicherlich damit bringen - z.B. mit GA104 @ 3072SP.
Wenn die Kühlkonstruktion wirklich so teuer ist und z.B. die TITAN als Topdog durch eine 3090 abgelöst würde [24GB + 384-bit SI], dann kann man sicherlich mit bis $1499-1749 für die "3090" rechnen, $999 für die 3080 und z.b. $699 für die 3070. Eine 3060 könnte dann bei $499 liegen.
24GB wäre für eine Highend-Desktop-Karte sicher sehr viel, aber AMD dürfte wohl dasselbe bieten, oder es bleibt nochmal bei 16GB HBM2. 11 und 10GB darunter klingen vernünftig, soll auch das kleinere Modell ähnlich schnell wie eine RTX 2080 Ti werden.
unl34shed
2020-06-09, 15:07:50
Vielleicht wird Navi21 ja auch größer als 80CUs, der Chip ist im Vergleich zu den anderen SKUs IMO zu groß. Das könnte den Verbrauch erklären, denn mit 82SMs müsste Nvidia einen deutlich höheren Takt fahren, um mitzuhalten.
Wenn es dann noch 8nm werden, wäre ein vergleich mit 12nm mal interessant, auch wenn das vermutlich nur über 5 Ecken möglich sein wird. Hat da jemand Infos dazu? (@Leonidas?)
robbitop
2020-06-09, 15:13:27
Das stimmt, deswegen die Verwunderung meinerseits warum jetzt 320W verbraucht werden sollen. Sry, aber da bin ich raus Nvidia. Ich habe momentan eine Gigabyte RTX 2080 die voll aufgerissen PT 300W verbraten kann. Ich selber betreibe die Karte mit 84% PT und damit mit max 205W. Und 1350-1500RPM bei schnuckeligen Max 66 Grad. Selbst 250W sind mir im Sommer zu viel. Ich ziehe mal wirklich eine AMD Karte in den Sinn. Wenn die auch noch 16GB VRAM haben, wirds schwer IMO. Nur diese Treiber und das CP von AMD sind nicht so meins.
Von Nvidia bin ich enttäuscht sollte es so kommen. 10GB VRAM, 320W out of the box. Samsung Low Quality Prozess....seit Turing haben Sie doch geschlafen. Chance für AMD. Verstehe nicht, wie man als Marktführer nicht bei TSMC produzieren lassen kann. Peinlich IMO.
IMO kommt das immer auf die Performance an. Wenn NV dafür sehr hohe Taktraten liefert, um von der Performance nochmal richtig nachzulegen, ist das doch OK. Per Undervolting und leichter Taktreduktion kann man sicher schnell mal 30% Leistungsaufnahme drücken.
Ich tippe auf 84 SMs wenn alles aktiviert ist. Dazu >2,2+ GHz. Da wird schon ordentlich etwas bei rumkommen.
Troyan
2020-06-09, 15:21:35
naja zwischen 7 nm und 8 nm liegt fast ein Fullnodeshrink (8nm ist ja praktisch nur 10nm+ - dazu ist Samsung idR bei hohen Taktraten auch nicht auf dem Level von Samsung) - sofern GA102 in 8 nm gefertigt ist.
Und der Zusammenhang zwischen Takt und einer Potenzfunktion sollte klar sein. Gerüchte sprechen ja von sehr, sehr hohen Taktraten. (2,2 - 2,5 GHz)
Ggf. ist die Motivation von NV auch woanders, den Takt nach oben zu bringen. Einfach um noch einmal richtig was draufzupacken. Spielt am Ende auch keine Rolle, warum man erstmalig seit Jahren so viel TDP drauflegt.
AMD wird bestimmt keine 2,5GHz bei 20 Mrd. Transistoren bei 300W schaffen. Und von nVidia gibt es keine Aussagen und auch keine relevanten Gerüchte. A100 hat 1,400Mhz bei Einheiten-Norminiert ca. 50 Mrd. Transistoren.
Des Weiteren ist TSMC 7nm und Samsung 8nm Prozess zeitnah in Massenproduktion gegangen. Also weiß nVidia, was beide Prozesse leisten. Die Logik also einen deutlich schlechteren Prozess zu nehmen, wenn ein klar besserer zur Verfügung stünde, macht null Sinn.
unl34shed
2020-06-09, 15:22:37
Was um Himmels Willen hast du eigentlich immer mit deinen Transistoren?
Hakim
2020-06-09, 15:24:19
Ich frage mich wie weit beide Seiten über das Endprodukt Bescheid wissen und entsprechend entgegensetzen wollen. Gefühlt weiß ja NV iwie immer besser wie das Konkurrenzprodukt von AMD ausschauen wird, zumindest in der Vergangenheit. Wenn das jetzt ein 300++W Monster wird, könnte Big Navi wirklich überraschen, mal abwarten.
Troyan
2020-06-09, 15:27:06
Was um Himmels Willen hast du eigentlich immer mit deinen Transistoren?
Nichts. Spielen ja bei GPUs keine Rolle. ;D
Mangel76
2020-06-09, 15:27:59
Könnte es sein, dass NV jetzt eine 3090 bringt um Verwirrungen bei der Titan zu vermeiden? Da gab es ja auch die Titan V quasi parallel zu den RTX-Karten und dann die Titan RTX. Jetzt könnte es ähnlich laufen mit dem GA100, der aber keine RTX-Einheiten hat. Die 3090 wird dann sozusagen die RTX-Titan (und damit Bestandteil der GeForce-Reihe) und die echte Titan kommt mit GA100, aber ohne RTX? Fragt sich nur, ob eine 3090 mit 24GB dann auch $3000 kosten wird ;(
AMD wird bestimmt keine 2,5GHz bei 20 Mrd. Transistoren bei 300W schaffen. Und von nVidia gibt es keine Aussagen und auch keine relevanten Gerüchte. A100 hat 1,400Mhz bei Einheiten-Norminiert ca. 50 Mrd. Transistoren.
Des Weiteren ist TSMC 7nm und Samsung 8nm Prozess zeitnah in Massenproduktion gegangen. Also weiß nVidia, was beide Prozesse leisten. Die Logik also einen deutlich schlechteren Prozess zu nehmen, wenn ein klar besserer zur Verfügung stünde, macht null Sinn.
Wen interessiert, was AMD hier schafft? Das hat hier überhaupt nichts verloren...
Ich hoffe, dass NV zur Besinnung kommt, die bessere 3080 einfach streicht und die normale 3080 mit 20GB auf den Markt bringt, das wäre u.U. ein sehr interessantes Produkt.
Na ja, selbst wenn die mit 10GB startet, kann die ja noch mit 20GB refresht werden. Spätestens dann wäre es ein interessantes Produkt.
Mangel76
Sehe ich auch so. Offenbar möchte NV weg von Titan. Auch das Kürzel Ti könnte geopfert werden, ich denke, Super-Varianten könnte es auch dieses Mal wieder geben. Man hat mit den Super-Varianten das TI aus dem Turing Lineup auch weitestgehend entfernt, mit Ausnahme der 2080Ti natürlich. Ich vermute, man möchte die Marke Titan auf 3000$ festnageln und die 3090 aber für 1500$ anbieten. Dann wäre dieses Vorgehen plausibel. Eine GA100-Titan für 3k $ wäre dann zumindest denkbar - oder eine Hopper-Titan.
robbitop
2020-06-09, 15:31:03
AMD wird bestimmt keine 2,5GHz bei 20 Mrd. Transistoren bei 300W schaffen. Und von nVidia gibt es keine Aussagen und auch keine relevanten Gerüchte. A100 hat 1,400Mhz bei Einheiten-Norminiert ca. 50 Mrd. Transistoren.
Des Weiteren ist TSMC 7nm und Samsung 8nm Prozess zeitnah in Massenproduktion gegangen. Also weiß nVidia, was beide Prozesse leisten. Die Logik also einen deutlich schlechteren Prozess zu nehmen, wenn ein klar besserer zur Verfügung stünde, macht null Sinn.
Bis zu 2,5 GHz in NVs Fall - nicht AMD. Aussagen von NV gibt es keine - aber dafür ist es ja auch ein Spekulationsthread. Und der befasst sich mit Spekulation und Gerüchten.
Dass A100 sehr effizient ist bei so vielen Transistoren liegt uA auf am sehr konservativen Takt.
Die Prozessauswahl kann aber auch durch Verfügbarkeitsengpässe eingeengt worden sein. Da gab es ja schon mehrere Gerüchte dazu. Oder aber man war der Meinung, dass die Strategie mit einem etwas älteren aber günstigen Prozesses kommerziell besser funktioniert.
Was um Himmels Willen hast du eigentlich immer mit deinen Transistoren?
Leistungsaufnahme skaliert in etwa linear mit den Transistoren (auf gleichem Prozess). Takt skaliert jedoch mit einer Potenzfunktion. Das darf man nicht außer Acht lassen. A100 hat super viele Transistoren. Taktet aber auch sehr konservativ. Und er ist auf 7 nm. GA102 soll laut Gerüchten (muss man abwarten ob es stimmt) nur auf 8 nm basieren (was 10 nm+ ist - also beinahe 1x Fullnodesprung zurückliegt).
Ist also ein Äpfel-Birne Vergleich.
Dampf
2020-06-09, 15:35:41
8GB wäre definitiv zu wenig für eine RTX 3070 - eine RTX 3060 könnte man sicherlich damit bringen - z.B. mit GA104 @ 3072SP.
"Wären definitiv zu wenig, könnte man nicht bringen"
Woher willst du das wissen? Anhand der VRAM Allocation(!) von altbackenen Titeln (im Vergleich zu Next Gen ), die noch so programmiert sind, dass sie VRAM und RAM vollhauen weil man nicht innerhalb kürzester Zeit auf eine schnelle SSD zugreifen und so nicht für jede Spielerbewegung gewappnet sein kann?
NVidia wird schon wissen, was für eine Speichermenge zukünftig benötigt wird. Die haben engen Kontakt mit Spieleentwicklern.
Der GA104 Chip ist die RTX 3070. Du glaubst doch nicht, dass man plötzlich 60% mehr CUDA-Kerne verbaut? Der GA104 hätte so viele CUDA Cores wie eine 2080 Super und würde diese damit ersetzen, das ist deutlich logischer. Nimmt man die höhere IPC von Ampere, besseres RT und höhere Taktraten, dann wäre die 3070 zwischen einer 2080 Super und einer 2080 Ti anzusiedeln, Tendenz eher zur 2080 Ti. Wäre doch super.
Troyan
2020-06-09, 15:38:20
Bis zu 2,5 GHz in NVs Fall - nicht AMD. Aussagen von NV gibt es keine - aber dafür ist es ja auch ein Spekulationsthread. Und der befasst sich mit Spekulation und Gerüchten.
Dass A100 sehr effizient ist bei so vielen Transistoren liegt uA auf am sehr konservativen Takt.
Die Prozessauswahl kann aber auch durch Verfügbarkeitsengpässe eingeengt worden sein. Da gab es ja schon mehrere Gerüchte dazu. Oder aber man war der Meinung, dass die Strategie mit einem etwas älteren aber günstigen Prozesses kommerziell besser funktioniert.
Es macht keinen Sinn zwei Architekturen zu entwickeln. nVidia geht bei Ampere auf viele Transistoren und hohe Packdichte. Das zeigt GA100 mehr als eindrucksvoll. Das heißt also ziemlich simpel, dass die Gaming-GPUs ebenfalls viele Transistoren und konservative Taktraten haben werden.
Und die Prozessauswahl wird wohl kaum per Münzwürf gemacht. TSMC hat genug Kapazitäten für 7nm und zwei Jahre sind mehr als genug zur Reservierung von Wafern.
Ravenhearth
2020-06-09, 15:40:51
Es macht keinen Sinn zwei Architekturen zu entwickeln. nVidia geht bei Ampere auf viele Transistoren und hohe Packdichte. Das zeigt GA100 mehr als eindrucksvoll. Das heißt also ziemlich simpel, dass die Gaming-GPUs ebenfalls viele Transistoren und konservative Taktraten haben werden.
Und die Prozessauswahl wird wohl kaum per Münzwürf gemacht. TSMC hat genug Kapazitäten für 7nm und zwei Jahre sind mehr als genug zur Reservierung von Wafern.
Du kannst nicht von GA100 auf andere Ampere-Chips schließen. Komplett anderer Einsatzzweck. Oder lässt Nvidia bei den Gaming-Chips auch die RT-Funktionalität weg?
Edgecrusher86
2020-06-09, 15:45:01
Woher willst du das wissen? Anhand der VRAM Allocation(!) von altbackenen Titeln (im Vergleich zu Next Gen ), die noch so programmiert sind, dass sie VRAM und RAM vollhauen weil man nicht innerhalb kürzester Zeit auf eine schnelle SSD zugreifen und so nicht für jede Spielerbewegung gewappnet sein kann?
NVidia wird schon wissen, was für eine Speichermenge zukünftig benötigt wird. Die haben engen Kontakt mit Spieleentwicklern.
Und in alltbackenen Titeln läuft dann mit 4K [besonders mit RTX on] der VRAM über? Die RTX 3070 sollte ja der Logik nach nicht viel langsamer als die RTX 2080 Ti werden.
Es wurden ja 4352SP für die 3080 spekuliert. Bringt man eine 3070 mit nur 3072SP, ist die Kluft dazwischen viel zu groß.
Man hätte natürlich noch die Möglichkeit eine Karte nach dem genannten Beispiel GA102@3840SP o.ä. als z.B. 3070 Ti dazwischen zu platzieren oder vielleicht 3070 SUPER.
Der GA104 Chip ist die RTX 3070. Du glaubst doch nicht, dass man plötzlich 60% mehr CUDA-Kerne verbaut? Der GA104 hätte so viele CUDA Cores wie eine 2080 Super und würde diese damit ersetzen, das ist deutlich logischer. Nimmt man die höhere IPC von Ampere, besseres RT und höhere Taktraten, dann wäre die 3070 zwischen einer 2080 Super und einer 2080 Ti anzusiedeln, Tendenz eher zur 2080 Ti. Wäre doch super.
Ja, die Tendenz wird Richtung 2080 Ti gehen, auch abseits RT. Man braucht halt dennoch genug VRAM für noch aktuelle Titel und auch z.B. 4K. Sollte die nächste 70er dann unter anderem aufgrund des teuren Kühlers 700-850€ UVP kosten, kann man als Kunde erwarten, dass hier der VRAM immer schickt. AMD z.B. scheint allem Anschein nach auch im Lowend/Mainstream mit RDNA2 von 4GB VRAM als Minimum weg zu gehen, wenn es nach diesem neuen Blog-Eintrag geht. 192-bit SI und 6GB wären dort denkbar.
Troyan
2020-06-09, 15:46:23
Letzte Jahre verpasst? Die Grundarchitektur ist identisch. Der Rest ist Marktspereration.
naja zwischen 7 nm und 8 nm liegt fast ein Fullnodeshrink (8nm ist ja praktisch nur 10nm+ - dazu ist Samsung idR bei hohen Taktraten auch nicht auf dem Level von TSMC) - sofern GA102 in 8 nm gefertigt ist.
Musste das nur mal festhalten. Danke
(ich wurde ja fast gesteinigt für die selbe Aussage)
Auch sieht das alles sehr stark nach Samsungs typischen, leakenden 8nm LPP aus. Würde mich stark überraschen, wenn das N7 ist.
Würde mich auch fast;) auf den Samsung 8LPP wetten trauen.
M.f.G. JVC
Beim GA100 werden die neuen, sehr ausufernden Tensorcores den Takt begrenzen. Das Ding hat ja, wenn die Cores voll ausgelastet werden, auch ne sehr hohe Rechenleistung. Das kommt halt irgendwo her.
Das macht GA100 auch unvergleichbar mit den neuen Consumerchips, denn selbst wenn die Tensorcores noch haben, werden diese sicher deutlich anders ausfallen wie bei GA100. Das ist auch ein erheblich anderer Einsatzzweck.
Da Igor sagte, dass das weiterhin ein sehr ausufernd großer Chip ist, würde das bei 5,4k Shadern soch sehr auf 8LPP schließen lassen. Turing schafft 4,6k Shader auf 754mm², einen Node besser muss bei nur verhältnismäßig wenig mehr Shader auch einiges an neue Logik hinzugekommen sein. Ich tippe auf sehr viel stärkeres RT, was u.U. auch starke Anpassungen in den SMs benötigt, was wiederum mehr Verbrauch bedeuten könnte. Um das auch ordentlich hoch takten zu können, braucht man halt 300W und mehr.
Igor sagte sogar, dass auf der Basis noch ne 3070 geplant war aber kurzfristig verschoben wurde übrigens. Das kommt sicherlich auch noch, als Antwort auf das, was AMD so liefert. Die ganze Generation steht und fällt mit dem GA102. GA104 und darunter sind mehr oder weniger Mainstream und kommen eh erst nach der CES.
Ich würde sagen, das Gerücht, dass NV 7nm abseits des Profichips einfach verschlafen hat, stimmen könnte. Man war offenbar so aufs Kostensparen fixiert, dass man jetzt trotzdem nicht die effiziente Lösung hat, da die Kartenpreise bei >300W ebenfalls ausufern dürften und der GA103, der sicherlich 3070 und 3080 hätte abdecken sollen, NV einfach nicht gut genug war. Das deutet auch eher nicht auf extrem hohe Takte hin.
robbitop
2020-06-09, 16:12:12
Es macht keinen Sinn zwei Architekturen zu entwickeln. nVidia geht bei Ampere auf viele Transistoren und hohe Packdichte. Das zeigt GA100 mehr als eindrucksvoll. Das heißt also ziemlich simpel, dass die Gaming-GPUs ebenfalls viele Transistoren und konservative Taktraten haben werden.
Und die Prozessauswahl wird wohl kaum per Münzwürf gemacht. TSMC hat genug Kapazitäten für 7nm und zwei Jahre sind mehr als genug zur Reservierung von Wafern.
Es macht im Gegenteil immer mehr Sinn, Architekturen immer mehr zu spezialisieren. Und genau das macht NV schon seit einer Weile. Dazu gibt es auch mehrere Postings von pixeljetstream, der bei NV in der HW Entwicklung ist.
Beide Anwendungsfälle sind relativ verschieden gelagert, so dass man deutlich besser für sie optimieren kann. AMD macht das ja nun mit CDNA offenbar auch. NV war jedoch erster.
Natürlich haben beide uArchs bei NV sicherlich auch viele Gemeinsamkeiten - aber unterschiedliche Implementationen. Auch ist eine uArch nicht extrem an einen Fertigungsprozess gekoppelt.
Wir werden ja sehen, ob GA102 in 7nm oder 8nm ist. Im Moment ist die Kapazität extrem gefragt. Die Gerüchte besagen, dass NV hier in den Verhandlungen sich vertan hat. Am Ende werden wir sehen, ob sich das bewahrheiten wird.
Flusher
2020-06-09, 16:14:58
Ich würde sagen, das Gerücht, dass NV 7nm abseits des Profichips einfach verschlafen hat, stimmen könnte. Man war offenbar so aufs Kostensparen fixiert, dass man jetzt trotzdem nicht die effiziente Lösung hat, da die Kartenpreise bei >300W ebenfalls ausufern dürften und der GA103, der sicherlich 3070 und 3080 hätte abdecken sollen, NV einfach nicht gut genug war. Das deutet auch eher nicht auf extrem hohe Takte hin.
Wieso sollte ein Unternehmen welches einen Umsatz- und Gewinnrekord nach dem anderen knackt und höchst profitabel ist, Kosten sparen wollen bei den Produkten? Die Margen sind offenbar gut genug.
Die Margen sind aber sehr, sehr groß, guck dir die Gewinne an. Das muss man auch irgendwie halten bei massiv steigenden Fertigungskosten. Samsung wird 8LPP mangels Nachfrage einfach verschleudert haben und NV hat zugegriffen. Leut Gerüchten, sah sich NV auch in einer anderen Position als Kunde von TSMC. Die haben gedacht, die könnten TSMC mit Androhung und/oder Durchführung der Fertigung bei Samsung bessere Preise bei 7nm erzielen, TSMC hat denen aber einen gehustet. Also musste man bei GA100 in den sauren Apfel beißen, die Margen ließen sich aber nur mit 8LPP halten. Das ist durchaus ein plausible Scenario.
Ex3cut3r
2020-06-09, 16:24:05
Die Margen sind aber sehr, sehr groß, guck dir die Gewinne an. Das muss man auch irgendwie halten bei massiv steigenden Fertigungskosten. Samsung wird 8LPP mangels Nachfrage einfach verschleudert haben und NV hat zugegriffen. Leut Gerüchten, sah sich NV auch in einer anderen Position als Kunde von TSMC. Die haben gedacht, die könnten TSMC mit Androhung und/oder Durchführung der Fertigung bei Samsung bessere Preise bei 7nm erzielen, TSMC hat denen aber einen gehustet. Also musste man bei GA100 in den sauren Apfel beißen, die Margen ließen sich aber nur mit 8LPP halten. Das ist durchaus ein plausible Scenario.
Könnte wirklich so gewesen sein. Und wäre IMO der erste Fehler vom Management seit Jahren bei Nvidia. TSMC ist IMO immer vorzuziehen. Wenn AMD jetzt wirklich ein Konkurrenz fähiges Produkt mit mehr VRAM und mit bessere oder gleichwertige Energie Effizienz daherkommt. Könnte ich mir vorstellen seit Ewigkeiten mal wieder eine AMD Karte zu kaufen.
@HOT
Ein sehr plausibles Scenario.
Es könnte auch so gewesen sein, das NV eigentlich mit dem 7nm Samsung Prozess gerechnet hat.
Samsung hatte den 8LPP ja scheinbar nur als notfalls Plan angedacht. (gleicher Gate-Pitch wie 10nm*)
Ich denke nicht, das man da nen Schuldigen suchen muss.
(Samsung mit 7nm ist für mich ähnlich wie Intels 10nm ... hat halt nicht geklappt)
Und zum Pech für NV hüpft TSMC auch noch lieber mit AMD ins Bett.
(Serverprozessoren und so scheinen doch etwas lohnender zu sein als GPUs?)
M.f.G. JVC
Muss aber nicht wahr sein, das ist nur ne Annahme. Aber es sich so einfach zu machen und zu behaupten, dass Igor hier unrecht hat, möchte ich aber hier nicht unkommentiert lassen.
Ex3cut3r
NV könnte trotz 8LPP das bessere Produkt haben. Das zeigt sich bei Release. Ich würde da auch die Erwartungen eindampfen wollen.
Nachdem NV hier so hoch geht mit der TDP kann AMD jetzt natürlich auch an dieser Schraube drehen wollen, auch wenn das nicht vorgesehen war i.Ü. Leaks können auch Nachteile nach sich ziehen :D. Der Kampf scheint jedenfalls verbissen und beide Hersteller werden Intel draußen halten wollen.
Ich sehen die 3080 jedenfalls ca. 20-30% über der 2080Ti, die 3090 eher 40-50% drüber. Die 2080Ti wird dann mMn eingestampft und die 2080 Super erheblich billiger werden.
X-Bow
2020-06-09, 16:32:57
Wieso sollte ein Unternehmen welches einen Umsatz- und Gewinnrekord nach dem anderen knackt und höchst profitabel ist, Kosten sparen wollen bei den Produkten? Die Margen sind offenbar gut genug.
Äh?? Was meinst Du denn "Warum" das Unternehmen immer weiter Umsatz- und Gewinnrekorde macht? Weil es eben an Kostenschauben dreht, sich immer weiter optimiert und die Preise für Kunden immer weiter erhöht (so lange sie das immernoch billigen). :freak:
Aber es sich so einfach zu machen und zu behaupten, dass Igor hier unrecht hat, möchte ich aber hier nicht unkommentiert lassen.
Verständlich. Also gerade wenn Er von Verbrauch redet ;)
Wo er ja scheinbar ziemlich gute kontakte zu "Board Partnern" hat...
(wenn er sich nicht absolut sicher ist, hängen sofort Spekulatius im Eck ^^)
Warten wir ab :smile:
Ich warte wahrscheinlich beide Hersteller ab
und schau was sie im Herbst so zu bieten haben :biggrin:
M.f.G. JVC
Duke754
2020-06-09, 16:55:29
So soll das Kühldesign nun ausschauen:
So soll das Kühldesign nun ausschauen:
Der hintere Lüfter und Kühler ist nur für die Spannungsversorgung ?
Willkommen im Forum Duke754 :smile:
M.f.G. JVC
Sunrise
2020-06-09, 17:15:22
TSMC hat genug Kapazitäten für 7nm und zwei Jahre sind mehr als genug zur Reservierung von Wafern.
Wir wissen nichtmal, ob N7 oder 8LPP.
8LPP wäre untypisch, aber wir haben ja nun schon seit Monaten alle Spekulation auf dem Tisch, die mal für oder gegen solche Entscheidungen sprechen (Preis, Verfügbarkeit, Planungssicherheit). Selbst NV sah sich genötigt, Aussagen zu korrigieren (Samsung/TSMC), warum haben sie das wohl gemacht?
Zusätzlich wurde nun schon mehrfach von AMD selbst in den Calls bestätigt, dass auch AMD nicht das produzieren kann, was sie eigentlich verkaufen könnten (auf N7).
Wenn das alles nur immer so einfach wäre...
Troyan
2020-06-09, 17:19:57
Es macht im Gegenteil immer mehr Sinn, Architekturen immer mehr zu spezialisieren. Und genau das macht NV schon seit einer Weile. Dazu gibt es auch mehrere Postings von pixeljetstream, der bei NV in der HW Entwicklung ist.
Beide Anwendungsfälle sind relativ verschieden gelagert, so dass man deutlich besser für sie optimieren kann. AMD macht das ja nun mit CDNA offenbar auch. NV war jedoch erster.
Natürlich haben beide uArchs bei NV sicherlich auch viele Gemeinsamkeiten - aber unterschiedliche Implementationen. Auch ist eine uArch nicht extrem an einen Fertigungsprozess gekoppelt.
Wir werden ja sehen, ob GA102 in 7nm oder 8nm ist. Im Moment ist die Kapazität extrem gefragt. Die Gerüchte besagen, dass NV hier in den Verhandlungen sich vertan hat. Am Ende werden wir sehen, ob sich das bewahrheiten wird.
Die grundlegende Architektur wird die selbe sein, um Kompartibiltität zu gewährleisten. Es sollte doch längst klar sein, dass Consumer-Ampere keine FP64-Einheiten, keine FP64 TensorCores, kein 40MB L2 Cache etc. erhalten wird. Das Grundgerüst (aufgebohrte Tensorcores mit TF32 und BFloat16), das verbesserte Cache-System etc. wird erhalten bleiben. Dazu RTCores, neue Grafikfeatures und GDDR6-Speicher.
Spezialisierung erfolgt auf "höherer" Ebene. Sowas wie GP100 <> GP10x werden wir wohl nicht mehr sehen.
Flusher
2020-06-09, 17:26:25
Äh?? Was meinst Du denn "Warum" das Unternehmen immer weiter Umsatz- und Gewinnrekorde macht? Weil es eben an Kostenschauben dreht, sich immer weiter optimiert und die Preise für Kunden immer weiter erhöht (so lange sie das immernoch billigen). :freak:
Aber nicht zum Preis eines verspäteten Markteintritts oder geringerer Performance gegenüber der Konkurrenz, denn dann nützt die beste Marge nichts.
Mangel76
2020-06-09, 17:56:11
Aber nicht zum Preis eines verspäteten Markteintritts oder geringerer Performance gegenüber der Konkurrenz, denn dann nützt die beste Marge nichts.
Das ist immer abzuwägen. Entweder den besseren Prozess bei höheren Kosten, dafür höhere Leistung und damit höhere Preise. Oder den etwas schlechteren Prozess bei geringeren Kosten. Dann kann der Preis auch niedriger sein bei trotzdem hoher Marge. Da ist nicht immer der beste Prozess auch der mit der höchsten Marge.
Cubitus
2020-06-09, 17:59:51
So soll das Kühldesign nun ausschauen:
Das dreieckige Design der Platine ist in der Tat außergewöhnlich.
Gut ist das die Karte relativ kurz sein wird, für mein Micro-ATX Tower ist das schon von Vorteil.
Ich frag mich gerade nur wie man ü300 Watt mit diesem Kühl-Konzept leise kühlen will, vermutlich gar nicht!? :freak:
Kenne noch die kleinen ITX Karten von meinen früheren Projekten, die waren zwar passend aber nicht gerade leise..
Edit: Ach ich hab erst jetzt gerade den zweiten Lüfter bemerkt.. hmm bin dennoch skeptisch.
Die jetzige FE TI ist auch nur so medium zu ertragen.
X-Bow
2020-06-09, 18:02:30
Aber nicht zum Preis eines verspäteten Markteintritts oder geringerer Performance gegenüber der Konkurrenz, denn dann nützt die beste Marge nichts.
An der Marge wird unter anderem immer gearbeitet. Immer. Dieser Verbesserungsprozess des eigenen Unternehmens gehört zum A und O des Erfolges eines jeden Unternehmens. Egal ob Automobil, Metzger oder Grafikkartenentwickler.
Edit: Wie Mangel76 sagt, ist die höchste zu erwartende Marge nicht unbedingt auch der bestmögliche Prozess.
Troyan
2020-06-09, 18:08:32
Das ist immer abzuwägen. Entweder den besseren Prozess bei höheren Kosten, dafür höhere Leistung und damit höhere Preise. Oder den etwas schlechteren Prozess bei geringeren Kosten. Dann kann der Preis auch niedriger sein bei trotzdem hoher Marge. Da ist nicht immer der beste Prozess auch der mit der höchsten Marge.
Deswegen produziert die Low-Margin Firma AMD auch ihre Produkte auf dem teuren Prozess, um die dann für weniger Geld verkaufen zu können.
Logik at best.
Die Margen Diskussion ist auch einfach nur absurd, da AMD und nVidia den selben Preis für die selbe Fertigung bezahlen. Ergo steht die Marge in direkte Korrelation zur Leistungsfähigkeit des Chips.
Sunrise
2020-06-09, 18:10:13
An der Marge wird unter anderem immer gearbeitet. Immer. Dieser Verbesserungsprozess des eigenen Unternehmens gehört zum A und O des Erfolges eines jeden Unternehmens. Egal ob Automobil, Metzger oder Grafikkartenentwickler.
Mal davon ab, dass es absolut illusorisch ist, davon auszugehen, dass NV diese hohen Marktanteile (im Gaming-Bereich) halten kann, wenn AMD wieder mit ordentlicher Konkurrenz (Preisgefüge muss neu aufgebaut werden) hinzu kommt.
Da werden die Margen (bei einer AG, wie sie NV ist, deren Gewinn immer gefeiert werden) besonders beachtet. Daher scheint man auch die 3090 ins Leben gerufen zu haben, und baut jetzt ein High-End-Enthusiast-LineUp auf einem riesigen Die auf, damit man sich weiter die Spitze sichern und drunter sehr flexibel auf die Konkurrenz reagieren kann.
Das sieht schon ziemlich gut aus, was NV da macht, aber auch NV weiß (spätestens seit dem neuen Referenzkühler von AMD), dass AMD da keine halben Sachen machen wird, und dieses Mal aufs Ganze geht.
Deswegen produziert die Low-Margin Firma AMD auch ihre Produkte auf dem teuren Prozess, um die dann für weniger Geld verkaufen zu können.
Logik at best.
AMD hat auch geringe Margen, siehe im Verhältnis deutlich niedrigere Gewinne. Also: Ursache -> Wirkung = Logik. AMD wird die Margen langsam steigern, da wird man irgendwann auch nicht mehr alles state-of-the-art machen können.
Die Margen Diskussion ist auch einfach nur absurd, da AMD und nVidia den selben Preis für die selbe Fertigung bezahlen. Ergo steht die Marge in direkte Korrelation zur Leistungsfähigkeit des Chips.
Ist sie nicht. Man braucht halt ein gewisses Verständnis für wirtschaftliche Prozesse.
X-Bow
2020-06-09, 18:23:50
Glaube ich nicht, der vordere Lüfter für die GPU ist zu schwach. Der ist viel weniger effektiv als der hintere Radiator, da er nicht durchblasen kann und seitlich noch dazu gegen die Lamellenknicke ankämpfen muss. 60% der Kühlleistung kommt durch den hinteren, durchblasenden radiator.
Dieser muss zudem per heatpipes oder vapor chamber unter den anderen Kühlkörper angebunden sein, da sich unter ihm gar kein PCB mehr befindet. Es wäre viel aufwändiger wenn man wollte dass die Kühler nicht verbunden sind (auch instabil bei der Montage, doppelt soviele mounting holes etc).
Habe auch nicht gesagt welcher Radiator für welchen Teil der Karte verantwortlich ist.
Des Weiteren ist der Lamellenknick so wie ich das sehe nur 45°, da ist der Gegendruck durch das umlenken der Luft nicht wirklich groß. Eventuell unterstützt dies sogar eher den Effekt das mehr Luft durch die Slotblende gedrückt wird und somit das Gehäuse verlässt.
Interessant ist die Konstruktion auf jeden Fall.
X-Bow
2020-06-09, 18:37:15
Mal davon ab, dass es absolut illusorisch ist, davon auszugehen, dass NV diese hohen Marktanteile (im Gaming-Bereich) halten kann, wenn AMD wieder mit ordentlicher Konkurrenz (Preisgefüge muss neu aufgebaut werden) hinzu kommt.
Da werden die Margen (bei einer AG, wie sie NV ist, deren Gewinn immer gefeiert werden) besonders beachtet. Daher scheint man auch die 3090 ins Leben gerufen zu haben, und baut jetzt ein High-End-Enthusiast-LineUp auf einem riesigen Die auf, damit man sich weiter die Spitze sichern und drunter sehr flexibel auf die Konkurrenz reagieren kann.
Das sieht schon ziemlich gut aus, was NV da macht, aber auch NV weiß (spätestens seit dem neuen Referenzkühler von AMD), dass AMD da keine halben Sachen machen wird, und dieses Mal aufs Ganze geht.
Wer sagt denn das AMD nicht ähnliche Preise aufruft? Die Preise, welche die Gamer bereit sind zu zahlen wurden doch von nV bisher sehr schön ausgelotet, und ein Ende war bisher auch noch nicht in Sicht. Wenn AMD wirklich konkurrenzfähig sein sollte, und ähnliche Preise aufruft wie nVidia, dann werden die, welche bisher sich XX80Ti gekauft haben auch weiterhin das nVidia-Produkt kaufen. Aus meiner Sicht hat AMD mit den RDNA Produkten gezeigt das Sie nicht auf eine Preiskampfschiene wie bei den ersten Ryzen gehen sondern Margenorientiert sich an die Preise von nVidia angepasst haben. Das wird auch bei deren Halo-Produkt so ein.
Preise bestimmt in der Marktwirtschaft in erster Linie immer der Konsument. Konkurrenz belebt das Geschäft, keine Frage, aber es senkt nicht unbedingt den Preis.
Schau mal zum Vergleich in andere Produktzweige wie z.b. die Autoindustrie: Die Preise der Fahrzeuge steigt von Generation zu Generation, und Konkurrenz gibt es in der Branche wahrlich genug.
davidzo
2020-06-09, 18:45:20
davidzo
Sry, aber dennoch glaub ich Igor mehr.
Igor erzählt hier gerade das Märchen dass der Kühler 150$ kostet :freak:
Manchmal hat der einfach zu viel Fantasie.;D
vergrößer mal die Bilder, da ist klar ein 45Grad abgewinkelter 8pin Stromanschluss zwischen den Lamellen erkennbar. Auf zwei verschiedenen Fotos.
Langlay
2020-06-09, 18:48:49
Die Preise der Fahrzeuge steigt von Generation zu Generation, und Konkurrenz gibt es in der Branche wahrlich genug.
Listenpreise. die quasi kein Mensch bezahlt. Weil die meisten Neufahrzeug geleast werden oder Firmenwagen sind.
Davonab Ich kann mir schon vorstellen das die Preise nicht übermässig weiter steigen werden. In den USA ist die Arbeitslosigkeit auf Rekordhoch und auch im Rest der Welt geht es vielen Leuten wirtschaftlich nicht mehr so gut wie vor 1-2-3 Jahren.
Linmoum
2020-06-09, 18:51:44
Igor erzählt hier gerade das Märchen dass der Kühler 150$ kostet :freak:
Manchmal hat der einfach zu viel Fantasie.;D
vergrößer mal die Bilder, da ist klar ein 45Grad abgewinkelter 8pin Stromanschluss zwischen den Lamellen erkennbar. Auf zwei verschiedenen Fotos.
Igor hat erst zuletzt bei der Super-Geschichte gezeigt, dass er durchaus verlässliche Quellen (in der Industrie bzw. bei den AiB) hat.
Es muss nicht jedes kleine Detail stimmen. Aber zu so einem Zeitpunkt, potentiell wenige Monate vom Launch entfernt, wissen auch die Boardpartner logischerweise schon etliches. ;) Und dass es da gerne mal Vögelchen gibt, ist nun keine Sensation. Man muss nur die richtigen Leute kennen.
TheAntitheist
2020-06-09, 18:57:02
Igor hat erst zuletzt bei der Super-Geschichte gezeigt, dass er durchaus verlässliche Quellen (in der Industrie bzw. bei den AiB) hat.
Es muss nicht jedes kleine Detail stimmen. Aber zu so einem Zeitpunkt, potentiell wenige Monate vom Launch entfernt, wissen auch die Boardpartner logischerweise schon etliches. ;) Und dass es da gerne mal Vögelchen gibt, ist nun keine Sensation. Man muss nur die richtigen Leute kennen.
er hat auch viel quatsch erzählt, 150$ kostet der Kühler auf keinen Fall, ausser der wird per Hand geschnitzt. Desweiteren soll das Design ja für die FEs sein, also müsste er schon einen guten Draht zu Nvidia haben.
davidzo
2020-06-09, 19:03:38
So soll das Kühldesign nun ausschauen:
Das ist doch auch nur geraten. Da hat jemand ein rendering gemacht und jetzt mal ne explosionszeichnung.
Das einzige was bisher echt war sind die Fotos. Der Rest ist basierend dadrauf generiert bzw. ausgedacht.
Die Explosionszeichnung hat imo einige Fehler:
1. Die vaporchamber oder heatpipes fehlen gänzlich, nichtmal eine kupgerbaseplate ist eingezeichnet.
2. Wieso sollte der Haupt-Heatsink unterm Lüfter nicht mit den abgewinkelten Heatsinkteilen zusammen hängen? Wieso sind die Lamellen da durch den polierten Frame unterbrochen und nicht auch abgekantet und aus einem Stück, was viel besser für den Airflow wäre? Abgekantete Lamellen zu machen scheint nicht das problem zu sein, so wie man im zweiten Kühlkörper sieht. Zufällig stimmen die Positionen und Anzahlen der Lamellen der gewinkelten Teile ja genau mit den geraden Lamellen überein.
3. Wie ist das Power Delivery PCB mit dem restlichen PCB verbunden, Stiftleisten durch 2 PCBs? Das ist nicht solide. Und sag nicht die Fanshroud, das hieße die Karte fällt ohne Fanshroud auseinander, sowas konstruiert und prototyped keiner. BTW, die Foto leaks zeigen klar das der Chrom-rahmen nicht zusammenhängend ist, sondern nur kosmetisch. Auf der Rückseite fehlt in den Fotos sogar ein Stück von der verchromten Kante, dort ist sichtbar wie das PCB endet und am Kühlkörper der Vorderseite festgeschraubt ist, der an dieser Stelle offensichtlich irgendeine Aluminium grundplatte hat. In diesem Renderung wird der Chrom-rand solide gezeigt wird, da skann also schonmal nicht stimmen.
4. Der durchblasende Lüfter wird viel mehr Durchsatz haben als der an der slotblende. Daher wird er bei der vermuteten Wattklasse sicher auch einen großen Anteil an der GPUkühlung haben.
Mangel76
2020-06-09, 19:26:15
Deswegen produziert die Low-Margin Firma AMD auch ihre Produkte auf dem teuren Prozess, um die dann für weniger Geld verkaufen zu können.
Logik at best.
Ja, Logik ist nicht jedermanns Sache. Wie gesagt muss jeder abwägen. Offensichtlich war AMD zu anderen Antworten gekommen als NVIDIA. Wer eine unterlegen Architektur hat, nutzt gerne jeden potentiellen Vorteil um überhaupt etwas zu verkaufen. Das geht natürlich auf Kosten der Marge, wie die Zahlen der vergangenen Jahre eindrücklich zeigen. NV steht da als verwöhnter Branchenprimus unter ganz anderem Druck von Seiten der Shareholder. Einerseits bietet der günstigere Prozess die Möglichkeit auf höhere Margen, die erwartet werden. Andererseits beinhaltet dieses Vorgehen auch ein Risiko, dass der Wettbewerber die Chance nutzt und näher heranrückt. Diese Entscheidung ist nicht so trivial, wie du es hier darstellt, da gibt es viele Faktoren zu berücksichtigen.
davidzo
2020-06-09, 19:35:39
Bei chiphell, also woher der Leak stammt ist man mittlerweile auch darauf gestoßen wo der 8P Stromstecker ist.
Entweder ist links unter dem Papierschild noch einer versteckt, oder das können maximal 225W sein, also nix 320Watt. Und weniger headroom als die 6+8p der 2080.
@ HOT - Fotoleaks glaube ich einfach mehr als Igor. Igor hat zwar manchmal echt gute Quellen, aber er hat auch schon genau so viel Unsinn erzählt...
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70499&stc=1&d=1591724128
Troyan
2020-06-09, 19:39:22
Also AMD produziert teuer, um dann billig zu verkaufen, anstelle billig zu produzieren und noch billiger zu verkaufen. Was ist nochmal der passende Smiley dafür? :ucatch:
Margen sind ein Produkt der Konkurrenzfähigkeit. AMD benötigt einen teuren Prozess, weil die GPU-Architektur miserabel ist. nVidia dagegen konnte mit 16nm dominieren.
Welchen Prozess nVidia nimmt, ist keine primäre Geldfrage, sondern eine Frage der Zielgröße.
[MK2]Mythos
2020-06-09, 19:39:44
Da sitzt zu 99% kein 8-Pin Stromanschluss.
MiamiNice
2020-06-09, 19:41:21
Entweder ist links unter dem Papierschild noch einer versteckt, oder das können maximal 225W sein, also nix 320Watt. Und weniger headroom als die 6+8p der 2080.
Das ist nur die kleine 3080. Die 350 Watt wurden für die 3090 spekuliert bzw. angesagt.
Vielleicht lässt NV nur noch dick OC auf der 3090 zu. Zutrauen würde ich denen das.
Mit max. 225W wäre die 3080 recht fest getackert und wohl keinen Kauf wert.
Ex3cut3r
2020-06-09, 19:44:45
Warum? 225W reichen mir vollkommen. 200W wären noch besser. Ich mag diese dicke Abwärme ab 250W nicht im Zimmer haben für 3-5 FPS mehr.
MiamiNice
2020-06-09, 19:48:11
Ist ja OK. Ich würde das Gerät wenn dann aber bis an die Kotzgrenze übertakten wollen und direkt einen Wasserblock installieren. 225 W + 20% PT Regler sind, für mich, witzlos.
Da kann ich ja direkt den Werkskühler drauf lassen ... nenene ^^
Sowas kommt mir nicht in die Kiste.
Grendizer
2020-06-09, 19:49:23
Ist ja OK. Ich würde das Gerät wenn dann aber bis an die Kotzgrenze übertakten wollen und direkt einen Wasserblock installieren. 225 W + 20% PT Regler sind, für mich, witzlos.
Da kann ich ja direkt den Werkskühler drauf lassen ... nenene ^^
Wobei die Wasserblöcke wohl länger als gewohnt auf sich warten lassen werden. Damit müssen die Hersteller dann auch erstmal umgehen können.
MiamiNice
2020-06-09, 19:53:53
Btw @ Ex3cut3r:
Im Winter mache ich im Wohnzimmer keine Heizung an und im Sommer muss ich alles an Fenster + Balkon aufreißen weil man es sonst nicht lang am PC aushält ;D
Bei so einem Wetter wie heute ist perfekt. Kalt draussen und ich sitze im Luftstrom meiner Radis. Goil.
Mangel76
2020-06-09, 19:57:16
Also AMD produziert teuer, um dann billig zu verkaufen, anstelle billig zu produzieren und noch billiger zu verkaufen. Was ist nochmal der passende Smiley dafür? :ucatch:
Margen sind ein Produkt der Konkurrenzfähigkeit. AMD benötigt einen teuren Prozess, weil die GPU-Architektur miserabel ist. nVidia dagegen konnte mit 16nm dominieren.
Welchen Prozess nVidia nimmt, ist keine primäre Geldfrage, sondern eine Frage der Zielgröße.
Warum erklärst du im zweiten Absatz, was du im ersten Absatz als absurd abtust? Was ist der richtige Smiley für so ein Verhalten?
Und der dritte Absatz ist völlig korrekt. Jetzt muss man nur noch sehen, was die Zielgröße ist bzw. was die Zielgrößen sind. Es gibt in der Realität deutlich mehr als nur Leistung, koste es, was es wolle.
robbitop
2020-06-09, 19:58:19
Die grundlegende Architektur wird die selbe sein, um Kompartibiltität zu gewährleisten. Es sollte doch längst klar sein, dass Consumer-Ampere keine FP64-Einheiten, keine FP64 TensorCores, kein 40MB L2 Cache etc. erhalten wird. Das Grundgerüst (aufgebohrte Tensorcores mit TF32 und BFloat16), das verbesserte Cache-System etc. wird erhalten bleiben. Dazu RTCores, neue Grafikfeatures und GDDR6-Speicher.
Spezialisierung erfolgt auf "höherer" Ebene. Sowas wie GP100 <> GP10x werden wir wohl nicht mehr sehen.
Dies und das statt jenes und welchem. Das sind sicherlich schon tiefgreifende Eingriffe mit jeder Menge Abhängigkeiten und Restriktionen. Wie tief die Eingriffe in der Praxis sind, ist anhand von Blockschaltbildern schnell zu unterschätzen. IMO: Sie sind dennoch verschieden genug. Das Argument mit den Fertigungsprozess in Abhängigkeiten von der uArch passt nicht. Bei GPUs auch unabhängig davon.
crux2005
2020-06-09, 20:04:37
bei der Founders Edition der RTX 2070 (nonSuper) und RTX 2060 Super hat Nvidia die Stromanschlüsse mit kurze Verlängerungskabeln ans Ende des Kühlers gepackt. Sowas erwarte ich auch bei Ampere, sofern die Bilder bei chiphell kein Fake sind.
zum Vergleich mal Fotos des PCBs der 2070/60 mit den Stromanschlüssen.
https://www.techpowerup.com/review/nvidia-geforce-rtx-2060-super/4.html
https://www.techpowerup.com/review/nvidia-geforce-rtx-2070-founders-edition/5.html
Danke. Davon wusste ich nichts.
So soll das Kühldesign nun ausschauen:
Grob kann das stimmen. Beim fertigen Produkt wird es im Detail aber sicher anders aussehen.
1.) der Lüfter auf der Oberseite (Area 1) wäre so relativ ineffektiv. 2.) das grüne "power delivery" PCB würde den Luftstrom von Lüfter 2 auf der Rückseite blockieren.
1.) brächte mehr tiefe und Durchfluss für den Luftstrom. 2.) Ließe sich mit Kabel besser lösen.
Bei chiphell, also woher der Leak stammt ist man mittlerweile auch darauf gestoßen wo der 8P Stromstecker ist.
Entweder ist links unter dem Papierschild noch einer versteckt, oder das können maximal 225W sein, also nix 320Watt. Und weniger headroom als die 6+8p der 2080.
An der oberen Kannte wäre der 8Pin ja logisch. Aber an der unteren (vom Zettel verdeckt ist) nicht. Wie soll das auch funktionieren?
Steckst die Karte in den Slot und du hast (fast) keinen Zugang mehr.
Btw @ Ex3cut3r:
Im Winter mache ich im Wohnzimmer keine Heizung an und im Sommer muss ich alles an Fenster + Balkon aufreißen weil man es sonst nicht lang am PC aushält ;D
Bei so einem Wetter wie heute ist perfekt. Kalt draussen und ich sitze im Luftstrom meiner Radis. Goil.
Erklärt einiges.
Also AMD produziert teuer, um dann billig zu verkaufen, anstelle billig zu produzieren und noch billiger zu verkaufen. Was ist nochmal der passende Smiley dafür? :ucatch:
Margen sind ein Produkt der Konkurrenzfähigkeit. AMD benötigt einen teuren Prozess, weil die GPU-Architektur miserabel ist. nVidia dagegen konnte mit 16nm dominieren.
Welchen Prozess nVidia nimmt, ist keine primäre Geldfrage, sondern eine Frage der Zielgröße.
OMG - du plapperst so einen Haufen Müll, dass es wirklich schon weh tut. Du hast von BWL so gar keine Ahnung - stimmts? Aber man könnte es auch über Logik erklären, welche dir zwecks anscheinend begrenzter Mittel komplett abgeht. Von daher - erzähl über NV und lass alle Anderen raus, bevor du dich komplett lächerlich machst.
Slipknot79
2020-06-09, 22:12:29
Also bei 350W kann NV schon mal über Rekuperation nachdenken. :redface: Zumindest die Lüfter sollten wegen der Thermik schon mal von sich aus drehen. :redface:
Vielleicht ballert NV auch nur 56 Sekunden bei 350W rum, sonst 180W, reicht für Firestrike :redface:
Amüsanter, aber phasenweise auch informativer Thread! :biggrin:
Zumindest die Lüfter sollten wegen der Thermik schon mal von sich aus drehen. :redface:
:ulol:
Vielleicht ballert NV auch nur 56 Sekunden bei 350W rum, sonst 180W, reicht für Firestrike :redface:
Haha, interessanter Gedanke. Ein "PL2" alias "Hurry up, gib Feuer!". Man kann von Intel viel lernen.
___
Mal etwas ernsthafter: Ich hoffe sehr, dass das Nebelkerzen sind. Käme der Gamer Ampere wirklich so zur Welt wie skizziert, wäre das sehr unterwältigend. Der Kühler nicht, das sieht spannend und gewagt aus, aber die Speichermengen und TDPs ... urks. Kommt es tatsächlich so, hätten wir erstmals nach vielen Jahren mal wieder nur kurz amtierende Produkte. Dann wäre Ampere sowas wie Comet Lake, ein Lückenfüller. Das muss dann aber auch billig sein, wenn absehbar ist, dass nach 6+ Monaten bereits ein Refresh mit besserer (TSMC-)Fertigung kommt.
Andererseits ist das schon irgendwie cool und bemerkenswert: Wann musste Nvidia das letzte Mal die Stromkeule schwingen, um sich von AMD abzusetzen? Thermi! Gegen Cypress. Das ist gute zehn Jahre her. Das wird nun auch in IT-Maßstäben ein interessantes Jahr, wie's scheint. Schaumer mal, dann sehmer scho, wa.
MfG
Raff
basix
2020-06-09, 22:48:41
Zumindest die Lüfter sollten wegen der Thermik schon mal von sich aus drehen. :redface:
Da habe ich mich kurz an etwas erinnert ;D
SKYNET
2020-06-09, 22:58:31
Amüsanter, aber phasenweise auch informativer Thread! :biggrin:
:ulol:
Haha, interessanter Gedanke. Ein "PL2" alias "Hurry up, gib Feuer!". Man kann von Intel viel lernen.
___
Mal etwas ernsthafter: Ich hoffe sehr, dass das Nebelkerzen sind. Käme der Gamer Ampere wirklich so zur Welt wie skizziert, wäre das sehr unterwältigend. Der Kühler nicht, das sieht spannend und gewagt aus, aber die Speichermengen und TDPs ... urks. Kommt es tatsächlich so, hätten wir erstmals nach vielen Jahren mal wieder nur kurz amtierende Produkte. Dann wäre Ampere sowas wie Comet Lake, ein Lückenfüller. Das muss dann aber auch billig sein, wenn absehbar ist, dass nach 6+ Monaten bereits ein Refresh mit besserer (TSMC-)Fertigung kommt.
Andererseits ist das schon irgendwie cool und bemerkenswert: Wann musste Nvidia das letzte Mal die Stromkeule schwingen, um sich von AMD abzusetzen? Thermi! Gegen Cypress. Das ist gute zehn Jahre her. Das wird nun auch in IT-Maßstäben ein interessantes Jahr, wie's scheint. Schaumer mal, dann sehmer scho, wa.
MfG
Raff
evtl. haben wir jetzt dann sowas wie vega vs. pascal, nur umgedreht.... ;D
Linmoum
2020-06-09, 22:59:29
Mal etwas ernsthafter: Ich hoffe sehr, dass das Nebelkerzen sind. Käme der Gamer Ampere wirklich so zur Welt wie skizziert, wäre das sehr unterwältigend. Der Kühler nicht, das sieht spannend und gewagt aus, aber die Speichermengen und TDPs ... urks. Kommt es tatsächlich so, hätten wir erstmals nach vielen Jahren mal wieder nur kurz amtierende Produkte. Dann wäre Ampere sowas wie Comet Lake, ein Lückenfüller. Das muss dann aber auch billig sein, wenn absehbar ist, dass nach 6+ Monaten bereits ein Refresh mit besserer (TSMC-)Fertigung kommt.
Andererseits ist das schon irgendwie cool und bemerkenswert: Wann musste Nvidia das letzte Mal die Stromkeule schwingen, um sich von AMD abzusetzen? Thermi! Gegen Cypress. Das ist gute zehn Jahre her. Das wird nun auch in IT-Maßstäben ein interessantes Jahr, wie's scheint. Schaumer mal, dann sehmer scho, wa.
Gehörst du nicht zu der "Verbrauch egal hauptsache lässt sich gut/leise kühlen"-Fraktion? :D Das würde sicher nicht jeder AiB hinbekommen, aber unmöglich ist es auch nicht. Und wenn einem der Verbrauch (und damit Lautstärke) zu hoch ist, dann senkt man halt das PT unter Luft. Out of the Box für die ganzen unwissenden Bernds natürlich weniger cool, aber für Nerds gibt's schlimmeres, sofern es so kommen sollte. Was ich beim Verbrauch immer noch nicht glaube(n kann und will).
Dass, wenn NV gleich drei SKUs bringt, der Einstieg mit 10 GiB erfolgt und eine Titan 24 GiB bietet, halte ich eigentlich für nachvollziehbar. Wären ja immerhin 2 GiB mehr als bei der 2080, nech. :P
10 GiB für die Oberklasse, welche bisher mit 8 GiB herumgegurkt ist: prima. Nicht geil, aber gut.
11 GiB im Jahr 2020, wo schon das Enthusiastmodell von 2015 mit 12 GiB antrat: am Arsch.
12 GiB würde ich gerade so durchgehen lassen. Aber nur gerade so. Denn Grafikkarten werden nicht für den Bestcase gebaut, bei dem alle Möglichkeiten der effizienten Nutzung bedacht werden, sondern für "das echte Leben" - also viele Grützspiele. Deren Probleme konnte man früher bequem mit dicker Hardware erschlagen. Geht nicht mehr, wenn das erschwingliche Produkt ein Speicherkrüppel ist.
MfG
Raff
[MK2]Mythos
2020-06-09, 23:06:17
Kann mir eigentlich kaum vorstellen dass NV nach all den Jahren der Führerschaft und des fetten Abkassierens mit gigantischer Marge und noch größerem Entwicklungsbudget so eine Gurke anbietet, aber who knows. Das Jahr 2020 läuft ja bisher eh sehr ungewöhnlich ab...:freak:
Linmoum
2020-06-09, 23:10:35
Wobei die Speicherausstattung zumindest gute, alte NV-Tradition wäre. ;)
Allerdings wäre das gerade im Hinblick auf Raytracing grotesk. Einerseits den Vorreiter geben und pushen, andererseits am Speicher sparen, obwohl klar ist, dass der Bedarf dadurch deutlich anzieht.
Da sie die RT-Performance mit Sicherheit deutlich hochschrauben werde, erwarte ich beim kleinsten Modell mindestens 12 GiB. Dasselbe gilt für AMD. Alles andere ist, gerade in dieser (potentiellen) Preisklasse, unter obiger Berücksichtigung von Raytracing schlicht nicht zeitgemäß.
Langlay
2020-06-09, 23:13:39
Mythos;12332626']Kann mir eigentlich kaum vorstellen dass NV nach all den Jahren der Führerschaft und des fetten Abkassierens mit gigantischer Marge und noch größerem Entwicklungsbudget so eine Gurke anbietet, aber who knows. Das Jahr 2020 läuft ja bisher eh sehr ungewöhnlich ab...:freak:
Muss ja kein Murks sein. Kann ja nur sein das etwas nicht so lief wie geplant und/oder vielleicht ist AMD auch deutlich stärker als erwartet und man musste halt nachschärfen, also höherer Betriebspunkt weiter weg vom Sweetspot als gewohnt. Quasi das was AMD seit gefühlten Ewigkeiten macht.
RT Performance würde ich von mindesten doppelten Leistung ausgehen, dreifache Leistung würde ich allerdings auch für möglich halten.
Nuvirus
2020-06-09, 23:23:26
Falls die wirklich mit so hoher TDP kommen, könnte das vll auch zusätzlich mit Raytracing zu tun haben - wenn das massiv ausgebaut wird in Hardware und alles parallel belastet kommt man denke ich schnell auf solche Werte.
Wobei ja wenn das Target vorhanden ist die Karten entsprechend nicht runter takten und mehr nutzen wenn gut genug gekühlt.
Wie wahrscheinlich seht ihr einen TSMC 7nm Prozess deutlich vor den üblichen 2-2,5 Jahren Produktzyklus von Nvidia in letzter Zeit?
Daredevil
2020-06-09, 23:26:28
Also wenn das ne 3-Slot Kühlung sein soll, finde ich das höchst fett und will sowas. :D
Schaut sehr sehr sexy und gewagt aus, könnte echt zu Nvidia passen.
Rampage 2
2020-06-09, 23:33:07
Habe ich es richtig verstanden, dass die PCBs/Boards deshalb so kurz sind, um höhere Taktraten (Chip- und Speichertakt) durch kürzere und sauberere Signalwege zu ermöglichen?
R2
basix
2020-06-10, 00:02:45
10 GiB für die Oberklasse, welche bisher mit 8 GiB herumgegurkt ist: prima. Nicht geil, aber gut.
11 GiB im Jahr 2020, wo schon das Enthusiastmodell von 2015 mit 12 GiB antrat: am Arsch.
12 GiB würde ich gerade so durchgehen lassen. Aber nur gerade so. Denn Grafikkarten werden nicht für den Bestcase gebaut, bei dem alle Möglichkeiten der effizienten Nutzung bedacht werden, sondern für "das echte Leben" - also viele Grützspiele. Deren Probleme konnte man früher bequem mit dicker Hardware erschlagen. Geht nicht mehr, wenn das erschwingliche Produkt ein Speicherkrüppel ist.
MfG
Raff
Wobei die Speicherausstattung zumindest gute, alte NV-Tradition wäre. ;)
Allerdings wäre das gerade im Hinblick auf Raytracing grotesk. Einerseits den Vorreiter geben und pushen, andererseits am Speicher sparen, obwohl klar ist, dass der Bedarf dadurch deutlich anzieht.
Da sie die RT-Performance mit Sicherheit deutlich hochschrauben werde, erwarte ich beim kleinsten Modell mindestens 12 GiB. Dasselbe gilt für AMD. Alles andere ist, gerade in dieser (potentiellen) Preisklasse, unter obiger Berücksichtigung von Raytracing schlicht nicht zeitgemäß.
Da stimme ich euch beiden zu.
Aber mal ein Gedanke dazu:
Es soll sich ja um GDDR6X handeln (was auch immer das genau ist). Bei GDDR5X war das ja auch ein "Spezialding" für Nvidia only. Was, wenn GDDR6X nun wirklich speziell sind, weil 12 Gbit/Die? Das wären dann +50% Speichermenge :) Vielleicht irgendein Spezialdeal mit Samsung: GPUs + GDDR6X als Paket zu guten Preisen.
Problem bei der Sache hinsichtlich geringer Speichermenge (zum nachdoppeln, mit Ausnahme bei den Pascal-Karten):
Wobei die [magere] Speicherausstattung zumindest gute, alte NV-Tradition wäre. ;)
Dampf
2020-06-10, 00:08:58
Wobei die Speicherausstattung zumindest gute, alte NV-Tradition wäre. ;)
Allerdings wäre das gerade im Hinblick auf Raytracing grotesk. Einerseits den Vorreiter geben und pushen, andererseits am Speicher sparen, obwohl klar ist, dass der Bedarf dadurch deutlich anzieht.
Da sie die RT-Performance mit Sicherheit deutlich hochschrauben werde, erwarte ich beim kleinsten Modell mindestens 12 GiB. Dasselbe gilt für AMD. Alles andere ist, gerade in dieser (potentiellen) Preisklasse, unter obiger Berücksichtigung von Raytracing schlicht nicht zeitgemäß.
Im Durchschnitt 800 MB zusätzlich ist jetzt nicht sonderlich viel :wink:
Langlay
2020-06-10, 00:12:56
Habe ich es richtig verstanden, dass die PCBs/Boards deshalb so kurz sind, um höhere Taktraten (Chip- und Speichertakt) durch kürzere und sauberere Signalwege zu ermöglichen?
R2
Speichertakt ja, auf den Chiptakt sollte das keine grösseren Auswirkungen haben.
Troyan
2020-06-10, 00:37:26
Mythos;12332626']Kann mir eigentlich kaum vorstellen dass NV nach all den Jahren der Führerschaft und des fetten Abkassierens mit gigantischer Marge und noch größerem Entwicklungsbudget so eine Gurke anbietet, aber who knows. Das Jahr 2020 läuft ja bisher eh sehr ungewöhnlich ab...:freak:
Zyklische Wiederholung. Schau dir Pascal und Turing an.
Es gibt null Informationen über Gaming-Ampere, aber die Leute wissen schon, dass nVidia irgendwas wegen AMD gemacht hätte. ;D
dargo
2020-06-10, 06:47:02
10 GiB für die Oberklasse, welche bisher mit 8 GiB herumgegurkt ist: prima. Nicht geil, aber gut.
11 GiB im Jahr 2020, wo schon das Enthusiastmodell von 2015 mit 12 GiB antrat: am Arsch.
12 GiB würde ich gerade so durchgehen lassen. Aber nur gerade so. Denn Grafikkarten werden nicht für den Bestcase gebaut, bei dem alle Möglichkeiten der effizienten Nutzung bedacht werden, sondern für "das echte Leben" - also viele Grützspiele. Deren Probleme konnte man früher bequem mit dicker Hardware erschlagen. Geht nicht mehr, wenn das erschwingliche Produkt ein Speicherkrüppel ist.
Wofür braucht Nvidia denn viel Speicher? Die haben doch DLSS. :D Da rendert so ne 3080 dann in 1080p, wird schon mit 10GB passen. :tongue:
Platos
2020-06-10, 07:21:46
10 GiB für die Oberklasse, welche bisher mit 8 GiB herumgegurkt ist: prima. Nicht geil, aber gut.
11 GiB im Jahr 2020, wo schon das Enthusiastmodell von 2015 mit 12 GiB antrat: am Arsch.
12 GiB würde ich gerade so durchgehen lassen. Aber nur gerade so. Denn Grafikkarten werden nicht für den Bestcase gebaut, bei dem alle Möglichkeiten der effizienten Nutzung bedacht werden, sondern für "das echte Leben" - also viele Grützspiele. Deren Probleme konnte man früher bequem mit dicker Hardware erschlagen. Geht nicht mehr, wenn das erschwingliche Produkt ein Speicherkrüppel ist.
MfG
Raff
Hä? 2017 Gab's mit der 1080Ti 11GB mit der Leistung einer heutigen 2080. Eine 3080 wird logischerweise noch darüber hinaus gehen von der Leistung. Alles unter 12GB ist/wäre lächerlich. 12GB! wäre gut/ok, aber nicht geil. 16GB wäre geil. Und dass RT eigentlich noch ein zusätzlicher Grund für mehr Speicher wäre, ist dann nochmals die Kirsche oben drauf.
Ist das die Vorbereitung auf einen PCGH-Artikel, der die miese Speicherausstattung lobt ?;):freak::weg:
mr coffee
2020-06-10, 07:37:45
Da die neuen Konsolen kommen muss sich ordentlich etwas an der Speichermenge tun. Die haben zwar nicht übermäßig viel Speicher, scheinen aber sinnvoll damit umgehen zu können (SSD usw).
Zumindest die Top-Modelle müssen was drauf legen.
Cubitus
2020-06-10, 09:04:06
Wofür braucht Nvidia denn viel Speicher? Die haben doch DLSS. :D Da rendert so ne 3080 dann in 1080p, wird schon mit 10GB passen. :tongue:
Wobei DLSS sehr sehr geil ist wenn es ordentlich umgesetzt wurde.
Ich tippe mal ganz stark das AMD sowas in der Art bei den neuen Konsolen Games auch einsetzen wird.
Ist das die Vorbereitung auf einen PCGH-Artikel, der die miese Speicherausstattung lobt ?;):freak::weg:
Wir reden aber schon von derselben PCGH, den größten "Speicher-Huren" der Erde, oder?
MfG
Raff
mironicus
2020-06-10, 09:07:07
Mythos;12332626']Kann mir eigentlich kaum vorstellen dass NV nach all den Jahren der Führerschaft und des fetten Abkassierens mit gigantischer Marge und noch größerem Entwicklungsbudget so eine Gurke anbietet, aber who knows. Das Jahr 2020 läuft ja bisher eh sehr ungewöhnlich ab...:freak:
Sobald man oben ist wird man fett und faul. Siehe Intel. AMD wirkt momentan wie ein Sprinter zum Olymp. :freak:
Der_Korken
2020-06-10, 09:08:17
RT Performance würde ich von mindesten doppelten Leistung ausgehen, dreifache Leistung würde ich allerdings auch für möglich halten.
Was ist denn "RT-Leistung"? Ich dachte, dass da hauptsächlich die Shader limitieren und nicht die Intersection-Tests, weil man pro Auftreffen eines Strahls natürlich weiterhin die Farbe/Beleuchtung ausrechnen muss.
Klevapalis
2020-06-10, 09:13:43
Andererseits ist das schon irgendwie cool und bemerkenswert: Wann musste Nvidia das letzte Mal die Stromkeule schwingen, um sich von AMD abzusetzen?
a) AMD wird sich mit BigNavi auch bei 300W bewegen müssen
b) Wird der Vorsprung entscheidend sein
Wenn die 3080Ti/3090 50 oder 70% vor BigNavi liegt, interessiert es doch niemanden, ob die Karte 20W mehr aufnimmt.
X-Bow
2020-06-10, 09:16:19
a) AMD wird sich mit BigNavi auch bei 300W bewegen müssen
b) Wird der Vorsprung entscheidend sein
Wenn die 3080Ti/3090 50 oder 70% vor BigNavi liegt, interessiert es doch niemanden, ob die Karte 20W mehr aufnimmt.
Und wenn die 3090 dann auf Augenhöhe mit BigNavi raus kommt und 50W mehr dafür benötigt interressiert es Dich auch nicht weil ist ja dann quasi "grüner" Strom:rolleyes:
Leonidas
2020-06-10, 09:26:30
Was, wenn GDDR6X nun wirklich speziell sind, weil 12 Gbit/Die? Das wären dann +50% Speichermenge :) .
Herzerwärmender Gedanke!
Klevapalis
2020-06-10, 09:27:20
Und wenn die 3090 dann auf Augenhöhe mit BigNavi raus kommt und 50W mehr dafür benötigt interressiert es Dich auch nicht weil ist ja dann quasi "grüner" Strom
Frage ist halt, wie das ein realistisches Szenario ist?
HarryHirsch
2020-06-10, 09:35:48
Und wenn die 3090 dann auf Augenhöhe mit BigNavi raus kommt und 50W mehr dafür benötigt interressiert es Dich auch nicht weil ist ja dann quasi "grüner" Strom:rolleyes:
:ulol:
unl34shed
2020-06-10, 09:37:17
Frage ist halt, wie das ein realistisches Szenario ist?
Aber 50-70% schnellere 3090 sind realistischer? :confused:
Ihr mit euren Schw...vergleichen. Ist doch erst mal total unerheblich, welcher wie schnell rauskommt.
Dampf
2020-06-10, 09:40:32
Was ist denn "RT-Leistung"? Ich dachte, dass da hauptsächlich die Shader limitieren und nicht die Intersection-Tests, weil man pro Auftreffen eines Strahls natürlich weiterhin die Farbe/Beleuchtung ausrechnen muss.
Das ist korrekt.
Doppelte RT Leistung bei Ampere halte ich für realistisch, da die Shader Leistung bei der 3080Ti im Vergleich zur 2080 Ti auch knapp verdoppelt wird.
Wenn die Shaderleistung um 40% verbessert wird, halte ich in etwa 20% mehr Leistung für Raytracing durch Optimierungen für realistisch. In RT Games hätte man dann also 60% mehr Leistung als Turing.
Klevapalis
2020-06-10, 09:50:42
Aber 50-70% schnellere 3090 sind realistischer?
Warum nicht?
robbitop
2020-06-10, 09:52:39
Mit kolportierten 84 SMs im Vollausbau und >2,2 GHz wird GA102 schon ziemlich mächtig sein. Sicherlich wird Ampere rohleistungsnormiert auch ein klein wenig drauf legen an Performance.
Sofern Navi 2x mit 80 CUs kommt, tippe ich darauf, dass GA102 vorn liegen wird.
Takt korreliert nunmal mit einer Potenzfunktion der Leistungsaufnahme. Wenn die Performance hoch ist - sehe ich das Problem mit 350W nicht wirklich, sofern es leise passiert.
Alternativ kann man ja auch undervolten.
unl34shed
2020-06-10, 09:55:31
Warum nicht?
Weil sie nach aktuellen Spekus gerademal 82-84 SMs gegenüber 80 CUs bei Navi21 stehen. Die IPC sollte in etwas auf dem selben Level liegen, also wie sollen da bitte 50-70% mehr raus kommen? Auf wundersame weise ein Takt von 3GHz bei Nvidia?
robbitop
2020-06-10, 09:58:04
Ggü Turing wird das gemeint sein. Ein wenig mehr IPC sollte schon herauskommen. Und gerüchtehalber soll der Takt deutlich höher sein. 50% ggü TU102 sind nicht undenkbar. (immer noch lau verglichen mit den Zeiten in denen es alle 18 Monate Faktor 2 gab....)
unl34shed
2020-06-10, 09:59:03
Wenn die 3080Ti/3090 50 oder 70% vor BigNavi liegt, interessiert es doch niemanden, ob die Karte 20W mehr aufnimmt.
Nope
Troyan
2020-06-10, 10:05:50
Weil sie nach aktuellen Spekus gerademal 82-84 SMs gegenüber 80 CUs bei Navi21 stehen. Die IPC sollte in etwas auf dem selben Level liegen, also wie sollen da bitte 50-70% mehr raus kommen? Auf wundersame weise ein Takt von 3GHz bei Nvidia?
Wie kann A100 2,5x schneller sein bei nur 25% Mehrleistung bei FP32 gegenüber V100?
Klevapalis
2020-06-10, 10:06:38
Weil sie nach aktuellen Spekus gerademal 82-84 SMs gegenüber 80 CUs bei Navi21 stehen. Die IPC sollte in etwas auf dem selben Level liegen
Beleg durch Behauptung? Was wäre denn, wenn NVIDIA - Oh Wunder! - in zwei Jahren was an der Architektur geändert hat und die IPC eben nicht mehr identisch wäre?
Es ist immer spannend, wie im Vorfeld alle "Ui, AMD wird so toll und NVIDIA so schlecht" immer nur darauf basieren, dass NVIDIA einfach kompletten Stillstand über Jahre in der Entwicklung hat :ugly:
Ob man das realistisch finden will? Sorry, ich nicht.
rentex
2020-06-10, 10:07:10
Effiziens ist eine feste Größe, bei der Beurteilung von HW und interessiert die Meisten User durchaus.
Es ist kein Kunststück, mit brachialem Verbrauch, eine hohe Leistung zu erreichen.
robbitop
2020-06-10, 10:08:50
Beleg durch Behauptung? Was wäre denn, wenn NVIDIA - Oh Wunder! - in zwei Jahren was an der Architektur geändert hat und die IPC eben nicht mehr identisch wäre?
Es ist immer spannend, wie im Vorfeld alle "Ui, AMD wird so toll und NVIDIA so schlecht" immer nur darauf basieren, dass NVIDIA einfach kompletten Stillstand über Jahre in der Entwicklung hat :ugly:
Ob man das realistisch finden will? Sorry, ich nicht.
So ist es. NV ist nicht Intel. NV hat zwar die Situation genutzt, um die Gewinne zu steigern - jedoch haben sie nie mit RnD gegeizt. Ganz im Gegenteil. Sie zu übertreffen ist ein ganz anderes Unterfangen. IMO ist es schon super, dass es endlich wieder Wettbewerb gibt.
Es ist kein Kunststück, mit brachialem Verbrauch, eine hohe Leistung zu erreichen.
Da f~P³ entspricht, ist das nur in sehr engen Grenzen möglich. Häufig machen die letzten 10% Frequenz schnell einen riesen Unterschied in der Leistungsaufnahme - jedoch kaum in der Performance.
unl34shed
2020-06-10, 10:47:54
Beleg durch Behauptung? Was wäre denn, wenn NVIDIA - Oh Wunder! - in zwei Jahren was an der Architektur geändert hat und die IPC eben nicht mehr identisch wäre?
Aber wie wahrscheinlich sind denn gleich 50% mehr IPC und/oder Takt ggü. Navi21?
Ich sag ja nicht, dass Nvidia unfähig ist und gehe auch davon aus, dass sie am Ende leoicht vorne liegen werden. Aber über 50% ohne dass es ein Anzeichen dafür gibt :confused:
Edit:
Wie kann A100 2,5x schneller sein bei nur 25% Mehrleistung bei FP32 gegenüber V100?
beim Rendern?
Klevapalis
2020-06-10, 11:01:10
Aber wie wahrscheinlich sind denn gleich 50% mehr IPC und/oder Takt ggü. Navi21?
Man könnte sagen: Ziemlich. Siehe A100. In Sachen "nackter" FP32-Performance hat sich da nicht viel getan, die RealWorld-Performance ist aber stark gestiegen.
Aber über 50% ohne dass es ein Anzeichen dafür gibt
Zeig mir ein Anzeichen für RT/Tensorcores bei Turing :P
BlacKi
2020-06-10, 11:34:29
wenn RT mit im spiel ist, hat man ziemlich große unbekannte im spiel. 50% bessere performance mit RT täte dem spieleerlebnis gut.
aber wenn jemand 20% oder 100% schätzt, könnte er genauso recht haben.
Troyan
2020-06-10, 11:38:44
beim Rendern?
Vor dem Rendern kommt die Berechnung aller Informationen.
Die Diskussion um Cuda-Cores ist zum jetzigen Zeitpunkt vollkommen belanglos. GA100 hat 60% mehr SMs, aber insgesamt 3x mehr Leistung.
MiamiNice
2020-06-10, 11:41:04
LOL, nachdem jetzt ziemlich komplett raus ist was da kommt werde ich wohl bis zum Refresh warten und die 1080TI noch weiter quälen. :wink:
Entweder kommt noch eine geheime Überraschung oder der erste Gaming Ampere ist rotz ;D
Troyan
2020-06-10, 11:51:24
Die Leaks gehen weiter:
https://cdn.videocardz.com/1/2020/06/NVIDIA-GeForce-RTX-3080-heatsink.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-3080-heatsink-leaked
robbitop
2020-06-10, 11:51:48
Bisher ist doch bis auf Speichermenge, SI und TDP noch gar nichts raus.
Heutige CPUs haben 24 Monate Lebenszyklen. Refreshes fallen eher so aus wie Polaris 20 oder die Super Karten.
Über die Performance weiß man noch nichts.
Wenn man das Kleingeld hat, kann man auch viel Speicher bekommen.
Preis und Performance sind das große Fragezeichen. An der TDP kann doch jeder nach Gusto was tun (Undervolting mit kleinen Frequenzverlusten - wie es immer so ist - oder gar Overclocking).
unl34shed
2020-06-10, 11:53:21
Vor dem Rendern kommt die Berechnung aller Informationen.
Die Diskussion um Cuda-Cores ist zum jetzigen Zeitpunkt vollkommen belanglos. GA100 hat 60% mehr SMs, aber insgesamt 3x mehr Leistung.
Genau und Nvidia hat eine magische Formel gefunden um alles in FP64 Tensor Ops (die es bei Gaming Ampere wohl nicht mal geben wird) umzuwandeln :confused:
Ich tippe mal die 2.5x Performance meinst du...
HPC workloads that leverage Ampere benefit from a 250 percent increase in peak double-precision floating point performance over older brother Volta owing to new IEEE-compliant tensor core instructions for HPC processing.
https://www.hpcwire.com/2020/05/14/nvidias-ampere-a100-gpu-2-5x-the-hpc-20x-the-training/
Big Navi könnte laut Igor an die 400W gehen.
Kommentare aus seinem "Nvidias RTX 3080, 3090 und Titan mit bis zu 350 Watt gegen AMDs Radeon XTX" Video
BlacKi
2020-06-10, 11:55:59
mein punkt ist, das passt irgenwie alles nicht zusammen. ich glaube, die 3090 bekommt dasselbe pcb und denselben kühler wie die 3080. aber wie will man auf dem pcb über 300w stromversorgung usw. unterbringen? das pcb ist durch den v einschnitt nochmals deutlich kleiner als die 1080ti mini. da stinkt doch was.
Edit: vl meint igor das bezogen auf max OC. oder wir lagen mit unserer 250-300w grenze schon immer weit daneben...
y33H@
2020-06-10, 11:56:53
Die Frage ist dabei ja ob Referenz Design bzw FE oder Custom oder OC ...
[MK2]Mythos
2020-06-10, 11:57:10
Immer her damit. Mein Mo-Ra freut sich schon. :freak::biggrin:
Daredevil
2020-06-10, 12:05:44
http://i.imgur.com/Ep8wV.jpg
MiamiNice
2020-06-10, 12:06:04
Bisher ist doch bis auf Speichermenge, SI und TDP noch gar nichts raus.
Heutige CPUs haben 24 Monate Lebenszyklen. Refreshes fallen eher so aus wie Polaris 20 oder die Super Karten.
Über die Performance weiß man noch nichts.
Wenn man das Kleingeld hat, kann man auch viel Speicher bekommen.
Preis und Performance sind das große Fragezeichen. An der TDP kann doch jeder nach Gusto was tun (Undervolting mit kleinen Frequenzverlusten - wie es immer so ist - oder gar Overclocking).
Moin Robbi ;),
alles gut?
Du hast recht außer SI, TDP und Speichermenge steht nichts fest und die Performance kann man nur schätzen.
Kleines Gedankenspiel:
Leo hat vor Wochen etwas von einem Preisdump Versuch seitens NV gegen TSMC geschrieben womit NV auf die Nase gefallen ist und nun den Prozess von Samsung nutzen soll weil TSMC ihnen nicht entgegen kommt.
Gaming Ampere frisst verdammt viel Strom. Das tut er 1. weil der Prozess Müll ist, 2. weil NV den Chip ausfahren muss weil AMD wohl ein 400 Watt Monster bringt, 3. weil sich Ampere ohne diesen Saft nicht vom Vorgänger absetzen kann.
Das wissen wir jetzt schon weil Ampere ein RTX Monster wird, an Rasterzeug aber nicht groß zulegen wird. Imo damit sowieso total uninterssant für Gamer da RTX = non existent, das ist aber ein anderes Thema.
Da AMD sehr nah rankommen wird, aus den Gründen da oben, wird NV versucht sein, schnell, wieder den nötigen Abstand zu schaffen und das können sie auch indem sie Ampere auf 7nm als Super bringen.
Und ich wette das passiert schon im nächsten Jahr weil Ampere nen feutcher Witz ist.
Grüße
PS: Die Gerüchte von diesem Kope irgendwas Typen die Leo gerne zittiert, tun btw. einen Teil bestätigen den ich da oben ablasse.
Daredevil
2020-06-10, 12:10:47
Ich glaube, wenn man die Bilder sieht von dem 1kg+ Kühler, ist es wohl eher so, dass AMD seine 7nm Kiste ausfahren muss, damit die hinterher kommen. :D
AMDs spekulierte 400w ist sicherlich keine "Normale" Entscheidung, die man trifft. 400w kommen, wenn sie denn kommen, aus der Not.
300-350w bekommste mit einer fetten TriSlot Kühlung UND einem fetten 700-800mm² DIE relativ gut abgeführt. ( Die Kühler sehen ja durchaus sehr potent aus )
Ein winziger 7nm Chip stirbt dir bei der Verlustleistung weg und ich glaube nicht, dass AMD so fette DIEs baut, mh?
Oder die Kiste kommt mit ner 240er Wakü für 999$, aber srlsy. Soviel Wärme auf so wenig Fläche ist ne riesen Herausforderung, siehe Ryzen.
Ne kleine Fertigung ist nicht immer gut, wenn man sie nicht groß bauen kann. ^^
Klevapalis
2020-06-10, 12:17:18
Glückwunsch an davidzo, der war ja verdammt nah dran mit seiner CAD-Zeichnung :D
robbitop
2020-06-10, 12:17:45
@Miami
Danke, sehr gut :)
Mit Gewissheit weiß man das nicht. Über den Prozess und dessen Charakteristiken wissen wir für GPUs auch noch nichts im Falle von Samsungs 8 nm.
Am Ende ist der Einfluss vom Zieltakt so hoch, dass ein Shrink sehr sehr schnell weggelutscht ist. Auch ist ein erheblicher Anteil des erreichbaren Zieltaktes stärker vom Aufbau des Designs abhängig als dem Prozess. Aber auch das kostet Transistoren. Mehr Pipelinestufen, mehr Massetransistoren etc.
Angenommen das Ding taktet mit 2,5 GHz (da gab es ja Gerüchte) und bringt u.A. deshalb einen guten Performancesprung? Weiß man nicht.
In Bezug auf Rasterperformance weiß man auch noch nichts. Die rohleistungsnormierte Performance wird ggü Turing sicher nicht sinken.
Raytracing ist der nächste Schritt in der 3D Spielegrafik - und es ist sinnvoll, hier mehr Hardware zu verbauen, damit es nutzbarer wird. Erinnere dich an die Einführung der Pixelshader zu DX7 Zeiten. Kostet erstmal Transistoren aber bringt auch mehr BQ - letzteres kommt dann etwas später in die Spiele. Aber heute würde niemand noch Grafik ohne frei Programmierbare Shader wollen (dafür aber tausende TMUs und ROPs).
Problematisch ist auch, dass die Skalierbarkeit für Spiele eben anders gelagert ist als für viele HPC Anwendungen. Man kann nicht beliebig viel Parallelität extrahieren. Aus dem Grund sieht man seit Maxwell keine riesen Steigerung mehr in den SMs (bei AMD ähnlich seit Fury). Man versucht mehr Takt und mehr IPC herauszubekommen. Und mehr Datenlokalität (mehr IPC und auch verringerten Energiebedarf, da Transfers je weiter sie weg sind mehr Energie pro Bit kosten). Das kostet auch alles Transistoren.
Beurteilbar ist das Ganze IMO erst in seriöser Form, wenn wir Performance und tatsächliche Leistungsaufnahme haben. :)
Troyan
2020-06-10, 12:22:36
Bei chiphell, also woher der Leak stammt ist man mittlerweile auch darauf gestoßen wo der 8P Stromstecker ist.
Entweder ist links unter dem Papierschild noch einer versteckt, oder das können maximal 225W sein, also nix 320Watt. Und weniger headroom als die 6+8p der 2080.
Jap, dort oben ist der Stromanschluss. Der Kühler hat dort eine Ausbuchtung und die Fins sind nur halb so breit: https://videocardz.com/newz/nvidia-geforce-rtx-3080-heatsink-leaked
robbitop
2020-06-10, 12:27:02
Es gibt ja noch ganz hinten eine recht breite Lücke. Ob die auch dafür geeignet sein könnte? Dann wäre 2x 8Pin auch kein Problem. Nur 1x Stromstecker hatte eine xx80 zuletzt mit Pascal IIRC. Als GP104. Und wir haben es ja hier mit einem 102 zu tun...mal schauen...
Weiß jemand, wie viel Leistungsaufnahme über den PCIe bis dato typisch war? Das käme ja auch dazu. Maximal spezifiziert sind ja 75 W.
Klevapalis
2020-06-10, 12:31:46
Es gibt ja noch ganz hinten eine recht breite Lücke. Ob die auch dafür geeignet sein könnte? Dann wäre 2x 8Pin auch kein Problem. Nur 1x Stromstecker hatte eine xx80 zuletzt mit Pascal IIRC. Als GP104. Und wir haben es ja hier mit einem 102 zu tun...mal schauen...
Ich denke nicht, dass man da 2x8 PIN rein bekommt.
Damit hätte man für die 3080 eine TBP von maximal 225W.
Jetzt sag bloß die ganzen Gerüchte rund um hungrig, laut und heiß sind falsch? ;D :ugly:
Auf jeden Fall: Die Platzierung ist extrem sexy :cool:
robbitop
2020-06-10, 12:33:56
Ist es der gleiche Kühler für alle 3x SKUs? Es ist schwer vorstellbar, dass bis zum Topdog alles mit 1x 8 Pin auskommen soll. Das war ja schon sehr sehr lange nicht mehr der Fall. In der Regel sind diese Anschlüsse auch eher am Ende der Karte als in der Mitte...
Auch hätte die Lücke am Ende der Karte in den Fins sonst keinen anderen, Sinn, oder? Oder welcher Grund wäre da, Fins dort auszusparen?
Klevapalis
2020-06-10, 12:38:08
Ich denke wir sehen aktuell die 3080 Modelle nur. Für die Modelle darüber wird es sicher 2x8 geben.
Troyan
2020-06-10, 12:38:45
Es kann sein, dass die von dort nach hinten ziehen. Oder eben ein anderer Anschluss verwendet wird.
robbitop
2020-06-10, 12:39:13
Ich denke wir sehen aktuell die 3080 Modelle nur. Für die Modelle darüber wird es sicher 2x8 geben.
Hatte Igor nicht erzählt, dass alle 3x SKUs den gleichen Kühler haben?
Daredevil
2020-06-10, 12:39:57
Weiß jemand, wie viel Leistungsaufnahme über den PCIe bis dato typisch war? Das käme ja auch dazu. Maximal spezifiziert sind ja 75 W.
Da gibts gerade im GPUz Update neue Daten ^^
Siehe hier https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12332946#post12332946
( Während des Ocatne RTX Benchmarks )
Mal noch meine 2 Cent:
- Die Verbrauchsangaben machen wenig Sinn. Der Abstand zwischen 3090, 3080TI und 2080 ist jeweils viel zu klein. Bei 3080TI vs 3080 würde ich bei einem breiteren Speicherinterface auch mit einem breiteren Chip rechnen. Im Verbrauch muss sich sowas zeigen.
- Prozess: 3080 aufwärts ist kein großes Volumen. Wir reden hier von 800+ Dollar Karten Ich kann mir kaum vorstellen, dass man die nicht mehr bei TSMC hätte reinquetschen können, wenn es sinnvoll gewesen wäre
- Die Energieeffizienz wird sicherlich nicht sinken gegenüber der aktuellen Generation. Falls die Dinger 300+Watt verbrauchen war die die Entscheidung "Go Big or Go Home".
- Das Selbe gilt für die RT Performance. In der zweiten Generation ist imo eine drastische Leistungssteigerung zu erwarten, die man schon ohne großes Transistorbudget erreichen kann. Mit realer Software auf realen Karten sollten da ein Bottlenecks aufgeleuchtet haben. Falls sie da massiv investiert haben, wolllten sie die Messlatte hoch legen.
Klevapalis
2020-06-10, 12:42:06
Hatte Igor nicht erzählt, dass alle 3x SKUs den gleichen Kühler haben?
Denke mal wenn die größeren Modelle einen größeren Ausschnitt haben, dass Igor da dennoch "gleich" sagt, oder? :)
unl34shed
2020-06-10, 12:43:05
Das sieht für mich nach einem Kabelkanal aus. Die Lücke unten Links ist vermutlich zum Löten/Einfädeln der Kabel gedacht.
https://i.ibb.co/gJDsc6C/ampere.png
robbitop
2020-06-10, 12:43:42
Mal noch meine 2 Cent:
- Die Verbrauchsangaben machen wenig Sinn. Der Abstand zwischen 3090, 3080TI und 2080 ist jeweils viel zu klein. Bei 3080TI vs 3080 würde ich bei einem breiteren Speicherinterface auch mit einem breiteren Chip rechnen. Im Verbrauch muss sich sowas zeigen.
- Prozess: 3080 aufwärts ist kein großes Volumen. Wir reden hier von 800+ Dollar Karten Ich kann mir kaum vorstellen, dass man die nicht mehr bei TSMC hätte reinquetschen können, wenn es sinnvoll gewesen wäre
- Die Energieeffizienz wird sicherlich nicht sinken gegenüber der aktuellen Generation. Falls die Dinger 300+Watt verbrauchen war die die Entscheidung "Go Big or Go Home".
- Das Selbe gilt für die RT Performance. In der zweiten Generation ist imo eine drastische Leistungssteigerung zu erwarten, die man schon ohne großes Transistorbudget erreichen kann. Mit realer Software auf realen Karten sollten da ein Bottlenecks aufgeleuchtet haben. Falls sie da massiv investiert haben, wolllten sie die Messlatte hoch legen.
Je nach dem ob die Gerüchte stimmen:
- GA103 wurde gecanclet - das würde erklären, warum alle 3 top skus nun auf dem 102 basieren
- 8 nm durch ungeschicktes Pokern mit TSMC für 7 nm -> dann wird es halt größer und wärmer (aber wohl auch günstiger)
Mal sehen, wie viel am Ende davon wahr ist :D
Rampage 2
2020-06-10, 12:45:22
Mit kolportierten 84 SMs im Vollausbau und >2,2 GHz wird GA102 schon ziemlich mächtig sein.
Bullshit - ich war entsetzt als sich herausstellte, dass Ampere-Topdog tatsächlich nur 84 SMs im Vollausbau hat! Ich war ursprünglich von 96 SMs oder wenigstens von 90 SMs ausgegangen. Stattdessen sind es nur lächerliche 84 - das bedeutet, dass taktnormiert die Rohleistung nur um 16,6% steigt (ggü. TU102-Topdog) und das ist einfach zu wenig...
Aber die Sache mit dem höheren Takt wird wohl wahr sein - endlich tut sich da wieder was (seit Pascal).:) Die Frage ist nur: wieviel? Bis zu 2,5 GHz oder doch eher zwischen 2,2 - 2,3 GHz?
Sicherlich wird Ampere rohleistungsnormiert auch ein klein wenig drauf legen an Performance.
Das mag sein, aber dennoch ist der Anstieg der Rohleistung noch enttäuschender als bei Turing: 16,6% mehr Einheiten und sagen wir mal 10% mehr Takt (2,3 GHz) ergibt 28,3% mehr Rohleistung - Nvidia müsste mindestens 20% alleine aus der Architektur (IPC) rausquetschen, um überhaupt auf über 50% ggü. Turing kommen zu können. Hätten sie stattdessen einen 96 SM-Chip designt, wäre der Performancesprung über 75% geworden - so ähnlich wie Pascal ggü. Maxwell...
Sofern Navi 2x mit 80 CUs kommt, tippe ich darauf, dass GA102 vorn liegen wird.
Aber nur, wenn es der Vollausbau (= Titan) ist - und die wird eh kaum Jemand kaufen, wenn sie jenseits von 1500$ (eher 2500-3000$) bepreist wird. Also kommt nur die 3080Ti/3090 mit 82 SMs für einen Vergleich in Frage. Und wenn AMD wirklich nochmal IPC aus RDNA2 rausquetschen und damit IPC-normiert Nvidia sogar (leicht) überflügeln kann, dann könnte es durchaus zu einem Gleichstand oder sogar leichte Performancekrone für AMD werden.:)
R2
Klevapalis
2020-06-10, 12:48:04
Das sieht für mich nach einem Kabelkanal aus. Die Lücke unten Links ist vermutlich zum Löten/Einfädeln der Kabel gedacht.
Das wären aber *weit* auseinander liegende Anschlüsse.
Aber gab es nicht Quadros mit einem Anschluss oben und einem hinten?
edit: Die Quadro 6000 hatte das:
https://hothardware.com/articleimages/Item1540/small_quadro_angle10.jpg
robbitop
2020-06-10, 12:48:11
@R2
@SM Skalierung
siehe:
Problematisch ist auch, dass die Skalierbarkeit für Spiele eben anders gelagert ist als für viele HPC Anwendungen. Man kann nicht beliebig viel Parallelität extrahieren. Aus dem Grund sieht man seit Maxwell keine riesen Steigerung mehr in den SMs (bei AMD ähnlich seit Fury). Man versucht mehr Takt und mehr IPC herauszubekommen. Und mehr Datenlokalität (mehr IPC und auch verringerten Energiebedarf, da Transfers je weiter sie weg sind mehr Energie pro Bit kosten). Das kostet auch alles Transistoren.
Das hatte Pixeljetstream ja auch schon mehrfach angesprochen.
Ggf. hat man nun auch mehr Ausführungseinheiten pro SM verbaut...?
Rampage 2
2020-06-10, 13:07:20
@R2
@SM Skalierung
siehe:
Das hatte Pixeljetstream ja auch schon mehrfach angesprochen.
Das ist ja alles schön und gut, aber 33% mehr SMs wären jetzt ja auch nicht Zuviel des Guten gewesen - bei 50% oder mehr würde ich euch da eher Recht geben.;)
Ggf. hat man nun auch mehr Ausführungseinheiten pro SM verbaut...?
Ich dachte, es steht mittlerweile fest, dass der GA102-Vollausbau nur 5376 Recheneinheiten hat - ergo immer noch 64 FP-Einheiten (+ eventuell noch 64 INT-Einheiten) pro SM, also 5376+5376 (FP+INT) Einheiten.
R2
BlacKi
2020-06-10, 13:09:41
Das mag sein, aber dennoch ist der Anstieg der Rohleistung noch enttäuschender als bei Turing: 16,6% mehr Einheiten und sagen wir mal 10% mehr Takt (2,3 GHz) ergibt 28,3% mehr Rohleistung - Nvidia müsste mindestens 20% alleine aus der Architektur (IPC) rausquetschen, um überhaupt auf über 50% ggü. Turing kommen zu können. Hätten sie stattdessen einen 96 SM-Chip designt, wäre der Performancesprung über 75% geworden - so ähnlich wie Pascal ggü. Maxwell...
du hast die speicherbandbreite vergessen. die 2080ti war im verhältnis zu den kleineren karten mit weniger bandbreite versehen. wenn nun der top dog mit 21gbps kommt, dann hat der statt 616GB/s der 2080ti, 1008GB/s. das sind 63% mehr banbreite, das bedeutet etwa, man brauch nur etwa 40% mehr rohleistung um an die +50% gaming performance zu kommen.
wenn man mit +40% gaming leistung zufrieden wäre, dann fürden deine 28,3% rohleistung sogar in etwa ausreichen.
robbitop
2020-06-10, 13:11:37
@R2
Feststehen tut so gut wie gar nichts aktuell. Aber es ist nicht wahrscheinlich, dass es mehr FP ALUs gibt.
Wenn mehr SMs irgendwann unterproportional mehr Performance bringen aber trotzdem Transistoren und TDP erhöhen, kann es sinnvoll sein, nicht weiter zu steigern und zu schauen, dass man rohleistungsnormiert mehr Leistung erreicht oder den Takt erhöht.
Maxwell und Pascal haben die Einheitenanzahl auch kaum ggü ihren Vorgängern gesteigert.
robbitop
2020-06-10, 13:16:29
du hast die speicherbandbreite vergessen. die 2080ti war im verhältnis zu den kleineren karten mit weniger bandbreite versehen. wenn nun der top dog mit 21gbps kommt, dann hat der statt 616GB/s der 2080ti, 1008GB/s. das sind 63% mehr banbreite, das bedeutet etwa, man brauch nur etwa 40% mehr rohleistung um an die +50% gaming performance zu kommen.
wenn man mit +40% gaming leistung zufrieden wäre, dann fürden deine 28,3% rohleistung sogar in etwa ausreichen.
Das spricht definitiv für hohe Taktraten. GA102 lief in Spielen rund 1800 MHz. Bei 16% mehr Einheiten fehlen noch ~28% Rohleistung. Das wären dann ~2300 MHz.
Ich bin wirklich gespannt.
X-Bow
2020-06-10, 13:18:51
Glückwunsch an davidzo, der war ja verdammt nah dran mit seiner CAD-Zeichnung :D
Seine CAD-Zeichnung ergibt aber Kühlungstechnisch mehr Sinn als die neuen Bilder zeigen.
Die mittleren beiden Dreiecke mit Kühlfinnen werden durch nun gezeigten Aufbau eher nur Passiv kühlen, wenn überhaupt.
@Robbitop: Die hintere längere Aussparung wird Platz für den Lüfter sein. Insgesammt ist die hintere Kühleinheit deutlich schmaler als die Karte selbst. Das könnte schon an dem eventuellen Kabelkanal liegen welcher unl34shed bildlich gut dargstellt hat.
Eine gute Kühlleistung für 350W traue ich dem gesammten Lüfter nun nicht mehr zu. Entweder verbrauchen die Karten deutlich weniger, der Kühler wird von nV wieder verworfen da nur Testmuster, oder die Karten werden laut.
Dural
2020-06-10, 13:21:49
Naja gespannt sein oder nicht.
Ich bin eher enttäuscht das 7nm oder was auch immer einfach nicht das bringt was es hätte bringen sollen.
Man hat es ja schon beim GA100 gesehen, 400Watt sind einfach nicht ohne.
NV konnte über die letzten Jahre die Verlustleistung halbwegs im gleichen Rahmen lassen, aktuell sieht es nach rund 20% mehr aus.
robbitop
2020-06-10, 13:25:34
Ggf. ist der Leak der TDP ja auch falsch. Das bleibt abzuwarten.
Rampage 2
2020-06-10, 13:26:49
@R2
Maxwell und Pascal haben die Einheitenanzahl auch kaum ggü ihren Vorgängern gesteigert.
Bei Maxwell waren es ganze 33% mehr (ggü. Kepler) und bei Pascal immerhin noch 25% (ggü. Maxwell) und bei Turing dann nur noch 20% ggü. Pascal. Jetzt kommt Ampere mit weniger als +20%...
Das spricht definitiv für hohe Taktraten. GA102 lief in Spielen rund 1800 MHz.
Wo lief der GA102 mit 1.8 GHz? :| Hast du dich verschrieben und meintest den TU102?
R2
mironicus
2020-06-10, 13:27:46
Ausgehend von meiner RTX 2080 Ti erwarte ich eigentlich bei einem so großen Dieshrink: Doppelte Leistung bei gleichem Stromverbrauch. Ich wäre sehr enttäuscht von NVidia wenn die das nicht schaffen.
robbitop
2020-06-10, 13:29:29
Bei Maxwell waren es ganze 33% mehr (ggü. Kepler) und bei Pascal immerhin noch 25% (ggü. Maxwell) und bei Turing dann nur noch 20% ggü. Pascal. Jetzt kommt Ampere mit weniger als +20%...
Viele Dinge sind eben nicht linear. Gesetz des abnehmenden Grenzertrags greift leider oft und gerne - besonders bei der Extraktion von ILP. Sieht man ja auch im Trend über die Generationen; erst +33% dann +25% und jetzt eben <+20%.
Wo lief der GA102 mit 1.8 GHz? :| Hast du dich verschrieben und meintest den TU102?
R2
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40
Founders Edition - out of the box.
Ausgehend von meiner RTX 2080 Ti erwarte ich eigentlich bei einem so großen Dieshrink: Doppelte Leistung bei gleichem Stromverbrauch. Ich wäre sehr enttäuscht von NVidia wenn die das nicht schaffen.
Für 8 nm wäre es nur 1x Fullnodeshrink. Die Zeiten der Leistungsverdopplung pro Shrink sind leider lange vorbei. Und leider auch die Zeiten der einfachen Verdopplung der Ausführungseinheiten mit linearer Skalierung. Takterhöhung IPC Erhöhung kosten nunmal immer mehr Transistoren.
Bei HPC funktioniert das zum Glück nach wie vor.
Cubitus
2020-06-10, 13:46:22
Nvidia wird die Karte, zumindest die FE mir diesem Kühler, sowieso an die Kette legen.. Durch den GPU-Boost 5.0 und Limitierung der Leistungsaufnahme müssen 350 Watt ja nicht unbedingt weggekühlt werden.
Ich schätze man bewegt sich im Bereich der 2080Ti und ist dennoch wesentlich schneller ;) OC Scanner ist dann wieder mit an Board bzw. es lässt sich in einem gewissen Rahmen sicherlich die TDP nach oben hin erweitern.
Bleibt dem User dann wie immer selbst überlassen, mehr Leistung=mehr Lüftereinsatz.
Bin mal gespannt wo bei dieser Gen dann letztendlich der Sweetspot sein wird..
Sollten bei Ampere nicht mal wieder HotClocks eingesetzt werden? :uponder:
Linmoum
2020-06-10, 14:24:39
Mythos;12332984']Immer her damit. Mein Mo-Ra freut sich schon. :freak::biggrin:Dito, wegen mir können beide ihre Karten auch auf 295X2-Niveau prügeln solange die Performance passt. :cool:
Leonidas
2020-06-10, 15:24:39
Ggf. ist der Leak der TDP ja auch falsch. Das bleibt abzuwarten.
.... oder nur der zur GTX3080. Das die die gleiche TDP wie die 3090 (mittlere GA102) haben soll, will mir wegen vermutlich 68 vs. 82 SM sowieso nicht in den Kopf.
Nebenbei: Neues Spekulatius zu GA104 & GA106, sprich GeForce RTX 3060, 3070 & 3070 Ti:
https://www.3dcenter.org/news/geruechtekueche-nvidias-ampere-chips-ga104-ga106-kommen-fuer-geforce-rtx-3060-3070-3070-ti
Daredevil
2020-06-10, 15:30:23
.... oder nur der zur GTX3080. Das die die gleiche TDP wie die 3090 (mittlere GA102) haben soll, will mir wegen vermutlich 68 vs. 82 SM sowieso nicht in den Kopf.
Ne 2080S schaufelt ja auch weniger als ne 2080ti bei gleicher TDP.
https://abload.de/img/unbenannt9fkt7.png
Hauwech
2020-06-10, 15:37:10
.... oder nur der zur GTX3080. Das die die gleiche TDP wie die 3090 (mittlere GA102) haben soll, will mir wegen vermutlich 68 vs. 82 SM sowieso nicht in den Kopf.
Nebenbei: Neues Spekulatius zu GA104 & GA106, sprich GeForce RTX 3060, 3070 & 3070 Ti:
https://www.3dcenter.org/news/geruechtekueche-nvidias-ampere-chips-ga104-ga106-kommen-fuer-geforce-rtx-3060-3070-3070-ti
Da wäre aber schon eine ziemlich große Lücke zwischen 3080 - 3070 Ti/Super.
Alex1973
2020-06-10, 15:47:31
Was ich überhaupt nicht verstehe ist dieses, GeForce RTX 2060 1920 Shader-Einheiten und GeForce RTX 3060 auch 1920 Shader-Einheiten ?
Das ist doch vom Marketing her betrachtet ein Witz.
Das einzige was Nvidia jetzt dann in den letzten Jahren gemacht hat , ist die langfristige Gewinnmaximierung.
Das ist doch weniger als die aktuelle GeForce RTX 2060 super mit 2176 Shader- Einheiten.
Das ist ein klarer Rückschritt. Und wenn dann RTX 3060 etwas schneller ist, ist das noch lange kein Kaufargument, außer die wird 200 Euro kosten, wovon keiner ausgeht.
Ich habe tatsächlich für GA106 so um die 2500 Einheiten erwartet.
Ich wette nvidia wird tatsächlich es bringen und für RTX 3060 400 euro ansetzen. Das Argument , die Zeiten wo man 80% Leistungszuwachs erwarten konnte sind lange vorbei, zieht überhaupt nicht, weil ja 2500 Einheiten für RTX 3060 total einfach möglich wären.
robbitop
2020-06-10, 16:04:42
Man weiß allerdings noch nichts über Taktrate und taktnormierte Leistung. Auf den ersten Blick wirkten Maxwell und Pascal (als man nur von den SMs wußte) auch etwas mager.
dildo4u
2020-06-10, 16:12:39
Was ich überhaupt nicht verstehe ist dieses, GeForce RTX 2060 1920 Shader-Einheiten und GeForce RTX 3060 auch 1920 Shader-Einheiten ?
Das ist doch vom Marketing her betrachtet ein Witz.
Das einzige was Nvidia jetzt dann in den letzten Jahren gemacht hat , ist die langfristige Gewinnmaximierung.
Das ist doch weniger als die aktuelle GeForce RTX 2060 super mit 2176 Shader- Einheiten.
Das ist ein klarer Rückschritt. Und wenn dann RTX 3060 etwas schneller ist, ist das noch lange kein Kaufargument, außer die wird 200 Euro kosten, wovon keiner ausgeht.
Ich habe tatsächlich für GA106 so um die 2500 Einheiten erwartet.
Ich wette nvidia wird tatsächlich es bringen und für RTX 3060 400 euro ansetzen. Das Argument , die Zeiten wo man 80% Leistungszuwachs erwarten konnte sind lange vorbei, zieht überhaupt nicht, weil ja 2500 Einheiten für RTX 3060 total einfach möglich wären.
Die reinen Cuda Cores sagen wenig zur Performance aus eine PS5 z.b wird die RX5700 zum frühstück verspeisen, Takt und IPC werden bei NV und AMD ansteigen.
X-Bow
2020-06-10, 16:15:38
Ne 2080S schaufelt ja auch weniger als ne 2080ti bei gleicher TDP.
https://abload.de/img/unbenannt9fkt7.png
Mag ja sein, aber die 2080Ti verbraucht reel dennoch mehr als die 2080S.
Das kann hier ja dann auch gut sein. TDP Angaben sind eben ungleich reeller Verbrauch.
Alex1973
2020-06-10, 16:18:21
Man weiß allerdings noch nichts über Taktrate und taktnormierte Leistung. Auf den ersten Blick wirkten Maxwell und Pascal (als man nur von den SMs wußte) auch etwas mager.
Ist schon klar, ist mir natürlich bewusst. Wir warten auf den Release, hoffen auf das Beste und rechnen mit dem Schlimmsten.:biggrin:
Lehdro
2020-06-10, 16:32:11
Was ich überhaupt nicht verstehe ist dieses, GeForce RTX 2060 1920 Shader-Einheiten und GeForce RTX 3060 auch 1920 Shader-Einheiten ?
Das ist doch vom Marketing her betrachtet ein Witz.
Das einzige was Nvidia jetzt dann in den letzten Jahren gemacht hat , ist die langfristige Gewinnmaximierung.
Das ist doch weniger als die aktuelle GeForce RTX 2060 super mit 2176 Shader- Einheiten.
Das ist ein klarer Rückschritt.
Nur mal so zum Nachdenken: Die RTX 2070 Super hat 2560 Shader. Die GTX 1080 hat 2560 Shader. Die GTX 980 Ti hat 2816 Shader. Die GTX 780 Ti sogar 2880 Shader. Welche von denen ist die Schnellste?
Alex1973
2020-06-10, 16:47:21
Nur mal so zum Nachdenken: Die RTX 2070 Super hat 2560 Shader. Die GTX 1080 hat 2560 Shader. Die GTX 980 Ti hat 2816 Shader. Die GTX 780 Ti sogar 2880 Shader. Welche von denen ist die Schnellste?
Ich verstehe das alles natürlich. Mir ging es hier mehr darum, dass man die Leistung der RTX 3060 im Vergleich zu RTX 2060 leicht hätte verdoppeln können, und das mit einem relativ kleinen Aufwand. Aber wer glaubt das noch jetzt bei nur 1920 Einheiten ?
Und wenn dann gesagt wird, die Zeiten der Leistungsverdopplung sind vorbei, warum nicht, der Wille dazu fehlt hier nur.
Dampf
2020-06-10, 16:50:33
So wie ich das sehe gibt man bei Ampere ordentlich Stoff aus einem Grund: Die Taktraten werden deutlich erhöht sein und damit auch die Taktraten der RT und Tensor Cores. RT braucht sehr viel Leistung und Ampere befeuert hier richtig. Zudem deutlich mehr Speicherbandbreite (wichtig für RT), was auch Strom saugt.
Werden natürlich keine 4x mehr RT Leistung oder so ein Bullshit, aber von einer Verdopplung der RT Leistung würd ich schon ausgehen. Wo Turing's RT 40% der Performance abzieht, könnte Ampere nur noch 20% kosten.
dargo
2020-06-10, 17:07:36
.... oder nur der zur GTX3080. Das die die gleiche TDP wie die 3090 (mittlere GA102) haben soll, will mir wegen vermutlich 68 vs. 82 SM sowieso nicht in den Kopf.
Es ist nicht die gleiche TGP. Es heißt angeblich 320W und 350W. Und ich wüsste nicht warum dieser recht kleine Unterschied nicht stimmen sollte. Er reicht einfach nur, dass die 3090 einen effizienteren Betriebspunkt bekommt, sprich weniger Takt und somit auch Spannung. Oder halt die 3080 einen schlechteren Betriebspunkt. Sprich Takt näher an der Kotzgrenze. Je nachdem wie man es betrachtet.
davidzo
2020-06-10, 17:17:08
An der oberen Kannte wäre der 8Pin ja logisch. Aber an der unteren (vom Zettel verdeckt ist) nicht. Wie soll das auch funktionieren?
Steckst die Karte in den Slot und du hast (fast) keinen Zugang mehr.
Guck nochmal hin, du siehst es verkehrt herum. Der auf den Fotos sichtbare 8pin Anschluss ist auf der Oberseite, das sieht man am Slotblech.
Und was den Zettel angeht, der verdeckt mit einer Ecke auch einen Teil oben. Mit den neuen Bildern vom Kühlkörper ist das aber auch ausgeschlossen.
Also wenn das ne 3-Slot Kühlung sein soll, finde ich das höchst fett und will sowas. :D
Schaut sehr sehr sexy und gewagt aus, könnte echt zu Nvidia passen.
Guck doch auf die Fotos, das Slotblech zeigt klar nur 2 Slots. Es werden trotzdem mit Kühler und Ansaugfläche wahrscheinlich 2,2 oder 2,5Slots mit einer Slotblende von 2 slots, also so wie bisher auch.
Das sieht für mich nach einem Kabelkanal aus. Die Lücke unten Links ist vermutlich zum Löten/Einfädeln der Kabel gedacht.
https://i.ibb.co/gJDsc6C/ampere.png
Du vergisst dass dort der Lüfter ist. Diese Aussparung in den lamellen gibt es auch beim vorderen Lüfter.
Was die hintere Ecke angeht, da ist keine Aussparung. Das ist eine optische Täuschung weil das Styroporteil in dem die Kühler liegen dort eine Aussparung hat.
Der Cutout für den einzelnen 8Pin Anschluss ist auch in den Kühlkörpern gut zu sehen.
BTW bestätigen die Leaks zu 100% meine Vermutung dass der Radiator mit 4 Heatpipes angeschlossen ist, welche auf eine zentrale Baseplate gelötet sind, wie ich es in meinem Rendering gezeigt habe.
Interessanterweise sind die zentralen Heatsinks aber nicht an das Slotblendenseitige Lamellenpaket angeschlossen und bekommen daher keinen Luftstrom ab. Das sind also nur Passivkühler die kaum zur Kühlleistung beitragen, auch weil sie nur über einen kleinen streifen überhaupt Kontakt mit der Bodenplatte haben dadurch dass die Heatpipes dadrunter liegen.
Das ist einfach keine Kühllösung für 320Watt, sorry Leute...
Ich bleibe dabei, es wird eine Karte mit nur einem 8Pin Anschluss, das ist auf den Bildern ersichtlich und erscheint auch logisch. Wir haben es also eher mit einer Effizienzsteigerung gegenüber Turing zutun, die hohen TDPs die hier vor jedem launch wieder umher schwirren sind Verwirrungstaktik.
Duke754
2020-06-10, 17:53:12
Das ist doch auch nur geraten. Da hat jemand ein rendering gemacht und jetzt mal ne explosionszeichnung.
Danke für die Rückmeldung,
hier würde mich nun deine Meinung interessieren:
https://cdn.videocardz.com/1/2020/06/NVIDIA-GeForce-RTX-3080-heatsink.jpg
Das ergab das erdachte Design deiner CAD Zeichnung deutlich mehr Sinn.
MiamiNice
2020-06-10, 17:53:20
Ich bleibe dabei, es wird eine Karte mit nur einem 8Pin Anschluss, das ist auf den Bildern ersichtlich und erscheint auch logisch. Wir haben es also eher mit einer Effizienzsteigerung gegenüber Turing zutun, die hohen TDPs die hier vor jedem launch wieder umher schwirren sind Verwirrungstaktik.
Dann passt hier aber einiges nicht zusammen. Z.b. der angebliche Prozess. Wenn das so stimmt muss NV bei den inneren Werten massiv aufgestockt haben.
Sorry @ Robbi, gerade erst von der Arbeit und schon wieder auf dem Weg. Aber danke für den Post.
€: Wie wahrschienlich ist es das nur die Low und Mittelklasse im Samsung Prozess kommt?
robbitop
2020-06-10, 17:59:29
Ich verstehe das alles natürlich. Mir ging es hier mehr darum, dass man die Leistung der RTX 3060 im Vergleich zu RTX 2060 leicht hätte verdoppeln können, und das mit einem relativ kleinen Aufwand. Aber wer glaubt das noch jetzt bei nur 1920 Einheiten ?
Und wenn dann gesagt wird, die Zeiten der Leistungsverdopplung sind vorbei, warum nicht, der Wille dazu fehlt hier nur.
Die Zeiten der Leistungsverdopplung sind (leider) lange vorbei. 40-50% pro Generation. Alle 24 Monate.
Sorry @ Robbi, gerade erst von der Arbeit und schon wieder auf dem Weg. Aber danke für den Post.
€: Wie wahrschienlich ist es das nur die Low und Mittelklasse im Samsung Prozess kommt?
Man weiß es leider nicht. Gerüchte besagen, dass NVs Lineup bis auf den Top Dog 8nm sind. Die Frage ist ob der Top Dog nur GA100 ist oder auch GA102 inkludiert. Die genannten 3xxW implizieren IMO eher,, dass GA102 nicht inkludiert ist. Aber auch die können sich als falsch herausstellen. Es bleibt spannend. :)
MiamiNice
2020-06-10, 18:21:37
Eigentlich ist das gar keine Frage, imo, da die Titan auch auf dem Gaming Chip kommt. GA100 ist eine andere "Line".
Ergo 3080, 3090 und Titan in 7nm. Dann passt es auch mit der einen 8 Pin Buchse.
Die geleakten TDPs wären dann Nebelkerzen aber dann hat uns Igor veräppelt ^^
Edgecrusher86
2020-06-10, 18:32:29
https://abload.de/img/1y2jo1.png
Das erschien mir auch recht hoch - als max. PT Target noch halbwegs im Bereich des Normalen.
Man wird sehen, wo die Wahrheit liegt. Da NV ja seit Fermi nicht mehr die Keule auspackt, würde ich es am wahrscheinlichsten ansehen, wenn man sich für die FE-Modelle bei TU orientieren würde.
Also 260/280W als Basis für die Top-Dogs und 325W maximiert. 250W als Basis für eine 3080 und 280W maximiert - analog der 2080S.
Auch noch ganz interessant:
https://abload.de/img/28hjkd.png
E: Zudem sieht er es auch als eine Möglichkeit in Betracht, 19 Gbps beim VRAM zu bringen. Das dürfte sicherlich durch die Bank ausreichend sein.
Mit 19 Gbps sähe es dann wie folgt aus:
GA102 @ 384-bit SI: 912 GB/s
GA102 @ 352-bit SI: 836 GB/s
GA102 @ 320-bit SI: 760 GB/s
GA104 @ 256-bit SI: 608 GB/s
GA106 @ 192-bit SI: 456 GB/s
Piefkee
2020-06-10, 19:24:04
Laut Igor ist GA102 kleiner als TU102.
https://www.igorslab.de/community/threads/exklusive-info-%C3%BCber-nvidias-ampere-3-karten-speicherausbau-platinen-und-ein-extrem-teurer-k%C3%BChler-f%C3%BCr-die-fe-sowie-die-suche-nach-dem-leak.2807/page-5
Einer von Euch hat fast Recht, aber TPU liegt trotzdem etwas daneben. Der Chip ist kleiner als der TU102
Troyan
2020-06-10, 19:39:39
Nach den Leaks nur logisch. 5376 Cores sind 84SM. GA100 hat 128SM. Die FP64 werden reduziert, der L2 Cache genauso reduziert. Wie bei Turing wird bestimmt auch der SharedMemory wieder beschnitten. Die TensorCores werden keine FP64 Unterstützung erhalten.
Passt zwar nicht mit seiner Aussage, dass GA102 noch größer als TU102 sein sollte, aber basierend auf den Leaks und GA100 kann man einiges rauswerfen.
Schnitzl
2020-06-10, 19:53:50
(...)
Interessanterweise sind die zentralen Heatsinks aber nicht an das Slotblendenseitige Lamellenpaket angeschlossen und bekommen daher keinen Luftstrom ab. Das sind also nur Passivkühler die kaum zur Kühlleistung beitragen, auch weil sie nur über einen kleinen streifen überhaupt Kontakt mit der Bodenplatte haben dadurch dass die Heatpipes dadrunter liegen.
Das ist einfach keine Kühllösung für 320Watt, sorry Leute...
Ich bleibe dabei, es wird eine Karte mit nur einem 8Pin Anschluss, das ist auf den Bildern ersichtlich und erscheint auch logisch. Wir haben es also eher mit einer Effizienzsteigerung gegenüber Turing zutun, die hohen TDPs die hier vor jedem launch wieder umher schwirren sind Verwirrungstaktik.
das würde zu nVidia passen, die sind ja so gerissen ;)
hohe TPs leaken um AMD zu animieren Navi2 hochzuprügeln zur Kotzgrenze.
Danach kommen die dann ganz normal raus mit max 250W ;D
Und AMD ist der Dumme weil sie wieder 300W haben ...
krasses Pokerspiel :freak:
SKYNET
2020-06-10, 20:50:08
Häufig machen die letzten 10% Frequenz schnell einen riesen Unterschied in der Leistungsaufnahme - jedoch kaum in der Performance.
aber um das entscheidene frame um auf platz eins zu sein/bleiben ;)
Danke für die Rückmeldung,
hier würde mich nun deine Meinung interessieren:
https://cdn.videocardz.com/1/2020/06/NVIDIA-GeForce-RTX-3080-heatsink.jpg
Das ergab das erdachte Design deiner CAD Zeichnung deutlich mehr Sinn.
Wenn das final sein sollte :rolleyes: 1 Lüfter für die GPU, welche säuft wie ein Loch und dann noch nen 2. verbunden mit > 4 HP welcher die VRMs + Vrams kühlt und die warme Luft nach unten ins Gehäuse bläst? Kann nur ein Lederjacken-Fake sein. Naja, egal - Lisa tritt ihm, wenn nicht nun, dann spätestens mit dem Refresh, so etwas in den Hintern. Keiner hätte es mehr verdient!
y33H@
2020-06-10, 23:53:28
Jensen hat Nvidia hochprofitabel gemacht ...
Genau - an den kleinen Mann nicht zu denken. Prima - Trump sei dank, wird auch dieses Geleier ein Ende haben!
Jensen hat Nvidia hochprofitabel gemacht ...
Das liest sich so, als wäre das positiv. Chapeu für die Führung, aber niemand außer Aktionären braucht eine derart hohe Marge.
MfG
Raff
Platos
2020-06-10, 23:59:18
Wir reden aber schon von derselben PCGH, den größten "Speicher-Huren" der Erde, oder?
MfG
Raff
Wollte nur sicher gehen, dass sich hier nicht das Motto: "Jetzt ist es schon 4 Jahre her seit einem Speicheranstieg, da nehmen wir jedes bisschen mehr dankend entgegen, weil wir mittlerweile schon auf Speicherentzug sind" breit macht :D
Linmoum
2020-06-10, 23:59:44
Ich bin grundsätzlich ja dafür, bei allem über 300W generell auf Wakü bzw. AiO zu gehen. So ein 120mm Radi ist zwar nicht die Welt, aber das ist immer noch deutlich besser als reine Luftkühlung.
Wobei eine gute Grafikkarte laut Jensen ja gar keine Wasserkühlung braucht. Also hat sich das eh erledigt. :ulol:
Wollte nur sicher gehen, dass sich hier nicht das Motto: "Jetzt ist es schon 4 Jahre her seit einem Speicheranstieg, da nehmen wir jedes bisschen mehr dankend entgegen, weil wir mittlerweile schon auf Speicherentzug sind" breit macht :D
Keine Sorge. ;) 10 GiB für die neuen Modelle im 500-Euro-Dunstkreis wäre aber definitiv okay.
Wobei eine gute Grafikkarte laut Jensen ja gar keine Wasserkühlung braucht. Also hat sich das eh erledigt. :ulol:
Das ist viele Jahre her, ergo "Was juckt mich mein Geschwätz von gestern". :ugly:
MfG
Raff
crux2005
2020-06-11, 00:07:43
Das ist viele Jahre her, ergo "Was juckt mich mein Geschwätz von gestern". :ugly:
MfG
Raff
Schon das PCGH Video Fury X vs. 980 Ti vergessen? ;D
BlacKi
2020-06-11, 00:09:00
das würde zu nVidia passen, die sind ja so gerissen ;)
hohe TPs leaken um AMD zu animieren Navi2 hochzuprügeln zur Kotzgrenze.
Danach kommen die dann ganz normal raus mit max 250W ;D
Und AMD ist der Dumme weil sie wieder 300W haben ...
krasses Pokerspiel :freak:
obs wirklich echte leaks sind oder finten? da bin ich mir auch nicht sicher.
ich glaub igor verarscht uns. nimm doch mal das was er zu big navi gepostet hat. 400w bei +50% perf./w. weißt du welche steigerung da gegenüber navi10 wären? dann wäre big navi 2,6x mal so schnell.
irgendeine angabe stimmt da nicht. entweder die 400w. oder die +50% perf/w. letzteres gabs schon auf folien, also sind die 400w quatsch. damit meine ich nicht 350w oder so, ich meine damit bleibt man weiterhin unter den 300w.
und wenn das schon nicht stimmt was zu amd von ihm gepostet wurde, dann wohl auch nicht das zu ampere.
das pcb sieht für mich so aus, als würde man bei der"3090" ebenfalls 250w als tbp anvisiert haben.
so meine gedanken zu den letzten leaks.
Schon das PCGH Video Fury X vs. 980 Ti vergessen? ;D
Ich meine nicht mein eigenes Geschwätz (das wird im Artikel zum Video auf die Probe gestellt), sondern Huangs Fähnchen im Aktionärswind. :D
MfG
Raff
Daredevil
2020-06-11, 00:11:23
330w bekommt man schon "okay" gekühlt mit einer dicken Kühlung und einem anständigen Airflow. ( In dem Fall ist der Airflow Low, weil CPU nicht ausgelastet. )
https://abload.de/img/unbenanntw8j2j.png
Mit 300w sinds dann so um die 1400-1500rpm, Silent ist natürlich was anderes, wir sind aber meilenweit weg von DualSlot VII Dezibel. :D
Liquid Metal könnte die Karte eigentlich auch mal vertragen. :<)
MiamiNice
2020-06-11, 00:12:22
obs wirklich echte leaks sind oder finten? da bin ich mir auch nicht sicher.
ich glaub igor verarscht uns. nimm doch mal das was er zu big navi gepostet hat. 400w bei +50% perf./w. weißt du welche steigerung da gegenüber navi10 wären? dann wäre big navi 2,6x mal so schnell.
irgendeine angabe stimmt da nicht. entweder die 400w. oder die +50% perf/w. letzteres gabs schon auf folien, also sind die 400w quatsch. damit meine ich nicht 350w oder so, ich meine damit bleibt man weiterhin unter den 300w.
und wenn das schon nicht stimmt was zu amd von ihm gepostet wurde, dann wohl auch nicht das zu ampere.
das pcb sieht für mich so aus, als würde man bei der"3090" ebenfalls 250w als tbp anvisiert haben.
so meine gedanken zu den letzten leaks.
+1
Liquid Metal könnte die Karte eigentlich auch mal vertragen. :<)
Mach das mal und berichte, bitte. =) Das hatte ich vor einem Monat auch noch vor, als Vorbereitung auf den Sommer. Aber dann sah ich die Gebrauchtpreise und habe sie nach nur zwei Tagen des Überlegens verkauft. Eine komplett unverbastelte Karte! Turing war diesbezüglich echt eine Ausnahme bei mir. Ich kann mich gar nicht daran erinnern, wann ich davor die letzte Karte ohne Kühlermods hatte. Müsste die GTX 580 DC2 gewesen sein, welche aus vielen Perspektiven wie die RTX 2080 Ti war, ein kurzweiliger Lückenfüller. Ekelhaft, so viel Kohle auf dem Konto herumliegen zu haben, ohne dass es neue Produkte gibt. :ugly:
MfG
Raff
SKYNET
2020-06-11, 00:19:03
obs wirklich echte leaks sind oder finten? da bin ich mir auch nicht sicher.
ich glaub igor verarscht uns. nimm doch mal das was er zu big navi gepostet hat. 400w bei +50% perf./w. weißt du welche steigerung da gegenüber navi10 wären? dann wäre big navi 2,6x mal so schnell.
irgendeine angabe stimmt da nicht. entweder die 400w. oder die +50% perf/w. letzteres gabs schon auf folien, also sind die 400w quatsch. damit meine ich nicht 350w oder so, ich meine damit bleibt man weiterhin unter den 300w.
und wenn das schon nicht stimmt was zu amd von ihm gepostet wurde, dann wohl auch nicht das zu ampere.
das pcb sieht für mich so aus, als würde man bei der"3090" ebenfalls 250w als tbp anvisiert haben.
so meine gedanken zu den letzten leaks.
naja, +160% zur 5700XT wäre jetzt nix unmachbares, erstrechtnicht bei 400W... 96CUs und die ans limit gedrückt --> 400W und 160% mehr performance(zumindest wenn die speicherbandbreite auf min. 1.2TB angehoben wird, alles drunter dürfte die GPU massiv ausbremsen)
Troyan
2020-06-11, 00:19:24
obs wirklich echte leaks sind oder finten? da bin ich mir auch nicht sicher.
ich glaub igor verarscht uns. nimm doch mal das was er zu big navi gepostet hat. 400w bei +50% perf./w. weißt du welche steigerung da gegenüber navi10 wären? dann wäre big navi 2,6x mal so schnell.
irgendeine angabe stimmt da nicht. entweder die 400w. oder die +50% perf/w. letzteres gabs schon auf folien, also sind die 400w quatsch. damit meine ich nicht 350w oder so, ich meine damit bleibt man weiterhin unter den 300w.
und wenn das schon nicht stimmt was zu amd von ihm gepostet wurde, dann wohl auch nicht das zu ampere.
das pcb sieht für mich so aus, als würde man bei der"3090" ebenfalls 250w als tbp anvisiert haben.
so meine gedanken zu den letzten leaks.
Es gibt von AMD keine weitere Aussagen. Die 50% können wir bei RDNA1 einfach 20% mehr Leistung 25% weniger Stromverbrauch sein.
Genauso wenig wie von nVidia. Aber hier fiebert man ja rum, dass die schon 350W benötigen mit einem kompletten Fullnode Sprung und neuer Architektur. ;D
Ravenhearth
2020-06-11, 00:31:54
Es gibt von AMD keine weitere Aussagen. Die 50% können wir bei RDNA1 einfach 20% mehr Leistung 25% weniger Stromverbrauch sein.
Erstmal wäre man bei 50% schon mit 20% mehr Leistung und 20% weniger Verbrauch. Aber davon abgesehen, wenn AMD ein "halo product" ankündigt, wieso sollten sie dann auf 180W und nur 20% mehr Leistung gehen? Das macht keinen Sinn. AMD wird definitiv eine Karte liefern, die deutlich über der 5700 XT angesiedelt ist.
Troyan
2020-06-11, 00:40:25
Ich bezog mich auf die von AMD kommunizierten 50% Perf/W Steigerung. Das ein größerer Chip mit mehr Leistung auch mehr Strom benötigen wird, ist klar.
IgorsLab spekuliert ein bisschen weiter: https://www.igorslab.de/350-watt-fuer-nvidias-neues-ampere-spitzenmodell-rtx-3090-ich-rechne-mal-nach-warum-der-wert-so-stimmt/
Am interessanten ist die Die-Größe von GA102. Mit möglichen 627mm^2+ und ca. 50 Millionen Transistoren pro mm^2 ist man dann bei ca 32 Mrd.
amdfanuwe
2020-06-11, 00:45:46
stand unsinn.
Daredevil
2020-06-11, 00:52:34
Igor rechnet auf 230w für die GPU selbst.
Meine 2080ti zeigt im GPUz bei 330w PowerLimit einen Verbrauch allein für die GPU von 255w an.
Ist also zumindest nicht weit entfernt von so einer Custom 2080ti, nur das eben a bissal weniger RAM drauf ist. ^^
BlacKi
2020-06-11, 01:24:00
naja, +160% zur 5700XT wäre jetzt nix unmachbares, erstrechtnicht bei 400W... 96CUs und die ans limit gedrückt --> 400W und 160% mehr performance(zumindest wenn die speicherbandbreite auf min. 1.2TB angehoben wird, alles drunter dürfte die GPU massiv ausbremsen)
doch, ich halte es für ausgeschlossen, denn ich rechne damit, das der takt hauptbestandteil der 50%p/w ist. wenn man den hochzieht sodass die karte knapp 400w zieht, dann ist das für mich unvereinbar. zumal im selben prozess.
Cubitus
2020-06-11, 03:32:12
Hmm mich interessiert der Kühler...:D
ausgehend vom ersten Leak und der Laufrichtung des Lüfters müsste es eigl so funktionieren..
Lüfter 1 schaufelt kalte Luft in den Kühler.. d.h der PC sollte möglichst frei stehen..
Die Aussparung deutet die Chip-Größe an, direkt darunter befindet sich eine massive Vapochamber, welche die Hitze in die 4 fetten Heatpipes drückt..
In der Mitte wird bereits vor-abgekühlt, im hinteren Bereich saugt Lüfter 2 die Umgebungsluft an und lässt die Kühlrippen die Wärme ins Gehäuse ableiten..
Dennoch, imo benötigt man in seinem Gehäuse einen guten Luftzug und große Lüfter welche die warme Luft aus dem Gehäuse abführen müssen..
Interessanterweise sind die zentralen Heatsinks aber nicht an das Slotblendenseitige Lamellenpaket angeschlossen und bekommen daher keinen Luftstrom ab. Das sind also nur Passivkühler die kaum zur Kühlleistung beitragen, auch weil sie nur über einen kleinen streifen überhaupt Kontakt mit der Bodenplatte haben dadurch dass die Heatpipes dadrunter liegen.
Das ist einfach keine Kühllösung für 320Watt, sorry Leute...
Wäre noch interessant zu wissen ob im Deckel ein Luftspalt über sämtliche Kühlrippen komplett durchgezogen wird und Lüfter 1 und 2 gemeinsam einen Durchzug entstehen lassen :uponder:
Wobei die hinteren Kühlrippen die Luft stauen würden..
Entweder ist die Vapochamber wirklich so gut und das Konzept drum herum bestens drauf ausgerichtet.
Oder das Kühler-Design geht auf Kosten der Lautstärke und Effizienz, was natürlich verheerend wäre..
Oder die TDP Angaben stimmen einfach so nicht und sind zu hoch gegriffen, wäre natürlich das Optimum^^
Leonidas
2020-06-11, 03:51:40
Was ich überhaupt nicht verstehe ist dieses, GeForce RTX 2060 1920 Shader-Einheiten und GeForce RTX 3060 auch 1920 Shader-Einheiten ?
Gefällt mir auch nicht. Ich hätte lieber eine RTX3060 auf GA104-Basis mit 38-40 SM.
Es ist nicht die gleiche TGP.
Kleines Mißverständnis: Ich redete von GA102-Lösung #2 und #3. Beide haben in der Igor-Liste 320W TDP.
crux2005
2020-06-11, 04:00:50
Guck nochmal hin, du siehst es verkehrt herum. Der auf den Fotos sichtbare 8pin Anschluss ist auf der Oberseite, das sieht man am Slotblech.
Klar. Deswegen habe ich doch geschrieben was ich geschrieben habe.
Und was den Zettel angeht, der verdeckt mit einer Ecke auch einen Teil oben. Mit den neuen Bildern vom Kühlkörper ist das aber auch ausgeschlossen.
Du hast es so mit dem Zettel beschrieben das ich dachte es soll noch ein zweiter 8 Pin an der unteren Kante beim PCI-Express Slot sein, was natürlich Unsinn wäre.
Hmm mich interessiert der Kühler...:D
Lüfter 1 schaufelt kalte Luft in den Kühler.. d.h der PC sollte möglichst frei stehen..
Mindestens ein Problem hat der Kühler. Der 2. Lüfter (der auf der Unterseite - neben GeForce RTX) wird die Luft vom CPU Kühler klauen, wenn nicht AiO oder Wakü. :(
btw: so wie ich das sehe wird der mittlere Teil (breite Lamellen) auch nicht sehr gut ausgenutzt. Aber Wahrscheinlich ist dieser Teil nötig damit sich die zwei Lüfter nicht gegenseitig mit turbulenter Luft "stören".
Edit 2: Da wo die blauen Pfeile sind wird die warme Luft durch die Slot Blende gedrückt. Sorry Cubitus, aber deine Zeichnung ist falsch. :D
Cubitus
2020-06-11, 04:29:20
Mindestens ein Problem hat der Kühler. Der 2. Lüfter (der auf der Unterseite - neben GeForce RTX) wird die Luft vom CPU Kühler klauen, wenn nicht AiO oder Wakü. :(
btw: so wie ich das sehe wird der mittlere Teil (breite Lamellen) auch nicht sehr gut ausgenutzt. Aber Wahrscheinlich ist dieser Teil nötig damit sich die zwei Lüfter nicht gegenseitig mit Turbulenter Luft "stören".
Edit: Irgendwie sehe ich auch nicht wie die ganze Warme Luft vom 1. Lüfter abgeführt werden soll. Seiten sind abgedeckt, Mittelteil ist zu und nach unten macht das PCB zu.
:uponder:
Stimme ich dir zu, vor allem wenn du vorne einen Gehäuse Lüfter saugend hast, wird sich die Karte einem CPU-Luftkühler den Luftstrom streitig machen.
Hmm es könnte so gehen:
Wenn die beiden Teile oben so wie unten eigl von einander getrennt sind,
Drückt Lüfter 1 die Luft am X Vorbei und Lüfter 2 ist nur für den hinteren teil zuständig, die Luft am hinteren Teil des X steigt quasi nochmals auf, und wird vom hinteren Lüfter zusätzlich eingezogen..
Die schwarze Platte, quasi dort wo keine Lamellen zu sehen sind, könnte auch die Abdeckung für die Spawas sein..
https://abload.de/img/2020-06-1102_26_54-wipnj2l.jpg (https://abload.de/image.php?img=2020-06-1102_26_54-wipnj2l.jpg)
Edit 2: Da wo die blauen Pfeile sind wird die warme Luft durch die Slot Blende gedrückt. Sorry Cubitus, aber deine Zeichnung ist falsch. :D
Das kam mir auch in den Sinn... Möglich wäre auch das die Luft vom Gehäuse genommen wird und eben ganz klassisch eben nach draußen gepresst wird.. Wie gesagt die X Form ist sehr außergewöhnlich..
Möglich wäre aber auch das, wenn man von meinem zweiten Bild ausgeht die Luft vom Lüfter 2 den Luftstrom entgegengesetzt durch das X presst, wie gesagt in der Annahme das beide "Kammern" quasi voneinander getrennt sind..
Also der Kühler wirft iwie mehr Fragen als Antworten auf xD :freak:
crux2005
2020-06-11, 04:40:09
Hmm es könnte so gehen:
Wenn die beiden Teile oben so wie unten eigl von einander getrennt sind,
Drückt Lüfter 1 die Luft am X Vorbei und Lüfter 2 ist nur für den hinteren teil zuständig, die Luft am hinteren Teil des X steigt quasi nochmals auf, und wird vom hinteren Lüfter zusätzlich eingezogen..
Dachte ich mir auch erst. Wird aber nicht gehen weil einerseits das PCB von unten und andererseits das Plastik(?) vom Kühler die Seiten abdeckt.
Der einzige Weg den ich momentan sehe (ist aber schon spät, muss off) ist die Slotblende. Also da wo die blauen Pfeile anfangen.
Die schwarze Platte, quasi dort wo keine Lamellen zu sehen sind, könnte auch die Abdeckung für die Spawas sein..
Hmm. Die große Platte ist wohl der Vaporchamber für die GPU. Dahinter sind auch kleinere Platten aber kp für was.
Möglich wäre aber auch das, wenn man von meinem zweiten Bild ausgeht die Luft vom Lüfter 2 den Luftstrom entgegengesetzt durch das X presst, wie gesagt in der Annahme das beide "Kammern" quasi voneinander getrennt sind..
Also der Kühler wirft iwie mehr Fragen als Antworten auf xD :freak:
Glaube die Kammern sind von einander getrennt. Der 2. Lüfter kann keine warme Luft ins "X" blasen.
Cubitus
2020-06-11, 05:11:29
Dachte ich mir auch erst. Wird aber nicht gehen weil einerseits das PCB von unten und andererseits das Plastik(?) vom Kühler die Seiten abdeckt.
Der einzige Weg den ich momentan sehe (ist aber schon spät, muss off) ist die Slotblende. Also da wo die blauen Pfeile anfangen.
Hmm. Die große Platte ist wohl der Vaporchamber für die GPU. Dahinter sind auch kleinere Platten aber kp für was.
Glaube die Kammern sind von einander getrennt. Der 2. Lüfter kann keine warme Luft ins "X" blasen.
Ja schade ich sehe bei der Lüfterabdeckung erstmal auch so keine Auslässe, als das man die Luft durch das X Leiten könnte, schade eigl..
dann wäre es klassisch, die Luft wird vom Gehäuse genommen und wird vom Lüfter 1 in Kammer 1 entgegen dem Uhrzeigersinn zirkuliert und eben dann rausgepresst, während Lüfter 2 sich um weitere Abkühlung der Heatpipes in Kammer 2 kümmert..
Ich frag mich aber nur was dieses X dann soll...
Ist das jetzt Design oder Funktionalität... Das hat mich so verwirrt..
Gut es findet einen Vorkühlung der Heatpipes statt. Aber die Seiten des X, welche ja miteinander verlötet sind, werden dann quasi auch nur passiv durch Lüfter 1 angehaucht..
Der Kühler wirkt im Gegensatz zum RTX2080TI FE Kühler dadurch iwie schwächer..
Edit, wobei wenn man die Rohre allein für sich betrachtet, und auch wie lang diese sind, dann würden die 300 Watt schon Sinn ergeben..
Die Heatpipes bei der 480er GTX waren vergleichbar dick, aber kürzer..
Der einzige Weg den ich momentan sehe (ist aber schon spät, muss off) ist die Slotblende. Also da wo die blauen Pfeile anfangen.
Joa gn8, ich lass meine Malkünste jetzt auch mal stecken ;D
robbitop
2020-06-11, 09:00:25
Am interessanten ist die Die-Größe von GA102. Mit möglichen 627mm^2+ und ca. 50 Millionen Transistoren pro mm^2 ist man dann bei ca 32 Mrd.
Im Falle von 7 nm wäre das so. Doppelt so viele Transistoren für 20% mehr Ausführungseinheiten? Klingt IMO unwahrscheinlich - auch wenn diese jeweils mehr können werden.
Oder aber man erreicht dort auch nur 40 Mio Transistoren pro mm2 wie bei AMD.
Packdichte und Takt sind auch bei gleichem Prozess diametrale Größen. GA100 packt für 7 nm sehr dicht, taktet aber auch relativ niedrig.
Dural
2020-06-11, 09:40:20
Die werden RT und Co massiv beschleunigt haben.
Daher können die 20% mehr Einheiten auf 40% mehr Transistoren schon stimmen.
Troyan
2020-06-11, 09:45:08
Packdichte und Takt sind auch bei gleichem Prozess diametrale Größen. GA100 packt für 7 nm sehr dicht, taktet aber auch relativ niedrig.
Was sind an 1,450Mhz bei ~50 Mrd. Transistoren niedrig?
robbitop
2020-06-11, 09:49:15
Was sind an 1,450Mhz bei ~50 Mrd. Transistoren niedrig?
65 Mrd Transistoren/mm² ist viel Packdichte für 7 nm.* Vergleich: N10 und V20 sind bei 40 Mrd/mm2.
1450 MHz ist relativ wenig Takt. Insbesondere wenn man ihn mit seinen neuen kleinen Brüdern vergleichen wird.
*https://www.techpowerup.com/gpu-specs/nvidia-ga100.g931
robbitop
2020-06-11, 09:50:13
Die werden RT und Co massiv beschleunigt haben.
Daher können die 20% mehr Einheiten auf 40% mehr Transistoren schon stimmen.
40% mehr Transistoren ja. Aber nicht doppelt so viele. ;)
mironicus
2020-06-11, 09:55:54
Ja, erklärt mir mal warum der GA100 so wenig Takt hat und trotzdem schon 400 Watt verbrauchen soll. Das lässt doch nichts gutes für die Ampere-Gaming-Karten erwarten.
Troyan
2020-06-11, 09:59:27
65 Mrd Transistoren/mm² ist viel Packdichte für 7 nm.* Vergleich: N10 und V20 sind bei 40 Mrd/mm2.
1450 MHz ist relativ wenig Takt. Insbesondere wenn man ihn mit seinen neuen kleinen Brüdern vergleichen wird.
*https://www.techpowerup.com/gpu-specs/nvidia-ga100.g931
Inwieweit ist 1450Mhz wenig, wenn die Version von G100 fast doppelt soviele Transistoren hat und 2,5x mehr Leistung liefert?
robbitop
2020-06-11, 10:00:40
Ja, erklärt mir mal warum der GA100 so wenig Takt hat und trotzdem schon 400 Watt verbrauchen soll. Das lässt doch nichts gutes für die Ampere-Gaming-Karten erwarten.
54 Mrd Transistoren. Und dazu hohe Einheitenauslastung durch HPC Load cases.
TU102 hat nur 18 Mrd Transistoren. GA100 ist massiv und absolut an der Grenze des Machbaren.
400 W sind IMO OK, wenn entsprechend Leistung herauskommt.
Eiffizienz ist Perf/W. Was da an Performance (insbesondere für Inferencing) bei herauskommt ist verglichen mit dem was es gab eine viel größere Steigerung als die der Leistungsaufnahme. Entsprechend steigt die Effizienz.
Das Ding wird in großen Servern verbaut, die in klimatisierten Räumen stehen wo Lautstärke irrelevant ist. Und sehr viele davon. Wichtig ist da nur Perf/W.
Inwieweit ist 1450Mhz wenig, wenn die Version von G100 fast doppelt soviele Transistoren hat und 2,5x mehr Leistung liefert?
Es geht nicht um Performance, die ohne Frage extremst hoch ist. Entsprechend ist die Energieeffizienz sehr sehr hoch. Ohne Frage.
Es geht um die grundsätzliche Auslegung. Hohe Frequenzen -> muss man bei Packdichte eben etwas ablassen. Bei 1450 MHz kann man auch dichter packen. Ist gerade für HPC auch die schlauere Wahl, da die Workloads extrem parallelisierbar sind. Entsprechend kann man Einheiten quasi beliebig skalieren (im Gegensatz zu Game Workloads) - die Performance skaliert linear mit. Mehr Einheiten skalieren grob proportional mit der Performance. Frequenz hingegen: f~P³.
Entsprechend sinnvoller, konservative Taktraten zu fahren dafür mehr SMs - dann kann man auch mit der Packdichte hoch.
robbitop
2020-06-11, 10:09:12
Bei 627 mm² wäre man bei 40 Mrd Transistoren /mm² bei ~25 Mrd Transistoren. Ggf. ist man auch ein wenig höher. 45 Mrd/mm² -> 28 Mrd.
Klingt für mich nach N7P und nicht Samsungs 8 nm (hier würde ich bei höher taktenden Designs eher 32...35 Mrd/mm² annehmen -> wären dann nur 20-21 Mrd Transistoren). Da müsste der Die schon größer sein. Mal schauen, wie es mit GA104 und 106 aussieht.
GA100 kann diese Packdichten eigentlich nur mit der Mobilvariante von N7 schaffen - so kommt auch der Takt zustande. Außerdem könnte das den offensichtlich beschissenen Yield erklären.
Lt Igor ist GA102 627mm² groß. Igor erklärt die hohe TDP von 350W überigens mit der Doppelbestückung des GDDR-Speichers bei der 3090 für 24GB. Damit würde allein der Speicher 30W mehr brauchen. Der Chip soll 230W haben.
https://www.youtube.com/watch?v=JTXLEA9ZEOA
robbitop
2020-06-11, 10:14:35
GA100 kann diese Packdichten eigentlich nur mit der Mobilvariante von N7 schaffen - so kommt auch der Takt zustande.
N7+ hat auch höhere Packdichten. N7P auch ein wenig mehr. Und grundsätzlich ist Packdichte auch ein gutes Stück designabhängig.
TPU nennt N7P
https://www.techpowerup.com/267106/nvidia-ga100-scalar-processor-specs-sheet-released
Troyan
2020-06-11, 10:21:42
Es geht nicht um Performance, die ohne Frage extremst hoch ist. Entsprechend ist die Energieeffizienz sehr sehr hoch. Ohne Frage.
Es geht um die grundsätzliche Auslegung. Hohe Frequenzen -> muss man bei Packdichte eben etwas ablassen. Bei 1450 MHz kann man auch dichter packen. Ist gerade für HPC auch die schlauere Wahl, da die Workloads extrem parallelisierbar sind. Entsprechend kann man Einheiten quasi beliebig skalieren (im Gegensatz zu Game Workloads) - die Performance skaliert linear mit. Mehr Einheiten skalieren grob proportional mit der Performance. Frequenz hingegen: f~P³.
Entsprechend sinnvoller, konservative Taktraten zu fahren dafür mehr SMs - dann kann man auch mit der Packdichte hoch.
Du hast Ampere nicht verstanden. nVidia hast die "Rechenleistung pro Takt" massiv erhöht. FP16 hat ein 4:1 Verhältnis, DP 1:1 und die TensorCores haben ebenfalls 4:1 (Endresultat ist 2:1 durch die Halbierung der Anzahl).
nVidia benötigt keinen hohen Takt, weil man pro Takt mehr Leistung erreicht. Dafür müssen eben deutlich mehr Transistoren aufgewendet werden.
Daher nochmal meine Frage: Was ist an 1450Mhz und ~50 Mrd. Transistoren wenig?
N7+ hat auch höhere Packdichten. N7P auch ein wenig mehr. Und grundsätzlich ist Packdichte auch ein gutes Stück designabhängig.
TPU nennt N7P
https://www.techpowerup.com/267106/nvidia-ga100-scalar-processor-specs-sheet-released
Wenn der N7+ wär, wär das kommuniziert worden, das EUV ist marketingwirksam. Die Rede war ganz klar von N7 und so wird das auch sein. TPU schreibt auch HBM2E, was Quatsch ist. Der Speicher ist ganz klar innerhalb der normalen HBM2-Spezifikation.
robbitop
2020-06-11, 10:25:10
Du hast Ampere nicht verstanden. nVidia hast die "Rechenleistung pro Takt" massiv erhöht. FP16 hat ein 4:1 Verhältnis, DP 1:1 und die TensorCores haben ebenfalls 4:1 (Endresultat ist 2:1 durch die Halbierung der Anzahl).
nVidia benötigt keinen hohen Takt, weil man pro Takt mehr Leistung erreicht. Dafür müssen eben deutlich mehr Transistoren aufgewendet werden.
Daher nochmal meine Frage: Was ist an 1450Mhz und ~50 Mrd. Transistoren wenig?
Das war nicht der Punkt.
Und btw: solche Grundzusammenhänge angeblich nicht verstanden zu haben, ist lächerlich (und ein wenig anmaßend). Ich habe diese sogar selbst 2x dargestellt.
Wenn der N7+ wär, wär das kommuniziert worden. Die Rede war ganz klar von N7 und so wird das auch sein. TPU schreibt auch HBM2E, was Quatsch ist. Der Speicher ist ganz klar innerhalb der normalen HBM2-Spezifikation.
Hat NV explizit N7 gesagt? Wo? Würde mich wundern, wenn man jetzt noch auf N7 und nicht N7P setzt.
https://www.golem.de/news/a100-nvidias-7-nm-monster-gpu-misst-826-mm-2005-148480.html
brauchst nur nach suchen, findet man sofort. Die Tabelle wird ja 1:1 aus NV-Material stammen. Ich gehe jede Wette ein, dass das N7 Mobile ist. Und ich wette, dass man das günstig bekommen hat.
Troyan
2020-06-11, 10:30:21
Es gibt keinen Zusammenhang zwischen Packdichte und Taktrate. Die Behauptung, dass A100 "niedrig" takte, ist einfach falsch, da der Chip >50 Mrd. Transistoren hat und bei dieser Taktung 2,5x mehr Leistung gegenüber V100 liefert.
robbitop
2020-06-11, 10:38:31
https://www.golem.de/news/a100-nvidias-7-nm-monster-gpu-misst-826-mm-2005-148480.html
brauchst nur nach suchen, findet man sofort. Die Tabelle wird ja 1:1 aus NV-Material stammen.
Müsste man Marc mal fragen. Wird schon so sein ist noch nicht 100% solide. :)
Es gibt keinen Zusammenhang zwischen Packdichte und Taktrate. Die Behauptung, dass A100 "niedrig" takte, ist einfach falsch, da der Chip >50 Mrd. Transistoren hat und bei dieser Taktung 2,5x mehr Leistung gegenüber V100 liefert.
Es sind grundsätzlich 2x Kausalketten die zusammenhängen und sich gegenseitig sogar begünstigen. Ja A100 hat extrem viele Transistoren und dank seiner Tensorcores auch in den Inferencing Workloads enorm hohe Performance. Das ist überhaupt nicht die Frage.
Die Auslegung, maximale Performance pro Watt zu erreichen ist bei HPC: möglichst viele, möglichst effiziente Ausführungseinheiten zu verbauen. Einfach aufgrund der Parallelisierbarkeit. Entsprechend macht das mehr Sinn als einfach den Takt hochzuprügeln. Beides gleichzeitig würde die Energieeffizienz senken - eben da f~P³. Lieber mehr Einheiten (idealerweise welche die für den Workload auch optimiert sind - wie die modernen FP64 TCs - ohne Frage - alles richtig/gute Wahl) verbauen da SM~P.
Wenn man eh mit konservativen Taktraten aus Energieeffizienzgründen operiert, kann man auch die Packdichte erhöhen. Die gewonnene Fläche kann man in nochmehr Einheiten investieren. Das greift in einander. Es ist einfach aufgrund des Workloads ein völlig anderer Ansatz.
Wir werden ja sehen, welche Packdichte GA102 bei ggf. gleichem Prozess hat. Ich tippe aus obigen Gründen auf eine geringere Packdichte.
Ich bezweifle, dass man solche Packdichten mit N7 HPC hinbekommt.
Ein A12 hat beispielsweise 71mio Transistoren/mm², man sieht in welche Bereiche sich das bewegt, das passt einfach.
Übrigens hat der A13 in N7P 85,2mio mm², der Abstand zu N7 ist also nicht sooo groß. Apple kann man sicherlich als Referenz sehen, was Packdichte angeht. Zen2 hat 52,7mio mm² in N7 HPC ohne jegliches I/O.
AffenJack
2020-06-11, 10:39:40
Bei 627 mm² wäre man bei 40 Mrd Transistoren /mm² bei ~25 Mrd Transistoren. Ggf. ist man auch ein wenig höher. 45 Mrd/mm² -> 28 Mrd.
Klingt für mich nach N7P und nicht Samsungs 8 nm (hier würde ich bei höher taktenden Designs eher 32...35 Mrd/mm² annehmen -> wären dann nur 20-21 Mrd Transistoren). Da müsste der Die schon größer sein. Mal schauen, wie es mit GA104 und 106 aussieht.
Die Diegröße und spekulierte Einheitenzahlen lassen für mich eher recht niedrige Transistorzahlen tippen. 5376 SP sind gerade mal 17% mehr als TU102. Leg noch Architekturverbesserungen drauf, dann landest du eher bei 30%- 40% mehr Transistoren, also mehr oder weniger bei den 40Mrd Trans/mm². Das könnte durchaus auch mit Samsung machbar sein, ist gerade mal 1,6X Packdichte zu gerade. Ein Hochtaktdesign von Nvidia bei TSMC 7nm würde ich eher auf ~2 fache Packdichte zu 12nm schätzen, wo man mit A100 schon bei Faktor 2,56 ist. Ich würde das nicht mit AMD vergleichen, wo man wahrscheinlich mit Absicht erstmal ne niedrige Packdichte genommen hat. Bei RDNA2 erwarte ich da auch eher ne höhere Packdichte.
robbitop
2020-06-11, 10:47:37
Ich bezweifle, dass man solche Packdichten mit N7 HPC hinbekommt.
Ein A12 hat beispielsweise 71mio Transistoren/mm², man sieht in welche Bereiche sich das bewegt, das passt einfach.
Ja aus genau diesen Gründen sind die Packdichten bei solchen Designs, wo es nicht auf besonders hohen Takt ankommt möglich. :)
Die Diegröße und spekulierte Einheitenzahlen lassen für mich eher recht niedrige Transistorzahlen tippen. 5376 SP sind gerade mal 17% mehr als TU102. Leg noch Architekturverbesserungen drauf, dann landest du eher bei 30%- 40% mehr Transistoren, also mehr oder weniger bei den 40Mrd Trans/mm². Das könnte durchaus auch mit Samsung machbar sein, ist gerade mal 1,6X Packdichte zu gerade. Ein Hochtaktdesign von Nvidia bei TSMC 7nm würde ich eher auf ~2 fache Packdichte zu 12nm schätzen, wo man mit A100 schon bei Faktor 2,56 ist. Ich würde das nicht mit AMD vergleichen, wo man wahrscheinlich mit Absicht erstmal ne niedrige Packdichte genommen hat. Bei RDNA2 erwarte ich da auch eher ne höhere Packdichte.
Samsungs 8 nm ist im Prinzip ein 10 nm+. Man liegt also grob gesehen mittig zwischen 7 nm und 12/16nm. Also irgendwo zwischen 25 Mrd/Transistoren und >40 Mrd Transistoren. N7P legt ggf. noch etwas drauf. 40 Mrd wäre für 8 nm für hoch taktende Designs IMO zu viel.
A100 ist mit 60 Mrd/mm² wirklich extrem hoch - taktet aber auch nur mit 1,45 GHz.
Ich würde da eher auf 7 nm tippen für GA102 mittlerweile. Aber mal schauen, was am Ende rauskommt. :)
basix
2020-06-11, 11:11:50
Es gibt keinen Zusammenhang zwischen Packdichte und Taktrate. Die Behauptung, dass A100 "niedrig" takte, ist einfach falsch, da der Chip >50 Mrd. Transistoren hat und bei dieser Taktung 2,5x mehr Leistung gegenüber V100 liefert.
Packdichte hat sehr wohl Einfluss auf die Taktrate. Wenn du den selben Prozess, die selbe Chip-Architektur und eine mehr oder minder vergleichbare Chipfläche nimmst, werden höhere Packdichten eigentlich immer den Takt reduzieren. Mehr Einheiten auf selber Fläche: Hohe Verlustleistung und Energiedichte. Bei GPUs mit so hohen Wattagen reduziert das automatisch den Takt.
Ein anderes Beispiel ist Intel. Ihr 14nm Prozess würde auf dem Papier eine viel höhere Packdichte zulassen. Wieso macht das Intel also nicht? Wieso haben sie den Poly Pitch zwischen Coffee Lake und Kaby Lake sogar vergrössert? Ah ja, das wird generell mit höheren Taktraten in Verbindung gebracht ;)
Und zum "niedrigen" Takt:
Ich hätte ehrlich gesagt auch mehr erwartet beim Sprung von 12nm FFN nach 7nm. Und ein Taktrückschritt verglichen zu Volta hätte ich niemals erwartet. Schlussendlich ist der Takt aber egal und die Leistung, die hinten rauskommt, ist entscheidend. Hier liefert Nvidia meiner Meinung nach aber nur teilweise. Alles rund um Tensor Operations bekommen wirklich einen massiven Boost. Da gibt es nichts zu meckern. Alles andere ist aber irgendwie etwas unterwältigend.
+33% FP32 FLOPS bei +33% TDP = gleiche Effizienz wie V100
+33% FP64 FLOPS bei +33% TDP = gleiche Effizienz wie V100
+160% Tensor FP64 bei +33% TDP = +100% Effizienz verglichen zu V100. Dies aber im absoluten und nicht erreichbaren Optimalfall, wenn alle FP64 Operationen einer Anwendung aus Matrizen-OPs bestehen.
Die 2.5x Leistung die du da erwähnst (wohlgemerkt bei +33% TDP), will ich erst mal sehen. Nvidia selbst gibt bei HPC-Applikationen (https://devblogs.nvidia.com/nvidia-ampere-architecture-in-depth/) im Schnitt eine Leistungssteigerung von etwa 1.8x an. Inkl. höherer TDP landen wir bei gerademal +30-40% höherer Effizienz. Das finde ich nicht gerade berauschen, wenn man den Sprung auf 7nm mit einbezieht.
davidzo
2020-06-11, 11:15:43
Die schwarze Platte, quasi dort wo keine Lamellen zu sehen sind, könnte auch die Abdeckung für die Spawas sein..
https://abload.de/img/2020-06-1102_26_54-wipnj2l.jpg (https://abload.de/image.php?img=2020-06-1102_26_54-wipnj2l.jpg)
Welche zweite schwarze Platte? Da ist nur eine Schwarze Platte, die vapor chamber Basis. Das Richtung Slotblech ist die Halterung für den Lüfter und die kleinen gewinkelten Flächen am Boden der beiden zentralen Heatsinks sind deren Auflagepunkt auf den heatpipes. Das sind ganz normale fin stacks, die unten eine Auflagefläche abgekantet haben und dann mit reichlich lötpaste auf die Heatpipes geschnallt werden.
Dachte ich mir auch erst. Wird aber nicht gehen weil einerseits das PCB von unten und andererseits das Plastik(?) vom Kühler die Seiten abdeckt.
Der einzige Weg den ich momentan sehe (ist aber schon spät, muss off) ist die Slotblende. Also da wo die blauen Pfeile anfangen.
Exakt, der erste Lüfter bläst zur Hälfte direkt wieder zur Slotblende raus und zur anderen Hälfte in das Case bzw. richtung der zentralen schrägen Lamellenpakete. Umso merkwürdiger dass diese Lamellenpakete anscheinend von dieser Seite durch ein Blech geschlossen sind, oder sind da Löcher?
Hier ausgerechnet "ducted fans" zu verwenden, also axiallüfter mit umlaufendem Außenring, halte ich für sehr ungeschickt. Das bedeutet dass die Lamellenteile auf Höhe des Lüfters gar nicht durchströmt werden können, sondern die Luft erst in den heatsink Richtung PCB gedrückt wird. Auf PCB Höhe ist die Slotblende aber hinten geschlossen, da befinden sich ja die Displayport und HDMI Anschlüsse. Die Luft wird also erneut umgeleitet nach oben.
Das ist ein katastrophaler Airflow, zumal für einen Axiallüfter, welche in Szenarien mit hohem statischen Druck stark einbrechen (high FPI, viele Luftumleitungen).
Pi mal Daumen kann man davon ausgehen dass ein mittelschneller Axiallüfter (2000-3000rpm bei 100mm Durchmesser, entscheidend ist die mittlere Rotorgeschwindigkeit, d.h. bei größerem Durchmesser reichen weniger rpm) durch eine Umleitung des Luftstroms um 90 Grad 50% an Airflow einbüßt. In diesem Heatsink passiert das 2,5mal, in vielen anderen nur 1 bis 1,5mal.
Deshalb trägt der hintere Lüfter der gerade durchblasen kann mehr als 70% zur Kühlleistung bei. Der wird trotz des high FPI Radiators in dem er hinten verbaut ist 2x bis 3x mehr Luftdurchsatz haben als der vordere Lüfter am Slotblech.
Hmm. Die große Platte ist wohl der Vaporchamber für die GPU. Dahinter sind auch kleinere Platten aber kp für was.
Da sind nicht mehrere Platten. Das sind entweder optische Täuschungen durch den Winkel und die schwarzen Lamellen oder das sind eben Fin-Stacking Verbinder bzw. Auflagepunkte. Die schrägen Lamellen des zentralen heatsinks schweben ja nicht im luftleeren Raum. Zumal die Vapor chamber an dieser Stelle schmaler ist, unter den Lamellenenden sieht man ja nacktes PCB. Zentral dadrunter sind die vier Heatpipes welche etwas nach Innen, Richtung GPU gebogen sind. Die Flächen über dne Heatpipes können also nur die Auflagepunkte für die beiden Lamellenpakete sein. beidseitig gekrümmte Heatpipes sind zwar eine ganz schlechte Auflagefläche für Lamellen, aber anscheinend stopft nvidia da einfach viel Lot rein und hofft auf das beste. Diese Lamellen sind ja auch kaum luftdurchströmt, sind wohl hauptsächlich für die Ästhetik da.
Glaube die Kammern sind von einander getrennt. Der 2. Lüfter kann keine warme Luft ins "X" blasen.
Definitiv, der zweite Lüfter bläst direkt durch. Das ist bei diesen engen FPI auch sehr effektiv so, mehr Luftwege und Lamellenlänge würde bei einem Axialen Lüfter nur die Flowrate einbrechen lassen.
8LPP wär echt zu wenig, ich seh das ein. Da schafft man vielleicht 35mio/mm², das reicht nicht für einen derart verstärkten 627mm²-Chip.
Wenn Man N7 HPC zugrunde legt müsste GA102 ca. 27mia Transistoren haben, was wie die Faust aufs Auge passt mMn. Ich hab das mit 42mio/mm² gerechnet, weil der Chip recht viel I/O haben dürfte und die neuen Speichercontroller in der Menge und Stärke sicherlich nicht sonderlich platzsparend sind.
robbitop
2020-06-11, 11:20:39
So würde ich das auch sehen. 25...28 Mrd Transistoren bei 7 nm. In Bezug auf die Bandbreiten und Einheitensteigerung passt das gut.
X-Bow
2020-06-11, 12:02:18
Exakt, der erste Lüfter bläst zur Hälfte direkt wieder zur Slotblende raus und zur anderen Hälfte in das Case bzw. richtung der zentralen schrägen Lamellenpakete. Umso merkwürdiger dass diese Lamellenpakete anscheinend von dieser Seite durch ein Blech geschlossen sind, oder sind da Löcher?
Schau dir die Umgebung des erste Lüfters nochmal an, der bläst nur durch die Slotblende. Hinten das PCB das über das X bis zum 2ten Lüfter geht. Das freie X in der Mitte wird durch den silberne Rahmen verdeckt, genauso wie die Seiten.
Wo soll die Luft denn zu 50% raus kommen?
Der zweite Lüfter "klaut" nichts vom CPU Lüfter. Die sind weit genug weg das die Luft sich dazwischen frei bewegen kann.
Troyan
2020-06-11, 12:16:21
Packdichte hat sehr wohl Einfluss auf die Taktrate. Wenn du den selben Prozess, die selbe Chip-Architektur und eine mehr oder minder vergleichbare Chipfläche nimmst, werden höhere Packdichten eigentlich immer den Takt reduzieren. Mehr Einheiten auf selber Fläche: Hohe Verlustleistung und Energiedichte. Bei GPUs mit so hohen Wattagen reduziert das automatisch den Takt.
Das war nicht der Bezug. Wenn man auf der selben Fläche 50% mehr Transistoren verbaut, dann wird man nicht besser takten können. Aber man kann bei selber Transistorenanzahl kleinere Chips produzieren, die sich genauso gut takten lassen wie größere mit geringerer Dichte.
Und zum "niedrigen" Takt:
Ich hätte ehrlich gesagt auch mehr erwartet beim Sprung von 12nm FFN nach 7nm. Und ein Taktrückschritt verglichen zu Volta hätte ich niemals erwartet. Schlussendlich ist der Takt aber egal und die Leistung, die hinten rauskommt, ist entscheidend. Hier liefert Nvidia meiner Meinung nach aber nur teilweise. Alles rund um Tensor Operations bekommen wirklich einen massiven Boost. Da gibt es nichts zu meckern. Alles andere ist aber irgendwie etwas unterwältigend.
+33% FP32 FLOPS bei +33% TDP = gleiche Effizienz wie V100
+33% FP64 FLOPS bei +33% TDP = gleiche Effizienz wie V100
+160% Tensor FP64 bei +33% TDP = +100% Effizienz verglichen zu V100. Dies aber im absoluten und nicht erreichbaren Optimalfall, wenn alle FP64 Operationen einer Anwendung aus Matrizen-OPs bestehen.
Niemand hat hier erwartet, dass nVidia 826mm^2 produzieren wird. Das war vorher ausgeschlossen. Des Weiteren reden wir von 65 Millionen Transistoren pro mm^2. Das sind 50% mehr als der Konkurrent.
Unterwältigend ist es nur, wenn man eben keine Ahnung hat, was man vergleicht. Die 400W liegen wohl kaum an, wenn man (D)FMA ausführt. Wäre dies so, würde man auch keine 78TFLOPs mit FP16 erreichen. DP über TensorCores sind auch keine TensorOps sondern DMA-Instruktion.
Die 2.5x Leistung die du da erwähnst (wohlgemerkt bei +33% TDP), will ich erst mal sehen. Nvidia selbst gibt bei HPC-Applikationen (https://devblogs.nvidia.com/nvidia-ampere-architecture-in-depth/) im Schnitt eine Leistungssteigerung von etwa 1.8x an. Inkl. höherer TDP landen wir bei gerademal +30-40% höherer Effizienz. Das finde ich nicht gerade berauschen, wenn man den Sprung auf 7nm mit einbezieht.
Das ist Theorie gegen reale Messungen. Die 400W sind Maximalwert. Vielleicht solltest du erstmal die reale Verbrauchsmessung abwarten.
Die Diegröße und spekulierte Einheitenzahlen lassen für mich eher recht niedrige Transistorzahlen tippen. 5376 SP sind gerade mal 17% mehr als TU102. Leg noch Architekturverbesserungen drauf, dann landest du eher bei 30%- 40% mehr Transistoren, also mehr oder weniger bei den 40Mrd Trans/mm². Das könnte durchaus auch mit Samsung machbar sein, ist gerade mal 1,6X Packdichte zu gerade. Ein Hochtaktdesign von Nvidia bei TSMC 7nm würde ich eher auf ~2 fache Packdichte zu 12nm schätzen, wo man mit A100 schon bei Faktor 2,56 ist. Ich würde das nicht mit AMD vergleichen, wo man wahrscheinlich mit Absicht erstmal ne niedrige Packdichte genommen hat. Bei RDNA2 erwarte ich da auch eher ne höhere Packdichte.
Wieso sollte nVidia Samsung mit 40 Millionen Trans/mm^2 nehmen, wenn man bei TSMC 66 Millionen erreicht? Das ist absurd. Vorallem bei Chip-Größen um 600mm^2 ist eine 1,6x bessere Packdichte durch nichts auszugleichen. Wir reden hier von 400mm^2 zu 600mm^2.
Igor rechnet auf 230w für die GPU selbst.
Meine 2080ti zeigt im GPUz bei 330w PowerLimit einen Verbrauch allein für die GPU von 255w an.
Ist also zumindest nicht weit entfernt von so einer Custom 2080ti, nur das eben a bissal weniger RAM drauf ist. ^^
Also ich find's plausibel, was Onkel Igor da auflistet. Das mit dem Speicher wird oft unterschätzt, hohe Kapazität gibt's nicht umsonst. Und verdoppelte Chips brauchen nun mal mehr Energie als verdoppelte Dichte. Nvidia hat die TDP der Titan RTX ggü. der RTX 2080 Ti FE ja nicht umsonst um 20 Watt angehoben. Und die Titan Classic mit ihren beidseitig angeflaschten 6 GiB GDDR5 war nicht ohne Grund so hart powerlimitiert.
Gibt's irgendwo in den Untiefen des WWW eine Liste, welche Speicherchips was saufen? Falls nein, kann das mal jemand mit guten Connections zu RAM-Herstellern und JEDEC-Sheets machen? :D
MfG
Raff
Badesalz
2020-06-11, 13:07:28
Gibt's irgendwo in den Untiefen des WWW eine Liste, welche Speicherchips was saufen?Da braucht es keine Untiefen um sich ein ungefähres Bild zu machen
https://www.anandtech.com/show/9883/gddr5x-standard-jedec-new-gpu-memory-14-gbps
https://www.eeweb.com/profile/scharag/articles/high-bandwidth-memory-ready-for-ai-primetime-hbm2e-vs-gddr6
Igor schätzt die neuen schnellen GDDR6 auf 2,5W pro Chip, wäre bei 12 8Gb Chips 30W.
Die bisherigen GDDR6 brauchen ca. 2W pro Chip, wäre bei 12 8Gb Chips 24W und das kommt auch hin.
Offenbar gibts die schnellen GDDR6 aber nicht als 16Gb-Chips, was bei der 3090 eine Doppelbelegung nötig macht auf der Rückseite.
BlacKi
2020-06-11, 13:23:05
Und verdoppelte Chips brauchen nun mal mehr Energie als verdoppelte Dichte. Nvidia hat die TDP der Titan RTX ggü. der RTX 2080 Ti ja nicht umsonst um 20 Watt angehoben. Und die Titan Classic mit ihren beidseitig angeflaschten 6 GiB GDDR5 war nicht ohne Grund so hart powerlimitiert.
der hauptanteil des verbrauchs geht aber auf den transfer zurück. und die bandbreite ist nur um 32bit höher. die haben bis auf die 32bit mehr SI fast den selben verbrauch. der verbrauch ohne last verdoppelt sich, der verbrauch durch die last bleibt exakt gleich. bezogen auf 3090vs 3080 und titan rtx vs 2080ti.
wenn das stimmen würde, dann hätte eine 770 4gb auch deutlich mehr verbraucht als eine 770 2gb.
Edit: was die 350w angeht, könnte ich mir vorstellen das bereits custom cards in der vorbereitung sind und dort ähnlich wie bei den topmodellen bei turing ein erhöhtes powertarget durch OC gibt.
robbitop
2020-06-11, 13:29:07
Das war nicht der Bezug. Wenn man auf der selben Fläche 50% mehr Transistoren verbaut, dann wird man nicht besser takten können. Aber man kann bei selber Transistorenanzahl kleinere Chips produzieren, die sich genauso gut takten lassen wie größere mit geringerer Dichte.
Nope. Zumindest nicht außerhalb gewisser Grenzen und Interdependenzen. Das hat nicht nur mit Leistungsdichte zu tun (was definitiv hilft bei Chips mit weniger Transistoren - ja das stimmt) sondern auch mit der Charakteristik von Transistorgeometrie etc. Beispiele: Man schaue sich die Packdichte von mobile SoCs an - die ist bei gleichem Prozess massiv höher. Aus Spaß sind hoch taktende ASICs nicht weiter unten in dieser Metrik. Oder was Intel mit seinem 14nm++ gemacht hat.
Igor schätzt die neuen schnellen GDDR6 auf 2,5W pro Chip, wäre bei 12 8Gb Chips 30W.
Schätzt auf welcher Grundlage?
Offenbar gibts die schnellen GDDR6 aber nicht als 16Gb-Chips, was bei der 3090 eine Doppelbelegung nötig macht auf der Rückseite.
Da braucht es keine geheime Quellen um rauszufinden, dass die momentan im Sample-Status sind. Vermutlich reicht eine Email um rauszufinden, wann sie in Mass Production gehen.
Ich frag mich wann Igor in den letzten 20 Jahren zur seriösen Quelle wurde. Etwas mehr Begründungen bei seinen Aussagen fände ich mal nett. Aktuell finde ich seinen Stil unter aller Sau.
y33H@
2020-06-11, 14:42:58
Igor schreibt explizit den Typ an GDDR6X dazu und auch, er habe beim Hersteller gefragt.
Cubitus
2020-06-11, 17:08:06
Der zweite Lüfter "klaut" nichts vom CPU Lüfter. Die sind weit genug weg das die Luft sich dazwischen frei bewegen kann.
Das kommt ganz auf das Gehäuse an, bei 21,3 cm Länge und kleinen Cases kann das durchaus der Fall sein.
So siehts bei mir aus :(
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12203589&postcount=4497
Der Fan 2 auf der Rückseite der Karte wird sich schon negativ auf den Luftstrom auswirken...
MiamiNice
2020-06-11, 18:43:09
Der Fan 2 auf der Rückseite der Karte wird sich schon negativ auf den Luftstrom auswirken...
Wahrscheinlich wird sich das bei Dir kaum auswirken, da wie es ausschaut, Du einen Unterdruck (2x rein, 3x raus + NT raus) im System hast. Viel schlechter wird es daher wahrscheinlich kaum werden.
In Deinem Tower dürfte verdammt viel Luft über die hinteren Mesh Dinger eingezogen werden was für massiv Verwirbelungen in Deinem System sorgen dürfte.
Ich würde definitiv ein anderes Gehäuse nutzen wollen für die Art von HW. Der obere Frontlüfter arbeitet gegen den voderen Top Lüfter, zumindest sieht es stark danach aus, gerade weil das Gehäuse sehr klein ausschaut. Wie viel Luft da generell beim CPU Lüfter ankommt, mag ich gar nicht drüber nachdenken. Sieht so aus als würde er die Frischluft, ungenutzt, wieder oben raus werfen.
Kann man das Gehäuse nicht auf Wasser umrüsten - dürfte ordentlich was her machen bei der Kiste und Platz für 2 x 120/140er Radis scheint da zu sein.
Eventuell auch nur ein kleiner Loop für die GPU, die gibt es auch geschlossen, da brauchst keinen AGB und den ganzen anderen Stuff.
BlacKi
2020-06-11, 18:47:12
Wahrscheinlich wird sich das bei Dir kaum auswirken, da wie es ausschaut, Du einen Unterdruck (2x rein, 3x raus + NT raus) im System hast. Viel schlechter wird es kaum werden.
Ich würde definitiv ein anderes Gehäuse nutzen wollen für die Art von HW.
die vorne laufen sicher doppelt so schnell wie der rest, das gleicht sich dann aus^^
robbitop
2020-06-11, 18:51:30
Mir ist noch nicht klar, warum man einen Lüfter auf der Rückseite angebracht hat. Auf der Vorderseite wäre das mMn besser. So kann die Abluft des hinteren Kühlsegments in den Kühler der Vorderseite mit angesaugt werden.
BoMbY
2020-06-11, 18:58:54
Das ergibt eigentlich grundsätzlich keinen Sinn die Luft von oben nach unten zu blasen. Warme Luft möchte nach oben steigen, und Gehäuse sind in der Regel darauf ausgelegt die warme Luft nach oben/hinten rauszulassen, und kühle Luft von unten/vorne zuzuführen. Alles was man damit erreicht ist dass man in vielen Fällen die Wahrscheinlichkeit für einen Hitzestau erhöht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.