Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia AD102-450 mit 142 Shader-Clustern, 48 GB GDDR6X und bis zu ...
Leonidas
2022-07-26, 14:42:25
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidia-ad102-450-mit-142-shader-clustern-48-gb-gddr6x-und-bis-zu-800w-tbp
Und AMD wird mehr Leistung bei halben Verbrauch bringen. Wer jetzt noch Nvidia Aktien hat sollte sie schleunigst loswerden bevor sie nichts mehr wert sind.
Legendenkiller
2022-07-26, 15:29:04
Einer 800W Variante wäre dann aber ein riesen Performace Sprung zur 450W 4090. IMO viel für eine 4090ti, da würde n eher die 600W passen.
Muss dann also sowas wie eine Titan werden.
800W wird wohl auch nicht mehr mit Luft gehen.
ChaosTM
2022-07-26, 15:35:16
Mit 4-5 Slots, 32kg Kupfer und Noctua Kühlern geht das schon. Halt nicht überzogen möglicherweise sogar halbwegs leise. :)
Dass 800 Watt nicht zeitgemäß ist versteht sich von selbst, aber gelegentlich braucht man auch was richtig dummes.
Das kaufen bei dem zu erwarteten Preis sowieso nicht viele.
Wenn schon, dann lass es bitte eine (Spiele optimierte) Titan sein ;)
Mega-Zord
2022-07-26, 16:07:26
Zwei davon und eine extrem übertaktete Intel HEDT-CPU, dann dürfte so manch marode Stromleitung im Dauerbetrieb zu kämpfen haben. :D
Wer bitte braucht als Spieler so eine Karte. An Lächerlichkeit nicht zu überbieten, 800w - Fermi die Vierte.
Ehrlich, Nvidia macht sich für mich total lächerlich. Bei über 350w bin ich raus. Fast 2,0 mal so viel Leistung bei 2,0 mal soviel Energiebedarf, was ist das für ein Fortschritt. Nimmt weniger von dem, was auch immer.
De EU sollte diesen Dummfug verbieten und ein Einfuhrverbot für solche Karten verhängen, oder eben extrem besteuern, Minimum 50% Aufschlag. Mining wird in vielen Ländern wegen des Energiebedarfs verboten und nun kommt Nvidia mit so einem Krempel für Gamer. Wissen anscheinend nicht wohin mit dem Mist, weil Krypto komplett abgestützt ist. Gibt so viele Baustellen, aber ihr kommt genau mit diesem Krempel daher, den vielleicht 1% der breiten Masse tangiert, an Blödheit nicht mehr überbieten. Komplett am Markt vorbeientwickelt.
Ich höre jetzt schon wie die einschlägige Presse diesen Unfug wieder bejubelt.
ChaosTM
2022-07-26, 16:13:46
Angesichts solcher Meldungen ist es wirklich (fast) schade, das Spiele SLI tot ist.. ;)
AintCoolName
2022-07-26, 16:15:17
Für mich zeigt sich mal wieder, wie wichtig es ist, dass man in den Performance-Charts ganz oben steht. Koste es was es wolle, oben muss für das Image "Nvidia = schnellste Grafikkarte" eine 40X0 stehen, auch wenn dann keiner die Karte kauft. Aber das beeinflusst mit sichert die Kaufentscheidung der breiten Masse, für den Rest des Portfolios.
Lehdro
2022-07-26, 16:21:37
Echt witzig wie nah der Aprilscherz dem echten Leben ist. Damals drüber gelacht, etwas über ein Jahr später eine ernsthafte Möglichkeit.
Ja eine supertolle Quadro (Beast???), was das die Gamer wohl interessiert? Die sollte anfänglich sogar 900W nehmen. Wer kauft sich sowas zum Spielen?
Hat der Kopite@kimi endlich den Foreneintrag gefunden und daraus gleich eine Karte gebastelt. Bin mal gespannt wie lange die Erleuchtung dauert und er feststellt, dass es nicht PG137 ist und ihm Nvidia diese Info gerne liefert. Für Fakenews. So ein Tr*ll...
Während sich bei Nvidia wegen diesem vermeintlichen Insider die News nur so überschlagen, ruht bei AMD still der See. Das ist ja das Schlimmste für Nvidia, sie wissen nichts über ihre Konkurrenz. Und da stichelt man gerne über Fakenews und provoziert man, bis die hinreißen lassen auch Infos zu leaken. Solange das nicht passiert, lesen wir jeden Tag neue Dummfugnews.
Die 4090ti verbraucht 1000w, hat schon GDDR7XX mit 12TB Bandbreite an einem Pin und 27 so schnell wie GDDR1. Blah Blubb Laber Rhabarber, kopite@kimi Klappe die 100x. Komisch daran ist, immer dann wenn der Aktienkurs gerade wieder in den Keller rauscht. Wer da keine Zusammenaänge sieht, sorry aber der ist ist ziemlich dumm. Mich würde nicht mal wundern, wenn dieser Kerl genau damit sein Geld verdient, in dem er mit den News die Aktienkurse pusht. Als so ein arroganter Dummbeutel der Börse ist, der sich nur für sich selbst interessiert und seinen Kontostand. Dabei so viel gerne aufsitzen, weil er berichtet was man hören will, mein Hersteller ist sowieso der Beste.
Sweepi
2022-07-26, 16:52:14
50% der TF FP32 der TITAN RTX BFG9000 sind im Bereich des Möglichen:
https://www.3dcenter.org/blog/leonidas/nvidia-titan-rtx-bfg9000-ceo-edition
Ich frag mich auch wo und welchen Markt Nv dafür sieht, ich bin selbstständig aber hänge mir sicher keine 800w Karte in den Rechner. Laut, Abwärme, zu hoher Verbrauch.
Ich hatte da eine Karte mit dem Leistungsniveau und 250 bis 350w erwartet. Soll ich mein Arbeitszimmer jetzt mit der GPU heizen? Stellt man sich vor, wenn man eine Präsentation gemeinsam mit einem Kunden machr und das Ding pfeift unter dem Tisch wie ein Fön. Dann geht der wieder. Also Selbige als Quadro oder Titan kommt mir gewiss nicht in die Firma oder zu Hause unter den Tisch.
Ich seh das eher so, NVidia muss mit allem was sie haben vorne bleiben, dann kann AMD wohl doch nicht so schlecht sein und schlägt eine 4090. Sonst gäbe es für eine 800w Karte keine Daseinsberechtigung, das sieht wie bei Ampere mit der Brechstange aus. Haloprodukt von Feinsten, vermutlich ein Papiertiger als Machbarkeitsstudie wie weit man noch gehen kann. Kaum kaufbar.
Was bitte will ein Spieler mit 48GiB Vram das ist nur Ballast.
Kühltechnisch kein Problem:
https://www.aquacomputer.de/tl_files/aquacomputer/news_image/kryographics_r9_295x2.jpg
wolik
2022-07-26, 18:41:39
MCM ? Leistung 3 x 3090?
PS: Ok, "nur" Titan in "Vollübertaktung"?
https://cdn.shazoo.ru/c1806x530/631028_XCnFz8y_rtx-holy-moly.jpg
GerryB
2022-07-26, 19:57:32
Bevor der coole neue Shit kommen kann, muss erstmal der Alte weg.
https://www.techpowerup.com/297185/first-leaks-of-upcoming-graphics-cards-model-names-from-both-amd-and-nvidia-appears
Evtl. gibts ja ala Turing neue Super für Ampere, sprich leicht abgespeckt zum kleinen Preis.
Das wäre mal ne positive Überraschung.
Und ne Gegenreaktion auf die nonXT -Modelle von Sapphire.(die nach m.E. aber noch etwas zu teuer sind)
bei Ada wäre für mich die 4080Ti die größte Wundertüte (welcher Chip+Watt)
Neben den Prolls sehe ich Markt bei E-Sport, VR, (Flug-)Simulatoren, Cloud-Gaming, ... womöglich auch wieder Mining.
Für 'normale' Gamer ist das wegen der Abwärme nichts. Technisch machbar ist das. Wer das in Zweifel zieht, hat keine Ahnung.
Ich hoffe im Zuge von MCM auf Revival von SLI/XF. Auf dem Papier war gleiche Leistung günstiger/mehr Leistung machbar als mit schnellster Einzelkarte.
Angesichts der vielen freigeschalteten Trollpostings sollte der Thread zumindest die Kritik an angeblicher Zensur im Forum erledigen :-)
Selbst wenn die Leistung 4x so hoch liegt, ich bin kein Fan von solchen wahnwitzigen Watt Werten. Gerade in der jetzigen Situation mit immer weiter steigenden Energiekosten, ist mir das viel zu übertrieben. Alleine dass eine xx70 SKU bei 300W liegen soll ist der Wahnsinn, wo soll das noch hinführen. Das läuft in die falsche Richtung.
Leonidas
2022-07-27, 06:16:08
Die 4090ti verbraucht 1000w, hat schon GDDR7XX mit 12TB Bandbreite an einem Pin und 27 so schnell wie GDDR1. Blah Blubb Laber Rhabarber, kopite@kimi Klappe die 100x.
Am schönsten sind die Leute, die unter einem Gastkontro jemanden anderen was in den Mund legen, was dieser nie gesagt hat. Und sich dann über Fake-News aufregen.
Note: Kopite hat nie etwas über GDDR7 gesagt (oder auch nur angedeutet).
Schrotti
2022-07-27, 07:44:34
Typisch Gäste eben.
Ich brauche so etwas nicht, also ist das Bullshit, was nvidia da macht. Ich kaufe nach wie vor das, was ich für richtig halte und nicht das, was irgendwelche Gäste meinen zum Besten geben zu müssen.
Die 4090 Ti in den Rechner und den MORA in die Wohnstube um da zu heizen. Wir sollen doch GAS sparen.
hardtech
2022-07-27, 08:14:04
Warum keine 1000w? Nicht kleckern, sondern klotzen.
Die nächste Generation hat dann 1500w. So sieht Fortschritt aus. Yippie!
Fragman
2022-07-27, 08:58:35
Ich hab die Vermutung, das man die ganzen Node Gewinne (wieviel sind es eigentlich, 1,5 oder 2?) am Ende nur bei der Karte sehen wird. Ist dann zwar eher ein Performanceausblick auf den Nach-Nachfolger aber dort wird man in Anbetracht dieser Wattzahlen wohl etwas komplett neues erwarten müssen.
Ist aber nett zu sehen was man erreichen kann, wenn der Markt bereit ist, entsprechende Preise zu zahlen.
Legendenkiller
2022-07-27, 10:30:18
Naja die 800W Variante ist imo eher rein reine Machbarkeitsstudie und um den langensten Balken zu haben.
Der zu erwartende Preis wird sicher über einer 3090ti und unter einer A6000 liegen.
Die Anzahl der Käufer dürfte überschaubar bleiben ;-)
Corpsi
2022-07-27, 14:04:46
Die kommt bestimmt zum alten Titan Z-Preis von $3000. :)
Wenn NV ein Maximum an Performance so wichtig ist, warum verbaut NV dann keinen sparsameren und schnelleren HBM-Speicher wie z.B. bei der Titan V? :confused:
Zwei davon und eine extrem übertaktete Intel HEDT-CPU, dann dürfte so manch marode Stromleitung im Dauerbetrieb zu kämpfen haben. :D
Oder vier wie hier:
https://www.pugetsystems.com/labs/articles/Quad-GeForce-RTX-3090-in-a-desktop---Does-it-work-1935/
Die ML-Performance der GPU dürfte vermutlich auf dem Niveau einer A100 40GB liegen.
Am schönsten sind die Leute, die unter einem Gastkontro jemanden anderen was in den Mund legen, was dieser nie gesagt hat. Und sich dann über Fake-News aufregen.
Note: Kopite hat nie etwas über GDDR7 gesagt (oder auch nur angedeutet).
Das war Sarkasmus, kann man gar nicht anders verstehen, weil der Chinaheini schon zig Mal totalen Quark verbreitet hat. Da sieht mal, wie du, selbst bei dem Stuss den dieser Heini verbreitet, inklusive seinem geistigen Dunnschiss dazu, den du auch noch verteidigst. Der wird von NVidia im besten Fall mit Falschinformationen gefüttert. Du bist doch hier derjenige der diesen ganzen Blödsinn in den Äther entlässt ohne auch nur wirkliche Nachweise dafür zu haben (hätte der Hund geschissen...) und sich dann selbst, wie dieser Fakenewskönig ständig korrigieren muss. Das ist Gelaber von einem Chinesen, als wenn von dort jemals eine echte News kam.
Es ist übrigens wie immer, 3dc liegt meilenweit daneben, wie bei jedem Thema. Gibt ja keine Entwicklung zu GDDR5/6 das wird zukünftig alles von HBM abgedeckt, blah, blubb, Leute beleidigen und sperren. Ich will dann deine Kolumne lesen, wenn AMD sich erdreisten würde so eine Karte in den Markt zu entlassen, dein Gehate würde wahrscheinlich Bände schreiben.
Die Hälfte der News über Ga102 von kompite war letztlich totaler Müll, ich kann dir die Links und dein Gesülze dazu gerne hier auflisten. Ehrlich, ihr habt beide nicht alle Klammern im Schrank, Nvidia sollte euch wegen dieser Imagesschäden an Lovelace verklagen.
Das hier ist ein GASTKONTO und nichts weiter, schon dafür müsstet du gesperrt werden. Da sieht man mal wie man Wasser predigt, aber selbst Wein säuft.
FarCry
2022-07-28, 01:40:02
Echt witzig wie nah der Aprilscherz dem echten Leben ist. Damals drüber gelacht, etwas über ein Jahr später eine ernsthafte Möglichkeit.
Über meine kolpotierte 3kW-GK wurde vor einem halben Jahr schallend gelacht.
Wer war das noch? Wedge und ein paar andere glaub ich.
Nun, die Richtung stimmt jetzt zumindest, und ich wette in 3-4 Jahren sind wir genau dort. Mal sehen, wer dann lacht. :wink:
ChaosTM
2022-07-28, 02:00:14
In 3-4 Jahren ist dieser Wahnsinn hoffentlich Geschichte und wir verwende (hoffentlich)
hocheffiziente SOCs wie in den Konsolen und Apples M1/2 derzeit schon werkeln.
Ok wir wahrscheinlich länger dauern..
Leonidas
2022-07-28, 04:37:48
Das war Sarkasmus, kann man gar nicht anders verstehen, weil der Chinaheini schon zig Mal totalen Quark verbreitet hat. Da sieht mal, wie du, selbst bei dem Stuss den dieser Heini verbreitet, inklusive seinem geistigen Dunnschiss dazu, den du auch noch verteidigst.
...
Das hier ist ein GASTKONTO und nichts weiter, schon dafür müsstet du gesperrt werden. Da sieht man mal wie man Wasser predigt, aber selbst Wein säuft.
Stimme Deiner Rede voll zu.
Über meine kolpotierte 3kW-GK wurde vor einem halben Jahr schallend gelacht.
Wie sich die Welt dreht. Aber hoffentlich werden es nie 3KW. Schon jetzt weht NV ein eisiger Wind ins Gesicht bei 600-800W.
In 3-4 Jahren ist dieser Wahnsinn hoffentlich Geschichte und wir verwende (hoffentlich)
hocheffiziente SOCs wie in den Konsolen und Apples M1/2 derzeit schon werkeln.
Das bei Apple funktioniert auch nur wegen der extremen Margen. Die sind auf dem PC nur schwer vorstellbar.
OpenVMSwartoll
2022-07-28, 08:36:32
Verrückten zuzustimmen ist auch keine Lösung auf Dauer...
Leonidas
2022-07-28, 09:23:05
Man beachte das Wort, was ich manuell fett markiert habe.
FarCry
2022-07-28, 09:27:32
Wie sich die Welt dreht. Aber hoffentlich werden es nie 3KW. Schon jetzt weht NV ein eisiger Wind ins Gesicht bei 600-800W.
Wird trotzdem reihenweise gekauft, mit den Argumenten: ich kann ja 1. undervolten und 2. im PL begrenzen.
Und so sieht sich NV bestätigt und legt die nächsten Generation mit ~1,2kW auf.
Über meine kolpotierte 3kW-GK wurde vor einem halben Jahr schallend gelacht.
3kW für den Heimgebrauch ist nicht möglich, normalerweise sind Leitungen in Wohnhäusern mit 16A abgesichert, also etwas mehr als 3,5kW.
3kW im HPC scheint dagegen eine sehr wahrscheinliche Zukunft, und nicht unbedingt eine schlechte, die Effizienz nimmt ja dennoch zu, und wenn man nur die halben Karten braucht die doppelt so viel verbrauchen hat man trotztdem gewonnen, weil man viel weniger Platz braucht, und auch die Infrastruktur wesentlich weniger verbraucht.
Leonidas
2022-07-28, 14:30:04
3kW für den Heimgebrauch ist nicht möglich, normalerweise sind Leitungen in Wohnhäusern mit 16A abgesichert, also etwas mehr als 3,5kW.
In den USA wohl bei noch weniger - ergo wird so etwas hohes im Heim-Bereich nie passieren.
Platos
2022-07-28, 14:36:21
In der Schweiz 10A und auch in einigen anderen Ländern, so viel ich weiss. Dauerlast darf aber nicht 10A sein. Aber 10A wären dann 2300W.
Ist jetzt aber nicht gerade wenig für einen Rechner :D
Wird trotzdem reihenweise gekauft, mit den Argumenten: ich kann ja 1. undervolten und 2. im PL begrenzen.
Und so sieht sich NV bestätigt und legt die nächsten Generation mit ~1,2kW auf.
Man muss unterscheiden zwischen Laien und Leute, die Ahnung haben. Der Laie wird es ja niemals so betreiben (die Masse), also wird der volle Stromverbrauch der Karte ziehen. Leuten wie denen hier im Forum kann man sowas durchaus empfehlen. Aber klar, dieser absurde Stromverbrauch muss enden.
Vor einigen Jahren war auch schon alles in Richtung 300W absurd hoch. heute ist 300W "normal" im High-End.
Schnitzl
2022-07-28, 15:50:24
(...)
Vor einigen Jahren war auch schon alles in Richtung 300W absurd hoch. heute ist 300W "normal" im High-End.
das ist genau das Problem.
in 2 Jahren sind 400W "normal" .... und dann?
gastello
2022-07-28, 15:54:05
Sorry, sieht für mich nicht aus wie eine Gamerkarte, egal was kk darüber zu wissen meint. Sieht auch nicht aus wie eine ti oder Titan. Renderbilder sind nicht immer zutreffend aber hier? 3xNV-Link? Sicher nicht für Gamer oder Titan Kundschaft, das sind jeweils Insellösungen.
https://abload.de/thumb/nxnsokn1.jpg (https://abload.de/image.php?img=nxnsokn1.jpg)
@thg
gastello
2022-07-28, 15:56:10
Das ist nicht normal und wird kaum gekauft. Dann werden die ganzen GTX1060 mit denen immer noch gespielt wird, eben noch länger halten müssen. Es hatte ja einen Grund warum die Karte so beliebt war. Es lag sicher nicht daran das sie 400W verbrauchte.
Daredevil
2022-07-28, 16:01:22
Dann wird mit Chillern und Klimaanlagen gegen die Hitze gekämpft!
Fragman
2022-07-28, 16:08:05
High End wird demnächst schon über 400Watt gehen, wenn die Gerüchte stimmen und
300Watt wird Mid Range werden. In 2 Jahren sind wir mit den TI Modellen deutlich drüber und erwarten die nächste Gen mit wieder deutlich mehr. Wird in 4 Jahren recht spannend werden.
Lehdro
2022-07-28, 16:11:48
High End wird demnächst schon über 400Watt gehen, wenn die Gerüchte stimmen und
Als du das geschrieben hast, war die 3090 TI schon raus. Der Geist ist schon aus der Flasche, wir können als Verbraucher nur noch versuchen ihn wieder einzufangen.
Fragman
2022-07-28, 16:25:27
Die 3090TI hätt ich eher als Enthusiast bezeichnet, da keine Titan kam.
Aber stimmt schon, die nächste xx90 wird ja wohl wieder "nur" High End werden. :freak:
Über meine kolpotierte 3kW-GK wurde vor einem halben Jahr schallend gelacht.Ja.
3K für Desktop-Karte sind auch für in 3 Jahren unrealistisch. Es mag noch ein paar derzeit zu teure Tricks geben, um z.B. die Chips rückseitig besser zu kühlen. Und mit MCM und HBM kann man die Fläche vergrößern. Trotzdem.
Ich habe ichzählenichtmehrten Mal darauf hingewiesen, dass die 295X2 von 2014 ist. Nur war das Geschrei über 500+ damals scheinbar nicht so groß und/oder heutige Warmduscher waren damals noch Kleinkinder. Man bewegt sich aktuell in 'ewig' bekanntem Rahmen. 3K ist was _völlig_ anderes.
Und ich lache immer noch über das HBM-Gebashe von Nvidia. Ich sehe nichts, was darauf hindeutet, dass sie nach HBM3 auf etwas anderes als 3+ oder 4 setzen werden. _Die_ hätte Musk (versuchen zu) kaufen sollen. Hätte besser gepasst als Twitter.
In der Schweiz 10A und auch in einigen anderen Ländern, so viel ich weiss. Dauerlast darf aber nicht 10A sein. Aber 10A wären dann 2300W.
Ist jetzt aber nicht gerade wenig für einen Rechner :D
Für einen Rechner nicht, aber 10A/2300W für eine Leitung sind generell sehr wenig.
Über 2kW braucht schnell mal ein Elektrogerät, wie ein ordentlicher Fön oder Wasserkocher, und das hängt ja üblicherweise nicht alleine auf einer Leitung.
Für einen Rechner nicht, aber 10A/2300W für eine Leitung sind generell sehr wenig.
Über 2kW braucht schnell mal ein Elektrogerät, wie ein ordentlicher Fön oder Wasserkocher, und das hängt ja üblicherweise nicht alleine auf einer Leitung.
Ja, 10A-Absicherung ist schon lange nicht mehr gängig oder zeitgemäß.
Ja, Wasserkocher hängt nicht allein. Aber ist nicht zwangsläufig parallel mit Doppel-Fritte am köcheln. Man kommt auch mit 16A noch schnell an Grenze.
Spielt keine Rolle. 3kW-GPU ist nicht mal als Aprilscherz gut.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.