PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 19. Juli 2022


Leonidas
2022-07-20, 08:57:31
Link zur News:
https://www.3dcenter.org/news/news-des-19-juli-2022

GrimReaper85
2022-07-20, 12:11:58
Was ich will, ist 150% Leistung von 3090 bei 300W für maximal 1500€. Die Leistung von 4090 sollte kein Problem sein, wenn sie 180% von 3090 bei 450W beträgt. Mindestens 3090 Ti verliert nur 10% von 450W auf 300W.
Wenn Nvidia das nicht liefern kann, muss ich zu AMD.

Gast
2022-07-20, 12:22:37
Du kannst doch einfach das Powerlimit auf 300W stellen. Ist nun wirklich kein Hexenwerk und 300W sollten keinerlei Problem sein.

Legendenkiller
2022-07-20, 13:31:40
jup.

Die 1500€ dürften aber nicht passen.

OpenVMSwartoll
2022-07-20, 14:45:51
Wichtig bei der A380 wäre noch, dass rBAR nicht auf AMD Unterbau funktioniert.

GerryB
2022-07-20, 16:37:21
Wenn die neuen Grafikkarten außerhalb Chinas erscheinen, will Intel rBAR auch auf AMD-CPUs unterstützen.

schreibt CB

Gast
2022-07-20, 16:46:31
Zeigt doch das die 4090 wieder komplett über dem Sweetspot ist, von wegen sie lässt sich hochtakten und der Takt wurde moderat gewahlt, liegt she bei 3 GHz, lol. Sieht man ja. Solche Infos sind einfach Bullshit.

Wie oft sich der vwrmeintliche Insider hier korrigiert hat, passt auf keine Kuhhaut mehr. Ich lese mir diesen ganzen Schrott von dem erst garnicht mehr durch.

OpenVMSwartoll
2022-07-20, 16:57:43
Wenn die neuen Grafikkarten außerhalb Chinas erscheinen, will Intel rBAR auch auf AMD-CPUs unterstützen.

schreibt CB

Derzeit ist dies aber nicht der Fall. Nur die Fakten sind relevant. Und was Intel alles wollte in Bezug auf die Grafikchips passt auf keine Kuhhaut.

Leonidas
2022-07-21, 04:32:07
Zeigt doch das die 4090 wieder komplett über dem Sweetspot ist, von wegen sie lässt sich hochtakten und der Takt wurde moderat gewahlt, liegt she bei 3 GHz, lol. Sieht man ja. Solche Infos sind einfach Bullshit.

Wie oft sich der vwrmeintliche Insider hier korrigiert hat, passt auf keine Kuhhaut mehr. Ich lese mir diesen ganzen Schrott von dem erst garnicht mehr durch.

Ich denke, Du hast das nicht richtig gelesen. Twitter ist natürlich auch zu limitiert, um es genau auszudrücken.

Kopite hat sinngemäß gesagt: "Das ADA-Design kann 3 GHz. ABER die 4090 taktet niedriger."

Das ist keine Korrektur zu früheren Meldungen, sondern liegt ganz auf Linie der früheren Meldungen.

Gast
2022-07-21, 07:40:10
Zeigt doch das die 4090 wieder komplett über dem Sweetspot ist, von wegen sie lässt sich hochtakten und der Takt wurde moderat gewahlt, liegt she bei 3 GHz, lol. Sieht man ja. Solche Infos sind einfach Bullshit.

Schön wärs dann könnte man einfach PL runterstellen und verliert kaum Leistung.

Ich geh aber eher davon aus dass der Leistungsverlust um einiges deutlicher als bei der 3090Ti ausfallen wird.

Nazar
2022-07-21, 10:27:15
Ich denke, Du hast das nicht richtig gelesen. Twitter ist natürlich auch zu limitiert, um es genau auszudrücken.

Kopite hat sinngemäß gesagt: "Das ADA-Design kann 3 GHz. ABER die 4090 taktet niedriger."

Das ist keine Korrektur zu früheren Meldungen, sondern liegt ganz auf Linie der früheren Meldungen.

Sinngemäß hat Kimi geschrieben: "Die 4090, basierend auf Ada 102, kann sehr einfach die 3 GHz erreichen."
Später hat er konkretisiert und die 4090 mit 450 Watt Verlustleistung bei maximal 2750 MHz gesehen.
Kopite7kimi hat ständig die 4090 erwähnt. Dass er nur den Ada 102 Chip beschrieben hat, kann ich auf Twitter so nicht sehen.
Das ist nämlich auch das, was ich bei der aktuellen Berichterstattung kritisiere. Sie ist viel zu unkritisch bei all den Lücken, die Kimi in seinen "Spekulationen" (vermutlich sehr bewusst) offensichtlich hat.
Dass das Offensichtliche, anders als AMD (Kritik muss sein), bei nV Spekulationen einfach "übersehen" wird (fehlende Gegenüberstellung von Verlustleistung, Performance bezogen auf was (RZ oder doch "nur" RT?), Frequenzsteigerungen, die "einfach" (einfach ist kein an Fakten gebundenes Wort) zu erreichen sind (auch hier ist das Zusammenspiel von Verlustleistung mit der Frequenzsteigerung extrem wichtig).
Was bei AMD vollkommen zu Recht kritisiert wird, wird bei nV offensichtlich als "naturgegeben" hingenommen und sehr wohlwollend "übersehen".
Warum wird das Fehlen von Informationen und das Fehlen von Zusammenhängen, die aber essenziell bei diesen Themen sind, in diesem Technikforum nicht hinterfragt?
Ich hatte über Twitter einen Eintrag von Kimi gefunden (https://twitter.com/kopite7kimi?lang=zh-Hant), dass die Werte in TimeSpy Extreme mit 800Watt Verlustleistung erreicht wurden. Zumindest lese ich das aus dem Verlauf heraus.
Betrachtet man nämlich nun das Gesamtbild der von ihm geleakten Daten, dann ergibt alles Sinn (Trotz Einschränkungen des ES dieser "hohe" Wert).
Er hat nämlich (bewusst?) erst die große Meldung herausgehauen, um dann später, mal so nebenbei, zu erwähnen, dass für diesen Wert 800 Watt Verlustleistung benötigt wurden.
Und jetzt sind wir genau dort, wo ich schon am Anfang angesetzt habe: Das, was der Typ schreibt, muss sehr genau betrachtet werden!
Was bei AMD vollkommen zu Recht hinterfragt wird, muss so auch endlich mal bei den Berichten zu nV passieren!

Leonidas
2022-07-21, 11:58:21
Gute Einwände, die bedenkenswert sind!

Gast
2022-07-21, 17:32:40
Also ich verstehe die Aufregung um die Performance-Prognose zu AD102 nicht. Ich habe hier regelmäßig mitgelesen und diese abstrus hohen Zahlen von 2,5x+ immer so aufgefasst, dass es dabei um das theoretische Potential des (kompletten) AD102-Chips geht, nicht um konkret anstehende SKUs. IIRC hat Kimi das auch mehr als einmal klargestellt.

Gast
2022-07-21, 21:00:45
Ich hatte über Twitter einen Eintrag von Kimi gefunden (https://twitter.com/kopite7kimi?lang=zh-Hant), dass die Werte in TimeSpy Extreme mit 800Watt Verlustleistung erreicht wurden. Zumindest lese ich das aus dem Verlauf heraus.
Betrachtet man nämlich nun das Gesamtbild der von ihm geleakten Daten, dann ergibt alles Sinn (Trotz Einschränkungen des ES dieser "hohe" Wert).
Er hat nämlich (bewusst?) erst die große Meldung herausgehauen, um dann später, mal so nebenbei, zu erwähnen, dass für diesen Wert 800 Watt Verlustleistung benötigt wurden.
Der beste Beitrag seit langem hier. Nvidia hat bisher von der Insider-/Vorberichtserstattung nie etwas erfüllt, leider. Immer wieder wird dies ignoriert.

Leo lässt immer wieder von dem Post mit dem PCIe 5.0 Prok verleiten, zu sagen die Karte kann viel mehr. Ja sie startet nicht mit 800w oder 600w, aber wenn sie kann nimmt sie es, bei binärer Kompatibilität und dann man muss diesen Verbrauch, den FPS Raten gegenüberstellen. Ich kann auch mit LN auf eine 3090 einprügeln, was kommt da raus? Und das geht auch konform mit Typischer Energieaufnahme! Nvidia gibt dabei nie die max Leistungsaufnahme an!

Nvidia scheint ADA, so wie Intel ADL komplett auf Benchmarks auszulegen, in dem Moment darf sich seine Karte riesige Mengen an Strom einverleiben, aber wehe man hat kein Netzteil das dies unterstützt. Was dann, 375W Gurkenchip? Zumindest kann Nvidia dies sogar per Treiber und in Spielen einfach runterregulieren und niemand bemerkt es wirklich. In Time Spy ballert die Karte dann raus was geht. Schön von Intel abgeguckt wenn PL1=PL2 ist. Für mich ist das massiven Cherrypicking und Treibercheats, die noch vor Jahren komplett verpönt waren. Auchg das hat sich nach den Mondpreisen im Markt komplett etabliert ohne hinterfragt zu werden, die Presse redet dabei Nvidia zum Mund.

Genau das wollte kompite@kimi zurück halten, schon deshalb ist er für mich ein Fanboy, der unrealistische Szenarien im Vorfeld verbreitet und damit falsche Eindrücke liefert. Auf AMD hätte man längst mit "Knüppeln" eingeschlagen und einen Shitstorm veranstaltet, bei Nvidia still ruht der See. So eine Doppelmoral, nie wird von denen etwas hinterfragt.

Das gleiche Szenario mit RT und DLSS, bis die Katze aus dem Sack war. Das man mit DLSS nicht kanten glätten will (DLAA), sondern den Impact von RT abfedern will, bei Minimierung der Pixelmengen. Dazu gab es bei der Vorstellung rein nichts zu sehen oder zu hören. Da redete man noch vollmundig von Bildqualität über nativer Auflösung, das Ergebnis kennt mittlerweile jeder. 2 Jahre umher Gedokter und immer noch Geschmiere, weil weit weg von besser als nativ und absolute durchwachsen. LOL.

Aber kommt halt von Nvidia die dürfen das!

Gast
2022-07-21, 21:46:18
Ich lese mir diesen ganzen Schrott von dem erst garnicht mehr durch.Scheinbar ja doch.

Gast
2022-07-22, 09:31:51
Es sind mittlerweile 4 Jahre. Aber schon richtig, was nVidia da veranstaltet, mit zig Versionen ist schon komplett lächerlich. Wird von der Presse sogar noch bejubelt, wie toll das doch ist. Das muss unbedingt jeder haben, inklusive RT. Ehrlich ich kenne genug Gamer als RTX Besitzer, die RT nicht mal anschalten weil sich das immer noch auf Demo Status befindet, die Hardware die letzten Jahre aber massiv verteuert hat. NVidia sieht doch wer das nutzt. Wäre ja mal schön zu wissen, wer das überhaupt eingeschaltet hat. Das werden sie aber schön für sich behalten.

Da helfen auch keine super-duper GPUs für tausende von Euros, weil sich die der Großteil überhaupt nicht leisten kann.

Schön zu sehen an Ampere, hier hat nVidia wohl versucht, über GA102 das Feature in den Markt zu drücken. Gekauft wird diese GPU trotzdem nicht, weil viel zu teuer. Der Rest des Portfolie oxidiert auf Vorjahresstatus bei der Ausführung von RT umher und bei einer 1080p Karte dann DLSS einzuschalten und zu glauben, ein in 640p oder 720p berechnetes Bild, sieht besser aus als native Auslösung weil die AI so toll ist, ist einfach nur komplett naiv. So einen Quatsch kann man den lieben Kiddies erzählen. Wahrscheinlich ist das nVidias Zielgruppe. Denen ist auch egal was so eine Karte kostet, Mutti und Papi werden das schon machen.

Der Rest hat Ampere doch zum Mining missbraucht oder sich mit Scalper Ebay Accounts eine goldene Nase an den Deppen verdient, weil man mit Mining Unsummen an Geld verdienen kann...das nächste Mär.

Es bleibt also bei Verarsche seit je her. Nur die Methodik ändert sich, um weiter an das liebe Geld zu kommen. Machbarkeitsstudien inklusive. NVidia und das Liebe Geld, das können sie besonders gut.

Bei BMW sind sie nun rausgeflogen, weil man 40% der Einnahmen haben wollte, die BMW über AI gestützte Technologie Stufe 2 und 3 generiert. Daraufhin wurden sie mit einem Tritt in den Hintern entsorgt.