Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 7. Januar 2022


Leonidas
2022-01-08, 08:27:50
Link zur News:
https://www.3dcenter.org/news/news-des-7-januar-2022

Gast
2022-01-08, 09:16:27
AMD hat sich bei der TDP Angabe eher an dem orientiert was die CPU dann auch verbraucht, nicht an irgendwelchen theoretischen werten. 5000u nimmt auch 25w und damit der 6000u 3w mehr, bei 100% mehr Leistung wie du selbst beschreibst.

Weiß nicht wo du da Probleme siehst, ist doch zu begrüßen das AMD faktisch reale Werte angibt. Da schießt eher Intel den Bock ab, wenn man im PL2 55w zieht.

Ich würde an deiner Stelle deine Analysen nicht ständig auf der Fud Presse bestimmter Seiten aufbauen.

greeny
2022-01-08, 10:35:47
Studie: Coron-Impfung in der Schwangerschaft erhöht nicht das Risiko für Frühgeburten [Der Spiegel]
Corona-Impfung

Anbei: Du hast da ne Leerzeile bei den Prozessoren

Aroas
2022-01-08, 11:45:22
Man könnte meinen, die MB Hersteller wollen gar keine B660 Platinen verkaufen, wenn man sich die Preise anschaut.
Wer kauft denn B660 zu einem Preis für den er schon Z690 haben kann?

So wird das nix mit Empfehlungen für ein Alder Lake System.

Dabei sind 12400(F) und 12500 aus P/L Sicht sehr attraktive CPUs. Aber wenn man dann beim Mainboard direkt wieder abgezockt wird...

Denniss
2022-01-08, 12:51:29
Intel meinte vielleicht 1 DPC (DIMM per channel) und nicht nur einen Speicherkanal.
Da hat der Folienpraktikant von AMD wohl mal ausgeholfen ......

iamthebear
2022-01-08, 13:11:38
Weiß nicht wo du da Probleme siehst, ist doch zu begrüßen das AMD faktisch reale Werte angibt. Da schießt eher Intel den Bock ab, wenn man im PL2 55w zieht.

Die Kritik geht geht ja nicht an die Angabe der TDP bei AMD, sondern darum dass sie 15W mit 28W vergleichen.

Dass dies als Realleistung beim Kunden ankommt war nur damals bei Intep der Fall da Ice Lake nur 15W Modelle im Portfolio hatte.
AMD hat mit Cezanne schon das volle TDP Portfolio bei seinen 8 Kernern und ein Großteil der verfügbaren Modelle haben auch 40W+.

Im Prinzip ist das so als würde Intel seine 65W ADL CPUs mit den 35W CPUs von Rocket Lake vergleichen.

Intel meinte vielleicht 1 DPC (DIMM per channel) und nicht nur einen Speicherkanal.
Da hat der Folienpraktikant von AMD wohl mal ausgeholfen ......

Ich frage mich ernsthaft ob bei Intel keiner die Folien durchschaut. Das ist ja kein kleiner Flüchtigkeitsfehler wie wenn irgendwo ein Zahlendreher drin ist. Das ist ja eine Änderung, die die Nutzung des Chipsatzes auf den Celeron/Pentium Bereich einschränkt.

Update:
AMD Notebooks nutzen übrigens auch genauso wie Intel eine kurze Boostperiode in der die 15W überschritten werden (glaube 30W) nur halt nicht ganz so lange, wobei die Dauer von Intel ja auch immer von Modell zu Modell unterschiedlich ist, da in der Regel vorher das thermische Limit greift bevor Tau vorbei ist.

Hier einmal ein kleiner Auszug aus einem Techspot (Hardware Unboxed) Review um zu sehen was 15W vs. 25W in der Praxis ausmacht:
https://static.techspot.com/articles-info/2235/bench/3.png

bad_sign
2022-01-08, 13:40:46
@iamthebear
Die Notebook Hersteller haben ziemlich freie Wahl was Boost Höhe und Dauer anbelangt. Maßgeblich ist immer die Kühlung.
Ich kann mein Ideapad 5 mit 4800U zwischen 15W Dauer/20W Boost bis rauf auf unendlich lange 37W laufen lassen (die schafft die Kühlung aber nur im Winter draußen ;))

WedgeAntilles
2022-01-08, 13:58:00
Man könnte meinen, die MB Hersteller wollen gar keine B660 Platinen verkaufen, wenn man sich die Preise anschaut.
Wer kauft denn B660 zu einem Preis für den er schon Z690 haben kann?

So wird das nix mit Empfehlungen für ein Alder Lake System.

Dabei sind 12400(F) und 12500 aus P/L Sicht sehr attraktive CPUs. Aber wenn man dann beim Mainboard direkt wieder abgezockt wird...
Ich könnte mir vorstellen, dass aktuell fast alle in Komplett-PCs gehen.
Der DIY Markt bekommt fast nix ab.
Hoffentlich sieht das in 4 Wochen anders aus.
Ich kann mir gut vorstellen, dass Ende Januar / Anfang Februar die Preise für die B660 bei 130-150 Euro sind.

matty2580
2022-01-08, 14:13:28
In einem vergleichbaren CB Thread liest man eigentlich nur noch eine Ansammlung von negativen Posts zu AMDs RX 6500 XT, Unverständnis, Verzweiflung, Agonie, weil AMD heute schlimmer ist als Nvidia....
https://www.computerbase.de/forum/threads/radeon-rx-6500-xt-amd-bringt-rdna-2-mit-tsmc-n6-fuer-199-in-den-handel.2062767/page-10

Früher als ich mich hier angemeldet habe, weit über 10 Jahre her, war auch dass 3dcenter sehr innovativ, und kritisierte ohne Einschränkungen Verwerfungen am Markt, wie geschrieben vor langer Zeit....

Und so fühle ich mich auch seit langer Zeit hier, wie ein Dinosaurier, der sich einfach weigert auszusterben.......

Der einzig noch lebendige Thread hier im Forum war der Seuchen-Thread, seit langer Zeit und selbst der wurde von den Mods gesperrt, so dass nur noch ein Zombie übrig blieb. Ich kann die Mods nicht verstehen, und auch dich nicht Leo.

Aber ich weiß, wie ich bald reagieren werde Leo.
In mir entsteht immer mehr der Wunsch mich hier löschen zu lassen.

Ich habe mich selbst bei PCGH vor Jahren gelöscht, auch bei CB, und werde dort niemals wieder etwas schreiben, wie auch hier, wenn ich mich freiwillig selbst lösche.

Wenn es das ist was ihr euch wünscht?
Ich bin kurz davor.....

ryan
2022-01-08, 14:17:08
Man könnte meinen, die MB Hersteller wollen gar keine B660 Platinen verkaufen, wenn man sich die Preise anschaut.
Wer kauft denn B660 zu einem Preis für den er schon Z690 haben kann?



B660 kann ich ab 120€ bekommen, obwohl Hersteller wie Asrock oder Gigabyte ihre Boards erst noch in den Handel bringen. Wo bekomme ich für den Preis ein Z690? Das günstigste von Asrock gibt es ab 166€, hat aber nur 6 Phasen. Damit wird man wohl auf 125W limitiert bleiben und nichtmal den PL2 fahren können, sinnlos. Das erste ordentliche Z690 fängt ab 186€ an. Das sind 2 unterschiedliche Preisklassen.

WedgeAntilles
2022-01-08, 15:13:10
B660 kann ich ab 120€ bekommen, obwohl Hersteller wie Asrock oder Gigabyte ihre Boards erst noch in den Handel bringen. Wo bekomme ich für den Preis ein Z690? Das günstigste von Asrock gibt es ab 166€, hat aber nur 6 Phasen. Damit wird man wohl auf 125W limitiert bleiben und nichtmal den PL2 fahren können, sinnlos. Das erste ordentliche Z690 fängt ab 186€ an. Das sind 2 unterschiedliche Preisklassen.
Bei Mindfactory sind die Preise aktuell tatsächlich quasi identisch.
Aber wie ich ja auch schon sagte muss man vermutlich einfach 2,3 Wochen warten bis sich das eingespielt hat.

ryan
2022-01-08, 15:24:14
Bei Mindfactory sind die Preise aktuell tatsächlich quasi identisch.
Aber wie ich ja auch schon sagte muss man vermutlich einfach 2,3 Wochen warten bis sich das eingespielt hat.


:freak:

Mindfactory hat gerade einmal 3 B660 Boards im Programm und alle 3 sind von der MSI MAG Serie, der highend Serie vom B660. Als wenn MSI nicht auch noch günstigere B660 Boards in den Markt bringt.

Das günstigste MAG für Z690 kostet 269€. Das sind 70€ über dem MSI MAG B660. Wie gesagt, das sind 2 unterschiedliche Preisklassen.

Leonidas
2022-01-08, 16:28:07
Corona-Impfung
Anbei: Du hast da ne Leerzeile bei den Prozessoren

Beides gefixt. Danke für den Hinweis!




Der einzig noch lebendige Thread hier im Forum war der Seuchen-Thread, seit langer Zeit und selbst der wurde von den Mods gesperrt, so dass nur noch ein Zombie übrig blieb. Ich kann die Mods nicht verstehen, und auch dich nicht Leo.

Darüber bin ich auch nicht glücklich. Doch sicherlich dachten die Mods, dass es so richtig war.

iamthebear
2022-01-08, 16:32:45
In einem vergleichbaren CB Thread liest man eigentlich nur noch eine Ansammlung von negativen Posts zu AMDs RX 6500 XT, Unverständnis, Verzweiflung, Agonie, weil AMD heute schlimmer ist als Nvidia....
https://www.computerbase.de/forum/threads/radeon-rx-6500-xt-amd-bringt-rdna-2-mit-tsmc-n6-fuer-199-in-den-handel.2062767/page-10

Früher als ich mich hier angemeldet habe, weit über 10 Jahre her, war auch dass 3dcenter sehr innovativ, und kritisierte ohne Einschränkungen Verwerfungen am Markt, wie geschrieben vor langer Zeit....

Und so fühle ich mich auch seit langer Zeit hier, wie ein Dinosaurier, der sich einfach weigert auszusterben.......

Also irgendwie verstehe ich dein Problem nicht ganz? Tut nicht Leo mit der News genau das, was du willst nämlich AMD für ihre unprofessionellen 15W vs. 28W Vergleiche zu kritisieren?

Gast
2022-01-08, 16:50:44
Da AMD hingegen mit einem festen Powerlimit arbeitet, ist man gegenüber Intel immer im Nachteil, wenn man nur die reguläre TDP-Angabe betrachtet.

Wie sieht es eigentlich bei AMD mit den Powerlimits der mobilen Prozessoren aus, gilt da auch wie bei den Desktops Powerlimit = TDP + 35%?

Gast
2022-01-08, 16:54:59
Die Kritik geht geht ja nicht an die Angabe der
Update:
AMD Notebooks nutzen übrigens auch genauso wie Intel eine kurze Boostperiode in der die 15W überschritten werden (glaube 30W) nur halt nicht ganz so lange, wobei die Dauer von Intel ja auch immer von Modell zu Modell unterschiedlich ist, da in der Regel vorher das thermische Limit greift bevor Tau vorbei ist.


Tau ist nicht die Zeit in der PL2 anliegen darf. Intel CPUs dürfen immer im Durchschnitt maximal PL1 verbrauchen, und Tau gibt an über welchen Zeitbereich dieser gleitende Durchschnitt gebildet wird.

Je größer der Unterschied zwischen PL2 und PL1 desto kürzer darf PL2 anliegen, und auch je kürzer Tau, desto kürzer ist die Zeit in der PL2 anliegen darf.

matty2580
2022-01-08, 17:13:57
Seit über 10 Jahren bin ich hier aktives Mitglied im 3dcenter, und habe Leo noch niemals um persönliche Vorteile gebeten, und werde es auch niemals......

Ich habe auch noch niemals meinen persönlichen Account hier löschen wollen, oder damit gedroht.

Leo weiß selbst was ich meine, und ist auch viel zu intelligent um mich nicht zu verstehen. ^^

Das 3dcenter macht mir keinen Spass mehr, und in diesem Zustand werde ich nicht mehr lange hier schreiben.....

ps: Jetzt ist auch noch der Akku von meinem bes........... Tablet alle, weil sich ständig der Akku-Schutz-Modus aktiviert, was nichts Anderes ist als ein "benutze das Tablet nicht Modus". Ich bin zu alt für diesen S.....ß, und erst einmal raus.....

Gastronom
2022-01-08, 17:46:20
@ matty:
Ich verstehe dich teilweise schon. Aber!!!

3dcenter ist m.M.n neben Planet 3dnow das mit Abstand hochkarätigste Format für Nerds oder Halbnetds wie mich, im deutschsprachigen Raum.

Leo kann halt auch nur das bringen, was der Markt hergibt. Und liefert dazu noch täglich wirklich ausgewählte hervorragende Links. Und das alles für Lau. Was soll Leo machen? Alle 3 Monate mal eine Seite schreiben, wenn’s dann mal wirklich was neues gibt?

Und ich geb dir mal nen Tip: Schau nur zB mal ins Spekulationsforum. Da findest du zum Teil akribisch herausgearbeitete Artikel.

Ja, man kann immer was kritisieren. Aber man könnte auch einfach mal sagen:

Vielen, vielen Dank lieber Leo und deinem Team. Ich bin froh, dass ich diese Seite kenne und ich danke dir von Herzen für deine tolle Arbeit!!!

Saugbär
2022-01-08, 18:04:32
Fehler in der Mobile-CPUs Tabelle
Tigerlake
HX/HK-Klasse bis 8C/16T
H-Klasse bis 8C/16T

OpenVMSwartoll
2022-01-08, 18:14:04
In einem vergleichbaren CB Thread liest man eigentlich nur noch eine Ansammlung von negativen Posts zu AMDs RX 6500 XT,

[...]



Ich muss zugeben, ich verstehe Deinen Beitrag nicht, bin nochmal 5 Jahre älter.

Bei mir ist eine gewisse Resignation eingetreten angesichts eines komplett kaputten Marktes. Die 6500 kann ich nicht nachvollziehen. In entsprechenden Threads kommt die Kritik auch auf. Ich denke sogar über eine Konsole nach, früher keine Option.

Doch möchtest Du Dich im Unangenehmen suhlen? Was bringt das? Ändert es was? Glaubst Du, weil Du androhst, Dich löschen zu lassen, ändert sich was? Wessen Verhalten möchtest Du mit der Drohung ändern?

Gast
2022-01-08, 19:53:57
Seit über 10 Jahren bin ich hier aktives Mitglied im 3dcenter, und habe Leo noch niemals um persönliche Vorteile gebeten, und werde es auch niemals......

Ich habe auch noch niemals meinen persönlichen Account hier löschen wollen, oder damit gedroht.

Leo weiß selbst was ich meine, und ist auch viel zu intelligent um mich nicht zu verstehen. ^^

Das 3dcenter macht mir keinen Spass mehr, und in diesem Zustand werde ich nicht mehr lange hier schreiben.....

ps: Jetzt ist auch noch der Akku von meinem bes........... Tablet alle, weil sich ständig der Akku-Schutz-Modus aktiviert, was nichts Anderes ist als ein "benutze das Tablet nicht Modus". Ich bin zu alt für diesen S.....ß, und erst einmal raus.....

Arbeite an deiner Frustrationstoleranz, digital detoxing kann dich dabei unterstützen weil vieles in der digitalen Welt eher einen negativen Einfluss auf die Frustrationstoleranz hat.

Hier 2 Links zu dem Thema:

https://www.youtube.com/watch?v=bZ-oom-BRFo
https://www.theatlantic.com/technology/archive/2013/06/skinner-marketing-were-the-rats-and-facebook-likes-are-the-reward/276613/

teetasse
2022-01-08, 22:53:15
Wenn die Notebooks mit 28 W erscheinen, ist das genau das, was der Kunde bekommt. Somit ist der Vergleich praxisnah.

Ich verstehe dein Problem auch nicht, matty2580. Sollen jetzt alle rumätzen wie bei ZensurBase? Oder herum fantasieren a la "Ich würde 50 € bezahlen"? Ich glaube, die 6500 XT ist keine interessante Karte für die meisten hier, und an den kaputten Markt hat man sich gewöhnt. Zeter und Mordio schreien nützt auch nicht viel.

Gast
2022-01-08, 23:38:16
Wenn die Notebooks mit 28 W erscheinen, ist das genau das, was der Kunde bekommt. Somit ist der Vergleich praxisnah. .

Das ist ja nicht das Problem, das Problem ist dass man diese Tatsache versteckt.

Gast
2022-01-08, 23:48:47
In einem vergleichbaren CB Thread liest man eigentlich nur noch eine Ansammlung von negativen Posts zu AMDs RX 6500 XT, Unverständnis, Verzweiflung, Agonie, weil AMD heute schlimmer ist als Nvidia....
....
Früher als ich mich hier angemeldet habe, weit über 10 Jahre her, war auch dass 3dcenter sehr innovativ, und kritisierte ohne Einschränkungen Verwerfungen am Markt, wie geschrieben vor langer Zeit....

Die Wahrnehmung zum CB Thread sind aber ziemlich negativ gefärbt. Eher wird dort sehr realistisch die aktuelle Marktsituation beleuchtet und nein, AMD ist nicht schlimmer als Nvidia. Die Neuauflage der 2060 mit Minerfreundlichen 12GB sagt ja wohl alles.

Und zum zweiten Teil, tja 2y Jammern über Miner/Scalper/Corona/Inflation/gestiegene Rohstoffpreise interessiert halt irgendwann keinen mehr. Vor allem kann man es nicht ändern.

Leonidas
2022-01-09, 04:32:15
Fehler in der Mobile-CPUs Tabelle
Tigerlake
HX/HK-Klasse bis 8C/16T
H-Klasse bis 8C/16T

Ja, logisch. Doofes C&P.




Wie sieht es eigentlich bei AMD mit den Powerlimits der mobilen Prozessoren aus, gilt da auch wie bei den Desktops Powerlimit = TDP + 35%?

Es sind nicht die +35% wie beim Desktop. Sondern es ist eine kurzfristige dynamische Überschreitung um wenige Watt. Leider hat es bislang keiner geschafft, das mal sauber aufzuschreiben. * Das ärgert mich, weil man kann Intel schlecht für ihre riesigen Watt-Ranges kritisieren (15W nominal, bis zu 55W bei PL2 ist für mich keine U-Klasse mehr), wenn auf AMD-Seite etwas ähnliches lauert.

* Hinweise werden dankend angenommen.

Lehdro
2022-01-09, 13:01:47
Das ärgert mich, weil man kann Intel schlecht für ihre riesigen Watt-Ranges kritisieren (15W nominal, bis zu 55W bei PL2 ist für mich keine U-Klasse mehr), wenn auf AMD-Seite etwas ähnliches lauert.

Warum nicht?
Das ist doch, entschuldige den Ausdruck, einfach feige? AMD kriegt hier auf den Deckel weil 28W deren neues "U" Ziel ist und bei Intel kam damals nur ein resignierendes, müdes "meh...". Hau doch drauf, auf beide natürlich. Aber bitte nicht hinter solchen Platitüden verstecken. Übrigens gibt es eine Footnote zur 15W Folie, die auch überall mit verlinkt ist, siehe auch meine Posts dazu.

Zu AMDs Mobile TDPs: Mein G15SE hat je nach Powerplan/Akkumodus krass unterschiedliche Verbräuche. Woher soll irgendjemand wissen was AMD konkret vorsieht (ausser die groben maximalen Limits) wenn jeder einzelne Notebookhersteller sein eigenes Süppchen kocht? AMD ermöglicht grundsätzlich erst einmal alles und bietet maximale Flexibilität bei der Implementierung, ebenso Intel. Ich habe bei dem Dell Notebook auch Modi ab Werk die hardcore bei der genannten TDP abregeln, ebenso aber Modi die ein PL1/PL2 ähnliches Verhalten zulassen - wie willst du soetwas beurteilen? Was soll hier AMD als Standard erarbeiten wenn doch eh wieder jeder OEM alles anders macht?

teetasse
2022-01-09, 14:18:01
Was soll hier AMD als Standard erarbeiten wenn doch eh wieder jeder OEM alles anders macht?

Das ist doch auch sinnvoll! Die Notebooks sind alle unterschiedlich hoch, unterschiedlich schwer, laut, stabil, schnell und auch teuer. Das kannst du nicht mit einem Standard-Design für alle Lebenslagen abdecken. Von mir aus müssten die Notebooks auch nicht "platt wie 'ne Flunder" sein, was die Ursache vieler Kompromisse und höherer Kosten ist. Bis hin zum Weglassen der Netzwerk-Buchse, weil sie angeblich "zu hoch" ist. :confused: Leider guckt die uninformierte Masse nur auf's Aussehen.

Sinnvoll aus Kundensicht wäre eine klare Kommunikation der Notebook-Hersteller: "Dieses Gerät arbeitet im TDP-Bereich von ... bis ... Watt." Die Tests müssen das halt berücksichtigen, und wenn ein Hersteller nichts dokumentiert, weil er mal wieder glaubt, es würde die Kunden nicht interessieren, dann muss man als Tester nachfragen.

WedgeAntilles
2022-01-09, 15:17:29
Die Neuauflage der 2060 mit Minerfreundlichen 12GB sagt ja wohl alles.

Schon witzig, bei Ampere wird Nvidia beschimpft, weil es die Gamer abzockt, da zu wenig Ram.
Bei der Neuauflage der 2060 wird Nvidia beschimpft weil es die Gamer abzockt, da zu viel Ram. ;D

Kafkaesk.

Sweepi
2022-01-09, 15:49:59
Was genau macht eine 2060 12G gegenüber einer 2060 6G "minerfreundlich"?

Aroas
2022-01-09, 16:20:04
Schon witzig, bei Ampere wird Nvidia beschimpft, weil es die Gamer abzockt, da zu wenig Ram.
Bei der Neuauflage der 2060 wird Nvidia beschimpft weil es die Gamer abzockt, da zu viel Ram. ;D

Kafkaesk.

Ist doch berechtigt. Die deutlich stärkeren Ampere Karten werden mit 8GB Speicher verkrüppelt und eine RTX 2060, die nie und nimmer 12GB braucht, weil sie gar nicht die GPU Leistung bietet um in der Region mitspielen zu können, wird so völlig sinnlos attraktiver für Miner gemacht, statt der darbenden Gamer Community als "Notlösung" zur Verfügung zu stehen.

Gast
2022-01-09, 16:30:48
Was genau macht eine 2060 12G gegenüber einer 2060 6G "minerfreundlich"?

Dass die Blockchain immer größer wird und in den VRAM passen muss damit das Mining effizient möglich ist.

Gast
2022-01-09, 16:36:53
Es sind nicht die +35% wie beim Desktop. Sondern es ist eine kurzfristige dynamische Überschreitung um wenige Watt. Leider hat es bislang keiner geschafft, das mal sauber aufzuschreiben. * Das ärgert mich, weil man kann Intel schlecht für ihre riesigen Watt-Ranges kritisieren (15W nominal, bis zu 55W bei PL2 ist für mich keine U-Klasse mehr), wenn auf AMD-Seite etwas ähnliches lauert.

Das Problem ist, dass es hier nichts von AMD gibt.
Bei Intel findest du genaue Dokumentationen von PL1, PL2 und Tau und was die einzelnen Parameter bedeuten bzw. was deren Auswirkungen sind.

Große Ranges sind übrigens überhaupt kein Problem, weil damit je größer die Range ist sich automatisch die Turbozeit über PL1 verringert.
Man könnte sogar PL2 als Limit komplett weglassen, und die CPU das verbrauchen lassen was sie eben braucht und das System würde immer noch funktionieren und durchschnittlich nicht mehr als PL1 verbrauchen.

iamthebear
2022-01-09, 16:41:20
Wenn die Notebooks mit 28 W erscheinen, ist das genau das, was der Kunde bekommt. Somit ist der Vergleich praxisnah.

Bei Intel war das damals so. Da hatte der Großteil der Notebooks vorher 15W und nachher 28W.
Bei AMD ist das anders. Fast 80% der 8 Kern Notebooks am Markt haben eine TDP von mehr als 15W. Bei mehr als der Hälfte sind es sogar 40W+.
Die Kunden die jetzt im 28-40W Bereich kaufen haben auch vorher schon im 28-40W Bereich gekauft.

Ich verstehe dein Problem auch nicht, matty2580. Sollen jetzt alle rumätzen wie bei ZensurBase? Oder herum fantasieren a la "Ich würde 50 € bezahlen"? Ich glaube, die 6500 XT ist keine interessante Karte für die meisten hier, und an den kaputten Markt hat man sich gewöhnt. Zeter und Mordio schreien nützt auch nicht viel.

Also ich sehe die 6500 großteils positiv. Klar sie ist für die gebotene Performance immer noch viel zu teuer aber zumindest ist sie mit vermutlich 300-400 Euro eine Übergangslösung bis sich die Preise wieder normalisiert haben. Die Alternative ist derzeit sonst eine Übergangslösung für 500-600 Euro oder eine 6800 XT die derzeit 800 Euro zu viel kostet.

Warum nicht?
Das ist doch, entschuldige den Ausdruck, einfach feige? AMD kriegt hier auf den Deckel weil 28W deren neues "U" Ziel ist und bei Intel kam damals nur ein resignierendes, müdes "meh...". Hau doch drauf, auf beide natürlich. Aber bitte nicht hinter solchen Platitüden verstecken. Übrigens gibt es eine Footnote zur 15W Folie, die auch überall mit verlinkt ist, siehe auch meine Posts dazu.

Kritisiert wird hier, dass AMD seine 28W Modellen mit den 15W des Vorgängers vergleicht statt einen 28W vs. 28W Vergleich zu machen oder so wie Intel mit ADL einen Vergleich mit dem nächsthöheren TDP Modell des Vorgängers um zu zeigen "wir schaffen mehr oder gleich viel Leistung bei weniger Watt".

Dass 28W bei 8 Kernern das neue U Ziel ist sehe ich sogar als äußerst positiv. Der aktuelle ultra portable Wahn ist sowieso alles andere als kundenfreundlich. Wenn man von ein paar Randgruppen absieht ist der einzige, der davon profitiert der Hersteller, da er die billigsten Schrottkühler verbauen kann und sich sicher ist, dass die Geräte nach spätestens 3-4 Jahren getauscht werden weil sie zu langsam sind.

Zu AMDs Mobile TDPs: Mein G15SE hat je nach Powerplan/Akkumodus krass unterschiedliche Verbräuche. Woher soll irgendjemand wissen was AMD konkret vorsieht (ausser die groben maximalen Limits) wenn jeder einzelne Notebookhersteller sein eigenes Süppchen kocht? AMD ermöglicht grundsätzlich erst einmal alles und bietet maximale Flexibilität bei der Implementierung, ebenso Intel. Ich habe bei dem Dell Notebook auch Modi ab Werk die hardcore bei der genannten TDP abregeln, ebenso aber Modi die ein PL1/PL2 ähnliches Verhalten zulassen - wie willst du soetwas beurteilen? Was soll hier AMD als Standard erarbeiten wenn doch eh wieder jeder OEM alles anders macht?

So soll es ja auch sein. Im Idealfall ist die Kühllösung auf das Maximum designed und der Anwender bestimmt selbst ob er Performance haben will oder eben niedrigere Lüfterdrehzahlen.
Im Batterienetrieb soll dann alles auf Sub 10W runter regeln, dass die Batterie möglichst lange hält.

Sweepi
2022-01-09, 18:01:00
Dass die Blockchain immer größer wird und in den VRAM passen muss damit das Mining effizient möglich ist.


Bis 6 GiB nicht mehr reichen sind es noch 1.5 Jahre (23.11.2023): https://minerstat.com/dag-size-calculator

maximus_hertus
2022-01-09, 18:08:17
In einem vergleichbaren CB Thread liest man eigentlich nur noch eine Ansammlung von negativen Posts zu AMDs RX 6500 XT, Unverständnis, Verzweiflung, Agonie, weil AMD heute schlimmer ist als Nvidia....
https://www.computerbase.de/forum/threads/radeon-rx-6500-xt-amd-bringt-rdna-2-mit-tsmc-n6-fuer-199-in-den-handel.2062767/page-10

Früher als ich mich hier angemeldet habe, weit über 10 Jahre her, war auch dass 3dcenter sehr innovativ, und kritisierte ohne Einschränkungen Verwerfungen am Markt, wie geschrieben vor langer Zeit....


Kritisierst du, dass die rx 6500 hier nicht zerrissen wird? Oder was ist da jetzt der Punkt? Stehe da auf dem Schlauch.

Als Navi 24 designt worden ist, war doch überhaupt nicht klar, dass es das größte GPU Lieferproblem aller Zeiten gibt.

In einem „normalen“ Markt würden sich doch 95-99% nicht für eine 6500 xt interessieren. Man würde sogar fast nicht merken, dass sie existiert.

Einsteiger hätten eine 6600 bzw 6600xt für 230-250 bzw 300 Euro.
„Aufsteiger“/1440p dann eine 6700xt für rund 400-420 Euro
Und die 6800er Oberklasse für 580/650/1000 Euro.

Die 6500 hätte doch quasi niemanden interessiert.

WedgeAntilles
2022-01-09, 19:35:27
Ist doch berechtigt. Die deutlich stärkeren Ampere Karten werden mit 8GB Speicher verkrüppelt und eine RTX 2060, die nie und nimmer 12GB braucht, weil sie gar nicht die GPU Leistung bietet um in der Region mitspielen zu können, wird so völlig sinnlos attraktiver für Miner gemacht, statt der darbenden Gamer Community als "Notlösung" zur Verfügung zu stehen.
6GB reicht locker zum Mining, dafür brauchst du keine 12GB.

Sagen wir es doch wie es ist - hat Nvidia weniger Speicher als AMD ist es vieeeel zu wenig.
Hat Nvidia mehr Speicher als AMD ist es vieeeel zu viel.
So ist es halt im 3DC.
Da ist ja eine 300 Euro+ GraKa mit 4GB plötzlich auch kein so mieser Deal - wenn halt AMD drauf steht...

Rabiata
2022-01-09, 19:47:13
Zu AMDs Mobile TDPs: Mein G15SE hat je nach Powerplan/Akkumodus krass unterschiedliche Verbräuche. Woher soll irgendjemand wissen was AMD konkret vorsieht (ausser die groben maximalen Limits) wenn jeder einzelne Notebookhersteller sein eigenes Süppchen kocht? AMD ermöglicht grundsätzlich erst einmal alles und bietet maximale Flexibilität bei der Implementierung, ebenso Intel.
Ja, das macht Vergleiche zwischen den Prozessoren schwieriger. Da bleibt nur zwei Laptops gegeneinanderstellen, die entweder von Haus aus dieselben Verbrauchslimits haben oder sich entsprechend konfigurieren lassen.

Erschwerend kommt fürs 3DCenter hinzu, daß Leo kein eigenes Testlabor betreibt, sondern Tests aus anderen Quellen zusammenfaßt. Damit ist er halt auch drauf angewiesen, daß jemand anders geeignete Tests veröffentlicht.

Aus Sicht des normalen Endverbrauchers ist es auch sinnvoll, die Rechner als Gesamtpaket zu vergleichen. Da kann die größere Batterie und die bessere Kühlung schon mal eine durstige CPU ausgleichen. Nur für uns Technikfans ergibt sich daraus kein Aufschluß, ob Prozessor X oder Prozessor Y generell besser ist.

Gast
2022-01-09, 19:50:55
Ist doch berechtigt. Die deutlich stärkeren Ampere Karten werden mit 8GB Speicher verkrüppelt und eine RTX 2060, die nie und nimmer 12GB braucht, weil sie gar nicht die GPU Leistung bietet um in der Region mitspielen zu können, wird so völlig sinnlos attraktiver für Miner gemacht, statt der darbenden Gamer Community als "Notlösung" zur Verfügung zu stehen.

Immer dieser Blödsinn Rechenleistung und Speicher in einen Topf zu werfen.

Jede Karte kann mehr Speicher brauchen, mehr Speicher heißt bessere und/oder vielseitigere Texturen verwenden zu können, weil diese brauchen eben Speicher aber 0 Rechenleistung.

Mehr Speicher ist immer gut, mehr Rechenleistung genauso das eine kann das andere nicht ersetzen, beides wird gebraucht, und der Mangel des einen macht genausowenig das andere obsolet.

Es gibt nicht wirklich einen Punkt an dem mehr Speicher durch einen Mangel an Rechneleistung nicht benutzt werden kann, genausowenig wie umgekehrt.

Gast
2022-01-09, 20:55:17
Ja, das macht Vergleiche zwischen den Prozessoren schwieriger. Da bleibt nur zwei Laptops gegeneinanderstellen, die entweder von Haus aus dieselben Verbrauchslimits haben oder sich entsprechend konfigurieren lassen.

Nein, es macht bei Notebooks generell keinen Sinn CPUs gegeneinander zu vergleichen sondern immer nur gesamte Notebooks, ganz unabhängig von der CPU.

Lehdro
2022-01-09, 22:31:45
Bei Intel war das damals so. Da hatte der Großteil der Notebooks vorher 15W und nachher 28W.
Dass das Quatsch ist weißt du selber, auch vorher wurde TDP up genutzt und PL1/PL2 gab es auch damals schon. Hartes 15W Limit hatten die allerwenigsten Notebooks.

Bei AMD ist das anders. Fast 80% der 8 Kern Notebooks am Markt haben eine TDP von mehr als 15W. Bei mehr als der Hälfte sind es sogar 40W+.
Welches Cezanne U Notebook lässt denn out of the box 40W zu? Oder vergleichst du durch die Bank alle 8 Kerner, egal welches Suffix die haben? So klingt das nämlich gerade.

Kritisiert wird hier, dass AMD seine 28W Modellen mit den 15W des Vorgängers vergleicht statt einen 28W vs. 28W Vergleich zu machen oder so wie Intel mit ADL einen Vergleich mit dem nächsthöheren TDP Modell des Vorgängers um zu zeigen "wir schaffen mehr oder gleich viel Leistung bei weniger Watt".
Dann schau mal auf ICL/TGL zurück, was Intel dort gemacht hat. Der "Aufschrei" seitens Leonidas war da nur ein leises Räuspern im Gegensatz zu dem was jetzt an den Tag gelegt wird. Versteh mich nicht falsch: Es ist völlig richtig und wichtig AMD dafür zu kritisieren, aber verdammt lächerlich das zu tun und Intel damals das ganze durchgehen zu lassen. Vorallem retrospektivisch gesehen kann man durchaus in den Text einfliessen lassen, wenn man das schon damals "vergessen" hat. AMD spielt hier einfach nach Intels Spielregeln, nicht andersherum. Das entschuldigt nichts(!!!) aber sollte die gesamte Kritik gleichermaßen auf Intel spiegeln.
Nein, es macht bei Notebooks generell keinen Sinn CPUs gegeneinander zu vergleichen sondern immer nur gesamte Notebooks, ganz unabhängig von der CPU.
Auch Quatsch. Du etablierst das Leistungsniveau der CPUs anhand der eingestellen TDP mit ausreichender Kühlung. Also 15W, 25/28W, 35W, 45W etc. Dann kannst du sauber durch die Bank die rohe Leistung vergleichen.

Dann brauchst du pro zusätzlichen Notebook nur noch rausfinden welche Limits ab Werk gesetzt sind und ob die Kühlung halbwegs was taugt. Vereinfacht die ganze Vergleicherei doch deutlich, da eben nicht jedes NB auf Herz und Nieren getestet werden kann und die Kühlung pro Geräteklasse (z.B. Dell G15, ASUS TUF 15... etc) meist komplett identisch ist. Die teilweise dutzenden Konfigurationen eines NB immer neu zu testen ist kompletter Schwachfug.

Gast
2022-01-09, 23:19:31
Also 15W, 25/28W, 35W, 45W etc. Dann kannst du sauber durch die Bank die rohe Leistung vergleichen.


Notebookhersteller müssen aber nicht diese Werte verwenden, sie können auch alles dazwischen verwenden und das Ganze noch dynamisch ändern, und das machen sie auch.


Dann brauchst du pro zusätzlichen Notebook nur noch rausfinden welche Limits ab Werk gesetzt sind und ob die Kühlung halbwegs was taugt.


Also wie ich gesagt habe, Notebook testen.

Gast
2022-01-09, 23:28:50
Das ärgert mich, weil man kann Intel schlecht für ihre riesigen Watt-Ranges kritisieren (15W nominal, bis zu 55W bei PL2 ist für mich keine U-Klasse mehr), wenn auf AMD-Seite etwas ähnliches lauert.



Die Range ist ziemlich egal, eine CPU mit PL1 15 und PL2 100W darf nicht mehr Energie verbrauchen als eine mit PL1 15 und PL2 25W. Genau das was das Notebook mit PL2 100.

Das was 100W höher ist, genau um das ist der mögliche Verbrauch über PL1 auch kürzer, womit am Ende gleich viel Energie verbraucht werden darf.

Ahnungsloser Passant
2022-01-09, 23:35:23
6GB reicht locker zum Mining, dafür brauchst du keine 12GB.

Sagen wir es doch wie es ist - hat Nvidia weniger Speicher als AMD ist es vieeeel zu wenig.
Hat Nvidia mehr Speicher als AMD ist es vieeeel zu viel.
So ist es halt im 3DC.
Da ist ja eine 300 Euro+ GraKa mit 4GB plötzlich auch kein so mieser Deal - wenn halt AMD drauf steht...

Nvidia baut auf eine deutlich langsame Karte einer veralteten Generation mehr Speicher als auf eine schnellere Karte der neuen Generation. Wenn man dann den Sinn der Aktion hinterfragt, dann ist man auf einmal automatisch AMD Fanboy? Dann sag doch jetzt endlich wie es ist und erkläre mir bitte den Sinn des Ganzen. Ich verstehe es (auch als Nvidia Nutzer) leider nicht.

Nvidia hat in den früheren Generationen den Speicher recht knapp bemessen, damit die Karten schlecht altern und man zeitnah eine neue Karte kaufen musste. Die letzten paar Jahre waren die NVidia Karten zum Zocken deutlich überlegen end es blieb einem ja fast nichts übrig um dann wieder eine NVidia Karte zu kaufen. Die knappe Speicherbemessung war also eine rein wirtschaftliche Erwägung, die man sich leisten konnte, weil AMD keinen echten Wettbewerb liefern konnte. Bei Marktanteilen von bis zu 80% hatte NVidia ein Quasimonopol. Der Wettbewerb kommt ja aktuell abseits von Raytracing erst wieder in Gang.

Leonidas
2022-01-10, 05:32:52
Dass die Blockchain immer größer wird und in den VRAM passen muss damit das Mining effizient möglich ist.

Ist nicht korrekt. Es muß in den VRAM passen, damit es überhaupt sinnvoll ist. Aber: Mehr als notwendig bringt gar nix. Die 12GB bringen der 2060 nichts in Bezug auf das Mining, da reichen 6GB. Nur die veränderten Specs bringen was. Das könnte man aber schon mit einer 2060S übertrumpfen.

Insofern ist es eine Mär, die 2060-12G wäre besonders Miner-freundlich.

Gast
2022-01-10, 12:15:24
Ist nicht korrekt. Es muß in den VRAM passen, damit es überhaupt sinnvoll ist. Aber: Mehr als notwendig bringt gar nix. Die 12GB bringen der 2060 nichts in Bezug auf das Mining, da reichen 6GB. Nur die veränderten Specs bringen was.


Das schon, soweit ich weiß sind die 4GB aber schon zu wenig (für Ethereum), 6GB reichen zwar noch, aber mehr definitiv für längere Zeit.

Lehdro
2022-01-10, 14:46:24
Notebookhersteller müssen aber nicht diese Werte verwenden, sie können auch alles dazwischen verwenden und das Ganze noch dynamisch ändern, und das machen sie auch.
Mit diesen Grundwerten kannst du alles genau genug interpolieren...

Also wie ich gesagt habe, Notebook testen.
Jo klar, lass alle drölf Varianten eines einzigen Notebooks testen. Und dann zum nächsten Modell...manche haben hier echt Ideen. ;D

Leonidas
2022-01-10, 16:17:11
Das schon, soweit ich weiß sind die 4GB aber schon zu wenig (für Ethereum), 6GB reichen zwar noch, aber mehr definitiv für längere Zeit.

Korrekt. Aber 6 GB reichen lange genug, bevor ETH sich vom Mining verabschiedet. Und andere Mining-Objekte brauchen in aller Regel nicht so viel Speicher.

In jedem Fall ist die 2060S der effektivere Miner. Mehr Mining-Power, ausreichende 8 GB, effizienter als die 2060-12G.

Rabiata
2022-01-11, 14:00:16
Nvidia baut auf eine deutlich langsame Karte einer veralteten Generation mehr Speicher als auf eine schnellere Karte der neuen Generation. Wenn man dann den Sinn der Aktion hinterfragt, dann ist man auf einmal automatisch AMD Fanboy? Dann sag doch jetzt endlich wie es ist und erkläre mir bitte den Sinn des Ganzen. Ich verstehe es (auch als Nvidia Nutzer) leider nicht.
Die Breite des Speicherinterfaces gibt die Zahl der benötigten Speicherchips vor, und was es da zu kaufen gibt geht in der Speichermenge immer nach Zweierpotenzen.
An das 192bit Speicherinterface der 2060 passen dann grundsätzlich 3 GB, 6 GB, 12 GB oder 24 GByte. 3 GB oder 24 GB sind für die Vermarktung gar nicht sinnvoll, bleiben 6 GB oder 12 GB. 6GB wird vom Markt nicht mehr so gern angenommen, bleibt die 12 GB Bestückung.

bad_sign
2022-01-11, 16:26:04
Die Breite des Speicherinterfaces gibt die Zahl der benötigten Speicherchips vor, und was es da zu kaufen gibt geht in der Speichermenge immer nach Zweierpotenzen.
An das 192bit Speicherinterface der 2060 passen dann grundsätzlich 3 GB, 6 GB, 12 GB oder 24 GByte. 3 GB oder 24 GB sind für die Vermarktung gar nicht sinnvoll, bleiben 6 GB oder 12 GB. 6GB wird vom Markt nicht mehr so gern angenommen, bleibt die 12 GB Bestückung.
Vergiss nicht auf die Chips selbst zu schauen.
GDDR6 gibt es in 1 GB und 2 GB Ausführung.
Also bleiben bei 192 Bit (6 Chips) 6 GB, 12 GB oder als Sandwich (beidseitig bestückt) 24 GB
GDDR6X gab es Anfangs nur als 1 GB Chip.

Auch der Grund warum Navi24 nur 4 GB hat. 64 Bit (2 Chips) ergeben nur 4 GB. 8 Gb als Sandwich wäre möglich, aber in dem Preisbereich sicherlich viel zu teuer.