PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 2. März 2022


Leonidas
2022-03-03, 09:43:16
Link zur News:
https://www.3dcenter.org/news/news-des-2-maerz-2022

Gast
2022-03-03, 11:12:16
Dies geschieht nun sogar relativ schnell – was vielleicht sogar darauf hindeutet, dass nVidia und Intel schon vor dem RDNA2-Release in diese Richtung gedacht oder/und vorab Insider-Infos zum "Infinity Cache" hatten.

Das muss überhaupt nichts mit AMD zu tun haben, deren IC-Lösung ist ein relativ "dummer" Victim Cache, das kann man auch erst sehr spät im Design hinzufügen.

Und natürlich wissen auch die anderen Chipdesigner wieviel vom Energiebudget auf durch den Transport der Daten drauf geht. Intel hatte im Prinzip mit den IGPs mit dem eSRAM schon etwas sehr ähnliches zum Infinity Cache auf dem selben Package, nur nicht im selben DIE.

GerryB
2022-03-03, 11:49:11
A380@75W
Da müsste ja Intel bei der Effizienz das Rad neu erfunden haben, um an 3060@170W/6600@132W ranzukommen.
(scheint ganz schöner Quatsch zu sein)

Wenn man 30% unter ner 6500xt@107W bzw. 50% unter ner 3050@130W rauskommt wärs normal.
Ob jetzt 6nm nochmal 15% mehr bringt, who knows, die 6500xt ist ja auch schon@6nm.

Rabiata
2022-03-03, 12:35:23
Was dicke vs. dünne Speicherinterfaces angeht, könnte man ja dicke auf niedrigerem Takt betreiben und unterm Strich trotzdem besser in der Effizienz wegkommen. Siehe HBM.
A380@75W
Da müsste ja Intel bei der Effizienz das Rad neu erfunden haben, um an 3060@170W/6600@132W ranzukommen.
(scheint ganz schöner Quatsch zu sein)

Wenn man 30% unter ner 6500xt@107W bzw. 50% unter ner 3050@130W rauskommt wärs normal.
Ob jetzt 6nm nochmal 15% mehr bringt, who knows, die 6500xt ist ja auch schon@6nm.
Zum Vergleich, Tomshardware schätzt die RX 6400 auch als 30% langsamer (https://www.tomshardware.com/uk/news/amd-radeon-rx-6400-benchmarks) als die 6500 XT ein. TDP ist nur 53W.
Ein bisserl mehr könnte mit 75 W schon drin sein. Je nachdem wie aggressiv Intel das Teil taktet, wäre RX 6400- Leistung + 40% denkbar (Daten der 6400 hochskaliert). Dann wären wir wieder auf 6500 XT-Niveau, aber sparsamer.

Gast
2022-03-03, 12:49:18
Was dicke vs. dünne Speicherinterfaces angeht, könnte man ja dicke auf niedrigerem Takt betreiben und unterm Strich trotzdem besser in der Effizienz wegkommen. Siehe HBM.

Das liegt aber nicht primär daran, sondern an den deutlich kürzeren Signalwegen mit HBM.

GerryB
2022-03-03, 13:07:17
agressiv takten >> Sweetspot kostet erstmal W, ... vermutlich dann doch eher 75 +XX
die 6500xt andererseits ist net seeehr hoch getaktet für ne 6nm-Graka, die könnte mehr als AMD zulässt
sparsamer ist schwierig ohne großen Cache (x)

(x) Wir reden über A380@96bit vs 6500xt@64bit. Da wird das Interface ne Menge W kosten.

Rabiata
2022-03-03, 13:45:16
agressiv takten >> Sweetspot kostet erstmal W, ... vermutlich dann doch eher 75 +XX
die 6500xt andererseits ist net seeehr hoch getaktet für ne 6nm-Graka, die könnte mehr als AMD zulässt
sparsamer ist schwierig ohne großen Cache (x)

(x) Wir reden über A380@96bit vs 6500xt@64bit. Da wird das Interface ne Menge W kosten.
Die 6500 XT hat 107W TDP vs. die 53W der 6400. Glatt das doppelte, die 6500 XT scheint mir an der Kotzgrenze zu laufen. Wenn die A380 ähnlich effektiv ist wie die 6400, dann kann sie mit 75W die 6500 XT einholen.

Lehdro
2022-03-03, 16:27:10
Die 6500 XT hat 107W TDP vs. die 53W der 6400. Glatt das doppelte, die 6500 XT scheint mir an der Kotzgrenze zu laufen.
Auch nicht vergessen: Die 6500XT nutzt die 107W nicht wirklich aus. Ist eher eine ~100W Karte von der TDP her. Da begrenzt meist schon etwas anderes.

Und wie Intel TDPs bei GPU managed weiß auch noch keiner - wenn man Richtung CPUs schaut könnte einem klar werden das es keine 75W Karte wird. Nicht wenn man die 6500XT/3050 angreifen will.

Leonidas
2022-03-03, 16:48:20
Ich denke:
3050 > A380 > 6500XT

Gast
2022-03-03, 19:31:04
Was dicke vs. dünne Speicherinterfaces angeht, könnte man ja dicke auf niedrigerem Takt betreiben und unterm Strich trotzdem besser in der Effizienz wegkommen. Siehe HBM.HBM ist was völlig anderes.

GerryB
2022-03-03, 19:40:28
...die 6500 XT scheint mir an der Kotzgrenze zu laufen....
Häh?

Mit ein paar mV mehr könnte man easy>3GHz takten.

Auch nicht vergessen: Die 6500XT nutzt die 107W nicht wirklich aus. Ist eher eine ~100W Karte von der TDP her. Da begrenzt meist schon etwas anderes.
1+
Da wird leider in den Reviews auch immer in zu hohen Settings gemessen, um als Leser dann evtl. Bottlenecks auszuschließen.
(man weiß leider net warum die 5500xt@4GB und @8GB in ME so nah beieinander liegen, um es auf den Vram schieben zu können)

Thomas Gräf
2022-03-04, 01:04:59
Richtig interssant wirds wenn INTEL auch ihre GPU Chips mal selber backem kann.
Sollte alles so weiterlaufen wie bisher, werden sie bald nur noch Samsung als Chiphersteller zur Konkurrenz haben. ;)

Mal richtig Gas geben könnte sich für INTEL lohnen, weil darauf zu wetten das die gesamte Weltpolitik westliche Rationalität im Fokus hat würde ich nicht mehr.

Platos
2022-03-04, 02:09:25
September steht Lovelace vor der Tür und Intel kommt immer noch nicht mit einem Ampere-Konter...

Wenn das mal nicht in die Hose geht...

GerryB
2022-03-04, 04:43:36
btw.
Wenn man mal Fps/$ ausser acht lässt, gibts ne interessante ITX-Workstation-Graka, wo man wirklich im Sweetspot taktet (x)
mit nur 70W. (A2000-6GB)
Warum allerdings die Preise in der Liste so realitätsfern sind, who knows. (A2000pny=698€ und 6500xt Pulse = 209€ im MS today)

(x) Das ist jetzt aber ein ganz anderes Konzept, weil ein rel. großer Chip@192bit niedrig getaktet wird.
(mit normalem GDDR6 isses halt auch net so W-expensiv wie mit GDDR6X)

WedgeAntilles
2022-03-04, 09:47:32
September steht Lovelace vor der Tür und Intel kommt immer noch nicht mit einem Ampere-Konter...

Wenn das mal nicht in die Hose geht...

Ja, ich denke inzwischen, dass ihr Alchemist nur die Vorstufe ist - quasi der "Live-Test" was Treiber und so weiter angeht.
Die Stückzahlen und Intel-interne Umsatzprognosen deuten ja auch eher auf nicht gerade große Mengen im Bereich Midrange hin, sondern auf den LowEnd Bereich.

Spannender wird da eher Battlemage - was kann der und wann kommt der?
Sollte Battlemage tatsächlich ca. 1 Jahr nach Alchemist kommen wäre das dann 2. Quartal (evt. 3 Quartal) 2023.

Wenn es mit diesem Chip gelingt Lovelace halbwegs zu erreichen - zumindest im Bereich 4060/4070 Niveau (mehr kann ich mir nicht recht vorstellen) wäre das ein großer Erfolg.

Und Alchemist ist quasi die open-Beta für die Perfektionierung der Treiber. Wobei natürlich klar ist, dass auch Alchemist mit guten Treibern herauskommen muss.
Ist das ein Debakel glaubt wohl kaum einer, dass dann bei Batlemage plötzlich alles toll ist.

Der Alchemist-Start ist wichtig, wird IMO aber wenig Einfluss auf den Markt haben. (Zu wenig Stück, zu sehr im LowEnd Bereich, zu spät).
Richtig spannend wird es bei Battlemage. (Es sei denn, Alchemist vermurkst es, dann ist auch die Spannung für Battlemage ziemlich raus.)


Das ist alles natürlich wahnsinnig viel Konjunktiv und reine Spekulation von meiner Seite.

Berniyh
2022-03-04, 10:26:41
September steht Lovelace vor der Tür und Intel kommt immer noch nicht mit einem Ampere-Konter...
Was anderes zu erwarten wäre doch irgendwo auch naiv.

Intel hat ja sogar Schwierigkeiten mit Zen mitzuhalten, bzw. nur mit der Brechstange.
Und CPUs sind deren absolute Domäne.

Es wäre vermessen zu glauben Intel würde mal eben den GPU Markt aufrollen.
Das braucht Zeit und wird sicher noch ein paar Generationen brauchen bis man da komplett auf Augenhöhe mit Nvidia und AMD ist.
(Wobei das mit der Augenhöhe ja eh so ne Sache ist, AMD war ja auch lange nicht auf Augenhöhe und ist es je nach Betrachtungsweise immer noch nicht.)

Platos
2022-03-04, 11:38:50
Sehe ich nicht so. Intel ist ja nicht einfach Intel und ändert nir ihre Mitarbeiter. Haben ja dafür extra andere Mitarbeiter (z.B von AMD) abgeworben.

Und aus meiner Sicht kann man auch nicht einfach so langsam vor sich her dümpeln. Dann schafft man sich (aber schnell) den Ruf, dass man nicht konkurrenzfähig ist.

Einzige Möglichkeit ist, dass man nur im Lowened-Segment bedient, aber da wo man bedient, muss man halbwegs Konkurrenzfähig sein und zwar von Anfang an. Ansonsten wars das für Intel auf einen Schlag.

D.h irgendwo muss man gut sein, nur muss man nicht unbedingt alle Perfomanceklassen bedienen. Aber das hiesse auch, dass die Ihre Grafikkarten deklassieren müssten, wenn sie nicht schleunigst launchen.

Eine möglichkeit sich vor der Wahrheit zu verstecken, sehe ich noch darin, dass man die Grafikkarten nur für OEMs vertreibt. Dann kann man das P/L bzw. den Preis der Grafikkarte nämlich nicht einzeln bestimmen.

Berniyh
2022-03-04, 12:22:25
Sehe ich nicht so. Intel ist ja nicht einfach Intel und ändert nir ihre Mitarbeiter. Haben ja dafür extra andere Mitarbeiter (z.B von AMD) abgeworben.
Klar, aber auch das braucht Zeit bis das wirklich durchschlägt.
Zudem ist ja auch nicht garantiert, dass sie die richtigen Mitarbeiter abgeworben haben.
Das sieht man auch an anderen Stellen. Wenn man nach dem geht was andere erwarten, dann müsste Apple eigentlich schon seit mindestens 2 Jahren Intel und AMD im CPU Bereich düpieren. Die Realität spricht da aber eine andere Sprache.
Dann schafft man sich (aber schnell) den Ruf, dass man nicht konkurrenzfähig ist.
Den Ruf hatte man doch eh schon.
Intel wird es auch klar gewesen sein, dass man richtig investieren muss um da den Anschluss zu bekommen.
Sowohl Geld als auch Zeit und Geduld.
Einzige Möglichkeit ist, dass man nur im Lowened-Segment bedient, aber da wo man bedient, muss man halbwegs Konkurrenzfähig sein und zwar von Anfang an. Ansonsten wars das für Intel auf einen Schlag.
Ne, eher, indem man versucht die Karten in Datacenter unterzubringen und das scheint ja auch der Weg zu sein, den Intel geht, denn da hat man gute Kontakte.

Platos
2022-03-04, 14:57:59
Oder das mit dem Data-Center. Auch ne gute Möglichkeit. Gibt Geld aber keine schlechte Kritik, wie es der Fall wäre, wenn man sie "in die Öffentlichkeit" gibt (also retail).

GerryB
2022-03-04, 17:25:07
Ein gutes Game für kleine Grakas scheint Elden Ring@FHD zu sein: alle innerhalb der Freesyncrange

Gast
2022-03-10, 12:22:51
Ein gutes Game für kleine Grakas scheint Elden Ring@FHD zu sein: alle innerhalb der Freesyncrange

Sieht ja auch entsprechend besch... ...eiden aus.