PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Intels DG2 mit Midrange-Performance und aggressiven Preispunkten ...


Leonidas
2021-06-03, 12:14:58
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-intels-dg2-mit-midrange-performance-und-aggressiven-preispunkten-kommt-anfang-2

Mega-Zord
2021-06-03, 13:07:36
Das ist zwar nichts aus dem Leistungsbereich für meinen nächsten Rechner, könnte aber sehr interessant für die allgemeine Marktlage sein.

MD_Enigma
2021-06-03, 13:30:41
Spannend. Hätte ich Intel nicht zugetraut. Ist schon arg spät für eine Reaktion auf die ATI Übernahme und hatte vermutet, dass sie die Performance/Leistungsziele nicht erreichen.

BlacKi
2021-06-03, 13:40:58
ich würde vorsichtig mit den performance werten und der preisgestaltung sein. ersteres unterliegt noch viel optimierungsarbeit. letzteres ist grarantiert noch nicht in stein gemeiselt.

arcanum
2021-06-03, 13:50:18
Spannend. Hätte ich Intel nicht zugetraut. Ist schon arg spät für eine Reaktion auf die ATI Übernahme und hatte vermutet, dass sie die Performance/Leistungsziele nicht erreichen.

intel ist nicht ins GPU-geschäft eingestiegen um sich mit AMD und nvidia um den abseits vom crypto-booms stagnierenden retail-markt zu kloppen.

DG2 ist ein nebenprodukt von der HPC-variante. der DC-markt wächst kontinuierlich und wird den desktop-markt in den nächsten jahren hinter sich lassen und dort will intel mitverdienen, zumal es auch in DCs einen shift von CPU zu GPU gibt und (custom-)ARM das 08/15-geschäft auffrisst.

Gast Ritis
2021-06-03, 14:09:08
Mir fällt auf, dass die so gescholtene von Koduri verantwortete Vega-Arch so ein extrem lange laufendes Design geworden ist. Dort haben diverse geplante Features nicht funktioniert und sparsam und taktfreudig wurde Vega erst nachdem Koduri zu Intel ging und Vega für APUs redesignt wurde.

Aber Koduri muss auch nicht mehr mit GloFo arbeiten sondern kann auf Intel-Designteams und TSMC bauen.
Von daher ist der plötzliche Effizienzgewinn vielleicht kein Zufall. Erst der PoC und dann die Optimierungen, die nicht Koduris (erste) Prio waren.
Wenn der nun schreibt:
"lots of game and driver optimization work ahead for @gfxlisa’s software team. They are all very excited..and a little scared:)"
... dann ist doch hoffentlich nicht wieder der Primitive Shader defekt...

Dass der mit dem Team eine kompetitive Arch auf dem Papier hinbekommt ist nicht die Frage. Eher ob die Details alle stimmen bzw. funktional sind und vor allem die Treiber brauchbar sind. Sicherlich wird man denen keinen Gefallen tun irgend altes Zeugs vor DX12 tetsten zu wollen...
Aber bei so nem grossen Laden wie Intel muss QS und Treiber möglich sein... und Intel wird sich m.M. etablieren können.

Leonidas
2021-06-03, 14:30:07
Hoffen wir es. Genauso sollten wir hoffen, das es Intel nicht zu gut hinbekommt.

Rabiata
2021-06-03, 16:49:09
Hoffen wir es. Genauso sollten wir hoffen, das es Intel nicht zu gut hinbekommt.
Daß Intel gleich AMD und Nvidia überholt, erscheint etwas optimistisch.

Eine gute Effizienz ist mir jedoch wichtig, und die DG2-256/8GB könnte in meinen nächsten Rechner kommen, falls sie so gut läuft wie hier angeteasert. "Moore's Law is dead" halte ich nicht für die allerzuverlässigste Quelle.

Gast
2021-06-03, 21:25:17
Ich bin zum einen irritiert. Ich hätte vermutet, dass das "DG2"-Projekt primär für HPC ist. Intel hat da ja schon mehrere Pleiten hingelegt.

Zum anderen erinnert es an Willamette.
Natürlich andere Situation, aber als der raus kam, war ich maßlos enttäuscht, weil die Konkurrenz UND die Vorgänger besser waren. Nur das Versprechen zukünftiger drastischer Taktsteigerungen (10Ghz) sprach für den P4. Die wären beim PIII angeblich nicht möglich.
Wie richtig ich damals lag, hätte ich niemals geahnt. Netburst ist längst begraben. P6 aka Pentium Pro war Basis für so ziemlich alles, was intel nach P4 gemacht hat. Netburst hat die Taktraten nie erreicht. Auf P6 basierender Core hat sie ohne Fertigungstechnologievorsprung (aber sicher Vorteil bei den verwendeten Entwicklungsresourcen) überholt. Ganz im Gegensatz zu dem, was über P6-Potential bei Einführung von Netburst vom intel-Marketing behauptet wurde.
Ich glaube, beim Wechsel von 486 auf Pentium war es anfangs ähnlich.

Wenn also intels Neuentwicklung nicht mal mit dem Wettbewerb mithalten kann, muss man auf viel ungenutztes Potential hoffen. Sonst könnte man alles sofort abschreiben.

amdfanuwe
2021-06-03, 22:01:49
Aber bei so nem grossen Laden wie Intel
Mit vielen kleinen Abteilungen. Größe einer Firma sagt nichts darüber aus, wieviel an Manpower und Geld in ein Projekt gesteckt wird, wie die einzelnen Abteilungen miteinander können und zusammenarbeiten etc.

BTB
2021-06-03, 22:07:50
Ein lieferbarer bezahlbarer Mitstreiter auf 3070 Niveau würde dem Markt sicher gut tun. Da dürfen wir uns alle drüber freuen auch wenn die Karten eventuell nicht interessant sind.

Gast
2021-06-04, 09:28:57
Wenn diese Werte stimmen sieht Intel eigentlich verdammt gut aus, selbst wenn man das aktuelle Highend-Segment auslässt.

Legendenkiller
2021-06-04, 09:50:49
Die "gute" Effizinz bei Intels GPU ist eher das normal...

Scon die normale 3080 wird weit oberhalt des Sweetspots ausgeliefert.
Eine 3080 hat bei 270W TDP nur maximal 5% FPS Verlust oft garkein.

... von den 400W TPD wie sie bei den 3080Ti custom benutzt werden reden wir lieber nicht.
100W Mehrverbrauch für ein Handvoll mehr FPS...

Wenn man nur gegen maximal Wektsübertaktet Karten antreten muss ist es einfach eine besser Effizienz zu erreichen :-)

Hier ist dann sicher der Vergleich bei den Notebook GPUs aussagekräftiger... wo alle z.b. mit 80W arbeiten müssen.

Knuddelbearli
2021-06-04, 10:24:58
Geht es nur mir so?
Performance ist mir recht egal, kaufe eh maximal zu 499 € eher maximal 399 €, kommt auf die Speicherausstattung an. Aber bei dem Treiber mache ich mir bei Intel, gerade bei älteren und Indy-Spielen, schon sehr sorgen.

Gast Ritis
2021-06-04, 13:19:06
Geht es nur mir so?
Performance ist mir recht egal, kaufe eh maximal zu 499 € eher maximal 399 €, kommt auf die Speicherausstattung an. Aber bei dem Treiber mache ich mir bei Intel, gerade bei älteren und Indy-Spielen, schon sehr sorgen.

Performance ist der einzige Grund alle paar Jahre ein Upgrade zu machen, aber bei der Neuauswahl treten einstellige % Perf. Unterschiede in den Hintergrund.
dann ist Treiber und Langlebigkeit, z.B wegen RAM Grösse wichtiger, das Budget reicht dann für was Neues oder nur 2nd Hand.
Aber erst muss die Alte unspielbar werden und die Neue das Problem lösen mit viel Luft nach oben, z.B für ein Monitorupgrade.

Lowkey
2021-06-04, 13:43:21
Es wäre interessant zu wissen welche Grafikkarten in der Vergangenheit die P/L Langlebigkeitssieger gewesen sind und welche Rückschlüsse man für die Zukunft ziehen kann.

Eine Mehrheit wartet gerade auf eine 3050 oder andere Grafikkarte im 100-150 Euro Bereich.

JVC
2021-06-04, 16:26:27
Es wäre interessant zu wissen welche Grafikkarten in der Vergangenheit die P/L Langlebigkeitssieger gewesen sind und welche Rückschlüsse man für die Zukunft ziehen kann.

Mehr RAM, war eigentlich immer Trumpf. Texturen(gute Optik) brauchen viel RAM.
(außer man ist ein hyperaktiver High-FPS-Low-Quality-Gamer)

Meine 390 8Gb war seinerzeit ~ gleich teuer wie eine 970 3,5+0,5Gb...
Damals war sie langsamer, Jetzt ist sie schneller...

Für RDNA sehe/vermute ich eine gute und lange Zukunft ;)

M.f.G. JVC

Gast
2021-06-04, 17:53:46
Aber Koduri muss auch nicht mehr mit GloFo arbeiten sondern kann auf Intel-Designteams und TSMC bauen.
Äh, die Radeon VII auf Vega20 Basis wurde bei TSMC hergestellt, so viel umstellen muss er sich da also nicht... :)

konkretor
2021-06-04, 18:40:21
Erst im Q1 2022, oh nein, wie lange soll ich den noch warten...

aufkrawall
2021-06-04, 18:48:50
Performance ist mir recht egal, kaufe eh maximal zu 499 € eher maximal 399 €, kommt auf die Speicherausstattung an. Aber bei dem Treiber mache ich mir bei Intel, gerade bei älteren und Indy-Spielen, schon sehr sorgen.
Evtl. wird man sich da wie bei AMD mit Linux-Multiboot behelfen können.

Knuddelbearli
2021-06-05, 13:33:33
Es wäre interessant zu wissen welche Grafikkarten in der Vergangenheit die P/L Langlebigkeitssieger gewesen sind und welche Rückschlüsse man für die Zukunft ziehen kann.

Eine Mehrheit wartet gerade auf eine 3050 oder andere Grafikkarte im 100-150 Euro Bereich.

Die mit Abstand kurzlebigste war bei mir jedenfalls die GTX 970 mit dem "Betrugsspeicher" nichtmal 1,5 Jahre, die 1070 jetzt schon über 4 Jahre.
Davor GTX 480, eine 5850, 8800GTS, GF 4200 und Rage 128. Glaub habe nichts vergessen.

5850 hatte ich auch nicht sehr lange, das lag aber daran das ich die 480 sehr günstig erhalten habe und damals auf wakü umgestiegen bin.

Mr.Smith
2021-06-05, 13:49:51
Ich glaub da erst Mal gar nichts bis Verbrauchs-, Leistungs- und Bildqualitätstests unabhängig vorhanden sind.
Dazu noch Preise und Softwarequalität.

Gast
2021-06-05, 16:59:18
Äh, die Radeon VII auf Vega20 Basis wurde bei TSMC hergestellt, so viel umstellen muss er sich da also nicht... :)

Hat der Koduri überhaupt mit der Fertigung was zu tun?

etp_inxession
2021-06-06, 13:47:47
Also ich halte 3070 Niveau durchaus für realistisch. Eigentlich MUSS Intel mindestens dort raus kommen, um überhaupt eine Rolle zu spielen. Ansonsten gehts nur über den Preis.

Bei der Chip Knappheit aktuell, aber absolut kein Kriterium.

Vega kommt aus der Hand von Koduri, so sagt man.

Also Vega Niveau + Intel Budget + einige Entwicklungszeit = 3070 Niveau.

Klingt gangbar.

Aber einen GameChanger erwarte ich nicht.

Gast
2021-06-07, 12:25:54
Hat der Koduri überhaupt mit der Fertigung was zu tun?
Naja, das Chip Design wird schon auf eine bestimmte Fertigung hin optimiert. Indirekt also vielleicht schon.
Aber es ging ja eher darum, dass hier behauptet wurde, Korduri konnte nichts vernünftiges liefern, weil er dauernd mit GloFo zu tun hatte, und die das nicht können. Dabei waren eigentlich nur die Vegas und Polaris von GF, davor und danach war man ja bei TSMC.

Gast
2021-06-07, 18:55:29
Naja, das Chip Design wird schon auf eine bestimmte Fertigung hin optimiert.

Ja aber es ist schon ein riesiger Unterschied zwischen Chipdesign auf Logikebene und der tatsächlichen Umsetzung in Hardware. Und nur letzteres hat dann mit dem eigentlichen Prozess zu tun, und soweit ich weiß ist die Tätigkeit von Raja ja eher im ersteren Bereich.