PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Wann holt Intel AMD/NV bei den GPUs ein?


Godmode
2013-06-12, 17:45:50
Haswell ist vorgestellt und bei der iGPU gab es einen größeren Leistungszuwachs als bei der CPU. Wenn das bei Intel in dem Tempo weitergeht, dann dürften AMDs und Nvidia dezidierte Mittelklasse GPUs "bald" in Reichweite sein. Durch den Vorteil den Intel bei der Fertigung hat, dürfte sich auch die TDP in Grenzen halten.

Die iGPU nimmt verhältnismäßig wenig Platz auf dem Die ein, daher sehe ich hier noch einiges an Spielraum nach oben. Die Problematik mit der Speicherbandbreite könnte durch HMC, Stacked DRAM, etc.. gelöst werden. Wenn Intel immer 1-2 Nodes vor den Amd/NV ist, könnten sie sogar deren Highend GPUs angreifen.

Wenn man jetzt bedenkt, dass mit Lowend und Mittelklasse früher das meiste verdient worden ist, kann sich das recht negativ vor allem auf nVidia auswirken. Es ist natürlich noch ein weiter Weg bis dort hin, aber man sieht jetzt schon, dass die langsamsten dGPUs obsolet werden. Bei Amd sieht die Lage abseits der Konsolen nicht viel besser aus. So lange hier keine konkurrenzfähigen CPUs gebaut werden, bringt die beste iGPU nichts.

Mir ist bewusst das Intel und GPU ein sehr streitbares Thema ist, aber ich fände eine Diskussion trotzdem interessant.

fondness
2013-06-12, 17:52:56
Das die gesamte Industrie Richtung SoC geht ist kein Geheimnis. NV baut sich ja nicht aus Langeweile eine CPU-Abteilung auf. Der Nachteil des getrennten Speicherbereiches ist einfach zu groß.

YfOrU
2013-06-12, 19:06:34
Intel hat wenn es um die Integration potenter GPUs geht elementare Vorteile:
Die zumindest über die nächsten Jahre weiterhin überlegene Fertigung welche passend zu den Anforderungen der eigenen Produkte entwickelt wird.

Im Gegensatz zur versammelten Konkurrenz die mit Abstand geringsten Probleme ausreichend Speicherbandbreite zu akzeptablen Kosten realisieren zu können. Sehe ich bezogen auf die Skalierung als einen der wichtigsten Punkte überhaupt an. Intel erwirtschaftet im Endeffekt mit dem eigenen eDRAM Kapital.

Die vorhandenen CPU Architekturen (inkl. Silvermont) sind bzw. gehören in allen Segmenten zum Besten was der Markt hergibt. Etwas anderes als eine Fokussierung auf Mobility und GPUs bleibt kaum und entspricht auch der allgemeinen Richtung des Marktes.

boxleitnerb
2013-06-12, 19:11:36
Ich würde schätzen frühestens ab dem 14 nm Refresh. Die GT640 hat man noch nicht ganz erreicht, und das auch nur mit Iris Pro, die in ihrer Verbreitung recht irrelevant sein wird.
Es kommt darauf an, ob Intel in Zukunft auch den "normalen" iGPUs wie HD 4600 den eDRAM zur Seite stellen wird und wie aggressiv man hier vorgeht bei der Entwicklung, also ob man noch mehr Fläche investiert.
Die Frage ist, was du als Mittelklasse definierst - GTX x60? HD x8xx? Oder doch einen Schritt darunter?

Das Problem was ich an der Geschichte sehe ist folgendes:
Bei einer dGPU habe ich immer die Wahl, ob ich den Aufpreis zahlen will oder nicht. Intel kann nicht unendlich viele Varianten basteln, d.h. man hat viel weniger Auswahlmöglichkeit. Wird man die iGPUs wirklich so groß machen, um auf breiter Linie bis ins 100W-Segment bei dGPUs anzugreifen - auch wenn nicht jeder diese Performance braucht? Bei der Masse (und Intel geht ja über die Masse, anders könnten sie ihre teure Fertigung nicht finanzieren) gibt es ein "gut genug", ab wo es sich nicht mehr lohnt, eine noch teurere iGPU zu produzieren und den Leuten mit dem Kauf eines Prozessors aufzuzwingen.

fondness
2013-06-12, 19:19:36
Das Problem was ich an der Geschichte sehe ist folgendes:
Bei einer dGPU habe ich immer die Wahl, ob ich den Aufpreis zahlen will oder nicht. Intel kann nicht unendlich viele Varianten basteln, d.h. man hat viel weniger Auswahlmöglichkeit. Wird man die iGPUs wirklich so groß machen, um auf breiter Linie bis ins 100W-Segment bei dGPUs anzugreifen - auch wenn nicht jeder diese Performance braucht? Bei der Masse (und Intel geht ja über die Masse, anders könnten sie ihre teure Fertigung nicht finanzieren) gibt es ein "gut genug", ab wo es sich nicht mehr lohnt, eine noch teurere iGPU zu produzieren und den Leuten mit dem Kauf eines Prozessors aufzuzwingen.

Die GPU wird zukünftig nicht für für Grafikberechnungen benötigt sondern als Co-Prozessor, wird also zum elementaren Bestandteil der CPU.

boxleitnerb
2013-06-12, 19:24:01
Die GPU wird zukünftig nicht für für Grafikberechnungen benötigt sondern als Co-Prozessor, wird also zum elementaren Bestandteil der CPU.

Das ist zwar richtig, jedoch bleibt die Frage, inwiefern sich ein besonders starker Co-Prozessor lohnen würde. Spiele sind allgegenwärtig, Hunderte Millionen Leute spielen. Diese "Wichtigkeit" wird für die anderen Funktionen der GPU nicht oder nur sehr langsam zu erreichen sein vermute ich. Sicherlich könnten auch extrem schnelle iGPUs an den Kunden gebracht werden, aber diese Kunden werden nicht annähernd so zahlreich sein wie Spieler.

Am Ende geht es um Marge und Profit. Da wäre es kontraproduktiv, riesige Dies zu bauen, nur um die dGPUs anzugreifen - Nodevorsprung hin oder her. Auch Intel kann die Preise nicht so drastisch erhöhen, dass ihre Margen gleich bleiben. Im Mobilbereich kann man die Preise noch in den Gerätepreisen auf Kosten der Partner verstecken, im Desktopbereich geht das nicht. Wer würde einen 6770R für 600 Euro kaufen z.B., wenn er eine gleichschnelle HD 10850 für 250 Euro bekäme und eine CPU für 100-150 Euro dazu? Der Vorteil durch die Integration müsste so gewaltig sein, dass die Leute einen saftigen Aufpreis selbstverständlich zahlen. Das sehe ich jetzt nicht wirklich so kommen.

Eine Möglichkeit sähe ich aber, und die wäre, dass Intel fertigungsprozessbereinigt auf eine vergleichbare Perf/mm2 wie bei den dGPUs kommt oder gar leicht höher durch die Integration. Dann könnte die Rechnung aufgehen. Bis dahin ist es aber noch ein langer Weg.

Shink
2013-06-12, 21:29:42
Wenn man jetzt bedenkt, dass mit Lowend und Mittelklasse früher das meiste verdient worden ist, kann sich das recht negativ vor allem auf nVidia auswirken. Es ist natürlich noch ein weiter Weg bis dort hin, aber man sieht jetzt schon, dass die langsamsten dGPUs obsolet werden. Bei Amd sieht die Lage abseits der Konsolen nicht viel besser aus. So lange hier keine konkurrenzfähigen CPUs gebaut werden, bringt die beste iGPU nichts.

Mir ist bewusst das Intel und GPU ein sehr streitbares Thema ist, aber ich fände eine Diskussion trotzdem interessant.
"Kann sich negativ auswirken" - Intel war schon zu Zeiten der (schrottigen) Chipsatz-GPUs ala GMA915 der "Marktführer". Ja - wer spielte, holte sich etwas anderes. Aber Grafikkarten musste da "die Masse" nicht mehr kaufen.

Ein streitbares Thema? Wann Intel die "Krone holt", haben sich manche schon zu Zeiten der i740 (1998). Dauert eh sehr lange, wenn man sich den Aufwand ansieht, der betrieben wird.

Godmode
2013-06-12, 22:34:39
Das die gesamte Industrie Richtung SoC geht ist kein Geheimnis. NV baut sich ja nicht aus Langeweile eine CPU-Abteilung auf. Der Nachteil des getrennten Speicherbereiches ist einfach zu groß.

Solange sie keine x86 Lizenz bekommen, oder irgend einen wirklich großen Mobile Deal landen, ist die Tegra sparte nicht wirklich von interessant.

Ich würde schätzen frühestens ab dem 14 nm Refresh. Die GT640 hat man noch nicht ganz erreicht, und das auch nur mit Iris Pro, die in ihrer Verbreitung recht irrelevant sein wird.
Es kommt darauf an, ob Intel in Zukunft auch den "normalen" iGPUs wie HD 4600 den eDRAM zur Seite stellen wird und wie aggressiv man hier vorgeht bei der Entwicklung, also ob man noch mehr Fläche investiert.
Die Frage ist, was du als Mittelklasse definierst - GTX x60? HD x8xx? Oder doch einen Schritt darunter?

Das Problem was ich an der Geschichte sehe ist folgendes:
Bei einer dGPU habe ich immer die Wahl, ob ich den Aufpreis zahlen will oder nicht. Intel kann nicht unendlich viele Varianten basteln, d.h. man hat viel weniger Auswahlmöglichkeit. Wird man die iGPUs wirklich so groß machen, um auf breiter Linie bis ins 100W-Segment bei dGPUs anzugreifen - auch wenn nicht jeder diese Performance braucht? Bei der Masse (und Intel geht ja über die Masse, anders könnten sie ihre teure Fertigung nicht finanzieren) gibt es ein "gut genug", ab wo es sich nicht mehr lohnt, eine noch teurere iGPU zu produzieren und den Leuten mit dem Kauf eines Prozessors aufzuzwingen.

Also ich meinte hier wirklich GTX x60 und HD x8xx. Aber die Varianten könnten sich doch lohnen, wenn dann die CPU 500 Euro kostet statt jetzt nur 300. Nvidia verkauft die Highend GPUs momentan zu Mondpreisen und IMO gäbe es hier auch für Intel was zu holen.


"Kann sich negativ auswirken" - Intel war schon zu Zeiten der (schrottigen) Chipsatz-GPUs ala GMA915 der "Marktführer". Ja - wer spielte, holte sich etwas anderes. Aber Grafikkarten musste da "die Masse" nicht mehr kaufen.

Ein streitbares Thema? Wann Intel die "Krone holt", haben sich manche schon zu Zeiten der i740 (1998). Dauert eh sehr lange, wenn man sich den Aufwand ansieht, der betrieben wird.

Marktführer nach Stückzahlen ist aber recht wertlos wenn die Dinger nichts können. Leistungstechnisch ist für mich ganz klar NV noch vor AMD, weit abgeschlagen dann Intel. Das Thema iGPU wurde ja zwischenzeitlich eher stiefmütterlich behandelt und erst seit Ivy Bridge wieder aufgegriffen.

Nightspider
2013-06-12, 22:42:54
Falls Intel sich traut 14nm Chips in einer Größe von 400-450mm² herzustellen könnte Intel schon einige größere dedizierte Desktop-Grafikkarten verprügeln.

Voraussetzung wäre, das Intel die Effizienz der GPU Architektur erhöht, GDDR5 oder HMC verbaut und bei 4 Kernen bleibt.
Dann hätte Intel alleine für die riesige IGP knapp 250-300mm² was in 14nm vergleichbar wäre, wie ein 400-450mm² Bolide in 20nm.

Bei der CPU müsste Intel nur noch etwas an den Taktraten schrauben und die IPC leicht erhöhen und die meisten Gamer wären schon zufrieden.
Alleine durch die viel größere Speicherbandbreite dürfte die CPU-Power noch etwas zunehmen.

Und zur Not könnte Intel neben der riesigen IGP noch 6 Kerne verbauen, wobei Intel bei den Next-Generation-Games alleine durch SMT einen Puffer hat, der bisher fast noch gar nicht genutzt wurde.

Match-Maker
2013-06-12, 22:51:37
Ich sehs schon kommen...
Irgendwann bauen sich richtige Enthusiasten dann kein Multi-GPU System, sondern ein Multi-APU System mit mehreren CPU-Sockeln zusammen. :biggrin:

C.D.B.
2013-06-13, 00:31:12
Wie schon zuvor angedeutet wird die GPU in naher Zukunft mehr als nur Grafik berechnen (siehe NextGen-Konsolen). Dann müßte Intel ohne "HSA" erheblich mehr Ausführungseinheiten aufbieten, um mit AMD mitzuhalten. Und das zu Lasten der CPU-Speicher-Performence.

Hängt denn wohl vom Patent-Abommen, und der Masse/Klasse von HSA-nutzenden Programmen ab.

Aber war da nicht noch was mit nicht sooo dollen Treiben seitens Intel? Was würde selbst die höchste Peromence nützen, wenn man diese im Bedarfsfall (vor allem wohl in neuen Games) gar nicht/schrottig zur "Geltung" kommt?! ;)

Pussycat
2013-06-13, 07:16:15
Eigentlich frage ich mich eher ob Intel nicht den echten GPU-Markt betreten word. AMD und nV bieten nun schon seit langer Zeit eine fast gleiche perf/W und perf/mm² im jeweiligen Knoten. Wenn dort die Entwicklung stagniert, könnte Intel ja wunderschön aufholen und - mit besserer Fertigung - auch überholen. Treiber etc. können ja auch besser werden

Shink
2013-06-13, 08:51:37
Solange sie keine x86 Lizenz bekommen, oder irgend einen wirklich großen Mobile Deal landen, ist die Tegra sparte nicht wirklich von interessant.
Öh... ja, denn es kauft ja jeder PCs und niemand Tablets, Smartphones, Smart-TVs o.ä. oder wie?

Marktführer nach Stückzahlen ist aber recht wertlos wenn die Dinger nichts können.
Wenn Casual-Gamer, OEMs und Office-Benutzer keine GraKas mehr kaufen (was seit den iGPUs sehr oft so ist), ist das für NVidia schon schlimm genug.

schreiber
2013-06-13, 08:54:23
Treiber etc. können ja auch besser werden
Was man so zur Xeon Phi liest, ist nicht gerade positiv. Ich hatte auch mal Hoffnung, dass Intel den Sprung nochmal hin zu Grafikkarten macht, aber irgendwie glaube ich daran nicht mehr.

fondness
2013-06-13, 08:59:10
Das ist zwar richtig, jedoch bleibt die Frage, inwiefern sich ein besonders starker Co-Prozessor lohnen würde. Spiele sind allgegenwärtig, Hunderte Millionen Leute spielen. Diese "Wichtigkeit" wird für die anderen Funktionen der GPU nicht oder nur sehr langsam zu erreichen sein vermute ich. Sicherlich könnten auch extrem schnelle iGPUs an den Kunden gebracht werden, aber diese Kunden werden nicht annähernd so zahlreich sein wie Spieler.

Am Ende geht es um Marge und Profit. Da wäre es kontraproduktiv, riesige Dies zu bauen, nur um die dGPUs anzugreifen - Nodevorsprung hin oder her. Auch Intel kann die Preise nicht so drastisch erhöhen, dass ihre Margen gleich bleiben. Im Mobilbereich kann man die Preise noch in den Gerätepreisen auf Kosten der Partner verstecken, im Desktopbereich geht das nicht. Wer würde einen 6770R für 600 Euro kaufen z.B., wenn er eine gleichschnelle HD 10850 für 250 Euro bekäme und eine CPU für 100-150 Euro dazu? Der Vorteil durch die Integration müsste so gewaltig sein, dass die Leute einen saftigen Aufpreis selbstverständlich zahlen. Das sehe ich jetzt nicht wirklich so kommen.

Eine Möglichkeit sähe ich aber, und die wäre, dass Intel fertigungsprozessbereinigt auf eine vergleichbare Perf/mm2 wie bei den dGPUs kommt oder gar leicht höher durch die Integration. Dann könnte die Rechnung aufgehen. Bis dahin ist es aber noch ein langer Weg.

Wenn du ein Programm in dem glauben entwickelst, eine gemeinsamen Speicherbereich zwischen GPU und CPU zu haben, und damit aus Effizienzgründe alle parallelen Aufgaben auf die GPU auslagerst, egal wie klein sie sein mögen, würde dir eine dGPU hoffnungslos eingehen bei der Performance - und wenn sie hundert mal schneller wäre. Aktuell werden viele eigentlich sehr gut parallelisierbaren Aufgaben auf der CPU berechnet, ganz einfach weil die Hardware noch nicht so weit ist und das hin- und her kopieren der Daten viel zu teuer ist. Das ist ineffizient, weil die teuren OoO-Kerne für solche simplen Aufgaben zu viel Strom schlucken und man sie besser für andere Aufgaben gebrauchen könnte.

Skysnake
2013-06-13, 09:11:46
/sign

Der Overhead durchs hin und her kopieren der Daten bricht einem halt VERDAMMT! schnell das Genick

Was man so zur Xeon Phi liest, ist nicht gerade positiv. Ich hatte auch mal Hoffnung, dass Intel den Sprung nochmal hin zu Grafikkarten macht, aber irgendwie glaube ich daran nicht mehr.
Was liest du denn so? :tongue:

CCCP
2013-06-13, 09:24:11
warum nimmt man zurzeit verbaute igpu nicht für physic-berechnungen, zu schwach? zu geringe bandbreite? so schlummert bei jedem der eine extra graka hat der ungenutzte silizium vor sich hin. Zurzeit ist es doch wie 5-er rad am wagen.

Skysnake
2013-06-13, 09:25:44
Bis Ivy konntest du sie bei Intel nicht nutzen, und du musst das halt expliziet programmieren.

Und genau das ist halt das Problem. Es gibt noch zu viele Leute die ne stinknormale CPU+dGPU haben. Die würdest du dann einfach ausschließen.

Godmode
2013-06-13, 09:29:09
Öh... ja, denn es kauft ja jeder PCs und niemand Tablets, Smartphones, Smart-TVs o.ä. oder wie?


Wenn Casual-Gamer, OEMs und Office-Benutzer keine GraKas mehr kaufen (was seit den iGPUs sehr oft so ist), ist das für NVidia schon schlimm genug.

Darum schrieb ich ja "solange sie dort keinen großen Deal landen". Tegra verkauft sich ja nicht so gut, wie sie sich das gewünscht hätten.

CCCP
2013-06-13, 09:41:02
ich denke das were für intel ein guter verkaufsargument wenn die sagen das bei haswell die igpu doppelt soviel leistet wie von ive und dadurch man 2x mehr an physic-berechnungen duchführen kann als die popeligen 5% mehr performance bei 200mhz weniger übertacktung was sich wieder aufhebt.

Ailuros
2013-06-13, 09:56:01
Dumme Frage: wie sieht Intel's iGPU Marktanteil in den letzten Quartalen aus? Steigend oder fallend?

Skysnake
2013-06-13, 10:01:46
Wenn ich mich recht erinnere, war er leicht wachsed bei insgesamt aber klar gerineren Stückzahlen.

Desktops verkaufen sich halt verdammt schlecht atm

AnarchX
2013-06-13, 10:07:35
Mit Die-Stacking könnte Intel hier vielleicht überholen.

Ailuros
2013-06-13, 10:11:57
Wenn ich mich recht erinnere, war er leicht wachsed bei insgesamt aber klar gerineren Stückzahlen.

Desktops verkaufen sich halt verdammt schlecht atm

Der letzte Satz sollte den meisten hier klar sein, aber der Punkt auf den ich hinaus will im gegebenen Fall fuer Intel: why bother?

Fuer alles PC/note- bzw. ultrabooks sehe ich keinen Drang momentan; SFF mobile SoCs sind eine total andere Geschichte, aber der thread hier zielt offensichtlich eher auf PC/notebook SoCs als alles andere.

Lowkey
2013-06-13, 10:24:56
Intel hat doch keine Treiberabteilung, die extra für Onboardgrafik alle Spieletitel optimiert und Fehler beseitigt. Selbst wenn die Hardware in den nächsten Jahren schnell genug wäre, so fehlt dennoch eine gute Treiberpolitik. Wer will schon 6 Monate warten bis Intel dann das "neue" Spiel richtig spielbar macht?

Ailuros
2013-06-13, 10:29:46
Intel hat doch keine Treiberabteilung, die extra für Onboardgrafik alle Spieletitel optimiert und Fehler beseitigt.

Sagt wer?

Selbst wenn die Hardware in den nächsten Jahren schnell genug wäre, so fehlt dennoch eine gute Treiberpolitik. Wer will schon 6 Monate warten bis Intel dann das "neue" Spiel richtig spielbar macht?

Das GenX Treiberteam ist groesser als Du Dir wohl vorstellen kannst.

YfOrU
2013-06-13, 10:47:45
Intel hat doch keine Treiberabteilung, die extra für Onboardgrafik alle Spieletitel optimiert und Fehler beseitigt. Selbst wenn die Hardware in den nächsten Jahren schnell genug wäre, so fehlt dennoch eine gute Treiberpolitik. Wer will schon 6 Monate warten bis Intel dann das "neue" Spiel richtig spielbar macht?

Zwei Zitate aus dem Iris Pro Review @ Anandtech welche die heutige Situation ganz gut beschreiben:

Intel seems pretty quick about addressing any issues that crop up and as a company it has considerably increased staffing/resources on the driver validation front.

Intel as a company has gone from begging software developers to at least let their code run on Intel integrated graphics, to actively working with game developers to introduce new features and rendering techniques.
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/14

Godmode
2013-06-13, 10:50:37
Mit Die-Stacking könnte Intel hier vielleicht überholen.

Aber ob wir das in absehbarer Zeit sehen werden? Hört sich recht kompliziert, aufwendig und teuer an.

Ailuros
2013-06-13, 10:55:14
Aber ob wir das in absehbarer Zeit sehen werden? Hört sich recht kompliziert, aufwendig und teuer an.

Die stacking macht momentan noch keinen Sinn; wenn es so weit kommt sehe ich auch keine Exclusivitaeten nur fuer einen oder begrenzte IHVs.

Shink
2013-06-13, 10:55:46
Wer will schon 6 Monate warten bis Intel dann das "neue" Spiel richtig spielbar macht?
Ist das so?
Ich als Spielehersteller würde es mir nicht leisten, etwas auf den Markt zu werfen, was bei den meisten PC-Usern (denen ohne GraKa) gar nicht läuft.

YfOrU
2013-06-13, 11:04:19
Die stacking macht momentan noch keinen Sinn; wenn es so weit kommt sehe ich auch keine Exclusivitaeten nur fuer einen oder begrenzte IHVs.

Exklusivität nicht gerade aber die Möglichkeit solche Lösungen komplett selbst zu entwickeln und zu fertigen sehe ich als sehr großen Vorteil an.

Also analog zum eDRAM der Iris Pro.

Ailuros
2013-06-13, 11:19:34
Exklusivität nicht gerade aber die Möglichkeit solche Lösungen komplett selbst zu entwickeln und zu fertigen sehe ich als sehr großen Vorteil an.

Also analog zum eDRAM der Iris Pro.

Ich hab die ganze Iris Pro Geschichte nicht besonders fanatisch verfolgt, aber was genau bringt eDRAM fuer den Fall im Vergleich zur Konkurrenz?

YfOrU
2013-06-13, 12:08:08
Ich hab die ganze Iris Pro Geschichte nicht besonders fanatisch verfolgt, aber was genau bringt eDRAM fuer den Fall im Vergleich zur Konkurrenz?

Allgemeiner formuliert: Intel löst die zwangsläufig vorhandene Problematik der Bandbreite über Speicher aus eigener Produktion.

Aktuell ist das eine Abwandlung des 22nm LP Prozesses (Silvermont) womit man aufgrund der geringeren Komplexität bei Herstellungskosten etwas unterhalb (da vergleichbare Größe) eines Atom SoCs landet.
Intel hat damit vergleichsweise sehr günstigen Zugriff auf schnellen Speicher*. Für AMD oder auch Nvidia dürfte entsprechendes deutlich teurer werden oder man muss den Weg über ein breiteres Speicherinterface (Mainboard) gehen und das ist auch nicht sonderlich optimal.

*Intel ist aufgrund der geringen Margen vor Jahren aus dem Geschäft mit Arbeitsspeicher ausgestiegen. Auf Nischen und dazu gehört vor allen Speicher für GPUs trifft die geringe Rentabilität allerdings nicht zu. Es ist eine praktische Variante um mittelfristig die Fabs sicher auslasten zu können und die Marge sollten ganz passabel sein - die Konkurrenz hat hier immer (egal ob eDRAM oder etwas wie GDDR5) höhere Kosten.

Ailuros
2013-06-13, 12:19:21
Allgemeiner formuliert: Intel löst die zwangsläufig vorhandene Problematik der Bandbreite über Speicher aus eigener Produktion.

Aktuell ist das eine Abwandlung des 22nm LP Prozesses (Silvermont) womit man aufgrund der geringeren Komplexität bei Herstellungskosten etwas unterhalb (da vergleichbare Größe) eines Atom SoCs landet.

Intel hat damit vergleichsweise sehr günstigen Zugriff auf schnellen Speicher. Für AMD oder auch Nvidia dürfte entsprechendes deutlich teurer werden oder man muss den Weg über ein breiteres Speicherinterface (Mainboard) gehen und das ist auch nicht sonderlich optimal.

Du hasst mich nicht verstanden: gibt eDRAM momentan Intel irgend einen Vorteil bzw. Vorsprung gegen die Konkurrenz? Sparen sie dadurch mehr Bandbreite als bei AMD/NV Loesungen oder eben nicht?

Mir ist im Grund wurscht mit welcher Methode man N Ziel erreicht; raeumt es dem IHV einen nennenswerten Vorteil in Effizienz ist es natuerlich ein "hoppla Effekt"; in jeglichem Gegenfall ist es nur ein Pflaster seitens des IHV weil sie sonst zu daemlich sind anstaendigere Bandbreiten-sparende Techniken richtig zu integrieren.

Undertaker
2013-06-13, 12:28:44
Natürlich spart der eDRAM kostbare Speicherbandbreite. Wenn Intel von einem Äquvalent zu einer >100 GB/s Anbindung spricht, macht die Konkurrenz das auch nicht mal eben mit ein paar Spartricks wieder wett. Man darf nicht vergessen, dass die Iris Pro dadurch mit einfachem DDR3-1600 arbeiten kann. Wie stark Trinity/Richland selbst durch DDR3-1866 noch limitiert wurden, zeigen ja diverse Tests. Ich verwette meinen Hut, dass die GT3e hier wesentlich weniger ausgebremst wird. Alle "Quellen!!!!11"-Schreier mögen sich bitte bis zu den ersten entsprechenden Tests gedulden...

YfOrU
2013-06-13, 12:35:36
Du hasst mich nicht verstanden: gibt eDRAM momentan Intel irgend einen Vorteil bzw. Vorsprung gegen die Konkurrenz? Sparen sie dadurch mehr Bandbreite als bei AMD/NV Loesungen oder eben nicht?


Ja denn die gleiche Leistung lässt sich bei vergleichbarer TDP (gesamtes System) nicht realisieren. Das deren Design insgesamt effizienter werden muss versteht sich von selbst.

Die 47W TDP der HQ Reihe (mit Iris Pro) sehen erst mal hoch aus aber da ist eben auch noch ein sehr potenter Quadcore inklusive. Für die gleiche TDP gibt es alternativ höchstens eine GT640M (LE) mit DDR3 und einen ULV Dualcore.

Ailuros
2013-06-13, 13:05:09
Ja denn die gleiche Leistung lässt sich bei vergleichbarer TDP (gesamtes System) nicht realisieren. Das deren Design insgesamt effizienter werden muss versteht sich von selbst.

Die 47W TDP der HQ Reihe (mit Iris Pro) sehen erst mal hoch aus aber da ist eben auch noch ein sehr potenter Quadcore inklusive. Für die gleiche TDP gibt es alternativ höchstens eine GT640M (LE) mit DDR3 und einen ULV Dualcore.

Da ich den Durchblick mit den mobilen GPUs und konstantem rebranding verloren habe ist die GT640M ein Fermi oder Kepler Ableger?

Natürlich spart der eDRAM kostbare Speicherbandbreite. Wenn Intel von einem Äquvalent zu einer >100 GB/s Anbindung spricht, macht die Konkurrenz das auch nicht mal eben mit ein paar Spartricks wieder wett. Man darf nicht vergessen, dass die Iris Pro dadurch mit einfachem DDR3-1600 arbeiten kann. Wie stark Trinity/Richland selbst durch DDR3-1866 noch limitiert wurden, zeigen ja diverse Tests. Ich verwette meinen Hut, dass die GT3e hier wesentlich weniger ausgebremst wird. Alle "Quellen!!!!11"-Schreier mögen sich bitte bis zu den ersten entsprechenden Tests gedulden...

Es hat auch keiner behauptet dass eDRAM KEINE Bandbreite spart; und ja ich warte natuerlich die finalen Tests ab bevor ich zu jeglicher Schlussfolgerung komme. Dass ich ehrlich gefragt habe merkt man unter normalen Umstaenden und nein sorry Intel's uebliche Behauptungen sagen mir nichts.

YfOrU
2013-06-13, 13:15:05
Da ich den Durchblick mit den mobilen GPUs und konstantem rebranding verloren habe ist die GT640M ein Fermi oder Kepler Ableger?

Ist GK107 -> Keppler. Wird teilweise abgelöst durch GK208.
Die 640M LE gibt es auch als GF108. 740M sowohl GK107 als auch GK208.

Allerdings ist das am absoluten Limit und deshalb landen in diesen Geräten (14 Zoll) fast immer Varianten mit reduzierten Frequenzen bzw. nur 64bit DDR3.
Um die 30W TDP für eine dGPU ist einfach heftig da es sich dann gerade noch für eine ULV CPU ausgeht.

Ailuros
2013-06-13, 13:31:21
Ist GK107 -> Keppler. Wird teilweise abgelöst durch GK208.
Die 640M LE gibt es auch als GF108. 740M sowohl GK107 als auch GK208.

Allerdings ist das am absoluten Limit und deshalb landen in diesen Geräten (14 Zoll) fast immer LE Editionen mit geringeren Taktraten bzw. nur 64bit DDR3.

http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/4

Lese ich mir etwas falsches hier rein oder sind es tatsaechlich um die 84mm2@22nm fuer Crystalwell (ok Anand ratet hier offensichtlich...)?

***edit: damit ich nicht falsch verstanden werde: holy shit fuer perf/W Iris Pro, aber offensichtlich kommt eben dieses perf/W auch nicht gerade umsonst.

YfOrU
2013-06-13, 13:35:33
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/4

Lese ich mir etwas falsches hier rein oder sind es tatsaechlich um die 84mm2@22nm fuer Crystalwell (ok Anand ratet hier offensichtlich...)?

Wurde irgendwo letztens ausgiebig diskutiert und das Ergebnis lag etwas darunter (~77mm² ?). Sehe das ziemlich entspannt denn das kostet Intel etwas weniger als die Produktion eines Atom SoCs und die Marge (eDRAM, Aufpreis Iris Pro) sollte auch in diesem Bereich liegen. Genau darauf will ich die ganze Zeit hinaus ;)

Ailuros
2013-06-13, 13:48:34
Es waere auch mehr fuer Intel durchaus verschmerzlich; ich bezweifle lediglich langfristig die Nutzbarkeit fuer eDRAM da in 128MB zwar schon einiges aber eben nicht alles reinpasst. Wieso hat Anand eigentlich nicht auch ein paar Bandbreiten-stressigere Tests benutzt? Die Resultate sind zwar schoen und gut, aber fuer den rein technischen Aspekt der Sache ist 13xx medium detail nicht besonders aussagekraeftig wenn es zu GPU Bandbreite kommt.

Ronny145
2013-06-13, 14:04:54
Die Resultate sind zwar schoen und gut, aber fuer den rein technischen Aspekt der Sache ist 13xx medium detail nicht besonders aussagekraeftig wenn es zu GPU Bandbreite kommt.


Auch wenn es dir nur darum geht Intel möglichst schlecht zu reden: es gibt 1600x900 oder 1680x1050 high detail Ergebnisse.

Ailuros
2013-06-13, 14:08:13
Auch wenn es dir nur darum geht Intel möglichst schlecht zu reden: es gibt 1600x900 oder 1680x1050 high detail Ergebnisse.

Darf ich ausnahmsweise einen link haben zu diesen Ergebnissen damit wir die Sache auch moeglichst auf sachlichem Nivaeu halten koennen?

Skysnake
2013-06-13, 14:09:48
Intel hat doch keine Treiberabteilung, die extra für Onboardgrafik alle Spieletitel optimiert und Fehler beseitigt. Selbst wenn die Hardware in den nächsten Jahren schnell genug wäre, so fehlt dennoch eine gute Treiberpolitik. Wer will schon 6 Monate warten bis Intel dann das "neue" Spiel richtig spielbar macht?
Ähm... Das WAR vielleicht mal so, aber Intel haut wohl anscheinend im Moment ziemlich bei den Defs rein, und hat inzwischen auch ein ziemlich ansehnliches Treiberteam. Ich kann mir gut vorstellen, dass das sogar größer ist, als das von AMD und nVidia zuasmmen...

Gab dazu auch mal einen Artikel von SA, wo Sie Intel Folien gezeigt haben, die ganz klar gezeigt haben, dass Sie ihren Fokus auch auf diesen Bereich legen wollen, da Sie es als sehr wichtig erkannt haben bei stärker werdenden iGPUs.

@Ailuros:
Der eDRAM bringt dir genau so viel wie JEDER! andere Cache. Irgendwas zwischen nichts und 100% Bandbreitenersparnis...

Kommt halt immer darauf an, wie groß das Workingset ist. Der Nutzen wird, da man nicht expliziet darauf hin optimiert daher auch sehr stark schwanken.

Inhsbesondere synthetische Spielebenchmarks werden wahrscheinlich eher davon profitieren, da man die Workingsets eingrenzen kann. Wilder umdrehen ist da z.B. nicht so der Standardfall ;)

Ailuros
2013-06-13, 14:14:23
@Ailuros:
Der eDRAM bringt dir genau so viel wie JEDER! andere Cache. Irgendwas zwischen nichts und 100% Bandbreitenersparnis...

Zwischen 0-100% kann fuer jede Bandbreiten-sparmassnahme gelten.


Inhsbesondere synthetische Spielebenchmarks werden wahrscheinlich eher davon profitieren, da man die Workingsets eingrenzen kann. Wilder umdrehen ist da z.B. nicht so der Standardfall ;)

Ich sehe im Anand review einen ziemlich grossen perf/W Unterschied fuer Haswell. Wenn jemand alle Ergebnisse in eine perf/W Tabelle quetschen wuerde steht Haswell's Konkurrenz momentan schon ziemlich daemlich da in heutigen Spielen.

Gipsel
2013-06-13, 14:16:47
Es waere auch mehr fuer Intel durchaus verschmerzlich; ich bezweifle lediglich langfristig die Nutzbarkeit fuer eDRAM da in 128MB zwar schon einiges aber eben nicht alles reinpasst. Wieso hat Anand eigentlich nicht auch ein paar Bandbreiten-stressigere Tests benutzt? Die Resultate sind zwar schoen und gut, aber fuer den rein technischen Aspekt der Sache ist 13xx medium detail nicht besonders aussagekraeftig wenn es zu GPU Bandbreite kommt.
Na, es passen in die 128MB auf jeden Fall mehr rein, als in die 32MB der XBoxOne. :rolleyes:
Intel hat da auch auf ihr unbestreitbares Knowhow für Caches gebaut, denn die 128MB werden als Cache gehandhabt und müssen nicht explizit angesprochen werden wie die 32MB SRAM der XB1. Alles was genutzt wird (Framebuffer/GBuffer, ein paar Texturen) landen im Prinzip automatisch da drin. Das ist schon sehr nett und dafür sind die 128MB auch meist locker ausreichend. Die XB1-Entwickler müssen ja die wichtigsten Daten für die nächsten 5+ Jahre in 32MB quetschen. Sie können/müssen das allerdings selber managen, was da rein kommt und was nicht. Das ist mehr Aufwand für sie, aber ermöglicht manchmal auch bessere Lösungen als durch Caching. Oft ist es aber schwierig (bis praktisch unmöglich) die Performance eines hardwaregesteuerten Caches zu übertreffen. Und bevor jemand fragt, warum man dann nicht immer Caches verbaut, das erfordert natürlich aufwendigere Hardware und verbraucht auch mehr Strom gegenüber einem Softwaremanagement.

Ronny145
2013-06-13, 14:24:20
Darf ich ausnahmsweise einen link haben zu diesen Ergebnissen damit wir die Sache auch moeglichst auf sachlichem Nivaeu halten koennen?

http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested

YfOrU
2013-06-13, 14:26:23
Es waere auch mehr fuer Intel durchaus verschmerzlich; ich bezweifle lediglich langfristig die Nutzbarkeit fuer eDRAM da in 128MB zwar schon einiges aber eben nicht alles reinpasst.

Da der eDRAM mit 128MB aktuell vergleichsweise großzügig dimensioniert ist gehe ich davon aus das bei Broadwell nichts und bei Skylake (mit DDR4) evtl. die Bandbreite geändert wird. Danach wäre eine Verdoppelung auf 256MB (14nm) durchaus eine Option. Mittelfristig sehe ich zu eDRAM keine Alternative ohne das Kosten und Komplexität der gesamten Plattform deutlich negativ beeinflusst werden. Die Anbindung als L4 ist ziemlich elegant gelöst und wenn Intels nächsten GPU Generationen die Schwachstellen weiter im gleichen Tempo ausmerzen könnte Skylake bereits richtig rund laufen.

Nightspider
2013-06-13, 14:35:37
Haltet ihr es für möglich das Intel 2014/2015 auch GDDR5 supporten wird oder wird Intel bis zur Marktreife des Hybrid Memory Cubes warten (~2016)?

YfOrU
2013-06-13, 14:43:47
Haltet ihr es für möglich das Intel 2014/2015 auch GDDR5 supporten wird oder wird Intel bis zur Marktreife des Hybrid Memory Cubes warten (~2016)?

Skylake kommt mit DDR4 (Mainstream) und wohl weiterhin einem großen L4 Cache (eDRAM).

GDDR5 lässt sich eigentlich nur vernünftig einsetzen wenn Speicher und CPU/GPU auf der Platine direkt verlötet sind. Ist dazu teuer und damit es wirklich Sinn macht müsste das Speicherinterface breiter ausfallen. Würde die ganze Plattform teurer machen und Intel könnte den eigenen Speicher nicht mehr verkaufen. Am eDRAM verdient Intel und hat Spielraum. GDDR5 müsste (Hersteller) zugekauft werden -> kein Geld für Intel.

Nightspider
2013-06-13, 14:48:00
Wieviel +X% bei der Bandbreite bringt DDR4? 100% ?

Ist schon bekannt welche Taktung Broadwell supportet? DDR4-2666?

Ailuros
2013-06-13, 14:50:29
Da der eDRAM mit 128MB aktuell vergleichsweise großzügig dimensioniert ist gehe ich davon aus das bei Broadwell nichts und bei Skylake (mit DDR4) evtl. die Bandbreite geändert wird. Danach wäre eine Verdoppelung auf 256MB (14nm) durchaus eine Option. Mittelfristig sehe ich zu eDRAM keine Alternative ohne das Kosten und Komplexität der gesamten Plattform deutlich negativ beeinflusst werden. Die Anbindung als L4 ist ziemlich elegant gelöst und wenn Intels nächsten GPU Generationen die Schwachstellen weiter im gleichen Tempo ausmerzen könnte Skylake bereits richtig rund laufen.

Langfristig muessen sich alle SoC Hersteller etwas fuer anstaendigere Bandbreiten einfallen lassen. Es sieht tatsaechlich nicht danach aus als ob es mittelfristig eine kosten-effektive Alternative dafuer gibt. Auf was bezog sich eigentlich NV mit ihren "high end" Haswell design wins Angaben?

Gipsel,

Dass Entwickler so oder so mit eDRAM fuer Konsolen umgehen muessen ist mir total entgangen.

YfOrU
2013-06-13, 15:00:35
Auf was bezog sich eigentlich NV mit ihren "high end" Haswell design wins Angaben?

Natürlich auf die obligatorischen Gaming - 120W+ Plastikbomber. Den Sinn hinter den Geräten hab ich nie wirklich verstanden. Schwer, laut, absolut miserables P/L Verhältnis und öfters eher geringe Lebensdauer.

Ein ernsthaft portables Notebook mit integrierter GPU auf guten Mainstream bis unteren Performance Niveau (-> dynamische Verteilung der TDP nach Bedarf) sehe ich als sehr viel interessanter an. Genau den Bereich sollte Intel mittelfristig bei realistischer Betrachtung erreichen können. Eigentlich wäre das genau AMDs Segment aber dafür fehlt es leider in einigen kritischen Bereichen (Fertigung, Bandbreite, IPC und Time to Market).

Wieviel +X% bei der Bandbreite bringt DDR4? 100% ?

Ist schon bekannt welche Taktung Broadwell supportet? DDR4-2666?

Vor allen im mobilen Bereich dürfte der Sprung recht groß ausfallen (geringere Spannung). Viel mehr als DDR3 1600 (relevantes Volumen) wird hier kaum mehr kommen. Etwas um 50% dürfte realistisch sein. Beim Desktop (gegenüber DDR3 OC) am Anfang eher weniger.

Gipsel
2013-06-13, 16:12:55
Gipsel,

Dass Entwickler so oder so mit eDRAM fuer Konsolen umgehen muessen ist mir total entgangen.Die Konsolenentwickler müssen es (für WiiU und XBoxOne), im PC-Bereich natürlich nicht. Das nimmt Intel denen ab, in dem sie den DRAM als Cache ansteuern, womit das praktisch "automatisch" genutzt wird. Im Prinzip wäre es auch vorstellbar, daß Intel per Spielprofil da auch manuell eingreifen könnte, also z.B. den Framebuffer im eDRAM locken oder so. Aber keine Ahnung ob (i) das hardwaretechnisch möglich ist und (ii) Intel den Aufwand treiben will, da vermutlich ganz schön viel Testen angesagt ist, damit man eine Konfiguration findet, die besser als die normale Nutzung als Cache performed. Ich würde das an Intels Stelle vermutlich nur machen, wenn man auf irgendeinen Corner Case trifft, also wenn man irgendwo auf ein Problem durch exzessives Cachetrashing stößt oder so.

y33H@
2013-06-13, 17:19:32
Intel sagte mir, es ist möglich, aber aus den von dir genannten Gründen in den meisten Fällen nicht sinnvoll.

Skysnake
2013-06-13, 17:40:34
Haltet ihr es für möglich das Intel 2014/2015 auch GDDR5 supporten wird oder wird Intel bis zur Marktreife des Hybrid Memory Cubes warten (~2016)?
Die werden ziemlich sicher kein GDDR5 einsetzen. Die haben mit Larrabee zwar inzwischen einen GDDR5 Controller, aber für die macht DDR4 einfach mehr sinn, bis dann halt irgendwann HMC fertig ist.


Die Konsolenentwickler müssen es (für WiiU und XBoxOne), im PC-Bereich natürlich nicht. Das nimmt Intel denen ab, in dem sie den DRAM als Cache ansteuern, womit das praktisch "automatisch" genutzt wird. Im Prinzip wäre es auch vorstellbar, daß Intel per Spielprofil da auch manuell eingreifen könnte, also z.B. den Framebuffer im eDRAM locken oder so. Aber keine Ahnung ob (i) das hardwaretechnisch möglich ist und (ii) Intel den Aufwand treiben will, da vermutlich ganz schön viel Testen angesagt ist, damit man eine Konfiguration findet, die besser als die normale Nutzung als Cache performed. Ich würde das an Intels Stelle vermutlich nur machen, wenn man auf irgendeinen Corner Case trifft, also wenn man irgendwo auf ein Problem durch exzessives Cachetrashing stößt oder so.
meine Rede, und genau deswegen kann man halt leider auch nicht wirklich pauschal sagen, wieviel es bringt. Bringen wird es aber ziemlich sicher einiges aus dem von dir genannten Grund (32MB bei XBone).

Also zumindest bei den Ports kann man davon ausgehen, das es durchaus einiges bringt.

Supern0va
2013-06-13, 17:44:08
Die beste Intel/AMD iGP bewegt sich aktuell in der Leistungsregion einer 40-50€ GPU.
Am Desktop wird die iGP denke ich nie relevant werden. Eher im Notebook.

Skysnake
2013-06-13, 17:49:47
:-_-:

Dark-Silikon sagt dir was?

Wenn nein google mal danach, und wenn du gerade dabei bist auch nach powerwall, danach reden wir nochmal über deine Ansicht

Gipsel
2013-06-13, 17:50:10
Die beste Intel/AMD iGP bewegt sich aktuell in der Leistungsregion einer 40-50€ GPU.
Am Desktop wird die iGP denke ich nie relevant werden.Der Durchschnittsdesktop hat eine maximal 50€ GPU verbaut. :rolleyes:
Und wenn man so ziemlich alles damit erledigen kann außer eben irgendein Spiel mit besserer Bildqualität zu zocken oder irgendein abstruses GPGPU-Problem etwas schneller zu lösen, aber dafür 200W Stromverbrauch spart, dann wird meiner Meinung nach ein ziemlich großer Teil des Desktop-Marktes schon ganz gut abgedeckt.

Skysnake
2013-06-13, 18:06:51
...irgendein abstruses GPGPU-Problem etwas schneller zu lösen...

Das ist ja der "Witz" an der Sache, in vielen Fällen, insbesondere im Homebereich, wirst du mit der iGPU sogar schneller bei GPGPU sein, weil die Probleme zu klein sind, um den Kopieroverhead zu kompensieren :freak:

Gipsel
2013-06-13, 18:21:24
Ich habe nicht zufällig von "irgendeinem abstrusen" GPGPU-Problem gesprochen und nur "etwas schneller" benutzt. ;)

Nightspider
2013-06-13, 18:32:28
Dann reicht der DDR4 RAM ja auch gerade mal 1-2 Jahre bei den riesigen Sprüngen, die Intel derzeit macht.
Und ausreichen würde DDR4 erst recht nicht um große IGPs zu füttern, worum es in dem Thread ja primär geht, also falls Intel in den Leistungsbereich einer 200-300 Euro dGPU vordringen will.

basti333
2013-06-13, 18:37:24
Dann reicht der DDR4 RAM ja auch gerade mal 1-2 Jahre bei den riesigen Sprüngen, die Intel derzeit macht.
Und ausreichen würde DDR4 erst recht nicht um große IGPs zu füttern, worum es in dem Thread ja primär geht, also falls Intel in den Leistungsbereich einer 200-300 Euro dGPU vordringen will.

Dürfte aber interessant werden sollte Intel den GPU markt bis 200€ praktisch komplett einnehmen. In wie weit lohnt es sich für AMD und nvidia noch diskrete highend GPU zu entwickeln und rauszubringen wenn der komplette Massenmarkt wegfällt...?

john carmack
2013-06-13, 18:37:49
Ich sehs schon kommen...
Irgendwann bauen sich richtige Enthusiasten dann kein Multi-GPU System, sondern ein Multi-APU System mit mehreren CPU-Sockeln zusammen. :biggrin:


hehe :biggrin: Der gefällt mir!

Gipsel
2013-06-13, 18:50:41
Dann reicht der DDR4 RAM ja auch gerade mal 1-2 Jahre bei den riesigen Sprüngen, die Intel derzeit macht.
Und ausreichen würde DDR4 erst recht nicht um große IGPs zu füttern, worum es in dem Thread ja primär geht, also falls Intel in den Leistungsbereich einer 200-300 Euro dGPU vordringen will.
Mittel- bis langfristig wandert ein guter Teil des Speichers mit auf das Package. Dort bekommt man natürlich erheblich größere Bandbreite hin (mit HBM oder auch HMC kann man demnächst die Bandbreite der heutigen Performance- bis High-End-GPUs anpeilen).

Marodeur3D
2013-06-14, 14:04:02
Dürfte aber interessant werden sollte Intel den GPU markt bis 200€ praktisch komplett einnehmen.
Da wirst du aber noch lange drauf warten müssen. Iris Pro erreicht gerade mal die Leistung einer 60€-Karte und für 200€ kriegt man bereits eine 7870 Boost, die laut dem Marktüberblick fast die vierfache Leistung bietet! Intel müsste demnach die iGPU von 40 EUs auf 160 EUs aufbohren, um zumindest theoretisch die gleiche Leistung aufzubieten. Und bei der heutigen Technik dürfte man damit arge Platzprobleme kriegen und auch mit 14nm wird es sicherlich ziemlich eng werden.

Broadwell könnte vielleicht die heutigen 100€-Karten erreichen, aber dann kommen auch schon Maxwell und V.I. mit ins Spiel, die die Messlatte wieder ein gutes Stück nach oben schieben werden.

kunibätt
2013-06-14, 14:08:43
Glaube nicht, dass das noch lange dauert.
Die aktuellen Preise bei nV sprechen da auch eine recht eindeutige Sprache.

boxleitnerb
2013-06-14, 14:25:42
Was haben die Preise mit der Leistungsfähigkeit der GPUs zu tun?

kunibätt
2013-06-14, 15:17:35
In welchem Preissegment wurde denn bislang das Groß der Gewinne eingefahren?
Ach stimmt, in dem das in Zukunft fast nur noch von Intel benetzt wird...

boxleitnerb
2013-06-14, 15:26:51
Das hat immer noch nichts mit der Leistungsfähigkeit zu tun, zumal der TE das Midrangesegment gemeint hat.

kunibätt
2013-06-14, 15:38:29
Bleibt bei Skylake :)

Schrotti
2013-06-14, 20:37:19
Ich kenne mich da nicht so aus daher die Frage, auf welchem Niveau ist Intel denn mit der iGPU aktuell?

So im Bereich einer 8800GT oder schneller?

YfOrU
2013-06-15, 13:14:19
Ich kenne mich da nicht so aus daher die Frage, auf welchem Niveau ist Intel denn mit der iGPU aktuell?

So im Bereich einer 8800GT oder schneller?

G92 ist so ein alter Schinken das vernünftige Vergleiche nur schwer möglich sind.

Iris Pro liegt im Mittel ein paar Prozentpunkte unter der Desktop GT 640 mit DDR3. Sollte also recht exakt einer Radeon 7750 DDR3 entsprechen.
Womit Intel immerhin das Niveau typischer OEM Systeme (Mediamarkt etc.) mit dGPU erreicht.

Im optimalen Fall müsste ein G92 mit ausreichend Speicher (1GB) halbwegs an eine GT640 DDR3 herankommen. Allerdings kann eine GT640 DDR3 bei neuern Titeln auch mal bis zu Faktor zwei schneller sein. G92 ist halt nicht mehr ganz auf der Höhe der Zeit (2007) ;)

basti333
2013-06-15, 14:17:42
Naja, egal wie lange es dauert, so oder so wird nVidia irgendwann mehr oder weniger komplett aus dem GPIU/x86 Markt raus sein und AMD dürfte auch zunehmend Druck bekommen von Intel.

gnahr
2013-06-15, 14:46:57
das muss sich zeigen.
vor 2 jahren hieß es ja auch wie toll fusion ist und das amd ins gelobte land einzieht und was ist nu? das war nur marketing was verpufft ist und intel dreht munter frei und hat gleichwertige produkte im angebot und zeigt keine anzeichen das wesentlich höhere schlagtempo zurück zu nehmen.
nvidia wurde schon so oft tot geschrieben wie auch via und der rest der rasselbande die nicht intel sind und trotzdem teilt sich der markt immer mal wieder neu auf. bei den netbooks war x86 im massenbereich auch zuerst wieder die erste wahl und kurze jahre später ist mit android und arm schon wieder alles durchmischt und intel feilt weiter an ihren produkten in ne andere richtung.

basti333
2013-06-15, 15:04:23
das muss sich zeigen.
vor 2 jahren hieß es ja auch wie toll fusion ist und das amd ins gelobte land einzieht und was ist nu? das war nur marketing was verpufft ist und intel dreht munter frei und hat gleichwertige produkte im angebot und zeigt keine anzeichen das wesentlich höhere schlagtempo zurück zu nehmen.
nvidia wurde schon so oft tot geschrieben wie auch via und der rest der rasselbande die nicht intel sind und trotzdem teilt sich der markt immer mal wieder neu auf. bei den netbooks war x86 im massenbereich auch zuerst wieder die erste wahl und kurze jahre später ist mit android und arm schon wieder alles durchmischt und intel feilt weiter an ihren produkten in ne andere richtung.

Ich rede nVidia nicht tot, sage nur es könnte gut sein das sie in ein paar jahren kaum nennenwerte GPU Absätze mehr im X86 markt verzeichnen könnten.

Windi
2013-06-15, 15:24:13
Momentan hat Intel einfach viele Vorteile auf seiner Seite.
-Es geht immer mehr in die Richtung zu kompakten und mobilen Geräten. Da hat ein SoC gewisse Vorteile.
-die Konsolen bremsen den PC aus, so das die Leistung von einer High-End Grafikkarte kaum ausgenutzt werden kann.
-Die neuen Konsolen werden GPGPU wohl massiv pushen. Auch dort hat ein SoC massive Vorteile.
-Der PC Markt schrumpft und Intel hat durch AMD kaum noch Konkurrenz. Schnellere Prozessoren raus zu bringen macht kaum Sinn und kleinere DIEs wären nicht billiger, denn dann wären die Fabriken nicht ausgelastet. Intel kann für ihre iGPUs also quasi kostenlos DIE-Fläche verschwenden.
-momentan kann Intel das Bandbreitenproblem mit Hilfe von eDRAM mildern. So machen es ja auch 2 Konsolen.
-langfristig werden wohl Stacked RAM und HMC die Bandbreiten drastisch erhöhen, wodurch die dedizierten Grafikkarten einen ihrer größten Vorteile verlieren.

gnahr
2013-06-15, 15:41:39
Ich rede nVidia nicht tot
fühl dich da auch garnicht im besonderen angesprochen, es wird einfach generell übertrieben.
bei den konsolen genauso, nur weil der unterbau nah am pc ist drehen auf einmal so viele frei und labern was von tollen spielen und zwingenden portierungen... als gäb es nicht auch exklusiv-spiele für pc und konsolen die wie crap laufen als beispiel. oder dass sowiso der layer des betriebsystems dazwischen hängt, was also mit rauen massen an gddr5 möglich ist sich längst nicht übertragen lässt.

dieses "kann sein, dass sie obsolet werden" ist mehr oder weniger ins blaue geraten. es gibt denkbare gründe, aber die vergangenheit hat uns doch gelehrt, dass nichts so un-zwingend ist wie ne prognose. in der rückschau wirkt es so einfach, aber auch nur da.

Ailuros
2013-06-15, 15:57:36
Naja, egal wie lange es dauert, so oder so wird nVidia irgendwann mehr oder weniger komplett aus dem GPIU/x86 Markt raus sein und AMD dürfte auch zunehmend Druck bekommen von Intel.

Die einzige momentan vorhersehbare Option waere dass dieser Markt so intensiv schrumpft dass am Ende Intel selber ein groesseres Problem hat als alle andere.

Schrotti
2013-06-15, 17:28:25
G92 ist so ein alter Schinken das vernünftige Vergleiche nur schwer möglich sind.

Iris Pro liegt im Mittel ein paar Prozentpunkte unter der Desktop GT 640 mit DDR3. Sollte also recht exakt einer Radeon 7750 DDR3 entsprechen.
Womit Intel immerhin das Niveau typischer OEM Systeme (Mediamarkt etc.) mit dGPU erreicht.

Im optimalen Fall müsste ein G92 mit ausreichend Speicher (1GB) halbwegs an eine GT640 DDR3 herankommen. Allerdings kann eine GT640 DDR3 bei neuern Titeln auch mal bis zu Faktor zwei schneller sein. G92 ist halt nicht mehr ganz auf der Höhe der Zeit (2007) ;)

Die Idee dahinter war eine ganz andere.

Bei meinem Schwager steht halt noch ein Pentium E Dualcore 2180 mit 2GB Ram und einer 8800GT.
Da das Teil lahmt dachte ich wäre es eventuell eine Option ein Board mit Ivy und HD 4000 zu verbauen.

Eine bessere Grafikkarte könnte man dann ja dazu stecken (wenn der Familiäre Geldbeutel es hergibt).

1 x Intel Core i3-3225, 2x 3.30GHz, boxed (BX80637I33225) (http://geizhals.de/766342)
1 x Corsair Vengeance Low Profile schwarz DIMM Kit 4GB PC3-12800U CL9-9-9-24 (DDR3-1600) (CML4GX3M2A1600C9) (http://geizhals.de/652385)
1 x ASRock P75 Pro3, B75 (dual PC3-12800U DDR3) (http://geizhals.de/854313)

YfOrU
2013-06-15, 17:52:53
Die Idee dahinter war eine ganz andere.

Bei meinem Schwager steht halt noch ein Pentium E Dualcore 2180 mit 2GB Ram und einer 8800GT.
Da das Teil lahmt dachte ich wäre es eventuell eine Option ein Board mit Ivy und HD 4000 zu verbauen.

Eine bessere Grafikkarte könnte man dann ja dazu stecken (wenn der Familiäre Geldbeutel es hergibt).


Hab ich schon vermutet. Die HD4000 ist in der Praxis von einer HD5200 (Iris Pro) eher noch weiter weg als der Name suggeriert. Zusätzlich gibt es die HD5200 am Desktop nur als BGA (also auf dem MB aufgelötet) und ist aufgrund der Verfügbarkeit (nur die Quadcore Modelle) auch in einem anderen Segment (Preis).

Die einzige momentan vorhersehbare Option waere dass dieser Markt so intensiv schrumpft dass am Ende Intel selber ein groesseres Problem hat als alle andere.

Die x86 ISA mit dem herkömmlichen Bild des PCs (Option auf eine potente dGPU) zu koppeln halte ich für nicht mehr zeitgemäß. Das Volumen der mobilen x86 CPUs ist größer und die Entwicklung wird sich weiter in dieser Richtung fortsetzen. Meiner Ansicht nach wird Intels gesamtes Volumen mittelfristig (~2016) über die Fokussierung auf Mobile eher sehr deutlich ansteigen.

Um noch etwas weiter auszuholen ist es zwar vollkommen richtig das die ARM ISA aufgrund des zu x86 vollkommen unterschiedlichen Ansatzes (Lizenzierung) Vorzüge für Hersteller hat (eigene SoC Entwicklung) aber ich bin mir nicht so sicher ob der auf Ewigkeiten in dem Ausmaß Bestand hat. SoCs werden von Jahr zu Jahr komplexer und damit steigt automatisch der Aufwand (Kosten). Aus dem Grund würde ich dem Bereich Custom SoCs (SoC Entwicklung im Kundenauftrag) für die Zukunft grundsätzlich einen vergleichsweise hohen Stellenwert einräumen. Nach einem großen Boom kommt häufig die Fokussierung auf das Kerngeschäft und das sind bei vielen Herstellern Endgeräte.


nvidia wurde schon so oft tot geschrieben wie auch via und der rest der rasselbande die nicht intel sind und trotzdem teilt sich der markt immer mal wieder neu auf.

Für Via (x86) sehe ich aktuell keine Zukunft. Deren letzte Nische wird von Intel und AMD SoCs im vorbeigehen kassiert. Die Ausgangsbasis wäre da gewesen aber ohne größere Investitionen und langfristige Strategie läuft es halt nicht.
yet another arm.

Ronny145
2013-06-15, 18:14:19
Dualcore HD4000 ist noch weiter weg. 8800GT dürfte deutlich flotter unterwegs sein.

Supern0va
2013-06-16, 05:07:26
Naja, egal wie lange es dauert, so oder so wird nVidia irgendwann mehr oder weniger komplett aus dem GPIU/x86 Markt raus sein und AMD dürfte auch zunehmend Druck bekommen von Intel.

Der Markt ist nur noch im Server-Workstationbereich interessant und da kommst du um Nvidia nicht herum.
Ansonsten verbuchen Tablets und Smart Phones den größten Zuwachs und verdrängen auch immer mehr herkömmliche Desktops/Laptops.

Nvidia ist mit GRID (Cloud Gaming) und TEGRA (Tegra 4+i Smart Phones/Tablets) besser für die Märkte der Zukunft gerüstet als Intel&AMD zusammen.

Wen Intel mit der IGP (Haswell) verdrängt juckt niemanden. Der 0815 GPU Markt ist auf Grund der starken Rückläufigkeit sowieso schon seit Jahren nebensächlich für AMD und Nvidia.
Die Haswell IGP entspricht einer 30-40€ GPU > Who Cares?
Ein 19" GRID Cloud Gaming Rack kostet bis zu 40.000€ exkl. Service/Lizenz-Miete und dieser Markt ist noch nicht übersättigt sondern ganz "neu".

https://www.youtube.com/watch?v=k6zwCwUgeGM

.

Skysnake
2013-06-16, 08:04:06
Und AMD hat z.B. auch ein komplettes Angebot an Cloude-Computing-GPUs.

Also genau den gleichen Markt, und gerade wenn du so was wie GRID ansprichst. Überleg mal, WER denn die Konsolen ausstattet....

Dazu kommt noch, das AMD mit ihren APUs ähnliche Chips bringt, auf Wunsch sicherlich sogar 1:1 die gleichen für Sony/MS für ihre Cloude-Center. Nur halt noch mit extra PCI-E, um eine dGPU einzubinden. Da steht ja in 1-2 Jahren ja auch die HSA integration an. Sprich, je nachdem ist das dann wohl auch wieder Transparent für die Softwareentwickler. Man verschenkt zwar sicherlich Leistung, aber die Programme sollten wohl zumindest laufen. Das ist VIEL! wert.

Grid ist eigentlich nur für PC-Games und Android Games interessant. Den Markt sehe ich als übersichtlich an.

Aber selbst abseits davon muss es sich noch zeigen. Hat nicht einer von den GRID Partnern nicht erst die Segel streichen müssen, weil Sie kein Geld verdient haben?

Hübie
2013-06-16, 08:18:40
Hat nicht einer von den GRID Partnern nicht erst die Segel streichen müssen, weil Sie kein Geld verdient haben?

Nicht das ich wüsste. Im Gegenteil (http://www.ouya-news.net/nvidia-grid-schon-bald-fur-die-ouya/).

Ich steh dem cloud-Kram ja immer noch skeptisch ggü. wegen Eingabeverzögerung, bzw. der Differenz aus Eingabe und Ausgabe. Also regional (<5km) kann das sinnvoll sein, aber wirklich vorstellen kann ichs mir nicht.
War da nicht sogar Gemunkel Sony würde mit nVidia wegen Cloud-GPU-Power sprechen? Muss nachher noch mal googlen :cool:

Skysnake
2013-06-16, 08:32:00
Und wo ist das jetzt ein Widerspruch in meine Aussage?

Ouya ist Android, und mit GRID Unterstützung halt Android+PC-Game-Streaming. Zumal nVidia ja bei Ouya eingestiegen ist, soweit ich das richtig verfolgt habe. Sprich, nVidia versucht da halt einen "Zusatzdienst" zu plazieren, wogegen sich die natürlich nicht wehren werden. Ist es doch einfach ein Punkt mehr auf der Featureliste.

Ich hab mal kurz gegoogelt. Ich meinte OnLive, das war ja auch ein Partner von nVidias GeForce Grid, und die mussten Insolvenzantrag stellen..
http://www.eurogamer.de/articles/2012-08-20-onlive-insolvenz-und-entlassene-mitarbeiter-unter-dem-dach-einer-neuen-firma-geht-es-dennoch-weiter
http://www.pcgameshardware.de/Cloud-Gaming-und-Computing-Thema-233460/News/Nvidia-Cloud-Gaming-Konsolen-Generation-1026081/
Was aus denen noch wird, muss sich noch zeigen, aber wirklich pralle läuft das Geschäft nicht.

Ist ja auch kein Wunder. Die Probleme wurden hier ja schon hinreichend diskutiert. nVidia ist hier halt mal wieder SEHR optimistisch für die Zukunft.

HOT
2013-06-16, 08:54:36
NV hat keine ordentliche CPU, das ist deren Problem. Es ist sogar abzusehen, dass AMD Custom-ARMs designen wird - und AMD wird sicherlich den besseren Fertigungsprozesse nutzen können - während NV seine Custom-ARMs weiter verschiebt... AMD und Intel werden zudem ihre x86er weiter in die Mobielmärkte drängen. Bobcat und Atom waren nicht gut, das ändert sich aber jetzt.
Softwaretechnisch hat AMD jahrelang geschlafen, das wird jetzt aber mit Macht aufgeholt und Spieletechnisch kann AMD jetzt niemand mehr die Butter vom Brot kratzen. Das Gaming Evolved-Programm wird auf die gesamte Spielebranche ausgedehnt während NV bei den Produzenten immer mehr an Boden verliert. Das NV keine Spielehardware außer PC-Grafikkarten bieten kann, macht die Sache für NV nicht einfacher, im Gegenteil.
CloudGaming ist total überschätzt und wird auch keine Alternative sein in Zeiten in denen von Netzdrosslungen die Rede ist, weil den Providern der Verkehr zuviel wird. CloudGaming findet seine Nische, dann hat sichs, damit verdient man kein Geld.
Was ich auch als riesen Fehler ansehe ist, PhysX und CUDA als geschlossene Standards zu betreiben. PhysX ist nicht erfolgreich und CUDA fristet ein respektables Nischendasein, mit geschlossenen Standards kann man aber niemals soviel erreichen wie mit offenen. Es ist nur Software, irgendwann kommt einer und hat was besseres entwickelt.

Windi
2013-06-16, 08:59:35
Jedes Billig-Smartphone mit Video Decoder kann Spiele Streaming unterstützen, dafür braucht es nur die richtige App. Das kostet kein Geld und ist ein weiterer Punkt auf der Featureliste.

Was wirklich teuer ist, ist die Serverinfrastruktur mit dicker CPU, GPU und Speicher.
Und genau da will NV sein Geld verdienen.
Und genau da sieht man momentan noch gar nichts.
Niemand baut momentan Server auf, die schneller als eine PS4/Xone sind. Falls man die Probleme mit den Latenzen irgendwie löst, könnte man damit aus jedem SmartTV eine Konsole machen. Macht aber keiner. Und das hat seine Gründe.

Skysnake
2013-06-16, 09:14:13
Was ich auch als riesen Fehler ansehe ist, PhysX und CUDA als geschlossene Standards zu betreiben. PhysX ist nicht erfolgreich und CUDA fristet ein respektables Nischendasein, mit geschlossenen Standards kann man aber niemals soviel erreichen wie mit offenen. Es ist nur Software, irgendwann kommt einer und hat was besseres entwickelt.
/sign
Durch ihre Versteifung auf propritäre Schnittstellen schaufeln Sie sich ihr eigenes Grab....

Schaut doch mal nach China. Tianhe-1A war noch mit Fermis bestückt, Tianhe2 ist jetzt ein XeonPhi Cluster...
Die haben es sich halt total verkackt mit China. Aber das ist eben total typisch für nVidia. Sie sehen sich als Nabel der Welt an, und verkennen dabei völlig die Zeichen der Zeit.

Der GPGPU-Markt ist halt zersplittert in nVidia+CUDA und den Rest der Welt+OpenCL. Viele Entwickler haben jetzt schon CUDA Code, und sind wegen nVidia dazu gezwungen dabei zu bleiben. Die Portierung auf OpenCL wäre nicht sonderlich schwierig, aber nVidia unterstützt mit Kepler OpenCL ja einfach GAR NICHT MEHR!

Was besseres könnte Intel einfach nicht passieren. Ihr XeonPhi kann so seine Stärken voll ausspielen -.-

Jedes Billig-Smartphone mit Video Decoder kann Spiele Streaming unterstützen, dafür braucht es nur die richtige App. Das kostet kein Geld und ist ein weiterer Punkt auf der Featureliste.

Was wirklich teuer ist, ist die Serverinfrastruktur mit dicker CPU, GPU und Speicher.
Und genau da will NV sein Geld verdienen.
Und genau da sieht man momentan noch gar nichts.
Niemand baut momentan Server auf, die schneller als eine PS4/Xone sind. Falls man die Probleme mit den Latenzen irgendwie löst, könnte man damit aus jedem SmartTV eine Konsole machen. Macht aber keiner. Und das hat seine Gründe.
Supi, die gesamte restliche Infrastruktur ist dafür aber nicht bereit! Und das wird sich auch nicht mal eben so ändern.

Wie gesagt, das Konzept hat so manche Fußfesseln...
Auch die Akzeptanz ist relativ gering, wenn man sich das mal so anschaut. Vor allem bei den Mobile-Nutzern. Die wollen nicht wirklich Geld für so einen Dienst ausgeben. Die kostenlosen Browser-Games sind ihnen ausreichend, und die gibts eben mit etwas Werbung für umme.

HOT
2013-06-16, 09:15:28
Die Cloud war ein Hype, wie Tablets und Free2play. Das findet alles seine Nische, in denen ein paar Unternehmen einige $ verdienen, das wars. Für die Träume, die das "klugen" Köpfen entsprangen fehlt in der Praxis die Technik. Hört sich in der Theorie einleuchtend an, ist in der Praxis aber schlicht nicht umsetzbar. Davon mal abgesehen fehlt beim Spieler dafür auch noch jegliches Verständnis. Die wollen das nicht (auch ein gerne unterschätztes Argument, denn dadurch fallen die großen Publisher andauernd auf die Nase). Wer spielen will kauft sich sowieso die passende Hardware.

Windi
2013-06-16, 09:26:32
Supi, die gesamte restliche Infrastruktur ist dafür aber nicht bereit! Und das wird sich auch nicht mal eben so ändern.

Wie gesagt, das Konzept hat so manche Fußfesseln...
Auch die Akzeptanz ist relativ gering, wenn man sich das mal so anschaut. Vor allem bei den Mobile-Nutzern. Die wollen nicht wirklich Geld für so einen Dienst ausgeben. Die kostenlosen Browser-Games sind ihnen ausreichend, und die gibts eben mit etwas Werbung für umme.
Ich meinte das ja auch eher Negativ.

Für einen Client braucht man fast gar nichts. Ein ARM Prozessor mit Video Decoder für 5€ von Mediatek ist da schon überdimensioniert. Da ist es kein Wunder wenn man immer mehr Geräte hat, die als Client fungieren können.

Die wahren Probleme liegen bei den Servern und den Leitungen. Und genau die sind noch lange nicht gelöst.

Und ob Spieler wirklich bereit wären 6€ pro Stunde zu zahlen, anstatt einmalig 60€ pro Spiel, muss sich auch erst einmal zeigen.

edit:
NV scheint sich wirklich verrannt zu haben.
Das Tegra Geschäft stockt und kann auf dem ARM Markt kaum Fuß fassen.
Das Cloud Gaming Geschäft scheint schon Tot zu sein, noch bevor es überhaupt los geht.
Und durch den Trend zu immer mobileren und kompakteren Geräten können Intel/AMD mit ihren SoC immer mehr die separaten Grafikkarten verdrängen.

HOT
2013-06-16, 09:43:29
NVs Erfolg kommt aus der unteren Ebene, nämlich von den überaus fähigen Ingeneuren und Softwareentwicklern. Die Führungsebene besteht meiner Ansicht nach aus gierigen, kurzsichtigen, feigen Egoisten.
Die hätten schon längs bei den US-Kartellwächtern und in der US-Politik wie ein Löwe für ihre x86-Lizenz kämpfen müssen ... da hätte Geld fließen müssen. Man hätte um die Konsolen konkurrieren müssen - man hätte einen offenen Gegenpol zu HSA schaffen müssen - hat man alles nicht getan, stattdessen fährt man diesen überaus fähigen Laden quasi vor die Wand und das wär ein richtiger Jammer, weil es sowieso schon so wenig Abwechslung gibt in den Märkten. 3 große Player sind doch bei Weitem besser als nur 2! NV ruht sich auf seinen Lorbeeren aus und verlässt sich auf deren gute Technik. Und wenn dann mal ne Niete dabei rumkommt (Fermi war ja schon grenzwertig) wars das. AMD konnte sich umorientieren, ob NV das gelingt ist fraglich - das Schlimme ist, die sind nicht wirklich Marktrelevant, letztendlich sind sie - im Gegensatz zu AMD - entbehrlich.

Godmode
2013-06-16, 09:50:28
NV hat keine ordentliche CPU, das ist deren Problem. Es ist sogar abzusehen, dass AMD Custom-ARMs designen wird - und AMD wird sicherlich den besseren Fertigungsprozesse nutzen können - während NV seine Custom-ARMs weiter verschiebt... AMD und Intel werden zudem ihre x86er weiter in die Mobielmärkte drängen. Bobcat und Atom waren nicht gut, das ändert sich aber jetzt.
Softwaretechnisch hat AMD jahrelang geschlafen, das wird jetzt aber mit Macht aufgeholt und Spieletechnisch kann AMD jetzt niemand mehr die Butter vom Brot kratzen. Das Gaming Evolved-Programm wird auf die gesamte Spielebranche ausgedehnt während NV bei den Produzenten immer mehr an Boden verliert. Das NV keine Spielehardware außer PC-Grafikkarten bieten kann, macht die Sache für NV nicht einfacher, im Gegenteil.
CloudGaming ist total überschätzt und wird auch keine Alternative sein in Zeiten in denen von Netzdrosslungen die Rede ist, weil den Providern der Verkehr zuviel wird. CloudGaming findet seine Nische, dann hat sichs, damit verdient man kein Geld.
Was ich auch als riesen Fehler ansehe ist, PhysX und CUDA als geschlossene Standards zu betreiben. PhysX ist nicht erfolgreich und CUDA fristet ein respektables Nischendasein, mit geschlossenen Standards kann man aber niemals soviel erreichen wie mit offenen. Es ist nur Software, irgendwann kommt einer und hat was besseres entwickelt.

NVs Erfolg kommt aus der unteren Ebene, nämlich von den überaus fähigen Ingeneuren und Softwareentwicklern. Die Führungsebene besteht meiner Ansicht nach aus gierigen, kurzsichtigen, feigen Egoisten.
Die hätten schon längs bei den US-Kartellwächtern und in der US-Politik wie ein Löwe für ihre x86-Lizenz kämpfen müssen ... da hätte Geld fließen müssen. Man hätte um die Konsolen konkurrieren müssen - man hätte einen offenen Gegenpol zu HSA schaffen müssen - hat man alles nicht getan, stattdessen fährt man diesen überaus fähigen Laden quasi vor die Wand und das wär ein richtiger Jammer, weil es sowieso schon so wenig Abwechslung gibt in den Märkten. 3 große Player sind doch bei Weitem besser als nur 2! NV ruht sich auf seinen Lorbeeren aus und verlässt sich auf deren gute Technik. Und wenn dann mal ne Niete dabei rumkommt (Fermi war ja schon grenzwertig) wars das. AMD konnte sich umorientieren, ob NV das gelingt ist fraglich - das Schlimme ist, die sind nicht wirklich Marktrelevant, letztendlich sind sie - im Gegensatz zu AMD - entbehrlich.

Gute Analyse, ich sehe das fast genau so.

Undertaker
2013-06-16, 09:55:16
Anstelle subjektiver (und nicht immer ganz neutraler ;)) Einschätzungen würde ich am ehesten die Geschäftszahlen sprechen lassen, was die Entwicklung der letzten Jahre und damit die Qualität des Managements betrifft:

http://www.3dcenter.org/news/amd-geschaeftsergebnisse-q12013-amd-faellt-umsatzmaessig-auf-vor-athlon-64-zeiten-zurueck

AMD hatte lange Zeit rund den doppelten Umsatz Nvidias - hatte. Auf den Gewinn blicken wir besser gar nicht. Bei AMD sehe ich das große Problem, dass man keinerlei Fuß in den wachsenden Mobilmarkt bekommt, was sich mittelfristig böse rächen könnte. Mit den aktuellen Marktanteilen im CPU- und GPU-Bereich wird das auf Dauer nicht gut gehen.

Größte Gefahr ist allerdings, dass Intel zukünftig sowohl AMD als auch Nvidia die Butter vom Brot nimmt.

Godmode
2013-06-16, 09:57:45
Diese Zahlen zeigen aber die Vergangenheit und nicht die Zukunft. Hot seine Analyse bezieht sich aber auf die Zukunft.




Größte Gefahr ist allerdings, dass Intel zukünftig sowohl AMD als auch Nvidia die Butter vom Brot nimmt.

Genau aus dem Grund habe ich diesen Thread eröffnet.

Undertaker
2013-06-16, 10:05:27
Diese Zahlen zeigen aber die Vergangenheit und nicht die Zukunft. Hot seine Analyse bezieht sich aber auf die Zukunft.

Meine auch. ;) Die Zukunft spielt sich allerdings in erster Linie im Mobile-Bereich ab. Tegra ist bislang zahlenmäßig noch kein großer Faktor, hat aber über 3 Generationen wertvolle Erfahrungen gebracht. AMD kann es sich finanziell kaum leisten, jetzt auch erstmal 5 Jahre zu brauchen, um hier einen Einstieg zu finden. Ich vermisse Investitionen in Modem-Technik, low-power-Cores (und zwar im wirklichen low-power-Bereich, Jaguar spielt eine Klasse darüber), erste Gehversuche mit ARM IP-Cores usw. Man kann nicht davon ausgehen, irgendwann einmal aus dem Stand in den Markt zu springen.

Ailuros
2013-06-16, 10:07:44
Die x86 ISA mit dem herkömmlichen Bild des PCs (Option auf eine potente dGPU) zu koppeln halte ich für nicht mehr zeitgemäß. Das Volumen der mobilen x86 CPUs ist größer und die Entwicklung wird sich weiter in dieser Richtung fortsetzen. Meiner Ansicht nach wird Intels gesamtes Volumen mittelfristig (~2016) über die Fokussierung auf Mobile eher sehr deutlich ansteigen.

Um noch etwas weiter auszuholen ist es zwar vollkommen richtig das die ARM ISA aufgrund des zu x86 vollkommen unterschiedlichen Ansatzes (Lizenzierung) Vorzüge für Hersteller hat (eigene SoC Entwicklung) aber ich bin mir nicht so sicher ob der auf Ewigkeiten in dem Ausmaß Bestand hat. SoCs werden von Jahr zu Jahr komplexer und damit steigt automatisch der Aufwand (Kosten). Aus dem Grund würde ich dem Bereich Custom SoCs (SoC Entwicklung im Kundenauftrag) für die Zukunft grundsätzlich einen vergleichsweise hohen Stellenwert einräumen. Nach einem großen Boom kommt häufig die Fokussierung auf das Kerngeschäft und das sind bei vielen Herstellern Endgeräte.

Vorsicht: ich hab grundsaetzlich darauf geantwortet dass moeglicherweise NV langfristig keinen Anteil mehr am x86 haben wird. SFF mobile hab ich absichtlich dabei herausgehalten; wenn ich so weit in Einzelheiten gehen wuerde wuerde ich mich nicht auf x86 vs. ARM konzentrieren sondern eher Windows vs. Android. Intel wird weiterhin Android mit x86 bedienen und NVIDIA wird in Zukunft auch windows Platformen mit einem custom core ARM ISA bedienen.

Im guten Ganzen sehe ich NICHT dass NV keine Zukunft fuer windows Maerkte hat.


------------------------------------------------------------------------------------
HOT's Analyse ist zwar nicht schlecht aber doch ein bisschen naiv in eigenen Stellen IMHO. YfOrU nimmt dann schon die korrektere Portion von moeglichen SFF mobile Faktoren mit in seine Ansicht (andere auch...es ist ja nur ein Beispiel) und koennte somit naeher an der moeglichen zukuenftigen Realitaet liegen.

Ich mach es Euch etwas komplizierter und es ist das eigentliche Denkfutter denn ohne ein tolles OS ist ein jegliches tolles Stueck hw auch nicht mehr besonders viel wert: wann holt Google Microsoft mit ihrem OS ein?... :D

...und genau hier ist der Punkt wo Undertaker oben den Nagel auf den Kopf getroffen hat: AMD hat gar nichts bis jetzt was SFF mobile betrifft und nein ihr unendlicher windows-only Konzentrationskoller wird langfristig eben NICHT helfen.

fondness
2013-06-16, 10:14:50
Meine auch. ;) Die Zukunft spielt sich allerdings in erster Linie im Mobile-Bereich ab. Tegra ist bislang zahlenmäßig noch kein großer Faktor, hat aber über 3 Generationen wertvolle Erfahrungen gebracht. AMD kann es sich finanziell kaum leisten, jetzt auch erstmal 5 Jahre zu brauchen, um hier einen Einstieg zu finden. Ich vermisse Investitionen in Modem-Technik, low-power-Cores (und zwar im wirklichen low-power-Bereich, Jaguar spielt eine Klasse darüber), erste Gehversuche mit ARM IP-Cores usw. Man kann nicht davon ausgehen, irgendwann einmal aus dem Stand in den Markt zu springen.

Es ist kein Geheimnis, dass AMD Mitte 2014 einen ARM-Server-Chip bringen wird. Da hast du auch deine Low-Power-Cores. Ansonsten kann man nicht auf jeden Markt mit tanzen, es sei denn man heißt Intel. Im mobilen Markt wären hohe Investitionen nicht nur in Modem-Technik erforderlich. Anstatt sich dort mit Qualcomm, Samsung, Apple, Intel, Nvidia, Mediatek, etc. zu matchen, ist es wohl wesentlich schlauer sich auf Märkte zu fokussieren in denen man bereits vertreten ist. Selbst TI war das zu heiß, und die hätten das Kapital.

HOT
2013-06-16, 10:21:03
Anstelle subjektiver (und nicht immer ganz neutraler ;)) Einschätzungen würde ich am ehesten die Geschäftszahlen sprechen lassen, was die Entwicklung der letzten Jahre und damit die Qualität des Managements betrifft:

http://www.3dcenter.org/news/amd-geschaeftsergebnisse-q12013-amd-faellt-umsatzmaessig-auf-vor-athlon-64-zeiten-zurueck

AMD hatte lange Zeit rund den doppelten Umsatz Nvidias - hatte. Auf den Gewinn blicken wir besser gar nicht. Bei AMD sehe ich das große Problem, dass man keinerlei Fuß in den wachsenden Mobilmarkt bekommt, was sich mittelfristig böse rächen könnte. Mit den aktuellen Marktanteilen im CPU- und GPU-Bereich wird das auf Dauer nicht gut gehen.

Größte Gefahr ist allerdings, dass Intel zukünftig sowohl AMD als auch Nvidia die Butter vom Brot nimmt.


Ich habe nie bestritten das der Laden brummt. Das tut er nach wie vor. Zahlen sind aber nicht relevant, weil sie a.) die Vergangenheit und b.) oft nicht den tatsächlichen Stand widerspiegeln. In Zahlen kann man keine Innovation erkennen. Jedoch musst auch du zugeben, dass die Zukunft ungewiss ist. Natürlich ist die Zukunft mobil. Aber was soll NV noch reißen, wenn Intel x86er in ARM-Sektoren plazieren kann aufgrund des guten Fertigungsprozesses und auch AMD durch den technischen Vorsprung, den man durch die kombinierte Entwicklung der beiden Welten x86 und GPU selbiges hinbekommt nur auf andere Weise? Zu allem Überfluss wird AMD seine gesamte Erfahrung in CPU-Entwicklung in den Custom-ARM fließen, da kann NV mangels Erfahrung auch nicht gegen kontern - AMD hat durchaus die Möglichkeiten und Mittel den Tegra-Markt komplett auszutrocknen.
Intel wird AMD niemals die Butter vom Brot nehmen, weil AMD am Ball bleibt. Es sah na ganze Weile echt schlecht aus, aber die Finanzierung ist dank der Konsolen gesichert und man ist mit der neuen Führung wieder so handlungsfähig, dass man nicht mehr auf Gedeih und Verderb auf die eigene GPU-Technik angwiesen ist um zu überleben. Selbst wenn Intel GPU-Technisch aufholt hat AMD immernoch die Chance gute Prozessoren/GPUs zu bauen, da gibts ne Perspektive. Sogar Fertigungstechnisch gibts ja gute Perspektiven dank des freien Zugangs zu fdSOI. Der erste Blick auf BD und co. trügt gewaltig. Das Geld verdient letztendlich Jaguar (in Kombination mit GCN und HSA). Wenn man da unter die Haube guckt ist AMD hervorragend aufgestellt für die Zukunft. Intel und AMD haben alle Trümpfe in der Hand, die haben Grafik, x86, ARM, die gesamte Computer-Infrastruktur, die beste Fertigung usw. Das kann man von NV (und übrigens auch viele anderen ARM-Schmieden) nicht behaupten.

Undertaker
2013-06-16, 10:21:35
Es ist kein Geheimnis, dass AMD Mitte 2014 einen ARM-Server-Chip bringen wird. Da hast du auch deine Low-Power-Cores. Ansonsten kann man nicht auf jeden Markt mit tanzen, es sei denn man heißt Intel. Im mobilen Markt wären hohe Investitionen nicht nur in Modem-Technik erforderlich. Anstatt sich dort mit Qualcomm, Samsung, Apple, Intel, Nvidia, Mediatek, etc. zu matchen, ist es wohl wesentlich schlauer sich auf Märkte zu fokussieren in denen man bereits vertreten ist. Selbst TI war das zu heiß, und die hätten das Kapital.

TI hat sich mit embedded seine Nische gesucht. Nur sind diese rar gesäht: An ARM-Chips für Server sind auch eine ganze Reihe anderer Unternehmen dran; und ob hier überhaupt eine Chance gegen Intels deutlich forcierte Atom-Schiene besteht, bleibt abzuwarten. Wenn man sich die Mühe macht, eigene ARM-Cores zu entwickeln, benötigt es auch einen gewissen Absatz, um wirtschaftlich arbeiten zu können. Dafür wird AMD zukünftig auch den Mobile-Bereich benötigen, und genau dafür sollte man jetzt besser schon einmal vorsorgen. Genau da gibt es derzeit (und in der Vergangenheit) große Management-Defizite.

Ailuros
2013-06-16, 10:25:40
Es ist kein Geheimnis, dass AMD Mitte 2014 einen ARM-Server-Chip bringen wird. Da hast du auch deine Low-Power-Cores. Ansonsten kann man nicht auf jeden Markt mit tanzen, es sei denn man heißt Intel. Im mobilen Markt wären hohe Investitionen nicht nur in Modem-Technik erforderlich. Anstatt sich dort mit Qualcomm, Samsung, Apple, Intel, Nvidia, Mediatek, etc. zu matchen, ist es wohl wesentlich schlauer sich auf den Server-Bereich zu fokussieren. Selbst TI war das zu heiß, und die hätten das Kapital.

TI haette das Kapital und AMD auch nicht unter den heutigen Bedingungen. Das eigentliche Problem von TI war dass sie im Herstellungskampf nicht mehr mitmachen konnten. TI verliess Samsung weil Samsung Prioritaet zu Apple gab, landete bei UMC nur um herauszustellen dass dort QCOM mit moeglicher Prioritaet dank fetten Investitionen dasteht.

AMD hat heute weder den Luxus etliche hundert engineers extra fuer SFF SoCs zu engagieren noch irgendwelche Moneten fuer die Herstellung zu schuetten.

Windi
2013-06-16, 10:27:49
Auch in der PS4 (??Xone??) steckt ein ARM Prozessor. AMD hat also schon etwas Erfahrung was ARM Prozessoren angeht. Wo sie noch keine Erfahrung haben ist der mobile Bereich. Der ist aber so hart umkämpft, dass dort kaum Gewinne möglich sind.

Vor allem sehe ich dort auch ähnliche Probleme wie beim PC auf die Hersteller zu kommen. Auch dort beginnt bald die "Good Enough Ära". Die meisten wollen auf ihrem Smartphone oder Tablet eh nur Multimedia und Internet machen und dafür reichen heutige Geräte eigentlich schon aus. In 5 Jahren könnte ein Großteil des Marktes bei Geräten liegen, die um die 100€ kosten. Damit macht man keine großen Gewinne mehr.

fondness
2013-06-16, 10:32:13
Dafür wird AMD zukünftig auch den Mobile-Bereich benötigen, und genau dafür sollte man jetzt besser schon einmal vorsorgen. Genau da gibt es derzeit (und in der Vergangenheit) große Management-Defizite.

Also die einzigen Management-Defizite sehe ich momentan bei NV, die offenbar noch immer glauben dort mit den großen schon irgendwann mithalten zu können, obwohl man seit Jahren nichts als Verluste in diesem Markt macht. Ailuros und Windi haben ja schon sehr gut dargestellt warum es für AMD keinen Sinn macht dort mit zu mischen. Da werden auch noch ganz anderen Kaliber über kurz oder lang die Segel streichen, der Markt ist aktuell extrem hart umkämpft. Ansonsten sind auch die anderen Märkte mehr als groß genug, AMD braucht mit Sicherheit nicht den Ultra-Mobil-Markt.

Ailuros
2013-06-16, 10:32:59
Zu allem Überfluss wird AMD seine gesamte Erfahrung in CPU-Entwicklung in den Custom-ARM fließen, da kann NV mangels Erfahrung auch nicht gegen kontern - AMD hat durchaus die Möglichkeiten und Mittel den Tegra-Markt komplett auszutrocknen.

Nein eben nicht; SFF mobile braucht spezifische perf/mW konzentrierte von Grund auf entwickelte SoCs. Und kommt mir bloss nicht mit geteilten resourcen zwischen Fusion und moeglichen SFF SoCs denn den idiotischen Fehler hat auch NV gemacht und genau deshalb schnauft NV auch so stark den Tegra Ball wirklich ins rollen zu bekommen. Jetzt hat es NV eingesehen und es kommt mit Tegra5 so langsam ins rollen.

Intel wird AMD niemals die Butter vom Brot nehmen, weil AMD am Ball bleibt. Es sah na ganze Weile echt schlecht aus, aber die Finanzierung ist dank der Konsolen gesichert und man ist mit der neuen Führung wieder so handlungsfähig, dass man nicht mehr auf Gedeih und Verderb auf die eigene GPU-Technik angwiesen ist um zu überleben. Selbst wenn Intel GPU-Technisch aufholt hat AMD immernoch die Chance gute Prozessoren/GPUs zu bauen, da gibts ne Perspektive. Sogar Fertigungstechnisch gibts ja gute Perspektiven dank des freien Zugangs zu fdSOI. Der erste Blick auf BD und co. trügt gewaltig. Das Geld verdient letztendlich Jaguar (in Kombination mit GCN und HSA). Wenn man da unter die Haube guckt ist AMD hervorragend aufgestellt für die Zukunft.

Die Frage ist stets was "hervorragend" genau ist unter solchen Bedingungen. Gegenfrage: mit einer globalen Perspektive ueber alle Maerkte spinnt Intel dass sie Qualcomm als groesseren Konkurrenten der Zukunft im Vergleich zu AMD ansehen?

Undertaker
2013-06-16, 10:33:37
Auch in der PS4 (??Xone??) steckt ein ARM Prozessor.

Die Jaguar-Kerne sind x86. Für die Konsolen sind die vom TDP-Budget recht passend, für Mobile aber nur eingeschränkt.

Also die einzigen Management-Defizite sehe ich momentan bei NV, die offenbar noch immer glauben dort mit den großen schon irgendwann mithalten zu können, obwohl man seit Jahren nichts als Verluste in diesem Markt macht.

Das heißt also für AMD, z.B. das CPU- und APU-Geschäft sollte auch komplett aufgegeben werden? Macht ja auch nur Verluste... :rolleyes:

Wir sind gerade erst bei der vierten Tegra-Generation, von denen die erste praktisch nicht existent war. Es wäre naiv zu glauben, dass man in so einen Markt einsteigen kann und vom ersten Moment an High-End produziert und Gewinn erwirtschaftet. Das wird bei AMDs ersten ARM-Cores nicht anders sein.


Uebrigens stehe ich immer noch dazu dass AMD die Imageon Sparte nie haette verkaufen sollen.

/sign. Für wieviel ging die damals weg?

Ailuros
2013-06-16, 10:36:24
Also die einzigen Management-Defizite sehe ich momentan bei NV, die offenbar noch immer glauben dort mit den großen schon irgendwann mithalten zu können, obwohl man seit Jahren nichts als Verluste in diesem Markt macht. Ailuros hat ja schon sehr gut dargestellt warum es für AMD keinen Sinn macht dort mit zu mischen. Da werden auch noch ganz anderen Kaliber über kurz oder lang die Segel streichen, der Markt ist aktuell extrem hart umkämpft. Ansonsten sind auch die anderen Märkte mehr als groß genug, AMD braucht mit Sicherheit nicht den Ultra-Mobil-Markt.

"Brauchen" ist relativ inwiefern man "relevant" als IHV in der Zukunft sein wird. Damit Du es leichter verstehst: wenn Intel langfristig nicht aufpasst koennte CPU IP insgesamt relevanter werden wenn es zu Integrierungs-Volumen kommt.

Uebrigens stehe ich immer noch dazu dass AMD die Imageon Sparte nie haette verkaufen sollen.

Windi
2013-06-16, 10:37:36
Die Jaguar-Kerne sind x86. Für die Konsolen sind die vom TDP-Budget recht passend, für Mobile aber nur eingeschränkt.
Die PS4 soll auf jeden Fall einen ARM Prozessor für den Stand By Modus haben, um nebenbei Updates herunterzuladen oder während des Spielens Gameplay Videos aufzuzeichnen. Wie das bei der Xone aussieht weiß ich jetzt nicht so genau.

AnarchX
2013-06-16, 10:38:15
Die Jaguar-Kerne sind x86. Für die Konsolen sind die vom TDP-Budget recht passend, für Mobile aber nur eingeschränkt.

Er meint wohl die Trustzone mit dem kleinen Cortex A5. Das hat aber natürlich nichts mit einer performanten und konkurrenzfähigen ARM-Lösung zu tun.

Ailuros
2013-06-16, 10:42:51
Wir sind gerade erst bei der vierten Tegra-Generation, von denen die erste praktisch nicht existent war. Es wäre naiv zu glauben, dass man in so einen Markt einsteigen kann und vom ersten Moment an High-End produziert und Gewinn erwirtschaftet. Das wird bei AMDs ersten ARM-Cores nicht anders sein.

Mit Verlaub es sind auch noch zwei GoForce Generationen davor, die NV marketing natuerlich gerne unter den Teppich schiebt aus verstaendlichen Gruenden. Haette Jensen dem Tegra department nicht so verdammt viele resources entzogen nach dem ersten Fermi Problem und nicht 2x Mal die Denver Entwicklung auf tabula rasa gestossen waere die Sache schon seit langem fundamental anders.

Man hoert eben LEIDER nicht auf seine hocherfahrenen engineers, sondern glaubt alles wissen zu muessen und mit dem Kopf durch die Wand. Und NEIN es ist eben nicht ein NV exklusives Problem sondern ein Phaenomen dass leider bei allen auftritt ohne jegliche Ausnahme.

Und es sind dann solche Faelle wo bisherige Tegras entstehen, Larabee, IMG windows Treiber und die Liste koennte verdammt lang werden...


/sign. Für wieviel ging die damals weg?

Insgesamt weniger als 100Mio wenn ich mich nicht irre.

fondness
2013-06-16, 10:43:11
Die Jaguar-Kerne sind x86. Für die Konsolen sind die vom TDP-Budget recht passend, für Mobile aber nur eingeschränkt.


Es ist auch ein Cortex A5 integriert.


Wir sind gerade erst bei der vierten Tegra-Generation, von denen die erste praktisch nicht existent war. Es wäre naiv zu glauben, dass man in so einen Markt einsteigen kann und vom ersten Moment an High-End produziert und Gewinn erwirtschaftet. Das wird bei AMDs ersten ARM-Cores nicht anders sein.


Wie Ailuros schon anmerkte sind wie mittlerweile bei der sechsten Generation. Wann bist du denn der Meinung das man Gewinn erwirtschaften sollte? Nach 10 Generationen? 20? 100?

Uebrigens stehe ich immer noch dazu dass AMD die Imageon Sparte nie haette verkaufen sollen.

Sehe ich anders. Man hätte in diesem Markt ohnehin keine Chance gehabt mitzuhalten. Also ist es besser sich auf das Kerngeschäft zu fokussieren. Man hätte höchstens hoffen können ein paar Kröten durch Lizenzen einzunehmen, doch mittelfristig geht der Markt Richtung SoCs.

Ailuros
2013-06-16, 10:49:36
Sehe ich anders. Man hätte in diesem Markt ohnehin keine Chance gehabt mitzuhalten. Also ist es besser sich auf das Kerngeschäft zu fokussieren. Man hätte höchstens hoffen können ein paar Kröten durch Lizenzen einzunehmen, doch mittelfristig geht der Markt Richtung SoCs.

Zu dem Zeitpunkt haetten sie locker SoCs entwickeln koennen wenn sie es nur wollten. Heute hat AMD ihre wertvollsten GPU engineers an Qualcomm und an Apple verloren.

Undertaker
2013-06-16, 10:50:16
Mit Verlaub es sind auch noch zwei GoForce Generationen davor, die NV marketing natuerlich gerne unter den Teppich schiebt aus verstaendlichen Gruenden.

Nunja, ob man die GoForce da nun wirklich dazurechnen will... Ein ARM-SoC ist nicht nur das know-how für eine mobile GPU.

Haette Jensen dem Tegra department nicht so verdammt viele resources entzogen nach dem ersten Fermi Problem und nicht 2x Mal die Denver Entwicklung auf tabula rasa gestossen waere die Sache schon seit langem fundamental anders.

Derzeit hat Nvidia (im Gegensatz zu AMD) den Luxus relativ stabiler Gewinne, die man jetzt auch wieder investieren sollte. Wäre interessant zu wissen, wie hoch das Entwicklungsbudget der Tegra-Sparte derzeit so ist - das Potential, dieses weiter aufzustocken, sollte man aber nutzen, ja.

Skysnake
2013-06-16, 12:06:59
"Brauchen" ist relativ inwiefern man "relevant" als IHV in der Zukunft sein wird. Damit Du es leichter verstehst: wenn Intel langfristig nicht aufpasst koennte CPU IP insgesamt relevanter werden wenn es zu Integrierungs-Volumen kommt.

Seh ich auch so, daher finde ich es SEHR interessant/gut, das AMD ihre IP eben für jedweden Kunden öffnet, und es möglich macht eigene IP-Cores auf den DIE mit drauf zu packen. Das macht AMD aktuell zu einem gewissen Grad einzigartig meiner Meinung nach aktuell.


Uebrigens stehe ich immer noch dazu dass AMD die Imageon Sparte nie haette verkaufen sollen.
/sign

Ich seh die Rufe nach AMD im SFF-Markt schon kritisch. Klar, das ist ein großer Markt, mit großen Gewinnmöglichkeiten, aber es ist wohl auch der Markt, auf dem mit den härtesten Bandagen gekämpft wird. Du brauchst also richtig! Asche um da mit zu spielen, um überhaupt eine Chance zu haben, und selbst dann besteht die Gefahr, dass du dem Druck nicht stand hälst und vor die Hunde gehst...

Ich finde es daher ganz gut, das sich AMD aus dem Ultra-Mobile-Markt etwas raus hält, und eine Stufe drüber ansiedelt. Da ist der Konkurrenzdruck einfach VIEL geringer. Und AMD braucht in nächster Zeit vor allem eins. Sicherheit mit sicheren Gewinnen.

Darauf kann man aufbauen, und dann auch wieder neue gute Leute holen. Vor allem, je nachdem bereinigt sich der SFF-Markt auch in den nächsten Jahren, und dann steigen die Margen wieder an, was den Einstieg wieder erleichtert.

Aktuell sehe ich den SFF-Markt aber für jemand Neues als reinste Selbstmordaktion an.

Ailuros
2013-06-16, 15:06:53
Nunja, ob man die GoForce da nun wirklich dazurechnen will... Ein ARM-SoC ist nicht nur das know-how für eine mobile GPU.

Es geht mir um die eigentliche Existenz im SFF mobilen Markt.

Derzeit hat Nvidia (im Gegensatz zu AMD) den Luxus relativ stabiler Gewinne, die man jetzt auch wieder investieren sollte. Wäre interessant zu wissen, wie hoch das Entwicklungsbudget der Tegra-Sparte derzeit so ist - das Potential, dieses weiter aufzustocken, sollte man aber nutzen, ja.

Die Gewinne haben gar nichts mit Tegra zu tun; sie sind lediglich ein Resultat von N zusaetzlichem Erfolg in Profi-Maerkten (hingegen sitzt Intel mit ihrem Phi auch nicht still) der Teslas und sehr hohen Margen dank sehr hohen Preisen im standalone GPU Markt.

Die Entwicklungskosten duerften dank Logan verdammt ansteigen, denn sie haben auch eine verdammt hohe Anzahl an engineers ins Tegra GPU team zurueckgeschleusst.

Hab ich NV nicht wieder falsch eingeschaetzt dann koennte es durchaus sein dass es Logan in SFF/mobile Varianten und ultrabook Varianten geben koennte ab H2 14'. Wenn ja fuer den zweiten Fall muss sich Intel selbst mit dem Haswell refresh womoeglich ziemlich warm anziehen.

boxleitnerb
2013-06-16, 15:16:41
Ich denke er meinte nur, dass die Gewinne in Tegra investiert werden können. AMD kann weniger investieren, weil sie diese Gewinne eben nicht so haben.

fondness
2013-06-16, 15:48:39
Hab ich NV nicht wieder falsch eingeschaetzt dann koennte es durchaus sein dass es Logan in SFF/mobile Varianten und ultrabook Varianten geben koennte ab H2 14'. Wenn ja fuer den zweiten Fall muss sich Intel selbst mit dem Haswell refresh womoeglich ziemlich warm anziehen.

Logan wird noch immer keine custom-CPU-Core bekommen, sondern irgend einen fertigen ARM-Core. Was genau soll da für Haswell gefährlich werden? Zumindest werden sie wohl mit Kepler endlich eine brauchbare GPU integrieren. Aber selbst das kommt relativ spät wenn man sieht wie lange Kepler schon am Markt ist. H2/2014 hat Intel zudem längst Broadwell in 14nm im mobilen Markt. Hashwell-Refresh kommt nur für Desktop.

Ich denke er meinte nur, dass die Gewinne in Tegra investiert werden können. AMD kann weniger investieren, weil sie diese Gewinne eben nicht so haben.

Merke: Gewinne/Verluste sind bereits abzüglich Investitionen. AMD investiert nach wie vor mehr in RnD als NV. NV "investiert" ihre Gewinne offenbar lieber in Aktienrückkaufprogramme oder legt das Geld auf die Seite.

YfOrU
2013-06-16, 16:04:33
...H2/2014 hat Intel zudem längst Broadwell in 14nm im mobilen Markt. Hashwell-Refresh kommt nur für Desktop.

Dafür reicht genaugenommen Atom (SoCs) vollkommen aus. Broadwell spielt mindestens eine Liga darüber.


Derzeit hat Nvidia (im Gegensatz zu AMD) den Luxus relativ stabiler Gewinne, die man jetzt auch wieder investieren sollte. Wäre interessant zu wissen, wie hoch das Entwicklungsbudget der Tegra-Sparte derzeit so ist - das Potential, dieses weiter aufzustocken, sollte man aber nutzen, ja.

Wenn ich mir anschaue wie Nvidia versucht den Markt zu bedienen ist zumindest in der Vergangenheit alles andere als ernsthaft und zielgerichtet investiert worden. Das Portfolio ist viel zu klein und deckt nicht mal im Ansatz die typischen Segmente ab.

fondness
2013-06-16, 16:05:59
Dafür reicht genaugenommen Atom (SoCs) vollkommen aus. Broadwell spielt mindestens eine Liga darüber.

Eben. Deswegen wundert mich die Aussage von Ailuros auch.

Ailuros
2013-06-16, 16:14:33
Logan wird noch immer keine custom-CPU-Core bekommen, sondern irgend einen fertigen ARM-Core. Was genau soll da für Haswell gefährlich werden? Zumindest werden sie wohl mit Kepler endlich eine brauchbare GPU integrieren. Aber selbst das kommt relativ spät wenn man sieht wie lange Kepler schon am Markt ist. H2/2014 hat Intel zudem längst Broadwell in 14nm im mobilen Markt. Hashwell-Refresh kommt nur für Desktop.

Es geht lediglich um den <15W TDP Markt in den Haswell auch eindringen wird. Nennen wir die GPU eher Kepler Ableger um naeher an der Realitaet zu liegen.

Ich denke er meinte nur, dass die Gewinne in Tegra investiert werden können.

Es geht gar nicht anders, aber wie ich schon so oft erwaehnte die Kosten fuer Tegra werden konstant steigen. Momentan melken sie so viel wie moeglich von standalone GPUs raus; mehr geht einfach nicht. Wenn es gestern sagen wir mal 10 Kunden gab fuer $1000 GPUs, wird es wohl morgen nicht genauso viel geben fuer $2000 GPUs.

AMD kann weniger investieren, weil sie diese Gewinne eben nicht so haben.

Das ist mir eine zu schlampige Schlussvolgerung. Ein IHV kann theoretisch auch mehr in R&D investieren und sogar Verlust machen; ausser Du willst mir erklaeren dass der insgesamte Umsatz eventuell auch keine Rolle spielt.

Undertaker
2013-06-16, 17:26:10
Das ist mir eine zu schlampige Schlussvolgerung. Ein IHV kann theoretisch auch mehr in R&D investieren und sogar Verlust machen; ausser Du willst mir erklaeren dass der insgesamte Umsatz eventuell auch keine Rolle spielt.

Natürlich kann ein IHV dazu auch Kredite aufnehmen, was allerdings (zu vernünftigen Konditionen) schwerer wird, wenn man eh schon einen Schuldenberg aufgehäuft hat und weiterhin rote Zahlen schreibt.

Ich denke er meinte nur, dass die Gewinne in Tegra investiert werden können. AMD kann weniger investieren, weil sie diese Gewinne eben nicht so haben.

Jep.

Supern0va
2013-06-16, 17:31:17
Und AMD hat z.B. auch ein komplettes Angebot an Cloude-Computing-GPUs.

Also genau den gleichen Markt, und gerade wenn du so was wie GRID ansprichst. Überleg mal, WER denn die Konsolen ausstattet....

Dazu kommt noch, das AMD mit ihren APUs ähnliche Chips bringt, auf Wunsch sicherlich sogar 1:1 die gleichen für Sony/MS für ihre Cloude-Center. Nur halt noch mit extra PCI-E, um eine dGPU einzubinden. Da steht ja in 1-2 Jahren ja auch die HSA integration an. Sprich, je nachdem ist das dann wohl auch wieder Transparent für die Softwareentwickler. Man verschenkt zwar sicherlich Leistung, aber die Programme sollten wohl zumindest laufen. Das ist VIEL! wert.

Grid ist eigentlich nur für PC-Games und Android Games interessant. Den Markt sehe ich als übersichtlich an.

Aber selbst abseits davon muss es sich noch zeigen. Hat nicht einer von den GRID Partnern nicht erst die Segel streichen müssen, weil Sie kein Geld verdient haben?


Gaikai (Sony) läuft mit GRID.
Die ganzen großen Cloud Gaming Plattformen setzen auf GRID.
Auch Netflix wird bald auf GRID erweitern sowie Cloud Gaming anbieten. (Marktanteil USA 30%).

Grid ist eigentlich nur für PC-Games und Android Games interessant.

Nein; über GRID wird es auch Konsolenspiele geben (PS2/PS3).
Die Xbox1 Spiele der E3 liefen übrigens auf Intel/Nvidia PCs nur zur Info.

Aber selbst abseits davon muss es sich noch zeigen. Hat nicht einer von den GRID Partnern nicht erst die Segel streichen müssen, weil Sie kein Geld verdient haben?

Also Google, Facebook, Adobe, Sony und noch etliche weitere setzen auf GRID.
Von denen ist noch keiner Pleite. Im Asiatischen Raum setzen die 9 größten Streaminganbieter auch auf GRID.

Wie gesagt; mit GRID hat Nvidia eine Monopolstellung. Für AMD ist der Zug im Cloud Gaming abgefahren.

fondness
2013-06-16, 17:44:05
AMD hat im Cloud Gaming gar nichts vorzuweisen oder gar einen Marktanteil.

CiiNow, G-Cluster, Otoy und Ubitus ist wohl mehr als nichts.


Die Xbox1 Spiele der E3 liefen übrigens auf Intel/Nvidia PCs nur zur Info.

Und welche Relevanz genau hat das?

Supern0va
2013-06-16, 17:50:18
CiiNow, G-Cluster, Otoy und Ubitus ist wohl mehr als nichts.

Hu? Die laufen zum Teil schon lange nicht mehr mit AMD bzw. sind in der Umstellung.
Ubitus stellt auf GRID um.
G-Cluster stellt auf GRID um.

Mir ist aktuell nur noch One-Live bekannt dies nicht auf GRID umstellt.

Und welche Relevanz genau hat das?

Das es vollkommen egal ist wer diese 0815-Konsolen Chips baut.
Vermutlich reichte die Leistung der Konsole nicht aus um die Spiele in hoher Qualität zu präsentieren. Also hat man geschummelt und einen PC hingestellt.
Die finale Konsolen-Version wird vermutlich stark abgeändert und mit schlechterer Grafik erscheinen.

Windi
2013-06-16, 17:54:03
Gaikai (Sony) läuft mit GRID.
Die ganzen großen Cloud Gaming Plattformen setzen auf GRID.
Auch Netflix wird bald auf GRID erweitern sowie Cloud Gaming anbieten. (Marktanteil USA 30%).

AMD hat im Cloug Gaming gar nichts vorzuweisen oder gar einen Marktanteil.
Welche großen Cloud Gaming Plattformen gibt es denn neben Gaikai noch?
Und was bedeutet hier "groß" im Vergleich zum Konsolenmarkt?

Ja Sony hat Gaikai gekauft. Aber sie haben auch eine PS4 mit AMD CPU und GPU die mit Hilfe von HSA sehr eng zusammenarbeiten können. Eine Portierung auf NV Grafikkarte die per PCIe an einem Intel Prozessor angebunden ist, dürfte schon einen gewissen Aufwand bedeuten. Warum da nicht lieber zu den fertigen PS4 Spielen greifen und die Server, die eh mal wieder hoch gerüstet werden müssten, auf AMD umstellen? Natürlich kostet eine solche Plattformumstellung Geld, aber bei weitem nicht so viel wie die Portierung aller Spiele kosten würde. NV hat Gaikai an dem Tag verloren als Sony sich bei der PS4 für AMD entschieden hatte.

OnLive ist tot und Gaikai wird wohl zu AMD wechseln (wenn überhaupt). Was hat NV denn dann überhaupt noch im Cloud Gaming Geschäft?

fondness
2013-06-16, 17:56:42
Hu? Die laufen zum Teil schon lange nicht mehr mit AMD bzw. sind in der Umstellung.
Ubitus stellt auf GRID um.
G-Cluster stellt auf GRID um.

Mir ist aktuell nur noch One-Live bekannt dies nicht auf GRID umstellt.

Unglaublich lächerlich wie du dir hier laufend Dinge aus den Fingern saugst und sie als Fakten darstellst. Alle diese Anbieter bieten AMD-Lösungen oder haben dies angekündigt. Stell dir vor man kann auch NV und AMD-Lösungen gleichzeitig anbieten.

Und der Cloud-Gaming-Markt ist aktuell praktisch nicht existent, niemand macht damit große Umsätze, auch NV nicht.
Zu behauten AMD könnte da einpacken ist einfach lächerlich.


Das es vollkommen egal ist wer diese 0815-Konsolen Chips baut.

genau das ist eben nicht egal, denn darauf muss optimiert werden.

Ailuros
2013-06-16, 18:00:57
Natürlich kann ein IHV dazu auch Kredite aufnehmen, was allerdings (zu vernünftigen Konditionen) schwerer wird, wenn man eh schon einen Schuldenberg aufgehäuft hat und weiterhin rote Zahlen schreibt.

AMD haelt sich aus gutem Grund weiterhin auf verdammt konservativer Basis, deshalb macht es HEUTE IMHO keinen Sinn unter den gegebenen Vorraussetzungen dass sich AMD ernsthaft mit SFF beschaeftigt bevor es zu einem gesundem Aufschwung kommt.

AMD verliert eine verdammt wichtige Marktrelevanz der Zukunft wenn sie zu lange vom SFF wegbleiben und NVIDIA muss langfristig ein groesseres insgesamtes Risiko eigehen wenn sie das Dreieck HPC/PC GPU, PC SoCs, SFF SoCs gleichzeitig bedienen wollen ueberhaupt wenn die single large GPU die Strategie weiterhin stecken bleibt.

Supern0va
2013-06-16, 18:01:35
NV hat Gaikai an dem Tag verloren als Sony sich bei der PS4 für AMD entschieden hatte.


LOL welches Halbwissen gibst du da von dir?
Gaikai läuft mit GRID und Sony setzt auf GRID.
Des weiteren ist Gaikai kein alleiniges Projekt von Sony - Da sind noch zig weitere Firmen daran beteiligt.
Nvidia hat auf der CES2013 gesagt das gerade PS2/PS3 Spiele portiert werden für Gaikai (GRID).
Dir ist bekannt das die PS4 Physx/Apex unterstützt und Nvidia diese Lizenz freigegeben hat?

Nvidia ist bei Sony genauso im Boot wie AMD.

genau das ist eben nicht egal, denn darauf muss optimiert werden.

Und deswegen lief die Xbox1 E3 Präsentation auf PC Hardware mit Intel/Nvidia Hardware?
ha..ha..ha..

fondness
2013-06-16, 18:06:46
Und deswegen lief die Xbox1 E3 Präsentation auf PC Hardware mit Intel/Nvidia Hardware?
ha..ha..ha..

Wen interessiert die Präsentation? Die DevKits sind entscheidend, und die werden mit Sicherheit mit vergleichbarer Hardware laufen, wenn nicht inzwischen schon dem finalem Silizium.

Supern0va
2013-06-16, 18:10:59
Ich glaube die finale Version wird niemals die Qualität der E3 erreichen.
Typische Konsolen-Verarsche. War bei den letzten Generationen ja auch immer schon so.
Präsentation WOW.
Finale Version - Huch das sieht jetzt aber nicht mehr so toll aus...

Ich bin schon auf einen FPS Quali Vergleich von BF4 gespannt. DF wird das gleich am Releasetag der NextGen Konsolen auswerten.

Windi
2013-06-16, 18:17:43
LOL welches Halbwissen gibst du da von dir?
Gaikai läuft mit GRID und Sony setzt auf GRID.
Des weiteren ist Gaikai kein alleiniges Projekt von Sony - Da sind noch zig weitere Firmen daran beteiligt.
Cloud Gaming befindet sich noch in den Kinderschuhen, die vorhandenen Hardwarebasis ist noch klein und kann schnell ausgewechselt werden. Was ist eigentlich so besonders an der Cloud Gaming Hardware? Doch nur der integrierte Video Encoder der die Latenzen zum Client etwas senkt (im Vergleich zum Software Encoder). Selbst die PS4 hat so einen integriert für die Gaming Videos. Wahrscheinlich ist der SoC der PS4 sogar schon "Cloud Gaming Server tauglich". Mit der PS4 hat Sony in Zukunft hunderte Spiele die man auch per Cloud verfügbar machen könnte. Was macht da mehr Sinn, eine Art PS4-SoC als Server zu verwenden und alle Spiele mit nur kleinen Anpassungen nutzen zu können oder auf NV, PCIe und Intel zu setzen und alle Spiele nochmals stark überarbeiten zu müssen.

Auch dürfte der PS4-SoC deutlich günstiger sein als irgendwelche Spezialhardware von NV.

Undertaker
2013-06-16, 18:31:20
Auch dürfte der PS4-SoC deutlich günstiger sein als irgendwelche Spezialhardware von NV.

Will ein Cloud-Gaming-Anbieter nicht möglichst mit einem System PC- und Konsolen-Spiele verschiedenster Plattformen gleichermaßen abdecken? Zumal eine Konsole selbst viel zu abgekapselt sein dürfte, um diese direkt für Streaming einsetzen zu können.

Windi
2013-06-16, 18:44:19
Will ein Cloud-Gaming-Anbieter nicht möglichst mit einem System PC- und Konsolen-Spiele verschiedenster Plattformen gleichermaßen abdecken? Zumal eine Konsole selbst ein viel zu abgekapselt sein dürfte, um diese direkt für Streaming einsetzen zu können.
Ist halt eine Kostenfrage.
Natürlich muss man alle Spiele anpassen.

Wenn aber ein Spiel massiv die GPU als Coprozessor einsetzt, dann bekommt momentan jede PC-Hardware ihre Probleme (Dank PCIe). Und das kann dir bei allen drei Konsolen passieren. Das könnte man wohl nur mit massiv mehr CPU Power erschlagen.
Auf einem PS4-SoC sollte man alles anbieten können, was auf einer PS4, Xone oder WiiU läuft. Nur halt ein paar PC Titel nicht.
Wie gesagt, auch diese Anpassungen kosten Geld, aber die Portierung von SoC zu non-SoC dürfte deutlich aufwendiger sein.

basti333
2013-06-16, 22:10:31
Cloudgaming hat sich bisher noch nicht durchgesetzt, insofern ist es momentan irrelevant das AMD hier keine Marktanteile hat. Falls cloudgaming mal groß rauskommen würde, sehe ich kein grundlegendes Hindernis für AMD hier auch Fuß zu fassen.

Blediator16
2013-06-16, 23:01:24
Und deswegen lief die Xbox1 E3 Präsentation auf PC Hardware mit Intel/Nvidia Hardware?
ha..ha..ha..

Da gibts es eine simple Antwort drauf:

Intels CPUs sind schneller als AMDs und die 780 bzw Titan ist eben ein Monstrum auf dem GPU Markt. Man wollte einfach das leistungsfähigste haben.

HOT
2013-06-17, 09:12:50
Cloud Gaming wird sich auch niemals durchsetzen... wer bei Verstand will so einen Mist?

tobor
2013-06-17, 12:40:29
Solange sie keine x86 Lizenz bekommen, oder irgend einen wirklich großen Mobile Deal landen, ist die Tegra sparte nicht wirklich von interessant.

Seit Windows auf Arm möglich ist,ist das ganze relevant. Für ein bisschen Office und Internet reichen bereits die jetzigen Arms aus. Bleibt die Frage,wann sie mindestens so gut wie ein Amd Jaguar sind.
Die Bedeutung der Cpu für Spiele ist in den letzten Jahren eh drastisch gesunken,anderfalls würden in den neuen Konsolen keine Netbookkrücken stecken.

Ailuros
2013-06-17, 14:45:49
Seit Windows auf Arm möglich ist,ist das ganze relevant. Für ein bisschen Office und Internet reichen bereits die jetzigen Arms aus. Bleibt die Frage,wann sie mindestens so gut wie ein Amd Jaguar sind.
Die Bedeutung der Cpu für Spiele ist in den letzten Jahren eh drastisch gesunken,anderfalls würden in den neuen Konsolen keine Netbookkrücken stecken.

Hat Microsoft ihre Projektionen erreicht mit den bisher verkauften windowsRT Geraeten?

StefanV
2013-06-17, 15:56:05
Seit Windows auf Arm möglich ist,ist das ganze relevant. Für ein bisschen Office und Internet reichen bereits die jetzigen Arms aus. Bleibt die Frage,wann sie mindestens so gut wie ein Amd Jaguar sind.
Die Bedeutung der Cpu für Spiele ist in den letzten Jahren eh drastisch gesunken,anderfalls würden in den neuen Konsolen keine Netbookkrücken stecken.
Und die anderen Anwendungen?! Wie zum Beispiel Moorhuhn?

RavenTS
2013-07-07, 11:23:23
Cloud Gaming wird sich auch niemals durchsetzen... wer bei Verstand will so einen Mist?

Online-DRM-Verdongelung von Spielen mit allen vorhandenen Nachteilen sollte jeder mit Verstand auch nicht wollen ... und?

ilibilly
2013-07-08, 11:22:06
Irgendwann wenn die Technik passt wird's interessant aber solange noch kein flächendeckendes Vdsl mit Pingzeiten unter 20ms gibt und dank Telekom keine echten flats wird das nix