PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bekommen die CPU Hersteller "Probleme"?


ESAD
2008-06-06, 11:02:01
Seit jahren steigt die Cpu leistung unaufhaltsam und die nächsten großen sprünge hin zu octacore werden erwartet. Inzwischen hat wahrscheinlich ein mittelklasse aldi pc genung leistung um das gesamte atomwaffenarsenal der welt zum zielpunkt zu führen (um es mal überspitzt zu sagen).

was sich vorallem bemerkbar macht ist, dass die software hinterherhinkt(ja verbesserungen sind bemerkbar). ob teils durch die schwierige programmierung, die nicht gesehene notwendigkeit der ausrichtung auf multicore, oder weil das backbone einfach nicht mehr hergibt.
aber nicht nur bei der programmierung hinkt die software hinterher, auch bei den killerapplikationen wo man sagt, ja jetzt brauche ich dem quadcore, weil ich damit 2 mal so schnell arbeiten kann, stehe ich nichts am horizont?

auf jeden fall lässt sich bemerken, dass der ertrag nachlässt. wunder das einen? ich denke nicht, denn 8 cores auszulasen ist nunmal schwieriger als einen (geschweige denn man findet überhaupt genung arbeit als otto normal user)

so nun nach alle den vielen worten wo sehe ich das problem? ich sehe das problem in der leistung die heutige cpus schon für 100€ entfalten(was über höheren absatz nach stückzahlen kompensiert wird). ich sehe das problem darin da imo die normalen büro arbeiter die hauptabnehmer für cpus sind. das die leute die nicht spielen, nicht rendern, nicht server mit 600000 usern laufen haben die meisten cpus kaufen.

natürlich ist jede leistung die man mehr hat gut und auch bei den firmen wird sich zeigen ob sie nicht durch abschreibungen, etc. begünstigt nicht doch regelmäßig die hardware wechseln.

auch in der softwaregrundlast (aka betriebssystem, VMs für .net, java, usw.) ist sicher noch eine steigerung möglich wobei wir bei dem heutigen system bald (5-10jahre) den peak der sinnvollen nutzung erreicht werden haben und neue konzepte hermüssen um zumindest für mich noch mehr rechnleistungsverbrauch zu legitimieren.

also was passiert wenn der peak erreicht ist? wenn ich eine cpu 5 jahre nutzen kann ohne eine verbesserung zu merken wenn ich eine neuere einsetzen würde? wenn ein jeder auf der welt seinen laptop/eee pc/smartphone,nettop,XOPC, etc. hat? dort bewegen wir uns hin und es wird noch jahre dauern doch werden die großen firmen aller intel/amd (welche sich um ihren schnitt zu halten mehr und mehr bereiche suchen um mitzumischen) am ende deutliche einbußen hinnehmen müssen?

natürlich sagt man das bei jeder neuen hardware das man die ja nie auslasten kann und man nie eine neue braucht aber die leistungssteigerung in den letzten jahren wahr so gewaltig wie nie zuvor.

Matrix316
2008-06-06, 11:06:35
Ich denke mal, wenn man die KI wirklich versucht auszureizen, würden auch heutige Quadcores an ihre Grenzen kommen. Die Realität ist so komplex, dass die Leistung der aktuellen CPUs sicher noch sehr viel stärker sein müssen, um diese wirklich nah abzubilden.

seahawk
2008-06-06, 11:08:16
Nur dürfte der Programmieraufwand für eine solche KI eben auch deftig sein.

Gast
2008-06-06, 13:37:32
Ein weiteres Problem ist, daß Grafikkarten immer mehr Aufgaben übernehmen.Etwa Geometrie,Spielphysik.Auch Ai auf der Gpu ist möglich.Beim Transcodieren ist die Grafikkarte ebenso deutlich schneller.Wozu also immer leistungsfähigere Cpus??

Odal
2008-06-06, 13:43:10
Ein weiteres Problem ist, daß Grafikkarten immer mehr Aufgaben übernehmen.Etwa Geometrie,Spielphysik.Auch Ai auf der Gpu ist möglich.Beim Transcodieren ist die Grafikkarte ebenso deutlich schneller.Wozu also immer leistungsfähigere Cpus??


versteh ich teilweise auch nicht zumindest als "heimanwender"
darum muss ich immer mit dem kopf schütteln wenn mir leute erzählen wollen ich bräcuhte unbedingt ne schnellere cpu ^^

Gast
2008-06-06, 13:46:28
Eine (völlig unqualifizierte) Idee: Mainframes mit Terminals. Klingt veraltet? Eine Firma kann einen Computer mit x Cores aufstellen, welcher von mehreren Nutzern, die lokal nur einen Thin-Client besitzen, leichter ausgelastet werden kann. Kombiniert man das noch mit diversen virtuellen Maschinen, die auf dem gleichen Hauptrechner laufen können, machen die neuen Prozessoren schon Sinn. Allerdings müssten sie dann preislich auch entsprechend positioniert werden, da man als Prozessorhersteller ja nicht mehr grosse Stückzahlen der neusten Technologie verkaufen würde.

Anarchy-HWLUXX
2008-06-06, 14:01:59
Der Speedzuwachs der Hardware wird zwangsläufig von der Software aufgefressen ... da brauchen sich die Hersteller keine sorgen machen.

Gast
2008-06-06, 21:03:47
versteh ich teilweise auch nicht zumindest als "heimanwender"
darum muss ich immer mit dem kopf schütteln wenn mir leute erzählen wollen ich bräcuhte unbedingt ne schnellere cpu ^^
Am lächerlichsten sind dann diese Mediamarkt- und Aldirechner.Fetter Quadcore in Kombination mit einer 8500Gs von Nvidia.Und dann wundern sich einige,warum der Pc als Spieleplattform an Bedeutung verliert.Wie wäre es denn mit einem ordentlichen Dualcore + einigermaßen spieletauglichen Grafikkarte wie der 9600Gt?

pest
2008-06-06, 21:20:57
ich kann als Bsp. ja mal meinen Lossless-Audio-Coder hernehmen. Der quetscht halt die letzten 2% raus und dafür braucht er eben unglaublich mehr Rechenleistung. Mathematisch betrachtet ist das ganze rel. einfach und trotzdem ist er verhältnismäßig lahm. Im "wissenschaftlichen" Bereich kann es nie genug FP-Power geben...salopp gesagt ;)

Gast
2008-06-06, 21:31:17
Mal von schlecht gemachten Monsterapplikationen abgesehen, wird DIE (intelligente) Killerapplikation in den nächsten Jahren nicht kommen. Woher ich das weiss?
Google&Co. hätten genug Rechenpower, oder könnten diese aufbauen, und online stellen. Tun sie aber nicht. Ergo - geht nicht. Vernetzung und Thin-Clients ("Netbook") wird das Thema der Zukunft sein.


(Oktacore brauchts vielleicht fürn Bundestrojaner oder andere Schrottfeatures, die keiner braucht)

Liszca
2008-06-09, 02:24:55
also was passiert wenn der peak erreicht ist? wenn ich eine cpu 5 jahre nutzen kann ohne eine verbesserung zu merken wenn ich eine neuere einsetzen würde? wenn ein jeder auf der welt seinen laptop/eee pc/smartphone,nettop,XOPC, etc. hat? dort bewegen wir uns hin und es wird noch jahre dauern doch werden die großen firmen aller intel/amd (welche sich um ihren schnitt zu halten mehr und mehr bereiche suchen um mitzumischen) am ende deutliche einbußen hinnehmen müssen?


Einbußen werden sie nur im geringen maß haben, sie werden dann einfach ihre strategie ändern, vorstellbar ist daß es ja so weiter geht, weniger energieverbrauch bei gleichbleibender leistung.

Argoth
2008-06-09, 08:27:51
Eine (völlig unqualifizierte) Idee: Mainframes mit Terminals. Klingt veraltet? Eine Firma kann einen Computer mit x Cores aufstellen, welcher von mehreren Nutzern, die lokal nur einen Thin-Client besitzen, leichter ausgelastet werden kann. Kombiniert man das noch mit diversen virtuellen Maschinen, die auf dem gleichen Hauptrechner laufen können, machen die neuen Prozessoren schon Sinn. Allerdings müssten sie dann preislich auch entsprechend positioniert werden, da man als Prozessorhersteller ja nicht mehr grosse Stückzahlen der neusten Technologie verkaufen würde.

Dieser Ansatz ist weder völlig veraltet, noch unqualifiziert...

Besonders im Office Bereich bei grossen Firmen die viele verschiedene Standorte haben (Reisegesellschaften z.b.) werden oft Terminal-Server und Thin-Clients eingesetzt. Aus dem ganz einfachen grund, dass der benötigte Vorort Support viel kleiner ausfällt womit viele Kosten gespart werden können.

Die heutige Halbleiter-Transistoren Technik wird in nicht all zu ferner zukunft wirklich an seine Grenzen stossen, danach werden andere Technologien benötigt um leistungsfähigere Rechner zu produzieren (Quantencomputer z.b.)... die Frage ist nur wann damit begonnen wird in neue Technologien zu investieren.

Spasstiger
2008-06-09, 08:36:41
Im Bereich der Visualisierung wird man auch als Heimanwender stets mehr Rechenleistung brauchen. UHDTV, 3D-Fernsehen (irgendwann), immer realitätsgetreuer präsentierte Spiele mit immer ausgeklügelterer Physik.

Dazu kommt, dass man ungenutzte Rechenleistung einem Distributed-Computing-Projekt zukommen lassen kann, was zukünftig sogar gewinnbringend sein könnte (Sony plant zumindest, diesen Ansatz mit der Playstation 3 zu kommerzialisieren).

S940
2008-06-09, 10:51:26
Zukunft der CPU Hersteller aus AMD Sicht:
http://stanford-online.stanford.edu/courses/ee380/080604-ee380-300.asx

Kleiner Artikel dazu:
http://www.theregister.co.uk/2008/06/06/moore_cell_amd/

ciao

Alex

Bokill
2008-06-09, 11:24:36
Eine (völlig unqualifizierte) Idee: Mainframes mit Terminals. Klingt veraltet? Eine Firma kann einen Computer mit x Cores aufstellen, welcher von mehreren Nutzern, die lokal nur einen Thin-Client besitzen, leichter ausgelastet werden kann. Kombiniert man das noch mit diversen virtuellen Maschinen, die auf dem gleichen Hauptrechner laufen können, machen die neuen Prozessoren schon Sinn. Allerdings müssten sie dann preislich auch entsprechend positioniert werden, da man als Prozessorhersteller ja nicht mehr grosse Stückzahlen der neusten Technologie verkaufen würde. Du scheinst so ziemlich genau das Nutzerprofils eines IBM-Mainframes mit dem z10-Prozessor (http://www.orthy.de/index.php?option=com_content&task=view&id=5364&Itemid=86) zu beschreiben :D

Man mag sich zwar wundern, aber es wurde mir von IBM mitgeteilt, dass ein bedeutsamer Spielepublisher für ihre Ohnline-Spielewelten genau dafür einen aktuellen z10-Mainframe bestellt hat, damit er viele einzelne x86-Rechner ersetzt.

Das macht die Wartung "leichter", da die Datensicherheit, Virtualisierung und Bewältigung des dort anfallenden weltweiten Datentraffics im gekauften z10-System höhere Standards einhält.

MFG Bobo(2008 )

Krischi
2008-06-09, 13:44:01
Es hat sich bis jetzt gezeigt, dass gerade in der IT-Welt eine zyklische Entwicklung stattfindest, um nicht zu sagen eine sich wiederholende...

Die Idee mit Mainframes und Thinclients ist fast so alt wie diese "junge" Disziplin. Jetzt wird's wiederentdeckt und die, die es nicht besser wissen, halten es für was total neues.

Wenn dann, sagen wir auf Grund eines technologischen Sprungs, die Leistung pro cm² wieder rasant steigt, geht die Entwicklung sicher wieder weg von Parallelität, hin zur Beschleunigung einzelner Aufgaben ("Taktrate"). Wenn da wieder eine Grenze in die Nähe rückt, wird wieder parallelisiert... und so weiter, und so fort...

Wir werden sehen...

RavenTS
2008-06-09, 18:25:27
Also ich sehe kaum Probleme für die CPU-Hersteller. x86 hat nun eine gewissen Rechenleistung erreicht, die dank Mehrkern-CPUs nahezu beliebig skaliert werden kann, jetzt beginnt halt wieder verstärkt die Ausdifferenzierung des Portfolios (Atom, Nano, Octacore...) bis "neue CPUs" mit vielen verschiedenen Spezialkernen vielleicht mal wieder einen breiteren Weg vorgeben...

Gast
2008-06-09, 18:26:27
x86 hat nun eine gewissen Rechenleistung erreicht, die dank Mehrkern-CPUs nahezu beliebig skaliert werden kann,

kann sie eben in der praxis ganz und garnicht, mit außnahme von einigen spezialanwendungen.

][immy
2008-06-09, 20:51:44
versteh ich teilweise auch nicht zumindest als "heimanwender"
darum muss ich immer mit dem kopf schütteln wenn mir leute erzählen wollen ich bräcuhte unbedingt ne schnellere cpu ^^

das nennt man wahrscheinlich gute werbung :)

aber es ist schon so, das mir PCs mit windows (sei es 95, 98, 2000, XP, Vista) mit der zeit immer langsamer vorkommen. die hardware bleibt gleich, die festplatte kann man formatieren und das system neu installieren. dadurch wird es zwar meist wieder etwas flotter, scheint aber doch um einiges langsamer zu laufen als in den anfangszeiten.
dieses phenomen kann ich grad wieder bei dem laptop meiner frau beobachten. der lief jetzt bis zu dem zeitpunkt wo wir ihn wieder mal neu aufgesetzt haben wahnsinnig langsam. nach der neuinstallation von XP lief er zwar wieder schneller, aber subjektiv lange nicht so schnell wie zu der Zeit als er ganz neu war und dabei habe ich nichts anderes gemacht als die windowsupdates installiert. trotzdem scheint er langsamer geworden zu sein.

Rooter
2008-06-09, 21:58:09
x86 hat nun eine gewissen Rechenleistung erreicht, die dank Mehrkern-CPUs nahezu beliebig skaliert werden kann
Schon aber da hängt es ja vor allem an der Software. Nicht die Spezialsoftware wie Rendering o.ä., das geht ja schon einigermaßen. Auch Spiele meine ich nicht, eher Standardanwendungen und vor allem das OS!
Wenn wir da so weit sind kann auch die 80-Core-CPU kommen (Intel iirc?)

MfG
Rooter

ZilD
2008-06-10, 15:52:40
pfff kann mich gar nicht mehr genau erinnern aber einige top hardwarehersteller bringen jetzt erst 64 bit treiber.
XD
man kann also mit einer latenz von etwa 5 jahren rechnen.
softwareseitig genauso.

mehrkern cpus bringen nichts ... von mir aus mach einen 64 core cluster mit handy chips ... wird auch nicht schneller sein als ein normaler pentium single core mit 1 GHz.

grobi
2008-06-10, 17:24:09
Hallo!

Ich denke irgendwann wird die x86 CPU co-Prozzis zur Seite gestellt bekommen die gewisse Dinge um ein vielfaches schneller bewältigen können, x86 wird dann nur noch für die Kompatibilität erhalten bleiben müssen. Irgendwann wird es ein Ende/Verlangsamung der Strukturverkleinerung geben und da müssen neue Konzepte her ob es nun über CoProzessoren gelöst wird bleibt mal dahingestellt.

gruss grobi

ThEgRaZe
2008-06-10, 18:06:16
Nur AMD bekommt Probleme

Aber Intel kann ruhig die Forschungsabteilung für 1-2 Jahre aufgeben...sind trotzdem noch Monopol

haifisch1896
2008-06-10, 20:09:37
An sich arbeitet die CPU doch schon lange Zeit mit austauschbaren Co-Prozessoren wie GPUs, Audiochips, Videochips usw.
Eigentlich ist es nur daran, dieses System zu verfeinern und so weit als möglich zu vereinheitlichen.

So wie früher: Gleicher Sockel, gleiches Subsystem, gleicher Speicher etc. tata.

Nur das dieses System halt irgendwann alles auf einem Package landen wird und mein Traum von einem einzigen Sockel eben ein Traum bleiben wird.

=Floi=
2008-06-11, 21:52:55
ich denke nicht, dass das ende nahe ist. Es werden die resourcen genutzt, sobald die flächendeckend verfügbar sind und der pc ist die letzten jahre schon schneller geworden!

Gast
2008-06-12, 15:54:03
An sich arbeitet die CPU doch schon lange Zeit mit austauschbaren Co-Prozessoren wie GPUs, Audiochips, Videochips usw.
Eigentlich ist es nur daran, dieses System zu verfeinern und so weit als möglich zu vereinheitlichen.

So wie früher: Gleicher Sockel, gleiches Subsystem, gleicher Speicher etc. tata.

Nur das dieses System halt irgendwann alles auf einem Package landen wird und mein Traum von einem einzigen Sockel eben ein Traum bleiben wird.
Wo soll der Sinn sein?Dann kann man nicht mehr modular aufrüsten,sondern muss gleich alles austauschen,wenn nur einen Komponente nicht mehr ausreichende Leistung liefert.Das jetzige,modulare System ist viel besser.Letzendlich auch für den Geldbeutel.

Krischi
2008-06-12, 16:28:19
Am praktischsten wäre es aber, dieses modulare System auf die Spitze zu treiben.... sprich alle Baugruppen, egal was sie beherbergen, in den gleichen Slot/Steckplatz/Sockel... Mainboards mit Standardausgängen, deren Beschaltung variabel ist, dazu dann 4 oder 6 oder weiß ich wieviele "Multi"Sockel, in welche dann Rechenkerne mit unterschiedlicher Spezialisierung eingebaut werden (Audio/Video-Beschleunigung, "general purpose" (heutige CPU), etc...) dann über ein BIOS-ähnliches System die Ausgänge konfigurieren (an der Stiftleiste hängt das Videosignal, da das Audiosignal etc.)...

Vorteile in meinen Augen: totale Flexibilität... jeder kann sich sein System nach seinen Wünschen mit entsprechenden Rechenkernen anpassen. Otto-Normal-Gamer nutzt einen general purpose-Rechenkern, einen Audio- und einen Videobeschleuniger (oder zwei ^^). Server nutzen mehr vielleicht spezielle Rechenkerne für was-weiß-ich-Geschichten...

Ist Idee sehr abwegig? Ich finde nicht...

Mr.Magic
2008-06-12, 16:47:31
Ist Idee sehr abwegig?

Ja, das ist sie.

Dadurch würden alle Mainboards abartig teuer (512bit Bus, fest verlöteter Speicher etc.), oder es gäbe zig verschiedene Modelle, die zueinander inkompatibel sind bzw. auf Sockel verzichten.

Krischi
2008-06-12, 20:08:08
Im Gegenzug würden die Erweiterungsprozessoren billiger werden, da sie auf ein eigenes PCB etc. verzichten könnten. Und wozu bitte ein 512Bit breiter Bus? Ein oder mehrere HT-Links (32Bit, 2GHz, DDR) bieten 128*10^9Bit Bandbreite, was einzeln oder in Paaren für die fällige Kommunikation untereinander genügen sollte.
Ergo das, was AMD ja auch heutzutage versucht anzuregen.

Edit: Speicher sowohl in gewissen Mengen im DIE oder auf dem Package, als auch vielleicht einzeln dazu steckbar.

Edit2: HT ist ja in Version 3.0 sogar noch schneller (bis 2,6GHz), ergo 166,4*10^9Bit Bandbreite.

Mr.Magic
2008-06-12, 21:00:24
Ein gesockelter Grafikchip braucht immer noch eine Verbindung zum (dann auf dem Board zu verlötenden, sonst ist er zu langsam, oder man braucht immens teuere Steckverbindungen) Speicher. Will man das Board nicht in kürzester Zeit austauschen müssen, sollte diese mindestens 512bit breit sein.

Für Leute, die kein High-End wollen, bräuchte man günstigere Boards, mit schlechteren Aufrüstmöglichkeiten. Dann hat man z.B. 5-10 verschiedene Mainboards, und kann zwar die teuerste GPU auf die billigsten MBs stecken, aber die drehen dann nur Däumchen bzw. werden brutalst ausgebremst, weil Speicherbandbreite fehlt.

Einfach nur Chips/Sockel aufs Mainboard klatschen funktioniert nicht.

Krischi
2008-06-12, 22:31:41
Hm, vier HT-Links haben eine Bandbreite rund 77GiByte/s und würden 128Bit-Verdrahtug benötigen... derer 6 oder entsrpechend mehr, aber immer noch keine 512Bt.
Sicher wäre es bei einem solche Konzept zu überlegen, wie und in wleche Art und Weise man den Speicher am klügsten in das System einbindet... außerdem wäre es zum beispiel ja auch möglich, keine dedizierten Speicher mehr zu haben, sondern einen systemweiten, der je nach Anforderung zwischen den Recheneinheiten aufgeteilt werden kann. Speziell Grafik könnte so eine Architektur doch stark entgegenkommen, da sie Parallelisierung begünstigt. Ein heutiger Grafikchip ist auch fast "nur" eine Einheit aus parallelgeschalteten Untereinheiten, die an ihrem eigenen Speicher hängen.

Und was ist an 5-10 Boards viel? Wieviele verschiedene gibt es denn heutzutage?
Und warum ausgebremst? Kann heute genauso passieren (P4 - SDRAM statt RAMBUS z.B.). Und was zueinander passt und was nicht, ist eine Frage der Standardisierung. Und der HT-Link zumindest ist atandardisiert.

Sicher ist das mehr ein theoretisches Gedankenspiel im Moment, aber nicht so abwegig, wie du meinst.

Gast
2008-06-13, 05:54:53
auch in der softwaregrundlast (aka betriebssystem, VMs für .net, java, usw.) ist sicher noch eine steigerung möglich wobei wir bei dem heutigen system bald (5-10jahre) den peak der sinnvollen nutzung erreicht werden haben und neue konzepte hermüssen um zumindest für mich noch mehr rechnleistungsverbrauch zu legitimieren.

Desktopsuche, die legitimiert:

http://de.wikipedia.org/wiki/Desktopsuche
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421219

Gast
2008-06-13, 06:05:03
[immy;6569435']das nennt man wahrscheinlich gute werbung :)

aber es ist schon so, das mir PCs mit windows (sei es 95, 98, 2000, XP, Vista) mit der zeit immer langsamer vorkommen. die hardware bleibt gleich, die festplatte kann man formatieren und das system neu installieren. dadurch wird es zwar meist wieder etwas flotter, scheint aber doch um einiges langsamer zu laufen als in den anfangszeiten.

Das liegt daran weil die Software fetter geworden ist und mehr können muß.
Siehe Desktopsuche, siehe Verwendung von Wartungsfreundlichen Interpretersprachen wie Python für GUI Programme.

Früher hat man die Desktopsuche weggelassen, da technisch nicht realisierbar
und die Programme in C geschrieben weil es auch da nicht anders ging.
Man hatte dann zwar wartungsunfreundlichen Code und hohe Entwicklungskosten,
aber es lief auf den damaligen lahmen Krücken wenigstens noch akzeptabel schnell genug.

Um der Miesere also zu entkommen mußt du noch 10 weitere Jahre warten, bis nichts mehr neues wie z.b. die Desktopsuche und 3d Desktops dazukommt
oder du mußt ein OS einsetzen das die modernen Ansätze verfolgt,
aber noch performant programmiert wurde.
Das wäre z.B. BeOS, bzw. Haiku.
http://de.wikipedia.org/wiki/Haiku_(Betriebssystem)

Damit läuft der Rechner gefühlt sicher schneller.

Gast
2008-06-13, 06:26:27
Hallo!

Ich denke irgendwann wird die x86 CPU co-Prozzis zur Seite gestellt bekommen die gewisse Dinge um ein vielfaches schneller bewältigen können, x86 wird dann nur noch für die Kompatibilität erhalten bleiben müssen.

Die x86 Architektur ist auf modernen x86 CPUs schon sehr gut abstrahiert!
Und die SSE Einheiten haben wie ja schon jetzt.

Gast
2008-06-13, 06:28:04
Nur das dieses System halt irgendwann alles auf einem Package landen wird und mein Traum von einem einzigen Sockel eben ein Traum bleiben wird.

Kauf dir eine ARM CPU, die kann das.

CPU, FPU, 3d Grafikkern, Audiochip etc., da ist alles in einem auf einem Sockel.

Gast
2008-06-13, 06:31:29
Am praktischsten wäre es aber, dieses modulare System auf die Spitze zu treiben.... sprich alle Baugruppen, egal was sie beherbergen, in den gleichen Slot/Steckplatz/Sockel... Mainboards mit Standardausgängen, deren Beschaltung variabel ist, dazu dann 4 oder 6 oder weiß ich wieviele "Multi"Sockel, in welche dann Rechenkerne mit unterschiedlicher Spezialisierung eingebaut werden (Audio/Video-Beschleunigung, "general purpose" (heutige CPU), etc...) dann über ein BIOS-ähnliches System die Ausgänge konfigurieren (an der Stiftleiste hängt das Videosignal, da das Audiosignal etc.)...


Und dann verschwenden wir einen der High-End Sockel für einen Popeligen Audio DSP Chip.
Nein danke, das bringt nichts!



Vorteile in meinen Augen: totale Flexibilität...

Ja und ein höherer Preis.

Der PCI-Express Bus ist aus gutem Grund nicht so schnell getaktet wie eine CPU.


Ist Idee sehr abwegig? Ich finde nicht...

Ist sie aber!

Mr.Magic
2008-06-13, 09:32:59
Hm, vier HT-Links haben eine Bandbreite rund 77GiByte/s

Das ist viel zu wenig Bandbreite für aktuelle Grafiklösungen.

Mit einem ollen 8800GTX-SLI (Technologiestand 2006) biste bereits bei ~140GB/s (Single, non-OC 8800GTX ~86GB/s).

Krischi
2008-06-13, 10:14:48
Sicher ist da noch Potential vorhanden, der HT-Link ist ein Beispiel dafür, was als Interlink genutzt werden kann. Es kann genauso gut eine andere Technologie verwandt werden. Ging mir auch darum zu sagen, dass ein 512Bit breiter Bus in meinen Augen nicht nötig ist. SLI anzuführen halte ich hier für falsch, da sich die Bandbreite nicht verdoppelt dadurch. Und nähme man von mir aus 8 HT-Links der aktuellen Generation, wäre man immer noch bei "nur" 256Bit in Summe und hätte rund 154GiByte/s Bandbreite. Das Speicheranbindungsproblem kann aber auch durch Cachestufen, eDRAM (und ähnlichen Techniken) und schnellere serielle Busse gelöst oder zumindest entschärft werden.

Wenn ein Audio DSP so popelig ist, dann frage ich mich, wozu es teure und gute Soundkarten gibt... sicher nicht nur, weil die besonders viele analoge Bauteile tragen... wenn er so popelig ist, dann rein damit in die general pupose-Recheneinheit oder eine gebündelte I/O-Einheit (heutige Southbridge).

Sicher werden Boards teurer, aber die aufzusteckenden Chips könnten billiger werden. Sollte sich preislich relativieren und trotzdem mehr Flexibilität bieten.

Mr.Magic
2008-06-13, 10:40:27
Natürlich erhöht sich durch SLI die Bandbreite. Beide Karten rechnen (bei AFR) unabhängig an einem kompletten Bild, jeweils mit voller Bandbreite auf einem eigenen PCB.

Für Triple-SLI bräuchte man auf einem Mainboard also schon drei GPU-Sockel, mit drei unabhängigen Speicheranbindungen - zu voneinander unabhängigem Speicher auf dem Mainboard (mindestens 3x1GB GDDR für GTX280). Unter 300GB/s pro Leitung braucht man auch nicht anfangen, sonst braucht man spätestens beim übernächsten GPU-Wechsel auch ein neues Mainboard (ich hatte z.B. meinen 2.2Ghz Athlon XP von 2002 bis 2006 - solange wurde nur die GraKa getauscht [und von einem auf 2GB aufgerüstet], das sind vier GPU-Generationen*).

Habe ich eigentlich schon erwähnt, das die Idee vollkommen unpraktisch ist, z.B. wenn man den Grafikspeicher aufrüstbar machen wollte (benötigt ein teueres und empfindliches Stecksystem).

*Meinen aktuellen C2Q werde ich wohl auch eine Weile behalten können (Update vom 2006er Q2D nur, weil ich mein altes Zeug innerhalb der Familie weitergab). Je nachdem, wie die nächste Konsolengeneration aussieht, kann es sein, dass bis 201x nur die Grafikkarte getauscht wird (kleine Updates wie HDD -> SSD ignoriere ich hier mal).

Krischi
2008-06-13, 10:57:37
Würdest du bei einem Dual-Prozessorsystem auch von verdoppelter Bandbreite sprechen, wenn jede CPU nur an ihren Speicher herankommt?

Ich hatte mein Sockel-A-System auch von 2002 bis knapp 2007 und immer fleißig die GraKa getauscht ;-). Und nun hoffe ich, bald einen vernünftigen AM2+ / AM3-Prozessor nutzen zu können. RAM und Graka sollten erstmal genügen für eine Weile, SSD ist mir noch zu teuer, obwohl es mich schon sehr in den Fingern juckt.

Ich kann schon verstehen, was du meinst, finde aber, dass das Beispiel extremer Natur ist (Triple-SLI).

Was ich mit der ganzen Sache versuche zu erreichen ist ein Gedankenmodell, dass Aufrüstbarkeit und Flexibilität auf die Spitze treibt. Nicht mehr ein Sockel für dies, ein Slot für das, sondern einen für möglichst viel bis alles, was "tauschbar" sein sollte. Sprich alle spezialisierten Recheneinheiten plus vielleicht I/O-Schnittstellen.
Einige wenige Boards könnten den größten Anforderungsbereich abdecken, vom Home-Computer über die Workstation bis zum Server. Je nach Aufgaben werden entsprechende Spezialbauteile dem System hinzugefügt. Klingt für mich verlockend... ich will ja gar nicht bestreiten, dass die Umsetzung nicht einfach ist.

Gast
2008-06-13, 11:12:13
Wenn ein Audio DSP so popelig ist, dann frage ich mich, wozu es teure und gute Soundkarten gibt... sicher nicht nur, weil die besonders viele analoge Bauteile tragen... wenn er so popelig ist, dann rein damit in die general pupose-Recheneinheit oder eine gebündelte I/O-Einheit (heutige Southbridge).

Es sind in der Tat die Anzahl der Kondensatoren die gute Soundkarten ausmachen.
Die sorgen nämlich für ein homogenes Klangbild.

Bei Gamerkarten wie die SB Serie von Creative zahlst du hauptsächlich für den Markennamen.
Aber so Standard Audio DPS kosten inzwischen fast nichts mehr
und das ist auch der Grund warum man die inzwischen in die Southbridge integriert.
Ein Digitaler Audioausgang hilft dabei dann noch, das Problem wegen den Kondensatoren zu kaschieren, diese sitzen dann nämlich im Verstärker oder in den Aktivboxen.

Gast
2008-06-13, 11:15:26
Was ich mit der ganzen Sache versuche zu erreichen ist ein Gedankenmodell, dass Aufrüstbarkeit und Flexibilität auf die Spitze treibt. Nicht mehr ein Sockel für dies, ein Slot für das, sondern einen für möglichst viel bis alles, was "tauschbar" sein sollte.

Das hätte vielleicht vor 20 Jahren noch funktioniert, als die Entwicklung noch etwas ruhiger verlief, aber heutzutage ist dazu die Lebensspanne der Hardware einfach viel zu kurz.

Mr.Magic
2008-06-13, 11:23:34
Würdest du bei einem Dual-Prozessorsystem auch von verdoppelter Bandbreite sprechen, wenn jede CPU nur an ihren Speicher herankommt?

Ja, absolut, wenn sich dadurch die Rechenleistung GENERELL UND PROGRAMMUNABHÄNGIG fast verdoppeln würde.

Triple-SLI ist nicht extrem. Es ist High-End. Um allen Anforderungen gerecht zu werden, müsste man eine ganze Reihe Mainboards, mit verschiedenen Layouts und Platinen, auf den Markt werfen. Genau das führt die Flexibilität ad absurdum, da eine High-End GraKa ein ganz anderes PCB als eine Low-End-Karte benötigt.
Die aktuellen Slots, Sockel und Stecker werden bereits (mehr oder weniger) passend zur Hardware gewählt. Eine Grafik, Sound, Physik-karte usw. arbeitet in einer auf sie angepassten Umgebung (der Steckkarte) und tauscht nur absolut notwendige Daten mit der CPU aus.
Wälzt man das alles aufs Mainboard ab, kann es sein, dass man alle 18 Monate das komplette Mainboards tauschen darf. Was ist einfacher, GraKa rein/raus oder ein Komplettumbau? Nicht nur von dir ausgehen, immer an den "Normalo" von der Straße denken. Mein Vater kann z.B. problemlos Steckkarten tauschen, aber an einen Mainboard-Tausch inklusive Umbau aller Hardwarekomponenten würde er sich nicht wagen.

Wenn ein Audio DSP so popelig ist, dann frage ich mich, wozu es teure und gute Soundkarten gibt... sicher nicht nur, weil die besonders viele analoge Bauteile tragen... wenn er so popelig ist, dann rein damit in die general pupose-Recheneinheit oder eine gebündelte I/O-Einheit (heutige Southbridge).

Um darauf auch noch einzugehen. Es gibt Soundkarten, die lassen alles von der CPU berechnen, welche die einfache DSP-Effekte in Hardware beherrschen (z.B. SB Live!), und welche die tatsächlich den Ton entsprechend der Umgebung berechnen können (Audigy, X-Fi).
Wenn wir den momentanen OnBoard-Audio für High-End-Boards sockeln würden, damit man in dem Sockel auch eine X-Fi betreiben kann, und entsprechende Op-Amps etc. draufpacken, damit das ordentlich klingt, zahlt jemand, dem einfachster OnBoard-Ramsch sonst reichen würde für nichts den Sockel.
Flexibilität ist sowieso so eine Sache mit Sockeln statt Slots, wenn man daran denkt, was es so für Karten gibt - Grafik, Audio, Physik, KI, Netzwerk, Controller (USB, FireWire, S-ATA, Software- und Hardware-Raid), Videoschnitt, und all die anderen Superspezialkarten, die mir nicht aus dem Stehgreif einfallen.
All die Verbindungen nach außen müssten dann bereits auf dem Mainboard eingeplant sein, und zwar für alle unterschiedlichen erdenklichen Anforderungen und Eventualitäten. Wenn man da nicht mal was vergisst.

Krischi
2008-06-13, 11:58:10
Ja, absolut, wenn sich dadurch die Rechenleistung GENERELL UND PROGRAMMUNABHÄNGIG fast verdoppeln würde.

Gut, in diesem Fall kann ich da mitgehen. Das sehe ich aber z.B. bei AFR weniger als bei einem tiling-Verfahren, weil man sich bei AFR streiten kann, wirklich parallel an einem Problem gerechnet wird oder nicht. Aber darum geht's ja jetzt auch nicht...

Kurz gebündelt bist du der Meinung, dass im Moment die verschiedenen Erweiterungsmöglichkeiten quasi ausreichend sind.
Das die momentan verwendeten Busse den Geschwindigkeiten ihrer, ich sage mal, Verwender angepasst sind, ist richtig. Das hat natürlich Vorteile, ist aber weniger flexibel als ein einheitliches Bussystem für alles.... und das propagiere ich. Es hat alles sein Vor- und Nachteile und mir ist klar, dass das einen kompletten Systemwechsel über die gesamte Branche erfordert. Nun denn, mal sehen, wie es sich in Zukunft entwickelt...

Gruß Krischi

Gast
2008-06-13, 15:13:51
Gut, in diesem Fall kann ich da mitgehen. Das sehe ich aber z.B. bei AFR weniger als bei einem tiling-Verfahren, weil man sich bei AFR streiten kann, wirklich parallel an einem Problem gerechnet wird oder nicht.


unabhängiger als AFR geht es garnicht mehr, beide karten können gleichzeitig unabhängig voneinander auf ihren speicher lesend oder schreibend zugreifen.

Krischi
2008-06-13, 16:02:29
Ja aber wie will man denn dann von doppelter Bandbreite sprechen, mit welchem Bezug? Wenn jede GraKa an ihrem eigenen Bild rechnet, rechnen sie abstrakt gesehen jede an ihrem eigenen Problem. Da kann man doch nicht von doppelter Bandbreite srpechen. Es kommt doch auch keiner auf die Idee, bei einem SLI-Gespann den Speicher zu addieren ^^.

Gast
2008-06-13, 17:54:25
Ja aber wie will man denn dann von doppelter Bandbreite sprechen, mit welchem Bezug? Wenn jede GraKa an ihrem eigenen Bild rechnet, rechnen sie abstrakt gesehen jede an ihrem eigenen Problem. Da kann man doch nicht von doppelter Bandbreite srpechen.


natürlich kann man. ich würde auch nicht jedes frame als eigenes problem bezeichnen, wenn dem so wäre würde AFR ja überhaupt keinen sinn machen. ich würde viel mehr die gesamte 3d-darstellung als das zu bewältigende problem bezeichnen, aber wirklich wichtig ist diese theoretische betrachtung auch nicht.

dadurch, dass der gesamte inhalt in den speichern beider karten gespiegelt ist verdoppelt sich defacto die bandbreite, beide karten können parallel auf die volle bandbreite ihrer speicher zugreifen.


Es kommt doch auch keiner auf die Idee, bei einem SLI-Gespann den Speicher zu addieren ^^.

genau deshalb verdoppelt sich ja die verfügbare bandbreite. wäre der speicher shared würde sich die effektive bandbreite auch nicht verdoppeln sondern die gesamte bandbreite auf die beiden GPUs aufgeteilt werden.
da der speicher aber exklusiv je einer GPU gehört muss einerseits der inhalt doppelt vorhanden sein (wodurch man die speichermenge nicht addieren kann) andererseits steht allerdings jeder GPU die volle bandbreite zur verfügung, die sich gesamt gesehen verdoppelt.

Mr.Magic
2008-06-13, 18:23:27
ich würde auch nicht jedes frame als eigenes problem bezeichnen, wenn dem so wäre würde AFR ja überhaupt keinen sinn machen. ich würde viel mehr die gesamte 3d-darstellung als das zu bewältigende problem bezeichnen

Laienhaft ausgedrückt fahren die GPUs bei SLI tandem. Beide Karten strampeln fürs gleiche Programm, und der Treiber lenkt.