PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ice Storm Fighters - Was ist an dieser techdemo so toll?


Fetza
2007-01-20, 20:20:10
Hi,

also ich hab mir mal eben die neue intel techdemoe für die quad-core prozzis gezogen. Man kann ja zwei modi nutzen, einmal den high-detail mode und einmal den low-detail mode. Auf dual core läuft der high-detail mode dann dementsprechend langsam. Naja auf jedenfall kann ich nix besonderes an dieser techdemo feststellen. In der beschreibung steht wohl, das jetzt allemöglichen hintergrundberechnungen für die ki laufen und die landschaft sich praktisch alle schüsse "merkt". Aber ehrlich gesagt finde ich die demo nicht sonderlich gute werbung für die quad-core technik.

Wie seht ihr das?

greetz

Fetza

tokugawa
2007-01-20, 21:10:50
Was hast du erwartet? Gerade CPU-Zeugs ist meistens "unter der Haube".

Sentionline
2007-01-20, 21:16:52
Das eigendliche Problem bei Programme bzw. Spielen ist, das diese meist auf einen Thread konzentriert sind. Das bedeutet, das sämtliche Berechnungen die stattfinden "nacheinander" berechnet werden. Das kann problematisch werden, wenn die Threads sich gegenseitig ausbremsten und es zu einem "stottern" kommt.

Multi-Threading steckt noch in den Kinderschuhen, sodass erstmal langsame, aber notwendige Schritte gemacht werden müssen. Denn die nächsten Prozessoren werden villeicht schon 8 oder 16 Kerne haben.

Bei Spielen gibt es so viel von der CPU zu berechnen (Sound, KI, Physik, Organisation etc). Da wäre es schlau die Aufgaben zu teilen. Und genau dieses "aufteilen" der Aufgaben geschieht aktuell Softwareseitig (Betriebssystem), sodass alles sich gegenseitig ausbremst.

Eine Art KI-Hardwarechip ist aber notwendig, der die Threads häppchengerecht auf die CPU`s verteilt. Und genau dieser Chip staht aktuell noch in der entwicklung. Man erwartet eine fertigstellung eines solchen "intelligenten" Chips nicht vor dem Jahr 2012. Sollte dieser aber Marktreife erlangen, wird es ein Technologischer sprung, die wir zuletzt bei 2D zu 3D erlebt haben.

Bis dahin wird die Software optimiert, und wir müssen damit auskommen. Und was Intel da zeigt, ist ja nur eine art Studie. Die Entwicklung geht in die richtige richtung.

mfg

Gast
2007-01-20, 21:17:11
Es ist nichts anderes als unsere beliebten PR-Folien von ATI und Nvidia. Warum muß man darüber reden? ;)

Neomi
2007-01-21, 16:02:51
Bei Spielen gibt es so viel von der CPU zu berechnen (Sound, KI, Physik, Organisation etc). Da wäre es schlau die Aufgaben zu teilen. Und genau dieses "aufteilen" der Aufgaben geschieht aktuell Softwareseitig (Betriebssystem), sodass alles sich gegenseitig ausbremst.

Eine Art KI-Hardwarechip ist aber notwendig, der die Threads häppchengerecht auf die CPU`s verteilt. Und genau dieser Chip staht aktuell noch in der entwicklung. Man erwartet eine fertigstellung eines solchen "intelligenten" Chips nicht vor dem Jahr 2012. Sollte dieser aber Marktreife erlangen, wird es ein Technologischer sprung, die wir zuletzt bei 2D zu 3D erlebt haben.

Liegt es an mir oder schreibst du da tatsächlich großen Kappes? Die Aufteilung der Arbeit auf Threads macht die Applikation selber, nicht das OS. Das OS sorgt dann für die Aufteilung der Threads auf die vorhandenen CPUs bzw. CPU-Cores, sofern die Aufteilung nicht von der Applikation vorgegeben wird. Ein "KI-Chip", sofern es ihn denn gäbe, hat nichts mit der Threadverwaltung zu tun.

Sentionline
2007-01-21, 20:09:10
Liegt es an mir oder schreibst du da tatsächlich großen Kappes? Die Aufteilung der Arbeit auf Threads macht die Applikation selber, nicht das OS. Das OS sorgt dann für die Aufteilung der Threads auf die vorhandenen CPUs bzw. CPU-Cores, sofern die Aufteilung nicht von der Applikation vorgegeben wird. Ein "KI-Chip", sofern es ihn denn gäbe, hat nichts mit der Threadverwaltung zu tun.
Man kann Taktfrequenzen von Prozessoren nicht mehr erhöhen, da die Verlustleistung exorbitant ansteigt und die physikalischen Grenzen auch irgendwann erreicht sind. Wenn man Taktfrequenzen weiter erhöht, steigt die Leistungsaufnahme und damit auch die Wärmeabgabe. Ein Prozessor der doppelt so schnell getaktet ist braucht nicht das doppelte an Leistungsaufnahme, sondern fast das 4 Fache. Deswegen die Idee mit den Multicores.

Nun kommt einem natürlich die Idee, wenn ich mehrere Kerne habe kann ich ja bestimmte Dinge miteinander teilen und das ich Speicher Cache & ähnliches gemeinsam verwenden kann. Sodass man bei AMD beispielsweise bei den X2 Prozessoren auf fast die gleiche Leistungsaufnahme kommt, wie bei den Single-Cores oder max. Faktor 1,4.

Generell kann bei einem Dual-Core Prozessor durch einen 2. Kern die Leistusung um den Faktor 1,3 bis 1,7 erreicht werden gegenüber einer Single-Core Lösung. Das hängt von verschiedenen Faktoren ab.

Das Betriebssystem "muss" in der Lage sein, die beiden Kerne zu bedienen.

Stellt euch jemanden vor, da sitzt einer mit einer Schüssel Erbsen und soll diese Zählen, ok. Wenn aber 2 Leute diese zählen sollen, geht das dann doppelt so schnell? Nicht wirklich, weil jeder macht sein Häufchen und hinterher muss ich das noch zusammenzählen. Wenn ich aber gemischte Sachen drin habe Erbsen/Bohnen/Linsen usw. und die müssen gezählt werden, dann muss ich vorher entscheiden; "wer zählt was?" oder "kann jeder jeden Haufen machen?" oder "werden gemeinsame Häufchen gemacht?" und dann alles zusammengezählt? Das heisst, es muss eine organisation der Aufgaben stattfinden, die dauert natürlich und das kostet Zeit. Aus diesem Grund reduziert sich der Faktor der Rechenleistung bei mehreren Kernen im Vergleich zu einem Single-Core.

Problem heutiger Software ist das "Parallelisieren" von Prozessen. Das schafft man heute nicht automatisch. Das heisst, man muss vordenken. Wenn man ein Rechenprozess parallel ausführen möchte, muss man ja wissen welcher Teil welche Zeit benötigt. Aber das weiss man meist erst im nachhinein, weil es ja von Variablen abhängig ist. Und dabei kommt es immer wieder dazu das man es so statisch aufeinander aufteilt, das diese "Virtuellen" Prozessoren sich langweilen und die anderen sich zu tode ackern.

Für ein Betriebssystem ist es ganz leicht zu erkennen ob einer gerade ein Video schaut einen Download nacht und eine CD Brennt. Diese Aufgaben kann man richtig aufteilen. Wenn ich aber große berechnungen habe, oder mehr Aufgaben habe als Prozessoren zur verfügung stehen, dann muss ich wieder stückeln. Das ist die größte bremse in heutigen Rechnern.

Man versucht bei Intel einen Chip zu entwickeln, zum laufen zu bekommen, der genau diese Aufgaben dynamisch zur Laufzeit verteilen kann. Das ist eine der größten aufgaben die wir bewältigen müssen um Multi-Core Prozessoren optimal auszunutzen.

Für programierer von Spielen bsp. ist es ja schon heute möglich Threads einen eigenen Prozessorkern zuzuweisen bzw. empfehlungen für eine Aufgabe zu geben. Was aber das Betriebssystem und der Prozessor aus dieser empfehlung macht, hält sich nur in etwa daran, denn diese versuchen noch immer hier und da noch etwas zu optimieren.

Viele Gründe sprechen für einen Multicore, denn Multicore ist die Zukunft:
1. Multicore spart Strom
2. Multicore ist schneller "ohne" das die externe Taktfrequenz erhöht werden muss.

Man sollte von Multicore natürlich keine Wunder erwarten und man sollte Intel zeit geben die Entwicklung voran zu schreiten. "Ice Storm Fighters" ist ja nur ein Schritt in eine richtung, die wir ohnehin eingeschlagen haben...;)

mfg

StefanV
2007-01-21, 20:23:56
Man kann Taktfrequenzen von Prozessoren nicht mehr erhöhen, da die Verlustleistung exorbitant ansteigt und die physikalischen Grenzen auch irgendwann erreicht sind.
Das ist Blödsinn, ziemlicher sogar...

Nur zu deiner Info: aktuelle Prozessoren sind idR zwischen 60 und 70W realer Verlustleistung, im schlimmsten Fall bei 80-90W, die waren mal bei 150W!!


Wenn man Taktfrequenzen weiter erhöht, steigt die Leistungsaufnahme und damit auch die Wärmeabgabe. Ein Prozessor der doppelt so schnell getaktet ist braucht nicht das doppelte an Leistungsaufnahme, sondern fast das 4 Fache. Deswegen die Idee mit den Multicores.
Das ist mit verlaub bullshit.

Denn Takt ist immer schon linear in die Verlustleistung eingegangen, was du hier gerad gemacht hast, ist Takt mit Spannung verwechselt, die geht in der Tat quadratisch in die Verlustleistung ein.

Ansonsten: siehe www.processorfinder.intel.com, schau mal nach Pentium 3 500_E_ (0,18nm, 256k L2) und schau dir dann mal den P3/1000 an, so viel Unterschied ist das nicht...



Nun kommt einem natürlich die Idee, wenn ich mehrere Kerne habe kann ich ja bestimmte Dinge miteinander teilen und das ich Speicher Cache & ähnliches gemeinsam verwenden kann. Sodass man bei AMD beispielsweise bei den X2 Prozessoren auf fast die gleiche Leistungsaufnahme kommt, wie bei den Single-Cores oder max. Faktor 1,4.

Generell kann bei einem Dual-Core Prozessor durch einen 2. Kern die Leisung um den Faktor 1,3 bis 1,7 erreichen gegenüber einer Single-Core Lösung. Das hängt von verschiedenen Faktoren ab.
Ich glaub nicht, das du das Neomi sagen brauchst, zumal ich davon ausgehe, das er es um einiges besser weiß als du, schließlich ist er ja Entwickler und darf sich mit der Hardware rumplagen, da kommt das Wissen darüber von allein...

Und der Rest hier in diesem Thread weiß das auch, das brauchst nicht widerholen...


Das Betriebssystem "muss" in der Lage sein, die beiden Kerne zu bedienen.
Toll, seit Windows NT der Fall...
Da hier im Forum kaum noch einer Windows 98/ME einsetzt, hat sich dieser Punkt erledigt und ist so klar wie Klosbrühe...


Man versucht bei Intel einen Chip zu entwickeln, zum laufen zu bekommen, der genau diese Aufgaben dynamisch zur Laufzeit verteilen kann. Das ist eine der größten aufgaben die wir bewältigen müssen um Multi-Core Prozessoren optimal auszunutzen.
Das glaub ich eher nicht, zumal:
Warum sollte man das machen?!
ISt doch einfacher, wenn mans dem OS die AUfgaben überlässt...


Man sollte hier natürlich keine Wunder erwarten und man sollte Intel zeit geben die Entwicklung voran zu schreiten. "Ice Storm Fighters" ist ja nur ein Schritt in eine richtung, die wir ohnehin eingeschlagen haben...;)

Ice Storm Fighter ist eine Demo und soll in erster Linie demonstrieren wie toll eine bestimmte Sache, hier Quad Cores, doch sind, dafür ist es entwickelt worden, mehr nicht...

"Ein Schritt in die Richtige Richtung" ist schön, nur was kann ich bitteschön mit diesem Programm denn schönes tun?! :|
Ich kanns mir anschauen und einen dazu schütteln, mehr nutzts mir als Enduser nicht.

Dem Entwickler nutzts vielleicht, wenn Intel die Codeteile veröffentlichen/weitergeben würde, sonst hat auch der nicht wirklich viel davon...

Zumal dieses Progrämmchen noch nach 'GenueIntel' sucht...

Seraf
2007-01-21, 20:36:58
Das glaub ich eher nicht, zumal:
Warum sollte man das machen?!


Ich glaube er hat irgendwas über Speculative Threads gehört und glaubt nun auch das man dadurch automatische Threadgenerierung machen kann (einen Thread in mehrere Splitten). Beim K8L (oder K8) haben ja auch einige an solche Märchen geglaubt. ;)


ISt doch einfacher, wenn mans dem OS die AUfgaben überlässt...


Seh ich auch so. Wenn ein OS durch ein Update einen besseren Scheduler bekommt haben auch alle Anwendungen was davon.

anddill
2007-01-21, 23:09:12
Oder er verwechselt das mit Torrenza (?) von AMD, wo zu den universal-Cores in der CPU noch Spezial-Cores für Media-Prozessing, KI, Physik, Grafik etc hinzukommen sollen. Erst auf separaten Sockeln und per HT angebunden, später im Chip per Crossbar gekoppelt.

Fetza
2007-01-22, 00:48:53
Nur noch mal kurz zur demo - ich hab halt irgendwie erwartet, das ich ganz konkret ne coole ki bemerke oder irgendwelche krassen physikeffekte.... aber man kann in der demo ja sogar einfach durch die bäume durchfliegen, und nix passiert. Die bäume biegen sich nicht zur seite und sehen zudem noch äußerst schlecht aus. Der stalker stapft durchs grünn, aber mit den bäumen passiert überhauptnix.

Mir war schon klar, das es keine optischen effekte seien werden, aber die demo hat mich schon entäuscht. Worums mir eigentlich geht, ist das ich mich als potentieller käufer von hardware mich nicht durch diese demo ermutigt fühle nen quad-core zu kaufen.

greetz

Fetza

Dimon
2007-01-22, 02:32:06
finde das demo als eine ziemlich müllige Präsentation, zumal ein P4 vllt. 40% langsamer ist und über 1000% weniger fps hat :rolleyes:

Naja eine schwachsinnige Präsentation :|


mfg

Spasstiger
2007-01-22, 03:13:27
finde das demo als eine ziemlich müllige Präsentation, zumal ein P4 vllt. 40% langsamer ist und über 1000% weniger fps hat :rolleyes:

Negative fps, juhu! :)
Prozentrechnen scheint nicht deine Stärke zu sein ...