PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia-Grafikkarten bald mit Physikberechnung (Havok FX)


Ganxsta
2006-03-20, 19:42:32
http://www.winfuture.de/news,24600.html

Was meint ihr dazu. Marketting-Gag oder eine echte und brauchbare Technologie?

AnarchX
2006-03-20, 19:47:20
Ob das Sinn macht, wenn die Graka zusätzlich noch durch Physik belastet wird. Da greift man doch lieber zu einem DualCore.

Von ATI gabs da auch schon Andeutungen in diese Richtung:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252495&highlight=Physikberechnung+Grafikkarte

Ganxsta
2006-03-20, 22:46:10
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1142887080

Coda
2006-03-20, 22:47:50
Es gab hier auch schon mal einen Thread wo ich was dazu gesagt hab.

Tib
2006-03-21, 01:57:38
NVIDIA SLI Physics Tech Preview (http://enthusiast.hardocp.com/article.html?art=MTAwNSwxLCxoZW50aHVzaWFzdA==)

...was ich nicht so recht begreife: Sinkt die Performance bei Anwendung mit einer einzelnen nVIDIA Karte nicht ganz erheblich? Wo ist da dann der Sinn Grafik-Qualität zugunsten der Physik einzutauschen?

Aber trotzdem ziemlich interessant,
Tib

PS am Rande: BrookGPU (http://graphics.stanford.edu/projects/brookgpu/) kommt ja leider nicht so recht in Fahrt.

stickedy
2006-03-21, 02:00:33
Passt nicht ins Hilfe-Forum *move*

Edit:

Beide Threads zusammengefügt

deekey777
2006-03-21, 02:08:49
Hier gibt es schon einen Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=285693


http://www.beyond3d.com/forum/showthread.php?t=29299
Nur weil es jetzt auf nVidia-HW präsentiert wurde, besteht kein Nachteil für andere: Havok FX is designed for GPUs supporting Shader Model 3.0, including the NVIDIA GeForce 6 and 7 Series GPUs.
http://www.beyond3d.com/forum/showpost.php?p=722744&postcount=7
Die FAQ: http://www.havok.com/content/view/187/77/

http://www.winfuture.de/news,24600.html

Was meint ihr dazu. Marketting-Gag oder eine echte und brauchbare Technologie?
Wie es aussieht, ist die zusätzliche Möglichkeit, die Physik von der Grafikkarte zu berechnen, ist mit weiteren Kosten verbunden. Marketing-Gag? Schwer zu sagen, denn Entwickler, die Havoc nutzen, müssen zusätzlich dieses optionale Modul kaufen.

stickedy
2006-03-21, 02:37:05
...was ich nicht so recht begreife: Sinkt die Performance bei Anwendung mit einer einzelnen nVIDIA Karte nicht ganz erheblich? Wo ist da dann der Sinn Grafik-Qualität zugunsten der Physik einzutauschen?

Naja, das kommt ganz drauf an, ob die CPU oder die Grafikkarte bei einem Spiel limitiert. Prinzipiell sollten davon vor allem Systeme mit schwacher CPU und starker Grafikkarte profitieren.

#44
2006-03-21, 07:17:25
wobei auch hier wieder kaum an den nutzen gedacht wird... auf nem hi end system ok... aber wie zum teufel soll das denn bitte vernünftig auf den ganzen mittelklassesystemen laufen die schon allein mit der grafik ausgereitzt werden... grafische abstriche für die physik??? (ich freu mich etz schon auf den aufschrei aller cs kiddies) ;)

bevor sich das durchsetzt dann doch eher nen pyhsik prozi... (und dem stehe ich schon sehr kritisch gegenüber)

und wenn man etz sagt: na dann nehme wir die 2. graka von em sli sys doch für die physik... zumindest teilweise...
auch hier ist dann eine spezialisierte physikeinheit wesentlich (kosten)effizienter

derMeister
2006-03-21, 08:39:45
@#44, bevor ich mir für 250€ so eine tolle Physikskarte kaufe, investier ich die lieber in eine Highend Graka, die dannn auch Physikberechnungen ausführen kann bzw eine Dualcore CPU, wie auch immer.
Bei der Software handelt es sich übrigends um die HavokFX, welche ausdrücklich nicht nur auf nVidia beschränkt ist! Jede SM3 Karte kann dieses ausführen, es sollte sich lediglich um ein leistungsstarkes :wink: Modell handeln.

Ganon
2006-03-21, 09:11:16
Wie schon gesagt, ist dieses Konzept über die Graka schon besser als eine extra Hardware.

Weil wenn man eine extra Hardware nur für Physik hat, dann wird diese auch nur da genutzt, wo die entsprechende Physik-Engine zum Einsatz kommt.

Nutzt man aber die Graka wird diese auch benutzt wenn die Physik-Engine gar keine Beschleunigung vorsieht. Zwar macht die Graka denn keine Physik-Berechnung, aber Grafik-Berechnung hilft ja auch schon. ;)

Blackland
2006-03-21, 09:29:46
Wir haben das hier:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=251104

schon mal diskutiert, wobei meine Überlegung war, das Board der Grafikkarte zu nutzen (was afaik sinnvoll wäre), denn selbige besitzt ja nun jeder Rechner. Mit dem neuen PCIe-Systemen sicher noch interessanter.

Schön, dass man nun darüber nachdenkt, denn nun beginnt auch hier der Innovationen-Preiskampf :lol: .

Gast
2006-03-21, 09:44:28
...was ich nicht so recht begreife: Sinkt die Performance bei Anwendung mit einer einzelnen nVIDIA Karte nicht ganz erheblich? Wo ist da dann der Sinn Grafik-Qualität zugunsten der Physik einzutauschen?

Mehr Spielspaß aufgrund höherer Interaktivität mit der Spielwelt, anyone?


Ich für meinen Teil würde gerne etwas der Grafikblenderei gegen endlich mal glaubwürdige(re) physikalische Ereignisse in einem Spiel eintauschen. =)

Gast
2006-03-21, 11:24:25
Naja, das kommt ganz drauf an, ob die CPU oder die Grafikkarte bei einem Spiel limitiert. Prinzipiell sollten davon vor allem Systeme mit schwacher CPU und starker Grafikkarte profitieren.

das ist aber momentan grundsätzlich der fall. die grafikkarten sind in den letzten 4 jahren ordentlich schneller geworden, amd&intel haben komplett gepennt.

Coda
2006-03-21, 12:10:44
AMD und Intel haben nicht "gepennt". Eine GPU lässt sich nur viel leichter mit der Transistorzahl skalieren.

S3NS3
2006-03-21, 12:11:05
Ich warte schon länger auf die speziellen Karten. Physik im Spiel ist einfach genial. Als mit die beste implementation von Physik in einer Spielwelt halte ich HL2. Wenn man aber nun einen großen quantitativen und auch qualitativen Sprung machen will reicht eben eine CPU kaum aus. Bzw. es würde derbe FPS einbrüche geben. Aber ich möchte ja extreme und beeindruckende physikalische Berechnungen in einem Game haben. Da finde ich die Idee die Graka dafür zu missbrauchen recht gelungen. Es sei denn dann hat man sagen wir 2xHL2 Physik ingame und die Grafikleistung bricht auf ne kleinstgraka ein...

Ich weis ja nicht wie sich das nun verhält, denke aber auch das eine extrakarte bedeutend effizienter sein wird. Aber hin oder her... sollen erstmal Games kommen wo eine ganz neue Dimension an Physik drin ist. Nicht so HL2-Stand aber durch so ne Karte 10% schneller... Will was sehen !

Tausende Objekte, Wasser, Softbodys in Massen ;)

tombman
2006-03-21, 12:33:52
Und wieder ein Nagel im Sarg der PPU ;)

Wenn die noch lange warten mit ihrer 250€ PPU Karte (:uhammer: ), dann brauchen sie´s gar nimmer rausbringen...

2007 haben wir QUAD core Cpus und jetzt schon quad-sli.

Die PPU wird veraltet sein bevor sie auf den Markt kommt ;D

Gast
2006-03-21, 13:01:21
so kriegt ne nv shader3-karte auch ne daseinsberechtigung, wo bleibt ati.

stickedy
2006-03-21, 13:08:58
so kriegt ne nv shader3-karte auch ne daseinsberechtigung, wo bleibt ati.
Die Engine läuft auf allen SM3.0-Karten, also auch auf ATI-Karten

Coda
2006-03-21, 13:18:15
Und wieder ein Nagel im Sarg der PPU ;)Die GPU sogar viel eher als die Quad Cores wenn du mich fragst.

deekey777
2006-03-21, 13:25:28
so kriegt ne nv shader3-karte auch ne daseinsberechtigung, wo bleibt ati.

Das ist das Ziel, dass Havok mit diesem Modul verfolgt: Die Bandbreite sind alle Grafikkarten, die SM 3.0 beherrschen, sprich die X1000er Serie, alle NV40er und G70er, Xenos/C1 und RSX, Nintendo Revolution (?)...
Aber es muss genutzt werden, der ganze Hype ist sinnlos, wenn die Programmierer nicht bereit sind, weitere Kosten für die Lizenz dieses Moduls auszugeben.

HOT
2006-03-21, 18:05:09
Hmm... wieviel Leistung frisst die Physik auf einer GPU? Was passiert, wenn zu den minimum-FPS-Scenen plötzlich noch Physikberechnungen dazukommen? Sorry, aber ich halte diese Vorgehensweise einfach für bescheuert. Eine Grafikkarte hat bei weitem genug mit Rendern zu tun - die meisten Games sind Grafiklimitiert. Ich hab jedenfalls keinen Bock Qualitätssteigernde Massnahmen abschalten zu müssen, damit die doofe Physik genug Platz hat.
Eine eigene PPU halte ich für sehr sinnvoll und wäre auch bereit dafür zu bezahlen, wenn dafür die GPU ihre Arbeit machen kann.

Coda
2006-03-21, 18:06:18
Hmm... wieviel Leistung frisst die Physik auf einer GPU?Nicht sehr viel. Das ist ja der springende Punkt.

Eine GPU ist als Streamprozessor ein wahres Monster, bei DP4-Streaming z.B. wird sie irgendwo um den Faktor 50-100 schneller sein. Man müsste sich halt die Shader ansehen, aber der Vorteil ist sicher immens.

IVN
2006-03-21, 18:11:21
Nicht sehr viel. Das ist ja der springende Punkt.

Eine GPU ist als Streamprozessor ein wahres Monster, bei DP4-Streaming z.B. wird sie irgendwo um den Faktor 50-100 schneller sein. Man müsste sich halt die Shader ansehen, aber der Vorteil ist sicher immens.
Als was?
In der Praxis eher 3-5 Mal schneller als eine aktuele CPU.Je komplexer die Physik,um so inefizienter wird die GPU.

HOT
2006-03-21, 18:17:20
Nicht sehr viel. Das ist ja der springende Punkt.

Eine GPU ist als Streamprozessor ein wahres Monster, bei DP4-Streaming z.B. wird sie irgendwo um den Faktor 50-100 schneller sein. Man müsste sich halt die Shader ansehen, aber der Vorteil ist sicher immens.

Der springende Punkt ist halt der: Man hat viel Leistung, also verbrät man auch viel. Es kommt wahrscheinlich darauf an, wie genau und komplex diese Physikberechnungen sind. Grade da wäre eine PPU aber eine feine Sache, weil es damit ein festes Limit gibt, das der Spielehersteller nicht übersteigen darf. Grafikprozessoren haben einfach zu unterschiedliche Leistungswerte - nicht jeder hat ne x1900 in seinem System.
Damit wir uns nicht missverstehen: Physikberechnungen auf der GPU sind besser als Physikberechnungen auf der CPU keine Frage. Aber optimal ist das bei weitem nicht, meiner Meinung nach.

Gast
2006-03-21, 18:22:04
Falls nichts unvorhergesehenes passiert setzt sich das gegen Ageia durch.
Das ist wohl endlich der Grund auch für alle Skeptiker (ich oder den "RAZOR") Zähne knirschend auf SLI/CF umzusteigen.

Henne und Ei. Ist das Produkt erst mal am Markt werden uns schon irgendwann ein gute Gründe dafür einfallen.

Für beide Hersteller könnten das goldene Zeiten werden.
Vielleicht sollte man NV / ATI Aktien kaufen?

HOT
2006-03-21, 18:24:03
Falls nichts unvorhergesehenes passiert setzt sich das gegen Ageia durch.
Das ist wohl endlich der Grund auch für alle Skeptiker (ich oder den "RAZOR") Zähne knirschend auf SLI/CF umzusteigen.

Henne und Ei. Ist das Produkt erst mal am Markt werden uns schon irgendwann ein gute Gründe dafür einfallen.

Für beide Hersteller könnten das goldene Zeiten werden.
Vielleicht sollte man NV / ATI Aktien kaufen?


Der Markt wird eine PPU sicherlich eher annehmen als SLI. Ich halte SLI für überschätzt, es ist teuer und verballert unnötig viel Strom. Zudem ist es schwer damit einen leisen Rechner zu bauen. Noch ein Nachteil den ich sehe ist die fehlende Kompatibilität zu ATI.

SLI und CF bleiben meiner Ansicht nach Spielzeuge für Kiddis die zuviel Geld haben, sorry.

IVN
2006-03-21, 18:30:42
Der springende Punkt ist halt der: Man hat viel Leistung, also verbrät man auch viel. Es kommt wahrscheinlich darauf an, wie genau und komplex diese Physikberechnungen sind. Grade da wäre eine PPU aber eine feine Sache, weil es damit ein festes Limit gibt, das der Spielehersteller nicht übersteigen darf. Grafikprozessoren haben einfach zu unterschiedliche Leistungswerte - nicht jeder hat ne x1900 in seinem System.
Damit wir uns nicht missverstehen: Physikberechnungen auf der GPU sind besser als Physikberechnungen auf der CPU keine Frage. Aber optimal ist das bei weitem nicht, meiner Meinung nach.
Genau das ist falsch.Eine MC-CPU sollte um einiges besser sein als alles andere.
-Die PPU sollte auch einen "Lag" mit sich brinngen.

Gast
2006-03-21, 18:32:02
Dachte ich zunächst ja auch aber. (Binn ja selbst SLI skeptisch)

1. Physik ist der nächste große Renner.

2. ATI und NV können das nutzten. (setzt ja nur SM3 vorraus)

3. es kann auch auf einer GPU genutz werden wenn sie gerade nicht voll mit der Grafik beschäftigt ist.

4. weicher Übergang in den Markt. 7800/7900 Besitzer brauchen keine neue Hardware.

usw....

mehr fällt mir auf die schnelle nicht ein.

betasilie
2006-03-21, 18:49:20
Also ich halte nix davon. Ich will, dass GPUs Grafik berechnen und nicht Leistung für Physik abgezwackt wird. Das soll eine PPU machen, wobei ich nicht an einen Erfolg solcher Chips glaube, oder aber die CPU mit zukünftiger Nutzung von Multicore-Einheiten.


Nicht sehr viel. Das ist ja der springende Punkt.

Eine GPU ist als Streamprozessor ein wahres Monster, bei DP4-Streaming z.B. wird sie irgendwo um den Faktor 50-100 schneller sein. Man müsste sich halt die Shader ansehen, aber der Vorteil ist sicher immens.
Einer GPU traust Du Pyhsikberechnung in brachialer Art zu und den Cell als Konsolenprozzi wertest Du ab, obwohl er u.a. für sowas ebenfalls brachiale Leistung liefert?

Gast
2006-03-21, 18:57:50
Eine eigene PPU halte ich für sehr sinnvoll und wäre auch bereit dafür zu bezahlen, wenn dafür die GPU ihre Arbeit machen kann.

bevor ich mir eine PPU zulege schon lieber eine 2. graka, die mehr als "nur" physikberechnungen machen kann.

Einer GPU traust Du Pyhsikberechnung in brachialer Art zu und den Cell als Konsolenprozzi wertest Du ab, obwohl er u.a. für sowas ebenfalls brachiale Leistung liefert?

das problem ist eher dass der cell-prozessor in der PS3 in erster linie als GP-prozessor eingesetzt wird und nicht als streamprozessor. und die GP-leistung ist ja ziemlich schwach.

HOT
2006-03-21, 19:36:53
Genau das ist falsch.Eine MC-CPU sollte um einiges besser sein als alles andere.
-Die PPU sollte auch einen "Lag" mit sich brinngen.


Warum?

HOT
2006-03-21, 19:40:54
bevor ich mir eine PPU zulege schon lieber eine 2. graka, die mehr als "nur" physikberechnungen machen kann.

Das seh ich eben anders. Ich hab keinen Bock auf ne 2. Heizschleuder im Rechner, die nach Möglichkeit auchnoch 300+€ kostet. Ne kleine GraKa macht hier ja keinen Sinn.
Lieber eine PPU, die nicht allzuviel Strom verballert und unabhängig von der Grafik ist.



das problem ist eher dass der cell-prozessor in der PS3 in erster linie als GP-prozessor eingesetzt wird und nicht als streamprozessor. und die GP-leistung ist ja ziemlich schwach.

In Sachen Physik der Prozessor trotzdem gut. Für solche Zwecke wurde er auch entwickelt. Ist halt die eierlegende Wollmilchsau für Konsolen - das Ding macht Physik, Audio, Geometrie, alles Dinge, wofür der Prozessor immernoch herhalten muss.

Gast
2006-03-21, 19:51:18
Das seh ich eben anders. Ich hab keinen Bock auf ne 2. Heizschleuder im Rechner, die nach Möglichkeit auchnoch 300+€ kostet. Ne kleine GraKa macht hier ja keinen Sinn.
Lieber eine PPU, die nicht allzuviel Strom verballert und unabhängig von der Grafik ist.



und du glaubst dass die PPU nicht soviel strom verbraucht? ich nicht.

Godmode
2006-03-21, 19:59:39
Werden da haupsächlich VS verwendet, oder läuft das auch über die PS?

IVN
2006-03-21, 20:18:13
Warum?
So genau weiss ich das nicht.(Demi sagte es in einem Thread)
Ich vermute,dass die CPU an einem zukunftigen Frame arbeitet,die PPU an einem der zu der GPU geschickt werden soll,und die GPU selbs finalisiert den jetztigen.(2 Frames zwischen Input und Output,ansttat von 1)
Deine Reaktion wird erst im 3. Frame sichtbar.

Coda
2006-03-21, 22:53:25
Einer GPU traust Du Pyhsikberechnung in brachialer Art zu und den Cell als Konsolenprozzi wertest Du ab, obwohl er u.a. für sowas ebenfalls brachiale Leistung liefert?Ich hab an mehreren Stellen gesagt dass sich Cell für Physikberechnungen hervorrangend eignen würde.

Nur mag ich das Konzept "unglaublich geringe Leistung bei nicht parallelisierbaren Dingen + unglaublich brachiale Leistung bei den parallelisierbaren" auf Grund dessen (letzer Abschnitt) (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4109402&postcount=49) einfach nicht.

HOT
2006-03-21, 23:19:18
und du glaubst dass die PPU nicht soviel strom verbraucht? ich nicht.

Na ja, man wird sehen. Das Teil hat nen eigenen Stromanschluss, jedoch liefert der PCI Slot auch nicht allzuviel. Witzig finde ich an den Demokarten, dass sie sowohl PCI als auch PCIe unterstützen ;)
Der Kühler auf den Demokarten macht jetzt auch nicht den Eindruck, als würde das Teil sonderlich heiss. Maximal x1600 Niveau schätze ich. Das ist allemal besser als eine 7800/7900 oder x1900, die man ja für SLI bzw. CF benötigt, wenn es Sinn machen soll.

MuLuNGuS
2006-03-22, 08:44:09
grakas werden in vor allem in zukünftigen titel schon genung mit dem rendering zu tun haben, da wird gar nicht viel luft sein um eben noch mal locker physikberechnungen durchzuführen.(jedenfalls nicht ohne abstriche in FPS oder quali)
allerdings können Ageia ihre ppu bald wieder einstampfen wenn sich nicht bald mal was tut. sie sollten vorsichtshalber ihr SDK schon mal shader 3.0 fähig machen ;)

Ailuros
2006-03-22, 09:24:28
Der Markt wird eine PPU sicherlich eher annehmen als SLI. Ich halte SLI für überschätzt, es ist teuer und verballert unnötig viel Strom. Zudem ist es schwer damit einen leisen Rechner zu bauen. Noch ein Nachteil den ich sehe ist die fehlende Kompatibilität zu ATI.

SLI und CF bleiben meiner Ansicht nach Spielzeuge für Kiddis die zuviel Geld haben, sorry.

Wieso der Markt eine PPU (und sogar mit Sicherheit!) besser annehmen sollte ist mir momentan noch fremd.

Rein theoretisch wenn eine PPU genauso viel kosten sollte wie eine zweite GPU in SLi oder CF, waere mir persoenlich die zweite Loesung lieber weil ich eben viel mehr davon habe am Ende als nur extra physics. Die PPU wird ja mit Sicherheit "umsonst" sein und keine ~$300 kosten und auch kein Spielzeug sein "fuer kiddis mit zuviel Geld" :rolleyes:

Windi
2006-03-22, 09:58:27
Das größte Problem für Aegia dürfte der nötige radikale Umbruch in der PC-Spiele Welt sein. Wenn die PPU nur die Aufgaben übernimmt, die bei anderen Rechnern von der CPU berechnet werden, dann dürfte der Leistungsgewinn zu gering sein um viele Käufer zu finden. Falls tatsächlich Spiele raus kommen, die die PPU tatsächlich auslasten, dann könnten diese Spiele nur von Leuten mit Physik-Karte gespielt und gekauft werden.
Bei Grafik- und Soundkarten war die Einführung viel unproblematischer. Leute konnten, sobald sie eine Karte hatten, einfach einige neu Effekte einschalten und trotzdem im Multiplayer weiterhin gegeneinander spielen. Bei der Physik ist das viel problematischer.

Wenn Grafikkarten jetzt Physik berechnen sollen, wäre die Umstellungsphase eigentlich kein Problem. Die Physikberechnung könnte anfangs optional laufen, je nachdem wie alt und schnell díe Grafikkarte ist. In diesem Fall wäre die Belastung für die Grafikkarte nicht sehr hoch, da die Berechnungen auch notfalls von der CPU übernommen werden müssten. Später gäb es dann eine Pflicht für Grafikkarten mit 3.0 shader, trotzdem müssten die Spiele auch auf Karten der 7300er Klasse laufen. Genau deshalb sehe ich da kein größeres Problem für Leute mit Midrange oder High-End Karten, daß ihnen plötzlich die Leistung ausgeht. Es dürfte generell ein sehr sanfter Umstieg werden.

robbitop
2006-03-22, 10:32:50
sinnvoll wäre es, die IGP die Arbeit übernehmen zu lassen. Die 6100IGP erzeugt vergleichsweise wenig Abwärme, verbraucht keinen zusätzlichen Platz, läuft komplett passiv, ist günstig (ein ASROCK 6100IGP Board kostet ~50EUR) und sollte zum Streaming genug Rechenleistung besitzen (4xMAD4 +1Vec4+1skalar VS @425MHz).
Angebunden ist das ganze per HT und sollte somit von der Bandbreite und den Latenzen auch stimmen. Endlich mal eine gute Verwendung für eine IGP!

NeoTiger
2006-03-22, 10:42:54
Ich verstehe nicht, wozu eine PPU auf die Grafikkarte untergebracht werden soll. Das macht aus der Sicht des Programmierers wenig Sinn. Die Welt-Geometrie wird von der CPU eigentlich erst zur Grafikkarte transferiert, wenn sie fertig ist und gerendert werden soll. Zu berechnen wie einzelne Objekte sich in dieser Spielwelt bewegen und interagieren ist Aufgabe der CPU. Physikalische Bewegungseffekte zu errechnen ist aber nur ein Schritt. Nachdem die PPU festgestellt hat, dass ein Stein im nächsten Frame aufgrund von Schwerkraft und fehlender Unterlage um 5 Pixel gefallen ist muss die CPU danach immer noch überprüfen, ob der Stein dabei mit der Geomtrie von irgendetwas anderem kollidiert. Die Stein-Daten wandern letztlich also dreimal über den PCIe Bus: von CPU zur PPU, dann wieder zurück zur CPU zwecks Kollisions-Test und dann wieder zur GPU zwecks Rendering. Damit schafft man sich schnell einen Flaschenhals im System. Wenn überhaupt, dann hat eine PPU in die CPU integriert oder wenigstens an ihren FSB angeschlossen zu werden. Und außerdem ist Physikberechnung ja eines der Argumente, mit denen Intel und AMD auf Deppenfang für ihre Multicore-Prozessoren gehen (um zu verschleiern, dass sie nicht mehr wissen, wie sie Singlecores noch beschleunigen können). Da werden die PPU-Emporkömmlinge also schnell ins Kreuzfeuer gegenteiliger Interessen zwischen den GPU- und CPU-Herstellern geraten.

stickedy
2006-03-22, 10:45:32
Und so ließe sich auch relativ einfach jedes Mainboard damit ausrüsten. Ein IGP-Chipsatz kostet ja nicht wirklich siginifikant mehr als einer ohne IGP und da der eh nix zu tun hat. Wenn ne extra Grafikkarte drin ist, wäre die Leistung wohl wirklich ausreichend. Und da seine Benutzung ja auch nicht nötig ist, kann man sich auch den VGA-Ausgang auf dem Mainboard sparen...

Wär imho ein guter Ansatz. Aber ob das die GPU- und Mianboardhersteller wollen? :confused:

Huhamamba
2006-03-22, 12:29:22
Mal eine generelle Frage dazu: Wie viele Pixel- und/oder Vertextshader (oder womit die Physik auf der GPU auch immer realisiert wird) müsste Havok FX von der GPU in Anspruch nehmen, um dieselbe Leistungsfähigkeit bei Physikberechnungen wie die von Ageia geplante PPU mit diesen Specs (http://www.pcper.com/article.php?aid=140) zu erzielen?

Coda
2006-03-22, 12:46:24
sinnvoll wäre es, die IGP die Arbeit übernehmen zu lassen. Die 6100IGP erzeugt vergleichsweise wenig Abwärme, verbraucht keinen zusätzlichen Platz, läuft komplett passiv, ist günstig (ein ASROCK 6100IGP Board kostet ~50EUR) und sollte zum Streaming genug Rechenleistung besitzen (4xMAD4 +1Vec4+1skalar VS @425MHz).
Angebunden ist das ganze per HT und sollte somit von der Bandbreite und den Latenzen auch stimmen. Endlich mal eine gute Verwendung für eine IGP!Ich hab mir jetzt das Ding mal genauer angesehen.

Es werden nur Partikel/Objekte die keine Spielerinteraktion verursachen auf der GPU berechnet und dann sofort angezeigt, es wird keinerlei Readback vorgenommen (würde auch lahm werden). Deshalb funktioniert das mit der IGP leider nicht.

robbitop
2006-03-22, 12:50:20
Ich hab mir jetzt das Ding mal genauer angesehen.

Es werden nur Partikel/Objekte die keine Spielerinteraktion verursachen auf der GPU berechnet und dann sofort angezeigt, es wird keinerlei Readback vorgenommen (würde auch lahm werden). Deshalb funktioniert das mit der IGP leider nicht.
Ja aber prinzipiell müsste es gehen. Nicht mit dieser Lösung vieleicht. Vieleicht eher in Richtung Ageia.

btw: dein alter Ava war schicker :D

m.sch
2006-03-22, 13:25:36
Ati hat in dieser Richtung keine Pläne

bericht (http://www.thinkcomputers.org/index.php?x=articles&id=34)

HOT@Work
2006-03-22, 14:16:47
Wieso der Markt eine PPU (und sogar mit Sicherheit!) besser annehmen sollte ist mir momentan noch fremd.

Rein theoretisch wenn eine PPU genauso viel kosten sollte wie eine zweite GPU in SLi oder CF, waere mir persoenlich die zweite Loesung lieber weil ich eben viel mehr davon habe am Ende als nur extra physics. Die PPU wird ja mit Sicherheit "umsonst" sein und keine ~$300 kosten und auch kein Spielzeug sein "fuer kiddis mit zuviel Geld" :rolleyes:

Das kommt schwer drauf an, für wieviel die PPU auf den Markt kommt, findes du nicht auch?

deekey777
2006-03-22, 15:24:33
Ati hat in dieser Richtung keine Pläne

bericht (http://www.thinkcomputers.org/index.php?x=articles&id=34)

Meinst du das:
AB: What is your (and ATI's) take on the PhysX technology and possibilities for gaming in the future? Are there plans for integration with these types of cards in the future?



TM: No plans currently. At this point I haven't seen any real support in games for it.
Ich glaube, in dieser Frage geht es um die Implementierung zusätzlicher Agaias PhysX-Chips auf der Grafikkarte.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252495&highlight=Physikberechnung+Grafikkarte

Pläne zur Berechnung der Physik mit der GPU hat ATi schon lange.



btw: dein alter Ava war schicker :D
Ungläubiger! Heide! Ketzer! ;) :D

stickedy
2006-03-22, 15:29:50
So hab ich das auch verstanden. Wobei ATI ja auch eher wenig dagegen tun kann, wenn eine Software die SM3.0-Einheiten ihrer Grafikchips benutzt :)

HOT
2006-03-22, 15:46:00
sinnvoll wäre es, die IGP die Arbeit übernehmen zu lassen. Die 6100IGP erzeugt vergleichsweise wenig Abwärme, verbraucht keinen zusätzlichen Platz, läuft komplett passiv, ist günstig (ein ASROCK 6100IGP Board kostet ~50EUR) und sollte zum Streaming genug Rechenleistung besitzen (4xMAD4 +1Vec4+1skalar VS @425MHz).
Angebunden ist das ganze per HT und sollte somit von der Bandbreite und den Latenzen auch stimmen. Endlich mal eine gute Verwendung für eine IGP!

Damit wohl eher IPP :)
Diese Idee fänd ich auch klasse.

Neomi
2006-03-22, 16:13:25
Ja aber prinzipiell müsste es gehen. Nicht mit dieser Lösung vieleicht. Vieleicht eher in Richtung Ageia.

Ja sicher, genau das ist ja der große Vorteil von PhysX. Damit kann man gameplayrelevante Physik berechnen, während das mit HavokFX nicht geht. Dabei gibt es leider nur das Problem, daß sich die gameplayrelevante Physik am schwächsten Rechner orientieren muß, auf dem das Spiel noch laufen soll. Also gibt es entweder für Spieler mit PhysX mehr "Lösungsmöglichkeiten" (für Multiplayer undenkbar) oder die Rechenpower liegt brach. Oder sie wird nur für Effektphysik genutzt, aber da kann man ja auch wieder HavokFX nutzen. Genau da ist HavokFX aber

Letztendlich wird bei HavokFX die CPU nicht auf die Ergebnisse der Berechnung zugreifen können. Genau das müßte sie aber tun, wenn ein IGP oder eine zweite Grafikkarte (nein, SLI und Crossfire sind aus Programmsicht keine zweite Karte) für Physik herhalten sollen, um die Ergebnisse an die bilderzeugende Grafikkarte weiterreichen zu können. Also muß die Effektphysik schon zwingend auf der bilderzeugenden Grafikkarte ausgeführt werden.

Gast
2006-03-23, 07:28:24
http://www.winfuture.de/news,24633.html

Die ersten Karten sind erhaeltlich. Hier noch eine Seite mit vielen Infos:

http://personal.inet.fi/atk/kjh2348fs/ageia_physx.html

Kladderadatsch
2006-03-23, 07:52:53
Ja sicher, genau das ist ja der große Vorteil von PhysX. Damit kann man gameplayrelevante Physik berechnen, während das mit HavokFX nicht geht. Dabei gibt es leider nur das Problem, daß sich die gameplayrelevante Physik am schwächsten Rechner orientieren muß, auf dem das Spiel noch laufen soll. Also gibt es entweder für Spieler mit PhysX mehr "Lösungsmöglichkeiten" (für Multiplayer undenkbar) oder die Rechenpower liegt brach.
hatte die eingestellte systemleistung in far cry nicht auch auswirkung auf die physikberechnung? dort stelle ich mir dann eben noch einen extra modus vor, der weitere effekte 'freischaltet'. zur werbung vielleicht auch noch eine kleine demo, in der (wie in der tv-werbung) hunderte von dopsbällen eine steile straße hinunterhüpfen;)

m.sch
2006-03-23, 12:15:41
Meinst du das:

Ich glaube, in dieser Frage geht es um die Implementierung zusätzlicher Agaias PhysX-Chips auf der Grafikkarte.



Genau,( PhysX ) Fielmann lässt grüßen. :redface:

Coda
2006-03-23, 12:19:40
Ja sicher, genau das ist ja der große Vorteil von PhysX. Damit kann man gameplayrelevante Physik berechnen, während das mit HavokFX nicht geht. Dabei gibt es leider nur das Problem, daß sich die gameplayrelevante Physik am schwächsten Rechner orientieren muß, auf dem das Spiel noch laufen soll. Also gibt es entweder für Spieler mit PhysX mehr "Lösungsmöglichkeiten" (für Multiplayer undenkbar) oder die Rechenpower liegt brach. Oder sie wird nur für Effektphysik genutzt, aber da kann man ja auch wieder HavokFX nutzen. Genau da ist HavokFX aber

Letztendlich wird bei HavokFX die CPU nicht auf die Ergebnisse der Berechnung zugreifen können. Genau das müßte sie aber tun, wenn ein IGP oder eine zweite Grafikkarte (nein, SLI und Crossfire sind aus Programmsicht keine zweite Karte) für Physik herhalten sollen, um die Ergebnisse an die bilderzeugende Grafikkarte weiterreichen zu können. Also muß die Effektphysik schon zwingend auf der bilderzeugenden Grafikkarte ausgeführt werden.Auch lustig ist das letztenendes sogar der Server eine PhysX-Karte brauchen würde bei MP X-D

Gast
2006-03-23, 14:07:01
Auch lustig ist das letztenendes sogar der Server eine PhysX-Karte brauchen würde bei MP X-D

heißt das, dass es bei der karte einen rückkanal gibt, die der cpu die ergebnisse mitteilt?
müsste doch eigentlich der fall sein wenn spielentscheidende physik auch auf der karte gerechnet wird.

Coda
2006-03-23, 14:15:20
heißt das, dass es bei der karte einen rückkanal gibt, die der cpu die ergebnisse mitteilt?Natürlich.

Neomi
2006-03-23, 14:20:57
heißt das, dass es bei der karte einen rückkanal gibt, die der cpu die ergebnisse mitteilt?
müsste doch eigentlich der fall sein wenn spielentscheidende physik auch auf der karte gerechnet wird.

Ja klar ist das so. Selbst dann, wenn nur Effektphysik berechnet wird. Oder sollen die Daten auf magische Weise vom PhysX zur Grafikkarte gelangen? Da sitzt immerhin die CPU zwischen.

Gast
2006-03-23, 14:40:54
- 200 times the physics power of a modern CPU (32000 rigid bodies, 40000 to 50000 particles)

Xmas
2006-03-23, 14:41:50
Ich verstehe nicht, wozu eine PPU auf die Grafikkarte untergebracht werden soll. Das macht aus der Sicht des Programmierers wenig Sinn. Die Welt-Geometrie wird von der CPU eigentlich erst zur Grafikkarte transferiert, wenn sie fertig ist und gerendert werden soll. Zu berechnen wie einzelne Objekte sich in dieser Spielwelt bewegen und interagieren ist Aufgabe der CPU. Physikalische Bewegungseffekte zu errechnen ist aber nur ein Schritt. Nachdem die PPU festgestellt hat, dass ein Stein im nächsten Frame aufgrund von Schwerkraft und fehlender Unterlage um 5 Pixel gefallen ist muss die CPU danach immer noch überprüfen, ob der Stein dabei mit der Geomtrie von irgendetwas anderem kollidiert. Die Stein-Daten wandern letztlich also dreimal über den PCIe Bus: von CPU zur PPU, dann wieder zurück zur CPU zwecks Kollisions-Test und dann wieder zur GPU zwecks Rendering.
Tatsächlich sieht das allerdings etwas anders aus:
- Die "Welt-Geometrie" wird zum allergrößten Teil nur ein einziges Mal zur Grafikkarte übertragen und liegt dort als statische Vertex- und Index-Buffer vor. Dynamische Geometrie wird nur selten verwendet, stattdessen variiert man nur die Vertex-Shader-Konstanten.
- Die Geometriedaten die für die Grafik verwendet werden sind viel zu komplex für eine Echtzeit-Kollisionsabfrage, selbst mit PPU. Dafür nimmt man Bounding Volumes.
- Die Aufgabe der PPU ist es nicht nur, Beschleunigung durch Kräfte zu berechnen, sondern vor allem Wechselwirkungen zwischen Objekten, sprich: Kollisionen. Die CPU bekommt nur die Ergebnisse mitgeteilt.

Gast
2006-03-23, 14:45:16
Hier das erste Review:

http://www.hothardware.com/viewarticle.aspx?articleid=797&cid=2

Ailuros
2006-03-23, 15:49:00
Das kommt schwer drauf an, für wieviel die PPU auf den Markt kommt, findes du nicht auch?

Es gibt auch SLi/CF in anderen Maerkten als im high end, findest Du nicht auch?

Und wenn ich mir den Link oben von Hothardware ansehe dann klingt mir 186mm^2 nicht gerade "billig".

HOT
2006-03-23, 19:11:13
Es gibt auch SLi/CF in anderen Maerkten als im high end, findest Du nicht auch?

Und wenn ich mir den Link oben von Hothardware ansehe dann klingt mir 186mm^2 nicht gerade "billig".

Was macht das denn für einen Sinn? Soll ich mir jetzt auchnoch ein neues Mobo dazukaufen, wenn ich Physik über die 2. GPU mit berechnen möchte? lol so ein Blödsinn.
Die meisten Boards sind nunmal nicht SLI oder CF.

Gast
2006-03-23, 20:16:41
So lange keine unnütze Zusatzkarte erforderlich wird, ist die Idee gar nicht schlecht.

Obwohl, ich frage mich ernsthaft, was daran neu sein soll. Hätte wahrscheinlich schon vor Jahren umgesetzt werden können und ob GPU oder CPU berechnet, ist egal, so lange die Leistung stimmt.

Diesen Zusatzkartenschrott werde ich nicht mitmachen. Bei heise wurde solch eine Karte angekündigt, 300 Euro soll sie kosten.
Die können sich diese Karte sonstwohin schieben, ich kaufe mir nicht alle paar Monate eine neue Grafikkarte und investiere nochmal 300 Euro in so eine Karte. Die sollten sich lieber mal darum kümmern, die bisherigen Komponenten ausnutzen.

Eine Multi-GPU Grafikkarte tuts doch genauso...

Ailuros
2006-03-24, 07:32:20
Was macht das denn für einen Sinn? Soll ich mir jetzt auchnoch ein neues Mobo dazukaufen, wenn ich Physik über die 2. GPU mit berechnen möchte? lol so ein Blödsinn.
Die meisten Boards sind nunmal nicht SLI oder CF.

Was Du gerade vor hast oder als besser empfindest, sollte irrelevant sein.

Es geht hier darum was fuer Chancen genau das Ding haben koennte. Mit ca. $300 Strassenpreis und einen extra Stromstecker sehen mir persoenlich die Chancen gering aus, und die Gruende werde ich nicht nochmal erwaehnen.

Damit sich das Ding durchsetzen kann, muesste es einen gigantischen Unterschied im Vergleich zu einer gleich-teuren heutigen GPU machen. Ja es soll programmierbar sein, aber wenn man 186mm^2 braucht um nur 125M Transistoren zu verschachteln, klingt mir das Ganze nicht nur nach einem Programmierungs-"wunder" sondern auch nach gigantischen "Engineerings-Talent".

MuLuNGuS
2006-03-24, 08:27:31
So lange keine unnütze Zusatzkarte erforderlich wird, ist die Idee gar nicht schlecht.

Obwohl, ich frage mich ernsthaft, was daran neu sein soll. Hätte wahrscheinlich schon vor Jahren umgesetzt werden können und ob GPU oder CPU berechnet, ist egal, so lange die Leistung stimmt.

Diesen Zusatzkartenschrott werde ich nicht mitmachen. Bei heise wurde solch eine Karte angekündigt, 300 Euro soll sie kosten.
Die können sich diese Karte sonstwohin schieben, ich kaufe mir nicht alle paar Monate eine neue Grafikkarte und investiere nochmal 300 Euro in so eine Karte. Die sollten sich lieber mal darum kümmern, die bisherigen Komponenten ausnutzen.

Eine Multi-GPU Grafikkarte tuts doch genauso...

ein PC ist dafür gemacht ihn per zusatzkarten aufrüsten zu können, ist mir echt nicht klar was einige für probleme damit haben.

hier schreien doch immer so viele nach gameplay, sollte die karte also in der richtung für neue erlebnisse sorgen bin ich bereit dafür einige € hinzublättern, vielleicht keine 300€ aber so ab 220€ könnte ich es mir sicher vorstellen.
pc-gaming ist halt ein hobby in das man geld stecken muß(kann), nicht wo man an jeder ecke herumknausert....dafür gibt's doch konsolen.

derMeister
2006-03-24, 09:17:53
Außerdem gibts dann bestimmt auch bald nen Silencer oder VF950 für Ageya Physikkarten, dann hat man wieder was zum modden :biggrin: .

Wenn ich aber lese, das man bei einem SLI Betrieb doch die zweite Karte zur Physikberechnung einsetzen könne, dann frag ich mich was wohl die "bessere" Lösung wäre? Eine Highendkarte für 450,- oder die wesentlich günstigere Ageya :wink:

m.sch
2006-03-27, 04:37:23
Ati auf Pole Position :biggrin:

aths
2006-03-27, 06:48:57
http://www.winfuture.de/news,24600.html

Was meint ihr dazu. Marketting-Gag oder eine echte und brauchbare Technologie?Das hat nichts speziell mit Nvidia zu tun. Havok FX läuft auf allen SM3-Grakas. Die News schreibt "Der Grafikkartenhersteller Nvidia hat sich mit dem Physik-Spezialisten Havok zusammen getan, um ein Software-Paket zu entwickeln, dass Physikberechnungen auch auf aktuellen Nvidia Grafikchips zulassen würde." und das ist Quark. Havok FX gäbe es auch ohne Nvidia.

deekey777
2006-03-28, 02:03:45
Ja sicher, genau das ist ja der große Vorteil von PhysX. Damit kann man gameplayrelevante Physik berechnen, während das mit HavokFX nicht geht. Dabei gibt es leider nur das Problem, daß sich die gameplayrelevante Physik am schwächsten Rechner orientieren muß, auf dem das Spiel noch laufen soll. Also gibt es entweder für Spieler mit PhysX mehr "Lösungsmöglichkeiten" (für Multiplayer undenkbar)* oder die Rechenpower liegt brach. Oder sie wird nur für Effektphysik genutzt, aber da kann man ja auch wieder HavokFX nutzen. Genau da ist HavokFX aber

Letztendlich wird bei HavokFX die CPU nicht auf die Ergebnisse der Berechnung zugreifen können. Genau das müßte sie aber tun, wenn ein IGP oder eine zweite Grafikkarte (nein, SLI und Crossfire sind aus Programmsicht keine zweite Karte) für Physik herhalten sollen, um die Ergebnisse an die bilderzeugende Grafikkarte weiterreichen zu können. Also muß die Effektphysik schon zwingend auf der bilderzeugenden Grafikkarte ausgeführt werden.
*HL2: Death Match, wo man alles und jeden als Waffe beutzen kann?
Übrigens: http://www.gameinformer.com/News/Story/200603/N06.0324.2249.59492.htm
GI: I think you guys have one of the best physics setups in gaming, and with things like Aegia and what Havok is doing with NVidia, how will you implement that in Half-Life?

Newell: There are a couple of different issues going on there. With our physics, the player can collide with objects. This is a good thing. The stuff that is being shown by NVidia right now, the latencies are too high. Their physics is essentially to make prettier pictures. It’s like you can have a bunch of different things bouncing around so long as they don’t actually touch anything that matters. If you don’t actually have to read the data out – if your AI system ever needed to know about whether or not one of those objects had collided with something else it would run slower by running on the GPU than having it run on the main CPU. So physics that matter is different than physics that makes pretty pictures.

The presentation quality is fine. I think we went through a round of that with graphics acceleration. It wasn’t until it enabled different types of games, games that involve the game logic being able to ascertain the state of the physics system I think that that’s the really important long term direction from everybody. So having pretty explosions is cool, but you stop seeing it pretty quickly. You only see the stuff that actually matters. There’s still a lot of work to be able to figure out how to get an order of magnitude or two orders of magnitude improvement in that kind of physics. That’ll be a big challenge for everybody.
Gabe Newell tut alles, um ja nicht Havok zu erwähnen. :biggrin:

Gast
2006-03-29, 13:46:14
Dieses Video von Ageia in Action zeigt wo es demnaechst langgeht:

http://64.62.158.102/~ivxwpgch/downloads/CellFactor.wmv

Gast
2006-03-30, 15:25:38
Wenn ich das Argument höre "wozu einen zusätzliche PPU-Karte, kann doch die CPU" weíß ich nicht ob ich lachen oder weinen soll.

Ich hoffe derjenige hat keine 3D-fähige Grafikkarte im Rechner grml.
Die ersten 3D-Grafiken waren CPU berechnet warum hat man die nicht weiter von der CPU rechnen lassen? Weil sonst schon CPU mit 2 Mrd. Transostoren geben müsste um annährend die Leistung zu bringen.

Die ersten 3D-Beschleuniger waren Zusatzkarten die man zur normalen 2D-Karte dazusteckte.

Also warum sollte man nciht auch bei einer PPU so anfangen? Ich sehe nur Schwierigkeiten Spiele per Option mit/ohne PPU zu starten, wenn doch das Gameplay ein ganz anderes sein soll und damit das Spiel auch ganz anders sich anfühlt. Wenn die PPU scheitert, hat der "Geiz ist Geil"-Pöbel wieder mal seine Unfähigkeit bewiesen.

Gast
2006-03-30, 15:35:14
Achja was mir noch zum Thema Zusatzkarte einfällt:

Es gab mal Spiele in denen man vor Spielbeginn festlegen musste ob
ADLIB Soundcard
Creative Soundcard
Roland MP500
PC-Speaker

im Rechner verbaut wurde.
Sobald man das ausgewählt hatte, musste noch IRQ und DMA ausgewählt werden. Hatte man schon CD-Rom, so musste man teilweise einen anderen IRQ auswählen weil der schon belegt war. Dieser IRQ war bei der UR-Soundblaster eine STECKBRÜCKE!!!! Zudem ließen einige Spiele nicht alle IRQ einem zur Auswahl (warum weiß ich nicht). Folglich baute ich mir einen Drehschalter ans Gehäuse ran, mit ich die Soundkarte leicht zwischen den IRQ hin und herswitchen konnte.

Ich glaub manche wissen gar nicth , wie einfach heute alles mit Spielen am PC geworde ist. Hört auf rumzuheulen wegen zusätzlichen Stromanschluss, Lüfter oder Steckplatz! Gibt da ein schönes Sprichwort "Eure Armut kotzt mich an!". Das trifft es manchmal ganz gut

StefanV
2006-03-30, 16:58:05
Achja was mir noch zum Thema Zusatzkarte einfällt:

Es gab mal Spiele in denen man vor Spielbeginn festlegen musste ob
ADLIB Soundcard
Creative Soundcard
Roland MP500
PC-Speaker

im Rechner verbaut wurde.
Richtig, damals, als es noch kein Windos gab, als es noch ein DOS gab, damals als man (noch) keine Treiber für die Ton Karte brauchte, damals als man WIRKLICH noch Plug and Play hatte!!

Einfach reinstecken und geht.

Sobald man das ausgewählt hatte, musste noch IRQ und DMA ausgewählt werden.
Wie es sich auch gehört, nur sehe ich jetzt nicht, was daran ein Problem sein sollte...

Zumal du auch noch wissen musst, in welchem Verzeichnis das Spiel ist, welche Datei du aufrufen musst und du musst auch wissen, wie man es tut...

Hatte man schon CD-Rom, so musste man teilweise einen anderen IRQ auswählen weil der schon belegt war.

Es sind eigentlich alle IRQs belegt :rolleyes:
5, 10 und 11 sind noch frei, mehr nicht, 7 ist teilweise nutzbar (wenn man nicht druckt), damals war auch öfter mal IRQ12 frei, siehe hier (http://www.jensscheffler.de/palminfo/compirq.html)


Dieser IRQ war bei der UR-Soundblaster eine STECKBRÜCKE!!!!

Oh nein, nicht, bitte, das ist absolut TÖDLICH!!111

PS: lieber Jumper, das spart einem den Treiber Mist und man hat noch ein paar Kilobyte (so 10-20kB) mehr Konventionellen Speicher...
Wobei man heutzutage immer noch Jumper auf Festplatten, Mutterbrettern und dem einen oder anderen anderen Ding hat...

Zudem ließen einige Spiele nicht alle IRQ einem zur Auswahl (warum weiß ich nicht).
Weils bei den alten 8bit Karten eh nur die Wahl zwischen 5 und 7 gibt...


Folglich baute ich mir einen Drehschalter ans Gehäuse ran, mit ich die Soundkarte leicht zwischen den IRQ hin und herswitchen konnte.

Wärs nicht einfacher gewesen den IRQ vom CD-ROM Dingsda zu ändern? ;)

Ich glaub manche wissen gar nicth , wie einfach heute alles mit Spielen am PC geworde ist.
DAS ist einfach nicht wahr, früher waren die Probleme digital, entweder es lief oder eben nicht.

Wenn ich das Argument höre "wozu einen zusätzliche PPU-Karte, kann doch die CPU" weíß ich nicht ob ich lachen oder weinen soll.

Ich hoffe derjenige hat keine 3D-fähige Grafikkarte im Rechner grml.
Die ersten 3D-Grafiken waren CPU berechnet warum hat man die nicht weiter von der CPU rechnen lassen? Weil sonst schon CPU mit 2 Mrd. Transostoren geben müsste um annährend die Leistung zu bringen.

Die ersten 3D-Beschleuniger waren Zusatzkarten die man zur normalen 2D-Karte dazusteckte.

Also warum sollte man nciht auch bei einer PPU so anfangen? Ich sehe nur Schwierigkeiten Spiele per Option mit/ohne PPU zu starten, wenn doch das Gameplay ein ganz anderes sein soll und damit das Spiel auch ganz anders sich anfühlt. Wenn die PPU scheitert, hat der "Geiz ist Geil"-Pöbel wieder mal seine Unfähigkeit bewiesen.

FULL ACK!

Oder eine alte 'Konsolenweisheit': 2 spezielle (einfachere) Chips sind besser als ein universeller...

aevil
2006-03-30, 17:25:33
Oder eine alte 'Konsolenweisheit': 2 spezielle (einfachere) Chips sind besser als ein universeller...
Ja, für Konsolen :)

Mehrpack
2006-03-30, 17:45:54
Richtig, damals, als es noch kein Windos gab, als es noch ein DOS gab, damals als man (noch) keine Treiber für die Ton Karte brauchte, damals als man WIRKLICH noch Plug and Play hatte!!

Einfach reinstecken und geht.

Wie es sich auch gehört, nur sehe ich jetzt nicht, was daran ein Problem sein sollte...

Zumal du auch noch wissen musst, in welchem Verzeichnis das Spiel ist, welche Datei du aufrufen musst und du musst auch wissen, wie man es tut...

Es sind eigentlich alle IRQs belegt :rolleyes:
5, 10 und 11 sind noch frei, mehr nicht, 7 ist teilweise nutzbar (wenn man nicht druckt), damals war auch öfter mal IRQ12 frei, siehe hier (http://www.jensscheffler.de/palminfo/compirq.html)


Oh nein, nicht, bitte, das ist absolut TÖDLICH!!111

PS: lieber Jumper, das spart einem den Treiber Mist und man hat noch ein paar Kilobyte (so 10-20kB) mehr Konventionellen Speicher...
Wobei man heutzutage immer noch Jumper auf Festplatten, Mutterbrettern und dem einen oder anderen anderen Ding hat...

Weils bei den alten 8bit Karten eh nur die Wahl zwischen 5 und 7 gibt...


Wärs nicht einfacher gewesen den IRQ vom CD-ROM Dingsda zu ändern? ;)

DAS ist einfach nicht wahr, früher waren die Probleme digital, entweder es lief oder eben nicht.


FULL ACK!

Oder eine alte 'Konsolenweisheit': 2 spezielle (einfachere) Chips sind besser als ein universeller...

hi,
naja einfacher?

treiberprobleme gab es zwar, wenn ich mich entsinne nicht so häufig, aber dafür genug anderes was einem das leben auch schwer machte.
kryptische konsolen eingaben, hauptspeicherformat, mangelnder festplattenspeicher (ja gibts heute auch noch aber damals hatte ich immer das gefühl egal was man drinne hatte es war generell zuwenig egal wie sehr man sparte), sauteuer ram, treiber die man in den hohenspeicher versuchte zu verfrachten um noch die paar kilobytes zusammen zubekommen um endlich das verdammte spiel spielen zu können.

also ehrlich gesagt empfinde ich es heute um einfacher als damals, gut vielleicht täucht das ein bischen, aber als einfacher empfinde ich es heute schon gegenüber von vor 12 jahren.

Mehrpack

aevil
2006-03-30, 18:03:47
einfacher als damals, gut vielleicht täucht das ein bischen, aber als einfacher empfinde ich es heute schon gegenüber von vor 12 jahren.

Mehrpack
Ist schon einfacher geworden durch die Virtualisierung. Wozu um jedes Detail kümmern müssen wenn es nicht sein muss. Ist doch toll eine Festplatte benutzen zu können ohne sich vorher mit der Geometrie auseinanderzusetzen. Eine unterstützte Soundkarte kann ich unter linux einstecken und nach einmal alsamixer starten sofort in allen Anwendungen benutzen. Von solchen Sachen wie TV-USB sticks mal ganz zu schweigen ;)

mapel110
2006-03-30, 18:04:35
hi,
naja einfacher?

treiberprobleme gab es zwar, wenn ich mich entsinne nicht so häufig, aber dafür genug anderes was einem das leben auch schwer machte.
kryptische konsolen eingaben, hauptspeicherformat, mangelnder festplattenspeicher (ja gibts heute auch noch aber damals hatte ich immer das gefühl egal was man drinne hatte es war generell zuwenig egal wie sehr man sparte), sauteuer ram, treiber die man in den hohenspeicher versuchte zu verfrachten um noch die paar kilobytes zusammen zubekommen um endlich das verdammte spiel spielen zu können.

also ehrlich gesagt empfinde ich es heute um einfacher als damals, gut vielleicht täucht das ein bischen, aber als einfacher empfinde ich es heute schon gegenüber von vor 12 jahren.

Mehrpack
Ja, du meinst die XMS/EMS Geschichten. Die haben auch Nerven gekostet, bis die Games endlich selbst mit einem gescheiten Speichermanager gekommen sind. Und wenn man keine Orig Soundblaster hatte, war es auch mehr als ein Glücksspiel, ob Sound aus den Boxen kam oder nicht.

"Reinstecken und geht" gabs damals auch nicht. Es mussten Umgebungsvariablen gesetzt werden, eventuell ein SB-Emu oder Initialisierungstool geladen werden etc pp
Jedes Proggie musste seinen eigenen Druckertreiber haben, wenn man Grafik drucken wollte. Es war auf jedenfall nerviger damals.

Prinzipiell ists mir egal, wie viele Steckkarten ich im Rechner habe. Ich sollte nur für mich auch einen relevanten Nutzen von diesen haben.