PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ageia PPU in tha house ;)


Seiten : [1] 2

tombman
2006-05-30, 13:51:25
Und es bewegt sich DOCH ;)

software

http://img54.imageshack.us/img54/7154/ppusoft0qb.jpg

hardware

http://img210.imageshack.us/img210/7572/ppuhard7kx.jpg

heroman
2006-05-30, 14:04:47
geil geil

gratz tombman *auf neue ergebnisse freu*^^

hyperterminal
2006-05-30, 14:05:09
Deine Screenshots zeigen, dass die CPU durch die PhysX Karte deutlich entlastet wird. Schade nur, dass das in Spielen nicht so ist.

Vertigo
2006-05-30, 14:08:18
Dolle Sache, der Unterschied ist hier wirklich bemerkenswert - nur schade das man für die 300€ aktuell nur ein paar Demos gucken kann. Gibts denn außer Ghost Recon schon jetzt andere Games mit Unterstützung?

AnarchX
2006-05-30, 14:21:11
Touchdown[/POST]']Gibts denn außer Ghost Recon schon jetzt andere Games mit Unterstützung?

Da scheint es doch schon einige zu geben bzw. bald erhältlich:

* Bet on Soldier: Blood Sport
* CellFactor
* City of Villains
* Gunship Apocalypse
* Rise of Nations: Rise of Legends
* Sacred II
* Tom Clancy's Ghost Recon Advanced Warfighter
* Tomb Raider Legend

http://de.wikipedia.org/wiki/PhysX

Deathcrush
2006-05-30, 14:26:59
Na ja wer´s braucht. Da NV und ATI eigene Lösungen angekündigt habn, hoffe ich das das Produkt in der versenkung verschwindet.

captainsangria
2006-05-30, 14:28:44
da ding gibt es in Ö noch nicht, oder?
was kostet der spass im handel?

AnarchX
2006-05-30, 14:35:40
Deathcrush[/POST]']Na ja wer´s braucht. Da NV und ATI eigene Lösungen angekündigt habn, hoffe ich das das Produkt in der versenkung verschwindet.

Echte Gameplay-Physik sollte man nicht mit der von den beiden Herstellern geplanten reinen Effektphysik verwechseln.
Zudem glaube ich nicht das jemand wie Tombman Grafikpower seines CF/SLI-Gespanns für Physik opfern würde.

Gast
2006-05-30, 14:41:31
Deathcrush[/POST]']Na ja wer´s braucht. Da NV und ATI eigene Lösungen angekündigt habn, hoffe ich das das Produkt in der versenkung verschwindet.

das hoffe ich nicht........


was NV oder ATI machen ist schrott da sie sich nur auf die efekte einschießen...

Und wie schon AnarchX meinte keiner der schon jetzt 2 GraKa´s doch hat wird wegen ein paar "puff peng aaa sieht das schön aus" auf Grafikpower verzichten will.

Deathcrush
2006-05-30, 14:48:23
Also das was ich bis jetzt gesehen und gelesen habe bringt die Physix ausser Perfomanceeinbussen nix (GRAW). Und dafür löhn ich keine 300.-. Da warte ich lieber ab und schau was noch passiert. Wofür gibs dann noch die DualCore Cpu´s. Bestimmt nicht zum Spass ;). Irgendwo hört der Spass auch auf. Ich denke das die Karte sich mit den Preisen nicht durchsetzen wird.

Vertigo
2006-05-30, 14:48:34
Deathcrush[/POST]']Na ja wer´s braucht. Da NV und ATI eigene Lösungen angekündigt habn, hoffe ich das das Produkt in der versenkung verschwindet.
Naja, ich habe mir gestern das Ageia-Video auf der aktuellen Gamestar-DVD reingezogen und war von den Effekten in Ghost Recon doch ziemlich enttäuscht. Aber die Entwicklung steckt ja erst am Anfang. Vielleicht wird es sich durchsetzen, so wie einst die 3D-Grafikbeschleuniger, vielleicht auch nicht.

TheGamer
2006-05-30, 15:05:29
Meine auch, um 12:51 war UPS da. Tombman woher hast du deine. Wer hat hier schon eine. Nur wir 2 Österreicher?

HOT
2006-05-30, 15:17:21
Deathcrush[/POST]']Na ja wer´s braucht. Da NV und ATI eigene Lösungen angekündigt habn, hoffe ich das das Produkt in der versenkung verschwindet.

Warum das? Mehr Auswahl kann nie falsch sein.

IVN
2006-05-30, 15:26:08
HOT[/POST]']Warum das? Mehr Auswahl kann nie falsch sein.
Ja es kann, weil dich die PPU, langfristig, zu mehr Ausgaben forsiert.

#44
2006-05-30, 15:30:19
IVN[/POST]']Ja es kann, weil dich die PPU, langfristig, zu mehr Ausgaben forsiert. Forciert ;)
Und ja... die Angst ist da :(
Auch wenn man da nicht wirklich von Auswahl sprechen kann...
Nicht bei Effekt-Physik vs. Physik-Beschleunigung

Monger
2006-05-30, 15:36:22
Was mich irritiert: was limitiert denn da im Softwaremodus?

Die CPU kann's nicht sein, die liegt bei 33% Auslastung. Die Grafikkarte eigentlich auch nicht.

Wieso hat man also bei hardware doppelt so viel fps wie bei Software? Ist vielleicht einfach der Speicher schneller?

Gast
2006-05-30, 15:41:08
Monger[/POST]']Was mich irritiert: was limitiert denn da im Softwaremodus?

Die CPU kann's nicht sein, die liegt bei 33% Auslastung. ....
Die History der CPU schaut anders aus.

IVN
2006-05-30, 16:06:50
#44[/POST]']Forciert ;)
Und ja... die Angst ist da :(
Auch wenn man da nicht wirklich von Auswahl sprechen kann...
Nicht bei Effekt-Physik vs. Physik-Beschleunigung
Ja, danke.
Besser waere es, ein Sys. on a Chip zu entwickeln, und nicht fuer jeden Crap eine neue PU.
-Bei den bevorstehenden Quad-Cores hat man also, ein Core fuer Sound (die KI kann sich diesen mit dem Sound teilen), zwei Cores fuer Physik, und 1 fuer die Game-Logik. Wieso braucht man dann noch eine PPU oder SPU?
- Wenn man so viel mehr zahlen "darf" fuer die zusaetzlichen Effekte, sind mir diese dann auch egal.
- Ihmo ist die CPU der Ueberstunden-Arbeiter in einem PC, und in diese sollt man auch investieren, und nicht in irgendwelche "Prozessoren" die nur bei Spezialaufgaben Abhilfe schaffen.


Edit:
Sorry 4 OT.

Rente
2006-05-30, 16:09:22
IVN[/POST]']Ja, danke.
Besser waere es, ein Sys. on a Chip zu entwickeln, und nicht fuer jeden Crap eine neue PU.
-Bei den bevorstehenden Quad-Cores hat man also, ein Core fuer Sound (die KI kann sich diesen mit dem Sound teilen), zwei Cores fuer Physik, und 1 fuer die Game-Logik. Wieso braucht man dann noch eine PPU oder SPU?
- Wenn man so viel mehr zahlen "darf" fuer die zusaetzlichen Effekte, sind mir diese dann auch egal.
- Ihmo ist die CPU der Ueberstunden-Arbeiter in einem PC, und in diese sollt man auch investieren, und nicht in irgendwelche "Prozessoren" die nur bei Spezialaufgaben Abhilfe schaffen. Dieser Spezialprozessor ist aber rein theorethisch deutlich schneller als ein Quad-Core, wenn es um Physikberechnung geht und entlastet so die CPU, außerdem macht er mehr Leistung für die arg verbesserungwürdige KI frei.

Monger
2006-05-30, 16:14:05
Gast[/POST]']Die History der CPU schaut anders aus.
Voll ausgelastet war sie aber trotzdem nie, und das erklärt auch nicht die relativ niedrigen fps genau auf diesem Screenshot.

Vertigo
2006-05-30, 16:22:55
Monger[/POST]']Voll ausgelastet war sie aber trotzdem nie, und das erklärt auch nicht die relativ niedrigen fps genau auf diesem Screenshot.
Der Unterschied ist aber im Verlaufsdiagramm der CPU-Auslastung mehr als deutlich nachvollziehbar. Außerdem bin ich mir sehr sicher, dass das Rendern einer sich ändernden 3D-Szene in Echtzeit keine gleichmäßige Belastung erzeugt.

IVN
2006-05-30, 16:26:10
Ob-1[/POST]']Dieser Spezialprozessor ist aber rein theorethisch deutlich schneller als ein Quad-Core, wenn es um Physikberechnung geht und entlastet so die CPU, außerdem macht er mehr Leistung für die arg verbesserungwürdige KI frei.
Und wenn man gar nicht spielt (oder nur 1/3 der Zeit mit Spielen verbringt)? Was dann? Sollte man dann (wenn die PPU Standard geworden ist), das Geld, besser in eine leistungsfehigere CPU investieren, die immer Vorteile bringt (dafuer aber keine PPU, und in Spielen wuerde das bedeuten, das man auf Effekte oder Inhalt verzihten muesste) oder die PPU kaufen, und bei einer lahmen CPU bleiben.
- Es ist mir klar, dass die PPU nicht nur neue Ressourcen brinngt, aber auch die CPU entlastet und dadurch Ressourcen freigibt, fuer andere Aufgaben.
Die PPU bringt aber auch eine neue Karte in das Sys. die sehr viel kostet, das ganze Sys. vekompliziert (die Anzahl an moeglichen HW-Kombinationen steigt), es wird noch schwieriger fuer die ISV bugfreie Software zu prodizieren.
Der Trade-off spricht (in meinen Augen) gegen die PPU.

looking glass
2006-05-30, 16:35:55
Sry Leute, wen ich das sage, aber was bringt es wärend des Spielens Resourcen bei der CPU freizumachen? Macht den jemand wärend des spielens noch was anderes rechenintesives? Wie hoch ist den da der Prozentsatz, der da noch Filme nach mpeg4 codiert oder ähnliches.

Versteht mich nicht falsch, aber die CPU ist zum rechnen da und das einzige wirklich gravierende, was genau jene Rechnerkomponente ab und an mal fordert sind Spiele, beim Grossteil der Nutzer. In dem Sinne ist es völlig blödsinnig die CPU zu entlasten und dafür auch noch hunderte von Euro auszugeben für Technik die explizit auch noch von den Applikationen unterstützt werden muss.

TheGamer
2006-05-30, 16:40:43
looking glass[/POST]']Sry Leute, wen ich das sage, aber was bringt es wärend des Spielens Resourcen bei der CPU freizumachen? Macht den jemand wärend des spielens noch was anderes rechenintesives? Wie hoch ist den da der Prozentsatz, der da noch Filme nach mpeg4 codiert oder ähnliches.

Versteht mich nicht falsch, aber die CPU ist zum rechnen da und das einzige wirklich gravierende, was genau jene Rechnerkomponente ab und an mal fordert sind Spiele, beim Grossteil der Nutzer. In dem Sinne ist es völlig blödsinnig die CPU zu entlasten und dafür auch noch hunderte von Euro auszugeben für Technik die explizit auch noch von den Applikationen unterstützt werden muss.

KI und noch viele andere Sachen, da ist blad mal Ende mit Resourcen

looking glass
2006-05-30, 16:42:20
wirklich? Wann den, dann wen mal ein Dual Core überhaupt erstmal vernüftig ausgelastet wird, oder dann, wen die ersten Quad Cores kommen?

Monger
2006-05-30, 16:49:31
Touchdown[/POST]']Der Unterschied ist aber im Verlaufsdiagramm der CPU-Auslastung mehr als deutlich nachvollziehbar. Außerdem bin ich mir sehr sicher, dass das Rendern einer sich ändernden 3D-Szene in Echtzeit keine gleichmäßige Belastung erzeugt.

Irgendwie reden wir immer noch aneinander vorbei...

Was ich mich frage ist: was sorgt dafür, dass die fps so sind wie sie sind? Die CPU kann wie gesagt nicht der Flaschenhals sein, weil sie war nie bis zum Anschlag ausgelastet. Gut ausgelastet, aber nicht voll. Also muss irgendwas anderes limitieren. Aber was?

Neomi
2006-05-30, 16:50:29
looking glass[/POST]']Sry Leute, wen ich das sage, aber was bringt es wärend des Spielens Resourcen bei der CPU freizumachen?

Öhm... viel. Die frei gewordene Rechenzeit muß nicht in andere Anwendungen fließen, sondern kann auch direkt vom Spiel genutzt werden. Zumindest von zukünftigen Spielen, die davon ausgehen, daß diese Rechenzeit zur Verfügung steht.

TheGamer
2006-05-30, 16:53:00
looking glass[/POST]']wirklich? Wann den, dann wen mal ein Dual Core überhaupt erstmal vernüftig ausgelastet wird, oder dann, wen die ersten Quad Cores kommen?

KI wird besser und das rundherum braucht auch mehr CPU Power

AnarchX
2006-05-30, 16:59:59
Man sollte auch bedenken, dass eine spezialisierte PPU Effekte erzeugen kann, die in nicht absehbarer Zeit von einer CPU in angemessener Geschwindigkeit berechnet werden können.
Vielleicht kommt auch noch eine AIPU... ;)

TheGamer
2006-05-30, 17:01:47
Monger[/POST]']Irgendwie reden wir immer noch aneinander vorbei...

Was ich mich frage ist: was sorgt dafür, dass die fps so sind wie sie sind? Die CPU kann wie gesagt nicht der Flaschenhals sein, weil sie war nie bis zum Anschlag ausgelastet. Gut ausgelastet, aber nicht voll. Also muss irgendwas anderes limitieren. Aber was?


Der Mann hat Dualcore mit HT. Jetzt rate mal warum die CPU nur auf 30% ist :)

Nimm Singlecore und du hast ischer keine 30%

Schau dir mal die Graph jeder CPU/HT Einheit an

CPU 1 ist halb und CPU 2 ist halb. Mit Singelcore bist du schon bei 60% Auslastung und dann rechne noch ein wneig HT dazu

Rente
2006-05-30, 17:05:21
AnarchX[/POST]']Man sollte auch bedenken, dass eine spezialisierte PPU Effekte erzeugen kann, die in nicht absehbarer Zeit von einer CPU in angemessener Geschwindigkeit berechnet werden können.
Vielleicht kommt auch noch eine AIPU... ;) Dazu müssten die Entwickler sich erstmal reinknien, der momentane Stand bei der KI in Spielen reizt eine CPU bei weitem nicht aus. Das Beste was wir bis jetzt sehen durften war FarCry, V.I.E.R. und der Driveatar von Forza auf der XBOX.
Dazu gab es übrigens auch einen sehr interessanten Artikel in der c't.

P.S.: Ich schreibe jetzt keinen Off-Topic mehr.

g-string 3
2006-05-30, 17:06:21
TheGamer[/POST]']Der man hat Dualcore mit HT. Jetzt rate mal warum die CPU nur auf 30% ist :)

Nimm Singlecore und du hast ischer keine 30%

Schau dir mal die Graph jeder CPU/HT Einheit an

CPU 1 ist halb und CPU 2 ist halb. Mit Singelcore bist du schon bei 60% Auslastung und dann rechne noch ein wneig HT dazu

Hehe,
gut erkannt!
Die Auflösung meines Monitors ist nicht hoch genug, deshalb hab ich die CPU-Auslastungskurven da oben rechts im ersten post gar nicht erst entdeckt.
Erst nachdem du die History des DC erwähnt hast, hab ich noch mal geschaut ... und ja ... nicht schlecht, nicht schlecht :)

looking glass
2006-05-30, 17:12:06
Ja die KI, die KI und das drum herum, jaja - Dual Core wird doch schon nicht ausgelastet, in 2 Jahren stehen Quad Cores an, WAS zur Hölle, was sollen die den auslasten?

Ihr wiederholt euch und könnt noch nichtmal den Jetztzustand erkennen, geschweige den Aufzeigen, das diese Entlastung irgend etwas bringen würde. Was hat man davon Rechenkapazität freizugeben, die nicht genutzt wird (schon heute) - gar nichts, absolut nichts.

Wo sind den bitte schön die KI - Demos oder ähnliches, die aufzeigen, das diese freie Rechenkapazität gebraucht wird, oder die ersten Experimentalanwendungen für 30 FPS raytracing? wo sind die Forschungsergebnisse die einen solchen rechenintensiven KI durchbruch aufzeigen?

Und bis das alles da ist, bis wir es wirklich in den Händen halten können, ist die CPU Entwicklung schon wieder ein ganzes Stückchen vorran geschritten.


Ergo bleibt die Frage erhalten, für was soll eine PPU gebraucht werden, wen nichtmal heut nen Dual Core ausgelastet wird - eine kostenintesive Erweiterung muss sich rechtfertigen und das tut sie bei Leibe nicht und ich denke, das wird noch mindestens 3 Jahre so bleiben, dann, dann können wir gerne nochmal schauen, ob sie benötigt wird.

Wishnu
2006-05-30, 17:16:33
Monger[/POST]']Irgendwie reden wir immer noch aneinander vorbei...

Was ich mich frage ist: was sorgt dafür, dass die fps so sind wie sie sind? Die CPU kann wie gesagt nicht der Flaschenhals sein, weil sie war nie bis zum Anschlag ausgelastet. Gut ausgelastet, aber nicht voll. Also muss irgendwas anderes limitieren. Aber was?

Ich denke mal das liegt an der Rechentiefe - oder anders Ausgedrückt - an der (eingeschränkten) Genauigkeit der Physikberechnung.
Wenn die CPU ihr soll schaft, bleibt eben noch Zeit für ein kleines Päuschen. ;)

Oder bin ich da jetzt total auf dem Pfad des Holzes? :)

Demirug
2006-05-30, 17:23:02
Ob-1[/POST]']Dieser Spezialprozessor ist aber rein theorethisch deutlich schneller als ein Quad-Core, wenn es um Physikberechnung geht und entlastet so die CPU, außerdem macht er mehr Leistung für die arg verbesserungwürdige KI frei.

Rein theretisch ist aber schon ein Pentium D 950 schneller. ;)

Sphere-Sphere Collisions:

PhysX 530 M/sec
Pentium 1700 M/sec
GF 7800 GTX 2500M/sec

PhysX ist kein Physikprozessor sondern ein mathematischer Coprozessor schleuder und als solche wird er von den kommenden D3D10 Chips zersägt werden.

Before jetzt jemand mit "Effect Physik" kommt. D3D10 sieht die verwendung der GPU als Coprozessor vor und ist entsprechend auch auf darauf ausgelegt Daten zurück zur CPU zu transportieren.

Too late, Too little, RIP

Rente
2006-05-30, 17:27:47
Demirug[/POST]']Rein theretisch ist aber schon ein Pentium D 950 schneller. ;)

Sphere-Sphere Collisions:

PhysX 530 M/sec
Pentium 1700 M/sec
GF 7800 GTX 2500M/sec
Dazu hätte ich aber noch eine Frage: In einer c't-Ausgabe stand etwas von bis zu 20000 berechenbaren Objekten, ist das nur Effect Physik?

Wozu wurde diese dann Karte überhaupt entwickelt?

g-string 3
2006-05-30, 17:32:52
looking glass[/POST]']Was hat man davon Rechenkapazität freizugeben, die nicht genutzt wird (schon heute) - gar nichts, absolut nichts.


Die frames haben sich mehr als verdoppelt (siehe erster post)
Rechenkapazität freigeworden + 150% speed, schon mal ganz gut

AnarchX
2006-05-30, 17:32:52
Ob-1[/POST]']
Wozu wurde diese dann Karte überhaupt entwickelt?

Das Frage ich mich allerdings auch, wenn ich die Zahlen von Demirug sehe. :|
Aber auf der anderen Seite ist sie 2.5mal so schnell wie Tombmans DC@4GHz.

Rente
2006-05-30, 17:39:53
AnarchX[/POST]']Das Frage ich mich allerdings auch, wenn ich die Zahlen von Demirug sehe. :|
Aber auf der anderen Seite ist sie 2.5mal so schnell wie Tombmans DC@4GHz. Naja, von wem stammt diese Demo? Richtig, von Ageia und die wären schön blöd wenn sie es nicht entsprechend angepasst hätten. :rolleyes:

Demirug
2006-05-30, 17:40:11
Ob-1[/POST]']Dazu hätte ich aber noch eine Frage: In einer c't-Ausgabe stand etwas von bis zu 20000 berechenbaren Objekten, ist das nur Effect Physik?

Wozu wurde diese dann Karte überhaupt entwickelt?

Die Physikengine die auf der Karte läuft unterschiedet nicht zwischen Effect Physik und Game Physik. Das macht die CPU indem sie das ganze entweder selbst verwertet oder zur GPU weiterreicht.

Demirug
2006-05-30, 17:43:19
AnarchX[/POST]']Das Frage ich mich allerdings auch, wenn ich die Zahlen von Demirug sehe. :|
Aber auf der anderen Seite ist sie 2.5mal so schnell wie Tombmans DC@4GHz.

Meine Zahlen setzten hochoptimierten SSE Code und massives Multithreadin vorraus. Beides wird in der Novodex Physik Engine aber nicht benutzt.

Zudem muss man auch noch bedenken das es um reine Rechenleistung ging. Dem Pentium dürfte etwas schneller die Bandbreite ausgehen.

Deswegen habe ich ja auch die kommenden GPUs gegen die PPU gesetzt und keine Multicore CPUs.

#44
2006-05-30, 17:53:11
TheGamer[/POST]']Der man hat Dualcore mit HT. Jetzt rate mal warum die CPU nur auf 30% ist :)

Nimm Singlecore und du hast ischer keine 30%

Schau dir mal die Graph jeder CPU/HT Einheit an

CPU 1 ist halb und CPU 2 ist halb. Mit Singelcore bist du schon bei 60% Auslastung und dann rechne noch ein wneig HT dazu

Dürfte aber nicht so sein ;) Denn die CPU müsste immer 100% ausgelastet sein, DAFÜR aber mehr Frames bringen (das war wohl gemeint)

€: Ich merk schon... Blödsinn den ich da erzähl... ist ja kein Softwarerendering ;)
Geht wohl in die Richtung die Wishnu andeutet.

wobei... das würde auch nur dann stimmen wenn die cpu der graka nicht schnell genug daten liefern würde... -> dann müsste sie trozdem 100% ausgelastet sein. Oder wandle auch ich auf dem "weg des Holzes" XD

Blutmaul
2006-05-30, 17:53:50
Demirug[/POST]']Rein theretisch ist aber schon ein Pentium D 950 schneller. ;)

Sphere-Sphere Collisions:

PhysX 530 M/sec
Pentium 1700 M/sec
GF 7800 GTX 2500M/sec

PhysX ist kein Physikprozessor sondern ein mathematischer Coprozessor schleuder und als solche wird er von den kommenden D3D10 Chips zersägt werden.

Before jetzt jemand mit "Effect Physik" kommt. D3D10 sieht die verwendung der GPU als Coprozessor vor und ist entsprechend auch auf darauf ausgelegt Daten zurück zur CPU zu transportieren.

Too late, Too little, RIP


Ich glaube nicht daran, das es, abgesehen von der intelektuellen Leistung, Akzeptanz findet, wenn irgendwelche Effekte zu Leistungseinbrüchen führen.

Und wo jetzt der Vorteil liegen soll, wenn eine Grafikkarte Berechnungen ausführt, die wohl ihre Grafikleistung schmälern werden, ist mir schleierhaft.

Auch wenn die achso tollen - und sie werden ja wirklich immer besser - neuen Grafikkarten mit achso toller Leistungssteigerung aufwarten können, stehen dann auch schon die Programme an, die sie in Gänze auslasten werden.
Also müsste man auf Grafikleistung verzichten um CoPro-Leistung zu erhalten.

Wer will schon so einen Kompromiss ?

Evil Ash
2006-05-30, 17:55:58
tombman[/POST]']Und es bewegt sich DOCH ;)

software


hardware



das interessiert doch nicht, mach doch mal den test, wo per software nur ca. 4 fps erreicht werden. da, wo die "hochhäuser" (big bang) einstürzen mit den zigtausend steinen. danke.

Rente
2006-05-30, 17:57:56
Evil Ash[/POST]']das interessiert doch nicht, mach doch mal den test, wo per software nur ca. 4 fps erreicht werden. da, wo die "hochhäuser" einstürzen mit den zigtausend steinen. danke. Nimm bitte diese verlinkten Bilder raus.

Du meinst "Big Bang" oder?

Wishnu
2006-05-30, 18:53:51
#44[/POST]']Dürfte aber nicht so sein ;) Denn die CPU müsste immer 100% ausgelastet sein, DAFÜR aber mehr Frames bringen (das war wohl gemeint)

€: Ich merk schon... Blödsinn den ich da erzähl... ist ja kein Softwarerendering ;)
Geht wohl in die Richtung die Wishnu andeutet.

wobei... das würde auch nur dann stimmen wenn die cpu der graka nicht schnell genug daten liefern würde... -> dann müsste sie trozdem 100% ausgelastet sein. Oder wandle auch ich auf dem "weg des Holzes" XD

Hm, ich hatte übersehen, dass ja nicht nur die CPU-Last sinkt, sondern auch die Framerate ansteigt.
Alleine das hebelt meine Theorie schon aus. ;)

tombman
2006-05-30, 18:57:28
Evil Ash[/POST]']das interessiert doch nicht, mach doch mal den test, wo per software nur ca. 4 fps erreicht werden. da, wo die "hochhäuser" (big bang) einstürzen mit den zigtausend steinen. danke.
Hab ich probiert, aber Big Bang ist keine offizielle "demo" der PhysX Rocket demo, sondern der NOVODEX Rocket demo. Man kann es zwar unter PHysX aufrufen. erhält aber kaputte Ergebnisse (von Big Bang wird zb bestenfalls nur 1/4 dargestellt, das aber in >70fps). Unter software rennt es aber unter PhysX. Lange Rede, kurzer Sinn, auch "City Explode" rennt leider nicht unter PhysX.
Ich bin froh die "Spirale" überhaupt als Beispiel gefunden zu haben.

Btw, hier noch das Ergebnis mit SINGLE CORE CPU. (boot.ini /onecpu)

software

http://img155.imageshack.us/img155/6933/rocketsinglecpu3ay.jpg

hardware

http://img205.imageshack.us/img205/4551/rocketsingleppu7te.jpg

p.s. ned wundern wegen der verkürzten Lastanzeige im software Bild. Die war IMMER auf 100%, bin nur versehentlich angekommen...

Deathcrush
2006-05-30, 19:00:17
Wie siehts denn mit Cell Factor aus, wie rennt das ohne und mit Physix Karte ?? Das würd mich mal interessieren.

tombman
2006-05-30, 19:00:50
Demirug[/POST]']Rein theretisch ist aber schon ein Pentium D 950 schneller. ;)

Sphere-Sphere Collisions:

PhysX 530 M/sec
Pentium 1700 M/sec
GF 7800 GTX 2500M/sec

PhysX ist kein Physikprozessor sondern ein mathematischer Coprozessor schleuder und als solche wird er von den kommenden D3D10 Chips zersägt werden.

Before jetzt jemand mit "Effect Physik" kommt. D3D10 sieht die verwendung der GPU als Coprozessor vor und ist entsprechend auch auf darauf ausgelegt Daten zurück zur CPU zu transportieren.

Too late, Too little, RIP

Kann ja alles sein, das Zünglein an der Waage sind aber immer die developer, die Gustostückerl in die games einbauen,oder eben nicht. Da nur eine extreme Minderheit DX10 Gpus haben wird, ist es wahrscheinlicher, daß die ein paar kleinere gimmicks für PPU user einbauen, irrelevant ob die cpu oder gpu das selbe Ergebnis erreichen könnte. Es geht nur um den hpye, nicht um die wahre Rechenleistung oder "was vernünftiger" wäre...

IVN
2006-05-30, 19:03:32
Demirug[/POST]']Meine Zahlen setzten hochoptimierten SSE Code und massives Multithreadin vorraus. Beides wird in der Novodex Physik Engine aber nicht benutzt.

Zudem muss man auch noch bedenken das es um reine Rechenleistung ging. Dem Pentium dürfte etwas schneller die Bandbreite ausgehen.

Deswegen habe ich ja auch die kommenden GPUs gegen die PPU gesetzt und keine Multicore CPUs.
Bist du (als Software-Entwickler) gluecklich mit einem weiteren Chip?
Welche PU wuerdest du am liebsten fuer die Physik nehmen?
Findest du, das die PPU dein Leben leichter oder schwieriger machen koennte?

ilPatrino
2006-05-30, 19:31:51
@demi

ihr hattet doch mal angedeutet, daß ihr die ppu (bezüglich performance und technologie) nochmal auseinandernehmen wolltet, aber damals nicht dazu sagen wolltet oder durftet. wie siehts momentan aus?

ageia hat anscheinend verlautbaren lassen, daß sie keinen gp-compiler rausrücken wollen. gibts momentan eine möglichkeit, das teil für wissenschaftliche berechnungen zu "miß"brauchen?

tombman
2006-05-30, 19:34:15
Ok, hier mit Cellfaktor ;)

SINGLE CORE presler @ 4ghz, no fluids, no cloth (sonst nicht vergleichbar, da im cpu-only Modus kein cloth und fluids dargestellt wird), 800x600, KEIN CF (sicher is sicher)


Situation: punktgenaue Schußposition, punktgenaues Ziel= großes Faß welches explodiert und ne große "Lichtblitzexplosion" auslöst, wo EINIGES rumfliegt, BENCHMARK-DAUER: 7 Sekunden !!
kein movement und keine Blickrichtungsänderung während des benchmarks.



CPU ONLY:

2006-05-30 19:24:04 - hl2
Frames: 84 - Time: 7000ms - Avg: 12.000 - Min: 2 - Max: 16

PPU+ CPU:

2006-05-30 19:17:26 - hl2
Frames: 143 - Time: 7000ms - Avg: 20.429 - Min: 5 - Max: 26

Das is eindeutig, Leute ;)

edit: UPDATE:

PPU+CPU + cloth+fluids !

2006-05-30 19:38:01 - hl2
Frames: 125 - Time: 7000ms - Avg: 17.857 - Min: 5- Max: 24

Fazit: sogar MIT fluid+cloth ist die PPU schneller :cool:

Demirug
2006-05-30, 19:36:38
tombman[/POST]']Kann ja alles sein, das Zünglein an der Waage sind aber immer die developer, die Gustostückerl in die games einbauen,oder eben nicht. Da nur eine extreme Minderheit DX10 Gpus haben wird, ist es wahrscheinlicher, daß die ein paar kleinere gimmicks für PPU user einbauen, irrelevant ob die cpu oder gpu das selbe Ergebnis erreichen könnte. Es geht nur um den hpye, nicht um die wahre Rechenleistung oder "was vernünftiger" wäre...

So einiges geht auch schon mit D3D9 und D3D10 GPUs dürften sich um einiges schneller abverkaufen als die PPUs. Entsprechend kurz wird dser Hype anhalten zudem ATI schon fleisig dabei ist die Entwickler entsprechend zu bearbeiten. Habe mich gerade letzte Woche recht nett mit Richard Huddy unterhalten.

IVN[/POST]']Bist du (als Software-Entwickler) gluecklich mit einem weiteren Chip?
Welche PU wuerdest du am liebsten fuer die Physik nehmen?
Findest du, das die PPU dein Leben leichter oder schwieriger machen koennte?

Je weniger Chips/APIs man am Hals hat desto besser. Swenney würde ja zum Beispiel ja am liebsten nur die CPU für alles benutzten.

ilPatrino[/POST]']@demi

ihr hattet doch mal angedeutet, daß ihr die ppu (bezüglich performance und technologie) nochmal auseinandernehmen wolltet, aber damals nicht dazu sagen wolltet oder durftet. wie siehts momentan aus?

AFAIK war Freitag Redaktionsschluss.

ilPatrino[/POST]']ageia hat anscheinend verlautbaren lassen, daß sie keinen gp-compiler rausrücken wollen. gibts momentan eine möglichkeit, das teil für wissenschaftliche berechnungen zu "miß"brauchen?

Wenn sich niemand die Mühe das ganze Treiberpacket zu analysieren sieht es schwarz aus.

Gunslinger
2006-05-30, 19:38:50
captainsangria[/POST]']da ding gibt es in Ö noch nicht, oder?
was kostet der spass im handel?

Um EUR 269,90 aktuell noch drei Stück bei gameware.at lagernd.

Botcruscher
2006-05-30, 19:42:59
tombman[/POST]']Kann ja alles sein, das Zünglein an der Waage sind aber immer die developer, die Gustostückerl in die games einbauen,oder eben nicht. Da nur eine extreme Minderheit DX10 Gpus haben wird, ist es wahrscheinlicher, daß die ein paar kleinere gimmicks für PPU user einbauen, irrelevant ob die cpu oder gpu das selbe Ergebnis erreichen könnte. Es geht nur um den hpye, nicht um die wahre Rechenleistung oder "was vernünftiger" wäre...

Bei den D3D10 Beschleunigern ist aber sicher das es irgendwann eine breite Basis geben wird. Jemanden der keine PPU hat läst der "Hype" kalt. Mit diesen 95% läst sich kein Geld verdienen.

Dank DC, Quadcore und Unishadermonstern wird die PPU lächerlich unter gehen.

tombman
2006-05-30, 19:44:10
Botcruscher[/POST]']Bei den D3D10 Beschleunigern ist aber sicher das es irgendwann eine breite Basis geben wird. Jemanden der keine PPU hat läst der "Hype" kalt. Mit diesen 95% läst sich keinm Geld verdienen.

Dank DC, Quadcore und Unishadermonstern wird die PPU lächerlich unter gehen.
Dann werd ich sie lächerlich wieder verkaufen und loswerden, kein Problem für mich ;)

tombman
2006-05-30, 19:57:44
tombman[/POST]']

edit: UPDATE:

PPU+CPU + cloth+fluids !

2006-05-30 19:38:01 - hl2
Frames: 125 - Time: 7000ms - Avg: 17.857 - Min: 5- Max: 24

Das selbe mit "QUAD-CORE" presler:

2006-05-30 19:54:30 - hl2
Frames: 167 - Time: 7000ms - Avg: 23.857 - Min: 5 - Max: 29

Cellfaktor nutzt also auch dual core aus- nice ;)

Deathcrush
2006-05-30, 20:13:56
Jo das Cell Factor DualCore nutzt hab ich auch schon bemerkt. Vorher mis SC so ca. 15 fps und mit DC ca. 28 FPS. Das ist schon beachtlich. Deshalb würde mich ja mal der vergleich mit Phsyix interessieren.

tombman
2006-05-30, 20:28:07
...und die madness geht weiter ;)

Fluid und Cloth Videos ;) (H.264, 800x600)

OHNE TON!

http://rapidshare.de/files/21790571/CELL-PPU-F_C.rar.html

p.s. wie immer bei fraps Videos gilt: die fps sind ingame ca 30-50% höher...

HisN
2006-05-30, 20:40:38
Bin gespannt wann Du Dir GRAW vornimmst und bestätigst oder widerlegst was die Hardware-Mags darüber berichtet haben :-)

TheGamer
2006-05-30, 20:40:54
g-string 3[/POST]']Hehe,
gut erkannt!
Die Auflösung meines Monitors ist nicht hoch genug, deshalb hab ich die CPU-Auslastungskurven da oben rechts im ersten post gar nicht erst entdeckt.
Erst nachdem du die History des DC erwähnt hast, hab ich noch mal geschaut ... und ja ... nicht schlecht, nicht schlecht :)

Darum hab ich ja einen 24 Zoll Widescreen, um dir sowas zu sagen :D

tombman
2006-05-30, 21:10:43
HisN[/POST]']Bin gespannt wann Du Dir GRAW vornimmst und bestätigst oder widerlegst was die Hardware-Mags darüber berichtet haben :-)
Hab wenig Bock dazu, hab mir die Effekte angesehen, sind recht "nice" aber ned unbedingt etwas, was man näher beachten muß. Genug fps hab ich sowieso, mit und ohne ppu...aufgefallen is mir auch nix.

tombman
2006-05-30, 21:11:33
TheGamer[/POST]']Darum hab ich ja einen 24 Zoll Widescreen, um dir sowas zu sagen :D
hmm, da du ja auch eine PPU hast-> wir könnten mal ein match starten und ein bischen gemeinsam rumalbern ;) Morgen am Abend vielleicht, ok?

AnarchX
2006-05-30, 21:15:52
Kann man die PPU eigentlich übertakten? ;)

TheGamer
2006-05-30, 21:18:17
tombman[/POST]']hmm, da du ja auch eine PPU hast-> wir könnten mal ein match starten und ein bischen gemeinsam rumalbern ;) Morgen am Abend vielleicht, ok?

Koennen wir gerne mal machen jo morgen bin ich mir aber noch nicht sicher evt kommich morgen spaeter vom Broetchen eh Hardwareverdienen heim. Hab das Teil gerade erst eingebaut und nur Cell Factor getestet. Schoen smooth das ganze :)

Mal weiter testen, evt werde ich noch einen speziellen Stresstest mit dem SDK programmieren. Was waere da ein guter Test?

tombman
2006-05-30, 21:18:25
AnarchX[/POST]']Kann man die PPU eigentlich übertakten? ;)
ROFL, sickeste Frage bis jetzt- and i love it :D

tombman
2006-05-30, 21:20:43
TheGamer[/POST]']Koennen wir gerne mal machen jo morgen bin ich mir aber noch nicht sicher evt kommich morgen spaeter vom Broetchen eh Hardwareverdienen heim. Hab das Teil gerade erst eingebaut und nur Cell Factor getestet. Schoen smooth das ganze :)

Mal weiter testen, evt werde ich noch einen speziellen Stresstest mit dem SDK programmieren. Was waere da ein guter Test?
Wenn du den skill dazu hast, wäre es IDEAL, wenn du die Big Bang demo FEHLERFREI auf PhysX Rocket laufen lassen könntest ;)
(wennst die Big Bang.lua ned hast -> kannst vom ALTEN Novodex PhysX demo bekommen oder ich schicks dir.)
Ist der beste Stresstest überhaupt, denn da schafft eine cpu nicht mal 5fps ;)

san.salvador
2006-05-30, 21:21:45
tombman[/POST]']Ok, hier mit Cellfaktor ;)

SINGLE CORE presler @ 4ghz, no fluids, no cloth (sonst nicht vergleichbar, da im cpu-only Modus kein cloth und fluids dargestellt wird), 800x600, KEIN CF (sicher is sicher)


Situation: punktgenaue Schußposition, punktgenaues Ziel= großes Faß welches explodiert und ne große "Lichtblitzexplosion" auslöst, wo EINIGES rumfliegt, BENCHMARK-DAUER: 7 Sekunden !!
kein movement und keine Blickrichtungsänderung während des benchmarks.



CPU ONLY:

2006-05-30 19:24:04 - hl2
Frames: 84 - Time: 7000ms - Avg: 12.000 - Min: 2 - Max: 16

PPU+ CPU:

2006-05-30 19:17:26 - hl2
Frames: 143 - Time: 7000ms - Avg: 20.429 - Min: 5 - Max: 26

Das is eindeutig, Leute ;)

edit: UPDATE:

PPU+CPU + cloth+fluids !

2006-05-30 19:38:01 - hl2
Frames: 125 - Time: 7000ms - Avg: 17.857 - Min: 5- Max: 24

Fazit: sogar MIT fluid+cloth ist die PPU schneller :cool:

Jo, beides ist eindeutig völlig unspielbar, mehr aber auch nicht. Ich steck mir doch Karte in den rechner, damit irgendwas statt "arschlahm" nurnoch "unspielbar lahm" läuft.

AnarchX
2006-05-30, 21:23:45
san.salvador[/POST]']Jo, beides ist eindeutig völlig unspielbar, mehr aber auch nicht. Ich steck mir doch Karte in den rechner, damit irgendwas statt "arschlahm" nurnoch "unspielbar lahm" läuft.

Ist ja auch nur ein Netburst Dualcore mit nur 4GHz, mit Conroe sieht das dann schon wieder anders aus.

tombman
2006-05-30, 21:33:14
san.salvador[/POST]']Jo, beides ist eindeutig völlig unspielbar, mehr aber auch nicht. Ich steck mir doch Karte in den rechner, damit irgendwas statt "arschlahm" nurnoch "unspielbar lahm" läuft.

[ ] du hast verstanden, daß nur single core lief
[ ] du hast das update auf dual core weiter unten gelesen
[ ] du hast verstanden, daß es hier AUSCHLIESSLICH um eine große Explosion ging
[ ] du hast den ganzen thread gelesen
[ ] du hast verstanden, daß Cellfaktor eine BETA-TECH-DEMO ist

Danke, 6, setzen ;)

tombman
2006-05-30, 21:33:52
AnarchX[/POST]']Ist ja auch nur ein Netburst Dualcore mit nur 4GHz, mit Conroe sieht das dann schon wieder anders aus.
der bei seinem quote nur mit single core lief...

GENAU LESEN, LEUTE!!

TheGamer
2006-05-30, 21:37:56
tombman[/POST]']Wenn du den skill dazu hast, wäre es IDEAL, wenn du die Big Bang demo FEHLERFREI auf PhysX Rocket laufen lassen könntest ;)
(wennst die Big Bang.lua ned hast -> kannst vom ALTEN Novodex PhysX demo bekommen oder ich schicks dir.)
Ist der beste Stresstest überhaupt, denn da schafft eine cpu nicht mal 5fps ;)

Jo sollte gehen, hab schon oefters mit dem SDK rumprogrammiert, senden bitte.

AnarchX
2006-05-30, 21:40:54
tombman[/POST]']der bei seinem quote nur mit single core lief...


Wobei aber die 23 FPS avg. mit Soft-Quadcore auch nicht sonderlich atemberaubend sind.
Aber die Abhilfe liegt ja bei dir schon herum... ;)

tombman
2006-05-30, 21:42:45
TheGamer[/POST]']Jo sollte gehen, hab schon oefters mit dem SDK rumprogrammiert, senden bitte.
OK, hier bitte (.txt wegnehmen)

tombman
2006-05-30, 21:44:04
AnarchX[/POST]']Wobei aber die 23 FPS avg. mit Soft-Quadcore auch nicht sonderlich atemberaubend sind.
Aber die Abhilfe liegt ja bei dir schon herum... ;)
es ging um NUR um eine große Explosion... nix anderes.. rumrennen sinds deutlich mehr fps...

TheGamer
2006-05-30, 21:44:09
tombman[/POST]'].txt wegnehmen

Was du nicht sagst :D


THX!

tombman
2006-05-30, 21:48:05
TheGamer[/POST]']Was du nicht sagst :D


THX!
Bitte ;)

ich hoffe du kriegst es vollständig zum laufen, am besten erstmal vorher in reiner software anschauen, dann weißt wie es auszusehen hat ;)

Würde mich aber ned wundern wenn du es ned schaffst, hab da so eine böse Ahnung. Ich glaube die PPU kann nur eine gewisse Menge an Objekten darstellen, die durch den onboard-RAM limitiert sind. Denn bei anderen demos kann man ja mit der space Taste Kugeln verschießen, was auf software EWIG geht, bei hardware aber nach einer bestimmten Zeit nicht mehr--> Speicher zu Ende? ;)

TheGamer
2006-05-30, 21:53:09
tombman[/POST]']Bitte ;)

ich hoffe du kriegst es vollständig zum laufen, am besten erstmal vorher in reiner software anschauen, dann weißt wie es auszusehen hat ;)

Würde mich aber ned wundern wenn du es ned schaffst, hab da so eine böse Ahnung. Ich glaube die PPU kann nur eine gewisse Menge an Objekten darstellen, die durch den onboard-RAM limitiert sind. Denn bei anderen demos kann man ja mit der space Taste Kugeln verschießen, was auf software EWIG geht, bei hardware aber nach einer bestimmten Zeit nicht mehr--> Speicher zu Ende? ;)

Ok wieviel Objekte sinds denn? Mal was shcnell zusammenbauen das guckt wo das Limit ist, oder steht das irgendwo?

tombman
2006-05-30, 22:45:43
TheGamer[/POST]']Ok wieviel Objekte sinds denn? Mal was shcnell zusammenbauen das guckt wo das Limit ist, oder steht das irgendwo?
Also ich hab da keine ANzeige gesehen, außerdem war das nur eine Vermutung eines normalen users, bin kein dev. ;)

Demirug
2006-05-30, 23:27:11
TheGamer[/POST]']Ok wieviel Objekte sinds denn? Mal was shcnell zusammenbauen das guckt wo das Limit ist, oder steht das irgendwo?

Falls du es noch nicht gesehen hast:

Known Issues and Limitations

See the API references for details concerning which API functions are supported.

At most 2000 shapes can be present in a scene at once (this includes both static and dynamic shapes).

Precision limitations suggest that physics behavior may not be stable or correct more than 1000 units from the origin.

Rigid body scenes occupy 32MB of memory on the card, so that absolutely no more than three scenes may be present on the card at once.

The following is an important but non-exhaustive list of SDK features which are not supported: joints, continuous collision, contact notification, many debugging visualization, contact notifications, triggers, per shape skin width.

Convex hulls are limited in this release to have at most 32 vertices and 32 faces.

Using terrain meshes on hardware requires making use of the new mesh paging API. When a mesh is cooked, it is divided into a number of hardware pages, and these pages must be manually moved to the card by the application for any collision to take place.

The number of pages into which a mesh will be cooked is variable, and will depend on the degree of local convexity in the mesh. However, at least 500 triangles should fit into a mesh page, and the allocation of 16MB of mesh data supports 256 pages, which allows for the presence of more than 100,000 triangles on the card. Note that when a page is removed from the card, the space occupied by that mesh page is not freed until after the physics has been stepped. No data yet exists for the performance of paging meshes on and off the card; however as a baseline the raw transmission of a mesh page by DMA requires half a millisecond.

As in the software SDK, in the absence of ATT it is easy for thin objects to tunnel through the mesh; in particular collisions will not be detected with objects whose center lies beneath the mesh.

Due to limitations of the friction model, objects sliding on a triangle mesh may not have correct frictional behavior. Per-triangle materials are not supported.

Ich empfehle allerdings zumindestens testweise auch mal die nicht öffentlichen Treiberversionen sowie den Cell Factor Spezial Treiber zu probieren. Dort könnte es weniger limitierungen geben. Falls du nicht weiß wie man die Spezailtreiber aktiviert schreib mir eine PM.

tombman
2006-05-30, 23:44:04
Demirug[/POST]']Falls du es noch nicht gesehen hast:



Ich empfehle allerdings zumindestens testweise auch mal die nicht öffentlichen Treiberversionen sowie den Cell Factor Spezial Treiber zu probieren. Dort könnte es weniger limitierungen geben. Falls du nicht weiß wie man die Spezailtreiber aktiviert schreib mir eine PM.
Wenn du weißt wie man BigBang in hardware korrekt ausführen kann, dann sag es bitte hier direkt und ich führe es aus. Danke.

Demirug
2006-05-30, 23:48:24
tombman[/POST]']Wenn du weißt wie man BigBang in hardware korrekt ausführen kann, dann sag es bitte hier direkt und ich führe es aus. Danke.

Ich weiß es aber nicht. Ich habe mich lediglich mit dem Aufbau des Treibersystems für die Karte beschäftigt und dabei bestimmte Dinge herausgefunden. Da sie aber nicht in dem öffentlichen SDK dokumentiert sind möchte ich das ganze hier nicht breit treten.

Zudem funktioniert das ganze nur wenn man selber ein Programm schreibt. Ein Tool zu nachträglichen Patchen der API Version in bestehenden Anwednungen ist noch nicht fertig.

ilPatrino
2006-05-31, 00:19:44
Demirug[/POST]']Ich weiß es aber nicht. Ich habe mich lediglich mit dem Aufbau des Treibersystems für die Karte beschäftigt und dabei bestimmte Dinge herausgefunden. Da sie aber nicht in dem öffentlichen SDK dokumentiert sind möchte ich das ganze hier nicht breit treten.

=) ist von deiner seite in nächster zeit mit mehr infos zur karte (und den bestehenden limitierungen seitens hard- oder software) zu rechnen? eager waiting for more.
die bisherigen reviews waren recht oberflächlich, was wahrscheinlich an der informationspolitik seitens der hersteller liegen dürfte, oder?

Zudem funktioniert das ganze nur wenn man selber ein Programm schreibt. Ein Tool zu nachträglichen Patchen der API Version in bestehenden Anwednungen ist noch nicht fertig.
:confused:

TheGamer
2006-05-31, 08:07:59
Demirug[/POST]']Ich weiß es aber nicht. Ich habe mich lediglich mit dem Aufbau des Treibersystems für die Karte beschäftigt und dabei bestimmte Dinge herausgefunden. Da sie aber nicht in dem öffentlichen SDK dokumentiert sind möchte ich das ganze hier nicht breit treten.

Zudem funktioniert das ganze nur wenn man selber ein Programm schreibt. Ein Tool zu nachträglichen Patchen der API Version in bestehenden Anwednungen ist noch nicht fertig.

Aehm nicht in der oeffentlichen gut wenn man Zugang zur 2.4.x hat wo steht das denn?

Demirug
2006-05-31, 08:10:57
TheGamer[/POST]']Aehm nicht in der oeffentlichen gut wenn man Zugang zur 2.4.x hat wo steht das denn?

Ich habe kein 2.4.x SDK aber jede menge böse Analyse Tools.

tombman
2006-05-31, 14:19:26
tombman[/POST]']Das selbe mit "QUAD-CORE" presler:

2006-05-30 19:54:30 - hl2
Frames: 167 - Time: 7000ms - Avg: 23.857 - Min: 5 - Max: 29

Cellfaktor nutzt also auch dual core aus- nice ;)
Das selbe, nur ohne PPU, also multi-core presler software:

2006-05-31 14:06:21 - hl2
Frames: 113 - Time: 7000ms - Avg: 16.143 - Min: 1 - Max: 24

Fazit: Cellfaktor ist bei großen Explosionen (und darauf kommts an)mit PPU auf einem multicore 4ghz presler ca. 50% schneller als ohne PPU, wobei man noch bedenken muß, daß fluids und cloths nur mit PPU dargestellt werden!

Evil Ash
2006-05-31, 17:32:00
tombman[/POST]']es ging um NUR um eine große Explosion... nix anderes.. rumrennen sinds deutlich mehr fps...

und das ist es, warauf es ankommt, oder? warum sollte ich über 200€ ausgeben, nur damit die fps von 3 auf 7 steigen??
tolle prozentuale steigerung, nur halt sinnlos.

und big ben stellt so um die 16700 steine dar.

#44
2006-05-31, 18:03:01
Evil Ash[/POST]']und das ist es, warauf es ankommt, oder? warum sollte ich über 200€ ausgeben, nur damit die fps von 3 auf 7 steigen??
tolle prozentuale steigerung, nur halt sinnlos.

und big ben stellt so um die 16700 steine dar.

Stimmt... Wenn sie nicht genutzt wird kann sie auch keinen Flaschenhals bilden :D full ack

Botcruscher
2006-05-31, 18:39:15
tombman[/POST]']Das selbe, nur ohne PPU, also multi-core presler software:
2006-05-31 14:06:21 - hl2
Frames: 113 - Time: 7000ms - Avg: 16.143 - Min: 1 - Max: 24
Fazit: Cellfaktor ist bei großen Explosionen (und darauf kommts an)mit PPU auf einem multicore 4ghz presler ca. 50% schneller als ohne PPU, wobei man noch bedenken muß, daß fluids und cloths nur mit PPU dargestellt werden!

1-24 fps? Sorry die Karte ist genauso unbrauchbar wie den Fazit. Wer bitte soll einen Egoshooter mit 16Frames zocken?! Da lachen dich doch alle UT/Q3/CS Spieler aus.
Wer ist bereit für unspielbaren eye candy 250 Ocken sprinegn zu lassen um danach schlechter zu sein als vorher? :|

KraetziChriZ
2006-05-31, 18:41:36
Botcruscher[/POST]']Wer ist bereit für unspielbaren eye candy 250 Ocken sprinegn zu lassen um danach schlechter zu sein als vorher? :|

Das Eyecandy ist JETZT unspielbar. Ist es das, wenn die ersten FINALEN richtigen Spiele damit rauskommen? Ich denke nicht.. denn wenn UT2k7 usw. kommt, wird das mit sowie ohne GPU mit einem guten System spielbar sein.

Momentan ist es so (Ghost Recon), das die PPU für mehr Effekte sorgt, OHNE die Performance negativ zu beeinflussen. :smile:
Wem das 200€ Wert ist, soll es ausgeben :D

gruß
chris

Deathcrush
2006-05-31, 19:18:29
Ne, mehr effekte für wenieger Leistung bei GRAW

http://www.3dcenter.de/artikel/ageia_physx/index4.php

Szudri
2006-05-31, 19:40:31
Die jungs von Grin haben aber ein wenig an der PhysX Engine gespielt mit dem patch 1.10... kann also durchaus sein das diese Werte da nicht mehr stimmen?

tombman
2006-05-31, 20:41:51
Botcruscher[/POST]']1-24 fps? Sorry die Karte ist genauso unbrauchbar wie den Fazit. Wer bitte soll einen Egoshooter mit 16Frames zocken?! Da lachen dich doch alle UT/Q3/CS Spieler aus.
Wer ist bereit für unspielbaren eye candy 250 Ocken sprinegn zu lassen um danach schlechter zu sein als vorher? :|

tombman[/POST]']
[ ] du hast verstanden, daß es hier AUSCHLIESSLICH um eine große Explosion ging und die fps sich NUR auf diesen 7 Sekunden Zeitpunkt beziehen
[ ] du hast den ganzen thread gelesen
[ ] du hast verstanden, daß Cellfaktor eine BETA-TECH-DEMO ist

Danke, 6, setzen ;)

KraetziChriZ
2006-05-31, 20:53:46
Szudri[/POST]']Die jungs von Grin haben aber ein wenig an der PhysX Engine gespielt mit dem patch 1.10... kann also durchaus sein das diese Werte da nicht mehr stimmen?

Das ist sogar so. Laut GameStar.de hat GRAW keine Performanceeinbuße trotz mehr Effekte mit dieser Karte von BFG. (Aktuelle Ausgabe)

Obs stimmt, weis ich nicht.. evtl. kann Tombman dazu ja mal was sagen?

gruß
chris

Botcruscher
2006-05-31, 21:14:50
tombman[/POST]']...

Yah die nächste Karte wir den auch bei den fetten Explsionen so 3, besser 400% besser und dann wirds auch was mit der PPU.

Deathcrush
2006-05-31, 21:18:51
KraetziChriZ[/POST]']Das ist sogar so. Laut GameStar.de hat GRAW keine Performanceeinbuße trotz mehr Effekte mit dieser Karte von BFG. (Aktuelle Ausgabe)

Obs stimmt, weis ich nicht.. evtl. kann Tombman dazu ja mal was sagen?

gruß
chris

Gamestar ist fürn Arsch und objektive Berichte gibs dort nicht. Da vertraue ich dem Bericht von 3DCenter mehr. Allerdings würd mich interessieren ob die Perfomance mit dem neuesten Patch besser wurde mit der Karte oder nicht.

Gast
2006-05-31, 21:48:32
tombman kanste die Ageia Boxes demo mit/ohne ppu testen thx.

Razor
2006-06-01, 07:07:34
TheGamer[/POST]']...und nur Cell Factor getestet. Schoen smooth das ganze :)
Bei 25fps?
Schrammt ja wohl hart an der Unspielbarkeit.

Mit und noch schlimmer ohne PPU...
...wozu soll so etwas gut sein?
:confused:

san.salvador[/POST]']Jo, beides ist eindeutig völlig unspielbar, mehr aber auch nicht. Ich steck mir doch Karte in den rechner, damit irgendwas statt "arschlahm" nurnoch "unspielbar lahm" läuft.
Jo!
:down:

tombman[/POST]']Danke, 6, setzen ;)
[ ] Ich habe verstanden, dass ich nur unsinn erzähle
[ ] Unspielbar ist unspielbar... egal ob nur eine Scene oder auch der ganz Rest
[ ] Da es nur Beta-Müll gibt und ich 'echte' Spiele ablehne, ist der Beta-Müll das einzige, was zählt.

Sorry, aber dieser PhysiX-Schrott geht mir echt auf die Nerven. Da wird eine weitere API aus dem Boden gehämmert und die Leute freun' sich hier, und kaufen den Müll... gottlob sind das Ausnahmen.

Dass der PhysiX-Treiber installiert werden muss, obwohl die Anwendung auch ohne Hardware läuft, ist ein Armuts-Zeugnis par Excellence... dass dann auch noch einfach .NET (ohne zu fragen!) installiert wirde, setzt dem noch einen drauf. Insofern läuft dieser PhysiX-Demo-Schrott in einer Software-Emulation die nicht sonderlich gut auf die Prozessor-Eigenheiten der unterschiedlichen Architekturen eingehen dürfte... kein SSE3, kein sonstwas... wozu auch? Würde es ja diese "Pseudo-Hardware" noch schlimmer aussehen lassen, als ohnehin schon.

Interessant ist ja nun wirklich das erste von Dir gezeigte "Demo"...
Schau' Dir das Teil nochmal an und erzähl mir mal, was da so besonderes dran sein soll.
Und wenn Du mir jetzt noch klar machen kannst, warum eine CPU bei dieser "Super-Heftig-Domino-Scene" nur 100fps und nicht 1000fps (egal ob DC oder nicht) und das PhysiX-Zeug garde mal 250 schafft, dann wäre ich beruhigt, dass hier wenigstens mit 'etwas' Sachverstand heran gegangen wird... von Demirug und einzelnen Anderen hier mal abgesehen.

KraetziChriZ[/POST]']Momentan ist es so (Ghost Recon), das die PPU für mehr Effekte sorgt, OHNE die Performance negativ zu beeinflussen. :smile:
Wem das 200€ Wert ist, soll es ausgeben :D
Schön wär's...
- mit PPU ohne zusätzliche Effekte... keine bessere Performance
- mit PPU mit zusätzlichen Effekten... geringere Performance
(vergiß Gamestar! ;-)

DAS ist keine 200 wert... und hier wird ja sogar mehr für diesen Schrott bezahlt.

Razor

TheGamer
2006-06-01, 08:07:21
Razor[/POST]']Bei 25fps?
Schrammt ja wohl hart an der Unspielbarkeit.

Mit und noch schlimmer ohne PPU...
...wozu soll so etwas gut sein?
:confused:


Jo!
:down:


[ ] Ich habe verstanden, dass ich nur unsinn erzähle
[ ] Unspielbar ist unspielbar... egal ob nur eine Scene oder auch der ganz Rest
[ ] Da es nur Beta-Müll gibt und ich 'echte' Spiele ablehne, ist der Beta-Müll das einzige, was zählt.

Sorry, aber dieser PhysiX-Schrott geht mir echt auf die Nerven. Da wird eine weitere API aus dem Boden gehämmert und die Leute freun' sich hier, und kaufen den Müll... gottlob sind das Ausnahmen.

Dass der PhysiX-Treiber installiert werden muss, obwohl die Anwendung auch ohne Hardware läuft, ist ein Armuts-Zeugnis par Excellence... dass dann auch noch einfach .NET (ohne zu fragen!) installiert wirde, setzt dem noch einen drauf. Insofern läuft dieser PhysiX-Demo-Schrott in einer Software-Emulation die nicht sonderlich gut auf die Prozessor-Eigenheiten der unterschiedlichen Architekturen eingehen dürfte... kein SSE3, kein sonstwas... wozu auch? Würde es ja diese "Pseudo-Hardware" noch schlimmer aussehen lassen, als ohnehin schon.

Interessant ist ja nun wirklich das erste von Dir gezeigte "Demo"...
Schau' Dir das Teil nochmal an und erzähl mir mal, was da so besonderes dran sein soll.
Und wenn Du mir jetzt noch klar machen kannst, warum eine CPU bei dieser "Super-Heftig-Domino-Scene" nur 100fps und nicht 1000fps (egal ob DC oder nicht) und das PhysiX-Zeug garde mal 250 schafft, dann wäre ich beruhigt, dass hier wenigstens mit 'etwas' Sachverstand heran gegangen wird... von Demirug und einzelnen Anderen hier mal abgesehen.


Schön wär's...
- mit PPU ohne zusätzliche Effekte... keine bessere Performance
- mit PPU mit zusätzlichen Effekten... geringere Performance
(vergiß Gamestar! ;-)

DAS ist keine 200 wert... und hier wird ja sogar mehr für diesen Schrott bezahlt.

Razor

ER hat gesprochen ROTFL


Er hat eine Meinung fuer uns alle, meint er :D

dass hier wenigstens mit 'etwas' Sachverstand heran gegangen wird

sagt er, dann soll er es auch sleber tun :comfort2:


Bitte jeder akzeptiert deine Meinung, aber bei solch einer ausdrucksweise und inkompetenz wird sie sicher mehr ignoriert als akzeptiert

TheGamer
2006-06-01, 08:09:04
Razor[/POST]']Bei 25fps?
Schrammt ja wohl hart an der Unspielbarkeit.

Mit und noch schlimmer ohne PPU...
...wozu soll so etwas gut sein?
:confused:




Nein mit mehr, aber frag doch mal nach der Aufloesung :comfort2:

mbee
2006-06-01, 08:37:02
dass dann auch noch einfach .NET (ohne zu fragen!) installiert wirde, setzt dem noch einen drauf. Insofern läuft dieser PhysiX-Demo-Schrott in einer Software-Emulation die nicht sonderlich gut auf die Prozessor-Eigenheiten der unterschiedlichen Architekturen eingehen dürfte... kein SSE3, kein sonstwas... wozu auch? Würde es ja diese "Pseudo-Hardware" noch schlimmer aussehen lassen, als ohnehin schon.


Sorry, aber man merkt, dass Du, was NET angeht, anscheinend nicht den blassesten Schimmer hast...

#44
2006-06-01, 08:46:19
TheGamer[/POST]']Nein mit mehr, aber frag doch mal nach der Aufloesung :comfort2:

800x600... neja ich find das auch nicht beeindruckend :wink:

TheGamer
2006-06-01, 09:02:50
#44[/POST]']800x600... neja ich find das auch nicht beeindruckend :wink:

Jetzt ratet der auch noch rum. Man muss immer auf die Settings schauen Tombmans Werte war alles oben oder?

Meinst du ich spiel mit meinem TFT auf 800x600, die Auflösung kannich nciht mal anwählen :D

#44
2006-06-01, 09:30:55
TheGamer[/POST]']Jetzt ratet der auch noch rum. Nein der liest Tombmans Postings O_o
TheGamer[/POST]']
Man muss immer auf die Settings schauen Tombmans Werte war alles oben oder? Ka steht nix dabei... (nur das er einmal mit cloth&fluid bencht; und generell ohne CF)

TheGamer[/POST]']Meinst du ich spiel mit meinem TFT auf 800x600, die Auflösung kannich nciht mal anwählen :D
RICHTIG aber wenns auf 800x600 schon grottig performt...

Richtig lesen! Das Ganze bezieht sich nur auf eine 7 sec Explosion... Wenn die PPU dann nichts leistet wenn sie gebraucht wird, sehe ich nicht ein sie zu kaufen. Denn wenn nix passiert ist man sicher auch ohne schneller, oder? ICH brauche keine PPU um in Szenen die diese nutzen TROZDEM Ruckler zu haben...

Letztendlich Stellt sich mir die Frage woher der Unterschied zu dem Domino Bench herrührt... Wird da die PPU soviel weniger belastet? Oder ist das doch ein Code prob?

Demirug
2006-06-01, 09:46:08
Razor[/POST]']Dass der PhysiX-Treiber installiert werden muss, obwohl die Anwendung auch ohne Hardware läuft, ist ein Armuts-Zeugnis par Excellence... dass dann auch noch einfach .NET (ohne zu fragen!) installiert wirde, setzt dem noch einen drauf. Insofern läuft dieser PhysiX-Demo-Schrott in einer Software-Emulation die nicht sonderlich gut auf die Prozessor-Eigenheiten der unterschiedlichen Architekturen eingehen dürfte... kein SSE3, kein sonstwas... wozu auch? Würde es ja diese "Pseudo-Hardware" noch schlimmer aussehen lassen, als ohnehin schon.

Das der Treiber Installiert werden muss liegt daran das er gleichzeitig die Software Engine ist. Aber von gutem Softwaredesign hat man bei Ageia scheinbar sowieso keine Ahnung.

Das mit dem .Net ist mir gar nicht aufgefallen weil ich es ja sowieso auf der Maschine habe. ich wüsste jetzt aber auch nicht wo da .Net benutzt wird. Im Treiber/Runtime auf jeden Fall mal nicht.

tombman
2006-06-01, 09:49:19
Lol, ich glaube langsam einige verstehen nicht mal WAS ich gebenched habe und was die Ergebnisse waren, nur weil sie die posts nicht genau lesen.

Deshalb hier nochmal das Fazit bzgl Cellfactor.

Wenn die PPU am meisten gebraucht wird, nämlich bei (großen) Explosionen, sind die fps 50% höher als ohne die PPU. Weiters zeigt nur die PPU cloth und fluids an!

Ich hoffe, daß einige es wenigstens schaffen dieses Fazit zu lesen und zu verstehen :rolleyes:

TheGamer
2006-06-01, 09:53:07
Demirug[/POST]']Das der Treiber Installiert werden muss liegt daran das er gleichzeitig die Software Engine ist. Aber von gutem Softwaredesign hat man bei Ageia scheinbar sowieso keine Ahnung.

Das mit dem .Net ist mir gar nicht aufgefallen weil ich es ja sowieso auf der Maschine habe. ich wüsste jetzt aber auch nicht wo da .Net benutzt wird. Im Treiber/Runtime auf jeden Fall mal nicht.

Du schuldest mir noch eine PN :) Danke!

#44
2006-06-01, 09:54:00
tombman[/POST]']Lol, ich glaube langsam einige verstehen nicht mal WAS ich gebenched habe und was die Ergebnisse waren, nur weil sie die posts nicht genau lesen.

Deshalb hier nochmal das Fazit bzgl Cellfactor.

Wenn die PPU am meisten gebraucht wird, nämlich bei (großen) Explosionen, sind die fps 50% höher als ohne die PPU. Weiters zeigt nur die PPU cloth und fluids an!

Ich hoffe, daß einige es wenigstens schaffen dieses Fazit zu lesen und zu verstehen :rolleyes:

Ich verstehe sehrwohl. ABER was hab ich von 20 (mit cloth & fluid 18) avg Fps??? NICHTS auch wenns 50% mehr sind... :rolleyes: Genau da wo man sie braucht liefert sie im Endeffekt auch nur 20 Fps

tombman
2006-06-01, 10:06:54
#44[/POST]']Ich verstehe sehrwohl. ABER was hab ich von 20 (mit cloth & fluid 18) avg Fps??? NICHTS auch wenns 50% mehr sind... :rolleyes: Genau da wo man sie braucht liefert sie im Endeffekt auch nur 20 Fps
Hab ja gewußt du hast NICHT richtig gelesen. 18fps waren es mit SINGLE CORE cpu, mit MULTI-CORE waren es 23fps BEI EINER GROSSEN EXPLOSION!

Beim normalen Rumrennen und Rumballern bist >30fps.

ALSO SPIELBAR.

Gouvernator
2006-06-01, 10:10:02
Wenn die PPU am meisten gebraucht wird, nämlich bei (großen) Explosionen, sind die fps 50% höher als ohne die PPU
Das ist jetzt als gut oder schlecht zu verstehen ? ICH zum Beispiel sehe es als schlecht. 400... 500...oder 600% wären nicht schlecht und auch nötig bei 7 fps .

Ich hab versucht die Leistung etwas zu verbessern und habe paar Sachen rausgeworfen bis auf 3 (im Physik Ordner) sonst schmiert das Spiel ab. Die FPS sind rapide gestiegen aber trotzdem fast ohne Objekte und =0 Grafikeffekte im sehr niedrigen Bereich.

Coda
2006-06-01, 10:12:12
Gouvernator[/POST]']Das ist jetzt als gut oder schlecht zu verstehen ? ICH zum Beispiel sehe es als schlecht. 400... 500...oder 600% wären nicht schlecht und auch nötig bei 7 fps .
Schonmal was von "anderen Flaschenhälsen" gehört? Nein? Ach so.

Gouvernator
2006-06-01, 10:15:42
Hä? Ich denke ein A64 @2400mhz ist ziemlich ausreichend und eine X1900@730/900mhz auch .

#44
2006-06-01, 10:18:18
tombman[/POST]']Hab ja gewußt du hast NICHT richtig gelesen. 18fps waren es mit SINGLE CORE cpu, mit MULTI-CORE waren es 23fps BEI EINER GROSSEN EXPLOSION!

Beim normalen Rumrennen und Rumballern bist >30fps.

ALSO SPIELBAR.

Schön das das wenigstens Spielbar ist wenn die PPU nicht/kaum genutzt wird :|

Coda[/POST]']Schonmal was von "anderen Flaschenhälsen" gehört? Nein? Ach so.

Da würde mich dann die Performance auf tombmans Conroe interessieren ;)
Was bringt denn die PPU wenn jeder Gamer diesen Flaschenhals hat? (Wenn tombmans HW nicht gut genug ist, ist die Zeit einfach noch nicht reif :tongue:)
Vlt ist die PPU ja gut... ABER nur das Ergebniss zählt

tombman
2006-06-01, 10:29:28
#44[/POST]']Schön das das wenigstens Spielbar ist wenn die PPU nicht/kaum genutzt wird :|
?? Die PPU wird auch bei multi-core cpu genutzt, und überhaupt IMMER.

#44
2006-06-01, 10:32:35
tombman[/POST]']?? Die PPU wird auch bei multi-core cpu genutzt, und überhaupt IMMER.
Mir gehts doch garnicht um MC VS SC... Sonder um CPU VS. CPU&PPU

Beim normalen Rumrennen und Rumballern bist >30fps.

ALSO SPIELBAR.

Das hört sich doch so an als wär da keine gesteigerte Phy-aktivität ;)

BTW machst du vlt den Monat auch mal Benches von PPU&Conroe? Wär interessant =)

BlackBirdSR
2006-06-01, 10:34:44
Deathcrush[/POST]']Gamestar ist fürn Arsch und objektive Berichte gibs dort nicht. Da vertraue ich dem Bericht von 3DCenter mehr. Allerdings würd mich interessieren ob die Perfomance mit dem neuesten Patch besser wurde mit der Karte oder nicht.

besser ja.
Aber ohne störende Einbrüche? nein

Kommt bald ein Update dazu.

robbitop
2006-06-01, 11:04:15
Von der jetzigen (sehr frühen und unausgereiften) Implementation auf die Tauglichkeit der PPU zu schliessen, halte ich für verfrüht. Die ganze Physikbeschleunigung steht gerade mal am Anfang und ich meine, dass die jetzigen Spiele ursprünglich gar nicht darauf ausgelegt worden sind (so wie FC für HDR) und in der Entwicklung auch nur ein sehr frühes SDK zur Verfügung stand. Die PPU hat eine sehr leistungsfähige Hardware, welche m.E. hervorragend für ihre Aufgabe ausgelegt ist. Damit kann man um Größenordnungen mehr Physik realisieren, als mit den besten CPUs. Wartet doch erstmal ab, bis das Ganze etwas ausgereifter ist. Im Moment liegt's nur an den Devs. Zumindest würde ich die Meinung über PPU noch offenhalten und es nicht gleich völlig verteufeln.

tombman
2006-06-01, 11:12:44
robbitop[/POST]']Von der jetzigen (sehr frühen und unausgereiften) Implementation auf die Tauglichkeit der PPU zu schliessen, halte ich für verfrüht. Die ganze Physikbeschleunigung steht gerade mal am Anfang und ich meine, dass die jetzigen Spiele ursprünglich gar nicht darauf ausgelegt worden sind (so wie FC für HDR) und in der Entwicklung auch nur ein sehr frühes SDK zur Verfügung stand. Die PPU hat eine sehr leistungsfähige Hardware, welche m.E. hervorragend für ihre Aufgabe ausgelegt ist. Damit kann man um Größenordnungen mehr Physik realisieren, als mit den besten CPUs. Wartet doch erstmal ab, bis das Ganze etwas ausgereifter ist. Im Moment liegt's nur an den Devs. Zumindest würde ich die Meinung über PPU noch offenhalten und es nicht gleich völlig verteufeln.
Genauso sehe ich das auch. Das Potential ist da, nur das wollte ich zeigen. Ob man es tatsächlich sinnvoll nutzt ist Sache der devs, die letztendlich entscheiden ob das Ageia PPUs ein flop wird oder nicht. Ich hatte jedenfalls meinen Spaß mit der PPU ;)

Gouvernator
2006-06-01, 12:21:39
robbitop[/POST]']Von der jetzigen (sehr frühen und unausgereiften) Implementation auf die Tauglichkeit der PPU zu schliessen, halte ich für verfrüht. Die ganze Physikbeschleunigung steht gerade mal am Anfang und ich meine, dass die jetzigen Spiele ursprünglich gar nicht darauf ausgelegt worden sind (so wie FC für HDR) und in der Entwicklung auch nur ein sehr frühes SDK zur Verfügung stand. Die PPU hat eine sehr leistungsfähige Hardware, welche m.E. hervorragend für ihre Aufgabe ausgelegt ist. Damit kann man um Größenordnungen mehr Physik realisieren, als mit den besten CPUs. Wartet doch erstmal ab, bis das Ganze etwas ausgereifter ist. Im Moment liegt's nur an den Devs. Zumindest würde ich die Meinung über PPU noch offenhalten und es nicht gleich völlig verteufeln.

Es ist zum kaputtlachen wie manche Hersteller die mangelnde Intelligenz der Computernuzter für sich ausnutzen :) Die haben mit ihrem Produkt im jetzigen Zustand überhaupt NIX zu suchen am Markt. Nur solche Möchtegern PC "Spezialisten"-Fanatiker wie der Tombman helfen ihnen, ihren MISTPRODUKT als etwas besonderes zu vermarkten. Solche Leute, die vor Gier nach "ich bin cool" den Verstand links liegen lassen und diesen MISTPRODUKT verteidigen... - blabla es bringt 50% Mehrleistung . Echt, einfach lächerlich.

tombman
2006-06-01, 12:26:33
Gouvernator[/POST]']Es ist zum kaputtlachen wie manche Hersteller die mangelnde Intelligenz der Computernuzter für sich ausnutzen :) Die haben mit ihrem Produkt im jetzigen Zustand überhaupt NIX zu suchen am Markt. Nur solche Möchtegern PC "Spezialisten"-Fanatiker wie der Tombman helfen ihnen, ihren MISTPRODUKT als etwas besonderes zu vermarkten. Solche Leute, die vor Gier nach "ich bin cool" den Verstand links liegen lassen und diesen MISTPRODUKT verteidigen... - blabla es bringt 50% Mehrleistung . Echt, einfach lächerlich.
Wegen flaming gemeldet...

Gouvernator
2006-06-01, 12:36:41
Ja, das muss auch mal gesagt werden. Es gibt Feedback nicht nur von solchen Usern wie du die das Produkt gut finden :P Es gibt manchmal sowas wie Betriebsblindheit die ich gottseidank abgelegt hab - dank Xbox360 . Ab jetzt sehe ich alles noch einbisschen kritischer .

robbitop
2006-06-01, 12:56:29
Da haben wir aber das Henne-Ei Problem. Das Produkt muss ersteinmal eingeführt werden und dannentwickeln sich die Effekte. Wie lange dauerte es, bis bsw die Möglichkeiten von DX6 ausgenutzt worden sind (und damit meine ich exzessive Nutzung von dynamischer Beleuchtung und Dot3 Mapping)? Viele viele Jahre.
SM2 ist bis heute oftmals noch nicht völlig ausgenutzt. Seit wann gibt's SM2 Karten? Seit 4 Jahren. Das ist nunmal so. Bei Physikbeschleunigung ist das eben ein bisschen tricky. M.E. ist's mittelfristig die einzig brauchbare Lösung. Das kann man aber anhand heutiger Implementationen noch nicht mal ansatzweise einsehen.

TheGamer
2006-06-01, 13:00:06
tombman[/POST]']Wegen flaming gemeldet...

ACK

TheGamer
2006-06-01, 13:02:26
robbitop[/POST]']Da haben wir aber das Henne-Ei Problem. Das Produkt muss ersteinmal eingeführt werden und dannentwickeln sich die Effekte. Wie lange dauerte es, bis bsw die Möglichkeiten von DX6 ausgenutzt worden sind (und damit meine ich exzessive Nutzung von dynamischer Beleuchtung und Dot3 Mapping)? Viele viele Jahre.
SM2 ist bis heute oftmals noch nicht völlig ausgenutzt. Seit wann gibt's SM2 Karten? Seit 4 Jahren. Das ist nunmal so. Bei Physikbeschleunigung ist das eben ein bisschen tricky. M.E. ist's mittelfristig die einzig brauchbare Lösung. Das kann man aber anhand heutiger Implementationen noch nicht mal ansatzweise einsehen.

Auch ACK genaus so sehe ich es. Irgendwann gibts einen Anfang, und wenn es ein paar Freaks gibt dkie Spass daran haben es jetzt zu kaufen wie tombman und ich dann sollte der herr Gouvernator uns nicht titlulieren wie er es getan hat. In solchen Faellen gibts aber einen schoenen Button links

derMeister
2006-06-01, 13:10:42
Frühes SDK? Ich vertrete mal die Meinung, das sich die Entwickler erst mal ein Bild über die Software machen sollten, die man da in ein PC System integrieren möchte. Wenn man dieses Grundgerüst hat, kann man daran gehen und die entsprechende Hardware daran zu entwickeln und anpassen und nicht umgekehrt, dann kommt nämlich so ein Krampf wie der Ageia Chip raus.
Erst mal die Hardware auf den Markt werfen und hoffen das eine zusammengeschusterte Spieldemo und einige Dominos das schon richten werden, sry aber da ist Ende Gelände.

Neomi
2006-06-01, 13:18:18
Was spricht denn dagegen, daß die Leute sich einfach keine PPU kaufen, die daran keinen Nutzen erkennen wollen? Warum nicht einfach nur selbst auf den Kauf verzichten und die Leute, die eine PPU haben wollen, sich eine kaufen lassen? Nein, natürlich wird die PPU als solche niedergemacht und es werden sogar Leute beschimpft, die sich den Spaß gönnen. Kann man wirklich so sehr gegen etwas sein, wenn man einfach nur den Nutzen nicht sieht? Ich glaube eher, ihr PPU-Gegner seht das Potential dahinter und wollt nun mit aller Macht verhindern, daß sie sich durchsetzen kann. Und warum? Aus Angst davor, irgendwann noch mehr Geld für weitere Hardware auslegen zu müssen, um dann aktuelle Spiele spielen zu können.

Wenn ich mal daran erinnern darf: erst mit der Voodoo gab es einen deutlichen Mehrwert für Spieler. Die ersten Grafikkarten (zu denen gehörte die Voodoo nicht) boten keine bessere Grafik oder waren langsamer als Softwarerendering. Die Gegner der dedizierten Hardware konnten sich zum Glück damals nicht durchsetzen.

Aquaschaf
2006-06-01, 13:33:29
Was ist mit den Aussagen, dass D3D9 und erst recht D3D10 GPUs genauso gut bzw. noch besser für Physikberechnungen verwendet werden können? Von daher passt der Vergleich mit den Anfängen der Grafikbeschleuniger nicht.

robbitop
2006-06-01, 13:39:27
Aquaschaf[/POST]']Was ist mit den Aussagen, dass D3D9 und erst recht D3D10 GPUs genauso gut bzw. noch besser für Physikberechnungen verwendet werden können? Von daher passt der Vergleich mit den Anfängen der Grafikbeschleuniger nicht.
Die können aber nur spielirrelevante Physik beschleunigen und es würde Grafikeistung kosten. Die PPU der ersten Generation bietet bereits 96 GFLOP/s. Ziehe das mal von einer VPU ab. Da bleibt nicht mehr viel übrig. Und bisher basieren die Rechenwerke auf SIMD (außer NV4x im VS), was nur eine Instruktion pro 4 Operationen bedeutet. Das könnte ein enger Flaschenhals werden. Die PPU nutzt MIMD Vec6 Rechenwerke. Allerdings könnten die D3D10 Dinger dann MIMD Vec5 Rechenwerke verwenden.

tombman
2006-06-01, 13:44:30
Gouvernator[/POST]']Ja, das muss auch mal gesagt werden.
Nein, FLAMES wie du sie betreibst müssen und dürfen eben nicht gesagt werden. Du kannst das Produkt flamen, aber nicht den Nutzer. Lern das endlich, Kind.

DerRob
2006-06-01, 14:06:56
#44[/POST]']RICHTIG aber wenns auf 800x600 schon grottig performt...
für die physikberechnung dürfte die auflösung ziemlich egal sein.
die auflösung ist garantiert nur so niedrig gewählt, damit nichts anderes als die physik gebencht wird ;)

"komisch, der neue 5ghz-prozessor ist auf meiner x300 @ 1600x1200 in spiel/benchmark X auch nicht schneller als ein 2ghz-prozessor. also ist der 5ghz-prozessor schrott!" :rolleyes:

Demirug
2006-06-01, 14:11:20
robbitop[/POST]']Die können aber nur spielirrelevante Physik beschleunigen und es würde Grafikeistung kosten. Die PPU der ersten Generation bietet bereits 96 GFLOP/s.

Sagt wer? Zum Vergleich ClearSpeed ist pro Chip mit 25GFlops spezifiziert und Asus gibt auch nur 20 G Instructions/s an. Die sonstigen Leistungsdaten von Asus lassen die 96 GFlops ebenso unwahrscheinlich werden.

robbitop[/POST]']Die PPU nutzt MIMD Vec6 Rechenwerke.

Und nochmal: Sagt Wer?

Ich möchte jetzt bitte keinen Verweis auf den Artikel von Nicholas Blachford. Was der gute nähmlich unterschlagen hat ist das in den Patentschrifften mehr als eine Implementierung beschrieben ist und diese haben teilweisse dramatische Unterschiede was die zu erwartende Performance angeht. Blachford hat sich soweit ich das überblicke die Variante ausgesucht die am performantesten ist.

Neomi
2006-06-01, 14:19:11
Aquaschaf[/POST]']Was ist mit den Aussagen, dass D3D9 und erst recht D3D10 GPUs genauso gut bzw. noch besser für Physikberechnungen verwendet werden können? Von daher passt der Vergleich mit den Anfängen der Grafikbeschleuniger nicht.

Von Limitierungen à "nur Effektphysik" (HavokFX) mal abgesehen...

Eine GPU, die man als PPU nutzt, kann man schon fast als PPU betrachten. Nimmt man die GPU, die auch für die Grafik zuständig ist, dann verliert man natürlich Grafikleistung (und zwar deutlich, wenn es um viel Physik geht). Kauft man eine zusätzliche Karte dafür, kann man auch gleich eine "echte" PPU nehmen.

Gouvernator
2006-06-01, 14:20:08
tombman[/POST]']Nein, FLAMES wie du sie betreibst müssen und dürfen eben nicht gesagt werden. Du kannst das Produkt flamen, aber nicht den Nutzer. Lern das endlich, Kind.
Ich entschuldige mich bei dir für mein Ton .

Aber ich lasse es trotzdem nicht. Wieso lasst ihr nicht Banken die Sache am Anfang finanzieren und kauft euch Hardware SPÄTER ? Wenn die Organisation und Talent überwiegen dann hat man bald ein gutes Produkt in den Händen das von anderen am Leben erhalten wird und nicht von armen PC Entusiasten die eventuell eine Totgeburt anpreisen und denken das es doch lebendig wird :tongue:

robbitop
2006-06-01, 14:25:46
Demirug[/POST]']Sagt wer? Zum Vergleich ClearSpeed ist pro Chip mit 25GFlops spezifiziert und Asus gibt auch nur 20 G Instructions/s an. Die sonstigen Leistungsdaten von Asus lassen die 96 GFlops ebenso unwahrscheinlich werden.
Sagt Asus. 20 GInst/s limitieren die 96 GFLOP/s nur, wenn jede Op ihre eigene Instruktion benötigt. Nutzen viele Operationen dieselbe Instruktion, ist es praktisch egal. Bei vereinfacher Physik dürfte das doch der Fall sein, oder nicht? Zumindest stelle ich mir das mathematisch so vor. Ich persönlich denke, dass der Steuerprozessor (der ARM core oder was auch immer das sein mag), nicht mehr als 20 GInst/sek packt. Ob das nun die Op/s limitiert hängt wie gesagt davon ab.


Demirug[/POST]']
Und nochmal: Sagt Wer?
Ein Ageia Entwickler (Chefentwickler des SDK) aus Zürich hat mir das in einem Telefoninterview (es ging um ein Internship) bestätigt, dass es sich um MIMD Units handle. Dass es Vec6 Teile sind habe ich in der Tat aus dem von dir genannten Artikel.
Wie sehen denn deine Gedanken zur PPU aus? (lass uns doch ausnahmsweise an deinen Gedanken mal teilhaben, statt wie sonst nur an kleinen Brocken :) denn das bringt hier niemanden weiter)

derMeister
2006-06-01, 15:15:48
Auch wenn die Ageia Karte bedeutend mehr Operationen zu leisten vermag, bleibt eigentlich für mich die Frage, Wozu?
In Spielen wird man kurzzeitig eine physikalische Reaktion auslösen, man zerschießt eine Mauer die dann einfällt oder weiß der Geier was auch immer.
Die Frage ist für mich, muß ich dafür eine Karte haben, die 96 Gflops Rechenkraft hat oder reicht dafür evt doch eine Physikeffektlösung aus einer zweiten Grafikkarte die sagen wir mal vielleicht nur 30-40 Gflops bringt.
Die Effekte werden ja schließlich nicht parallel gefordert sondern nacheinander oder könntest Du in einem Spiel die Übersicht behalten wenn Du ( allgemein gefragt ) von Effekten eingenebelt bist?
Was mir bei der CellFactor Demo aufgefallen ist, wo bleibt eine korrekte Darstellung von Physik, wenn man mit einem Projektil auf eine schwere Röhre oder Kiste schießt? Da springen die Gegenstände wie vom Teufel geritten in der Gegend rum, völlig unrealistisch. Das hat aber nur in zweiter Linie was mit der Ageia zu tun, in erster Linie habens die Programmierer arg übertrieben.

deekey777
2006-06-01, 15:19:52
Gouvernator[/POST]']Es ist zum kaputtlachen wie manche Hersteller die mangelnde Intelligenz der Computernuzter für sich ausnutzen :) Die haben mit ihrem Produkt im jetzigen Zustand überhaupt NIX zu suchen am Markt. Nur solche Möchtegern PC "Spezialisten"-Fanatiker wie der Tombman helfen ihnen, ihren MISTPRODUKT als etwas besonderes zu vermarkten. Solche Leute, die vor Gier nach "ich bin cool" den Verstand links liegen lassen und diesen MISTPRODUKT verteidigen... - blabla es bringt 50% Mehrleistung . Echt, einfach lächerlich.

Dafür gibt es eine Verwarnung. Jeder hat seine Meinung, doch persönlich sollte niemand werden.
tombman[/POST]']Nein, FLAMES wie du sie betreibst müssen und dürfen eben nicht gesagt werden. Du kannst das Produkt flamen, aber nicht den Nutzer. Lern das endlich, Kind.
Auch dafür gibt es eine Verwarnung. Da du in den letzten Tagen mehrmals verwarnt wurdest, sieh dich jetzt als streng verwarnt an.

Mit der Rücksprache mit der Moderation und aufgrund deines Verhaltens der letzten Tage wird die Verwarnung in ein T1 umgewandelt.
Per Email benachrichtigt und vollzogen.

Diskussionen über Verwarnungen sind bei Bedarf in einem ggf. zu erstellenden Thread im "Diskussionen zu moderativen Entscheidungen - Forum" zu führen bzw. per PN mit dem jeweiligen Moderator, denn hier wären sie OT. Siehe dazu auch: Regeln und Richtlinien für die Moderation

Demirug
2006-06-01, 15:22:27
Sagen wir mal einfach das Asus wohl creative zählt. Ansonsten müsste sich Sony mit iheren lapischen 256 GFlops bei einem 3,2 GHZ Cell doch irgendwie verdammt blöd vorkommen.

Der 64 Bit Mips Kern übernimmt eher die Aufgabe mit der CPU Daten auszutauschen und nacheinader die Submodule in den VPUs anzustossen. Die haben ja wiederum eigenen Speicher für Programmcode und Daten.

MIMD sagt ja nun recht wenig aus. Lediglich das jede VPU ihr eigenes Programm fahren kann. VEC6 macht nun gerade für Physik gar keinen Sinn. In einer der neueren Patentschrifften spricht man von einem VEC3 was zu unserer normalen 3 dimensionalen Physik auch am besten passt.

Letztende Endes ist eine PhysX VPU durchaus mit einer D3D10 Shader Einheit vergleichbar. Nehmen wir das alles zusammen was nVidia und ATI zu dem Thema an Patenten beantragt haben bewegen sich beide eindeutig in die gleiche Richtung.

Lediglich was den Steuerungsteil angeht setzt man bei den GPUs noch auf einen reinen Kommandoparser und nicht auf einen CPU Kern. In wie weit ein CPU Kern bei den immer gleichbleibenden Abläufen für einen Simulationsschrit allerding ein Vorteil darstellt ist dabei natürlich diskutierbar.

robbitop
2006-06-01, 15:26:07
derMeister[/POST]']Auch wenn die Ageia Karte bedeutend mehr Operationen zu leisten vermag, bleibt eigentlich für mich die Frage, Wozu?
Mehr Leistung - mehr Potential. 640kiB RAM reichten auch nicht ewig ;)

derMeister[/POST]']
Die Effekte werden ja schließlich nicht parallel gefordert sondern nacheinander oder könntest Du in einem Spiel die Übersicht behalten wenn Du ( allgemein gefragt ) von Effekten eingenebelt bist?
Die Mathematik hinter dem was du auf dem Bildschirm siehst, erfordert unglaublich viele Rechenoperationen. Je mehr davon pro Zeiteinheit von der HW gerechnet werden können desto besser. Desto komplexer und intensiver kann Physik dargestellt werden (nicht nur Impulse, Kinetik, Deformierung, sondern auch Strömungs und Stoffberechnungen)
Das alles wird kommen, braucht aber Zeit. Wie gesagt, kann man das jetzt noch schlecht einschätzen, da man noch nicht viel von den Möglichkeiten gesehen hat. Das war mit 3D Rendering zu Zeiten des S3 Virge auch der Fall. Eine Meinungsbildung auf heutig verfügbaren Demo's m.E. jedenfalls verfrüht.

Gast
2006-06-01, 15:54:32
Ist es nicht so dass GInstructions/s relativ wenig wenig über der Leistungsfähigkeit aussagen da man bei manchen Architekturen für die gleiche Berechnung mehr oder weniger Instruktionen berechnet und nicht berücksichtigt wird wie umfangreich die Instruktionen sind ?

robbitop
2006-06-01, 16:06:49
Gast[/POST]']Ist es nicht so dass GInstructions/s relativ wenig wenig über der Leistungsfähigkeit aussagen da man bei manchen Architekturen für die gleiche Berechnung mehr oder weniger Instruktionen berechnet und nicht berücksichtigt wird wie umfangreich die Instruktionen sind ?
Eine Instruktion ist ein Befehl, der für eine Operation notwendig ist. Zum Beispiel MUL (multipliziere Skalar/Vektor A mit B) oder ADD (addiere...) oder DP3 (Skalarprodukt A mit B) usw. Das hat mit der Architektur per se nichts zu tun. Was nun eine ALU pro Takt kann (z.B. 1x MAD4), dort liegt der Unterschied (z.B. wieviele Komponenten sie berechnen kann, ob sie pro Komponentenoperation eigene Instruktionen verwenden kann (MIMD) oder für alle die gleiche (SIMD), ob sie splitten kann.
Eine Angabe über die GLOP/s und GIns/s ist, sofern man nicht kreativ zählen muss, schon ein brauchbare Indikator, aber sicher nicht der Weisheit letzter Schluss.

Gast
2006-06-01, 16:23:50
[QUOTE]Sagt Asus. 20 GInst/s limitieren die 96 GFLOP/s nur, wenn jede Op ihre eigene Instruktion benötigt. Nutzen viele Operationen dieselbe Instruktion, ist es praktisch egal.[QUOTE]

sry, das verstehe ich nicht ganze.....
Auch wenn mehrere Operationen die gleiche Instruktion nutzen, muss diese dennoch ausgeführt werden und von den weiter möglichen 20 GInst/s abgezogen werden.

Aquaschaf
2006-06-01, 17:22:10
Neomi[/POST]']Kauft man eine zusätzliche Karte dafür, kann man auch gleich eine "echte" PPU nehmen.

Umgekehrt kann man doch statt einer PPU auch gleich eine "echte" Grafikkarte nehmen. ;)

robbitop
2006-06-01, 17:46:14
Gast[/POST]'][QUOTE]Sagt Asus. 20 GInst/s limitieren die 96 GFLOP/s nur, wenn jede Op ihre eigene Instruktion benötigt. Nutzen viele Operationen dieselbe Instruktion, ist es praktisch egal.[QUOTE]

sry, das verstehe ich nicht ganze.....
Auch wenn mehrere Operationen die gleiche Instruktion nutzen, muss diese dennoch ausgeführt werden und von den weiter möglichen 20 GInst/s abgezogen werden.
Nope. Eine Vec4 Unit kann bsw theoretisch 4 Operationen pro Takt schaffen (natürlich skalare) oder eine Vec3 + 1 skalar (je nachdem wie flexibel sie ist).
Handelt es sich z.B. um eine SIMD Unit so kann sie für mehrere Operationen nur eine Instruktion nutzen. Hat man zu diesem Zeitpunkt allerdings nur Operationen mit unterschiedlichen Instruktionen, die zu berechnen sind, kann die ALU nur eine Operation berechnen, eine MIMD ALD mit mehrern Instruktionen kann nun alle Operationen berechnen.

Coda
2006-06-01, 18:08:04
robbitop[/POST]']Die können aber nur spielirrelevante Physik beschleunigen und es würde Grafikeistung kosten. Die PPU der ersten Generation bietet bereits 96 GFLOP/s. Ziehe das mal von einer VPU ab. Da bleibt nicht mehr viel übrig. Und bisher basieren die Rechenwerke auf SIMD (außer NV4x im VS), was nur eine Instruktion pro 4 Operationen bedeutet. Das könnte ein enger Flaschenhals werden. Die PPU nutzt MIMD Vec6 Rechenwerke. Allerdings könnten die D3D10 Dinger dann MIMD Vec5 Rechenwerke verwenden.
MIMD vs. SIMD spielt nur eine Rolle wenn auch gesprungen werden soll.

robbitop[/POST]']Nope. Eine Vec4 Unit kann bsw theoretisch 4 Operationen pro Takt schaffen (natürlich skalare) oder eine Vec3 + 1 skalar (je nachdem wie flexibel sie ist).
Handelt es sich z.B. um eine SIMD Unit so kann sie für mehrere Operationen nur eine Instruktion nutzen. Hat man zu diesem Zeitpunkt allerdings nur Operationen mit unterschiedlichen Instruktionen, die zu berechnen sind, kann die ALU nur eine Operation berechnen, eine MIMD ALD mit mehrern Instruktionen kann nun alle Operationen berechnen.
Du hast da was falsch verstanden. SIMD bedeutet nur dass alle Quads die gleiche Instruction bearbeiten.

Gast
2006-06-01, 18:31:17
Sagt Asus. 20 GInst/s limitieren die 96 GFLOP/s nur, wenn jede Op ihre eigene Instruktion benötigt. Nutzen viele Operationen dieselbe Instruktion, ist es praktisch egal.
Nope. Eine Vec4 Unit kann bsw theoretisch 4 Operationen pro Takt schaffen (natürlich skalare) oder eine Vec3 + 1 skalar (je nachdem wie flexibel sie ist).
Handelt es sich z.B. um eine SIMD Unit so kann sie für mehrere Operationen nur eine Instruktion nutzen. Hat man zu diesem Zeitpunkt allerdings nur Operationen mit unterschiedlichen Instruktionen, die zu berechnen sind, kann die ALU nur eine Operation berechnen, eine MIMD ALD mit mehrern Instruktionen kann nun alle Operationen berechnen.

thx, jetzt hab ichs' verstanden !

Gast
2006-06-01, 18:33:01
Coda[/POST]']
Du hast da was falsch verstanden. SIMD bedeutet nur dass alle Quads die gleiche Instruction bearbeiten.

Hat er nicht genau das behauptet ?

robbitop
2006-06-01, 18:47:36
Coda[/POST]']
Du hast da was falsch verstanden. SIMD bedeutet nur dass alle Quads die gleiche Instruction bearbeiten.
Soweit ich weiß, kann eine SIMD ALU pro Takt nur eine Instruktion bearbeiten (single instruction multiple data) und eine MIMD ALU mehrere Instruktionen (multiple instruction multiple data).

#44
2006-06-01, 18:49:45
Kauft man eine zusätzliche Karte dafür, kann man auch gleich eine "echte" PPU nehmen.

Naja... wenn die Leistungsfähigkeit nicht all zu extrem abweicht wär MIR die Graka lieber... Da kann man dann nächstes Jahr seine alte X1800 als Physikeinheit abstellen... UND dann werden auch für Normaluser CF-Systeme interessant... CF für non PPU und PPU-supporting games... 1x mit super Grafik und 1x mit Physik...

Bei der PPU lösung hat man entweder Physik oder keine Vorteile...
Steht & Fällt aber mit der Physikleistung der Grakas. (Und natürlich auch dem Preis...)

Demirug
2006-06-01, 19:06:12
robbitop[/POST]']Soweit ich weiß, kann eine SIMD ALU pro Takt nur eine Instruktion bearbeiten (single instruction multiple data) und eine MIMD ALU mehrere Instruktionen (multiple instruction multiple data).

Das hast du falsch verstanden. SIMD bedeutete das die gleiche Anweisung für viele Daten(sätze) ausgeführt. Pixelshader arbeiten zum Beispiel im SIMD Verfahren weil immer für mindestens 4 Pixel die gleiche Anweisung ausgeführt wird. Diese Anweisung selbst kann dank VLIW wiederum aus vielen Teilanweisungen bestehen.

Coda
2006-06-01, 19:09:50
Gast[/POST]']Hat er nicht genau das behauptet ?
Nö hat er nicht.

Gast
2006-06-01, 19:38:14
Demirug[/POST]']Das hast du falsch verstanden. SIMD bedeutete das die gleiche Anweisung für viele Daten(sätze) ausgeführt. Pixelshader arbeiten zum Beispiel im SIMD Verfahren weil immer für mindestens 4 Pixel die gleiche Anweisung ausgeführt wird. Diese Anweisung selbst kann dank VLIW wiederum aus vielen Teilanweisungen bestehen.

Also ist die Anweisung die ausgeführt werden kann immer gleich ?
Oder kann eine SIMD-Einheit zuerst für mind. 4 Pixel diese Instruktion ausführen und dann für 4 andere Pixel eine andere Instruktion ?
Wenn dies so ist müssten ja die Pixelshader-ALUs aufgeteilt sein ala 20% der Shader sollen ungefähr diese Operation können, 30% diese,... ?

robbitop
2006-06-01, 20:26:06
Demirug[/POST]']Das hast du falsch verstanden. SIMD bedeutete das die gleiche Anweisung für viele Daten(sätze) ausgeführt. Pixelshader arbeiten zum Beispiel im SIMD Verfahren weil immer für mindestens 4 Pixel die gleiche Anweisung ausgeführt wird. Diese Anweisung selbst kann dank VLIW wiederum aus vielen Teilanweisungen bestehen.
Somit bekommt eine Quadpipeline immer dieselbe Instruktion? Und die ALUs per se? Sind die beschränkt auf eine Instruktion oder könnten die theoretisch auch mehrere Instruktionen pro Takt verarbeiten?

Coda
2006-06-01, 21:48:59
robbitop[/POST]']Somit bekommt eine Quadpipeline immer dieselbe Instruktion?
Die sowieso. Obs alle Quads auch tun ist ne andere Frage, aber ich würde auch eher davon ausgehen dass alle das gleiche machen

robbitop[/POST]']Sind die beschränkt auf eine Instruktion oder könnten die theoretisch auch mehrere Instruktionen pro Takt verarbeiten?
nVIDIA kann 2 Ops/Cycle, aber diese sind dann halt auch immer die gleichen. Das nennt man aber nicht MIMD sondern Superskalar.

Demirug
2006-06-01, 22:28:27
Gast[/POST]']Also ist die Anweisung die ausgeführt werden kann immer gleich ?
Oder kann eine SIMD-Einheit zuerst für mind. 4 Pixel diese Instruktion ausführen und dann für 4 andere Pixel eine andere Instruktion ?
Wenn dies so ist müssten ja die Pixelshader-ALUs aufgeteilt sein ala 20% der Shader sollen ungefähr diese Operation können, 30% diese,... ?

Die ALUs/FPUs eines Shader können durchaus bei jedem Takt eine andere Instruktion ausführen. Es sind nur immer mehrer (in der Regel eben 4) diese FPUs so verbunden das sie im gleichen Takt die gleiche Anweisung ausführen.

Demirug
2006-06-01, 22:31:05
Coda[/POST]']Die sowieso. Obs alle Quads auch tun ist ne andere Frage, aber ich würde auch eher davon ausgehen dass alle das gleiche machen

Ich nicht weil die Pipelines sich ihere Anweisungen ja über die TMUs direkt aus dem Videospeicher holen. Entsprechend kann da jede an einer anderen Stelle innerhalb eines Shaders sein.Im Prinzip können sogar unterschiedliche Shader in unterschiedlichen Pipes laufen.

Coda
2006-06-01, 23:10:31
Ok, dann isses ja auch schon irgendwie MIMD, oder nicht? Halt Quad-MIMD sozusagen.

Razor
2006-06-01, 23:23:05
mbee[/POST]']Sorry, aber man merkt, dass Du, was NET angeht, anscheinend nicht den blassesten Schimmer hast...
Dazu habe ich mich schon mehr als einmal ausgelassen... und ich werde dies hier sicher nicht noch einmal tun.
.NET ist gut für Quick&Dirty-Lösungen und leider scheinen die bisherigen Lösungen auf dieser Basis genau das zu bestätigen.
Aber 'billig' ist ja 'in', gell?

Was mich stört: einfach Software installieren, die sich ungefragt tief ins System 'gräbt' ist bei weitem nicht die feine Art. Dass .NET vorausgesetzt (und während der Installation gleich mit 'erledigt') wird, ist an KEINER Stelle erwähnt worden.

Und dass ein Game nur mit einem Hardware-Treiber im Software-Modus läuft und zudem so etwas wie .NET benötigt, ist einfach nur arm.

Razor

Razor
2006-06-01, 23:33:16
Demirug[/POST]']Das der Treiber Installiert werden muss liegt daran das er gleichzeitig die Software Engine ist. Aber von gutem Softwaredesign hat man bei Ageia scheinbar sowieso keine Ahnung.
Schon klar... aber ein Game in seiner ganzen Quintessence auf eine Hardware, bzw. dessen API aufzubauen, die vermutlich noch nicht einmal darauf ausgelegt ist, besonders gut auf 'normalen' Prozessoren zu laufen, ist mehr als nur 'arm'.

Entweder tatsächlich keine Ahnung, oder glatter Vorsatz.
Who knows?

Das mit dem .Net ist mir gar nicht aufgefallen weil ich es ja sowieso auf der Maschine habe. ich wüsste jetzt aber auch nicht wo da .Net benutzt wird. Im Treiber/Runtime auf jeden Fall mal nicht.
Gut Frage... mir ist es aufgefallen, da mein Hauptsystem von .NET bis dato noch nix zu sehen bekommen hat. OK, das letzte Ghost-Image zurück und das 'Problem' (welches bei mir nicht zwingend ein physisches ist ;-) war vom Tisch. So läuft CellFactor derzeit auf meiner Test-Installation, die 'dank' Win-Full-Update schon seit einiger Zeit mit .NET gesegnet ist... u.a. auch um Eure teils sehr nützlichen Prämmchen zu checken.

Ist echt ein Frechheit... zumindest "Fragen" hätte man können... tut man ja sogar bei DirectX (auch wenn es meist nicht nötig ist ;-).

Razor

mbee
2006-06-01, 23:39:36
Razor[/POST]']Dazu habe ich mich schon mehr als einmal ausgelassen... und ich werde dies hier sicher nicht noch einmal tun.
.NET ist gut für Quick&Dirty-Lösungen und leider scheinen die bisherigen Lösungen auf dieser Basis genau das zu bestätigen.
Aber 'billig' ist ja 'in', gell?

Sorry, aber die Aussage ist schlichtweg Schwachfug, was Dir jeder bestätigen kann, der sich in der Materie auch nur ein wenig auskennt.

Razor[/POST]']
Was mich stört: einfach Software installieren, die sich ungefragt tief ins System 'gräbt' ist bei weitem nicht die feine Art. Dass .NET vorausgesetzt (und während der Installation gleich mit 'erledigt') wird, ist an KEINER Stelle erwähnt worden.
Razor

Ja, aber verschiedne VB-Runtimes oder DLL-Versionen "wie in der guten alten Zeit", die bei vielen Anwendungen auch ungefragt mitinstalliert werden und schlimmstenfalls kollidieren, sind natürlich ne feine Sache :rolleyes:

Razor
2006-06-01, 23:44:18
robbitop[/POST]']Da haben wir aber das Henne-Ei Problem. Das Produkt muss ersteinmal eingeführt werden und dannentwickeln sich die Effekte.
Und wie erklärst Du Dir dieses merkwürdige CellFactor?
Das funktioniert ja nicht einmal ohne Software-emulierte Hardware...
(bzw. nicht ohne die im Treiber enthaltene API ;-)

Wenn das keine komplette Ausrichtung einer Software auf eine ganz bestimmte Hardware hin ist (ich erinnere mich hier an Glide ;-), dann weiß ich es auch nicht. Und wenn es nicht einmal gelingt, in einem rein synthetischen Umfeld die unwiederlegbaren Vorzüge einer neuen Hardware zu zeigen, dann weiß ich es auch nicht...

ICH hoffe inständig, dass nicht noch mehr Titel erscheinen werden, die den Treiber (und damit die API) für dieses PhysiX-Zeug voraus setzen, obwohl die Hardware weder vorhanden, noch überhaupt jemals angedacht ist.

So etwas Blindes habe ich tatsächlich nur sehr selten gesehen...

Razor

robbitop
2006-06-01, 23:52:25
Frühe SDK. Ist zur Zeit eine reine Dev Sache. Warte doch erstmal eine Weile ab, bevor du die Idee und die Hardware endgültig verteufelst.

Razor
2006-06-01, 23:58:30
Aquaschaf[/POST]']Umgekehrt kann man doch statt einer PPU auch gleich eine "echte" Grafikkarte nehmen. ;)
Die zudem 'einfach' zu einer leistungsfähigen GraKa dazu gesteckt werden kann... ganz ohne eine SLI-Brücke z.Bsp. Auch bräuchte diese bei weitem keine 16 Lanes, sondern müsste (nach Beispiel der PhysiX-Karte) ja eigentlich sogar mit einer einzige Lane auskommen.

DAS wäre doch endlich mal ein sinnvolles GraKa-"Recycling". Wird die Hauptkarte zu schwach, wird sie durch eine (!) leistungsfähigere ersetzt und fristet dann ihr Dasein als CPU-Coprozessor für Streaming-Aufgaben. Die Vor-Vordere fliegt dann halt endgültig aus dem Rechner... und unter 2D läßt sich die zusätzliche GraKa ganz hervorragend für das Ansteuern von Status-Moni und HC-Display nutzen, ohne dabei die Ausgaben der Hauptkarte zu stören... 'echtes' Multimedia halt, welches derzeit doch noch in recht jungfräulichen Kinderschuhen steckt.

Razor

P.S.: letzters funktioniert im übrigen schon recht gut mit meiner Kombo PCIe-7900GT und AGP-6800nU :D

P.P.S.: da scheint jemand in die gleiche Richtung zu denken... ;)
#44[/POST]']Naja... wenn die Leistungsfähigkeit nicht all zu extrem abweicht wär MIR die Graka lieber... Da kann man dann nächstes Jahr seine alte X1800 als Physikeinheit abstellen...

Razor
2006-06-02, 00:06:39
mbee[/POST]']Ja, aber verschiedne VB-Runtimes oder DLL-Versionen "wie in der guten alten Zeit", die bei vielen Anwendungen auch ungefragt mitinstalliert werden und schlimmstenfalls kollidieren, sind natürlich ne feine Sache :rolleyes:
Nicht, wenn sie der Applikation als Bestandteil mitgegeben und zur exklusiven Nutzung in das Applikationsverzeichnis abgelegt werden. Jede Anwendung also ihre eigene Runtime mitbringt und diese nach Deinstallation auch wieder restlos entfernt.

Und die "gute alte Zeit" ist gegenwärtige Realität.

Die "Zukunft" von .NET allerdings recht ungewiss... was natürlich auch mit Marktgewalt und "Zukunft" Microsofts einher geht... und es könnte sehr gut sein, dass beides in naher "Zukunft" ein recht jähes Ende findet... oder eben auch nicht.

Wie dem auch sei, wer .NET nutzt, scheint zumindest nicht an Plattform-übergreifenden Entwicklungen interessiert zu sein, da eine Protierung nahezu unmöglich ist.

Razor

Coda
2006-06-02, 00:08:32
Razor[/POST]']Nicht, wenn sie der Applikation als Bestandteil mitgegeben und zur exklusiven Nutzung in das Applikationsverzeichnis abgelegt werden. Jede Anwendung also ihre eigene Runtime mitbringt und diese nach Deinstallation auch wieder restlos entfernt.
War aber nicht so.

Razor[/POST]']Wie dem auch sei, wer .NET nutzt, scheint zumindest nicht an Plattform-übergreifenden Entwicklungen interessiert zu sein, da eine Protierung nahezu unmöglich ist.
Auch (http://www.dotgnu.org/) Blödsinn (http://www.mono-project.com/Main_Page)

Razor
2006-06-02, 00:20:57
robbitop[/POST]']Frühe SDK. Ist zur Zeit eine reine Dev Sache. Warte doch erstmal eine Weile ab, bevor du die Idee und die Hardware endgültig verteufelst.
Mir stinkt es einfach, eine weitere API zu "unterstützen", von der nicht einmal klar ist, ob sie je (vor allem in absehbarer Zeit) mal praktikabel sein wird. Das was dort bisher gezeigt wurde ist auf jeden Fall eine 'Alternative', die vollkommen sinnbefreit daher kommt. Schlechter kann man es überhaupt nicht machen...

Und damit haben wir auch den Kern: das Produkt ist schlicht und ergreifend "unausgereift"!

Vermutlich (und es ist wirklich nur eine Vermutung meinerseits) eine Studie, die "noch mal eben" realisiert wurde, um mithilfe von Markting doch noch ein bissel vom "enthusiast" Markt abzuräumen, der derzeit unverschämt viel Geld für Grafikkarten ausgibt (man denke nur an QuadSLI und dergleichen). Wer sonst sollte so "blöde" sein (bitte nicht wortwörtlich nehmen!), so viel Geld für unausgereifte Hard- und Software auszugeben, ohne einen nennenswerten Gegenwert zu erhalten?

ATI und nVidia müssen sowieso auf Technlologien setzen, die weit universaler arbeiten, als dies sogar schon heute der Fall ist. Insofern die Idee, einerseits CPUs in ihrer Funktionalität zu erweitern, wie auch GPUs in Richtung universalerer Arbeitsweisen auszulegen gar nicht mal so uninteressant klingt (zumal dies ja schon heute Realität ist, nur eben im X86-Bereich noch keinen sonderlich großen 'Anklang' findet ;-).

Was jetzt noch eine API und noch ein (IMO überflüssiges) Stück Hardware auf Basis unausgereifter Software soll, will mir einfach nicht in den Kopf. Gut, Marketing ist das eine... aber reale Menschen, die darauf herein fallen und sich an fallenden Domino-Steinchen ergötzen, tun mir dann schon fast leid.

Ageia ein Chance geben?
Nur wenn sie es schaffen in einem realistischen Vergleich die Vorteile ihrer Hardware zu zeigen.
Das, was ich bisher gesehen habe, ist reine Augenwischerei...

Razor

StefanV
2006-06-02, 00:24:00
@Razor

Frag doch mal 'nen Entwickler, was er von .NET hält!!

Bisher hab ich nciht allzuviel negatives darüber gehört, ganz im Gegenteil, manch ein Entwickler hat behauptet, das .NET einige alte Macken/Unarten entsorgte und es an vielen Stellen besser macht, ohne das sich der Progger mit irgendwelchem unwichtigen Mist rumschlagen muss...

Auch ansonsten solltest dich mal WIRKLICH über das informieren, was du hier über .NET schreibst ist einfach nur Unsinn...

Zur PhysX:
Das Teil wird sich durchsetzen, irgendwann, mit einer entsprechenden (offenen) API.
Das der erste Versuch nicht so ganz gelingt, weißt du von der Rage IIC/3D, dem Virge und der Mystique...

Razor
2006-06-02, 00:26:53
Coda[/POST]']Auch (http://www.dotgnu.org/) Blödsinn (http://www.mono-project.com/Main_Page)
Ah ja... Linux wird also offiziell von Microsoft unterstützt?
Ist nicht Dein ernst, oder?
:confused:

Das was Du da aufgezeigt hast, sind Versuche, .NET unter Linux zum Laufen zu bekommen (was nur leidlich gelingt)... eine ähnliche Geschichte, wie DirectX via Linux zu emulieren, bzw. auf einer Linux-Basis zum laufen zu bringen. Und wenn man sich Microschrotts Versuche ansieht, gerade diese Plattform zu unterminieren, dürfte es immer schwerer werden, überhaupt nur daran zu denken, .NET-Anwendungen auf anderen Plattformen zu portieren.

Und in welchen professionellen Umfeldern Momo als Plattform eingesetzt wird, könntest Du mir bei dieser Gelegenheit auch gleich mal erklären.

Razor

Razor
2006-06-02, 00:40:04
StefanV[/POST]']Auch ansonsten solltest dich...
Ich bin recht gut informiert und ganz sicher kein professioneller Entwickler.
Koordinationen fallen da eher in mein Metier...

.NET ist eine gute Möglichkeit, für ein Softwarehaus eine menge Geld zu sparen (sog. Rapid-Development), da es weniger qualifiziertes Personal braucht (hinsichtlich sonst komplex zu implementierender Basis) und einfach schneller geht, wenn man "von vorne" anfängt. Für neue Software-Häuser gut... für etablierte Häuser unnötig, da die Basis bereits vorhanden ist und permanent gepflegt wird.

Ich habe schon einiges auf Basis von .NET entickelt gesehen. Meist sind es hoffnungslos überaltete Systeme, die mit .NET auf 'moderne' Füße gestellt werden sollten, was allerdings nur leidlich gelingt, da die Methoden, gewisse Abläufe zu implementieren, die gleichen geblieben sind. So kommt prinzipiell ineffizientes Vorgehen mit einer nicht gerade Resourcen-schonenden Plattform zusammen, was dann zusammen eine recht unschöne Kombination (mit entsprechenden 'Nebenwirkungen') gibt. Billige für den Endnutzer (in diesem Fall Firmen) wird es auch nicht...

Nein... ich mache hier jetzt schluß, weil ich einfach (nicht schon wieder) solch eine Grundsatz-Diskussion führen möchte.

Klar... man kann auch mit .NET 'vernünftig' programmieren... es ist dann allerdings ähnlich aufwändig, wie herkömmliche Frameworks und bietet dann eigentlich keinen Vorteil mehr. Da wo es Vorteile bietet, kann es (muss nicht) sehr, sehr 'schmutzig' werden...

Razor

P.S.: 'richtige' Entwickler kenne ich zur Genüge... :)

Wuzel
2006-06-02, 01:35:33
Razor[/POST]']Ah ja... Linux wird also offiziell von Microsoft unterstützt?
Ist nicht Dein ernst, oder?
:confused:

Das was Du da aufgezeigt hast, sind Versuche, .NET unter Linux zum Laufen zu bekommen (was nur leidlich gelingt)... eine ähnliche Geschichte, wie DirectX via Linux zu emulieren, bzw. auf einer Linux-Basis zum laufen zu bringen. Und wenn man sich Microschrotts Versuche ansieht, gerade diese Plattform zu unterminieren, dürfte es immer schwerer werden, überhaupt nur daran zu denken, .NET-Anwendungen auf anderen Plattformen zu portieren.

Und in welchen professionellen Umfeldern Momo als Plattform eingesetzt wird, könntest Du mir bei dieser Gelegenheit auch gleich mal erklären.

Razor

Du hast keine Ahnung.
Hinsetzen 6.

Mono ist schon lange kein 'Versuch' mehr, keine emu und keine billige Kopie.
Mono wird stark in das Gnome Projekt migriert - Beagle zeigt schon wo der Hase läuft.

Informier dich. Bitte, danke.

HellHorse
2006-06-02, 09:22:45
Wuzel[/POST]']
Mono wird stark in das Gnome Projekt migriert - Beagle zeigt schon wo der Hase läuft.
Beagle ist Teil von Gnome? Echt jetzt? Ich dachte es wird nicht integriert gerade weil es auf Mono beruht. Warum nimmt man dann nicht einfach Mono für Gnome 3?
RHEL hat ja immer noch kein Mono, warum?

Ach ja:
http://www.gnome.org/~seth/blog/mono

Wuzel
2006-06-02, 09:38:49
HellHorse[/POST]']Beagle ist Teil von Gnome? Echt jetzt? Ich dachte es wird nicht integriert gerade weil es auf Mono beruht. Warum nimmt man dann nicht einfach Mono für Gnome 3?
RHEL hat ja immer noch kein Mono, warum?

Ach ja:
http://www.gnome.org/~seth/blog/mono

Erstens habe ich vom Gnome Projekt gesprochen, zweitens ist in Nautilus Beagle intigriert (Open Suse, wie es weiter geht wird man sehen) und noch ein paar andere Scherze. Momentan ist Icaza dabei den schrittweisen Mono Einzug in Gnome Projekten zu planen, bzw. nach vorne zu treiben. Es gibt immer Pro und Contra bei solchen dingen, es ging aber viel mehr darum den oben geschriebenen Schwachsinn deutlich zu entkräftigen. Die ist keine Mono Diskusion, hätte auch ehrlich gesagt in diesem Forum keine Lust dazu mich darauf einzulassen.

Coda
2006-06-02, 10:17:23
Razor[/POST]']Ah ja... Linux wird also offiziell von Microsoft unterstützt?
Ist nicht Dein ernst, oder?
:confused:
Was hat das damit zu tun?

Razor[/POST]']Das was Du da aufgezeigt hast, sind Versuche, .NET unter Linux zum Laufen zu bekommen (was nur leidlich gelingt)... eine ähnliche Geschichte, wie DirectX via Linux zu emulieren, bzw. auf einer Linux-Basis zum laufen zu bringen. Und wenn man sich Microschrotts Versuche ansieht, gerade diese Plattform zu unterminieren, dürfte es immer schwerer werden, überhaupt nur daran zu denken, .NET-Anwendungen auf anderen Plattformen zu portieren.
"Wenn man keine Ahnung hat: einfach mal Fresse halten"

http://www.ecma-international.org/publications/standards/Ecma-335.htm
http://www.ecma-international.org/publications/standards/Ecma-334.htm

Es steht jedem offen das Zeug zu implementieren - ganz im Gegenteil zu Java. Und Mono ist kein "Versuch" sondern inzwischen eine stabile Platform.

Razor[/POST]']Und in welchen professionellen Umfeldern Momo als Plattform eingesetzt wird, könntest Du mir bei dieser Gelegenheit auch gleich mal erklären.
http://www.mono-project.com/Software
http://www.mono-project.com/Companies_Using_Mono

HellHorse
2006-06-02, 11:44:18
Coda[/POST]']Was hat das damit zu tun?


"Wenn man keine Ahnung hat: einfach mal Fresse halten"

http://www.ecma-international.org/publications/standards/Ecma-335.htm
http://www.ecma-international.org/publications/standards/Ecma-334.htm

Es steht jedem offen das Zeug zu implementieren -
Nur sind die natürlich durch Patente "geschützt" wofür man Lizenzen braucht.
http://www.gnome.org/~seth/blog/mono

Coda[/POST]']ganz im Gegenteil zu Java.
Das auch jedem frei. Erst wenn du es Java nennen willst musst du die Kompatibilitätstests bestehen. Die kosten. Was musst du doch gleich noch mal machen, um etwas .Net nennen zu können?
Coda[/POST]']
Und Mono ist kein "Versuch" sondern inzwischen eine stabile Platform.
Das behauptet nicht mal De Icaza. Erst Mono 1.2 soll:
server applications or long running applications
unterstützen
http://www.theserverside.net/tt/articles/showarticle.tss?id=DeIcazaQA

MeLLe
2006-06-02, 11:58:56
Nicht, wenn sie der Applikation als Bestandteil mitgegeben und zur exklusiven Nutzung in das Applikationsverzeichnis abgelegt werden. Jede Anwendung also ihre eigene Runtime mitbringt und diese nach Deinstallation auch wieder restlos entfernt.
Coda[/POST]']War aber nicht so.
Genau.
Und das (siehe oben) wäre auch nicht im Sinne einer Runtime.

r@w.
2006-06-02, 12:46:57
Coda[/POST]']"Wenn man keine Ahnung hat: einfach mal Fresse halten"
Ist das Deine Art zu "diskutieren"?
EOD.

@Other

Hat eigentlich mal jemand hier den von HellHorse geposteten Mono-Blog von Gnome gelsen?
Offenbar nicht...

Aber irgendwie scheinen wir hier vom Thema ab zu kommen.
Und warum Coda wieder mal völlig aus der Form fällt, kann vermutlich nur er beantworten...
...das Niveau hier sinkt spürbar.

Razor

Wuzel
2006-06-02, 12:57:00
r@w.[/POST]']Ist das Deine Art zu "diskutieren"?
EOD.

@Other

Hat eigentlich mal jemand hier den von HellHorse geposteten Mono-Blog von Gnome gelsen?
Offenbar nicht...

Aber irgendwie scheinen wir hier vom Thema ab zu kommen.
Und warum Coda wieder mal völlig aus der Form fällt, kann vermutlich nur er beantworten...
...das Niveau hier sinkt spürbar.

Razor

Der Blog ist schlicht und ergreifend Bulshit.
Das ist immer der gleiche Müll, einfach draufhauen, gegen alles auflehnen und dabei eine ganz coole Figur machen.
Gerade der Part über Evulotion sagt ja alles aus. Über sowas diskutiere ich nicht einmal. Es zwingt ihn niemand beim Gnome Projekt mitzumachen, die meisten Rechnungen zahlt Novell, Punkt.

Coda
2006-06-02, 13:01:55
r@w.[/POST]']Ist das Deine Art zu "diskutieren"?
Ja. Bei dir schon.

So wie du hier mit aller Nachdringlichkeit die ganze Zeit Bullshit verbreitest gehts mir einfach auf den Sack.

Auf gut Deutsch: Ich werde mit dir nicht mehr diskutieren, weil es keinen Sinn macht, da du deine missratenen Ansichten sowieso nicht änderst.

Coda
2006-06-02, 13:05:45
HellHorse[/POST]']Nur sind die natürlich durch Patente "geschützt" wofür man Lizenzen braucht.
http://www.gnome.org/~seth/blog/mono


Das auch jedem frei. Erst wenn du es Java nennen willst musst du die Kompatibilitätstests bestehen. Die kosten. Was musst du doch gleich noch mal machen, um etwas .Net nennen zu können?

Das behauptet nicht mal De Icaza. Erst Mono 1.2 soll:

unterstützen
http://www.theserverside.net/tt/articles/showarticle.tss?id=DeIcazaQA
Es gibt sehr wohl einen Unterschied zwischen einer ECMA-Standarisierten Sprache und dem Sun-Regime. Die Leute wissen schon warum sie .NET reimplementiert haben und nicht Java.

Um die Frage mit ".NET nennen" zu beantworten: Nichts. .NET-kompatibel darfst du es immer nennen, sonst gäbe es keinen ECMA-Standard.

A lot of discussion has taken place about whether Microsoft could destroy the Mono project with patents. The problematic parts are not the core technologies submitted to the ECMA or the Unix/Gnome-specific parts. The problematic parts are technologies developed by Microsoft on top of the .NET Framework, such as ASP.NET, ADO.NET and Windows Forms. These technologies are today not fully implemented in Mono and not required for developing Mono-applications, but required for compability with the Windows platform.
Was das letzte angeht: Das bedeutet noch lange nicht, dass es "nahezu unmöglich" ist .NET zu portieren. Sie sind ja schon fast fertig.

HellHorse
2006-06-02, 15:48:51
Coda[/POST]']Es gibt sehr wohl einen Unterschied zwischen einer ECMA-Standarisierten Sprache und dem Sun-Regime. Die Leute wissen schon warum sie .NET reimplementiert haben und nicht Java.
Schlussendlich ist beides genauso von anderen Leuten bestimmt und Gnome hat keinen Einfluss darauf (haben die Mono Leute an C# 2.0 mitgearbeitet? arbeiten sie an C# 3.0 mit?). Deshalb sind aus meiner Sicht weder Java noch C# Optionen für Gnome. Aber das ist wirklich eine andere Diskussion.

Sind wir ehrlich, Mono stammt aus einer Zeit als .NET noch Vaporware war und man Angst hatte das plötzlich "das gesamte Internet auf .NET läuft" (dann kamen die Märchen, dass in den zukünftigen Windows Version überall .NET eingesetzt werden wird, Windows.NET irgendwer?).
Coda[/POST]']
Was das letzte angeht: Das bedeutet noch lange nicht, dass es "nahezu unmöglich" ist .NET zu portieren. Sie sind ja schon fast fertig.
Ja, Paint.NET funktioniert ja schon.

Wuzel
2006-06-02, 16:46:20
HellHorse[/POST]']Schlussendlich ist beides genauso von anderen Leuten bestimmt und Gnome hat keinen Einfluss darauf (haben die Mono Leute an C# 2.0 mitgearbeitet? arbeiten sie an C# 3.0 mit?). Deshalb sind aus meiner Sicht weder Java noch C# Optionen für Gnome. Aber das ist wirklich eine andere Diskussion.

Sind wir ehrlich, Mono stammt aus einer Zeit als .NET noch Vaporware war und man Angst hatte das plötzlich "das gesamte Internet auf .NET läuft" (dann kamen die Märchen, dass in den zukünftigen Windows Version überall .NET eingesetzt werden wird, Windows.NET irgendwer?).

Ja, Paint.NET funktioniert ja schon.

Also die Jungs haben sehr viel an .NET gebaut .. GTK# z.B. sowohl für MS .NET wie Mono. Dann wurden sehr viele Apis aus dem GNOME Projekt in C# reinportiert, Glade und konsorten als beispiel.
Ob C# eine Option ist, ist schon längst geregelt, C# wird nach und nach ins Gnome Projekt reinimplementiert. Geldgeber Novell hat zudem noch grosse Pläne mit dem Open Desktop, der sich aus dem Gnome Projekt rausentwickelt.

Microsoft wird mit Vista .NET noch mehr forcieren, der ganze Backoffice part wird mit .NET befeuert - momentan noch als VB Ersatz, zunehmend dann auch als neue Basis. Sharepoint ist das meist verkaufte MS Produkt nach Win95 .. nur mal so am Rande. Auch die neuen Sql Server haben .NET fest integriert, die komplette API ist mit .NET ansprechbar, nicht nur SP's auch erweiterte Logiken sind nun mit .NET möglich, alles was bisher mit einem gemisch aus VB und C ging, geht jetzt dann mit .NET - zum Teil sind funktionen auch .NET only.
ASP.NET ist im Intranet momentan führend und hat sogar JSP eingeholt.
.NET zieht stetig mehr an.

Mono ist genau aus dem Grund die wichtigste Technologie im alternativ Sektor. Mono fährt im Windschatten von MS und das gibt momentan die einmalige gelegenheit alternativen im Markt zu plazieren. Eine Firma die jetzt, durch das pushen von MS auf .NET aufsteigt, hat später die möglichkeit ganz locker zu alternativen migrieren, kein sündhaft teures porten mehr von Buisness aps, volle kompatibilität zu jetzt erworbenen Technologien. Noch nie hatten alternativen einen besseren Standpunkt. 'Sanft' migrieren zu können ist ein wichtiger Faktor, momentan enthalten sich Firmen oft genau aus dem Grund.
Alternativen sind weitgehends inkompatibel zu bestehnden Investitionen, ein 'sanftes' migrieren gerade bei MS mono strukturen mit erweiterten Buisness aps nahezu undenkbar.

Und was unsere schreihälse die eh gegen alles sind hinbekommen haben, sieht man ja an .NET GNU - danke Novell, den sonst müssten wir uns später auf diesen halbgaren bulshit stützen und wären erledigt. Das sollten die ganzen Contra schreier sich einmal durch den Kopf gehen lassen. Novell hat eindrucksvoll bewiesen wie es geht, diese ganzen schreier haben ausser markanten Sprüche nichts, aber auch garnichts zuwege gebracht.
Vor einiger Zeit sah die Intigrität vom Gnome Projekt aus wie ein Nudelsieb, nichts war zu dem anderen kompatibel, jeder hansi baute seine eigene Wurst. Icaza hat gut daran getan sich gegen diesen haufen zu stellen, das GNOME projekt ist wieder im rennen.

Coda
2006-06-02, 16:47:10
HellHorse[/POST]']Schlussendlich ist beides genauso von anderen Leuten bestimmt und Gnome hat keinen Einfluss darauf (haben die Mono Leute an C# 2.0 mitgearbeitet? arbeiten sie an C# 3.0 mit?). Deshalb sind aus meiner Sicht weder Java noch C# Optionen für Gnome. Aber das ist wirklich eine andere Diskussion.
Hat Gnome an C mitgearbeitet? Das Argument ist irgendwie komisch..

tombman
2006-06-02, 17:47:44
Ihr seid schon seit vielen Seiten schwer offtopic. Stört das wen? Nö, is ja tombmans thread...

Gast
2006-06-02, 18:20:02
Um dann wieder ontopic zu kommen: Tombman, hast du denn ncoh eins von den anfangs genannten Spielen da, um die PPU weiter zu testen? Z.B. Tomb Raider - Legend würde mich interessieren...

TheGamer
2006-06-02, 18:30:23
tombman[/POST]']Ihr seid schon seit vielen Seiten schwer offtopic. Stört das wen? Nö, is ja tombmans thread...

Die Mods wuessten eigneltich beschied

Gast
2006-06-02, 18:39:57
Sehr höflich isses trotzdem nicht, weil es hier denke ich nicht um die Eigenarten von .NET geht, und eigentlich auch nicht um die Struktur der Rechenwerke innerhalb der PPU (was natürlich trotzdem interessant ist - aber ein Extrathreat wäre mMn seeehr angebracht).

Wir wollen doch eh nur Balkenlängen sehen :), also her mit Tests und Benchmarks!

E.T.
2006-06-02, 18:40:12
AnarchX[/POST]']
Vielleicht kommt auch noch eine AIPU... ;)

http://www.aiseek.com/

aber denke, so ein produkt wirds noch schwieriger haben als eine ppu. ich könnte mir vorstellen, dass es wesentlich weniger programmieraufwand braucht, um eine ppu für eine paar wegfliegende klötzchen auszulasten, als eine KI zu programmieren, die so rechenintensiv ist dass eine AIPU sinnvoll wäre gegenüber einer berechnung via eines cpu-cores. aber ich lasse mich gerne vom gegenteil überraschen.

Mr. Lolman
2006-06-02, 19:22:20
tombman[/POST]']Ihr seid schon seit vielen Seiten schwer offtopic. Stört das wen? Nö, is ja tombmans thread...

Achja, btw: Warum benennst du die cellfactor.exe in Hl2.exe um?

Coda
2006-06-02, 19:51:17
Damit Crossfire funktioniert?

HellHorse
2006-06-02, 20:14:20
Coda[/POST]']Hat Gnome an C mitgearbeitet? Das Argument ist irgendwie komisch..
Nein, deswegen hat Gnome sein eigenes C geschaffen, das sie kontrollieren. Heisst glib. Mit eigenem malloc names g_malloc, mit eigenen pointern names gpointer, mit eigenen ints nahmes gint, mit eigenem VFS Layer, mit eigenem Objektsystem names GObject, mit eigenem GUI Toolkit names GTK+, mit eigenem ....
Ob C# eine Option ist, ist schon längst geregelt, C# wird nach und nach ins Gnome Projekt reinimplementiert. Geldgeber Novell hat zudem noch grosse Pläne mit dem Open Desktop, der sich aus dem Gnome Projekt rausentwickelt.
Wusste gar nicht, dass Gnome ein Novell Produkt ist.
.NET zieht stetig mehr an.
Ja schon, aber irgendwie hat mal das Gefühl bloss ausserhalb von Microsoft. Sicher haben sie ein paar Vorzeigeprodukte aber gerade in Windows, Office oder Visual Studio sind ja nur sehr kleine Teile oder gar nichts in C# implentiert. Sicher ein paar kleine Sachen sind mit C# gemacht oder erlauben C# als Option, aber die grossen Teile sind alle in C/C++ geschrieben.

Gast
2006-06-02, 20:26:15
HellHorse[/POST]']Sicher ein paar kleine Sachen sind mit C# gemacht oder erlauben C# als Option, aber die grossen Teile sind alle in C/C++ geschrieben.

Das liegt aber daran, dass man aus Zeit und Kostengründen nicht einfach alles neu implementieren kann. Deswegen werden hier alte und neue Technologien bestimmt erst einmal ein paar Generationen immer weiter verschmelzen. Schon mal aus dem Grund, dass man für bestimmte Bereiche eben maximale Performance benötigt. Trotzdem können ja beide Technologien zusammen harmonieren.

Wuzel
2006-06-02, 20:28:08
HellHorse[/POST]']Nein, deswegen hat Gnome sein eigenes C geschaffen, das sie kontrollieren. Heisst glib. Mit eigenem malloc names g_malloc, mit eigenen pointern names gpointer, mit eigenen ints nahmes gint, mit eigenem VFS Layer, mit eigenem Objektsystem names GObject, mit eigenem GUI Toolkit names GTK+, mit eigenem ....

Wusste gar nicht, dass Gnome ein Novell Produkt ist.

Ja schon, aber irgendwie hat mal das Gefühl bloss ausserhalb von Microsoft. Sicher haben sie ein paar Vorzeigeprodukte aber gerade in Windows, Office oder Visual Studio sind ja nur sehr kleine Teile oder gar nichts in C# implentiert. Sicher ein paar kleine Sachen sind mit C# gemacht oder erlauben C# als Option, aber die grossen Teile sind alle in C/C++ geschrieben.

Novell zahlt momentan den grossteil der Rechnungen (dahinter sehr dicht gefolgt von Red Hat) für das Gnome Projekt und stellen einen nicht unerheblichen Teil der Entwickler, wovon ein grossteil zwar dem Open Desktop angehört, aber durch den Rückfluss von Code kommt das auch dem Projekt Dach Gnome zugute.

Das momentan noch ein grossteil in C/C++ geschrieben ist, dürfte mehr als verständlich sein, von heute auf morgen geht das nicht. Es werden kaum Anwendungen 'from scratch' auf neu geschrieben, das könnte kein Mensch finanzieren und Zeit hat man dafür auch nicht unbedingt genug. Es ist ein langsamer aber unaufhaltsamer Prozess.

Und das Projekt für die neue C lib, die erheblichen speed und speichervorteile bringt sehe ich nicht als gefährlich oder Nachteil an, es geht garnicht anders,Trolltech haben ja auch quasi eine eigene C++ lib gebastelt.

HellHorse
2006-06-02, 20:46:06
Gast[/POST]']Das liegt aber daran, dass man aus Zeit und Kostengründen nicht einfach alles neu implementieren kann. Deswegen werden hier alte und neue Technologien bestimmt erst einmal ein paar Generationen immer weiter verschmelzen. Schon mal aus dem Grund, dass man für bestimmte Bereiche eben maximale Performance benötigt. Trotzdem können ja beide Technologien zusammen harmonieren.
Sicher, aber der Anteil an .NET in Windows Vista könnte ja kaum geringer sein. Du willst mir ja nicht ernsthaft erzählen, dass die par C# Progrämmchen alles sind, was die Tausenden von Windowsentwickler bei Microsoft innerhalb von sieben Jahren (oder sind es mittlerweile schon mehr?) schaffen. Wenn sieben Jahre nicht ausreichen, grosse Teile neu zu schreiben, wie viele braucht es dann? Siebzig?
Das gleiche gilt für andere Projekte besonders da wie von dir erwähnt die Technologien ja harmonieren. Da kann man aus meiner Sicht schon erwarten, dass der Anteil an .NET signifikant höher ist. Zudem leidet Microsoft ja nicht (wie Gnome) an Resourcenmangel.

Und das Projekt für die neue C lib, die erheblichen speed und speichervorteile bringt sehe ich nicht als gefährlich oder Nachteil an, es geht garnicht anders,Trolltech haben ja auch quasi eine eigene C++ lib gebastelt.
glib? Was ist daran neu? Ich habe nichts gegen glib solange ich es nicht brauchen muss.

Gast
2006-06-02, 20:59:49
Hat ja alles ungemein viel mit der Ageia PhysX zu tun...

Coda
2006-06-02, 21:00:52
HellHorse[/POST]']Nein, deswegen hat Gnome sein eigenes C geschaffen, das sie kontrollieren. Heisst glib. Mit eigenem malloc names g_malloc, mit eigenen pointern names gpointer, mit eigenen ints nahmes gint, mit eigenem VFS Layer, mit eigenem Objektsystem names GObject, mit eigenem GUI Toolkit names GTK+, mit eigenem ....
Das sind doch alles Libs, das können sie mit C# auch machen :|

Gast
2006-06-02, 21:25:56
HellHorse[/POST]']Sicher, aber der Anteil an .NET in Windows Vista könnte ja kaum geringer sein.


Das kann ich nicht sagen, habe ja keine Informationen dazu. Aber wie kommst du genau zu der Schlussfolgerung?


Wenn sieben Jahre nicht ausreichen, grosse Teile neu zu schreiben, wie viele braucht es dann? Siebzig?


Warum sollte man etwas neu schreiben, was funktioniert und wo es keine Probleme gibt? Warum sollte man diesen finanziellen und zeitlichen Mehraufwand auf sich nehmen?
Außerdem ist es IMO noch viel schwieriger, denn für das nächste Produktrelease reicht ja nicht nur ein Neuschreiben in einer anderen Sprache, du musst das Produkt auch selbst qualitativ verbessern (z.B. Feature usw.). Da sehe ich nicht, wie du das beides zeitlich hinbekommen willst. Hinzu kommt noch, dass selbst das Umschreiben Probleme verursachen kann, deren Lösungen man noch gar nicht erforscht hat (sowas muss halt alles erst mal ewig getestet und ausprobiert werden).

HellHorse
2006-06-02, 22:02:06
Gast[/POST]']Das kann ich nicht sagen, habe ja keine Informationen dazu. Aber wie kommst du genau zu der Schlussfolgerung?
http://www.grimes.demon.co.uk/dotnet/vistaAndDotnet.htm
dummerweise gerade unten
Gast[/POST]']Warum sollte man etwas neu schreiben, was funktioniert und wo es keine Probleme gibt? Warum sollte man diesen finanziellen und zeitlichen Mehraufwand auf sich nehmen?
*Hust* Funktioniert und keine Probleme? Wo denn bitte? Kennst du Windows Update? Dass man auf einen Schlag alle Bufferoverflows und Memory Leaks killt sollte daneben als Argument für .NET aus meiner Sicht reichen.

Gast
2006-06-02, 22:53:15
HellHorse[/POST]']http://www.grimes.demon.co.uk/dotnet/vistaAndDotnet.htm
dummerweise gerade unten


Naja, dann nützt mir der Link aber auch nichts, wenn man das Dokument runtergenommen haben.


*Hust* Funktioniert und keine Probleme? Wo denn bitte? Kennst du Windows Update?


Inwiefern funktioniert denn Windows Update nicht? Habe da bis jetzt keine Probleme mit gehabt.


Dass man auf einen Schlag alle Bufferoverflows und Memory Leaks killt sollte daneben als Argument für .NET aus meiner Sicht reichen.

Ein .NET Programm, dass dann vermutlich zu einem Großteil über Interop oder P/Invoke arbeiten würde/muss, wäre ja auch reichlich sinnlos. Damit wirst du im großen und ganzen dann noch genau so viele potentielle Buffer Overruns haben wie zuvor.

Razor
2006-06-04, 11:35:46
Coda[/POST]']Auf gut Deutsch: Ich werde mit dir nicht mehr diskutieren, weil es keinen Sinn macht, da du deine missratenen Ansichten sowieso nicht änderst.
...was eindeutig zeigt, welch geistig Kind Du bist.
Dazu gibt es nichts weiter zu sagen.

HellHorse[/POST]']Ja, Paint.NET funktioniert ja schon.
:biggrin: :up:

@Thread

Man könnte also (muss aber nicht ;-) konstatieren, dass ein "CellFactor", welches auf der Agia-API aufbaut und auch noch zwingend auf .NET setzt (warum auch immer) nicht gerade ein Leistungsindikator dafür ist, die Vorteile dieser (IMO überflüssigen) PPU aufzuzeigen. Die Vergleichbarkeit ist einfach nicht gegeben, was umso mehr für das tolle "Domino-Demo" gilt...

Insofern ist in diesem Thread eigentlich gar nichts gezeigt worden, ausser... ja, ausser, dass die Agia-Demos funzen (was zu erwarten war) und die Performance mit oder ohne PPU einfach nur mies ist.

Was mich wundert: TR7 soll ja die PhysiX-PPU unterstützen... was ist damit eigentlich?
Auch nur Schall und Rauch? Oder soll das erst zukünftig der Fall sein?

Ich persönlich habe in diesem Thread (on- oder offtopic) NICHTS entdecken können, was für die PhysiX-Card spricht.

Razor

TheGamer
2006-06-04, 11:52:40
Ihr wisst schon das Physx Treiber nichts mit .net zu tun hat aber fuer die Installation von CellFactor von noeten ist? Die Reality Engine nutzt fuer Scripting und Tool C# und eben auch das .net Framework. Das hat nichts mit dem Ageia Treiber zu tun. .NET kannich im uebrigen aeusserst schnell sein und war ein guter Wurf. Habs seit neuestem in meiner taeglichen Arbeit in use

Godmode
2006-06-04, 12:44:16
offtopic: ich denke .NET ist hier im Forum durch das ATI CCC etwas in Verruf gekommen :)

TheGamer
2006-06-04, 13:22:17
bans3i[/POST]']offtopic: ich denke .NET ist hier im Forum durch das ATI CCC etwas in Verruf gekommen :)

Ja aber Hauptsache rumflamen wenn man keinen Plan hat oder (nicht du)?

Philippe
2006-06-04, 18:44:40
@tombman

was schafft eigentlich der conroe bei der demo ??

hyperterminal
2006-06-04, 20:31:07
Die ASUS ageia PhysX Karte mit 256MB ist derzeit fuer 222,90 bei Geizhals gelistet:

http://www.geizhals.at/deutschland/a194859.html

KraetziChriZ
2006-06-04, 20:48:19
Preis/Leistungsmäßig lohnt sich dann wohl ne 128MB BFG nicht mehr... :x

Gast
2006-06-05, 09:40:40
Hehe, Tombman? Glaube du musst dir wohl beide Versionen (128 u. 256 MB) besorgen, um unsere Neugier hinsichtlich der besseren Karte zu befriedigen :D

Aber wie ich schon eine Seite vorher fragte: hast du noch andere Spiele, z.B. TR:L oder so, die die PhysX unterstützen und die du mal testen kannst?

TheGamer
2006-06-05, 11:08:57
Gast[/POST]']Hehe, Tombman? Glaube du musst dir wohl beide Versionen (128 u. 256 MB) besorgen, um unsere Neugier hinsichtlich der besseren Karte zu befriedigen :D

Aber wie ich schon eine Seite vorher fragte: hast du noch andere Spiele, z.B. TR:L oder so, die die PhysX unterstützen und die du mal testen kannst?

Dann kauf ich mir hal tauch beide ist doch egal, das alte bekommt man schon weg :)

Razor
2006-06-05, 11:38:36
TheGamer[/POST]']Ihr wisst schon das Physx Treiber nichts mit .net zu tun hat aber fuer die Installation von CellFactor von noeten ist? Die Reality Engine nutzt fuer Scripting und Tool C# und eben auch das .net Framework. Das hat nichts mit dem Ageia Treiber zu tun. .NET kannich im uebrigen aeusserst schnell sein...
Dass .NET für CellFactor (für welchen Teil davon auch immer) von nöten ist... wie auch die Voraussetzung der Agia-API sagt etwas über die "Qualität" von CellFactor (und auch dessen 'Performance') aus. Oder warum gibt es heute so wenig Spiele (will sagen: KEINE!) auf Basis von .NET? Klar, weil es eben nicht sonderlich performant ist... zumindest 'Performance' in nahezu KEINER mir bekannten Lösung auch nur den Hauch einer Rolle gespielt hat. Wo sich im übrigen auch das ATI CCC ganz gut ein passt...

I.d.R. wird .NET einfach nur benutzt, weil es so schön 'einfach' ist. Ein komplettes Framework halt, welches explizit auf Windows ausgerichtet ist. Der Entwickler braucht sich um viele Sachen einfach nicht mehr kümmern... um die er sich aber IMO kümmern sollte, wenn er dem Anspruch auf professionelles Design gerecht werden will. Ideale Basis also, um sog. "Quick'n'Dirty" aus dem Boden zu stampfen...

Nochmal: ich kenne KEINE Anwendung (Spiele gibt es ja nicht), die Performance als Kriterium mit bringt und auf .NET basiert... das allein sollte eigentlich schon eine Menge sagen.

Razor

P.S.: und bevor hier wieder mit irgendwelchen Pseudo-Argumenten herum geeiert wird, möchte ich doch um ein Beispiel einer auf Performance ausgerichteten Anwendung haben... nur eines. Wenn dieses nicht kommt, dann entbehren so ziemlich alle anderen Argumente einem Sinn.

TheGamer
2006-06-05, 11:42:56
Razor[/POST]']Dass .NET für CellFactor (für welchen Teil davon auch immer) von nöten ist... wie auch die Voraussetzung der Agia-API sagt etwas über die "Qualität" von CellFactor (und auch dessen 'Performance') aus. Oder warum gibt es heute so wenig Spiele (will sagen: KEINE!) auf Basis von .NET? Klar, weil es eben nicht sonderlich performant ist... zumindest 'Performance' in nahezu KEINER mir bekannten Lösung auch nur den Hauch einer Rolle gespielt hat. Wo sich im übrigen auch das ATI CCC ganz gut ein passt...

I.d.R. wird .NET einfach nur benutzt, weil es so schön 'einfach' ist. Ein komplettes Framework halt, welches explizit auf Windows ausgerichtet ist. Der Entwickler braucht sich um viele Sachen einfach nicht mehr kümmern... um die er sich aber IMO kümmern sollte, wenn er dem Anspruch auf professionelles Design gerecht werden will. Ideale Basis also, um sog. "Quick'n'Dirty" aus dem Boden zu stampfen...

Nochmal: ich kenne KEINE Anwendung (Spiele gibt es ja nicht), die Performance als Kriterium mit bringt und auf .NET basiert... das allein sollte eigentlich schon eine Menge sagen.

Razor

Glaub doch einem der .NET tagtaeglich in Gebrauch hat. Zu CellFactor: kannst du nicht lesen, ich sagte wofuer CellFactor .net braucht, naemlich fuer die Tools und Scripts wird C# verwendet. Wenn du schon so schlau bist kannst du ja auch mal die exe auseinander nehmen dann wuerdest du es sehen das .NET einzig allein fuer CellFactor und dessen Editor (ich weiss es weil ich die Reality Engine kenne)

Das Ageia nciht .NET verwendet sagte dir ja auch shon Demirug


Un dlgaub mir, ich kann dir teilweise Direct3D dinge in .net und C++ programmieren die in .Net schneller laufen. Dies hat mal einer gesagt und sogar ich konnts nicht lgauben habs dann aber sleber einsehen muessen. Aber in dem Fall wird .net nur fuer die GUI des Editors verwendet


Spiele auf .net gibts zudem ein sehr erfoglreiches, aber da lass ich dich jetzt raten :) (Nachfolger dieses SPiels setzt bald auf .net 2.0, wegen der schoenen Resonanz des ersten Teils in Sachen Performance)

Razor
2006-06-05, 11:45:49
TheGamer[/POST]']Das Ageia nciht .NET verwendet sagte dir ja auch shon Demirug
1) "für welchen Teil davon auch immer"
2) Ich habe nie behauptet, dass Agia .NET verwendet.
(und Demirug hat 'mir' so etwas auch nicht gesagt... Dir hat er so einiges um die Ohren gehauen ;-)

Nochmal: nenn mir nur eine auf Performance ausgerichtete Anwendung auf Basis von .NET.
(und bitte auch den Namen dieses einen Spiel... denn 'raten' werde ich ganz sicher nicht!)

Danke.

Razor

Demirug
2006-06-05, 11:54:08
Razor[/POST]']Dass .NET für CellFactor (für welchen Teil davon auch immer) von nöten ist... wie auch die Voraussetzung der Agia-API sagt etwas über die "Qualität" von CellFactor (und auch dessen 'Performance') aus. Oder warum gibt es heute so wenig Spiele (will sagen: KEINE!) auf Basis von .NET? Klar, weil es eben nicht sonderlich performant ist... zumindest 'Performance' in nahezu KEINER mir bekannten Lösung auch nur den Hauch einer Rolle gespielt hat. Wo sich im übrigen auch das ATI CCC ganz gut ein passt...

I.d.R. wird .NET einfach nur benutzt, weil es so schön 'einfach' ist. Ein komplettes Framework halt, welches explizit auf Windows ausgerichtet ist. Der Entwickler braucht sich um viele Sachen einfach nicht mehr kümmern... um die er sich aber IMO kümmern sollte, wenn er dem Anspruch auf professionelles Design gerecht werden will. Ideale Basis also, um sog. "Quick'n'Dirty" aus dem Boden zu stampfen...

Nochmal: ich kenne KEINE Anwendung (Spiele gibt es ja nicht), die Performance als Kriterium mit bringt und auf .NET basiert... das allein sollte eigentlich schon eine Menge sagen.

Razor

Es gibt Spiele auf .Net Basis. Sogar mindestens einen kommerziellen Titel und als Script System gehört .Net so ziemlich zum schnellsten was es derzeit gibt.

Was die Perfomance angeht so ist der 2.0 Framework nahezu auf dem gleichen Level wie der C++ Compiler ohne die ganz agressiven Optimierungen. Gegen Hand optimiertes Assembler kommt er natürlich nicht an. Über das CCC brauchen wir nicht zu reden das hat ATI einfach nur vergeigt. Das hätten sie aber auch mit C++ oder dem alten Visual Basic hinbekommen. Man kann performante .Net Anwendungen schreiben aber das erfordert das man einiges was mit in vielen Jahren C/C++ Entwicklung gelehrnt hat über Bord wirft.

Aber letztend Endes wird auf der Windows Platform sowieso kein Weg an .Net vorbeiführen den anders kann WinFX nicht vertsnaden werden.

Razor
2006-06-05, 11:57:13
Danke für Deine Ausführungen, Demirug.
Könntest Du mir vielleicht diesen einen kommerziellen Titel nennen?
Wäre einfach mal ganz interessant...

Razor

P.S.: gerne auch via PM, wenn dies hier zu OT sein sollte.

TheGamer
2006-06-05, 12:04:55
Razor[/POST]']Danke für Deine Ausführungen, Demirug.
Könntest Du mir vielleicht diesen einen kommerziellen Titel nennen?
Wäre einfach mal ganz interessant...

Razor

P.S.: gerne auch via PM, wenn dies hier zu OT sein sollte.

Auf dem Markt ist ein deutscher Titel namens Arena Wars. Andere sind in Entwicklung.

http://www.counterfrag.com/screenshots/arena%20wars/3.jpg

Danke Demirug, das du es bestaetigst was ich sage. Besonders das .net 2.0 gleich shcnell ist wie C++ in bestimmten Szenarien. Habs wie gesagt nicht geglaubt und dann anhand einer Direct3D ANwendung slebst lernen muessen das es gleich schnell teilweise sogar schneller sein kann

Coda
2006-06-05, 12:25:06
Du meinst die SDK-Demos? Das ist nun wirklich nicht representativ.

.NET hatte früher mal Schwächen bei FPU-Code, ich weiß nicht inwiefern sich das gebessert hat. Auf x64-Windows sollte es aber auf jeden Fall besser werden wegen dem flachen FPU-Model per SSE2.

TheGamer
2006-06-05, 12:41:43
Coda[/POST]']Du meinst die SDK-Demos? Das ist nun wirklich nicht representativ.

.NET hatte früher mal Schwächen bei FPU-Code, ich weiß nicht inwiefern sich das gebessert hat. Auf x64-Windows sollte es aber auf jeden Fall besser werden wegen dem flachen FPU-Model per SSE2.

Nein mein ich nicht

Razor
2006-06-06, 05:10:11
TheGamer[/POST]']Auf dem Markt ist ein deutscher Titel namens Arena Wars. Andere sind in Entwicklung.
Kenn' ich nicht, das Game...
Und welche (abgesehen von CellFactor ;-) sind in Entwicklung?
:confused:

Razor

ScottManDeath
2006-06-06, 06:07:10
Coda[/POST]']Du meinst die SDK-Demos? Das ist nun wirklich nicht representativ.

.NET hatte früher mal Schwächen bei FPU-Code, ich weiß nicht inwiefern sich das gebessert hat. Auf x64-Windows sollte es aber auf jeden Fall besser werden wegen dem flachen FPU-Model per SSE2.

.NET, oder eher der lausige C# Compiler saugt immer noch bei FPU Anwendungen;(

Irgendwann raff ich mich doch noch auf und bau mir einen C# -> C++/CLI Sourcecode Cross Compiler und guck mal was der C++ Optimizer rauskitzeln kann. Dann wird mein Raytracer auch schön fix ;) Mein overengineerter C# Tracer war ca 4 bis 8 mal langsamer als die C++ tracer meiner Mitstudenten :(

ScottManDeath
2006-06-06, 06:12:32
TheGamer[/POST]']Auf dem Markt ist ein deutscher Titel namens Arena Wars. Andere sind in Entwicklung.



Z.b. Alexander the Great von Tin Soldiers, Julius Caesar von ebendenselbigen

Der Rest ist nur Kinderkram ;)
http://www.thezbuffer.com/categories/games.aspx

MadHatter666
2006-06-07, 01:00:55
Sooo... Nachdem ich mir den ganzen Thread einverleibt hab (obwohl ich irgendwo bei SIMD und MIMD/ALU ausgestiegen bin :redface:) muss ich erstmal etwas loswerden:

Tolle Technik, vor allem die Videos aus diesem (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4375295&postcount=59) Post (thx @ tombman an dieser Stelle) haben mich schwer beeindruckt.
Abgesehen von der bereits angesprochenen Henne/Ei-Problematik (und der einen oder anderen überkritischen Stimme) bin ich überzeugt davon dass Ageia mit Phsyix echt einen Knaller in der Tasche hat, vorrausgesetzt dass die Unterstützung in kommenden Spielen wirklich gegeben ist. Das wird sich aber erst noch zeigen (bedeutet: viel Tee trinken).

Die eine oder andere Frage bleibt mir allerdings:

- wird Crysis wirklich auf Ageia/Physix setzen? Oder wird nvidia mit Havok da noch ein (gewichtiges?) Wörtchen mitreden?
- wird PCI aktuell bleiben? Bzw, inwieweit wäre PCI-e von Vorteil (Stichwort: Rückkanal?)
- wie sieht das Ganze dann mit DX10 aus? (Oder wissen das derzeit nur die Götter?)
- eher Ageia Physix oder Havok Physics? (Wieder; Frage an die Götter, bzw, derzeit nicht abschätzbar?)


Dann, OT-Frage: Was haltet ihr von diesem (http://www.asrock.com/product/775i65PE.htm) Board als Conroe-Untersatz? Schwachsinn oder durchaus möglich? hab ne starke AGP-Karte die ich gern weiterverwenden würde... Außerdem sind viele PCI-Slots immer willkommen (Soundkarte, TV-Karte, eventuell Physix-Karte...). Was mich allerdings abschreckt ist die werksseitige Übertaktung des 865er Chipsatzes...

Blutmaul
2006-06-07, 16:43:46
Von Computerbase, aus dem Physik mit Crossfire Artikel:

http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/

"Wie ATi uns auf Anfrage soeben mitteilte, ist es mit CrossFire Physics technisch durchaus möglich, die Spielphysik auf einer Grafikkarte zu berechnen. Jedoch würde eine GPU bei der Spielphysik die CPU nur um etwa 10 bis 15 Prozent entlasten, weswegen sich die Kanadier auf die Effektphysik fokussieren werden."

Also nur Effekthascherei per GPU...

Gast
2006-06-07, 20:21:47
Das war ja eigentlich klar... jedenfalls den meisten hier aus dem Forum, die sich in den letzten Wochen ein wenig mit Physik und Ageia beschäftigt haben.
Was mich nur ärgert ist, das ATi sich damit brüstet wieviel SCHNELLER sie doch im Vgl. zu Ageia wären! Ja ne is klar ATi...

just4FunTA
2006-06-07, 20:41:13
MadHatter666[/POST]']
- wird Crysis wirklich auf Ageia/Physix setzen? Oder wird nvidia mit Havok da noch ein (gewichtiges?) Wörtchen mitreden?

Hab ich was verpasst? Crysis und Ageia? Die Crytek Jungs machen doch da ihr eigenes Ding. Oder wie kommst du jetzt überhaupt darauf?

UT2007 soll ja von der Karte gebrauch machen, crysis soweit ich weiss aber wohl nicht.

TheGamer
2006-06-07, 20:56:25
moka83[/POST]']Hab ich was verpasst? Crysis und Ageia? Die Crytek Jungs machen doch da ihr eigenes Ding. Oder wie kommst du jetzt überhaupt darauf?

UT2007 soll ja von der Karte gebrauch machen, crysis soweit ich weiss aber wohl nicht.

Crysis hat eine von Crytek eigene Physik Engie intus, dei CryEngien hat diese shcon seit Farcry intus (jetzt natuerlich verbessert)

MadHatter666
2006-06-07, 21:21:20
Ah, alles klar - thx!

Nightspider
2006-06-07, 23:32:13
Mich würde es wundern, wenn Crytek nicht trotzdem per Patch o.ä. ein paar Vorteile der PhysX nutzen könnte.

Früher wurde ja auch schon angemerkt, dass auch Spiele mit anderen Physik-Engines von der PhysX PPU profitieren könnten. Man muss halt nur die Spiele patchen und die Last zum Teil auf die PPU verlagern, so wie ich das damals verstanden habe !=?=!=? :|

Oder gibts diesbezüglich andere / neue Informationen ?

just4FunTA
2006-06-07, 23:41:26
TheGamer[/POST]']Crysis hat eine von Crytek eigene Physik Engie intus, dei CryEngien hat diese shcon seit Farcry intus (jetzt natuerlich verbessert)

Also alles beim alten.

Coda
2006-06-08, 00:23:43
Nightspider[/POST]']Mich würde es wundern, wenn Crytek nicht trotzdem per Patch o.ä. ein paar Vorteile der PhysX nutzen könnte.
Das wird schwierig, weil die API für das Ding praktisch die Ageia-Physik-Engine ist.

del_4901
2006-06-08, 00:25:56
Coda[/POST]']Das wird schwierig, weil die API für das Ding praktisch die Ageia-Physik-Engine ist.
Novodex ... das ist nicht nur von ageia oder?

Coda
2006-06-08, 00:27:48
Äh, doch?

del_4901
2006-06-08, 00:40:49
Coda[/POST]']Äh, doch?
Äh, haben die das aufgekauft?

Nightspider
2006-06-08, 00:42:37
Coda, sehr schwierig ? [....okay,ja-is schwer zu sagen...]
Ich denke besonders Crysis würde stark von einer PPU Beschleunigung profitieren...
Mh...wobei das vllt auch gar net nötig ist, wenn das Spiel 4 und mehr Kerne unterstützt :rolleyes:

del_4901
2006-06-08, 00:56:40
2 Kerne ist für einige Devs schon schwer. Mehr Kerne sind noch schwerer. X-Kerne sind ohne Code über den haufen zu werfen unmöglich. Ich arbeite gerade an einem System was mit X-Kernen klarkommt, da nicht in Deadlocks zu verfallen ist verdammt schwer und verlangt mir jedes bissel Gehirnschmalz ab, was ich besitze.

Coda
2006-06-08, 01:17:46
AlphaTier[/POST]']Äh, haben die das aufgekauft?
Schon seit Urzeiten.

del_4901
2006-06-08, 01:19:31
Coda[/POST]']Schon seit Urzeiten.
Ok ich bin halt ein Methusalem,

du hast Recht ^^ jetzt wo du es sagst ^^

TheGamer
2006-06-08, 08:12:49
AlphaTier[/POST]']Äh, haben die das aufgekauft?

ja physx ist ein schweizer produkt (vormals novodex in zuerich) aufgekauft durch ageia oder so aehnlich

Urzeiten lang ist es allerdings noch nciht her ;)

seahawk
2006-06-08, 09:09:42
Netter Bericht Tombman. Momentan ist die Karte zwar eine reine Spielerei, kann aber in ihrer zweiten oder dritten Generation durchaus interessant werden. Es bleibt halt nur abzuwarten wie sich das System gegen HavokFX mit GPU und Dualcore Optimierung schlägt.
Bei den Benchmarks bin ich mir nicht sicher, ob wir wirklich die Leistung schon gesehen haben, oder ob der Softwaremode einfach nur schlecht ist und viel Performance verschenkt. Nach einem hastigen Blick auf das Produkt tendiere ich momentam zu dieser Annahme.

Gast
2006-06-08, 11:21:33
TheGamer[/POST]']ja physx ist ein schweizer produkt (vormals novodex in zuerich) aufgekauft durch ageia oder so aehnlich

Urzeiten lang ist es allerdings noch nciht her ;)

Wäre doch ein passender Werbeslogan! Wer hats erfunden?? :)

Gast
2006-06-08, 11:39:36
Razor[/POST]']Dass .NET für CellFactor (für welchen Teil davon auch immer) von nöten ist... wie auch die Voraussetzung der Agia-API sagt etwas über die "Qualität" von CellFactor (und auch dessen 'Performance') aus. Oder warum gibt es heute so wenig Spiele (will sagen: KEINE!) auf Basis von .NET? Klar, weil es eben nicht sonderlich performant ist... zumindest 'Performance' in nahezu KEINER mir bekannten Lösung auch nur den Hauch einer Rolle gespielt hat. Wo sich im übrigen auch das ATI CCC ganz gut ein passt...

wieso wird eigentlich direct3d benützt

Gast
2006-06-08, 20:26:00
Also ich habe heute die Videos auf Tomshardware.de gesehen. DAS soll die Zukunft sein? LOOOOOL

Das ist ja wohl ein schlechter Witz!! Für die paar Dinger, die da noch rumfliegen brauch ich eine 300 € Zusatzkarte ? Also bitte......

Zudem bleiben die trümmer nichtmal auf dem Boden liegen....


Junge junge, was den leuten heutzutage alles als High-Tex angedreht wird, ist echt unter aller Sau.


Ano

cRaZy78
2006-06-10, 02:47:42
hyperterminal[/POST]']Die ASUS ageia PhysX Karte mit 256MB ist derzeit fuer 222,90 bei Geizhals gelistet:

http://www.geizhals.at/deutschland/a194859.html

War ein Fake.. hatte mir die Karte da bestellt aber angekommen ist nur die 128MB Version von Asus.. Aber für 222eur kann man trotzdem nicht meckern.
U.a. ist eine neue Version von Cellfactor rausgekommen.
Eine Beta r36 = http://www.ageia.com/physx_in_action/cellfactor.html

Also mir gefällt die Karte und GRAW läuft jetzt mit patch und neuen Ageia Treibern auch wunderbar.

RavenTS
2006-06-10, 10:38:35
cRaZy78[/POST]']War ein Fake.. hatte mir die Karte da bestellt aber angekommen ist nur die 128MB Version von Asus.. Aber für 222eur kann man trotzdem nicht meckern.
U.a. ist eine neue Version von Cellfactor rausgekommen.
Eine Beta r36 = http://www.ageia.com/physx_in_action/cellfactor.html

Also mir gefällt die Karte und GRAW läuft jetzt mit patch und neuen Ageia Treibern auch wunderbar.

Wenn du aber ne 256MB-Version von ASUS bestellt hast, würd ich da jetzt mal schnell auf die Barrikaden gehen.?!

Gast
2006-06-10, 10:44:30
Genau. Das würde ich mir auch nicht gefallen lassen, entweder Preisnachlass verlangen oder zurückgeben. Kann doch nicht angehen...

cRaZy78
2006-06-10, 16:43:01
RavenTS[/POST]']Wenn du aber ne 256MB-Version von ASUS bestellt hast, würd ich da jetzt mal schnell auf die Barrikaden gehen.?!

Naja.. hab ihm schon 2-4 Mails geschickt ohne eine Antwort zu bekommen.
Deshalb sag ich mir, ich hab 222eur bezahlt, also knapp 40eur günstiger als die anderen Karten und GRAW war auch noch dabei.
Ausserdem steht jetzt auf der Seite die 128MB Version für 222eur.
Nochmal da was bestellen werd ich nicht. Deshalb tu ich mir jetzt auch nicht diesen Stress an, ist eh viel zu warm zum aufregen ;)

Werd aber nochmal am Montag versuchen da anzurufen!!! Will ihm wenigstens mal die Meinung sagen.

RavenTS
2006-06-10, 18:12:22
cRaZy78[/POST]']Naja.. hab ihm schon 2-4 Mails geschickt ohne eine Antwort zu bekommen.
Deshalb sag ich mir, ich hab 222eur bezahlt, also knapp 40eur günstiger als die anderen Karten und GRAW war auch noch dabei.
Ausserdem steht jetzt auf der Seite die 128MB Version für 222eur.
Nochmal da was bestellen werd ich nicht. Deshalb tu ich mir jetzt auch nicht diesen Stress an, ist eh viel zu warm zum aufregen ;)

Werd aber nochmal am Montag versuchen da anzurufen!!! Will ihm wenigstens mal die Meinung sagen.

Gut am besten direkt auch noch bei einem dieser Preissuchdienste mit Bewertungsfunktion nen Eintrag machen. Bin Anfang des Jahres auch mal fies verarscht worden bezüglich Lieferbarkeit und wie lange die Lieferung noch dauert. Hab mich so geärgert, dass ich den Shop ab jetzt def. meide und mich extra bei preistrend.de angemeldet hab nur um dort ne neg. Bewertung abzulassen.

Günstig ist ja gut, da nehm ich eventuell auch mal ne minimal längere Lieferzeit oder nur Support per Mail etc hin, aber irreführende bzw sich ändernde Angaben oder noch besser garkein Support ist zuviel, da muss man einfach was machen...

Super Grobi
2006-06-11, 12:21:35
Hi,
gibts eigentlich erkenntnisse, was eine 256MB Ageia bringen würde? Die Asus mit 256MB gibts zwar nirgents, aber ich würde denoch gerne wissen, ob das nur Marketing ist oder wirklich sinn machen wird.

Gruss
SG

Neomi
2006-06-11, 14:12:49
Super Grobi[/POST]']gibts eigentlich erkenntnisse, was eine 256MB Ageia bringen würde? Die Asus mit 256MB gibts zwar nirgents, aber ich würde denoch gerne wissen, ob das nur Marketing ist oder wirklich sinn machen wird.

Das bringt... *spannungaufbau*... mehr Speicher. Klingt komisch, ist aber so.

Solange 128 MiB reichen, werden 256 MiB nicht wirklich was bringen. Wie auch? Es gibt ja nur mehr freien Speicher. Durch den doppelten Speicherausbau wird man nichts schneller berechnen können (Auslagerung in den Hauptspeicher über PCI bei "nur" 128 MiB schließe ich einfach mal aus), man wird nur noch mehr berechnen können. Wobei natürlich 128 MiB noch lange nicht den Flaschenhals darstellen sollten, wenn nicht massiv auf PMaps (Penetration Maps, nur für nichtkonvexe Körper relevant) gesetzt wird.

cRaZy78
2006-06-11, 23:42:38
Super Grobi[/POST]']Hi,
gibts eigentlich erkenntnisse, was eine 256MB Ageia bringen würde? Die Asus mit 256MB gibts zwar nirgents, aber ich würde denoch gerne wissen, ob das nur Marketing ist oder wirklich sinn machen wird.

Gruss
SG
Ich glaub nicht das noch ne 256MB Version kommt, da auf der Asus seite die 256MB Version auch verschwunden ist. Nur noch die 128MB Version finde ich da auf der hp.

Super Grobi
2006-06-11, 23:47:23
Jo,
thx für eure Infos. Irgentwie lockt mich das Teil (die Asus mit 128MB). Mein Verstand sagt, daß das Teil total sinnlos ist... aber meine Hardwaresucht ;D

Gruss
SG

Gast
2006-06-12, 07:52:07
Freakman!!!! Was geht denn nu? Das Volk will was sehen :) Büdde poste doch mal ein paar Benches, Screenshots und so (aus anderen Spielen als GRAW).

Super Grobi
2006-06-12, 11:05:22
Gast[/POST]']Freakman!!!! Was geht denn nu? Das Volk will was sehen :) Büdde poste doch mal ein paar Benches, Screenshots und so (aus anderen Spielen als GRAW).

Andere Spiele profitieren doch von der Karte noch garnicht. Aber ein Treibervergleich wäre interessant ;) Wüsste schon ganz gerne, ob sich da was getan hat.

Gruss
SG

Gast
2006-06-12, 11:22:03
Naja, in der offiziellen Liste werden folgende Spiele genannt:

Tom Clancy's Ghost Recon Advanced Warfighter
Rise of Nations: Rise of Legends (Patch)
Bet on Soldier: Blood Sport (Patch)
Bet on Soldier: Blood Of Sahara Expansion Pack
CellFactor: Combat Training
City of Villains (Patch)
Gunship Apocalypse
Stoked Rider: Big Mountain Snowboarding

Und ich meine zu wissen das TR:L da auch irgendwie optimiert sein soll, wobei ich kaum glauben kann das sich das bei dem bißchen Physik in dem Spiel bemerkbar machen würde...