PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 2 Grafikkarten von unterschiedlichen Chip-Herstellern?


Gast
2008-12-25, 14:59:26
Hallo, ich habe ein Asus Mainboard, auf dem ich 2 Grafikkarten betreiben kann. Ich höre aber immer nur von Leuten die zwei Radeon-Karten oder zwei Geforce-Karten im SLI-Modus betreiben. Nun habe ich mich gefragt, ob es auch möglich ist, 2 Grafikkarten zu betreiben, wobei eine von beiden eine Radeon und die andere eine Geforce ist.

Ich habe eine HD 4870 und spiele mit dem Gedanken als zweite Grafikkarte eine GTX 260 (216) einzubauen. Ist das möglich?

Raff
2008-12-25, 15:00:08
Eine GeForce und eine Radeon können nicht im SLI bzw. Crossfire arbeiten.

MfG,
Raff

Gast
2008-12-25, 15:07:53
Naja, um ehrlich zu sein, direkt im SLI oder Crossfire will ich die auch nicht betreiben. Der Ursprung meiner Überlegung ist eigentlich der, dass die ATI Karten keine PhysX unterstützen und ich mir quasi eine Nvidia-Karte zusätzlich hole, die ich ausschließlich für die PhysX-Berechnung verwende. Alternativ könnte es dann auch nur eine 9800 GT sein. Wenn ich die Geforce dann nur für PhysX verwende, dann ist das ja nicht wirklich SLI, oder?

Kane02
2008-12-25, 15:13:50
glaub kaum dass das gehen wird, vor allem welches Programm soll wissen wann es was verwenden soll?

Gast
2008-12-25, 15:15:17
Aber soweit ich weiß, ist es doch möglich, sich eine zweite Graka einzubauen, die nur für die PhysX-Berechung verwendet wird. Weiß auch nicht wie das geht, aber ich hab darüber gelesen.

deekey777
2008-12-25, 15:28:57
Naja, um ehrlich zu sein, direkt im SLI oder Crossfire will ich die auch nicht betreiben. Der Ursprung meiner Überlegung ist eigentlich der, dass die ATI Karten keine PhysX unterstützen und ich mir quasi eine Nvidia-Karte zusätzlich hole, die ich ausschließlich für die PhysX-Berechnung verwende. Alternativ könnte es dann auch nur eine 9800 GT sein. Wenn ich die Geforce dann nur für PhysX verwende, dann ist das ja nicht wirklich SLI, oder?
Wenn du Vista hast, fällt die Idee eh ins Wasser.

Auf XP ist diese Konfiguration möglich, aber nicht sehr leicht umzusetzen.

Gast
2008-12-25, 15:34:24
Dann bleibt mir wohl nichts anderes übrig als ATI goodbye zu sagen und generell auf Nvidia umzusteigen. Schade, dass ATI so immer mehr seiner Kunden vergrault, nur weil sie es einfach nicht gebacken kriegen oder nicht gebacken kriegen wollen einen Treiber rauszubringen, der die PhysX auf Radeon-Karten aktiviert. ATI wird mir in letzter Zeit immer unsympathischer. Die HD 4870 wird daher wohl meine letzte ATI Karte gewesen sein.

deekey777
2008-12-25, 15:37:40
Dann bleibt mir wohl nichts anderes übrig als ATI goodbye zu sagen und generell auf Nvidia umzusteigen. Schade, dass ATI so immer mehr seiner Kunden vergrault, nur weil sie es einfach nicht gebacken kriegen oder nicht gebacken kriegen wollen einen Treiber rauszubringen, der die PhysX auf Radeon-Karten aktiviert. ATI wird mir in letzter Zeit immer unsympathischer. Die HD 4870 wird daher wohl meine letzte ATI Karte gewesen sein.
Steig um, aber so etwas zeugt einfach, dass du mal deine Unwissenheit von der Seele losschreiben wolltest.

Raff
2008-12-25, 15:38:30
Wenn du Vista hast, fällt die Idee eh ins Wasser.

Auf XP ist diese Konfiguration möglich, aber nicht sehr leicht umzusetzen.

Das ist übelste Fummelei, nur weil die Treiber anscheinend "keinen Bock" aufeinander haben. Und das Vista-Treibermodell erlaubt AFAIK gar nicht, zwei verschiedene Grafiktreiber zu laden.

Aber mal ehrlich: So viele Must-Haves für PhysX gibt's ja eigentlich nicht. ;) Das ist noch Spielerei, wenn auch eine nette. Eine Radeon als Hauptkarte und eine kleine GeForce als Co-Physiker wäre schon hübsch. Aber es soll wohl nicht sein, warum auch immer. In der aktuellen PCGH findet sich übrigens ein Artikel, der genau dieses Thema beleuchtet.

MfG,
Raff

Gast
2008-12-25, 15:40:55
Schade, dass ATI so immer mehr seiner Kunden vergrault, nur weil sie es einfach nicht gebacken kriegen oder nicht gebacken kriegen wollen einen Treiber rauszubringen, der die PhysX auf Radeon-Karten aktiviert.

Vielleicht liegt es einfach daran, dass PhysX bis heute und auch auf mittlere Sicht nicht viel bringt, NV aber auch ziemlich nutzlose bzw kaum genutzte Features ihrer Produkte recht aggressiv bewirbt?

Taigatrommel
2008-12-25, 15:42:35
Dann bleibt mir wohl nichts anderes übrig als ATI goodbye zu sagen und generell auf Nvidia umzusteigen. Schade, dass ATI so immer mehr seiner Kunden vergrault, nur weil sie es einfach nicht gebacken kriegen oder nicht gebacken kriegen wollen einen Treiber rauszubringen, der die PhysX auf Radeon-Karten aktiviert. ATI wird mir in letzter Zeit immer unsympathischer. Die HD 4870 wird daher wohl meine letzte ATI Karte gewesen sein.
Hmmm, für welche Spiele willst du denn PhysX haben? Nenne doch mal konkrete Beispiele, mehr als eine Hand voll Titel die sinnvoll davon profitieren, wird es aktuell wohl kaum geben und in Zukunft wohl auch nicht.

Gast
2008-12-25, 15:45:13
Hmmm, für welche Spiele willst du denn PhysX haben? Nenne doch mal konkrete Beispiele, mehr als eine Hand voll Titel die sinnvoll davon profitieren, wird es aktuell wohl kaum geben und in Zukunft wohl auch nicht.

Zum Beispiel liebäugel ich da mit der im Januar erscheinenden PC-Version von Mirrors Edge oder auch der angekündigte Egoshooter Cryostasis.

Gast
2008-12-25, 15:59:49
Don't feed the Troll.

Schlammsau
2008-12-25, 16:10:20
Zum Beispiel liebäugel ich da mit der im Januar erscheinenden PC-Version von Mirrors Edge oder auch der angekündigte Egoshooter Cryostasis.

Bis jetzt gibt es nur eine Techdemo von Cryostasis, die nur auf nVidia Hardware optimiert wurde. Ich kann mir beim besten willen nicht vorstellen, dass das auch bei der endgültigen Version immer noch genauso aussieht. Damit vergraulen sie einen grossen Teil aller potenzieller Kunden. Ob man´s glauben mag oder nicht, die neuen Radeon´s sind gerade der Renner und es wäre doch vom Publisher reiner Selbstmord, mehr oder weniger alle Radeons auszuschliessen. Weil ohne PhysX ist das Game praktisch unspielbar!

Gast
2008-12-25, 16:26:56
Man wird einfach nicht alle Effekte auf Radeon Karten zu sehn bekommen.

Gast
2008-12-25, 16:27:20
Es geht ja nicht um die Grafikperformance, sondern um die Physikperformance, und die hebelt nunmal jede moderne CPU aus. Selbst die schnellsten CPUs von Intel können das nicht so schnell berechnen, dass es flüssig läuft. Somit wird die CPU zum Flaschenhals und bremst die Grafikkarte aus. Das Resultat: Spiele mit komplexen PhysX laufen nur als Diashow. Nvidia hat das Problem gelöst und via Treiber die PhysX-Berechnung der GPU aktiviert. ATI denkt nicht im Traum daran, das zu tun. Wie stur und blöd kann man eigentlich sein? Wenn die unbedingt weiter wollen, dass die Anzahl Ihrer Kunden und Anhänger stirbt wie Fliegen, dann sollen die von mir aus weitermachen. Aber ich mach da nicht mit und werde bei der nächst besten Gelegenheit auf Nvidia umsatteln.

davidzo
2008-12-25, 16:30:40
Naja, um ehrlich zu sein, direkt im SLI oder Crossfire will ich die auch nicht betreiben. Der Ursprung meiner Überlegung ist eigentlich der, dass die ATI Karten keine PhysX unterstützen und ich mir quasi eine Nvidia-Karte zusätzlich hole, die ich ausschließlich für die PhysX-Berechnung verwende. Alternativ könnte es dann auch nur eine 9800 GT sein. Wenn ich die Geforce dann nur für PhysX verwende, dann ist das ja nicht wirklich SLI, oder?
Schonmal überlegt eine stinkinge alte Ageia PhysX karte von zu erstehen? Die macht auch PhysX und das teilweise schneller als nvidias GPU-PhysX. Da viele PhysXkarten mit dem nvidiatreiber in nvsystemen (fast)nutzlos geworden sind sollten die gebraucht ganz gut zu bekommen sein. Neu findet man die auch noch bei einigen Läden für ungefähr den Preis einer 9800GT (120€). Das ist nicht billig, aber für dein vorhaben noch ok denke ich, verbraucht auch viel weniger als ne 9800GT...

AffenJack
2008-12-25, 16:33:15
Bis jetzt gibt es nur eine Techdemo von Cryostasis, die nur auf nVidia Hardware optimiert wurde. Ich kann mir beim besten willen nicht vorstellen, dass das auch bei der endgültigen Version immer noch genauso aussieht. Damit vergraulen sie einen grossen Teil aller potenzieller Kunden. Ob man´s glauben mag oder nicht, die neuen Radeon´s sind gerade der Renner und es wäre doch vom Publisher reiner Selbstmord, mehr oder weniger alle Radeons auszuschliessen. Weil ohne PhysX ist das Game praktisch unspielbar!

Natürlich ist der Publisher nicht so dumm, Leute mit ati-graka müssen sich halt mit mittleren physikeinstellungen zufrieden geben. Unter Umständen, wenn das spiel noch gut auf quads optimiert ist sogar mit low Physik beim dual-core. Aber spielen könnense natürlich alle trotzdem, nur kriegen nicht die maximalen einstellungen.

Schlammsau
2008-12-25, 16:33:24
Es geht ja nicht um die Grafikperformance, sondern um die Physikperformance, und die hebelt nunmal jede moderne CPU aus. Selbst die schnellsten CPUs von Intel können das nicht so schnell berechnen, dass es flüssig läuft. Somit wird die CPU zum Flaschenhals und bremst die Grafikkarte aus. Das Resultat: Spiele mit komplexen PhysX laufen nur als Diashow. Nvidia hat das Problem gelöst und via Treiber die PhysX-Berechnung der GPU aktiviert. ATI denkt nicht im Traum daran, das zu tun. Wie stur und blöd kann man eigentlich sein? Wenn die unbedingt weiter wollen, dass die Anzahl Ihrer Kunden und Anhänger stirbt wie Fliegen, dann sollen die von mir aus weitermachen. Aber ich mach da nicht mit und werde bei der nächst besten Gelegenheit auf Nvidia umsatteln.

Nein CUDA wird, spätestens wenn OpenCL und DX11 da ist, wie eine Fliege sterben. ;)
Und zum Thema PhysX, bei der Cryostasis Techdemo wird auch ohne Hardware PhysX ´, Die CPU nur um 50% belastet. Was sagt uns das?
Richtig, Cryostasis nutzt die CPU überhaupt nicht zum berechnen der Physik.
Eine riesen Mogelpackung um nVidia ins bessere Licht zu rücken.

Schlammsau
2008-12-25, 16:37:43
Natürlich ist der Publisher nicht so dumm, Leute mit ati-graka müssen sich halt mit mittleren physikeinstellungen zufrieden geben. Unter Umständen, wenn das spiel noch gut auf quads optimiert ist sogar mit low Physik beim dual-core. Aber spielen könnense natürlich alle trotzdem, nur kriegen nicht die maximalen einstellungen.
So kann es natürlich auch sein.

davidzo
2008-12-25, 16:38:02
Natürlich ist der Publisher nicht so dumm, Leute mit ati-graka müssen sich halt mit mittleren physikeinstellungen zufrieden geben. Unter Umständen, wenn das spiel noch gut auf quads optimiert ist sogar mit low Physik beim dual-core. Aber spielen könnense natürlich alle trotzdem, nur kriegen nicht die maximalen einstellungen.

ich denke nicht, das textur- und Geometrieauflösung davon betroffen sind.
ich spiel das game auch gerne mit ein paar staubkörnchen weniger in der Luft oder ohne realistischen clotheffekt beim gegenlaufen. ist ja nicht so als ob das Grafisch den Unterschied machen würde, eher simulationstechnisch in der authentizität der Bewegungsabläufe, Kollisionen etc. - Darauf verzichte ich gern.

Ageia PhysX ist aber auch ne Softwarelösung. Ähnlich wie bei OpenGL wird die PhysX API in Software gerechnet wenn kein PhysX Beschleuniger da ist. Das kann ganzschön heftig sein, aber hey wozu haben wir Quadcores? Cellfactor demonstrierte das ganzschön, auf älteren Dualcores der Krampf, abe rauf aktuellen Quadcores läufts auch ohne PhysX prima.

Crazy_Chris
2008-12-25, 16:41:57
glaub kaum dass das gehen wird, vor allem welches Programm soll wissen wann es was verwenden soll?

In älteren Spielen konnte man auswählen welche Karte verwendet werden soll. Ansonsten kann man über dxdiag einstellen welche Karte die primäre ist. Mehrere unterschiedl. Karten in einen System waren schon zu Windows 95 Zeiten kein Problem. :wink:

Gast
2008-12-25, 16:42:39
Ich habe die Cryostasis Techdemo bei mir mit CPU PhysX-Berechnung (Software) drüberlaufen lassen und es ist eine Ruckelorgie mit nicht mehr als 10 fps im Durchschnitt. Diese Erfahrung spricht mehr als tausend Worte. Die CPU stößt hier einfach an ihre Grenzen. Ich habe eine HD 4870 und damit keine Chance, die PhysX in Hardware von der GPU berechnen zu lassen.

Schlammsau
2008-12-25, 16:47:28
Ich habe die Cryostasis Techdemo bei mir mit CPU PhysX-Berechnung (Software) drüberlaufen lassen und es ist eine Ruckelorgie mit nicht mehr als 10 fps im Durchschnitt. Diese Erfahrung spricht mehr als tausend Worte. Die CPU stößt hier einfach an ihre Grenzen. Ich habe eine HD 4870 und damit keine Chance, die PhysX in Hardware von der GPU berechnen zu lassen.

Schonmal auf die Auslastung der CPU geschaut?

Gast
2008-12-25, 16:47:36
Nein CUDA wird, spätestens wenn OpenCL und DX11 da ist, wie eine Fliege sterben. ;)
Und zum Thema PhysX, bei der Cryostasis Techdemo wird auch ohne Hardware PhysX ´, Die CPU nur um 50% belastet. Was sagt uns das?
Richtig, Cryostasis nutzt die CPU überhaupt nicht zum berechnen der Physik.
Eine riesen Mogelpackung um nVidia ins bessere Licht zu rücken.

Als hätte Nvidia das nötig...denkst du überhaupt mal nach bevor du schreibst?

Schlammsau
2008-12-25, 17:02:27
Als hätte Nvidia das nötig...denkst du überhaupt mal nach bevor du schreibst?

Tust du es? ;)
Und ja, momentan haben sie es nötig, weil die Masse momentan eher nVidia verschmäht! Jetzt brauchen sie einen Blockbuster der auf Geforces mehr als deutlich besser läuft. Et voilá....Cryostasis ist geboren. ;D

Gast
2008-12-25, 17:09:10
Tust du es? ;)
Und ja, momentan haben sie es nötig, weil die Masse momentan eher nVidia verschmäht! Jetzt brauchen sie einen Blockbuster der auf Geforces mehr als deutlich besser läuft. Et voilá....Cryostasis ist gebohren. ;D

Und was ist mit Mirrors Edge?

Gast
2008-12-25, 17:25:46
Und was ist mit Mirrors Edge?

Das hat schon auf den Konsolen keine Sau interessiert.

Gast123234
2008-12-25, 17:31:06
NV hat es zZ sogar nötig die Spiele und Grafikeinstellungen vorzuschreiben. Die Lemminge der Testseiten haben das natürlich *garnicht* bemerkt.

Was Physx angeht muss man dem Kunden eben nun verklickern wie "wichtig" das ist und somit einige Sponosortitel rausbringen, welche ohne NV Graka absolut unmöglich darzustellen wären. Ungefähr so wie DX10 und Crysis. Da wird hinter den Kulissen mal wieder kräftig "gesponsort".

Schlammsau
2008-12-25, 17:43:24
Und was ist mit Mirrors Edge?
Ist genau das selbe.

Gast
2008-12-25, 18:05:55
Heute reden noch alle davon wie sinnlos und überflüssig PhysX ist. Das hat man aber beim Aufkommen von 3D-Beschleunigung Mitte der 90er auch gesagt oder als die ersten Handys kamen oder ganz früher als um etwa 1830 die Menschen voller Angst davon gelaufen sind, als sich ihnen eine Dampflokomotive näherte.

Mit anderen Worten: Das ist die Natur des Menschen, alles Neue erstmal skeptisch zu betrachten und zu ignorieren oder versuchen von sich zu stoßen. In 3 bis 5 Jahren wird PhysX in Spielen Standard sein und dann lacht man über solche Äußerungen von heute. Es ist einfach eine logische Konsequenz, dass die Physik-Technologie in Spielen sich weiter und unaufhörlich durchsetzen wird.

Gast
2008-12-25, 18:10:53
Und da mag sich ATI noch so dagegen stemmen wollen...ATI werden entweder vom Fortschritt mitgerissen oder gehen früher oder später Insolvenz. Eins von beiden.

Schlammsau
2008-12-25, 18:14:08
Heute reden noch alle davon wie sinnlos und überflüssig PhysX ist. Das hat man aber beim Aufkommen von 3D-Beschleunigung Mitte der 90er auch gesagt oder als die ersten Handys kamen oder ganz früher als um etwa 1830 die Menschen voller Angst davon gelaufen sind, als sich ihnen eine Dampflokomotive näherte.

Mit anderen Worten: Das ist die Natur des Menschen, alles Neue erstmal skeptisch zu betrachten und zu ignorieren oder versuchen von sich zu stoßen. In 3 bis 5 Jahren wird PhysX in Spielen Standard sein und dann lacht man über solche Äußerungen von heute. Es ist einfach eine logische Konsequenz, dass die Physik-Technologie in Spielen sich weiter und unaufhörlich durchsetzen wird.

Kopfschüttel.....Natürlich wird Physik über die GPU immer mehr kommen. Aber nicht über PhysX, weil es ja nur auf nVidia Karten funkt, sondern über andere Standards wie DX11 und OpenCL, weil das dann fast jede neuere GPU kann!
Physik können auch ATi´s berechnen, nur halt kein PhysX!

Letzt muss es aber auch bei dir Klick gemacht haben oder!?

Gast
2008-12-25, 18:17:05
Das ist mir klar. Nur warum stämmt sich ATI dann so dagegen, die Physik Ihrer GPU via eines entsprechenden Treibers zu aktivieren? Und wieso hat die GPU diese Technologie überhaupt, wenn diese nicht genutzt wird? Das ist doch sinnlos.

Gast
2008-12-25, 18:18:30
Das ist bald so, als wie wenn ATI sagt: "Guckt mal was wir feines für euch haben. Bekommt ihr aber nicht, ätsch!"

Gast
2008-12-25, 18:20:59
Tust du es? ;)
Und ja, momentan haben sie es nötig, weil die Masse momentan eher nVidia verschmäht! Jetzt brauchen sie einen Blockbuster der auf Geforces mehr als deutlich besser läuft. Et voilá....Cryostasis ist geboren. ;D

Blockbuster hat Nvidia genug im Sponsorenpacket. ;) Ihr kauft billige Karten, also jammert nicht rum weil die Konkurrenz den besseren Job macht. Beschwer dich bei Ati

Schlammsau
2008-12-25, 18:22:21
Das ist mir klar. Nur warum stämmt sich ATI dann so dagegen, die Physik Ihrer GPU via eines entsprechenden Treibers zu aktivieren? Und wieso hat die GPU diese Technologie überhaupt, wenn diese nicht genutzt wird? Das ist doch sinnlos.
Sie wird doch bald genutzt! Und PhysiX wird doch auch noch fast gar nicht genutzt. Bzw. bringt es effektiv noch fast gar nichts, weil die Graka ja auch noch ein Bild rendern muss. Du lässt dich zu sehr von dieser Techdemo blenden, mein Junge! ;)

deekey777
2008-12-25, 18:23:00
Ich will nicht zu sehr dazwischen funken, aber ich empfehle mal frech die Kommentare zu diesem Posting zu lesen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6992075#post6992075

Schlammsau
2008-12-25, 18:31:05
Ich will nicht zu sehr dazwischen funken, aber ich empfehle mal frech die Kommentare zu diesem Posting zu lesen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6992075#post6992075

wenn ich das richtig verstanden habe, ist in DX11 keine Physikberechnung implemetiert. Muss also immernoch von dritter Software gemacht werden?
Hab das irgendwie anders in Erinnerung.

deekey777
2008-12-25, 18:37:23
Weil OpenCL und DirectX 11 Grafik bzw. GPGPU-Libs sind. Was soll da Physik drin zu suchen haben?

Wenn dann werden Dritthersteller auf OpenCL bzw. DX11 als Backend für ihre Physik-Libs setzen wie derzeit PhysX mit CUDA.
.
Alles klar?

Schlammsau
2008-12-25, 18:44:30
Jetzt hab ichs! :redface:
Also lieg ich doch nicht verkehrt.

Gast
2008-12-25, 18:52:14
Und eigentlich ist ATI gar nicht günstiger im Preis als Nvidia. Das ist eine miese, perfekt inszenierte Illusion von ATI, durch die ich mich leider habe auch blenden lassen.

Zum ersten ist nicht die GTX 280 das Gegenstück zur HD 4870, sondern die GTX 260 (216) ist das Gegenstück. In diesem Irrtum liegt schon der erste Hund begraben, da die meisten nämlich denken: "Boah die zur Zeit beste SingleGPU Karte von Nvidia ist soviel teurer als die beste von ATI."
Aber eben dabei wird vergessen, dass nicht die GTX 280, sondern die GTX 260 (216) das Gegenstück zur HD 4870 ist. Ein ATI-Gegenstück zur GTX 280 gibt es nicht! Und die GTX 260 (216) holt mit der HD 4870 preislich nämlich gleichauf, also nix mit "Nvidia ist teurer".

Hinzu kommt, dass die GTX 260 (216) nicht nur preislich mit der HD 4870 gleich liegt, sondern dass man bei Nvidia auch mehr Leistung fürs Geld bekommt, da die GTX 260 (216) die HD 4870 leistungstechnisch schlägt und nahezu immer um einige FPS über der HD 4870 liegt.

ATI protzt zudem mit hohen Chiptakt- und hohen Speichertaktzahlen und mit GDDR5. Auch wieder nur Augenwischerei. Denn obwohl die Takte der HD 4870 deutlich höher als die der GTX 260 (216) sind, tritt sie leistungstechnisch nicht an letztere heran.

Taigatrommel
2008-12-25, 19:05:21
Zum ersten ist nicht die GTX 280 das Gegenstück zur HD 4870, sondern die GTX 260 (216) ist das Gegenstück. In diesem Irrtum liegt schon der erste Hund begraben, da die meisten nämlich denken: "Boah die zur Zeit beste SingleGPU Karte von Nvidia ist soviel teurer als die beste von ATI."
Aber eben dabei wird vergessen, dass nicht die GTX 280, sondern die GTX 260 (216) das Gegenstück zur HD 4870 ist. Ein ATI-Gegenstück zur GTX 280 gibt es nicht! Und die GTX 260 (216) holt mit der HD 4870 preislich nämlich gleichauf, also nix mit "Nvidia ist teurer".
Wer sich vor dem Grafikkartenkauf informiert hätte, der hätte genau das gewusst. Die Radeon 4870 war nie als direkter Konkurent zur GTX280 geplant und wurde von ATI auch nie so umworben, dort hat man selber gesagt, dass die Performance in etwa der einer GTX260 entspricht, mal besser, mal schlechter. Die Radeon 4850 war ja auch nie direkte Konkurenz zur GTX 260, sondern eher zu ihrem Vorgänger.
Insofern wird hier keine "Illusion" von ATI betrieben.

Wie wäre es wenn du deine ATI Karte einfach auf ebay entsorgst und dir eine nVidia Karte kaufst? Das wäre die schnellste Lösung, da du deine Entscheidung bereits getroffen hast, braucht man dich eh nicht mehr umzustimmen. Davon abgesehen kannst du dich ja auch direkt bei den Herstellern ausweinen.

Schlammsau
2008-12-25, 19:06:39
Und eigentlich ist ATI gar nicht günstiger im Preis als Nvidia. Das ist eine miese, perfekt inszenierte Illusion von ATI, durch die ich mich leider habe auch blenden lassen.

Zum ersten ist nicht die GTX 280 das Gegenstück zur HD 4870, sondern die GTX 260 (216) ist das Gegenstück. In diesem Irrtum liegt schon der erste Hund begraben, da die meisten nämlich denken: "Boah die zur Zeit beste SingleGPU Karte von Nvidia ist soviel teurer als die beste von ATI."
Aber eben dabei wird vergessen, dass nicht die GTX 280, sondern die GTX 260 (216) das Gegenstück zur HD 4870 ist. Ein ATI-Gegenstück zur GTX 280 gibt es nicht! Und die GTX 260 (216) holt mit der HD 4870 preislich nämlich gleichauf, also nix mit "Nvidia ist teurer".

Hinzu kommt, dass die GTX 260 (216) nicht nur preislich mit der HD 4870 gleich liegt, sondern dass man bei Nvidia auch mehr Leistung fürs Geld bekommt, da die GTX 260 (216) die HD 4870 leistungstechnisch schlägt und nahezu immer um einige FPS über der HD 4870 liegt.

ATI protzt zudem mit hohen Chiptakt- und hohen Speichertaktzahlen und mit GDDR5. Auch wieder nur Augenwischerei. Denn obwohl die Takte der HD 4870 deutlich höher als die der GTX 260 (216) sind, tritt sie leistungstechnisch nicht an letztere heran.


Wo hast du den diesen Schlonz her? Also es weiss doch jeder, dass die 4870 der Gegenspieler zur GTX260 ist. Wird auch auf jeder Seite so beschrieben und meistens werden auch nur diese Karten gegeneinander getestet. Die 4850X2 bzw. 4870X2 sind die Gegenspieler der GTX280 und entspürechend billiger bzw. teurer.

Ausserdem ist die GTX260(²) erst seit kurzem so billig, weil sie einfach billiger werden musste! ;)

ATi braucht diese Taktraten, weil sie erstens nur ein 256Bit Speicherinterface haben, und zweitens weniger Transistoren verbaut sind. Was aber wesentlich geschickter von ihnen ist, weil die Karten damit wesentlich günstiger herzustellen sind. ;)

Selten so einen quatsch gelesen. ;D

Gast777
2008-12-26, 10:26:31
ich weiß gar nicht was ihr euch hier alle so aufregt. dass ATI einen an der waffel hat und sich kundenfeindlich verhält, das ist doch bekannt! wer ATI kauft = selber schuld!

Gast777
2008-12-26, 10:29:39
wenn es hart auf hart kommt, lässt ATI seine anhänger auf dem schlauch stehen, egal wie sie betteln. wäre ja nicht das erste mal. da lob ich mir doch nvidia. sobald irgendwas neues kommt, hat nvidia es in kürzester zeit in die tat umgesetzt und seine hardware den wünschen seiner fans angepasst.

reunion
2008-12-26, 10:47:37
Ein reiner Flame- und Bashtread, soetwas ist früher mal kommentarlos geschlossen worden.

Gast777
2008-12-26, 10:57:43
was heißt hier flamethread. es ist doch nur die wahrheit!

Gast
2008-12-26, 11:35:00
deine meinung, nicht wahrheit^^

Cyphermaster
2008-12-26, 11:50:53
Wenn es hart auf hart kommt, sieht man doch, daß hier nur mit Halbwissen gebasht wird. "ATI/AMD erlaubt keine Physikberechnungen, buaaahääää" - Korrekt: Physik ist möglich und auch schon geplant; es wird nur kein PhysX geben. "Wääh, ATI bescheißt die Kunden" - Sorry, wer zu doof ist, Leistungsdaten von Grafikkarten zu interpretieren, der sollte halt nicht rein nach Papier kaufen. Ist genau so, als hätte man sich seinerzeit nach dem Kauf beschwert, daß Intel trotz 3.06 bis 3.4-GHz-P4s hinter den "taktlahmen" AMD64 mit <2,4 GHz Taktrate hinterherhinkten... :rolleyes:

Das ist keine Frage der Herstellerfirma, sondern des Verständnisses. Wie steht es hier in einer Sig: "Lesen und Verstehen - einfach zu lernen, schwer zu meistern."

Gast777
2008-12-26, 12:13:09
dass es technisch möglich ist, das ist schon klar. das ändert immer noch nichts daran, dass ATI offenbar zu faul ist, es per treiber zu aktivieren. irgendwie wollen die gar nicht, hab ich den eindruck oder sie sind damit einfach nur total langsam und arbeiten wie eine schnecke mit angezogender handbremse im rückwärtsgang. wie lange kündigt ATI die physikbeschleunigung für ihre GPUs denn schon an? das machen die doch schon seit anfang des jahres, aber gekommen ist bisher nichts!

Mark
2008-12-26, 12:16:27
Um mal halbwegs was sachliches beizutragen:

Unter XP funktioniert das Vorhaben. Radeon zur Berechnung der Grafik und Geforc für Physik. Das Vista Treibermodell erlaubt dies aber nicht

Schlammsau
2008-12-26, 12:22:05
Wenn es hart auf hart kommt, sieht man doch, daß hier nur mit Halbwissen gebasht wird. "ATI/AMD erlaubt keine Physikberechnungen, buaaahääää" - Korrekt: Physik ist möglich und auch schon geplant; es wird nur kein PhysX geben. "Wääh, ATI bescheißt die Kunden" - Sorry, wer zu doof ist, Leistungsdaten von Grafikkarten zu interpretieren, der sollte halt nicht rein nach Papier kaufen. Ist genau so, als hätte man sich seinerzeit nach dem Kauf beschwert, daß Intel trotz 3.06 bis 3.4-GHz-P4s hinter den "taktlahmen" AMD64 mit <2,4 GHz Taktrate hinterherhinkten... :rolleyes:

Das ist keine Frage der Herstellerfirma, sondern des Verständnisses. Wie steht es hier in einer Sig: "Lesen und Verstehen - einfach zu lernen, schwer zu meistern."

Der Thread schtrozt nur so von halbwissen! :rolleyes:

Gast
2008-12-26, 12:27:25
Nein CUDA wird, spätestens wenn OpenCL und DX11 da ist, wie eine Fliege sterben. ;)


Wird es nicht, weil das vollkommen verschiedene Dinge sind.

deekey777
2008-12-26, 12:37:36
dass es technisch möglich ist, das ist schon klar. das ändert immer noch nichts daran, dass ATI offenbar zu faul ist, es per treiber zu aktivieren. irgendwie wollen die gar nicht, hab ich den eindruck oder sie sind damit einfach nur total langsam und arbeiten wie eine schnecke mit angezogender handbremse im rückwärtsgang. wie lange kündigt ATI die physikbeschleunigung für ihre GPUs denn schon an? das machen die doch schon seit anfang des jahres, aber gekommen ist bisher nichts!
Oh Mann...
Nehmen wir an, das ist die allgemeine Formel für die Physikberechnung des PhysX-Pakets: y=ax²+bx+c
Mit der Übernahme von Ageia dieses Jahres haben Nvidias kluge Köpfe aus der GPGPU/CUDA-Abteilung diese Formel in CUDA "übersetzt": y (CUDA) = ax² (CUDA) + bx (CUDA) + c (CUDA). CUDA ist NVs eigene Sprache, die aktuell so designt ist, dass sie entweder auf Geforces oder CPUs läuft. Was anderes akzeptiert CUDA nicht. Damit aber PhysX auch auf Radeons läuft, muss diese Physikformel für Radeons verständlich gemacht werden, in Frage kommt entweder Brook+ oder IL. Das bietet NV gar nicht an.
Das ist also keine Frage des "Treibers".

Der Thread schtrozt nur so von halbwissen! :rolleyes:
Und du bist ganz vorn dabei.

Edith sagt:
Was ganz wichtiges vergessen: Die PPU-Karte ist tot, ihre Unterstützung wurde längst entfernt. Auch die kommenden Spiele wie Mirror's Edge werden keine PPUs unterstützen, sie werden echte CUDA-Anwendungen. Mich würde es nicht wundern, wenn dort CUDA-DLLs enthalten werden.

Cyphermaster
2008-12-26, 13:05:55
dass es technisch möglich ist, das ist schon klar. das ändert immer noch nichts daran, dass ATI offenbar zu faul ist, es per treiber zu aktivieren. irgendwie wollen die gar nicht, hab ich den eindruck oder sie sind damit einfach nur total langsam und arbeiten wie eine schnecke mit angezogender handbremse im rückwärtsgang. wie lange kündigt ATI die physikbeschleunigung für ihre GPUs denn schon an? das machen die doch schon seit anfang des jahres, aber gekommen ist bisher nichts!Wenn übergreifend OpenCL und DX11 schon absehbar sind - warum jetzt noch eine eigene proprietäre Technik herausbringen, die wohl kaum noch in Spielen Eingang finden wird, und mit an Sicherheit grenzender Wahrscheinlichkeit nicht lange lebt?

Ich kenne noch genau die umgekehrte Situation, nämlich als ATI ihre Truform(tm)-Funktionalität hatte, mit deren Hilfe man Geometrieverbesserungen nach Bedarf in verschiedener Menge berechnen und zuschalten konnte. nVidia hatte nichts entgegenzusetzen, und wurde genauso runtergeredet wie du das jetzt hier mit ATI/AMD machst. Und nun schau's dir an: Wieviele Spiele nutzten die seinerzeit schier als grafischen Heilsbringer gelobte Truform-Technik? Ist nVidia deswegen Pleite gegangen?

Gast777
2008-12-26, 13:10:11
da ist was dran, muss ich ehrlich zugeben.

DrFreaK666
2008-12-26, 13:15:25
Eigentlich kann man den Thread schliessen, oder?
Mit dem Titel hat das Geschriebene ja kaum noch was gemeinsam

Raff
2008-12-26, 13:18:11
Und nun schau's dir an: Wieviele Spiele nutzten die seinerzeit schier als grafischen Heilsbringer gelobte Truform-Technik? Ist nVidia deswegen Pleite gegangen?

Nvidia pusht CUDA aber mit allen Kräften ("GeForce is graphics+, not just graphics!"), was man von Ati damals nicht behaupten konnte. Fakt ist, dass die Funktionen um PhysX und Konsorten nett sind, aber von niemandem zwingend benötigt werden. "Nice to have" ist für viele aber schon nice genug, um statt einer Radeon eine GeForce zu haven/kaufen. Darauf bauen die Santa Claraner. Und jeder Ati-Anhänger schielt rüber und ärgert sich insgeheim, dass "seine" Firma das nicht auch bietet.

MfG,
Raff

DrFreaK666
2008-12-26, 13:22:23
Nvidia pusht CUDA aber mit allen Kräften ("GeForce is graphics+, not just graphics!"), was man von Ati damals nicht behaupten konnte. Fakt ist, dass die Funktionen um PhysX und Konsorten nett sind, aber von niemandem zwingend benötigt werden. "Nice to have" ist für viele aber schon nice genug, um statt einer Radeon eine GeForce zu haven/kaufen. Darauf bauen die Santa Claraner. Und jeder Ati-Anhänger schielt rüber und ärgert sich insgeheim, dass "seine" Firma das nicht auch bietet.

MfG,
Raff

Als Truform fand ich damals interessanter :biggrin:

reunion
2008-12-26, 13:33:22
Nvidia pusht CUDA aber mit allen Kräften ("GeForce is graphics+, not just graphics!"), was man von Ati damals nicht behaupten konnte. Fakt ist, dass die Funktionen um PhysX und Konsorten nett sind, aber von niemandem zwingend benötigt werden. "Nice to have" ist für viele aber schon nice genug, um statt einer Radeon eine GeForce zu haven/kaufen. Darauf bauen die Santa Claraner. Und jeder Ati-Anhänger schielt rüber und ärgert sich insgeheim, dass "seine" Firma das nicht auch bietet.

MfG,
Raff

Bei ATi habe ich dafür D3D10.1, das in Zukunft durchaus auch bei einigen Spielen Vorteile wird bieten können, und das tw. auch schon tut, siehe Stalker.

Raff
2008-12-26, 13:35:38
Bei ATi habe ich dafür D3D10.1, das in Zukunft durchaus auch bei einigen Spielen Vorteile wird bieten können, und das tw. auch schon tut, siehe Stalker.

Sicher? D3D10.1 ist momentan genauso "zahlreich" in Spielen vertreten wie PhysX. Beide müssen IMO noch gewaltig an sich und den Entwicklern arbeiten, damit gescheite Kaufanreize entstehen.

Und Clear Sky ist auch eher ein Witz, denn was bringt mir (A)AA, wenn die Fps dann im Unspielbaren landen? Dito GeForce, die mit den Patches auch (T)AA kann.

MfG,
Raff

reunion
2008-12-26, 13:37:28
Sicher? D3D10.1 ist momentan genauso "zahlreich" in Spielen vertreten wie PhysX. Beide müssen IMO noch gewaltig an sich und den Entwicklern arbeiten, damit gescheite Kaufanreize entstehen.

MfG,
Raff

Richtig. Dein Beitrag klang aber so als ob nur NV solche "Nice to have"-Features hätte. Und ob sich CUDA oder PhysX durchsetzt steht in den Sternen, D3D10.1 ist allerdings ein Bestandteil von D3D11 und wird deshalb sicher nicht nutzlos sein. Selbst der damals kaum verbreitete PS1.4 der Radeon 8500 stellte sich später noch bei manchen Spielen als nützlich heraus. Und etwas vergleichbares zu CUDA habe ich bei ATi auch.

_DrillSarge]I[
2008-12-26, 13:44:24
ich frage mich eher was anderes:
physx ist ja eh nur buzzword, dahinter steht ja die novodex-engine (ageia hat die ja auch nur eingekauft).
was ist damit? im prinzip ist die ja tot, da für nv nur physx@gpu zählt, dass die engine eigentlich eine der besten war (ist?), scheint gar nichtmehr zu zählen, hauptsache "graphics+". lizensieren kann man die anscheinend auch ned mehr und das wiki dazu ist auch tot.

Schlammsau
2008-12-26, 18:13:54
Und du bist ganz vorn dabei.



Danke :smile: aber es kann doch nicht jeder so ein Grafikfreak sein wie du! :mad:

AffenJack
2008-12-26, 18:30:18
I[;7000393']ich frage mich eher was anderes:
physx ist ja eh nur buzzword, dahinter steht ja die novodex-engine (ageia hat die ja auch nur eingekauft).
was ist damit? im prinzip ist die ja tot, da für nv nur physx@gpu zählt, dass die engine eigentlich eine der besten war (ist?), scheint gar nichtmehr zu zählen, hauptsache "graphics+". lizensieren kann man die anscheinend auch ned mehr und das wiki dazu ist auch tot.

Wie kommst du darauf, dass die engine tot ist? Es kommen noch haufenweise spiele raus, die kein gpu-physx haben, sondern nur cpu. Aber genauso werden alle spiele mit gpu-physx auch mit der cpu laufen, wenn auch in niedrigeren einstellungen. Das basiert ja immernoch auf der engine und die wird sicher weiterentwickelt. Es ist nurmehr möglich die sachen auch von der gpu berechnen zu lassen. Lizensieren kann mans sicher auch weiter, nur ist da wahrscheinlich gpu-physx dabei und die entwickler können das verwenden wennse wollen. Unter Umständen senkt Nv immo auch den Lizenzpreis, wenn man sich bereit erklärt gpu-physx zu unterstützen,um es auf der gpu zu pushen, wer weiß.

deekey777
2008-12-26, 18:49:16
http://physx.cwx.ru/

Black-Scorpion
2008-12-26, 19:15:30
ATI protzt zudem mit hohen Chiptakt- und hohen Speichertaktzahlen und mit GDDR5. Auch wieder nur Augenwischerei. Denn obwohl die Takte der HD 4870 deutlich höher als die der GTX 260 (216) sind, tritt sie leistungstechnisch nicht an letztere heran.
Wie hoch takten die Shader bei der GTX260?.
Was für ein Speicherinterface haben die ATI Karten?
Bevor man Schwachsinn labert sollte man wenigstens ein wenig darüber wissen von was man labert und nicht so einen Müll fabrizieren.

Ultrazocker
2008-12-28, 14:00:52
Und zum Thema PhysX, bei der Cryostasis Techdemo wird auch ohne Hardware PhysX ´, Die CPU nur um 50% belastet. Was sagt uns das?
Richtig, Cryostasis nutzt die CPU überhaupt nicht zum berechnen der Physik.
Eine riesen Mogelpackung um nVidia ins bessere Licht zu rücken.

Echt ?

Wär ja wirklich wieder mal eine sauerei...

EgonOlsen
2008-12-28, 21:54:56
Um mal halbwegs was sachliches beizutragen:

Unter XP funktioniert das Vorhaben. Radeon zur Berechnung der Grafik und Geforc für Physik. Das Vista Treibermodell erlaubt dies aber nichtTheoretisch...bei mir aber z.B. nicht. Die NVidia ist unter XP zwar ganz normal am zweiten Monitor nutzbar, aber PhysX ist im Treiber erst dann auswählbar, wenn die Radeon abgeschaltet/ausgebaut ist. Selbst "Radeon aus, dann PhysX an, dann Radeon wieder an" funktioniert nicht. Ist die Radeon an, bietet der NVidia-Treiber bei mir kein PhysX mehr an. Ich habe keine Ahnung, wie ich das ändern kann...!?

Coda
2008-12-29, 03:55:58
Ich vermute mal dass das Absicht ist.

EgonOlsen
2008-12-29, 11:25:37
Ich vermute mal dass das Absicht ist.Vermutlich, aber irgendwelche Chinesen haben das ja angeblich hinbekommen. Es gibt jedenfalls Anleitungen im Web, wie es gehen soll. Nur wenn ich das so mache, dann geht es eben nicht...schade...

Sonyfreak
2008-12-29, 11:44:01
Ich habe etwas ähnliches auch vor einiger Zeit mal probiert, leider auch ohne Erfolg. Egal was ich versucht habe, entweder lief nur die Nvidia- oder nur die ATI-Karte, aber niemals beide gleichzeitig. :(

mfg.

Sonyfreak

Demirug
2008-12-31, 20:10:50
Ab Windows 7 sollen unterschiedliche GPUs von verschiedenen Herstellern wieder unterstützt werden.

Gast
2009-01-01, 15:34:20
Echt ?

Wär ja wirklich wieder mal eine sauerei...
Eigentlich sagt uns das nur, dass Schlammsau nicht von zwölf bis mittags nachdenkt. Wo steht geschrieben, dass Physx Multithreaded ist?

Schlammsau
2009-01-01, 15:59:33
Eigentlich sagt uns das nur, dass Schlammsau nicht von zwölf bis mittags nachdenkt. Wo steht geschrieben, dass Physx Multithreaded ist?

Auch wenn nicht, müsste es mindestens einen Kern voll auslasten. Tut es aber nicht! ;)

LovesuckZ
2009-01-01, 16:41:55
Bench doch einfach mit einem Kern. Dann kannst du deine Vermutung auch selbst bestätigen.

=Floi=
2009-01-01, 20:27:09
man müsste wohl mal ein tesla bios flashen. Das könnte dann funktionieren.

Ich will hier mal einen anderen denkanstoß geben. NV könnte auch physx auf opencl portieren und damit würden auch andere karten automatisch physx unterstützen. Für nv wäre das eine einfache und sinnvolle sache.

Blacksoul
2009-01-01, 20:48:19
Ab Windows 7 sollen unterschiedliche GPUs von verschiedenen Herstellern wieder unterstützt werden.

Mit Aero?


t.b.d

Demirug
2009-01-01, 20:56:01
Mit Aero?


t.b.d

Natürlich sonst würde das ja keinen Sinn machen.

Coda
2009-01-01, 20:57:28
Laufen auf Vista nicht auch GPUs verschiedener Hersteller wenn man Aero abschält?

Blacksoul
2009-01-01, 20:59:57
Natürlich sonst würde das ja keinen Sinn machen.

Ganz so natürlich ist nichts. Also besser nachfragen. ;)
Jedenfalls gut zu wissen, dass es unter 7 korrigiert wurde.

Laufen auf Vista nicht auch GPUs verschiedener Hersteller wenn man Aero abschält?

Das war auch mein letzter Kenntnisstand. Darum war ich auch recht verwundert.


t.b.d

Demirug
2009-01-01, 21:07:02
Laufen auf Vista nicht auch GPUs verschiedener Hersteller wenn man Aero abschält?

Zumindestens nicht laut der offiziellen WDDM Dokumentation.

Coda
2009-01-01, 21:13:01
Okay, ich hatte das so in Erinnerung. Geht es mit XP-Treibern?

EgonOlsen
2009-01-01, 23:11:50
Okay, ich hatte das so in Erinnerung. Geht es mit XP-Treibern?
Angeblich, habe es aber nicht probiert. Aber dann kann ich gleich XP nehmen...habe ich ja auch, nur eben auch dort dann kein PhysX...:frown:

dr_mordio
2009-01-04, 22:31:58
ich hatte mich ja auch mal auf Mirrors Edge und PhysX gefreut.

aber dann kam ja das demovideo raus, wo per Splitscreen PhysX gegen non PhysX verglichen wird.

Ab diesem zeitpunkt war PhysX in Mirrors Edge für mich gestorben.
diese ach so tolle graphics+ leidet an den selben problemen die damals Ageia.

in dem Video sind dermaßen große slowdowns, das der Splitscreen ohne PhysX immer vorrennt und dann künstlich beim zusammenschneiden gebremst werden mußte.
Am schlimsten sieht man das auf dem Dach und das vorrennen am besten in der letzten Scene mit den vielen fenstern.
Da startet die non PhysX hälfte sogar etwas später und überholt das andere aber sofort wieder, da mit PhysX nur noch ca 5FPS angesagt sind.

Das ganze gaming mit PhysX sieht dort aus wie eine mischung aus mikro- und makrorucklern.

Und ich verzichte dankend darauf.


Achja und hier nochmal der link zum HD-TrailerVideo, für die, die es noch nicht kennen:
http://www.youtube.com/watch?v=w0xRJt8rcmY&fmt=18&feature=related

MfG
Alex

Crazy_Chris
2009-01-04, 22:35:57
ich hatte mich ja auch mal auf Mirrors Edge und PhysX gefreut.

aber dann kam ja das demovideo raus, wo per Splitscreen PhysX gegen non PhysX verglichen wird.

Ab diesem zeitpunkt war PhysX in Mirrors Edge für mich gestorben.
diese ach so tolle graphics+ leidet an den selben problemen die damals Ageia.

in dem Video sind dermaßen große slowdowns, das der Splitscreen ohne PhysX immer vorrennt und dann künstlich beim zusammenschneiden gebremst werden mußte.
Am schlimsten sieht man das auf dem Dach und das vorrennen am besten in der letzten Scene mit den vielen fenstern.
Da startet die non PhysX hälfte sogar etwas später und überholt das andere aber sofort wieder, da mit PhysX nur noch ca 5FPS angesagt sind.

Das ganze gaming mit PhysX sieht dort aus wie eine mischung aus mikro- und makrorucklern.

Und ich verzichte dankend darauf.


Achja und hier nochmal der link zum HD-TrailerVideo, für die, die es noch nicht kennen:
http://www.youtube.com/watch?v=w0xRJt8rcmY&fmt=18&feature=related

MfG
Alex

;D

Im Video steht doch unten das absichtlich abgebremst wird, damit man die Effekte besser begutachten kann. (Naja zumindest haben sie ne Ausrede parat ;))