PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Galaxy/KFA² - GTX 470 + GT 240 Hybrid-Karte


AnarchX
2010-06-01, 14:09:47
Galaxy wiedermal mit einem außergewöhnlichen Projekt:

http://img192.imageshack.us/img192/4170/1172211galaxybwf4ltk4mh.jpg
http://www.pcworld.fr/2010/06/01/materiel/carte-graphique/computex-2010-geforce-gtx-470-gt-240-physx/493211/

Wobei die 12 Speichermodule und der GF100-375 eher auf eine GTX 480 hindeuten.

Glaubt man EVGA, so ist eine GT 240 für PhysX doch vorteilhaft, auch bei einer GTX 400: http://www.evga.com/articles/00552/

Gast
2010-06-01, 14:17:23
So gehört sich das.
Nach EVGAs PhysX Versuch mit GTX 275 und heftig beschnittender GTS 250, gibts was gescheites.
GF100-375 kann auch auf eine spannungreduzierte und taktreduzierte GTX 480 hindeuten, die man nicht so nennen darf.

Theoretisch könnte der GT 240 den 2D Betrieb übernehmen während die GTX 470 schläft.
Zusätzlich ein sparsamer 2 Monitor Betrieb.
Oder ein 4 Monitor Betrieb, auch wenn ich nur 3 Anschlüsse sehe.

harzer_knaller
2010-06-01, 14:45:18
Ein Durchaus interessanter Ansatz, wenn die GT240 nicht nur für PhysX zuständig sein sollte.
Wenn man den GF100 Chip dann auch noch komplett deaktivieren könnte und die GT240 alle low-3D und 2D Sachen erledigt.
Fragt sich nur wie teuer die Lösung wird. Günstiger als eine GTX470 sicherlich nicht...

Wuge
2010-06-01, 18:43:55
Interesse ....

urfaust
2010-06-01, 19:03:40
Glaubt man EVGA, so ist eine GT 240 für PhysX doch vorteilhaft, auch bei einer GTX 400: http://www.evga.com/articles/00552/

guckt man sich die Balken genauer an, sind das gerade mal +10FPS
dafür extra eine GT 240? Mhhh..

AnarchX
2010-06-01, 19:05:56
Fast 20% Mehrleistung.

DaBrain
2010-06-04, 00:23:17
Sieht leider nicht so aus als könnte man da 4 Monitore anschließen. :(

Gast
2010-06-04, 12:03:38
Aber 3.
Bleibt immer noch die Frage, wie das mit dem Idleverbrauch ist.

Botcruscher
2010-06-04, 16:56:32
Genau so ein Müll wie die letzte "Hybridkarte".

aths
2010-06-04, 21:23:44
Müll ist die Karte, weil ...?

PulsarS
2010-06-04, 21:29:38
Müll ist die Karte, weil ...?
Weil sowas in der Regel Müll ist. :tongue:

es sei denn:

Wenn man den GF100 Chip dann auch noch komplett deaktivieren könnte und die GT240 alle low-3D und 2D Sachen erledigt.

Dann hätte die Karte einen Sinn, sonst nicht.

Botcruscher
2010-06-04, 23:35:34
Müll ist die Karte, weil ...?

- kann man mit jeder billigen GF neben her machen
- braucht wieder nur sinnlos Strom
- Spieleunterstützung "marginal"
- Batman und co laufen auf einer 480er eh schnell genug
- Preis (Aufwendiges Layout, Kleinserie)
...

Abschalten der GF480 idle wäre die einzig wirklich brauchbare Option dieser Karte. Aber selbst das ist sehr zweifelhaft da Thermi seine Probleme unter Last hat.

Bucklew
2010-06-05, 00:54:55
Weil sowas in der Regel Müll ist. :tongue:
Danke für diesen (wie von dir gewohnt) argumentativ und natürlich inhaltlich super Post, das Forum ist damit mal wieder ein Stückchen reicher an Wissen!

aths
2010-06-05, 02:03:36
Dann hätte die Karte einen Sinn, sonst nicht.Das entscheidest du? Mit welchen Argumenten? Du verlangst einfach mal noch ein zusätzliches Feature anstatt anzuerkennen, dass die Karte dank der zweiten GPU auf anderen Gebieten bereits mehr liefert.

- kann man mit jeder billigen GF neben her machen
- braucht wieder nur sinnlos Strom
- Spieleunterstützung "marginal"
- Batman und co laufen auf einer 480er eh schnell genug
- Preis (Aufwendiges Layout, Kleinserie)
...

Abschalten der GF480 idle wäre die einzig wirklich brauchbare Option dieser Karte. Aber selbst das ist sehr zweifelhaft da Thermi seine Probleme unter Last hat.Wollen wir vernüftig diskutieren oder willst du nur polemisieren ("Thermi")?

Nicht jeder hat einen zweiten Slot frei. Und wer eine Kombilösung haben will, fährt auch materialmäßig günstiger, da die zweite Platine und der zweite Lüfter entfällt. Was die Spiele-Unterstützung angeht gibt es das Henne-Ei-Problem. Wenn alle immer nur über PhysX maulen, gibt es wenig Anreiz für Entwickler, es zu unterstützen. Selbst wenn PhysX ein seltenes Enthusiasten-Feature bleibt: Warum sind Grafikkarten die für einen Nischenmarkt entwickelt werden "Müll"? Dann wären auch alle Highend-Karten Müll. Nur eine marginale Anzahl an Spielen braucht die ...

moep
2010-06-05, 02:40:57
Ich fände die Karte vorallem interessant wenn die "kleine" GT240 den Windowsbetrieb übernehmen könnte und die "große" GTX470 erst im 3D richtig hoch fährt :)

Angesichts dessen das ich wohl einer der wenigen bin die ein Mainboard mit nur EINEM PCIe 16x Anschluss haben wärs interessant zum aufrüsten :)

PulsarS
2010-06-05, 09:33:27
Danke für diesen (wie von dir gewohnt) argumentativ und natürlich inhaltlich super Post, das Forum ist damit mal wieder ein Stückchen reicher an Wissen!
Das Argument stand doch darunter.
Oder kannst du nur einen Satz auf einmal lesen und verstehen? :rolleyes:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8067138&postcount=11

Die Karte hat nur Sinn, wenn man den GF100 unter 2D komplett deaktivieren kann.
Sonst hast du immer einen höheren Stromverbrauch, auch wenn du die 2. Karte gar nicht nutzt.
Und dass man die 2. Karte gar nicht nutzt wird eher die Regel als die Ausnahme sein, ergo -> Müll

Gast
2010-06-05, 09:52:00
10-15W mehr bei 80-200W ist natürlich untragbar.
Das ist lächerlich, geh woanders trollen.

Dural
2010-06-05, 10:09:29
ich hab in zwei PCs auch je eine GT240 für PhysX, bei einem übrigens auch neben einem GF100... die GT215 GPU ist dafür ideal geeignet!

Wenn man nur einen PCI-E hat wie so nicht, ich finde jedoch das eine seperate karte deutlich sinnvoller ist! dürfte vielleicht auch etwas schneller sein da jede GPU natürlich die vollen 16x hat...

PulsarS
2010-06-05, 10:09:37
10-15W mehr bei 80-200W ist natürlich untragbar.
Das ist lächerlich, geh woanders trollen.
Du verstehst es nicht, bei Gästen aber nicht weiter verwunderlich... :rolleyes:

Dann nochmal zu Mitmeißeln für dich:
Die 2. Karte wird man vielleicht bei max 10% der Nutzung einsetzen, wenn nicht noch weniger.
Das heißt, dass du über 90% der Nutzung unnötig höheren Stromverbrauch hast, ohne dabei einen Mehrwert zu haben.

Und das soll kein Müll sein?
Geh woanders trollen. :tongue:

Gast
2010-06-05, 10:12:06
Galaxy muss eben wirklich die Bildausgänge der GT 240 herausführen, dann heißt es statt 80W GTX 470 mit zwei Monitoren, 30W + 10W bei je einem Monitor.

Gast
2010-06-05, 10:15:47
Du verstehst es nicht, bei Gästen aber nicht weiter verwunderlich... :rolleyes:
Du bist unfähig über deinen Tellerrand zu blicken, siehe Beitrag 14.


Die 2. Karte wird man vielleicht bei max 10% der Nutzung einsetzen, wenn nicht noch weniger.
Das heißt, dass du über 90% der Nutzung unnötig höheren Stromverbrauch hast, ohne dabei einen Mehrwert zu haben.

Sagst du.
Ich sage, du weisst es nicht. Und ich sage na und.
Außerdem, sobald man hier Multimonitore fährt spart man mehr als 10-15W, deine These ist so oder so zum scheitern verurteilt.

PulsarS
2010-06-05, 10:20:48
Sagst du.
Ich sage, du weisst es nicht. Und ich sage na und.
Außerdem, sobald man hier Multimonitore fährt spart man mehr als 10-15W, deine These ist so oder so zum scheitern verurteilt.
Von Multimonitor war ja gar nicht die Rede, sondern dass die 2. GPU in den meisten Fällen außer mehr Strom verbrauchen, nichts bringt.
Versuche mal diese These zu widerlegen...
Viel Glück...:tongue:

Botcruscher
2010-06-05, 10:31:46
Wollen wir vernüftig diskutieren oder willst du nur polemisieren ("Thermi")?
Polemisieren bedeutet so viel wie über ein Argument streiten. Der Chip hat den Beinamen aber völlig zurecht.

Nicht jeder hat einen zweiten Slot frei.

Geld für eine Karte welche um 500€ kosten wird und kein richtiges Board? Boards mit 2 PCIe X16 Slots bekommt man heute schon im Einsteigerbereich nach geworfen.
Und wer eine Kombilösung haben will, fährt auch materialmäßig günstiger, da die zweite Platine und der zweite Lüfter entfällt.

;D Dem gegenüber steht eine Monsterplatine mit extrem aufwendigen Layout, Bridgechip und Stromversorgung. Gleichzeitig ist es Kleinserie. Die Kosten der Herstellung einer Dualkarte sind deutlich höher als zwei einzelne Karten.
Was die Spiele-Unterstützung angeht gibt es das Henne-Ei-Problem.
Es gibt maximal ein exklusiv Nvidia Problem für die weitere Verbreitung...
Wenn alle immer nur über PhysX maulen, gibt es wenig Anreiz für Entwickler, es zu unterstützen.
... welche nicht durch "maulende" Entwickler behoben wird, sondern direkt durch NV-Werbeverträge. Ohne Kohle gibt es die Marktgerechte Softwarelösung.
Selbst wenn PhysX ein seltenes Enthusiasten-Feature bleibt: Warum sind Grafikkarten die für einen Nischenmarkt entwickelt werden "Müll"?
Weil es wirklich eine Nische ist und die Zusatzkarte in 90% aller Spiele nutzlos ist. Zusätzlich kommen noch die Nachteile Preis/Verbrauch. Zusätzlich wieder die günstige Zweitkarte... PS: Als Spielezugpferde bleiben noch ME und Batman AA. Als Multiplatformtitel sind die auf einer GTX480 eh schnell genug.
Dann wären auch alle Highend-Karten Müll.
Einige Millionen Karten gegen hoch geschätzt ein paar Zehntausend.:freak:
Nur eine marginale Anzahl an Spielen braucht die ...
Dafür sind sie wenigstens in _allen_ Spielen voll nutzbar.

Gast
2010-06-05, 10:47:25
Von Multimonitor war ja gar nicht die Rede, sondern dass die 2. GPU in den meisten Fällen außer mehr Strom verbrauchen, nichts bringt.
Versuche mal diese These zu widerlegen...
Viel Glück...:tongue:
Ach jetzt biegst du es so das es dir passt.
Eben war Multimonitor noch wichtig, weil GTX 400 dort nicht sparsam sind.

Gast
2010-06-05, 10:49:47
Einige Millionen Karten gegen hoch geschätzt ein paar Zehntausend.:freak:

Vergleiche nur Galaxys High-End Karten gegen Galaxys Hybrid-Karte.

PulsarS
2010-06-05, 11:00:27
Ach jetzt biegst du es so das es dir passt.
Eben war Multimonitor noch wichtig, weil GTX 400 dort nicht sparsam sind.
Was?
Wo habe ich geschrieben, dass die GTX 4x0 beim Multimonitor nicht sparsam ist?
Du bist wohl im falschen Thread... :wink:

aths
2010-06-05, 15:19:58
Polemisieren bedeutet so viel wie über ein Argument streiten. Der Chip hat den Beinamen aber völlig zurecht.Es ist ein abwertender Begriff. Stell dir vor du diskutierst über Open vs. Audi und der Gegenüber sagt ständig "Popel" statt Opel.

Geld für eine Karte welche um 500€ kosten wird und kein richtiges Board? Boards mit 2 PCIe X16 Slots bekommt man heute schon im Einsteigerbereich nach geworfen. Will deshalb jeder sein Mainboard umbauen?

;D Dem gegenüber steht eine Monsterplatine mit extrem aufwendigen Layout, Bridgechip und Stromversorgung. Gleichzeitig ist es Kleinserie. Die Kosten der Herstellung einer Dualkarte sind deutlich höher als zwei einzelne Karten. Dann wäre Galaxy ja schön dumm, wenn sie so eine Karte designen ...

Natürlich stellt sich für die meisten die Frage nach dem Nutzen dieser Lösung. Aber bei so vielen Herstellern wird ohnehin fast nichts ausrechnet an dich verkauft. Ist aber auch kein "Müll".

Es gibt maximal ein exklusiv Nvidia Problem für die weitere Verbreitung...

... welche nicht durch "maulende" Entwickler behoben wird, sondern direkt durch NV-Werbeverträge. Ohne Kohle gibt es die Marktgerechte Softwarelösung.Nvidia unterstützt nicht nur Spiele, sondern auch die Hardware-Entwickler, eben auch mit solchen Lösungen wie die diese Dual-Karte die zwei unterschiedliche GPUs nutzt. Wenn die Karte für nicht nicht in Frage kommt, ist sie noch lange kein Müll.

Nvidia macht was: Ageia kaufen, PhysX auf Cuda umschreiben, Hybrid-Lösungen unterstützen. Bislang bleibt GPU-Physik Nvidia-exklusiv. Wir hätten aber gar keine GPU-Physik, wenn Nvidia wie ATI handeln würde. Einer muss vorpreschen.

Weil es wirklich eine Nische ist und die Zusatzkarte in 90% aller Spiele nutzlos ist. Zusätzlich kommen noch die Nachteile Preis/Verbrauch. Zusätzlich wieder die günstige Zweitkarte... PS: Als Spielezugpferde bleiben noch ME und Batman AA. Als Multiplatformtitel sind die auf einer GTX480 eh schnell genug.

Einige Millionen Karten gegen hoch geschätzt ein paar Zehntausend.:freak:

Dafür sind sie wenigstens in _allen_ Spielen voll nutzbar.Das Spiel Torchlight läuft mit allen Optionen, auch mit Antialiasing, auch auf kleineren Karten sehr gut. Hier ist eine Highend-Karte genauso wenig "nutzbar" wie diese Hybrid-Karte. Jeder der einen PC hat, hat viel Hardware die er kaum nutzt. Selbst beim Dualcore ist ein Kern meistens idle, vom Quadcore reden wir besser nicht ... vom RAM ist das meiste die meiste Zeit ungenutzt. Und so weiter. Wenn jetzt auf der Grafikkarte der GT240-Chip die meiste Zeit ungenutzt ist, reiht sich das nahtlos ein.

PulsarS
2010-06-08, 21:39:40
Dann wäre Galaxy ja schön dumm, wenn sie so eine Karte designen ...
Wieso das denn?
Das kann einfach ein Prestigeobjekt sein.
Es muss nicht immer alles "sinnvoll" und rationell sein.

Natürlich stellt sich für die meisten die Frage nach dem Nutzen dieser Lösung. Aber bei so vielen Herstellern wird ohnehin fast nichts ausrechnet an dich verkauft. Ist aber auch kein "Müll".
Müll ist zwar ein hartes Wort, trifft den Sachgehalt aber im Essentiellen schon ganz gut.

Das Spiel Torchlight läuft mit allen Optionen, auch mit Antialiasing, auch auf kleineren Karten sehr gut. Hier ist eine Highend-Karte genauso wenig "nutzbar" wie diese Hybrid-Karte.:nono:
Und das sagst Du als BQ-Fanatiker?
Du weißt ja, AA kann man eigentlich nie genug haben.
Dann knallt man einfach SGSSAA rein und gut ist. In der höchsten Stufe natürlich. :tongue:
Der Punkt ist aber... diesen Luxus des qualitativ hohem AA hätte ich auch gerne in anderen Spielen, nicht nur in Torchlight, welches für die Grafikkarten eh nincht gerade fordend ist.

Jeder der einen PC hat, hat viel Hardware die er kaum nutzt. Selbst beim Dualcore ist ein Kern meistens idle, vom Quadcore reden wir besser nicht ... vom RAM ist das meiste die meiste Zeit ungenutzt. Und so weiter. Wenn jetzt auf der Grafikkarte der GT240-Chip die meiste Zeit ungenutzt ist, reiht sich das nahtlos ein.
Die Analogien in den Vergleichen stimmen, das muss man schon eingestehen.
Nur ist die Verhältnismäßigkeit nicht gegeben.
Ein Quadcore ist eine Investition für die Zukunft, wo man auch weiß, dass so sicher eintreffen wird, wie das Amen in der Kirche.
Es gibt ja soger jetzt schon ein paar Spiele, wo man ohne einen Quadcore das Spiel lieber nicht installieren sollte.
Bei GPU-PhysX ist es aber anders.
Die Zukunft dürfte eher schlecht aussehen, wenn man die Physik unter DX11 auch mit den CS umsetzen kann.
Und das ist eben der Punkt, woran Deine Vergleiche scheitern.

Die Karte ist höchstens vom praktischen Nutzen gesehen als eine Vitrinenkarte zu gebrauchen, mehr nicht.

corvus
2010-06-08, 21:52:29
jo oder so :D
Es soll Leute geben die stecken sich ne 240GT zur 480er und lachen sich zb. in Metro oder JC2 mit dem neuem Treiber ein Frettchen... :-)

PulsarS
2010-06-08, 22:24:31
jo oder so :D
Es soll Leute geben die stecken sich ne 240GT zur 480er und lachen sich zb. in Metro oder JC2 mit dem neuem Treiber ein Frettchen... :-)
Und was genau soll mir dies sagen? :confused:
Hier ist die Rede von einer GTX 470!
Und es ist eben auch ein Punkt, dass man lieber eine GTX 480 holen sollte als diese Galaxy, da man die Mehrperformance immer nutzen kann, was man von der Galaxy nicht behaupten kann.

BTW wenn du das nächste mal etwas zum Thema beitragen willst, dann versuche bitte nicht das Niveau ins bodenlose zu ziehen, ok?

Botcruscher
2010-06-08, 23:06:36
Auf der Seite steht klar 480er.

PulsarS
2010-06-08, 23:16:32
Auf der Seite steht klar 480er.
Dann ist aber der Threadtitel und das Photo falsch. :tongue:
Ist aber auch egal.
Wenn man 3 Wochen im Jahr PhysX-Spiele zockt, sonst nicht, da es ja nicht so viele GPU-PhysX-Spiele gibt, dann kann man die zusätzliche Karte für den Rest des Jahres rausholen.
Bei der Galaxy ist dies nicht möglich.

Wobei selbst eine zusätzliche Karte für PhysX IMHO nicht sinnvoll ist, wenn man eine Nvidia im Rechner hat.
Bei einer ATI als Hauptgrafikkarte kann ich es ja noch verstehen. :)

Gast
2010-06-08, 23:45:19
Wenn man 3 Wochen im Jahr PhysX-Spiele zockt, sonst nicht, da es ja nicht so viele GPU-PhysX-Spiele gibt, dann kann man die zusätzliche Karte für den Rest des Jahres rausholen.
Unfug, sowas macht Niemand, ausgenommen ein paar Typen. Der Vorschlag ist absurd.

PulsarS
2010-06-09, 00:16:52
Unfug, sowas macht Niemand, ausgenommen ein paar Typen. Der Vorschlag ist absurd.
Warum ist der Vorschlag absurd?
Für mich ist der Vorschlag naheliegend.:D

Spasstiger
2010-06-09, 00:28:07
Würde ich ehrlichgesagt auch so machen, wenn ich eine GeForce 8600 GT o.ä. rumfahren hätte (und ein Board mit zwei PCIe-x16-Slots im Rechner ;)).
Mich wundert bei der Kombo der doch recht große Unterschied an Rechenleistung. Irgendwo im NV-Forum hatte ich mal die Empfehlung gelesen, dass die dedizierte PhysX-Karte rund die Hälfte an Rechenleistung der Hauptkarte haben sollte, damit es einen lohnenswerten Speedup gibt. Hier stehen 448 SPs @ 1215 MHz gerade mal 96 SPs @ 1340 MHz gegenüber.

/EDIT: Hier ein Video von EVGA, zwei GTX 480 SLI mit und ohne zusätzliche 9800 GT für PhysX: http://www.youtube.com/watch?v=9jA-8laaPK4.
95 fps gegen 58 fps in Batman @ 2560x1600. Spricht nicht gerade dafür, dass NV ein gutes Load-Balancing bei gleichzeitigem Rasterizing und PhysX hinbekommt. Vermutlich hätte man ein noch besseres Resultat erreicht, wenn man die zweite GTX 480 nicht fürs Rasterizing, sondern nur für PhysX genutzt hätte. ;)

Bucklew
2010-06-09, 00:31:12
(und ein Board mit zwei PCIe-x16-Slots im Rechner ;)).
Mit nem Dremel reichen auch x1 oder x4 - oder ein Boardbauer der so schlau war, die Slots hinten offen zu lassen ;D

corvus
2010-06-09, 07:03:25
Und was genau soll mir dies sagen? :confused:
Hier ist die Rede von einer GTX 470!
Und es ist eben auch ein Punkt, dass man lieber eine GTX 480 holen sollte als diese Galaxy, da man die Mehrperformance immer nutzen kann, was man von der Galaxy nicht behaupten kann.

BTW wenn du das nächste mal etwas zum Thema beitragen willst, dann versuche bitte nicht das Niveau ins bodenlose zu ziehen, ok?

Niveau? Aus deinem Munde........:lol:



Unfug, sowas macht Niemand, ausgenommen ein paar Typen. Der Vorschlag ist absurd.

Echt?
PHx>Cuda....da fällt mir so einiges ein im mom das Millionen jeden Tag zocken....

corvus
2010-06-09, 07:09:04
Würde ich ehrlichgesagt auch so machen, wenn ich eine GeForce 8600 GT o.ä. rumfahren hätte (und ein Board mit zwei PCIe-x16-Slots im Rechner ;)).
Mich wundert bei der Kombo der doch recht große Unterschied an Rechenleistung. Irgendwo im NV-Forum hatte ich mal die Empfehlung gelesen, dass die dedizierte PhysX-Karte rund die Hälfte an Rechenleistung der Hauptkarte haben sollte, damit es einen lohnenswerten Speedup gibt. Hier stehen 448 SPs @ 1215 MHz gerade mal 96 SPs @ 1340 MHz gegenüber.

/EDIT: Hier ein Video von EVGA, zwei GTX 480 SLI mit und ohne zusätzliche 9800 GT für PhysX: http://www.youtube.com/watch?v=9jA-8laaPK4.
95 fps gegen 58 fps in Batman @ 2560x1600. Spricht nicht gerade dafür, dass NV ein gutes Load-Balancing bei gleichzeitigem Rasterizing und PhysX hinbekommt. Vermutlich hätte man ein noch besseres Resultat erreicht, wenn man die zweite GTX 480 nicht fürs Rasterizing, sondern nur für PhysX genutzt hätte. ;)


man kann sie alle Einspannen und PHx auf "auto" im NV Reiter..und wenn man das dann mal zb. im Poppobrenner beobachtet dann sieht man wie schön der Treiber sich das nimmt was er brauch und von welchen, welcher Karte er sich das nimmt und dann die Karten schaltet......

http://www.abload.de/thumb/unbenannttguy.png (http://www.abload.de/image.php?img=unbenannttguy.png)

corvus
2010-06-09, 07:15:28
Von Multimonitor war ja gar nicht die Rede, sondern dass die 2. GPU in den meisten Fällen außer mehr Strom verbrauchen, nichts bringt.
Versuche mal diese These zu widerlegen...
Viel Glück...:tongue:

mit 2 einfachen Profilen und einem einfachen Klicken und alle Karten sind mit 1000 Monitoren im 2D Bereich und bleiben auch da...du hast wie üblich NULL Ahnung und deine Kommentare beziehen sich wie üblich aufs trollen.

Und Ahnung oder nicht, trollen oder nicht, hat mit Gast oder nicht Gast reichlich wenig zutun!

PulsarS
2010-06-09, 09:06:26
mit 2 einfachen Profilen und einem einfachen Klicken und alle Karten sind mit 1000 Monitoren im 2D Bereich und bleiben auch da...du hast wie üblich NULL Ahnung und deine Kommentare beziehen sich wie üblich aufs trollen.

Was ist denn dir über die Leber gelaufen?
Ich habe NIE in diesem Thread über Multimonitoring gesprochen!
Warum quotest du mich überhaupt dann zu diesem Thema?
Zitiere doch bitte denjenigen, der hier etwas über das Thema hohe Verlustleistung beim Multimonitoring geschrieben.
Ich war´s nicht! :tongue:

aths
2010-06-09, 19:47:42
Wieso das denn?
Das kann einfach ein Prestigeobjekt sein.
Es muss nicht immer alles "sinnvoll" und rationell sein.Das macht ein Produkt noch nicht zum Müll

Müll ist zwar ein hartes Wort, trifft den Sachgehalt aber im Essentiellen schon ganz gut.Eben nicht.
:nono:
Und das sagst Du als BQ-Fanatiker?
Du weißt ja, AA kann man eigentlich nie genug haben.
Dann knallt man einfach SGSSAA rein und gut ist. In der höchsten Stufe natürlich. :tongue:Unsinn. Einfach SGSSAA "reinknallen" ist nur eine Option wenn der Spiele-Entwickler unbedacht Texturen oder Shader flimmern lässt. Einfach mal eine zu starke Graka zu kaufen ohne sie zu brauchen ist genauso unsinnig wie eine dedizierte PPU zu kaufen ohne sie zu brauchen.

Es gibt aber Leute, die gerne eine besonders starke Graka hätten. Es gibt auch Leute, die gerne eine PPU hätten.
Der Punkt ist aber... diesen Luxus des qualitativ hohem AA hätte ich auch gerne in anderen Spielen, nicht nur in Torchlight, welches für die Grafikkarten eh nincht gerade fordend ist.

Die Analogien in den Vergleichen stimmen, das muss man schon eingestehen.Eben nicht.
Nur ist die Verhältnismäßigkeit nicht gegeben.
Ein Quadcore ist eine Investition für die Zukunft, wo man auch weiß, dass so sicher eintreffen wird, wie das Amen in der Kirche.Wenn man vier Kerne wirklich braucht, wird kaum der Quadcore zum Einsatz kommen den man heute nutzt. Dann ist er zu langsam oder die gesamte Plattform ist zu alt.
Es gibt ja soger jetzt schon ein paar Spiele, wo man ohne einen Quadcore das Spiel lieber nicht installieren sollte.
Bei GPU-PhysX ist es aber anders.Es gibt Spiele die mit PhysX deutlich besser aussehen. Es ist also nicht anders.
Die Zukunft dürfte eher schlecht aussehen, wenn man die Physik unter DX11 auch mit den CS umsetzen kann.
Und das ist eben der Punkt, woran Deine Vergleiche scheitern.Im Gegenteil. Ob, wann, wie und wo mittels ComputeShader mal Physik-Effekte umgesetzt werden, ist unklar. Die PhysX-Schnittstelle wird hier und heute bereits von einigen Titeln unterstützt.
Die Karte ist höchstens vom praktischen Nutzen gesehen als eine Vitrinenkarte zu gebrauchen, mehr nicht.Vom praktischen Nutzen für dich vielleicht.

N0Thing
2010-06-10, 00:45:12
Wenn man vier Kerne wirklich braucht, wird kaum der Quadcore zum Einsatz kommen den man heute nutzt. Dann ist er zu langsam oder die gesamte Plattform ist zu alt.

Sicherlich ist nicht jeder Quadcore, den man vor zwei Jahren gekauft hat heute noch der Hit, wenn man aber zum Brot und Butter Quad wie den Q6600 oder Q6700 gegriffen hat, kann man diese CPU (notfalls auf vielleicht 3GHz übertaktet) problemlos mit jedem aktuellen Spiel nutzen, ohne Angst vor einem CPU-Limit haben zu müssen. Ist vielleicht nur eine Ausnahme unter vielen möglichen Quadcore-Systemen, aber wohl auch eine recht verbreitete Ausnahme.