PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - NV und EVGA - "PhysX-Grafikkarte" - 30. Oktober - GTX 275 Co-op PhysX


LovesuckZ
2009-10-21, 20:08:11
AMD has the current edge over its main rival Nvidia in the PC graphics card race. AMD's new DirectX11-based cards under their ATI brand are out now while Nvidia's DirectX11 cards are not expected to launch until sometime in early 2010. However, Nvidia is apparently prepping some kind of new graphics card product for a launch this fall.

This week Nvidia sent out invites for people to come to their Santa Clara, California offices on October 30 for a Halloween-themed launch event that will introduce "a rocking new graphics card designed by NVIDIA and EVGA to take PhysX to the next level." That's all we know at this point but if you happen to be in the area on that date there may still be time to send in your RSVP.
http://news.bigdownload.com/2009/10/21/nvidia-planning-new-physx-themed-graphics-card/

Erste Anzeichen des Geforce-Fermi? Oder doch nur die GT240?

Offiziell:

http://img177.imageshack.us/img177/9418/header3567298.jpg (http://img177.imageshack.us/i/header3567298.jpg/)

http://img691.imageshack.us/img691/279/clipboard29.jpg

http://www.evga.com/articles/00503/images/chart.jpg

http://www.evga.com/articles/00503/

Gast
2009-10-21, 20:12:01
http://news.bigdownload.com/2009/10/21/nvidia-planning-new-physx-themed-graphics-card/

Erste Anzeichen des Geforce-Fermi? Oder doch nur die GT240?
grafikkarte... nicht grafikchip.

mapel110
2009-10-21, 20:14:00
Könnte mir vorstellen, dass man zwei Geforce-GPUs auf ein PCB gepackt hat, wovon aber eine nur für PhysX gedacht ist.

tombman
2009-10-21, 20:27:04
Das kann bei dem Event eigentlich nur die GTX285 classified von EVGA sein, die da gemeint ist- die einzige 4-Sli fähige Karte (hat einen eigenen jumper dafür). Auf keinen Fall ist es ein neuer Chip...und damit ist es IMO WAYNE ;)
Bestenfalls haben sie mehrere alte Chips zu ner Frankensteinkarte zusammengepappt, was aber wiederrum nur wayne wäre.

Ohne Fermi ist alles wayne :lol:

LovesuckZ
2009-10-21, 20:29:48
Das kann bei dem Event eigentlich nur die GTX285 classified von EVGA sein, die da gemeint ist- die einzige 4-Sli fähige Karte (hat einen eigenen jumper dafür). Auf keinen Fall ist es ein neuer Chip...und damit ist es IMO WAYNE ;)
Bestenfalls haen sie mehrere alte Chips zu ner Frankensteinkarte zusammengepappt, was aber wiederrum nur wayne wäre.

Ohne Fermi ist alles wayne :lol:


NVIDIA and EVGA would like to invite you to a new graphics card launch at the NVIDIA campus in Santa Clara, CA. No it’s not based on the new Fermi architecture… we are still finalizing those details, so stay tuned. ; )
But, it’s a rocking new graphics card designed by NVIDIA and EVGA to take PhysX to the next level.

http://nvnews.net/vbulletin/showthread.php?t=140298

Hm, 4-Way Sli wäre boring. Da kann es das kostenlose Essen auch nicht rausreizen.

AnarchX
2009-10-21, 20:33:52
Fragt sich nur was man da zeigen will.

Vielleicht eine Triple-GT215-Karte, wo jeweils eine GPU für eine Ansicht bei 3D-Vision genutzt wird und die dritte für PhysX. Dazu noch 6 Monitor-Ausgänge. ;D
Oder G92b erlebt als GTX 290 mit 2xG92@~GTS 250 Niveau einen Relaunch. :D

LovesuckZ
2009-10-21, 20:37:20
Ja, der Launch der GT215-Karte könnte passen. Oder sie bringen wirklich eine Karte ohne Ausgänge als PPU. Dann könnte auch die Masse an willigen AMD User abgeschröpft werden.

AnarchX
2009-10-21, 20:40:18
Ja, der Launch der GT215-Karte könnte passen. Oder sie bringen wirklich eine Karte ohne Ausgänge als PPU. Dann könnte auch die Masse an willigen AMD User abgeschröpft werden.
Wobei dann die Bezeichnung "graphics card" wohl nicht mehr ganz passen würde.
Und das Argument, dass man keine Kontrolle hat wie andere HW die PhysX-Effekte rendert, wäre auch hinfällig.

Gast
2009-10-21, 21:02:09
http://www.evga.com/articles/00512/

Gast
2009-10-21, 21:05:03
http://www.evga.com/articles/00512/images/footer.jpg

AnarchX
2009-10-21, 21:08:17
http://img25.imageshack.us/img25/9418/clipboard28m.jpg

Das sieht etwas nach einem in der Mitte liegenden Lüfter aus, der aber kleiner als bei der GTX 295 Single-PCB ist:
http://geizhals.at/deutschland/a441268.html
Der Umriss passt perfekt zu einer Single-Slot GTX 295: http://www.evga.com/PRODUCTS/IMAGES/GALLERY/017-P3-1295-AR_XL_4.jpg

Die 4-Way EVGA sieht auch völlig anders aus: http://www.evga.com/articles/00501/

Relaunch der GTX 295? :| Nur ein Platzhalter-Bild oder hat man nur das Lüfter-Design recycelt?

Soundwave1983
2009-10-21, 22:01:51
No it’s not based on the new Fermi architecture… we are still finalizing those details, so stay tuned. It’s a rocking new graphics card designed by NVIDIA and EVGA to take PhysX to the next level.

Sagt eigentlich alles...ich tippe auf ne art 295, evtl. mit nem 285 als GPU und nem 260 mit 216 Stream Prozessoren für Physx.

Wobei das natürlich wieder die Frage nach dem "Wieso Weshalb Warum" aufwirft.
Ich hab irgendwie den Eindruck, das erste Fermi basierte GeForces noch ne ganze Weile auf sich warten lassen werden.

Botcruscher
2009-10-21, 22:12:31
Was für ein Rumgeeier. Womöglich sehen wir ja noch einen umbenannten G92.:freak:

Soundwave1983
2009-10-21, 22:24:48
Würde mich nicht verwundern, geht man von einer GT200 Knappheit aus, bietet sich der G92 ja ebenfalls als Physx Beiwerk an, und nebenbei leert man ein wenig die Lagerbestände. Nachdem Apple ja ATi ne Tonne an Chips für die neuen iMacs abgekauft hat, keine allzuschlechte Idee. ;)

LovesuckZ
2009-10-21, 22:28:01
G92 Karten wird man kaum noch auf Halde haben. Die werden mit den GT21x Versionen abgelöst. Also so eine GT200 + GT216 Kombination wäre interessant.

Daredevil
2009-10-21, 22:35:07
Wenn Batman so direkt angesprochen wird kann es sich ja nur um PhysX zeug handeln.
Also ja vllt. ne "Highend" Karte mit passender Onboard GPU fürs PhyX.

Soundwave1983
2009-10-21, 22:36:33
Ja, vor allem wenns vom Preis her stimmt...denke mal das wird auch das entfernte Ziel sein. Denn die 295 ist immer noch sauteuer und den zweiten GT200 als Physx Chip zu degradieren wäre IMHO verschwenderisch und preislich nicht attraktiv.

mictasm
2009-10-21, 22:39:57
Würde mich nicht verwundern, geht man von einer GT200 Knappheit aus, bietet sich der G92 ja ebenfalls als Physx Beiwerk an, und nebenbei leert man ein wenig die Lagerbestände. Nachdem Apple ja ATi ne Tonne an Chips für die neuen iMacs abgekauft hat, keine allzuschlechte Idee. ;)
Ne Tonne alte Chips.. und das in so einem schönen Gerät... ;)

][immy
2009-10-21, 23:55:41
http://news.bigdownload.com/2009/10/21/nvidia-planning-new-physx-themed-graphics-card/

Erste Anzeichen des Geforce-Fermi? Oder doch nur die GT240?

eher nicht, denn dann würden sie es sich mit allen anderen grafikkarten-herstellern verscherzen.

eher ein neuer aufguss eines schon bestehenden chips (was für eine mischung auch immer).

Gast
2009-10-22, 00:03:31
ich tippe jetzt mal auf GTX295 mit 2x285 GPUs

tombman
2009-10-22, 00:05:58
ich tippe jetzt mal auf GTX295 mit 2x285 GPUs
In so engem Raum? Asus konnte die Mars auch nicht in normalen Platinengrößen herausbringen, sondern mußte erheblich größer bauen.

Irgendeine 295er wirds wohl sein...vielleicht mit doppeltem Speicher?

Dural
2009-10-22, 00:12:15
It’s a rocking new graphics card designed by NVIDIA and EVGA to take PhysX to the next level.

was soll es den sonst sein? die GTX295 gibt es schon, die einzige GPU die über der GTX275/295 liegt ist num mal die von der GTX285

Wenn sie schneller sein soll als eine GTX295 bleibt ja nur noch das übrig... eine Karte mit G92 oder was weis ich für PhysX und einem GT200 für Grafik wäre ja nie schneller als eine normale GTX295 ;)

Spasstiger
2009-10-22, 00:36:35
Wenn es eine zweite Asus Mars sein soll, dann wundert mich, warum da Nvidia die Finger mit im Spiel hat. Das wäre ja eigentlich nur Herstellersache und Asus musste die Mars auch selbst entwerfen. Evtl. wurde Nvidia auch von der Asus Mars inspiriert und hat erst darauf hin ein Referenzdesign entwickelt.
Bei der Kombo GT200b + GT215 stört mich, dass eine solche Karte abseits von PhysX-Anwendungen ziemlich sinnlos wäre und somit einen sehr schweren Stand am Markt hätte.

|MatMan|
2009-10-22, 01:04:23
Es macht IMO keinen Sinn eine zweite Mars rauszubringen um mit einer HD5870 zu konkurieren, das könnte man im Prinzip auch mit ner GTX295. Gerade auf diesen (Preis-) Kampf will sich nVidia nicht einlassen. Was auch verständlich ist, da man 2 GT200 Chips nicht so billig verschleudern kann.

Da explizit mit PhysX beworben wird ist das wohl nur eine reine Marketing Aktion. Vielleicht ein Strohhalm an den man sich klammern will bis Fermi da ist...

tombman
2009-10-22, 01:06:44
Da explizit mit PhysX beworben wird ist das wohl nur eine reine Marketing Aktion. Vielleicht ein Strohhalm an den man sich klammern will bis Fermi da ist...
Na das sowieso :lol:

horn 12
2009-10-22, 01:53:25
Es sieht echt nicht soo rosig aus für NV, ATI wird ab spätestens Ende nächster Woche auch in Deutschland die HD5870 / 5850 recht gut liefern können,- und da hat derzeit Nvidia wenig gegenzuhalten.

Gast
2009-10-22, 02:08:33
Es sieht echt nicht soo rosig aus für NV, ATI wird ab spätestens Ende nächster Woche auch in Deutschland die HD5870 / 5850 recht gut liefern können,- und da hat derzeit Nvidia wenig gegenzuhalten.

Momentan kann Ati ja kaum liefern und macht daher auch wenig Gewinn eigentlich ein Glücksfall für Nvidia.

RoNsOn Xs
2009-10-22, 02:40:36
Momentan kann Ati ja kaum liefern und macht daher auch wenig Gewinn eigentlich ein Glücksfall für Nvidia.
die nächste welle soll doch ende okt. erscheinen. glaube darauf wollte er hinaus.

Daredevil
2009-10-22, 06:28:26
Momentan kann Ati ja kaum liefern und macht daher auch wenig Gewinn eigentlich ein Glücksfall für Nvidia.
Was hat nicht liefern mit wenig Gewinn zutun?
Die neue Generation wurde doch laut einigen Quellen von Großherstellern in massen eingekauft, da isses auch kein Wunder das nicht geliefert werden kann.

AnarchX
2009-10-22, 07:57:30
After talking to several people in the know, we managed to get to the bottom of this quite exciting announcement. While we don't have a final name for the card, it turns out that EVGA created a dual GPU card by combining GeForce GTS 250 with GeForce GTX 275.
http://www.brightsideofnews.com/news/2009/10/21/evga-and-nvidia-to-launch-a-new-dual-gpu-card-on-halloween.aspx

reunion
2009-10-22, 08:00:07
Wie überflüssig. :|

mapel110
2009-10-22, 08:05:10
Genau, es fehlen noch Käufer für das Produkt. Für 30 € Aufpreis gegenüber einer GTX275 gibts die vielleicht wirklich. Aber ich bezweifle, dass das so günstig wird. Da sind wohl eher 100 € mehr fällig.

Sieht eher nach einer Benchmark-Karte aus. Noch ein paar Reviews mit PhysX-Titeln im Web und schon hat man wieder ein bisschen Aufmerksamkeit.

Ailuros
2009-10-22, 08:51:00
Wie überflüssig. :|

Dachte ich mir auch ueberhaupt nach dem ganzen kryptischem ramtamtam auf EVGA's Hauptseite.

tombman
2009-10-22, 08:56:18
Ist denen bei EVGA irgendwie fad? :lol:

Ok, die classified hw ownt schon mächtig (vorallem die mobos *lechz*) , aber was soll denn jetzt bitte diese Franken-karte?

Kommt mir so vor als ginge man zum Konzert, warte auf Fermi, und bekomme dann einen B-Klasse Künstler vor die Nase gesetzt- fällt eh gar nicht auf :ugly:

Jetzt wird Nvidia natürlich haufenweise Phys-X Titel benchen, mit Ergebnissen wie 200fps: 10fps und sich dabei ganz groß vorkommen :ugly:

Fazit: Gasgranate Richtung AMD/HD5 :lol:

p.s.: am geilsten wäre es ja vor dem Event dort mit 'nem Demonstrationsschild auf- und abzugehen und dabei zu skandieren: "We wanted Fermi- they gave us that hybrid-bastard!"

Spasstiger
2009-10-22, 09:11:35
Ein Hybrid aus einer GTX 275 und einer GTS 250 wäre wirklich ziemlich hirnriss, vor allem zu einem MSRP zwischen 350 und 420$. So konkurriert man preislich mit einer HD 5870, leistungstechnisch aber in den meisten Fällen nur mit einer HD 4890.

reunion
2009-10-22, 09:13:51
Wenn man wenigstens zwei gleiche Chips verbauen würde sodass man auch SLi nutzen könnte. Aber so kann man einen Chip der ~100W schluckt nur für PhysX-Spiele nutzen.

V2.0
2009-10-22, 09:17:38
Verzweifelung pur imho. EVGA ist eben exklusiv Partner bei NV und wenn es noch Monate bis Fermi dauert.....

tombman
2009-10-22, 09:20:30
Wenn man wenigstens zwei gleiche Chips verbauen würde sodass man auch SLi nutzen könnte. Aber so kann man einen Chip der ~100W schluckt nur für PhysX-Spiele nutzen.
Zwei gleiche chips gibts schon- nennt sich GTX295 ;D

Gast
2009-10-22, 09:21:07
Ein Hybrid aus einer GTX 275 und einer GTS 250 wäre wirklich ziemlich hirnriss, vor allem zu einem MSRP zwischen 350 und 420$. So konkurriert man preislich mit einer HD 5870, leistungstechnisch aber in den meisten Fällen nur mit einer HD 4890.
Ein Hybrid zwischen ner GTX 275 und GTS 250 bei welcher der GTS 250 die Physikberechnungen macht zum Preis einer GTX 295, geht sicher weg wie warme Semmeln das Ding.

_DrillSarge]I[
2009-10-22, 09:27:32
Jetzt wird Nvidia natürlich haufenweise Phys-X Titel benchen, mit Ergebnissen wie 200fps: 10fps und sich dabei ganz groß vorkommen :ugly:
äähh ja, bei der reichhaltigen auswahl. ;D

was für ein tamtam um nichts. in nächster zeit sollte man nur auf offizielle mitteilungen direkt von nv hören und den rest einfach ignorieren. von denen kommt eh nix.

Reaping_Ant
2009-10-22, 10:12:28
I[;7611059']in nächster zeit sollte man nur auf offizielle mitteilungen direkt von nv hören und den rest einfach ignorieren.

Das wird sogar relativ offiziell von NVIDIA verbreitet, ich habe jedenfalls gestern den "Club SLI" Newsletter mit dem selben Inhalt bekommen.

Wenn es wirklich eine GTX 275 + GTS 250 Kombination wird, dann ist die Karte allerhöchstens für Sammler interessant, es sei denn, die Karte kostet und verbraucht nur unwesentlich mehr als die GTX 275 (unwahrscheinlich).

Gast
2009-10-22, 10:43:48
Gtx 275 896MB für Grafik + 8800 GT 512MB für PhysX

http://www.brightsideofnews.com/news/2009/10/21/evga-and-nvidia-to-launch-a-new-dual-gpu-card-on-halloween.aspx

Tendiere zwar zu Nv, aber das sieht mir nach einem Fehlschuss aus.

Gast
2009-10-22, 10:45:05
bah zu langsam, man sollte die Tabs nochma aktualisieren bevor man wo antwortet^^

Noebbie
2009-10-22, 10:48:59
Bringt das überhaupt irgendwie spürbare Mehrleistung?

Damals fand man eine Menge Threads worin Leute gefragt haben ob eine Kombination aus ihrer alten GT88 mit ihrer neuen GTX285 Sinn mache. Dies wurde oft klar beneint, denn die 285 hätte genug Power und man würde nichts von einer Mehrleistung spüren.

AnarchX
2009-10-22, 10:56:36
Vielleicht kommen mit der Karte noch ein paar PhysX-Patches, welche die Effektdichte weiter erhöhen und somit eine Einzel-GPU überlasten.

Botcruscher
2009-10-22, 11:26:21
Woohoo, mehr Einheitsdosen und fliegende Bettlacken. Die Umfrage bei B3D "Wie reagiert NV auf die neuen Karten" hätte man auch hier stellen können. Generals Paulus versucht mit Newsmeldungen gerade verzweifelt die Stellung zu halten. GTS 250 wird echt noch mal recycelt?

LovesuckZ
2009-10-22, 11:29:13
Woohoo, mehr Einheitsdosen und fliegende Bettlacken. Die Umfrage bei B3D "Wie reagiert NV auf die neuen Karten" hätte man auch hier stellen können. Generals Paulus versucht mit Newsmeldungen gerade verzweifelt die Stellung zu halten. GTS 250 wird echt noch mal recycelt?

Es gibt auch einen D3D11 Thread - wieso schriebst du dort nichtmal paar Beiträge? :rolleyes:

Botcruscher
2009-10-22, 11:52:02
Es gibt auch einen D3D11 Thread - wieso schriebst du dort nichtmal paar Beiträge? :rolleyes:

Weil man Fermi irgendwie nicht präsentieren will? Die "News" -meldungen dazu sind ein schlechter Witz. NV sollte lieber mal ein paar _richtige_ Informationen zur Architektur raus rücken. Dann können wir auch über DX11 sprechen. Der Informationsmangel schlägt ja schon bei zentralen Dingen wie der Teslation zu. Ich will verdammt noch mal richtige News, Fakten zu Fermi und nicht irgendwelchen aufgewärmten PhysX-Bullshitt mit 3 mal umbenannten Karten, nach denen kein Hahn kräht! Ati ist lange durch und die Geheimhaltung nur noch ein schlechter Witz. Auf zukünftige Projekte wird sich das eh nicht auswirken. Aber DU redest ja wieder alles schön...

Gast
2009-10-22, 11:57:09
Weil man Fermi irgendwie nicht präsentieren will? Die "News" -meldungen dazu sind ein schlechter Witz.
Hach, du hast dich verraten.
Dir gehts gar nicht darum, das bessere Optik scheisse ist, dir gehts darum Nvidia schlecht zu reden.

Habe ich richtig kombiniert?

LovesuckZ
2009-10-22, 12:01:45
Aber DU redest ja wieder alles schön...

Nö. Nur rege ich mich über so etwas nicht auf.
Wenn dich PhysX nicht interessiert - und das dürfte jetzt jeder wissen - dann brauchst du es auch nicht kommentieren. Aber irgendwann wird es langweilig, PhysX für etwas zu kritisieren, dass du bei anderen durchgehen lässt.

Botcruscher
2009-10-22, 12:12:45
Hach, du hast dich verraten.
Dir gehts gar nicht darum, das bessere Optik scheisse ist, dir gehts darum Nvidia schlecht zu reden.
Habe ich richtig kombiniert?

Unsere lieben Gäste... Mir geht es darum ordentlich Wettbewerb in den Markt zu bekommen und das erreicht man nun mal über offenen Standards. Ich sehe das schlicht aus Sicht des Kunden. Ich will möglichst viel "Leistung" für wenig Geld. Und wenn der Markt funktioniert ist auch der Druck hoch genug damit etwas für die BQ-Fetischisten abfällt. Das Thema an sich ist angebracht aber wenn selbst unsere Spezies bei den Lupen-Standbildern patzen und wirklich jeder Thread mit BQ=Scheiße zugespammt wird, ja dann geht einfach die Glaubwürdigkeit verloren.
Zudem hab ich auch ein gewisses Interesse an der Architektur und bin deshalb gegenüber solchen Fud-Aktionen extrem enttäuscht. Die Welt will Fermi sehen und nicht irgendwelchen veralteten Müll. Aber für was rechtfertige ich mich eigentlich?

Nö. Nur rege ich mich über so etwas nicht auf.

Dafür enthalten gefühlte 120% deiner Posts das Thema PhysX oder BQ. Und ja, es sind angesichts einer neuen Architektur Randthemen.

Wenn dich PhysX nicht interessiert - und das dürfte jetzt jeder wissen - dann brauchst du es auch nicht kommentieren. Aber irgendwann wird es langweilig, PhysX für etwas zu kritisieren, dass du bei anderen durchgehen lässt.

Das Thema wird vom NV-Marketing bis zum geht nicht mehr aufgeblasen. Spätestens mit Fermi "platzt" diese Karte wie eine Seifenblase.

Gast
2009-10-22, 12:49:53
Unsere lieben Gäste... Mir geht es darum ordentlich Wettbewerb in den Markt zu bekommen und das erreicht man nun mal über offenen Standards. Ich sehe das schlicht aus Sicht des Kunden. Ich will möglichst viel "Leistung" für wenig Geld. Und wenn der Markt funktioniert ist auch der Druck hoch genug damit etwas für die BQ-Fetischisten abfällt. Das Thema an sich ist angebracht aber wenn selbst unsere Spezies bei den Lupen-Standbildern patzen und wirklich jeder Thread mit BQ=Scheiße zugespammt wird, ja dann geht einfach die Glaubwürdigkeit verloren.

Die FPS oder Preis pro FPS Scheisse findet man auch in jedem Fred. Da frage ich 100mal, wozu man die Leistung brauch, aber warten werde ich auf eine Antwort wohl ewig warten.
In den Freds gehts oft um die API, erst .1 dann 1.0. Was es bringen soll wurde auch nicht erklärt. Noch mehr FPS oder noch mehr BQ?

Schön das du Wettbewerb willst. Leider sieht es im Moment nicht so aus, es sieht so aus als ob wir uns, sollte GPU PhysX eine Nische bleiben weiterhin auf ödem Software Havok oder PhysX sitzten bleiben, die Physik Entwicklung findet praktisch nicht statt.
Toll, gratulieren wir den Konsolen oder AMD oder Microsoft oder den Entwicklern der Spiele?

Gast
2009-10-22, 12:52:06
Zudem hab ich auch ein gewisses Interesse an der Architektur und bin deshalb gegenüber solchen Fud-Aktionen extrem enttäuscht. Die Welt will Fermi sehen und nicht irgendwelchen veralteten Müll. Aber für was rechtfertige ich mich eigentlich?

GPU PhysX ist seit August 2008 nachträglich für alle Geforces ab Geforce 8 verfügbar.
Fermi wird ebenfalls PhysX fähig sein.

Unverständlich, das du Fermi abstrafst, nur weil er das selbe wie sein Vorgänger beherscht.

Gast
2009-10-22, 12:54:53
Unsere lieben Gäste... Mir geht es darum ordentlich Wettbewerb in den Markt zu bekommen und das erreicht man nun mal über offenen Standards"Wettbewerb" würde es viel eher geben, wenn man sich bei ATI mal ordentlich um die Kunden inklusive Entwicklern kümmern würde. Solange man sämtliche Sachen immer erst dann unterstützt, wenn es sich aufgrund des größer werdenden Drucks absolut nicht mehr vermeiden lässt, wird Nvidia auch in Zukunft die Regeln aller Märkte abseits von Mainstream-Spielen und Mediamarkt-Daus aufstellen. Wer würde sich mit der Nutzung von CUDA bzw. im Spielebereich darauf aufbauend PhysX völlig ohne Not auf Nvidia beschränken, wenn es eine plattformunabhängige Alternative gäbe, die von ATI auch nennenswerte Unterstützung erfährt?

Gast
2009-10-22, 12:57:00
Wobei CUDA bis auf die fehlende Unterstützung von ATI-Karte eigentlich sehr plattformunabhängig ist. ;)

Dural
2009-10-22, 14:12:02
so was sinnloses, unglaublich!

das sieht ja schon fast nach Chip Entsorgung aus :freak:

Wenn es wenigstens eine OC GTX285 2GB wäre plus GT215 würde es wenigstens halbwegs gut dastehen als Tech-Demo-Karte oder für alle die nichts von SLI halten aber PhysX ohne Leistungs-Einbruch genissen möchten und keinen zweiten PCI-E Slot habe lol

deekey777
2009-10-22, 14:14:17
Dachte ich mir auch ueberhaupt nach dem ganzen kryptischem ramtamtam auf EVGA's Hauptseite.
Wie überflüssig. :|
Wenn man bedenkt, welche Perlen auf dem Markt sind, die PhysX über GPU nutzen, dann ist so eine Karte ein Pflichtkauf.

Gast
2009-10-22, 14:16:50
das sieht ja schon fast nach Chip Entsorgung aus :freak:

Tja, da hat man extra frühzeitig EOL ausgerufen und dennoch scheint es zu große Bestände zu haben?

Nein, ich glaube nicht. Ich glaube EVGA hat einfach mal Lust etwas zu verdienen.
Mit derartigen Sonderlösungen können sie im Rampenlicht stehen und diese Produkte werden sie auch recht gewinnbringend an den Mann bringen.

LovesuckZ
2009-10-22, 14:17:07
Dafür enthalten gefühlte 120% deiner Posts das Thema PhysX oder BQ. Und ja, es sind angesichts einer neuen Architektur Randthemen.

Ich verteufel weder BQ noch PhysX. Das tun nur AMD-User und Fanboys in den Threads - aber auch nur solange, bis AMD etwas ähnliches hat.:rolleyes:
Und PhysX wird dich noch lange begleiten und wird einen wesentlich Punkt in der Marketingkampagne von Fermi darstellen. Du solltest dich langsam damit abfinden, dass PhysX nicht verschwinden wird.


Das Thema wird vom NV-Marketing bis zum geht nicht mehr aufgeblasen. Spätestens mit Fermi "platzt" diese Karte wie eine Seifenblase.

Bis jetzt schickt nVidia Mails und Ankündigungen raus. Was daran schlimm ist, verstehe ich nicht. Aber heulen gehört in solchen Foren ja zur Tagesordnung.

Dural
2009-10-22, 14:20:24
Tja, da hat man extra frühzeitig EOL ausgerufen und dennoch scheint es zu große Bestände zu haben?

Nein, ich glaube nicht. Ich glaube EVGA hat einfach mal Lust etwas zu verdienen.
Mit derartigen Sonderlösungen können sie im Rampenlicht stehen und diese Produkte werden sie auch recht gewinnbringend an den Mann bringen.

Das war nicht auf den GT200 bezogen, sondern auf den G92 und der scheint immer noch recht gut Lieferbar zu sein! Denke das EVGA die dinger fast umsonst bekommt um eben die Karte zu bauen...

Gast
2009-10-22, 14:37:19
Das war nicht auf den GT200 bezogen, sondern auf den G92 und der scheint immer noch recht gut Lieferbar zu sein! Denke das EVGA die dinger fast umsonst bekommt um eben die Karte zu bauen...
Fast umsonst bestimmt nicht, nicht bei so einer teuren GPU.
Die Frage ist wann und wie breit GT215 aufschlägt. Wahrscheinlich nicht so breit, das sofort kein G92 mehr benötigt wird für die Marktbefriedigung. In dem Sinne halte ich einen Ausverkauf für ausgeschlossen.

Ich halte lieber an meiner Theorie fest. ;)

Ailuros
2009-10-22, 14:37:21
Wenn man bedenkt, welche Perlen auf dem Markt sind, die PhysX über GPU nutzen, dann ist so eine Karte ein Pflichtkauf.

Botcruscher hat den Nagel auf den Kopf getroffen. Sobald GF10x ankommen wird das Ding tatsaechlich nach einer ziemlich bloeden Investition aussehen.

pest
2009-10-22, 14:49:44
man sollte produkte nicht nach deren sinn beurteilen, sondern der marktsituation
nv muss versuchen die leute interessiert an ihren produkten zu halten,
und wenn's batman nicht gäbe, wäre die karte sowieso für die katz

die wievielte verwendung der G92-GPU ist das eigentlich? :freak:

Gast
2009-10-22, 14:57:18
Ähm es geht um EVGA, nicht Nvidia.

Gast
2009-10-22, 15:04:33
Ähm es geht um EVGA, nicht Nvidia.
ähm "This week Nvidia sent out invites for people to come to their Santa Clara, California offices on October 30 for a Halloween-themed launch event that will introduce "a rocking new graphics card designed by NVIDIA and EVGA to take PhysX to the next level." That's all we know at this point but if you happen to be in the area on that date there may still be time to send in your RSVP."
Nvidia läd ein , die Karte wurd von Nvidia und Evga designt............. da gehts sehr wohl um Nvidia.

Soundwave1983
2009-10-22, 15:17:00
Botcruscher hat den Nagel auf den Kopf getroffen. Sobald GF10x ankommen wird das Ding tatsaechlich nach einer ziemlich bloeden Investition aussehen.

Und genau hier liegt IMHO das Problem, die GF10X wird wohl noch ne ganze Weile auf sich warten lassen...anders kann ich mir solche Aktionen nicht erklären.

Gast
2009-10-22, 15:21:02
ähm "This week Nvidia sent out invites for people to come to their Santa Clara, California offices on October 30 for a Halloween-themed launch event that will introduce "a rocking new graphics card designed by NVIDIA and EVGA to take PhysX to the next level." That's all we know at this point but if you happen to be in the area on that date there may still be time to send in your RSVP."
Nvidia läd ein , die Karte wurd von Nvidia und Evga designt............. da gehts sehr wohl um Nvidia.
Es ist eine Speziallkarte, die nur mit EVGA Siegel in den Handel kommen wird.

mapel110
2009-10-22, 16:35:36
Allzu kurzfristig kann man so eine Hybridkarte auch nicht planen. Das hatte sicher ein paar Monate Vorlaufzeit.

Dural
2009-10-22, 16:54:58
Fast umsonst bestimmt nicht, nicht bei so einer teuren GPU.
Die Frage ist wann und wie breit GT215 aufschlägt. Wahrscheinlich nicht so breit, das sofort kein G92 mehr benötigt wird für die Marktbefriedigung. In dem Sinne halte ich einen Ausverkauf für ausgeschlossen.

Ich halte lieber an meiner Theorie fest. ;)

Klar geht es nur um den Preis, sonst hätte man ja einen GT215 oder sowas genommen da der doch wesentlich besser geeignet wäre! Stormverbrauch/ 40nm und 128Bit

oder ein G94 hätte auch schon völlig ausgereicht, für was braucht man den bitte schön eine 9800GT nur für PhysX? die dreht bei den aktuellen Games ja nur däumchen ;-)

und überhaupt, wie so hat man nicht einfach eine GTX260 192SP GPU verbaut? Da hätte man beim Kühler/PCB ein rissen Vorteil da man einfach das von der GTX295 hätte verwenden können!

Gast
2009-10-22, 17:16:01
Klar geht es nur um den Preis, sonst hätte man ja einen GT215 oder sowas genommen da der doch wesentlich besser geeignet wäre! Stormverbrauch/ 40nm und 128Bit
Stromverbrauch ist egal, für EVGA.
GT215 muss erstmal verfügbar sein.
Kosten wären ein Punkt, wer weiß vielleicht ist die G92b Theorie doch falsch.

oder ein G94 hätte auch schon völlig ausgereicht, für was braucht man den bitte schön eine 9800GT nur für PhysX? die dreht bei den aktuellen Games ja nur däumchen ;-)
Wie kommst du auf 9800 GT?
Bisher ist nur G92b klar. Kann ein 128 SP G92b bei 1800 Mhz sein oder ein 96 SP G92b bei 1300MHz.
Einzig sicher ist imho, das es gerade mal 512MiB sind, eine VRAM Ausbaustufe die Geld spart und als Single Karte einen schwereren Stand hätte.

und überhaupt, wie so hat man nicht einfach eine GTX260 192SP GPU verbaut? Da hätte man beim Kühler/PCB ein rissen Vorteil da man einfach das von der GTX295 hätte verwenden können!
Hä, wie meinen?
GTX 260 und 275 passen aufs selbe Brett, aber ein 295 PCB samt 2x448bit SI, das nur halb voll bestückt und halb etwas bestückt ist macht wenig Sinn.
Eine GTX 260 könnte nicht besonders teuer verkauft werden, das ist nicht EVGAs Ziel.

Gast
2009-10-22, 19:34:59
Heise schreibt hier http://www.heise.de/newsticker/meldung/Grafik-Geruechte-EVGA-bringt-Dual-GPU-Grafikkarte-fuer-PhysX-836820.html auch von der vermeintlichen EVGA-Karte, deklariert es aber noch als Gerücht.

Paar Zeilen weiter unten steht dafür, dass die Radeon HD 5900 Karten am 20. November vorgestellt werden!!!!!!! Oder ist das nichts Neues?

Gast
2009-10-22, 19:38:33
egal welchen G200/G92 aufguss uns nvidia hier präsentieren will... das ist ein ziemlich eindeutiges zeichen, dass fermi noch laaaaaaaaange auf sich warten lässt...

deekey777
2009-10-22, 19:50:42
Botcruscher hat den Nagel auf den Kopf getroffen. Sobald GF10x ankommen wird das Ding tatsaechlich nach einer ziemlich bloeden Investition aussehen.
Es ist schon jetzt absolute Fehlinvestition, genau wie der Kauf einer Geforce, nur um PhysX über GPU zu sehen. Die Spiele, die PhysX auf GPU nutzen, sind bis auf wenige Ausnahmen schlecht.

Gast
2009-10-22, 20:05:10
Es ist schon jetzt absolute Fehlinvestition, genau wie der Kauf einer Geforce, nur um PhysX über GPU zu sehen. Die Spiele, die PhysX auf GPU nutzen, sind bis auf wenige Ausnahmen schlecht.

Ahja...und warum ist eine Geforce eine Fehlinvestition? Gibt wohl soviele DX11 Titel derzeit?

deekey777
2009-10-22, 20:11:09
Ahja...und warum ist eine Geforce eine Fehlinvestition? Gibt wohl soviele DX11 Titel derzeit?
Brauchst du eine Lesehilfe?

Gast
2009-10-22, 20:25:21
egal welchen G200/G92 aufguss uns nvidia hier präsentieren will... das ist ein ziemlich eindeutiges zeichen, dass fermi noch laaaaaaaaange auf sich warten lässt...
1. Fehler: EVGA, nicht Nvidia
2. Fehler: Aufguss. Ein Chip wird üblicherweise in mehr als einem Produkt verbaut.
3. Fehler: So eine Karte ist nicht von heute auf morgen geplannt. Außerdem ist es EVGA only.
Es kann vieles heißen, z.b.: EVGA will mehr Geld verdienen als mit dem Verkauf einer normalen GTX 275.
EVGA will GT200 Bestände loswerden, ohne billige Produkte anzubieten.
EVGA will einfach etwas Presserummel, nach der ganzen HD5 Geschichte muss sich der "Edel-Hersteller" wieder ins Rampenlicht schieben.
Ich darf erinnern, das Quad SLI ist auch eine EVGA only Geschichte.

Gast
2009-10-22, 20:27:42
Brauchst du eine Lesehilfe?

Drück dich etwas klarer aus, dann passt es auch.

Gast
2009-10-22, 20:41:23
auf jeden fall eine der tollkühnsten produktankündingen ever *TOP*
fehlt nur noch der anschluss fürs saturn gamepad, die soundblaster emulation macht der füsicks chip ja bestimmt mit links nebenher :D

S940
2009-10-22, 21:36:43
Drück dich etwas klarer aus, dann passt es auch.
Er meinte vermutlich die 1000x HD5xxx Reviews, kombiniert mit der Preisliste bei geizhals ;-)

ciao

Alex

deekey777
2009-10-22, 21:46:38
Er meinte vermutlich die 1000x HD5xxx Reviews, kombiniert mit der Preisliste bei geizhals ;-)

ciao

Alex
Definitiv nicht.
Leidet ihr an Leseschwäche? ;(

Gast
2009-10-22, 22:03:49
Es ist schon jetzt absolute Fehlinvestition, genau wie der Kauf einer Geforce, nur um PhysX über GPU zu sehen.

was ist daran unverständlich? wo wird da eine aussage über nvidia grafikarten allgemein getroffen? fanboytum benebelt manchmal wohl das gehirn.

PulsarS
2009-10-22, 23:01:02
Wenn PhysX den Bach runtergeht, dann hat man eine GPU im Schlepptau, die zu nichts taugt außer den Stromverbrauch zu erhöhen und damit auch die Lautstärke. Tolle Erfindung! :rolleyes:

Aber mal abwarten, was es wirklich wird. :)

LovesuckZ
2009-10-22, 23:03:38
Die hat man so auch...

Gast
2009-10-22, 23:05:40
Wenn PhysX den Bach runtergeht, dann hat man eine GPU im Schlepptau, die zu nichts taugt außer den Stromverbrauch zu erhöhen und damit auch die Lautstärke. Tolle Erfindung! :rolleyes:

Aber mal abwarten, was es wirklich wird. :)

Es gibt keinerlei Anzeichen das PhysX den Bach runtergeht, weshalb auch?

deekey777
2009-10-22, 23:08:02
Wenn PhysX den Bach runtergeht, dann hat man eine GPU im Schlepptau, die zu nichts taugt außer den Stromverbrauch zu erhöhen und damit auch die Lautstärke. Tolle Erfindung! :rolleyes:

Aber mal abwarten, was es wirklich wird. :)
Und was ist damit: Man bekommt die Möglichkeit zwei F@H-GPU2-Clients zum Laufen. Oder zwei Videos umzuwandeln. Oder...
Auch ist es denkbar, dass auch andere Physik-Middleware auf der Extra-GPU berechnet werden wird.

Immer einen Schritt weiterdenken.

][immy
2009-10-22, 23:19:04
ich habe das wichtige mal "eingefettet"... kann diese leseschwäche echt nicht verstehen.

Es ist schon jetzt absolute Fehlinvestition, genau wie der Kauf einer Geforce, nur um PhysX über GPU zu sehen. Die Spiele, die PhysX auf GPU nutzen, sind bis auf wenige Ausnahmen schlecht.

allerdings würde ich mir schon überlegen eine geforce als zusatzkarte zu kaufen (zu meiner jetzigen ati), wenn es denn ginge. schließlich habe ich mir auch überlegt eine physx karte zu kaufen, aber es dann doch sein gelassen. aber das liegt bei mir eher daran das mich eher die neue technik reitzt, als einen nutzen zu haben.
aber diese konstruktion ist doch echt ein fehlgriff. höherer verbrauch, nichtmal sli-fähig (z.B. für titel die kein phsyx in hardware unterstützen.. was ja auf die meistne titel zutrifft). das kann einfach nur ein versuch werden alte lagerbestände aufzuräumen. alles andere macht keinen sinn, denn diejenigen die mit so einer karte liebäugeln würden, würden wohl eher zu einem sli-system greifen (oder halt zur 295).


edit:
ups hab übersehen, das es da noch eine seite gibt und ich zu spät mit dem zitat war.^^

PulsarS
2009-10-22, 23:25:42
Die hat man so auch...
Was hat man?

Es gibt keinerlei Anzeichen das PhysX den Bach runtergeht, weshalb auch?
Es gab schon einiges an Herstellerspezifischen Lösungen, die besser als PhysX@GPU waren, z.B. Glide.
Welche davon hat nochmal überlebt?
Richtig, keine.
Wenn es allgemeine Lösungen gibt, die den gleichen Ansatz haben, werden IHV-spezifische Standards nie überleben.
Oder du erklärst mir, warum es gerade bei PhysX@GPU anders laufen sollte...
Und was ist damit: Man bekommt die Möglichkeit zwei F@H-GPU2-Clients zum Laufen. Oder zwei Videos umzuwandeln. Oder...
Auch ist es denkbar, dass auch andere Physik-Middleware auf der Extra-GPU berechnet werden wird.

Immer einen Schritt weiterdenken.
Für die Gamer sicherlich sehr interessant. :freak:
Na ja, für Randgruppen und Freaks vielleicht von Interesse.

Gast
2009-10-22, 23:36:33
Oder du erklärst mir, warum es gerade bei PhysX@GPU anders laufen sollte...


Weil Nvidia genug Geld und Zeit dafür investiert, eben deshalb wird es noch lange überleben. PhysX ist ein Extra, warum sollte es nicht weiter genutzt werden?

LovesuckZ
2009-10-22, 23:38:06
Was hat man?

Eine unnütze GPU, die Strom frisst.


Es gab schon einiges an Herstellerspezifischen Lösungen, die besser als PhysX@GPU waren, z.B. Glide.
Welche davon hat nochmal überlebt?
Richtig, keine.
Wenn es allgemeine Lösungen gibt, die den gleichen Ansatz haben, werden IHV-spezifische Standards nie überleben.
Oder du erklärst mir, warum es gerade bei PhysX@GPU anders laufen sollte...


Weil PhysX zum hundertausendsten Mal eine Physik-Middleware ist. Wenn man das heute noch nicht verstanden hat, dann will man es wohl nicht. GPU-PhysX ist etwas, das nicht ausschlagebendes Merkmal einer Physik-Middleware darstellt.

PulsarS
2009-10-22, 23:41:37
Weil PhysX zum hundertausendsten Mal eine Physik-Middleware ist.
Es geht auch ohne Middlerware...

LovesuckZ
2009-10-22, 23:46:08
Es geht auch ohne Middlerware...

Warte - du meinst, dass die heutige Middleware unnütz ist? Du solltest mit Mr.Lolman eine Beratungsfirma für ISV aufmachen. Anscheinend wisst ihr beide am besten, wie und was für Physik in der Entwicklung einsetzt werden soll...

Ailuros
2009-10-23, 07:17:28
Und genau hier liegt IMHO das Problem, die GF10X wird wohl noch ne ganze Weile auf sich warten lassen...anders kann ich mir solche Aktionen nicht erklären.

Nach der GF100 Vorstellung wird es auch nicht mehr so lange dauern, denn dessen Verspaetung nagt an der Zwischenzeit von high end zu mainstream einiges ab. Da die 275+250 Ende Oktober vorgestellt wird sieht es auf jeden Fall nach weniger als 6 Monaten aus.

Gast
2009-10-23, 09:18:20
... Da die 275+250 Ende Oktober vorgestellt wird sieht es auf jeden Fall nach weniger als 6 Monaten aus.


und wie kommst du darauf???

Ailuros
2009-10-23, 09:41:15
und wie kommst du darauf???

Der Dotter meines Fruehstueckeis war gruen :rolleyes:

Gast
2009-10-23, 13:59:47
Es ist schon jetzt absolute Fehlinvestition, genau wie der Kauf einer Geforce, nur um PhysX über GPU zu sehen. Die Spiele, die PhysX auf GPU nutzen, sind bis auf wenige Ausnahmen schlecht.Die Aussage mag stimmen, die Begründung halte ich aber für fragwürdig. Die Bewertung eines künstlerischen Machwerks (Film, Spiel, Musik) obliegt immer dem Betrachter. Ein generelles Urteil lässt sich hier kaum fällen. Wobei, über "handwerklich schlecht" ließe sich bei manchen Titeln durchaus reden. ;)Es geht auch ohne Middlerware...Früher soll manch einer ein komplettes Spiel auch ganz allein in einem Texteditor erstellt haben. Heute ist sowas aber kaum noch sinnvoll machbar, genau wie die Erstellung eines AAA-Titels ohne die Nutzung irgendeiner Middleware.

deekey777
2009-10-23, 15:06:16
Die Aussage mag stimmen, die Begründung halte ich aber für fragwürdig. Die Bewertung eines künstlerischen Machwerks (Film, Spiel, Musik) obliegt immer dem Betrachter. Ein generelles Urteil lässt sich hier kaum fällen. Wobei, über "handwerklich schlecht" ließe sich bei manchen Titeln durchaus reden. ;)
Ein künstlerisches Machtwerk...
Dann schauen wir uns mal die Bewertungen der künstlerischen Machtwerke, die GPU-PhysX nutzen:
Darkest of Day (http://www.metacritic.com/games/platforms/pc/darkestofdays) 53 (und da fehlen noch einige Bewertungen)
Cryostasis: Sleep of Reason (http://www.metacritic.com/games/platforms/pc/cryostasissleepofreason) 69 (und das Spiel läuft nicht gerade gut)
Terminator Salvation (http://www.metacritic.com/games/platforms/pc/terminatorsalvation) 49
Mirror's Edge (http://www.metacritic.com/games/platforms/pc/mirrorsedge) 81 (ist wenigstens innovativ und sieht gut aus)
PT Boats: Knights of the Sea (http://www.metacritic.com/games/platforms/pc/ptboatsknightsofthesea): niemand fasst das Spiel freiwillig an, die Ergebnisse der drei Reviews sprechen für sich.
Crazy Machines 2 (http://www.metacritic.com/games/platforms/pc/crazymachines2) 72
(Sacred 2 (http://www.metacritic.com/games/platforms/pc/sacred2fallenangel) 71, PhysX@GPU wurde aber ziemlich spät nachgepatcht)

Batman: Arkham Asylum (http://www.metacritic.com/games/platforms/pc/batmanarkhamasylum) ist das erste PhysX@GPU-Spiel, das nicht nur Traumwertungen (aber auch da gab es Vorbehalte, ob nicht gekauft), sondern möglicherweise das erste Spiel, das sich auch gut verkauft.
Denn es fällt schon auf, dass die og Spiele nicht nur schlecht sind, sondern alles andere als Blockbuster sind. Und eine Änderung ist nicht in Sicht.

Dural
2009-10-23, 18:25:38
Stromverbrauch ist egal, für EVGA.
GT215 muss erstmal verfügbar sein.
Kosten wären ein Punkt, wer weiß vielleicht ist die G92b Theorie doch falsch.


Wie kommst du auf 9800 GT?
Bisher ist nur G92b klar. Kann ein 128 SP G92b bei 1800 Mhz sein oder ein 96 SP G92b bei 1300MHz.
Einzig sicher ist imho, das es gerade mal 512MiB sind, eine VRAM Ausbaustufe die Geld spart und als Single Karte einen schwereren Stand hätte.


Hä, wie meinen?
GTX 260 und 275 passen aufs selbe Brett, aber ein 295 PCB samt 2x448bit SI, das nur halb voll bestückt und halb etwas bestückt ist macht wenig Sinn.
Eine GTX 260 könnte nicht besonders teuer verkauft werden, das ist nicht EVGAs Ziel.

Ist das so schwer zu verstehen? Anstelle von einem G92 einfach ein GT200 GPU für die PhysX verwenden und man hätte die Karte 1:1 von der GTX295 übernemen können.
Hier im Forum stand das es eine 8800GT sein soll, in der Quelle wird aber tatsächlich von einer GTS250 (=9800GTX+ also die grösste ausbaustuffe das G92b) gesprochen was es noch einmal SINNLOSER macht! Der Preis unterschid zwischen GTS250 und einer GTX260 sind nur wenige Euro!

reine Chip Entsorung + Marketing, anders kann ich mir das nicht mehr erklähren, obwohl von so einer Karte kaum grosse Stückzahlen verkauft werden.... Ein GT215/GT216 wäre deutlich sinnvoller gewesen, in jedem Bereich!

AnarchX
2009-10-23, 22:02:09
Eine "GTS 250" wird es wohl eher nicht sein, da man hier über 300W TDP kommen würde.
Je nachdem, was EVGA noch auf Halde hatte, könnten es wohl 112-128SPs @ 1.4GHz oder weniger sein.

Ein GT216 wäre mit seinen 48SPs zu wenig von der Leistung und GT215 dürfte wohl gerade mal für OEM verfügbar sein und im Retail für solche Experimente zu teuer sein.

Gast
2009-10-23, 22:50:59
Ist das so schwer zu verstehen? Anstelle von einem G92 einfach ein GT200 GPU für die PhysX verwenden und man hätte die Karte 1:1 von der GTX295 übernemen können.
Hier im Forum stand das es eine 8800GT sein soll, in der Quelle wird aber tatsächlich von einer GTS250 (=9800GTX+ also die grösste ausbaustuffe das G92b) gesprochen was es noch einmal SINNLOSER macht! Der Preis unterschid zwischen GTS250 und einer GTX260 sind nur wenige Euro!

reine Chip Entsorung + Marketing, anders kann ich mir das nicht mehr erklähren, obwohl von so einer Karte kaum grosse Stückzahlen verkauft werden.... Ein GT215/GT216 wäre deutlich sinnvoller gewesen, in jedem Bereich!
Es ist schwer zu verstehen. Ich wußte nicht was du mit der GTX 295 hast. Jetzt schon. Du willst quasi eine GTX 295 nehmen, SLI deaktivieren und das Ding als PhysX Karte verramschen. Naja.

Einen G92b zu verbauen sollte deutlich günstiger sein, auch wenn GTX 260 inzwischen recht günstig sind.

Außerdem sind wie gesagt GT215 noch gar nicht breit am Markt. Alternativen hießen G94b oder GT216. Beide ein gutes Stück billiger und langsamer.
EVGA hat sicher auch an die Benches gedacht, Batman @ PhysX high steht einer 9600 GT nicht ganz so gut.

G92b Chipentsorgung glaube ich nicht. Dazu wird EVGA nicht genügend dieser Karte absetzten.
GT200b (GTX 275 fähig) Entsorgung vielleicht eher. EVGA wittert die Möglichkeit den Gewinn kurzzeitig heftig zu pushen, bzw nicht in der Not zu sein Preise senken zu müssen.

AnarchX
2009-10-28, 17:17:55
Allgemeine GPU-PhysX-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7625083#post7625083

Hier soll es nun speziell um EVGAs Konstrukt gehen.

Dural
2009-10-28, 18:18:11
48SP @ 1500MHz reichen völlig nur für PhysX, das der GT216 zu klein sein soll las ich nicht gelten! Schon der Strom Verbrauch dürfte Welten zwischen GT216 und G92 ausmachen!

Was hier bisher aber überhaupt nicht beachtet wurde ist, das man die Karte natürlich auch für jegliche CUDA berrechnung verwenden kann! Somit könnte man zb. Videos mit CUDA konvertieren und dazu noch Zocken und das mit einer Grafikkarte

Was mich stört ist das immer nur von GTS250 gesprochen wird und das würde ich schon sehr krank finden wenn das teil wirklich mit 128SP @ 1800MHz ankommen soll...

Daredevil
2009-10-28, 18:21:54
Was hier bisher aber überhaupt nicht beachtet wurde ist, das man die Karte natürlich auch für jegliche CUDA berrechnung verwenden kann! Somit könnte man zb. Videos mit CUDA konvertieren und dazu noch Zocken und das mit einer Grafikkarte
Ja gut..... aber...... Sinn?
Mit einem fahrenden Wirlpool kann ich auch baden und gleichzeitig zur Arbeit fahren, aber macht doch irgendwie keinen Sinn, oder? ^^
Mal ganz davon abgesehen das sich die beiden Karten den PCIe Slot teilen und so bestimmt beides nicht so schnell wäre als würde man es nach und nach machen.

Dural
2009-10-28, 18:25:44
Sinn?

Die ganze Karte hat null Sinn! ;)

Gast
2009-10-28, 18:48:28
Doch, sie wird EVGAs Bilanz etwas aufrischen. :)

|MatMan|
2009-10-28, 19:05:26
Doch, sie wird EVGAs Bilanz etwas aufrischen. :)
Das glaube ich nicht, denn das Ding ist kein Massenprodukt und wirklich viel Geld verdienen kann man damit bestimmt auch nicht bei dem (wahrscheinlichen) custom-Design und dem Preisdruck durch die HD58xx.

Eher will sich EVGA einen Namen bei den Gamern durch extravagante Produkte (Grafikkarten) machen. Also IMO eine reine PR-Aktion, die vielleicht nicht mal von nVidia ausging.

AnarchX
2009-10-31, 08:23:07
http://img177.imageshack.us/img177/9418/header3567298.jpg (http://img177.imageshack.us/i/header3567298.jpg/)

http://img691.imageshack.us/img691/279/clipboard29.jpg

http://www.evga.com/articles/00503/images/chart.jpg

http://www.evga.com/articles/00503/

Also eine 192-Bit GTS 250 mit jedoch vollem GPU-Takt.

Aber mit $349 ein ziemlich hoher MSRP.

Raff
2009-10-31, 09:26:46
Hehe, also keine Überraschungen verglichen mit dem, was bekannt war. Für etwa 200 bis 250 €uro wäre das Teil sogar relativ interessant gewesen – zumindest für jene, welche ab und an PhysX wollen bzw. das feine Batman: Arkham Asylum spielen. Etwas schwach finde ich, dass man der GTX 275 nicht wenigstens 1,8 GiB spendiert hat.

MfG,
Raff

Gast
2009-10-31, 10:30:27
EPIC FAIL IMHO. komplett sinnloses trum.

Gast
2009-10-31, 10:50:17
Braucht PhysX nicht so viel Bandbreite und VRAM und Füllrate, sondern einfach nur pure FLOPs?

Dann hat EVGA ordentlich gespart.
Theoretisch könnten sie eine Spezielladung G92b bestellt haben, welche bis auf die ROPs voll funktionsfähig sind.

Dural
2009-10-31, 12:46:19
also ich dachte das für CUDA zeugs genau eben die Bandbreite sehr Wichtig ist!

Deswegen haben die GT200 Karten auch so viel, hiss es mal...

dargo
2009-10-31, 12:56:06
Braucht PhysX nicht so viel Bandbreite und VRAM und Füllrate, sondern einfach nur pure FLOPs?

Worauf willst du hinaus? Die PPU hat doch nach den Bildern eigenen Speicher (ich nehme mal an 384MB... 768MB wären wohl übertrieben passt ja, insgesamt sind es 1280MB), muss sich also die Bandbreite nicht mit der GPU teilen.

Edit:
Was mich interessieren würde - wird die PPU in Idle komplett abgeschaltet oder erhöht sich die Verlustleistung in Idle dementsprechend?

=Floi=
2009-10-31, 15:49:52
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/evga_gtx_275_gts_250_karte/

die news von CB
rofl
sinnlos das teil

Gast
2009-10-31, 16:15:58
Worauf willst du hinaus? Die PPU hat doch nach den Bildern eigenen Speicher (ich nehme mal an 384MB... 768MB wären wohl übertrieben passt ja, insgesamt sind es 1280MB), muss sich also die Bandbreite nicht mit der GPU teilen.

Ich will darauf hinaus, das der PhysX Teil dieser EVGA deutlich schlechter als eine GTS 250 512MiB ist, mit Ausnahme der FLOPs.
Meine Frage darauf hin war, ob das überhaupt eine Rolle spielt.

Weiter will ich darauf hinaus, ob EVGA hier recht günstig produzieren kann.

=Floi=
2009-10-31, 16:26:29
zitat
Was hier bisher aber überhaupt nicht beachtet wurde ist, das man die Karte natürlich auch für jegliche CUDA berrechnung verwenden kann! Somit könnte man zb. Videos mit CUDA konvertieren und dazu noch Zocken und das mit einer Grafikkarte

das bezweifle ich mal. hier gäbe es mehrere hürden.

mapel110
2009-10-31, 16:29:26
Jo, vor allem wird trotz Cuda auch weiterhin die CPU mit eingebunden. Auch die Festplatte sollte einiges zu tun haben, was zu größeren Rucklern ingame führen kann.

Thema Herstellungskosten, die sollten relativ hoch sein, weil die Karte sicher nur in kleinen Stückzahlen produziert werden wird.

Interessant könnte es vielleicht werden, wenn Fermi noch mit einer anderen GPU für PhysX kombiniert wird. Aber dazu muss es einfach mehr PhysX-Titel geben.

Aquaschaf
2009-10-31, 17:03:23
Interessant könnte es vielleicht werden, wenn Fermi noch mit einer anderen GPU für PhysX kombiniert wird.

Bei Fermi sollte es prinzipiell deutlich besser funktionieren Physik und Grafik auf einer GPU nebeneinander laufen zu lassen.

aths
2009-11-02, 21:59:19
Hehe, also keine Überraschungen verglichen mit dem, was bekannt war. Für etwa 200 bis 250 €uro wäre das Teil sogar relativ interessant gewesen – zumindest für jene, welche ab und an PhysX wollen bzw. das feine Batman: Arkham Asylum spielen. Etwas schwach finde ich, dass man der GTX 275 nicht wenigstens 1,8 GiB spendiert hat.Speicherpreise. Ob GTX 260 oder 275, die findet man kaum mit verdoppelter Speichergröße. Ich hab trotz ganz guter Connections vor einigen Wochen zusehen müssen, noch eine GTX 285 mit 2 GiB zu kaufen zu bekommen.

EPIC FAIL IMHO. komplett sinnloses trum.Für Leute die kein SLI-Mainboard haben aber aus irgendwelchen Gründen eine GeForce+PhysX-Karte kombinieren wollen.

Gast
2009-11-03, 11:32:17
Muss man für eine zus. PhysX-Geforce ein SLI-Board haben?
Ich denke nicht, oder irre ich mich da.

Nightspider
2009-11-03, 15:08:06
Bei Fermi sollte es prinzipiell deutlich besser funktionieren Physik und Grafik auf einer GPU nebeneinander laufen zu lassen.

Wegen der 50% höheren Bandbreite und der geschätzten Performance-Verdopplung oder wegen Architektur-Verbesserungen?

aths
2009-11-03, 15:11:23
Das weiß ich jetzt ehrlich gesagt nicht, ob einfach ein zweiter mechanisch als 16x ausgeführter PCI-Express-Slot reicht. (Aber auch das bietet nicht jedes Motherboard.)

Coda
2009-11-03, 15:17:38
Wegen der 50% höheren Bandbreite und der geschätzten Performance-Verdopplung oder wegen Architektur-Verbesserungen?
Wohl weil das Ding mehrere Contexts gleichzeitig ausführen kann.

Raff
2009-11-03, 15:30:42
Das weiß ich jetzt ehrlich gesagt nicht, ob einfach ein zweiter mechanisch als 16x ausgeführter PCI-Express-Slot reicht. (Aber auch das bietet nicht jedes Motherboard.)

Da reicht ein Brett, das einen zweiten PCIe-Slot hat – nFörcer braucht's nicht (kein SLI benötigt).

MfG,
Raff

mapel110
2010-02-08, 10:16:00
http://www.xbitlabs.com/articles/video/display/evga-gtx275-coop-physx.html
Ausführliches Review

dllfreak2001
2010-02-08, 11:31:35
Fazit aus dem Test:

Die Karte ist zwar ineressant, aber mit einer kleinen separaten NV zu seiner Fetten kommt man besser weg und sollte auch im Preis günstiger bleiben.

Mmmh, diese Entwicklung zeigt aber, dass der Markt für dedizierte Physik-Beschleuniger/Stream-Prozessoren nicht tot ist. Würde NV eine reine Cuda-CPU bringen, ohne den Grafikkartenbalast wie DVI und Ramdac bringen... aber das ist ja Fantasie! ;D

Ich würde mir so eine Karte wahrscheinlich einbauen, aber nur wenn ich die auch mal mit einer Konkurenzkarte nutzen könnte.
Aber Nvidia will ja seine agressive Angrifsstrategie nicht ablegen und PhysX stattdessen zu Marktverzerrung nutzen, Schade.

Gast
2010-02-08, 12:23:49
ürde NV eine reine Cuda-CPU bringen, ohne den Grafikkartenbalast wie DVI und Ramdac bringen... aber das ist ja Fantasie! ;D

Sowas? http://www.nvidia.com/object/product_tesla_c1060_us.html

Spasstiger
2010-02-08, 13:09:01
Imo ist dieses Review ein Armutszeugnis für die GTX 275 Coop Edition. Nicht nur, dass der GT200b-Chip niedriger taktet als bei einer Referenz-GTX-275, auch die PhysX-Leistung lässt teils stark zu wünschen übrig. Auf dem X58-Board ist die GTX 275 + eine GT 220 (48 SPs) in Cryostasis deutlich schneller als die GTX 275 Coop Edition mit der integrierten GTS 250 (128 SPs).
Hier in 1680x1050 mit 4xAA und 16:1 AF:

GTX 275 + GT 220: min. 37 fps, avg. 52,3 fps
GTX 275 Coop Edition: min. 21 fps, avg. 43,5 fps
GTX 275 Single: min. 17 fps, avg. 31,6 fps

Gerade bei den wichtigen min. fps gewinnt man erschreckend wenig mit der GTX 275 Coop Edition gegenüber einer einzelnen GTX 275. Evtl. sind die 16-PCIe-Lanes zu wenig, um den GT200b und den G92b gleichzeitig zu füttern.
Bei Batman siehts besser aus für die GTX 275 Coop Edition, hier kann sie sich gegenüber den anderen Lösungen durchsetzen mit bis zu 30% Vorteil bei den min. fps.
Interessant wäre noch ein Test auf einer Mainstream-Plattform, z.B. einem Board mit Intel-P45- oder AMD-785G-Chipsatz.

Einen erfreulichen Punkt an der GTX 275 Coop Edition kann ich aber noch finden: Der Stromverbrauch bei Non-PhysX-Spielen ist nicht höher als bei einer regulären GTX 275. Offenbar sind die Einsparungen durch Takt- und Spannungssenkungen beim GT200b so groß, dass der zusätzliche idle-Verbrauch des G92b kompensiert wird.

dllfreak2001
2010-02-10, 00:18:51
Sowas? http://www.nvidia.com/object/product_tesla_c1060_us.html

zu teuer
zu fett
zuviel Hitze

mehr etwas Kleineres und nicht einfach nur einen Grafikprozessor auf eine Karte klatschen. Lieber ein optimierter Streamprozessor der nur für GPGPU-Sachen optimiert ist und garkeinen Balast aus dem Grafiksektor mit sich trägt.