PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

LovesuckZ
2009-09-16, 12:19:44
Fertigungsprozesse werden nicht auf Chips optimiert, sondern allgemein verbessert. Yieldverbesserungen erfolgen aufgrund Änderungen am Chip durch Respins. TSMC ist Anbieter der Fertigung und hat unterschiedliche Kunden, die können nicht Teile der Fertigung für jeden einzelnen einrichten. Sie geben Richtlinien vor, wie Chips zu designen sind und wie Yieldverbesserungen ermöglicht werden. Daran man man sich als Kunde halten. Wenn man sich nicht daran hälft, bezahlt man die kompletten Kosten von TSMC und dann kann man auch selbst Fabs hinstellen. Das finanzielle Risiko bleibt dann im selben Haus.

Gast_mboeller
2009-09-16, 12:32:08
aaronspink auf Beyond3D:


Chalnoth: As their design would be based upon TSMC's libraries, just like ATI's is, ATI would be having the same problems.

That's an assumption without a basis. You are assuming that both ATI and Nvidia use only the standard cells from TSMC, they use the same standard cells from TSMC, and they use the same subset of the standard cells, they have exactly the same metal stack strategy, the same clock grid strategy, use the same P&R, etc.

I would be shocked if neither Nvidia nor ATI used customs cells as part of their designs, I would be shocked if they didn't do their own analog, etc. Just because people use the same fab doesn't mean they are doing a turnkey design. While some random company may use the TSMC turnkey flow, it is highly unlikely that either Nvidia or ATI do.

This doesn't even get into things like stepper strategies: is the ATI die done as 1 die per step or 2? certainly nvidia is 1 die per step with their rumored die size. If they are both one step, then the outer edges of the nvidia exposure has more physical complications, etc. There are after all real physics issue behind things like reticule limits. Intra-reticule/die variations have been an issue for quite some time as well and scale with reticule/die size.


Ergo, selbst wenn AMD die besten Yields der Welt hat, kann gleichzeitig Nvidia die schlechtesten haben.

Ailuros
2009-09-16, 12:44:02
aaronspink auf Beyond3D:



Ergo, selbst wenn AMD die besten Yields der Welt hat, kann gleichzeitig Nvidia die schlechtesten haben.

Nein. http://forum.beyond3d.com/showpost.php?p=1335737&postcount=2230

LovesuckZ
2009-09-16, 13:12:36
Das tollste an Fuad ist, der gibt irgendwie ein Gegenpol zu Charlie ab:
Nvidia confident that GT300 wins over 5870 (http://www.fudzilla.com/content/view/15535/1/)


Since GT300 has its GX2 brother they should not fear much against Radeon 5870 X2 whenever that comes out, as if Nvidia wins a single chip battle, they can win the dual one as well.

The launch as far as we know is still slated for late November and hasn’t been confirmed.

Ailuros
2009-09-16, 13:16:39
Das tollste an Fuad ist, der gibt irgendwie ein Gegenpol zu Charlie ab:
Nvidia confident that GT300 wins over 5870 (http://www.fudzilla.com/content/view/15535/1/)

Vordiktiert von jemand der tatsaechlich der Gegenpol zu Charlie ist aber nicht unbedingt eine bessere Glaubwuerdigkeit hat. Dass es noch kein festes Datum gibt wird ja auch im obrigen newsblurb erwaehnt was Du aber wohl mit Absicht uebersehen willst.

LovesuckZ
2009-09-16, 13:17:51
Dass es noch kein festes Datum gibt wird ja auch im obrigen newsblurb erwaehnt was Du aber wohl mit Absicht uebersehen willst.

Ich hab es sogar zitiert. :biggrin:

Ailuros
2009-09-16, 13:24:59
Ich hab es sogar zitiert. :biggrin:

Kein Zweifel; nur beweisst es dass die Wahrheit irgendwo zwischendrin liegt.

LovesuckZ
2009-09-16, 13:28:41
Ich hab mich dazu nicht geäußert, da ich nichts weiß. Weder Charlie noch Fuad werden wissende Quellen über einen möglichen Launch haben. Charlie spekuliert Q2 und Fuad eben November. Mal sehen, wer näher dran sein wird.

Gast
2009-09-16, 13:31:00
[..]sehr hohe ALU Frequenzen und eine verdammt komplizierte Frequenzverwaltung insgesamt [..]

Um nochmal darauf zurückzukommen: Es liegt also nicht direkt an der ja angeblich zwischen GT200 & GT200b liegenden Die-Size, sondern eher an den hohen target clockspeeds bzw den Leckströmen? Und Frequenzverwaltung klingt für mich entweder nach a) ausgefeiltere Stromsparmodi oder b) ner Art "Turbomode" a la Lynnfield.. bei XS dementiert BenchZowner btw Charlies Newsblurb/crap

Ailuros
2009-09-16, 13:31:11
Ich hab mich dazu nicht geäußert, da ich nichts weiß. Weder Charlie noch Fuad werden wissende Quellen über einen möglichen Launch haben. Charlie spekuliert Q2 und Fuad eben November. Mal sehen, wer näher dran sein wird.

Was ist Dir wichtiger eine einfache Ankuendigung oder Verfuegbarkeit? Wenn's das zweite sein sollte gilt mein voriger Post.

Uebrigens ein schnellerer Treiber ist unterwegs. Erste Reaktion.

Ailuros
2009-09-16, 13:33:28
Um nochmal darauf zurückzukommen: Es liegt also nicht direkt an der ja angeblich zwischen GT200 & GT200b liegenden Die-Size, sondern eher an den hohen target clockspeeds bzw den Leckströmen? Und Frequenzverwaltung klingt für mich entweder nach a) ausgefeiltere Stromsparmodi oder b) ner Art "Turbomode" a la Lynnfield.. bei XS dementiert BenchZowner btw Charlies Newsblurb/crap

Weder/noch; sind die hohen ALU Frequenzen seit G80 zu einem gesunden Anteil Handarbeit oder nicht? Je problematischer ein Herstellungsprozess desto komplizierter das Zeug richtig hinzubekommen; noch radikaler wird es wenn man womoeglich noch mehr clock domains diesmal hat.

LovesuckZ
2009-09-16, 13:36:28
Was ist Dir wichtiger eine einfache Ankuendigung oder Verfuegbarkeit? Wenn's das zweite sein sollte gilt mein voriger Post.


Wenn sie im Februar liefern können, dann können sie gerne im November ihren Paper-Launch bringen. :freak:
Verfügbarkeit - Paper-Launches sind nervig und dumm.

Ailuros
2009-09-16, 13:39:15
Wenn sie im Februar liefern können, dann können sie gerne im November ihren Paper-Launch bringen. :freak:
Verfügbarkeit - Paper-Launches sind nervig und dumm.

Und wenn nicht?

LovesuckZ
2009-09-16, 13:41:45
Und wenn nicht?

Mich tendierts bis Februar nur sekundär - ich hab andere Probleme als Grafikkarten.
Ein Paper-Launch gehört immer kritisiert. Nichts ist nerviger und dämlicher als solch ein kundenfeindliches Verhalten.

Ailuros
2009-09-16, 13:45:22
Mich tendierts bis Februar nur sekundär - ich hab andere Probleme als Grafikkarten.
Ein Paper-Launch gehört immer kritisiert. Nichts ist nerviger und dämlicher als solch ein kundenfeindliches Verhalten.

Och persoenlich passt es mir auch da ich nichts vor Fruehling kaufen kann; das hat aber nichts mit dem Thema zu tun. Wenn Partner immmer noch keine samples jetzt haben dann ist selbst Februar fuer eine wirklich breite Verfuegbarkeit optimistisch. Vor dem Ende des Monats werden wir genaueres ueber die Architektur erstmal haben ;)

LovesuckZ
2009-09-16, 13:51:28
Wenn Partner immmer noch keine samples jetzt haben dann ist selbst Februar fuer eine wirklich breite Verfuegbarkeit optimistisch.

Also Partner wie Asus, Gigabyte und Konsorten brauchen doch keine Samples. Die bekommen die Karten am Start komplett von nVidia, kleben ihre Aufkleber rauf, packen sie in Kartons mit unmöglichen Motiven und verschicken es weltweit. Da sehe ich kein Problem.
Beim Dev-Support sieht es dagegen schon anders aus, aber das ist glaube auch nur ein kleines Problem - jedenfalls nicht so schlimm, wie keine Karten bis Q2 zu haben.

YfOrU
2009-09-16, 13:57:29
Trotzdem müssen ein oder zwei Partnerfirmen die Karten fertigen. Sonst hat Nvidia keine zum verschicken ;)

Ailuros
2009-09-16, 14:04:12
Trotzdem müssen ein oder zwei Partnerfirmen die Karten fertigen. Sonst hat Nvidia keine zum verschicken ;)

Genau.

LovesuckZ
2009-09-16, 14:05:47
Trotzdem müssen ein oder zwei Partnerfirmen die Karten fertigen. Sonst hat Nvidia keine zum verschicken ;)

Sie brauchten vorher erstmal verwendbare Chips :biggrin:
Samples gehen an die Boardfertiger, um alles für die Massenproduktionsvorzubereiten. Das ist zeitlich nicht die Welt. Und selbst wenn der Markt tröpfchenweise mit Karten beliefert wird - man hat wenigsten welche auf ihm. Der Preis wird dann durch die Nachfrage geregelt.

Ailuros
2009-09-16, 14:08:58
Der Preis wird dann durch die Nachfrage geregelt.

Und was passiert normalerweise wenn die Nachfrage um einiges hoeher ist als die Verfuegbarkeit?

LovesuckZ
2009-09-16, 14:13:41
Und was passiert normalerweise wenn die Nachfrage um einiges hoeher ist als die Verfuegbarkeit?

Wir müssen aber berücksichtigen, dass diesmal sehr viel Konkurrenz auf dem Markt ist. Es wird kaum eine Auswirkung aufgrund geringer Liefermenge entstehen, außer die Menge ist so groß wie bei der 7900GTX 512. Ansonsten denke ich, dass der Markt sich zwischen nVidia und AMD zu AMD's Gunsten aufteilen und eine Entspannung bei der Nachfrage des GT300 eintreten werde, wenn nVidia etwas lieferbares in diesem Jahr bringen würde.

AnarchX
2009-09-16, 14:24:36
GT300 = 452mm²? (http://www.itocp.com/bbs/thread-37470-1-1.html)

mapel110
2009-09-16, 14:26:28
GT300 = 452mm²? (http://www.itocp.com/bbs/thread-37470-1-1.html)
Dann sollten es logischerweise mehr als 2.4 Milliarden Transistoren sein. :uponder:

Ailuros
2009-09-16, 14:30:00
Dann sollten es logischerweise mehr als 2.4 Milliarden Transistoren sein. :uponder:

Wieso? Die ersten Geruechte sprachen von 495mm2 und 2.4B Transistoren. Die moeglichen Messunterschiede sind mir im Grund gleichgueltig. Wir haben also einen weiteren Gummi-superelastischen chip der zwischen 452 und 533mm2 rangiert ;D

mapel110
2009-09-16, 14:34:55
Mit anderen Worten, die wahre Größe des Chips ist noch gar nicht bekannt bzw. korrekt erraten worden.

Gast_mboeller
2009-09-16, 14:36:55
Nein. http://forum.beyond3d.com/showpost.php?p=1335737&postcount=2230


Sorry Ailuros,

aber Aaronspink ist mir als Quelle wesentlich lieber als Chalnoth. Der weiß wenigstens von was er spricht. :)

Ailuros
2009-09-16, 14:43:10
Sorry Ailuros,

aber Aaronspink ist mir als Quelle wesentlich lieber als Chalnoth. Der weiß wenigstens von was er spricht. :)

Wo arbeitet denn aaronspink nochmal? Und ich hab Chalnoth auch nur zitiert weil er einen ziemlich legitime Aussage machte die sich zufaelligerweise mit der eines echten D12 engineers deckt.

Mit anderen Worten, die wahre Größe des Chips ist noch gar nicht bekannt bzw. korrekt erraten worden.

D12U ist kleiner als GT200b; wurde von Anfang an erwaehnt. Frag mich bloss nicht wie man auf die 495 kam.

Gast_mboeller
2009-09-16, 15:10:25
Wo arbeitet denn aaronspink nochmal?.

Keine Ahnung wo er jetzt genau arbeitet.
Früher soweit ich mich erinnere arbeitete er bei ATi. Jetzt, glaube ich arbeitet er bei ARM nachdem diese Falanx übernommen haben. Aber, wie gesagt, ich bin mir nicht sicher.

Gast_mboeller
2009-09-16, 15:13:52
Nachtrag:

Und ich hab Chalnoth auch nur zitiert weil er einen ziemlich legitime Aussage machte die sich zufaelligerweise mit der eines echten D12 engineers deckt.


Ich glaube kaum, das die "highspeed" ALUs der Nvidia-GPUs normale TSMC Libraries benutzen. Die ALUs basieren bestimmt auf Custom Libraries oder gar Custom-design von Nvidia.

Gast
2009-09-16, 15:35:21
RV740 anyone?
http://geizhals.at/eu/?cat=gra16_512&sort=artikel&bpmax=&asuch=&v=l&pixonoff=on&xf=891_Radeon+HD+4770


jo und NV hat ja noch keine 40nm GPUs ausgeliefert oder was? sage nur G21x

die ganzen 40nm "probleme" gibt es doch nicht, jedenfalls nicht bei AMD! der prozess ist recht neu und sicher nicht ganz einfach...

Ich meine der RV870 spricht bei den Technischen Daten eine ganz klare sprache gegenüber dem RV790! da hat man locker über 100% mehr leistung bei selben verbrach rausgehohlt, was will man den noch mehr???

Ailuros
2009-09-16, 15:36:59
AMD afaik und die Handarbeit fuer die ALU Frequenzen machen nie und nimmer einen 10-fachen Unterschied in yields aus. Die ALUs nehmen zwar mehr DIE AREA bei NVIDIA ein aber es sind auch maximal 512@1600MHz+ Handarbeit vs. 1600@850MHz.

Bei Falanx arbeitet arjan und hat nichts mit aaron zu tun.

Gast
2009-09-16, 16:02:51
wenn aber nV beispielsweise kein cmos sonder ccmos oder andere dynamische Techniken verwendet in den pipilines in den alus... solche schaltungstechniken sind um ein vielfaches empfindlicher bezüglich schwankungen der transistorparameter als (statisch stabiles komplementäres) cmos. wenn im ggsatz dazu atiamd cmos nimmt und damit zB stark fluktuierende transenschwankungen passabel abfangen kann, dann wäre eine spekulative situation von weniger als 2% yield durchaus möglich.
eine andere baustelle sind die analogschaltungen im chip... zB die pll's die aus einem niedrigen basistakt die höheren takte für die unterschiedlichen domains generieren... wenn die mit beispielsweise nicht nur über den wafer sondern auch punktuell schwankenden transistorparamerten nicht zurechtkommen... alles denkbar.
der viieeel höhere alu-takt von nV seit G80 spricht in jd fall dafür, daß nV deutlich ausgrprägteres/aggressiveres fullcustom macht als ati, was bei dem offenbar schwierigen 40nm prozeß dann genau den katastrophenyield verursachen kann.
konsequenz wäre, daß das gesamte g3xx design für die katz wär, denn 32/28nm wird sicher ned besser werden. dann wäre ein launch des gt212 durchaus glaubhaft, denn wenn der mit zB 384 shadern schon vorm tapeout war, dann könnte der in 6 monaten als fertiges produkt da sein und dürfte leistungsmäßig auch noch mitm rv870 konkurrieren können...

just my speculations... ;-)

mboeller
2009-09-16, 16:10:49
AMD afaik. Bei Falanx arbeitet arjan und hat nichts mit aaron zu tun.

OK, dann habe ich die beiden verwechselt.


und die Handarbeit fuer die ALU Frequenzen machen nie und nimmer einen 10-fachen Unterschied in yields aus. Die ALUs nehmen zwar mehr DIE AREA bei NVIDIA ein aber es sind auch maximal 512@1600MHz+ Handarbeit vs. 1600@850MHz.


Auf einen 10-fachen Unterscheid wollte ich auch gar nicht anspielen. Nur darauf, das der eine Hersteller durch sein Design wesentlich weniger Probleme bekommen kann als der andere bei gleichem Prozess (siehe Diskussion auf der anderen Seite dazu).

Ich glaube aber kaum, das du die Yield-Probleme an der Die-Fläche einzelner Features festmachen kannst. AMD designed wahrscheinlich im ersten Ansatz nur 1 ALU und "kopiert" diese dann "einfach" 1600x. Nvidia macht das gleiche mit 512 ALUs.

Die Yield-Probleme können auch mit den hohen Leckströmen zusammenhängen die beim 40nm Prozess ja angeblich so große Probleme machen. Durch die ALU's mit 1600MHz oder gar mehr hat Nvidia hier wahrscheinlich wesentlich größere Probleme als AMD mit seinen 850MHz. Das ganze geht, wie man bei den CPUs schön sieht nicht linear mit der Frequenz sondern wahrscheinlich cubisch oder sogar noch schlechter. Also bei doppelter Geschwindigkeit 4fach schlechter (oder so ähnlich).

Gipsel
2009-09-16, 16:14:10
die Handarbeit fuer die ALU Frequenzen machen nie und nimmer einen 10-fachen Unterschied in yields aus. Die ALUs nehmen zwar mehr DIE AREA bei NVIDIA ein aber es sind auch maximal 512@1600MHz+ Handarbeit vs. 1600@850MHz.
Man baut eine ALU und die wird dann dupliziert ;)
Bei den ATIs muß man allerdings nicht nur einen einzelne ALU designen, da die in so einer VLIW-Gruppe doch recht eng verknüpft sind.

Aber zum eigentlichen Thema, ganz allgemein wird Yield vom Prozeß sowie vom Design bestimmt. Dabei ist es eine Binsenweisheit, daß insbesondere bei einem problematischem Prozeß das Design darüber entscheiden kann, ob es wirklich überhaupt nicht funktioniert, oder ob die yields akzeptabel sind.

Im speziellen Fall von GT300 kann ich es mir aber kaum vorstellen, daß nv das Ganze so in den Sand gesetzt haben soll. Man arbeitet ja bei sowas nicht im luftleeren Raum, sondern mit den Leuten von der Foundry zusammen, man hat Daten von Testchips, die die relevanten Parameter des Prozesses charakterisieren usw. Also man kann sich dann immer noch etwas vertuen, wenn es um die Skalierung auf einen großen Chip geht. Das sollte dann aber kein Hoffen mehr sein, daß man von einem Wafer überhaupt einen funktionierenden Chip bekommt. Wenn das so wäre, hätte man schon im Vorfeld wirklich versagt.

Gipsel
2009-09-16, 16:18:38
der viieeel höhere alu-takt von nV seit G80 spricht in jd fall dafür, daß nV deutlich ausgrprägteres/aggressiveres fullcustom macht als ati,Also zumindest bisher haben nvidias ALUs eine viel längere Pipeline (knapp 3 mal so viele Stufen). Nv kann damit prinzipiell eigentlich sogar weniger aggressiv herangehen, da sie weniger als den doppelten ALU-Takt fahren. Und die TMUs takten bisher ja auch deutlich niedriger.

huch
2009-09-16, 16:33:23
zum g80 wurde seinerzeit berichtet, daß nV darin erstmalig fullcustom-design in den alus genutzt hat, während ati im r600 noch standardzellen nutzte - und der rv870 stammt ja in direkter linie vom damaligen design ab.
die instruktionen und deren format und entsprechend der basistakt sind bei nV und ATI ja nicht sooo unterschiedlich. die pipeline zu verlängern rein zur taktsteigerung allein ist ja auch käse, da damit sowohl der flächenbedarf als auch latenzen und branch-kosten hochgehn. macht nur sinn, wenn man dabei vorteile hat - bei fullcustom die deutlich niedrige gatterlaufzeit bei gleichzeitig theoretisch niedrigerer stromaufnahme - um den preis eines viel aufwändigeren und viel mehr von den prozeßparametern abhängigen designs.

klar gibbts testchips, die die parameter liefern, aber für das in dynamischen schaltungen relevante "analog"verhalten tief in großen schaltungen sowie die ganzen quereffekte beim bulkprozeß während starker lastwechsel gibbts nunmal keine testschaltungen.

reicht ja auch, wenn nV ihr taktziel nur um zB 30% verfehlen und dann mit dem rv870 nimmer konkurrieren können - weniger performance bei höheren boardkosten (512bit speicher) machen als produkt keinen sinn; würde keiner mehr kaufen außer fanboys...


aber damit is nu auch mal gut von meiner seite. thx@all für diesen informativen fred & schönen abend!

huch :-)

reunion
2009-09-16, 16:40:59
Was die schlechten Yields von Charly betrifft hat übrigens Kyle von [H] das gleiche vernommen:

FWIW, I heard very similar information from two other sources recently.


http://www.hardforum.com/showpost.php?p=1034622662&postcount=36

Gast
2009-09-16, 16:45:44
http://www.hartware.de/news_47633.html

G!ZMo
2009-09-16, 16:53:01
http://www.hartware.de/news_47633.html
schön wie sie wieder alle voneinander abschreiben.... bei winfuture gibts auch ne news dazu :D

HOT
2009-09-16, 17:00:49
Ugh hat der G300 jetzt erst sein Tapeout hinter sich?! Die "Nachrichten" schreien ja gradezu danach... Na dann kanns ja noch dauern...

LovesuckZ
2009-09-16, 17:04:45
schön wie sie wieder alle voneinander abschreiben.... bei winfuture gibts auch ne news dazu :D

Wie - schreibt winfutre von hardware.de ab? :freak:

G!ZMo
2009-09-16, 17:09:05
Wie - schreibt winfutre von hardware.de ab? :freak:
ka, aber irgendwie schreiben sie alle von unserem geliebten nvidia-hasser ab :p

aylano
2009-09-16, 17:23:12
Kann es sein, dass das 4x8-Cluster die Probleme massiv mitverschlechtern?

Beim GT200 änderte sich das Shader-Cluster von 2x8 (G80) auf 3x8.
Seitdem hatte der GT200 sowie GT200b Zeitliche Verzögerungen, sowie konnten sie ihren planmäßigen Shader-Takt nicht erreichen. Zufall?
Mit GT300 wird das Shader-Cluster auf 4x8 erweitert und der Cluster zusätzlich durch MIMD-ähnlichen Arbeiten noch komplizierter.

Bei einem ATI-Interview wurde mal von einem ATI-Ingenieur (oder sonst wer) berichtet, sie können mittlerweile die zukünftigen "gewünschen" Taktraten ziemlich gut einschätzen & erreichen.

Mich wunderte schon länger, dass Nvidia es 2 mal nicht schaffte trotz vielen Respins und daher der Gedanke, ob die 2x8 --> 3x8 und spätere 4x8-Shader-Cluster-Steigerung sich problematisch auf den Shader-Takt auswirkt.

Was meint ihr dazu?

Das ganze geht, wie man bei den CPUs schön sieht nicht linear mit der Frequenz sondern wahrscheinlich cubisch oder sogar noch schlechter. Also bei doppelter Geschwindigkeit 4fach schlechter (oder so ähnlich).
Meistens wirkt sich die Geschwindigkeit zum Quadrat aus. Vorallem, wenn es um Energie geht.
Intel ist ja mit ihrem Netburst-Design & hohen Geschwindigkeiten ja auch auf dem Falschen Pfad gewesen.

Gipsel
2009-09-16, 17:40:39
zum g80 wurde seinerzeit berichtet, daß nV darin erstmalig fullcustom-design in den alus genutzt hat, während ati im r600 noch standardzellen nutzte - und der rv870 stammt ja in direkter linie vom damaligen design ab.
Aber frage Dich mal, wie ATI beim RV770 im gleichen Prozeß die ALUs auf ~60% der Größe schrumpfen konnte, bei gleichzeitig mehr Fähigkeiten der ALUs ;)

die instruktionen und deren format und entsprechend der basistakt sind bei nV und ATI ja nicht sooo unterschiedlich.
??? Was soll denn das heißen? Auf Hardwareebene sind die fundamental unterschiedlich!
die pipeline zu verlängern rein zur taktsteigerung allein ist ja auch käse, da damit sowohl der flächenbedarf als auch latenzen und branch-kosten hochgehn.
Wie weit man in die Richtung eines Speedracer-Designs geht, ist immer ein Kompromiß.
Beim Flächenbedarf hast Du vollkommen recht, aber schau Dir den doch mal bei nv an! Ich habe so dunkel in Erinnerung, daß der erheblich größer als z.B. bei ATI ist ;)

Latenzen spielen für solche Designentscheidungen beim massiv parallelen Workload für den GPUs konstruiert sind einfach keine große Rolle. Man maskiert das einfach mit einer Art simplem Multithreading. Auf einer GT200 müssen pro ALU mindestens 24 "Threads" laufen damit die ALU-Latenzen versteckt werden können. Wie lang ist dann wohl die Pipeline?

Und die Branchkosten, nunja, logisch gesehen haben alle Instruktionen eine Latenz von nur einem Takt (wegen Multithreading), wenn man die Pipelines also schön gefüllt hält, spielt das wirklich überhaupt keine Rolle. Die Branchkosten bei GPUs werden durrch ganz andere Sachen bestimmt (z.B. die Granularität).
macht nur sinn, wenn man dabei vorteile hat
Weniger ALUs müssen vom Scheduler verwaltet werden? ATI macht mit den VLIW-Einheiten ja etwas, was den gleichen Effekt auf andere Weise erreicht.

igg
2009-09-16, 17:56:00
Wenn nun selbst Ailuros Massenverfügbarkeit im Februar erwartet ist die K*cke wohl wirklich am dampfen ;)

tombman
2009-09-16, 17:59:59
Das tollste an Fuad ist, der gibt irgendwie ein Gegenpol zu Charlie ab:
Nvidia confident that GT300 wins over 5870 (http://www.fudzilla.com/content/view/15535/1/)
Na das hört sich doch gut an :)
Vorallem, daß es ein komplett neues Design sein soll, macht Hoffnung :up:

Gast
2009-09-16, 18:07:33
Jo mal abwarten, neue frische Rops, die evtl. gut für 8xAA befeuern können (wers brauch...) und dick Rohleistung für schönes SSAA ;)
Man kann nur gespannt sein, was diese Gen, die ja nur ein halber? Sprung ist so mit sich bringen wird.

Coda
2009-09-16, 18:26:12
Kann es sein, dass das 4x8-Cluster die Probleme massiv mitverschlechtern?
Nö. Kann man eigentlich keinen kausalen Zusammenhang herstellen.

Intel ist ja mit ihrem Netburst-Design & hohen Geschwindigkeiten ja auch auf dem Falschen Pfad gewesen.
Das stimmt nicht. Der Takt spielt linear rein (sogar weniger als linear, wenn man die Leckströme reinrechnet), die Spannung quadratisch. Und Netburst hatte ganz andere Probleme als den Takt, namentlich Replay.

IBM taktet seine POWER-Prozessoren auch mit sehr hohen Taktraten und bleibt damit sehr gut im Power-Budget. Es kommt völlig auf die Auslegung der Pipeline an.

V2.0
2009-09-16, 18:31:29
Kann es sein, dass das 4x8-Cluster die Probleme massiv mitverschlechtern?

Beim GT200 änderte sich das Shader-Cluster von 2x8 (G80) auf 3x8.
Seitdem hatte der GT200 sowie GT200b Zeitliche Verzögerungen, sowie konnten sie ihren planmäßigen Shader-Takt nicht erreichen. Zufall?
Mit GT300 wird das Shader-Cluster auf 4x8 erweitert und der Cluster zusätzlich durch MIMD-ähnlichen Arbeiten noch komplizierter.

Bei einem ATI-Interview wurde mal von einem ATI-Ingenieur (oder sonst wer) berichtet, sie können mittlerweile die zukünftigen "gewünschen" Taktraten ziemlich gut einschätzen & erreichen.

Mich wunderte schon länger, dass Nvidia es 2 mal nicht schaffte trotz vielen Respins und daher der Gedanke, ob die 2x8 --> 3x8 und spätere 4x8-Shader-Cluster-Steigerung sich problematisch auf den Shader-Takt auswirkt.

Was meint ihr dazu?


Meistens wirkt sich die Geschwindigkeit zum Quadrat aus. Vorallem, wenn es um Energie geht.
Intel ist ja mit ihrem Netburst-Design & hohen Geschwindigkeiten ja auch auf dem Falschen Pfad gewesen.

Sieh Dir die NV Chips seit G80 an und denke an Intels Core-Serie, nun kombiniere was beide Besonders im Bereich "Takt" haben.

PS. FUAD hat seine eigene Seite richtig gut getan.

Coda
2009-09-16, 18:33:01
Sieh Dir die NV Chips seit G80 an und denke an Intels Core-Serie, nun kombiniere was beide Besonders im Bereich "Takt" haben.
Hört mit diesen Schwachsinnsvergleichen auf. Da gibt es keinen Zusammenhang.

Eine GPU ist grundlegend anders ausgelegt als eine CPU.

V2.0
2009-09-16, 18:46:10
Es ist kein Vergleich. Die NV GPUs haben Taktdomänen, die Core übertakten lastabhängig.

Johnny Rico
2009-09-16, 18:59:20
WF schreibt seit Tag 1 von jeder Seite ab. Das ist kein flame und OT.

ATI erstarkt durch die NV Probs(die ja auch nur vorgetäuscht sein könnten ;)) hoffentlich.

LovesuckZ
2009-09-16, 19:01:50
Hm, Leute die unbedingt Konkurrenz wollen, müssen dann wohl nächtes Jahr auf nVidia umsteigen. Wir wollen doch nicht, dass ein Teilnehmer mehr als 50% Marktanteile hat, oder? :freak:

reunion
2009-09-16, 19:08:01
Hm, Leute die unbedingt Konkurrenz wollen, müssen dann wohl nächtes Jahr auf nVidia umsteigen. Wir wollen doch nicht, dass ein Teilnehmer mehr als 50% Marktanteile hat, oder? :freak:

AMD ist weit davon entfernt die 2/3 Marktanteil von NV zu erreichen. Da braucht es mehr als vielleicht ein Quartal in welchem man die neue Gen früher am Markt hat. :)

Ailuros
2009-09-16, 19:13:13
Man baut eine ALU und die wird dann dupliziert ;)
Bei den ATIs muß man allerdings nicht nur einen einzelne ALU designen, da die in so einer VLIW-Gruppe doch recht eng verknüpft sind.

Aber zum eigentlichen Thema, ganz allgemein wird Yield vom Prozeß sowie vom Design bestimmt. Dabei ist es eine Binsenweisheit, daß insbesondere bei einem problematischem Prozeß das Design darüber entscheiden kann, ob es wirklich überhaupt nicht funktioniert, oder ob die yields akzeptabel sind.

Im speziellen Fall von GT300 kann ich es mir aber kaum vorstellen, daß nv das Ganze so in den Sand gesetzt haben soll. Man arbeitet ja bei sowas nicht im luftleeren Raum, sondern mit den Leuten von der Foundry zusammen, man hat Daten von Testchips, die die relevanten Parameter des Prozesses charakterisieren usw. Also man kann sich dann immer noch etwas vertuen, wenn es um die Skalierung auf einen großen Chip geht. Das sollte dann aber kein Hoffen mehr sein, daß man von einem Wafer überhaupt einen funktionierenden Chip bekommt. Wenn das so wäre, hätte man schon im Vorfeld wirklich versagt.


Ich glaube ich sollte so langsam ein paar Karten auf den Tisch legen. Zum Anfang haben wir ca. 30% hoehere Chipkomplexitaet als Cypress.

Ailuros
2009-09-16, 19:15:31
Wenn nun selbst Ailuros Massenverfügbarkeit im Februar erwartet ist die K*cke wohl wirklich am dampfen ;)

Unter 3 Monate Unterschied zwischen voller Verfuegbarkeit und voller Verfuegbarkeit.

LovesuckZ
2009-09-16, 19:16:25
AMD ist weit davon entfernt die 2/3 Marktanteil von NV zu erreichen. Da braucht es mehr als vielleicht ein Quartal in welchem man die neue Gen früher am Markt hat. :)

Nunja - jedenfalls hat man es im diskreten Notebookmarkt geschafft. :biggrin:
Bei dem heutigen Wachstum im diskreten Desktopmarkt könnte es im 1Q schon so weit sein. Vielleicht solltest du doch nicht so schnell eine neue Grafikkarte kaufen? :freak:

Ich glaube ich sollte so langsam ein paar Karten auf den Tisch legen. Zum Anfang haben wir ca. 30% hoehere Chipkomplexitaet als Cypress.

Wirklich unter 480mm^2? Das wäre dann kleiner als gedacht und stellt die Frage: Wann kommt nVidia's High-End Chip? :scnr:

Palpatin
2009-09-16, 19:17:15
Mich störts nicht wenn NV bissel später kommt, so wie es ausschaut wird die 5870 ja recht schnell BQ verbessert und verbesserte MultiDisplay Features genau das worauf ich gewartet hab. Als Zuckerl gibts noch DX11 was will man mehr. Mein Plan: Erstmal eine 5870 rein dann GT300 verfügbarkeit abwarten, wenn er alles wegrockt (auch Feature mäsig): umstieg auf GT300. Wenn ich mit ATI zufrieden bin und der Preis erwartungsgemäs dann bei GT300 release fällt halt evtl. anstelle von GT300 ne 2te 5870.

Ailuros
2009-09-16, 19:21:31
Es gibt schlimmeres. Siehe LRB thread.

reunion
2009-09-16, 20:11:55
Nunja - jedenfalls hat man es im diskreten Notebookmarkt geschafft. :biggrin:
Bei dem heutigen Wachstum im diskreten Desktopmarkt könnte es im 1Q schon so weit sein. Vielleicht solltest du doch nicht so schnell eine neue Grafikkarte kaufen? :freak:


Selbst wenn - wenn Gt300 das hält was er verspricht dann hat sich das spätestens ein Quartal später wieder gedreht. So gesehen brauche ich mir da keine Sorgen zu machen. Nichtsdestotrotz werde ich mir ohnehin keine Karte kaufen bevor nicht beide Hersteller alles auf den Tisch gelegt haben.

Wirklich unter 480mm^2? Das wäre dann kleiner als gedacht

Unter Chipkomplexität verstehe ich Transistoren. Das wären dann 2.8Mrd Transistoren.

Ailuros
2009-09-16, 20:18:46
Selbst wenn - wenn Gt300 das hält was er verspricht dann hat sich das spätestens ein Quartal später wieder gedreht. So gesehen brauche ich mir da keine Sorgen zu machen. Nichtsdestotrotz werde ich mir ohnehin keine Karte kaufen bevor nicht beide Hersteller alles auf den Tisch gelegt haben.

Wenn ich mich nicht irre hockst Du sowieso momentan auf einer GF; frag Ihn ob er eine Radeon kaufen wuerde damit es wenigstens lustig wird :P

Unter Chipkomplexität verstehe ich Transistoren. Das wären dann 2.8Mrd Transistoren.

No shit sherlock ;) Ok genug Spass fuer heute ;)

Gipsel
2009-09-17, 03:03:46
Was soll man denn jetzt davon halten?
Nvidia: DirectX11 will not catalyze sales of graphics cards (http://xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html)
Vielmehr seien Sachen wie PhysX und GPGPU viel mehr dazu geeignet, Grafikkartenverkäufe anzuregen:
I think we are the same crossroad with the graphics world: framerate and resolution are nice, but today they are very high and going from 120fps to 125fps is not going to fundamentally change end-user experience. But I think the things that we are doing with Stereo 3D Vision, PhysX, about making the games more immersive, more playable is beyond framerates and resolutions.
Aha!?!

tombman
2009-09-17, 03:26:25
Was soll man denn jetzt davon halten?
Nvidia: DirectX11 will not catalyze sales of graphics cards (http://xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html)
Vielmehr seien Sachen wie PhysX und GPGPU viel mehr dazu geeignet, Grafikkartenverkäufe anzuregen:

Aha!?!
Seite ist down oder hammered :mad: Was stand denn genau dort?

misterh
2009-09-17, 03:44:32
Seite ist down oder hammered :mad: Was stand denn genau dort?

bei mir geht die Seite.

nicht mit down oder hammered

oder geht bei dir jetzt inzwischen?

Nightspider
2009-09-17, 03:49:11
Seite ist down oder hammered :mad: Was stand denn genau dort?

Nvidia Corp. said during a conference for financial analysts that the emergence of next-generation DirectX 11 application programming interface will not drive sales of graphics cards. The firm believes that general purpose computing on graphics processing units (GPGPU) as well as its proprietary tools and emergence of software taking advantage of these technologies will be a better driver for sales of graphics boards than new demanding video games and high-end cards.

DirectX 11 - Not Important
“DirectX 11 by itself is not going be the defining reason to buy a new GPU. It will be one of the reasons. This is why Microsoft is in work with the industry to allow more freedom and more creativity in how you build content, which is always good, and the new features in DirectX 11 are going to allow people to do that. But that no longer is the only reason, we believe, consumers would want to invest in a GPU,” said Mike Hard, vice president of investor relations at Nvidia, at Deutsche Bank Securities Technology Conference on Wednesday.

Nvidia believes that special-purpose software that relies on GPGPU technologies will drive people to upgrade their graphics processing units (GPUs), not advanced visual effects in future video games or increased raw performance of DirectX 11-compliant graphics processors.

“Now, we know, people are doing a lot in the area of video, people are going to do more and more in the area of photography… I think that the things we are doing would allow the GPU to be a co-processor to the CPU and deliver better user experience, better battery life and make that computers little bit more optimized,” added Mr. Hara.

There are several problems for Nvidia, though. While ATI, graphics business unit of Advanced Micro Devices, is about to launch its Radeon HD 5800-series graphics cards that fully support DirectX 11 in the upcoming weeks, Nvidia yet has not disclosed any plans regarding its DX11 GPUs, which means that in the eyes of computer enthusiasts the company is not a technology leader any more.

Moreover, the software that takes advantage of Nvidia’s proprietary CUDA GPGPU technology is, in many cases, incompatible with open-standard OpenCL and DirectCompute 11 (DirectX 11 compute shaders) environments, which are supported by ATI Radeon HD 4000 and 5000 families of graphics processors in addition to Nvidia’s latest chips. Even though Nvidia has advantage in terms of higher amount of installed GeForce GPUs and at least some makers of software will decide to make CUDA software, the majority will settle with industry-standard DirectCompute and OpenCL, which puts all the interested parties – ATI/AMD, Intel, Nvidia, etc. – into the same boat, where there will be no advantage of exclusive software. It is not completely clear why Nvidia is trying to downplay the importance of DirectX 11, DirectCompute 11, technologies that enable next-generation software.

Computing Performance More Important than Graphics Performance
Next-generation graphics processors will naturally not only outperform Nvidia’s and ATI current GeForce GTX 200- and Radeon HD 4000-series lines, but also offer support for future games, something, which is more than likely to catalyze many gamers – who usually buy high-end graphics cards for $300 or more – to upgrade their graphics sub-systems. The new graphics cards will allow to increase resolutions of video gaming and increase the amount of enabled visual effects.

Nvidia believes that in future computing performance will matter much more than graphics performance, which seems to make sense as forthcoming video games will demand a lot of purely computing power to process not only visuals, but also physics and artificial experience. Nevertheless, Nvidia seems to put a lot of hopes onto its proprietary technologies, such as CUDA, Stereo 3D Vision, PhysX and others. This is understandable as the aforementioned technologies allow Nvidia to differentiate itself. However, as all proprietary standards (3dfx Glide is one example), they may not continue to be on the leading edge in the longer term.

“Graphics industry, I think, is on the point that microprocessor industry was several years ago, when AMD made the public confession that frequency does not matter anymore and it is more about performance per watt. I think we are the same crossroad with the graphics world: framerate and resolution are nice, but today they are very high and going from 120fps to 125fps is not going to fundamentally change end-user experience. But I think the things that we are doing with Stereo 3D Vision, PhysX, about making the games more immersive, more playable is beyond framerates and resolutions. Nvidia will show with the next-generation GPUs that the compute side is now becoming more important that the graphics side,” concluded Mr. Hara.

Gast
2009-09-17, 03:51:17
Und was soll da jetzt weltbewegendes rauszulesen sein? Und was hat das mit dem GT300 zu tun?

Gipsel
2009-09-17, 04:44:50
Und was soll da jetzt weltbewegendes rauszulesen sein? Und was hat das mit dem GT300 zu tun?
Daß nv beim Thema DirectX11 nicht "me too" schreit, sondern sagt, für den Endnutzer sei PhysX, GPGPU, Videoencoding usw. sowieso wichtiger als mehr Grafikleistung, weil man davon ja wohl inzwischen genug hätte. 640kB lassen grüßen.

Zum GT300 speziell wurde nur ganz am Ende kurz erwähnt, daß er bei GPGPU neue Maßstäbe setzen wird. Wirklich überzeugend klingt das für mich nicht. Deswegen habe ich ja gefragt, was man davon halten soll.

Wer sich den kompletten Mitschnitt anhören will, den gibt es hier (http://web.servicebureau.net/conf/meta?i=1113127409&c=2343&m=was&u=/w_ccbn.xsl&date_ticker=NVDA).

Gibt da auch ein paar lustige Aussagen auf eine Frage zur "sweet spot" Strategie von AMD/ATI und wie nvidia da reagieren will:
Sie (AMD) sehen sich selber als sehr effizient, sowohl bei der Architektur als auch bei Einführungsterminen, insgesamt als sehr effiziente Grafikfirma. Und ich denke sie machen einen guten Job dabei. Ich denke das Problem ist, daß sie einen ähnlichen Ansatz wie bei ihrer Prozessorsparte verfolgen, nämlich ein wenig billiger, kleiner und effizienter zu sein. Aber das erhöht nicht den Nutzen/Wert des Gesamtsystems. Der fundamentale Unterschied zwischen ihrer und unserer Herangehensweise ist, daß wir in Technologie investieren um den Wert für den Nutzer und das Erlebnis zu verbessern, und das nicht unbedingt zu einem niedrigerem Preis. [...] Gehen Sie auf unsere Website und spielen sie die Trailer von Batman:Arkham Asylum, sehen Sie was wir mit der Physik machen, und stellen sie sich vor, das stereoskopisch [LCD-Shutter-Brille + 120Hz TFT] zu spielen! Das ist eine Erfahrung nach der die Spieler wirklich fragen. Und wenn sie danach fragen, bezahlen sie auch dafür. [..] Wir werden die Definition von Performance ändern. [..] Es geht nicht nur darum, beim Preis zu konkurrieren, sondern auch vergrößerte Einsatzmöglichkeiten für jedermann bereitzustellen. Das ist der eigentliche Grund, zu versuchen den Mainstream-Computing Markt zu revolutionieren. Den revolutioniert man nicht, indem man seine Produkte billiger macht. Das macht man anders, indem man Dinge tun kann, die vorher nicht möglich waren. Und das ist das Ziel von CUDA. ...

Sentionline
2009-09-17, 06:01:36
Ich finde das Featureset von ATi nach wie vor Grütze. Daran wird auch die neue DX11 GPU nix ändern. -.- DX10.1 hat denen auch nix gebracht. Eine Handvoll Spiele, sehr toll. Es entscheidet sowieso der Konsolenmarkt das Grafikgerüst. Man schaue sich GTA4 an. Weder DX10(.1) noch AntiAliasing. Bäh. Dafür aber für den Cell / GeForce 7 optimierte Engine mit brachialer CPU Last. Dann wird es auch noch hochgehyped und bekommt Awards. Ganz großes Kino für die Technikfreaks unter uns.

Ati schafft es nichtmal einen vernünftigen Encoder auf die Beine zu stellen. Havok pushen sie nicht, die Treiberpolitik ist auch so eine Sache für sich. Andere Zitate erspare ich mir...

Ich weiss das die GT300 einschlagen wird wie eine Bombe. Genau wie NV40, G80 und GT200. Ich bete das der Preis nicht zu hoch angesetzt wird, damit auch die kleinen mit dem nicht so dicken Geldbeutel das Nachsehen haben. Wenn sie Mainstream Kunden erreichen wollen, sollte die Karte die 399€ Marke auf keinen Fall überschreiten!

Fazit: Ich freu mich jetzt schon auf die GT300. :smile:

Ailuros
2009-09-17, 06:33:20
Daß nv beim Thema DirectX11 nicht "me too" schreit, sondern sagt, für den Endnutzer sei PhysX, GPGPU, Videoencoding usw. sowieso wichtiger als mehr Grafikleistung, weil man davon ja wohl inzwischen genug hätte. 640kB lassen grüßen.

Zum GT300 speziell wurde nur ganz am Ende kurz erwähnt, daß er bei GPGPU neue Maßstäbe setzen wird. Wirklich überzeugend klingt das für mich nicht. Deswegen habe ich ja gefragt, was man davon halten soll.

Wer sich den kompletten Mitschnitt anhören will, den gibt es hier (http://web.servicebureau.net/conf/meta?i=1113127409&c=2343&m=was&u=/w_ccbn.xsl&date_ticker=NVDA).

Gibt da auch ein paar lustige Aussagen auf eine Frage zur "sweet spot" Strategie von AMD/ATI und wie nvidia da reagieren will:

Einen Job den ich ohne Skrupel nie machen koennte waere PR fuer eine solche Firma. Es gibt da keinen Unterschied fuer mich zwischen einer Luege und die Wahrheit zu seinem Gunsten zu verdrehen.

Dass solches Zeug kommen wird macht mir leider ueberhaupt keinen Eindruck; als ich das letzte Mal mit der PR Abteilung plauderte wurde ich gefragt wie wichtig X11 fuer Spiele in 2009 sein wuerde. Ich antwortete natuerlich dass ich die G80 in 2006 kaufte nicht weil sie X10 kompliant war sondern die schnellste verfuegbare X9 GPU. Wie Du Dir denken kannst wurde kam nie eine Antwort darauf.

Es gibt keine Gerechtfertigung fuer solche PR stunts und das nur weil wenn es anders rum waere wuerden sie ebenso wie AMD sich auf dem X11 Vorteil trommeln und da haette X11 natuerlich eine ganz andere Wichtigkeit. Das dumme ist dass man OEM Hersteller nicht mit diesem Krampf ueberreden kann, zumindest nicht bis zum Zeitpunkt wo NV selber eine komplette X11 Produktlinie verfuegbar hat.

Ailuros
2009-09-17, 06:47:52
Ich finde das Featureset von ATi nach wie vor Grütze. Daran wird auch die neue DX11 GPU nix ändern. -.- DX10.1 hat denen auch nix gebracht. Eine Handvoll Spiele, sehr toll. Es entscheidet sowieso der Konsolenmarkt das Grafikgerüst. Man schaue sich GTA4 an. Weder DX10(.1) noch AntiAliasing. Bäh. Dafür aber für den Cell / GeForce 7 optimierte Engine mit brachialer CPU Last. Dann wird es auch noch hochgehyped und bekommt Awards. Ganz großes Kino für die Technikfreaks unter uns.

Ati schafft es nichtmal einen vernünftigen Encoder auf die Beine zu stellen. Havok pushen sie nicht, die Treiberpolitik ist auch so eine Sache für sich. Andere Zitate erspare ich mir...

Das dumme ist dass AMD konstant versucht die meisten der Kritikpunkte zu beseitigen. Alles geht nicht ueber Nacht aber sie haben in letzter Zeit schon die Aermel hochgekrempelt und sie sind erstmal rechtzeitig schon seit drei Produktfamilien angekommen.

Ausser den Profi-Maerkten und GPGPU wo sich tatsaechlich nichts besonderes geaendert hat bis jetzt, bewegte sich endlich ihre DevRel Abteilung etwas besser, man versuchte selbst den pingeligen Verbrauchern etwas nachzulegen (minimalste AF Winkelabhaengigkeit, FS-SSAA usw.) und ich sehe schon seit geraumer Zeit keine besonderen Kritikpunkte mehr was die Treiber fuer den Normalverbraucher betrifft.

Ich weiss das die GT300 einschlagen wird wie eine Bombe. Genau wie NV40, G80 und GT200. Ich bete das der Preis nicht zu hoch angesetzt wird, damit auch die kleinen mit dem nicht so dicken Geldbeutel das Nachsehen haben. Wenn sie Mainstream Kunden erreichen wollen, sollte die Karte die 399€ Marke auf keinen Fall überschreiten!

Fazit: Ich freu mich jetzt schon auf die GT300. :smile:

Bleibt die Frage wie gross die Bombe ist und wie gross das Loch dass sie einschlagen wird. Wehe wenn es nicht um ein anstaendiges Prozentual schneller ist als Cypress und falls ja wird sich das Ding auch nicht auf dessen MSRP Niveau bewegen. Wenn D12U wirklich seinen Titel als single chip high end GPU ehren will wird er um ein gutes Stueck schneller sein muessen als Cypress und dann wird dieses natuerlich auch einen pfiffigeren Preis haben.

Sobald NV mit einem vergleichbaren Preis wie die 5870 bei der Vorstellung von D12U ankommt wird es nichts gutes heissen was die Leistung betrifft.

Das erstmal macht die ganze Geschichte etwas klarer:

Nvidia will show with the next-generation GPUs that the compute side is now becoming more important that the graphics side.

fdk
2009-09-17, 07:04:21
Ich würde den gt300 nicht wirklich mit dem g80 vergleichen wollen. Der Performancesprung hatte einfach eine ganz andere Qualität. Beim g80 konnte man die Mehrleistung noch direkt in bq/ höhere Auflösung pumpen, beim gt300 wird es so sein das man auf Features angewiesen ist die noch Meilenweit vom Mainstreammarkt entfernt sind und genau wie dx 10, 10.1 und 11 zunächst nur von einer kümmerlichen Handvoll Titel unterstützt werden wird wobei unklar ist wie weit/schnell sich das ganze durchsetzt.(3d-gaming mit extra hw, physx).

Video encoding und ähnliche GPGPU-Anwendungen sind da nur schwache Trostpflaster. Ein Otto-Heimuser konsumiert eben Inhalte und erstellt selbst nur Zeug < [Twitter, Flickr, Youtube]. Photoshop mit komplexen Filtern auf zich MP oder encoden von Massen an HD-Videomaterial ist einfach kein Anwendungsszenario für den typischen GPU-Käufer egal ob Retail oder OEM.

Ailuros
2009-09-17, 07:22:02
Ich würde den gt300 nicht wirklich mit dem g80 vergleichen wollen. Der Performancesprung hatte einfach eine ganz andere Qualität. Beim g80 konnte man die Mehrleistung noch direkt in bq/ höhere Auflösung pumpen, beim gt300 wird es so sein das man auf Features angewiesen ist die noch Meilenweit vom Mainstreammarkt entfernt sind und genau wie dx 10, 10.1 und 11 zunächst nur von einer kümmerlichen Handvoll Titel unterstützt werden wird wobei unklar ist wie weit/schnell sich das ganze durchsetzt.(3d-gaming mit extra hw, physx).

D12U ist theoretisch um so viel schneller als D10U wie man es von einer neuen Generation normalerweise erwartet plus ein relativer Zusatz der Schwaechen vom letzten.

Video encoding und ähnliche GPGPU-Anwendungen sind da nur schwache Trostpflaster. Ein Otto-Heimuser konsumiert eben Inhalte und erstellt selbst nur Zeug < [Twitter, Flickr, Youtube]. Photoshop mit komplexen Filtern auf zich MP oder encoden von Massen an HD-Videomaterial ist einfach kein Anwendungsszenario für den typischen GPU-Käufer egal ob Retail oder OEM.

Photoshop CS4 wird deutlich durch GPUs beschleunigt auf allen =/>SM3.0 GPUs ergo gehoert es wohl nicht direkt zur obrigen Liste. Es ist aber dennoch ein gutes Anzeichen dass Entwickler aufmerksam wurden dass in manchen Stellen es doch sinnvoller ist eine GPGPU auch einzusetzen anstatt sie bloed rumhocken zu lassen. Und dieser Trend wird zunehmen in der Zukunft und bedeutet fuer den Verbraucher auch eine um weit bessere Investition bei einem GPU Kauf.

Tarkin
2009-09-17, 07:32:45
Was soll man denn jetzt davon halten?
Nvidia: DirectX11 will not catalyze sales of graphics cards (http://xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html)
Vielmehr seien Sachen wie PhysX und GPGPU viel mehr dazu geeignet, Grafikkartenverkäufe anzuregen:

Aha!?!

Bei nvidia sind ein paar Sicherungen rausgeflogen wie es aussieht. Das ist die blanke Panik gepaart mit völligem Realitätsverlust... wenn man sich das so anhört, dann bezweifle ich stark, dass

1. die G300 heuer kommt und
2. dieser schneller sein wird wie EIN Cypress.

Die blamieren sich mit solchen Aussagen bis auf die Knochen und werden zum Gespött in sämtlichen Foren. Und es ist ein gefundenen Fressen für die AMD PR Leute... 100%.

nagus
2009-09-17, 07:48:23
"DX11 not important" ääähm ok? ... somit denke ich haben die von sich aus bestätigt, dass wir in naher zukunft GARANTIERT keinen DX11 chip von nvidia zu sehen bekommen werden.

schon lange nicht mehr sowas ultra-peinliches gelesen. da kann man sich nur noch aufs die stirn greifen und den kopf schütteln. das muss man sich mal auf der zunge zergehen lassen: wenn solche aussagen gemacht werden muss das normalerweise vom vorstand abgesegnet werden.... was bedeutet, dass die auf den Chefsesseln bei Nvidia dem zugestimmt haben. :freak:

als nächstes wird dann eine neue runde im "g4saurus rebrandus"-spiel eingeläutet *MEGALOL*

Ailuros
2009-09-17, 07:50:23
2. dieser schneller sein wird wie EIN Cypress.

Schwer moeglich aber ich will Dir Deine Hoffnung ja nicht zerstoeren :cool:

[dzp]Viper
2009-09-17, 07:54:03
Bekannt?

Nvidia: Krise um den GT300?
Chip-Ausbeute liegt aktuell unter 2 %

http://www.hartware.de/news_47633.html

(das ist natürlich nur ein Gerücht...)

Tarkin
2009-09-17, 07:56:34
Schwer moeglich aber ich will Dir Deine Hoffnung ja nicht zerstoeren :cool:

Optimist :biggrin:

nagus
2009-09-17, 08:02:40
Schwer moeglich aber ich will Dir Deine Hoffnung ja nicht zerstoeren :cool:

vielleicht willst du uns aufklären woher du das wissen willst? nach all dem was nvidia jetzt an "panikmeldungen" von sich, glaub ich, dass man grund zur annahme haben kann, dass bei denen was "im argen" liegt ... ansonsten wären wohl kaum solche PR-Stunts "nötig".

frag dich mal was nvidia besser tun könnte, HÄTTEN sie die passende antwort auf Evergreen.

nagus
2009-09-17, 08:04:33
Viper;7537752']Bekannt?

Nvidia: Krise um den GT300?
Chip-Ausbeute liegt aktuell unter 2 %

http://www.hartware.de/news_47633.html

(das ist natürlich nur ein Gerücht...)

schon bekannt...

das passt auch hier rein: (http://forum.beyond3d.com/showpost.php?p=1336084&postcount=1427)

This should belong here: (over from, how will nv counter the HD58xx by Sinistar)

http://web.servicebureau.net/conf/me...te_ticker=NVDA

Best quote hands down:

We've hit our spring and fall schedules like clockwork




*LOL* ja klar... sie sind voll im zeitplan. und elvis lebt auch noch...

Sentionline
2009-09-17, 10:04:15
Das dumme ist dass AMD konstant versucht die meisten der Kritikpunkte zu beseitigen.
Die meisten mit sicherheit nicht. Nur die MSAA Performance. Mehr sehe ich bei meiner HD4850 nicht. Oder hab ich was verpasst? *brilleputz*

Interview mit AMD: Beschleunigung durch ATI Stream (http://www.tomshardware.com/de/ATI-Stream-Interview,testberichte-240364.html)

Auf jede Frage weicht der Herr auf DX11 aus und geht nicht auf aktuelle Hardware ein. Ich hoffe das DX11 AMD aus der aktuellen Situation zieht. Was ich aber sehr bezweifle.

...und ich sehe schon seit geraumer Zeit keine besonderen Kritikpunkte mehr was die Treiber fuer den Normalverbraucher betrifft...
Ich umso mehr. Der Notebookmarkt wird ja soo toll bedient, wofür ich bisher keine (Statistik-)Quellen sichte. Ich sehe ich nur inefiziente Hitzeschleuder (Turion X2 + HD3x). Und hat sich einer mal die Notebooktreiberversorgung angesehen. Ein Horrorfilm. Manches Gerät läuft mit über einem Jahr alten Treibern. Geraume Zeit...da hast du recht. Oder zählen Laptopuser nicht zu den "Normalverbrauchern"?

Kontra Ati:
-HDMI Audioausgabe kostet aber 5% Leistung (http://www.hardware-infos.com/news.php?news=3025)
-Videoqualität des XCode (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_video_converter_benchmarks/)
-hoher Stromverbrauch unter Last wie auch im Leerlauf (http://ht4u.net/reviews/2009/leistungsaufnahme_grafikkarten_games/index4.php) (im Vergleich zur Konkurenz (http://ht4u.net/reviews/2009/leistungsaufnahme_grafikkarten_games/index3.php))
-ATi Tray Tools erkennt nur EXE Dateien in Spieleprofilen an (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=453305&highlight=Ati+Tray+Tools)
-Kein SSAA
-Lieferprobleme mancher Chips (HD4770)
-enorme Mikroruckler bei MultiGPU kombinationen (http://www.pcgameshardware.de/aid,657487/AMD-Noch-keine-Loesung-gegen-Mikroruckler-in-Sicht/Grafikkarte/News/)
-Langsamer Treiber durch CCC
-Crossfire Profile teils nicht vorhanden
-Keine Crossfire funktionalität ohne AI, und somit immer "optimiert"
-Kein Downsampling möglich
-Katastrophale Treiberunterstützung mobiler Grafikchips (http://www.computerbase.de/downloads/treiber/grafikkarten/ati/ati_mobile_catalyst/)
-Bildqualität des AF Filters (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_die_qualitaet_filters/)

Das sind meine Erfahrungen mit meiner Karte und einem Laptop im bekanntenkreis. Welches dieser Punkte kann man ab der HD5x abhaken? Ich denke nicht besonnders viele. Wenn doch, auch nicht schlimm, ich werde schon eines besseren belehrt...

Ailuros
2009-09-17, 10:05:38
vielleicht willst du uns aufklären woher du das wissen willst? nach all dem was nvidia jetzt an "panikmeldungen" von sich, glaub ich, dass man grund zur annahme haben kann, dass bei denen was "im argen" liegt ... ansonsten wären wohl kaum solche PR-Stunts "nötig".

Ich bin weder Dir noch jemand anders eine Aufklaerung schuldig und schon gar nichts wenn es sich um noch vertrauliches Material handelt. Wenn ich etwas weiss dann eben aus dem gleichen Grund wie ich auch vorzeitig AMD Material in den Haenden hatte und nein beweisen muss ich hier auch gar nichts.

Dass die PR stunts beschissen sind wird Dir keiner Verleugnen aber da es so oder so schon seit Monaten danach riechte dass wenn AMD frueher mit Evergreen ankommt als NVIDIA, dass dann die letztere die Bedeutung von X11 absichtlich unterspielen.

Und jegliche solche PR stunts sind beschissen egal von wo genau sie kommen; ob man jetzt SM3.0, DX10.1 oder sogar DX11 versucht herunterzuspielen es ist und bleibt beschissen aber es gilt fuer beide dann auch dass was man nicht hat oder kann keinen Wert hat.

frag dich mal was nvidia besser tun könnte, HÄTTEN sie die passende antwort auf Evergreen.

Ich hab Gott sei Dank nur eine Personalitaet. Es gibt natuerlich eine Antwort aber ich werde damit umgehen wie es mir passt. So und jetzt frag Dich ob Du einen Grund zur Unruhe hast oder ob Du Dich zuruecklehnen kannst und fuer das gesamte naechste Jahr mit Deinem bevorzugtem IHV ausgesorgt hast.

Nakai
2009-09-17, 10:15:45
*LOL* ja klar... sie sind voll im zeitplan. und elvis lebt auch noch...

Und wenn sie doch früher kommen? ;)

An der Realität können wir nichts ändern, wir können nur ändern, wie wir die Realität aufnehmen. Einer IHVs wird ein bisschen unterlegen sein, da haben wir noch genug Zeit auf NV oder ATI einzuhacken.^^


Dass die PR stunts beschissen sind wird Dir keiner Verleugnen aber da es so oder so schon seit Monaten danach riechte dass wenn AMD frueher mit Evergreen ankommt als NVIDIA, dass dann die letztere die Bedeutung von X11 absichtlich unterspielen.


Cypress scheint ja nicht schlecht zu sein. Für NV gibt es nun zwei Möglichkeiten. Man hat nicht die passenden Antworten auf die Konkrrenz oder man hat die passenden Antworten. Bei letzterem stelle ich mir die Frage, wann diese Antworten kommen. Wenn GT300 zu schnell ist, dann wird man wohl kaum einen Cypress-Konkurrent sofort haben. Sieht imo schlecht für NV aus, da wäre es mir lieber wenn sie direkt mit den AMD-Chips nicht konkurrieren wollen.


mfg Nakai

reunion
2009-09-17, 10:19:10
Ich umso mehr. Der Notebookmarkt wird ja soo toll bedient, wofür ich bisher keine (Statistik-)Quellen sichte. Ich sehe ich nur inefiziente Hitzeschleuder (Turion X2 + HD3x). Und hat sich einer mal die Notebooktreiberversorgung angesehen. Ein Horrorfilm. Manches Gerät läuft mit über einem Jahr alten Treibern. Geraume Zeit...da hast du recht. Oder zählen Laptopuser nicht zu den "Normalverbrauchern"?



Ja und die Farbe ist auch grässlich.

Ailuros
2009-09-17, 10:19:29
Die meisten mit sicherheit nicht. Nur die MSAA Performance. Mehr sehe ich bei meiner HD4850 nicht. Oder hab ich was verpasst? *brilleputz*

Interview mit AMD: Beschleunigung durch ATI Stream (http://www.tomshardware.com/de/ATI-Stream-Interview,testberichte-240364.html)

Auf jede Frage weicht der Herr auf DX11 aus und geht nicht auf aktuelle Hardware ein. Ich hoffe das DX11 AMD aus der aktuellen Situation zieht. Was ich aber sehr bezweifle.


Ich umso mehr. Der Notebookmarkt wird ja soo toll bedient, wofür ich bisher keine (Statistik-)Quellen sichte. Ich sehe ich nur inefiziente Hitzeschleuder (Turion X2 + HD3x). Und hat sich einer mal die Notebooktreiberversorgung angesehen. Ein Horrorfilm. Manches Gerät läuft mit über einem Jahr alten Treibern. Geraume Zeit...da hast du recht. Oder zählen Laptopuser nicht zu den "Normalverbrauchern"?



So und jetzt nimm Deine nette kleine Liste im Spoiler und vergleiche mit dem was sich auf Evergreen geaendert hat.

Sentionline
2009-09-17, 10:21:23
Die Erfahrung in der Vergangenheit hat gezeigt das Nvidia mit sicherheit das passende in der Schublade hat, weit vor ATi. Oder glaubt hier jemand das Nvidia nur däumchen gedreht hat in letzter Zeit? Bei den Verkaufszahlen der G92 und GT2x Chips mit sicherheit nicht. So leicht lassen die sich nicht die Wurst vom Teller nehmen. Dafür sind sie eine zu feste Größe in dem Geschäft, mit einiges an Erfahrung.

So und jetzt nimm Deine nette kleine Liste im Spoiler und vergleiche mit dem was sich auf Evergreen geaendert hat.
Nichts der gleichen, von mir aus kann das Ding Goldeier legen. Ich werde nach und nach umsiedeln, weil abgenervt und demnach verärgert. Ich überzeuge sogar andere für das Nvidia Lager, denn da Pro Argumente zu finden ist nicht schwer.

Ailuros
2009-09-17, 10:31:25
Die Erfahrung in der Vergangenheit hat gezeigt das Nvidia mit sicherheit das passende in der Schublade hat, weit vor ATi. Oder glaubt hier jemand das Nvidia nur däumchen gedreht hat in letzter Zeit? Bei den Verkaufszahlen der G92 und GT2x Chips mit sicherheit nicht. So leicht lassen die sich nicht die Wurst vom Teller nehmen. Dafür sind sie eine zu feste Größe in dem Geschäft.

Wer sagt denn ueberhaupt das Gegenteil? Nur ist es eben NICHT so schwarz/weiss wie Du es illustrieren willst dass alles oder das meiste aus AMD's Ecke fuer die Mueltonne ist und NVIDIA nur Diamanten fabriziert. Beide haben ihre Macken, von Perfektion zu reden fuer weder/noch waere eine brutale Uebertreibung und ich sehe keine tragischen Unterschiede was die Treiber betrifft. Es gibt auch etliche GF Benutzer die unendliche Kopfschmerzen mit Treibern haben und es sagt mir ueberhaupt nichts wenn ich nicht weiss was jeder genau installiert hat oder wie er mit dem Ganzen ueberhaupt umgeht.

Ob sie Daeumchen gedreht haben oder nicht steht in meinen Posts gegen die Anbeter der anderen Fraktion. Die Wahrheit liegt Gott sei Dank stets in der Mitte von zwei gegenseitigen extremistischen Ansichtspunkten. Wenn Du jetzt den einen Eck pfosten spielen willst von mir aus.

***edit:

Nichts der gleichen, von mir aus kann das Ding Goldeier legen. Ich werde nach und nach umsiedeln, weil abgenervt und demnach verärgert. Ich überzeuge sogar andere für das Nvidia Lager, denn da Pro Argumente zu finden ist nicht schwer.

Das geht mich wohl auch nichts an. Es wird aber stets ein Gegenwort dafuer geben wenn Du oder die andere Fraktion uebertreiben werdet. Und wenn es Euch zu demokratisch erscheint, kann ich leider auch nicht helfen.

Sentionline
2009-09-17, 10:36:39
Als Messias weichst du aber oft geschickt aus. Fällt aber leider auf...:freak:

LovesuckZ
2009-09-17, 10:37:21
Was soll man denn jetzt davon halten?
Nvidia: DirectX11 will not catalyze sales of graphics cards (http://xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html)
Vielmehr seien Sachen wie PhysX und GPGPU viel mehr dazu geeignet, Grafikkartenverkäufe anzuregen:

Aha!?!

Wann hat nVidia das letzte Mal D3D10 hervorgehoben? Und wieso benötigt AMD Eyefinity? :rolleyes:
nVidia bewirbt seit über einem Jahr ihre "Graphics Plus" Strategie. Das sich viele jetzt aufregen, scheint wohl am Fanboy in ihnen zu liegen.

Ailuros
2009-09-17, 10:50:11
Als Messias weichst du aber oft geschickt aus. Fällt aber leider auf...:freak:

Es gibt keinen Messias und auch keinen Allzweckdeppen der tattaeglich jeglichen Mist von Kindergarten-Zankereien aufraeumen muss. Es geht mir schlicht und einfach auf den Wecker solch kindische und grundlose Kreuzzuege lesen zu muessen. Am Ende des Tages verdienst weder Du, Ich noch jeglicher andere irgend was an der Geschichte.

Falls Du es nicht bemerkt haben solltest sind wir im GT300 und nicht im RV870 Thread. Wenn Du wirklich Lust hast grab meine Aussagen zum letzteren im relevanten Thread aus und Du wirst selber sein wieviele Einzelheiten aus Deiner Liste verschwinden koennte und ich hab lediglich behauptet dass AMD endlich auf die Kritik der vorigen Jahre gehoert hat und ihr bestes getan hat wo immer moeglich einzugreifen.

Ein Kritikpunkt der ungeheim wichtig ist den Du aber mit Absicht uebersehen willst ist dass die execution bei NVIDIA mehr und mehr zum schlechteren neigt seit G92/RV670. Und schlechter lediglich nur weil AMD eine Masche gefunden hat letzenendlich vor NVIDIA anzukommen.

Du kannst mir ja gerne versuchen Objektivitaet beizubringen; ich bin ganz Augen.

V2.0
2009-09-17, 11:06:49
Wann hat nVidia das letzte Mal D3D10 hervorgehoben? Und wieso benötigt AMD Eyefinity? :rolleyes:
nVidia bewirbt seit über einem Jahr ihre "Graphics Plus" Strategie. Das sich viele jetzt aufregen, scheint wohl am Fanboy in ihnen zu liegen.

Das sehe ich ähnlich Eyefinity ist vergleichbar. Man versucht einen Bedarf für neue Grafikkarten zu schaffen, in dem man die Auflösung erhöht. NV versucht das mit PhysiX und GPGPU. Beide stehen nämlich vor dem Problem, dass DX11 alleine kein Aufrüstgrund ist. (wie auch schon Dx10.0 btw) Zusätzlich sind die aktuellen DX10-Karten bei beiden für viele Nutzer einfach schnell genug und werden es noch einige Zeit bleiben.

StefanV
2009-09-17, 12:07:03
Es gibt auch etliche GF Benutzer die unendliche Kopfschmerzen mit Treibern haben und es sagt mir ueberhaupt nichts wenn ich nicht weiss was jeder genau installiert hat oder wie er mit dem Ganzen ueberhaupt umgeht.
Genau, mich zum Beispiel, der eine 9800GTX+ wieder rausgeschmissen hat und durch eine 8800GTS/512 (und später Radeon HD4850) ersetzt hat, weil der Lüfter nachm 3D Mode nicht wieder runter regelt.

Womit ich dir nur zustimmen möchte, das beide genug Leichen im Keller haben und der Unterschied bei beiden nicht soo groß ist, was die Treiber'qualität' betrifft...
Das sehe ich ähnlich Eyefinity ist vergleichbar. Man versucht einen Bedarf für neue Grafikkarten zu schaffen, in dem man die Auflösung erhöht. NV versucht das mit PhysiX und GPGPU. Beide stehen nämlich vor dem Problem, dass DX11 alleine kein Aufrüstgrund ist. (wie auch schon Dx100 btw) Zusätzlich sind die aktuellen DX10-Karten bei beiden für viele Nutzer einfach schnell genug und werden es noch einige Zeit bleiben.
Ich seh das durchaus positiv, weil sich so die 3D Features nicht mehr unterscheiden (können) und man irgend was 'erfinden' muss, um sich vom Konkurenten absetzen zu können.
Muss ehrlich sagen, das es leider erst bei D3D10 der Fall war, das das Featureset fest war...

N0Thing
2009-09-17, 15:25:47
Das sehe ich ähnlich Eyefinity ist vergleichbar. Man versucht einen Bedarf für neue Grafikkarten zu schaffen, in dem man die Auflösung erhöht. NV versucht das mit PhysiX und GPGPU. Beide stehen nämlich vor dem Problem, dass DX11 alleine kein Aufrüstgrund ist. (wie auch schon Dx10.0 btw) Zusätzlich sind die aktuellen DX10-Karten bei beiden für viele Nutzer einfach schnell genug und werden es noch einige Zeit bleiben.

Ja, sehe ich ähnlich
Daß Nvidia DX11 für nicht bedeutend erklärt und AMD das umgekehrt kommuniziert ist vollkommen logisch. AMD will damit potentielle Kunden ansprechen, Nvidia will bis ihre eigenen DX11 Karten auf dem Markt sind den Käufer überzeugen, daß DX11 zur Zeit keinen Vorteil bietet. Bis es keine DX11 Spiele gibt, haben sie damit ja sogar recht. Und bis dahin wären Eyefinity und GPGPU/PhysX mehr "wert", als DX11.

Wenn ich mich recht erinnere war es genau umgekehrt mit der X800 und der Gf6xxx Serie. Nvidia hat Shader Modell 3 angepriesen wie die lang ersehnte Erlösung und AMD hat darauf verwiesen, daß es noch keine Spiele dafür gibt und die erste Generation dafür sowieso zu langsam wär. Oder habe ich das falsch in Erinnerung?

Von daher verhalten sie beide Hersteller so, wie es zu erwarten war, keine Panikhandlungen, keine überraschenden Äußerungen, einfach Marketing von beiden Seiten.

Ailuros
2009-09-17, 15:33:59
Wenn ich mich recht erinnere war es genau umgekehrt mit der X800 und der Gf6xxx Serie. Nvidia hat Shader Modell 3 angepriesen wie die lang ersehnte Erlösung und AMD hat darauf verwiesen, daß es noch keine Spiele dafür gibt und die erste Generation dafür sowieso zu langsam wär. Oder habe ich das falsch in Erinnerung?

Stimmt schon und die insgesamte Zankerei damals war alles andere als nur maessig.

LovesuckZ
2009-09-17, 15:44:19
Ja, sehe ich ähnlich
Daß Nvidia DX11 für nicht bedeutend erklärt[...]

Wo? Ist das Textverständnis heutzutage schon so schlecht, dass man das gesagte nicht richtig aufnehmen kann?
Man sagte, das D3D11 ein Grund für einen Kauf wäre und nicht DER einzige.

“DirectX 11 by itself is not going be the defining reason to buy a new GPU. It will be one of the reasons. This is why Microsoft is in work with the industry to allow more freedom and more creativity in how you build content, which is always good, and the new features in DirectX 11 are going to allow people to do that. But that no longer is the only reason, we believe, consumers would want to invest in a GPU,” said Mike Hard,

Nvidia will show with the next-generation GPUs that the compute side is now becoming more important that the graphics side,” concluded Mr. Hara.

Die Aufregung ist so lächerlich, weil nVidia seit über einem Jahr so redet.
Weißt du, wie nVidia RE5 auf dem PC promotet? Mit Stereo3D und nicht mit D3D10. Ich hab keinen Plan, wann nVidia das letzte Mal D3D10 irgendwie beworben hätte.

Spasstiger
2009-09-17, 15:47:52
Das sehe ich ähnlich Eyefinity ist vergleichbar. Man versucht einen Bedarf für neue Grafikkarten zu schaffen, in dem man die Auflösung erhöht. NV versucht das mit PhysiX und GPGPU.
Interessanter Punkt. Erklärt vielleicht auch, warum man bei AMD/ATI plötzlich wieder Supersampling-AA anbietet, das man lange Zeit als "unsmart" bezeichnet hat.

Ailuros
2009-09-17, 15:51:56
Interessanter Punkt. Erklärt vielleicht auch, warum man bei AMD/ATI plötzlich wieder Supersampling-AA anbietet, das man lange Zeit als "unsmart" bezeichnet hat.

Moment jetzt hab ich den Zusammenhang gleich ganz verloren; was zum Henker hat eyefinity oder superhohe Aufloesungen nochmal mit Supersampling zu tun?

Spasstiger
2009-09-17, 15:55:41
Moment jetzt hab ich den Zusammenhang gleich ganz verloren; was zum Henker hat eyefinity oder superhohe Aufloesungen nochmal mit Supersampling zu tun?
Beides verbrät Rechenleistung im Unverstand. Und davon haben die Grafikkarten immer mehr übrig, weil die Spieleentwicklung sich zunehmend an den leistungsschwachen Konsolen orientiert.

LovesuckZ
2009-09-17, 16:01:32
Und es hat alles nichts mit D3D10/11 zu tun. Man sieht es auch an Batman:AA - man bekommt eine bessere Grafik auch ohne D3D10 geliefert, eben über PhysX. Oder Stereo3D - ein anderes Spielgefühl. Man muss sich einfach von einer API abkappseln und das Featureset erweitern. Denn irgendwann ist D3D11 nicht mehr in und dann hat man ein Problem.

N0Thing
2009-09-17, 16:04:32
Wo? Ist das Textverständnis heutzutage schon so schlecht, dass man das gesagte nicht richtig aufnehmen kann?
Man sagte, das D3D11 ein Grund für einen Kauf wäre und nicht DER einzige.

Die Aufregung ist so lächerlich, weil nVidia seit über einem Jahr so redet.
Weißt du, wie nVidia RE5 auf dem PC promotet? Mit Stereo3D und nicht mit D3D10. Ich hab keinen Plan, wann nVidia das letzte Mal D3D10 irgendwie beworben hätte.

Danke daß du das Zitat nochmal gepostet hast, das bestätigt meine Aussage. :D
DX11 ist laut Nvidia nicht bedeutend, sondern nur einer von mehreren Gründen für eine neue Grafikkarte. Das heißt für mich, daß Nvidia DX11 für nicht sonderlich bedeutend hält. Und im zweiten Zitat wird gesagt, daß mit der neuen Grafikkartengeneration die "compute side" wichtiger sein wird, als die "graphics side", was natürlich auch compute shader beinhalten kann, aber im Kontext der vermutlich früher erscheinenden ATI-Grafikkarten wohl eher ein Statement für Cuda und PhysX ist und weniger ein Statement für DX11.
Mir ist aber auch bewußt, daß aus solchen Äußerungen immer das rauszulesen ist, was man rauslesen will, nicht desto trotz interessiert es mich, was dir dein Textverständnis an Informationen und Inhalten vermittelt hat.
Das du einen Teil übersetzen kannst, hab ich ja schon gesehen. :wink:

w0mbat
2009-09-17, 16:04:48
Und es hat alles nichts mit D3D10/11 zu tun. Man sieht es auch an Batman:AA - man bekommt eine bessere Grafik auch ohne D3D10 geliefert, eben über PhysX. Oder Stereo3D - ein anderes Spielgefühl. Man muss sich einfach von einer API abkappseln und das Featureset erweitern. Denn irgendwann ist D3D11 nicht mehr in und dann hat man ein Problem.

Man bekommt durch PhysX keine bessere Grafik, sonder dadurch, dass Nvidia den Entwicklern Geld in den Arsch bläst.

reunion
2009-09-17, 16:08:37
Und es hat alles nichts mit D3D10/11 zu tun. Man sieht es auch an Batman:AA - man bekommt eine bessere Grafik auch ohne D3D10 geliefert, eben über PhysX. Oder Stereo3D - ein anderes Spielgefühl. Man muss sich einfach von einer API abkappseln und das Featureset erweitern. Denn irgendwann ist D3D11 nicht mehr in und dann hat man ein Problem.

Das ist bestenfalls Wunschdenken deinerseits. Die Vergangenheit hat nicht nur einmal gezeigt das Features welche nicht vom breiten Markt unterstützt werden nicht lange bestand haben und höchstens bei Subventionen der Grakahersteller eingesetzt werden. Stereo3D funktioniert wie Eyefinity oder das von Spasstiger erwähnte SSAA ohne spezieller Unterstützung der Spielehersteller, deshalb ist das natürlich was anderes. Aber das ein faktisch alleiniger Standard wie D3D ausstirbt ist so wahrscheinlich wie das mir in den nächsten fünf Minuten ein Meteor auf den Kopf fällt.

Raff
2009-09-17, 16:09:24
Man bekommt durch PhysX keine bessere Grafik, sonder dadurch, dass Nvidia den Entwicklern Geld in den Arsch bläst.

Als wenn das für den normalen Spieler irgendwie von Relevanz wäre. GeForce bietet mehr fürs Auge => GeForce kaufen oder freuen, wenn schon eine drin ist. Das ist die Folge. PhysX stört einen nur, wenn man eine Radeon nutzt oder sonstwie AMD/Ati zugetan ist. Oder das eine als Konsequenz aus dem anderen.

MfG,
Raff

LovesuckZ
2009-09-17, 16:09:42
Man bekommt durch PhysX keine bessere Grafik, sonder dadurch, dass Nvidia den Entwicklern Geld in den Arsch bläst.

Darf ich dich jedesmal zitieren, wenn ein Spiel mit D3D11 auf den Markt kommt, bevor nVidia D3D11 ebenfalls liefert? :D

N0Thing
2009-09-17, 16:12:05
Man bekommt durch PhysX keine bessere Grafik, sonder dadurch, dass Nvidia den Entwicklern Geld in den Arsch bläst.

PhysX wirkt sich in Batman schon positiv aus, ich fand die Demo mit aktiviertem PhysX ein wenig lebendiger, als ohne. Ob man die gleiche Wirkung mit etwas weniger Realismus und entsprechend weniger Rechenaufwand nicht auch hinbekommen hätte, halte ich aber schon für denkbar.
Ich freue mich schon auf die Zeit, in der es in Spielen normal sein wird, daß man eine physikalisch glaubwürdige Umgebung erleben kann, egal welche Hardware im PC steckt.

Gast
2009-09-17, 16:15:45
Darf ich dich jedesmal zitieren, wenn ein Spiel mit D3D11 auf den Markt kommt, bevor nVidia D3D11 ebenfalls liefert? :D
Du kannst doch nicht den offenen API-Standard DX11 mit PhysX vergleichen... :hammer:
Wenn jetzt noch AMD einen eigenen Physik-Standard bringen würde, wäre das das absolute Chaos für Entwickler.
Deswegen ist DX11 auch 100 mal wichtiger als irgendwelche Schnittstellen, die nur von einem IHV unterstützt werden.
Aber das sollte wohl klar sein.

N0Thing
2009-09-17, 16:17:47
Als offen würde ich DX11 nicht bezeichnen, aber Standard stimmt schon.

LovesuckZ
2009-09-17, 16:19:20
Aber das ein faktisch alleiniger Standard wie D3D ausstirbt ist so wahrscheinlich wie das mir in den nächsten fünf Minuten ein Meteor auf den Kopf fällt.

Hoffentlich passiert es, vielleicht findest du dann dein Textverständnis wieder. :rolleyes:
Natürlich wird nVidia auch D3D11 unterstützten - spielt keine Rolle, ob nun 1 Monat oder 1 1/2 Jahre später. Fakt ist, dass es nicht mehr der alleinige Grund ist, da die GPUs auch durch OpenCL und DC immer mehr für andere Möglichkeiten verwendet werden können - z.B Beschleunigung von Physikberechnungen. Das hat alles nichts mit einer Grafik-API zu tun. Und nichts andderes sagt nVidia seit über einem Jahr.
Und solange wie nVidia D3D11 nicht unterstützt - solange wird es sich nicht durchsetzen. Also ist es irgendwie dumm zu tun, dass es wichtiger wäre als z.B PhysX, wenn beides in naher Zukunft nicht eine UND sondern nur eine ODER Entscheidung darstellt.

Du kannst doch nicht den offenen API-Standard DX11 mit PhysX vergleichen... :hammer:
Wenn jetzt noch AMD einen eigenen Physik-Standard bringen würde, wäre das das absolute Chaos für Entwickler.
Deswegen ist DX11 auch 100 mal wichtiger als irgendwelche Schnittstellen, die nur von einem IHV unterstützt werden.
Aber das sollte wohl klar sein.

Komisch, D3D11 wird doch nur von einem IHV in naher Zukunft unterstützt. Kann dann also garnicht so wichtig sein, gell?

Black-Scorpion
2009-09-17, 16:20:52
Du kannst doch nicht den offenen API-Standard DX11 mit PhysX vergleichen... :hammer:
Wenn jetzt noch AMD einen eigenen Physik-Standard bringen würde, wäre das das absolute Chaos für Entwickler.
Deswegen ist DX11 auch 100 mal wichtiger als irgendwelche Schnittstellen, die nur von einem IHV unterstützt werden.
Aber das sollte wohl klar sein.
Den Beitrag hättest du dir schenken können.
Er dreht schon immer alles so wie es ihm am besten in den Kram passt.
Vor allem wo doch die ganze Welt nur auf Physix gewartet hat.

Black-Scorpion
2009-09-17, 16:22:48
Als offen würde ich DX11 nicht bezeichnen, aber Standard stimmt schon.
Wieso nicht?

Alle Hersteller geben ihren Senf dazu und M$ nimmt den kleinsten gemeinsamen Nenner für die nächste DX Version.

Geschlossen ist Physix. Da macht NV was es will.

reunion
2009-09-17, 16:24:38
Natürlich wird nVidia auch D3D11 unterstützten - spielt keine Rolle, ob nun 1 Monat oder 1 1/2 Jahre später. Fakt ist, dass es nicht mehr der alleinige Grund ist, da die GPUs auch durch OpenCL und DC immer mehr für andere Möglichkeiten verwendet werden können - z.B Beschleunigung von Physikberechnungen. Das hat alles nichts mit einer Grafik-API zu tun. Und nichts andderes sagt nVidia seit über einem Jahr.

Dass das NV sagt verwundert kaum. Sie sind mit DX11 später dran und spielen jetzt ihre Bedeutung herunter bzw. verweisen auf ihre Vorteile. Diese Marketingstrategie ist so alt wie es Grafikkarten gibt.


Und solange wie nVidia D3D11 nicht unterstützt - solange wird es sich nicht durchsetzen. Also ist es irgendwie dumm zu tun, dass es wichtiger wäre als z.B PhysX, wenn beides in naher Zukunft nicht eine UND sondern nur eine ODER Entscheidung darstellt.

Der Unterschied ist das sich DX11 durchsetzen wird und es auch jede nur halbwegs ernst zu nehmende Grafikschmiede unterstützen wird. Die Zukunft von PhysX ist zumindest fraglich. Und da AMD auch ein paar Entwickler geschmiert hat sind bereits nicht wenige Spiele dafür angekündigt.

Gast
2009-09-17, 16:25:09
Als offen würde ich DX11 nicht bezeichnen, aber Standard stimmt schon.
DX11 ist offen für alle IHVs. PhysX nicht.
Mehr gibt es dazu nichts zu sagen.
Mit Compute Shadern kann man eh Sachen machen wie mit PhysX und es ist nicht auf einen IHV beschränkt, deswegen sehe ich die PhysX-Zukunft eh nicht so rosig.
Ich denke es wird kein Spieleentwickler PhysX unterstützen und einen großen Teil der Kundschaft ausschliessen, wenn er mit Compute Shadern (DX11) eine viel größere Kundschaft ansprechen kann.
Wäre für mich zumindest unlogisch, es sei denn NV investiert eine Menge Geld.
Das müsste aber schon wirklich jede Menge an Dollars sein...

Gast
2009-09-17, 16:32:36
Komisch, D3D11 wird doch nur von einem IHV in naher Zukunft unterstützt. Kann dann also garnicht so wichtig sein, gell?
Echt selten so ein Müll gelesen... :hammer:

Kannst du überhaupt aus Entwicklersicht den Unterschied zwischen einem offenem Standard wie DX11 und einer IHV-Schnittstelle nachvollziehen?

Wenn nicht, dann hat sich die Diskussion mit dir eh erledigt. Dann bist du kein würdiger Diskussionspartner. :P

LovesuckZ
2009-09-17, 16:34:18
Dass das NV sagt verwundert kaum. Sie sind mit DX11 später dran und spielen jetzt ihre Bedeutung herunter bzw. verweisen auf ihre Vorteile. Diese Marketingstrategie ist so alt wie es Grafikkarten gibt.

Textverständis anyone? :rolleyes:
Wo spielen sie die Bedeutung herunter? Ich verstehe nicht, wie man das herauslesen kann. Aber vielleicht ist es auch wohlmöglich nur der AMD Fanboy, der D3D11 ohne nVidia als wichtiger empfindet und somit dies meint zu lesen.


Der Unterschied ist das sich DX11 durchsetzen wird und es auch jede nur halbwegs ernst zu nehmende Grafikschmiede unterstützen wird. Die Zukunft von PhysX ist zumindest fraglich. Und da AMD auch ein paar Entwickler geschmiert hat sind bereits nicht wenige Spiele dafür angekündigt.

Und was interessieren die 5 Spiele? 5 PhysX Spiele gibt es auch schon. Ohne nVidia wird D3D11 genauso rumeiern wie PhysX - ein nur auf einer hardwarebasisempfangbares Goodie. Deswegen die Abgrenzung davon. Eyefinity ist genau das - wir bieten euch was, das jetzt da ist und nicht von der Konkurrenz erreicht wird.

Echt selten so ein Müll gelesen... :hammer:

Kannst du überhaupt aus Entwicklersicht den Unterschied zwischen einem offenem Standard wie DX11 und einer IHV-Schnittstelle nachvollziehen?

Wenn nicht, dann hat sich die Diskussion mit dir eh erledigt. Dann bist du kein würdiger Diskussionspartner. :P

Ich schon, du anscheinend nicht. Abgesehen davon ist D3D genauso offen wie Cuda. :rolleyes:

reunion
2009-09-17, 16:36:54
Textverständis anyone? :rolleyes:
Wo spielen sie die Bedeutung herunter? Ich verstehe nicht, wie man das herauslesen kann. Aber vielleicht ist es auch wohlmöglich nur der AMD Fanboy, der D3D11 ohne nVidia als wichtiger empfindet und somit dies meint zu lesen.


Unfassbar wie blöd du dich nicht stellen kannst. EOD. Ist doch lächerlich.

LovesuckZ
2009-09-17, 16:39:08
Unfassbar wie blöd du dich nicht stellen kannst. EOD. Ist doch lächerlich.

Ich warte auf die Textstelle. :)

Nakai
2009-09-17, 16:39:45
Ich hoffe ein paar Spieleschmieden benutzen, wie Crytek, ihre eigenen Physikengines und bringen die auf CS 5, damit mal alles GPUs was zu tun haben.

Wäre für mich zumindest unlogisch, es sei denn NV investiert eine Menge Geld.
Das müsste aber schon wirklich jede Menge an Dollars sein...

NV hat noch ein paar Reserven.

Und was interessieren die 5 Spiele? 5 PhysX Spiele gibt es auch schon. Ohne nVidia wird D3D11 genauso rumeiern wie PhysX - ein nur auf einer hardwarebasisempfangbares Goodie. Deswegen die Abgrenzung davon. Eyefinity ist genau das - wir bieten euch was, das jetzt da ist und nicht von der Konkurrenz erreicht wird.

Okay, dann soll mal NV DX11 nicht unterstützen. Mal schaun wer dann rumeiert. ;)


mfg Nakai

Black-Scorpion
2009-09-17, 16:41:39
Abgesehen davon ist D3D genauso offen wie Cuda. :rolleyes:
Und wenn du Schwachsinn noch 1000x erzählst wird es nicht richtiger.
Manchmal fragt man sich wirklich ob du nur provozieren willst.
Anders kann man sich deine Beiträge nicht erklären.

LovesuckZ
2009-09-17, 16:41:54
Okay, dann soll mal NV DX11 nicht unterstützen. Mal schaun wer dann rumeiert. ;)
mfg Nakai

Warum sollte sich D3D11 durchsetzen, wenn es nur von AMD unterstützt wird?

Gast
2009-09-17, 16:45:55
Man bekommt durch PhysX keine bessere Grafik, sonder dadurch, dass Nvidia den Entwicklern Geld in den Arsch bläst.
Nvidia kann mit seinem Geld machen was sie wollen. Ich als Kunde habe etwas davon, wenn dadurch die Spiele hübscher werden.
Wenn AMD meint das Geld gehört gestappelt und nicht in die Hände der Entwickler ist das kein Vorteil.

Im übrigen liegst du falsch, PhysX sorgt für eine bessere Optik.

N0Thing
2009-09-17, 16:55:02
Ich warte auf die Textstelle. :)

Ich warte noch auf deine Antwort auf meinen Post. :)
Anderen fehlendes Textverständnis vorzuwerfen finde ich zu wenig, wenn man selber nicht mehr bieten kann als eine Übersetzung.

N0Thing
2009-09-17, 16:57:10
DX11 ist offen für alle IHVs. PhysX nicht.
Mehr gibt es dazu nichts zu sagen.

Offen in dem Sinne, daß jeder der will (und Geld bezahlt?) DX nutzen kann, aber werden die Grundlagen, Erweiterungen, Features, usw. ähnlich festgelegt wie bei OpenGL? Oder ist es nicht am Ende doch die alleinige Entscheidung von MS?

LovesuckZ
2009-09-17, 17:02:41
Ich warte noch auf deine Antwort auf meinen Post. :)
Anderen fehlendes Textverständnis vorzuwerfen finde ich zu wenig, wenn man selber nicht mehr bieten kann als eine Übersetzung.

Danke daß du das Zitat nochmal gepostet hast, das bestätigt meine Aussage. :D
DX11 ist laut Nvidia nicht bedeutend, sondern nur einer von mehreren Gründen für eine neue Grafikkarte. Das heißt für mich, daß Nvidia DX11 für nicht sonderlich bedeutend hält. Und im zweiten Zitat wird gesagt, daß mit der neuen Grafikkartengeneration die "compute side" wichtiger sein wird, als die "graphics side", was natürlich auch compute shader beinhalten kann, aber im Kontext der vermutlich früher erscheinenden ATI-Grafikkarten wohl eher ein Statement für Cuda und PhysX ist und weniger ein Statement für DX11.
Mir ist aber auch bewußt, daß aus solchen Äußerungen immer das rauszulesen ist, was man rauslesen will, nicht desto trotz interessiert es mich, was dir dein Textverständnis an Informationen und Inhalten vermittelt hat.
Das du einen Teil übersetzen kannst, hab ich ja schon gesehen. :wink:

nVidia spricht D3D11 nicht die Bedeutung ab - das liest du heraus. Wenn es keine Bedeutung für sie hätte, hätte man wohl kaum von "one of the reason" gesprochen. Dieses "Compute" bezieht sich darauf, dass Grafikkarten verstärkt andere Aufgabengebiete übernehmen.

Now, we know, people are doing a lot in the area of video, people are going to do more and more in the area of photography… I think that the things we are doing would allow the GPU to be a co-processor to the CPU and deliver better user experience, better battery life and make that computers little bit more optimized,” added Mr. Hara.

Schau dir dochmal an, welchen Grund die Leute haben sich eine neue AMD Grafikkarte zu kaufen - D3D11 kommt bestimmt nicht an die erste Stelle. Und genau das sagt auch nVidia.

Nakai
2009-09-17, 17:04:19
Intel und S3(irgendwann...;D).

DX11 ist ein Checklist-Feature, jedenfalls vorläufig. Kaum ein OEM würde eine Nvidia reinbauen, wenn diese kein DX11 unterstützen. Die Vorzüge zu DX10 sind auch nicht ohne.

Mal eine andere Frage: Was soll Nv sonst unterstützen außer DX11? Nenn mir ein paar weitverbreitete Alternativen, welche eine reelle Chance haben.

Im übrigen liegst du falsch, PhysX sorgt für eine bessere Optik.

Dazu brauch ich weder PhysX oder sonst eine Physik-Engine.
PhysX verbessert in einigen Spielen den Realismus und die Interaktionsfähigkeit mit Objekten. Das das Spiel schöner aussieht, hat ja nur zweitrangig was mit PhysX zu tun. Natürlich hat PhysX schon seinen Sinn, aber da geht doch wesentlich mehr.


mfg Nakai


€: “DirectX 11 by itself is not going be the defining reason to buy a new GPU. It will be one of the reasons. This is why Microsoft is in work with the industry to allow more freedom and more creativity in how you build content, which is always good, and the new features in DirectX 11 are going to allow people to do that. But that no longer is the only reason, we believe, consumers would want to invest in a GPU,” said Mike Hard,

Wie kann man in einer GPU investieren, wenn alle 9 Monate was neues kommt?

Black-Scorpion
2009-09-17, 17:10:42
Offen in dem Sinne, daß jeder der will (und Geld bezahlt?) DX nutzen kann, aber werden die Grundlagen, Erweiterungen, Features, usw. ähnlich festgelegt wie bei OpenGL? Oder ist es nicht am Ende doch die alleinige Entscheidung von MS?
Keiner bezahlt für DX irgendwas.
Geh zu M$ auf die Seite und lade dir runter was du willst.
DirectX Software Development Kit (http://www.microsoft.com/downloads/details.aspx?displaylang=en&FamilyID=b66e14b8-8505-4b17-bf80-edb2df5abad4)
DirectX: Advanced Graphics on Windows (http://msdn.microsoft.com/de-de/directx/default%28en-us%29.aspx)

Und alle Hersteller bringen ihre Vorschläge ein.
M$ muss dann einen Punkt festlegen mit dem alle leben können.
Es kann sich jedenfalls kein Hersteller hinstellen und so tun als hätte er von nichts gewusst.

LovesuckZ
2009-09-17, 17:13:00
Wie kann man in einer GPU investieren, wenn alle 9 Monate was neues kommt?

Nicht jeder investiert alle 9 Monate in eine GPU. ;)
Und wie willst du eine die Investition in eine neue GPU rechtfertigen, wenn D3Dxx.x gleichbleibt?

N0Thing
2009-09-17, 17:15:33
nVidia spricht D3D11 nicht die Bedeutung ab - das liest du heraus. Wenn es keine Bedeutung für sie hätte, hätte man wohl kaum von "one of the reason" gesprochen. Dieses "Compute" bezieht sich darauf, dass Grafikkarten verstärkt andere Aufgabengebiete übernehmen.

Nein, ich lese und habe auch geschrieben, daß sie es nicht für bedeutend erachten, das ist etwas anderes, als keine Bedeutung zu haben. Der erste Fall meint daß es nicht das Wichtigste ist. Du hast aus meinem Text heraus gelesen, daß ich Nvidia unterstellt hätte, DX11 wäre für die Nextgen-Karten überflüssig.
Ich stimme dir ja zu, daß DX11 für den Käufer keinen Vorteil bringt, solange es nicht auch Spiele gibt, die von DX11 profitieren.
Und da Nvidia vermutlich erst nach ATI DX11 Hardware anbieten wird, werden sie erst dann die Vorzüge von DX11 erwähnen, wenn ihr Chip mit ATI mindestens mithalten kann. Halte ich für vollkommen normale Äußerungen, die es in diesem Markt schon früher gab und auch in Zukunft zu finden sein werden.


Schau dir dochmal an, welchen Grund die Leute haben sich eine neue AMD Grafikkarte zu kaufen - D3D11 kommt bestimmt nicht an die erste Stelle. Und genau das sagt auch nVidia.

Da sind wir einer Meinung, auch wenn es sicherlich genug Leute geben wird, die sich wegen Win7 und DX11 eine neue Grafikkarte kaufen werden, weil is ja besser.

PHuV
2009-09-17, 17:20:09
Da sind wir einer Meinung, auch wenn es sicherlich genug Leute geben wird, die sich wegen Win7 und DX11 eine neue Grafikkarte kaufen werden, weil is ja besser.

Na ja, was dabei rauskommt, hat man ja mit Vista und DX10 erlebt. Ich täte das als Fiasko bezeichnen, und ich glaube nicht, daß die Leute nochmals darauf reinfallen.

reunion
2009-09-17, 17:20:23
Der Punkt ist das ich mir nicht jede Woche eine neue Grafikkarte kaufen. Deshalb würde ich, wenn ich mir eine neue kaufen würde, sicherlich keine mit alter Technik kaufen, denn selbst wenn es aktuell noch keine/kaum Vorteile durch DX11 gibt so weiß ich doch das es sich über kurz oder lang durchsetzen wird und ich dadurch einen Vorteil haben werde.

Na ja, was dabei rauskommt, hat man ja mit Vista und DX10 erlebt. Ich täte das als Fiasko bezeichnen, und ich glaube nicht, daß die Leute nochmals darauf reinfallen.

DX10 hatte das Problem an Vista gekoppelt zu sein, was unglücklicherweise auch noch von vielen verteufelt wurde. DX11 hat das jetzt nicht mehr.

LovesuckZ
2009-09-17, 17:22:15
Nein, ich lese und habe auch geschrieben, daß sie es nicht für bedeutend erachten, das ist etwas anderes, als keine Bedeutung zu haben. Der erste Fall meint daß es nicht das Wichtigste ist. Du hast aus meinem Text heraus gelesen, daß ich Nvidia unterstellt hätte, DX11 wäre für die Nextgen-Karten überflüssig.


Das heißt für mich, daß Nvidia DX11 für nicht sonderlich bedeutend hält

Du hast seinen Text einfach misinterpretiert. Er spricht von "one of the reason". Sie finden D3D11 bedeutend, weil es ein Grund für die Entscheidung sein könnte.
nVidia positioniert ihre Grafikkarten doch schon seit über einem Jahr als "Graphics Plus" - die Aussage ist also konsens mit der Unternehmensphilosophie, die seit über einem Jahr herrscht.

Gast
2009-09-17, 17:28:38
Seh es mal so:

Wenn die Leute nicht mehr den Sinn für eine neue Grafikkarte erkennen, dann ist in dem Markt "Game Over".

Und ich denke, es besteht die nicht geringe Möglichkeit, dass das wirklich eintritt. DX10 ist wo wirklich konsequent umgesetzt worden? Mir fällt grad nichts ein. Chancen, dass es für DX11 besser wird? Für wieviel Spiele braucht man wirklich schnellere Hardware als aktuell?

Wenn sich da nichts bald ändert, dann werden die Absätze so stark einbrechen, dass wir uns um DX12 Hardware keine Gedanken machen müssen.

Nakai
2009-09-17, 17:34:02
Nicht jeder investiert alle 9 Monate in eine GPU. ;)
Und wie willst du eine die Investition in eine neue GPU rechtfertigen, wenn D3Dxx.x gleichbleibt?

NV will in viel Technologie investieren, deswegen sieht man DX11 nicht mehr als einzigen Grund für einen GPU-Wechsel.

Investieren. Dieser Begriff ist im Hardwaresektor ein Paradox. Prinzipiell investiert doch ein Käufer in eine Grafikkarte um mehr rauszubekommen, jedenfalls interpretiere ich das so. Er kauft eine Grafikkarte und investiert damit in Performance und neuen Features. Meistens kosten diese Features dann auch noch Leistung, weswegen man von Investieren nur bei den Highend-Boliden sprechen kann, deren Leistung etwas länger hält.

Nicht falsch verstehen. DX11 ist nicht mein Kaufgrund für eine neue Grafikkarte. BQ-Features, Leistung, neue Funktionen usw. werden das sein. Wer was besseres bieten kann, der hat mich als Käufer.


mfg Nakai

LovesuckZ
2009-09-17, 17:38:51
NV will in viel Technologie investieren, deswegen sieht man DX11 nicht mehr als einzigen Grund für einen GPU-Wechsel.

Das Problem ist doch, dass Mehrgrafik vielleicht nicht mehr so zieht wie früher. Deswegen Stereo3D und Eyefinity. Sie bieten ein anderes Spielgefühl, dass nicht durch mehr Grafik realisiert wird. Wenn man sich heutige Spiele anschaut, dann hat man ein Punkt erreicht, wo eine realistische Grafik Schwächen offenbart - selbes Spielprinzip, kaum Interaktion, kaum realistische Physik. Das alles ist durch D3D11 in dem Sinne nicht zu lösen.
Deswegen die Abkehr allein von D3D - wenn meine Grafikkarte Videos 100 fach schneller enkodiert als die schnellste CPU, dann ist das vielleicht bedeutender als wenn mein Alien statt 10000 Dreiecke nun 1 Millionen hat. Und darauf hofft nVidia. Ob es eintreffen wird? Die Zukunft wird es zeigen.

V2.0
2009-09-17, 17:58:44
Die DX Version ist kein Alleinstellungsmerkmal mehr. ATI hat DX11, NV auch irgendwann. Sobald ein Feature defakto Standard ist, läst sich damit kein Produkt mehr verkaufen.

Coda
2009-09-17, 18:29:36
Früher konnte man sich wenigstens noch etwas differenzieren, aber seit D3D10 sind die Spezifikationen ja festgezurrt und es gibt praktisch keine Caps mehr.

Und von einem 11.1 ist nirgendwo die Rede bisher. Ich denke man will das auch vermeiden.

tombman
2009-09-17, 18:36:01
Ich sehe es wie der Gast oben.

AMD präsentiert das lächerliche Eyefinity, Nvidia versucht sich mit Stereo 3D zu retten, mehr ist in der Grafikqualität offenbar nicht drin- weil es keinen content mehr gibt.
Konsolen bestimmen wie games auszusehen haben und wieviel Physik berechnet werden darf, mehr hardware power ist also sinnlos.

Nvidia baut sich offenbar ein zweites Standbein auf und will GPGPU in die server bekommen, number crunsher für die Industrie, super schnell und super effizient.
Daß die Masse 500€ bezahlt nur um Photoshop schneller laufen zu lassen können sie wem anderen erzählen. Und Videos kodiert die Masse auch nicht jeden Tag. Die Masse surft, emailt und gamet- ENDE ;)

Intel versuchts mit Larabee, was im Prinzip die selbe Schiene wie Nvidia ist, nur eben mit der power von Intel und X86 ;)

Neuer content kommt erst mit neuen Konsolen- wie wollen AMD und Nvidia die Durststrecken dazwischen füllen? Bei einem 5 Jahreszyklus wären mindestens 3 GPU-Generationen betroffen. Wirds dann sowas wie "GPU-Sommerpausen" geben? :eek:
Oder werden AMD/NVIDIA/INTEL selbst anfangen content zu schaffen und games zu coden? Oder werden sie so unpackbar viel Geld in die devs pumpen, daß games so stark skalierbar geproggt werden, daß sie auf PCs IMMER deutlich besser aussehen (Tesselation?).

Werden das die devs überhaupt zulassen, da ja dann jeder die PC-Version haben will, die noch dazu raubmordkopiert wird?

Ich seh ziemlich schwarz für die Branche...

Gast
2009-09-17, 18:44:44
Oder werden AMD/NVIDIA/INTEL selbst anfangen content zu schaffen und games zu coden?

Das ist ein interessanter Gedanke, keine Games, aber eine Engine könnte doch helfen. Performant, skalierbar über das GPU-Sortiment (Mainstream lassen wir mal) und optisch jenseits des Konsolen-Blubb, PhysX und Sound per GPGPU, vielleicht ein Grundsortiment an Texturen und Materialshadern, frei und für Umme, da würde PC-only-Entwicklung auf einmal wieder attraktiver.

Gast
2009-09-17, 18:55:07
eser Begriff ist im Hardwaresektor ein Paradox. Prinzipiell investiert doch ein Käufer in eine Grafikkarte um mehr rauszubekommen, jedenfalls interpretiere ich das so. Er kauft eine Grafikkarte und investiert damit in Performance und neuen Features. Meistens kosten diese Features dann auch noch Leistung, weswegen man von Investieren nur bei den Highend-Boliden sprechen kann, deren Leistung etwas länger hält.
mfg Nakai
eher OT: Wenn man investiert, dann will man doch auch möglichst wenig Wertverlust haben (eigentlich sogar Gewinn) - Ich denke aber das Midrange-Karten weniger Wertverlust haben als High-End-Modelle.

@Diskussion und Streiterei:
- DX11 wird sich ohne nvidia natürlich nicht so schnell durchsetzen, aber wir sind uns doch einig das es sich irgendwann durchsezen wird oder ? Über Physx und Cuda kann dass keiner sagen. Von daher ist (für mich) DX11 ein besserer Kaufgrund als Physx und Cuda.
- Klar ist DX11 nicht wirklich offen und vom bösen Microsoft, aber die sind nunmal Marktführer, kann man nichts dran ändern. Immerhin hält Id noch an openGL fest.

san.salvador
2009-09-17, 19:04:09
Wie lang ihr über einen Fetzen PR-Blabla diskutieren könnt, unglaublich. ;D

moBi
2009-09-17, 20:23:11
Konsolen bestimmen wie games auszusehen haben und wieviel Physik berechnet werden darf, mehr hardware power ist also sinnlos.

OT:
Viel schlimmer noch: Kommt ein "Crysis" was High End wie in den guten alten Zeiten zum Frühstück frisst, wird massiv geheult, weils nicht so gut wie der 0815 Konsolenport läuft. :freak: Kommt kein "Crysis" wird geheult weils keine fordernden Spiele mehr gibt. :freak:


Ich hoffe nVidia puscht ihr Ambient Occlusion per treiber! Das wär echt geil, wenn man das in beliebig alten Spielen hätte. Da hab ich einen echten Vorteil, da brauch ich nicht für 750€ drei GUTE TFTs, oder einen speziellen 3D-Monitor samt Brille. Es geht einfach.

Gast
2009-09-17, 20:28:44
[QUOTE=moBi;7539354

Ich hoffe nVidia puscht ihr Ambient Occlusion per treiber! Das wär echt geil, wenn man das in beliebig alten Spielen hätte. [/QUOTE]
Bekommt jeder schon jetzt bei den ENB-Series Mods

=Floi=
2009-09-17, 23:35:37
tombman hat quad-sli und jammert über zu wenig neuen fordernden content ;D

][immy
2009-09-18, 00:03:35
Ich sehe es wie der Gast oben.

AMD präsentiert das lächerliche Eyefinity, Nvidia versucht sich mit Stereo 3D zu retten, mehr ist in der Grafikqualität offenbar nicht drin- weil es keinen content mehr gibt.
Konsolen bestimmen wie games auszusehen haben und wieviel Physik berechnet werden darf, mehr hardware power ist also sinnlos.

Nvidia baut sich offenbar ein zweites Standbein auf und will GPGPU in die server bekommen, number crunsher für die Industrie, super schnell und super effizient.
Daß die Masse 500€ bezahlt nur um Photoshop schneller laufen zu lassen können sie wem anderen erzählen. Und Videos kodiert die Masse auch nicht jeden Tag. Die Masse surft, emailt und gamet- ENDE ;)

Intel versuchts mit Larabee, was im Prinzip die selbe Schiene wie Nvidia ist, nur eben mit der power von Intel und X86 ;)

Neuer content kommt erst mit neuen Konsolen...

stop, neuer content mit neuen konsolen ... da sieht es auch ziemlich düster aus. denke eher es geht in die richtung das sich konsolenhersteller eher versuchen werden in zukunft günstige hardware zu produzieren und die massen anzusprechen a la Wii
also die hardwarepower wird dadurch nicht großartig steigen in konsolen (im vergleich zum pc zumindest).

was den content angeht. "cool" aussehender content ist heutzutage relativ schnell realsiert. realistisch aussehner content hingegen kostet geld und zeit. ich denke eher, das es in zukunft eher nicht mehr wirklich aufwärts mit der bildqualität geht, sondern das sie sich jetzt langsam festfahren wird.
der grafische standard reicht inzwischen für alles mögliche aus und wir haben nichtmal angefangen jetzt mögliches auszureitzen. in den letzten jahren ging es immer nur steil bergauf mit dem grafischen content wobei die kosten explodierten.

ich denke es geht jetzt eher in die richtung in die z.B. microsoft mit .net oder sund mit java gegangen ist. es holt zwar nicht unbedingt das maximum aus einer hardware raus, was möglich ist, aber die entwicklungs- und wartungszeiten sind sehr viel kürzer und damit güngstiger. spiele & vor allem grafsicher content haben inzwischen eine komplexität erreicht die einfach nicht mehr "günstig" oder wartbar ist. dort müssen erstmal neue möglichkeiten erschaffen werden, die die entwicklung beschleunigen.

Gast
2009-09-18, 00:07:40
Naja, ich vermisse immernoch Global Illumination (nicht die Screen-Space-Variante) ...

Gast
2009-09-18, 00:25:21
Dazu brauch ich weder PhysX oder sonst eine Physik-Engine.
PhysX verbessert in einigen Spielen den Realismus und die Interaktionsfähigkeit mit Objekten. Das das Spiel schöner aussieht, hat ja nur zweitrangig was mit PhysX zu tun. Natürlich hat PhysX schon seinen Sinn, aber da geht doch wesentlich mehr.
Nenns wie du willst.
Wenn ich mehr Objekte oder sich schicker bewegende Objekte sehe nenne ich das bessere Optik.

Das es besser geht bestreitet keiner. Es geht immer besser, auch in allen anderen Bereichen ist es nicht perfekt.

Wenn du mekern willst, dann häng dich an die Blureffekte, kosten unnütz Leistung und zermatschen das Bild.

tombman
2009-09-18, 01:42:21
tombman hat quad-sli und jammert über zu wenig neuen fordernden content ;D
Floi traut sich nicht tombman direkt über "du" anzusprechen ;D

Btw, heutiges Quad-Sli ist langsamer als Multi-Gpu in ein paar Tagen und Single-GPU in einem Jahr...

=Floi=
2009-09-18, 01:59:22
single gpu in einem jahr würde ich mich nicht sagen trauen :rolleyes: vom GT300 wird NV wieder jahre zehren, zumal wir ja in DER krise sind...

ich habe einfach ein problem mit der aussage über den content und der zu hohen leistung. Diesen fall gibt es nicht und der wird auch so schnell nicht eintreten. Du hast 4 gflop im system und diese kann man auch relativ problemlos voll ausnützen. Durch HD auflösung und nettem aa/ss bei brauchbaren frameraten. Du predigst das mir zu oft und zu verbissen. Blair oder andere sind hier der gegenpart, weil diese die power vollkommen ausnützen und du kannst es eigentlich auch.

du legst DEINE interessen und ansprüche anders aus, aber das entspricht nicht der merheit bzw. den ansprüchen der anderen.

y33H@
2009-09-18, 02:19:07
Quad-SLI (auch 2x Mars) kriegt man verdammt schnell klein. 32x-TSSAA und Textur-Mod in 2.560 und das wars. Mann muss nur wollen :freak:

N0Thing
2009-09-18, 03:09:41
Du hast seinen Text einfach misinterpretiert. Er spricht von "one of the reason". Sie finden D3D11 bedeutend, weil es ein Grund für die Entscheidung sein könnte.


Ja, ich weiß und habe auch verstanden was in dem Text steht. DX11 ist wie es in dem Zitat steht "one of the reasons", also ein Grund unter weiteren und nicht der entscheidende/bedeutende Grund.
Nichts anderes habe ich geschrieben. Wenn wir ein unterschiedliches Verständnis des Begriffs "bedeutend" haben, sollten wir es einfach dabei belassen, vor allem, da wir im Endeffekt in diesem Fall (meinem Empfinden nach) der gleichen Meinung sind.
Wie man bedeutend für sich selbst versteht ist einfach eine subjektive Erkenntnis. Ich möchte nicht den Eindruck erwecken, daß ich einer Diskussion aus dem Weg gehe, es ist aber immer schwer Diskussionen zu führen, wenn das subjektive Verständnis von Kernelementen der Diskussion nicht übereinstimmen.

N0Thing
2009-09-18, 03:19:25
Ich mag es ein wenig zu optimistisch und zu sehr aus den Augen eines PC-Nutzers sehen, aber ich erwarte mit der Zeit wieder eine Fokussierung auf den PC, wenn MS und Sony sich wirklich noch mehr als zwei Jahre Zeit lassen sollten, mit ihren neuen Konsolen.
Ich weiß. der Markt und die Situation ist eine andere im Vergleich zu PS1/2 Xbox, aber ist der PC-Gaming-Sektor denn wirklich so klein geworden, daß er keine Rolle mehr spielt??

Coda
2009-09-18, 04:12:00
Nein, aber die Produktionskosten für AAA-Titel sind zu hoch.

DrFreaK666
2009-09-18, 06:22:25
Bekommt jeder schon jetzt bei den ENB-Series Mods

Ach ja? Da habe ich aber schon ganz andere Erfahrungen gemacht.
Ich hatte SSAO per enb bisher nur bei HL2 und Unreal-Engine-1-Spielen (z.B. Rune).
Bin hautsähclich wieder zu nvidia (von HD4870 zu GTX260 :D) umgestiegen weil diese die Möglichkeit anbieten in ausgewählten Games AO zu erzwingen.
Da ich aber keine der unterstützten Games habe (bis auf HL2 eben) ist das für mich nur rein theoretischer Natur

Ailuros
2009-09-18, 06:54:42
Beides verbrät Rechenleistung im Unverstand. Und davon haben die Grafikkarten immer mehr übrig, weil die Spieleentwicklung sich zunehmend an den leistungsschwachen Konsolen orientiert.

Jeglicher SSAA Zusatz so wie er klingt kostet sie nichts IMHO (und manche meckerten schon seit Jahren darueber) und der Nutzen von eyefinity ist nicht nur auf 3D beschraenkt.

Du glaubst doch nicht ernsthaft dass man SSAA ernsthaft in neueren Spielen benutzen kann oder?

Tarkin
2009-09-18, 09:54:13
Man bekommt durch PhysX keine bessere Grafik, sonder dadurch, dass Nvidia den Entwicklern Geld in den Arsch bläst.

PhysX ist auch ne tolle fps-Bremse:

Mirrors Edge: http://techreport.com/articles.x/16392/4

Batman: http://forum.beyond3d.com/showpost.php?p=1336700&postcount=615

PhysX off = 58 average fps
PhysX Normal = 35 fps
PhysX High = 28 fps

... toll, halbe Geschwindigkeit. Na da schaltet man das doch gerne ein, oder? :freak:. Aber FPS sind laut nVidia in Zukunft sowieso egal ;D

nagus
2009-09-18, 10:13:28
... toll, halbe Geschwindigkeit. Na da schaltet man das doch gerne ein, oder? :freak:. Aber FPS sind laut nVidia in Zukunft sowieso egal ;D

und DX11 ist auch "not important". anscheinend sind die in einem zeitloch gefangen weils jetzt plötzlich anfangen dx10.1 karten zu bauen und diesen 2(!) jahre alten standard als wichtiger erachten als dx11. :uhammer2:

S940
2009-09-18, 10:16:29
... toll, halbe Geschwindigkeit. Na da schaltet man das doch gerne ein, oder? :freak:. Aber FPS sind laut nVidia in Zukunft sowieso egal ;D
Na das ruckelt halt schöner ... ;D
Oder nVidia will, dass Du Dir ne 2te nV Karte nachkaufst ... :freak:

Aber gut, mit dem GT300 wird vermutlich nichts mehr ruckeln .. wenn er mal kommt.

Nakai
2009-09-18, 10:20:47
Nenns wie du willst.
Wenn ich mehr Objekte oder sich schicker bewegende Objekte sehe nenne ich das bessere Optik.

Das es besser geht bestreitet keiner. Es geht immer besser, auch in allen anderen Bereichen ist es nicht perfekt.

Wenn du mekern willst, dann häng dich an die Blureffekte, kosten unnütz Leistung und zermatschen das Bild.

Ihr immer mit eurem PhysX.

Mal im Ernst. Kein Spiel mit Hardware-PhysX hat bis jetzt irgendwelche physikalische Effekte gezeigt, die bei mir die Kinnlade runterklappen ließen. Schön, es fliegen mehr Objekte durch die Luft, es bewegt sich mehr. Aber man muss doch mehr mit Hardware-PhysX anstellen können.
Deswegen nenn ich Hardware-PhysX derzeit eine nette Spielerei, die bei ein paar Spielen gute Effekte reinbringt, welche zwar schick aussehen, aber meistens nur das sind.

PhysX ist auch ne tolle fps-Bremse:

Es wird seinen Zweck haben.

Ich mag es ein wenig zu optimistisch und zu sehr aus den Augen eines PC-Nutzers sehen, aber ich erwarte mit der Zeit wieder eine Fokussierung auf den PC, wenn MS und Sony sich wirklich noch mehr als zwei Jahre Zeit lassen sollten, mit ihren neuen Konsolen.
Ich weiß. der Markt und die Situation ist eine andere im Vergleich zu PS1/2 Xbox, aber ist der PC-Gaming-Sektor denn wirklich so klein geworden, daß er keine Rolle mehr spielt??

Der PC-Gaming-Sektor ist schon immer relativ klein. Nur diesmal fehlt dem PC-Gaming-Sektor das Zugpferd für ein Comeback.
Nur auf dem PC-Spielesektor gibt es Wettkämpfe zwischen Pro-Gamer, riesige LANs. Das haben die Konsolen nicht.


mfg Nakai

LovesuckZ
2009-09-18, 10:23:15
Mal im Ernst. Kein Spiel mit Hardware-PhysX hat bis jetzt irgendwelche physikalische Effekte gezeigt, die bei mir die Kinnlade runterklappen ließen. Schön, es fliegen mehr Objekte durch die Luft, es bewegt sich mehr. Aber man muss doch mehr mit Hardware-PhysX anstellen können.
Deswegen nenn ich Hardware-PhysX derzeit eine nette Spielerei, die bei ein paar Spielen gute Effekte reinbringt, welche zwar schick aussehen, aber meistens nur das sind.


Welchen Sinn verstehst du denn hinter Grafik? Ich dachte bis jetzt, dass Grafikkarten Spiele schöner machen sollen. Wieso du Effektphysik dagegen dieses Anwendungsgebiet absprichst, musst du mal erklären.

Gast
2009-09-18, 10:25:11
I
Neuer content kommt erst mit neuen Konsolen- wie wollen AMD und Nvidia die Durststrecken dazwischen füllen? Bei einem 5 Jahreszyklus wären mindestens 3 GPU-Generationen betroffen. Wirds dann sowas wie "GPU-Sommerpausen" geben? :eek:


Gibt es von Nvidia doch schon. Der G92 ist ein sehr gutes Beispiel dafür was kommen wird.

Nakai
2009-09-18, 10:38:14
Welchen Sinn verstehst du denn hinter Grafik? Ich dachte bis jetzt, dass Grafikkarten Spiele schicken machen sollen. Wieso du Effektphysik dagegen dieses Anwendungsgebiet absprichst, musst du mal erklären.

Grafik ist das was gerendert wird. HardwarephysX erhöht zwar den Renderaufwand, aber dafür braucht man nicht PhysX oder sonst eine Physikengine. Für Effekte brauch ich keine Effektphysik.
Und Optik ist ja eh subjektiv, ergo kann Hardwarephysik die Optik verbessern...ja.


mfg Nakai

Gast
2009-09-18, 10:49:22
PhysX ist auch ne tolle fps-Bremse:

Mirrors Edge: http://techreport.com/articles.x/16392/4

Batman: http://forum.beyond3d.com/showpost.php?p=1336700&postcount=615

PhysX off = 58 average fps
PhysX Normal = 35 fps
PhysX High = 28 fps

... toll, halbe Geschwindigkeit. Na da schaltet man das doch gerne ein, oder? :freak:. Aber FPS sind laut nVidia in Zukunft sowieso egal ;D
8800 GTX, eine Grafikkarte die nie mit PhysX beworben wurde, weils erst 2 Jahre später eingeführt wurde. ;D

Was sollte der Link doch gleich zeigen? Soll ich dir mal ein paar Cyrsis High und very high Benches raussuchen und zeigen das sich die FPS nach unten bewegen?

Gast
2009-09-18, 10:51:17
Grafik ist das was gerendert wird. HardwarephysX erhöht zwar den Renderaufwand, aber dafür braucht man nicht PhysX oder sonst eine Physikengine. Für Effekte brauch ich keine Effektphysik.
Und Optik ist ja eh subjektiv, ergo kann Hardwarephysik die Optik verbessern...ja.

Für Effekte braucht man keine Shader.

Und nun?

Gast
2009-09-18, 10:54:36
8800 GTX, eine Grafikkarte die nie mit PhysX beworben wurde, weils erst 2 Jahre später eingeführt wurde. ;D

Was sollte der Link doch gleich zeigen? Soll ich dir mal ein paar Cyrsis High und very high Benches raussuchen und zeigen das sich die FPS nach unten bewegen?
Sind übrigens auch die medium low FPS, die genannt wurden.
Mirrors Edge ist somit mit einer Karte, die 2 Jahre vor PhysX Start gelauncht wurde flüssig mit PhysX spielbar.

Neocroth
2009-09-18, 11:05:08
Welchen Sinn verstehst du denn hinter Grafik? Ich dachte bis jetzt, dass Grafikkarten Spiele schöner machen sollen. Wieso du Effektphysik dagegen dieses Anwendungsgebiet absprichst, musst du mal erklären.

Für mich ist es sinnfrei, in Zeiten von Quad-Cores, die acht Threads bearbeiten können und sich damit in aktuellen Spielen großteils langweilen, auf eine proprietäre Physik-API zu setzen. Kaum ein Spiel benötigt wirklich vier Kerne. Was wäre da naheliegender, als die brachliegende Rechenleistung der CPU zur Physikberechnung zu nutzen? Zudem wird die CPU in Games laut nVidia ja eh immer unwichtiger - also ideal, um solche Berechnungen auszulagern.

Ich denke, GPU-beschleunigtes PhysX wird wie auch Truform oder PS1.4 scheitern. Kein Entwickler programmiert für eine API, die einen großen Teil der Kundschaft außen vor lässt und dem Kunden kaum sichtbare Vorteile bringt.
Scharfe Texturen, tessellierte Objekte und gutes AA sehe ich permanent in einem Spiel - Physikeffekte nur einen Bruchteil der Zeit. Deshalb lohnt es sich aus meiner Sicht nicht, da großartig Arbeit reinzubuttern um das Spiel auf vllt. 25% meiner Kundschaft potentiell "besser" aussehen zu lassen, sondern eher einen DX11-Renderpfad einzubauen, den mit der Zeit zunehmend mehr Spieler nutzen werden.

Ich will nicht abstreiten, dass es (hin und wieder) sehr gut aussieht, aber ich glaube einfach nicht, dass Entwickler darauf setzen werden, solange es an einen IHV gebunden ist. Leider kommt Havok nicht in die Gänge... :(

Was ich aber lustig finde: die Leute hier, die die Bedeutung von DX11 und auch DX10 runterspielen. Ich möchte gerne wissen, wieviele von denen Crysis im DX9-Modus spielen? :rolleyes:

PS: meine Freundin hätte PhysX auf ihrer 8800GTX, nutzt es aber nicht. Sie hat ein einziges Spiel, welches GPU-PhysX bietet - Sacred 2. Nur fühlt sie sich von den großen Mengen der rumfliegenden Blätter gestört :D
Meine persönliche Meinung: ich habe das PhysX-Level von UT3 angezockt und mir kamen die rumfliegenden Steine vor wie Styropor. Aber gut - wers mag... mein Fall wars halt nicht.

Nakai
2009-09-18, 11:10:32
Für Effekte braucht man keine Shader.

Und nun?

Hab ich das etwa nicht geschrieben? ;D Ja Physikeffekte müssen schlussendlich auch gerendert werden, sonst sieht man sie nicht. ;)


mfg Nakai

Gast
2009-09-18, 11:15:37
Für mich ist es sinnfrei, in Zeiten von Quad-Cores, die acht Threads bearbeiten können und sich damit in aktuellen Spielen großteils langweilen, auf eine proprietäre Physik-API zu setzen.
Ich wusste gar nicht, das jeder einen Quad, geschweige den einen i7 hat.
Duals wurden bis heute erst gehypt als SpieleCPUs.


Was ich aber lustig finde: die Leute hier, die die Bedeutung von DX11 und auch DX10 runterspielen. Ich möchte gerne wissen, wieviele von denen Crysis im DX9-Modus spielen?
Ich gebs offen zu, das ich D3D10 fast nie nutze, aber ich tue es.
Schuld ist Vista/7 mit dem verkrüppelten Soundumfeld.

Gast
2009-09-18, 11:16:45
Meine persönliche Meinung: ich habe das PhysX-Level von UT3 angezockt und mir kamen die rumfliegenden Steine vor wie Styropor. Aber gut - wers mag... mein Fall wars halt nicht.
Ist in jedem Spiel anders umgesetzt, es gibt nicht das PhysX.

Ich persöhnlich mag kein Blur, auch gut jedem das seine.

Neocroth
2009-09-18, 11:30:29
Ist in jedem Spiel anders umgesetzt, es gibt nicht das PhysX.

Ich persöhnlich mag kein Blur, auch gut jedem das seine.

Ist mir schon klar ;) das war direkt auf UT3 bezogen, weil es lange Zeit als das Paradebeispiel für PhysX galt (zugegebenermaßen eher noch zu Ageia-Zeiten)
Ansonsten zocke ich nichts, was mit GPU-PhysX daherkommt. Also zieht das PhysX-Argument für mich persönlich nicht. DirectX11 hingegen würde mich schon reizen - allein schon wegen Stalker und Dirt2. AvP sieht auch nicht so übel aus, zumindest hats mir der Screenshot mit dem tessellierten Alien recht angetan.

btw.: das (meist total übertriebene) Blur kann ich auch nicht ausstehen...

Ich wusste gar nicht, das jeder einen Quad, geschweige den einen i7 hat.
Duals wurden bis heute erst gehypt als SpieleCPUs.

Also gerade unter den Zockern kauft sich doch heute kaum mehr einer einen Dual-Core. Ich habe mir vor einem Jahr noch den E8500 geholt, würde aber heute auf keinen Fall mehr einen Dual zum Zocken kaufen.
Und ich lege meine Hand ins Feuer, dass sich eher der Quad im Gamer-PC durchsetzen wird und nicht PhysX ;)

LovesuckZ
2009-09-18, 11:34:30
Du redest immer von PhysX - dir ist schon bewusst, dass Effektphysik in Zukunft auch über andere Middleware realisiert werden wird? PhysX war nur der Start in eine neue Zeit, in der es noch kein DC und OpenCL gab. Wer die Berechnung von Effektphysik den Sinn abspricht, der muss dies in Zukunft auch bei jeder anderen Art machen.
Abgesehen davon ist Quad-Core und PhysX genauso ein toller Vergleich wie Physik-Middleware und D3D11 Grafikkarte. :rolleyes:

Neocroth
2009-09-18, 11:42:23
Du redest immer von PhysX - dir ist schon bewusst, dass Effektphysik in Zukunft auch über andere Middleware realisiert werden wird?

Ja, weil nVidia PhysX als Argument bringt. Zudem habe ich weiter oben auch noch Havok genannt.

PhysX war nur der Start in eine neue Zeit, in der es noch kein DC und OpenCL gab.

Nun haben wir Quads, OpenCL und sogar noch Compute Shader. Heißt das nun, dass PhysX für dich nicht mehr so wichtig ist? :rolleyes:


Wer die Berechnung von Effektphysik den Sinn abspricht, der muss dies in Zukunft auch bei jeder anderen Art machen.

Tu ich ja auch nicht. Nur der Nutzen von (auf einen bestimmten IHV-Hersteller gebundenen) GPU-PhysX bleibt mir verborgen.


Abgesehen davon ist Quad-Core und PhysX genauso ein toller Vergleich wie Physik-Middleware und D3D11 Grafikkarte. :rolleyes:

wenn immer ich von PhysX gesprochen habe, dann meine ich GPU-beschleunigtes PhysX. Und da dieses nur auf nVidia-Karten verfügbar ist, wird dieses auch an die Verbreitung von nVidia-Karten gebunden bleiben.
Kaum ein Zocker würde sich heute noch einen Dualcore kaufen. Also habe ich als Hersteller eher die Sicherheit, dass der Spieler in Zukunft mehr freie CPU-Power zur Verfügung hat - zudem nVidia ja selbst sagt, die CPU fristet ein Schattendasein in aktuellen Spielen :rolleyes:

LovesuckZ
2009-09-18, 11:50:17
Ja, weil nVidia PhysX als Argument bringt. Zudem habe ich weiter oben auch noch Havok genannt.


Es gibt heute keine Alternative - aber in Zukunft weiterhin bechleunigte Effektphysik über die GPU.


Nun haben wir Quads, OpenCL und sogar noch Compute Shader. Heißt das nun, dass PhysX für dich nicht mehr so wichtig ist? :rolleyes:


PhysX ist für mich selbst genauso wichtig wie D3D1x.x - nämlich überhaupt nicht. Ich nehme es zZ mit und das war es. Ich spiele auch mit meiner PS3 - und die bietet beides nicht.


Tu ich ja auch nicht. Nur der Nutzen von (auf einen bestimmten IHV-Hersteller gebundenen) GPU-PhysX bleibt mir verborgen.

Der Nutzen ist der selbe, als wenn es jeder könnte.


wenn immer ich von PhysX gesprochen habe, dann meine ich GPU-beschleunigtes PhysX. Und da dieses nur auf nVidia-Karten verfügbar ist, wird dieses auch an die Verbreitung von nVidia-Karten gebunden bleiben.

Und das hat genau was mit Effektphysik zu tun?


Kaum ein Zocker würde sich heute noch einen Dualcore kaufen. Also habe ich als Hersteller eher die Sicherheit, dass der Spieler in Zukunft mehr freie CPU-Power zur Verfügung hat - zudem nVidia ja selbst sagt, die CPU fristet ein Schattendasein in aktuellen Spielen :rolleyes:

Du stellst somit den kompletten GPGPU Bereich in Frage.
Warum sollte nVidia wollen, dass CPUs bedeutender werden? Zeige dochmal die Aussage...

mapel110
2009-09-18, 11:53:06
http://www.digitimes.com/news/a20090918PD210.html
Nvidia CEO to visit Taiwan in October, to discuss 40nm contract prices with TSMC

Gast
2009-09-18, 11:58:21
Textverständis anyone? :rolleyes:
Wo spielen sie die Bedeutung herunter? Ich verstehe nicht, wie man das herauslesen kann. Aber vielleicht ist es auch wohlmöglich nur der AMD Fanboy, der D3D11 ohne nVidia als wichtiger empfindet und somit dies meint zu lesen.

Du bist mir ja einer... :hammer:
Nun ist deiner Meinung nach DX11 nicht so wichtig, lustig.
Als NV technologisch in Front war (NV40) hast du es noch ganz anders gesehen:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=1780298&postcount=689

Damals war deine Meinung, dass wir Nvidia danken dürfen, dass wir SM3.0-Spiele geboten bekommen.
Warum ist deine Meinung jetzt anders?
Nun müssten wir doch AMD dankbar sein, dass sie bald DX11-Hardware anbieten und die Entwicklung vorantreiben.
Warum lobst du jetzt nicht AMD?
NV-Fanboy?
Etwas anders kann ich mir nicht erklären.
Du machst dich echt lächerlich und merkst es noch nicht mal, ziemlich peinlich. :P

LovesuckZ
2009-09-18, 12:01:37
Wo ist meine Meinung anders? Und, was am interessantesten ist: Müsstest wir dann nVidia nicht für PhysX dankbar sein? :lol:

Neocroth
2009-09-18, 12:06:59
Es gibt heute keine Alternative - aber in Zukunft weiterhin bechleunigte Effektphysik über die GPU.


Leider - weil Havok wie schon gesagt nicht aus den Startlöchern kommt.


PhysX ist für mich selbst genauso wichtig wie D3D1x.x - nämlich überhaupt nicht. Ich nehme es zZ mit und das war es. Ich spiele auch mit meiner PS3 - und die bietet beides nicht.

Naja... ich kann mich noch an eine Diskussion zwischen uns beiden erinnern, wo du PhysX noch für bedeutend wichtiger als DX10.1 angepriesen hast. Ich bin zu faul, es aus deinen zigtausend bzw. aus meinen ~80 Beiträgen rauszusuchen. [EDIT, sind doch nur 71 :D]


Der Nutzen ist der selbe, als wenn es jeder könnte.


Nein. Weder für den Hersteller noch für den Markt. Du musst von der Ist-Situation ausgehen. Kein Spieler mit ATi-Grafik kann GPU-PhysX nutzen. Also wird der Hersteller es sich zweimal überlegen, ob er die Mehrarbeit investiert, damit etwas mehr als die Hälfte des Zielmarktes EVENTUELL davon profitiert.
Der Markt (also wir) leidet unter einer schleppenden Entwicklung - sowohl weil PhysX unter ATi nicht läuft als auch weil Konsolen den Fortschritt blockieren.
Der Nutzen ist also quasi nicht da. Wir können bei einer Handvoll Spielen nicht vom Nutzen von GPU-beschleunigten PhysX sprechen, genauso wie wir bei fünf DirectX10.1-Spielen kaum von einem großartigen Nutzen für den Spieler sprechen können.


Und das hat genau was mit Effektphysik zu tun?


Hier gehts nicht explizit um Effektphysik, sondern um nVidias PhysX, falls du das vergessen haben solltest. Macht nichts - ich erinnere dich wieder dran, solltest dus nochmal vergessen.


Du stellst somit den kompletten GPGPU Bereich in Frage.

Das habe ich nie behauptet ;)
Nichtsdestotrotz - was liegt aus Sicht eines Entwicklers(!) näher als die brachliegende CPU-Leistung für Physik zu nutzen, bevor ich mich an eine API EINES! IHVs binde?

Dass ich eine Entwicklung einer Engine, die mittels OpenCL oder Compute Shadern ebenfalls GPU-beschleunigt läuft, begrüßen würde habe ich nirgends abgestritten, oder? :rolleyes:

Leider gibts zu wenig Vielfalt auf diesem Markt. Außer PhysX, ODE, Karma und Havok fällt mir spontan keine weitere (etwas rennomiertere) Engine ein.

igg
2009-09-18, 12:14:08
Außer den Post von mapel110 finde ich hat die letzten paar Seiten hier nichts mit GT300 zu tun, sorry...

igg
2009-09-18, 12:15:42
Huang is also expected to check on TSMC's 40nm process, for which TSMC has claimed yield rates have already risen from 30%, to 60% in July, and defect density will drop to only 0.2 in October. Huang will also check the progress of its upcoming GT300 GPU which is expected to launch in December.http://www.digitimes.com/news/a20090918PD210.html

Das sieht doch ganz danach aus, als würden sich die Gerüchte um die Oktobervorstellung bewahrheiten.

Gast
2009-09-18, 12:16:33
Wo ist meine Meinung anders?
Lies deinen Beitrag sorgsam durch.

Und, was am interessantesten ist: Müsstest wir dann nVidia nicht für PhysX dankbar sein? :lol:
Und was genau hat PhysX mit der API DirectX zu tun?
Um die geht es mir nämlich und deine Aussagen, welche du zu DX früher gemacht hast und das du es heute auf einmal anders siehst, nur weil AMD diesmal die Vorreiterrolle bei der Technologie spielt.

War von dir aber nicht anders zu erwarten, deswegen EOD mit dir.
Ich habe keine Lust mich mit jemanden zu unterhalten, der noch nicht mal seine eigenen Beiträge versteht... :hammer:

Gast
2009-09-18, 12:21:36
Also gerade unter den Zockern kauft sich doch heute kaum mehr einer einen Dual-Core. Ich habe mir vor einem Jahr noch den E8500 geholt, würde aber heute auf keinen Fall mehr einen Dual zum Zocken kaufen.
Und ich lege meine Hand ins Feuer, dass sich eher der Quad im Gamer-PC durchsetzen wird und nicht PhysX ;)
Vor einem Jahr?
Soso, wie oft wechselt man so seine CPU? ;)

Der Markt ist noch voll mit Duals, teils auch Triples, selbst wenn heute jeder einen Quad kauft, so dauert der Umstieg, das jeder die Leistung eines Q9550 hat noch Jahre.
Bis zum i7 dauerts noch länger, besonders weils jetzt den i5 mit 4 Threads gibt.


PhysX Grafikkarten gibts seit 3 Jahren, PhysX seit einem Jahr. Jetzt wünscht man sich mehr als nur einen an/aus-Schalter, die Entwickler sind gefragt, das man den Grad an PhysX oder die Genauigkeit selbst regeln kann.

Die Lastverteilung CPU nach GPU muss auch dynamischer geschehen, pauschal sagen die CPU hat Reserve ohne Ende ist völlig daneben, zeigt auch der 3DC Artikel wenn man Dargo nicht glaubt.
Es muss einen Mittelweg geben möglichst alles maximal auszulasten, dynamisch je nach System oder nach Wunsch.

LovesuckZ
2009-09-18, 12:25:37
Naja... ich kann mich noch an eine Diskussion zwischen uns beiden erinnern, wo du PhysX noch für bedeutend wichtiger als DX10.1 angepriesen hast. Ich bin zu faul, es aus deinen zigtausend bzw. aus meinen ~80 Beiträgen rauszusuchen. [EDIT, sind doch nur 71 :D]

PhysX oder 10.1? Natürlich PhysX - mehr Optik ist immer besser als gleiche Optik nur schneller.
Aber wenn du im Gesamtkontext fragst: Natürlich nicht. Sonst dürfte ich auch nicht mit meiner PS3 spielen. :(


Nein. Weder für den Hersteller noch für den Markt. Du musst von der Ist-Situation ausgehen. Kein Spieler mit ATi-Grafik kann GPU-PhysX nutzen. Also wird der Hersteller es sich zweimal überlegen, ob er die Mehrarbeit investiert, damit etwas mehr als die Hälfte des Zielmarktes EVENTUELL davon profitiert.
Der Markt (also wir) leidet unter einer schleppenden Entwicklung - sowohl weil PhysX unter ATi nicht läuft als auch weil Konsolen den Fortschritt blockieren.
Der Nutzen ist also quasi nicht da. Wir können bei einer Handvoll Spielen nicht vom Nutzen von GPU-beschleunigten PhysX sprechen, genauso wie wir bei fünf DirectX10.1 kaum von einem großartigen Nutzen für den Spieler sprechen können.

Der Nutzen ist vorhanden - siehe die Spiele, die es verwenden. Welchen Nutzen hätte sonst z.B D3D10? Wenn wir Nutzen nur daran definieren, welchen Einfluss es auf das Gameplay hat, dann werden wir bald einsehen, dass vieles nutzlos ist. Und GPU-PhysX hat alleine deswegen einen Nutzen gehabt, weil es der Startschuß war. nVidia zwingt AMD zum Handeln. Das beschleunigt die Entwicklung um ein vielfaches - Konkurrenz eben.



Hier gehts nicht explizit um Effektphysik, sondern um nVidias PhysX, falls du das vergessen haben solltest. Macht nichts - ich erinnere dich wieder dran, solltest dus nochmal vergessen.

Nein - jedenfalls nicht bei de Teil, den du von mir am Anfang zitiert hast. Dort beschreibt Nakai alleinig nur Hardware-Physik ala GPU-beschleunigte Effekphysik.


Das habe ich nie behauptet ;)
Nichtsdestotrotz - was liegt aus Sicht eines Entwicklers(!) näher als die brachliegende CPU-Leistung für Physik zu nutzen, bevor ich mich an eine API EINES! IHVs binde?
Dass ich eine Entwicklung einer Engine, die mittels OpenCL oder Compute Shadern ebenfalls GPU-beschleunigt läuft, begrüßen würde habe ich nirgends abgestritten, oder? :rolleyes:


Es ist ein Paradoxon: Entweder werden die CPUs so deutlich schneller, dass GPU-beschleunigte Effektphysik wieder zurückwandern kann oder aber dass die GPUs es in Zukunft weiterhin erledigen werden - nur eben über OpenCL, DC, Cuda oder eine andere API.
Denn OpenCL und Konsorten hätten keinen Sinn, wenn die CPU in diesem Fall schneller wäre. Und somit negierst du den Nutzen von GPGPU für die Zukunft.

Lies deinen Beitrag sorgsam durch.

Wo ist meine Meinung anders?


Und was genau hat PhysX mit der API DirectX zu tun?
Um die geht es mir nämlich und deine Aussagen, welche du zu DX früher gemacht hast und das du es heute auf einmal anders siehst, nur weil AMD diesmal die Vorreiterrolle bei der Technologie spielt.

Aber wollen wir doch mal vergleichen: Wenn niemand die Infrastruktur erstellt, dass man Physik-Berechnungen auf der GPU ausführt, wie sollen dann GPU-beschleunigte Physikeffekte in Anwendungen verwendet werden? :confused:
nVidia ist also Technologievorreiter - also müssen wir sie wohl anpreisen. :lol:


War von dir aber nicht anders zu erwarten, deswegen EOD mit dir.
Ich habe keine Lust mich mit jemanden zu unterhalten, der noch nicht mal seine eigenen Beiträge versteht... :hammer:

Jap, du erwartest wohl nicht, das sich auf einen Troll auch noch vernünftig eingehe.
Aber ich finde es niedlich, dass du Aussagen von vor 5 Jahren raussuchst.
Wann darf ich denn in deinem "PhysX und nVidia sind die tollsten auf der Welt" Thread schreiben? Anscheinend müssen dir Technologieleader sehr am Herzen liegen.

Gast
2009-09-18, 12:33:45
Nichtsdestotrotz - was liegt aus Sicht eines Entwicklers(!) näher als die brachliegende CPU-Leistung für Physik zu nutzen, bevor ich mich an eine API EINES! IHVs binde?
Bisher nutzte man immer die CPU für Physik.
Die Entwickler waren mit der Physik Giesskanne immer recht zögerlich, muss auch daran liegen das wie oben erwähnt doch nicht so viel CPU Leistung brachliegt.

Ich habe nach HL2 gehofft das es mal schneller vorangeht, aber dem war nicht so.

Neocroth
2009-09-18, 13:11:04
Vor einem Jahr?
Soso, wie oft wechselt man so seine CPU? ;)


wir hier sind da kein Maßstab sag ich jetzt einfach mal ;)


Der Markt ist noch voll mit Duals, teils auch Triples, selbst wenn heute jeder einen Quad kauft, so dauert der Umstieg, das jeder die Leistung eines Q9550 hat noch Jahre.
Bis zum i7 dauerts noch länger, besonders weils jetzt den i5 mit 4 Threads gibt.

PhysX Grafikkarten gibts seit 3 Jahren, PhysX seit einem Jahr. Jetzt wünscht man sich mehr als nur einen an/aus-Schalter, die Entwickler sind gefragt, das man den Grad an PhysX oder die Genauigkeit selbst regeln kann.

Die Lastverteilung CPU nach GPU muss auch dynamischer geschehen, pauschal sagen die CPU hat Reserve ohne Ende ist völlig daneben, zeigt auch der 3DC Artikel wenn man Dargo nicht glaubt.
Es muss einen Mittelweg geben möglichst alles maximal auszulasten, dynamisch je nach System oder nach Wunsch.


fullAck, gebe dir uneingeschränkt Recht.

Bisher nutzte man immer die CPU für Physik.
Die Entwickler waren mit der Physik Giesskanne immer recht zögerlich, muss auch daran liegen das wie oben erwähnt doch nicht so viel CPU Leistung brachliegt.

Ich habe nach HL2 gehofft das es mal schneller vorangeht, aber dem war nicht so.

Naja, HL2 war noch zu SingleCore-Zeiten. Inzwischen sind wir bei 8 virtuellen Kernen angelangt.

PhysX oder 10.1? Natürlich PhysX - mehr Optik ist immer besser als gleiche Optik nur schneller.
Aber wenn du im Gesamtkontext fragst: Natürlich nicht. Sonst dürfte ich auch nicht mit meiner PS3 spielen. :(

Hä? Wie jetzt?

PhysX ist für mich selbst genauso wichtig wie D3D1x.x - nämlich überhaupt nicht.


Der Nutzen ist vorhanden - siehe die Spiele, die es verwenden. Welchen Nutzen hätte sonst z.B D3D10? Wenn wir Nutzen nur daran definieren, welchen Einfluss es auf das Gameplay hat, dann werden wir bald einsehen, dass vieles nutzlos ist. Und GPU-PhysX hat alleine deswegen einen Nutzen gehabt, weil es der Startschuß war. nVidia zwingt AMD zum Handeln. Das beschleunigt die Entwicklung um ein vielfaches - Konkurrenz eben.

Du betrachtest das ganze für eine Hand voll Spiele. Du musst das ganze generell für den Markt betrachten. Und da ist eine an nVidia-Hardware gebundene GPU-beschleunigte Physik-Engine kontraproduktiv, da sie den Fortschritt behindert. Wäre PhysX offen bzw. für jeden IHV zu verwenden, ich wäre sofort still.


Nein - jedenfalls nicht bei de Teil, den du von mir am Anfang zitiert hast. Dort beschreibt Nakai alleinig nur Hardware-Physik ala GPU-beschleunigte Effekphysik.

Nichtsdestotrotz sind wir hier im nVidia-Thread, daher rede ich gezielt von PhysX und von nichts anderem. Auch wird das hier der (wahrscheinlich) letzte Post von mir zu dem Thema PhysX sein - wurde eh schon alles 100mal durchgekaut, außerdem ist das der GT300-Thread und ich möchte keine Haue von Ail bekommen :D


Es ist ein Paradoxon: Entweder werden die CPUs so deutlich schneller, dass GPU-beschleunigte Effektphysik wieder zurückwandern kann oder aber dass die GPUs es in Zukunft weiterhin erledigen werden - nur eben über OpenCL, DC, Cuda oder eine andere API.
Denn OpenCL und Konsorten hätten keinen Sinn, wenn die CPU in diesem Fall schneller wäre. Und somit negierst du den Nutzen von GPGPU für die Zukunft.


Wieso ist es ein Paradoxon? CPUs werden nicht um soviel schneller - aber sie bekommen immer weniger zu tun. Wem nutzt ein zukunftiger Sechskernprozessor wenn nur 2 Kerne effektiv was zu tun bekommen?
Ich habe nie den Nutzen von GPU-beschleunigter Physik abgesprochen, sehr wohl aber den Nutzen von PhysX. Wie schon geschrieben - welcher Entwickler geht das Risiko ein und entwickelt für eine (für die Zukunft) fragwürdige API? Der nimmt dann doch lieber den risikolosen Weg und entwickelt die Physik für x86.

Ein weit hergeholter Vergleich, aber ähnliche Situation: das selbe ist mit den Soundkarten passiert. Von der CPU zur Karte zurück zur CPU.

Ich bleibe dabei: wenn sich an der jetzigen Situation nichts ändert, dann wird GPU-PhysX ein Nischendasein fristen. Ich hoffe immer noch, dass nVidia PhysX auf OpenCL/ComputeShader portiert, sodass man PhysX auch auf ATi (und Intel?) Hardware lauffähig bekommt. Das ist die einzige Chance, wie nVidia PhysX noch zum Durchbruch verhelfen könnte.

das wars von meiner Seite aus zu dem Thema ;)

BtT

LovesuckZ
2009-09-18, 13:32:24
Hä? Wie jetzt?

Ich habe in den letzten drei Jahren lernen müssen, dass es egal ist, was für ein Techlevel unterstützt wird - die Spiele machen nicht mehr Spaß. Im Gesamtkontext ist mir also vieles komplett egal. Eine PS3 z.B. unterhält mich genauso.
Aber wenn ich mich entscheiden müsste, z.B. zwischen PhysX und D3D10.1, dann nehme ich eben PhysX, weil es mir einen optischen Gegenwert gibt.


Du betrachtest das ganze für eine Hand voll Spiele. Du musst das ganze generell für den Markt betrachten. Und da ist eine an nVidia-Hardware gebundene GPU-beschleunigte Physik-Engine kontraproduktiv, da sie den Fortschritt behindert. Wäre PhysX offen bzw. für jeden IHV zu verwenden, ich wäre sofort still.

Wie kann nVidia den Fortschritt verhindern, wenn sie die waren, die den Fortschritt eingeleitet haben? Das ist totaler Nonsens. Die Diskussion ist durch nVidia entstanden und genau das ist Fortschritt.


Nichtsdestotrotz sind wir hier im nVidia-Thread, daher rede ich gezielt von PhysX und von nichts anderem. Auch wird das hier der (wahrscheinlich) letzte Post von mir zu dem Thema PhysX sein - wurde eh schon alles 100mal durchgekaut, außerdem ist das der GT300-Thread und ich möchte keine Haue von Ail bekommen :D

Du kannst gerne über alles reden - aber bitte zitiere mich nicht aus dem Kontext.


Wieso ist es ein Paradoxon? CPUs werden nicht um soviel schneller - aber sie bekommen immer weniger zu tun. Wem nutzt ein zukunftiger Sechskernprozessor wenn nur 2 Kerne effektiv was zu tun bekommen?

Weil die CPU in der Erledigung der Aufgaben nicht besser ist? Wir dekodieren heute Videos über die GPU. Warum? Weil es sinnvoller ist. Vielleicht brauchen wir in Zukunft auch keine 6-8-xxx Kerne, weil die GPU immer mehr Aufgaben übernehmen kann.


Ich habe nie den Nutzen von GPU-beschleunigter Physik abgesprochen, sehr wohl aber den Nutzen von PhysX. Wie schon geschrieben - welcher Entwickler geht das Risiko ein und entwickelt für eine (für die Zukunft) fragwürdige API? Der nimmt dann doch lieber den risikolosen Weg und entwickelt die Physik für x86.

PhysX ist eine Middleware. GPU-PhysX ist ein Feature davon. CPUs werden heute schon für die Physik-Berechnungen verwendet. Du forderst also etwas, was seit Jahren schon gemacht wird.
Und es bleibt deswegen ein Paradoxon, dass GPGPU deswegen interessanter wird, weil CPUs nicht schneller werden. AMD und nVidia werden die Geschwindigkeit zr Vorgängergeneration verdoppeln. Wann werden wir dies bei den CPUs sehen?


Ich bleibe dabei: wenn sich an der jetzigen Situation nichts ändert, dann wird GPU-PhysX ein Nischendasein fristen. Ich hoffe immer noch, dass nVidia PhysX auf OpenCL/ComputeShader portiert, sodass man PhysX auch auf ATi (und Intel?) Hardware lauffähig bekommt. Das ist die einzige Chance, wie nVidia PhysX noch zum Durchbruch verhelfen könnte.
BtT

Warum sollte nVidia das machen? PhysX wird als Middleware immer von Bedeutung sein, die UE3.0 wird weiterhin verwendet werden. Der Markt für GPU-PhysX ergibt sich alleinig darauf, dass es einfach ist zu implementieren. Abgesehen davon bleibt PhysX ein Nice-to-have bei nVidia, da die anderen Methoden auch von ihnen unterstützt wird.

LovesuckZ
2009-09-18, 13:44:39
Die-Photo? (http://translate.google.com/translate?hl=en&sl=auto&tl=en&u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D54577%26extra%3Dpage%25 3D1)

/edit: Wohl Fake.

AnarchX
2009-09-18, 14:00:28
Das ist der vermeintliche GT200b bzw. G100.

Neocroth
2009-09-18, 14:02:34
Die-Photo? (http://translate.google.com/translate?hl=en&sl=auto&tl=en&u=http%3A%2F%2Fbbs.chiphell.com%2Fviewthread.php%3Ftid%3D54577%26extra%3Dpage%25 3D1)

/edit: Wohl Fake.

Sieht nach Fake aus, obwohl Chiphell für gewöhnlich recht gut informiert ist.
Andererseits schreiben auch die nachfolgenden Poster, dass sie das Bild anscheinend schon kennen - wenn die Übersetzung stimmt.

btw. du hast ne PM von mir zwecks PhysX :D

EDIT:
Den 12 Goettern des Olympus sei dank
du darfst auch Neocroth zu mir sagen ;)

Ailuros
2009-09-18, 14:09:06
Sieht nach Fake aus, obwohl Chiphell für gewöhnlich recht gut informiert ist.
Andererseits schreiben auch die nachfolgenden Poster, dass sie das Bild anscheinend schon kennen - wenn die Übersetzung stimmt.

Ist es auch.

btw. du hast ne PM von mir zwecks PhysX :D

Den 12 Goettern des Olympus sei dank :rolleyes: (***edit: falls er auf ein PM nicht antworten sollte nimm es ihm nicht uebel; er ist nur privat schreibfaul :P )

Gast
2009-09-18, 14:48:10
Naja, HL2 war noch zu SingleCore-Zeiten. Inzwischen sind wir bei 8 virtuellen Kernen angelangt. Ich nicht (und viele andere erst recht) . ich stecke noch bei den 4 Kernen des Jahres 2006/2007 fest. ;)

HL2 hat ihmo irre Spass mit der Physik gebracht.
Wenn man sich überlegt was möglich wäre, wenn man das heute neuauflegt, irre.
Leider wurde es nicht neuaufgelegt, das meine ich damit, stattdessen passiert viel zu wenig in dem Bereich.

Eins stört an deiner Argumentation, die 8 Threads. 4 Threads bietet eine normale Mittelklasse CPU wie PII oder Q2Q, selbst die gehobene Mittelklasse bietet 4 Threads, i5.
Der P4 als Mittelklasse bot 2 Threads, aber damit will ich nicht die Leistung schön reden, ein i5 ist sicher 4mal so schnell.

Gast
2009-09-18, 15:05:17
du legst DEINE interessen und ansprüche anders aus, aber das entspricht nicht der merheit bzw. den ansprüchen der anderen.Er hat aber nicht ganz Unrecht. Ich habe lediglich eine einzelne GTX 280 und bei sämtlichen Spielen, bei denen kein MSAA möglich ist, dreht diese Däumchen am Anschlag des Vsync-Limits und das bei einer vergleichsweise hohen Auflösung von 1920x1200 bei 16x HQAF. Übrigens verhält sich das bei einer 9600GT ganz genauso so. Durch den Tausch hat man also in diesen Spielen überhaupt nichts gewonnen.

Selbst mit MSAA bestehen oft noch recht große Reserven. Für MSAA oberhalb von 4 Samples sehe ich irgendwie kaum einen Sinn und es kann doch auch nicht sein, dass der einzige Verwendungszweck von High-End-Karten bei leistungsverschlingendem SSAA liegt. Was ist mit ATI-Besitzern? Sollen die sich das perverse, weil imho sinnlose, 8x MSAA antun, nur damit sich die Karte nicht langweilt? Ich denke nicht, dass dies (bei beiden IHVs) Anreiz genug für den Kauf von High-End-Karten ist. Crysis ist von 2007 und bringt jede aktuelle Grafikkarte auch ohne AA an die Grenzen. Fast jeder Konsolenport von 2009 läuft durchgehend bei 60 FPS.Mal im Ernst. Kein Spiel mit Hardware-PhysX hat bis jetzt irgendwelche physikalische Effekte gezeigt, die bei mir die Kinnlade runterklappen ließen.Natürlich nicht. Solange man auch noch die GPUs anderer IHVs, als auch die Konsolen unterstützen möchte, kann man ganz einfach keine großartig spielrelevante GPU-beschleunigte Physik in Spielen verwenden. Dennoch ist es ja nicht so, dass seitens Nvidia ein riesiger Aufwand in PhysX gesteckt wird, der dann lediglich in einer kleinen Zahl von Spielen mündet. Die PhysX-Middleware existiert sowieso schon und auch CUDA ist ein wichtiges Standbein für NV. Warum dann nicht auch die beiden Sachen verbinden?Ich denke, GPU-beschleunigtes PhysX wird wie auch Truform oder PS1.4 scheitern.PhysX ja, CUDA nein. Imho macht Direct3D Compute-Shader CUDA nicht gleich obsolet. In Spielen und anderen weiten Teilen des Consumerbereichs durchaus, ja. Die Cashcow vermutet man bei NV allerdings in einem anderen Marktsegment, im HPC-Bereich. Wenn die den Entwicklern bereitgestellte Umgebung und der Support bei CUDA weiterhin vorbildlich ausfällt, wird es dort auch genutzt werden.

Slipknot79
2009-09-18, 15:14:05
Batman: http://forum.beyond3d.com/showpost.php?p=1336700&postcount=615

PhysX off = 58 average fps
PhysX Normal = 35 fps
PhysX High = 28 fps

... toll, halbe Geschwindigkeit. Na da schaltet man das doch gerne ein, oder? :freak:. Aber FPS sind laut nVidia in Zukunft sowieso egal ;D


Kann ich bestätigen (und das mit meinem System), zumindest für die Demoversion. Verstehen tu ich das nicht wirklich. Es fühlt sich so an, also ob Physx mit etwas anderem synchron laufen muss.

LovesuckZ
2009-09-18, 15:22:46
Kann ich bestätigen (und das mit meinem System), zumindest für die Demoversion. Verstehen tu ich das nicht wirklich. Es fühlt sich so an, also ob Physx mit etwas anderem synchron laufen muss.

Spiel mal ohne SLI und lass eine Karte PhysX übernehmen. Dann läuft alles bestens.
Man sollte bei den werten auch nicht vergessen, dass er in 2560x1600 8xMSAA/16xAF gebencht hat.

Ailuros
2009-09-18, 15:40:43
Spiel mal ohne SLI und lass eine Karte PhysX übernehmen. Dann läuft alles bestens.
Man sollte bei den werten auch nicht vergessen, dass er in 2560x1600 8xMSAA/16xAF gebencht hat.

Da ich JR nachgefragt habe erreicht er in 1920/4xAA physics high 45 fps.

=Floi=
2009-09-18, 17:55:31
ohne AA ist das ganze natürlich sinnlos, dafür ist die BQ auch nicht wirklich gut. DAS kann nicht der standard sein. ich möchte höchste BQ und die geht bei mir bei 8xAA an!

y33H@
2009-09-18, 18:20:07
8x RGMSAA = höchste BQ? oO

Ailuros
2009-09-18, 20:05:35
ohne AA ist das ganze natürlich sinnlos, dafür ist die BQ auch nicht wirklich gut. DAS kann nicht der standard sein. ich möchte höchste BQ und die geht bei mir bei 8xAA an!


Netter Sarkasmus. Wie dem auch sei laesst sich das Spiel auf heutiger hw besser spielen als manches andere neue Spiel. Das heisst aber wiederrum auch dass es besonders anspruchsvoll generell ist.

Hier haben die Entwickler einfach eine grosse Portion in physics gesteckt. Von dem bisschen was ich in einem trailer sehen konnte (und wie ich schon auf B3D erwaehnte) sieht es mir eher danach aus dass man mit den physics Effekten vielleicht doch auf high total uebertrieben hat. Ich stehe zwar nicht dafuer dass es man solche Effekte nur mit minimalster Anzahl implementieren sollte, aber ein gewisser Massstab koennte nicht schaden.

=Floi=
2009-09-18, 20:36:38
ich glaube wir reden aneinander vorbei. ich meinte den post weiter vorne und generell neue spiele die kein AA unterstützen. diese spiele können nicht die messlatte sein, nur weil die programmierer zu dumm oder zu faul sind richtig zu programmieren.

Ein spiel sieht mit 8xAA und mehr einfach schöner aus als eines ohne.
es zählen nicht nur bessere texturen oder gute shader, sondern auch eine gute BQ in form von gutem AA und AF. DAS ist doch am pc erst das salz in der suppe und genau deswegen siele ich am pc und nicht auf der konsole.

Ailuros
2009-09-18, 20:47:52
ich glaube wir reden aneinander vorbei. ich meinte den post weiter vorne und generell neue spiele die kein AA unterstützen. diese spiele können nicht die messlatte sein, nur weil die programmierer zu dumm oder zu faul sind richtig zu programmieren.

Ein spiel sieht mit 8xAA und mehr einfach schöner aus als eines ohne.
es zählen nicht nur bessere texturen oder gute shader, sondern auch eine gute BQ in form von gutem AA und AF. DAS ist doch am pc erst das salz in der suppe und genau deswegen siele ich am pc und nicht auf der konsole.


Eine absolute Regel fuer alle Faelle ist auch nicht unbedingt. Wir brauchen eine gute Balance von allem in einem Spiel; ander sinvolle Proportionen fuer jegliches Material. Was ich momentan eher brauchen koennte sind bessere Bildschirme; ie noch hoehere Aufloesungen auf kleineren Flaechen. Aber das wird dann schon wieder verdammt OT dass wir es lieber bleiben lassen.

mapel110
2009-09-18, 20:53:07
Bei Batman hat man wohl laut offiziellem Forum bereits an die nächste Grafikkartengeneration gedacht, als man PhysX Stufe High implementierte.

Slipknot79
2009-09-18, 20:59:50
Spiel mal ohne SLI und lass eine Karte PhysX übernehmen. Dann läuft alles bestens.


Bringt dann auch nur 5-6fps mehr oO Fühlt sich etwas hackelig an, aber wenn man auch noch Vsync per ini abdreht, ist es annehmbar.

Gast
2009-09-18, 23:42:36
Bei Batman hat man wohl laut offiziellem Forum bereits an die nächste Grafikkartengeneration gedacht, als man PhysX Stufe High implementierte.
Warum auch nicht, die Crysis Jungs haben auch nach vorne geblickt.

LovesuckZ
2009-09-19, 09:16:20
The GT300 is rumored to be in the shops in late November, which places it just after the 5xxx series launch. Of course all this could be a spoiler too and we will not know for sure until the reviews come in around Christmas.
http://www.tgdaily.com/content/view/44006/135/

:freak:

Gast
2009-09-19, 10:49:55
Da ich JR nachgefragt habe erreicht er in 1920/4xAA physics high 45 fps.

Ja - und in Außengebieten sind's dann schnarchige 25-30 Fps, da der integrierte Benchmark nur kleine Räumchen darstellt.

igg
2009-09-19, 11:48:33
http://www.tgdaily.com/content/view/44006/135/
Also ich finde, der Artikel wirft mehr Fragen auf als er beantwortet:
However Nvidia does not seem to want to let Ati get away with that and has been trying to release a few press release spoilers.
Wollen sie oder tun sie? Wieso nur bei tgdaily?
It claims that its next series of cards are not going to be based on a redesigned GT200 core, but rather will be based on a completely new core architecture currently codenamed the GT300.
Nichts neues was es zu spoilern gäbe...
It says that the GT300 has performance significantly higher than anything ATI and its RV870 core can manage.
Das ist, sollte es stimmen, nach der RV870 Vorstellung sicherlich eine gute Nachricht.
The GT300 is rumored to be in the shops in late November, which places it just after the 5xxx series launch. Of course all this could be a spoiler too and we will not know for sure until the reviews come in around Christmas.
Also die Karten kommen vielleicht im November, aber die Reviews (NDA?) um Weihnachten?

LovesuckZ
2009-09-19, 11:54:13
Ja, deswegen auch der Smiley. Text liest sich als ob man auf der Schwelle der Gossip-News mitschwimmen will.

Sefegiru
2009-09-19, 12:29:01
Da muss ich sagen mag ich den Stil von LS denn die News ist an sich keine News sondern eine hätte wäre wenn evtl möglichweise vielleicht Spekulation :)

Klar ich erwarte auch das GT300 schneller wird, aber ich hab keine genauen Infos und von daher sag ich auch nicht das er dann und wann da und dort zu kaufen sein wird, aber ich frag mal die Kassiererin bei REAL, evtl weiß die ja was.

Gast
2009-09-19, 14:31:40
It says that the GT300 has performance significantly higher than anything ATI and its RV870 core can manage.
na das ist doch wohl selbstverständlich, wenn schon ne aktuelle billigkarte von nv jeder 5000er ati die rücklichter zeigt ...
http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/

S940
2009-09-19, 14:58:32
aber ich frag mal die Kassiererin bei REAL, evtl weiß die ja was.
Dir wird sagen, dass sie keine Ahnung hat, wovon Du redest und damit eine Antwort abliefern, deren Informationsgehalt das durchschnittliche Posting hier um einiges übertrifft :freak:

Knuddelbearli
2009-09-19, 22:41:38
na das ist doch wohl selbstverständlich, wenn schon ne aktuelle billigkarte von nv jeder 5000er ati die rücklichter zeigt ...
http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/


wennde das erste meinst biste einfach nur peinlich und dazu noch zu feige mit dem eigenen nick zu posten

Beziehste dich ja sicher auf

For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”



tja ATI ist zumindest spielbar versuch mal nen dx titel mit 8x AA und 2560 auflösung mit ner Nv da haste 0 fps ^^ :P

Gast
2009-09-19, 22:52:17
tja ATI ist zumindest spielbar versuch mal nen dx titel mit 8x AA und 2560 auflösung mit ner Nv da haste 0 fps ^^ :P
Als ob 0,1-1,3 FPS spielbar wären. ;)


Die Marketingaussage hat schon mehr Recht, mit einer Geforce ist in Batman PhysX aktiverbar und flüssig geniessbar, auf einer Radeon nicht.
Somit kann man sich an D3D11 ergözen, auf dem Papier oder an Dingen die es schon gibt.
Gut gewählte Worte, Hut ab vorm Autor.

Ailuros
2009-09-20, 08:58:20
Ja - und in Außengebieten sind's dann schnarchige 25-30 Fps, da der integrierte Benchmark nur kleine Räumchen darstellt.

Dass outdoor Szenen mehr Leistung fressen ist normal bei allen Spielen. Das Spiel ist aber so oder so nicht generell besonders anspruchsvoll ausser man jagt physics auf high und da frisst es meistens eine Tonne an Leistung bei indoor Szenen wo etliche langweilige Fahnen wedeln und etliche Papierfetzen herumfliegen.

Wie ich schon sagte mir sieht es eher danach aus als ob die Entwickler hier mit der Anzahl der physics effects uebertrieben haben damit auch jeder Blinder einen Unterschied sehen kann. Frage: brauch ich wirklich zich Fahnen die vor sich hin wedeln damit die Atmosphaere bzw. gameplay besser wird?

Ich mach es Dir einfacher: ich persoenlich wuerde kein zusaetzliches Geld investieren fuer solche Uebertreibungen so lange man ein heutiges System mit maessigeren physics settings der Spielbarkeit anpassen kann. Dieses Spiel waere auch so oder so nicht in meinem Buch unter den Spielen fuer die ich aufruesten wuerde. Jedoch bei einem Dilemma zwischen R770 vs. GT200 koennte die Wage durchaus aufs zweite fallen, ueberhaupt wenn der Trend in kommenden Spielen so weitergeht.

Bei Cypress hab ich noch kein Dilemma da es nichts vergleichbares gibt. Besser so?

Knuddelbearli
2009-09-20, 09:03:52
meinte eher das die karte dort abstürzt ...

1,3 wäre ja nit 0

und ATI hat DX10.1 was min genausoviel bringt :P

wobei ich so oder so keinen standard unterstüze den nicht beide haben. freue mich höchstens wenn ein spiel grade das unterstützt.

V2.0
2009-09-20, 11:10:01
Dass outdoor Szenen mehr Leistung fressen ist normal bei allen Spielen. Das Spiel ist aber so oder so nicht generell besonders anspruchsvoll ausser man jagt physics auf high und da frisst es meistens eine Tonne an Leistung bei indoor Szenen wo etliche langweilige Fahnen wedeln und etliche Papierfetzen herumfliegen.

Wie ich schon sagte mir sieht es eher danach aus als ob die Entwickler hier mit der Anzahl der physics effects uebertrieben haben damit auch jeder Blinder einen Unterschied sehen kann. Frage: brauch ich wirklich zich Fahnen die vor sich hin wedeln damit die Atmosphaere bzw. gameplay besser wird?

Ich mach es Dir einfacher: ich persoenlich wuerde kein zusaetzliches Geld investieren fuer solche Uebertreibungen so lange man ein heutiges System mit maessigeren physics settings der Spielbarkeit anpassen kann. Dieses Spiel waere auch so oder so nicht in meinem Buch unter den Spielen fuer die ich aufruesten wuerde. Jedoch bei einem Dilemma zwischen R770 vs. GT200 koennte die Wage durchaus aufs zweite fallen, ueberhaupt wenn der Trend in kommenden Spielen so weitergeht.

Bei Cypress hab ich noch kein Dilemma da es nichts vergleichbares gibt. Besser so?

Ist halt wie DX9 damals. Da gab es auch genug Spiele die einen rundum Plastikglanz hatten, wenn man Shader auf "high" stellte. Dem Design hat es nicht gedient, aber jeder sah sofort, dass es DX9 konnte.

Gast
2009-09-20, 12:23:44
meinte eher das die karte dort abstürzt ...

1,3 wäre ja nit 0

Ach ja richtig, 1,3 FPS.
Muss man nur 30 Karten zusammenkoppeln und schon gehts rund.

und ATI hat DX10.1 was min genausoviel bringt :P

wobei ich so oder so keinen standard unterstüze den nicht beide haben. freue mich höchstens wenn ein spiel grade das unterstützt.
Falls du es überlesen hast, es war eine Marketingaussage seitens PhysX, also nicht von AMD.

Versuche mal so eine Aussage in Bezug auf ein .1 Spiel zu formulieren, wird schwierig.
Mir fällt nur Stalker CS ein, wo dank .1 eine höhere BQ ermöglicht wird, die auch noch flüssig darstellbar ist.

Ailuros
2009-09-20, 19:28:00
Ist halt wie DX9 damals. Da gab es auch genug Spiele die einen rundum Plastikglanz hatten, wenn man Shader auf "high" stellte. Dem Design hat es nicht gedient, aber jeder sah sofort, dass es DX9 konnte.

So ist es auch uebervereinfacht.

-------------------------------------------

***edit: gleicher Scherz wie im B3D Forum: jemand sollte das oede Hitler video nochmal abspien da Jensen TSMC besuchen wird. Jensen als ausgerasteter Hitler und die Offiziere als TSMC Angestellte. Er will ja die Entwicklung von D12U von nah ansehen *raeusper*

Gast
2009-09-21, 11:00:49
Das Problem ist doch, dass Mehrgrafik vielleicht nicht mehr so zieht wie früher. Deswegen Stereo3D und Eyefinity. Sie bieten ein anderes Spielgefühl, dass nicht durch mehr Grafik realisiert wird.
Das mit Stereo3D hat sich dann wohl erledigt... :
http://www.pcgames.de/aid,695490/3D-Monitor-W220S-von-Hyundai-im-Test-Sehr-gute-3D-Darstellung/PC/News/

Keine störende Brille und besserer 3D-Effekt.
Bye, Bye Stereo3D von Nvidia.
Ist auch gut so, denn wir leben im 21. Jahrhundert und 3D mit Brille ist schon total veraltet.

LovesuckZ
2009-09-21, 11:04:36
Du benötigst auch dort eine Brille:

Die von oben interlaced dargestellten ungeraden horizontalen Zeilen enthalten dabei die Information für das rechte Auge, die geraden Zeilen das Bild für das linke Auge. Da die Zeilen unterschiedlich polarisiert sind, sieht man mit aufgesetzter Polarisationsbrille nur die für das jeweilige Auge bestimmten Bilder. Im Display selbst wird ein sogenanntes Xpol 3D Filter Glas eingesetzt. Mithilfe des zirkularen Polarisationsfilters in der 3D-Brille wird aus den zwei Bildern eine 3D-Ansicht.

Ohne geht es auch nicht anders.

|MatMan|
2009-09-21, 11:17:49
ihh ne Polfilter-Lösung ist hässlich, da darf man nicht mal aus Versehen den Kopf etwas "schief" halten.
Sind das bei Stereo3D immer Polfilter basierte Brillen? (ok alles andere wäre wohl zu teuer)

LovesuckZ
2009-09-21, 11:19:13
Bei nVidia's Lösung sind es LCDs, die sich jeweils 60 mal pro Sekunde abdunkeln. Also keine Filter. Dafür hat man eben Probleme mit Ghosting.

AnarchX
2009-09-21, 11:20:54
Sind das bei Stereo3D immer Polfilter basierte Brillen? (ok alles andere wäre wohl zu teuer)
Nein, Nvidias 3DVision-Lösung basiert auf einer Shutter-Brille, wie die Lösungen Anfang des Jahrtausends. Mittlerweile sind LCDs und Plasmas schnell genug, auch hier dieses Verfahren einzusetzen.

Neocroth
2009-09-21, 12:02:41
Nein, Nvidias 3DVision-Lösung basiert auf einer Shutter-Brille, wie die Lösungen Anfang des Jahrtausends. Mittlerweile sind LCDs und Plasmas schnell genug, auch hier dieses Verfahren einzusetzen.

wie siehts da eigentlich mit dem Gewicht aus? Ich kann mich noch an die Elsa-Shutterbrillen erinnern, die wurden mit der Zeit etwas unangenehm. Insofern fand ich die Idee mit den Polfiltern vorteilhafter weil leichter und angenehmer zu tragen.

igg
2009-09-21, 12:08:39
Keine störende Brille und besserer 3D-Effekt.
Bye, Bye Stereo3D von Nvidia.
Ist auch gut so, denn wir leben im 21. Jahrhundert und 3D mit Brille ist schon total veraltet.
Und das ganze hat mit GT300 Spekulationen wieviel zu tun? 0 %? Oder ganze 0,1 %?

Abgesehen davon ist es inhaltlich falsch, da auch hier eine Brille benötigt wird.

Botcruscher
2009-09-21, 12:24:17
Mittlerweile sind LCDs und Plasmas schnell genug, auch hier dieses Verfahren einzusetzen.

Die TFTs dafür kann man an der Hand abzählen und sie sind teuer. Bei den restlichen 75Hz-Exemplaren kann man das vergessen.

RLZ
2009-09-21, 12:34:33
Das mit Stereo3D hat sich dann wohl erledigt... :
http://www.pcgames.de/aid,695490/3D-Monitor-W220S-von-Hyundai-im-Test-Sehr-gute-3D-Darstellung/PC/News/

Tolle Sache. Der gleichwertige Zalman für inzwischen 170 Euro hat Nvidia ja extrem unter Druck gesetzt. :freak:
Die Leute wollen einfach leider kein Stereogaming. Anders ist der aktuelle Markt nicht zuerklären.

Bei nVidia's Lösung sind es LCDs, die sich jeweils 60 mal pro Sekunde abdunkeln. Also keine Filter. Dafür hat man eben Probleme mit Ghosting.
Das Ghosting ist nicht stärker als mit der nvidia Lösung. Größtes Problem ist die starke Blickwinkelabhängigkeit mit 3D Brille und die etwas niedrigere Auflösung.

N0Thing
2009-09-21, 12:46:15
Hat er nicht das ghosting bei der Shutterbrille gemeint?

Spasstiger
2009-09-21, 12:51:58
ihh ne Polfilter-Lösung ist hässlich, da darf man nicht mal aus Versehen den Kopf etwas "schief" halten.
Begründung? Das Licht wir zirkular polarisiert, einmal linksdrehend, einmal rechtsdrehend. Ob du den Kopf gerade hältst oder neigst, ist für den Effekt völlig egal. Ein Problem hast du nur, wenn du dich mit dem Kopf zu stark aus der optischen Achse des Monitors rausbewegst, der 3D-Effekt ist blickwinkelabhängig.

LovesuckZ
2009-09-21, 12:57:33
Tolle Sache. Der gleichwertige Zalman für inzwischen 170 Euro hat Nvidia ja extrem unter Druck gesetzt. :freak:
Die Leute wollen einfach leider kein Stereogaming. Anders ist der aktuelle Markt nicht zuerklären.

Ich finde, dass ist verfrüht. 3D kommt erst jetzt in Mode und vorallen dank Hollywood wird sich 3D in Zukunft durchsetzen. Ich habe Final Destination 4 im 3D Kino gesehen und ich fand es beeindruckend. Die Fehldarstellungen wurden durch das Mittendringefühl komplett weggeblasen.


Das Ghosting ist nicht stärker als mit der nvidia Lösung. Größtes Problem ist die starke Blickwinkelabhängigkeit mit 3D Brille und die etwas niedrigere Auflösung.

Bezug mich auf nVidia's Lösung.

Ailuros
2009-09-21, 13:23:59
http://www.fudzilla.com/content/view/15587/1/

Nichts Neues aber es ist immer wieder interessant wie etwas von so geringer Wichtigkeit Schlagzeilen macht...

LovesuckZ
2009-09-21, 13:29:24
Er schreibt nur von Digitimes ab.
Interessant ist, dass man offentsichtlich bei Fudzilla von einer x2 Version ausgeht:

Even if something goes wrong, Nvidia will still show its hardware in late Q4 2009 just as they did with the Geforce GTX 295 dual-GPU and ship it in early Q1 2010. If this is to be the case, then the highly anticipated flagship GT300 dual-GPU card would likely make its way into retail channels during CES. All in all, let’s hope for Black Friday season launch on this one.

Mit der GTX295 hat man alle Optionen, die man für eine x2 benötigt - also unmöglich ist es nicht. Und da AMD bei 188 Watt angekommen ist, haben beide das Problem des hohen Stromverbrauches.

Ailuros
2009-09-21, 13:36:39
Nur ist CES etwas zu optimistisch fuer meinen Geschmack. Die GTX295 traegt die B revision des GT200b.

V2.0
2009-09-21, 13:36:48
http://www.fudzilla.com/content/view/15587/1/

Nichts Neues aber es ist immer wieder interessant wie etwas von so geringer Wichtigkeit Schlagzeilen macht...

Seimaccurate-Style: Nvidia CEO Jen-Hsun Huang will travel to TSMC headquarters in Hsinchu, Taiwan to pressure TSMC to give away the production secrets of ATI, as NV is still not capable of having a running version of GT300, In a desperate attempt to save NV.
The CEO is very unhappy because so far the yield for the GT300 has been as low as 0,2%.
With the 40nm line at full swing TSMC wants to sell the production slots, reserved for NV and their GT300, to ATI, which is shipping loads of RV870 right now and TSMC is incapable of satisfying the ever growing demand for the RV870 chips from OEMs worldwide.
Jen-Hsung now has to decide if he will pay for wafers, that he has no chip to use for, or if he gives the production capability to the firms rival.

Ailuros
2009-09-21, 14:03:01
Seimaccurate-Style: Nvidia CEO Jen-Hsun Huang will travel to TSMC headquarters in Hsinchu, Taiwan to pressure TSMC to give away the production secrets of ATI, as NV is still not capable of having a running version of GT300, In a desperate attempt to save NV,
The CEO is very unhappy because so far the yield for the GT300 has been as low as 0,2%.
With the 40nm line at full swing TSMC wants to sell the production slots reserved for NV and their GT300 to ATI, which is shipping loads of RV870 right now and TSMC is incapable of satisfying the every growing demand for the RV870 chips from OEMs worldwide.
Jen-Hsung now has to decide if he will pay for wafers, that he has no chip to use for, or if he gives the production capability to the firms rival.

Also das Hitler video steht mir dann schon besser als Idee :devil:

Neocroth
2009-09-21, 14:25:40
Seimaccurate-Style: Nvidia CEO Jen-Hsun Huang will travel to TSMC headquarters in Hsinchu, Taiwan to pressure TSMC to give away the production secrets of ATI, as NV is still not capable of having a running version of GT300, In a desperate attempt to save NV,
The CEO is very unhappy because so far the yield for the GT300 has been as low as 0,2%.
With the 40nm line at full swing TSMC wants to sell the production slots reserved for NV and their GT300 to ATI, which is shipping loads of RV870 right now and TSMC is incapable of satisfying the every growing demand for the RV870 chips from OEMs worldwide.
Jen-Hsung now has to decide if he will pay for wafers, that he has no chip to use for, or if he gives the production capability to the firms rival.

ymmd ;D

aber ist klar, dass nV versucht, präsent zu bleiben. Man darf dem Konkurrenten nicht kampflos das Feld überlassen. Deswegen glaube ich auch an eine Störaktion seitens nVidia am Tag des RV870-Launches - egal ob Benches oder vllt. sogar ein Counter-Launch? Nur wovon...?

nagus
2009-09-21, 14:32:31
ymmd ;D

aber ist klar, dass nV versucht, präsent zu bleiben. Man darf dem Konkurrenten nicht kampflos das Feld überlassen. Deswegen glaube ich auch an eine Störaktion seitens nVidia am Tag des RV870-Launches - egal ob Benches oder vllt. sogar ein Counter-Launch? Nur wovon...?

z.b. dx 10.1 grafikkarten oder irgendwelchen sinnfreien "füsX" benchmarks. weil DX11 ist ja "not important" :freak:

V2.0
2009-09-21, 14:47:21
Also das Hitler video steht mir dann schon besser als Idee :devil:
Das wird sicher auch kommen. Aber vielleicht schaffe ich es ja in die News. :D

Ailuros
2009-09-21, 14:48:22
z.b. dx 10.1 grafikkarten oder irgendwelchen sinnfreien "füsX" benchmarks. weil DX11 ist ja "not important" :freak:

Ein bisschen Treiberliebe kommt noch dazu.

|MatMan|
2009-09-21, 18:51:07
Begründung? Das Licht wir zirkular polarisiert, einmal linksdrehend, einmal rechtsdrehend. Ob du den Kopf gerade hältst oder neigst, ist für den Effekt völlig egal. Ein Problem hast du nur, wenn du dich mit dem Kopf zu stark aus der optischen Achse des Monitors rausbewegst, der 3D-Effekt ist blickwinkelabhängig.
Sorry für OT, aber das konnte ich nicht so stehen lassen, denn es ist schlicht falsch.
Bei zirkularer Polarisation ist die Abhängingkeit vom Winkel sogar noch stärker als linearer Polarisation (45° gegenüber 90° von "durchlassen" zu "sperren")! Deshalb treten Probleme auch schon recht früh auf, wenn man sich aus der Achse des Monitors bewegt. Genauso bekommt man Probleme am Bildrand, wenn der Bildschirm (und damit der Raumwinkel) zu groß ist.

Die ideale Lösung sind Brillen mit "spektralen Kammfiltern", aber die sind wohl zu teuer für den Consumer-Bereich.

Gipsel
2009-09-21, 20:01:07
Die ideale Lösung sind Brillen mit "spektralen Kammfiltern", aber die sind wohl zu teuer für den Consumer-Bereich.
Und nicht nur die Brillen. Wer hat denn schon einen entsprechenden Monitor dafür rumstehen? Der sollte ja statt 3 Subpixel/Pixel dann 6 haben, je drei für ein Auge. Und das soll dann ja auch noch eine ordentliche Farbwiedergabe haben, aber bei der Preisklasse möchte das dann ja wohl inklusive sein ;)

RLZ
2009-09-21, 20:48:09
Sorry für OT, aber das konnte ich nicht so stehen lassen, denn es ist schlicht falsch.
Bei zirkularer Polarisation ist die Abhängingkeit vom Winkel sogar noch stärker als linearer Polarisation (45° gegenüber 90° von "durchlassen" zu "sperren")! Deshalb treten Probleme auch schon recht früh auf, wenn man sich aus der Achse des Monitors bewegt.
Tun die Probleme das?
*Kopf dreh*
*Kopf weiter dreh*
*in andere Richtung dreh*
Also bei 45 Grad mitm Kopf zur Seite geneigt kriegt man ganz leichte Farbverfälschungen, aber es wäre auch verdammt unbequem so zu spielen...
*Brille auszieh*

|MatMan|
2009-09-22, 00:28:06
Und nicht nur die Brillen. Wer hat denn schon einen entsprechenden Monitor dafür rumstehen? Der sollte ja statt 3 Subpixel/Pixel dann 6 haben, je drei für ein Auge. Und das soll dann ja auch noch eine ordentliche Farbwiedergabe haben, aber bei der Preisklasse möchte das dann ja wohl inklusive sein ;)
Naja wenn man es spektral trennen würde und mit "abwechselnden Zeilen" pro Auge leben kann (wie es mit der aktuellen Polarisations-Lösung ist), dann bräuchte man keinen speziellen Monitor.
Das Problem ist eher, dass der Monitor das anzuzeigende Bild nicht "schön rechnen" darf. D.h. wenn der Treiber z.B. ein grün mit 500nm Wellenlänge darstellen will, dann muss das der Monitor auch genau so tun, sonst funktioniert das Ganze nicht.

Ich habe solch eine Lösung mal hier an der Uni live erlebt (allerdings mit 2 Beamern auf einer großen Leinwand, welche von Quadros angetrieben wurden) und es war ein echt krasses 3D-Erlebnis! :eek: Es geht also schon irgendwie ;)

Tun die Probleme das?
*Kopf dreh*
*Kopf weiter dreh*
*in andere Richtung dreh*
Also bei 45 Grad mitm Kopf zur Seite geneigt kriegt man ganz leichte Farbverfälschungen, aber es wäre auch verdammt unbequem so zu spielen...
*Brille auszieh*
Nein bei 45° siehst du keine leichten Farbverfälschungen sondern auf dem rechten Auge das Bild, welches für das linke bestimmt war (und umgedreht). Keine Ahnung was unser Gehirn dann daraus macht ;)
In der Mitte (bei 22,5°) siehst du auf beiden Augen beide Halbbilder, also in etwa so, als ob du ohne Brille auf den Monitor schaust. Je mehr du also von 0° (Kopf senkrecht) zu 22,5° kommst, desto mehr wirst du diese Halbbilder (also z.B. "doppelte Kanten") sehen.

Spasstiger
2009-09-22, 00:59:14
Nein bei 45° siehst du keine leichten Farbverfälschungen sondern auf dem rechten Auge das Bild, welches für das linke bestimmt war (und umgedreht).
Das musst du mir jetzt erklären. Bei linearer Polarisation wäre das der Fall, aber doch nicht bei zirkularer Polarisation.
/EDIT: Kann es sein, dass du davon ausgehst, dass die Brillengläser lineare Polarisatoren sind?

Gipsel
2009-09-22, 02:56:45
Naja wenn man es spektral trennen würde und mit "abwechselnden Zeilen" pro Auge leben kann (wie es mit der aktuellen Polarisations-Lösung ist), dann bräuchte man keinen speziellen Monitor.
Das Problem ist eher, dass der Monitor das anzuzeigende Bild nicht "schön rechnen" darf. D.h. wenn der Treiber z.B. ein grün mit 500nm Wellenlänge darstellen will, dann muss das der Monitor auch genau so tun, sonst funktioniert das Ganze nicht.
Ähm, nein.

Von einem normalen Monitor kommen nur 3 Wellenlängen (deswegen habe ich die Subpixel erwähnt). Man müßte jetzt zwei Sätze an Subpixeln mit leicht unterschiedlichen (durch die Kammfilter trennbaren) Grundfarben im Monitor haben, sonst geht es nicht. Zusätzlich müssen sich mit den beiden Sätzen an Grundfarben idealerweise noch der gleiche Farbraum darstellen lassen. Das ist alles nicht ganz so einfach und erst recht nicht billig.

RLZ
2009-09-22, 13:01:04
Nein bei 45° siehst du keine leichten Farbverfälschungen sondern auf dem rechten Auge das Bild, welches für das linke bestimmt war (und umgedreht). Keine Ahnung was unser Gehirn dann daraus macht ;)
In der Mitte (bei 22,5°) siehst du auf beiden Augen beide Halbbilder, also in etwa so, als ob du ohne Brille auf den Monitor schaust. Je mehr du also von 0° (Kopf senkrecht) zu 22,5° kommst, desto mehr wirst du diese Halbbilder (also z.B. "doppelte Kanten") sehen.
Du willst mir jetzt erklären was ich sehe? :freak:

Mal abgesehen davon, dass deine Erklärung so garnicht zu zirkularer Polarisation passt, sind da keine Doppelbilder oder vertauschte Seiten.
Dass du meinst da wäre keine Farbverfälschung, zeigt, dass du nie so eine Brille aufhattest mit irgendeinem TFT in der Nähe. Der Effekt ist bei normalen TFTs sogar noch wesentlich ausgeprägter. :rolleyes:

Gast_mboeller
2009-09-22, 13:46:21
Und nicht nur die Brillen. Wer hat denn schon einen entsprechenden Monitor dafür rumstehen? Der sollte ja statt 3 Subpixel/Pixel dann 6 haben, je drei für ein Auge. Und das soll dann ja auch noch eine ordentliche Farbwiedergabe haben, aber bei der Preisklasse möchte das dann ja wohl inklusive sein ;)

Vielleicht würde es mit diesen Monitoren funktionieren. 6 LED anstelle von 3 sind nicht so schwierig zu machen: http://www.unipixel.com/

Coda
2009-09-22, 15:16:40
Das kommt darauf an wie diese Technologie arbeitet. Wenn sie es damit nicht schaffen zwei Rottöne in komplett getrennten Wellenlängen anzuzeigen geht es nicht.

Gast_mboeller
2009-09-22, 16:46:16
Das kommt darauf an wie diese Technologie arbeitet. Wenn sie es damit nicht schaffen zwei Rottöne in komplett getrennten Wellenlängen anzuzeigen geht es nicht.

Sollte gehen. Die Farben werden nämlich nicht gleichzeitig, sondern nacheinander angezeigt. Wenn die LED also in einem anderen Wellenlängenbereich arbeiten dann funktioniert es; denke ich.

|MatMan|
2009-09-22, 19:46:05
Das musst du mir jetzt erklären. Bei linearer Polarisation wäre das der Fall, aber doch nicht bei zirkularer Polarisation.
/EDIT: Kann es sein, dass du davon ausgehst, dass die Brillengläser lineare Polarisatoren sind?
Stimmt - ich hatte noch lineare Polarisatoren im Kopf, denn die müssen auch noch in der Brille sein, damit das Ganze funktioniert.
Aber du hast Recht, das System funktioniert tatsächlich unabhängig vom Winkel des Kopfes, dafür kann man sich eben die Farbprobleme einhandeln. Sorry, Denkfehler von mir.

Von einem normalen Monitor kommen nur 3 Wellenlängen (deswegen habe ich die Subpixel erwähnt). Man müßte jetzt zwei Sätze an Subpixeln mit leicht unterschiedlichen (durch die Kammfilter trennbaren) Grundfarben im Monitor haben, sonst geht es nicht. Zusätzlich müssen sich mit den beiden Sätzen an Grundfarben idealerweise noch der gleiche Farbraum darstellen lassen. Das ist alles nicht ganz so einfach und erst recht nicht billig.
Ja da hatte ich gestern Abend etwas zu "schnell gedacht" und hatte unsere programmierbare Lichtquelle hier im Kopf ;) Ich hatte ja von spektral unterschiedlichen Zeilen gesprochen (alternierend für rechts/links, wenn man damit leben kann), was ja im Prinzip 6 Subpixeln entspricht, aber eben die vertikale Auflösung halbiert.
So wirklich nur 3 Wellenlängen kommen nicht von einem Monitor, da das Backlight ja normalweise breitbandig (also weiss) ist und die Filter für die Subpixel auch recht breit sind. Das ist ja leider gerade das Problem, dass diese Filter nicht steil genug sind. Wäre das so, könnte man ja recht einfach 3 "andere", zusätzliche Wellenlängen für das 2te Bild finden.
Wir hatten hier übrigens insgesamt 6 Beamer statt nur 2, wenn ich mich recht erinnere hmz...

Mal abgesehen davon, dass deine Erklärung so garnicht zu zirkularer Polarisation passt, sind da keine Doppelbilder oder vertauschte Seiten.
Ja ich hatte da noch etwas von der linearen Polarisation im Kopf, siehe oben.

Dass du meinst da wäre keine Farbverfälschung, zeigt, dass du nie so eine Brille aufhattest mit irgendeinem TFT in der Nähe. Der Effekt ist bei normalen TFTs sogar noch wesentlich ausgeprägter. :rolleyes:
Ich habe schon mit Polfiltern und TFTs "gespielt", allerdings nicht mit so einer Brille, da hast du Recht.
Die Farbverfälschungen sind der Preis dafür, dass du den Kopf neigen kannst ohne Halbbilder zu sehen, denn ein zirkularer Polarisatorer ist an sich immer nur für eine bestimmte Wellenlänge geeignet. Die spektral so breit zu bekommen ist nicht ganz trivial.

|MatMan|
2009-09-22, 19:48:19
Vielleicht würde es mit diesen Monitoren funktionieren. 6 LED anstelle von 3 sind nicht so schwierig zu machen: http://www.unipixel.com/
Kommt darauf an was die für LEDs haben bzw. was für Filter davor. "Normale" LEDs haben leider noch ein relativ breites Spektrum.

Edit: Ok, die müssen ja keine LEDs als Lichtquelle nehmen. Mit sprektral schmalen Lichtquellen wäre das interessant.

Gipsel
2009-09-22, 20:28:54
Wir hatten hier übrigens insgesamt 6 Beamer statt nur 2, wenn ich mich recht erinnere hmz...
Na dann tippe ich mal ins Blaue (;)), das waren in Wirklichkeit zwei Laserprojektoren (je rot, grün, blau, zwischen den beiden Projektoren minmal unterschiedlich), da hast Du dann nämlich recht schmale Grundfarben, die sich gut trennen lassen, auch wenn sie für das Auge praktisch gleich aussehen.

|MatMan|
2009-09-22, 22:11:00
Na dann tippe ich mal ins Blaue (;)), das waren in Wirklichkeit zwei Laserprojektoren (je rot, grün, blau, zwischen den beiden Projektoren minmal unterschiedlich), da hast Du dann nämlich recht schmale Grundfarben, die sich gut trennen lassen, auch wenn sie für das Auge praktisch gleich aussehen.
Nein, sind DLP Projektoren, 2 Stück pro Leinwand, 3 Leinwände -> 6 Beamer.
Das Verfahren nennt sich INFITEC, mehr Infos bei Wikipedia (http://en.wikipedia.org/wiki/Infitec) und der Firma (http://www.barco.com/en/virtualreality/), die es entwickelt hat und verkauft.

Aber jetzt mal zurück zum eigentlichen Thema GT300...

Hübie
2009-09-23, 02:31:24
Langsam frage ich mich wie nVidia das hinbekommen will bis Dezember potente Mengen an den Endkunden zu liefern?
Nicht das ich das nicht will aber ich wills nicht glauben.
Vermutung: Das wird wie die HD58xx erstmal ein Papiertiger sein.

bye Hübie

Coda
2009-09-23, 03:14:51
Wer sagt, dass NVIDIA überhaupt bis Dezember liefern kann?