PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - ATi bestätigt: Assassin's Creed nutzt D3D 10.1


Seiten : [1] 2 3 4

Schlammsau
2008-04-18, 14:23:19
@Computerbase
http://www.computerbase.de/news/software/spiele/actionspiele/2008/april/ati_assassins_creed_d3d_101/

Auszug......
Doch das war anscheinend noch nicht genug, denn Assassin's Creed unterstützt, ohne es wirklich mitzuteilen, neben den auf allen modernen Grafikkarten verfügbaren Direct3D-10-Pfad darüber hinaus die Direct3D-10.1-API, die bis jetzt nur auf Radeon-HD-3000-Karten von ATi genutzt werden kann. Zumindest berichten das die Kollegen von Rage3D. Denn dort konnte man auf einer Radeon HD 3870 X2 einen Performanceunterschied zwischen Windows Vista im Urpsrungszustand und Windows Vista mit installiertem Service Pack 1 feststellen.


.....und ich dachte, DX10.1 wird frühestens in einem Jahr implementiert!

Gast
2008-04-18, 14:34:18
Kein wunder das die das nicht an die große Glocke hängen, da AC ein TWIMTBP-Game ist und NV nicht die HW im Program hat.

Schlammsau
2008-04-18, 14:41:06
Was ist ein TWIMTBP Game?

anderer Gast
2008-04-18, 14:42:12
The Way It's Meant To Be Played

gbm31
2008-04-18, 14:43:15
grade deswegen würd ichs an atis stelle an die große glocke hängen. ;)

Schlammsau
2008-04-18, 14:43:34
The Way It's Meant To Be Played
ahhhhhsoooooo ;)

keinernsthafternick
2008-04-18, 14:44:13
klingt interessant....umfassende benchmarks wären da mal wünschenswert...

ausserdem eine einschätzung wieviel mehraufwand so ein modus in sich birgt...

es wird sicher nicht dabei bleiben den shadercode mit dx10.1 flag zu compilieren...da ja scheinbar auch eine speziele anti aliasingtechnik zum einsatz kommt

Gast
2008-04-18, 14:44:34
Was ist ein TWIMTBP Game?

http://www.nzone.com/object/nzone_twimtbp_gameslist.html

Gast
2008-04-18, 14:50:15
klingt interessant....umfassende benchmarks wären da mal wünschenswert...

ausserdem eine einschätzung wieviel mehraufwand so ein modus in sich birgt...

es wird sicher nicht dabei bleiben den shadercode mit dx10.1 flag zu compilieren...da ja scheinbar auch eine speziele anti aliasingtechnik zum einsatz kommt

Test: http://www.rage3d.com/articles/assassinscreed/

dr_mordio
2008-04-18, 15:32:30
das freut mich jetzt aber.
werde dem game mal eine chance geben und es mir mal in DX10.1 vornehmen :D

allerdings sieht man in dem test auch noch was anderes.
die alte 2900XT legt mit SP1 auch zu.
allerdings nur sehr wenig.
aber immerhin scheint sich mit SP1 tatsächlich etwas an der gameperformance getan zu haben

MfG
Alex

Schlammsau
2008-04-18, 15:33:07
Test: http://www.rage3d.com/articles/assassinscreed/

sehr interessant! Ein paar fps vor allem mit AA bringt es wirklich!

Gast
2008-04-18, 15:40:03
Bitte schließen wieviele Threads muss man davon noch lesen?

MikBach
2008-04-18, 15:41:28
sehr interessant! Ein paar fps vor allem mit AA bringt es wirklich!
Vor allem in dem sehr wichtigen Min-fps-Bereich.
Sieht wirklich gut aus. :cool:

edit:
Bitte schließen wieviele Threads muss man davon noch lesen?
Welchen Thread meinst du? Würde mich interessieren. :)

Schlammsau
2008-04-18, 15:43:30
Ich würde zugern selber nachbenchen....nur wie?

Gast
2008-04-18, 15:45:21
sehr interessant! Ein paar fps vor allem mit AA bringt es wirklich!

Glaube keinen Ergebnissen, die du nicht selber gefälscht hast. ;)

Schlammsau
2008-04-18, 15:46:24
Glaube keinen Ergebnissen, die du nicht selber gefälscht hast. ;)
deswegen selber nachtesten! ;)

MikBach
2008-04-18, 15:47:12
Glaube keinen Ergebnissen, die du nicht selber gefälscht hast. ;)
Beweise das Gegenteil, bevor du so dumme Sprüche abläßt...:rolleyes:

Gast
2008-04-18, 15:47:57
Beweise das Gegenteil, bevor du so dumme Sprüche abläßt...:rolleyes:

Rage3d.com ist eine Ati Fanseite...

Schlammsau
2008-04-18, 15:51:24
und wenns so ist....na und? das benchmark ergebnisse derart stark verfälscht veröffentlicht werden, halte ich für ein gerücht! schliesslich wurde ja mit keiner nv karte verglichen!
es geht einzig allein um die fps steigerung bei ati karten zwischen dx10 und dx10.1!

Gast
2008-04-18, 15:57:47
es geht einzig allein um die fps steigerung bei ati karten zwischen dx10 und dx10.1!

Und was macht das für einen Unterschied? Leute seid ihr leichtgläubig....

MikBach
2008-04-18, 16:05:13
Und was macht das für einen Unterschied? Leute seid ihr leichtgläubig....
Auch wenn diese Info vom ATI/AMD selbst kommen würde...
Solange es keinen Gegenbeweis gibt, muss man das hinnehmen, was man hat.

So ist es nunmal. :D

Schlammsau
2008-04-18, 16:05:22
Und was macht das für einen Unterschied? Leute seid ihr leichtgläubig....
erklär mir das....was meinst du?

dargo
2008-04-18, 16:05:30
@Computerbase
http://www.computerbase.de/news/software/spiele/actionspiele/2008/april/ati_assassins_creed_d3d_101/



.....und ich dachte, DX10.1 wird frühestens in einem Jahr implementiert!
Bravo Ubisoft. :uclap:
Dafür unterstützt AC kein 64Bit Betriebssystem:
http://www.gameswelt.de/news/30166-Assassins_Creed_-_bUpdateb_Definitiv_keine_64-Bit-Unterstuetzung.html

:down:

Gast
2008-04-18, 16:07:42
schliesslich wurde ja mit keiner nv karte verglichen!


Das ist genau einer der Negativpunkte, denn dann würde man ja sehen, dass die Nv Karten immer noch erheblich schneller sind als die ATIs.

mapel110
2008-04-18, 16:07:46
Bravo Ubisoft. :uclap:
Dafür unterstützt AC kein 64Bit Betriebssystem:

:down:
Auf Ramverbrauch höher als 2 GB für ein Spiel kann man auch (noch) verzichten. :ugly:

Außerdem, was brachte denn bisher 64bit bei Games? Bessere Texturen? ^^

Gast
2008-04-18, 16:09:20
Schwach, dargo, schwach.

Creed läuft bestens auf Vista 64. Immer diese alten News die neu aufgekocht werden müssen.

dargo
2008-04-18, 16:11:22
Auf Ramverbrauch höher als 2 GB für ein Spiel kann man auch (noch) verzichten. :ugly:

Außerdem, was brachte denn bisher 64bit bei Games? Bessere Texturen? ^^
Ich habe zwei Betriebssysteme - XP64 und Vista64. Was mache ich nun? :confused:
Lustigerweise funktioniert AC bei mir mit XP64. Nur bei Vista64 startet der Rechner neu sobald ich AC anschmeiße. Jetzt darf ich wieder Vista32 nur wegen AC installieren? (no)

Schwach, dargo, schwach.

Creed läuft bestens auf Vista 64. Immer diese alten News die neu aufgekocht werden müssen.

32893

LovesuckZ
2008-04-18, 16:17:25
Das ist genau einer der Negativpunkte, denn dann würde man ja sehen, dass die Nv Karten immer noch erheblich schneller sind als die ATIs.

Richtig. Der einzige Vergleichsttest in AC mit nVidia Karten ist von Driverheaven.
http://www.driverheaven.net/reviews.php?reviewid=544&pageid=18

Was AMD anpreisen sollte, ist die bessere Bildqualität.

Gast
2008-04-18, 16:19:42
Auch wenn diese Info vom ATI/AMD selbst kommen würde...
Solange es keinen Gegenbeweis gibt, muss man das hinnehmen, was man hat.

So ist es nunmal. :D

Es braucht ja erstmal einen Beweis...was zu beweisen gilt. Unabhängige Test keine vorgefertigten.

Banshee18
2008-04-18, 16:22:53
Außerdem, was brachte denn bisher 64bit bei Games? Bessere Texturen? ^^
Z.B. in der Crysis-Timedemo bei mir ca. 5fps mehr bei den Minimum-Frames. Wenn es Vista nur als 64bit-Version gäbe würden bestimmt noch mehr Spiele davon profitieren.

Exxtreme
2008-04-18, 16:24:25
Kein wunder das die das nicht an die große Glocke hängen, da AC ein TWIMTBP-Game ist und NV nicht die HW im Program hat.
TWIMTBP bedeutet nicht, daß das Spiel auf NV-Hardware am besten läuft.

Schlammsau
2008-04-18, 16:27:37
Ich wünsche mir, dass alle Ungläubigen diesen Thread verlassen und woanders ihre Kommentare ablassen! Hier geht es nur um ATI und DirectX 10.1!
Ich habs so dick, immer diese dummen Kommentare zu lesen!

Gast
2008-04-18, 16:28:02
TWIMTBP bedeutet nicht, daß das Spiel auf NV-Hardware am besten läuft.

Auf 8800 Karten meistens dann aber doch.

Gast
2008-04-18, 16:28:12
Naja beim nächsten Titel werden sie wohl auf die $ bzw. manpower von nvidia verzichten müssen nach der aktion ;)

Iceman346
2008-04-18, 16:28:47
Ich habe zwei Betriebssysteme - XP64 und Vista64. Was mache ich nun? :confused:
Lustigerweise funktioniert AC bei mir mit XP64. Nur bei Vista64 startet der Rechner neu sobald ich AC anschmeiße. Jetzt darf ich wieder Vista32 nur wegen AC installieren? (no)

Sehr seltsam, bei mir tut AC unter Vista 64 völlig problemlos.

Gast
2008-04-18, 16:29:13
Ich wünsche mir, dass alle Ungläubigen diesen Thread verlassen und woanders ihre Kommentare ablassen! Hier geht es nur um ATI und DirectX 10.1!
Ich habs so dick, immer diese dummen Kommentare zu lesen!

Dann poste es doch auch in das Ati Forum wo es hingehört.

Schlammsau
2008-04-18, 16:31:07
Dann poste es doch auch in das Ati Forum wo es hingehört.
Nein da gehört es nicht hinein! :mad:
Oder geht es hier um "Hardware Hilfe"!
Hier soll diskutiert werden!

Gast
2008-04-18, 16:32:27
Nein da gehört es nicht hinein! :mad:
Oder geht es hier um "Hardware Hilfe"!
Hier soll diskutiert werden!

Na siehste also biste auch keine Extrawurst, hier darf jeder schreiben auch Gäste Sportsfreund.

Schlammsau
2008-04-18, 16:33:44
Dann sollen die Gäste auf qualifizierte Kommentare abgeben! ;)

Rainman2k
2008-04-18, 16:33:54
Dann poste es doch auch in das Ati Forum wo es hingehört.


einer der Gründe, warum Gäste registrierpflicht haben sollten.

Ich find die Leistungs - und Bild steigerung doch schon erheblich.
Dafür das es nvidia NICHT hat, hat ATi es aber WENIG nötig sich damit aufzugeilen - zumindest bis jezt.

Ich denke, mit der richtung geht ATi dne besseren weg Ihre vorhandenen Kunden zu halten, und nicht mit allen Mitteln ($ von NV -> crytek) "Ihr" Produkt unterzuzwingen.

Gruss

MikBach
2008-04-18, 16:35:19
Richtig. Der einzige Vergleichsttest in AC mit nVidia Karten ist von Driverheaven.
http://www.driverheaven.net/reviews.php?reviewid=544&pageid=18

Was AMD anpreisen sollte, ist die bessere Bildqualität.
Ist aber nicht mit DX10.1 getestet worden...:wink:

Schlammsau
2008-04-18, 16:35:50
unqualifizierte posts wie diese:
Bitte schließen wieviele Threads muss man davon noch lesen?
Glaube keinen Ergebnissen, die du nicht selber gefälscht hast. ;)
Rage3d.com ist eine Ati Fanseite...
Und was macht das für einen Unterschied? Leute seid ihr leichtgläubig....
Das ist genau einer der Negativpunkte, denn dann würde man ja sehen, dass die Nv Karten immer noch erheblich schneller sind als die ATIs.
Dann poste es doch auch in das Ati Forum wo es hingehört.
2 Seiten Thread un dschon so viel Müll!

LovesuckZ
2008-04-18, 16:36:32
Ist aber nicht mit DX10.1 getestet worden...:wink:

Ja, eine X2 auf 8800GTS Niveau mit 10.1. Aber wie sähe es mit einer 3870 aus?
Man, wieso können solche Sachen nicht gleich beim ersten Test vernünftig realisiert werden. :rolleyes:

Gast
2008-04-18, 16:37:20
Das ist genau einer der Negativpunkte, denn dann würde man ja sehen, dass die Nv Karten immer noch erheblich schneller sind als die ATIs.

Darum gehts hier nicht...

...AA funktioniert z.b. immer bei D3D 10.1 in AC


TWIMTBP bedeutet nicht, daß das Spiel auf NV-Hardware am besten läuft.

Hab ich ja nicht behautet :)

deekey777
2008-04-18, 16:40:20
Ist aber nicht mit DX10.1 getestet worden...:wink:
Auch soll das AC-Profil erst mit einem nichtoffiziellen Treiber hinzugefügt worden sein.

Zu den sehr schwachsinnigen Kommentaren mancher über die Qualität des R3D-Artikels: Es ist einfach zum Kotzen, was einige hier ablassen. Hat irgendeiner von den Trollen überhaupt die Meldung bei CB gelesen? Und auch verstanden, wer den Artikel bei R3D geschrieben hat und ob dieser weitere Leute um Rat gebeten hat?

http://forum.beyond3d.com/showthread.php?t=47686

Schlammsau
2008-04-18, 16:51:24
Leute....wie kann es sein, dass Directx 10.1 doch jetzt schon Verwendung findet!





Zu den sehr schwachsinnigen Kommentaren mancher über die Qualität des R3D-Artikels: Es ist einfach zum Kotzen, was einige hier ablassen. Hat irgendeiner von den Trollen überhaupt die Meldung bei CB gelesen? Und auch verstanden, wer den Artikel bei R3D geschrieben hat und ob dieser weitere Leute um Rat gebeten hat?

http://forum.beyond3d.com/showthread.php?t=47686

Kann dem nur beipflichten!

Quaker
2008-04-18, 16:57:56
unqualifizierte posts wie diese:






2 Seiten Thread un dschon so viel Müll!
Aha, krass - ich weiss glaub warum ich erst gerade die Gäaste auf meine Ignore List gesetzt habe... :)
Als momentaner Besitzer einer ATI Karte kann ich mir eigentlich nur wünschen dass auch noch weitere Entwickler dem Beispiel von AC folgen werden.

Gast
2008-04-18, 17:00:28
Ja, eine X2 auf 8800GTS Niveau mit 10.1. Aber wie sähe es mit einer 3870 aus?
Man, wieso können solche Sachen nicht gleich beim ersten Test vernünftig realisiert werden. :rolleyes:

Siehst doch das die Treiber schon für Nvidia Karten optimiert worden.

Gast
2008-04-18, 17:02:23
Kann dem nur beipflichten!

Tu nicht immer einen auf neutral , daß nimmt dir eh niemand ab.

Rainman2k
2008-04-18, 17:04:56
Tu nicht immer einen auf neutral , daß nimmt dir eh niemand ab.


Dir im übrigem genauso wenig / ot ende.

Ich finds gut, das 10.1 schon implementiert wird... so hat ATi wenigstens "inoffiziell" verkaufsargumente und es spielt mehr Geld in die Kassen.
Ist sicher nciht die verkehrteste Variante...

Zumal Ati nun bisschen Vorsprung hat, was den TReiber für 10.1 angeht.. :)

Gruss

Schlammsau
2008-04-18, 17:04:59
Aha, krass - ich weiss glaub warum ich erst gerade die Gäaste auf meine Ignore List gesetzt habe... :)
Als momentaner Besitzer einer ATI Karte kann ich mir eigentlich nur wünschen dass auch noch weitere Entwickler dem Beispiel von AC folgen werden.

geht das wirklich.....kann man Gäste ignoren?

MikBach
2008-04-18, 17:13:22
Ja, eine X2 auf 8800GTS Niveau mit 10.1. Aber wie sähe es mit einer 3870 aus?
Man, wieso können solche Sachen nicht gleich beim ersten Test vernünftig realisiert werden. :rolleyes:
LS, ich glaube du hast die Intention diesen Threads nicht richtig verstanden. :)
Wenn ich Schlammsau richtig veranden habe, dann geht es ihm darum, dass es (auch hier im 3dCenter) oft gesagt wurde, dass 10.1 nicht so wichtig ist und wohl sehr langsam Verbreitung finden würde.
AC beweist eindrucksvoll das Gegenteil.
Es geht nicht um ATI vs NV, sondern darum, dass 10.1 doch wichtiger ist, als es so manche angenommen haben.

Gast
2008-04-18, 17:17:09
Wichtig ist es erst dann, wenn es alle (oder die meisten) Games unterstützen. Daher sollte man das Thema nicht überbewerten. Die meisten können ohnehin kein AA verwenden weil die Performance dafür einfach nicht ausreicht. Also wozu die Aufregung?

LovesuckZ
2008-04-18, 17:17:13
Natürlich geht es um AMD und nVidia. Der einzige Vorteil ist die bessere Bildqualität. Leistungstechnisch interessiert es den Käufer nicht, wenn das Konkurrenzprodukt immer noch schneller ist.
Ohne vernünftige Vergleiche sehe ich die bessere Bildqualität. Und jetzt stellt sich die Frage, ob das Spiel eben auch mit AA in der gewünschten Auflösung spielbar ist.
Und das 10.1 irgendwann verwendet hat, ist doch der Lauf der Dinge.

Coda
2008-04-18, 17:23:21
Zumal Ati nun bisschen Vorsprung hat, was den TReiber für 10.1 angeht.. :)
Treiber sollten da das kleinste Problem sein.

Die Änderungen von D3D10.1 sind was die API angeht wirklich relativ gering. Es werden praktisch nur bestehende Dinge auf mehr Resourcen übertragen und ein neues Texturformat eingeführt.

Schlammsau
2008-04-18, 17:28:36
Wichtig ist es erst dann, wenn es alle (oder die meisten) Games unterstützen. Daher sollte man das Thema nicht überbewerten. Die meisten können ohnehin kein AA verwenden weil die Performance dafür einfach nicht ausreicht. Also wozu die Aufregung?
Also ich kann 4xAA/8xAF bei einer Auflösung von 1280x1024 unter Vista SP1 flüssig zocken! Karte ist eine HD3870.
FPS schwanken zwischen 30 und 60 Bildern, je nach Situation! Ich weiss jetzt natürlich nicht, inwieweit das von DX10.1 kommt oder nicht!

Quaker
2008-04-18, 17:29:24
geht das wirklich.....kann man Gäste ignoren?
Ja klar. In Deinem Profil unter Buddy/- Ignore List, ganz unten kann man angeben wo man die Gäste auf Ignore haben will.
Spart viel nerven. :)

Gast
2008-04-18, 17:33:17
Ja klar. In Deinem Profil unter Buddy/- Ignore List, ganz unten kann man angeben wo man die Gäste auf Ignore haben will.
Spart viel nerven. :)

Klappt aber nur wenn sie nicht gequotet werden und ist daher für dich doppelt ärgerlich. Aber Versuch macht bekanntlich klug ;)

MikBach
2008-04-18, 17:33:41
Wichtig ist es erst dann, wenn es alle (oder die meisten) Games unterstützen. Daher sollte man das Thema nicht überbewerten. Die meisten können ohnehin kein AA verwenden weil die Performance dafür einfach nicht ausreicht. Also wozu die Aufregung?
Bist du neu hier?
Du bist hier in einem 3d-Technik-forum, ist Klar, dass der technische Fortschritt bejubelt wird. Das war bei SM3 nicht anders als die 6800er von NV rauskam, mit dem einen Unterschied, dass es damals keine Spiele für SM3 gab und als es welche in vernüntiger Menge gab, da war die 6800er schon zu langsam...;D

Und zum Thema alle (oder die meisten)...
Zur Zeit gibt es sicherlich mehr Spiele, die SM2 unterstützen als SM3-only-Spiele.

Nur so als Denkanstoß für dich. :)

Gast
2008-04-18, 17:34:47
SM 3.0 war ein Fortschritt garnicht vergleichbar.

Schlammsau
2008-04-18, 17:37:38
Ja klar. In Deinem Profil unter Buddy/- Ignore List, ganz unten kann man angeben wo man die Gäste auf Ignore haben will.
Spart viel nerven. :)

:( wenn ich aber Gast eingebe, findet er nichts!

MikBach
2008-04-18, 17:38:28
SM 3.0 war ein Fortschritt garnicht vergleichbar.
10.1 ist auch Fortschritt, wenn auch geringer.
Wie auch immer, Fortschitt bleibt Fortschritt. :D

Coda
2008-04-18, 17:41:48
An den Shadern hat sich überhaupt nichts geändert, nur an den Resourcen auf die zugegriffen wird.

Das war bei SM3 nicht anders als die 6800er von NV rauskam, mit dem einen Unterschied, dass es damals keine Spiele für SM3 gab und als es welche in vernüntiger Menge gab, da war die 6800er schon zu langsam...;D
Falsch. Far Cry. Ja auch ohne HDR verwendet es SM3.0 und läuft damit schneller auf einem NV40 als mit 2.0. Nein ich kau das jetzt nicht nochmal durch.

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_far_cry_version_12/3/

Gast
2008-04-18, 17:51:04
Ja, eine X2 auf 8800GTS Niveau mit 10.1. Aber wie sähe es mit einer 3870 aus?
Man, wieso können solche Sachen nicht gleich beim ersten Test vernünftig realisiert werden. :rolleyes:

Hier ist ein schöner Kurztest:
http://www.computerbase.de/artikel/software/2008/bericht_windows_vista_geschwindigkeitscheck/3/#abschnitt_3dmark06

CF scheint bei AC nicht zu laufen - ist sogar langsamer als eine Karte.
Im Vergleich zur 9800GTX ist die HD3870 nur 9% (ohneAA) bzw. 17% (4AA) langsamer (bei 1680*1050).

MikBach
2008-04-18, 17:52:41
Falsch. Far Cry. Ja auch ohne HDR verwendet es SM3.0 und läuft damit schneller auf einem NV40 als mit 2.0. Nein ich kau das jetzt nicht nochmal durch.
FarCry ist aber kein sehr gutes Beispiel, da wir da verschiedene Pfade hatten: SM2.a (NV), SM2.b (ATI) und SM3.
Dabei wurden einige Features unterstützt, die laut dem Shadermodel, die Karte hätte gar nicht können sollen, wie GI bei den ATIs, also praktisch ein Hack.
Ausserdem waren die ATI-Karten damals trotzdem schneller als NV mit SM3 ;D
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_nvidia_geforce_6600-serie/7/#abschnitt_far_cry
:D

Coda
2008-04-18, 17:53:32
FarCry ist aber kein sehr gutes Beispiel, da wir da verschiedene Pfade hatten: SM2.a (NV), SM2.b (ATI) und SM3.
Dabei wurden einige Features unterstützt, die laut dem Shadermodel, die Karte hätte gar nicht können solle, wie GI bei den ATIs, also praktisch ein Hack.
Ausserdem waren die ATI-Karten damals trotzdem schneller als NV mit SM3
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_nvidia_geforce_6600-serie/7/#abschnitt_far_cry
Darum ging's grad überhaupt nicht. Du hast behauptet dass es damals keine SM3.0-Spiele gab und diese auch nicht auf der GeForce 6 spielbar waren. FALSCH. PUNKT. EOD.

Und das Beispiel ist perfekt äquivalent zu AC. Es hat auch zwei Pfade für SM4.0 und SM4.1. Es gibt bisher genau ein D3D10.1-Spiel und es ist etwas schneller. Das ist genau die gleiche Situation wie damals. Die Karten die SM3.0 hatten waren etwas schneller. So ist es mit Assassin's Creed und 4.1 auch.

Wie mir so Fanboy-Gelaber auf den SACK geht. Fast äquivalente Situationen, heute ist es natürlich der unglaublich tolle technische Fortschritt und damals war's beschissen. Is klar.

Johnny Rico
2008-04-18, 17:53:54
:( wenn ich aber Gast eingebe, findet er nichts!

3-5 von 10 Gastpostings sind von ausgeloggten Membern, die sich nicht das Leben mir ihrem Account schwer machen wollen. Vielleicht sollte man Postings anhand von Cookies und IP etc. dem Memberacc zuordnen....(würde aber zu weit gehen..)

Die erwähnten Posts sind thrash und da kommen sie bestimmt auch bald hin.
Es kamen aber (in anderen Bereichen) schon viele gute Postings von Gästen, also verallgemeinern sollte man den "Ausschluss" nicht.

Da die NVs eh schneller sind, kann ATI ja höchstens aufschließen und das ist kein Kaufanreitz für mich. Ich hoffe, dass NV 10.1 irgendwie ermöglicht ;-) und die Zeit bis zum GT200 leichter macht.

Gast
2008-04-18, 18:05:03
Hier ist ein schöner Kurztest:
http://www.computerbase.de/artikel/software/2008/bericht_windows_vista_geschwindigkeitscheck/3/#abschnitt_3dmark06

CF scheint bei AC nicht zu laufen - ist sogar langsamer als eine Karte.
Im Vergleich zur 9800GTX ist die HD3870 nur 9% (ohneAA) bzw. 17% (4AA) langsamer (bei 1680*1050).

Oha :)

Eine 9800GTX macht bei 1680x1050 4xAA/16xAF 56,4FPS in DX10

Eine HD3870 macht bei 1680x1050 4xAA/16xAF 48,2FPS in DX10

wenn man noch die Mehrleistung von DX10.1 miteinrechnet +18% dann sind die gleich auf :Up

MikBach
2008-04-18, 18:10:28
Darum ging's grad überhaupt nicht. Du hast behauptet dass es damals keine SM3.0-Spiele gab und diese auch nicht auf der GeForce 6 spielbar waren. FALSCH. PUNKT. EOD.

Und das Beispiel ist perfekt äquivalent zu AC. Es hat auch zwei Pfade für SM4.0 und SM4.1. Es gibt bisher genau ein D3D10.1-Spiel und es ist etwas schneller. Das ist genau die gleiche Situation wie damals. Die Karten die SM3.0 hatten waren etwas schneller. So ist es mit Assassin's Creed und 4.1 auch.

Wie mir so Fanboy-Gelaber auf den SACK geht. Fast äquivalente Situationen, heute ist es natürlich der unglaublich tolle technische Fortschritt und damals war's beschissen. Is klar.
Was ist denn mit dir?
Ich habe doch gesagt, dass der Fortschitt von 10.0 zu 10.1 geringer ist als von SM2 zu SM3.
Du ließt natürlich nur, was du lesen willst...ist aber deine Sache. Ich lass mich von deinem Gelabber nicht beindrucken und komm mir nicht mit Fanboy. :P

Bei AC ist alles DX konform, bei FarCry gab es Hacks, die ausserhalb der DX-Norm lagen, dass wollte ich damit sagen, man, man, man. :mad:

Schlammsau
2008-04-18, 18:12:55
Oha :)

Eine 9800GTX macht bei 1680x1050 4xAA/16xAF 56,4FPS in DX10

Eine HD3870 macht bei 1680x1050 4xAA/16xAF 48,2FPS in DX10

wenn man noch die Mehrleistung von DX10.1 miteinrechnet +18% dann sind die gleich auf :Up

Eine 3870 annähernd gleich schnell wie eine 9800GTX???? :eek:

Coda
2008-04-18, 18:14:21
Bei AC ist alles DX konform, bei FarCry gab es Hacks, die ausserhalb der DX-Norm lagen, dass wollte ich damit sagen, man, man, man. :mad:
Es gab nicht "ein paar Hacks" sondern nur GI auf ATi-Karten. Was das mit SM2 vs. SM3 auf NVIDIA zu tun haben soll weiß ich auch nicht.

Der Vergleich ist exakt so wie er ist richtig. Dein Gelaber von "heute ist das mit SM4.1 anders als damals mit SM3.0" ist nichtmal ansatzweiße zutreffend.

Genau meine ich damit diese Aussage:
Das war bei SM3 nicht anders als die 6800er von NV rauskam, mit dem einen Unterschied, dass es damals keine Spiele für SM3 gab und als es welche in vernüntiger Menge gab, da war die 6800er schon zu langsam...
Das ist einfach nur falsch. Es gibt bisher überhaupt keinen Unterschied und ich bezweifle dass SM4.1-only-Titel mit großartigen grafischen Verbesserungen in nächster Zeit erscheinen werden.

Und ja, ich finde D3D10.1 auch gut und wäre sehr enttäuscht wenn die neuen NVIDIA-Chips es nicht unterstützen würden. Sonst muss ich mir nämlich ne ATI holen um damit rumzuspielen die aber offenbar kein echtes High-End liefern werden was mich auch stört.

=Floi=
2008-04-18, 18:18:04
ja klar und dann ist die 3870 bei EINEM game mal gleich schnell
HALLELUJA!

das ist ein nettes feature und ganz nett und mehr nicht.

Coda
2008-04-18, 18:18:40
Ist sie dadurch denn wirklich schneller? Schneller als was? Ich hab die Assassin's-Creed-Performance der IHVs grad nicht im Kopf.

Schlammsau
2008-04-18, 18:20:08
Das ist einfach nur falsch. Es gibt bisher überhaupt keinen Unterschied und ich bezweifle dass SM4.1-only-Titel mit großartigen grafischen Verbesserungen in nächster Zeit erscheinen werden.

Hier geht es weder um SM4.1 Only -noch um grossartige Bildquali Verbesserungen! So wies aussieht bringt das neueste DX eine nicht unerhebliche Performancesteigerung! Darum geht es hier!

dargo
2008-04-18, 18:20:13
Oha :)

Eine 9800GTX macht bei 1680x1050 4xAA/16xAF 56,4FPS in DX10

Eine HD3870 macht bei 1680x1050 4xAA/16xAF 48,2FPS in DX10

wenn man noch die Mehrleistung von DX10.1 miteinrechnet +18% dann sind die gleich auf :Up
Man sollte hier auch bedenken, dass NV unter DX10 nicht alles glättet. Von daher ist die HD3870 mit DX10.1 und 4xAA wohl schon etwas schneller in AC als die G9800GTX.

Coda
2008-04-18, 18:21:30
Hier geht es weder um SM4.1 Only -noch um grossartige Bildquali Verbesserungen! So wies aussieht bringt das neueste DX eine nicht unerhebliche Performancesteigerung! Darum geht es hier!
Die Aussage ist so pauschal wie sie dasteht einfach nur falsch. Es gibt Anwendungsfälle in denen es etwas bringt. Bei einem normale forward renderer wird höchstens Fetch4/Gather4 und Cube-Map-Arrays noch was bringen können. Was bei AC nun wirklich den Boost bringt weiß man aber nicht. Es gibt keinen magischen "D3D10.1-Boost".

In den Spielen in denen es praktisch nichts bringt wird es auch erst überhaupt keinen D3D10.1-Support geben.

AnarchX
2008-04-18, 18:22:41
wenn man noch die Mehrleistung von DX10.1 miteinrechnet +18% dann sind die gleich auf :Up
Nur woher nimmst du, dass eine 3870 unter 10.1 18% schneller ist?
Rage3D hat nunmal nur eine X2 getestet, wo eben auch die CF-Skalierung, die laut CB ziemlich miserabel ist, von 10.1/SP1 profitieren könnte. ;)

dargo
2008-04-18, 18:24:18
Hier ist ein schöner Kurztest:
http://www.computerbase.de/artikel/software/2008/bericht_windows_vista_geschwindigkeitscheck/3/#abschnitt_3dmark06

Was mich hier etwas wundert - ist der Performanceverlust mit 4xAA/16xAF nicht etwas zu gering? CPU-Limit?

Coda
2008-04-18, 18:25:47
Man sollte hier auch bedenken, dass NV unter DX10 nicht alles glättet. Von daher ist die HD3870 mit DX10.1 und 4xAA wohl schon etwas schneller in AC als die G9800GTX.
So wie es aussieht wird im Spiel praktisch alles geglättet. Es ist offenbar nur dieses komische "Menü" das mit D3D10 kein AA abbekommt.

Schlammsau
2008-04-18, 18:26:51
ich glaube auch nicht, dass die 3870 fast so schnell wie eine 9800GTX ist! Auch mit DX10.1 nicht.
Aber auf 8800GT Niveau könnte sie´s evtl. schaffen!

Gast
2008-04-18, 18:29:30
Nur woher nimmst du, dass eine 3870 unter 10.1 18% schneller ist?
Rage3D hat nunmal nur eine X2 getestet, wo eben auch die CF-Skalierung, die laut CB ziemlich miserabel ist, von 10.1/SP1 profitieren könnte. ;)

Auch wenn es weniger ist, sind die Karten recht nahe beisammen rechnet man das AA mitzu (wo alles geglättet wird).

Was mich hier etwas wundert - ist der Performanceverlust mit 4xAA/16xAF nicht etwas zu gering? CPU-Limit?

Die haben ein 4ghz QX9770

AnarchX
2008-04-18, 18:31:06
btw.
Da wir mit der D3D10-Variante noch einige Schwierigkeiten haben, nutzen wir für die Benchmarks die Direct3D-9-Version von Assassin's Creed.
;)

dargo
2008-04-18, 18:34:29
Die haben ein 4ghz QX9770
Ja, ok. Sieht man auch an der SLI-Effizienz, dass es nicht wirklich cpu-limitiert ist. Aber wie kommt der geringer Performanceverlust zustande? :confused:
Finde ich etwas merkwürdig.

Gast
2008-04-18, 18:37:22
btw.

;)

O.K. aber 48,2FPS vs. 56,4FPS bei 1680x1050,4xAA/16xAF sind nur 17% mehr für die 9800GTX.

seahawk
2008-04-18, 18:44:52
Imho zeigen die Benches, dass DX10.1 eine spürbaren Speedvorteil bringt und damit Karten ohne DX10.1 defakto veraltet sind.

MikBach
2008-04-18, 18:55:55
Imho zeigen die Benches, dass DX10.1 eine spürbarne Speedvorteil bringt und damit Karten ohne DX10.1 defakto veraltet sind.
:eek:
Das Gebashe der Gäste ist dir so sicher wie das Amen in der Kirche. ;D

Grestorn
2008-04-18, 19:00:43
Ich geh davon aus, dass seahawk durchaus recht hat. Das ist der übliche Weg der Weiterentwicklung...

Alleine deswegen werde ich aber dennoch keine ATI Karte kaufen. Da fehlen noch eine Reihe anderer Dinge.

Gast
2008-04-18, 19:03:37
:eek:
Das Gebashe der Gäste ist dir so sicher wie das Amen in der Kirche. ;D

Jo, wenn du weiterhin solch FUTTER bietest, wie deine "beiträge", kannste dir sicher sein.

Sei froh das die mods wiedermal pennen. Du müsstest da mal locker ne Gelbe karte für bekommen.

Gast
2008-04-18, 19:05:22
mhh ich glaub Crossfire geht mit dem 8.5 Beta treiber, aber Fraps funzt net (neuster Version) daher kann ich nicht sagen/sehen ob CF was bringt.
mit was für einem tool kann man sich noch FPS anzeigen lassen ?

deekey777
2008-04-18, 19:15:50
Hier ist ein IHV übergreifender Bildvergleich:
http://www.pcinlife.com/article/graphics/2008-04-02/1207107328d527_4.html
Vista x64 SP1

9800GX(45fps) vs 3870X2(19fps)

http://www.pcinlife.com/article_photo/9800gx2/screenshot/9800gx2/assassinscreed_dx10_1680x1050_4aa_by_game_16af_by_driver_45fps.png

http://www.pcinlife.com/article_photo/9800gx2/screenshot/3870x2/assassinscreed_dx10_1680x1050_4aa_by_game_16af_by_driver_19fps.png

http://www.pcinlife.com/article/graphics/2008-04-02/1207107328d527_4.html

Gast
2008-04-18, 19:19:25
ja toll mit der X2 geht kein CF, Ai ma auf Disable und die hat auch 50 FPS -_-

seahawk
2008-04-18, 19:20:34
:eek:
Das Gebashe der Gäste ist dir so sicher wie das Amen in der Kirche. ;D

Wobei man ein endgültiges Urteil erst treffen kann, wenn es mehr Spiele gibt, die es nutzen und mehr Benches.

Es kann z.B. nur für ATI´s Shader Resolve AA einen Vorteil bringen, und auf anderer Hardware weit weniger effektiv sein. Es kann auf CF beschränkt sein, oder eben auch im Bereich einer CPU Limitierung leigen, wo weniger Draw-Calls etc. dort Entlastung schaffen.

Die Rage§D Tests lassen mich auf einen Vorteil für CF tippen.

Ernie
2008-04-18, 19:24:08
Hier ist ein IHV übergreifender Bildvergleich:
http://www.pcinlife.com/article/graphics/2008-04-02/1207107328d527_4.html

Bei der 9800GX ist die Beleuchtung deutlich schlechter. (---> HDR aus?)

Coda
2008-04-18, 19:26:27
Wobei man ein endgültiges Urteil erst treffen kann, wenn es mehr Spiele gibt, die es nutzen und mehr Benches.

Es kann z.B. nur für ATI´s Shader Resolve AA einen Vorteil bringen, und auf anderer Hardware weit weniger effektiv sein. Es kann auf CF beschränkt sein, oder eben auch im Bereich einer CPU Limitierung leigen, wo weniger Draw-Calls etc. dort Entlastung schaffen.

Die Rage§D Tests lassen mich auf einen Vorteil für CF tippen.
Kurz: Du hast irgendwelche Dinge aufgeschnappt und bringst jetzt zusammenhangsloses technisches Gebrabbel.

Gast
2008-04-18, 19:35:22
mhh ich glaub Crossfire geht mit dem 8.5 Beta treiber, aber Fraps funzt net (neuster Version) daher kann ich nicht sagen/sehen ob CF was bringt.
mit was für einem tool kann man sich noch FPS anzeigen lassen ?
Funktionieren die Tray Tools nicht? Dafür braucht man kein Fraps.

Gast
2008-04-18, 19:39:41
nein, die Frames wandeln sich dann um in Hieroglyphen :ugly:

Ob Fraps oder Riva Tuner ist egal, geht beides nicht :(

PS: vieleicht gehts nur nicht bei mir oder bei neuen Karten ?
hab 2x X2s drin, womit Try tools auch nicht funzt.

Gast
2008-04-18, 19:41:23
Hier ist ein IHV übergreifender Bildvergleich:
http://www.pcinlife.com/article/graphics/2008-04-02/1207107328d527_4.html

Lol was zur Hölle ist das denn?Man muss kein Blinder sein,die Ati quali ist aber um längen besser rofl.

Was soll das.Klickt auf den Link rofl.

Gast
2008-04-18, 19:42:34
Lol was zur Hölle ist das denn?Man muss kein Blinder sein,die Ati quali ist aber um längen besser rofl.

Was soll das.Klickt auf den Link rofl.

PS:Also ne das sowas noch keiner anderen Seite aufgefallen ist ist übel.Die 3870 hat klar die bessere Bildquali.Kein WUnder das sie langsamer ist rofl.

Captain Future
2008-04-18, 19:43:56
O.K. aber 48,2FPS vs. 56,4FPS bei 1680x1050,4xAA/16xAF sind nur 17% mehr für die 9800GTX.
Richtig, aber unter DX9 wird's schwierig, den DX10.1-Pfad zu nutzen.

http://www.pcinlife.com/article_photo/9800gx2/screenshot/9800gx2/assassinscreed_dx10_1680x1050_4aa_by_game_16af_by_driver_45fps.png

http://www.pcinlife.com/article_photo/9800gx2/screenshot/3870x2/assassinscreed_dx10_1680x1050_4aa_by_game_16af_by_driver_19fps.png

geklaut von: http://forum.beyond3d.com/showthread.php?p=1149780

Rainman2k
2008-04-18, 19:57:29
Drehen wir die FAKTEN mal anders.

Crysis würde 10.1 untersützen, und somit nur on voller Pracht auf ATi Spielbar.

Alle würden ATi kaufen?

NV Fanboys, klingelt es jezt bei euch?

Nur weil AC noch nicht den Crysis Hype status hat, ist es völlig uninteressant das neue Techniken und damit auch ATi in dem Game gefördert werden?

Sorry, soviel Weldfremde bl***** können doch nur Fanboys haben.

Gruss

LovesuckZ
2008-04-18, 20:05:40
Kaufst du dir deine Hardware nach Technikdemos?
Ob für jemanden etwas von interesse ist, entscheidet jeder selbst.
Ohne Leistungs- und Bildvergleiche einzelner Karten unter Vista mit D3D10 und D3D10.1 kann man hier nicht von klarem Vorteil sprechen.
Was bringt es einem, wenn die Karte ca. 20% zulegt und da Konkurrenzprodukt immer noch 30% schneller ist? :confused:

Gast
2008-04-18, 20:07:19
Kaufst du dir deine Hardware nach Technikdemos?
Ob für jemanden etwas von interesse ist, entscheidet jeder selbst.
Ohne Leistungs- und Bildvergleiche einzelner Karten unter Vista mit D3D10 und D3D10.1 kann man hier nicht von klarem Vorteil sprechen.
Was bringt es einem, wenn die Karte ca. 20% zulegt und da Konkurrenzprodukt immer noch 30% schneller ist? :confused:

Guck dir erstmall die Bildqualitäts vergleiche an und rede dann weiter.

The_Invisible
2008-04-18, 20:23:24
Guck dir erstmall die Bildqualitäts vergleiche an und rede dann weiter.

und was fällt dir da großartig auf außer kontrastunterschiede?

mfg

deekey777
2008-04-18, 20:27:16
und was fällt dir da großartig auf außer kontrastunterschiede?

mfg
Dass du was an den Augen und den Thread nicht gelesen hast?

_DrillSarge]I[
2008-04-18, 20:31:09
und was fällt dir da großartig auf außer kontrastunterschiede?

mfg
mir fallen am regal paar unterschiede auf (schriftrollen, dieser "korb").
der "korb"; regal rechts; sieht bei ati besser geglättet aus. auch die schriftrollen ( deutlich besser bei ati, bei nv sehen die dinger anders aus -> die enden) sowie zum Teil auch andere kanten, wobei die aa-wirkung größtenteils gleich ist

€: die shots

http://www.pcinlife.com/article_photo/9800gx2/screenshot/9800gx2/assassinscreed_dx10_1680x1050_4aa_by_game_16af_by_driver_45fps.png

http://www.pcinlife.com/article_photo/9800gx2/screenshot/3870x2/assassinscreed_dx10_1680x1050_4aa_by_game_16af_by_driver_19fps.png

Captain Future
2008-04-18, 20:32:36
Dass du was an den Augen und den Thread nicht gelesen hast?
gemeldet, FYI.
Dein Ton trägt nicht gerader zum entspannten Thread-Klima bei.

Gast
2008-04-18, 20:51:06
gemeldet, FYI.
Dein Ton trägt nicht gerader zum entspannten Thread-Klima bei.

Sorry, die Unterschiede sind schon sehr deutlich. Auch die Beleuchtung ist beim ATI-Bild wesentlich besser: Kopf, Fenster, Fensterrahmen.

anddill
2008-04-18, 20:59:15
Langsam reicht es mir. Im gesamten Forum ist zZt. ein extrem aggressiver Tonfall eingerissen. Muß erst die Bannkeule kreisen, oder könnt Ihr Euch auch mal benehmen?

Ich werd ja selber schon langsam aggressiv.

Captain Future
2008-04-18, 21:08:37
Sorry, die Unterschiede sind schon sehr deutlich. Auch die Beleuchtung ist beim ATI-Bild wesentlich besser: Kopf, Fenster, Fensterrahmen.
Ja, die Unterschiede sind deutlich, trotzdem kein Grund sich gleich so gehenzulassen. Wir sind doch hier nicht in der U-Bahn einer beliebigen Großstadt.

btw, meiner Meinung nach sind die Unterschied an den von dir genannten Stellen allerdings vom Spiel herrührend. Viel interessanter ist der Flechtkorb rechts im Regal und die Schriftrollen, die überall verstreut sind. Rein vom Flechtkorb her würde ich fast tippen, dass bei der Radeon sogar Transparenz-AA aktiv ist.

Schrotti
2008-04-18, 21:15:02
Mehr als einen Kontrastunterschied sehe ich da auch nicht.

Viel Wirbel wegen nichts denn nur weil AC D3D 10.1 unterstützt, kauft sich nicht die halbe Welt eine ATI Karte.

Gast
2008-04-18, 21:18:59
Die unterschied sind doch nicht nur bei Ac da!!!!!!

Bei allen anderen Spiele ist das A/A bild viel stimmiger.

seahawk
2008-04-18, 21:19:32
Kurz: Du hast irgendwelche Dinge aufgeschnappt und bringst jetzt zusammenhangsloses technisches Gebrabbel.

Sind die Benches nicht auf einem 3870X2 System bzw. einem CF 3870X2 System entstanden ?

Single-GPU Ergebnisse kenn ich keine. Mag sein, dass ich da was übersehen habe.

Quaker
2008-04-18, 22:38:06
:( wenn ich aber Gast eingebe, findet er nichts!
Du musst nichts hinzufügen, lies einfach mal den letzten Abschnitt :
Gäste in Foren ignorieren
Hier können Sie Foren auswählen, in denen Sie auch Gäste ignorieren möchten.
Mehre Foren können durch gedrückt halten der STRG-Taste ausgewählt werden. Zum zurücksetzen "[Nirgends]" auswählen (ohne STRG).
Mehr kann ich nun wirklich nicht mehr helfen, wird ja auch sonst zu OffTopic.

MikBach
2008-04-18, 22:55:42
Mehr als einen Kontrastunterschied sehe ich da auch nicht.
Dann musst du genauer hinsehen, die Hinweise wo man hinsehen muss, sind recht eindeutig.
Es kann natürlich auch sein, dass du zu den weniger empfindlichen Genossen zählst, was die BQ angeht. Ich kenne ja selber welche, die nichtmal einen Unterschied zwischen AA an und aus sehen.
Solche Leute sollten sich dann allgerdings aus BQ-Diskussionen raushalten.
Es kann ja nicht sein, dass ein Blinder einem Sehenden den Weg zeigt...:wink:

Viel Wirbel wegen nichts denn nur weil AC D3D 10.1 unterstützt, kauft sich nicht die halbe Welt eine ATI Karte.
Wenn es mehr Spiele mit 10.1 gibt, dann vielleicht schon. :wink::rolleyes:

MikBach
2008-04-18, 23:20:58
Treiber sollten da das kleinste Problem sein.

Die Änderungen von D3D10.1 sind was die API angeht wirklich relativ gering. Es werden praktisch nur bestehende Dinge auf mehr Resourcen übertragen und ein neues Texturformat eingeführt.
Und was ist mit Multifrequency Shading?

dr_mordio
2008-04-19, 02:46:20
so, mal einiges abseits der NV/ATI basherei.

ich war erst am überlegen ob ich mir Assassins creed aus der Videothek ausleihe (haben sie bei uns)

aber nachdem ich hier glesen habe das die PC version anders ist als die consolen versionen (z.b. DX 10.1 und so) bin ich gleich los gefahren und hab mir die "directors cut Edition" im mediamarkt gekauft.....

denn ich finde es leider traurig das heut zu tage fast 100% der games nur consolen-ports sind und daher auch an den consolen typischen schlechten texturen leiden ( beispiel Need for speed UG2 und PS)

Ubisoft ist nun einen neuen weg gegangen und zeigt was am pc möglich ist, in dem sie nicht einfach neu die consolenversion portiren, sondern mit DX10,1 was neues machen.
und das will ich uterstützen, damit es sowas in zukunft öfters gibt.

bin gerade am installen, da ich vorher keine zeit hatte.
und natürlich freue mich als HD3870 besitzer auch über DX10,1......

aber mal eine frage:
wie ruft man die console und die FPS anzeige im game auf?

MfG
Alex

Pennywise
2008-04-19, 06:27:01
Gibt es irgendwo Vergleiche Xbox360 vs PC-Version mich würde interessieren wie unterschiedlich die aussehen. Dazu wäre noch interessant XP vs Vista Benches mit Bildvergleich, ob und welchen Nach-/Vorteil XP-User haben, optisch und performancetechnisch. Auch die Single-Core Performance wäre von Interesse. Ansonsten bencht mal, ihr habt doch alle viel Zeit hier :D

Viele User einer ATI Karte nutzen ja wohl auch, gezwungenermaßen, DX9 - da kann die Karte DX12 unterstützen ohne einen Nutzen davon zu tragen.

Irgendwie ist das momentan alles ein unbefriedigender Zustand, DAS kostet dem PC den Stand als Spielemaschine. DX9/10, Vista, 32/64 Bit, Multi-GPU Karten, Mikroruckler, wenn ich das schon alles lese habe ich schon Verständis dafür dass darauf die wenigsten Bock haben. AC hab ich Weihnachten auf der Xbox durchgespielt, einschalten, zocken > fertig auch wenn es einen Zacken schlechter ausschaut (denn davon wird das Spiel nicht besser/schlechter). Aber das nur am Rande.

Gast
2008-04-19, 08:17:47
I[;6440819']mir fallen am regal paar unterschiede auf (schriftrollen, dieser "korb").
der "korb"; regal rechts; sieht bei ati besser geglättet aus. auch die schriftrollen ( deutlich besser bei ati, bei nv sehen die dinger anders aus -> die enden) sowie zum Teil auch andere kanten, wobei die aa-wirkung größtenteils gleich ist

€: die shots

http://www.pcinlife.com/article_photo/9800gx2/screenshot/9800gx2/assassinscreed_dx10_1680x1050_4aa_by_game_16af_by_driver_45fps.png

http://www.pcinlife.com/article_photo/9800gx2/screenshot/3870x2/assassinscreed_dx10_1680x1050_4aa_by_game_16af_by_driver_19fps.png

Wenn die Gammawerte auf beiden Bildern gleich wären könnte man sie ja vergleichen aber so... Dass ein erhöhter Gammawert in einer dunklen Szene subjektiv zu mehr BQ führt ist ja hinlänglich bekannt.

Szudri
2008-04-19, 09:05:24
Hier mal was neues:
Link (http://forums.ubi.com/eve/forums/a/tpc/f/5251069024/m/6571038256?r=6571038256#6571038256)

Having me here basically means that I’ll be giving you updates on what’s going on with Assassin’s Creed and the first bit of news I have is that we’re planning to release a patch for the PC version of Assassin’s Creed that addresses the majority of issues reported by fans. In addition to addressing reported glitches, the patch will remove support for DX10.1, since we need to rework its implementation. The performance gains seen by players who are currently playing Assassin’s Creed with a DX10.1 graphics card are in large part due to the fact that our implementation removes a render pass during post-effect which is costly.

Zeigt das entfernen des passes jetzt BQ-Unterschiede? Wenn nicht, warum rausnehmen?

Ectoplasma
2008-04-19, 09:32:13
Zum Test auf Rage3d. Ich sehe da nur einen ganz üblen unprofessionellen Vergleich. Da wird behauptet, dass man den Performance-Unterschied zwischen DX10 und DX10.1 darstellt. In Wahrheit vergleicht man aber primär Vista mit Vista SP1. Welchen Anteil an Performance DX10.1 hat, wird man so einfach wohl nicht feststellen können. Oder Leute? Sonst klärt mich auf. Vielleicht habe ich ja was überlesen. Ansonsten frage ich mich wie man solchen Artikeln überhaupt Aufmerksamkeit schenken kann.

reunion
2008-04-19, 09:33:30
Zum Test auf Rage3d. Ich sehe da nur einen ganz üblen unprofessionellen Vergleich. Da wird behauptet, dass man den Performance-Unterschied zwischen DX10 und DX10.1 darstellt. In Wahrheit vergleicht man aber primär Vista mit Vista SP1. Welchen Anteil an Performance DX10.1 hat, wird man so einfach wohl nicht feststellen können. Oder Leute? Sonst klärt mich auf. Vielleicht habe ich ja was überlesen. Ansonsten frage ich mich wie man solchen Artikeln überhaupt Aufmerksamkeit schenken kann.

Warum? Es wird ja als Vergleich auch eine 2900XT ohne D3D10.1 mitgetestet die bei weitem nicht so stark profitiert.

Ectoplasma
2008-04-19, 09:38:31
Warum? Es wird ja als Vergleich auch eine 2900XT ohne D3D10.1 mitgetestet die bei weitem nicht so stark profitiert.

Das mag als indirekter Anhaltspunkt ganz ok sein, aber so ein richtiger Vergleich ist das nicht. Aber gut, muss man sich halt auf Verdachtsmomente verlassen.

Grestorn
2008-04-19, 09:40:32
Warum? Es wird ja als Vergleich auch eine 2900XT ohne D3D10.1 mitgetestet die bei weitem nicht so stark profitiert.

Was auch an ganz anderen Dingen liegen kann, z.B. dass bei der 2900XT die GPU limitiert, bei der 3870 aber die CPU. Das wäre für mich auch viel viel naheliegender.

4711
2008-04-19, 09:44:34
Ich geh davon aus, dass seahawk durchaus recht hat. Das ist der übliche Weg der Weiterentwicklung...

Alleine deswegen werde ich aber dennoch keine ATI Karte kaufen. Da fehlen noch eine Reihe anderer Dinge.

Zumindest wäre es etwas naja blödsinnig jetzt noch mal 500€ für eine neue NV auszugeben (GT200!?)wenns "alter" Krams ist,oder?

Grestorn
2008-04-19, 09:47:08
Zumindest wäre es etwas naja blödsinnig jetzt noch mal 500€ für eine neue NV auszugeben (GT200!?)wenns "alter" Krams ist,oder?

Nö, wenn dieser alte Kram trotz seines "veraltet seins" immer noch bessere Resultate liefert.

Außerdem, wo steht geschrieben, was der GT200 kann und was nicht?

Gast
2008-04-19, 09:48:11
Manche NV Anhänger sind ja ech witzig. Da bekommt es Nvidia seit Jahren nicht gebacken den Gamma-Wert in Games korrekt einzustellen und jetzt wird gesagt das dadurch kein Vergleich möglich ist.... Sorry, aber evtl. mal vor der eigenen Türe kehren.

Die ganze Diskussion ist doch hinfällig. Das erinnert mich an das DX9 gehype von Nvidia-Jüngern vor einiger Zeit (oder wars DX8...)

Fakt ist das Assassins Creed eine Ausnahme in der Spiele Welt bleiben wird, denn die Programmierer werden immer die Schnittstelle benutzen die am weitesten verbreitet ist und das ist DX9 und wird es auch noch eine Weile bleiben. Hier und da wird es Spiele geben die DX10 und DX10.1 unterstützen, das wird aber nicht die Masse sein!

Also wer aufgrund dieser Kriterien seine VGA-Kaufentscheidung trifft...soll es tun ;) Ich habe ne 3850 und fühle mich wohl :)

Grestorn
2008-04-19, 09:49:45
Manche NV Anhänger sind ja ech witzig. Da bekommt es Nvidia seit Jahren nicht gebacken den Gamma-Wert in Games korrekt einzustellen und jetzt wird gesagt das dadurch kein Vergleich möglich ist.... Sorry, aber evtl. mal vor der eigenen Türe kehren.

Ich dachte das Gamma der ATI Karten wäre off? Gibt es da eigentlich eine eindeutige Aussage, was "richtig" und was "falsch" ist?

4711
2008-04-19, 09:51:10
bessere Resultate liefert...?wo unter DX10.1?
GT200 werden wir sehen was der kann,wenn kein DX 10.1 ist es alter Schrott BASTA!

Ectoplasma
2008-04-19, 10:01:06
bessere Resultate liefert...?wo unter DX10.1?
GT200 werden wir sehen was der kann,wenn kein DX 10.1 ist es alter Schrott BASTA!

Hmm, da wird unter anderem auch von mir versucht, das Gespräch auf das Topic zurückzuführen und dann kommen einige Fanatiker und machen daraus einen heiligen Graka-Krieg. :rolleyes: Kann doch echt nicht sein. Damit bist nicht nur du gemeint 4711.

Mich interessiert primär der Artikel auf Rage3D! Ich bezweifel einfach deren pauschale Aussagen. Und ja, ich habe eine ATI, nur damit keine falschen Verdachtsmomente aufkommen.

Grestorn
2008-04-19, 10:01:43
bessere Resultate liefert...?wo unter DX10.1?
GT200 werden wir sehen was der kann,wenn kein DX 10.1 ist es alter Schrott BASTA!

BASTA! Sagen kleine Kinder.

Wenn die GT200 tatsächlich kein 10.1 können sollte, aber dennoch um einiges schneller ist als die Konkurenz, AA kann wo es die Konkurenz nicht kann, offene Profile unterstützt, wo man bei der Konkurenz mit Exe-Renaming arbeiten muss, Optimierungen frei konfigurierbar sind, wo man bei der Konkurenz nur zwischen Teufel und Belzebub wählen kann...

So lange ist für mich die Entscheidung eigentlich recht einfach. Schade, dass ATI an keinem dieser für mich wichtigen Punkte etwas ändern will. Denn es gibt genügend bei nVidia, das mich wirklich nervt und ich würde gerne wechseln wenn es für mich irgendeinen Sinn machen würde.

Szudri
2008-04-19, 10:02:12
Das mag als indirekter Anhaltspunkt ganz ok sein, aber so ein richtiger Vergleich ist das nicht. Aber gut, muss man sich halt auf Verdachtsmomente verlassen.

Ubisoft selber sagt, dass die im 10.1 Modus nen render pass beim post precessing weglassen und dadurch die höhere Performance zu erklären ist...

Grestorn
2008-04-19, 10:06:46
Ubisoft selber sagt, dass die im 10.1 Modus nen render pass beim post precessing weglassen und dadurch die höhere Performance zu erklären ist...

Ist auch bekannt, wozu dieser Pass da ist? Ist der einfach unter 10.1 nicht nötig bei selbem Endergebnis?

Gast
2008-04-19, 10:07:21
BASTA! Sagen kleine Kinder.

Wenn die GT200 tatsächlich kein 10.1 können sollte, aber dennoch um einiges schneller ist als die Konkurenz, AA kann wo es die Konkurenz nicht kann, offene Profile unterstützt, wo man bei der Konkurenz mit Exe-Renaming arbeiten muss, Optimierungen frei konfigurierbar sind, wo man bei der Konkurenz nur zwischen Teufel und Belzebub wählen kann...

So lange ist für mich die Entscheidung eigentlich recht einfach. Schade, dass ATI an keinem dieser für mich wichtigen Punkte etwas ändern will. Denn es gibt genügend bei nVidia, das mich wirklich nervt und ich würde gerne wechseln wenn es für mich irgendeinen Sinn machen würde.

Ja schon klar wenn die Argumente ausgehen wenn hundert andere hinzugezogen.
Hier geht es um 10.1!
Wieso hab ich immer das Gefühl Du und Razor seid eineiige Zwillinge.
Eure Meinung und Lebensauffassung ist das non plus ultra echt zum Kotzen!
Willkommen neben Razor auf der Igno!
B A S T A !

=Floi=
2008-04-19, 10:07:40
was nervt dich denn extrem an nv?

ich persönlich möchte zwar auch dx 10.1, aber ohne kann ich auch leben. Primär zählt für mich aa und die performance unter dx9 und da gibt es auch noch genug games, die da nicht zufriedenstellend laufen.

4711
2008-04-19, 10:09:53
Das steht alles auf einem ganz anderem Blatt sonst hätt ich keine NV.
Und hört auf anderen das Wort im Wund zu drehen.

DER FF nervt mit dem Anmelden auf jeder Seite :mad:

Grestorn
2008-04-19, 10:10:19
was nervt dich denn extrem an nv?

Die mangelnde QS und dadurch resultierenden vielen Bugs im Treiber, speziell im Control Panel und in nTune. Die leider nicht wegzudiskutierenden Probleme im nForce Chipsatz. Die Beschränkung von SLI auf nForce Chipsätze.

Das Gast-Posting über Deinem Posting ist doch echt zum totlachen, oder? :biggrin:

Szudri
2008-04-19, 10:10:54
Ist auch bekannt, wozu dieser Pass da ist? Ist der einfach unter 10.1 nicht nötig bei selbem Endergebnis?
Keine Ahnung. Das müssten welche überprüfen die Vergleichsergebnisse liefern können.
Hier nochmal mein Post mit der Meldung:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6441553&postcount=119

4711
2008-04-19, 10:12:47
Die mangelnde QS und dadurch resultierenden vielen Bugs im Treiber, speziell im Control Panel und in nTune. Die leider nicht wegzudiskutierenden Probleme im nForce Chipsatz. Die Beschränkung von SLI auf nForce Chipsätze.

Das Gast-Posting über Deinem Posting ist doch echt zum totlachen, oder? :biggrin:

Das war ich und zum totlachen bist Du!
Jetzt kann man dich noch nichtmal auf die IGNO setzen traurig traurig.

Grestorn
2008-04-19, 10:13:52
Keine Ahnung. Das müssten welche überprüfen die Vergleichsergebnisse liefern können.
Hier nochmal mein Post mit der Meldung:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6441553&postcount=119

Sorry, das Posting ist mir komplett entgangen. Das erklärt natürlich viel. Bin gespannt, ob die das mal komplett fixen, denn ich finde die 10.1 Unterstützung schon bemerkenswert.

Grestorn
2008-04-19, 10:14:35
Jetzt kann man dich noch nichtmal auf die IGNO setzen traurig traurig.

Das macht gar nix. Nur zu.

dargo
2008-04-19, 11:11:20
Gibt es irgendwo Vergleiche Xbox360 vs PC-Version mich würde interessieren wie unterschiedlich die aussehen. Dazu wäre noch interessant XP vs Vista Benches mit Bildvergleich, ob und welchen Nach-/Vorteil XP-User haben, optisch und performancetechnisch. Auch die Single-Core Performance wäre von Interesse. Ansonsten bencht mal, ihr habt doch alle viel Zeit hier :D

Also eins kann ich sagen - beim GPU-Limit ist AC in DX9 erheblich schneller. Beim CPU-Limit ist DX10 wiederum erheblich schneller. Optisch ist mir zwischen der DX9 und DX10 Version kein Unterschied aufgefallen. Habe aber nicht jeden Pixel verglichen. :wink:

Edit:
Mit einem Singlecore ist AC praktisch unspielbar. In DX9 würde ich nichts weit unter 2,66Ghz C2D empfehlen. Wobei man sagen muss, dass AC nicht unbedingt hohe Frameraten braucht um noch "flüssig" spielen zu können.

Gast
2008-04-19, 12:18:31
Das Game will einen Quadcore und bekomtm durch ihn richtig Leistung, ichhab nen Phenom 3.2 Ghz + 2x X2 und rennt in DX10.1 mit 1920x1200 4xAA 16xAF alles MAX so zwischen 35 -70 FPS.
Leider muss ich AI auf Disable stellen (Crossfire aus also nur eine GPU) da noch kein CF Profil im Treiber ist.

deekey777
2008-04-19, 12:23:44
Hier mal was neues:
Link (http://forums.ubi.com/eve/forums/a/tpc/f/5251069024/m/6571038256?r=6571038256#6571038256)

Zeigt das entfernen des passes jetzt BQ-Unterschiede? Wenn nicht, warum rausnehmen?
Im R3D-Test gibt es keine IQ-Unterschiede (bis auf verbessertes AA).
Having me here basically means that I’ll be giving you updates on what’s going on with Assassin’s Creed and the first bit of news I have is that we’re planning to release a patch for the PC version of Assassin’s Creed that addresses the majority of issues reported by fans. In addition to addressing reported glitches, the patch will remove support for DX10.1, since we need to rework its implementation. The performance gains seen by players who are currently playing Assassin’s Creed with a DX10.1 graphics card are in large part due to the fact that our implementation removes a render pass during post-effect which is costly.
Wo ist hier die Logik? Die D3D10.1-Implementierung erspart einen weiteren kostspieligen Renderpass, aber diese wird mit dem kommenden Patch entfernt und dann irgendwann nachgeliefert? Oder ist es rein politisch?

dargo
2008-04-19, 12:26:03
Das Game will einen Quadcore und bekomtm durch ihn richtig Leistung, ichhab nen Phenom 3.2 Ghz + 2x X2 und rennt in DX10.1 mit 1920x1200 4xAA 16xAF alles MAX so zwischen 35 -70 FPS.

Naja, ich habe gestern eine cpu-limitierte Szene getestet und dabei kam ein "nur" 67%-iger Vorteil für einen Dualcore raus. Kann natürlich sein, dass ich noch bessere Szenen was Multithreading angeht suchen muss. Deine Frames kann ich aber kaum glauben. In DX10 habe ich in meiner getesteten Szene in 1680x1050 FullAA-Ingame/16xAF nur ~20fps. Und ja, diese 20fps sind 100% gpu-limitiert.

Gast
2008-04-19, 12:34:05
Dem Spiel reicht ein mittelprächtiger DC locker.

Gast
2008-04-19, 12:36:03
die FPS hab ich im Außenbereich, man MUSS bei ner X2 Ai einfach auf Disabl stellen sonst gutkt man da mit 13 FPS rum un ist viel langsamer wie ne Singel HD3870 :/

DX10.1
1920x1200
4xMSAA (in der INI)
16xAF
alles MAX

http://www.abload.de/thumb/crysis2008-04-1823-2t9r.jpg (http://www.abload.de/image.php?img=crysis2008-04-1823-2t9r.jpg) http://www.abload.de/thumb/crysis2008-04-1823-2j3f.jpg (http://www.abload.de/image.php?img=crysis2008-04-1823-2j3f.jpg) http://www.abload.de/thumb/crysis2008-04-1823-2pdr.jpg (http://www.abload.de/image.php?img=crysis2008-04-1823-2pdr.jpg) http://www.abload.de/thumb/crysis2008-04-1823-2rem.jpg (http://www.abload.de/image.php?img=crysis2008-04-1823-2rem.jpg)

Gast
2008-04-19, 12:36:48
Dem Spiel reicht ein mittelprächtiger DC locker.

kann schon sein, hab ja nicht gesagt das es nicht reicht sondern das es perfekten Quad Support hat, alle kerne werden zu 90% belastet.

dargo
2008-04-19, 13:24:13
die FPS hab ich im Außenbereich...
Ja, ok. Ohne die Menchenmenge kann das gut hinkommen.

kann schon sein, hab ja nicht gesagt das es nicht reicht sondern das es perfekten Quad Support hat, alle kerne werden zu 90% belastet.
Hast du zufällig ein passendes Savegame für mich wo die CPU-Auslastung extrem hoch ist?

Gast
2008-04-19, 13:29:30
also ich bin auch noch am Anfang da in der Stadt also das erste level wo man sich frei bewegen kann.

Gast
2008-04-19, 13:30:31
Im R3D-Test gibt es keine IQ-Unterschiede (bis auf verbessertes AA).

Wo ist hier die Logik? Die D3D10.1-Implementierung erspart einen weiteren kostspieligen Renderpass, aber diese wird mit dem kommenden Patch entfernt und dann irgendwann nachgeliefert? Oder ist es rein politisch?


Der Patch ist fehlerhaft, weil er einen Renderpass nicht enthält, also muss er neu gemacht werden.

Gast
2008-04-19, 13:42:16
Der Patch ist fehlerhaft, weil er einen Renderpass nicht enthält, also muss er neu gemacht werden.

das steht da aber nicht. Durch die 10.1 Implementierung wird ein teurer Renderpass gespart. Die Implementierung bringt aber angeblich Glitches mit sich. Daher muss sie überarbeitet werden.

deekey777
2008-04-19, 13:54:04
Der Patch ist fehlerhaft, weil er einen Renderpass nicht enthält, also muss er neu gemacht werden.
Nein.
das steht da aber nicht. Durch die 10.1 Implementierung wird ein teurer Renderpass gespart. Die Implementierung bringt aber angeblich Glitches mit sich. Daher muss sie überarbeitet werden.
Having me here basically means that I’ll be giving you updates on what’s going on with Assassin’s Creed and the first bit of news I have is that we’re planning to release a patch for the PC version of Assassin’s Creed that addresses the majority of issues reported by fans. In addition to addressing reported glitches, the patch will remove support for DX10.1, since we need to rework its implementation. The performance gains seen by players who are currently playing Assassin’s Creed with a DX10.1 graphics card are in large part due to the fact that our implementation removes a render pass during post-effect which is costly.
D3D10.1 verursacht keine Glitches, sondern Performancesteigerungen.

Gast
2008-04-19, 14:02:21
BASTA! Sagen kleine Kinder.

Wenn die GT200 tatsächlich kein 10.1 können sollte, aber dennoch um einiges schneller ist als die Konkurenz, AA kann wo es die Konkurenz nicht kann, offene Profile unterstützt, wo man bei der Konkurenz mit Exe-Renaming arbeiten muss, Optimierungen frei konfigurierbar sind, wo man bei der Konkurenz nur zwischen Teufel und Belzebub wählen kann...

So lange ist für mich die Entscheidung eigentlich recht einfach. Schade, dass ATI an keinem dieser für mich wichtigen Punkte etwas ändern will. Denn es gibt genügend bei nVidia, das mich wirklich nervt und ich würde gerne wechseln wenn es für mich irgendeinen Sinn machen würde.
Wer hat sich immer beschwert und auf den Techlevel eingedroschen wenn die NV Karten diesen unterstützt aber langsamer waren?
Und jetzt kommen die selben Kandidaten und drehen den Spieß einfach um weil es gerade so schön passt?
Manchen ist echt alles recht um die eigene Farbe ins rechte Licht zu rücken.

reunion
2008-04-19, 14:03:01
Im R3D-Test gibt es keine IQ-Unterschiede (bis auf verbessertes AA).

Wo ist hier die Logik? Die D3D10.1-Implementierung erspart einen weiteren kostspieligen Renderpass, aber diese wird mit dem kommenden Patch entfernt und dann irgendwann nachgeliefert? Oder ist es rein politisch?

Muss man wohl noch warten bis nV auch D3D10.1 Hardware hat bevor man das anbieten darf. Ist sowieso ziemlich skurril das niemand auch nur erwähnte, dass das Spiel einen D3D10.1-Pfad hat und dies erst durch durch andere Personen aufgeklärt werden musst bevor man dazu eine Stellungnahme bekam.

Grestorn
2008-04-19, 14:11:03
Wer hat sich immer beschwert und auf den Techlevel eingedroschen wenn die NV Karten diesen unterstützt aber langsamer waren?

Ich jedenfalls nicht.

Manchen ist echt alles recht um die eigene Farbe ins rechte Licht zu rücken.Genau, deswegen gibt es wohl auch mehr Beiträge in denen ich nVidia kritisiere als lobe...

Schon komisch, welche Außenwirkung ich offensichtlich habe.

Grestorn
2008-04-19, 14:12:54
Muss man wohl noch warten bis nV auch D3D10.1 Hardware hat bevor man das anbieten darf. Ist sowieso ziemlich skurril das niemand auch nur erwähnte, dass das Spiel einen D3D10.1-Pfad hat und dies erst durch durch andere Personen aufgeklärt werden musst bevor man dazu eine Stellungnahme bekam.

Verschörungstheorie? ;)

Gast
2008-04-19, 14:17:15
Denkt ihr Farcry 2 könnte sowas auch haben ?

LovesuckZ
2008-04-19, 14:41:36
Muss man wohl noch warten bis nV auch D3D10.1 Hardware hat bevor man das anbieten darf. Ist sowieso ziemlich skurril das niemand auch nur erwähnte, dass das Spiel einen D3D10.1-Pfad hat und dies erst durch durch andere Personen aufgeklärt werden musst bevor man dazu eine Stellungnahme bekam.

Wieso ist nVidia daran schuld, wenn es AMD verheimlicht? :confused:

Gast
2008-04-19, 14:41:39
Denkt ihr Farcry 2 könnte sowas auch haben ?

Könnte ich mir gut vorstellen, da es auch von Ubisoft kommt und die sogar RT in FC2 einbauen.

DrMabuse1963
2008-04-19, 14:51:29
Wie bekommt ihr AA/AF eingestellt,über den Treiber geht es bei mir nicht?MfG

MikBach
2008-04-19, 15:01:36
Muss man wohl noch warten bis nV auch D3D10.1 Hardware hat bevor man das anbieten darf. Ist sowieso ziemlich skurril das niemand auch nur erwähnte, dass das Spiel einen D3D10.1-Pfad hat und dies erst durch durch andere Personen aufgeklärt werden musst bevor man dazu eine Stellungnahme bekam.
AC ist ein TWIMTBP-Spiel.
Was erwartest du? Da muss ich LS recht geben.
Wenn AMD zu blöd ist, dies Publik zu machen, dann sind sie selbst schuld.
So wie ich das NV-Marketing manchmal zu aggresiv finde, so ist das von ATI/AMD echt lausig.

Gast
2008-04-19, 15:02:14
Wieso ist nVidia daran schuld, wenn es AMD verheimlicht? :confused:

Weil die dafür gezahlt haben, dass es nicht öffentlich wird (werden sollte).

LovesuckZ
2008-04-19, 15:09:38
Weil die dafür gezahlt haben, dass es nicht öffentlich wird (werden sollte).

An AMD? Ja, das macht Sinn. So kann man die Grafikkartenabteilung auch ins Plus führen. ;D

Coda
2008-04-19, 15:15:20
Verschörungstheorie? ;)
Ich wollt schon davor schreiben jetzt kommen bestimmt gleich wieder sowas.

Schlammsau
2008-04-19, 15:28:20
Verschwörungstheorie mit Sicherheit nicht, aber ein funken Wahrheit ist bestimmt dran!
ein ...... Game das dx10.1 unterstützt, die Softwareschmiede es aber erst nach fragen "zugiebt"!?
Noch ein gutes Beispiel.......Crysis! Es wurde schon 1000x angesprochen und durchgekaut.....nVidia hat viele Stunden mit in die Programmierung des Games gesteckt und wie verwunderlich ist es dann, dass das Spiel mehr schlecht als recht auf ATI Karten läuft!? Es gibt eigentlich kein Spiel, wo ATI Karten mehr den Karten von NV hinterherhinken als bei Crysis.
Ein Schelm, der hier böses denkt! ;)

Grestorn
2008-04-19, 15:30:21
Die armen Leute von AMD sind offenbar den Machenschaften von nVidia völlig machtlos ausgeliefert... Wahrscheinlich hat nVidia ein paar Ehefrauen und Kinder von den AMD Managern gekidnappt, als Druckmittel, damit sich AMD auch immer schön unterbuttern lässt.

Gast
2008-04-19, 15:39:08
Die armen Leute von AMD sind offenbar den Machenschaften von nVidia völlig machtlos ausgeliefert... Wahrscheinlich hat nVidia ein paar Ehefrauen und Kinder von den AMD Managern gekidnappt, als Druckmittel, damit sich AMD auch immer schön unterbuttern lässt.

So ein Müll hätte ich von dir nicht erwartet :I

LovesuckZ
2008-04-19, 15:41:03
Es gibt eigentlich kein Spiel, wo ATI Karten mehr den Karten von NV hinterherhinken als bei Crysis.
Ein Schelm, der hier böses denkt! ;)

Eigentlich ist Crysis nicht so schlimm - in Call of Duty 4 ist eine 9800GTX 200% schneller als die 3870.

Grestorn
2008-04-19, 15:49:23
So ein Müll hätte ich von dir nicht erwartet :I

Das war Zynismus. Tut mir leid, wenn der bei Dir nicht angekommen ist. Das nächste mal verwende ich Tags.

dargo
2008-04-19, 15:53:03
Eigentlich ist Crysis nicht so schlimm - in Call of Duty 4 ist eine 9800GTX 200% schneller als die 3870.
Das wäre Faktor 3. :|

Gast
2008-04-19, 15:53:09
Eigentlich ist Crysis nicht so schlimm - in Call of Duty 4 ist eine 9800GTX 200% schneller als die 3870.

Die ist 100% schneller also doppelt so schnell, 23,3 zu 46,9 fps bei 1600x1200 4xAA/16xAF

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/8/#abschnitt_call_of_duty_4

Man FB kotzen mich an....

Gast
2008-04-19, 15:58:36
Eigentlich ist Crysis nicht so schlimm - in Call of Duty 4 ist eine 9800GTX 200% schneller als die 3870.

in deinem Traum vieleicht..........

LovesuckZ
2008-04-19, 15:58:38
Das wäre Faktor 3. :|

Ich weiß, es sollte eine Übertreibung sein. :rolleyes:

MikBach
2008-04-19, 16:06:05
Ich weiß, es sollte eine Übertreibung sein. :rolleyes:
Musst du unbedigt, die eh schon schlechte Stimmung in diesem Thread, noch weiter "aufheizen"?
Lass demnächst solche Flames, bitte.

dargo
2008-04-19, 16:06:45
Ich weiß, es sollte eine Übertreibung sein. :rolleyes:
Aber selbst den Faktor 2 finde ich erstaunlich, hätte ich nicht gedacht. Wenn ich da an den RV770 denke sehe ich schwarz. ;(
Aber ist auch nicht das Thema hier, sorry für OT.

Gast
2008-04-19, 16:08:37
Aber selbst den Faktor 2 finde ich erstaunlich, hätte ich nicht gedacht. Wenn ich da an den RV770 denke sehe ich schwarz. ;(
Aber ist auch nicht das Thema hier, sorry für OT.

ich seh beim Gt200 schwarz das der wieder son Unfall wird wie die "neue" GTX von heute.

dargo
2008-04-19, 16:12:18
ich seh beim Gt200 schwarz das der wieder son Unfall wird wie die "neue" GTX von heute.
Das wird nicht passieren. Weitere Diskussionen über den GT200 bitte dann hier. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=412181&page=10

Schlammsau
2008-04-19, 16:12:40
Eigentlich ist Crysis nicht so schlimm - in Call of Duty 4 ist eine 9800GTX 200% schneller als die 3870.

eine 9800gtx kostet ja auch das doppelte!

Gast
2008-04-19, 16:13:04
klar wirds das, du weisst es doch auch schon beim RV770 und ich weiss es halt bem Gt200 :ugly:

LovesuckZ
2008-04-19, 16:13:53
Musst du unbedigt, die eh schon schlechte Stimmung in diesem Thread, noch weiter "aufheizen"?
Lass demnächst solche Flames, bitte.

Ich habe nur Stellung zu einer Falschaussage genommen.
Es ist wichtig, das sowas sofort berichtigt wird. Und Crysis zeigt nicht mehr als andere Spiele auch: Mit AA und AF kann der rv670 eben auch mal deutlich langsamer sein.
Spiele wie Call of Duty oder Bioshock sind mit AA und AF die Ausnahme - nicht Crysis.

eine 9800gtx kostet ja auch das doppelte!

Dann nehmen wir die 8800GTS 512. Die ist 97% schneller und kostet nur 32% mehr.

MikBach
2008-04-19, 16:15:49
Ich habe nur Stellung zu einer Falschaussage genommen.

Stell dich bitte nicht dumm, ich meinte deine Übertreibung.

dargo
2008-04-19, 16:19:12
klar wirds das, du weisst es doch auch schon beim RV770 und ich weiss es halt bem Gt200 :ugly:
Oh, tut mir leid. Ich dachte du wärst an einer ernsthaften Diskussion interessiert. Habe mich wohl geirrt.

deekey777
2008-04-19, 16:21:55
Verschörungstheorie? ;)
Marketing? Erinnnert mich daran: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=393016 bzw. http://www.golem.de/0711/56246.html

Heutige Spiele werden zu oft nach ihrem Techlevel und ihrer visuellen Darbietung bewertet, es erscheint zunächst unlogisch, dass der werbewirsame und verkaufsfördernde Fortschritt unter den Teppich gekehrt wird, es sei denn, da wurde Kohle zwischengeschoben, und die Entwickler vergessen ganz zufällig, dass ihr TWIMTBP-Titel etwas beherrscht, was nur die Konkurrenz kann. Und wenn die bösen Redakteure dies noch herausfinden, dann wird dies heruntergespielt und wegen "Unvollkommenheit" entfernt.

Gast XXX
2008-04-19, 16:23:32
Oh, tut mir leid. Ich dachte du wärst an einer ernsthaften Diskussion interessiert. Habe mich wohl geirrt.

sry war ja auch nur spass ;)

ich hasse diese Vorurteile einfach egal ob NV oder ATI, und ich kann mir auch kein Urteil erlauben was überhaupt nicht auf dem Markt ist.
Soll auch kein NV vs: ATi Thread werden/sein.

reunion
2008-04-19, 16:25:32
Verschörungstheorie? ;)

Bessere Erklärung parat?

LovesuckZ
2008-04-19, 16:30:03
Marketing? Erinnnert mich daran: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=393016 bzw. http://www.golem.de/0711/56246.html

Heutige Spiele werden zu oft nach ihrem Techlevel und ihrer visuellen Darbietung bewertet, es erscheint zunächst unlogisch, dass der werbewirsame und verkaufsfördernde Fortschritt unter den Teppich gekehrt wird, es sei denn, da wurde Kohle zwischengeschoben, und die Entwickler vergessen ganz zufällig, dass ihr TWIMTBP-Titel etwas beherrscht, was nur die Konkurrenz kann. Und wenn die bösen Redakteure dies noch herausfinden, dann wird dies heruntergespielt und wegen "Unvollkommenheit" entfernt.

Gute Theorie.
Aber wieso sagt es AMD nicht? :confused:

Coda
2008-04-19, 16:30:52
Vielleicht haben sie mit dem Patch was geändert was für D3D10.1 größere Umstellungen bedeutet?

Aber in dem Fall ist es schon sehr verdächtig, das muss ich zugeben ;)

Grestorn
2008-04-19, 16:30:57
Bessere Erklärung parat?

Es hat vielleicht keiner so wichtig genommen wie ihr? Zumal das Spiel - außer dem AA - nicht anders aussieht.

Ich nehme an, die Entwickler von AC haben das aus persönlichem Interesse gemacht und/oder als Beweis, dass die Engine für die Zukunft gewappnet ist, ohne es groß an die Glocke zu hängen.

Captain Future
2008-04-19, 16:31:32
VNoch ein gutes Beispiel.......Crysis! Es wurde schon 1000x angesprochen und durchgekaut.....nVidia hat viele Stunden mit in die Programmierung des Games gesteckt und wie verwunderlich ist es dann, dass das Spiel mehr schlecht als recht auf ATI Karten läuft!? Es gibt eigentlich kein Spiel, wo ATI Karten mehr den Karten von NV hinterherhinken als bei Crysis.
Ein Schelm, der hier böses denkt! ;)
Meinst du, Crytek hat/hätte dankend abgelehnt, wenn AMD vor der Tür gestanden hat und gesagt: "Hey, Leute, wir wollen euch helfen, ca. ein Drittel des Marktes besser zu adressieren - kostenlos."

Kaum, oder?

deekey777
2008-04-19, 16:34:52
Meinst du, Crytek hat/hätte dankend abgelehnt, wenn AMD vor der Tür gestanden hat und gesagt: "Hey, Leute, wir wollen euch helfen, ca. ein Drittel des Marktes besser zu adressieren - kostenlos."

Kaum, oder?
Klar hätte Crytek dies abgelehnt, wenn NV vorher mit $4 Mio zu Besuch war.

dargo
2008-04-19, 16:35:53
Besteht eigendlich die Möglichkeit, dass NV unter DX10.0 die untere Kante ebenfalls vernünftig zu glätten schafft? Zb. durch einen "Hack"? In DX9 ist diese Kante nämlich ganz normal geglättet.

Gast
2008-04-19, 16:36:38
Meinst du, Crytek hat/hätte dankend abgelehnt, wenn AMD vor der Tür gestanden hat und gesagt: "Hey, Leute, wir wollen euch helfen, ca. ein Drittel des Marktes besser zu adressieren - kostenlos."

Kaum, oder?
Was ist an dem Wort Exclusivvertrag für dich so unverständlich?

Captain Future
2008-04-19, 16:46:56
Was ist an dem Wort Exclusivvertrag für dich so unverständlich?
Nichts. Aber meiner Crysis-Version lag so ein Vertrag nicht bei und sie läuft eigentlich problemlos auf meiner Radeon. ;D

Klar hätte Crytek dies abgelehnt, wenn NV vorher mit $4 Mio zu Besuch war.
Oh, die Big Bags of Cash (tm) mal wieder. Ich habe den Link gerade nicht zur Hand, der das beweist - wärst du so freundlich?

Gast
2008-04-19, 16:54:49
Nichts. Aber meiner Crysis-Version lag so ein Vertrag nicht bei und sie läuft eigentlich problemlos auf meiner Radeon. ;D
Schön für dich. Ändert nur nichts daran das NV einen solchen Vertrag hat.

deekey777
2008-04-19, 16:58:10
Nichts. Aber meiner Crysis-Version lag so ein Vertrag nicht bei und sie läuft eigentlich problemlos auf meiner Radeon. ;D


Oh, die Big Bags of Cash (tm) mal wieder. Ich habe den Link gerade nicht zur Hand, der das beweist - wärst du so freundlich?
http://www.google.de/search?hl=de&q=crytek+nvidia+mio&btnG=Suche&meta=

Crytek hat sich nicht umsonst gegen D3D10.1 ausgesprochen, weil es ihnen keine Vorteile bringt, da das AA so schön in Crysis ist.

Grestorn
2008-04-19, 16:59:02
Schön für dich. Ändert nur nichts daran das NV einen solchen Vertrag hat.

Wer solche Behauptungen aufstellt, sollte die auch belegen.

Wäre ich AMD würde ich so etwas sofort als Skandal an die große Glocke hängen. Und irgendeiner würde so etwas schon ausplaudern...

Allein dass dies nicht der Fall ist, ist für mich bereits ein Gegenbeweis zu dieser These.

DerKleineCrisu
2008-04-19, 16:59:50
Ach Leute was soll das denn ?.

AMD/ATI ist da auch nicht besser, wenn sie können wird ein spiel auch " Optimiert " auf ihre GraKa. Hat man ja gesehen bei HL2 wo der SourceCode
" Geklaut " worden ist die ganzen kommentare und zusätze ;);D .

Grüße

Grestorn
2008-04-19, 17:01:30
AMD/ATI ist da auch nicht besser, wenn sie können wird ein spiel auch " Optimiert " auf ihre GraKa. Hat man ja gesehen bei HL2 wo der SourceCode
" Geklaut " worden ist die ganzen kommentare und zusätze ;);D .

Hast Du auch dazu einen Link? Das ist das erste was ich höre...

MikBach
2008-04-19, 17:08:07
Ach Leute was soll das denn ?.

AMD/ATI ist da auch nicht besser, wenn sie können wird ein spiel auch " Optimiert " auf ihre GraKa. Hat man ja gesehen bei HL2 wo der SourceCode
" Geklaut " worden ist die ganzen kommentare und zusätze ;);D .

Grüße
Dass der Sourcecode von HL2 geklaut worden ist, dies ist mir bekannt.
Aber dass dies (damals) ATI gewesen sein soll, ist mir neu.
Du kannst deine reisserische Behauptung doch sicherlich belegen, oder? :|:rolleyes:

edit:
Hast Du auch dazu einen Link? Das ist das erste was ich höre...
DerKleineCrisu will uns doch auf den Arm nehmen. ATI hat doch mit Valve zusammengearbeitet, also wozu hätten sie da noch was klauen sollen...?
Selten so ein Schwachsinn gehört.

Grestorn
2008-04-19, 17:10:50
Dass der Sourcecode von HL2 geklaut worden ist, dies ist mir bekannt.
Aber dass dies (damals) ATI gewesen sein soll, ist mir neu.
Du kannst deine reisserische Behauptung doch sicherlich belegen, oder? :|:rolleyes:

Dass ATI den Code geklaut hat, hat er nicht geschrieben, sondern lediglich dass im Quellcode Kommentare zu finden wären, die auf Optimierungen pro-ATI schließen lassen.

Dazu hätte ich allerdings auch gerne eine Quelle, da ich noch nie davon gehört hatte.

Coda
2008-04-19, 17:11:52
HL² ist genausowenig auf ATI optimiert gewesen wie Crysis auf NVIDIA.

Bei Crysis kann jeder die Shader anpassen, sie liegen in Quellcode dabei. Wenn da wirklich soviel Optimierungspotential auf ATI-Karten übrig wäre hätten sich schon lange irgendwelche Geeks mit viel Zeit gefunden die das optimieren und nen Mod rausbringen.

Allein das sagt mir dass es nicht stimmen kann.

MikBach
2008-04-19, 17:16:07
Dass ATI den Code geklaut hat, hat er nicht geschrieben, sondern lediglich dass im Quellcode Kommentare zu finden wären, die auf Optimierungen pro-ATI schließen lassen.

Dazu hätte ich allerdings auch gerne eine Quelle, da ich noch nie davon gehört hatte.
Siehe mein edit.
"DerKleineCrisu will uns doch auf den Arm nehmen. ATI hat doch mit Valve zusammengearbeitet, also wozu hätten sie da noch was klauen sollen...?
Selten so ein Schwachsinn gehört."

Gast
2008-04-19, 18:15:18
Wer solche Behauptungen aufstellt, sollte die auch belegen.

Wäre ich AMD würde ich so etwas sofort als Skandal an die große Glocke hängen. Und irgendeiner würde so etwas schon ausplaudern...

Allein dass dies nicht der Fall ist, ist für mich bereits ein Gegenbeweis zu dieser These.
Wie oft soll der Link noch gepostet werden?
Der wurde schon in diiesem Thread gepostet. Wenn du es lesen willst dann such gefälligst selber.

Gast
2008-04-19, 18:29:06
Gut, das ich hier mit gelesen habe. Sonst wäre es mir sicherlich passiert, das der 10.1 Support raus gepatcht wird. Da wird als Erstes direkt der Hahn zugedreht.
Und wer ernsthaft glaubt, das man bei NV keine Tobsuchtanfälle bekommen hätte und dies zu massivstem Druck auf Ubisoft geführt hat .. ich will es mal so ausdrücken: Ubisoft ist ganz sicher nicht in der Position, es sich unnötig mit NV verscherzen zu können. Und ein Blockbuster mit 10.1 Support ist ganz sicher nichts worüber man im Augenblick bei NV lachen kann.

Der Post von UbiRazz im AC Forum ist so eindeutig, deutlicher geht es schon nicht mehr. Es kann mir niemand erzählen, das ein solches "Problem" (bessere Performance = Problem, ne ist klar) praktisch zeitgleich zur Markteinführung eines neuen Spieles in einer normalen Prioritätenliste von Bugs auch nur annähernd von solcher Wichtigkeit wäre, das man es auch direkt in aller Deutlichkeit erwähnen muß (ich sehe es eher so, das man wegen des schlechten Gewissens die ATI Besitzer vor dem Patch warnen möchte, was durchaus löblich ist).
So weit ich mich erinnern kann, hatte praktisch jedes Spiel erst mal eine gute Weile mit Abstürzen, Problemen mit dem Kopierschutz auf bestimmten Laufwerken, Dinge die halt verhindern das man überhaupt zum Spielen kommt, zu kämpfen.
Für mich ist AC aber das erste Spiel, bei dem der Abschaltung eines performanceverbessernden Features die höchste Priorität beigemessen wird.

Einfach nur traurig sowas, geradezu lächerlich und absurd. Sagt aber für mich auch einiges darüber aus, das NV sich intern bei weitem nicht so gut einschätzt, wie sie sich nach außen hin verkaufen.

Und nein ich habe weder für NV noch ATI eine ausgeprägte Vorliebe oder Abneigung, aber das ich AC zum Vollpreis erworben habe, darüber ärgere ich mich angesichts eines solchen "Supports" ganz erheblich.

Grestorn
2008-04-19, 18:38:15
Wie oft soll der Link noch gepostet werden?
Der wurde schon in diiesem Thread gepostet. Wenn du es lesen willst dann such gefälligst selber.

Der Link der nachweist, dass es einen exklusiven Vertrag zwischen nVidia und CryTek gibt, der ausschließt, dass Crysis für ATI optimiert werden darf?!

Wenn das wirklich irgendwo stand, muss ich wirklich blind gewesen sein. Eine einmalige Gelegenheit für Dich, mich bis auf die Knochen zu blamieren. Lass Dich also nicht aufhalten!

deekey777
2008-04-19, 18:46:22
Der Link der nachweist, dass es einen exklusiven Vertrag zwischen nVidia und CryTek gibt, der ausschließt, dass Crysis für ATI optimiert werden darf?!

Wenn das wirklich irgendwo stand, muss ich wirklich blind gewesen sein. Eine einmalige Gelegenheit für Dich, mich bis auf die Knochen zu blamieren. Lass Dich also nicht aufhalten!
Was meint ihr jetzt? Die Aussagen von Richard Huddy bzw. den Artikel, warum AMD nicht mit Crysis werben darf?
Wenn ja, dann sagt er nur, dass AMD bis zur Veröffentlichung der Demo keine Möglichkeit hatte, Treiber für das Spiel zu optimieren bzw. für eine Zusammenarbeit mit Crytek. Dh aber nicht, dass seitdem die Treiber für Crysis nicht optimiert sind, da RH selbst sagt, dass sie Shaderreplacement nutzen.

Gast
2008-04-19, 18:52:23
Zum Topic: Mir war auch von Anfang an klar, das 10.1 irgendwann in Spiele integriert wird. Der Grund warum Ubi das nicht an die große Glocke hängt ist der, da sonst Nvidia mit runtergelassenen Hosen dastehen würde. Aber ich finds gut das es rauskommt denn so muss Nvidia bei den nächsten Grakas natürlich mindestens auch 10.1 integrieren. Am Ende freuen Wir uns. Wir, die User. In diesem Sinne, Peace

Grestorn
2008-04-19, 19:02:49
Was meint ihr jetzt? Die Aussagen von Richard Huddy bzw. den Artikel, warum AMD nicht mit Crysis werben darf?
Wenn ja, dann sagt er nur, dass AMD bis zur Veröffentlichung der Demo keine Möglichkeit hatte, Treiber für das Spiel zu optimieren bzw. für eine Zusammenarbeit mit Crytek. Dh aber nicht, dass seitdem die Treiber für Crysis nicht optimiert sind, da RH selbst sagt, dass sie Shaderreplacement nutzen.

Huddy:

"Er betonte aber auch: "Wir arbeiten mit Crytek sehr eng zusammen, gerade in dieser Woche war einer unserer Programmierer bei ihnen zu Besuch."

Davon dass ATI Crysis nicht für ATI optimieren konnte kann nicht die Rede sein. Es war ein reiner Marketing-Deal wie es ATI damals bei HL2 auch gemacht hat. Was ist daran so schlimm? Und wie Coda schon schrieb ist an den Shadern nichts, was pro-nVidia und contra-ATI wäre.

Schlammsau
2008-04-19, 19:09:17
wir drehen uns im kreis leute!

@Grestorn und Coda
seit ihr so leichtglaubig oder tut ihr nur so?
Solche Geschichten, werden doch schon seit den Anfängen der industrialiesierung durchgezogen.
Da fliessen Millionen an "Schmiergeldern", so das ein Auftrag an die eigene Firma geht. (z.b. jüngst bei Siemens)
Und an die Firma die das meiste Geld bietet bekommt den Zuschlag! So einfach ist das.......
In welcher Welt lebt ihr eigentlich, so läuft das nunmal und gehört dazu!

Zurück zum Thema, DX10.1 in einem von nV "promovierten" Game passt wohl wirklich nicht ins Marketing von Nv, oder?

deekey777
2008-04-19, 19:09:41
Huddy:

"Er betonte aber auch: "Wir arbeiten mit Crytek sehr eng zusammen, gerade in dieser Woche war einer unserer Programmierer bei ihnen zu Besuch."

Davon dass ATI Crysis nicht für ATI optimieren konnte kann nicht die Rede sein. Es war ein reiner Marketing-Deal wie es ATI damals bei HL2 auch gemacht hat. Was ist daran so schlimm? Und wie Coda schon schrieb ist an den Shadern nichts, was pro-nVidia und contra-ATI wäre.
Du überspringst aber einige Sätze:
In der Vergangenheit, so Huddy, habe man öfter Studios nach Demos gefragt und diese auch bei Produktvorstellungen verwendet. Hinterher sei aber "Nvidia zu denen gegangen und sagte: 'Was macht ihr da, das Zeug ATI zu geben, das ist unmöglich!'". Man wolle aber nicht die Beziehungen der Entwickler zu anderen Firmen belasten und habe sich Crysis-Demos daher diesmal gespart, erklärte Richard Huddy weiter. Er betonte aber auch: "Wir arbeiten mit Crytek sehr eng zusammen, gerade in dieser Woche war einer unserer Programmierer bei ihnen zu Besuch." Nach der Veröffentlichung von Far Cry habe man mit den Frankfurtern unter anderem das ATI-Demo "The Project" erstellt
Als das Interview geführt wurde, war das Spiel seit einigen Tagen draußen, die Demo sowieso.

Gast
2008-04-19, 19:09:59
Verschwörungstheorie mit Sicherheit nicht, aber ein funken Wahrheit ist bestimmt dran!
ein ...... Game das dx10.1 unterstützt, die Softwareschmiede es aber erst nach fragen "zugiebt"!?
Noch ein gutes Beispiel.......Crysis! Es wurde schon 1000x angesprochen und durchgekaut.....nVidia hat viele Stunden mit in die Programmierung des Games gesteckt und wie verwunderlich ist es dann, dass das Spiel mehr schlecht als recht auf ATI Karten läuft!? Es gibt eigentlich kein Spiel, wo ATI Karten mehr den Karten von NV hinterherhinken als bei Crysis.
Ein Schelm, der hier böses denkt! ;)

Der Schelm bist du weil du nicht Marktwirtschaflich denkst...
Und das Thema gabs hier schon zur genüge. Sowas macht kein Hersteller, schon gar nicht wenn man eine eigene Engine verkaufen will. 50% der Kunden hinten an lassen? Das kann sich keiner leisten...

MikBach
2008-04-19, 19:14:39
Gut, das ich hier mit gelesen habe. Sonst wäre es mir sicherlich passiert, das der 10.1 Support raus gepatcht wird. Da wird als Erstes direkt der Hahn zugedreht.
Und wer ernsthaft glaubt, das man bei NV keine Tobsuchtanfälle bekommen hätte und dies zu massivstem Druck auf Ubisoft geführt hat .. ich will es mal so ausdrücken: Ubisoft ist ganz sicher nicht in der Position, es sich unnötig mit NV verscherzen zu können. Und ein Blockbuster mit 10.1 Support ist ganz sicher nichts worüber man im Augenblick bei NV lachen kann.

Der Post von UbiRazz im AC Forum ist so eindeutig, deutlicher geht es schon nicht mehr. Es kann mir niemand erzählen, das ein solches "Problem" (bessere Performance = Problem, ne ist klar) praktisch zeitgleich zur Markteinführung eines neuen Spieles in einer normalen Prioritätenliste von Bugs auch nur annähernd von solcher Wichtigkeit wäre, das man es auch direkt in aller Deutlichkeit erwähnen muß (ich sehe es eher so, das man wegen des schlechten Gewissens die ATI Besitzer vor dem Patch warnen möchte, was durchaus löblich ist).
So weit ich mich erinnern kann, hatte praktisch jedes Spiel erst mal eine gute Weile mit Abstürzen, Problemen mit dem Kopierschutz auf bestimmten Laufwerken, Dinge die halt verhindern das man überhaupt zum Spielen kommt, zu kämpfen.
Für mich ist AC aber das erste Spiel, bei dem der Abschaltung eines performanceverbessernden Features die höchste Priorität beigemessen wird.

Wenn das wirlich so stimmt, wie du es beschreibst, dann riskiert es NV aber mächtig Sympathie einzubüssen.
Wenn das passiert, dann wäre es wirklich ein Armutszeugnis und jeder logisch denkende Mensch wird sicherlich wissen, dass NV dahinter steckt, damit zunächst DX10.1 heruntergespielt wird.

Also Marketing ok, aber sowas wäre die größte Schweinerei, die ich so in der Entwicklung von 3D-Hardware und Spielen mitbekommen habe. :mad:

Gast
2008-04-19, 19:14:40
@Grestorn

Ich habe nur geschrieben was an dem Wort Exlusivvertrag so schwer zu verstehen ist.

Und Das es nicht daran ändert das sie so einen haben.

Was du da noch reininterpretierst ist dein und nicht mein Problem.
Ich sagte mit keinem Wort das ATI nicht die Möglichkeit zum optimieren hatte und hat. Auch nicht das das Spiel auf NV optimiert wurde.

Gast
2008-04-19, 19:15:47
@Gast: Was heisst 50 Prozent? Ich glaube nicht das ATI 50 Prozent Marktanteile besitzt. Bei Crysis kann ich mir gut vorstellen das Nvidia (Schmier)Geld hat fliessen lassen. Aber wie dem auch sei, ich finds gut das Nvidia so blossgestellt wurde. Obwohl ich Nvidiabesitzer bin*g*. Ein Sieg für den Underdog ist doch immer wieder schön.

LovesuckZ
2008-04-19, 19:28:49
nVidia wurde blossgestellt?
Es sind doch eher die AMD User, die blossgestellt wurden sind. AMD, die davon wussten und es verheimlichen und Ubisoft, die es einbauten und nun wieder entfernen.
nVidia hat doch hier nichts mit zu tun. Statt also auf Ubisoft und AMD Druck zu machen, wird nVidia angegriffen? Na, da haben 10.1 Hardware Besitzer viel davon. ;D

Gast
2008-04-19, 19:33:21
Blossgestellt so: Zitat in etwa: Jo, 10.1 ist nicht wichtig blabbadablubb. Links zu genüge über den guten Freund Google zu finden. Also scheint 10.1 doch nicht so unnötig zu sein.

Grestorn
2008-04-19, 19:39:07
Wer hat gesagt, dass 10.1 unnötig wäre?

MikBach
2008-04-19, 19:39:34
nVidia wurde blossgestellt?
Es sind doch eher die AMD User, die blossgestellt wurden sind. AMD, die davon wussten und es verheimlichen und Ubisoft, die es einbauten und nun wieder entfernen.
Woher weisst du, dass AMD es verheimlicht hat? Quelle?
Vielleicht haben sie es einfach nicht an die große Glocke gehängt.

nVidia hat doch hier nichts mit zu tun. Statt also auf Ubisoft und AMD Druck zu machen, wird nVidia angegriffen? Na, da haben 10.1 Hardware Besitzer viel davon. ;D
:|
Wenn NV dieses Spiel mit einer Menge Kohle supportet, dann kannst du gerne Druck machen, nur bringen wird es nicht viel.

BTW ich Frage mich ernsthaft, ob du dir überhaupt der Brisanz dieser Situation bewusst bist. Ich denke eher nicht, sonst würdest du nicht so einen Stuss von dir geben.
Wie kann man sich als Spieler oder 3D-Interessierter nur freuen, dass der Fortschritt künstlich ausgebremst wird? :eek::confused:

Schlammsau
2008-04-19, 19:41:28
Der Schelm bist du weil du nicht Marktwirtschaflich denkst...
Und das Thema gabs hier schon zur genüge. Sowas macht kein Hersteller, schon gar nicht wenn man eine eigene Engine verkaufen will. 50% der Kunden hinten an lassen? Das kann sich keiner leisten...

50%?
wie hoch ist der Marktanteil von relevanten AMD Grafikkarten? 25% oder noch weniger?
Egal was kommt, ihr redet alles schlecht!

Schlammsau
2008-04-19, 19:43:26
Wer hat gesagt, dass 10.1 unnötig wäre?

http://www.giga.de/show/gigagames/maxx/00142090_directx_101_nicht_so_wichtig/
http://www.gamestar.de/hardware/news/grafikkarten/1475423/directx_101.html

Und ich trau mich wetten, wenn nVidia DX10.1 support anbietet, wird Crysis auch urplötzlich DX10.1 anbieten!

Gast
2008-04-19, 19:43:28
Hier wegen DX10.1 http://www.gamestar.de/hardware/news/grafikkarten/1476827/nvidia.html. Für mich sieht das so aus...

Grestorn
2008-04-19, 19:46:45
Hier wegen DX10.1 http://www.gamestar.de/hardware/news/grafikkarten/1476827/nvidia.html. Für mich sieht das so aus...

Na, das nVidia das sagt ist ja klar... :)

Aber sonst eben keiner. Besonders nicht hier im Forum.

Ob die GT200 10.1 unterstützt ist noch völlig offen. Ich erinnere nur daran, das alle und ganz besonders Fudzilla überzeugt war, dass der G80 nicht über unified shader verfügen würde.

Gast
2008-04-19, 19:49:19
Deswegen find ich es ja schön das die Behauptung offensichtlich widerlegt wurde. Jetzt "müssen" sie mindestens 10.1 integrieren, besser gleich DX11. Würde uns allen gefallen, denke ich mal.

Grestorn
2008-04-19, 19:53:03
Deswegen find ich es ja schön das die Behauptung offensichtlich widerlegt wurde. Jetzt "müssen" sie mindestens 10.1 integrieren, besser gleich DX11. Würde uns allen gefallen, denke ich mal.

Sie müssen sicher nicht. Ich hoffe es zwar, und es würde mir echt stinken, wenn sie es nicht täten.

Aber wie schon gesagt, wäre das für mich allein kein Grund zu wechseln. Und für viele andere sicher auch nicht. Es hat damals ja auch viele nicht davon abgehalten, eine ATI zu kaufen als die noch kein SM3 unterstützten (und das war ein noch viel größerer Nachteil).

MikBach
2008-04-19, 19:55:29
Hier wegen DX10.1 http://www.gamestar.de/hardware/news/grafikkarten/1476827/nvidia.html. Für mich sieht das so aus...
Interessant:
"Nvidia wird jedoch nicht besonders glücklich darüber sein, dass der neue 3DMark Vantage, welcher im Februar erwartet wird, über einen DirectX 10.1-Test verfügen soll . Damit wären alle Nvidia-Karten von diesem speziellen Test ausgeschlossen, der eventuell sogar in die Wertung einfliessen könnte."

Sollte der GT200 wirklich kein 10.1 können und der 10.1-Test nicht in die Wertung einfliessen, dann wette ich, dass NV ein paar Milionnen leichter werden wird. :P

Gast
2008-04-19, 19:55:55
Naja, ich hab mal so meine Gedankengänge niedergeschrieben. Denke das wird noch für viel Wind und Spekulationsspielraum sorgen. Ich schaue mir jetzt das Endspiel an und schaue vielleicht nochmal hier rein. Interessanter Thread. Achso, geiles Forum. Bis denne

Grestorn
2008-04-19, 19:57:38
:P

Das ist das, was ich nicht verstehen kann. Ich freue mich nicht, wenn ATI Geld verliert. Im Gegenteil, das erhöht die Gefahr dass Intel und nVidia Konkurenzlos dasteht, und das wäre echt scheiße.

Schadenfreude ist da sowas von unangebracht...

Gast
2008-04-19, 19:59:01
Das ist das, was ich nicht verstehen kann. Ich freue mich nicht, wenn ATI Geld verliert. Im Gegenteil, das erhöht die Gefahr dass Intel und nVidia Konkurenzlos dasteht, und das wäre echt scheiße.

Schadenfreude ist da sowas von unangebracht...

Und? Geht doch eh alles Richtung Konsole, was spielt's da noch für ne Rolle...

MikBach
2008-04-19, 20:04:23
Sie müssen sicher nicht. Ich hoffe es zwar, und es würde mir echt stinken, wenn sie es nicht täten.

Aber wie schon gesagt, wäre das für mich allein kein Grund zu wechseln. Und für viele andere sicher auch nicht. Es hat damals ja auch viele nicht davon abgehalten, eine ATI zu kaufen als die noch kein SM3 unterstützten (und das war ein noch viel größerer Nachteil).
Ich habe von einer 6800GT zur X800XT gewechselt und es nicht bereut, da damals die Bedeutung von SM3 einfach zu klein war und bei der 6800er die Spiele out of the Box mehr schlecht als recht liefen. Erst nach mehreren Betatreibern war die Performance so, wie ich es erwartet hatte. Und bei Spielen abseits des Mainstreams war es teilwiese wirklich katastrophal.

Nun ist die Situation aber anders. DX10.1 scheint viel einfacher zu implementieren zu sein (neben DX10.0), als damals der Umstieg von SM2 nach SM3. Bringt dazu noch einiges an Performance.
Wäre echt schade, wenn die Entwickler die Möglichkeiht nicht nutzen würden und neben DX10.0 auch noch DX10.1 implementieren würden.

MikBach
2008-04-19, 20:07:23
Das ist das, was ich nicht verstehen kann. Ich freue mich nicht, wenn ATI Geld verliert. Im Gegenteil, das erhöht die Gefahr dass Intel und nVidia Konkurenzlos dasteht, und das wäre echt scheiße.

Schadenfreude ist da sowas von unangebracht...
Missverständniss.
Ich freue mich auch nicht, wenn NV Geld investieren muss, um den Fortschritt aufzuhalten.
Wollte halt nur andeuten, dass wenn der Test nicht bewertet wird, dass wir dann wissen, woran es liegt.
Vielleicht habe ich den falschen Smile gewählt, verzeih. :wink:

edit:
Und? Geht doch eh alles Richtung Konsole, was spielt's da noch für ne Rolle...
Das ist ja eben der Punkt.
Kann sich der PC technisch von den Konsolen abheben, dann werden wir weiterhin so tolle Spiele wie z.B Crysis auf dem PC haben.
Deswegen nervt es mich ungemein, dass hier ein IHV offensichtlich absichtlich den Fortschitt bei der Entwicklung der 3D-Grafik abblockt.

LovesuckZ
2008-04-19, 20:35:15
Woher weisst du, dass AMD es verheimlicht hat? Quelle?
Vielleicht haben sie es einfach nicht an die große Glocke gehängt.

"Ubisoft are at the forefront of technology adoption, as showcased with the fantastic Assassin’s Creed title. In this instance our developer relations team worked directly with the developer and found an area of code that could be executed more optimally under DX10.1 operation, thus benefiting the ATI Radeon HD 3000 Series."

http://www.rage3d.com/articles/assassinscreed/index.php?p=5


BTW ich Frage mich ernsthaft, ob du dir überhaupt der Brisanz dieser Situation bewusst bist. Ich denke eher nicht, sonst würdest du nicht so einen Stuss von dir geben.
Wie kann man sich als Spieler oder 3D-Interessierter nur freuen, dass der Fortschritt künstlich ausgebremst wird? :eek::confused:

Ausgebremst? AMD und Ubisoft hatten anscheind kein Interesse Fortschritt zu machen. Wie kann man nVidia die Schuld für etwas geben, was mit ihnen überhaupt nichts zu tun hat. Das ist bemitleidenswert.


Du bist echt bemitleidenswert, sorry, mehr fällt mir dazu einfach nicht ein. :mad:

Jaja. Hat man keine Argumente, geht man es persönlich an, gell? Fakt ist, AMD und Ubisoft haben es verkackt - nicht nVidia.

MikBach
2008-04-19, 20:51:36
http://www.rage3d.com/articles/assassinscreed/index.php?p=5
:confused:
Und? Wie soll mir der Text beweisen, dass AMD es absichtlich verheimlicht hat, so wie du es behauptet hast?

Ausgebremst? AMD und Ubisoft hatten anscheind kein Interesse Fortschritt zu machen. Wie kann man nVidia die Schuld für etwas geben, was mit ihnen überhaupt nichts zu tun hat. Das ist bemitleidenswert.
Du hast aber den Text vollständig gelesen und auch verstanden?

Jaja. Hat man keine Argumente, geht man es persönlich an, gell? Fakt ist, AMD und Ubisoft haben es verkackt - nicht nVidia.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6442744

Gast
2008-04-19, 20:57:58
Folgendes steht fest:
1. AC hat einen D3D 10.1 Pfad.
2. Die Entwickler haben "vergessen" den D3D 10.1 Pfad zu erwähnen oder zu promoten.
3. AMD hat vergessen dies zu erwähnen oder zu promoten.
4. Nvidia hat vergessen dies zu erwähnen oder zu promoten.
5. User haben festgestellt, dass es einen D3D 10.1 Pfad gibt und dieser zusätzliche Performance und eine bessere Optik bringt.
6. Das Spiel sieht optisch hervorragend aus und läuft problemlos (selbst auf Vista64 mit HD3870 und D3D 10.1 Pfad getestet). Aber die Entwickler möchten den D3D 10.1 Pfad mit dem nächsten Patch entfernen.

Was folgern wir daraus:
1. Das ist Fortschritt und sehr zu begrüßen.
2. Marketingtechnisch, gerade auch wegen der messbaren Vorteile (ohne feststellbare Nachteile), sehr nachlässig und unwirtschaftlich.
3. siehe 2.
4. 1A Job.
5. 1A Job.
6. siehe 3.

Es bleibt festzuhalten, dass die Entwickler neuste Technik einsetzen sowie Arbeit/Zeit/Geld investiert haben. Dies aber vergessen zu erwähnen und als es entdeckt wird, wieder ohne besonderen Grund entfernen.

Entweder man denkt jetzt:
a) Ja, klingt logisch.
b) Da stimmt was nicht.

LovesuckZ
2008-04-19, 20:59:29
Nein, er soll dir zeigen, dass Kühe nicht nur Nachts fliegen können. :rolleyes:
AMD hat Ubisoft darauf aufmerksam gemacht. Sie haben mit Ubisoft daran gearbeitet. Buzz. Und natürlich, wusste AMD nichts von einem angeblichen 10.1 Pfad. Gott.
Achja: Das sind randomthroughts eines Gastes.
Warum sollte Ubisoft mit AMD zusammenarbeiten, wenn sie doch so dick mit nVidia wären? Das macht keinen Sinn.
Statt nVidia zu kritisieren, sollte man AMD und Ubisoft zeigen. Aber ey, soweit scheint man wohl nicht denken zu können. Da ist es einfacher auf nVidia zu bashen - immer das selbe. :ugly:

Gast
2008-04-19, 21:03:35
Stimmt, immer das selbe. Bei dir sind es doch auch immer die anderen.
Einen besseren kostenlosen Mitarbeiter kann sich die grüne PR Abteilung gar nicht wünschen. ;)

Gast
2008-04-19, 21:03:59
Nein, er soll dir zeigen, dass Kühe nicht nur Nachts fliegen können. :rolleyes:
AMD hat Ubisoft darauf aufmerksam gemacht. Sie haben mit Ubisoft daran gearbeitet. Buzz. Und natürlich, wusste AMD nichts von einem angeblichen 10.1 Pfad. Gott.
Achja: Das sind randomthroughts eines Gastes.
Warum sollte Ubisoft mit AMD zusammenarbeiten, wenn sie doch so dick mit nVidia wären? Das macht keinen Sinn.
Statt nVidia zu kritisieren, sollte man AMD und Ubisoft zeigen. Aber ey, soweit scheint man wohl nicht denken zu können. Da ist es einfacher auf nVidia zu bashen - immer das selbe. :ugly:

Wie wärs wenn du dich klar und sachlich ausdrücken könntest.

MikBach
2008-04-19, 21:06:32
Folgendes steht fest:
1. AC hat einen D3D 10.1 Pfad.
2. Die Entwickler haben "vergessen" den D3D 10.1 Pfad zu erwähnen oder zu promoten.
3. AMD hat vergessen dies zu erwähnen oder zu promoten.
4. Nvidia hat vergessen dies zu erwähnen oder zu promoten.
5. User haben festgestellt, dass es einen D3D 10.1 Pfad gibt und dieser zusätzliche Performance und eine bessere Optik bringt.
6. Das Spiel sieht optisch hervorragend aus und läuft problemlos (selbst auf Vista64 mit HD3870 und D3D 10.1 Pfad getestet). Aber die Entwickler möchten den D3D 10.1 Pfad mit dem nächsten Patch entfernen.

Was folgern wir daraus:
1. Das ist Fortschritt und sehr zu begrüßen.
2. Marketingtechnisch, gerade auch wegen der messbaren Vorteile (ohne feststellbare Nachteile), sehr nachlässig und unwirtschaftlich.
3. siehe 2.
4. 1A Job.
5. 1A Job.
6. siehe 3.

Es bleibt festzuhalten, dass die Entwickler neuste Technik einsetzen sowie Arbeit/Zeit/Geld investiert haben. Dies aber vergessen zu erwähnen und als es entdeckt wird, wieder ohne besonderen Grund entfernen.

Entweder man denkt jetzt:
a) Ja, klingt logisch.
b) Da stimmt was nicht.
Ich würde auf "b" tippen.

@LS
lass die lahmen Sprüche, du merkst gar nicht, dass du dich hier immer lächerlicher machst. :|
Für heute EOD mit dir.

LovesuckZ
2008-04-19, 21:10:31
@LS
lass die lahmen Sprüche, du merkst gar nicht, dass du dich hier immer lächerlicher machst. :|
Für heute EOD mit dir.

Nein, Fakten können sich nicht lächerlich machen.
Das Bashing gegen nVidia ist hier vollkommen unangebracht, da es nunmal Ubisoft und AMD waren, die es verkackt haben.
Zu behaupten, dass es AMD nicht wüsste und es somit nicht vor dem 10.1 User verheimlicht hätte, ist dagegen das lächerliche.

w0mbat
2008-04-19, 21:31:17
Ich würde mal ganz schwer tippen das Ubisoft das DX10.1 Feature in AC nicht beworben hat, weil es sonst kein TWIMTBP-Titel geworden wäre. Und AMD hat´s PR mäßig eben verraft.

Also haben NVIDIA & Ubisoft alles richtig gemacht, da in ihre Taschen Geld fließt und AMD hat eben nicht aufgepasst.

LovesuckZ
2008-04-19, 21:33:09
Ich würde mal ganz schwer tippen das Ubisoft das DX10.1 Feature in AC nicht beworben hat, weil es sonst kein TWIMTBP-Titel geworden wäre. Und AMD hat´s PR mäßig eben verraft.


Verstehe ich nicht. Wieso baut man es dann nach der AMD Anfrage ein?

w0mbat
2008-04-19, 21:37:04
Weil die Entwickler von AC eben das neuest Developerkit mit den neuesten Techniken nutzen. Und wenn alle HD3000-User unter Vista SP1 + AA einen Performanceschub bekommen kann sich das auch nur positiv auf die Verkaufszahlen auswirken. Nur wird ihnen NVIDIA wohl aus gutem Grund verboten haben damit offen zu werben. Wäre ja auch dumm wenn nicht. Und da jetzt alles rausgekommen ist muss der DX10.1-Pfad schnell verschwinden bevor die AMD-PR-Maschiene aufwacht.

LovesuckZ
2008-04-19, 21:40:06
Weil die Entwickler von AC eben das neuest Developerkit mit den neuesten Techniken nutzen. Und wenn alle HD3000-User unter Vista SP1 + AA einen Performanceschub bekommen kann sich das auch nur positiv auf die Verkaufszahlen auswirken. Nur wird ihnen NVIDIA wohl aus gutem Grund verboten haben damit offen zu werben. Wäre ja auch dumm wenn nicht. Und da jetzt alles rausgekommen ist muss der DX10.1-Pfad schnell verschwinden bevor die AMD-PR-Maschiene aufwacht.

Richtig und das macht keinen Sinn. Wieso sollte Ubisoft etwas einbauen, was sie eigentlich nicht dürften? Und wieso nutzt dies AMD nicht für ihre PR Maschiniere?
Oder anders gesagt: Was haben 3000 User von etwas, von dem sie nichts wissen können?

w0mbat
2008-04-19, 21:42:39
Ja, das ist das Problem hier das keiner versteht.

LeXTul
2008-04-19, 22:29:36
Nun will ich doch auch mal 1 Frage einfließen lassen.

Vorher 1 Beispiel, was passiert, wenn in einem Markt die Konkurenz fehlt.

BR und HD-DVD .. letzteres wird platt gemacht und schwupps :
http://winfuture.de/news,38607.html

Nun geht es AMD/ATI finanziell nicht wirklich gut. Was meint Ihr, wie sich die Preise entwickeln, wenn ATI weg ist vom Fenster ?

Werden die Preise dann steigen oder sinken ?

Wie groß sind im Preisbereich von 150€ die Vorteile von NVidia gegenüber ATI, so das man ein Steigen riskieren sollte ?

Da das ein wenig OT ist, braucht ihr nicht zu antworten, denkt einfach mal drüber nach.

MikBach
2008-04-19, 22:38:22
Ja, das ist das Problem hier das keiner versteht.
Ich denke schon, dass hier so einige das Problem verstehen. :wink:
AMD ist hier auch schuldig, wenn sie nicht damit werben. Es sei denn es ist vertraglich irgendwie festgelegt, dass sie es bei einem TWIMTBP-Spiel nicht dürfen, was ich mir aber nicht wirklich vorstellen kann.
Ausschliessen würde ich es nicht.

Das ist aber nichtmal so schlimm.
Schlimm finde ich es, dass man den DX10.1-Pfad rausnehemn will.
Dieser zeigt doch, dass man recht deutliche Performancesteigerungen erzielen kann und bringt den Fortschritt voran.
Wenn es andere Entwickler merken, dann bauen sie ja auch vielleicht einen 10.1- neben dem 10.0-Pfad ein.
Ich sehe da kein Problem. NV bekommt DX10.0 ab, AMD DX10.1.
Wo ist das Problem?
So ist es für mich Verschleierungstaktik und ein Abblocken des Fortschritts.

Sorkalm
2008-04-19, 22:48:28
Ich denke mal, dass sich AMD mit dem Entwickler nicht verscherzen wollte und daher die PR-Maschine nicht ausgepackt hat. Wäre noch die vernünftigste Erklärung.

Gast
2008-04-19, 22:49:20
Richtig und das macht keinen Sinn. Wieso sollte Ubisoft etwas einbauen, was sie eigentlich nicht dürften?
DX10.1 bringt ja den Programmierer vorteile und einige sachen werden vereinfacht...warum soll man sich die Arbeit schwerer machen?

Das es letztenendens nicht groß Public gemacht wird kann an der zusammenarbeit mit NV liegen (Verträge, Gelder)

LovesuckZ
2008-04-19, 22:52:41
Das ist richtig.
Aber AMD hat Ubisoft erst im nachhinein auf Bestandteile des Codes aufmerksam gemacht, die durch 10.1 profitieren. Das heißt, dass Ubisoft doppelte Arbeit getan hat.
Wieso sollte weder AMD noch Ubisoft es nicht für ihre eigene PR verwenden, wenn hier aktiv gearbeitet wurde?

deekey777
2008-04-19, 22:59:52
Das ist richtig.
Aber AMD hat Ubisoft erst in nachhinein auf Bestandteile des Codes aufmerksam gemacht, die durch 10.1 profitieren. Das heißt, dass Ubisoft doppelte Arbeit getan hat.
Wieso sollte weder AMD noch Ubisoft es nicht für ihre eigene PR verwenden, wenn hier aktiv gearbeitet wurde?
Weil Ubisoft den Geldgeber NV nicht verärgern will?
Warum AMD damit nicht wirbt, liegt - wie Richard Huddy beschrieb - daran, dass die Entwickler keine unnötigen Schwierigkeiten mit NV bekommen.
Was man AMD eigentlich vorwerfen kann, ist, dass AC kein GITG-Titel ist, aber AMD hat nunmal andere Sorgen und liefert lieber nach und nach Verbesserungen per Treiber.
"Erst in nachhinein" = Sie hatten keine Möglichkeit vorher in den Code reinzuschauen.

MikBach
2008-04-19, 23:04:08
Das ist richtig.
Aber AMD hat Ubisoft erst im nachhinein auf Bestandteile des Codes aufmerksam gemacht, die durch 10.1 profitieren. Das heißt, dass Ubisoft doppelte Arbeit getan hat.
Wieso sollte weder AMD noch Ubisoft es nicht für ihre eigene PR verwenden, wenn hier aktiv gearbeitet wurde?
Les doch mal, was der Gast geschrieben hat.
Verträge und Gelder mit/von Nvidia dürften wohl einiges erklären.
Dir muss man aber echt alles wie einem Kleinkind erklären, deswegen macht das Diskutieren mit dir nicht wirklich spass. :mad: