Archiv verlassen und diese Seite im Standarddesign anzeigen : Frostbite Engine 3 exklusiv für AMD optimiert / AMD vs Nvidia
Knacki99
2013-06-19, 08:53:08
Gerade diese Meldung im Internet gelesen. Scheint als hätte EA mit AMD im Rahmen des Gaming Evolved Programms einen exklusiven Deal abgeschlossen.
Amidst the fray of E3 reveals and gameplay demos, EA announced a new partnership with AMD that could tip the scales for the chip maker's Radeon graphics cards. Starting with the release of Battlefield 4, all current and future titles using the Frostbite 3 engine — Need for Speed Rivals, Mirror's Edge 2, etc. — will ship optimized exclusively for AMD GPUs and CPUs. While Nvidia-based systems will be supported, the company won't be able to develop and distribute updated drivers until after each game is released.
EDIT: Anscheinend wohl doch erstmal nur für Battlefield 4. Dennoch hinterlässt die Originalmeldung einen bitteren Nachgeschmack.
EA and AMD have issued a statement clarifying that while the two companies are collaborating on day-one support for Radeon products for Battlefield 4, the partnership is non-exclusive and gamers using other components will be supported.
“DICE has a partnership with AMD specifically for Battlefield 4 on PC to showcase and optimize the game for AMD hardware," an EA spokesperson said. "This does not exclude DICE from working with other partners to ensure players have a great experience across a wide set of PCs for all their titles.”
AMD's statement:
"It makes sense that game developers would focus on AMD hardware with AMD hardware being the backbone of the next console generation. At this time, though, our relationship with DICE and EA is exclusively focused on Battlefield 4 and its performance optimizations for AMD CPUs, GPUs and APUs," AMD representatives said. "Additionally, the AMD Gaming Evolved program undertakes no efforts to prevent our competition from optimizing for games before their release.”
Quelle: http://www.ign.com/articles/2013/06/18/all-frostbite-3-titles-to-ship-optimized-exclusively-for-amd
Andi_669
2013-06-19, 09:08:01
Wenn das bei AMD weiter so läuft wie bisher sehe ich das gelassen,
bisher hat sich das Entwicklerprogramm von AMD auf den Fluß von Geldern beschränkt,
das aktuelle Tomb Raider ist ja auch auf AMD optimiert, läuft aber auf Nvidia genauso schnell.
ShinyMcShine
2013-06-19, 09:25:22
Wenn das bei AMD weiter so läuft wie bisher sehe ich das gelassen,
bisher hat sich das Entwicklerprogramm von AMD auf den Fluß von Geldern beschränkt,
das aktuelle Tomb Raider ist ja auch auf AMD optimiert, läuft aber auf Nvidia genauso schnell.
Sehe ich genauso.
Außerdem: wenn man ein PC-Spiel auf den Markt bringt (auch wenn es nur ein Konsolenport ist), kann man es sich bestimmt nicht leisten, die ganzen Intel/NVIDIA User zu verprellen? Ich denke, dass dieser Teil bestimmt über 60% liegt (korrigiert mich, wenn ich falsch liege), und da der PC Markt im Vergleich zu den Konsolen nicht so volumenträchtig ist, kann man auf die Intel/NVIDIA User bestimmt nicht verzichten...
Es ist zwar in gewisser Weise logisch, dass AMD jetzt mit den XB1/PS4 Deals ein wirklich gutes Standbein bei zukünftigen Spielen haben wird, aber es ist doch auf Windows-PCs alles x86/DirectX kompatibel. Ergo wird das alles auch weiterhin auf Intel/NVIDIA Hardware laufen...
VG
Shiny
gnahr
2013-06-19, 09:38:23
Wurde direkt von den entwicklern dementiert und geupdated.
Waer ja auch beschaemend.
Iruwen
2013-06-19, 10:58:28
Ich denke, dass dieser Teil bestimmt über 60% liegt (korrigiert mich, wenn ich falsch liege), und da der PC Markt im Vergleich zu den Konsolen nicht so volumenträchtig ist, kann man auf die Intel/NVIDIA User bestimmt nicht verzichten...
Ich glaub Nvidia hat immer noch um die 70% Anteil bei dedizierten GPUs, kann mich aber auch irren. Ich glaub eher du vertust dich beim Volumen PC vs Konsole :D Dazu sind die PC-Preise niedriger, der Konsolenmarkt ist für EA interessanter.
ShinyMcShine
2013-06-19, 11:05:57
Ich glaub Nvidia hat immer noch um die 70% Anteil bei dedizierten GPUs, kann mich aber auch irren. Ich glaub eher du vertust dich beim Volumen PC vs Konsole :D Dazu sind die PC-Preise niedriger, der Konsolenmarkt ist für EA interessanter.
Ich wollte mit den 60% auch eher auf Intel+NVIDIA in eben dieser Konstellation hinaus, weil im Eingangspost eben die Rede ist von "AMD GPUs and CPUs". Es gibt ja bestimmt auch ein paar leute mit AMD CPU + NVIDIA GPU. ;D
Bei den dedizierten GPUs allein sollte NVIDIA wie Du schon sagst bei ca. 70% liegen.
VG
Shiny
Iruwen
2013-06-19, 11:09:00
Aso :D Ja das mag sein.
Ronny145
2013-06-19, 18:43:05
Wenn das bei AMD weiter so läuft wie bisher sehe ich das gelassen,
bisher hat sich das Entwicklerprogramm von AMD auf den Fluß von Geldern beschränkt,
das aktuelle Tomb Raider ist ja auch auf AMD optimiert, läuft aber auf Nvidia genauso schnell.
Primär geht es neben dem Marketingfaktor darum, den Konkurrenten Beine in den Weg zu stellen. Durch späte oder ausbleibende Preview Versionen. Nvidia hätte so keine Möglichkeit zum launch gleich einen Performance Treiber zu präsentieren. Grafikfehler oder anderweitige Probleme wären nicht überraschend. Das alleine wäre ein massiver Vorteil für AMD, was wunderbar als AMD optimized verkauft werden kann. Oder durch ausbremsen der Intel CPUs, siehe Crysis 3.
Andi_669
2013-06-19, 20:10:52
Primär geht es neben dem Marketingfaktor darum, den Konkurrenten Beine in den Weg zu stellen. Durch späte oder ausbleibende Preview Versionen. Nvidia hätte so keine Möglichkeit zum launch gleich einen Performance Treiber zu präsentieren. Grafikfehler oder anderweitige Probleme wären nicht überraschend. Das alleine wäre ein massiver Vorteil für AMD, was wunderbar als AMD optimized verkauft werden kann. Oder durch ausbremsen der Intel CPUs, siehe Crysis 3.
Im Moment hat Nvidia ja auch seine Not mit den Treibern,
die letzten Jahre war es allerdings so das bei vielen großen Titeln AMD (ATI) erst Treiber bringen musste um das Game lauffähig zu bekommen,
bei Nvidia laufen jedoch auch Uralt Treiber fehlerfrei, wenn auch nicht so schnell wie ein optimierter Treiber.
u. wie schon genannt Tomb Raider ist das beste Beispiel, Spiele mit dem Nvidia Logo laufen zu 95% vom Start weg auf Nvidia Karten,
die mit dem AMD Logo machen Probleme allerdings dann auch auf AMD :freak:
Hitman: Absolution hat auch das AMD Logo läuft aber mit dem 301.42 von Mitte letzten Jahres ohne Probleme ;)
so ist zu mindestens meine Beobachtung :|
[dzp]Viper
2013-06-19, 20:16:12
Wieso wird da so eine "Taram" drum gemacht? Das gibts doch schon ewig...
Ausserdem mal den wichtigen Teil aus dem Text:
"This does not exclude DICE from working with other partners to ensure players have a great experience across a wide set of PCs for all their titles.”
;)
sloth9
2013-06-20, 15:05:36
...
Oder durch ausbremsen der Intel CPUs, siehe Crysis 3.
Link? Klingt interessant...
Angiesan
2013-06-21, 13:44:10
Das ist Unsinn, Crysis 3 ist sehr parallelisiert im 2. Level Welcome To The Jungle, verantwortlich ist wohl das Gras in diesem Level. Je Mehr Kerne oder Threads eine CPU ansprechen kann je schneller läuft das Spiel in diesem Level.
Eine AMD 8xxx mit 8 Modulen ist dort eben schneller wie eine Intel 4 Kern CPU ohne HT eine Intel 4 Kern CPU mit HT und die 6 Kerner sind dann aber eben wieder schneller wie die AMD CPU :freak:
Also nix ausbremsen, sondern auf mehr wie 4 Kerne optimiert :wink:
Ich denke das werden wir in Zukunft öfter sehen.
Ronny145
2013-06-21, 13:47:27
Ist kein Unsinn. Zu Beginn wurden Intel CPUs ausgebremst, das wurde später mit einem Patch korrigiert. Heute ist ein Haswell 4 Core ohne HT schneller als AMDs 8xxx.
Cra$h
2013-06-21, 13:51:28
Denke, dass da auch in Richtung XboxOne/PS4 gedacht wird, obwohl explizit der PC erwähnt wird. Deren Hardware ist der von klassischen PCs ja nicht unähnlich.
Ist kein Unsinn. Zu Beginn wurden Intel CPUs ausgebremst, das wurde später mit einem Patch korrigiert. Heute ist ein Haswell 4 Core ohne HT schneller als AMDs 8xxx.
Unterstellst du tatsächlich Absicht?
Ronny145
2013-06-21, 14:44:52
Unterstellst du tatsächlich Absicht?
Es riecht danach, ja. Auf diese sonderbaren Probleme muss man sich zukünftig bei EA Spielen gefasst machen. Wenn es auf normalen Wege für AMD nicht reicht, wird einfach künstlich nachgeholfen, Problem gelöst. Bei den GPUs ist es wie gesagt schon ausreichend, dem Kontrahenten im Voraus Testversionen zu untersagen. Besonders zum launch, wo viele Test gefahren werden, ein enormer Vorteil. Der typische launch Treiber mit fps speedups müsste warten.
Gast³
2013-06-21, 17:53:04
Ach ronny, ronny, ronny.
Lass das doch bitte sein mit den Verschwörungstheorien.
Der Artikel wurde schon längst von beiden Seiten glaubwürdig dementiert, AMD betont nochmals, dass sie die Konkurrenz nicht ausbremsen möchten oder dergleichen. Ich möchte gerne mal die "Quelle" erfahren die da zum Redakteur gesprochen hat, von wegen Nvidia darf erst nach Veröffentlichung ihre Treiber für das entsprechende Spiel optimieren.
Vergleich... das hat AMD gesagt:
"Additionally, the AMD Gaming Evolved program undertakes no efforts to prevent our competition from optimizing for games before their release.”
Und die tolle Quelle/IGN behauptete ja genau das Gegenteil ;):
"While Nvidia-based systems will be supported, the company won't be able to develop and distribute updated drivers until after each game is released."
Das ist einfach mal kompletter Bullshit, denn das wäre dann ein Fall für die FTC.
Vor allen Dingen, überleg doch mal bitte: Kann EA es sich wirklich leisten pi mal Daumen die Hälfte der PC-Gamer zu vergraulen. Gerade EA. die in den letzten Jahren den PC'lern wirklich viel Schwachsinn zugemutet haben.
Und bei Tomb Raider kannst du mir auch nicht erzählen, dass Nvidia ausgebootet wurde und deswegen dann Monate brauchte um die Probleme zu beseitigen. Warum kann man nicht einfach mal die einfachste Begründung annehmen. Nvidia und Eidos/CD haben es einfach mal verkackt.
"Glaubwürdig" widerlegt? Wie das? Weil EA und AMD genau das gegensätzliche behaupten?
Fakt ist, dass EA in ihrem Statement nicht erklären, dass Dice mit nVidia und Intel vor dem Release zusammenarbeiten. Sie schreiben ausdrücklich von
DICE has a partnership with AMD specifically for Battlefield 4 on PC to [...] optimize the game for AMD hardware
Das Spiel wird also nicht für andere Hardware optimiert. EA widerlegt am Ende also überhaupt nichts, sondern sagen genau das gleiche aus.
Lol und der Teil zu Tomb Raider. Was bist du, ein AMD Mitarbeiter? Natürlich wurde nVidia ausgebootet, weil der Entwickler des Ports weder mit nVidia zusammenarbeiten wollte noch den Code auf ihrer Hardware getestet hat. Die haben ein Spiel veröffentlicht, dass belegbar nicht auf nVidia hardware in einem vernünftigen Zustand lief. Und das ganz klangheimlich.
Und du denkst AMD hat damit nichts zu tun?
http://community.amd.com/community/amd-blogs/game/blog/2013/03/05/tomb-raider-launches-with-revolutionary-tressfx-hair
Vorallem:
http://community.amd.com/servlet/JiveServlet/downloadImage/38-2504-2454/tr_7850-635x272.png
Es ist offensichtlich, dass der Entwickler und AMD hier klar darauf hingearbeitet haben, dass das Spiel nicht auf nVidia hardware vernünftig laufen sollte.
Und am Ende stellen wir sehr simpel und objektiv fest: Weder EA noch AMD haben etwas "glaubwürdig" widerlegt.
Iruwen
2013-06-21, 18:24:41
Das Spiel wird also nicht für andere Hardware optimiert.
Les ich aus dem Zitat nicht raus.
fondness
2013-06-21, 18:26:07
Es riecht danach, ja. Auf diese sonderbaren Probleme muss man sich zukünftig bei EA Spielen gefasst machen. Wenn es auf normalen Wege für AMD nicht reicht, wird einfach künstlich nachgeholfen, Problem gelöst. Bei den GPUs ist es wie gesagt schon ausreichend, dem Kontrahenten im Voraus Testversionen zu untersagen. Besonders zum launch, wo viele Test gefahren werden, ein enormer Vorteil. Der typische launch Treiber mit fps speedups müsste warten.
Tja, umsonst gibts nichts im Leben. Wenn NV glaubt sich auf ihren Lorbeeren ausruhen zu können und nichts mehr in DevRel investiert dann hat das natürlich Folgen. Sie können froh sein das AMD keine proprietären Features fördert und prinzipiell diese Dinge auch auf NV-Karte laufen. Im Endeffekt profitieren alle Spieler von diese Effekte die dank AMD in Spielen eingebaut werden.
Les ich aus dem Zitat nicht raus.
Die Architekturen unterscheiden sich so dermaßen, dass du nur noch auf eine optimieren kannst.
Beispiel DoF:
Metro2033 per DirectCompute => Bandbreitenlimitiert
Metro Last Light per Shader => Rechenleistungslimitiert
Was wird wohl AMD vorschlagen? Richtig. Und das machen sie auch schon Spielen - siehe Sniper Elite 2. Die ganzen Implementierungen werden so geschrieben, dass sie vorallem auf die Bandbreite schlagen.
boxleitnerb
2013-06-21, 18:31:48
^ das passt nicht. In Metro LL hängt AMD hintendran (7970 GHz vs 680), obwohl sie mehr Rechenleistung haben.
Ich finde es einfach nur pervers wie sich Leute an einem Artikel aufhängen der offensichtlich nicht recherchiert wurde (keine Rücksprache mit AMD/EA/Nvidia)
und den man sich offensichtlich mal wieder aus den Fingern gesogen hat, weil man die Battlefield 4 Ankündigung in den falschen Hals bekommen hat und gleich mal behauptet dass (überspitzt gesagt) sämtliche Frostbyte Spiele nur noch exklusiv auf AMD Hardware laufen.
Ich wette mit euch, dass der Redakteur auf der E3 mit nem Bier in der Hand bei EA stand und sich das ganze hat erklären lassen, das ganze IGN-typisch nicht geschnallt hat und dann einfach drauflosgeschrieben hat. Ein bißchen Fiktion rein und schon können wir einen Aufruhr starten. Nicht das erste Mal bei IGN... sicherlich nicht das letzte Mal (jüngste Aktion die Bioshock Review).
Click click click... und es hat funktioniert, jede Community hat sich genüsslich darauf gestürzt. In vielen Communities ist noch nicht einmal aufgefallen, dass ein Dementi kam. Da ist weiterhin die Hölle los. Und die Verschwörungstheorien sind schon am Brodeln.
Komisch, dass sich bei PhysX keiner aufregt. Alles legitim. Nvidia hat ja AMD für 10 Trillarden eine Lizenz angeboten. Ihre Schuld wenn sich nicht darauf eingehen...gähn. Aber wenn mal das Gerücht aufkommt, so ein Klüngel könnte von AMD Seite ausgehen... dann ist aber die Kacke am Dampfen.
Das ist dann hochoffiziell und da ist auch kein Zweifel: DAS IST SO!!! AMD will uns alle unterjochen.
*gähn
fondness
2013-06-21, 19:00:24
Die Meldung kam original von AMD selbst zur E3:
Today we're proud to announce that Battlefield 4 will be exclusively optimized for AMD Radeon GPUs, AMD A-Series APUs and AMD FX CPUs! AMD, EA and Dice have collaborated to ensure Frostbite 3-based titles like Battlefield 4 look and run their best on AMD hardware. If you’re at E3, you could be one of the first to try Battlefield 4 multiplayer on the AMD-powered systems at EA’s booth in the South Hall!
https://www.facebook.com/photo.php?fbid=484120104993815&set=a.196380707101091.49383.165710583501437&type=1
Und du weißt, dass der Artikel schlecht recherchiert war? Wieso? Jede vernünftige Firma wird alles tun, wenn die Wahrheit viel zu viel Kritik hervorbringt. Microsoft tut es mit dem DRM Zeug der One, nVidia mit dem Preis von Shield.
Weder EA noch Dice haben klar Stellung bezogen, dass das Spiel a) auf Intel und nVidia GPUs evenfalls optimiert wird und b) beiden Firma Zugang zu Releasestände erhalten, um das Spiel ebenfalls per Treiber und Mithilfe zu optimieren. Das sind nämlich die beiden Hauptaussagen aus dem orginalen IGN Text.
Alles andere sind Nebelkerzen von zwei Firmen, die eine monetäre Beziehung haben.
Gast³
2013-06-21, 19:34:05
@ fondness
Verstehe ich nicht. Das ist einfach "Gaming Evolved/Never Settle my Ass Reinvigorated" Gewäsch.
Exklusiv a.k.a. wow guckt mal hier toll, wir sind ganz toll.
Warum der Quark nicht recherchiert war:
Amidst the fray of E3 reveals and gameplay demos, EA announced a new partnership with AMD that could tip the scales for the chip maker's Radeon graphics cards. Starting with the release of Battlefield 4, all current and future titles using the Frostbite 3 engine — Need for Speed Rivals, Mirror's Edge 2, etc. — will ship optimized exclusively for AMD GPUs and CPUs. While Nvidia-based systems will be supported, the company won't be able to develop and distribute updated drivers until after each game is released.
Wo und wann hat EA das announced? "Exklusiv" bei IGN mal wieder?
Ich behaupte der gute Scott hat sich das wie man neudeutsch sagt "aus seinem Arsch gezogen". Dass Frostbite Spiele bei Gaming Evolved/Never Settle im Angebot sind, dürfte jetzt ja schon hinreichend lang bekannt sein. Dass Gaming Evolved dann aber nicht immer eine Evolution ist, zeigt z.B. Metro 2033 bzw. Last Light (ich weiß Nvidia "Exklusiv").
Da verkackt nvidia einmal bei Tomb Raider und schon wird die Untergangs-Keule geschwungen. Dass die Treiber im Moment generell untypischerweise ein paar Problemchen haben, ist da auch völlig nebensächlich.
Aber gut, da euch ja eh nicht mehr zu helfen ist. Ja, ihr habt recht AMD wird Nvidia durch nicht vorhandene Geldspritzen (weil kein Geld in der Kasse wegen Never Settle ;) ) an die Entwickler in die Knie zwingen, Nvidia wird nie wieder Zugang zu den Entwicklern bekommen und innerhalb der nächsten Monate wird sich der 65/60 % (mobile/desktop) market share in Luft auflösen... weil DICE, EA, Square Enix und Co. einfach Nvidia abgrundtief hassen.
Aber: dass ist Nvidia egal.
Denn künftig werden alle eh nur noch Spiele auf "ihrem Schild" spielen wollen und da braucht man ja eh dann noch mal ne Nvidia-Grafikkarte für(mit AMD geht es nicht, die wollten die Lizenzgebühren wohl nicht bezahlen). ;)
Der markierte Teil stamm so ebenfalls von AMD (Twitter: Sneak peek from #E3: Check out Battlefield 4 by @EA_DICE, optimized exclusively for #AMDE3! bit.ly/13yjgV7), der untere dagegen nicht. Wobei hier klar sein sollte, dass der liebe Mensch von IGN diesen auch anderswertig erfahren haben könnte.
Des Weiteren finde ich es trollig, dass du weiterhin nVidia in Sachen Tomb Raider eine Mitschuld geben willst. Wieso eigentlich? Es liegt im Verantwortungsbereich des Entwicklers auch nVidia Hardware zu testen und gegebenfalls Kontakt aufzunehmen. Aber da es sich hier um ein GE Titel handelt, wollte AMD eben mehr als nur Geldgeber sein.
Und am Blogeintrag sieht man eindeutig, dass dies ein ganz klar so gewollt war.
Da kannst du gerne ignorieren, aber dann stehst du auf einer Stufe mit IGN - schlecht recherchiert.
Gast³
2013-06-21, 20:29:24
Warum gebe ich Nvidia eine Mitschuld? Und warum behauptest du, der Entwickler wäre schuld?
Wenn überhaupt sind beide daran schuld, aber Nvidia war so nett, dass Ganze direkt abzuwälzen und NACH Release zu behaupten sie hätten keinen finalen Code bekommen und müssten auf einen Patch warten.
Der Patch kam. Es verbesserte sich nicht flächendeckend. Der nächste Patch kam. Der Nvidia Treiber ließ weiterhin auf sich warten. Die Sache hat man auch einfach schweigend aber mit erhobenen Zeigefinger ausgesessen. Und warum machte eigentlich ausgerechnet das Steckenpferd Tesselation Probleme?
Natürlich kann es nur sein dass SE/CD und AMD der Lächerlichkeit preis geben wollten. Denn nach zwei Monaten war das Problem ja immer noch nicht ganz gelöst.
Es kann eben nicht sein, was nicht sein darf. Nvidia hat niemals Treiber-Probleme. Basta. Alle haben sich gegen die sympathischen Grünen verschwören, besonders der rot/grünen Drache.
Zu Frosbite 3: Noch einmal. Marketing. "Wir haben EXKLUSIV mit DICE zusammengearbeitet (und den Nvidia-Kollegen nebenan die Augen verbunden) damit Battlefield 4 bei uns am BESTEN aussieht.
Vor ein paar Jahren sah das noch so aus:
http://www.geforce.com/whats-new/articles/exclusive-physx-in-batman-arkham-city-a-first-look
On the PC, Arkham Asylum was one of the first games to make abundant use of Hardware-Accelerated PhysX effects, enhancing background details, incidental items that added to the immersion, and even entire levels (Scarecrow’s nightmare world was particularly memorable). For Batman: Arkham City, developer Rocksteady Studios has gone all out, making the most extensive use of PhysX to date.
Toll, was Rocksteady da aus PhysX(TM) herausgeholt hat. Nvidia applaudiert brav. Natürlich hatten sie damit nichts zu tun umso schöner dass Rocksteady wieder einmal Gebrauch von Physx(TM) einem "EXKLUSIVEN" Geforce-Feature macht.
Wie die das nur immer schaffen, so ganz ohne Unterstützung.;)
Welchen Blogeintrag meinst du jetzt? Das AMD BF4 E3 Gedöns. Falls du es vergessen hast. BF 4 wurde auf dem PC "EXKLUSIV" auf AMD Hardware gezeigt. Dass man da nen Blogeintrag und ein paar exclusive springen lässt finde ich da nicht verwunderlich.
Umso verwunderlicher finde ich, dass aus dem Marketing-Sprech gleich mal wieder ein Strick gedreht wird.
Er hat "exklusiv" gesagt, wie unverschämt. Er sagt, bei ihm siehts am besten aus. Das kann ja wohl nicht wahr sein, da ist doch was faul dran.
Wo ist der Lynchmob wenn man ihn mal braucht.
Und das hier kommt direkt von AMD:
http://cdn3.wccftech.com/wp-content/uploads/2013/06/AMD-Battlefield-4-300x169.jpg
http://wccftech.com/amd-talks-graphic-industrys-trends-radeon-hd-7970-king-299-349-price-segment/
Man sollte seine Vorbestellung als Intel und nVidia-User von Battlefield 4 abbestellen. Oder eben damit leben, dass man 50€ für ein Stück Nullen und Einsen ausgibt, dass am Anfang sehr schlecht laufen wird.
Und das weisst du vorher? Weil irgendein AMD Freak das in die Welt setzt? Warten wir mal ab wie Battlefield 4 auf nVidia laufen wird. Soweit ich weiss läuft Battlefield 3 auf nVidia besser.
boxleitnerb
2013-06-25, 11:23:11
Hust...
http://gamegpu.ru/action-/-fps-/-tps/battlefield-4-alpha-test-gpu.html
Alpha, aber dennoch.
Ich finde es völlig ok, wenn AMD hier sich Vorteile sichert. Nur so hat sich NV ihr Ständing über Jahre erlogen. Von mir aus könnte BF4 auf GeForcekarten default nur mit low Details laufen.
Meh Seahawk, dein Trolling war schonmal besser. Bleib im Autosport.com Forum.
BTW: Die Folien stammen direkt von AMD.
AMD passed me a note in which they talked about the the trends of the graphics industry currently and moving into Q3 2013.
Da kann EA noch soviel dementieren, anscheinend hat man nichts dagegen, dass falsche Behauptungen vom eigenen Partner in die Welt getragen werden.
Da sieh an. die Benches die Boxleitnerb gepostet hat sagen einiges aus. Ne GTX 770 übertrumpft die schnellste AMD Singlekarte teils deutlichst. In jeder Auflösung! Von daher viel Rauch um nichts.
Das ist es doch. Dice und EA haben gar kein Interesse eine NV zu benachteiligen. Und nur weil AMD nun für ihr Logo Geld abdrückt, bedeutet das nicht, dass man NV keinen Zugang zum Code gibt und dortige Optimierungen verwirft.
Wenn AMD das Geld in die hand nehmen würde um Dice zu überzeugen NV künstlich zu limitieren, dann wäre das sehr teuer.
Ja genau. Intel, nVidia sind die bösen und schmieren alles und jeden. Ich lach mich unter den Tisch. Schon den neuen "Werbespot" von AMD gesehen? Das ist unterstes Niveau. Aber so kennt man AMD. Oh, wir sind die armen Kleinen die anderen sind die bösen Buben.
Andi_669
2013-06-25, 11:52:38
LoL :
gerade bei den lustigen Videos gepostet :
http://www.youtube.com/watch?v=eH6XayaLTw8&feature=youtu.be
alle in dem Video abgebildeten Games laufen sowohl auf AMD wie auch Nividia praktisch gleich gut oder schlecht,:freak:
kein Spiele Hersteller kann es ich leisten ca. 50% zu verprellen,
das einzige was AMD bisher geschafft hat ist Marketing Geblubber,
mal schauen ob sich daran was ändert, ich glaube kaum.
Edit
Ich finde es völlig ok, wenn AMD hier sich Vorteile sichert. Nur so hat sich NV ihr Ständing über Jahre erlogen. Von mir aus könnte BF4 auf GeForcekarten default nur mit low Details laufen.
NV hat sich nichts erlogen, so viel ich weiß bekommt eine Spielehersteller wenn er unter dem NV Logo entwickelt Personal von NV zur Seite gestellt die bei der Entwickelung der technischen Seite helfen :rolleyes:
bei AMD ist bisher nur Geld geflossen, u. solange sich daran nichts ändert werden die Spiele auf auch nicht auf AMD besser laufen :freak:
einzig das sie auf NV besser laufen ist dann nicht mehr gegeben,
wobei NV da im Moment derbe abbaut wenn man sich den Mist mit den Treibern anschaut ;(
boxleitnerb
2013-06-25, 12:07:43
V2.0 trollt nur. Nvidia hat sogar manchmal dafür gesorgt, dass Titel auf AMD-Karten besser liefen :D
http://images.gamestar.de/images/idgwpgsgp/bdb/2094487/944x531.jpg
http://www.gamestar.de/hardware/praxis/grafikkarten/2312033/the_way_its_meant_to_be_played_p2.html
aufkrawall
2013-06-25, 12:14:50
bei AMD ist bisher nur Geld geflossen, u. solange sich daran nichts ändert werden die Spiele auf auch nicht auf AMD besser laufen :freak:
AMD hat angeblich schon bei einigen Features geholfen, die taugten aber alle nicht wirklich was bzw. sehen sie gegen Cryengine 3 alt aus.
dargo
2013-07-04, 22:03:07
Hat jetzt nicht direkt was mit der Frostbite 3 zu tun, ich pack es hier aber mal rein. Könnte mir einer erklären was mit Nvidia hier los ist?
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/index31.php
Eine normale HD7970 auf Augenhöhe mit Geforce Titan? :| Treiberprobleme bei NV in diesem Spiel?
dildo4u
2013-07-04, 22:05:36
Bei anderen Seiten ist NV weit vorne müsste man mal mit einem eigenen Savegame hier testen.
http://www.pcgameshardware.de/Bioshock-Infinite-PC-235561/Tests/Bioshock-Infinite-Test-Grafikkarte-Benchmark-1061764/
http://www.guru3d.com/articles_pages/msi_geforce_gtx_780_gaming_review,12.html
HT4U's Bioshock Werte muss man nicht ernst nehmen. Die sind "all over the place". Da ist eigentlich schon ziemlich bizarr, wieso man die Werte so veröffentlicht.
Tja, da lag IGN doch garnicht so falsch.
Dice hat eben angekündigt, dass sie AMD wesentlich besser unterstützen als nVidia.
Mal sehen, ob Leute mit nVidia-Hardware weiterhin das Spiel vorbestellen und bezahlen.
Und wer es tut, sollte dann nicht rumheulen, wenn das Spiel wie Tomb Raider massive Probleme machen wird.
dildo4u
2013-09-26, 00:36:15
Von der AMD R9 290X Vorstellung
Mantel ist offen Nvidia kann es nutzen
We've been told at the GPU14 Tech Day event that the Mantle API is open, so theoretically Nvidia could purpose the technology in their GPUs.
http://www.techspot.com/news/54134-amd-launches-mantle-api-to-optimize-pc-gpu-performance.html
http://puu.sh/4Ae8O.jpg
http://abload.de/img/2013-09-25_17-35-31x5s44.jpg
http://abload.de/img/amd-a19scs7n.png
http://abload.de/img/amd-a20vzsjo.png
fondness
2013-09-26, 01:14:11
Eine eigene API für low-level Zugriff auf Radeons für alle Frostbite3-Games und womöglich noch viele weitere Konsolen-Spiele. Das nennt man wohl eine Bombe.
dildo4u
2013-09-26, 01:18:00
Mantel ist offen Nvidia kann es nutzen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9934331&postcount=3310
fondness
2013-09-26, 01:19:02
Mantel ist offen Nvidia kann es nutzen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9934331&postcount=3310
Hm, was will NV mit nativen GCN-Code? DICE und AMD erwähnen auch beide ausdrücklich "on Radeons."
fondness
2013-09-26, 01:21:31
Bitte löschen, schon wieder falscher Thread^^
maximus_hertus
2013-09-26, 01:24:22
Mantel ist offen Nvidia kann es nutzen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9934331&postcount=3310
Hmmmm, offen im Sinne von "ihr könnt es nutzen, aber es wird euch eh nix bringen" oder kann nV da genauso von profitieren?
Hm, was will NV mit nativen GCN-Code? DICE und AMD erwähnen auch beide ausdrücklich "on Radeons."
Nichts.
Ohne groß quergelesen zu haben allein laut der Grafik oben: NV kann einen Treiber für ihre eigene HW bereitstellen welcher die Mantle API unterstützt.
just4FunTA
2013-09-26, 01:27:43
ist ja vielleicht für die xboxOne/PS4 Entwicklung praktisch aber aufm PC macht es ja nur mehr arbeit den für NV müssen sie ja so oder so eine Version entwickeln.
maximus_hertus
2013-09-26, 01:29:59
ist ja vielleicht für die xboxOne/PS4 Entwicklung praktisch aber aufm PC macht es ja nur mehr arbeit den für NV müssen sie ja so oder so eine Version entwickeln.
Wenn Mantle offen ist nicht unbedingt. Dann heißt es eben Mantle 1.0 statt DX 11.0 bei den Anforderungen ^^
just4FunTA
2013-09-26, 01:33:28
nur wird sich nv wohl kaum von amd abhängig machen wollen und deshalb bleibts bei doppelter Arbeit für die Entwickler.
maximus_hertus
2013-09-26, 01:40:05
Es muss nur ein TripleA Game Mantle vorraussetzen und schon hat nV ein Problem (der PC Markt ist zudem recht klein bei Konsolenports, ergo kein so großes Risiko für die Entwickler / Publisher).
Ich frage mich nun, was nV noch im Köcher hat. Falls da nix mehr kommt (bis 2014) könnte das ein entscheidendes Momentum pro AMD geben. Aber auf der anderen Seite gibt es noch viele viele nV Zombies...
Ergo Oktober erste unabhängige Benches, Dezember erste Mantle Benches. Wird ein interessanter Hwerbst / Winter ;)
MartinB
2013-09-26, 01:41:48
oder keine PC Ports ;)
Mantle scheint wohl die Api zu sein die auch auf den Konsolen laeuft. Was Microsoft wohl dazu sagt?
Blaire
2013-09-26, 01:44:16
Eine eigene API für low-level Zugriff auf Radeons für alle Frostbite3-Games und womöglich noch viele weitere Konsolen-Spiele. Das nennt man wohl eine Bombe.
Fragt sich nur wo die zuerst hochgehn wird. Wird sich zeigen ob AMD die nötige Kohle hat um Entwickler zu überzeugen, es zu unterstützen. Das lässt sich aktuell überhaupt noch nicht abschätzen.
Leute mit nVidia-Hardware sollen Dice einfach den Tovalds' Weg zeigen:
Einfach boykottieren.
Dice wird schon merken, wenn 66% des Marktes das PC-Spiel nicht kaufen, weil sie einen Hersteller ganz klar benachteiligen.
Aber man kann als PC Spieler als den typischen Lemming spielen und das Spiel weiterhin unterstützen/kaufen. Aber dann nicht heulen, dass Dice sich um Geforce-Kunden einen Dreck kümmert - wie Eidos eben.
Gast³
2013-09-26, 02:10:45
Dice wird schon merken, wenn 66% des Marktes das Spiel kaufen.
Fixed that for you.
kthxbye
fondness
2013-09-26, 09:10:15
Fragt sich nur wo die zuerst hochgehn wird. Wird sich zeigen ob AMD die nötige Kohle hat um Entwickler zu überzeugen, es zu unterstützen. Das lässt sich aktuell überhaupt noch nicht abschätzen.
Es braucht ohnehin nativen low-level Code für alle GCN-Konsole-Spiele. Somit dürfte sich der Aufwand arg in Grenzen halten. Damit hat AMD sein eigenen 3dfx Glide. Denn welche AAA-Titel kommen denn heute nicht auch für Konsolen?
Mancko
2013-09-26, 09:57:23
Mein Gott was manche darüber für ein Fass aufmachen. Bisher haben AMDs Bemühungen doch rein gar nichts gebracht. Nvidia hat sie mit Kepler auf der ganzen Linie abgezockt. Die bisherigen Aktionen haben jedenfalls den Verfall von AMDs GPU Abteilung auch nicht aufhalten können. Die setzen gerade mal 1/3 von Nvida um. Im Zweifelsfall schickt Nvidia eigene Entwickler die das Thema erledigen und gut ist.
Ansonsten wird es auch noch interessant zu sehen was M$ dazu sagt. Würde mich nicht wundern, wenn bei DirectX in Zukunft Nvidia wieder mehr mitredet. AMD muss erst mal über ein paar Jahre liefern. Bisher waren sie groß im Ankündigen und ganz ganz mies im Abliefern.
fondness
2013-09-26, 10:47:52
When we asked what this means in real-world terms, he stated, “with Battlefield 4 running with Mantel (AMD’s new graphics API), the card will be able to ‘ridicule’ the Titan in terms of performance.” When we asked him what he meant by “ridicule,” he simply stated that it will run Battlefield 4 “much faster than the Titan.” Again, this is provided that you run the game using AMD's Mantel API, which is set to launch in December.
http://www.maximumpc.com/amd_r9_290x_will_be_much_faster_titan_battlefield_4
Gast³
2013-09-26, 13:24:32
Es ist immer wieder das Gleiche. Leute die Nvidia wegen PhysX verteidigt haben á la: "Wer kann, der kann." "AMD könnte es doch auch nutzen, sie müssten es nur lizensieren"
sind die Gleichen die jetzt "AMD und ihre Helfershelfer boykottieren" wollen, weil sie versuchen mehr Leistung(Features) aus ihren Produkten zu generieren.
Ihr seid einfach nur lächerlich. Das ist niveauloser als Schulhofgezeter. Nein, niveauloser als eine Debatte im Bundestag.
Wann merkt ihr endlich, dass Nvidia, AMD, Intel, Microsoft, DICE, Sony etc. Firmen sind, die Geld verdienen wollen?
Wenn ich als nVidia Besitzer seitens Dice benachteiligt werde, kaufe ich mir das Spiel nicht. Ganz einfach.
Iruwen
2013-09-26, 14:41:30
Es ist immer wieder das Gleiche. Leute die Nvidia wegen PhysX verteidigt haben á la: "Wer kann, der kann." "AMD könnte es doch auch nutzen, sie müssten es nur lizensieren"
sind die Gleichen die jetzt "AMD und ihre Helfershelfer boykottieren" wollen, weil sie versuchen mehr Leistung(Features) aus ihren Produkten zu generieren.
Ihr seid einfach nur lächerlich. Das ist niveauloser als Schulhofgezeter. Nein, niveauloser als eine Debatte im Bundestag.
Wann merkt ihr endlich, dass Nvidia, AMD, Intel, Microsoft, DICE, Sony etc. Firmen sind, die Geld verdienen wollen?
Das gleiche gilt andersrum: PhysX böse, Mantel toll.
Anyway, ich glaub nicht, dass AMD so dumm ist zu versuchen etwas in der Art von PhysX durchzudrücken in einem Markt, in dem sie nicht ansatzweise dominieren. Die Mühe spezielle Optimierungen einzubauen werden sich die Entwickler abseits von Gaming Evolved wohl genauso wenig machen wollen.
GPU-PhysX hat keinen Einfluss auf die Graphics-API. Weder nVidia noch AMD User haben hier Nachteile, wenn sie auf die grafischen Effekte verzichten. Die Grafikleistung bleibt davon vollkommen unberührt.
Mantle dagegen benachteiligt jeden, der nicht diese API verwenden kann. Dice wird ein Teufel tun, um den DX Pfad auch nur annährend so gut anzupassen. Hier wird also eine klare Zweiklassengesellschaft aufgebaut.
Wer sowas will, soll sich einfach eine Konsole.
Wird daher einfach nicht unterstützt.
Und nebenbei sollte Dice bedenken wer mehr Gamerkarten verkauft. AMD oder Nvidia. Also Dice, schön aufpassen wen ihr verarscht.
Nightspider
2013-09-26, 14:55:18
Hör auf zu heulen und iss ein Snickers.
Wenn ich als nVidia Besitzer seitens Dice benachteiligt werde, kaufe ich mir das Spiel nicht. Ganz einfach.
Sagt wer? Du? DICE? Nvidia?
Bis jetzt ist das Spiel noch nicht einmal released. Nvidia hat im Moment IIRC nen Performancevorteil.
Ich behaupte mal ganz frech (wie du ja auch faktenfreie Behauptungen aufstellst), dass DICE und andere Hersteller auch bei Nvidia angefragt haben ob Nvidia mal mit ihnen/für sie ne Low Level API bastelt. Nvidia hat darauf dann gesagt: Ne, keine Zeit zu beschäftigt mit Tegra, Shield, PhysX etc..
So wie es aussieht will AMD seine Ressourcen die es in die Konsolenentwicklung gesetzt hat auch an anderer Stelle nutzen. Da Nvidia sich aus dieser durch "Nichtinteresse" wie sie es ja so oft wie möglich öffentlichkeitswirksam bekunden herausmanövriert haben und nicht müde werden zu sagen wie scheiße doch Konsolen sind: http://www.computerbase.de/news/2013-09/nvidia-next-gen-konsolen-unmoeglich-schneller-als-pcs/
andererseits sich nicht zu fein sind bei der neuen SteamOS Initiative hervorzuheben dass sie ja einen ganz tollen Anteil daran geleistet haben http://www.computerbase.de/news/2013-09/nvidia-an-valves-steamos-entwicklung-beteiligt/ haben, muss ich im Gegenzug jetzt alles was Steam macht boykottieren?
Wie gesagt, es ist immer das Gleiche:
Alles was Nvidia macht=gut erstrebenswert, kaufenswert, unterstützenswert
Alles was AMD/Ati macht=schlecht, nicht gut genug, fehlerhaft, boykottierwürdig
Wo waren die Aufschreie der Nvidiajünger als Ageia aufgekauft wurde und aus einer proprietären Hardwarelösung eine proprietäre Softwarelösung wurde die nur per VendorID genutzt werden kann, weil es ja bei den Konkurrenten eh nicht geht.
Jahre später funktioniert auf einmal PhysX bei NextGen-Konsolen auf AMD CPU und Hardwarebasis?
Mantle ist nicht unproblematisch, siehe Glide. Aber Nvidia hält nichts und niemand davon ab, es nicht AMD gleich zu tun. Mantle ist eine auf GCN abgestimmte API, Nvidia könnte seine Batcowl nennen und es genauso machen. Denn eins ist sicher: die AAA-Multiplatform-Entwickler wird es freuen. Die Indiegame oder generell etwas kleinere Brötchenbacker werden eh auf DirectX/OpenGL setzen, wie vorher auch schon.
AMD ist nicht schuld, dass Nvidia zu teuer für Sony/MS war....oops ich meinte, dass Nvidia kein Interesse hatte. Sie dafür zu verurteilen, weil sie die Synergieeffekte von nun defacto Komplett-PCs zu übertragen auf die PC-Gamer Gemeinde finde ich einfach nur heuchlerisch, peinlich und lächerlich.
Angiesan
2013-09-26, 15:09:53
Muah das ist doch genau wie mit Origin, zuerst das kauf ich mir nicht wenn ich dieses Scheiß Origin Zeugs brauche und dann........
Es ist ja nicht so, dass AMD oder Dice NV schlechter stellen sondern man bekommt das wofür man mal bezahlt hat und jetzt jammern oh man kein DX 11.xx oder die Mantle Geschichte die ja nichts anderes wie ein Low Level Zugriff zu verurteilen? Die Konsolen Deals waren ja nicht lukrativ laut Aussage von NV also ist das Gejammere gerade an die falschen Adresse gerichtet, wenigstens sind wir im richtigen Forum.
Nightspider
2013-09-26, 15:12:02
Die Nvidia Heulsusen sind doch nur neidisch weil man bei AMD viel mehr fürs Geld bekommt und bei NV die letzten 1,5 Jahre nur abgezockt wurde.
Sagt wer? Du? DICE? Nvidia?
Bis jetzt ist das Spiel noch nicht einmal released. Nvidia hat im Moment IIRC nen Performancevorteil.
Ich behaupte mal ganz frech (wie du ja auch faktenfreie Behauptungen aufstellst), dass DICE und andere Hersteller auch bei Nvidia angefragt haben ob Nvidia mal mit ihnen/für sie ne Low Level API bastelt. Nvidia hat darauf dann gesagt: Ne, keine Zeit zu beschäftigt mit Tegra, Shield, PhysX etc..
So wie es aussieht will AMD seine Ressourcen die es in die Konsolenentwicklung gesetzt hat auch an anderer Stelle nutzen. Da Nvidia sich aus dieser durch "Nichtinteresse" wie sie es ja so oft wie möglich öffentlichkeitswirksam bekunden herausmanövriert haben und nicht müde werden zu sagen wie scheiße doch Konsolen sind: http://www.computerbase.de/news/2013-09/nvidia-next-gen-konsolen-unmoeglich-schneller-als-pcs/
andererseits sich nicht zu fein sind bei der neuen SteamOS Initiative hervorzuheben dass sie ja einen ganz tollen Anteil daran geleistet haben http://www.computerbase.de/news/2013-09/nvidia-an-valves-steamos-entwicklung-beteiligt/ haben, muss ich im Gegenzug jetzt alles was Steam macht boykottieren?
Wie gesagt, es ist immer das Gleiche:
Alles was Nvidia macht=gut erstrebenswert, kaufenswert, unterstützenswert
Alles was AMD/Ati macht=schlecht, nicht gut genug, fehlerhaft, boykottierwürdig
Wo waren die Aufschreie der Nvidiajünger als Ageia aufgekauft wurde und aus einer proprietären Hardwarelösung eine proprietäre Softwarelösung wurde die nur per VendorID genutzt werden kann, weil es ja bei den Konkurrenten eh nicht geht.
Jahre später funktioniert auf einmal PhysX bei NextGen-Konsolen auf AMD CPU und Hardwarebasis?
Mantle ist nicht unproblematisch, siehe Glide. Aber Nvidia hält nichts und niemand davon ab, es nicht AMD gleich zu tun. Mantle ist eine auf GCN abgestimmte API, Nvidia könnte seine Batcowl nennen und es genauso machen. Denn eins ist sicher: die AAA-Multiplatform-Entwickler wird es freuen. Die Indiegame oder generell etwas kleinere Brötchenbacker werden eh auf DirectX/OpenGL setzen, wie vorher auch schon.
AMD ist nicht schuld, dass Nvidia zu teuer für Sony/MS war....oops ich meinte, dass Nvidia kein Interesse hatte. Sie dafür zu verurteilen, weil sie die Synergieeffekte von nun defacto Komplett-PCs zu übertragen auf die PC-Gamer Gemeinde finde ich einfach nur heuchlerisch, peinlich und lächerlich.
Ich sehe hier kein Problem. GPU-PhysX kommt immer mehr in Mode. Test in Zukunft müssen dann eben bei AMD mit GPU-PhysX über x86 laufen.
Findest du doof? Pech gehabt.
Gast³
2013-09-26, 15:17:49
Also bei PhysX ist es nicht so schlimm dass AMD keine tollen Cloth Physics, zerberstendes Beton, Partikel etc. bewundern durften.
Wenn man bei Mantle dann vllt. aber 10 fps mehr hat, dann ist das boykottierwürdig. Vor allem ist PhysX real. Mantle ist noch nicht mal erschienen, bzw. darauf basierende Spiel.
Dieses Fanboytum ist echt nicht zu ertragen.
Diese Doppelmoral wenn es um AMD/Nvidia geht.
"PhysX ist total toll, schon allein deswegen kaufe ich keine AMD-Karte, mal abgesehen von den beschissenen Treibern. Und außerdem: Es sind ja eh nur 2-3 AAA-Titel, also regt euch mal nicht so auf."
"Mantle, das ist ja Hitler und Stalin in einer Low Level API. Mal abgesehen von den total beschissenen Catalyst-Treibern kommen sicherlich alle neuen Titel von Activision/Blizzard, EA, Sony, MS damit raus und Nvidia (Intel interssiert ja eh keinen) hat voll das Nachsehen mit ihrem 66% dedicated graphics Anteil"
maximus_hertus
2013-09-26, 15:20:29
Ich sehe hier kein Problem. GPU-PhysX kommt immer mehr in Mode. Test in Zukunft müssen dann eben bei AMD mit GPU-PhysX über x86 laufen.
Findest du doof? Pech gehabt.
Habe ich was verpasst? GPU-PhysX ist doch fast gar nicht mehr vorhanden? Welche AAA-Games nutzen den GPU-PhysX? Das letzte, an das ich mich errinern kann, war Borderlands 2 im September letzten Jahres...
M4xw0lf
2013-09-26, 15:21:23
Bisher gibts ja null Grund zum Weinen - BF4 kommt mit DX11 und damit spielbar für alle. Nur dass dann mit dem Mantle-Update GCN-Karten plötzlich moar performance bekommen sollen. Abwarten und Tee trinken.
dildo4u
2013-09-26, 15:25:23
Dice treibt auch DX vorran um die CPU zu entlasten,das wird schon interessant wenn die Beta am Dienstag startet.
http://www.bf4blog.com/battlefield-4-on-windows-8-will-have-better-cpu-optimization/
Ich sehe hier kein Problem. GPU-PhysX kommt immer mehr in Mode. Test in Zukunft müssen dann eben bei AMD mit GPU-PhysX über x86 laufen.
Findest du doof? Pech gehabt.
Da muss ich ja herzlich lachen.
http://physxinfo.com/wiki/Upcoming_GPU_PhysX_games#2013
4 Spiele in diesem Jahr.
http://physxinfo.com/index.php?p=gam&f=da
Das X bedeutet übrigens keine Hardware Acceleration.
GPUPhysX kommt immer mehr in Munde. Ich weine vor Lachen.
GPU Physics hingegen bekommen den Arsch nicht aus der Hose(oder in die Hose?).
Ich hoffe mal, dass die Havok-Vorführung dieses Jahr nicht auch wieder so ein half-assed attempt ist wie die Jahre zuvor... nachdem Intel sie aufgekauft hat.
So long. Dream on.
GPu-PhysX wurde bis heute bei Tests immer deaktiviert, da es einige angeblich unfair fanden, dass es bei nVidia über Cuda und bei AMD über x86 läuft.
Kein Unterschied zu Mantle, da hier zwei unterschiedliche APIs verwendet werden.
Habe ich was verpasst? GPU-PhysX ist doch fast gar nicht mehr vorhanden? Welche AAA-Games nutzen den GPU-PhysX? Das letzte, an das ich mich errinern kann, war Borderlands 2 im September letzten Jahres...
Batman:AO und Call of Duty:Ghost.
Beide Spiele haben DX11 und werden somit auch als Benchmark verwendet.
Wie gesagt: Dank Mantle gibt es keine Ausreden mehr.
Die wirtschaftlichen Zwänge sind doch heute viel zu groß, als dass sich irgendwer, egal ob Hardware- oder Softwarehersteller, irgendwelche AAA-Exklusivtitel erlauben könnten. Sollte es tatsächlich mehr Titel respektive Studios geben, die Mantle verwenden, ist nVidia automatisch im Zugzwang, es auch mit ihrer Hardware lauffähig zu machen. Sollte ein Großteil der Studios keinen Bock auf Mantle haben, ist es genauso schnell wieder Geschichte wie S3 Metal oder 3dfx Glide. Insofern mache ich mir als nVidia-Besitzer nun gerade mal überhaupt keinen Kopf.
Iruwen
2013-09-26, 15:48:24
Die Nvidia Heulsusen sind doch nur neidisch weil man bei AMD viel mehr fürs Geld bekommt und bei NV die letzten 1,5 Jahre nur abgezockt wurde.
Wo kann ich denn den AMD Inspector runterladen und die CF Bits ändern? Oh wait...
Gast³
2013-09-26, 15:49:23
GPu-PhysX wurde bis heute bei Tests immer deaktiviert, da es einige angeblich unfair fanden, dass es bei nVidia über Cuda und bei AMD über x86 läuft.
Kein Unterschied zu Mantle, da hier zwei unterschiedliche APIs verwendet werden.
Batman:AO und Call of Duty:Ghost.
Beide Spiele haben DX11 und werden somit auch als Benchmark verwendet.
Wie gesagt: Dank Mantle gibt es keine Ausreden mehr.
Was interessieren mich denn Tests? Die Nvidia-Jünger haben immer gemault: Hört auf zu heulen, sind doch eh nur ein paar Spiele, kekeke.
Wen zum Teufel interessieren Tests, wenn einem AMD/Ati-Besitzer wegen The Way It's Meant To Be Played (der arrogantesten Scheiße überhaupt) aufhübschende Elemente zum teil sogar Spieleelemente vorenthalten werden. Nicht weil der Konkurrent es nicht kann sondern weil "The way it's meant to be played but only on Nvidia harhar". Wenn es auf diese Art gespielt werden soll, warum werden dann Unzählige ausgeschlossen?
Mantle hingegen ist ein Low Level Performance Tweak der es durch die Hardwareunterschiede gar nicht möglich macht (ohne Anpassungen) auf Nvidia zu laufen...aber Nvidia wird sicherlich nicht davon abgehalten, dieses Projekt nicht aufzugreifen und für sich zu nutzen. Ich glaube kaum, dass die Entwickler wie zum Beispiel DICE (die ja wohl die letzten Jahre durchgängig? Partner von twimtbp waren) nicht bei Nvidia danach gefragt haben. Und nicht erst seit ein paar Jahren. Nvidia wird sich ja wohl zu wehren wissen. Ihre PR arbeitet doch auch sehr effizient wenn es darum geht AMD zu diskreditieren.
Aber das ist ja egal, Nvidia's Arroganz färbt anscheinend auch auf ihre fanboys ab.
Besonders bei Produkten, Features, Konzepten von AMD die nicht einmal veröffentlicht wurden.
Iruwen
2013-09-26, 15:50:32
Witzig dass du gerade massiv genau das tust was du den angeblichen "Nvidia-Jüngern" vorwirfst und dich dann noch traust Begriffe wie Doppelmoral zu verwenden. Chapeau.
fondness
2013-09-26, 15:51:03
Die Nvidia Heulsusen sind doch nur neidisch weil man bei AMD viel mehr fürs Geld bekommt und bei NV die letzten 1,5 Jahre nur abgezockt wurde.
Witzig auch das jeder zweite hier plötzlich als Gast schriebt. Wer sich wohl dahinter verbirgt? :)
Witzig dass du gerade massiv genau das tust was du den angeblichen "Nvidia-Jüngern" vorwirfst und dich dann noch traust Begriffe wie Doppelmoral zu verwenden. Chapeau.
Witzig ist, dass du mir das vorwirfst ohne auch nur irgendetwas zum Thema beizutragen. *hutaufdemkopflass
Du verkennst hier die Situation. PhysX ist eine konkrete Anwendung die durch eine proprietäre Beschränkung verhindert dass Mitbewerber das Ganze nutzen können. (und jetzt bitte nicht wieder, aber sie können es doch...blablabla)
Mantle ist eine API. Punkt. Nvidia kann sich ihre eigene Low Level API basteln (wenn sie die nicht schon im stillen Kämmerlein/Abstellkammer lagern) und ich wette dass man sich mit einem Nvidia-eigenen Interpreter auch in Mantle einklinken kann. Und da es eh mit HLSL kompatibel ist, brauchst du, werter Jünger auch nicht rumzuheulen. Denn dass du hier mit am lautesten rumschreist (AMD=doooof, Nvidia=GUUUUUUT) dürfte ja hinlänglich bekannt sein. Also von einem Doppelmoralisten mir Doppelmoral vorwerfen zu lassen ist ja schon meta-kafkaesk.
Nvidia hat immer unfair gespielt. Seitdem AMD nicht mehr das Spielchen mitspielt (Gaming Evolved) und auch angreift und nicht zurückschreckt, mal etwas Kontroverses in die Arena zu bringen wird der Untergang des Nvidia-Landes beschworen. Bei 66% discrete Anteil eine krasse Ansage.
Der Teufel ist immer rot. Grün der Neid. Oder so ähnlich.
PhysX ist eine Möglichkeit Effektphysik zu ermöglichen. Es steht Entwickler frei DirectCompute oder OpenCL zu verwenden, um das gleiche zu erreichen. Deswegen gibt es offene Schnittstellen.
Mantle ist eine propritäre Schnittstelle, die nur von AMD verwendet werden kann. Es gibt keine offene Schnittstelle, die das gleiche bei anderen ermöglicht.
Hier wird also klar Konkurrenz außen vorgelassen, da man keine herstellerübergreifende Lösung angestrebt hat.
maximus_hertus
2013-09-26, 16:26:01
PhysX ist eine Möglichkeit Effektphysik zu ermöglichen. Es steht Entwickler frei DirectCompute oder OpenCL zu verwenden, um das gleiche zu erreichen. Deswegen gibt es offene Schnittstellen.
Mantle ist eine propritäre Schnittstelle, die nur von AMD verwendet werden kann. Es gibt keine offene Schnittstelle, die das gleiche bei anderen ermöglicht.
Hier wird also klar Konkurrenz außen vorgelassen, da man keine herstellerübergreifende Lösung angestrebt hat.
Laut AMD ist Mantle offen, inwiefern auch immer.... Bevor man also was behauptet sollte man Fakten sprechen lassen. Und da es diese wohl erst im November geben wird ist alles nur persönliche (teils haltlose) Spekulation.
Mantle ist eine propri[e]täre Schnittstelle.
ist eine Behauptung die bis jetzt nicht belegt werden kann. Hingegen habe ich sogar Beweise die genau das Gegenteil nahelegen.
We've been told at the GPU14 Tech Day event that the Mantle API is open, so theoretically Nvidia could purpose the technology in their GPUs.
http://www.techspot.com/news/54134-amd-unveils-revolutionary-mantle-api-to-optimize-gpu-performance.html
There's talk that Mantle is open-source, meaning Nvidia could add support to GeForce GPUs. But given the company's recent collaboration with Valve and Linux, Nvidia may be more inclined to focus on better supporting OpenGL (just a guess).
Komischerweise hat AMD in den letzten Jahren so gut wie alles offengelegt, was sie an IP in Projekte eingebracht haben. Aber das zählt ja nicht.
AMD is EVIL. NVIDIA is an adorable ANGEL.
(animated meme gif pending)
Link vergessen.
http://www.tomshardware.com/news/amd-mantle-api-gcn-battlefield-4,24418.html
Mantle ist nicht offen... Oh, nein warte: Es ist so offen wie Cuda. :lol:
Das einzige, was "offen" ist, ist die Portierbarkeit auf andere OS-Plattformen. Das wiederrum ist aber nicht herstellerunabhängig.
boxleitnerb
2013-09-26, 16:45:22
Es ist für Nvidia genauso eine Zumutung, Mantle zu unterstützen wie es für AMD eine Zumutung ist/war, CUDA zu unterstützen (für PhysX). Ich seh in diesem Punkt keinen Unterschied. PhysX kannst du zur Not auch auf OpenCL portieren, Mantle bleibt GCN, denn man will die API ja nicht gleich wieder aufweichen. Während ich die grundsätzliche Idee einer solchen API begrüße, bin ich der Meinung, dass man AMD hier ganz genau auf die Finger schauen sollte. Missbrauchspotential ist gegeben, mehr noch als bei PhysX - gerade weil die Nutzung häufiger sein dürfte.
Nightspider
2013-09-26, 16:52:17
Das tolle ist eben auch das man sich nicht das blöde Windows 8 auf den Rechner holen muss um DX11.2++ zu nutzen.
Wo kann ich denn den AMD Inspector runterladen und die CF Bits ändern? Oh wait...
Schon aber das nutzen auch nur 0,005% aller Käufer einer Nvidia Grafikkarte. ;)
aufkrawall
2013-09-26, 17:14:46
Schon aber das nutzen auch nur 0,005% aller Käufer einer Nvidia Grafikkarte. ;)
Bei Highend-Usern dürfte der Anteil etwas höher sein.
Iruwen
2013-09-26, 17:18:03
Und besonders teuer ist NV auch nur da wo sie keine Konkurrenz haben, im High-End Bereich halt. Bei 7970GHz vs GTX 770 und abwärts liegen beide etwa gleichauf.
Angiesan
2013-09-26, 22:13:04
Ich denke es bleibt abzuwarten, was die Zukunft bringt, wenn wir hier über 10-15% reden wird das die SLI und high end user wenig treffen und man kann dann auch mal sehen wer wirklich auf so Sachen wie den Inspector und das ganze Bitgefrickel steht oder nur ein dummschwäzender Mitläufer ist der sich mit seiner HW profilieren muss.
In der Mittelklasse kann sowas aber schlimme Auswirkungen haben denn da ist Leistung eben nicht im Überfluss vorhanden und auch nicht der Wille dies durch hohe Investitionen zu ändern.
NV muss da jetzt wirklich mit Support und Wille glänzen sonst könnte das tatsächlich eng werden wenn der NextGen Zug mal richtig ins rollen kommt.
Stehen und fallen wird es aber mit der Einfachheit der Portierung, sollte es da wirklich Vorteile geben nicht nur in der Performance sondern auch im Zeitinvest und damit unmittelbar auch bei den Kosten wird es interessant zu sehen wie dann die Non Mantle Version optimiert wird oder erleben wir so Sachen wie bei TR 2013 wo der Treiber erst Wochenlang an den Code angepasst werden muss. Hier konnte NV noch rufen Buh lasst das Spiel links liegen, bei BF4 geht das nicht dafür ist die Marke zu groß.
Es bleibt spannend, aber eins muss allen klar sein, wenn das für Nv schlecht ausgeht wird es bei allen Sympathien für die ein oder andere Marke schlechter für uns alle, denn ein Monopol war noch nie gut und wird es nie sein.
Thunder99
2013-09-27, 00:20:29
Kann mal en Mod hier aufräumen? Ist ja nicht auszuhalten ohne :popcorn:
AMD unterstützt ein Entwickler genau so wie nvidia das macht. Mit dem Unterschied das AMD ein Seitenhieb auf Microsoft macht mit dem eingeschränktem DirectX ;)
Effekte die AMD implementierte oder entwickelte liefen auf beiden GPU´s (Beispiel StressFX). Effekte von nvidia liefen, moment, nur auf nvidia HW (Cuda, PhysX)
Ergo kann man AMD nur loben das sie was positives für alle machen
Und an alle Anderen, lest nochmal nach und urteilt dann objektiv und nicht wie ne...
Arcanoxer
2013-09-27, 02:11:50
Welche AAA-Games nutzen den GPU-PhysX? Das letzte, an das ich mich errinern kann, war Borderlands 2 im September letzten Jahres...
Batman: Arkham Origins (http://www.pcgameshardware.de/Batman-Arkham-Origins-PC-257117/Videos/Batman-Arkham-Origins-Video-zeigt-unter-anderem-GPU-Physx-Effekte-1088681/) schaut ohne GPU-Physx schon fast langweilig aus.
Mal sehen, ob Leute mit nVidia-Hardware weiterhin das Spiel vorbestellen und bezahlen.
Ich werde es mir nicht holen (GTX670).
Ein Kunde weniger - Pech gehabt Dice!
Welche AAA-Games nutzen den GPU-PhysX? Das letzte, an das ich mich errinern kann, war Borderlands 2 im September letzten Jahres...
Batman 1-2-3, Borderlands 2, Witcher 3, Alice, Planetside 2, Unreal Tournament 3, Mafia II, Metro 2033, Metro Last Light, Everquest Next, Arma III, XCOM declassified usw. usf.
Auf diese AMD Eintagsfliegen wie TressFX und Mantle habe ich keine Lust. Das ist genauso dämlich wie das Intel Iris Feature in Grid 2.
Nvidia zockt die Kunden ab und bei AMD bekommt man viel mehr?
LOL!
3% langsamer und 10€ teurer?
AMD User = Erbsenzähler.
Zeig mir bei AMD bitte mal eine Soft-Sync Option direkt im Treiber-Panel.
Oder eine GPU Beschleunigung in Premiere für die Vorschau.
Zukünftig kommt noch Nvidia Shadowplay dazu. Quasi die optimierte All in One Aufnahme/Stream-APP ohne großen Einfluss auf die Performance.
Physx - nice to have, aber kein must have.
Stromverbrauch! Die GTX780 Jetstream ist ~40% schneller als eine 7970GHz bei 60 Watt weniger Stromverbrauch unter Last (Spiele).
usw. usf.
ES GIBT SEHR VIEL DAS FÜR NVIDIA SPRICHT AUS TECHNOLOGISCHER SICHT.
gnahr
2013-09-27, 07:47:54
Kann mal en Mod hier aufräumen? Ist ja nicht auszuhalten ohne :popcorn:
Ergo kann man AMD nur loben das sie was positives für alle machen
ist dir schon mal in den sinn gekommen, dass du alle ermahnst und dann selber gülle in weinkrügen ausschenkst?
wen haben sie mit ins boot geholt? welche chancen der unterstützung haben intel und nvidia samt deren kunden? wie, das wissen wir nicht? wir haben nur das "ehrenwort" dieser hansel. sehr offen, sicher. wie ne erdnussdose ohne öffner im fort knox. selbst wenn das alles irgendwie machbar ist (was momentan ja stark anzuzweifeln bleibt, da sie mit extremer hardwarenähe werben ohne konkret zu werden) wurden zumindest die kunden verarscht und bewusst in den regen geschoben, da keinerlei kooperationswille dokumentiert wurde, wie man an den ausbleibenden first-hands-kommentaren anderer studios und entwickler sehen kann. aber macht ruhig vorbestellungen, weil jede hardware die man in händen halten kann außerhalb eines ladens veraltet ist. bei tressFX mit den bescheuertsten clipping-fehlern haben wir ja mal wieder amds liebe zum detail gesehen. so ein grafikdebakel gabs beim aufkommen des massiven tesselations-einsatzes zufälliger weise nicht.
und wer sagt eigentlich, dass physix nur auf nvidia verfügbar ist? wenn schon hersteller nicht in der lage sind die gpgpu-leistung bereit zu stellen gabs kostenlos immer die alternative alles auf die cpu auszulagern. jetzt erzähl mir am besten noch, dass dieses verhalten mit dem fallback auf ein dx-grundgerüst im falle inkompatibler mantle-hardware vergleichbar ist... mantle birgt die option, dass das dx-konstrukt stiefmütterlich geringgeschätzt wird, weil es eben der mindestens doppelte aufwand war. physix dagegen war eine bibliothek die nvidia selbst gepflegt hat und damit verbesserungen die nicht nur spezifisch das gpgpu-verhalten betrafen sich auch auf den cpu-renderpfad auswirkten. bei mantle klingt es hingegen nach dieser präsentation auf dünnstem eis wie ein paralell-konstrukt und nicht einem soliden grund-unterbau der alternativlösung.
wir bewerten also amds nächste scharade bitte nach ihren auswirkungen für den spieler und nicht nach deiner interpretation einer intention. sonst darfst du auch gern erich mielke anhimmeln der doch "alle menschen liebt"...
Der PC ist für die Gameentwicklung nicht wirklich relevant. Mantle düfte für die Konsolen funtkionieren, auch wenn mich das bei der Xbox wunder würde, und damit stellt Mantle bereits heute ein relevantes Tool da. Sollte Mantle im Worst Case mit PS, Xbox und AMD PCs gut laufen und bei Intel CPUs halbwegs funtkionieren deckt man gute 80% des marktes ab.
(del676)
2013-09-27, 10:21:16
Batman: Arkham Origins (http://www.pcgameshardware.de/Batman-Arkham-Origins-PC-257117/Videos/Batman-Arkham-Origins-Video-zeigt-unter-anderem-GPU-Physx-Effekte-1088681/) schaut ohne GPU-Physx schon fast langweilig aus.
Oh ja, und die tollen GPU-Physx Effekte machen das Spiel dann spannender und viel spielenswerter? Muss ja ein echt tolles Game sein. ;)
Blediator16
2013-09-27, 11:02:36
Oh ja, und die tollen GPU-Physx Effekte machen das Spiel dann spannender und viel spielenswerter? Muss ja ein echt tolles Game sein. ;)
Nö. Es geht darum, dass Dinge komplett rausgenommen wurden. Toll oder. Kein Physx kein Rauch. Vollkommen unmöglich das zu machen ohne physx:freak:
AYAlf
2013-09-27, 11:09:35
LoL diese ganzen nVidia FanBoys hier. ATi/AMD schlägt nur mit den Besseren Argumenten zurück. Im Punkte Treiber hat AMD den Konkurrenten schon lange abgehängt. Jetzt noch mit den Games die für den Markt alleine wichtig sind und nVidia verliert endlich an Marktanteilen die sie in dem Maß zu unrecht haben. :freak:
Die Entwicklung gefällt mir. ;)
nVidia hat doch noch GLIDE in der Schublade liegen. Also NV bitte rausholen, aufmotzen und gegen MANTLE setzen. nVidia hat auch das Geld es den Spieleschmieden schmackhaft zu machen. Eins ist klar nVidia MUSS jetzt reagieren.
Blediator16
2013-09-27, 11:12:57
nVidia hat doch noch GLIDE in der Schublade liegen. Also NV bitte rausholen, aufmotzen und gegen MANTLE setzen. nVidia hat auch das Geld es den Spieleschmieden schmackhaft zu machen. Eins ist klar nVidia MUSS jetzt reagieren.
Nein das geht nicht so einfach. Hätte Nvidia die Konsolen wäre das sehr gut möglich, aber da sie nur einen gewissen Teil des PC Gaming Marktes kontrollieren, wird das niemals klappen.
nVidia hat Glide und um es durchzusetzen braucht es Geld. Das hat nVidia. Also mit den Spieleschmieden zusammensetzen und auf Glide optimieren. DAS wäre genau die richtige Antwort auf Mantle.
Gimmick
2013-09-27, 11:18:19
Nö. Es geht darum, dass Dinge komplett rausgenommen wurden. Toll oder. Kein Physx kein Rauch. Vollkommen unmöglich das zu machen ohne physx:freak:
Das ist was, was ich auch nie verstanden hab.
Das es schöner und effektvoller mit PhysX ist ist ja schön und gut, aber warum dann immer gleich ganze Objekte oder Partikelquellen fehlen müssen?
Ist bei Witcher 3 auch so. Zuerst war ich gespannt wie gut das Fell dann wohl aussieht, aber aufgefallen ist mir vor allem wie beschissen die Wölfe ohne PhysX aussehen sollen.
Ist ja quasi wie Tomb Raider mit TressFX gibt schöne Haare, ohne TressFX -> Glatze :freak:
Durch sowas fühl ich mich immer etwas verscheissert ;)
Es ist nur logisch das nVidia NICHT Mantle einsetzen wird (Denn da kommt AMD besser weg als Entwickler. nVidia wird hier nie den Framezuwachs haben wie AMD) Dann werden wir halt in Zukunft entweder Glide oder Mantle haben. Schuld ist AMD mit diesem Mantle vorstoss.
nVidia hat doch noch GLIDE in der Schublade liegen. Also NV bitte rausholen, aufmotzen und gegen MANTLE setzen. nVidia hat auch das Geld es den Spieleschmieden schmackhaft zu machen. Eins ist klar nVidia MUSS jetzt reagieren.
AMD kontrolliert die meisten Endgeräte durch die Konsolen APUs.
Es wird in Zukunft twimtbp Titel mit Glide geben. Hat mir meine Glaskugel eben zugeflüstert;)
Das ist was, was ich auch nie verstanden hab.
Das es schöner und effektvoller mit PhysX ist ist ja schön und gut, aber warum dann immer gleich ganze Objekte oder Partikelquellen fehlen müssen?
Weil die Entwickler das ganze nicht zweimal einpflegen wollen.
Ist das gleiche, warum Dice nicht auch eine Glide Low-Level-API mit nVidia entwickelt hat...
Ist bei Witcher 3 auch so. Zuerst war ich gespannt wie gut das Fell dann wohl aussieht, aber aufgefallen ist mir vor allem wie beschissen die Wölfe ohne PhysX aussehen sollen.
Und? Wo ist das Problem? BF4 hat auch keinen nVidia-exklusiven Pfad, der die Leistung deutlich verbessert. Scheint hier irgendwie keinen zu stören...
Durch sowas fühl ich mich immer etwas verscheissert ;)
Also wie jetzt bei BF4?
Blediator16
2013-09-27, 11:55:56
Weil die Entwickler das ganze nicht zweimal einpflegen wollen.
Ist das gleiche, warum Dice nicht auch eine Glide Low-Level-API mit nVidia entwickelt hat...
Und? Wo ist das Problem? BF4 hat auch keinen nVidia-exklusiven Pfad, der die Leistung deutlich verbessert. Scheint hier irgendwie keinen zu stören...
Also wie jetzt bei BF4?
Du siehst das falsch. Nvidia hatte immer diese Sonderspielchen gespielt und nun will AMD den Spieß umdrehen und plötzlich ist die Sache genau andersrum. Es sind eben alle Fanboys gleich ob grün oder rot.
Gimmick
2013-09-27, 12:06:46
Weil die Entwickler das ganze nicht zweimal einpflegen wollen.
Ist das gleiche, warum Dice nicht auch eine Glide Low-Level-API mit nVidia entwickelt hat...
Hm, ne da haste mich missverstanden.
Man muss nichts einpflegen für eine weitere non-PhysX Partikelquelle, oder für eine nicht interaktive Plastikfolie an einem Gerüst. Imo wird das einfach nur gemacht um künstlich den Unterschied deutlicher zu machen, wo er doch auch sonst gut ersichtlich wäre.
Und? Wo ist das Problem? BF4 hat auch keinen nVidia-exklusiven Pfad, der die Leistung deutlich verbessert. Scheint hier irgendwie keinen zu stören...
Naja, das Problem ist, dass die Viecher ohne Fell einfach unglaublich schlecht aussehen^^.
Wer für wen welchen Pfad hat ist mir ehrlich gesagt wurscht. Hauptsache es sieht immer nach vorhandenen Möglichkeiten bestens aus.
Also wie jetzt bei BF4?
Nö. Bin nicht so der frame-zähler. Und gleich aussschauen wirds wohl auf allen Karten.
Von daher hat das mit meinem ersten Post eigentlich auch nichts zu tun.
Mantle und jetzt noch die TrueAudio-Geschichte sind aber schon ein anderes Kaliber als die PhysX-Problematik. Natürlich sind die Schuldigen *auch* bei MS mit der schleppenden Fortentwicklung von DirectX sowie bei nVidia mit der Ignoranz, als es um die Hardwareausstattung der Next-Gen-Konsolen ging, zu suchen, aber diese API-Zersplitterung führt uns geradewegs wieder zurück in die 90er Jahre. Wobei die Situation damals eher das Resultat einer natürlichen technischen Entwicklung war, jetzt handelt es sich um ganz bewusst getroffene betriebswirtschaftliche Entscheidungen, bei denen der Kunde am Ende der Gearschte ist. Schlimmstenfalls darf man sich als PC-Enthusiast-Zocker demnächst also ein Zweitsystem auf AMD-Basis (und umgekehrt) bauen, je nachdem, was man in bester Qualität und Ausstattung zocken will. Tolle Wurst.
Hm, ne da haste mich missverstanden.
Man muss nichts einpflegen für eine weitere non-PhysX Partikelquelle, oder für eine nicht interaktive Plastikfolie an einem Gerüst. Imo wird das einfach nur gemacht um künstlich den Unterschied deutlicher zu machen, wo er doch auch sonst gut ersichtlich wäre.
Natürlich muss es eingepflegt werden. Du willst doch statischen Nebel haben, wo der PhysX Nebel ist. Du willst Wasser haben, wo die Fluidsimulation läuft. Du willst irgendwas fellähnliches haben, wo das PhysX-Fell ist.
All das muss neben den GPU-PhysX Effekten dann zusätzlich eingebaut werden.
Naja, das Problem ist, dass die Viecher ohne Fell einfach unglaublich schlecht aussehen^^.
Wer für wen welchen Pfad hat ist mir ehrlich gesagt wurscht. Hauptsache es sieht immer nach vorhandenen Möglichkeiten bestens aus.
Naja. Das Spiele besser aussehen könnten, hat ja erstmal nichts mit GPU-PhysX zu tun.
Nö. Bin nicht so der frame-zähler. Und gleich aussschauen wirds wohl auf allen Karten.
Von daher hat das mit meinem ersten Post eigentlich auch nichts zu tun.
Natürlich. GPU-PhysX läuft eben statt über Cuda über x86. Langsamer, aber du siehst alles.
Mantle und jetzt noch die TrueAudio-Geschichte sind aber schon ein anderes Kaliber als die PhysX-Problematik. Natürlich sind die Schuldigen *auch* bei MS mit der schleppenden Fortentwicklung von DirectX sowie bei nVidia mit der Ignoranz, als es um die Hardwareausstattung der Next-Gen-Konsolen ging, zu suchen, aber diese API-Zersplitterung führt uns geradewegs wieder zurück in die 90er Jahre. Wobei die Situation damals eher das Resultat einer natürlichen technischen Entwicklung war, jetzt handelt es sich um ganz bewusst getroffene betriebswirtschaftliche Entscheidungen, bei denen der Kunde am Ende der Gearschte ist. Schlimmstenfalls darf man sich als PC-Enthusiast-Zocker demnächst also ein Zweitsystem auf AMD-Basis (und umgekehrt) bauen, je nachdem, was man in bester Qualität und Ausstattung zocken will. Tolle Wurst.
Ich denke, es ist jedem hier bewusst, dass der Grund für diese APIs primär um den Gewinn von Benchmarks handelt. AMD kann nicht mehr in einem fairen Kampf von Hardware und Hardware bestehen. Also wird man jetzt Leistungsvorsprünge durch proprietäre Schnittstellen erreichen. TrueAudio ist doch so eine Sache: Entlastung der CPU und damit CPU Benchmarks gewinnen. Gleiches gilt auch für Mantle.
Fakt ist, dass in Benchmarks eben wie bei GPU-PhysX diese Schnittstellen nicht verwendet werden dürfen. Ansonsten machen sich Reviewer lächerlich.
Gimmick
2013-09-27, 12:31:52
Schlimmstenfalls darf man sich als PC-Enthusiast-Zocker demnächst also ein Zweitsystem auf AMD-Basis (und umgekehrt) bauen, je nachdem, was man in bester Qualität und Ausstattung zocken will. Tolle Wurst.
Ja, irgendwie sind offene Standards wohl der Teufel :freak:
Natürlich muss es eingepflegt werden. Du willst doch statischen Nebel haben, wo der PhysX Nebel ist. Du willst Wasser haben, wo die Fluidsimulation läuft. Du willst irgendwas fellähnliches haben, wo das PhysX-Fell ist.
All das muss neben den GPU-PhysX Effekten dann zusätzlich eingebaut werden.
Das schon ja, "einpflegen" klang für mich nach extremen Aufwand. Normalerweise sollte das aber mit richtigen Tools zum designen der Umgebung kein Aufwand sein.
Naja. Das Spiele besser aussehen könnten, hat ja erstmal nichts mit GPU-PhysX zu tun.
Jo klar nicht direkt. Aber die Nutzung scheint doch dazu zu verleiten die Optik ohne PhysX etwas zu vernachlässigen. Aus welchen Gründen jetzt auch immer.
Und das ist eben das was ich meinte. Ich will ja nicht sagen ich fühl mich von nV verscheissert. Es ist eher das allgemeine Gefühl des verscheissert seins wenn man durch abschalten von Physikeffekten in den 90er landet (ums mal schön übertrieben darzustellen ^^).
Natürlich. GPU-PhysX läuft eben statt über Cuda über x86. Langsamer, aber du siehst alles.
Ist zwar richtig aber wieder spitzfindig. Spielbar solls natürlich sein.
Arcanoxer
2013-09-27, 13:05:26
Oh ja, und die tollen GPU-Physx Effekte machen das Spiel dann spannender und viel spielenswerter? Das hasst du gesagt.
Die Grafik bringt das Gotham feeling auf jeden fall spektakulärer rüber.
Wobei du im grunde genommen recht hast, es macht das Spiel spannender und spielenswerter.
Arcanoxer
2013-09-27, 13:11:50
Im Punkte Treiber hat AMD den Konkurrenten schon lange abgehängt.Egal was du geraucht hast, ich will auch was davon! :freak:
(del676)
2013-09-27, 13:25:11
Nö. Es geht darum, dass Dinge komplett rausgenommen wurden. Toll oder. Kein Physx kein Rauch. Vollkommen unmöglich das zu machen ohne physx:freak:
Rotfl. Das ist ja noch bescheuerter als ich dachte. Naja, Drecksgame halt. ;)
Thunder99
2013-09-27, 13:34:08
Es ist doch sehr erstaunlich das so eine Ankündigung so ein Aufschrei auslöst.
Klar darf man Bedenken äußern aber so wie es gerade ausschaut wird durch Mantle die Effekte effizienter berechnet werden im Vergleich zu DirectX. Ergo kein optischer Unterschied bisher angekündigt (alles Vermutungen und Einschätzungen nach der jetzigen Informationslage). Und wenn ihre CPU Architektur Probleme mit dem aktuellen Code hat ist es doch nicht verkehrt einen besseren Code oder API bereit zu stellen damit ihre CPU besser/effizienter genutzt werden kann.
Das Beispiel mit PhysX und den nvidia exklusiv Effekten finde ich da sehr viel schlimmer. AMD hat mit TressFX ja etwas implementiert was auf beiden GPU-Sorten funktioniert. Das soll jetzt nur ein Beispiel sein.
nvidia war bis jetzt immer beliebter bei den Gamern (siehe auch Marktanteil) was sich in Zukunft ändern könnte. Und das kann sich nur positiv auf alle auswirken :)
Iruwen
2013-09-27, 14:11:36
LoL diese ganzen nVidia FanBoys hier.
Wer im Glashaus sitzt sollte im Keller kacken.
Das Beispiel mit PhysX und den nvidia exklusiv Effekten finde ich da sehr viel schlimmer. AMD hat mit TressFX ja etwas implementiert was auf beiden GPU-Sorten funktioniert. Das soll jetzt nur ein Beispiel sein.
Wie oft denn noch:
GPU-PhysX läuft auch über x86. Das ist kein Unterschied zu Mantle und DX. Warum es in der Vergangenheit Aufregungen gab, erschließt sich daher nicht.
Hier ist z.B. mal die CPU-Auslastung mit GPU-PhysX über die CPU im neuen X-Com Spiel:
http://www.pcgameshardware.de/The-Bureau-XCOM-Declassified-PC-234715/Specials/The-Bureau-XCOM-Declassified-mit-GPU-PhysX-1085489/
85% mit 8 Threads! Soviel dazu, dass man Mantle braucht, um 8 Cores ansprechen zu können. :lol:
Mr.Magic
2013-09-27, 15:56:45
Nö. Es geht darum, dass Dinge komplett rausgenommen wurden. Toll oder. Kein Physx kein Rauch. Vollkommen unmöglich das zu machen ohne physx:freak:
Auf den Konsolen gibt es keinen Rauch. Der Rauch wurde also nicht rausgenommen, sondern für GPU PhysX exklusiv hinzugefügt.
Thunder99
2013-09-27, 16:44:23
Wie oft denn noch:
GPU-PhysX läuft auch über x86. Das ist kein Unterschied zu Mantle und DX. Warum es in der Vergangenheit Aufregungen gab, erschließt sich daher nicht.
Hier ist z.B. mal die CPU-Auslastung mit GPU-PhysX über die CPU im neuen X-Com Spiel:
http://www.pcgameshardware.de/The-Bureau-XCOM-Declassified-PC-234715/Specials/The-Bureau-XCOM-Declassified-mit-GPU-PhysX-1085489/
85% mit 8 Threads! Soviel dazu, dass man Mantle braucht, um 8 Cores ansprechen zu können. :lol:
Wird über x86 PhysX alles dargestellt? Ich glaube nicht (korrigiere mich falls ich falsch liegen sollte)
Blaire
2013-09-27, 17:23:14
nVidia hat doch noch GLIDE in der Schublade liegen. Also NV bitte rausholen, aufmotzen und gegen MANTLE setzen. nVidia hat auch das Geld es den Spieleschmieden schmackhaft zu machen. Eins ist klar nVidia MUSS jetzt reagieren.
Warum sollten sie reagieren? Es wurde bislang nix brauchbares gezeigt und bevor sie Ressourcen verpulvern, muss es sich auch erstmal lohnen.
dildo4u
2013-09-27, 17:28:00
Wird über x86 PhysX alles dargestellt? Ich glaube nicht (korrigiere mich falls ich falsch liegen sollte)
Klar daher die miese Performance,die Effekte sind natürlich auf GPU's ausgelegt.
fondness
2013-09-27, 17:31:50
Warum sollten sie reagieren? Es wurde bislang nix brauchbares gezeigt und bevor sie Ressourcen verpulvern, muss es sich auch erstmal lohnen.
Glaubst du NV braucht Benchmarks von AMD um beurteilen zu können ob eine low-level-API Sinn macht? :freak:
AMD entwickelt laut eigenen Aussagen seit über 2 Jahren an Mantle, von daher sollten sie wenn dann bald anfangen....
Wird über x86 PhysX alles dargestellt? Ich glaube nicht (korrigiere mich falls ich falsch liegen sollte)
Für PhysX spielt es keine Rolle, auf welche Zielplattform compiliert wird. Die Effekte sind überall gleich.
Einzig die Entwickler entscheiden, ob es sinn macht, die erweiterten Effekte auch langsameren Zielplattformen (z.B x86) zur Verfügung zu stellen.
Ist also vollkommen anders als Mantle, dass eben nur auf GCN läuft und unabhängig entwickelt werden muss.
dargo
2013-09-27, 18:03:11
Dice treibt auch DX vorran um die CPU zu entlasten,das wird schon interessant wenn die Beta am Dienstag startet.
http://www.bf4blog.com/battlefield-4-on-windows-8-will-have-better-cpu-optimization/
Eine Sache verstehe ich aber nicht ganz. Für wen macht man sich nun die Mühe bei DX11.1 wenn NV und alles kleiner GCN dies nicht unterstützt und GCN Mantle abbekommt?
aufkrawall
2013-09-27, 18:06:06
Vielleicht macht es nicht viel Arbeit bzw. die Engine unterstützt es eh und Mantle kommt ja nicht zu Release.
dargo
2013-09-27, 18:12:06
Den einen bis zwei Monate hätte man bei AMD auch auf DX11.0 zurückgreifen können.
aufkrawall
2013-09-27, 18:18:25
11.1 klingt aber besser. Erst recht, wenns die erste Anwendung dieser Art ist.
dildo4u
2013-09-27, 18:19:28
Eine Sache verstehe ich aber nicht ganz. Für wen macht man sich nun die Mühe bei DX11.1 wenn NV und alles kleiner GCN dies nicht unterstützt und GCN Mantle abbekommt?
Ist doch klar NV mit Maxwell und Intel es kommen noch viele andere FB3 Games,Intel wird 2014 APU's haben mit denen man mit Xbox One mäßiger Grafik zocken.Intel wird die nästen Jahre nur weiter zulegen was Marktanteile angeht,die Budget Karten von AMD und NV werden langsam Sinnlos.
Gimmick
2013-09-27, 18:20:12
Für PhysX spielt es keine Rolle, auf welche Zielplattform compiliert wird. Die Effekte sind überall gleich.
Einzig die Entwickler entscheiden, ob es sinn macht, die erweiterten Effekte auch langsameren Zielplattformen (z.B x86) zur Verfügung zu stellen.
Ist also vollkommen anders als Mantle, dass eben nur auf GCN läuft und unabhängig entwickelt werden muss.
Ja, aber genau deswegen trennt man bei solchen Aussagen ja auch immer zwischen der Nutzung der PhysX Bibliothek und der expliziten Nutzung von auf GPU ausgelegten Effekten.
Und von letzterem wird ja hier gesprochen. Und da wird zwar auch alles angezeigt, das ist aber nicht mehr relevant da nicht nutzbar.
85% mit 8 Threads! Soviel dazu, dass man Mantle braucht, um 8 Cores ansprechen zu können.
Iirc wurde nur gesagt, dass die Engine 8 Threads ansprechen kann, unabhängig ob jetzt DX oder Mantle. Mantle entlastet nur die CPU.
Auf den Konsolen gibt es keinen Rauch. Der Rauch wurde also nicht rausgenommen, sondern für GPU PhysX exklusiv hinzugefügt.
Ich bezweifel, dass ein Spiel erst mal so designed wird, dass da Rohre verlaufen aus denen nix rauskommen soll, dass Einschusslöcher keine Partikel erzeugen oder, dass ein Hubschrauber geskriptet genau dahin schießt wo nichts ist - und man im nachhinein auf die Idee kommt man könnte ja noch was hinzufügen.
Das macht doch überhaupt keinen Sinn.
Edit: Ich hoffe ja, dass niemand auf die Idee kommt irgendwo mantle only zeug einzubauen in der "Überzeugung", dass es mit DX11 nicht schnell genug wäre oder so ein Blödsinn.
dargo
2013-09-27, 18:21:31
Ist doch klar NV mit Maxwell und Intel es kommen noch viele andere FB3 Games,Intel wird 2014 APU's haben mit denen man auf Xbox One mäßigen Grafik zocken.
Für zukünftige GPUs/APUs würde es natürlich Sinn machen. Aber jetzt doch nicht. :confused: Da wäre es viel sinnvoller später einen Patch nachzuschieben wenn der gebraucht wird.
dildo4u
2013-09-27, 18:26:18
Für zukünftige GPUs/APUs würde es natürlich Sinn machen. Aber jetzt doch nicht. :confused: Da wäre es viel sinnvoller später einen Patch nachzuschieben wenn der gebraucht wird.
Je früher je besser so können die Treiber eher optimiert werden,Dice ist ja der Motor bei der Engine wenn sie es einbauen profitiert jedes FB3 Game.
Iruwen
2013-09-27, 19:11:55
Grad zufällig drüber gestolpert:
http://de.slideshare.net/psteinb/optimizing-direct-x-on-multi-core-architectures
Seite 5 => http://msdn.microsoft.com/en-us/library/windows/desktop/bb172234(v=vs.85).aspx
/e: passt wohl besser in den Mantle Thread.
Blaire
2013-09-27, 19:45:03
Eine Sache verstehe ich aber nicht ganz. Für wen macht man sich nun die Mühe bei DX11.1 wenn NV und alles kleiner GCN dies nicht unterstützt und GCN Mantle abbekommt?
Wie kommst du darauf? Natürlich tun sie das.
Nightspider
2013-09-27, 19:55:11
Krasses rumgeheule hier...
Wer PhysX bei AMD will soll sich halt eine billige 660ti als PhysX-Beschleuniger dazustecken.
Wenn bei The Witcher 3 die PhysX Effekte so krass werden, wonach es aussieht, dann reicht eh kaum eine einzelne (Nvidia) Grafikkarte.
Und da PhysX über GPU sicherlich keine so extrem hohe Bandbreite braucht sollte auch locker eine 660ti für aktuelle Games reichen. Die gibt es gebraucht ab 130 Euro. Für The Wichter 3 braucht man wahrscheinlich eine GTX780 als PhysX Beschleuniger. :D Die dürfte in einem jahr aber auch nur noch einen Bruchteil kosten bzw. gibt es dann eh schon eine 860ti für 150-200€.
fondness
2013-09-27, 19:57:47
Krasses rumgeheule hier...
Wer PhysX bei AMD will soll sich halt eine billige 660ti als PhysX-Beschleuniger dazustecken.
Wenn bei The Witcher 3 die PhysX Effekte so krass werden, wonach es aussieht, dann reicht eh kaum eine einzelne (Nvidia) Grafikkarte.
Und da PhysX über GPU sicherlich keine so extrem hohe Bandbreite braucht sollte auch locker eine 660ti für aktuelle Games reichen. Die gibt es gebraucht ab 130 Euro. Für The Wichter 3 braucht man wahrscheinlich eine GTX780 als PhysX Beschleuniger. :D Die dürfte in einem jahr aber auch nur noch einen Bruchteil kosten bzw. gibt es dann eh schon eine 860ti für 150-200€.
Erlaubt NV nicht.
Wie kommst du darauf? Natürlich tun sie das.
Bitte nicht schon wieder eine solchen Diskussion. NV unterstützt nur die DX11.1-Features, die optional für Dx11.0 waren. Sie unterstützen keine neuen DX11.1Features und sie unterstützen auch nicht das entsprechende Feature-Level.
Nightspider
2013-09-27, 19:58:52
Das geht doch inoffiziell per Patch soweit ich weiß.
maximus_hertus
2013-09-27, 20:02:44
Afaik nur bei einem (alten) Treiber. Gibts neue Treiber muss man hoffen, dass es noch funktioniert. Ergo Bastelware, aber keine vernünftige Lösung.
Nightspider
2013-09-27, 20:07:15
Bisher war der Bedarf ja gering aber wenn in Zukunft viel mehr HighEnder zu AMD greifen wird der Bedarf größer sein und hoffentlich wird es mehr Bastler geben die das Problem bei neuen Treibern immer wieder beseitigen.
Blediator16
2013-09-27, 20:22:49
Bisher war der Bedarf ja gering aber wenn in Zukunft viel mehr HighEnder zu AMD greifen wird der Bedarf größer sein und hoffentlich wird es mehr Bastler geben die das Problem bei neuen Treibern immer wieder beseitigen.
Oder wieso nicht gleich den Scheiss lassen und Leuten, die eine NV Karte kaufen das Physx mit in Zusammenspiel mit AMD einfach freischalten? Geld hat NV doch gesehen...
Blaire
2013-09-27, 20:41:09
Bitte nicht schon wieder eine solchen Diskussion. NV unterstützt nur die DX11.1-Features, die optional für Dx11.0 waren. Sie unterstützen keine neuen DX11.1Features und sie unterstützen auch nicht das entsprechende Feature-Level.
Es ging um Battlefield4 , was bitte hast du daran nicht verstanden?
AYAlf
2013-09-28, 13:04:15
Wer im Glashaus sitzt sollte im Keller kacken.
Du bist einer der Größten hier! Meiner Einer hat 2x nVidia verbaut? Wie kannst du da behaupten ich wäre ein FanATIker?
Ich weiß nur auch, dass nVidia WEIT hinter AMD zurück bleibt, wenn es um Treiber und Funktionalität geht. Außerdem ist AMD an Weiterentwicklung interessiert, siehe 11.1, Mantle etc von nVidia kommt nur geklautes Zeug wie SLI und PhysX.
ENDE :P
aufkrawall
2013-09-28, 13:10:12
Es fällt schon auf, dass du nur am stänkern gegen NV bist, egal worum es geht.
Also kauf dir lieber AMDs, wenn du das nicht schon längst getan hast.
Wirkt sonst schizophren.
gnahr
2013-09-28, 13:11:54
Ich weiß nur auch, dass nVidia WEIT hinter AMD zurück bleibt, wenn es um Treiber und Funktionalität geht.
fieberwahn? psychose?
Außerdem ist AMD an Weiterentwicklung interessiert, siehe 11.1, Mantle etcaha, neue direct x-specs kommt also initiativ von amd. ne, sorry, dafür reicht auch die verpfändung der immobilien in klein-lampukistan nicht.
von nVidia kommt nur geklautes Zeug wie SLI und PhysX.und jetzt ist der bogen endgültig gerissen. mit der steilen these muss man zurückgeben, dass amd dann sogar audio-processing klaut, wo sie kaum grakas hergestellt bekommen. obwohl... apu steht ja für audio-processing-unit, vielleicht taugen die teile dafür wenigstens.
die exklusivität der engine und dieser benachteiligungen der enduser erscheinen wahrlich nochmal in einem anderen licht als beim ersten announcement. das kann heftigst in die hose gehen im dezember, wenn sie das leistungsgefüge der grakas aus krampf umkrempeln müssen um das viele blut-geld der pr-abteilung wieder einzuspielen. es graut einem richtig davor.
Iruwen
2013-09-28, 18:17:32
Siehe auch Geforce Experience <=> Raptr.
PS: http://www.forum-3dcenter.org/vbulletin/search.php?searchid=6666486
Wie gesagt, Glashaus.
Thunder99
2013-09-29, 18:05:10
Du bist einer der Größten hier! Meiner Einer hat 2x nVidia verbaut? Wie kannst du da behaupten ich wäre ein FanATIker?
Ich weiß nur auch, dass nVidia WEIT hinter AMD zurück bleibt, wenn es um Treiber und Funktionalität geht. ...
Wie meinst du das? Hatte ja vor der GTX680 eine HD7950 drin und ich konnte beim Treiber nie so viel bei AMD einstellen wie bei nvidia. Ganz geschweige von externen Tools die auf verstecke Funktionen im Treiber zugreifen können. AMD bevormundet Leute, nvidia lässt den Usern viel mehr Freiheit. Und das schätzen hier viele :)
die exklusivität der engine und dieser benachteiligungen der enduser erscheinen wahrlich nochmal in einem anderen licht als beim ersten announcement. das kann heftigst in die hose gehen im dezember, wenn sie das leistungsgefüge der grakas aus krampf umkrempeln müssen um das viele blut-geld der pr-abteilung wieder einzuspielen. es graut einem richtig davor.
Ach, es wird kaum was passieren. PC-Spieler sind doch zum Großteil schmerzbefreit. DICE und EA werden ein haufen Geld einnehmen trotzdem man 80% der Spielerlandschaft mal den Mittelfinger zeigt.
Und was wird nach dem Release im Internet passieren? Die Leute mit Intel- und nVidia-Grafikkartenhardware heulen erstmal beim Hersteller, wieso es die Probleme gibt und das man diese doch sofort fixen sollte.
Schade, dass eine emanzipierte Sichtweise bei PC-Spieler noch immer nicht angekommen ist.
Sven77
2013-09-29, 22:37:18
Ach, es wird kaum was passieren. PC-Spieler sind doch zum Großteil schmerzbefreit. DICE und EA werden ein haufen Geld einnehmen trotzdem man 80% der Spielerlandschaft mal den Mittelfinger zeigt.
Die einsamen Tränen einiger Fanboys dürfte DICE verschmerzen können ;D
Hä? Mantle wird von weniger als 20% des PC-Marktes unterstützt. Und nicht jeder interessiert sich für BF4 von denen. Also, was bleibt übrig? 10%? 5%?
Alle anderen sind für DICE doch nur zweite Liga. Und wenn du also die restlichen 80% als "einiger Fanboys" bezeichnest, dann hast du wohl recht.
(del676)
2013-09-29, 22:46:36
Warum "80% der Spielerlandschaft den Finger zeigt"?
BF3 verkaufte sich wie folgt:
35% ps3
53% xbox
12% pc
Selbst wenn mehr als die Haelfte der PC Spieler nvidia Karten hat, so sind das dann halt 6-8%(?) der Kaeufer. So what? Einzelschicksal. Auf einem Gameboy laeuft nunmal auch kein BF3 mehr.
Zumal BF4 ja auch auf nvidia Karten laufen wird, halt gewohnt langsam. ;)
Ka wofuer die ganze Aufregung? Waer ja nicht so, als wuerd DICE nvidia Karten kuenstlich ausbremsen, sondern im Gegenteil. Sie arbeiten mit AMD daran, AMD Karten schneller zu bekommen? Wo ist das Problem?
RAAAAAGE weil euer Titan QuadSLI nun ein noch viel bescheideneres Preis/Leistungsverhaeltnis hat?
Nightspider
2013-09-29, 22:48:31
Der Anteil an Battlefield spielenden AMD Besitzern könnte sich auch ganz schnell erhöhen.
Wenn Mantle sich merkbar auswirkt steige ich auch sofort auf AMD um.
Selbst wenn mehr als die Haelfte der PC Spieler nvidia Karten hat, so sind das dann halt 6-8%(?) der Kaeufer. So what? Einzelschicksal. Auf einem Gameboy laeuft nunmal auch kein BF3 mehr. (zumal BF4 ja auch auf nvidia Karten laufen wird, halt gewohnt langsam. ;) )
Wenn 1 Millionen Geforce-Kunden nicht zugreifen, sind das allein ~$30 Millionen weniger Einnahmen. Aber darauf kann man bei EA wahrscheinlich getrost verzichten.
nVidia hat laut eigenen Angaben >100 Millionen Kepler-Karten verkauft. Würden Geforce-Kunden ein Rückgrat haben, lässt sich die Summe locker auf $300 Millionen steigern.
Tja, ist EA nicht ein Aktienunternehmen? :lol:
Sven77
2013-09-29, 22:53:59
Wenn Mantle sich merkbar auswirkt steige ich auch sofort auf AMD um.
dito.. ausserdem wäre mir neu das BF4 nicht auf nVidia läuft...
Nightspider
2013-09-29, 22:55:31
Wenn 1 Millionen Geforce-Kunden nicht zugreifen, sind das allein ~$30 Millionen weniger Einnahmen. Aber darauf kann man bei EA wahrscheinlich getrost verzichten.
nVidia hat laut eigenen Angaben >100 Millionen Kepler-Karten verkauft. Würden Geforce-Kunden ein Rückgrat haben, lässt sich die Summe locker auf $300 Millionen steigern.
Tja, ist EA nicht ein Aktienunternehmen? :lol:
Allerdings gibt es keine 1 Million Nvidia Kunden die so dumm, wie einige Gäste hier, und wegen ihrem mickrigen Selbstwertgefühl zum Trotz auf BF4 verzichten.
Von daher hinkt deine Rechnung.
(del676)
2013-09-29, 22:57:07
Wenn 1 Millionen Geforce-Kunden nicht zugreifen, sind das allein ~$30 Millionen weniger Einnahmen.
Warum sollten sie? Weil es gleich gut rennen wird wie es BF3 aktuell tut?
Angeknackstes Ego weil du zuviel bezahlt hast oder was?
Hä? Ich habe doch oben erwähnt, dass trotz Mittelfinger von DICE sich eben auch viele schlechtergestellte das Spiel kaufen werden. Und im Gegensatz zu Tomb Raider - wo Eidos noch ein paar Tage vorher von "läuft sehr gut auf einer GTX670" faselte - liegen hier schon alle relevanten Fakten auf dem Tisch.
Am Ende hoffe ich nur, dass man sich wenigsten im DICE Forum ausheulen wird.
Sven77
2013-09-29, 22:59:18
Ist eben das gleiche wie damals bei Batman.. what goes around, comes around..
Batman? Das DX9 Spiel, wo es keinen Standard für AA in der UE3 Engine gab und AMD erst später das selbe Texturformat unterstützte?!
Ja, absolut das selbe. :rolleyes:
Battlefield 1-4 ist ein Multiplayer Titel. Wenn AMD User bevorteilt werden (Frames) isses für nVidia Käufer Essig. Ich boykottiere das Spiel und ich bin ein anderer Gast. Also sind wir hier schonmal 2 Gäste die boykottieren. Und es werden mehr werden, keine Frage.
Sven77
2013-09-29, 23:08:19
Ja gut, schon ein paar Naps weniger die einem auf den Sack gehen :D
Mal schauen wie DICE dazu steht wenn der Gewinn geschmälert wird. Und hier gehts nicht um PHYSX sondern um MANTLE: Mal abwarten was passiert:)
just4FunTA
2013-09-29, 23:11:06
Inwiefern wirst du den als nv-user benachteiligt? Du kriegst doch ganz normal die dx11 Version wie auch schon bei bf3 die wird ja in keinster weise runtergebremst.
Eine etwas absurde Diskussion hier.
Nein. AMD User werden bevorteilt. Sie können mehr Details reinschalten mit mehr Frames. BEVORTEILUNG. Aber wie gesagt, es werden einige Battlefield 4 boykottieren:)
Sven77
2013-09-29, 23:13:26
Das ist keine Diskussion, Lovesucks oder wer auch immer muss eben sein Herz ausschütten
aufkrawall
2013-09-29, 23:13:31
Trolligster Thread in der Sektion hier seit langem.
Offenbar haben es die AMD-Fanboys nötig, sich im NV-Forum mit Gästen zu battleln. Die Wut der ganzen Jahre muss jetzt wohl raus... ;D
Und wer garantiert, dass die DX11 a) für Nicht-AMD User und b) für Nicht-AMD-Mantle User optimiert wurde?
Wer garantiert, dass der DX11 Modus in der ZUkunft supportet wird?
Der Entwickler der Engine und des Spiels hat sich doch klar für seine eigene proprietäre Schnittstelle ausgesprochen. Warum sollte der das Kind eines anderen genauso lieben?
Aber hey, nVidia und Intel-User waren bei Tomb Raider auch nicht benachteiligt. Lief eben nur am Start sehr langsam - wenn es denn lief. :lol:
just4FunTA
2013-09-29, 23:16:01
Nein. AMD User werden bevorteilt. Sie können mehr Details reinschalten mit mehr Frames. BEVORTEILUNG. Aber wie gesagt, es werden einige Battlefield 4 boykottieren:)
Nur ein Idiot würde ein Spiel boykotieren nur weil eine andere graka potenziell bessere frames liefert. Seine eigene Karte wird ja auch ganz normal am Maximum betrieben und nicht künstlich eingebremst.
aufkrawall: Du bist doch auch sauer und nein ich bin nicht Lovesucks. Mich kotzt das an und deswegen wird boykottiert. AMD User haben hier in einem Multiplayer Titel einen VORTEIL.
dargo
2013-09-29, 23:16:16
BF3 verkaufte sich wie folgt:
35% ps3
53% xbox
12% pc
Quelle?
Sven77
2013-09-29, 23:17:55
aufkrawall: Du bist doch auch sauer und nein ich bin nicht Lovesucks. Mich kotzt das an und deswegen wird boykottiert. AMD User haben hier in einem Multiplayer Titel einen VORTEIL.
Wenn man mehr Details anschalten kann hat man keinerlei Vorteile, im Gegenteil. Zu `BF2 Zeiten war das Credo alles auf Low, dann hat der Gegner sich in Büschen versteckt die bei einem slebst gar nicht mehr angezeigt wurden ^^
dargo
2013-09-29, 23:21:34
Mich kotzt das an und deswegen wird boykottiert. AMD User haben hier in einem Multiplayer Titel einen VORTEIL.
Mein Gott... dann kaufe das Spiel nicht. DICE wird es verkraften auf die paar Heulsusen aus dem NV-Lager zu verzichten bei den zig Millionen abgesetzten Einheiten, siehe BF3.
15 Millionen Einheiten wurden bis August 2012 von BF3 verkauft. Das ganze ohne DLCs wohlgemerkt.
http://www.battlefield-inside.de/2012/08/battlefield-3-und-battlefield-3-premium-verkaufszahlen/
Ich bin gespannt wie DICE auf die nVidia User reagieren wird. Im Netz gehts schon hoch her.
aufkrawall
2013-09-29, 23:23:36
aufkrawall: Du bist doch auch sauer und nein ich bin nicht Lovesucks. Mich kotzt das an und deswegen wird boykottiert. AMD User haben hier in einem Multiplayer Titel einen VORTEIL.
Ich bin nicht sauer. Man wird sicher auch mit DX11 Verbesserungen des MT gegenüber BF3 feststellen etc.
AMD darf gerne vorlegen (und NV nachziehen, die sind nicht blöd).
Im Grunde hat sich NV das ja mit dem verkackten Tegra selbst zuzuschreiben und PhysX darf gerne durch irgendeine Compute-Geschichte ersetzt werden.
Nur ein Idiot würde ein Spiel boykotieren nur weil eine andere graka potenziell bessere frames liefert. Seine eigene Karte wird ja auch ganz normal am Maximum betrieben und nicht künstlich eingebremst.
Und wie nennt man Leute, die einer Firma Geld geben, die einem den Mittelfinger zeigen?
Schwachmaten? Unterentwickelte Neandertaler?
Naja, die Zeichen stehen an der Wand. Aber anscheinend will sie niemand lesen.
Freu mich schon auf den Start. Wird tolle Gesichter geben, wenn das Spiel auf bestimmter Hardware nur schlecht läuft.
just4FunTA
2013-09-29, 23:29:54
Wie kann ein einzelner Mensch nur so blöd sein? Glaubste jetzt wirklich die veröffentlichen bf4 und das läuft dann mit 20fps auf nv Karten oder wie? Das Spiel wurde für dx11 entwickelt und du heulst rum wie ein kleinkind weil es ende des Jahres noch ein patch geben wird der potentiell aus den ati Karten noch mehr rausholen kann als über dx11? Was soll DICE da jetzt noch machen eine Api für nv entwickeln? Sollte NV tatsächlich an sowas Interesse haben dann müssen sie das schon wie AMD ja auch selbst entwickeln..
Dargo aber da lief das immer ausgeglichen (Auf AMD und nVidia Grakas) Was meinste was los is wenn die AMD Karten plötzlich 30 Prozent mehr Frames liefern?
Sven77
2013-09-29, 23:31:30
Dargo aber da lief das immer ausgeglichen (Auf AMD und nVidia Grakas) Was meinste was los is wenn die AMD Karten plötzlich 30 Prozent mehr Frames liefern?
Dann freut man sich das man mit weniger Geld mehr Frames bekommt und nVidia kann einen nicht mehr länger mit ihren Preisen (Titan) verarschen
Wir reden über einen Shooter. Multiplayer. Also warten wir mal ab was DICE jetzt zu uns nVidia meckerern sagt.
Nightspider
2013-09-29, 23:38:31
Nein. AMD User werden bevorteilt. Sie können mehr Details reinschalten mit mehr Frames. BEVORTEILUNG. Aber wie gesagt, es werden einige Battlefield 4 boykottieren:)
Was hat DICE damit zu tun, wenn AMD bei BF4 mehr bietet als Nvidia? Es ist dann deine Schuld keine AMD Grafikkarte zu besitzen bzw. eine zu schlechte Nvidia-Karte.
Wie kann ein einzelner Mensch nur so blöd sein? Glaubste jetzt wirklich die veröffentlichen bf4 und das läuft dann mit 20fps auf nv Karten oder wie? Das Spiel wurde für dx11 entwickelt und du heulst rum wie ein kleinkind weil es ende des Jahres noch ein patch geben wird der potentiell aus den ati Karten noch mehr rausholen kann als über dx11? Was soll DICE da jetzt noch machen eine Api für nv entwickeln? Sollte NV tatsächlich an sowas Interesse haben dann müssen sie das schon wie AMD ja auch selbst entwickeln..
Soso, andere sind "nur so blöd", weil sich kein DICE Fanboy sind?
Ich meine, Eidos hat auch kein Tomb Raider veröffentlicht, dass wissentlich nicht auf nVidia (und Intel) Hardware vernünftig lief.
Ich bin immer wieder baff, wie ignorant einige sein können.
Nightspider
2013-09-29, 23:40:21
Wir sind ignorant? Eher ist es dumm DICE schlecht zu reden, weil sie das nutzen was die Hardware bietet.
Und AMDs schuld ist es ja wohl in dem Fall nicht besser zu sein (in BF4) als Nvidia.
Was hat DICE damit zu tun, wenn AMD bei BF4 mehr bietet als Nvidia? Es ist dann deine Schuld keine AMD Grafikkarte zu besitzen bzw. eine zu schlechte Nvidia-Karte.
Das DICE das gerade so exclusiv in einem MULTIPLAYER SHOOTER für AMD macht. Verstehste?
just4FunTA
2013-09-29, 23:42:22
ich habe doch bf3 wenn ich bf4 am Dienstag ausprobiere und dieses ohne eine deutliche Verbesserung in der Grafik trotzdem deutlich schlechter laufen würde als bf3 dann wäre DICE doch gleich unten durch das merke ich doch nach einer Runde glaubste wirklich DICE ist so dämlich sich das Geschäft kaputt zu machen.
Das ist es ja was du jetzt behauptest dice wird das Spiel auf nv Karten künstlich einbremsen damit die amd Karten besser dastehen..
DICE bremst nVidia mit dem Patch künstlich aus. Angekündigt und damit für mich FAKT!
just4FunTA
2013-09-29, 23:47:06
DICE bremst nVidia mit dem Patch künstlich aus. Angekündigt und damit für mich FAKT!
ja? also wenn der Patch kommt werden deine FPS von Konstant 100 auf 20 fallen und du glaubst das im Ernst?
dargo
2013-09-29, 23:48:26
Dargo aber da lief das immer ausgeglichen (Auf AMD und nVidia Grakas) Was meinste was los is wenn die AMD Karten plötzlich 30 Prozent mehr Frames liefern?
Ganz einfach... höhere Absatzzahlen bei Grafikkarten von AMD. Und ich würde es AMD sogar wünschen nachdem Nvidia bei 28nm mit ihrer Preispolitik die Kunden nur verarscht hat und es immer noch mit GK110 tut.
OK. Ich sage mit dem Patch bekommt AMD ab 7XXX 30 Prozent Plus. bei nVidia wird das nicht kommen. Das ist Exclusiv und eigentlich tötlich für einen Multiplayer Shooter. Und ich traue AMD zu das nVidia ausgebremst wird. AMD halt (Siehe Lara Haare).
Ganz einfach... höhere Absatzzahlen bei Grafikkarten von AMD. Und ich würde es AMD sogar wünschen nachdem Nvidia bei 28nm mit ihrer Preispolitik die Kunden nur verarscht hat und es immer noch mit GK110 tut.
Ich wünsche mir fairen Wettbewerb.
dargo
2013-09-29, 23:51:28
DICE bremst nVidia mit dem Patch künstlich aus. Angekündigt und damit für mich FAKT!
Falsch! Wenn schon dann bremst die DX11 API Nvidia aus und nicht DICE. Wie stark werden wir voraussichtlich im Dezember erfahren.
just4FunTA
2013-09-29, 23:53:47
OK. Ich sage mit dem Patch bekommt AMD ab 7XXX 30 Prozent Plus. bei nVidia wird das nicht kommen. Das ist Exclusiv und eigentlich tötlich für einen Multiplayer Shooter. Und ich traue AMD zu das nVidia ausgebremst wird. AMD halt (Siehe Lara Haare).
das heißt du wirfst DICE vor das AMD eine API zu Verfügung stellt durch die man mehr performance rausholen kann als durch dx11? Ohja das ergibt natürlich Sinn und klingt auch überhaupt nicht Shizo..
Wollen wir noch Glide haben? Durchgesetzt mit dem Geld das nVidia auch hat? Was soll das? Ich bin 36 und das führt in ne Sackgasse. Das wissen wir doch alle!
Ganz einfach... höhere Absatzzahlen bei Grafikkarten von AMD. Und ich würde es AMD sogar wünschen nachdem Nvidia bei 28nm mit ihrer Preispolitik die Kunden nur verarscht hat und es immer noch mit GK110 tut.
Stimmt, nVidia verarscht dich, weil sie dir besseres anbieten.
AMD dagegen verarscht dich nicht, weil sie 8 Monate warten.
Ignoranz Part 2.
dargo
2013-09-29, 23:59:28
Stimmt, nVidia verarscht dich, weil sie dir besseres anbieten.
Tut mir leid, aber zu dem Zeitpunkt als ich mir die HD7970 zugelegt habe bot Nvidia nichts Besseres an. Die GTX680 hat damals weit über 100€ mehr gekostet und bot nur 2GB Vram. Keine Option für mich. Und das trotz vielen Jahren im NV-Lager. Manchen würde es gut tun die Fanboy-Brille abzusetzen.
Und was hat deine Pre-GK110-Kaufentscheidung mit GK110 und der oberen Aussage zu tun?
Mehr Nachdenken, weniger Quatsch schreiben.
Trotzdem werden mehr nVidia verkauft. AMD versucht was durchzusetzen was sie nicht können. Sie sind kein Intel.
dargo
2013-09-30, 00:03:45
Ok... wir haben hier scheinbar mit einem Troll zu tun. Viel Spaß noch...
Warum Troll? Das was ich geschrieben habe (GastX) ist vollkommen richtig. Und so wirds kommen. Absatzzahlen BF4, Performancevorteil AMD, Benachteiligung nVidia usw. Ich trolle nicht rum. Das machen die AMD User die darüber lachen wie schlecht doch nvidia ist.
Blaire
2013-09-30, 00:11:41
Trolligster Thread in der Sektion hier seit langem.
Offenbar haben es die AMD-Fanboys nötig, sich im NV-Forum mit Gästen zu battleln. Die Wut der ganzen Jahre muss jetzt wohl raus... ;D
Labern lassen... :)
Dieses "Mantle-Gehype" hat aber auch etwas Gutes für uns PC-Gamer, da in Zukunft wieder vermehrt PC-exclusive Features gepusht um sich vom Konsolen-Einheitsbrei abzusetzen. Ich sehe das sehr positiv, 4K zeigt ja den Weg, PCs werden den Konsolen immer voraus sein, die Konsolen sind bereits veraltet, brauchen Optimierungszeit. Hier trennen sich die Wege, früher oder später.
Mantle ist eine Gefahr für nVidia. Das ist nicht Gelaber. Man erinnere sich wie stark GLIDE war. nVidia hats aufgekauft. Mit den Konsolen hat AMD ein Trumpf in der Hand und ich als GTX 770 Besitzer mache mir Sorgen. Normal, oder?
Mantle ist kein PC-Exklusives Feature und gehört sofort wieder entsorgt. Bevor ich wieder lust habe in die guten alten Zeiten zurückgebeamt zu werden, verzichte ich liebers auf Leistung als mir gedanken zu machen, ob mein Mantle-Spiel mit meiner neuen Mantle-Karte überhaupt noch richtig funktioniert.
Achja, da AMD ja jetzt offiziell drei APIs pflegen muss, kann man ja sich dreimal fragen, weil die erste sein wird, die aus dem Support rausfliegt:
https://de.dolphin-emu.org/blog/2013/09/26/dolphin-emulator-and-opengl-drivers-hall-fameshame/?cr=de
Wieviele Exclusivtitel für PC gibt es und was wird alles geportet. Da hat in Zukunft AMD alles in der Hand. Ich mache mir Sorgen. Und mit dem Link da scheiss ich drauf. Ich programmiere nicht. Ich Spiele auf dem PC.
Ports werden kein Mantle unterstützen, weil diese mit High-Level APIs angefangen werden.
Und Mantle selbst ist zur Zeit nichts weiteres als eine DICE + AMD Entwicklung. Das wird dauernd, bis es anderseitig umgesetzt wird.
Mantle wird sowieso bald schnee von gestern sein. NIemand wird APIs verwenden, die nur auf einem beschränkten Markt eingesetzt werden kann und den ganzen Android/iOS - Markt ignoriert.
Welcher Markt? Es gibt Märkte. Ich rede von Battlefield, Witcher, Dragon Age usw. Das ist PC/Konsolenmarkt. Das kannst du nicht auf Handy spielen. Was ich sagen will. AMD wird ne gewaltige Macht haben. Konsolen/PC. Handy ist ein ganz anderer Markt.
Die haben keine Macht. Mantle wird nur von Frostbite 3 unterstützt. Und dann muss extra dafür der Pfad geschrieben werden.
Da gibt es kein Schalter, keine Übereinstimmung mit den Konsolen. Für viele macht es kein Sinn es zu unterstützen, da es nur zusätzlicher Aufwand ist.
Und Android macht deswegen sinn, weil in 2-3 Jahren man Hardware hat, die annährend an die Konsolen heranreichen. Wer wird dann bitte einen Mantle-Pfad schreiben, der nur auf dem PC funktioniert und dort gerademal für ein Bruchteil der Konfigurationen?!
Und nicht zu vergessen, dass soetwas wie Kabini/Temash gegen Intel und ARM geht. Das verringert das Marktpotential gleich nochmal. Und Kaverie muss erstmal gegen Intel's CPUs sich beweisen. Wieder ein Verlust. Und dann ist da nVidia mit einem R&D Budget, dass knapp 75% von AMD's Grafikkartenumsatz ausmacht. Wieder eine Verkleinerung.
Mantle ist zuallerst mal Hype und eine BF4 Sache.
Wer sagt das mit Battlefield 4 Ende mit "Mantle" ist? Ich hab da bedenken. Ganz einfach. Das macht mir als nVidia Besitzer Angst. Die AMD Grakas sind ja sehr Konsolen-nah.
Nightspider
2013-09-30, 00:52:02
DICE bremst nVidia mit dem Patch künstlich aus. Angekündigt und damit für mich FAKT!
Nein. Der Patch soll die FPS bei AMD erhöhen und nicht bei Nvidia senken.
Das einzige was sich verändert ist das Verhältnis von AMDs zu Nvidias Leistung.
Wenn du das nicht verstehst kann dir hier keiner mehr helfen.
Denn gegen Blödheit ist leider kein Kraut gewachsen.
wer ist hier blöd. Der Abstand steigt. Raffst du es nicht?
Wer sagt das mit Battlefield 4 Ende mit "Mantle" ist? Ich hab da bedenken. Ganz einfach. Das macht mir als nVidia Besitzer Angst. Die AMD Grakas sind ja sehr Konsolen-nah.
Wer sagt, dass es nach BF4 und ein paar Frostbite-Spiele besser wird?!
Mantle benötigt zusätzlichen Aufwand vom Entwickler. Weitaus mehr als mit DX oder OpenGL. Ein Großteil der Verantwortung wird vom Treiber in die Hand des Entwicklers verlegt.
Nur Leute mit viel Zeit und einem kompletten Desinsteresse am PC Markt werden sich das antun. Alle anderen wird DX/OpenGL reichen. Und da die Hardware sowieso immer schneller wird - nagut, bei AMD nicht mehr :lol: - muss man sich über ein paar verlorene Frames auch keinen Kopf machen.
Lustiger Fakt: Ich habe noch von keinem Android-Spiele-Entwickler gelesen, dass er sich Low-Level-APIs wünscht. Dort scheint man mit OpenGL (ES) sehr gut leben zu können.
Nightspider
2013-09-30, 00:58:19
Wenn Nvidia und AMD vor dem Patch 100fps schaffen, AMD nach dem Patch 120fps schafft und Nvidia weiterhin 100fps, dann ist die AMD Grafikkarte schneller geworden ohne das die Nvidia Grafikkarte langsamer geworden ist.
Das würde sogar ein Kleinkind verstehen. Das du dich da so schwer tust ist echt traurig.
Aber wenn du willst können wir dir noch bunte Bildchen malen.
Nightspider red dich ruhig raus. Ich rede davon das der Abstand steigt. Kapische?
Nightspider
2013-09-30, 01:00:00
Klar steigt der Abstand aber Nvidia wird nicht langsamer, was du oben behauptet hast.
Zähl du ruhig Körner ich hab Angst um nVidia. AMD hat ein Monopol auf Konsolen.
Nightspider
2013-09-30, 01:03:03
Was denn nun? Wirfst du DICE vor Nvidia langsamer zu machen oder hast du Angst um Nvidia, welche die letzten Jahre massig Geld auf Kosten der Kundschaft eingenommen haben?
Wenn du DICE vorwerfen willst den Abstand zu erhöhen musst du das bei deiner nächsten Kaufentscheidung berücksichtigen. Es wird sicherlich noch weitere Spiele geben, nicht nur von DICE, wo sich das Verhältnis zugunsten AMDs ändert.
Kauf dir zukünftig einfach eine AMD Grafikkarte anstatt wie ein Kind rumzujammern.
Warum sollte ich mir AMD kaufen? Bin doch zufrieden mit meiner nVidia. Mit den Möglichkeiten und Inspector. Nur, und das muss man so sehen, hat AMD mit der Konsolenherrschaft ein Monopol. Ganz einfach.
Nightspider
2013-09-30, 01:07:52
Dann kauf dich doch eine zweite Nvidia Grafikkarte, damit du mehr FPS als mit AMD mit Mantle hast.
Das gute ist. Wie oben von dem Gast geschrieben. Bald kommt Maxwell. Der wird wohl richtig Power haben. Das dürfte für die Konsolen reichen. AMD kommt für mich nicht in Frage. Hatte mal ne 7970GHz die ist verglüht. Einmal AMD und nie wieder. Oh und die war so laut. Unglaublich.
Nightspider
2013-09-30, 01:14:12
Jepp, AMD-Grafikkarten sind wahre Kometen. Extrem schnell, heiß und verglühen mit einem lauten Knall. :rolleyes:
Aber bis Maxwell erscheint dauert es noch mindestens ein halbes Jahr.
Ja aber es war so. Lustigerweise in Battlefield 3 ist sie ins Grab gegangen. OK, vielleicht Pech gehabt. Aber, wie gesagt ich hoffe Maxwell kaschiert den Nachteil von nVidia gegenüber AMD/Konsole. Und dann steig ich auf Maxwell um.
Nightspider
2013-09-30, 01:19:25
Für solche Fälle gibt es ja immer Garantie. Ich kenne auch Leute bei denen schon Nvidia Grafikkarten kaputt gegangen sind. Allerdings brauchst du keinen Maxwell. Eine 780 ist schneller als die Hardware in der PS4.
Nein, es wird Maxwell brauchen weil Hardwarenah auf AMD in Zukunft programmiert wird (Monopol). Maxwell merzt das aus.
Und Maxwell wird der Hammer. AMD wird weiterhin gut sein nur Maxwell wird besser. Und da wird der Nachteil Konsole/AMD reduziert.
Nur zur Info .. Die BF4 Alpha und Beta lief mit Nvidia Karten leicht besser als mit AMD.
Mantle wird bei der schlechten Treibergüte von AMD wohl eher ein Nachteil als Vorteil werden.
Sven77
2013-09-30, 09:42:45
Dann ist doch alles gut ;)
Iruwen
2013-09-30, 14:51:53
Krieg der Gäste, wow. Macht doch mal alle den Kopp zu. Wenns auf AMD besser läuft kommt die nächste Karte halt von AMD, wo ist das Problem. Nur weil NV die Konsolendeals nicht wollte™ und AMD mal eine gute Idee hatte muss jetzt keiner rumheulen.
AMD kommt für mich nicht in Frage. Hatte mal ne 7970GHz die ist verglüht. Einmal AMD und nie wieder. Oh und die war so laut. Unglaublich.
War es eine Powercolor vielleicht?
Hab mein im Saturn gekauft, ist schon während der nachhause fahrt in der Verpackung geschmolzen, Drecksding, nie wieder AMD.
Seit dem ich wieder eine Nvidia mein eigen nenne, bedanken sich bei mir sogar die nachbaren, denn seit dem ich die graka im Rechner habe, liefern auch ihre FullHD Ferseher ein viel besseres Bild.
Nvidia Aura halt.
Jetzt über Herbst/Winter kann AMD mit ihrem scheiß Mantel punkten, aber freunde der Sommer kommt bestimmt wieder, dann hängen sie wieder 30% hinterher.
heil Nvidia!!
Iruwen
2013-10-01, 11:46:10
Die Beta läuft schonmal scheiße.
dildo4u
2013-10-01, 11:47:30
Die Beta läuft schonmal scheiße.
Eher wegen der CPU imo ohne i7 geht nix.
Iruwen
2013-10-01, 12:00:31
Ich hab 'nen i7-920@3,5GHz, der reicht offenbar auch nicht. Muss ich mir wohl doch 'nen Haswell zu Weihnachten schenken, aber erstmal an den Settings rumspielen und die Final und fertige Treiber abwarten.
del_4901
2013-10-01, 12:17:19
Ich hab 'nen i7-920@3,5GHz, der reicht offenbar auch nicht. Muss ich mir wohl doch 'nen Haswell zu Weihnachten schenken, aber erstmal an den Settings rumspielen und die Final und fertige Treiber abwarten.Ohne den Beta Treiber lauft nichts: http://www.geforce.com/whats-new/articles/nvidia-geforce-331-40-beta-drivers-released
Echt spassig. Ein paar Anmerkungen zum Nachdenken:
- PhysX ist nicht von NVidia sondern von Ageia. NV hat das nur eingekauft und etwas weiterentwickelt, damit auch deren GPUs damit laufen. Nv hat es allerdings immernoch nicht mal ansatzweise geschafft den Effizienzgrad der GPUs auf den der echte PhysX-Karte zu hieven. Es ist eben immernoch zum großen Teil Ageia-Code.
- GPU-PhysX ist ein Effekt, kein spielrelevantes Feature. Das ist mit GPU-PhysX nämlich gar nicht möglich, dazu müsste man das Ganze total umbauen, was irre teuer ist und sehr viel Zeit kostet.
- Mantle ist eine komplette auf Spiele zugeschnittene Multimediaschnittstelle. Das ist nicht mal im Ansatz mit PhysX vergleichbar, das ist nicht mal das gleiche Stadion, das ist ne andere Sportart.
- Mantle (und sicherlich TrueAudio auch) hat viel Geld in der Entwicklung gekostet und wird sicher schon seit 2 Jahren entwickelt. NV kann nicht mit einer eigenen Schnittstelle kontern, weil sie schlicht keine haben. Die haben nicht mal ein Konzept dafür.
- Glide ist eine Schnittstelle, die maximal DX7-Niveau hat. Sogar 3Dfx wollte davon Abstand nehmen, Glide ist 100% unbrauchbar heute.
- Soweit ich das verstanden habe, kann man ein Spiel auf Mantle entwickeln und einen DX-fallback einbauen. Das wäre wirklich blöd für NV, weil der PC-Markt bei vielen Studios (nicht bei allen) nur eine untergeordnete Rolle spielt. Andererseits tauchen solche Spiele dann eher selten in Benchmarks auf.
- Mantle soll als langfristiges Projekt überleben und das geht nur dann, wenn Mantle auch für andere Hersteller geöffnet wird. Dafür ist es aber zu früh, dafür ist Mantle noch nicht weit genug entwickelt. Natürlich wird Mantle 2.0 oder 3.0 andere Architekturen als GCN unterstützen müssen, da AMD ja nicht für alle Ewigkeit auf GCN bleibt. Für AMD lohnt eine Öffnung für Mantle aber erst dann, wenn man auch soweit ist.
- Was soll Microsoft gegen Mantle haben? Microsoft sieht Spiele doch schon seit der XBox nicht mehr als PC-Zugpferd an. DX ist für M$ ein notwendiges Übel und seit Vista ein großer Teil des technischen Unterbaus des OS. Mantle ist also aus Microsofts Sicht nur begrenzt eine Konkurrenz.
- Wer glaubt, Mantle würde die Position von Windows in Spielerkreisen gefährden, der hat keine Ahnung was Linux eigentlich ist. Linux wird Windows niemals ablösen, weil es keine kommerzielle Software ist. Microsoft hat nichts gegen Mantle, im Gegenteil, offenbar wurde das zuerst von DICE und AMD für die XB1 entwickelt.
Was ist die Schlussfolgerung daraus? Es tut sich endlich mal was an der Softwarefront und da sollten auch NV-Hardwarefans Respekt vor haben, denn es bringt auch NV weiter. Nur "offene" Schnittstellen eines Hardwareherstellers sind auf Dauer erfolgreich. "Offen" heißt in dem Fall, dass es egal ist, ob es lizenzert ist oder nicht, wichtig ist die Kooperation der Hersteller dabei. Mantle kann nur dann erfolgreich werden, wenn es alle IMR-Architekturen umfasst, also alle Post-GCN genauso wie alle Post-Kepler und alle Intel-Architekturen ab Generation9 unterstützt. Man muss sich also keine Gedanken machen, ob der oder jener benachteiligt wird, wichtig ist, dass es insgesamt den Stillstand bei DX beendet. Denn wenn Spiele auf Windows durch Mantle besser laufen und weniger Entwicklungskosten verursachen (das ist ja der eigentliche Sinn von Mantle), ist das für den gesamten PC-Bereich ein Fortschritt.
Iruwen
2013-10-01, 14:00:20
DX ist für M$ ein notwendiges Übel
Verwendet die XBox nicht D3D?
Angiesan
2013-10-01, 19:51:07
Also heute haben wir ja die Antwort, und das ist schon wirklich eine Sauerei, sorry für die Ausdrucksweise aber es regt mich gerade etwas auf!
Gleicher Computer, einmal mit GTX 670 OC auf 1267/3600 und einmal mit HD 7950 1100/1375 da liegen im Schnitt 1/3 mehr FPS bei der AMD :-( Das ist wirklich sehr heftig!!! Normalerweise ist die GTX so wie sie übertaktet ist in Games mindestens genau so schnell wie die HD 7950 @1100/1375 hier ist das ein himmelweiter Unterschied und ich habe meine Antwort.
Hinzu kommt das die GTX immer wieder mit heftigen Ruckler zu kämpfen hat was die HD in diesem Ausmaß nicht zeigt, es werden auch gute 2 GB Speicher belegt bei 1920X1080 ohne DS ingame, kurz gesagt, die HD 7950 biete mit 4xAA mehr FPS wie die GTX ohne:-(
Eine HD 7970 GHz OC müsste meiner Meinung nach bei der BF4 Beta auf Titan Niveau agieren, soviel zu der Optimierung.
Das unter diesen Umständen eine R9 schneller ist wie eine Titan würde mich jetzt nicht wundern.
Treiber bei der GTX der 331.40 bei der HD 7950 13.10 Beta V2
Ich empfinde das schon als Schlag ins Gesicht, und will überhaupt nicht wissen wie das mit der Mantle Optimierung dann aussieht das ist jetzt schon vollkommmen unnormal und die GTX wird hier deutlich unter Wert geschlagen.
4Fighting
2013-10-01, 19:53:51
Also heute haben wir ja die Antwort, und das ist schon wirklich eine Sauerei, sorry für die Ausdrucksweise aber es regt mich gerade etwas auf!
Gleicher Computer, einmal mit GTX 670 OC auf 1267/3600 und einmal mit HD 7950 1100/1375 da liegen im Schnitt 1/3 mehr FPS bei der AMD :-( Das ist wirklich sehr heftig!!! Normalerweise ist die GTX so wie sie übertaktet ist in Games mindestens genau so schnell wie die HD 7950 @1100/1375 hier ist das ein himmelweiter Unterschied und ich habe meine Antwort.
Hinzu kommt das die GTX immer wieder mit heftigen Ruckler zu kämpfen hat was die HD in diesem Ausmaß nicht zeigt, es werden auch gute 2 GB Speicher belegt bei 1920X1080 ohne DS ingame, kurz gesagt, die HD 7950 biete mit 4xAA mehr FPS wie die GTX ohne:-(
Eine HD 7970 GHz OC müsste meiner Meinung nach bei der BF4 Beta auf Titan Niveau agieren, soviel zu der Optimierung.
Das unter diesen Umständen eine R9 schneller ist wie eine Titan würde mich jetzt nicht wundern.
Treiber bei der GTX der 331.40 bei der HD 7950 13.10 Beta V2
Ich empfinde das schon als Schlag ins Gesicht, und will überhaupt nicht wissen wie das mit der Mantle Optimierung dann aussieht das ist jetzt schon vollkommmen unnormal und die GTX wird hier deutlich unter Wert geschlagen.
PCGH sagt was anderes:
http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/
Wobei ich tendenziell bei dir bin, was den allgemeinen Tenor angeht.
Selbst wenn es derzeit so übel wäre - das wäre bestimmt nur temporär und per Treiber bald gefixt. Gab es umgekehrt ja auch schon, dass TWIMTBP Games auf Radeons erst ne Zeit bescheiden liefen (wenn sie überhaupt von Anfang an liefen - mit ein Grund für den schlechten Ruf der ATi / AMD-Treiber). nVidias Treiberteam ist ja gründlich und würde das vor Beta-Ende hinkriegen, da würd ich mir keine Sorgen machen.
Nightspider
2013-10-01, 20:18:12
Also heute haben wir ja die Antwort, und das ist schon wirklich eine Sauerei, sorry für die Ausdrucksweise aber es regt mich gerade etwas auf!
Gleicher Computer, einmal mit GTX 670 OC auf 1267/3600 und einmal mit HD 7950 1100/1375 da liegen im Schnitt 1/3 mehr FPS bei der AMD :-( Das ist wirklich sehr heftig!!! Normalerweise ist die GTX so wie sie übertaktet ist in Games mindestens genau so schnell wie die HD 7950 @1100/1375 hier ist das ein himmelweiter Unterschied und ich habe meine Antwort.
Hinzu kommt das die GTX immer wieder mit heftigen Ruckler zu kämpfen hat was die HD in diesem Ausmaß nicht zeigt, es werden auch gute 2 GB Speicher belegt bei 1920X1080 ohne DS ingame, kurz gesagt, die HD 7950 biete mit 4xAA mehr FPS wie die GTX ohne:-(
Eine HD 7970 GHz OC müsste meiner Meinung nach bei der BF4 Beta auf Titan Niveau agieren, soviel zu der Optimierung.
Das unter diesen Umständen eine R9 schneller ist wie eine Titan würde mich jetzt nicht wundern.
Treiber bei der GTX der 331.40 bei der HD 7950 13.10 Beta V2
Ich empfinde das schon als Schlag ins Gesicht, und will überhaupt nicht wissen wie das mit der Mantle Optimierung dann aussieht das ist jetzt schon vollkommmen unnormal und die GTX wird hier deutlich unter Wert geschlagen.
Sich eine Meinung von einer Beta zu bilden, wo noch gar nicht klar ist woran es wo hakt und das Ergebnis bei jedem zweiten User komplett anders aussieht halte ich für gewagt.
Sven77
2013-10-01, 20:24:43
Zumal ich nicht glaube das eine OC GTX670 mit einer OC HD7950 mithalten kann, die fliegt mit 1100Mhz regelrecht
aufkrawall
2013-10-01, 20:27:14
Zumal ich nicht glaube das eine OC GTX670 mit einer OC HD7950 mithalten kann, die fliegt mit 1100Mhz regelrecht
Nope, OC-670 ist 680. Komme mit meinen beiden etwa bei Unigine Heaven genau auf GTX 690-Niveau.
Die 7950 bei 1100 ist wahrscheinlich eher so bei 7970 non GE Stock anzusiedeln, oder etwas drüber.
4Fighting
2013-10-01, 20:27:27
Zumal ich nicht glaube das eine OC GTX670 mit einer OC HD7950 mithalten kann, die fliegt mit 1100Mhz regelrecht
äh ? eine 670er auf 1267 fliegt auch.
Die PCGH benches sind ja iirc alle mit 980mhz boost bei den 670ern
Mcdave
2013-10-01, 21:13:08
Ich habe mittlerweile 5 Runden gespielt, stets auf Ultra Details (ergo mit 4xMSAA) in 1080p und kann folgendes berichten:
3770K@4.3GHZ, 2133MHZ 8GB, GTX 670 Phantom@1300/3550@331.40HQ
Performance: Geht in Ordnung. Es läuft teilweise etwas stuckernd, obwohl meine GPU fast durchgehend mit 1300MHZ/3550MHZ läuft und entsprechend in GTX 770 Gefilden wildert (mal mehr, mal weniger). Der Prozessor geht nur selten über 50% Last hinaus, vermutlich bin ich fast durchgehend GPU-limitiert.
Wenn das zeitweilige Stottern noch weggeht, kann ich das Spiel guten Gewissens als wunderbar flüssig spielbar auf meinem PC bezeichnen. Der VRAM-Verbrauch ist gegenüber BF3 deutlich gestiegen und füllt die 2GB meiner Karte nicht selten vollständig aus.
Sound: Wie schon in BF3 sehr gut. Gute Ortbarkeit und wuchtige Effekte.
Grafik: Ebenfalls wie in BF3 sehr gut, aber meiner Meinung nach auch nicht besser. Ich frage mich, wo(für) hier die Rechenleistung verpufft wird. Es müsste schon deutlich besser aussehen als BF3, tut es aber nicht.
Lunica
2013-10-01, 21:30:52
Wenn BF4 (Final & darauf folgende WHQL Treiber) nicht halbwegs vernünftig auf Nvidia Hardware laufen sollte dann werden es sich eben auch sehr sehr viele nicht holen.
Ich bleibe erst mal bei BF3 und kaufe mir auch zukünftig garantiert keine AMD Grafikkarte.
Sollte BF4 mit Nvidia nicht gut laufen. Pech gehabt Dice/EA - Ein Käufer weniger.
So einfach ist das.
Ich empfinde das schon als Schlag ins Gesicht, und will überhaupt nicht wissen wie das mit der Mantle Optimierung dann aussieht das ist jetzt schon vollkommmen unnormal und die GTX wird hier deutlich unter Wert geschlagen.
Noch ist es eine Beta und WHQL fehlen ebenso.
Würde ich so jetzt noch nicht negativ werten... Entscheidend wird die Final sowie darauf folgende WHQL Treiber.
Außerdem steht es jedem Nvidia User frei das Spiel zu boykottieren. Wo liegt das Problem?
Werde es vermutlich auch boykottieren.
Angiesan
2013-10-01, 23:47:38
PCGH sagt was anderes:
http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Test-Grafikkarten-Benchmarks-1090869/
Wobei ich tendenziell bei dir bin, was den allgemeinen Tenor angeht.
Ich konnte bei denen schon nicht die Splinter Cell Black List Benches nachstellen, entweder haben die oder ich einen besonderen Rechner ;-)
Sich eine Meinung von einer Beta zu bilden, wo noch gar nicht klar ist woran es wo hakt und das Ergebnis bei jedem zweiten User komplett anders aussieht halte ich für gewagt.
Ja aber es zeigt eine Tendenz, wobei ich auch hoffe das es noch besser wird würde jetzt ungern wieder zum großen Tower wechseln wollen habe meinen Mini liebgewonnen :-)
Zumal ich nicht glaube das eine OC GTX670 mit einer OC HD7950 mithalten kann, die fliegt mit 1100Mhz regelrecht
Eine GTX mit 1200 MHZ ist normalerweise auf Augenhöhe mit der HD 7950 OC mit 1100 MHz das ist in etwa Gleichstand mal die eine mal die andere etwas schneller aber so krass war der Unterschied schon lange nicht mehr.
Nope, OC-670 ist 680. Komme mit meinen beiden etwa bei Unigine Heaven genau auf GTX 690-Niveau.
Die 7950 bei 1100 ist wahrscheinlich eher so bei 7970 non GE Stock anzusiedeln, oder etwas drüber.
Das geht schon sehr in Richtung GE
Ich habe mittlerweile 5 Runden gespielt, stets auf Ultra Details (ergo mit 4xMSAA) in 1080p und kann folgendes berichten:
3770K@4.3GHZ, 2133MHZ 8GB, GTX 670 Phantom@1300/3550@331.40HQ
Performance: Geht in Ordnung. Es läuft teilweise etwas stuckernd, obwohl meine GPU fast durchgehend mit 1300MHZ/3550MHZ läuft und entsprechend in GTX 770 Gefilden wildert (mal mehr, mal weniger). Der Prozessor geht nur selten über 50% Last hinaus, vermutlich bin ich fast durchgehend GPU-limitiert.
Wenn das zeitweilige Stottern noch weggeht, kann ich das Spiel guten Gewissens als wunderbar flüssig spielbar auf meinem PC bezeichnen. Der VRAM-Verbrauch ist gegenüber BF3 deutlich gestiegen und füllt die 2GB meiner Karte nicht selten vollständig aus.
Sound: Wie schon in BF3 sehr gut. Gute Ortbarkeit und wuchtige Effekte.
Grafik: Ebenfalls wie in BF3 sehr gut, aber meiner Meinung nach auch nicht besser. Ich frage mich, wo(für) hier die Rechenleistung verpufft wird. Es müsste schon deutlich besser aussehen als BF3, tut es aber nicht.
Ich finde es sieht besser aus wie BF3 aber der größte Sprung hat die Ortbarkeit der Schritt der Gegner gemacht endlich hört man die mal auch wenn die von hinten kommen :-)
Gerade das Stuckern was du beschreibst stört sehr und ich habe mir schon die Frage gestellt ob das auf die "nur" 2 GB VRam zurück zu führen ist weil der wird relativ oft voll belegt, geht aber auch bei der HD 7950 nicht über 2.1 GB, scheint gerade so die Grenze zu sein.
Könnte das mal jemand mit einer 4GB GK104 nachtesten bitte!
Iruwen
2013-10-02, 09:56:55
Offenbar hat sich AMD das ja ganz gut was kosten lassen:
http://hexus.net/gaming/news/pc/60729-amd-spent-much-8-million-eadice-battlefield-4-deal/
Frage mich eher, wieviel MS ausgegeben hat. Gibt ja jetzt schon wieder genug Leute, die wegen DX11.1 (da würde ich gerne mal Benches sehen, aber scheinbar läuft es damit ja erheblich besser) und diesem Spiel plötzlich zu Windows 8 überlaufen, obwohl jeder weiß, dass das die gleiche künstliche technische Limitierung aka Verarsche ist wie damals mit DX10 und Windows XP. Wobei ich das damals bei XP anbetrachts des Alters sogar verstehen konnte, aber im Hinblick auf die geringe Verbreitung von Windows 8 ist das einfach nur eine Frechheit. Insofern sehe ich auch als nVidianer Mantle als gar keine so schlechte Sache, um dieses widerliche Vorgehen von MS mal zu durchbrechen.
Gast³
2013-10-02, 12:00:40
Offenbar hat sich AMD das ja ganz gut was kosten lassen:
http://hexus.net/gaming/news/pc/60729-amd-spent-much-8-million-eadice-battlefield-4-deal/
Dann war das ja ein Schnäppchen: Exklusiv auf AMD Hardware, Mantle API implentiert (und in vielen/allen? anderen Frostbite 4 Titeln), Hawaii/BF4 Bundle.
Nvidia "hat" 5 Millionen für ACV und Watch Dogs bezahlt.
http://www.tomshardware.de/nvidia-ubisoft,news-249708.html
Das Problem ist nur: die Originalquelle für beide Behauptungen.
http://www.fudzilla.com/home/item/32673-amd-spent-millions-on-battlefield-4-deal
http://www.fudzilla.com/home/item/32693-nvidia-spends-5-million-on-ubisoft-deal
Alles klar. ;-) Der gute F(UD)uad mal wieder.
Gast³
2013-10-02, 12:01:57
Ääääh implementiert und Frostbite 3 nat.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.