PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia sorgt für "verbrannte Brücken" - Beziehung zu Spieleentwicklern


AnarchX
2010-10-14, 15:22:36
Ein Interview mit Richard Huddy von AMD zum Thema Entwicklerbeziehung mit ein paar deutlichen Anschuldigungen in Richtung Nvidia:

“I’m confused as to why you’d want to upset people. Historically, with nVidia, there’s the constant smell of burning bridges. Over time, they seem to damage relationships everywhere and, in the long term, if hampers them”, said Huddy when we asked about the differences each company has in approaching developer relations (DevRel).

http://www.kitguru.net/components/graphic-cards/ironlaw/nvidia-offers-the-constant-smell-of-burning-bridges-says-amd/

san.salvador
2010-10-14, 15:31:09
Abgesehen davon, dass ich da einen anderen Eindruck gewonnen habe: nVidia hat wenigestens Brücken, die verbrennen können.

Bucklew
2010-10-14, 15:44:56
So eine Laberbacke. Als ob die öffentlich von AMD losgetretene Schlammschlacht um Batmann:AA für AMD eine positive Wirkung auf ihr Image in Entwicklerkreisen hatte.

Eigentlich nur ne verdammt billige PR-Masche, auf die außer ein paar Fanboys wohl niemand anspringt.

Besonders lustig ist es dann, wenn man mit Entwicklern spricht, die Hilfe von AMD benötigt haben. Da kann man ja teilweise Geschichten hören....

Grey
2010-10-14, 15:51:57
zum Thema Entwicklerbeziehung

Dummerweise ist in dem "Interview" dahingehend eigentlich nichts zu lesen.

Die lose Veröffentlichung dieses Textes ist einfach nur schlechter Journalismus. Das Teil hätte man dann raus hauen sollen, wenn der Rest auch da ist.

Inhaltlich lässt der Text ohnehin zu Wünschen übrig.

BlackBirdSR
2010-10-14, 15:55:54
Und selbst wenn es so ist...
Bisher hat man das noch immer mit mehr Geld und Testsamples gerade biegen können. Das konnte AMD anscheinend noch nicht.

Der Markt kennt kein Fairplay.. da braucht man sich auch nicht über einen Mangel daran beschweren ;)

Black-Scorpion
2010-10-14, 18:40:03
So eine Laberbacke. Als ob die öffentlich von AMD losgetretene Schlammschlacht um Batmann:AA für AMD eine positive Wirkung auf ihr Image in Entwicklerkreisen hatte.

Eigentlich nur ne verdammt billige PR-Masche, auf die außer ein paar Fanboys wohl niemand anspringt.

Besonders lustig ist es dann, wenn man mit Entwicklern spricht, die Hilfe von AMD benötigt haben. Da kann man ja teilweise Geschichten hören....
Die haben ja genug Lehrstunden von Nvidia bekommen was Laberbacken und BS PR angeht.

LovesuckZ
2010-10-14, 19:02:55
Das ist das absolut beste Interview, das je jemand in dieser Industrie abgegeben hat. Soviel unsinn auf einem haufen lässt bei mir die Vermutung aufkommen, dass das ganze ein Fake der Seite ist und Huddy das nie gesagt hat.

Sollte es aber wirklich der Wahrheit entsprechen, dann scheint er seinen Verstand wohl irgendwo auf der Welt verloren zu haben.

Bucklew
2010-10-14, 20:39:43
Die haben ja genug Lehrstunden von Nvidia bekommen was Laberbacken und BS PR angeht.
So tief wie Huddy ist bisher noch nichtmal Ballmer mit seiner Linuxhetze im Niveau gefallen ;D

mapel110
2010-10-14, 20:53:49
kitguru ist doch bisher nur bekannt für Falschmeldungen und FUD. Ich hab auf der Seite noch nie was sinnvolles gelesen.

Cubitus
2010-10-14, 21:22:42
Wenns stimmt schwach von AMD.
Sein Eigenverschulden nicht eingestehen, kommt nie gut an ;)

Schlammsau
2010-10-14, 21:26:18
Is seh das nicht so tragisch...PR halt!

Aber schön zu sehen wie hier manche gleich auf die Palme gehn. :)

Iruwen
2010-10-15, 00:31:17
Dass du das nicht so tragisch siehst war jetzt aber auch keine echte Überraschung ;)

Armaq
2010-10-15, 01:00:36
Dass du das nicht so tragisch siehst war jetzt aber auch keine echte Überraschung ;)
Es gibt hier keine Überraschungen...

Schrotti
2010-10-15, 01:27:24
Oh doch (von den Gästen).

V2.0
2010-10-15, 07:25:59
Huddy hat in allen Punkten Recht.

Schlammsau
2010-10-15, 14:08:18
Dass du das nicht so tragisch siehst war jetzt aber auch keine echte Überraschung ;)

Tragisch deshalb nicht, weil es Marketing ist! ;)

Da wird irgendwas auf Bild Niveau geschrieben und schon springen die allergrössten Fanboys aus der Bresche, weil sie sich in ihrer Ehre verletzt fühlen.

Lasst den Text doch Text sein.

Aber ich muss noch hinzufügen, dass ich richtig heftige paralelen zu LovesuckZ Aussagen sehe. Ihr wisst schon was ich meine....das *piep* Wort!

Huddy meint zB:
"nVidia is pushing a single message and that’s tessellation"

Und genau das macht LZ, den ganzen Tag lang! Jeden Tag, seit dem es 400er Serie gibt. Tess Tess Tess Tess Tess.......

Seine Gekauftheitsvorwürfe sollte er langsam mal überdenken und das "Ihr seit gekauft" in "ich bin gekauft" umändern.

Iruwen
2010-10-15, 14:24:40
Und du springst zuverlässig jedesmal drauf an - auch verletzte Ehre? ;)

Bucklew
2010-10-15, 14:27:31
TUnd genau das macht LZ, den ganzen Tag lang! Jeden Tag, seit dem es 400er Serie gibt. Tess Tess Tess Tess Tess.......
Und? Hast du doch auch noch gemacht, als du Charlies "Fermi macht Tessellation per Shader und das wird gaaaaaaaaaanz langsam" noch geglaubt hast ;D

Schlammsau
2010-10-15, 14:29:59
Und? Hast du doch auch noch gemacht, als du Charlies "Fermi macht Tessellation per Shader und das wird gaaaaaaaaaanz langsam" noch geglaubt hast ;D
Ich hab Charlie noch nie was geglaubt!
Genauso wie jede andere Aussage, von irgendwelchen dubiosen Websiten!

Hör mit deinen Unterstellungen auf!

LovesuckZ
2010-10-15, 14:34:21
Und du springst zuverlässig jedesmal drauf an - auch verletzte Ehre? ;)

Nein, er muss es. Ist wie mit dem AF, mit Treibersupport, wie mit PhysX...
Konsequent muss er jedesmal die Vorteile negieren, um seine Firma besser darstehen zu lassen.
Das er gegen Tessellation ist, ist doch nur ein natürlicher Vorgang, weil seine Firma eben schlechter ist. Ihm sind die Vorteile von Tessellation ja auch egal. Er will es einfach nicht, weil es so pöhse ist.

Schlammsau
2010-10-15, 14:36:50
Und schon wieder das böse *beep* Wort. :rolleyes:

Bekommste von nVidia ne extra Prämie, wenn du es mehr als hundert mal am Tag in deine Posts baust?

Grey
2010-10-15, 15:23:39
Is seh das nicht so tragisch...PR halt!

Aber schön zu sehen wie hier manche gleich auf die Palme gehn. :)

Das ist keine PR, das ist einfach nur Rant. PR sieht anders aus...

deekey777
2010-10-16, 18:27:14
Huddy bleibt einfach seiner Linie treu.
Das Problem ist:
Der Spieler interessiert Nvidia nicht die Bohne. Nvidia interssieren nur potenzielle Käufer und diese Strategie geht voll auf. Pumpe ein Spiel mit Tessellation voll, mach alle darauf aufmerksam, überzeuge insbesondere Redakteure, dass das Fortschritt und schön ist, und schon hast du deutlich mehr potenzielle Käufer, von denen sich viele tatächlich eine Geforce holen.

LovesuckZ
2010-10-16, 20:02:38
Haha. I lol'd.
Genau. Da ist AMD besser. Zum Beispiel kein Ingame-AA in Batman. Ist ja besser, wenn man per CP gleich mal doppelt soviel Leistung verschwenden muss.
Oder DX11. Oder eher kein DX11. Seit 10 Monaten gibt es kein DX11 Spiel mehr in Zusammenarbeit mit AMD, dass Tessellation verwendet. Seit 7 Monaten überhaupt kein DX11 Spiel mehr. Mit Metro2033, CIV5, Lost Planet 2 und HAWX2 kommen alle in Zusammenarbeit mit nVidia, die wesentlich mehr bieten als AMD's traurige Versuche.
Und dann Starcraft 2. Da hat AMD wieder im Sinne des Kunden gehandelt. :lol:

AMD, die Gamerfirma, die nichts für den Gamer machen muss, um als Gamerfirma zu gelten.

Und vergessen wir nicht AMD's Open Source hier und offene Quelle dort. Seit 13 Monaten gibt es nichts. Nada. Nothing.
Seitdem wurde Batman, Dark Void, Star Trek D-C-A, Metro2033 und Mafia 2 mit GPU PhysX Support veröffentlicht. Außerdem unterstützt nVidia vollständige 3D Stereo Dekodierung über die GPU und ist mit GF104, GF106 und GF108 voll HDMI 1.4a kompartibel inkl. Infrastruktur für Gaming, Filme schauen und sonstigen Content.

Solange AMD ihr Geld nicht in kundenfreundliche Produkte und Support investiert, scheinen wohl nur gewisse Marketinginstrumente ihnen Käufer zu bringen. Traurig, dass Qualität sich nicht durchsetzt im Grafikkartenmarkt.

Schlammsau
2010-10-16, 20:40:29
Wer um Himmels Willen sagt, dass wir *beep* like Hell brauchen?

Das bist doch nur Du bzw eine gewisse Firma!!
Du bist genau das was Huddy über nVidia schreibt...1:1!

Hör auf damit, bis jetzt gab es erst 3 Titel, die *piep* sinnvoll eingesetzt haben.
DiRT2, AvP und CIV5! Komisch 2 davon wurden von ATi "gesponsert".
Alles andere war gequirlte Sch****, tut mir leid.

Mit weniger *peep* sieht ein Game auch toll aus, und Millionen von Dreiecken zu erzeugen, bringt nur nVidia etwas.
Man sieht doch mehr als deutlich, dass zB bei Heaven zwischen "normal" und "extreme" kaum eine visuelle Bereicherung vorhanden ist.
"Normal" wertet die IQ schon extrem auf, und dafür ist die Performance der HD5000 und HD6000 Serie mehr als ausreichend.

Also hör endlich auf der verlängerte Forenarm von nVidia zu sein und halt dich zurück!

Ich kanns nimma lesen, wie kann man nur so verbittert sein!? :P

(del)
2010-10-16, 21:05:34
So eine Laberbacke. Als ob die öffentlich von AMD losgetretene Schlammschlacht um Batmann:AA für AMD eine positive Wirkung auf ihr Image in Entwicklerkreisen hatte.Du kennst den Image von AMD (ATI) in Entwicklerkreisen? ERZÄHL :smile:

Solltest du allerdings mit "Es dürfte wohl kein Geheimnis sein" o.ä. anfangen wollen, dann kannst du es auch sein lassen =)

Gast
2010-10-16, 21:10:51
Wer um Himmels Willen sagt, dass wir *beep* like Hell brauchen?

Das bist doch nur Du bzw eine gewisse Firma!!
Du bist genau das was Huddy über nVidia schreibt...1:1!

Hör auf damit, bis jetzt gab es erst 3 Titel, die *piep* sinnvoll eingesetzt haben.
DiRT2, AvP und CIV5! Komisch 2 davon wurden von ATi "gesponsert".
Alles andere war gequirlte Sch****, tut mir leid.

Mit weniger *peep* sieht ein Game auch toll aus, und Millionen von Dreiecken zu erzeugen, bringt nur nVidia etwas.
Man sieht doch mehr als deutlich, dass zB bei Heaven zwischen "normal" und "extreme" kaum eine visuelle Bereicherung vorhanden ist.
"Normal" wertet die IQ schon extrem auf, und dafür ist die Performance der HD5000 und HD6000 Serie mehr als ausreichend.

Also hör endlich auf der verlängerte Forenarm von nVidia zu sein und halt dich zurück!

Ich kanns nimma lesen, wie kann man nur so verbittert sein!? :P

Ich kann Dich ja verstehen, aber genau dafür gibt's doch die Ignorierfunktion.
Alternativ sollte man einfach nicht mehr darauf eingehen. 90% überlesen die immerselben Phrasen von ihm ohnehin schon. Er lebt in seiner eigenen Welt; lass das sein Problem sein.

LovesuckZ
2010-10-16, 21:55:20
Für die Troll-AMD-Gäste und Members, die aus irgendeinem Grund AMD immer verteidigen müssen. Das sagte Huddy letztes Jahr über Tessellation:
(1) The positive mention of DX11 is a rarity in recent communications from NVIDIA - except perhaps in their messaging that 'DirectX 11 doesn't matter'. For example I don't remember Jensen or others mentioning tessellation (they biggest of the new hardware features) from the stage at GTC. In fact if reports are to be trusted only one game was shown on stage during the whole conference - hardly what I would call treating gaming as a priority!
http://forums.hexus.net/hexus-net/174266-news-amd-exec-says-nvidia-neglecting-gamers-2.html#post1806514

Gast
2010-10-16, 22:14:46
Der Spieler interessiert Nvidia nicht die Bohne. Nvidia interssieren nur potenzielle Käufer und diese Strategie geht voll auf.

Muss man sich das wirklich als AMDler einreden? Nvidia tut wesentlich mehr für die Kunden, sie machen Umfragen, sie investieren in Features und JA sie haben dann auch das Recht dafür zu werben!

=Floi=
2010-10-16, 22:53:37
Der Spieler interessiert Nvidia nicht die Bohne. Nvidia interssieren nur potenzielle Käufer und diese Strategie geht voll auf.

das stimmt so einfach nicht. es gibt genug gegenbeispiele und nv bräuchte auch nicht so viel machen...
hauptsache gegen nv geflamed... ;(

aths
2010-10-17, 15:49:48
Huddy bleibt einfach seiner Linie treu.
Das Problem ist:
Der Spieler interessiert Nvidia nicht die Bohne. Nvidia interssieren nur potenzielle Käufer und diese Strategie geht voll auf. Pumpe ein Spiel mit Tessellation voll, mach alle darauf aufmerksam, überzeuge insbesondere Redakteure, dass das Fortschritt und schön ist, und schon hast du deutlich mehr potenzielle Käufer, von denen sich viele tatächlich eine Geforce holen.Das würde ich so ganz pauschal nicht sagen. Der einzelne Dev-Supportler bei Nvidia wird sich schon für die Sache interessieren und auch das Spieler-Wohl im Auge haben. Natürlich werden die großen Entscheidungen nicht für das Spieler-Wohl, sondern für das Wohl von Nvidias Portemonaie gefällt. Mich regt jedes mal auf, dass sie es immer so hindrehen wie sie es brauchen. Und dann sollte DX10.1 unnütz sein (wenn ich an die Ausflüchte denke, steigt mein Puls.)

Obwohl mir das Marketing-Geseier beim Gepushe der jeweils aktuellen Technologie auch nicht so gefällt – jedes Jahr treiben die eine andere Sau durchs Dorf – halte ich es aus rein technologischer Sicht dann auch wieder für sinnvoll, Features möglichst früh zu implementieren. Mich nervt zwar tierisch dass die gerade aktuelle Sache als der heilige Gral angepriesen wird, als der nun endgültige Durchbruch zur Kino-Grafik. Trotzdem wäre die Implementation von Fähigkeiten der nFiniteFX-Engine, wäre mehr Vertexshader-Last, CineFX, Ultrashadow (uh, diese Marketingbegriffe) etc. in bestimmten Situationen auch damals durchaus sinnvoll gewesen. Tesselation jetzt ist wieder ein Schritt, als nächstes muss die Effizienz bei sehr kleinen Dreiecken steigen.

Es klänge nun sinnvoll, erst die Effizienz bei kleinen Dreiecken zu steigern und dann auf Tesselation zu setzen (so wie Huddy es andeutet). Doch ohne Tesselation gibt es kaum Gründe, die Verarbeitung von extrem kleinen Dreiecken zu verbessern.

(del)
2010-10-17, 16:13:28
Für die Troll-AMD-Gäste und MembersEs ist ja keine Plage. Auch auf 3DC gibt es dazu genug Ausgleich...

@Gast
das stimmt so einfach nicht. es gibt genug gegenbeispiele und nv bräuchte auch nicht so viel machen...Auch in den letzten Monaten offenbarte :| sich wieder so ein eigenartiger Trend, daß die Kundschaft sich zuerst wieder annehmbar laute Kühllösungen gewünscht hat. Davon also daß NV (oder auch ATI) zuviel machen kann noch lange keine Rede sein.

Nakai
2010-10-17, 16:30:27
Es ist lustig, wie sich manche Leute hier als die Weißheit letzter Schluss geben und dabei vergessen, dass sie sich immer mehr ins Abseits drängen. Die meisten Posts solcher Leute sind eh zu 95% nur Geflame und Rumgetrolle. Am Besten man sperrt mal solche Leute für einige Zeit, dann könnte man sich solche Scherereien sparen.

Huddy hat in allen Punkten Recht.

NV ist wie Nordkorea, bis darauf, dass es ihnen noch gut geht. Sie stehen fast mit dem Rücken an der Wand. Es gibt kaum noch Möglichkeiten, wie sie sich ausbreiten können. Die Flucht nach vorne ist die einzige Möglichkeit. NV versucht natürlich mit diesen Aktionen ihre eigene Stellung deutlich zu verbessern. Kritisieren kann man das eigentlich schon, nur ist es für NV völlig berechtigt solche Sachen zu tun. Ergo wayne...

Und ja, was Huddy da sagt ist marketingtechnisch deutlich unter NV-Niveau. Sich darüber aufzuregen ist schon ein bisschen zweigleisig...;D

Es ist ja keine Plage. Auch auf 3DC gibt es dazu genug Ausgleich...

Lol...


mfg

LovesuckZ
2010-10-17, 16:53:07
Wenn der Vergleich mit Nordkorea nicht perse schon so absurd ist, stellst sich mir die Frage: Wie kann nVidia Nordkorea sein, wenn AMD gegenüber ihren eigenen Kunden eher als Tyrann auftritt, der die Freiheit stark eingrenzt? :lol:

Schlammsau
2010-10-17, 20:06:24
Den Vergleich zu Nordkorea find ich doch sehr weit hergeholt....aber dennoch, nVidia will uns "Features" wie zB *piep* oder PhysX aufzwingen, die nicht von jedem gleich positiv aufgenommen werden, weil sie extrem viel Leistung brauchen bzw. eine neue Grafikkarte erfordern.
Gerade diese beiden Features, sind nicht als ein "must have" anzusehen, sondern eher als ein "nice 2 have".

Manchmal ist halt weniger mehr.....aber das versteht der verlängerte Marketingarm leider nicht, bzw darf er es sich nicht eingestehen.
Nicht alles was nVidia für uns macht, ist uneingeschränkt empfehlbar. Schon gar nicht, wie es zumeist umgesetzt wird.

boxleitnerb
2010-10-17, 20:17:55
Mehr ist immer mehr. Und mehr ist immer besser. Der Kunde kann sich schließlich das rauspicken, was er haben möchte.

(del)
2010-10-17, 23:41:26
Mehr ist immer mehr. Und mehr ist immer besser.Geht so...
klick (http://4.bp.blogspot.com/_f98opUNuVXc/SRAYtrK7OiI/AAAAAAAADjU/FFClQh7UJA8/s400/woman.jpg)

boxleitnerb
2010-10-18, 10:02:32
Den Spam kannst du dir sparen, interessiert niemanden. Danke.

MiamiNice
2010-10-18, 10:24:04
Is seh das nicht so tragisch...PR halt!

Aber schön zu sehen wie hier manche gleich auf die Palme gehn. :)


Also ich sehe im Thread nur einen der auf die Palme geht und das bist Du :)

Cubitus
2010-10-18, 10:56:59
Den Vergleich zu Nordkorea find ich doch sehr weit hergeholt....aber dennoch, nVidia will uns "Features" wie zB *piep* oder PhysX aufzwingen, die nicht von jedem gleich positiv aufgenommen werden, weil sie extrem viel Leistung brauchen bzw. eine neue Grafikkarte erfordern.
Gerade diese beiden Features, sind nicht als ein "must have" anzusehen, sondern eher als ein "nice 2 have".

Manchmal ist halt weniger mehr.....aber das versteht der verlängerte Marketingarm leider nicht, bzw darf er es sich nicht eingestehen.
Nicht alles was nVidia für uns macht, ist uneingeschränkt empfehlbar. Schon gar nicht, wie es zumeist umgesetzt wird.

Nvidia muss einfach kreativ sein!
Intel und AMD sind ernste Konkurrenten!

Nvidia ist schon in gewissen Sachen innovativer und bei der Ideen-Umsetzung vor allem schneller als AMD!

Nvidia hatte z.b rechtzeitig das Potenzial des GPU-Computings begriffen, also baute- und forcierte man Cuda aus.
Jetzt soll Cuda ja auch noch x86 kompatibel gemacht werden.

Dann setzte Nvidia schon im jahre 2008 auf die Wiederbelebung der Stereoskopie, nachdem abzusehen war,
dass nach dem Blu Ray 1080p Boom die ersten 3D Fernseher kommen werden!

Bei den Games ist es auch nicht anders, SLI wurde nach dem Desaster der 5900er Serie, mit der 6800er Serie neu eingeführt. Natürlich mussten auch die Chipsätze, damals der Nforce 4, dafür ausgelegt sein, weil Nvidia natürlich mit seinen eigenen Produkten Absatz machen wollte.

Genauso ist es heute mit Physix oder 3D Vision!
Natürlich wären offene Standards für uns Konsumenten besser, AMD versagt einfach in seiner Rolle als Heilsbringer für offene Standards!
Weil AMD einfach zu träge ist!

Nvidia hat sich seit 2004 immer mehr im Entwickler-Umfeld etabliert, AMD bzw damals noch ATI hat einfach gepennt.
AMD führt diese Taktik leider fort, und konzentriert sich "leider" nur drauf gute Grafikarten zu entwickeln!
Das Drum herum kümmert AMD nicht! Auch die Spieler sind AMD in dem Sinne anscheinend nicht so wichtig, so bekommt man beim Nvidia Bug Report wenigstens ein ordentliches Feedback und im nächsten Treiber ist das gefixt. AMD braucht für die Fixes im Catalyst teilweise wirklich lange! Obwohl in vielen Foren immer wieder nach Problemlösungen verlangt wird.

Nakai
2010-10-18, 11:30:19
Wenn der Vergleich mit Nordkorea nicht perse schon so absurd ist, stellst sich mir die Frage: Wie kann nVidia Nordkorea sein, wenn AMD gegenüber ihren eigenen Kunden eher als Tyrann auftritt, der die Freiheit stark eingrenzt?

Der Vergleich war unpassend, aber er ist dem/der Diskussionsniveau/absurdität hier in jeder Hinsicht mindestens ebenbürtig.

Nvidia ist schon in gewissen Sachen innovativer und bei der Ideen-Umsetzung vor allem schneller als AMD!

Die Hardware is da, das KnowHow auch. Man investiert eigentlich deutlich mehr in Softwarelösungen als AMD. Da ist eher der größere Unterschied. NV ist nicht mehr so ein Hardwarehersteller, wie viele hier denken.


mfg

Iruwen
2010-10-18, 15:06:06
Da Software ohne entsprechende Hardware genauso wenig wert ist wie Hardware ohne entsprechende Software sind sie wohl beides.

LovesuckZ
2010-10-18, 15:21:42
Genauso ist es heute mit Physix oder 3D Vision!
Natürlich wären offene Standards für uns Konsumenten besser, AMD versagt einfach in seiner Rolle als Heilsbringer für offene Standards!
Weil AMD einfach zu träge ist!


nVidia unterstützt jeden offenen Standard - sei es DC, OpenCL, HDMI 1.4a für Stereo3D. AMD dagegen unterstützt mit ihren Konsumerkarten nur offiziell DC.
Es ist auch nicht nVidia's Aufgabe Geld und Zeit in ein Produkt zu investieren, dass dann kostenfrei der Konkurrenz zur Nutzung zur Verfügung steht. Und da AMD anscheinend nicht in der Lage ist nach über 2 Jahren etwas zu liefern, scheint Open Source für Innovation kein Heilsbringer zu sein.

LadyWhirlwind
2010-10-19, 01:13:52
Ich muss dich leider entäuschen, AMD und OpenCL:


http://developer.amd.com/gpu/ATIStreamSDK/PublishingImages/stream_V3_longbnr.jpg
http://developer.amd.com/gpu/ATIStreamSDK/Pages/default.aspx

HDMI: 1.4a
Und das du erwartest das die AMD-KArten die ein halbes Jahr vor der fertigstellung des entsprechenden Standards auf den Markt kamen, das unterstüzen ist doch nicht dein ernst.

Und zum Thema OpenSource: man kann da ja logischerweise keine Lizenzkosten verlangen, man muss also die Investition in Entwickler anders amortisieren, war doch recht schwer ist.

LovesuckZ
2010-10-19, 02:06:12
Wieviele Kunden mit einer Consumerkarte werden sich wohl das SDK bzw. den OpenCL Part extra installieren? Fakt ist, AMD unterstützt offiziell kein OpenCL mit ihren Consumertreibern und damit auch ihren -karten.

Und wer sich als "Open Source 3D" Verfechter ansieht, sollte auch tunlichst alle Standard für 3D unterstützen. Dazu gehört auch HDMI 1.4a. Da hätte man dementsprechend eine neue Revision der Evergreenkarten auf den Markt bringen müssen.

Pirx
2010-10-19, 09:00:44
HDMI 1.4a ... das erinnert mich irgendwie an Pixelshader 1.4 ... tunlichst!