PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was ist denn auf eimal mit Nvidia los?


SamLombardo
2013-02-25, 13:57:51
Sagt mal geht es nur mir so, oder habt Ihr auch das Gefühl, dass Nvidias Support irgendwie an Qualität verloren hat. Ich bin zunehmend unzufrieden. NV hatte lange Jahre (auch bei mir) den Ruf, für Qualität zu stehen, dafür zu sorgen, dass sich PC Grafik vom Einheitsallerlei der Konsolengrafik abhebt. Nvidia, so dachte ich, hat exzellenten Kontakt zu den Entwicklern und sorgt dafür, dass erstens Games auf NV Hardware super laufen und zudem die Grafik durch die Exklusivfeatures und 3D Support weiter gesteigert wird. Bei AMD kam es mir dagegen lange zeit so vor als seien denen die Spieler ziemlich egal. Das hat sich in den letzten Monaten leider etwas geändert. Die meisten AAA Titel sind AMD Supported, TWIMTBP Titel gibt es kaum noch, „Gaming Envolved“ dafür gefühlt überall. PhysX ist so gut wie tot, SLI Support war auch schon mal besser, 3D Vision Support gibt es quasi gar nicht mehr. Nicht zu fassen, die Technik mehr schlecht als recht von der Community am Leben gehalten werden muss. AMD dagegen scheint seine Hausaufgeben gemacht zu haben, was den Entwicklersupport angeht. Die Folge ist halt auch, dass ein Crysis 3, das insgesamt unbestritten toll aussieht auf einmal wieder flache, Tessellation-freie Hauswände hat. Aber das nur am Rande. Es kommt mir fast so vor als sieht Nvidia keinen Sinn mehr im Gamer PC Geschäft. Man konzentriert sich augenscheinlich auf Tegra oder solche merkwürdigen Dinge wie den Nvidia Handheld. Das soll kein Bash sein, ich finde die Grafik Hardware immer noch klasse. Den Hersteller/Games Support nicht mehr. Mit den NextGen Konsolen wird es wohl leider kaum besser. Was meint Ihr?


Gruß Sam

Gaestle
2013-02-25, 14:03:47
AMD wird IMHO in Zukunft stärker werden, dank der Konsolen-Deals. Schau mal, wie gut die Phenoms in Crysis 3 funktionieren. Das ist vielleicht erst der Anfang.

Der PC-Game-Markt schrumpft bei steigenden Investitionskosten. Im mobilemn Markt ist dagegen ein großes Wachstum zu erwarten.
Es ist für NVidia IMHO überlebensnotwendig, sich außerhalb des PC-Gamer-Marktes stärker zu engagieren. Und eine Arbeitsstunde kann nur einmal geleistet werden, man muss sich entscheiden.

MadManniMan
2013-02-25, 14:07:39
(...) 3D Vision Support gibt es quasi gar nicht mehr. (...)

Aye.

Nvidia vergisst, dass auch Sachen, die nicht direkt Kohlen abwerfen, zum Geschäft dazu gehören.

fondness
2013-02-25, 14:10:26
Das mit Roy Taylor der Verantwortliche für das TWIMTBP-Programm bei Nvidia zu AMD gewechselt ist, ist kaum zu übersehen. Er hat damals bei NV diese ganzen Beziehungen aufgebaut und voran gerieben und scheint jetzt bei AMD das gleiche zu tun.

Blediator16
2013-02-25, 14:11:03
AMD wird IMHO in Zukunft stärker werden, dank der Konsolen-Deals. Schau mal, wie gut die Phenoms in Crysis 3 funktionieren. Das ist vielleicht erst der Anfang.

Der PC-Game-Markt schrumpft bei steigenden Investitionskosten. Im mobilemn Markt ist dagegen ein großes Wachstum zu erwarten.
Es ist für NVidia IMHO überlebensnotwendig, sich außerhalb des PC-Gamer-Marktes stärker zu engagieren. Und eine Arbeitsstunde kann nur einmal geleistet werden, man muss sich entscheiden.


http://www.computerbase.de/news/2013-02/deutsche-spieleindustrie-2012-mit-neuem-verkaufsrekord/

mironicus
2013-02-25, 14:16:36
AMD hat den Vorteil, dass sie CPU + GPU in einem einzigen Chip verbauen und anbieten können. Da kann NVidia nicht mithalten. Alle Konsolen laufen jetzt nur noch mit AMD-Hardware, das wird auch Auswirkungen auf den PC-Gamingmarkt haben.

Iruwen
2013-02-25, 14:38:16
3D Vision und PhysX sind proprietäre Nischentechnologien die sich gar nicht erst hätten durchsetzen sollen, wenn die sterben dann zurecht. Ansonsten ist der Support was Treiber, Features usw. aus Kundensicht angeht einwandfrei. Sei es in den offiziellen oder externen Foren, dank entsprechender NV Reps. Zu Devrel kann ich wie die meisten anderen hier (die sich aber natürlich trotzdem nicht davon abhalten lassen) nichts sagen. Dass der SLI-Support nachgelassen haben soll halte ich für ein Gerücht, im Gegenteil reicht Nvidia da ständig neue Features und Profile nach. AMD tut praktisch nichts in dem Bereich.

Ätznatron
2013-02-25, 14:41:40
http://www.computerbase.de/news/2013-02/deutsche-spieleindustrie-2012-mit-neuem-verkaufsrekord/

Würde nVidia PC-Games herstellen, wäre das für nVidia ja schön.

Aber dadurch haben sie keine einzige Grafikkarte mehr verkauft.

schreiber
2013-02-25, 14:45:51
physx wird auch weiterhin auf den Konsolen zum Einsatz kommen. so schnell stirbt das nicht.

Cubitus
2013-02-25, 14:46:48
SLI support ist doch ok. Treiberupdates folgen auch brav. 3D vision Profile gibt es weiterhin. Technik wurde letztes Jahr erst durch lightboost 2.0 aufgefrischt. Was mir wirklich sorgen macht ist der game support da hat AMD wirklich aufgeholt. Was ja an sich nicht schlecht ist. Nur nvidia muss drann bleiben.

Matrix316
2013-02-25, 14:56:31
AMD hat den Vorteil, dass sie CPU + GPU in einem einzigen Chip verbauen und anbieten können. Da kann NVidia nicht mithalten. Alle Konsolen laufen jetzt nur noch mit AMD-Hardware, das wird auch Auswirkungen auf den PC-Gamingmarkt haben.
So lange man keine APU hat, die die Leistung eines 8350 mit der 7970 kombiniert, dürften diese im PC Markt keine so große Rolle beim Gaming spielen...

Aber haben wir uns nicht früher über die "TWIMTBP" Games aufgeregt, weil die mit AMD Karten schlechter liefen?! Nividia liefert mit der GTX680, 690 und Titan immer noch mit die schnellsten Karten. AMD darf da IMO ruhig etwas aufholen. Vielleicht werden die wieder mal so gut, dass die neuen AMDs dann 900 Euro kosten und sich alle aufregen, dass neue Grafikkarten so teuer sind. ;)

M4xw0lf
2013-02-25, 15:12:23
AMD wird IMHO in Zukunft stärker werden, dank der Konsolen-Deals. Schau mal, wie gut die Phenoms in Crysis 3 funktionieren. Das ist vielleicht erst der Anfang.

Witzigerweise ist der Mensch, der AMDs aktuelle Konsolendeals eingefädelt hat jetzt bei....? Genau: Nvidia :freak:
Könnte bei einer hypothetischen nächsten Generation also wieder andersrum aussehen.

Tesseract
2013-02-25, 15:32:54
der SLI-support ist so gut wie nie zuvor und nach wie vor wesentlich besser als crossfire, ich versteh die aufregung überhaupt nicht.
und welches logo beim start des spiels aufscheint... wen genau interessiert das? wichtig ist wie die spiele selbst laufen.
fehlende geometrie liegt mit ziemlicher sicherheit nicht an AMD oder dessen programmen sondern an den konsolen als lead-plattform die keine tessellation beherrschen.

Matrix316
2013-02-25, 15:33:17
Wobei es IMO schon komisch ist, dass alle drei Konsolenhersteller, fast die gleiche Hardwarebasis haben. Kann da nicht das Kartellamt einschreiten für Intel und nvidia? Müssen die sich nicht veräppelt vorkommen?

Tesseract
2013-02-25, 15:37:05
Wobei es IMO schon komisch ist, dass alle drei Konsolenhersteller, fast die gleiche Hardwarebasis haben. Kann da nicht das Kartellamt einschreiten für Intel und nvidia? Müssen die sich nicht veräppelt vorkommen?

was ist daran komisch? intel hat keine brauchbare GPU und nvidia keine brauchbare CPU und selbst wenn wären ihre lösungen vermutlich teurer gewesen.

SamLombardo
2013-02-25, 15:37:20
Ja, vielleicht habe ich das etwas überspitzt geschrieben. Aber der Trend ist denke ich leider nicht zu leugnen.
Und btw, ich spreche nicht von den Treibern, da gibt es nichts zu meckern imho. Nein, ich rede vom Dev. Support. Und hier ist es bezeichnend wenn ein Crysis 3 vor drei Wochen auf einmal still und leise von der geforce.com Games Liste verschwindet um dann auf einmal bei AMD aufzutauchen (mit der Folge, dass Tessellation an Figuren (die gab es sogar in den Videos noch) und Mauern nicht mehr da ist).
Und @Cubitus, klar hat NV letztes Jahr 3D Vision 2 rausgebracht, aber was nützt dass, wenn neuere Spiele nur noch mit Community Mod (Far Cry 3) oder gar nicht mehr (Assassins Creed 3) laufen. Hier wäre der Dev Support gefragt, nur ist davon weit und breit nix mehr zu sehen. Die nächsten Spiele die mich interessieren, Bioshok Infinite und Tomb Raider sind -wer hätte es gedacht- AMD Gaming Envolved. 3D Vision Support und Tessellation Einsatz der über Makulatur hinaus geht haben damit wohl schon aus Prinzip erledigt. Würde ich ja an AMDs stelle genauso machen. Nee Freunde, da gibt es nix zu beschönigen für NV im Moment.
Naja vielleicht sehe ich es wirklich zu schwarz, wir werden sehen.

Berserkus
2013-02-25, 15:38:47
Nividia liefert mit der GTX680, 690 und Titan immer noch mit die schnellsten Karten.

Dir ist schon klar das die 7970GHz Edition sowie die existierenden 7990 schneller als ihre NV Kandidaten sind, vor allem dann wen auch noch die Auflösung höher als FullHD ist?

Einzig die Titan darf momentan als schnellste Single Graka gelten.

Tesseract
2013-02-25, 15:42:30
Ja, vielleicht habe ich das etwas überspitzt geschrieben. Aber der Trend ist denke ich leider nicht zu leugnen.

zu 3d vision kann ich nix sagen weil ich es nicht verwende und auch nicht viel davon halte aber bzgl. SLI ist das was du schreibst ganz einfach nicht richtig.

Und hier ist es bezeichnend wenn ein Crysis 3 vor drei Wochen auf einmal still und leise von der geforce.com Games Liste verschwindet um dann auf einmal bei AMD aufzutauchen (mit der Folge, dass Tessellation an Figuren (die gab es sogar in den Videos noch) und Mauern nicht mehr da ist).
das ist reine verschwörungstheorie. tessellation wird dann großflächig kommen wenn die neuen konsolengenerationen da sind und ein großteil der spieler dazu fähige hardware hat. davor wird tessellation immer ein "draufgeklatschtes" feature sein auf das im entwicklungsprozess nicht all zu viel rücksicht genommen wird.

Iruwen
2013-02-25, 15:47:34
Dir ist schon klar das die 7970GHz Edition sowie die existierenden 7990 schneller als ihre NV Kandidaten sind
Balkenlänge ist nicht alles, sollte sich mittlerweile rumgesprochen haben.

Matrix316
2013-02-25, 15:52:10
Dir ist schon klar das die 7970GHz Edition sowie die existierenden 7990 schneller als ihre NV Kandidaten sind, vor allem dann wen auch noch die Auflösung höher als FullHD ist?

Einzig die Titan darf momentan als schnellste Single Graka gelten.
Naja, aber sooo viel schneller ist die GHz Edition z.B. auch wieder nicht. Gibt auch Games wo Nvidia vorne ist.

was ist daran komisch? intel hat keine brauchbare GPU und nvidia keine brauchbare CPU und selbst wenn wären ihre lösungen vermutlich teurer gewesen.


Ich kann doch bei Intel die CPU und sonstige Chips bestellen und bei nvidia die GPU und dazu noch die Rambausteine und alles auf ein neues PCB klatschen und würde ein Gerät zusammenkriegen, gegen das die neuen AMD Comboboxen für PS4, WiiU und XBox ziemlich alt aussehen dürften. Unified Ram hin oder her. Obs teurer wäre, wäre auch die Frage. Man bezahlt ja dann nicht die Retailpreise im Handel, sondern nur die Chips.

Cubitus
2013-02-25, 15:53:02
Dir ist schon klar das die 7970GHz Edition sowie die existierenden 7990 schneller als ihre NV Kandidaten sind, vor allem dann wen auch noch die Auflösung höher als FullHD ist?

Einzig die Titan darf momentan als schnellste Single Graka gelten.

Und dir ist klar das man bei CF Kopfschmerzen bekommt ;)

Watson007
2013-02-25, 16:00:52
Ich finds gut. Jahrelang wurde einseitig auf Intel & NVidia optimiert und da war das okay?

Durch die Konsolendeals wird AMD eindeutig mehr Einfluss bei Spielen gewinnen. Hoffentlich reicht es damit AMD wieder mehr Marktanteile gewinnt und wieder in die schwarzen Zahlen kommt.

Mir wollte es nie so recht in den Kopf dass AMD immer schlecht gemacht wurde, so als ob der zweite Platz bereits nichts mehr wert wäre - nur bei Prozessoren wird das so hart geurteilt, nirgendwo sonst. Wer schafft es schon mit Intel dauerhaft mitzuhalten? Bei Endanwender-PCs gibt es nur die Wahl zwischen Intel und AMD, und AMD krebst jahrzehntelang an der Wirtschaftlichkeitsgrenze herum, imho völlig unterbewertet der Verein.

Mal schauen, also ich hoffe dass AMD und Sony wieder Aufwind bekommen.

w0mbat
2013-02-25, 16:00:57
Balkenlänge ist nicht alles, sollte sich mittlerweile rumgesprochen haben.

Ja, deshalb nochmal ein Extrapunkt für AMD.

StefanV
2013-02-25, 16:05:14
3D Vision und PhysX sind proprietäre Nischentechnologien die sich gar nicht erst hätten durchsetzen sollen, wenn die sterben dann zurecht.
Full ACK


Ansonsten ist der Support was Treiber, Features usw. aus Kundensicht angeht einwandfrei.
Naja, hier ist es eher so, dass der hinterherlaufende der gearschte ist, das war aber eigentlich immer so. Siehe nVidia zu 3DFX Hochzeiten, oder andere...

Aber, wie gesagt, das war immer so. Ich fürchte auch, dass sich das Märchen über die super tollen nVidia Treiber bald erledigen wird. Wenn alle Welt auf AMD programmiert, ist nVidia der hinterherlaufende. Und dann werden die Würfel neu gerollt...

boxleitnerb
2013-02-25, 16:08:15
Ja, deshalb nochmal ein Extrapunkt für AMD.

So ein Unsinn. Und das weißt du auch.

PrefoX
2013-02-25, 16:09:06
Ja, deshalb nochmal ein Extrapunkt für AMD.
nein denn die minfps werte sind bei nvidia deutlich besser, deswegen ein punkt für nvidia..

Watson007
2013-02-25, 16:09:29
der einzige Grund für NVidias Shield-Konsole dürfte jedenfalls die Tatsache sein dass sie die Konsolendeals diesmal verkackt haben....

eine einzige Trotzreaktion, sonst hätten sie sie nicht entwickelt. Glaube aber kaum dass sie damit ihren Einfluss halten können.

imho zahlt es sich jetzt erst langsam aus dass AMD ATI gekauft hat.

TobiWahnKenobi
2013-02-25, 16:27:18
der SLI-support ist so gut wie nie zuvor und nach wie vor wesentlich besser als crossfire, ich versteh die aufregung überhaupt nicht.
und welches logo beim start des spiels aufscheint... wen genau interessiert das? wichtig ist wie die spiele selbst laufen.
fehlende geometrie liegt mit ziemlicher sicherheit nicht an AMD oder dessen programmen sondern an den konsolen als lead-plattform die keine tessellation beherrschen.

+1

aber das AMD-logo kann ich nicht ertragen.. ich will, dass es verschwindet :P sooofort.. global.. immer und überall.. es muss weg!!!
btw, vllt könnten wir dann bytheway gleich noch alle mexikaner loswerden, dann freut sich mr. garrison.


(..)

mfg
tobi

TheRaven666
2013-02-25, 16:27:56
Full ack.

nVidia's Support und Treiber haben verdammt stark nachgelassen. Mir scheint als sind die Typen imagemäßig nur noch drauf bedacht im absoluten High-End einen "exzellenten" (d.h. wir sind die Größten!) Ruf zu genießen und sonst nichts. Ihr Produktportfolio ist lückenhaft und P/L können sie mit AMD auch nicht konkurrieren. Dazu warte ich immernoch auf ein Fix für den RSOD bei 2x Full-HD Downsampling mit der GTX 680. Dazu ist der neue Titan ein Blender, eine Marketing-Nebelkerz ohne Gleichen.

Für mich gibt es keinen Grund zur nächsten Upgradegeneration nicht wieder zu AMD zurückzukehren. nVidia würde ich insgesamt aktuell als Saftladen bezeichnen, welcher in den Foren von seinen Fanboys lebt.

Watson007
2013-02-25, 16:30:21
NVidia geht auch stark davon aus dass es stationäre Konsolen bald nicht mehr geben wird:

Im vergangenen Herbst hatte Nvidia-Manager Phil Eisler in einem langen Interview gesagt, dass sein Unternehmen vom nahen Ende der stationären Konsolen wie der Xbox und der PlayStation ausgeht. Die kommende Generation dieser Konsolen werde wohl die letzte sein, sagte Eisler. Die Zukunft gehöre dem Cloud-Gaming.

http://www.zeit.de/digital/games/2013-01/ces-nvidia-project-shield-konsole

imho ein Irrglaube seitens NVidia.

boxleitnerb
2013-02-25, 16:34:00
Bzgl. DS:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9464653&postcount=5729
Btw wie sieht das bei AMD aus? Sonderlich hoch kommt man nicht ohne SSAA-Tool (das auch bei Nvidia läuft) und mit neueren Treibern lassen sich gar keine neuen Auflösungen mehr erstellen. Umständlich ist das Procedere bei den Roten diesbezüglich sowieso mit zwingenden Umwegen über bestimmte Auflösungen. Aber wir meckern lieber über Nvidia, wo man mit den bekannten Einstellungen aus obigem Link in 3 Sekunden 2160p fahren kann.

Bzgl. Lücken:
Die gibts auch bei AMD. 7850 ist gute 50% schneller als 7770. Kaufst du jetzt auch kein AMD mehr?

Bzgl. Titan:
Zwingt dich ja niemand, ihn zu kaufen.

Also schiebst du falsche bzw. irrelevante Gründe vor, wenn es um zukünftige Kaufentscheidungen geht? Und nicht - wie es sich eigentlich gehört - die Wettbewerbsfähigkeit der Produkte zum Kaufzeitpunkt. Wow. Ich meine Wow, das ist wirklich totaler Unsinn.

TobiWahnKenobi
2013-02-25, 16:38:18
ne 7850 hatte ich letzte woche auch - eigentlich nur wg. des never settle bundles, aber hey.. das ding war genauso fehlerhaft wie die drei 7970er, die ich 2012 hatte.. allein dieses grüne grieseln in dunklen bildbereichen, wenn ich per HDMI auf den beamer gehe, ist unerträglich. mit DVI->HDMI gehts zwar, aber da gibts keinen ton und ohne bitstream gucke ich auf der wand keine blurays. tjo.. bei NV funktionierts.. über jeden ausgang.. egal ob GTX560, 680 oder 690.. *strange* sind wohl meine beiden projektoren (acer 5360bd, acer h6500) nvidia biased.. :-)


(..)

mfg
tobi

Thunder99
2013-02-25, 16:39:12
Ich verstehe euch auch nicht.

Der Support ist besser als jemals zuvor, da gemeldete Bugs beseitigt werden und auf die Community gehört wird (Stichwort SGSSAA, LOD bei DX11). Klar das es ärgerlich ist wenn was nicht funktioniert (Downsampling), aber evt ist dort ein Fehler vorhanden der nicht einfach so gefixed werden kann?! ;)

Bei meiner letzten AMD Karte (7950) ist mir aufgefallen, dass hinterlegte Profile mal nicht geladen wurden..., soviel zur Treiber Qualität.

Daher sehe ich nvidia immer noch Vorne, aber AMD holt endlich mal auf :up: Konkurrenz auf Augenhöhe ist immer gut für den Kunden ;)

Gipsel
2013-02-25, 16:45:10
das ding war genauso fehlerhaft wie die drei 7970er, die ich 2012 hatte.. allein dieses grüne grieseln in dunklen bildbereichen, wenn ich per HDMI auf den beamer gehe, ist unerträglich.Dein Beamer verlangt einen leicht oberhalb der Specs liegenden Signalpegel. Hatte fast genau das Gleiche (es waren eher rote Griesel) vor einem Jahr mit einem 24" Samsung Monitor. Ist ein Garantiefall für Deinen Beamer (oder Du hast ein zu langes, mieses HDMI-Kabel, irgendwo überschreitest Du auf jeden Fall die eingebauten Toleranzen).

So oder so, das ist entweder ein Thema für die Hardware-Hilfe oder hier wenig zielführend. Irgendeinen random AMD vs. nV Bashthread benötigen wir hier nicht.

TobiWahnKenobi
2013-02-25, 16:51:07
in 2012 hatte ich drei projektoren - meinen 4 jahre alten H5360, einen ganz neuen H5360BD und einen H6500. völlig identische verhaltensweisen, was die zuspielung von AMD-HDMI angeht. mit der ausnahme, dass die 7970 noch arge probleme mit dem ton über HDMI hatte. da war das signal im single-display-betrieb nicht vorhanden oder brach sekündlich weg, kam wieder, brach weg..

es gab workarounds, wie z.b. im klonbetrieb bleiben oder im CCC das LCD-overdrive an und wieder abzuschalten. diese "macke" hatte die 7850 nicht. dafür aber besagtes HDMI-grieseln.

btw,
die karte starb übrigens noch am ersten tag. mit angestecktem 6pin-stecker liess sich das system nicht mehr starten (NT schaltete nicht mehr ein).

spiele hin oder her - solange ich mich mich sowas rumschlagen muss, bleibt der fade beigeschmack, dass ich mit AMD immer fummeln und stundenlang rumhandtieren muss; für ganz alltägliches. da soll echt mal einer behaupten "NV tut nix" - wenn die "nichts tun" was tut dann AMD alles nicht??

ja, ich finds auch schade, denn man könnte echt ne menge geld sparen.

video zum crappy HDMI-sound: http://www.youtube.com/watch?v=GpkivP5969w&list=UUcTChBD8HaHKE4gTJlwrV0A&index=9
video zum crappy video @klon: http://www.youtube.com/watch?v=iDQma0kqqEk&list=UUcTChBD8HaHKE4gTJlwrV0A
video zum crappy HDMI-sync: http://www.youtube.com/watch?v=eGgcbV_W1ko&list=UUcTChBD8HaHKE4gTJlwrV0A
video zum crappy BF3-erlebnis ohne sync: http://www.youtube.com/watch?v=73oLCtAgRZg&list=UUcTChBD8HaHKE4gTJlwrV0A

..das könnte ich unendlich fortführen - 2012 war ein zeit und testintensives AMD-jahr 4 me

btw,
es geht mir auch überhaupt nicht um bashing. denn der lagacy-driver für die AMD-IGP im zweitrechner hat diese verhaltensweisen nicht - da verhält sich alles erwartungsgemäß. der wehrmutstropfen an der IGP ist nur, dass sie kein bitstreaming beherrscht und nur PCM über HDMI ausgeben kann. da ist der workaround eine soundkarte mit live-kodierung für filmgenuss.


(..)

mfg
tobi

Gipsel
2013-02-25, 16:54:00
Ja, Du bist Einer der Wenigen, die immer die fehlerhaften Karten bekommen. Jetzt weiter mit dem Thema!

Tesseract
2013-02-25, 17:09:10
Ich kann doch bei Intel die CPU und sonstige Chips bestellen und bei nvidia die GPU und dazu noch die Rambausteine und alles auf ein neues PCB klatschen und würde ein Gerät zusammenkriegen, gegen das die neuen AMD Comboboxen für PS4, WiiU und XBox ziemlich alt aussehen dürften. Unified Ram hin oder her. Obs teurer wäre, wäre auch die Frage. Man bezahlt ja dann nicht die Retailpreise im Handel, sondern nur die Chips.

das ist viel teurer. erstens ist in der größenordnung ein SoC billiger als 2+ einzelchips, zweitens sind nvidia und besonders intel generell teurer/strenger bei solchen deals oder waren es zumindest bisher immer.

und unified ram ist ein gewaltiger vorteil in einer geschlossenen, einheitlichen konsole.

Atma
2013-02-25, 17:22:56
Anders gefragt: Hat es Nvidia überhaupt nötig so um die Gunst der Entwickler und Kunden zu buhlen wie derzeit AMD?

Trotz der höheren Preise verkaufen sich die 600er Karten wie geschnitten Brot und die Zahlen vom letzten Geschäftsjahr könnten nicht besser sein.

99 von 100 Spielen laufen out of the box sehr, sehr gut auf Nvidia Karten und benötigen nicht erst ein "Wundertreiber", der nach einem Jahr plötzlich die Fps pusht oder Bugs beseitigt. Sollte doch mal ein Treiber nötig sein, erscheint vor oder zum Release des jeweiligen Spiels einer. Auch sonst läuft aus der Sicht eines Gamers doch alles hervorragend. Der SLI Support ist besser denn je und wird ständig verbessert, man pflegt den Kontakt zur Community, bietet vom ganz kleinen bis zum ganz großen Geldbeutel eine entsprechende Karte an, im Laufe der Zeit wird die Performance stetig verbessert usw. usw.

Wenn Nvidia den GK104 Refresh oder Maxwell nicht komplett vergeigt, wüsste ich nicht, warum ich mich von Nvidia abwenden sollte. Bin absolut zufrieden.

aufkrawall
2013-02-25, 18:15:31
Kaum flimmert das AMD-Logo bei den meisten Spielen zur Begrüßung, ist Nvidia auf einmal schlecht. :freak:
Hat das AMD-Marketing ganze Arbeit geleistet.

Ich weiß auch nicht, was das Gemecker soll. Bugs werden bei NV gefixt. Nicht unbedingt schnell, aber hauptsache es tut sich was. Das Grundniveau ist gut.

SLI läuft gut. Wenn es das mal nicht tut, tut es das entweder nach einer manuellen Profilanpassung, einem Treiberupdate oder einem Anwendungs-Fix.
Ich wüsste auch mal gerne, welches Spiel, das mit SLI nicht gut rennt, es mit Crossfire tun soll.

Empfinde die Treiber momentan als sehr stabil. Installiert -> läuft.

Black-Scorpion
2013-02-25, 18:29:11
Es gibt sogar Bugs die regelmäßig alle Jahre wieder gefixt werden. :rolleyes:
Frage mich allerdings warum wenn die doch so gut sind.

HOT
2013-02-25, 18:33:46
physx wird auch weiterhin auf den Konsolen zum Einsatz kommen. so schnell stirbt das nicht.

PhysX ist toter als tot. Als einzige Physikschnittstelle ist Havok übriggeblieben und diese wird jetzt wohl als neue Engine TressFX vor allem für die Konsolen und PC wieder aufleben, mit dicker AMD und Intel-Hardwareunterstützung.
Man muss das mal sehen: Havok gehört Intel, kooperiert aber supereng mit AMD und bietet Software für alle Plattformen (von Android bis Windows).

SamLombardo
2013-02-25, 18:33:49
Ich sage doch gar nicht, dass NV schlecht sei. Sie müssen halt nur aufpassen. Gerade der "Draht" zu den Entwicklern war ihmo NVs größtes Kapital. Und hier scheinen sie an Boden zu verlieren. NV Karten finde ich ansich gut (habe ja auch eine GTX670), auch das Bestreben sich durch Features (PhysX, Cuda, 3D Vision) bzw. Leistung (Tessellation) von der Konkurrenz absetzen zu wollen finde ich ansich gut. Alles was einen grafischen Mehrwert gegenüber dem Konsoleneinheitsbrei bringt, findet meine Unterstützung.
Nur: Was nützen die ganzen theoretischen Möglichkeiten, wenn der Dev Support nicht stimmt. Entwickler die von AMD Support bekommen (Envolved Programm) werden die NV Potentiale aus Prinzip brach liegen lassen. Und das ist nicht AMD vorzuwerfen (wie gesagt, ich würde es an AMDs Stelle genau so machen), sondern NV. Besinnt Euch mal wieder auf alte Tugenden, Nvidia!

Meine Meinung:wink:

aufkrawall
2013-02-25, 18:35:45
Es gibt sogar Bugs die regelmäßig alle Jahre wieder gefixt werden. :rolleyes:
Frage mich allerdings warum wenn die doch so gut sind.
Welche? Und ist das bei AMD besser?

PhysX ist toter als tot.
CPU-PhysX ist ziemlich lebendig.

HOT
2013-02-25, 18:39:41
NV hat keine Chance mehr im PC-Geschäft. Intel wird immer stärker (vor allem Broadwell wird da grafisch einen Gewaltsprung machen im Mobilbereich) und AMD hat annähernd die komplette Spielebranche unter der Fuchtel durch die Konsolen. Die Mobilmarkt bricht für NV demnächst zu 99% weg und das PC-OEM-Geschäft ebenfalls. Bleibt nur noch High-End-Gaming - das lohnt für NV alleine nicht. Also muss man weiter auf ARM und HPC setzen und muss schauen, was für den PC als Grafikkarte machbar ist. Wenn es sich jedoch nicht mehr lohnt, ist NV raus aus dem Markt. NV wird schon lange von Intel und AMD aus dem PC-Geschäft verdrängt, konnte sich aber bisher immer durch Leistung behaupten. Das wird aber immer schwieriger, weil Intel immer mehr aufholt im Grafikbereich.

[...]
CPU-PhysX ist ziemlich lebendig.

Nein, es liegt im sterben. Man braucht es nicht mehr, ganz einfach. Für Spiele ab nächstem Jahr, also für die neuen Konsolen, ist PhysX einfach unbrauchbar. Und nur für den PC macht sich keiner den Aufwand, zumal die Konsolen eine Schnittstelle mitbringen. NV finanziert solche Spielchen ja auch kaum noch.

Black-Scorpion
2013-02-25, 18:42:01
Welche? Und ist das bei AMD besser?


CPU-PhysX ist ziemlich lebendig.
Es gibt immer wieder den Bug das Videos Grün anlaufen. Scheint ja doch die Lieblingsfarbe vom Chef zu sein.
Und das die Rede von GPU Physx war sollte dir wohl einleuchten. Im übrigen kannst du dir deine ewigen Anspielungen zu AMD sparen wenn von Nvidia die Rede ist. Das du AMD nicht haben willst und die eh nur Schrott bauen dürfte mittlerweile jeder im Forum wissen. Das brauchst du nicht bei jeder Gelegenheit zu bringen.

aufkrawall
2013-02-25, 18:49:57
Es gibt immer wieder den Bug das Videos Grün anlaufen.

Ich glaub eher, du läufst grün an, wenn du hier in die Tasten haust. ;D
Tut mir leid, aber du erzählst Blödsinn.


Und das die Rede von GPU Physx war sollte dir wohl einleuchten.

Und?
GPU-PhysX ist zu teuer, von daher kanns imho weg. Schon allein, weils so proprietärer Kram ist.


Im übrigen kannst du dir deine ewigen Anspielungen zu AMD sparen wenn von Nvidia die Rede ist. Das du AMD nicht haben willst und die eh nur Schrott bauen dürfte mittlerweile jeder im Forum wissen. Das brauchst du nicht bei jeder Gelegenheit zu bringen.
Man kann halt schlecht einen IHV bewerten, ohne mal den Vergleich zur Alternative zu bringen.
Aber dass du lieber einen NV-Bashthread haben willst, ist natürlich verständlich.
Im Übrigen gibts hier auch junge Berichte, dass die Videobeschleunigung bei AMD ebenfalls gerne mal rumspackt...

Tesseract
2013-02-25, 18:50:18
CPU-PhysX ist ziemlich lebendig.
und gleichzeitig ziemlich sinnlos. damit physik halbwegs gut rüber kommt muss diese auf eine größere menge von objekten anwendbar sein und dafür fehlt der CPU einfach die rechenkraft. ingame-physik hat sich seit HL2 subjektiv kaum verbessert, das wird sie erst wenn sie im größeren stil und globaler angewendet wird und das muss nunmal mit GPGPU gemacht werden.

aufkrawall
2013-02-25, 18:53:57
und gleichzeitig ziemlich sinnlos. damit physik halbwegs gut rüber kommt muss diese auf eine größere menge von objekten anwendbar sein und dafür fehlt der CPU einfach die rechenkraft. ingame-physik hat sich seit HL2 subjektiv kaum verbessert, das wird sie erst wenn sie im größeren stil und globaler angewendet wird und das muss nunmal mit GPGPU gemacht werden.
Aber es muss ja nicht dieses dösige PhysX sein, das nicht mal mit AFR skaliert.
Das Nvidia-Marketing hatte in seinem Größenwahn sich bestimmt vorgestellt, dass sich jeder ne dedizierte Karte für PhysX reinsteckt. So was muss natürlich floppen.
Gegen eine offene Lösung, die mit AFR skaliert, hätte ich nichts einzuwenden. Dann setzt es sich mal durch und genug Rechenpower für mehr als ne Diashow hat man auch noch.

Ronny145
2013-02-25, 19:25:40
und gleichzeitig ziemlich sinnlos. damit physik halbwegs gut rüber kommt muss diese auf eine größere menge von objekten anwendbar sein und dafür fehlt der CPU einfach die rechenkraft. ingame-physik hat sich seit HL2 subjektiv kaum verbessert, das wird sie erst wenn sie im größeren stil und globaler angewendet wird und das muss nunmal mit GPGPU gemacht werden.


Warum wird es dann trotzdem so häufig eingesetzt, wenn es so sinnlos ist?

Tesseract
2013-02-25, 19:39:28
Warum wird es dann trotzdem so häufig eingesetzt, wenn es so sinnlos ist?

funktional ist es ja nicht sinnlos, aber es skaliert nicht gut genug auf der CPU und ist deswegen nicht für... ich nenne es mal "next-gen-physik-effekte" einsetzbar.
das fällt im prinzip in einen ähnlichen bereich wie z.B. raytracing. funktional interessant aber einfach zu ineffizient um es gut einsetzen zu können.

Black-Scorpion
2013-02-25, 20:26:09
Ich glaub eher, du läufst grün an, wenn du hier in die Tasten haust. ;D
Tut mir leid, aber du erzählst Blödsinn.


Und?
GPU-PhysX ist zu teuer, von daher kanns imho weg. Schon allein, weils so proprietärer Kram ist.


Man kann halt schlecht einen IHV bewerten, ohne mal den Vergleich zur Alternative zu bringen.
Aber dass du lieber einen NV-Bashthread haben willst, ist natürlich verständlich.
Im Übrigen gibts hier auch junge Berichte, dass die Videobeschleunigung bei AMD ebenfalls gerne mal rumspackt...
Woher zum Geier soll ich wissen was gerade bei AMD spinnt? Ich habe eine Nvidia im Rechner. Bist du jetzt seht enttäuscht das nicht jeder mit einer grünen Karte so drauf ist wie du?

Schaffe89
2013-02-25, 21:24:46
physx wird auch weiterhin auf den Konsolen zum Einsatz kommen. so schnell stirbt das nicht.

CPU Physx sicherlich, aber kein GPU Physx.

Ja, deshalb nochmal ein Extrapunkt für AMD.

Die Aussage ist angesichts der miesen Frametimes in einigen Spielen totaler Blödsinn, außer man läuft alle Spiele seitwärts.
Gerade Hitman spielt sich auf ner GTX 660 Ti flüssiger als auf einer HD 7970 ghz.

AMD wird IMHO in Zukunft stärker werden, dank der Konsolen-Deals. Schau mal, wie gut die Phenoms in Crysis 3 funktionieren. Das ist vielleicht erst der Anfang.

Ich denke dass man sich dadurch auf jeden Fall einen guten Vorteil errechnen kann, wenn nicht sogar soweit, dass AMD wiede rmehr dedizierte Grafikkarten absetzen kann als Nvidia.

Ich fürchte auch, dass sich das Märchen über die super tollen nVidia Treiber bald erledigen wird.

Ich hatte in den letzten Jahren bei Hersteller und mit keinem sonderliche Probleme.

nein denn die minfps werte sind bei nvidia deutlich besser, deswegen ein punkt für nvidia..


Absoluter pauschaler Bullshit diese pauschale Aussage. Welche Benches sollen das bitte zeigen?
Zeig mir einen und ich finde einen wo die Min. FPS bei Nvidia schlechter sind und dann bekommst du einen Keks.

aber das AMD-logo kann ich nicht ertragen.. ich will, dass es verschwindet

Da muss der Schmerz ja tief sitzen... in der Kindheit schon mit AMD Karten geschlagen worden? o.O

nVidia würde ich insgesamt aktuell als Saftladen bezeichnen, welcher in den Foren von seinen Fanboys lebt

Nvidia verkauft sich aktuell als der Premium Grafikkartenhersteller, was man mit besseren SLI Treibern und weniger µrucklern bei Single GPU´s sowie GPU Physx begründen kann, es gibt sogar einige die diese Features mit Premium Hersteller verbinden.

Ich tue das zwar nicht, aber es gibt wie gesagt einige.

Deswegen verkauft Nvidia aktuell immernoch etwas mehr Karten, als AMD.

NVidia geht auch stark davon aus dass es stationäre Konsolen bald nicht mehr geben wird:

Die Hardware zum berechnen braucht man so und so noch, nur mal als Denkanstoß.
Außerdem scheitert eine komplette Cloudberechnung immernoch am Käufer.
Warum werden wohl mehr DVD´s und Blu Ray´s verkauft, als Filme Online gemietet, obwohl die Infrastruktur schon lange bereit dazu wäre?

igentlich nur wg. des never settle bundles, aber hey.. das ding war genauso fehlerhaft wie die drei 7970er, die ich 2012 hatte.. allein dieses grüne grieseln in dunklen bildbereichen, wenn ich per HDMI auf den beamer gehe, ist unerträglich. mit DVI->HDMI gehts zwar, aber da gibts keinen ton und ohne bitstream gucke ich auf der wand keine blurays.

Und du bist so einer von den Leuten die man egal was sie sagen nie ernst nehmen kann, weil sie sowas von biased sind, das sie sich grieseln und son zeug vielleicht einbilden und bei Lösungen die nicht perfekt für den Käufer sind, sofort das Gerät das man gekauft hat verteufeln und nicht nach Lösungen suchen, die evtl. andere Geräte als Fehlerquelle finden, wie zum Beispiel deinen Beamer.

99 von 100 Spielen laufen out of the box sehr, sehr gut auf Nvidia Karten und benötigen nicht erst ein "Wundertreiber", der nach einem Jahr plötzlich die Fps pusht oder Bugs beseitigt.

Eigentlich waren es Nvidiakarten die am Anfang in BF3 mit stottern zu kämpfen hatten, vor allem unter Nutzung von vsync.
Rage ist aktuell mit einer Nvidiakarte ( GTX 670 Palit) im ersten Level fast unspielbar, weil die Texturen aus irgendeinem Grund in Zeitlupe geladen werden.

Auf dem AMD Rechner läuft es, Grund unbekannt.
Der Wundertreiber hat eigentlich gar keine Bugs gefixed, sondenr die Performance verbessert.
Als strategisches Mittel wird gerne das positive dazu benutzt negatives unterzubringen und somit 2 Fliegen mit einer Klappe zu schlagen, in deinem Fall trifft es wohl zu.

Kaum flimmert das AMD-Logo bei den meisten Spielen zur Begrüßung, ist Nvidia auf einmal schlecht.

Naja das war ja wohl auch nicht der einzige Punkt der relevant war.

Der 3D Support von Nvidia ist wirklich weniger genauso sieht es so aus, als ob sich AMD mehr in die Richtung des Spielesupports bewegt, während Nvidia etwas zurückstecken muss.

Hat das AMD-Marketing ganze Arbeit geleistet.

Nvidias bessere "Qualität" kommt zu einem enormen Teil auch daher, dass man in den Spielen mit Logos präsent ist.

Nein, es liegt im sterben. Man braucht es nicht mehr, ganz einfach.

Es gibt keinen Grund CPU Physx auszuschliessen, es ist offen, hat gute Bibliotheken.
Deine Aussage ist viel zu einfach gestrickt, klingt nicht gerade danach als ob du wissen würdest wovon du redest.

also für die neuen Konsolen, ist PhysX einfach unbrauchbar.

Genau, deswegen steht es wohl mit in der Supportliste, weil unbrauchbar. -.-

Das du AMD nicht haben willst und die eh nur Schrott bauen dürfte mittlerweile jeder im Forum wissen.

Und du betreibst das gegenteil, und fühlst dich dabei besser? Oder wie? lol

funktional ist es ja nicht sinnlos, aber es skaliert nicht gut genug auf der CPU und ist deswegen nicht für... ich nenne es mal "next-gen-physik-effekte" einsetzbar.

Das Problem ist dass man immer von next gen redet, aber nichts gescheites kommt. Next Gen bedeutet einen hohen Aufwand was die Realisierung anbedarf, das wird niemand für einfachere gestrickte Spiele benutzen, deswegen CPU Physx.

Matrix316
2013-02-25, 21:26:51
das ist viel teurer. erstens ist in der größenordnung ein SoC billiger als 2+ einzelchips, zweitens sind nvidia und besonders intel generell teurer/strenger bei solchen deals oder waren es zumindest bisher immer.

und unified ram ist ein gewaltiger vorteil in einer geschlossenen, einheitlichen konsole.
Och, wenn man Notebook Komponenten nimmt wie ein Core i7-3612QM und dazu vielleicht die GeForce GTX 680M oder so könnte man das relativ preiswert und auch Stromsparend machen.

Man könnte sogar zusätzlich einen Nividia Tegra 4 einbauen, den man für das Betriebsystem nutzt und wenn man dann ein Spiel startet, switcht man zur dedizierten Hardware.

samm
2013-02-25, 21:33:02
Ich sage doch gar nicht, dass NV schlecht sei. Sie müssen halt nur aufpassen. Gerade der "Draht" zu den Entwicklern war ihmo NVs größtes Kapital. Und hier scheinen sie an Boden zu verlieren. NV Karten finde ich ansich gut (habe ja auch eine GTX670), auch das Bestreben sich durch Features (PhysX, Cuda, 3D Vision) bzw. Leistung (Tessellation) von der Konkurrenz absetzen zu wollen finde ich ansich gut. Alles was einen grafischen Mehrwert gegenüber dem Konsoleneinheitsbrei bringt, findet meine Unterstützung.
Nur: Was nützen die ganzen theoretischen Möglichkeiten, wenn der Dev Support nicht stimmt. Entwickler die von AMD Support bekommen (Envolved Programm) werden die NV Potentiale aus Prinzip brach liegen lassen. Und das ist nicht AMD vorzuwerfen (wie gesagt, ich würde es an AMDs Stelle genau so machen), sondern NV. Besinnt Euch mal wieder auf alte Tugenden, Nvidia!

Meine Meinung:wink:Ich glaube eigentlich nicht, das nVidia in diesem Bereich wirklich abgebaut hat. HW und Treiber sind gut as usual, was man so liest ("liest", da ich derzeit keine hab ;)), mit den üblichen Bugs hie und da. Insofern glaube ich nicht, dass überhaupt etwas spezielles "los" ist bei der Firma, sondern bestenfalls AMD (verzweifelt?) am Aufholen ist. Indem das Treiberteam sich massiv umstrukturiert hat und gezielter an Features und auch mit der Community gearbeitet wird, macht man da sicher Fortschritte. Ich weiss auch nicht, inwieweit GamingEvolved wirklich Dev-Support bietet, der so weit geht wie TWIMTBP, oder sich auf monetäre Unterstützung + Code-Schnipsel beschränkt im Gegenzug zum Logo.

Meine Meinung ist deswegen, das nVidia nicht abbaut, sondern AMD in einigen Gebieten im Aufbau ist, in denen nVidia früher relativ konkurrenzlos unterwegs war. Daher stammt, so meine Theorie, der subjektive Eindruck, der im Eingangsposting geschildert wird, und nicht auf Tatsachen fusst.

TobiWahnKenobi
2013-02-25, 22:31:49
@schaffe

du solltest richtig lesen statt alles zu relativieren oder die leute als unwissend hinzustellen. hinzu kommt, dass erhöhte aufmerksamkeit beim lesen auf deiner seite, auf meiner seite doppelgetippe erspart. ich hatte 2012 drei HD7970 (und ebensoviele GTX680) und genausoviele projektoren. zwei davon habe ich immernoch. und nein, die AMD-sorgen rühren weder von defekten endgeräten noch von irgendwelchen kabeln.

und was skills angeht respektive deine anekdote mit dem in der kindheit geschlagen werden -> ich glaube ich habe schon geräte getestet und artikel (http://www.heise.de/suche/?q=tobias+bartz&search_submit.x=0&search_submit.y=0&rm=search)geschrieben als viele hier noch mit windeln rumliefen und dem alter waren, wo etwas schläge als erzieherische maßnahme durchaus eine option gewesen wäre.


(..)

mfg
tobi

aufkrawall
2013-02-25, 22:33:48
Woher zum Geier soll ich wissen was gerade bei AMD spinnt? Ich habe eine Nvidia im Rechner. Bist du jetzt seht enttäuscht das nicht jeder mit einer grünen Karte so drauf ist wie du?
Ich kann dir nur sagen, dass ich jetzt bei mehreren Jahren Nvidia-Nutzung auf kein Problem beim H.264/VC-1/MPEG2 Dekodieren über die VPU gestoßen bin.
Du könntest deine "grünes Bild"-Aussage ja auch mal etwas belegen, etwa mit betroffener Hardware, Treiberversion, Abspielprogramm, Videosample...



Eigentlich waren es Nvidiakarten die am Anfang in BF3 mit stottern zu kämpfen hatten, vor allem unter Nutzung von vsync.

Das war ein allgemeines Problem bei Vsync mit Kepler.
Das war aber eigentlich auch schon der gröbste Patzer, sonst war da nicht viel.
Early Adopter Risiko, GCN war noch länger kein Zuckerschlecken. ;)


Rage ist aktuell mit einer Nvidiakarte ( GTX 670 Palit) im ersten Level fast unspielbar, weil die Texturen aus irgendeinem Grund in Zeitlupe geladen werden.

Hat AMD denn mal OpenGL 4.3 Unterstützung eingebaut?
Wenn die nix großartig im OGL-Treiber werken, ist halt auch die Gefahr geringer, dass was kaputt geht.
Zumal OGL dafür ja nicht unbekannt ist.


Der 3D Support von Nvidia ist wirklich weniger genauso sieht es so aus, als ob sich AMD mehr in die Richtung des Spielesupports bewegt, während Nvidia etwas zurückstecken muss.

3D ist ganz klar schlechter geworden, ok. Interessiert mich persönlich aber nicht.
Wegen Spielesupport: Wo muss Nvidia zurückstecken?
Einige AMD-Titel liefen zu Release auf Nvidia schneller als auf AMD.

TobiWahnKenobi
2013-02-25, 22:39:26
Ich kann dir nur sagen, dass ich jetzt bei mehreren Jahren Nvidia-Nutzung auf kein Problem beim H.264/VC-1/MPEG2 Dekodieren über die VPU gestoßen bin.

im grunde richtig - es gab aber 2008 mal ausfallerscheinungen in verbindung mit interlaced-AVC-material, wenn man per coreAVC über CUDA dekodiert hat.


(..)

mfg
tobi

Tesseract
2013-02-25, 22:40:45
Das Problem ist dass man immer von next gen redet, aber nichts gescheites kommt. Next Gen bedeutet einen hohen Aufwand was die Realisierung anbedarf, das wird niemand für einfachere gestrickte Spiele benutzen, deswegen CPU Physx.

weil die hardwarebasis ganz einfach nicht da ist.
ein beispiel: regen, der nach dem fall in der landschaft abrinnt. sowas kann extrem stimmungsvoll sein, braucht aber hardware die stark genug ist. den content muss man dafür kaum anpassen aber die CPU kannst du da vergessen. das ist einfach etwas, das man schwer "erschummeln" kann und was von der implementierung auch nicht unglaublich komplex ist sondern einfach brutal rechenleistung kostet wenn es nach was aussehen soll.
deswegen wird man sowas nicht sehen so lange ein großer teil der spieler midrange-grakas oder gimp-konsolen zuhause hat. da schmiert man dann lieber mit ein bischen post-processing drüber und verkauft das als "details".

Och, wenn man Notebook Komponenten nimmt wie ein Core i7-3612QM und dazu vielleicht die GeForce GTX 680M oder so könnte man das relativ preiswert und auch Stromsparend machen.
nie im leben bekommst du damit einen vergleichbaren preis hin und unified memory hast du dann auch keinen.

aufkrawall
2013-02-25, 22:45:07
im grunde richtig - es gab aber 2008 mal ausfallerscheinungen in verbindung mit interlaced-AVC-material, wenn man per coreAVC über CUDA dekodiert hat.

Ok, CUVID MPEG4-asp war vor einiger Zeit auch teilweise kaputt.
Das ist aber 3rd Party Featureset, auf das man gut verzichten kann.
DXVA ist seit Fermi afaik eigentlich rockstable.

TobiWahnKenobi
2013-02-25, 22:57:13
Ok, CUVID MPEG4-asp war vor einiger Zeit auch teilweise kaputt.
Das ist aber 3rd Party Featureset, auf das man gut verzichten kann.
DXVA ist seit Fermi afaik eigentlich rockstable.

ich habe das gar nicht mehr weiter verfolgt.. AFAIR ist hier nur ein cyberlink-produkt installiert, das auf DXVA besteht. andere konserven spiele ich seit äonen mit ffdshow ohne DXVA ab.

dass etwas par tout nicht funktioniert, ist mir in dem dreivierteljahr mit (vier) kepler (karten) genau 1x passiert -> forceware 310.90 ist auf GTX690 reproduzierbar nicht nutzbar gewesen. nur was das kein beinbruch, da es ja genug andere treiber gab (.64 und .70 waren super). schlimmer wäre man in solchen fällen mit einem IHV gekniffen, der einen auf den treiber des nächsten monats hoffen lässt.. jeden monat aufs neue.


(..)

mfg
tobi

Matrix316
2013-02-25, 23:00:57
[...]

nie im leben bekommst du damit einen vergleichbaren preis hin und unified memory hast du dann auch keinen.
Unified Memory hab ich im PC auch nicht (könnte man aber auch bei einer getrennten CPU und GPU verbauen, oder?) und der ist immer noch schneller als die PS4 und XBOX720 sein werden.

Tesseract
2013-02-25, 23:10:59
Unified Memory hab ich im PC auch nicht (könnte man aber auch bei einer getrennten CPU und GPU verbauen, oder?) und der ist immer noch schneller als die PS4 und XBOX720 sein werden.

ja, weil die rohpower viel größer ist, das ganze viel mehr strom verbrauchen und viel mehr platz einnehmen darf. da kann man problemlos ineffizienz mit dem holzhammer erschlagen und ist am ende trotzdem noch viel schneller und selbst dann gibt es szenarien wo ein system mit unified memory einer getrennten lösung die hosen auszieht. sowas hat man aber bisher kaum irgendwo verwendet weil man rücksicht auf die getrennten architekturen genommen hat. mit einem gemeinsamen speicher kann man viele nette dinge machen die bisher de facto kaum sinnvoll möglich waren.

und nein, einen tatsächlich gemeinsamen speicher bei dem beide komponenten potenziell zugriff auf die komplette bandbreite haben ist kaum sinnvoll zu realisieren, erst recht nicht mit komponenten von der stange.

M4xw0lf
2013-02-26, 07:28:16
Och, wenn man Notebook Komponenten nimmt wie ein Core i7-3612QM und dazu vielleicht die GeForce GTX 680M oder so könnte man das relativ preiswert und auch Stromsparend machen.

Man könnte sogar zusätzlich einen Nividia Tegra 4 einbauen, den man für das Betriebsystem nutzt und wenn man dann ein Spiel startet, switcht man zur dedizierten Hardware.

Gratuliere, dann hättest du eine Konsole mit Gaming-Laptop Leistung zu Gaming-Laptop Preisen - 1500€ aufwärts :freak:

Matrix316
2013-02-26, 10:05:32
Gratuliere, dann hättest du eine Konsole mit Gaming-Laptop Leistung zu Gaming-Laptop Preisen - 1500€ aufwärts :freak:
Och, ich brauch ja kein Display, keine Tastatur, kein Touchpad, keine WebCam etc.. Man braucht ja nur die Chips, eine HD und ein BR Laufwerk + Controller halt. Ich meine selbst für den Desktop kostet eine GTX680 und ein i7 zusammen "nur" ca. 700 Euro oder so. Naja, vielleicht geht auch eine 650M und ein mobiler i5-3. ;)

ndrs
2013-02-26, 10:22:13
Och, ich brauch ja kein Display, keine Tastatur, kein Touchpad, keine WebCam etc..

Das spart dann höchstens 100€.
Naja, vielleicht geht auch eine 650M und ein mobiler i5-3. ;)
Und schon ist die Leistung wieder geringer als die der PS4.

Sven77
2013-02-26, 10:46:32
Und schon ist die Leistung wieder geringer als die der PS4.

Jup... aboslut muessig da zu diskutieren, die Vorteile der Konsolen liegen ja auch woanders.. um bestimmte Spiele zu spielen braucht man eine Konsole weil sie schlicht und ergreifend auf dem PC nicht erscheinen.

Eher zum Thema:
Die letzten 6 Karten die ich hatte waren alles Nvidia. Davor hatte ich eine 850XT, die war nicht das gelbe vom Ei aber ok. Die 7950 die ich jetzt eingebaut habe verrichtet genauso ihren Dienst wie die Nvidias (abseits von ein paar HDMI Problemen). Wenn man kein Multi-GPU benutzt sehe ich im Moment keinen Grund zu Nvidia zu greifen, ihre Preispolitik macht es ja nicht besser.

Auf der Arbeit haben wir 30 Rechner mit Nvidia Karten, und da machen die Treiber oft genug zicken..

Lowkey
2013-02-26, 10:54:06
Die Probleme mit AMD/Nvidia Treibern sind kein Vergleich zum aktuellen Support von Asus für Windows 8.

Skysnake
2013-02-26, 11:04:13
Witzigerweise ist der Mensch, der AMDs aktuelle Konsolendeals eingefädelt hat jetzt bei....? Genau: Nvidia :freak:
Könnte bei einer hypothetischen nächsten Generation also wieder andersrum aussehen.
Naja, aber sooo viel schneller ist die GHz Edition z.B. auch wieder nicht. Gibt auch Games wo Nvidia vorne ist.




Ich kann doch bei Intel die CPU und sonstige Chips bestellen und bei nvidia die GPU und dazu noch die Rambausteine und alles auf ein neues PCB klatschen und würde ein Gerät zusammenkriegen, gegen das die neuen AMD Comboboxen für PS4, WiiU und XBox ziemlich alt aussehen dürften. Unified Ram hin oder her. Obs teurer wäre, wäre auch die Frage. Man bezahlt ja dann nicht die Retailpreise im Handel, sondern nur die Chips.
Das willst du 1. nicht zahlen, und 2. gehen dir viele Vorteile durch den unified RAM verloren. Und das ganze PCB usw usw wird auch massiv teurer. nVidia und Intel hatten halt einfach kein konkurrenzfähiges Angebot. Ich weiß auch gar nicht, was daran jetzt so schlimm ist. AMD hat halt ALL ihre Stärken genau in einem Produkt gebündelt, dass den Kunden (Sony/MS) halt voll reingelaufen ist. Das nennt sich ein "Glücksfall". Win Win sozusagen

NVidia geht auch stark davon aus dass es stationäre Konsolen bald nicht mehr geben wird:



http://www.zeit.de/digital/games/2013-01/ces-nvidia-project-shield-konsole

imho ein Irrglaube seitens NVidia.
Jup, man wird wohl keine weitere Konsolengeneration in der Art und Weise wie heute haben.

Dein Beamer verlangt einen leicht oberhalb der Specs liegenden Signalpegel. Hatte fast genau das Gleiche (es waren eher rote Griesel) vor einem Jahr mit einem 24" Samsung Monitor. Ist ein Garantiefall für Deinen Beamer (oder Du hast ein zu langes, mieses HDMI-Kabel, irgendwo überschreitest Du auf jeden Fall die eingebauten Toleranzen).

So oder so, das ist entweder ein Thema für die Hardware-Hilfe oder hier wenig zielführend. Irgendeinen random AMD vs. nV Bashthread benötigen wir hier nicht.
Ja, das ist schon SEHR seltsam.

PS: Falls du den MSI-Afterburner installiert hast, deinstallier ihn mal. Der Hat bei mir zu MASSIVEN! Grafikproblemen geführt :freak:

aufkrawall
2013-02-26, 11:07:20
PS: Falls du den MSI-Afterburner installiert hast, deinstallier ihn mal. Der Hat bei mir zu MASSIVEN! Grafikproblemen geführt :freak:
Dürfte auch reichen, ihn nicht zu starten.

Skysnake
2013-02-26, 11:18:07
NEIN, eben nicht, sonst hätte ich es nicht ausdrücklich gesagt...

Der nistet sich im System ein. Bei mir wars so, dass sich Programmteile des OSD gestartet haben, und trotz manuellem Abschiesen im Taskmanager die Probleme anhielten.

Kurze Geschichte:
Ich hab den Kühler der XFX 7970 DD gewechselt, um Bilder zu machen, und die WLP zu wechseln, zwecks Temperaturvergleich. Danach hat die Karte @stock clock (925MHz) nur noch mit 500MHz getaktet. Mit 924 und 926 MHz hat Sie wieder normal getaktet, aber ich hatte Bildruckler beim Taktwechsel. Das Bild hat also immer wieder geruckelt, und bei Videos wurde das Gesamte Bild verzerrt. Das hatte ich schon vorher bekommen, wenn die Karte nicht @stock lief. Hatte schon befürchtet, dass die Karte bei den letzten MAX-OC-Runs nen kleinen Schaden genommen hat...

Der Afterburner meinte, das es ne neue Version gibt, also runtergeladen, und versucht zu installieren, was nicht ging, weil Teile liefen. So bin ich erst auf das sich selbst startende OSD gekommen... Also das ganze MSI-Zeug deinstalliert, und Rechner neu gestartet. Afterburner neu installiert, und tata, ALLE! Probleme weg. :ugly:

Ich hab gedacht mich tritt ein Pferd :ugly:

So massive Grafikbugs, die beim starten von Videos im Browser auch den Rechner zum Absturz gebracht haben, hätte ich NIE auf den Afterburner geschoben! Ich dachte echt, die Karte hat halt nen Knacks. Seid 2 Tagen läuft jetzt alles 1A+ Nicht ein Problem mehr mit Bildflackern, komplett Zerissenem Bild bei Videostarts (was man teils umgehen konnte, indem das Video nicht sichbar war, wenn es gestartet wurde) und auch keine Abstürze mehr.

Wenn ich Zeit habe, schreib ich glaube ich dazu einen kleinen Artikel. Ich bezweifle, das ich da der Einzige bin, dem der Afterburner Probleme macht, ohne es zu wissen ;)

aufkrawall
2013-02-26, 11:27:35
Das OC von Afterburner hatte bei mir schon vor einem Jahr mit Radeons rumgesponnen mit den von dir beschriebenen Problemen.
Das hat aber nichts mit dem OSD zu tun. Da kann mal ein Hook bestehen bleiben, was dazu führt, dass Programme auch mit beendetem Afterburner weiter rumspinnen, wenn sie nicht selber neu gestartet wurden.

Das OSD hat bei mir aber mal Ruckler mit SLI verursacht. :freak:
Einfaches, sauberes Beenden hat natürlich gereicht.

TobiWahnKenobi
2013-02-26, 11:36:55
joa.. hier im letzten jahr auch und ich hab mir den krempel schon früh abgwöhnt. die karten gingen eh nicht weiter, als das was mit dem overdrive-regler im CCC einstellbar war.

die versionen, die damals hier gezickt haben, haben das ganze bild wackeln und zittern lassen, sobald man irgendwas auch nur um einen wert verstellen wollte.. gruselig!!





(..)

mfg
tobi

Skysnake
2013-02-26, 11:44:12
Jup, das war bei mir auch so!

Eine Neuinstallation hat geholfen die Probleme zu beheben.

Das Problem beim ruckeln ist, dass die Karte nicht ordnungsgemäß zwischen den Taktstufen umschaltet.

Auf die Idee muss man aber erstmal kommen, das aus dieser Richtung das Problem kommt :ugly:

kruemelmonster
2013-02-26, 11:50:56
GPU-PhysX ist zu teuer, von daher kanns imho weg. Schon allein, weils so proprietärer Kram ist.

Prinzipiell ja, allerdings: bevor ich gar keine Effektphysik habe, nehm ich dann doch lieber PhysX mit. Alice, Batman 1 & 2, Borderlands 2, Metro 1 & 2 und Mirrors Edge als Top Titel sind keine riesige Ausbeute, aber haben ist besser als brauchen und ein Mehr an Atmosphäre wurde in all diesen Titel mit PhysX geschaffen.
An die Crysis 1 Physik kommt ja leider immer noch kein anderes Spiel heran, war das eigentlich Havok oder was eigenes?

AMD hat halt ALL ihre Stärken genau in einem Produkt gebündelt, dass den Kunden (Sony/MS) halt voll reingelaufen ist. Das nennt sich ein "Glücksfall". Win Win sozusagen

Jup, da hat sich die APU Strategie für AMD endlich mal gelohnt. Jetzt sollten sie nur mal zusehen dass auch vernünftige Notebooks/Ultrabooks mit ihren Komponenten gebaut werden, kann doch nicht so schwer sein ein leichtes & schmales Referenzdesign auf die Beine zu stellen welches ebenfalls alle Stärken vereint und ohne CF-Gelumpe und Glare Display auskommt.

Der Afterburner meinte, das es ne neue Version gibt, also runtergeladen, und versucht zu installieren, was nicht ging, weil Teile liefen. So bin ich erst auf das sich selbst startende OSD gekommen... Also das ganze MSI-Zeug deinstalliert, und Rechner neu gestartet. Afterburner neu installiert, und tata, ALLE! Probleme weg.
...
Ich bezweifle, das ich da der Einzige bin, dem der Afterburner Probleme macht, ohne es zu wissen


Das OSD startet nicht automatisch, dafür muss man erst manuell die einzelnen Punkte der Hardwareüberwachung aktivieren.
Habe weder mit der HD 6770 noch mit der GTX 670 in Kombination mit AB jemals Probleme gehabt, allerdings setze ich die "Hardware polling period" seit jeher von 1000 auf 2000 msec, (5000 würden mit Sicherheit auch langen) kann mir schon vorstellen dass zu häufige Abfragen den Treiber bzw. HW-Monitoringchip aus dem Takt bringen.

aufkrawall
2013-02-26, 12:01:28
Prinzipiell ja, allerdings: bevor ich gar keine Effektphysik habe, nehm ich dann doch lieber PhysX mit. Alice, Batman 1 & 2, Borderlands 2, Metro 1 & 2 und Mirrors Edge als Top Titel sind keine riesige Ausbeute, aber haben ist besser als brauchen und ein Mehr an Atmosphäre wurde in all diesen Titel mit PhysX geschaffen.

Zustimmung. Bei BL2 hab ichs aber mittlerweile abgeschaltet, SGSSAA bringt mehr und skaliert auch noch auf mehreren GPUs. :biggrin:


An die Crysis 1 Physik kommt ja leider immer noch kein anderes Spiel heran, war das eigentlich Havok oder was eigenes?

War afair was eigenes. Wenn da nur nicht der Fehler des "Verkantens" gewesen wäre..
Bin da bei Crysis 3 etwas enttäuscht, die Physik etwa der Vorhänge ist absolut lächerlich.

Skysnake
2013-02-26, 12:02:38
Bei mir kams erst nach missglückten MAX-OC Versuchen der letzten Tage. Da muss irgendwas in die Binsen gegangen sein.

Und ja, ich hab das Monitoring refresh auf 100 ms runter gedreht gehabt oder so.

kruemelmonster
2013-02-26, 12:09:41
Zustimmung. Bei BL2 hab ichs aber mittlerweile abgeschaltet, SGSSAA bringt mehr und skaliert auch noch auf mehreren GPUs. :biggrin:

Ok, ist wohl Geschmackssache ob man das für sich persönlich gegeneinander aufrechnen kann, auch wenns Radieschen und Melonen sind. ;)

Und ja, ich hab das Monitoring refresh auf 100 ms runter gedreht gehabt oder so.

Nicht runter, rauf! Ich brauch gerade dir mit Sicherheit nicht zu erklären dass du gerade komplett sinnfrei 10x die Sekunde die HW-Daten abfragst. Alle 2 oder 3 Sekunden reicht dicke.

Skysnake
2013-02-26, 12:40:44
Wenn du Logs für Auswertungen machen willst, um kurzfristige Effekte zu betrachten, dann ist das bei weitem nicht sinnfrei ;)

kruemelmonster
2013-02-26, 13:21:28
...im Alltagsbetrieb, nur um das OSD auf den Schirm zu zaubern, braucht kein Mensch ein 100ms polling, ich denke darum gings es ursprünglich doch oder?

Skysnake
2013-02-26, 14:37:08
nein ;)

Es ging einfach darum, das sich das MSI-Afterburner Paket bei OC-Runs wohl massiv zerschossen hat, und ein sehr seltsames Fehlerbild generiert hat, welches nicht zu erwarten war. Zumal eben das manuelle Schließen/entfernen aus dem Autostart eben nichts geholfen hat, sondern erst die komplette deinstallation ;)

HarryHirsch
2013-02-26, 20:55:08
Ich kann dir nur sagen, dass ich jetzt bei mehreren Jahren Nvidia-Nutzung auf kein Problem beim H.264/VC-1/MPEG2 Dekodieren über die VPU gestoßen bin.
Du könntest deine "grünes Bild"-Aussage ja auch mal etwas belegen, etwa mit betroffener Hardware, Treiberversion, Abspielprogramm, Videosample...

[...]



ich hatte mit 313.96 das gleiche problem.
bei yt wird der ganze bildschirm grün, bei vlc der fensterinhalt.

Nakai
2013-02-26, 21:17:07
Hatte ich auch, mit NV. Deswegen auf Softwarebeschleunigung umschalten. Rechtsklick drauf...du wirst es schon alleine finden.;)

HarryHirsch
2013-02-26, 21:22:11
ich hab es mal geändert.
hab es tatsächlich allein gefunden.

Nakai
2013-02-26, 21:29:09
Und gehts?

HarryHirsch
2013-02-26, 21:37:47
ja schon länger. praktisch gleich nachdem es grün wurde. :freak:

aufkrawall
2013-02-26, 22:13:13
ich hatte mit 313.96 das gleiche problem.
bei yt wird der ganze bildschirm grün, bei vlc der fensterinhalt.
313.96 ist ein Betatreiber gewesen und VLC stinkt vor Fehlern.
Ich kann mich allerdings nicht an solche Fehler mit dem Treiber erinnern, mit 314.07 lüppt hier Flash im Browser (beides mit GPU-Beschleunigung) ohne Probs.

Ansonsten würde ich mal LAV mit DXVA2 CB empfehlen anstatt den Schrott von VLC.

HarryHirsch
2013-02-26, 22:25:41
war klar das du so reagierst. es ist immer die schrottsoftware der anderen.

hat nv nicht erst ein paar amd typen eingestellt? vielleicht liegt es ja daran, die fehler scheinen sich seit dem zu häufen. :freak:

aufkrawall
2013-02-26, 22:40:19
war klar das du so reagierst. es ist immer die schrottsoftware der anderen.

Ja, Hardwarebeschleunigung von Flash & VLC sind unbestreitbar fehleranfällig.
Und es war trotzdem ein Betatreiber...


hat nv nicht erst ein paar amd typen eingestellt? vielleicht liegt es ja daran, die fehler scheinen sich seit dem zu häufen. :freak:
Der Fehler ist wie so oft woanders zu finden.

HarryHirsch
2013-02-26, 22:45:51
Ja, Hardwarebeschleunigung von Flash & FLC sind unbestreitbar fehleranfällig.
Und es war trotzdem ein Betatreiber...

denkst du wenn ich den aktuellen whql installiere ist das problem behoben?


Der Fehler ist wie so oft woanders zu finden.

danke.

Hugo78
2013-02-27, 07:57:55
Ich hab den 313.96 immernoch drauf und keine Probleme damit, egal ob VLC, YT im Fenster oder Vollbild.
HW-beschleunigung im Firefox ist an.

V2.0
2013-02-27, 08:35:52
Es ist lustig, dass einige Bildchen im Ladebildschirm reichen um die schon lange existierende Überlegenheit von AMD in die Köpfe der Nutzer zu bekommen. NV ist schon lange schlimm und ATI/AMD sind schin urlange die bessere Lösung.

boxleitnerb
2013-02-27, 09:05:37
Von dir kommt auch echt nur provokanter Unsinn. AMD ist beim Preisleistungsverhältnis überlegen, das war es dann aber auch schon.

Ailuros
2013-02-27, 09:12:49
Von dir kommt auch echt nur provokanter Unsinn. AMD ist beim Preisleistungsverhältnis überlegen, das war es dann aber auch schon.

Ich koennte den originalen Post auch im relativem Sinn als "provokanten Unsinn" ansehen. Um es klar zu machen hat NV schon links und rechts resources reduziert, aber unmittelbar bemerkbar ist es momentan nicht IMHO. Es wird aber nicht besser werden sondern nur bergab und dann kannst Du auch fuer NV sagen "das war es dann aber auch schon"....

V2.0
2013-02-27, 09:22:15
Von dir kommt auch echt nur provokanter Unsinn. AMD ist beim Preisleistungsverhältnis überlegen, das war es dann aber auch schon.

Nein, der Unsinn liegt in der Realitätsverweigerung. AMD ist nicht besser geworden, man hat maximal sein Logo in mehr Ladebildschirmen eingekauft. NV ist deswegen nicht schlechter geworden. Der Fakt ist dass beide riesige Probleme haben und sich der gesamte Markt in einem massiven Umbruch befindet. Die Zukunft der etablierten Hauptgeschäftsfelder beider Unternehmen ist nicht gerade von Wachstum geprägt, während die Entwicklungskosten steigen bei schwindenden Margen. Beide schwächeln in den aktuellen Wachstumsmärkten.

Es glaubt doch bitte niemand, dass die massiven Einsparungen ohne Folgen bleiben werden. Und es glaubt hoffentlich auch niemand, dass einer von beiden noch Resourcen in größerem Umfang für den PC-Gamer-Markt aufwenden wird. Es wird auf PR und Abfallprodukte sonstiger Entwicklungen heraus laufen, dazu mit etwas Glück eine Beibehaltung des Status Quo bei Hardware und Softwaresupport.

Schaut hinter das PR und die bunten Bildchen, denn die Wahrheit liegt hier leider eher in den trockenen Zahlen.

Skysnake
2013-02-27, 09:22:41
nVidia sitzt halt auf einem sehr hohen Ross/Leiter. Da fällt man dann halt besonder tief und schnell.

Die Dominanz, die Sie hatten konnten Sie realistisch betrachtet nicht dauerhaft halten. Bleibt nur die Frage, wie die Priorisierung SFF <-> Games-Desktop-GPUs in Zukunft ausfällt.

boxleitnerb
2013-02-27, 09:28:54
Nur weil AMD endlich mal den Arsch hochbekommt und seine DevRelations ausbaut, muss man hier doch kein Doomsdayszenario beschwören. Es ging ja auch um mehr als nur das. Zu 3DVision kann ich nichts sagen, aber der SLI-Support ist immer noch sehr gut, und die bessere MGPU-Technik hat man sowieso seit Ewigkeiten. Nvidia hat die schnellste GPU, die anders als bei der letzten Generation auch noch ungewöhnlich sparsam ist, man hat gerade wieder Marktanteile gewonnen...also irgendwie kann ich die Schwarzmalerei nicht verstehen. Und das alles mit einer aufgewärmten "alten" Architektur. Ich will mir gar nicht ausmalen, was passiert, wenn Maxwell antanzt. AMD hat es mit einer brandneuen Architektur nicht geschafft, sich wirklich abzusetzen, im Gegenteil. Bei Perf/W und Perf/mm2 hat man relativ gesehen Vorsprung eingebüßt oder gar verloren.

Nein, der Unsinn liegt in der Realitätsverweigerung. AMD ist nicht besser geworden, man hat maximal sein Logo in mehr Ladebildschirmen eingekauft. NV ist deswegen nicht schlechter geworden. Der Fakt ist dass beide riesige Probleme haben und sich der gesamte Markt in einem massiven Umbruch befindet. Die Zukunft der etablierten Hauptgeschäftsfelder beider Unternehmen ist nicht gerade von Wachstum geprägt, während die Entwicklungskosten steigen bei schwindenden Margen. Beide schwächeln in den aktuellen Wachstumsmärkten.

Es glaubt doch bitte niemand, dass die massiven Einsparungen ohne Folgen bleiben werden. Und es glaubt hoffentlich auch niemand, dass einer von beiden noch Resourcen in größerem Umfang für den PC-Gamer-Markt aufwenden wird. Es wird auf PR und Abfallprodukte sonstiger Entwicklungen heraus laufen, dazu mit etwas Glück eine Beibehaltung des Status Quo bei Hardware und Softwaresupport.

Schaut hinter das PR und die bunten Bildchen, denn die Wahrheit liegt hier leider eher in den trockenen Zahlen.

Äh und was hat das mit AMDs angeblicher "Überlegenheit" (bei was überhaupt?) und damit, dass Nvidia angeblich "schlimm" (???) und AMD die "bessere Lösung" (inwiefern?) sei, zu tun? Nix.
Die trockenen Zahlen zeigen einen weiteren Verlust von Marktanteilen bei AMD und die Tatsache, dass Nvidia inzwischen fast soviel Umsatz macht wie AMD.

fondness
2013-02-27, 09:35:47
Nur weil AMD endlich mal den Arsch hochbekommt und seine DevRelations ausbaut, muss man hier doch kein Doomsdayszenario beschwören.


Und was ist aus NVs DevRel geworden? Schon lange aus das ich mich an Spiele erinnern kann in denen NV aktiv beteiligt war und zusätzliche Features eingebaut hat.


man hat gerade wieder Marktanteile gewonnen...also irgendwie kann ich die Schwarzmalerei nicht verstehen.

Die Stückzahlen sind bei NV dieses Jahr um 18% eingebrochen. Durch die hohen Preise kann man das noch kaschieren. Doch was macht man nächstes Jahr? Preise noch mal verdoppelt?


Und das alles mit einer aufgewärmten "alten" Architektur. Ich will mir gar nicht ausmalen, was passiert, wenn Maxwell antanzt. AMD hat es mit einer brandneuen Architektur nicht geschafft, sich wirklich abzusetzen, im Gegenteil. Bei Perf/W und Perf/mm2 hat man relativ gesehen Vorsprung eingebüßt oder gar verloren.

Seit wann ist eine neue Architektur ein Vorteil? Es gibt genug Beispiele von neuen Architekturen die erst mit der Zeit gut wurden. Es braucht seine Zeit bis ein Design reift. Auch NV wird diesen Schritt gehen müssen, mal sehen ob da gleich alles auf Anhieb perfekt ist.

Ailuros
2013-02-27, 09:37:18
Nein, der Unsinn liegt in der Realitätsverweigerung. AMD ist nicht besser geworden, man hat maximal sein Logo in mehr Ladebildschirmen eingekauft. NV ist deswegen nicht schlechter geworden. Der Fakt ist dass beide riesige Probleme haben und sich der gesamte Markt in einem massiven Umbruch befindet. Die Zukunft der etablierten Hauptgeschäftsfelder beider Unternehmen ist nicht gerade von Wachstum geprägt, während die Entwicklungskosten steigen bei schwindenden Margen. Beide schwächeln in den aktuellen Wachstumsmärkten.

Es glaubt doch bitte niemand, dass die massiven Einsparungen ohne Folgen bleiben werden. Und es glaubt hoffentlich auch niemand, dass einer von beiden noch Resourcen in größerem Umfang für den PC-Gamer-Markt aufwenden wird. Es wird auf PR und Abfallprodukte sonstiger Entwicklungen heraus laufen, dazu mit etwas Glück eine Beibehaltung des Status Quo bei Hardware und Softwaresupport.

Schaut hinter das PR und die bunten Bildchen, denn die Wahrheit liegt hier leider eher in den trockenen Zahlen.

Na Vorsicht denn finanzielle Zahlen zeigen ein ziemlich "gesundes" insgesamt Bild; hingegen wenn sich nur auf Verkaufsvolumen pro Markt konzentriert sieht es duester aus.

Egal wie oft man es wiederholt es fliegt den meisten einfach ueber den Kopf dass der SFF Markt fuer NV eine ziemlich schwere Pille sein wird. Teufel es haben Texas Instrument und ST Microelectronics den smartphone/tablet Markt fuer den embedded Markt aufgegeben weil sich sich gegen Monster-Investitionen wie die von Qualcomm, Apple und Samsung nicht mehr behaupten koennen. NV hat ja unendliche resourcen und koennen rein zufaellig auch mit einer Milliarden herumschmeissen um z.B. Herstellungsprioritaeten zu sichern; NV ist sogar groesser als TI oder ST aber in Realitaet nur im eigentlichen Groessenwahnsinn.

Ich wuerde aber auch liebend gerne mal wissen ob das Publikum es immer noch als kluge Idee empfindet dass AMD das Imageon team an Qualcomm verkauft hat und ueberhaupt bei dem laecherlichen Preis.

V2.0
2013-02-27, 09:42:26
Ich meinte nicht nur die Geschäftsergebnisse. Die Wahrheit liegt eben auch in Fragen wie z.B. wo man seine Gewinne erwirtschaftet, wie die Zukunftsprognosen dieser Marktsegmente einzuschätzen ist und wie man in den als besonders zukunftsträchtig einzustufenden Märkten aufgestellt ist. NV ist da imho zwar deutlich besser als AMD aufgestellt (gerade mit der Automobilindustrie scheint man auf einem guten Weg mit Tegra) aber auch bei NV ist man keineswegs auf der sicheren Seite, wie Du richtig gesagt hast.

boxleitnerb
2013-02-27, 09:46:08
Und was ist aus NVs DevRel geworden? Schon lange aus das ich mich an Spiele erinnern kann in denen NV aktiv beteiligt war und zusätzliche Features eingebaut hat.


Solltet ihr nicht darüber froh sein? Wenn Nvidia das gemacht hat, hieß es doch immer "braucht man nicht", "sieht blöd aus", "sie cheaten". Ich bin sicher nicht der einzige, der die flachen Wände bei Crysis 3 blöd findet. Bedank dich nicht bei Nvidia, sondern bei AMD dafür.


Die Stückzahlen sind bei NV dieses Jahr um 18% eingebrochen. Durch die hohen Preise kann man das noch kaschieren. Doch was macht man nächstes Jahr? Preise noch mal verdoppelt?


Davon ist AMD genauso betroffen im Markt für diskrete Grafiklösungen. Was macht man nächstes Jahr? Die Karten dann komplett verschenken?


Seit wann ist eine neue Architektur ein Vorteil? Es gibt genug Beispiele von neuen Architekturen die erst mit der Zeit gut wurden. Es braucht seine Zeit bis ein Design reift. Auch NV wird diesen Schritt gehen müssen, mal sehen ob da gleich alles auf Anhieb perfekt ist.

Stimmt, muss kein Vorteil sein. AMD hat seit Evergreen zweimal die Architektur umgekrempelt und jedes Mal hat man an Boden verloren, was Perf/W angeht.

Ailuros
2013-02-27, 09:46:16
Ich will mir gar nicht ausmalen, was passiert, wenn Maxwell antanzt. AMD hat es mit einer brandneuen Architektur nicht geschafft, sich wirklich abzusetzen, im Gegenteil. Bei Perf/W und Perf/mm2 hat man relativ gesehen Vorsprung eingebüßt oder gar verloren.

Was soll denn Maxwell so tolles mit sich bringen? Es ist ja schoen heisse Luft herumzupusten wenn noch keiner von uns die blasseste Ahnung hat um was es sich handeln koennte.

Die trockenen Zahlen zeigen einen weiteren Verlust von Marktanteilen bei AMD und die Tatsache, dass Nvidia inzwischen fast soviel Umsatz macht wie AMD.

Ach fuer AMD zaehlen Marktanteile und fuer NV Umsatz? So toll verdrehte Logik lese ich ernsthaft selten. Bei beiden werden sich fuer die absehbare Zukunft Volumen und Umsatz reduzieren wenn es zu standalone desktop GPUs kommt.

TobiWahnKenobi
2013-02-27, 09:46:33
Ich hab den 313.96 immernoch drauf und keine Probleme damit, egal ob VLC, YT im Fenster oder Vollbild.
HW-beschleunigung im Firefox ist an.

meine firefox-flashplayer-treiber-reset-sorgen waren scheinbar hausgemacht. wasserkühlung gewartet, temps um 20°C verbessert, mainboard, speicher und CPU neu ausgelotet, seit dem "keine sorgen mehr gehabt"..

btw,
ich möchte gar nicht wissen, wieviele der hiobsbotschaften zu fehlverhalten aller art eigentlich auf ein marodes grundsystem oder anders gelagerte fehler zurückzuführen sind.


(..)

mfg
tobi

boxleitnerb
2013-02-27, 09:54:56
Was soll denn Maxwell so tolles mit sich bringen? Es ist ja schoen heisse Luft herumzupusten wenn noch keiner von uns die blasseste Ahnung hat um was es sich handeln koennte.

Ach fuer AMD zaehlen Marktanteile und fuer NV Umsatz? So toll verdrehte Logik lese ich ernsthaft selten. Bei beiden werden sich fuer die absehbare Zukunft Volumen und Umsatz reduzieren wenn es zu standalone desktop GPUs kommt.

Weiß ich natürlich nicht. Aber wenn man GCN soviel Potential zugesteht, sollte man das auch bei Maxwell tun.

Das hab ich nicht behauptet. Auch wenn du die beiden Felder getrennt betrachtest, sieht es bei Nvidia nicht so schlimm aus wie man hier tut, auch im Vergleich zu AMD. Der Thread heißt ja "Was ist denn auf einmal mit Nvidia los?" und nicht "Was ist denn auf einmal mit AMD und Nvidia los?" ;)

fondness
2013-02-27, 09:55:02
Egal wie oft man es wiederholt es fliegt den meisten einfach ueber den Kopf dass der SFF Markt fuer NV eine ziemlich schwere Pille sein wird. Teufel es haben Texas Instrument und ST Microelectronics den smartphone/tablet Markt fuer den embedded Markt aufgegeben weil sich sich gegen Monster-Investitionen wie die von Qualcomm, Apple und Samsung nicht mehr behaupten koennen. NV hat ja unendliche resourcen und koennen rein zufaellig auch mit einer Milliarden herumschmeissen um z.B. Herstellungsprioritaeten zu sichern; NV ist sogar groesser als TI oder ST aber in Realitaet nur im eigentlichen Groessenwahnsinn.

Wenn es nur Qualcomm, Apple und Samsung wäre. Auch Intel wird hier noch gehörig mit mischen. Ein paar meiner ehemaligen Studienkollegen arbeiten bei Intel Mobile Communications, dort spielt Geld sowas von keine Rolle, das habe ich noch nie erlebt. IMO wird Intel schneller konkurrenzfähig sein als so manchen lieb sein wird.


Ich wuerde aber auch liebend gerne mal wissen ob das Publikum es immer noch als kluge Idee empfindet dass AMD das Imageon team an Qualcomm verkauft hat und ueberhaupt bei dem laecherlichen Preis.

Ja, da sie schlicht nicht die Ressourcen hätte wie Qualcomm in diesen Markt zu investieren.

fondness
2013-02-27, 09:57:04
Solltet ihr nicht darüber froh sein? Wenn Nvidia das gemacht hat, hieß es doch immer "braucht man nicht", "sieht blöd aus", "sie cheaten". Ich bin sicher nicht der einzige, der die flachen Wände bei Crysis 3 blöd findet. Bedank dich nicht bei Nvidia, sondern bei AMD dafür.

Wer ist ihr? Soetwas hast du von mir mit Sicherheit nie gehört.


Davon ist AMD genauso betroffen im Markt für diskrete Grafiklösungen. Was macht man nächstes Jahr? Die Karten dann komplett verschenken?

Ich habe nie behauptet das es für AMD in diesen Markt besser aussieht, keine Ahnung was du jetzt mit AMD willst.

Skysnake
2013-02-27, 09:59:31
Nein, der Unsinn liegt in der Realitätsverweigerung. AMD ist nicht besser geworden, man hat maximal sein Logo in mehr Ladebildschirmen eingekauft.

Ach nein? :ugly:
Endlich nach Jahren ein gefixtes AA/AF
Endlich ein entgegenkommen der Wünsche der BQ-Nazi Community
Umstieg von VLIW auf SIMD, und damit stabilere Ausnutzung der Rechenleistung
Erstmals ECC von den Registern bis hin zum RAM
usw usw

Aber nein, bei AMD hat sich NICHTS verbessert :ugly:


NV ist deswegen nicht schlechter geworden.
Nein, schlechter sind Sie davon nicht geworden, aber sieht man noch viel von GPU PhysX? In solchen "Softskills"-Bereichen haben Sie nachgelassen, bzw umgangssprachlich sind Sie "schlechter" geworden. "Schlechter geworden" darfst du abr nicht mit "Schlecht" verwechseln.

Es ist nur eine relative Einordnung, und wenn der 1A+ mit Sternchen Musterschüler plötzlich nur noch ne 1+ heim bringt, dann ist er halt schlechter geworden, aber noch immer verdammt gut ;)

[quote]
Der Fakt ist dass beide riesige Probleme haben und sich der gesamte Markt in einem massiven Umbruch befindet. Die Zukunft der etablierten Hauptgeschäftsfelder beider Unternehmen ist nicht gerade von Wachstum geprägt, während die Entwicklungskosten steigen
Soweit /sign

bei schwindenden Margen.

Das zumindest bei nVidia aktuell definitiv nicht durch ihre absolut überzogenen Preise... Auf mittlere Sicht muss sich zeigen, inwieweit nVidia auf Dauer die "Marken"-Karte ausspielen kann, um die Preise zu rechtfertigen.


Beide schwächeln in den aktuellen Wachstumsmärkten.

Jaein.

In dem Bereich ist sehr viel Dynnamik drin, und zumindest bei AMD seh ich schon einige Trümpfe in der Pipeline. Die müssen aber erst noch kommen, von daher auch ein Jaein. nVidia hat auch ein paar interessante Sachen in der Pipeline, Sie müssen aber definitiv zulegen. Der SFF-Bereich der Smartphones bis hinauf zu den Tablets ist extrem hart. Da hat es bzgl Konkurrenz wohl etwas leichter, da Sie da erst anfangen, wo Leistungstechnisch nVidia wohl aufhört.

Zudem hat AMD nur einen direkten Konkurrenten mit Intel mit x86, und ja, das ist natürlich gleich ein böser Brocken. nVidia hat aber gleich zich Firmen als Gegner, und die verstehen ihr Handwerk mindestens so gut wie nVidia, wenn nicht sogar besser bzgl CPU-Part.


Es glaubt doch bitte niemand, dass die massiven Einsparungen ohne Folgen bleiben werden.

Das muss sich erst noch zeigen. AMD hat eine verdammt durchdachte und ausbaufähige sowie zukunftssichere Architektur mit GCN aus dem Boden gestampft. Ihre Entwicklung bei den Entwicklungstools ist auch gut bis sehr gut zu bewerten. Über eine Zeitspanne X kann man da durchaus in gewissen Bereichen Einschnitte verkraften, und manche sind auch ganz natürlich. Von außen ist keiner in der Lage das zu bewerten. Was man nur kann ist ein Auge auf der Situation zu halten, und zu schauen, wie es sich entwickelt. Köpfe zu tauschen bringt auch neuen Wind und neue Ideen mit sich, und wenn man hin schaut, gerade wenn man zu den CPUs schaut, gibt es zumindest bei mir so manche Fragezeichen bzgl der Leistung der "alten Besen"


Und es glaubt hoffentlich auch niemand, dass einer von beiden noch Resourcen in größerem Umfang für den PC-Gamer-Markt aufwenden wird. Es wird auf PR und Abfallprodukte sonstiger Entwicklungen heraus laufen, dazu mit etwas Glück eine Beibehaltung des Status Quo bei Hardware und Softwaresupport.

Definiere erst mal "PC-Gamer-Markt".

Ich nehme mal stark an, dass das für dich ne starke CPU + starke dedizierte GPU ist, und auf keinen Fall! eine APU. Ich schmeis hier auch mal den absolut widerlichen Begriff des "ernsthaften Gameings"...

Das wird sich halt in Zukunft ändern, ob uns das gefällt oder nicht spielt dabei keine Rolle, und genau in den Bereich wird dann auch viel mehr Geld fließen. Was aus uns wird, die eben auf eine, oder gar mehrere dedizierte GPUs plus fette CPU stehen, wird sich zeigen müssen. Cloud-Gameing werden wir halt auch nicht aufhalten können. Dafür sind die Vorteile bei den Rechteinhabern einfach zu groß.

@Ailuros:
Doch, darüber sollte man nachdenken, aber ich habs vorher schon gesagt "neue Besen kehren gut". ;)

Manchmal ist auch ein Wechsel bei den großen Köpfen gar nicht schlecht. Irgendwann sind die halt auch ausgelutscht, und werden unflexibel im Kopf. Ich will jetzt nicht sagen, dass das so war/ist bei denen, aber viel rum gekommen ist bei AMD die letzte Zeit eh nicht im Bereich der CPUs.

Die GPU-Sparte sieht wieder ganz anders aus. Da hat man aber auch ne prima Architektur fertig, auf der man aufbauen kann. Da ist es teils auch normal, dass der eine oder andere geht. Man braucht Sie teils auch einfach nicht mehr. Wirklich beurteilen kann man das aber auch wieder nicht als Externer.

Da bleibt einem nur übrig auf die Ergebnisse zu schauen, und da siehts eigentlich gar nicht sooo schlecht aus seid die neue Führung da ist. Zumindest in meinen Augen entwickelt sich die Sache positiver von den Aussichten, als man erwarten konnte.

Was mir besonder gefällt ist, das AMD vor allem ihre Sachen besser verkauft, und auch beim Softwaresupport eine Menge macht. Da haben Sie ja ungemein geschwächelt zuvor. Manchmal ist es gar nicht schlecht, nen Hardware-Engineer weniger zu haben, und dafür mehr Softwareentwickler usw usw. Denn was war/ist denn ein Problem von AMD? Super Hardware, aber keine Chance, das auf einem einfachen Weg in Software zu nutzen... Damit ist die tolle Hardware am Ende völlig nutzlos, und man hätte die Sachen auch gleich weglassen können :(

boxleitnerb
2013-02-27, 10:00:11
Wer ist ihr? Soetwas hast du von mir mit Sicherheit nie gehört.


Ich habe dich auch nicht explizit angesprochen. Es gab genug kritische Stimmen bei sowas in der Vergangenheit. Bei TressFX und Co. lese ich aber überwiegend positive Kommentare. Zweierlei Maß...


Ich habe nie behauptet das es für AMD in diesen Markt besser aussieht, keine Ahnung was du jetzt mit AMD willst.

Man braucht nunmal immer einen Vergleichswert, wenn man sowas beurteilen will.

V2.0
2013-02-27, 10:02:12
Und selbst wenn NV AMD (oder AMD NV) im PC-Desktop-GPU-Markt vollständig dominieren würde, dann würde das die grundsätzlichen Probleme mildern, aber nicht ändern. Im Endeffekt war es auch egal wer die besten Kolbemotoren für Verkehrsflugzeuge baute, als die Jets aufkamen.

Skysnake
2013-02-27, 10:22:48
Na Vorsicht denn finanzielle Zahlen zeigen ein ziemlich "gesundes" insgesamt Bild; hingegen wenn sich nur auf Verkaufsvolumen pro Markt konzentriert sieht es duester aus.

Egal wie oft man es wiederholt es fliegt den meisten einfach ueber den Kopf dass der SFF Markt fuer NV eine ziemlich schwere Pille sein wird. Teufel es haben Texas Instrument und ST Microelectronics den smartphone/tablet Markt fuer den embedded Markt aufgegeben weil sich sich gegen Monster-Investitionen wie die von Qualcomm, Apple und Samsung nicht mehr behaupten koennen. NV hat ja unendliche resourcen und koennen rein zufaellig auch mit einer Milliarden herumschmeissen um z.B. Herstellungsprioritaeten zu sichern; NV ist sogar groesser als TI oder ST aber in Realitaet nur im eigentlichen Groessenwahnsinn.

Absolut, und da seh ich für nVidia eben große Probleme auf sich zukommen, da man eben nur jeden Euro nur einmal ausgeben kann. Aktuell trägt sich Tegra noch nicht allein, und ohne MASSIVSTE! Investitionen wird sich das auch nicht ändern. Mit diesen Investitionen wird man aber erstmal noch unrentabler in dieser Sparte sein, und gleichzeitig das Geld nicht in die anderen Sparten stecken können. Man wird also einfach Geld raus blasen ohne direkten Nutzen. Der wird erst kommen, wenn man BESSER! ist als die anderen, und genau da seh ich eben den Knackpunkt. Es reicht nicht nur aus, richtig viel Geld in die Hand zu nehmen, und einfach besser zu werden, man muss erstmal Geld in die Hand nehmen, um den Rückstand gegen Qualcomm, Samsung und Apple auf zu holen. Und dann, wenn man das gemacht hat, muss man nochmal mehr Geld in die Hand nehmen, um besser zu werden, um signifikante Marktanteile zu gewinnen. Und genau beim Geld kommt eben das Problem. Ich habe meine größten Zweifel daran, das nVidia in der Lage ist, auf Dauer derartige Summen in die Tegra-Sparte zu pumpen, die noch einige Zeit völlig unrentabel bleibt. Im SFF-Markt gibt es einfach VIEL zu viele Gegner, die sich um den Kuchen schlagen, und das fatale dabei ist dann auch noch, das Samsung und Apple eigene Chips produzieren, und den Großteil des Marktes ausmachen. Und Intel hat Nokia...

Es sind also einfach ziemlich große Teile des Marktes schlicht zu für nVidia, und um den Rest wird halt erbittert gekämpft...

Solltet ihr nicht darüber froh sein? Wenn Nvidia das gemacht hat, hieß es doch immer "braucht man nicht", "sieht blöd aus", "sie cheaten". Ich bin sicher nicht der einzige, der die flachen Wände bei Crysis 3 blöd findet. Bedank dich nicht bei Nvidia, sondern bei AMD dafür.

Crysis 2 übertreibt es auch mit Tesselation teils massiv... Tesselation sollte man einsetzen, um einen Zugewinn zu erhalten, nicht einfach um des Einsatzes des Features willens...

Ich bin daher gar nicht sooo unfroh darüber, das man es etwas reduziert hat, wobei man natürlich drüber streiten kann, ob man nicht ins andere extrem gefallen ist, und zu weit reduziert hat.


Davon ist AMD genauso betroffen im Markt für diskrete Grafiklösungen. Was macht man nächstes Jahr? Die Karten dann komplett verschenken?

-.-
Ich kanns nicht mehr hören... Wie kommt ihr bitte darauf, das AMD die Karten verschenkt? Die machen einfach ihre Marge mit und gut ist. Die werden sicherlich noch mehr Gewinn pro Karte machen, als in den letzten Jahren... Man sollte FROH drüber sein, das AMD nicht die Preistreibere von nVidia mit geht. Das ist nämlich inzwischen VÖLLIG! überzogen, was die da abziehen...

Und man muss sich auch anschauen, wie die Verkaufszahlen nach diesem Quartal aussehen. AMD scheint ja aktuell so viele Karten ab zu setzen, wie noch nie zuvor mit GCN.


Stimmt, muss kein Vorteil sein. AMD hat seit Evergreen zweimal die Architektur umgekrempelt und jedes Mal hat man an Boden verloren, was Perf/W angeht.
Cayman ist nen Sonderfall, da man ihn auf 32nm ausgelegt hatte, dann aber in 40nm bringen musste. Das taugt also nicht wirklich als Referenzpunkt.

Und bei GCN vergisst du bei deiner oberflächlichen Perf/W Betrachtung, das AMD in vielen Bereichen die 7-Meilenstiefel angezogen hat, und gewaltige Schritte nach vorne gemacht hat, die auch nötig waren. Klar dass das in anderen Bereichen (Gameing) zulasten der Effizienz geht. Schau dir Pitcairn an, und du wirst bei leibe nicht mehr so negativ gestimmt sein bzgl Perf/W und Perf/mm². Tahiti ist halt ein großer Schritt in eine Richtung, und schleppt auch noch viel mit sich rum, was noch gar nicht genutzt wird. Das Ding ist einfach so komplett neu, das AMD einfach überfordert ist, das alles auf einmal zu bringen. Da muss man einfach schauen, wie sich das entwickelt. Der aktuelle Stand ist aber im Vergleich zu nVidia jetzt nicht besonders gut, aber auch nicht besonders schlecht, sondern auf Augenhöhe, und als Kunde wünsche ich mir genau das!

Wenn es nur Qualcomm, Apple und Samsung wäre. Auch Intel wird hier noch gehörig mit mischen. Ein paar meiner ehemaligen Studienkollegen arbeiten bei Intel Mobile Communications, dort spielt Geld sowas von keine Rolle, das habe ich noch nie erlebt. IMO wird Intel schneller konkurrenzfähig sein als so manchen lieb sein wird.

Intel packt halt zur Not den Holzhammer aus :ugly:

Das heißt aber nicht, das es auch immer funktioniert...

Da muss man echt schauen, wie sich die Sache entwickelt.


Ja, da sie schlicht nicht die Ressourcen hätte wie Qualcomm in diesen Markt zu investieren.
Und nicht nur nicht wie Qualcomm. Deswegen weiß ich auch wirklich nicht, ob das alles so eine gute Entscheidung war/ist mit dem SFF-Markt. Vor allem die Zurückhaltung macht mir Sorgen. Einfach wird es nicht...

Ich habe dich auch nicht explizit angesprochen. Es gab genug kritische Stimmen bei sowas in der Vergangenheit. Bei TressFX und Co. lese ich aber überwiegend positive Kommentare. Zweierlei Maß...

Weil es ein offenes Feature auf offenen Standards ist, und kein propritärer Rotz, wie nVidia ihn favorisiert?

Ailuros
2013-02-27, 10:27:08
Weiß ich natürlich nicht. Aber wenn man GCN soviel Potential zugesteht, sollte man das auch bei Maxwell tun.

Nur wissen wir um was es sich bei GCN handelt, bei Maxwell wohl aber nicht.

Das hab ich nicht behauptet. Auch wenn du die beiden Felder getrennt betrachtest, sieht es bei Nvidia nicht so schlimm aus wie man hier tut, auch im Vergleich zu AMD. Der Thread heißt ja "Was ist denn auf einmal mit Nvidia los?" und nicht "Was ist denn auf einmal mit AMD und Nvidia los?" ;)

Noe schlecht sieht es fuer NVIDIA momentan nicht aus; nur solltest Du Dich nicht wundern wenn Du Dich die gleiche Frage irgendwann in der vorhersehbaren Zukunft nicht selbern fragen wirst.

Duplex
2013-02-27, 10:33:08
AMD hat es mit einer brandneuen Architektur nicht geschafft, sich wirklich abzusetzen, im Gegenteil. Bei Perf/W und Perf/mm2 hat man relativ gesehen Vorsprung eingebüßt oder gar verloren.
GCN ist aber keine zu 100% neue Architektur, das Frontend ist ähnlich wie bei Cayman aufgebaut, deshalb skalieren die Einheiten noch nicht optimal. Nvidia hat bei Kepler das Rad auch nicht neu erfunden...

Bei Perf/W und Perf/mm2 hat man relativ gesehen Vorsprung eingebüßt oder gar verloren.
Tahiti XT = 365mm² DIE
GK110 = 551mm² DIE
Das sind schonmal 51% unterschied, wenn AMD so große Chips mit 512 Bit SI & Quad Frontend anbieten würde, dann hätte Nvidia keine Chancen mit iihren GK110.
AMD kann in 550mm² über 3072 Shader einbauen! Jeder weiß das so ein Chip mit neuen Frontend und großen SI viel schneller als alle nvidia Lösungen sein kann.

Ailuros
2013-02-27, 10:38:15
Wenn es nur Qualcomm, Apple und Samsung wäre. Auch Intel wird hier noch gehörig mit mischen.

Wird ist schon richtig formuliert. Was fuer einen Marktanteil hat HEUTE Intel wenn es zu smartphones kommt? Etwas lauter ich werd schwerhoerig.... :D

Ein paar meiner ehemaligen Studienkollegen arbeiten bei Intel Mobile Communications, dort spielt Geld sowas von keine Rolle, das habe ich noch nie erlebt. IMO wird Intel schneller konkurrenzfähig sein als so manchen lieb sein wird.

Sie bauen sich zwar langsam auf aber sie liegen momentan immer noch ca. 2 Generationen zurueck im Vergleich zur Konkurrenz. Bei Intel kommt es darauf an um wieviel sie jeglichen SoC verkaufen. Sind es die ueblichen Wucherpreise im Vergleich zur Konkurrenz geht die Sache wohl nicht blitzartig so weit.

Ja, da sie schlicht nicht die Ressourcen hätte wie Qualcomm in diesen Markt zu investieren.

Und es haette AMD wie stark geschadet nur GPU IP von Imageon selber zu verkaufen? Also lohnt sich IP fuer Konsolen, aber lohnt es sich nicht fuer SFF mobile? Kann es rein zufaellig sein dass bei halbwegs anstaendigem Volumen man pro Jahr fast gleich so viel kassieren wuerde als bei ein paar Konsolen deals? Royalty beim letzten ist hoeher, aber Volumen diametrisch kleiner.

Undertaker
2013-02-27, 10:43:05
Absolut, und da seh ich für nVidia eben große Probleme auf sich zukommen, da man eben nur jeden Euro nur einmal ausgeben kann. Aktuell trägt sich Tegra noch nicht allein, und ohne MASSIVSTE! Investitionen wird sich das auch nicht ändern. Mit diesen Investitionen wird man aber erstmal noch unrentabler in dieser Sparte sein, und gleichzeitig das Geld nicht in die anderen Sparten stecken können. Man wird also einfach Geld raus blasen ohne direkten Nutzen. Der wird erst kommen, wenn man BESSER! ist als die anderen, und genau da seh ich eben den Knackpunkt. Es reicht nicht nur aus, richtig viel Geld in die Hand zu nehmen, und einfach besser zu werden, man muss erstmal Geld in die Hand nehmen, um den Rückstand gegen Qualcomm, Samsung und Apple auf zu holen. Und dann, wenn man das gemacht hat, muss man nochmal mehr Geld in die Hand nehmen, um besser zu werden, um signifikante Marktanteile zu gewinnen. Und genau beim Geld kommt eben das Problem. Ich habe meine größten Zweifel daran, das nVidia in der Lage ist, auf Dauer derartige Summen in die Tegra-Sparte zu pumpen, die noch einige Zeit völlig unrentabel bleibt. Im SFF-Markt gibt es einfach VIEL zu viele Gegner, die sich um den Kuchen schlagen, und das fatale dabei ist dann auch noch, das Samsung und Apple eigene Chips produzieren, und den Großteil des Marktes ausmachen. Und Intel hat Nokia...

Es sind also einfach ziemlich große Teile des Marktes schlicht zu für nVidia, und um den Rest wird halt erbittert gekämpft...

Ehrliche Frage: Wieviel soll den Nvidia bei Tegra aktuell draufzahlen? Du müsstest die Zahlen ja kennen, wenn du so argumentierst. Ich kann mir nach den letzten Quartalszahlen nicht vorstellen, dass hier große Verluste entstehen - wenn überhaupt? :confused:

Ich habe überhaupt den Eindruck das du Tegra schlechter machst, als er ist. Tegra 3 hat Android-Tablets ab ~200€ praktisch dominiert, Tegra 4 ist überaus performant (bzgl. Performance wird da 2013 kaum ein Konkurrent merklich mehr bieten) bei gleichzeitig extrem kleiner Fläche -> das verspricht gute Margen, auch wenn die Leistungsaufnahme wohl wieder vor allem für Tablets spricht. T4i ist ein heißes Eisen für Smartphones und dürfte den (dort bislang minimalen) Marktanteil nicht gerade verkleinern. Du musst immer sehen: Tegra ist ein zusätzliches Standbein, was sich Nvidia hier gerade aufbaut, sodass selbst eine Steigerung von 3 auf 5% Marktanteil ein Extra ist, dass man gerne mitnimmt. Und da wir ja immer gerne mit AMD und Intel vergleichen: Hier existiert momentan noch nichts/wenig, was ernsthaft für Smartphones oder Tablets geeignet wäre. Du sprichst immer von den Ressourcen die Nvidia investieren muss: Was ist dann dort? Nvidia und Intel sowieso haben die finanziellen Ressourcen, hier sukzessive zu investieren und noch bessere Produkte aufzulegen; aber woher soll AMD das Geld nehmen? Schau mal, mit wie viel weniger Budget AMD in CPU-Markt lange Zeit gut mithalten konnte – dagegen steht Nvidia im Vergleich mit Qualcomm gar nicht einmal so schlecht da.

Ailuros
2013-02-27, 10:58:41
Ehrliche Frage: Wieviel soll den Nvidia bei Tegra aktuell draufzahlen? Du müsstest die Zahlen ja kennen, wenn du so argumentierst. Ich kann mir nach den letzten Quartalszahlen nicht vorstellen, dass hier große Verluste entstehen - wenn überhaupt? :confused:

Der Verlust ist heute nicht gross, aber wenn Du es Dir auf jaehrlicher Basis ausrechnest brauchen sie ungefaehr $1 Mrd Umsatz pro Jahr um auf ihren break even point zu kommen. Momentan sind sie irgendwo bei der Haelfte; um fast 2x mal mehr Umsatz zu erreichen wird es nicht mehr Kosten bedeuten oder wie soll ich das verstehen?

Ich habe überhaupt den Eindruck das du Tegra schlechter machst, als er ist. Tegra 3 hat Android-Tablets ab ~200€ praktisch dominiert,

Dominiert? Amazon alleine hat mehr als 2x Mal so viel verkauft wie das Nexus7 dass ihre einziger grosser design win war wenn es zu Volumen kommt und dazu auch noch bei "sehr" hohen Preisen bzw. Gewinn-margen oder?

Tegra 4 ist überaus performant (bzgl. Performance wird da 2013 kaum ein Konkurrent merklich mehr bieten)....

:D Wir reden nochmal darueber nach gegen Ende des Jahres wenn es zu Verkaufsvolumen kommt.

.... bei gleichzeitig extrem kleiner Fläche ->

Jetzt sag mir doch nicht ehrlich dass Du den Marketing-scheiss voll von bodenlosen Luegen auch noch geglaubt hast. Ja T4 ist "nur" 80mm2 gross, aber mehr koennten sie sich auch nicht leisten bei ihren 0815 Volumen. Wenn Apple mit Volumen nur so herumschmeisst sollte es klar sein dass sie ihren Teig mit Absicht so breit wie moeglich auslegen.

... das verspricht gute Margen, auch wenn die Leistungsaufnahme wohl wieder vor allem für Tablets spricht.

Wer verkauft denn die meisten tablets momentan und warum genau?

T4i ist ein heißes Eisen für Smartphones und dürfte den (dort bislang minimalen) Marktanteil nicht gerade verkleinern. Du musst immer sehen: Tegra ist ein zusätzliches Standbein, was sich Nvidia hier gerade aufbaut, sodass selbst eine Steigerung von 3 auf 5% Marktanteil ein Extra ist, dass man gerne mitnimmt. Und da wir ja immer gerne mit AMD und Intel vergleichen: Hier existiert momentan noch nichts/wenig, was ernsthaft für Smartphones oder Tablets geeignet wäre. Du sprichst immer von den Ressourcen die Nvidia investieren muss: Was ist dann dort? Nvidia und Intel sowieso haben die finanziellen Ressourcen, hier sukzessive zu investieren und noch bessere Produkte aufzulegen; aber woher soll AMD das Geld nehmen? Schau mal, mit wie viel weniger Budget AMD in CPU-Markt lange Zeit gut mithalten konnte – dagegen steht Nvidia im Vergleich mit Qualcomm gar nicht einmal so schlecht da.

Ja das uebliche blah-blah die Blubber dass ich stets von NV's marketing Humbug hoere und lese. Ein einstelliges Prozentual von Marktanteil ist bullshit von allen Seiten; erstens siehe Paragraph eins immer noch etliche Meilen vom Gewinn entfernt und zweitens lassen Dir die Mehrzahl der Entwickler das Ding links liegen ausser den paar Faellen wo sie dank guten Beziehungen noch eine nettes extra dazuwerfen koennen.

Die totale Abwesenheit von GPGPU lassen wir mal lieber weg.

Skysnake
2013-02-27, 11:05:27
AMD geht nicht in den gleichen Bereich wie nVidia. Hab ich doch schon gesagt, dass Sie sich darüber ansiedeln ;) Sie stehen also nicht in direkter Konkurrenz. Vor allem auch nicht durch die ISA. Das ist nen Vorteil von AMD und Intel. AMD hat hier halt nur einen netten Schachzug gemacht, ARM Code native zu unterstützen. Ob das Konzept aufgeht, und wo die Marktschwerpunkte liegen muss sich zeigen. Sie stehen da aber relativ allein da mit ihrer Niesche. Muss sich halt nur zeigen, wie groß Sie ist. Zudem läuft die Entwicklung ja Hand in Hand mit allen anderen SOC-Designs. Das ist also ganz natürlich, was Sie da machen, und keine gewaltige Zusatzaufgabe.

Und Intel hat den monitären Holzhammer ;) Darüber müssen wir glaube ich nicht reden :ugly:

Bei nVidia vergisst du halt, dass Sie noch immer keinen Gewinn machen mit Tegra, zumindest habe ich noch nirgends gelesen, dass das anders sein sollte. Wenn man Marktanteile verdoppelt heißt das aber noch LANGE! nicht, das man Gewinne macht. Es kommt immer drauf an, zu welchem Preis man seine Sachen los wird, und auch was man vorher rein stecken musste, und gerade beim "reinstecken" muss nVidia sehr stark zulegen. Das muss man erstmal wieder rein holen, und das ist gar nicht so einfach.

Und ansonsten zu Tegra3 usw. Ja, das waren ganz nette Dinger, aber nichts, was einem vom Hocker haut. Vor allem nicht bei den verdammt geringen Volumen... Im SFF kommt halt niemand daher und sagt: BOAH das ist nVidia, die sind toll!

Das passiert eher bei Samsung und Apple, aber nicht bei nVidia. Auch wenn Sie doch einiges an Vertrauensvorschuss hatten aus dem PC-Bereich. Das nVidia Marketing trägt dazu noch seinen Teil bei. Sie müssen aber auch halten, was Sie versprechen, und da haperts teils. Sei es mit rechtzeitigen Launches, einhalten der Energieeffizienz usw. nVidia neigt dazu SEHR optimistisch zu sein. IM SFF haste aber mit ganz anderen Leuten zu tun als im PC-Bereich. Da haste einfach keinen so starken brand und bist schneller wieder weg vom Fenster als man schauen kann.

Ansonsten nur noch eins. Es geht nicht darum, das ist Tegra xy schlecht halte. Es geht darum, das andere genau so gut sind, oder besser. Es gibt einfach keinen Grund, den Rocky (nVidia) ran zu lassen, und die bekannten und gewöhnten Partner außen vor zu lassen.

EDIT

Ja das uebliche blah-blah die Blubber dass ich stets von NV's marketing Humbug hoere und lese. Ein einstelliges Prozentual von Marktanteil ist bullshit von allen Seiten; erstens siehe Paragraph eins immer noch etliche Meilen vom Gewinn entfernt und zweitens lassen Dir die Mehrzahl der Entwickler das Ding links liegen ausser den paar Faellen wo sie dank guten Beziehungen noch eine nettes extra dazuwerfen koennen.

Die totale Abwesenheit von GPGPU lassen wir mal lieber weg.
Richtig, und wenn dann noch alle (mir fällt keiner ein, der nicht mit macht sonst) HSA bringen, und nVidia nicht, oder nur ne B-Lösung, weil Sie eben nur über die Hintertür ARM mit machen, und nicht wie Qualcomm und Samsung direkt, wirds nochmals übler...

nVidia hat noch immer ihren propritäres CUDA gedönze im Kopf, mit dem Sie damals durch guten Softwaresupport offene Türen eingerannt haben, und durch den extremen Aufwand für einen Umstieg immer noch profitieren, zumal Sie OpenCL selbst sabotieren, und an einem Erfolg kaum Interesse haben... Im SFF funktioniert das aber nicht. Da wird NIEMAND auch nur auf die Idee kommen, sich auf irgend einen, scheis egal wie gearteten propritären Mist ein zu lassen, weil er dann an den Hersteller gekettet ist... So was macht man wenn nur bei der eigenen GUI fürs OS als Verkäufer von Geräten an den Endkunden, also Apple, Samsung, Sony usw. Da habe ich die Sachen aber 100% in eigenen händen. Wenn ich was zukaufe, dann sieht das komplett anders aus, und deswegen lasse ich tunlichst davon die Finger.

Undertaker
2013-02-27, 11:11:17
Der Verlust ist heute nicht gross, aber wenn Du es Dir auf jaehrlicher Basis ausrechnest brauchen sie ungefaehr $1 Mrd Umsatz pro Jahr um auf ihren break even point zu kommen. Momentan sind sie irgendwo bei der Haelfte; um fast 2x mal mehr Umsatz zu erreichen wird es nicht mehr Kosten bedeuten oder wie soll ich das verstehen?

Ich wüsste halt gerne mal offizielle Zahlen, oder woher stammt die Angabe mit der $1 Mrd? 2012 waren es wohl übrigens schon 765 Mio; wo dürfte der Verkaufspreis etwa liegen? Damit könnte man die Stückzahlen ja ganz gut abschätzen.


Dominiert? Amazon alleine hat mehr als 2x Mal so viel verkauft wie das Nexus7 dass ihre einziger grosser design win war wenn es zu Volumen kommt und dazu auch noch bei "sehr" hohen Preisen bzw. Gewinn-margen oder?

Toshiba, Sony, Asus, Fujitsu, Acer, Google, Lenovo und noch ein paar andere haben T3-Tablets im Angebot; einzeln alles eher kleine Stückzahlen, aber in der Masse ist das schon einiges. Siehe den obigen Umsatz.


:D Wir reden nochmal darueber nach gegen Ende des Jahres wenn es zu Verkaufsvolumen kommt.

Hehe, naja Performance ist ja noch nicht gleich Volumen, das wollte ich nicht behaupten. ;)


Jetzt sag mir doch nicht ehrlich dass Du den Marketing-scheiss voll von bodenlosen Luegen auch noch geglaubt hast. Ja T4 ist "nur" 80mm2 gross, aber mehr koennten sie sich auch nicht leisten bei ihren 0815 Volumen. Wenn Apple mit Volumen nur so herumschmeisst sollte es klar sein dass sie ihren Teig mit Absicht so breit wie moeglich auslegen.

Genau das ist doch die sinnvollste Taktik für jeden Underdog: Den sweet-spot zwischen Kosten und Nutzen finden. >>100mm² Chips kann sich Apple leisten, aber warum sollte Nvidia so dumm sein? Sieh das mal als Analogie zu Bobcat/Kabini bei AMD; auch da geht es primär um geringe Produktionskosten. Was man dann aus dieser geringen Fläche rausholt, ist umso erstaunlicher.

Wie groß ist eigentlich T4i? :confused:

Skysnake
2013-02-27, 11:19:42
Als Underdog musst du aber den "Boah, das brauchen wir" Effekt auslösen, und den bringt nVidia einfach nicht.

Undertaker
2013-02-27, 11:27:04
Welcher Underdog kann sich den leisten? Soll AMD jetzt eine 500mm² CPU bringen, die einen 3970X schlägt? Das wäre schlicht versenktes Geld und würde von den meisten 0815-Kunden eh nicht wahrgenommen. Ungeachtet dessen kann man bei Tegra 4 schon etwas in der Richtung erkennen: 4x 1,9 GHz A-15 ist eigentlich "too much" für die meisten Geräte, dafür sehen die Benchmarkwerte ziemlich fett aus. In Sunspider schlägt man mal eben den A6x fast um Faktor 2 (und ich denke nicht, dass man das auf den Browser des iPad 4 schieben kann). Antutu 36k Punkte, Faktor 2-3 vor dem Nexus 4. Die Performance ist absolutes Top-Niveau und dürfte auch gegen S600/800 noch ganz gut dastehen; was als Makel bleibt, sind TDP und extra Modem, darum tendenziell wohl eher wieder etwas für Tablets.

boxleitnerb
2013-02-27, 11:38:21
GCN ist aber keine zu 100% neue Architektur, das Frontend ist ähnlich wie bei Cayman aufgebaut, deshalb skalieren die Einheiten noch nicht optimal. Nvidia hat bei Kepler das Rad auch nicht neu erfunden...


Tahiti XT = 365mm² DIE
GK110 = 551mm² DIE
Das sind schonmal 51% unterschied, wenn AMD so große Chips mit 512 Bit SI & Quad Frontend anbieten würde, dann hätte Nvidia keine Chancen mit iihren GK110.
AMD kann in 550mm² über 3072 Shader einbauen! Jeder weiß das so ein Chip mit neuen Frontend und großen SI viel schneller als alle nvidia Lösungen sein kann.

Ja fragt sich, warum man das nicht gleich mit angegriffen hat. Wäre doch eine gute Gelegenheit gewesen. Vielleicht, weil man es nicht kann? Und eben, das sagte ich ja. Kepler ist nicht wirklich neu, und trotzdem konnte man damit in allen Segmenten Boden gut machen bei Perf/W oder gar überholen. Das ist absolut beachtlich.

Und bei was für einem Verbrauch? 350+W?

Raff
2013-02-27, 11:41:19
Tahiti XT2 säuft nur so viel, weil so viel Spannung anliegt. Wäre der Chip breiter, könnte man den Takt wieder auf 1 GHz senken und wäre vermutlich trotzdem sparsamer (siehe Titan/GK110).

MfG,
Raff

Skysnake
2013-02-27, 11:51:42
Welcher Underdog kann sich den leisten? Soll AMD jetzt eine 500mm² CPU bringen, die einen 3970X schlägt? Das wäre schlicht versenktes Geld und würde von den meisten 0815-Kunden eh nicht wahrgenommen. Ungeachtet dessen kann man bei Tegra 4 schon etwas in der Richtung erkennen: 4x 1,9 GHz A-15 ist eigentlich "too much" für die meisten Geräte, dafür sehen die Benchmarkwerte ziemlich fett aus. In Sunspider schlägt man mal eben den A6x fast um Faktor 2 (und ich denke nicht, dass man das auf den Browser des iPad 4 schieben kann). Antutu 36k Punkte, Faktor 2-3 vor dem Nexus 4. Die Performance ist absolutes Top-Niveau und dürfte auch gegen S600/800 noch ganz gut dastehen; was als Makel bleibt, sind TDP und extra Modem, darum tendenziell wohl eher wieder etwas für Tablets.
Das sind wohl eher keine "Makel", sondern absolute NOGOs. So was halst man sich nur auf, wenn es absolut driftige Gründe gibt. Und genau das ist ja der Punkt, den ich meine. Es reicht für nVidia nicht einfach nur konkurrenzfähig zu sein, Sie müssen einfach besser sein, und das fängt bei der Integrationsdichte schon an, die sehr wichtig ist im SFF, und hört bei der absoluten Leistung auf.

Dabei bringt es aber nichts, wenn Sie z.B. absolut gesehen viel Leistung bringen, dabei aber nen Schluchkspecht haben. Das will man einfach nicht. Wenn dann noch 1 "Makel" (eher NOGO) dazu kommt, dann wars das einfach schon in sehr vielen Fällen. Man braucht einfach richtig Volumina. Wenn die mal in nem Gerät, das sich wie das Galaxy S3 verkauft, DANN sind Sie wirklich in dem Markt angekommen, und sind ne Hausnummer. Vorher ist das alles nur teure Spielerei.


Ja fragt sich, warum man das nicht gleich mit angegriffen hat. Wäre doch eine gute Gelegenheit gewesen. Vielleicht, weil man es nicht kann? Und eben, das sagte ich ja. Kepler ist nicht wirklich neu, und trotzdem konnte man damit in allen Segmenten Boden gut machen bei Perf/W oder gar überholen. Das ist absolut beachtlich.

Und bei was für einem Verbrauch? 350+W?
Wie wäre es mit:
Es war da technisch einfach nicht machbar mit dem 28nm Prozess, wie er da war?

Glaubst du nVidia hat sich mit GK110 so aus Spaß so viel Zeit gelssen? :rolleyes:

boxleitnerb
2013-02-27, 11:52:49
@Raff:
Sparsamer ja, aber würde es reichen? Mit GK110 hat Nvidia auch im Vergleich zur normalen 7970 sehr gut vorgelegt, was Effizienz angeht.

@Skysnake:
Ich spreche bzgl. Frontend von Design, nicht vom Prozess.

M4xw0lf
2013-02-27, 11:59:24
Dazu warte ich noch auf die PCGH-Messwerte im Heft. Das meiste was man bisher gesehen hat, war ja immer das Gesatmsystem. Hier bei Hardware.fr kommt ein guter Vorsprung gegenüber der GE raus, aber die Standard 7970 ist ja ne ganze Ecke effizienter. http://www.hardware.fr/articles/887-6/consommation-efficacite-energetique.html

Undertaker
2013-02-27, 12:03:14
Das sind wohl eher keine "Makel", sondern absolute NOGOs. So was halst man sich nur auf, wenn es absolut driftige Gründe gibt. Und genau das ist ja der Punkt, den ich meine. Es reicht für nVidia nicht einfach nur konkurrenzfähig zu sein, Sie müssen einfach besser sein, und das fängt bei der Integrationsdichte schon an, die sehr wichtig ist im SFF, und hört bei der absoluten Leistung auf.

Dabei bringt es aber nichts, wenn Sie z.B. absolut gesehen viel Leistung bringen, dabei aber nen Schluchkspecht haben. Das will man einfach nicht. Wenn dann noch 1 "Makel" (eher NOGO) dazu kommt, dann wars das einfach schon in sehr vielen Fällen. Man braucht einfach richtig Volumina. Wenn die mal in nem Gerät, das sich wie das Galaxy S3 verkauft, DANN sind Sie wirklich in dem Markt angekommen, und sind ne Hausnummer. Vorher ist das alles nur teure Spielerei.

Nogo gibt es nicht, dass macht alles der Preis. Sonst würde es in keinem Markt Konkurrenz geben. ;) Zumal ich ja auch von Tablets sprach, die maximale Leistungsaufname ist dort (sofern handlebar) kein großes Thema, wenn die Effizienz stimmt (also idle und Teillast bei bestimmten Standardanwendungen). Modem ist hier auch nicht zwingend, sogar Apple verkauft noch iPads ohne WWAN. Solange T4 + i500 + evtl. höhere Baukosten < S800 ist, könnte man sogar das ein- oder andere Smartphone sehen; ähnlich wie z.B. das HTC One X mit Tegra 3. Einen nennenswerten Absatz wird hier aber sicher erst T4i generieren können.

Skysnake
2013-02-27, 12:05:44
Und wo soll nVidia Geld machen?

Der Extraaufwand 2 Chips zu verbauen statt einem solltest du nicht unterschätzen. Vor allem in Smartphones ist es eng.

Ich seh da kaum eine Chance, das sich das ein Hersteller wirklich antut.

Black-Scorpion
2013-02-27, 12:19:48
Weiß ich natürlich nicht. Aber wenn man GCN soviel Potential zugesteht, sollte man das auch bei Maxwell tun.
Du kennst den Unterschied von bekannten Daten und nicht bekannten Daten? GCN ist draußen und von deinem geliebten und bejubelten Maxwell gibt es genau was um daraus Schlüsse zu ziehen? Keine Ahnung was du dir nachts in deiner Fantasie so alles zusammen träumst und anderen als die Wahrheit Eintrichtern willst.

Undertaker
2013-02-27, 12:23:31
Und wo soll nVidia Geld machen?

Der Extraaufwand 2 Chips zu verbauen statt einem solltest du nicht unterschätzen. Vor allem in Smartphones ist es eng.

Ich seh da kaum eine Chance, das sich das ein Hersteller wirklich antut.

Wie verdient AMD Geld, oder Hyundai oder Kia? Indem man preiswert produziert (-> kleine Chips) und geringere Gewinnspannen akzeptiert. Mit dem Unterschied, dass Nvidia mit dem T4 aus Leistungssicht absolutes High-End produziert, was höhere Kosten für die Modemintegration zum Teil kompensiert. Die Probleme in Smartphones unterschätze ich bestimmt nicht, darauf bin ich ja auch schon mehrfach eingegangen. Möglich wäre ein Einsatz auf jeden Fall, Samples hat Nvidia gerade erst auf dem MWC gezeigt. Ähnlich wie T3 wird T4 (ohne i) aber auch dort wohl einigen großen High-End Modellen vorbehalten bleiben. Das ändert aber nichts daran, das T4 für Tablets ein verdammt attraktiver Chip ist. Für einen Hersteller mit wenigen Prozenten Marktanteil ist das imo eine beachtliche Leistung - zeig mit mal die ganzen Krait-Tablets. ;)

Skysnake
2013-02-27, 12:29:50
Es ist aber nichts, was einem vom Hocker reist, und zu massiv mehr Marktanteilen führt, und nur über die Masse läufts im SFF.

Undertaker
2013-02-27, 12:56:00
Ich denke mit dieser Einstellung liegst du reichlich daneben. Große Deals werden nicht über Highlights gewonnen, sondern über P/L. Das wiederum setzt sich zusammen aus Kosten (für SoC und Implementierung) sowie die Gegenleistung (Performance, Features). Dieses Gesamtpaket sehe ich hinsichtlich Tablets als ziemlich gelungen an. Was erwartest du überhaupt? Das einer der kleinsten Spieler am Markt den schnellsten, sparsamsten, kleinsten und höchst-integriertesten SoC überhaupt auf die Beine stellt? :confused: Das ist schlicht unmöglich, nicht nur bei SoCs, sondern auf jede Branche bezogen. Als (mehr oder weniger) Quereinsteiger muss man sich seinen Zielmarkt suchen und von dort aus expandieren.

y33H@
2013-02-27, 13:08:47
Dazu warte ich noch auf die PCGH-Messwerte im Heft. Das meiste was man bisher gesehen hat, war ja immer das Gesatmsystem. Hier bei Hardware.fr kommt ein guter Vorsprung gegenüber der GE raus, aber die Standard 7970 ist ja ne ganze Ecke effizienter. http://www.hardware.fr/articles/887-6/consommation-efficacite-energetique.htmlDie Werte gibt's doch online, samt HD 7970 und GHz Edition: http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/3/

In BC2 sind es rund 20W von Titan auf die HD 7970.

SamLombardo
2013-02-27, 13:19:11
Ich bin sicher nicht der einzige, der die flachen Wände bei Crysis 3 blöd findet. Bedank dich nicht bei Nvidia, sondern bei AMD dafür.

Genau das meine ich. Hier ist NVs Dev Support gefragt. AMD Hat diesen Support betrieben. Mit dem Ergebnis, dass Features die AMD Hardware weniger liegen auf ein Minimum zurückgefahren wurden, bzw NVs Stärken -schon aus Prinzip- brach liegen. Klar finde ich das als NV User blöd. Die Frage ist doch, warum schert es Nvidia nicht (mehr)...

Ich merke gerade, dass das gerade Geschriebene -auch hier im Forum- immer wieder meine Argumentation war wenn es um Grafikkarten ging. Nur mit vertauschten Rollen. Dass ich sowas mal bzgl Nvidia schreiben würde hätte ich noch vor nem halben Jahr nicht gedacht:confused:.

PS: Bitte nicht als Bash von NV Hardware sehen. Dass manche AMD Fanatiker jetzt in diese Kerbe schlagen war zwar irgendwie zu erwarten, lag aber nicht in der Absicht des Startpostings. Ich merke einfach eine negative Veränderung im "Engagament" Nvidias beispielsweise Entwicklern gegenüber. Ob das evtl. nur Einbildung ist bzw wo die Ursachen liegen und wohin die Entwicklung geht, das war es wozu mich eure Meinung interessiert;)

Gruß Sam

fondness
2013-02-27, 14:29:45
Ich habe dich auch nicht explizit angesprochen. Es gab genug kritische Stimmen bei sowas in der Vergangenheit. Bei TressFX und Co. lese ich aber überwiegend positive Kommentare. Zweierlei Maß...


Kritische Stimmen gab es vielleicht (und IMO zurecht) bei NV proprietären Mist. Würde AMD genau so handeln gäbe es wohl mittlerweile genug Spiele bei denen NV-User nicht alle Features zu sehen bekämen.

LadyWhirlwind
2013-02-27, 14:41:07
Ich kenn mich mit der Chiptechnik nicht wirklich auch, darum meine Frage: Wie stark kann AMD von den Next-Gen Konsolen profitieren in den nächsten drei Jahren? Ist davon auszugehen dass bei AMD kleinere und billigere Chips im Verhältnis die höhere Balkenlänge haben als Nvidia? Sprich das Nvidia teurere und höhere GPU's brauchen wird um auf die gleiche Balkenlänge zu kommen? Und haben die aktuellen AMD GPU's funktionen in der Hardware die von DirectX11.1 so nicht unterstützt werden, aber bei einem Port von den Next-Gen Konsolen auch auf dem PC angesprochen werden könnten? Falls ja könne Nivida langfristig echt unter druck kommen. AMD könte natürlich die Entwickler bei den Konsolenportierungen mit ihrem Gaming Evolved Programm unterstützen.

M4xw0lf
2013-02-27, 14:44:24
Ich habe dich auch nicht explizit angesprochen. Es gab genug kritische Stimmen bei sowas in der Vergangenheit. Bei TressFX und Co. lese ich aber überwiegend positive Kommentare. Zweierlei Maß...

Proprietärer Mist vs. Goodies für alle. Da hast du deine zweierlei Maß.

Blaire
2013-02-27, 14:55:36
Genau das meine ich. Hier ist NVs Dev Support gefragt. AMD Hat diesen Support betrieben. Mit dem Ergebnis, dass Features die AMD Hardware weniger liegen auf ein Minimum zurückgefahren wurden, bzw NVs Stärken -schon aus Prinzip- brach liegen. Klar finde ich das als NV User blöd. Die Frage ist doch, warum schert es Nvidia nicht (mehr)...

Das AMD jetzt kurz vor Toreschluss Crytek in den Hintern kroch, es für ihre Karten zu optimieren, war doch abzusehen und kam keineswegs unerwartet. Das kann in einem Jahr schon wieder ganz anders aussehn, da würde ich jetzt nicht zuviel hineininterpretieren. Crysis3 unterstützt immerhin TXAA, exclusiv für Kepler-Cards vergiss das nicht. ;)

fondness
2013-02-27, 15:00:24
Das AMD jetzt kurz vor Toreschluss Crytek in den Hintern kroch, es für ihre Karten zu optimieren, war doch abzusehen und kam keineswegs unerwartet. Das kann in einem Jahr schon wieder ganz anders aussehn, da würde ich jetzt nicht zuviel hineininterpretieren. Crysis3 unterstützt immerhin TXAA, exclusiv für Kepler-Cards vergiss das nicht. ;)

AMD hat vor kurzem eine längere und vertiefende Partnerschaft mit Crytec angekündigt. ;)

Mr.Magic
2013-02-27, 15:01:06
Wie stark kann AMD von den Next-Gen Konsolen profitieren in den nächsten drei Jahren?

Gar nicht. Fixed Function ist nicht mehr*, und die Compute Leistung ist bei NV höher. Schlimmstenfalls müssen sie ihre aktuell überzogenen Preise senken, und machen weniger Gewinn.

*Soll bedeuten, dass kein relevanter Unterschied zu Current Gen besteht. Nur Tessellation wird wohl zukünftig flächendeckend bei Spielen eigesetzt werden.

M4xw0lf
2013-02-27, 15:07:41
Gar nicht.
Oh ja, Captain Future?
Fixed Function ist nicht mehr*, und die Compute Leistung ist bei NV höher.
Beim GK110 vielleicht.

Ailuros
2013-02-27, 15:08:13
Ich wüsste halt gerne mal offizielle Zahlen, oder woher stammt die Angabe mit der $1 Mrd? 2012 waren es wohl übrigens schon 765 Mio; wo dürfte der Verkaufspreis etwa liegen? Damit könnte man die Stückzahlen ja ganz gut abschätzen.

Tegra alleine ist wieviel genau? Denn die 765Mio sind eben nicht nur Tegra :P Nach Jon Peddie research waren es bis zu Fruehling 2012 nach GPU Integrierung 33% fuer Qualcomm und 3.2% fuer NV. Lies mal hier durch: http://forum.beyond3d.com/showthread.php?p=1704787&highlight=Tegra+break+point#post1704787 DU WAGST ES DEN KAISER JHH SELBER ZU BEZWEIFELN DU DU DU.... :D


Toshiba, Sony, Asus, Fujitsu, Acer, Google, Lenovo und noch ein paar andere haben T3-Tablets im Angebot; einzeln alles eher kleine Stückzahlen, aber in der Masse ist das schon einiges. Siehe den obigen Umsatz.

Und es ist nicht rein zufaellig der Fall dass Amazon mit ihren Kindles in Volumen alle die von Dir aufgelisteten uebertrifft oder? Nur auf Android begrenzt liegt Samsung an der Spitze gefolgt von Amazon. Ignoriert man das unterliegende OS liegt natuerlich Apple an der Spitze. Sonst wird es wohl nicht allzu schwer sein herauszufinden wie viele tablets z.B. Apple fuer Jahr X verkauft und es mit dem Marktanteil zu parallelisieren.

Hehe, naja Performance ist ja noch nicht gleich Volumen, das wollte ich nicht behaupten. ;)

Gut dann die naechste Trickfrage? Werde ich ein T4 tablet vor dem iPad5 kaufen koennen, gleichzeitig oder spaeter und welches der beiden wird genau um wieviel schneller sein? Wenn es schon um Leistung gehen soll und man die Leistungskrone unbedingt haben will, je laenger diese haelt (wenn ueberhaupt) desto besser.


Genau das ist doch die sinnvollste Taktik für jeden Underdog: Den sweet-spot zwischen Kosten und Nutzen finden. >>100mm² Chips kann sich Apple leisten, aber warum sollte Nvidia so dumm sein? Sieh das mal als Analogie zu Bobcat/Kabini bei AMD; auch da geht es primär um geringe Produktionskosten. Was man dann aus dieser geringen Fläche rausholt, ist umso erstaunlicher.

Ausserhalb von marketing bullshit gibt es keine allzu besondere Nutzen fuer 4*A15 cores ueberhaupt im Angesicht wie viel Strom die Dinger verbrauchen. Die area fuer sich selber ist auch nicht immer der absolute Indikator; wenn Du's mit der Packdichte uebertreibst koennte es die yields beinflussen und natuerlich auch mehr Strom verbrauchen.

Das daemliche ist eben dass NV's technisches marketing immer noch nicht sicher ist was genau was ist und ich sehe schon etliche Papageien im Netz den Unsinn wiederzublubbern. Ich nehme mal nur einen slide der perf/mm2 fuer die ULP GF T4 betrifft und Du kannst mir gerne beweisen dass es falsch ist:

* ULP GF soll unter 28nm 10.5mm2 wiegen. Komischerweise gab es keinen echten die shot von T4 bis jetzt. Mal sehen grob nimmt die GPU hier unter 28nm 1/8 von der insgesamten die area ein. Die ULP GF in T2 bestand aus 1 Vec4 FP20 PS ALUs + 1 Vec FP32 VS ALUs, 2 TMUs bei 333MHz unter 40nm und wiegte unter diesem in etwa 8+mm2 oder etwa 1/5 von der gesamten SoC Groesse. Falls Du Zweifel hast bei Anand gibt es noch einen echten die shot von T2.

So und jetzt kommt NV's marketing daher und wollen mich ueberzeugen dass von 40 auf 28nm nicht nur 12x Mal so viel PS ALUs, 6x Mal so viel VS ALUs und 2x Mal so viel TMUs in 1/8 reinpassen sondern es gibt auch noch eine Taktsteigerung von 333 auf 672MHz. Bin ich der einzige bei dem das Ganze nicht richtig sitzen will?

* Ein Vergleich von N FP20 ALUs/mm2 mit allen anderen mit N FP32 ALUs/mm2 ist ja wirklich verdammt ueberzeugend.

* NVIDIA's marketing re-designed auch GPU IP von anderen Firmen; ergo hat der Mali T604 von ARM im Samsung 5250 30 SIMD lanes, 79 SFUs (!!! :D ) und 4 TMUs bei 533MHz um die von ARM selber angegebenen 72 GFLOPs@533MHz zu erreichen. NV gibt im slide nur 32 GFLOPs an fuer den T604. In Realitaet besteht das Ding aus 4*SIMD16 und erreicht ohne die SFUs natuerlich 68 GFLOPs bei 533MHz. Pfeif drauf weniger als die Haelfte weg wen schert's

* Apple A6X GPU soll normalisiert auf 28nm ganze 37mm einnehmen nach NV. Unter 32nm sind es knapp 35mm4 fuer den gesamten GPU block (power islands und surrounding logic mitberechnet den NV fuer sich selber wohl zu vergessen tendiert *hust*)...

etc etc. es ist noch um einiges mehr aber es wird langweilig das Gleiche immer und immer zu wiederholen.

y33H@
2013-02-27, 15:15:07
Ich bin sicher nicht der einzige, der die flachen Wände bei Crysis 3 blöd findet. Bedank dich nicht bei Nvidia, sondern bei AMD dafür.Crytek ist erst vor wenigen Wochen bzw Monaten auf Gaming Evolved gewechselt, glaube kaum, dass die dann deswegen alle Wände (sofern tesselliert) gekickt haben.

Ailuros
2013-02-27, 15:17:47
Ich denke mit dieser Einstellung liegst du reichlich daneben. Große Deals werden nicht über Highlights gewonnen, sondern über P/L. Das wiederum setzt sich zusammen aus Kosten (für SoC und Implementierung) sowie die Gegenleistung (Performance, Features). Dieses Gesamtpaket sehe ich hinsichtlich Tablets als ziemlich gelungen an. Was erwartest du überhaupt? Das einer der kleinsten Spieler am Markt den schnellsten, sparsamsten, kleinsten und höchst-integriertesten SoC überhaupt auf die Beine stellt? :confused: Das ist schlicht unmöglich, nicht nur bei SoCs, sondern auf jede Branche bezogen. Als (mehr oder weniger) Quereinsteiger muss man sich seinen Zielmarkt suchen und von dort aus expandieren.

Wenn nicht DER allerwichtigste perf/mW ist im SFF mobilen Markt dann heiss ich Hanswurst. So und jetzt zeig mir mal NV's tolle relevante slides fuer perf/mW...errr ouch oder :wink::biggrin:

boxleitnerb
2013-02-27, 15:18:08
Es ist halt schon sehr merkwürdig, dass wir das in Crysis 2 zu sehen bekamen, in Crysis 3 aber nicht. Bei sowas werde ich misstrauisch.

aufkrawall
2013-02-27, 15:19:58
Bei Crysis 2 performte die Ghz-Edition auch gut.

SamLombardo
2013-02-27, 15:37:18
Es ist halt schon sehr merkwürdig, dass wir das in Crysis 2 zu sehen bekamen, in Crysis 3 aber nicht. Bei sowas werde ich misstrauisch.
Zumal wohl die Tessellation bei den Charakteren in Videos schon zu sehen war und im fertigen Spiel fehlt. (Hab jetzt keine Quellenangabe, die Info ist aus dem C3 Thread hier im Forum)

Gruß

Undertaker
2013-02-27, 16:18:11
Wenn nicht DER allerwichtigste perf/mW ist im SFF mobilen Markt dann heiss ich Hanswurst. So und jetzt zeig mir mal NV's tolle relevante slides fuer perf/mW...errr ouch oder :wink::biggrin:

:D

http://www.abload.de/img/unbenanntd2d1r.png (http://www.abload.de/image.php?img=unbenanntd2d1r.png)

Jaaa OK, das ist nicht Volllast. ;) Aber Volllast ist auch nicht der wichtigste Punkt, wenn es um die Akkulaufzeit im normalen Alltag geht. Worst-Case saugt dir auch der S4 Pro den Smartphone-Akku in rund 2h leer. In Tablets ist das Ganze durch den höheren prozentualen Einfluss des Displays alles etwas weniger kritisch.

Iruwen
2013-02-27, 16:30:05
Und was ist aus NVs DevRel geworden? Schon lange aus das ich mich an Spiele erinnern kann in denen NV aktiv beteiligt war und zusätzliche Features eingebaut hat.

TXAA (BO2, AC3, C3) oder 3D Vision (GW2) z.B.

boxleitnerb
2013-02-27, 16:31:36
Proprietärer Mist vs. Goodies für alle. Da hast du deine zweierlei Maß.

Tessellation ist proprietär? Ist mir neu.

Sven77
2013-02-27, 16:32:39
Der Performance Hit bei Tesselation ist doch bei der HD7 Serie gar nicht mehr so gross.. warum sollte AMD schuld sein das Crytek es nicht mehr benutzt

Ailuros
2013-02-27, 16:36:59
:D

http://www.abload.de/img/unbenanntd2d1r.png (http://www.abload.de/image.php?img=unbenanntd2d1r.png)

Jaaa OK, das ist nicht Volllast. ;) Aber Volllast ist auch nicht der wichtigste Punkt, wenn es um die Akkulaufzeit im normalen Alltag geht. Worst-Case saugt dir auch der S4 Pro den Smartphone-Akku in rund 2h leer. In Tablets ist das Ganze durch den höheren prozentualen Einfluss des Displays alles etwas weniger kritisch.

In dem Fall brauchste auch keine uebertolle GPU. Uebrigens falls die GPU tatsaechlich nur 10.5mm2@28nm wiegen sollte, koennte es verdammt grau aussehen fuer den Stromverbrauch wenn sie es mit der Packdichte uebertrieben haben.

boxleitnerb
2013-02-27, 16:37:47
Es ist ne Vermutung. Kann so sein oder nicht. Ich finds merkwürdig und verdächtig zugleich :D

fondness
2013-02-27, 16:41:30
Es ist ne Vermutung. Kann so sein oder nicht. Ich finds merkwürdig und verdächtig zugleich :D

Es ist lächerlich auch nur anzunehmen, dass AMD hin geht und sagt tut das weg weil es uns Leistung kostet und Crytec sagt einfach ja und Amen. Wenn irgend jemand glaubt das so eine Zusammenarbeit aussieht dann gute Nacht. Vielleicht ist Crytec diesmal auch einfach deshalb sparsamer mit Tesslation weil es bei Crysis 2 zurecht einige Kritik am Tesslationseinsatz gab.

M4xw0lf
2013-02-27, 16:47:46
Tessellation ist proprietär? Ist mir neu.
Ich nahm natürlich an, du sprechtest von Physx. ;)

Es ist lächerlich auch nur anzunehmen, dass AMD hin geht und sagt tut das weg weil es uns Leistung kostet und Crytec sagt einfach ja und Amen. Wenn irgend jemand glaubt das so eine Zusammenarbeit aussieht dann gute Nacht. Vielleicht ist Crytec diesmal auch einfach deshalb sparsamer mit Tesslation weil es bei Crysis 2 zurecht einige Kritik am Tesslationseinsatz gab.
Wieso ist es lächerlich das anzunehmen? Nüchtern betrachtet wäre das absolut sinnvoll aus AMDs Perspektive.

boxleitnerb
2013-02-27, 16:47:53
^ genau das. Sparsamer ist ein lustiger Begriff, wenn es teilweise komplett fehlt.

Nun, auch bei PhysX kann man von der Auswirkung her eine Parallele sehen. Ob ich jetzt GI in Dirt:SD abschalten muss, weil es beschissen läuft oder ob ich PhysX abschalten muss, weil das beschissen läuft (CPU), ist gehupft wie gesprungen. Fakt ist, wenn es einseitige extreme Performanceoptimierungen gibt, gibts Marktsegmentierung und es kommt nicht allen zugute.

Ronny145
2013-02-27, 16:51:37
Es ist lächerlich auch nur anzunehmen, dass AMD hin geht und sagt tut das weg weil es uns Leistung kostet und Crytec sagt einfach ja und Amen.


Wenn AMD mit Geldscheinen wedelt und Evolved an bestimmte Bedingungen knüpft, dann ist nichts auszuschließen.

Undertaker
2013-02-27, 16:52:58
In dem Fall brauchste auch keine uebertolle GPU. Uebrigens falls die GPU tatsaechlich nur 10.5mm2@28nm wiegen sollte, koennte es verdammt grau aussehen fuer den Stromverbrauch wenn sie es mit der Packdichte uebertrieben haben.

Der immense Unterschiede gerade zum A6X ist schon etwas verdächtig; gut vorstellbar, das Perf/Watt bei GPU-Volllast nicht gerade rekordverdächtig ist. Irgendwo muss das Ding ja auch eine Schwäche haben, Perf + sparsam + winzig lässt sich so nun eben nicht vereinen. So lange im normalen 3D-Betrieb nichts throttelt und die TDP gekühlt werden kann, wird man damit leben können und müssen. Bei Tegra 3 sah das auch nicht anders aus, hat sich trotzdem verkauft; wie gesagt, in Tablets mit >20Wh-Akku sind 1-2 Watt Mehrverbrauch auch kein totaler Beinbruch. Einen Kindle kannst du hier sowieso nicht vergleichen, der "popelige" OMAP spielt eher auf Tegra 2 Niveau. ;)

M4xw0lf
2013-02-27, 16:54:36
Nun, auch bei PhysX kann man von der Auswirkung her eine Parallele sehen. Ob ich jetzt GI in Dirt:SD abschalten muss, weil es beschissen läuft oder ob ich PhysX abschalten muss, weil das beschissen läuft (CPU), ist gehupft wie gesprungen. Fakt ist, wenn es einseitige extreme Performanceoptimierungen gibt, gibts Marktsegmentierung und es kommt nicht allen zugute.

GI läuft immer noch annehmbar mit einer Geforce, was anders aussehen würde, wenn AMD durch künstliche Beschränkungen dafür sorgen würde, dass Nvidia-Nutzer es von der CPU berechnen lassen müssten... das ginge dann in etwa mit Cinebench-Geschwindigkeit ^^

boxleitnerb
2013-02-27, 16:59:23
GI läuft immer noch annehmbar mit einer Geforce, was anders aussehen würde, wenn AMD durch künstliche Beschränkungen dafür sorgen würde, dass Nvidia-Nutzer es von der CPU berechnen lassen müssten... das ginge dann in etwa mit Cinebench-Geschwindigkeit ^^

Annehmbar? Naja das sehe ich anders. Die Performance in Dirt SD weicht sehr sehr deutlich von allen anderen Spielen ab. Der Developer hat ja auch noch was mitzureden, total übertreiben kann man es mit den Optimierungen nicht. +50% kann schon den Unterschied zwischen annehmbarer und nicht annehmbarer Performance ausmachen, das reicht schon aus.

M4xw0lf
2013-02-27, 17:10:17
Annehmbar? Naja das sehe ich anders. Die Performance in Dirt SD weicht sehr sehr deutlich von allen anderen Spielen ab. Der Developer hat ja auch noch was mitzureden, total übertreiben kann man es mit den Optimierungen nicht. +50% kann schon den Unterschied zwischen annehmbarer und nicht annehmbarer Performance ausmachen, das reicht schon aus.
http://www.pcgameshardware.de/Dirt-Showdown-PC-238936/Tests/Dirt-Showdown-Grafikkarten-Benchmarks-zur-Erweiterten-Beleuchtung-1018360/
Also AMDs Forward+ alleine läuft schon annehmbar. Global Illumination zusätzlich kostet dann bei beiden Lagern ähnlich viel.

boxleitnerb
2013-02-27, 17:18:41
"Normal" Gleichstand und mit Forward+ und GI ist AMD 50% schneller. Da würde ich es persönlich abschalten, weil es einfach zuviel kostet. Genau wie ein AMD-Besitzer wohl GPU-PhysX abschalten würde, bevor er es auf der CPU laufen lässt. Ich mein halt nur, die Auswirkungen sind ähnlich.

Ailuros
2013-02-27, 17:40:04
Bei Tegra 3 sah das auch nicht anders aus, hat sich trotzdem verkauft; wie gesagt, in Tablets mit >20Wh-Akku sind 1-2 Watt Mehrverbrauch auch kein totaler Beinbruch. Einen Kindle kannst du hier sowieso nicht vergleichen, der "popelige" OMAP spielt eher auf Tegra 2 Niveau. ;)

Bei welchem Preispunkt genau fuer die Kindle Fires. Wenn Amazon fuer mehr als 12Mio Kindle Fs eingeschaetzt wird bis Ende 2012 und Nexus7 war etwas weniger als 6 Mio hingegen interessiert es jetzt wen genau bei welchem Preispunkt genau mit dem verdammt geringen Nexus7 Preis von dem NV so oder so ziemlich wenig verdient hat. Interessiert wohl auch keinen wenn NV die Dinger zum Fenster rausschmeisst nur um Marktanteil zu gewinnen.

Sonst was die Leistung betrifft hat das 7" Fire tatsaechlich in etwa AP20 Leistung, das 8.9" Fire ist aber dann schon auf T3 Nivaeu (wobei ich sogar das schnellste T3 tablet raussuchte damit keiner meckert): http://www.glbenchmark.com/compare.jsp?D1=Amazon+KFJWI+Kindle+Fire+HD+8.9+Wi-Fi&D2=Amazon+KFTT+Kindle+Fire+HD+7&D3=Asus+Transformer+Pad+TF700T+Infinity&cols=3

Undertaker
2013-02-27, 18:02:12
Sonst was die Leistung betrifft hat das 7" Fire tatsaechlich in etwa AP20 Leistung, das 8.9" Fire ist aber dann schon auf T3 Nivaeu (wobei ich sogar das schnellste T3 tablet raussuchte damit keiner meckert): http://www.glbenchmark.com/compare.jsp?D1=Amazon+KFJWI+Kindle+Fire+HD+8.9+Wi-Fi&D2=Amazon+KFTT+Kindle+Fire+HD+7&D3=Asus+Transformer+Pad+TF700T+Infinity&cols=3

Da hast du aber auch den einzigen Benchmark herausgesucht, bei dem das so ist. ;) In anderen 3D-Benches oder allgemeinen Benchmarks liegt der T3 mehr als deutlich in Führung (Nenamark z.B. Faktor 2). CPU-seitig sowieso, 2x A9 vs. 4x A9 bei ähnlicher Taktrate.

Btw: TI dürfte am Kindle-Deal pro Stück kaum mehr verdient haben als Nvidia beim Nexus 7. Bei solchen Stückzahlen lassen sich die Margen extrem drücken, da es genug Konkurrenz/Interessenten gibt.

Ailuros
2013-02-27, 18:21:27
Da hast du aber auch den einzigen Benchmark herausgesucht, bei dem das so ist. ;) In anderen 3D-Benches oder allgemeinen Benchmarks liegt der T3 mehr als deutlich in Führung (Nenamark z.B. Faktor 2). CPU-seitig sowieso, 2x A9 vs. 4x A9 bei ähnlicher Taktrate.

GLBenchmark ist leider momentan einer der wenigen GPU benchmarks der wirklich mobile GPUs richtig abmisst. Bei der eher beschissenen Implementierung von Android auf Kindles ist die unterliegende hw sowieso relativ wurscht. Ich kann's mir zwar selber noch nicht erklaeren aber Amazon scheint in letzter Zeit mit OpenCL zu experimentieren, war aber nicht der hauptsaechliche Grund warum den Kindle Fire deal nicht NV oder Qualcomm gewonnen haben die mit-konkurrierten.

Btw: TI dürfte am Kindle-Deal pro Stück kaum mehr verdient haben als Nvidia beim Nexus 7. Bei solchen Stückzahlen lassen sich die Margen extrem drücken, da es genug Konkurrenz/Interessenten gibt.

Doch weil TI kleinere BOMs hatte fuer die beiden SoCs. Um wieviel verkauft Amazon die beiden Fires genau? Der 7" hatte einen vergleichbaren MSRP mit dem Nexus7 und der 8.9" um einiges mehr. Ja natuerlich je groesser das Volumen desto niedriger die Preise, aber wieviel glaubst Du wirklich dass NV pro T33 SoC bekommen hat fuers Nexus7 mit seinem MSRP?

sloth9
2013-03-02, 16:29:26
AMD wird IMHO in Zukunft stärker werden, dank der Konsolen-Deals. Schau mal, wie gut die Phenoms in Crysis 3 funktionieren. Das ist vielleicht erst der Anfang.

Der PC-Game-Markt schrumpft bei steigenden Investitionskosten. Im mobilemn Markt ist dagegen ein großes Wachstum zu erwarten.
Es ist für NVidia IMHO überlebensnotwendig, sich außerhalb des PC-Gamer-Marktes stärker zu engagieren. Und eine Arbeitsstunde kann nur einmal geleistet werden, man muss sich entscheiden.

Häh? Bei AMD ist doch jeder, der was drauf hatte, zu Samsung, Qualcomm etc. gegangen.

Bei den Grafikkarten macht nvidia AMD so platt wie noch nie:

65,7% zu 34,3% bei den dezidierten Grafikkarten ist ein Allzeithoch!

http://www.3dcenter.org/dateien/abbildungen/Marktanteile-Grafikchips-fuer-Desktop-Grafikkarten-2002-2012_0.png

M4xw0lf
2013-03-02, 16:54:29
Ja, und das ist so wenig nachvollziehbar wie noch nie.

Godmode
2013-03-02, 17:20:25
Ja, und das ist so wenig nachvollziehbar wie noch nie.

Naja was ist schon nachvollziehbar? Wenn Firma A einen besseren Ruf als Firma B hat, kaufen die Leute das zeug von Firma A. AMD muss das billig Image wegbringen. Selbst zu Zeiten eines A64, als ich noch auf der Uni war, meinte ein renommierter Prof. auf meine Frage, warum hier lauter Intel Rechner verwendet werden: "Wir wollen Intel Qualität und nicht so ein billigheimer Zeugs".

Die Konsumenten kennen sich noch weniger aus. Zitat: Du meine Nvidia ist kaputt worden, welche soll ich mir holen? Leute verwenden Nvidia als Synonym für Grafikkarte. Mehr gibts dazu nicht zu sagen.

Giraffengustav75
2013-03-02, 17:54:26
Mal schauen, also ich hoffe dass AMD und Sony wieder Aufwind bekommen.
Ich find's auch gut. :smile:
Allen Unkenrufen zum Trotz: Die beiden haben unsere Hardware- und Konsolenlandschaft wesentlich mitgeprägt und wie wäre es, wären die beiden jetzt pleite? ;(

Sunrise
2013-03-02, 17:57:38
Häh? Bei AMD ist doch jeder, der was drauf hatte, zu Samsung, Qualcomm etc. gegangen.

Bei den Grafikkarten macht nvidia AMD so platt wie noch nie:

65,7% zu 34,3% bei den dezidierten Grafikkarten ist ein Allzeithoch!

http://www.3dcenter.org/dateien/abbildungen/Marktanteile-Grafikchips-fuer-Desktop-Grafikkarten-2002-2012_0.png
Sehr interessanter Verlauf, kenne das Bild garnicht, gute Arbeit, wer immer das auch erstellt hat.

Ja, und das ist so wenig nachvollziehbar wie noch nie.
Allerdings bitte nicht vergessen, dass AMD davon gesprochen hat, dass sie im Januar besser verkauft haben als im ganzen Jahr 2012. Das fehlt hier leider komplett. Auch die Auswirkungen der Titan und ob Käufer zu AMD abwandern werden sich erst nach einer Weile niederschlagen. NV scheint sich dieses Jahr auszuruhen, während AMD da noch einiges zu bringen scheint.

aufkrawall
2013-03-02, 17:58:54
Hardwareseitig ja nichts wirklich Neues.

Skysnake
2013-03-02, 20:09:11
Häh? Bei AMD ist doch jeder, der was drauf hatte, zu Samsung, Qualcomm etc. gegangen.

Bei den Grafikkarten macht nvidia AMD so platt wie noch nie:

65,7% zu 34,3% bei den dezidierten Grafikkarten ist ein Allzeithoch!

http://www.3dcenter.org/dateien/abbildungen/Marktanteile-Grafikchips-fuer-Desktop-Grafikkarten-2002-2012_0.png
Woher kommen die Zahlen überhaupt? (Quelle)

Und deine Einschätzung "nvidia AMD so platt wie noch nie" ist falsch...

04/02 24<->65 -> 41 Prozentpunkte Vorsprung
04/12 34<->66 -> 32 Prozentpunkte Vorsprung

:rolleyes:

mugger
2013-03-03, 04:12:25
Ist ok.
Geht einer, kommt sein Konkurrent und nimt dessen freien Platz ein.

Ich z.B. habe nicht mal ein Handy - ein großes Telefon ("TabletPC") erstetzt i.M. und absehbar keinen "echten" PC.

fondness
2013-03-03, 09:01:28
Hardwareseitig ja nichts wirklich Neues.

Die Marktanteile hat man eh nicht auf dem Desktop, sondern im Notebooksegment verloren. ganz einfach weil man im LowEnd nur 40nm Chips hatte. Und hier könnte man mit Mars und den anderen neuen mobile Produkten durchaus wieder Marktanteile gewinnen.

Iruwen
2013-03-03, 21:30:15
Allerdings bitte nicht vergessen, dass AMD davon gesprochen hat, dass sie im Januar besser verkauft haben als im ganzen Jahr 2012. Das fehlt hier leider komplett. Auch die Auswirkungen der Titan und ob Käufer zu AMD abwandern werden sich erst nach einer Weile niederschlagen. NV scheint sich dieses Jahr auszuruhen, während AMD da noch einiges zu bringen scheint.
AMDs letzte "Innovation" in dem Markt waren die GHz Editionen (nachdem es schon bessere Karten gab) und evtl. eine offizielle 7990 (nachdem es schon entsprechende Karten gibt) wenn ich mich recht erinnere. Clappity clappity. Da müssen die 8000er erstmal eine kräftige Schippe drauflegen. Und den endgültigen Untergang Nvidias haben auch schon genügend Leute beim Release der GTX 480 prophezeit. Dazu... siehe Diagramm.

Sunrise
2013-03-03, 21:44:56
AMDs letzte "Innovation" in dem Markt waren die GHz Editionen (nachdem es schon bessere Karten gab) und evtl. eine offizielle 7990 (nachdem es schon entsprechende Karten gibt) wenn ich mich recht erinnere. Clappity clappity. Da müssen die 8000er erstmal eine kräftige Schippe drauflegen. Und den endgültigen Untergang Nvidias haben auch schon genügend Leute beim Release der GTX 480 prophezeit. Dazu... siehe Diagramm.
Zum Thema Untergang sage ich mit Absicht nichts, denn das ist IMHO völliger Quatsch, solange NV´s Zahlen passen. Es wird allerdings schwieriger werden, das gilt aber für beide Seiten.

Die teuren Produkte spielen hinsichtlich der Marktanteile nur minimal mit rein, da muss deutlich mehr Masse untenrum verkauft werden, dass sich was an den Marktanteilen signifikant ändert. So ein paar Neuaufgüsse können da allerdings schon was ausrichten, wenn die richtig vermarktet werden. Zeit hat AMD derzeit genug um sich besser auszurichten.

Obenrum tun sich aktuell beide Seiten aus Gamersicht keinen Gefallen. Der eine hält sich anscheinend zukünftig von High-End sGPUs fern, worauf der andere mit komplexen Monstern antwortet, die aufgrund fehlender Konkurrenz preislich völlig frei angeboten werden können. Das ist schlecht für uns alle.

Pirx
2013-03-03, 22:19:56
AMDs letzte "Innovation" in dem Markt waren die GHz Editionen...bla...
Nö topmoderne und erschwingliche Grafikkarten mit DX11.1 und ausreichend VRAM, der komplett mit voller Performance nutzbar ist HAHA;D

gnahr
2013-03-03, 22:44:36
also laut steam hardware survey hat nvidia mehr gtx680 allein an den man gebracht als jede hd7000 von amd. wo gtx560ti und 550ti stehen wollt ihr gar nicht wissen, auf platz 2 und 3 hinter intels 3000igp.

DarknessFalls
2013-03-03, 23:38:47
...wobei das in Anbetracht von P/L gerade der GTX680 schlichtweg traurig ist.

Tesseract
2013-03-03, 23:48:39
...wobei das in Anbetracht von P/L gerade der GTX680 schlichtweg traurig ist.
vielleicht sollte AMD das mal als anlass für ein bischen selbstreflexion nehmen und überlegen warum das gerade im high-end-bereich der fall ist.

Knuddelbearli
2013-03-04, 00:11:18
sind einfach das meiste verblendete Markenkäufer ^^

Mir waren Markensachen schon als Kind egal, sehe auch heute nicht nen Sinn darin echte Lewis Jeans oder Snickers zu kaufen, und das liegt sicher nicht darin das ich es mir nicht leisten könnte ( ok als Kind schon aber halt heute nicht mehr ^^ )

StefanV
2013-03-04, 00:47:43
vielleicht sollte AMD das mal als anlass für ein bischen selbstreflexion nehmen und überlegen warum das gerade im high-end-bereich der fall ist.
Was soll das bringen?

So lang es nV Fans in Foren gibt, die alles, was nV macht mit dem Knüppel schön reden und alles, was AMD macht niedermacht...

Aber AMD hat ja schon damit angefangen, indem sie auf nVidia dreschen, bei Tomb Raider, wo man sagte, dass man, im gegensatz zum anderen nicht auf Propriäteres setzt...

sind einfach das meiste verblendete Markenkäufer ^^
Genau so schauts aus!

Meldet euch mal bei 'nem MMO an und sprecht mal mit den Leuten dort, was sie für Grafikkarten haben und warum...
Da bleibt euch z.T. die Spucke weg, wie fanatisch man nV kauft...

Kurzum: man frisst einfach alles, was einem von nVidia aufgetischt wird...

Tesseract
2013-03-04, 01:39:48
Was soll das bringen?
beseitigung der misstände, was denn sonst?
ja ich weiß, dieses konzept existiert für einige nicht. die ganze welt ist schwarz-weiß und jeder der kein verbündeter ist, ist der feind. :rolleyes:

So lang es nV Fans in Foren gibt, die alles, was nV macht mit dem Knüppel schön reden und alles, was AMD macht niedermacht...
wo sind diese fans? hier im forum können die meisten leute ihre präferenz irgendwie rechtfertigen. auf der einen seite ist da meist die einstellungsflexibilität und auf der anderen preis/leistung. unterschiedliche leute haben halt manchmal unterschiedliche kriterien, die ihnen wichtig sind.
ich muss aber gestehen die paar wenigen, die hier regelmäßig durch starken bias auffallen oder sich "verfolgt" fühlen, sind meist amd-käufer - warum auch immer.

Meldet euch mal bei 'nem MMO an und sprecht mal mit den Leuten dort, was sie für Grafikkarten haben und warum...
Da bleibt euch z.T. die Spucke weg, wie fanatisch man nV kauft...
was sind das für gründe? ich mache in einem MMO ehrlich gesagt andere dinge als die leute zu fragen warum sie welche grakas haben.

gnahr
2013-03-04, 08:50:25
sind einfach das meiste verblendete Markenkäufer ^^
hier werden ganze gruppen von leuten als dumm und verblendet abgestemmpelt. massenweise und ohne rechtfertigungsoption. was würden die fundichristen jetzt zitieren? die sache mit dem splitter im fremden und nem balken im eigenen auge? :P
es ist fast abstoßend wie frappierend manche accounts an billige irc-chatbots erinnern die immer wieder den gleichen fug durchkauen. leuten werden in einen topf geworfen (auf der selben verbalen stufe wie man zu kochendes gar-gut seinem schicksal zuführt und nicht etwa mitmenschen behandelt) weil sie ne entscheidung anders getroffen haben und ihnen werden pauschal möglichst viele fähig- und fertigkeiten abgesprochen. es mangelt wirklich an selbstreflexion wie angegeben. die option dass der ausgang der entscheidung entweder egal ist oder man selbst gar falsch liegen könnte, weil dumm... teufel noch eins, niemals!

Aber AMD hat ja schon damit angefangen, indem sie auf nVidia dreschen, bei Tomb Raider, wo man sagte, dass man, im gegensatz zum anderen nicht auf Propriäteres setzt...
sehr gutes beispiel. man ist besser weil man nicht proporitär ist und damit drischt man nun auf einen alternativanbieter ein. bitte was? du meinst dieses zaghafte zeigen von teaser-bildern? wo ist da bitte selbstvertrauen und diese hochgejubbelte offenheit? keine techdemo, noch nichtmal ein video, das statement "wir sind ja so toll und weil wir nicht mehr hoffen marktanteile zu bekommen setzen wir keine einstiegshürden im gegensatz zu anderen" haben sie sich auch von den fanboys aus der nase ziehen lassen.


nein, amd hat keine produkte die es auch nur ansatzweise ermöglichen nicht an ihnen vorbei zu kommen. nein, kein leistungsvorsprung, keine technische raffinesse, keine magischen treiber. es könnte so eine schöne zeit sein, aber lieber stempeln einzelne 60% des marktes für doof ab und versuchen aufmerksamkeit um jeden kleinen fliegenhaufen zu ziehen. so bremst man innovationen in einer der fruchtbarsten zeiten aus, glückwunsch ihr misanthropen, anders kann man so ein schändliches tun (und in meinem hoffen nicht nur mit bots und dressierten affen zu kommunizieren) wider besseren wissens und klarem verstandes (abgesehen von harry der sich schon mal entschuldigte) nicht nachvollziehbar machen.
und um auch der selbstreflexion genüge zu tun: ich gestehe niemandem zu einfach so für sich zu deklarieren bei klarem verstand und bestechender brillianz zu sein, aber euch 4 hansel mal die eigene medizin entgegen zu hauchen ist rein stochastisch die wesentlich clevere wahl, anstelle der einreiung in den chor der gegen die stadtmauer trommelnden äffchen.

Skysnake
2013-03-04, 09:26:03
nein, amd hat keine produkte die es auch nur ansatzweise ermöglichen nicht an ihnen vorbei zu kommen.
klar, die Konsolen vergessen wir mal einfach :rolleyes:

Sag mir mal, wie nen Publisher, der Konsolenspiele raus bringt, an AMD vorbei kommt. Ich hoffe es hat klick gemacht ;)

Und bevor du mit Desktop kommst:
Welcher Gamehersteller kann es sich leisten, das seine Games nur auf nVidia laufen? Also ich kenne keinen :rolleyes:


nein, kein leistungsvorsprung, keine technische raffinesse, keine magischen treiber. es könnte so eine schöne zeit sein, aber lieber stempeln einzelne 60% des marktes für doof ab und versuchen aufmerksamkeit um jeden kleinen fliegenhaufen zu ziehen. so bremst man innovationen in einer der fruchtbarsten zeiten aus, glückwunsch ihr misanthropen, anders kann man so

Nein, natuerlich, alles was AMD macht ist natuertlich der letzte Rotz :rolleyes:

Wie komm ich auch darauf, dass die eine sehr coole und interessante Architektr mit GCN auf die Beine gestellt haben, Sie aber bei den APIs schwer nacharbeiten muessen, um die Sachen auch leicht nutzbar zu machen..

Was das Ganze jetzt aber mit Misantrohie zu tun hat, erschliesst sich mir in keinster weise. Vielleicht solltest du nochmal die Bedeutung nachschlagen ;) Oder zumindest mal erklaeren, wie du drauf kommst.


ein schändliches tun (und in meinem hoffen nicht nur mit bots und dressierten affen zu kommunizieren)

Welches "tun"?

Und wo bremst man die Innovationen?


wider besseren wissens und klarem verstandes (abgesehen von harry der sich schon mal entschuldigte) nicht nachvollziehbar machen.

Das behalten wir uns mal kurz in Erinnerung, gleich wirds lustig ;D


[quote]
und um auch der selbstreflexion genüge zu tun: ich gestehe niemandem zu einfach so für sich zu deklarieren bei klarem verstand und bestechender brillianz zu sein, aber euch 4 hansel mal die eigene medizin entgegen zu hauchen ist rein stochastisch die wesentlich clevere wahl, anstelle der einreiung in den chor der gegen die stadtmauer trommelnden äffchen.
/selfowned ;D

V2.0
2013-03-04, 09:30:59
Werden wir mal sehen was AMD aus den Konsolendeals machen kann.

Aber imho hat AMD ein Problem und dass ist der fehlende Exklusivpartner, der Topservice und Top/Qualität bietet.

gnahr
2013-03-04, 09:42:21
Sag mir mal, wie nen Publisher, der Konsolenspiele raus bringt, an AMD vorbei kommt. Ich hoffe es hat klick gemacht ;)
hm, 14tage gta iv was sie höchst selbst per treiber gesperrt haben, bzw wer nur treiber-cds hatte für immer. :)
vorbeikommen im sinne von kunde dass jemand fundiert über jemand anderen sagen kann "omg, warum kauft der behindie denn ne hd7950, ne gtx660ti ist doch viel besser!!!"

ich dachte schon du willst mein diktierprogramm für seine dyslexie hänseln, aber dann hab ich dein "Misantrohie" gesehen, 'tit for tat' ins auge jedes schriftgelehrten.

akuji13
2013-03-04, 09:54:23
Welcher Gamehersteller kann es sich leisten, das seine Games nur auf nVidia laufen?

Keiner.

Trotzdem scheint es ja so, das der Endkunde wenn er denn wählen kann (bei einer Konsole wird das Gesamtpaket gekauft, da ist dem Käufer letztlich egal was drin steckt) lieber zu einer NV greift. ;)

Stand heute kann ich das auch verstehen, meine letzte AMD war ne 7950, welche ich aufgrund diverser kleiner, aber nervenden Faktoren (blackscreens, freezes, SSAA-Implementierung, Multi-Monitor Probleme, downsampling, PhysX) gegen eine 680 getauscht hatte.

Mehrheitlich hatte ich sogar AMD Karten in meiner Laufbahn, aber die alten (z. B. XT800, XT2900) zickten weniger rum als das was AMD mir momentan bietet.

Ok, fairerweise muss ich sagen, das der Titan momentan ähnlich problematisch läuft. :D

PrefoX
2013-03-04, 10:54:14
Von der Performance her hat AMD das bessere Preis/Leistungsverhältnis, aber wenn die da die Treiber mit einrechne und da hatte ich bei AMD zu oft Probleme, zahl ich lieber 50€ mehr und dann hab ich kein Ärger.

Knuddelbearli
2013-03-04, 11:47:23
hier werden ganze gruppen von leuten als dumm und verblendet abgestemmpelt. massenweise und ohne rechtfertigungsoption. was würden die fundichristen jetzt zitieren? die sache mit dem splitter im fremden und nem balken im eigenen auge? :P
es ist fast abstoßend wie frappierend manche accounts an billige irc-chatbots erinnern die immer wieder den gleichen fug durchkauen. leuten werden in einen topf geworfen (auf der selben verbalen stufe wie man zu kochendes gar-gut seinem schicksal zuführt und nicht etwa mitmenschen behandelt) weil sie ne entscheidung anders getroffen haben und ihnen werden pauschal möglichst viele fähig- und fertigkeiten abgesprochen. es mangelt wirklich an selbstreflexion wie angegeben. die option dass der ausgang der entscheidung entweder egal ist oder man selbst gar falsch liegen könnte, weil dumm... teufel noch eins, niemals!


sehr gutes beispiel. man ist besser weil man nicht proporitär ist und damit drischt man nun auf einen alternativanbieter ein. bitte was? du meinst dieses zaghafte zeigen von teaser-bildern? wo ist da bitte selbstvertrauen und diese hochgejubbelte offenheit? keine techdemo, noch nichtmal ein video, das statement "wir sind ja so toll und weil wir nicht mehr hoffen marktanteile zu bekommen setzen wir keine einstiegshürden im gegensatz zu anderen" haben sie sich auch von den fanboys aus der nase ziehen lassen.





erstens aber ich meiste gesagt nicht alle zweitens brauchst du dazu nur in den Spiegel zu schauen, zu doof das ich seit Jahren nur NV Karten im Hauptrechner habe ...
Sind nunmal für meine Bedürfnisse am besten. Leider denken die wenigsten soweit und kaufen einfach weills NV ist.

Und genau so Sachen wie Werbeschlachten, proporitär Sachen, Angeberei wenn man ausnahmsweise mal was richtig macht usw, also all das was du AMD Vorwirfst macht ein Markenimage, wo die Leute dann ohne Nachdenken kaufen sollen, aus, also typisches Eigentor von dir ^^

Knuddelbearli
2013-03-04, 11:49:20
Von der Performance her hat AMD das bessere Preis/Leistungsverhältnis, aber wenn die da die Treiber mit einrechne und da hatte ich bei AMD zu oft Probleme, zahl ich lieber 50€ mehr und dann hab ich kein Ärger.


Als ob NV weniger Treiberprobleme hat... zuletzt zB der Coldbug, oder der SLI Bug

gnahr
2013-03-04, 12:05:01
welche karte wer im rechner hat ist nahezu unerheblich.
"oh, sie sind deutscher? na dann wissen sie bestimmt wie man ne gute bratwurst aus schwein macht."

die bildverzerrung durch ein markenimage wird nicht durch die anhaltende stigmatisierung beseitigt. aber macht nur weiter. amd zeigt es der welt ja gerade richtig mit den halben demo-bildern und nvidia verkackt nurnoch mit ihren überteuerten karten und satten verlusten und horden an wahnsinnigen zombies.

(alle... die meißten... als ob das die logik relativieren würde.
a:"liquidiert alle cyborgs und einen bäcker."
b:"warum den bäcker?"
a zu c:"siehste, keinen interessieren die cyborgs."

selbst wenn, du könntest und hast es in keiner weise zur gruppe der opponenten in verbindung gesetzt. es ist sicher nicht schwer leute zu finden die bis aufs blut für nen anderen chor singen und stimmung machen. oh, wait...)



was ist bei nvidia los? na es scheint auf jeden fall zu laufen. wenn die chip-fertigung nicht noch das größte hemmnis wäre wär die disskusion ja vielleicht sogar interessant.

Ailuros
2013-03-04, 12:10:51
Es gibt schon seit einiger Zeit keine besonderen Herstellungsprobleme fuer 28HP@TSMC mehr, aber um Gier zu gerechtfertigen oder es auch unter den Teppich zu kehren kann man ziemlich viele bunten Maerchen erzaehlen. Ach ja.... and NV lived happily ever after :freak:

akuji13
2013-03-04, 12:11:04
Ich hatte jahrelang 2 völlig identische Systeme (bis auf die Karte, letztmals eine 7950) laufen und in meinen Anwendungsbereichen zickte AMD immer mehr rum.

gnahr
2013-03-04, 12:19:00
Es gibt schon seit einiger Zeit keine besonderen Herstellungsprobleme fuer 28HP@TSMC
der satz reiht sich aber auch nahtlos an "nichts neues an der westfront" :eek:
wir (finger hoch, wer nicht) wollen 20nm-teststrecken sehen damit es nicht mehr so lange bis zu nem refresh und schlussendlich der nächsten generation dauert. dass der derzeite best-practice-flächenansatz normal bescheiden läuft ist da ein schwacher trost.

Ailuros
2013-03-04, 12:36:36
der satz reiht sich aber auch nahtlos an "nichts neues an der westfront" :eek:

Es gibt wohl mehr Platz unter Deinem Teppich als ich mir vorstellen konnte.

wir (finger hoch, wer nicht) wollen 20nm-teststrecken sehen damit es nicht mehr so lange bis zu nem refresh und schlussendlich der nächsten generation dauert. dass der derzeite best-practice-flächenansatz normal bescheiden läuft ist da ein schwacher trost.

Es ist die eigentliche Schuld eines jeglichen IHVs wenn er seine Entwicklung selber in eine Sackgasse treibt. Das gerechtfertigt aber immer noch keine Wucherpreise auf einem inzwischem relativ reifem 28nm Prozess fuer die heutigen Verhaeltnisse.

N0Thing
2013-03-04, 12:52:18
*Finger hoch*

Ich will erst einmal eine 28nm Generation (insbesondere die GTX 6x0-Reihe), die ein an der voran gegangen Generation gemessenes gutes Preisleistungsverhältnis hat, ich also für die Mehrleistung nicht ohne Not deutlich mehr bezahlen muß als im Vergleich zu früheren Generationswechseln.

Mancko
2013-03-04, 22:37:55
Es gibt wohl mehr Platz unter Deinem Teppich als ich mir vorstellen konnte.



Es ist die eigentliche Schuld eines jeglichen IHVs wenn er seine Entwicklung selber in eine Sackgasse treibt. Das gerechtfertigt aber immer noch keine Wucherpreise auf einem inzwischem relativ reifem 28nm Prozess fuer die heutigen Verhaeltnisse.

Angebot und Nachfrage regeln den Preis, ansonsten wäre der Preis niedriger. Offensichtlich wird gut zu diesen Preisen verkauft. Autos werden auch stetig teurer und trotzdem werden sie gekauft. Ich habe noch keine Beschwerde gehört, dass ein simpler VW Golf früher zwischen 20.000 und 30.000 DM gekostet hat und heute das gleiche in Euro, Tendenz steigend.

Das Ganze wird immer komplexer und auch die Stückzahlen von diskreten Grafikkarten nehmen in Summe leicht ab. Ist doch völlig klar, dass die Kundschaft zunehmend wird mehr bezahlen müssen. Im Endeffekt braucht es in unserem Wirtschaftssystem auch keine Rechtfertigung für Preise etc. Ich nehme selber auch höchstmögliche Preise. Wenn ich keinen finde der das bezahlt, dann muss ich mit den Preisen runter, wenn doch probiere ich beim nächsten Mal wieder eine kleine Erhöhung. Das nennt man Marktwirtschaft.

Felixxz2
2013-03-04, 22:56:38
Die natürliche Inflation mit dem Preis der Titan zu vergleichen ist absurd.

StefanV
2013-03-05, 04:23:16
Zum neuen Tomb Raider:
Scheint sich auf die 600er-Karten zu beschränken, da crasht es mit Tesselation wohl ausnahmslos bei jedem. Hab jedenfalls noch nichts Gegenteiliges gelesen.

Das ist, was ich weiter oben angesprochen habe...
Wenn nicht alle Welt bedingungslos auf nVidia optimiert, gibts auch hier das eine oder andere Problemchen...

Ailuros
2013-03-05, 07:04:19
Angebot und Nachfrage regeln den Preis, ansonsten wäre der Preis niedriger. Offensichtlich wird gut zu diesen Preisen verkauft. Autos werden auch stetig teurer und trotzdem werden sie gekauft. Ich habe noch keine Beschwerde gehört, dass ein simpler VW Golf früher zwischen 20.000 und 30.000 DM gekostet hat und heute das gleiche in Euro, Tendenz steigend.

Das Ganze wird immer komplexer und auch die Stückzahlen von diskreten Grafikkarten nehmen in Summe leicht ab. Ist doch völlig klar, dass die Kundschaft zunehmend wird mehr bezahlen müssen. Im Endeffekt braucht es in unserem Wirtschaftssystem auch keine Rechtfertigung für Preise etc. Ich nehme selber auch höchstmögliche Preise. Wenn ich keinen finde der das bezahlt, dann muss ich mit den Preisen runter, wenn doch probiere ich beim nächsten Mal wieder eine kleine Erhöhung. Das nennt man Marktwirtschaft.

Siehe Felixxz2' Beitrag. Natuerlich ist das Ganze um zich Male komplizierter geworden; eben weil mit dem obrigen mit total irrelevanten Konstanten parallelisiert wird und andere wichtige relevante Konstanten uebersehen werden koennen solche armchair Analysen ziemlich leicht zur Falle werden.

SamLombardo
2013-03-05, 08:48:08
Zum neuen Tomb Raider:


Das ist, was ich weiter oben angesprochen habe...
Wenn nicht alle Welt bedingungslos auf nVidia optimiert, gibts auch hier das eine oder andere Problemchen...
Und hier ist es an Nvidia, etwas zu tun! Und nicht, den Dev Support derart schleifen zu lassen (wie es AMD Jahre lang getan hat). Vielleicht hat es ja wirklich etwas mit dem von Fondness angesprochenen Wechsel des TWIMTBP Verantwortlichen zu AMD zu tun... Wer weiß. Auf jeden Fall war die Tatsache, dass Spiele auf NV meist unproblematischer liefen als auf ATI/AMD, zusammen mit den zusätzlichen Features immer eines der Argumente pro NV gewesen. Hier muss Nvidia mal wieder gegensteuern.

StefanV
2013-03-05, 10:20:33
Ja, aber diesen Punkt habe ich weiter oben ja schon mal angesprochen:
Es wird in der Spiele Branche immer nur auf einen rücksicht genommen. Der Rest hat (meistens) verloren und muss schauen, wie er es hin bekommt.

Naja, mal abwarten und Tee rauchen, was die Zeit so bringt...

Wenn es noch ein paar mal passiert, dann wird 'denen da draußen' vielleicht auffallen, dass es völlig ralle ist, wen man kauft...

sloth9
2013-03-05, 13:53:44
Woher kommen die Zahlen überhaupt? (Quelle)

Und deine Einschätzung "nvidia AMD so platt wie noch nie" ist falsch...

04/02 24<->65 -> 41 Prozentpunkte Vorsprung
04/12 34<->66 -> 32 Prozentpunkte Vorsprung

:rolleyes:

Ui, das weißt Du nicht? Sehr... Schade! 3dcenter.de hat Jon Peddie Research-Zahlen in eine Grafik gepackt:
http://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-vierten-quartal-2012

und 2002 gab's noch andere Anbieter (98% AMD u. nvidia).
Fakt ist, AMD sieht bei dezidierten Grafikchips keine Schnitte.
Beim Supercomputing ist der Marktanteil von nvidia noch höher.
Bei CPUs reißen Sie auch nichts.

w0mbat
2013-03-05, 13:59:36
Fakt ist, AMD liefert die Hardware für alle Next-Gen Konsolen. Fakt ist, AMDs Treiber sind aktuell besser als die von Nvidia. Fakt ist, AMD arbeitet immer mehr und besser mit den Entwicklern zusammen. Fakt ist, Nvidia verliert seinen besonderen Status. Fakt ist, in Zukunft wird AMD immer mehr Vorteile haben.

Godmode
2013-03-05, 14:15:46
AMDs Treiber sind aktuell besser als die von Nvidia.

Das ist schwierig zu sagen und wird man nie messen können. Was funktioniert besser? Spiele, Compute, Video, ...? Da kommt es dann immer auf die spezielle Situation an, so eine pauschal Aussage ist bringt rein gar nichts.

Insgesamt sehe ich aber für AMDs Grafiksparte sehr positv und für uns Konsumenten kann es auch nur gut sein.

TobiWahnKenobi
2013-03-05, 14:27:13
Fakt ist, AMD liefert die Hardware für alle Next-Gen Konsolen. Fakt ist, AMDs Treiber sind aktuell besser als die von Nvidia. Fakt ist, AMD arbeitet immer mehr und besser mit den Entwicklern zusammen. Fakt ist, Nvidia verliert seinen besonderen Status. Fakt ist, in Zukunft wird AMD immer mehr Vorteile haben.

fakt ist -

nvidia passt zu meinem 500€ 3DV-bildschirm, fakt ist NVidia passt zu meinem ACER H5360 3DVision beamer und fakt ist, NV verträgt sich mit meinem AVR, der an dem H6500 hängt.. ebenfalls ein beamer.. fakt ist, GTX690 (auch nvidia) läuft tadellos an dem neuen LG47LM669S inkl. ton über HDMI obwohl sie derweil in einem AMD-ökosystem steckt, fakt ist -> AMD schafft das hier nicht.. nicht mit HD7970 und auch nicht mit HD7850, die schon gestorben ist. einzig mit der IGP im zweitrechner gibts solchen ärger nicht, aber eine HD4250 ist jetzt nicht sooo up2date und mit bitstream kann die auch nix anfangen

videos dazu? bitteschön

video zum ton (https://www.youtube.com/watch?v=GpkivP5969w)
video zum bild (https://www.youtube.com/watch?v=eGgcbV_W1ko)
oder nach workarounds das stockende resultat: video (https://www.youtube.com/watch?v=iDQma0kqqEk)

das sind nicht nur fakten, das sind videos. schön dass bei hänschen müller auf seinem 24" aldi-TFT @60Hz ohne HDMI-audio, bitstream, sync des klonpanels oder ohne 3D ambitionen alles lüppt.. aber wer ist hänschen müller.




(..)

mfg
tobi

Exxtreme
2013-03-05, 14:32:17
Fakt ist, AMD liefert die Hardware für alle Next-Gen Konsolen. Fakt ist, AMDs Treiber sind aktuell besser als die von Nvidia. Fakt ist, AMD arbeitet immer mehr und besser mit den Entwicklern zusammen. Fakt ist, Nvidia verliert seinen besonderen Status. Fakt ist, in Zukunft wird AMD immer mehr Vorteile haben.
Wo die AMD-Treiber besser sein sollen erschliesst sich mir nicht. Alleine Microstuttering auf einer Grafikkarte mit nur einer GPU ist schon an Peinlichkeit nicht mehr zu überbieten. Und dann das unsägliche CCC. Lahm, fett, hässlich und einfach nervig.

w0mbat
2013-03-05, 15:46:10
CCC startet sofort und ist super zu bedienen. Aber wichtig wäre zB, dass die Treiber nicht einfach so abkacken wie bei den aktuellen NV und Tomb Raider.

aufkrawall
2013-03-05, 15:51:53
Was du wieder für einen Stuss erzählst. Mach dich ruhig endgültig lächerlich...

Sven77
2013-03-05, 15:57:55
fakt ist -

nvidia passt zu meinem 500€ 3DV-bildschirm, fakt ist NVidia passt zu meinem ACER H5360 3DVision beamer und fakt ist, NV verträgt sich mit meinem AVR, der an dem H6500 hängt.. ebenfalls ein beamer.. fakt ist, GTX690 (auch nvidia) läuft tadellos an dem neuen LG47LM669S inkl. ton über HDMI obwohl sie derweil in einem AMD-ökosystem steckt, fakt ist -> AMD schafft das hier nicht.. nicht mit HD7970 und auch nicht mit HD7850, die schon gestorben ist. einzig mit der IGP im zweitrechner gibts solchen ärger nicht, aber eine HD4250 ist jetzt nicht sooo up2date und mit bitstream kann die auch nix anfangen

videos dazu? bitteschön

video zum ton (https://www.youtube.com/watch?v=GpkivP5969w)
video zum bild (https://www.youtube.com/watch?v=eGgcbV_W1ko)
oder nach workarounds das stockende resultat: video (https://www.youtube.com/watch?v=iDQma0kqqEk)

das sind nicht nur fakten, das sind videos. schön dass bei hänschen müller auf seinem 24" aldi-TFT @60Hz ohne HDMI-audio, bitstream, sync des klonpanels oder ohne 3D ambitionen alles lüppt.. aber wer ist hänschen müller.




Die HDMI Probleme kann ich nachvollziehen, deswegen bin ich auf Displayport umgestiegen.. ein 500Eur Monitor mit TN und ohne Displayport? Da haben sie dich trotz 144Hz ueber den Tisch gezogen :cool:

Ronny145
2013-03-05, 16:05:36
Aber wichtig wäre zB, dass die Treiber nicht einfach so abkacken wie bei den aktuellen NV und Tomb Raider.


Da hier AMD die Finger im Spiel hat, wundert das nicht.

robbitop
2013-03-05, 16:14:08
AMD legt sich im Moment anscheinend ein wenig mehr in's Zeug als noch vor ein paar Jahren. Es fließt offenbar etwas mehr in devrel, im Treiber passiert mehr und es gibt jetzt diese Neversettle Bundles.
Dennoch ist es verdammt schwer auf ein so konstantes Niveau wie NV zu kommen. Wenn sie gleichziehen, haben sie schon viel geschafft.

Toll wäre ein optimiertes Crossfire, damit deren CF Produkte abseits von Benchmarks auch wirklich Vorteile gegenüber sGPU haben.
Ich habe das Bauchgefühl, dass sie zur 7990 an dieser Baustelle arbeiten. Die Karte benötigen sie immerhin gegen die Titan.

Insgesamt macht AMD sehr gute HW und die SW Jungs kommen so langsam auch in die Puschen. Das ist schön. Ich hoffe, sie können das auch langfristig auf dem Niveau halten. Ein Monopol wäre blöd - das sieht man ja teilweise beim Titan, welche Auswüchse das dann haben kann. Eine normalerweise 500 € Karte wird dann mangels Konkurrenz für 1000 € vertickt.

StefanV
2013-03-05, 16:21:24
Was du wieder für einen Stuss erzählst. Mach dich ruhig endgültig lächerlich...
Erzähl das bitte den Leuten hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9680079#post9680079). Dort berichten einige von Abstürzen mit 'ner GTX600 Serie bei aktivierter Tesselation.

Dennoch ist es verdammt schwer auf ein so konstantes Niveau wie NV zu kommen. Wenn sie gleichziehen, haben sie schon viel geschafft.
Nur ist die Frage eben, ob das an den Treibern selbst liegt oder eben daran, dass die Software Hersteller auf nVidia Hardware entwickeln (bzw entwickelt haben)??

TobiWahnKenobi
2013-03-05, 16:28:24
Die HDMI Probleme kann ich nachvollziehen, deswegen bin ich auf Displayport umgestiegen.. ein 500Eur Monitor mit TN und ohne Displayport? Da haben sie dich trotz 144Hz ueber den Tisch gezogen :cool:

das hier ist der falsche thread, aber die krücke mit dem DP bin ich 2012 auch gegangen, um wenigstens ein bild an die wand zu bekommen.. mDP->DVI/HDMI (AVR und DLP-beamer haben keinen DP).


(..)

mfg
tobi

Iruwen
2013-03-05, 16:34:26
Erzähl das bitte den Leuten hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9680079#post9680079). Dort berichten einige von Abstürzen mit 'ner GTX600 Serie bei aktivierter Tesselation.
Und Abstürze mit einem Betatreiber in einem Spiel das just heute erscheint und von AMD gepusht wird relativieren natürlich jahrelange gute Arbeit :rolleyes: Ich versteh ja dass sich manche an jeden Strohhalm klammern, aber man kanns auch übertreiben.

Black-Scorpion
2013-03-05, 18:13:03
Jahrelang war es egal ob es Betatreiber sind. Jetzt auf einmal wo der Treiber spinnt ist es natürlich was anderes. Komische Sichtweise die aber hier nicht verwundert.

Nachtrag an die Mods. Ihr könnt auch diesen kritischen Beitrag wie üblich einfach verschwinden lassen. Ist man ja gewohnt das hier mit Zweierlei Maß gemessen wird.

StefanV
2013-03-05, 18:14:10
von AMD gepusht wird
Ja, nee, ist klar...

Warum sagst nicht gleich:
silent, infidel

aufkrawall
2013-03-05, 18:19:19
Jahrelang war es egal ob es Betatreiber sind. Jetzt auf einmal wo der Treiber spinnt ist es natürlich was anderes. Komische Sichtweise die aber hier nicht verwundert.

Wem war das egal? Wie üblich kommt von dir nix Konkretes.
Ich glaube, du willst einfach nur ein bisschen auf die Kacke hauen, oder?

Black-Scorpion
2013-03-05, 18:38:03
Wem war das egal? Wie üblich kommt von dir nix Konkretes.
Ich glaube, du willst einfach nur ein bisschen auf die Kacke hauen, oder?
Nee lass mal. Mit dummen Sprüchen und auf die Kacke hauen will ich dir ganz sicher keine Konkurrenz machen. Mach das mal schön alleine.

aufkrawall
2013-03-05, 18:43:32
omg, hier merken die üblichen Verdächtigen echt gar nicht mehr, wie sie mit zweierlei Maß messen.
Sie reden über Monate Grafikfehler und sonst was mit zig AMD-Treibern schön, aber kaum klemmt mal was bei einem Nvidia-Betatreiber & nem verbugten AMD-Spiel, kommen sie gleich alle hervor gekrochen.

Es ist so lächerlich. Man muss sich den Super-Günstig-Kauf wohl unbedingt noch selbst als richtig beweisen, so zufrieden ist man...

Gipsel
2013-03-05, 18:43:35
Tragt Eure persönlichen Reibereien per PM aus!
Wir brauchen hier keinen Fanboy-Krieg nach dem Schema:
A: Mein Spielzeug ist größer!
B: Dafür ist meins schöner!
A: Stimmt doch gar nicht!
B: Stimmt aber wohl!

@Black-Scorpion:
Mod-Kritik (selbst wenn sie gerechtfertigt wäre) ist immer OT außer im Kontaktforum. Das solltest Du langsam mal wissen.

Iruwen
2013-03-05, 19:05:53
Ja, nee, ist klar...

Warum sagst nicht gleich:

Ach so. Wo sind jetzt die Leute die sich über übertriebene Tesselation aufgeregt haben, was ja offensichtlich ganz klar von Nvidia forciert war? Bezieht sich natürlich nicht auf die Abstürze, das ist einfach ein Bug, fertig.

Knuddelbearli
2013-03-05, 19:21:35
also ich wüsste nicht das jemals wer behauptet hat das eine AMD Karte anfangs in einem NV Spiel schlechter ist weill das NV mit Absicht so macht ...

Nichtmal von Bernd oder Horny

Gipsel
2013-03-05, 19:42:28
Die logische Schlußfolgerung ist wie immer, daß wenn ein GPU-Hersteller mit Spielentwicklern zusammenarbeitet, er die Treiber natürlich schon vor dem Start des Spiels besser (wenn es absolute Showstopper sind, informiert man vermutlich den jeweils anderen Hersteller trotzdem, der Entwickler will sich ja auch nicht sein Verkaufspotential zerstören) auf eventuell auftretende (Performance-)Probleme abklopfen bzw. eventuell entsprechend anpassen kann. Das funktioniert natürlich in beide Richtungen.

Godmode
2013-03-05, 19:45:23
Das würde die Tomb Raider Probleme erklären:

http://www.computerbase.de/news/2013-03/geforce-karten-mit-problemen-in-tomb-raider/

CB: "Nvidia hat sich diesbezüglich mittlerweile zu Wort gemeldet und die Schwierigkeiten bestätigt. Demzufolge hat man bei Nvidia den finalen Code erst letztes Wochenende erhalten und hatte keine Zeit mehr, auf die Probleme zu reagieren. Vorherige Versionen sollen diese nicht aufgewiesen haben. Nvidia entschuldigt sich bei allen GeForce-Besitzern und teilt zugleich mit, dass man mit Hilfe von Crystal Dynamics daran arbeitet und schnellstmöglich eine Lösung bereit stellen möchte. Einen Termin dazu gibt es aber noch nicht."

aufkrawall
2013-03-05, 19:45:30
Idealerweise sollte nicht nur ein IHV über den späteren Entwicklungsverlauf mit aktuellem Code zum darauf Optimieren bedient werden, wie im Falle Tomb Raider geschehen.
Wenn das mit NV-Titeln passiert, ist das natürlich genau so zu verurteilen.
Dann braucht die Gegenüberseite aber sich nicht so aufzublasen, dass ein IHV Mist bauen würde...

Exxtreme
2013-03-05, 19:46:02
Da hier AMD die Finger im Spiel hat, wundert das nicht.
Halte ich für höchst unwahrscheinlich, dass ein Spielehersteller sowas macht. Denn das schadet in erster Linie einem selbst wenn man dafür bekannt wird Spiele zu produzieren, die schlecht/instabil laufen.

aufkrawall
2013-03-05, 19:47:18
Halte ich für höchst unwahrscheinlich, dass ein Spielehersteller sowas macht. Denn das schadet in erster Linie einem selbst wenn man dafür bekannt wird Spiele zu produzieren, die schlecht/instabil laufen.
Siehe Erklärung von Godmode.

fondness
2013-03-05, 20:05:15
Idealerweise sollte nicht nur ein IHV über den späteren Entwicklungsverlauf mit aktuellem Code zum darauf Optimieren bedient werden, wie im Falle Tomb Raider geschehen.
Wenn das mit NV-Titeln passiert, ist das natürlich genau so zu verurteilen.
Dann braucht die Gegenüberseite aber sich nicht so aufzublasen, dass ein IHV Mist bauen würde...

Tja, AMD hatte ja genug Zeit sich solche Praktiken von NV abzuschauen. Da waren die Reaktionen der NV-User seltsamerweise nicht so verständnisvoll.

Ronny145
2013-03-05, 20:07:53
Halte ich für höchst unwahrscheinlich, dass ein Spielehersteller sowas macht. Denn das schadet in erster Linie einem selbst wenn man dafür bekannt wird Spiele zu produzieren, die schlecht/instabil laufen.


AMD bekommt frühzeitig Zugang zur aktuellen Spielversion, Nvidia nicht. Noch Fragen?

Die Frage stellt sich dann auch, ob hier nicht Absicht oder Kalkül dahinter steckt. Vorherige Versionen liefen reibungslos. Die Verkaufversion, die obendrein Nvidia erst sehr spät unter die Lupe nehmen konnte (warum?), plötzlich nicht mehr. Das typische AMD Finger im Spiel Problem.

aufkrawall
2013-03-05, 20:09:51
Tja, AMD hatte ja genug Zeit sich solche Praktiken von NV anzusehen. Da wären die Reaktionen der NV-User seltsamerweise nicht so verständnisvoll.
Wow, Unrecht mit Unrecht begründen, das nimmt ja intellektuelle Hochformen an...
"Er hat aber angefangen.. *buähh*.." ;D

Trotzdem lief etwa FC3 zuerst auf Nvidia-Karten schneller, obwohl es ein AMD-Titel war. ;)

Blaire
2013-03-05, 20:10:41
Trotzdem lief etwa FC3 zuerst auf Nvidia-Karten schneller, obwohl es ein AMD-Titel war. ;)

Tut es auch aktuell noch. ;) Witzig das AMD Fans plötzlich mit Treiber-Argumenten hochziehen, nur weil mal 1 Game nicht so funktioniert , wie es sollte. Das riecht schon ziemlich nach Verzweiflung...

fondness
2013-03-05, 20:13:30
AMD bekommt frühzeitig Zugang zur aktuellen Spielversion, Nvidia nicht. Noch Fragen?

Die Frage stellt sich dann auch, ob hier nicht Absicht oder Kalkül dahinter steckt. Vorherige Versionen liefen reibungslos. Die Verkaufversion, die obendrein Nvidia erst sehr spät unter die Lupe nehmen konnte (warum?), plötzlich nicht mehr. Das typische AMD Finger im Spiel Problem.

Tja, das AMD die ganzen Features und den Support nicht aus Nächstenliebe gibt/einbaut sollte klar sein.

Wow, Unrecht mit Unrecht begründen, das nimmt ja intellektuelle Hochformen an...
"Er hat aber angefangen.. *buähh*.." ;D


"Unrecht". Lieb. :)
Umgekehrt war es natürlich stets "der tolle NV-Support der den hohen Preis auch rechtfertigt". ;)
Und "da zahle ich auch gerne mehr wenn ich dafür keine Probleme habe"...

Achja, behalte dir noch etwas Luft, bald kommt Bioshock und das war noch lange nicht alles. :)

Trotzdem lief etwa FC3 zuerst auf Nvidia-Karten schneller, obwohl es ein AMD-Titel war. ;)

Sei froh, profitiert ihr gleich doppelt von AMDs DevRel:
http://blogs.amd.com/play/2012/12/10/far-cry-3-in-depth/

Ohne AMD würden viele aktuelle PC-Spiele deutlich weniger aktuelle Features spendiert bekommen.

StefanV
2013-03-05, 20:24:23
Das typische AMD Finger im Spiel Problem.
1. Äh, ich möcht mich noch mal zitieren: Silence, infidel
2. Verstehe ich nicht, warum in diesem Falle AMD Schuld sein soll?
Wenn bei AMD ein Spiel mal nicht läuft, hat bisher noch niemand nVidia die Schuld in die Schuhe geschoben...

Denn, wenn man gemein wäre, könnte man jetzt unterstellen, dass, wenn nVidias Treiber so toll wären, wie du glaubst, sie absolut Problemlos wären.
Da das aber hier nicht der Fall ist, würde ich eher behaupten, dass nVidia nicht soo gut ist, wie sie dargestellt werden und auch nur mit Wasser kochen. Und das kocht manchmal halt über...

Gipsel
2013-03-05, 20:39:34
AMD bekommt frühzeitig Zugang zur aktuellen Spielversion, Nvidia nicht. Noch Fragen?

Die Frage stellt sich dann auch, ob hier nicht Absicht oder Kalkül dahinter steckt. Vorherige Versionen liefen reibungslos. Die Verkaufversion, die obendrein Nvidia erst sehr spät unter die Lupe nehmen konnte (warum?), plötzlich nicht mehr. Das typische AMD Finger im Spiel Problem.
Was heißt typisch? Wie von mir angemerkt, funktioniert das in beide Richtungen. Es ist nunmal ein Unterschied, ob ein paar Software-Engineers eines Herstellers mit den Entwicklern eines Studios in regem Kontakt stehen oder ob der andere Hersteller alle paar Wochen mal eine Vorab-Version bekommt (das passiert vermutlich auch höchstens bei AAA-Titeln), die er dann auch nicht auf Herz und Nieren prüft, da er ja weiß, daß in den Wochen bis zum Release noch Performance-Optimierungen seitens der Devs vorgenommen werden. Wer weiß denn überhaupt, von wann der Build der offiziellen Version ist (kann ja mal einer, der das Spiel bereits hat, versuchen, das Build-Datum herauszubekommen, oft steht das ja irgendwo)? Gibt es die identisch schon auf DVD oder bisher nur als Download (und zieht er sich bei Installation von DVD erstmal ein Update auf die finale Version)?
Wenn nicht beide GPU-Hersteller in genau gleicher Weise (oder eben gar nicht) an der Entwicklung beteiligt waren, hat immer einer den kleinen Vorteil, die Entwicklungen bereits ein oder zwei Wochen früher zu kennen. Das läßt sich gar nicht verhindern. Man sollte also den Herstellern immer ein paar Wochen nach dem Start des Spiels Zeit geben. Alles andere ist unrealistisch.
Ist auf jeden Fall besser, als irgendwo einen VendorID-Check für ein Feature einzubauen, von dem das Studio nachher im Prinzip sagt, daß es den nicht entfernen dürfe, weil der entsprechende Codeteil ihm nicht gehöre und dann Einige hier das auch noch rechtfertigen und sagen, na dann soll doch der andere Hersteller auch entsprechend Dev-Support leisten.

aufkrawall
2013-03-05, 20:47:02
"Unrecht". Lieb. :)
Umgekehrt war es natürlich stets "der tolle NV-Support der den hohen Preis auch rechtfertigt". ;)
Und "da zahle ich auch gerne mehr wenn ich dafür keine Probleme habe"...

Wieso blendest du aus, das sich selbst der Spielentwickler bei Geforce-Nutzern entschuldigt hat?
Ist ein bisschen billig von dir, dann Nvidia schlechte Treiber zu unterstellen...
Ah, leesen...


Achja, behalte dir noch etwas Luft, bald kommt Bioshock und das war noch lange nicht alles. :)

Wie kommst du auf die Idee, dass mir irgendwie die Luft wegbleibt? Mach mal ein Fenster auf! ;)
Mal abwarten, bis SE Lara entsprechend gefixt hat, da liegt ja noch mehr im Argen. Da sie angekündigt haben, mit den Nvidia-Treiberentwicklern dafür zusammenarbeiten zu wollen, ist die Hoffnung auf Performanceverbesserungen mit Sicherheit nicht fehl am Platz.
Ach Gottchen, und was soll das mit Bioshock 3? Das läuft doch mit der UE3, mal die Kirche im Dorf lassen...



Ohne AMD würden viele aktuelle PC-Spiele deutlich weniger aktuelle Features spendiert bekommen.
"Deutlich"?
Nun ja...

Was ist eigentlich aus MLAA bei Tomb Raider geworden? Das wurd doch damit beworben, stattdessen gibts jetzt FXAA und kaputtes DS... ;)

Felixxz2
2013-03-05, 21:29:44
Das typische AMD Finger im Spiel Problem.

Haha ich liebe es. AMD ist IMMER Schuld. Wenn die Games auf ihren Karten nicht laufen, dann waren sie zu faul zum Optimieren. Und wenn sie bei nVidia nicht laufen, hat AMD pöse Machenschaften ausgepackt um dem Konkurrenten zu schaden :rolleyes:

gnahr
2013-03-05, 22:05:36
Haha ich liebe es. AMD ist IMMER Schuld. Wenn die Games auf ihren Karten nicht laufen, dann waren sie zu faul zum Optimieren. Und wenn sie bei nVidia nicht laufen, hat AMD pöse Machenschaften ausgepackt um dem Konkurrenten zu schaden :rolleyes:
den gleichen unsinn andersherum kannst du unter älteren TWIMTBP-titeln und deren vorberichterstattung MASSENHAFT finden. wer da nicht drüber steht und jetzt kerben schlägt. da wird von einem zum tausendsten indiz in der logischen kette geschloßen.
can we all settle down a bit? so viel kleinkram läuft aus dummheit falsch und hier muss es so wie früher ein indiz für boshaftigkeit sein...
(und ich sag das mit dem drüberstehen mal halb ernsthaftig mit was kleinem im tee, aus angst bei diesem ganzen widergekaue die lust an so herrlich belanglosen themen wie diesem zu verlieren und nicht mehr just for fun mal irgendwas ranten zu können.)

Knuddelbearli
2013-03-05, 22:52:37
Wow, Unrecht mit Unrecht begründen, das nimmt ja intellektuelle Hochformen an...
"Er hat aber angefangen.. *buähh*.." ;D

Trotzdem lief etwa FC3 zuerst auf Nvidia-Karten schneller, obwohl es ein AMD-Titel war. ;)


nö es relativiert es aber gerade wenn man es mit vielen Fanboys zu tun hat ^^

Habe schon oft genug gesagt das dort eigentlich mal ordentlich aufgeräumt werden sollte. Kann doch nicht sein das für jedes Spiel die beiden Treiberhersteller erstmal den Treiber an das Spiel anpassen müssen ...

Wozu gibt es Standards, und wenn die zu schwach sind das sowas passiert obwohl man sich daran haltet müsste man die mal genauer definieren, bisher hatte NV keine Interesse daran da sie sich so den "treiber" Bonus erkaufen konnte ( wobei wer kauft heute nochn spiel bei release wenns meistens 2-4 Wochen später 50% rabatt gibt ) und AMD hatte keine Lust da groß Geld zu investieren. Vielleicht ändert sich das ja jetzt mal.

So eine Politik schadet ja auch den Indie Entwickler. Die können nicht darauf setzten das es NV und AMD dann schon richtet, die programmieren also alles schön, während AAA Entwickler schlampen können soviel sie wollen.

So ich glaub ich hau mich lieber ins Bett sonst rege ich mich noch zu sehr auf und habe eh ne richtig schöne Grippe abbekommen ...

Iruwen
2013-03-05, 23:38:09
Wenn bei AMD ein Spiel mal nicht läuft, hat bisher noch niemand nVidia die Schuld in die Schuhe geschoben...

Doch, AMD selbst (http://ht4u.net/news/21008_amd_mit_vorwuefen_an_nvidia_twimtbp-titel_-_nvidia_und_spieleentwickler_verneinen/) :freak: An RE5 hab ich auch noch ganz tolle Erinnerungen mit meiner 5870. Als AMD das Problem endlich behoben hatte war ich mit dem Spiel schon monatelang durch.

Denn, wenn man gemein wäre, könnte man jetzt unterstellen, dass, wenn nVidias Treiber so toll wären, wie du glaubst, sie absolut Problemlos wären.
Da das aber hier nicht der Fall ist, würde ich eher behaupten, dass nVidia nicht soo gut ist, wie sie dargestellt werden und auch nur mit Wasser kochen. Und das kocht manchmal halt über...

Erstens hat das nichtmal LZ je behauptet, zweitens tritt das Problem offenbar nur mit der Beta auf und nicht mit den Treibern davor(?)

N0Thing
2013-03-06, 01:06:16
Das würde die Tomb Raider Probleme erklären:

http://www.computerbase.de/news/2013-03/geforce-karten-mit-problemen-in-tomb-raider/

CB: "Nvidia hat sich diesbezüglich mittlerweile zu Wort gemeldet und die Schwierigkeiten bestätigt. Demzufolge hat man bei Nvidia den finalen Code erst letztes Wochenende erhalten und hatte keine Zeit mehr, auf die Probleme zu reagieren. Vorherige Versionen sollen diese nicht aufgewiesen haben. Nvidia entschuldigt sich bei allen GeForce-Besitzern und teilt zugleich mit, dass man mit Hilfe von Crystal Dynamics daran arbeitet und schnellstmöglich eine Lösung bereit stellen möchte. Einen Termin dazu gibt es aber noch nicht."
AMD bekommt frühzeitig Zugang zur aktuellen Spielversion, Nvidia nicht. Noch Fragen?

Die Frage stellt sich dann auch, ob hier nicht Absicht oder Kalkül dahinter steckt. Vorherige Versionen liefen reibungslos. Die Verkaufversion, die obendrein Nvidia erst sehr spät unter die Lupe nehmen konnte (warum?), plötzlich nicht mehr. Das typische AMD Finger im Spiel Problem.

Das gleiche Spiel gab es auch umgekehrt, da hatte dann die finale Version neue Eigenheiten, die AMD erst eine Woche vor dem Release beseitigen mußten.
Ergo: Es ist keine Frage des Herstellers der Grafikkarte oder des Entwicklers. Je nach Umstand kann mal eine Seite blöd aussehen, mal die andere. Entscheidend ist in solchen Fällen die Zeit, die vergeht, bis das Problem gelöst ist.

Pentium M
2013-03-06, 02:00:10
Es will wir doch keiner erzählen das Nvidia vor 2 Wochen das Spiel Tomp Raider zum erstenmal gesehen hat.In der Treiberabteilung möchte ich nicht arbeiten.

gnahr
2013-03-06, 06:52:20
Das gleiche Spiel gab es auch umgekehrt.aber nein, amd sind immer die guten, nvidia fingiert hier betrogen worden zu sein, weil, weil... na weil sie böse sind und immer nur proporitäre sachen machen. hab ich gehört... und proporitär soll böse sein und weil amd sich brüstet das nicht immer einzusetzen, weil sie sich aus geldmangel ihre formalen standards nicht schützen lassen können... müssen die besser sein.
(2 minuten stimme aus dem off der hater über ihre motivation. ;D)

Blutmaul
2013-03-06, 07:59:32
Das ist alles so lächerlich...aber vermutlich kein Wunder:

Invidia = Neid (Missgunst, Eifersucht)
Neid assoziierte Farbe = Grün

Und ich troll mich hiermit :D

Hübie
2013-03-06, 08:30:11
Oh man ey. Es kommen immer wieder die gleichen aus den Löchern gekrochen um zu trollen. nVidia verlagert nun mal seine Geschäftspolitik dahin wo es noch was abzugreifen gibt: HPC- und mobile-market. Finanziert durch GeForce kommen die auch gut klar. Wenn man eben neue Wege geht muss man an anderen Stellen sparen.
Ich begreife nach wie vor nicht wie man AMD immer als den Schmusehasen sehen kann während nVidia den Satansbraten verkörpern soll.

Das sind beides Unternehmen die nur euer bestes wollen. In was für einer Welt lebt ihr eigentlich? :rolleyes: nVidia ist genau so beschissen wie AMD. Nur eben an jeweils anderen Eckpunkten.

kruemelmonster
2013-03-06, 09:03:05
Entscheidend ist in solchen Fällen die Zeit, die vergeht, bis das Problem gelöst ist.

Korrekt.

Bei Resident Evil 5 habe man AMD nicht früh genug Testversionen zur Verfügung gestellt um auf Fehler oder Kompatibilität prüfen zu können.

Doch, AMD selbst (http://ht4u.net/news/21008_amd_mit_vorwuefen_an_nvidia_twimtbp-titel_-_nvidia_und_spieleentwickler_verneinen/) :freak: An RE5 hab ich auch noch ganz tolle Erinnerungen mit meiner 5870. Als AMD das Problem endlich behoben hatte war ich mit dem Spiel schon monatelang durch.


Ja, beide kochen nur mit Wasser (Zustimmung @ Hübie), allerdings hat NV erfahrungsgemäß den schnelleren Wasserkocher (maybe Thermi-powered? :freak:) während AMD in der Vergangenheit öfter mal den Eindruck erweckt hat dass alle Raucher in der Treiberabteilung ihre Feuerzeuge zusammengesammelt haben um den Topf heiß zu bekommen.

Die Kristallkugel sagt: spätestens nächste Woche gibts n passenden Treiber, für so einen wichtigen Titel dauert das bei NV nicht lange.

Das jetzt schadenfroh gekichert wird weil mal EIN Spiel zum Release auf NV Karten Probleme macht...:rolleyes:

Ailuros
2013-03-06, 10:00:45
Hat der thread eigentlich einen Zweck? Ausser natuerlich dass gegenseitige fanboys mal wieder gegenseitig virtuell an den Kragen gehen koennen.

Iruwen
2013-03-06, 10:04:50
Nö, war das nach dem Startpost nicht klar?

Gipsel
2013-03-06, 10:47:12
Okay, dann ist hier dicht.