PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Eine R9 290X oder 2 Crossfire R9 280X?


Geldmann3
2013-10-25, 21:42:04
Hallo, ich stehe gerade vor der Frage, ob ich mir 2 R9-280X oder lieber eine einzelne R9-290X in meinen nächsten Rechner, der bald ansteht verbauen soll.
Der Rechner soll seinen Dienst 2-4 Jahre machen und Games in voller Pracht möglichst flüssig in 1080p mit 4xSSAA abspielen können.


Vor und Nachteile der 2 R9-280X in meinen Augen

- MultiGPU Probleme, wie Microruckler
- Nur 3GB Vram (Bin mir noch nicht sicher, ob das sehr schlecht ist)
- Extremer Stromverbrauch (Bin ich mit meiner HD 6990 aber eh gewohnt)
- Probleme mit der Abwärme

+ Etwas mehr Leistung als eine einzelne R9-290X

Vor und Nachteile der R9-290X

- 20% Weniger Leistung als die 2 GPUs bieten.
- Soll sehr laut sein und auch Probleme mit der Abwärme generieren


+ Keine Microruckler (Wobei ich da mit meiner 6990 keine sonderlich schlechten Erfahrungen gemacht habe)

Was meint ihr? Ich tendiere momentan eher zur SingleGPU, denn die schafft auch noch nahezu alles in 1080p@4xSSAA und hat 4GB Vram, was noch wichtig werden könnte. Außerdem habe ich damit keine Microruckler.

Für die 2 R9-280x spricht die hohe Performance, die der einer 7990 gleicht, eine 7990 wäre ein lang ersehnter Traum von mir. Doch ich denke, ich bin einfach davon geblendet, dass es die stärkste Grafikkarte der letzten Generation ist. Man hat das in Reviews immer als solch ein Monster präsentiert bekommen, im Endeffekt, wäre eine SingleGPU vielleicht doch sinnvoller. Und es wäre blöd, wenn die Leistung verpufft, weil in 1-2 Jahren plötzlich 3GB VRam nicht mehr genügen.

Nvidia.
2013-10-25, 21:52:07
@ Was meint ihr?

wir meinen was fragst du wenn du dir deine Fragen selbst beantwortest hast,
bzw. kannst.
und was hier oder wir meinen ist vollkommen irrelevant,
denn du must selbst wissen/entscheiden was du mit deinem Geld machst ;)

PS. ich meine kaufe eine High End Nvidia Karte , oder 2 :)
mfg

dildo4u
2013-10-25, 21:52:45
Die R280 ist noch die alte Generation,(ehemals 7970) die über eine Crossfire Brücken die Karten verbindet.AMD hat extra für die neue Generation auf eine PCI-E Lösung umgebaut ebend um u.a Microruckler einzuschränken,daher würde ich in keinem Fall mehr aufs alte Crossfire setzen.Ich würde noch auf die R290 warten,die hat vermutlich ein besseres Preis/Leistungs Verhältnis und die Option dann z.b in 2 Jahren dann eine im Preis gesenkte zweite Nachzurüsteten.

fondness
2013-10-25, 21:53:51
Das mit Laut und Temperatur kannst du bei der 290X IMO streichen. 2 280X in einem Gehäuse ohne DHE-Kühlung werden IMO nicht leise sein. Und die Temperatur kann man bei der 290X stufenlos einstellen.

Geldmann3
2013-10-25, 22:13:02
@ Was meint ihr?

wir meinen was fragst du wenn du dir deine Fragen selbst beantwortest hast,
bzw. kannst.
und was hier oder wir meinen ist vollkommen irrelevant,
denn du must selbst wissen/entscheiden was du mit deinem Geld machst ;)

PS. ich meine kaufe eine High End Nvidia Karte , oder 2 :)
mfg

Habe ich mir auch schon gedacht, doch ich wollte gerne mal die Meinungen anderer Foren-Mitglieder hören. Und es gibt bestimmt, Details, ich ich nicht kenne. Nvidia bietet zwar auch meiner Meinung nach, das etwas rundere Paket. (Auf kostenlose Spiele-Dreingaben lege ich keinen Wert)
Ist mir momentan allerdings entschieden zu teuer.

Die R280 ist noch die alte Generation,(ehemals 7970) die über eine Crossfire Brücken die Karten verbindet.AMD hat extra für die neue Generation auf eine PCI-E Lösung umgebaut ebend um u.a Microruckler einzuschränken,daher würde ich in keinem Fall mehr aufs alte Crossfire setzen.Ich würde noch auf die R290 warten,die hat vermutlich ein besseres Preis/Leistungs Verhältnis und die Option dann z.b in 2 Jahren dann eine im Preis gesenkte zweite Nachzurüsteten.

AMD hat vor kurzem gesagt, dass mit neueren Treibern auch ältere Karten bereits über PCIe gehen, wenn die Auflösungen "hoch" sind. Was das bedeutet, ist eine andere Frage.

Das mit Laut und Temperatur kannst du bei der 290X IMO streichen. 2 280X in einem Gehäuse ohne DHE-Kühlung werden IMO nicht leise sein. Und die Temperatur kann man bei der 290X stufenlos einstellen.

Geräusche machen mir eigentlich nichts aus und Angst, dass die GPU Schaden nimmt, habe ich auch keine. Würde den Lüfter im Ubermode sogar noch von maximal 55% auf 100% stellen und die Leistungsaufnahme maximal hoch schrauben, sowie direkt übertakten. Doch ich befürchte, dass bei dem stickigen Standort meines Rechners, die GPU dennoch häufig drosseln müsste. Über 95°C TDP kann man sie nicht einstellen oder? Sonst habe ich meinen GPUs immer bis zu 100°C gegeben. (Kommt aber selten vor)

Das Drosseln nerft mich schon bei meiner aktuellen AMD CPU. 60-65°C und sie taktet auf 1,6Ghz runter. Daher habe ich sie momentan einfach ganz aggressiv auf 2,4Ghz runter getaktet. Wenn ich das Temperatur Limit selbst setzen könnte, würde ich es um 10°C erhöhen. Auch, wenn die CPU dann vielleicht hops geht. (Phenom X6 1055T) Wobei ich das nicht glaube, ein alter X3 hat ein paar Monate über 100°C überlebt. Bis ich dann gemerkt habe, dass die Lüftung nicht mehr richtig zieht. Der wollte irgendwie nicht drosseln.

Julian@Athlon
2013-10-25, 22:21:11
Ich denke du solltest eine 290X nehmen. Später hast du die Option noch eine Zweite zu verbauen.

Gast³
2013-10-25, 22:22:51
Ich würde keine "alten" CF-Karten mehr kaufen. Die ersten Tests beweisen, dass mit der neuen XDMA-Engine CF massiv verbessert wurde und noch deutlich optimiert und auf die einzelnen Spiele abgestimmt werden kann.

Es soll zwar im November (laut Anandtech http://anandtech.com/show/7457/the-radeon-r9-290x-review/4) Phase 2 der Frame Pacing Verbesserungen angegangen werden, aber auf das Niveau das XDMA jetzt schon ab Day Zero sozusagen verspricht und auch schon größtenteil bietet wird die alte Brücke nicht mehr aufschließen können.

Lieber ne 290x (oder auch nur ne 290, solange kannst du ja wohl noch aushalten, oder?) bzw. später eine zweite für Crossfire über XDMA, als dass man mit den vielen Problemen und Altlasten der Vorgängerversion kämpft.

Geldmann3
2013-10-25, 22:26:04
Ich hab noch etwa einen Monat Zeit... Vielleicht, gibt es bis dahin auch bessere Kühllösungen für die 290x, oder der Preis sinkt noch etwas.

Gast³
2013-10-25, 22:30:47
Na dann.


Irgendwann soll ja auch die 780Ti rauskommen, das kann sich ja dann auch nochmal positiv auf das Preisgefüge auswirken.

Aber wie gesagt, lieber ne 290 oder 290x, als das alte CF-Gedöns.
Und wer weiß, vllt gibt es dann ja auch schon Hinweise auf Custom-Designs für die 290er Serie.

Geldmann3
2013-10-25, 22:38:33
Hab mir den Test gerade mal angesehen, so wie es aussieht, sind die Microruckler bei der 290X im Crossfire ja praktisch nahezu weg :eek:
Sehe ich das falsch, oder könnte das die beste MultiGPU Realisierung bisher überhaupt werden? Das sieht ja noch einen Tacken besser aus, als bei Nvidia.

samm
2013-10-25, 22:50:00
290 CF ist wohl mit nVidia SLI gleichauf, was die Frameverteilung und das Spielgefühl angeht, obwohl es immer noch einzelne Ausnahmen gibt. Hab aber bisher noch keine Input-Latenzmessungen gesehen. Es ist jedenfalls sicher die beste MGPU-Realisierung, die AMD bisher geschafft hat, und das, noch bevor die Treiber darauf optimiert wurden (bei PCPer steht, dass CF-Benchmarks derzeit noch nicht wirklich offiziell gefördert werden).

Btw: Alle Aussagen nur auf Grund von Reviews und 0 Eigenerfahrung :)

Allerdings stellt sich auch abgesehen davon, dass ich MGPU für Unsinn halte, die Frage nach Sinn von CF für einen untertakteten 1055T: du wirst in Nullkommanichts ins CPU-Limit laufen. Wobei, wenn der Anspruch ist, in 2-4 Jahren noch mit 4xSSAA spielen zu können...

Cubitus
2013-10-25, 22:50:07
Sehe ich das falsch, oder könnte das die beste MultiGPU Realisierung bisher überhaupt werden? Das sieht ja noch einen Tacken besser aus, als bei Nvidia.

Der war gut ;D
Es gehört schon noch etwas mehr als das Eindämmen der MR dazu...

Gast³
2013-10-25, 22:55:18
Abwarten. Ich glaube AMD hat da endlich mal etwas ordentlich hin bekommen, ob das dann besser als Nvidias Implementierung ist wird und muss sich zeigen.
Soweit sieht es gut aus, aber es ist noch nicht perfekt.

Darüber hinaus traue ich Anandtech bei der Grafikkartenexpertise nicht ganz so viel zu, wie anderen Seiten, wie zum Beispiel Techreport (obwohl bei denen in den letzten Monaten/Jahren auch eine komische Nvidia-Affinität zu "verspüren" ist). Also, da würde ich neue Treiber und Tests abwarten um ein wirkliches Urteil zu fällen, aber generell habe ich ja bereits gesagt, scheint es so dass XDMA ein wirklicher Glücksgriff ist.

Nun müssen sie noch ein G-Sync Pendant hinbekommen und laut

http://semiaccurate.com/2013/10/11/amd-solves-4k-display-problems-vesa-display-id-v1-3/

könnten sie das auch hinbekommen und das u.U. als offenen Standard und ohne deutliche Mehrkosten.
Lustig, dass das mal wieder niemanden kümmert, aber G-Sync ist das dollste seit es geschmierte Stullen zu kaufen gibt.

Wenn sie das hinbekommen, dann auch mal nen ordentlichen Lüfter zusammenzimmern und die Leistungsaufnahme bei Video-/Bluray-Wiedergabe und 2-Monitorbetrieb endlich mal in den Griff bekommen, dann kann sich Nvidia aber mal sowas von in die Hosen scheißen, das glaubst du gar nicht.

Deren Margen purzeln dann ins Bodenlose.

aufkrawall
2013-10-25, 23:02:27
Der war gut ;D
Es gehört schon noch etwas mehr als das Eindämmen der MR dazu...
Hm, außer Input Lag Reduktion will mir da nichts einfallen (ok, Corruption natürlich noch). ;)
Laut den Tests skaliert CF ja ordentlich und SLI geht auch beileibe nicht immer.

Bis die das FP für alle APIs und Auflösungen ordentlich am Start haben, ist aber sicher Weihnachten oder Ostern.

samm
2013-10-25, 23:05:14
Auflösungen scheinen schonmal nicht das Problem zu sein, siehe PcPer :) Funktioniert erstaunlich viel und gut out-of-the-Box, vor Allem verglichen mit traditionellem CF gerade bei neuen Produkten ;)

Nun müssen sie noch ein G-Sync Pendant hinbekommen und laut

http://semiaccurate.com/2013/10/11/amd-solves-4k-display-problems-vesa-display-id-v1-3/

könnten sie das auch hinbekommen und das u.U. als offenen Standard und ohne deutliche Mehrkosten.
Lustig, dass das mal wieder niemanden kümmert, aber G-Sync ist das dollste seit es geschmierte Stullen zu kaufen gibt.Ach pffft, wer will schon mit mehr als 30Hz spielen ;D Das ist kein Konkurrent zu G-Sync, sondern einfach ein von AMD gepushter VESA-Standard, der 4K bei höheren Frequenzen definiert. Sicher sinnvoll und wichtig und nützlich, aber kein direkter Zusammenhang mit VSync-Alternativen.

Cubitus
2013-10-25, 23:07:57
Hm, außer Input Lag Reduktion will mir da nichts einfallen (ok, Corruption natürlich noch). ;)
Laut den Tests skaliert CF ja ordentlich und SLI geht auch beileibe nicht immer.

Bis die das FP für alle APIs und Auflösungen ordentlich am Start haben, ist aber sicher Weihnachten oder Ostern.

Gibt es bei CF ein adäquates Profil-Management?

Kannst du mir sagen welche Games mit CF skalieren?

Gibt es eine Möglichkeit die Games herauszulesen?

Gast³
2013-10-25, 23:11:43
Ich hatte irgendwo gelesen, dass sich der neue VESA Standard auch positiv auf die Vsync OFF/ON und Co. Problematik auswirken soll. Aber anscheinend nicht bei semiaccurate. Fällt mir gerade beim Überfliegen auf.

samm
2013-10-25, 23:13:30
Ich hatte irgendwo gelesen, dass sich der neue VESA Standard auch positiv auf die Vsync OFF/ON und Co. Problematik auswirken soll. Aber anscheinend nicht bei semiaccurate. Fällt mir gerade beim Überfliegen auf.Oh cool, Link würde mich interessieren wenn er sich noch auffinden lässt - und jede Quelle, die nicht semiaccurate ist, ist eh besser ;)

aufkrawall
2013-10-25, 23:25:45
Gibt es bei CF ein adäquates Profil-Management?

Kannst du mir sagen welche Games mit CF skalieren?

Gibt es eine Möglichkeit die Games herauszulesen?
Man kann sich die Profile afaik nicht so genau zusammen bauen wie bei NV, aber man kann zumindest die vorhanden CF-Profile für bekannte Spiele auch auf unbekannte Anwendungen übertragen.
Laut Anandtech skaliert CF nicht schlechter als SLI:
http://www.anandtech.com/show/7457/the-radeon-r9-290x-review

Gast³
2013-10-25, 23:30:41
Tut mir leid, damit kann ich leider im Moment nicht dienen. War vor min. zwei Wochen und ich habe glaube vorgestern meine Browser History gelöscht. ;)

Ich kann nur mit einer tollen PM von VESA aus dem September dienen. :)

https://www.vesa.org/news/vesa-refreshes-displayid-standard-to-support-higher-resolutions-and-tiled-displays/


The DisplayID standard was developed by the VESA members to define data structures that a video display uses to describe its physical and performance attributes. Encoded into a display EEPROM, DisplayID enables a video source to discover these display attributes, and to customize its video data stream output for the unique capabilities of an individual display.

DisplayID was developed as the evolutionary advancement for VESA’s widely adopted Extended Display Identification Data (EDID) standard. Designed specifically to be ‘future-proof,’ DisplayID employs flexible header and data structures that can be of varying length and number, in contrast to the fixed header and data structures used by EDID. The flexible, modular data structures defined by DisplayID enable new definitions to identify new display resolutions, refresh rates, audio standards and other formats and capabilities.

Mehr als vage und so klar wie ein umgekippter See, aber es gibt dennoch auch in diesem Marketinggewäsch ein paar Indizien, dass DisplayID deutlich flexibler ist und reagieren kann.
Wenn ich jetzt noch wüsste wo ich das nochmal detaillierter gelesen habe. :-(

Blaire
2013-10-25, 23:37:01
Man kann sich die Profile afaik nicht so genau zusammen bauen wie bei NV, aber man kann zumindest die vorhanden CF-Profile für bekannte Spiele auch auf unbekannte Anwendungen übertragen.
Laut Anandtech skaliert CF nicht schlechter als SLI:
http://www.anandtech.com/show/7457/the-radeon-r9-290x-review

So oft wie man nachhelfen muss, geht es garnicht ohne offene Profile. Exe umbenennen ist keine Lösung, davon abgesehn gibts auch Kandidaten welche den Dienst dann komplett verweigern... und spätestens wenn noch wichtige Compatibility- und AA-Related Bits nötig sind, ist der Ofen ganz aus.

Cubitus
2013-10-25, 23:38:55
So oft wie man nachhelfen muss, geht es garnicht ohne offene Profile. Exe umbenennen ist keine Lösung, davon abgesehn gibts auch Kandidaten welche den Dienst dann komplett verweigern... und spätestens wenn noch wichtige Compatibility- und AA-Related Bits nötig sind, ist der Ofen ganz aus.

Exe umbenennen ist zudem so ein alter Hut, dass habe ich schon anno 2006 mit der X1950CF so betrieben. :)

samm
2013-10-25, 23:41:29
Genau, CF hat sich nämlich seit der x1950 nicht verändert :) Besonders nicht mit der 290X :) Was ihr hier andeutet, sind derzeit auch nur substanzlose Vermutungen. Nicht dass ich profilbasierte Anpassungsmöglichkeiten nicht was Gutes fände.Tut mir leid, damit kann ich leider im Moment nicht dienen. War vor min. zwei Wochen und ich habe glaube vorgestern meine Browser History gelöscht. ;)Easy, danke für's Nachforschen :)

HarryHirsch
2013-10-25, 23:43:59
Was ein Glück das die "ATI-Notfall-CF-Profile" mehr leisten als diese "NV-Hochoptimiert-nicht-vorhanden-Profile". :freak:

aufkrawall
2013-10-25, 23:46:15
So oft wie man nachhelfen muss, geht es garnicht ohne offene Profile. Exe umbenennen ist keine Lösung, davon abgesehn gibts auch Kandidaten welche den Dienst dann komplett verweigern... und spätestens wenn noch wichtige Compatibility- und AA-Related Bits nötig sind, ist der Ofen ganz aus.
Mit RadeonPro geht das ja auch ohne exe-Umbenennen.

Was ein Glück das die "ATI-Notfall-CF-Profile" mehr leisten als diese "NV-Hochoptimiert-nicht-vorhanden-Profile". :freak:
So ein unfundiertes Geblubber brauchts hier nicht.

Cubitus
2013-10-25, 23:47:46
Genau, CF hat sich nämlich seit der x1950 nicht verändert :) Besonders nicht mit der 290X :) Was ihr hier andeutet, sind derzeit auch nur substanzlose Vermutungen.

Hat sich das Profilmanagement seit 2005 verändert?
Die Frage kannst du selbst beantworten ;)

Was ein Glück das die "ATI-Notfall-CF-Profile"....
Kannst du die Notfall Profile nennen?

samm
2013-10-25, 23:49:36
Hat sich das Profilmanagement seit 2005 verändert?
Die Frage kannst du selbst beantworten ;)Ja.

HarryHirsch
2013-10-25, 23:49:47
[blubb]


So ein unfundiertes Geblubber brauchts hier nicht.

Schau ins "Benchmarking" Unterforum, da siehst du was ein "Default-Profile" leisten kann.
Mehr als 90% was NV anbietet. :tongue:

aufkrawall
2013-10-25, 23:50:56
Hat sich das Profilmanagement seit 2005 verändert?
Die Frage kannst du selbst beantworten ;)
Äh, ja. Im CCC gibts schon seit Jahren einzelne Profile (wobei die gerne mal umständlich und verbugt waren).
Bei NV gibts im Control Panel eigentlich auch nichts einzustellen, der Vergleich mit RadeonPro muss dann schon erlaubt sein.

Blaire
2013-10-25, 23:52:52
Mit RadeonPro geht das ja auch ohne exe-Umbenennen.


Nö, es ist vom Prinzip das Gleiche nur ist es dank RadeonPro etwas komfortabler aufbereitet. Genauso wenig kannst du AA-Profile miteinander mixen, das erlaubt der Treiber nicht.

Cubitus
2013-10-25, 23:53:53
Äh, ja. Im CCC gibts schon seit Jahren einzelne Profile (wobei die gerne mal umständlich und verbugt waren).
Bei NV gibts im Control Panel eigentlich auch nichts einzustellen, der Vergleich mit RadeonPro muss dann schon erlaubt sein.

Gut dann wird es Zeit dass ich mir CF wieder genau anschaue. :D
Da ich natürlich schon einen netten vergleich aus erster Hand haben möchte.
Die Weihnachtszeit bietet sich an...

Nö, es ist vom Prinzip das Gleiche nur ist es dank RadeonPro etwas komfortabler aufbereitet.
Das meine ich auch! Aber egal, deswegen teste ich es selber und sehe mit eigenen Augen was sich seit 2005 getan hat. ;D

aufkrawall
2013-10-25, 23:58:25
Nö, es ist vom Prinzip das Gleiche nur ist es dank RadeonPro etwas komfortabler aufbereitet.
Also benennt RP die Programme einfach um?

Gut dann wird es Zeit dass ich mir CF wieder genau anschaue. :D
Da ich natürlich schon einen netten vergleich aus erster Hand haben möchte.
Die Weihnachtszeit bietet sich an...
Wirst wegen dem AA, 3D und vielleicht noch der Texturfilterung eh enttäuscht sein, schätze ich.

Cubitus
2013-10-26, 00:04:30
Wirst wegen dem AA, 3D und vielleicht noch der Texturfilterung eh enttäuscht sein, schätze ich.

Mal sehen :)
3D ist atm bei mir zweitrangig, da mein Asus TFT am verrecken ist :(

Die anderen Punkte schaue ich mir im Detail an und urteile später.
Wobei so eine Rohleistung ja gerade für gutes SSAA oder AF prädestiniert wäre ;(

Geldmann3
2013-10-26, 00:06:27
Allerdings stellt sich auch abgesehen davon, dass ich MGPU für Unsinn halte, die Frage nach Sinn von CF für einen untertakteten 1055T: du wirst in Nullkommanichts ins CPU-Limit laufen. Wobei, wenn der Anspruch ist, in 2-4 Jahren noch mit 4xSSAA spielen zu können...

Wird ein komplett neuer Rechner, werde da entweder einen FX-8350 oder einen Xeon E3-1230V3 verbauen. Ich tendiere zur AMD CPU, auch wenn sie mehr Strom verbraucht und oft sogar langsamer als das Intel Pendant ist. Der Xeon ist ein paar Euro teurer und taktet nicht mit 4Ghz, was sich in der Theorie großartig anhört.:freak: . Ich bin zufrieden, wenn ein Spiel mit AVG 26FPS+ läuft. Da werde ich mit der neuen CPU nicht so schnell ans Limit kommen oder? So weit muss das CPU Limit erstmal sinken. Selbst mein 1055T@2,4Ghz macht das bisher noch immer, sodass meist bisher immer eindeutig meine HD 6990 limitiert. Spiele aber auch kein StarCraft, da sollen AMD CPUs ja richtig abkacken. Wobei das Spiel auf meiner "Want to play" Liste steht.

dildo4u
2013-10-26, 00:09:35
Warum sollte man freiwillig mit 26fps spielen wenn man so viel Kohle ins System steckt?Hol den Intel und gut ist damit haste keine Downlcock sorgen mehr und auf Jahre Ruhe.Die 290X wird genug Wärme erzeugen,da muss die CPU nicht noch mit heizen sonst hast du im Sommer üble Probleme.

HarryHirsch
2013-10-26, 00:12:08
Seh ich auch so.
Kauf disch nen Intel junge!

samm
2013-10-26, 00:12:47
Ich bin zufrieden, wenn ein Spiel mit AVG 26FPS+ läuft. Da werde ich mit der neuen CPU nicht so schnell ans Limit kommen oder? So weit muss das CPU Limit erstmal sinken.Na in dem Fall, so tief kommst du mit dem FX definitiv nicht so leicht! Und je fortschrittlicher die Engine, desto geringer die Gefahr, früh in ein CPU-Limit zu rennen. Einfach kein ASRock-Board dazu kaufen http://www.planet3dnow.de/vbulletin/showthread.php/415290-ASRock-streicht-bei-einigen-AM3-MB-einfach-die-8320-8350-CPU-aus-dem-Support-! :biggrin:

dildo4u
2013-10-26, 00:15:11
Na in dem Fall, so tief kommst du mit dem FX definitiv nicht so leicht! Und je fortschrittlicher die Engine, desto geringer die Gefahr, früh in ein CPU-Limit zu rennen. Einfach kein ASRock-Board dazu kaufen http://www.planet3dnow.de/vbulletin/showthread.php/415290-ASRock-streicht-bei-einigen-AM3-MB-einfach-die-8320-8350-CPU-aus-dem-Support-! :biggrin:
Einfach Planetside 2 zocken geht locker unter 30 auf dem Abfall von CPU.

Geldmann3
2013-10-26, 00:17:02
Wenn du es schreibst und für sinnvoll hältst, sollte ich mir das mit der AMD CPU vielleicht nochmal überlegen. Doch jetzt werden viele Spiele doch vielleicht auf AMD optimiert, so dachte ich jedenfalls. Und da in den Konsolen eine ähnliche CPU steckt, könnte es da nicht sein, dass man in Zukunft schon deswegen mit einem FX 8350 nicht ans Limit kommt, weil der einfach viel höher taktet?

Sind aber nur wage Mutmaßungen.

Naja, Tomb Raider 2013 könnte ich momentan auch mit konstanten 60FPS und FXAA zocken. Doch für 4xSSAA gehe ich da auch gerne auf 10-40FPS runter. Sieht einfach fast wie ein CGI Movie aus, dafür opfere ich gerne FPS. Die Framedrops könnten aber auch an der Krüppel CPU liegen, vielleicht sollte ich sie mal entstauben, neue Kühlpaste auftragen und dann wieder auf 3,3GHz hochtakten. Wobei, das wär schon anstrengend :freak: und so spare ich Strom. ;)

dildo4u
2013-10-26, 00:22:04
Wenn du es schreibst und für sinnvoll hältst, sollte ich mir das mit der AMD CPU vielleicht nochmal überlegen. Doch jetzt werden viele Spiele doch vielleicht auf AMD optimiert, so dachte ich jedenfalls. Und da in den Konsolen eine ähnliche CPU steckt, könnte es da nicht sein, dass man in Zukunft schon deswegen mit einem FX 8350 nicht ans Limit kommt, weil der einfach viel höher taktet?

Sind aber nur wage Mutmaßungen.
Ja die laufen besser als früher aber Intel bleibt vorne bei der Hälfte an Stromverbrauch.

8 Core schneller als 6 Core aber Intel weit Vorne,der E3-1230V3 wäre im Bereich des 3770K
http://www.pcgameshardware.de/Battlefield-4-PC-238749/Specials/Battlefield-4-CPU-Test-Windows-8-1091767/

Knuddelbearli
2013-10-26, 00:23:18
2x 290 ( ohne X ) mit OC

laut den paar leaks die es bisher gab ist 290 bei OC sogut wie nichts langsamer als 290x OC ( gehört natürlich auch imemr glück / pech dazu ) hast also für 700?€ Titan SLI leistung ^^

und wenn du mit 6990 CF kaum Probleme hattest solltest mir 290 ohne Bridge und mit CF Treibern absolut keine mehr haben

Geldmann3
2013-10-26, 00:26:50
Sicher, so weit oben? Eher 6FPS drunter würde ich schätzen? Zwischen 2600 und 3770.

2x 290 ( ohne X ) mit OC

laut den paar leaks die es bisher gab ist 290 bei OC sogut wie nichts langsamer als 290x OC ( gehört natürlich auch imemr glück / pech dazu ) hast also für 700?€ Titan SLI leistung ^^

Naja, mein Budget ist optimistisch auf 700€ für Grafikkarten beschränkt, eher 600€. Der Gesamtrechner in etwa einem Monat sollte optimistisch 1400€ eher 1200€ nicht überschreiten. Ich schätze, die 290 wird zu Anfang leider mehr als 350€ kosten.

Bin auch der Meinung, dass das das optimale Crossfire Gespann sein könnte, etwas weniger Hitze, als 2 R9 290X und auch noch günstiger und leistungsstark genug um in Zukunft sorgenfrei zu sein. Doch leider wird das mein Budget wohl leicht sprengen. Wer weiß, mal sehen, ich kenne das genau Budget selbst noch nicht. Zwischen 1100 und 1400€. Etwa 1250 vielleicht. Kommt auf die sonstigen Ausgaben an, die ich noch tätigen muss.

dildo4u
2013-10-26, 00:28:39
Sicher, so weit oben?
Ja der Xeon V3 nutzt Haswell Architektur,die ca 200mhz gut macht zu den alten CPUs.

http://www.computerbase.de/artikel/prozessoren/2013/intel-xeon-e3-1230-v3-im-test/5/

samm
2013-10-26, 01:05:39
Einfach Planetside 2 zocken geht locker unter 30 auf dem Abfall von CPU.Ein mieser optimiertes F2P-Onlinespiel hast du aber nicht gefunden? :rolleyes: Naja, wenn für den Schrott von Game dem Quasi-Monopolisten Geld in den Rachen werfen will, bitteschön :)

Gastup²
2013-10-26, 01:30:20
Inzwischen ist eine 290x sowieso schon billiger als zwo 280x:
http://geizhals.at/eu/?phist=1015779
...

dargo
2013-10-26, 01:47:16
460€?

Die Preisentwicklung gefällt mir langsam. :)

Geldmann3
2013-10-26, 01:52:48
Oooja

Blaire
2013-10-26, 02:26:00
Das meine ich auch! Aber egal, deswegen teste ich es selber und sehe mit eigenen Augen was sich seit 2005 getan hat. ;D

Versuch macht klug. :D

Knuddelbearli
2013-10-26, 02:57:28
hmm expresszustellung für Wien 10€ da kommt man fast in Versuchung ^^ wieso ist morgen nur Nationalfeiertag ...

fondness
2013-10-26, 09:09:59
Bis die das FP für alle APIs und Auflösungen ordentlich am Start haben, ist aber sicher Weihnachten oder Ostern.

Bei Hawaii gibt es keine Auflösungs- oder Monitorbeschränkungen mehr. Das betrifft nur alte Karten mit Brücke.

fondness
2013-10-26, 09:19:02
So oft wie man nachhelfen muss, geht es garnicht ohne offene Profile. Exe umbenennen ist keine Lösung, davon abgesehn gibts auch Kandidaten welche den Dienst dann komplett verweigern... und spätestens wenn noch wichtige Compatibility- und AA-Related Bits nötig sind, ist der Ofen ganz aus.

Das NV diese Arbeit lieber auf die User abwälzt ist ja nichts neues.

4Fighting
2013-10-26, 09:30:10
Das NV diese Arbeit lieber auf die User abwälzt ist ja nichts neues.

Wenigstens kann Arbeit abgewälzt werden...

Die zig Spiele bei denen es unter AMD kein AA gibt, ist dermaßen groß. Da nehme ich gerne die 30 sek in Kauf und hau in den Inspector die bits und fertig!

@topic

erstmal eine 290x kaufen....da kannst du immer noch eine 290x später einbauen.

fondness
2013-10-26, 09:33:26
Wenigstens kann Arbeit abgewälzt werden...

Die zig Spiele bei denen es unter AMD kein AA gibt, ist dermaßen groß. Da nehme ich gerne die 30 sek in Kauf und hau in den Inspector die bits und fertig!


Ich weiß ja nicht was du so spielst, aber ab DX10 gibt es ohnehin keinen Unterschied mehr, da dort auch die bits versagen. Unter DX9 (was ohnehin in kürze Aussterben wird) habe ich auch kein einziges Spiel wo bei NV AA ging und bei AMD nicht. ABer du kannst ja gerne eine Liste deiner "zig Spiele" posten. Alles was mir da einfällt ist Diablo III, das auf NV trotz der tollen bits ewig lange nicht vernünftig mit SSAA ohne Blur lief, während es bei AMD von Beginn an keine Probleme gab. Und für die Bastelwilligen gibt es mit RadiT und RadeonPRO durchaus Alternativen was AA-Profile betrifft. Den Vorteil den ich bei NV in dieser Hinsicht sehen ist vor allem dir große Community, welche relativ schnell Lösungen parat hat wenn es wo Probleme gibt.

Knuddelbearli
2013-10-26, 15:21:49
30sec für aa Bit?

selbst mit einer liste wo für jedes Spiel das perfekte aa bit aufgeführt ist ( wobei ich keine solche kenne und deshalb immer extra Nachfragen muss was dann eher 5-190min dauert je nachdem wie bekannt das spiel ist und wie oft ich nachgucken muss obs endlich eine antwort gibt ) biste eher bei 1 minute ^^

aufkrawall
2013-10-26, 15:37:53
Und für die Bastelwilligen gibt es mit RadiT und RadeonPRO durchaus Alternativen was AA-Profile betrifft.
Nimmste Unreal Engine, Source, Cryengine, Frostbite... etc. und stellst fest, dass das Ergebnis für den Hintern ist.
Das treiberforcierte AA ist bei AMD einfach grottig, auch wenn du es nicht wahrhaben willst. Ich hab da in zwei Wochen auf Radeons offenbar mehr Erfahrung gemacht als du in Jahren.

fondness
2013-10-26, 16:01:35
Nimmste Unreal Engine, Source, Cryengine, Frostbite... etc. und stellst fest, dass das Ergebnis für den Hintern ist.
Das treiberforcierte AA ist bei AMD einfach grottig, auch wenn du es nicht wahrhaben willst. Ich hab da in zwei Wochen auf Radeons offenbar mehr Erfahrung gemacht als du in Jahren.

Ich spiele eben mehr und habe keine Lust herum zu basteln und ewig mit der Lupe zu vergleichen. Wenn du nach x-Stunden herum probieren auf deiner tollen GeForce bei Kante xy in Szene xy eine bessere Glättung zusammen bekommst dann kann ich damit leben (nicht selten ist der Perfomance-Einbruch bei diesen bits eh abartig hoch, was gerne unterschlagen wird). Dafür muss ich mich nicht mit einem solchen Schmarren herum ärgern. :)

Zu behaupten das Ergebnis sei für den Hintern und grottig ist mal wieder dieses typischen Fanboy-Geplapper. Mir sind nicht mal Unterschiede aufgefallen, sondern ich bin erst durch das Forum hier darauf aufmerksam geworden, und offensichtlich bin ich da bei weitem nicht der einzige. Zumindest Cryengine und Frostbite sind im übrigen längst DX11 und damit auch bei Nv um nichts besser zu glätten.

Gastello
2013-10-26, 16:11:48
Ich spiele eben mehr und habe keine Lust herum zu basteln und ewig mit der Lupe zu vergleichen. Wenn du nach x-Stunden herum probieren auf deiner tollen GeForce bei Kante xy in Szene xy eine bessere Glättung zusammen bekommst dann kann ich damit leben (nicht selten ist der Perfomance-Einbruch bei diesen bits eh abartig hoch, was gerne unterschlagen wird). Dafür muss ich mich nicht mit einem solchen Schmarren herum ärgern. :)

Zu behaupten das Ergebnis sei für den Hintern und grottig ist mal wieder dieses typischen Fanboy-Geplapper. Mir sind nicht mal Unterschiede aufgefallen, sondern ich bin erst durch das Forum hier darauf aufmerksam geworden, und offensichtlich bin ich da bei weitem nicht der einzige. Zumindest Cryengine und Frostbite sind im übrigen längst DX11 und damit auch bei Nv um nichts besser zu glätten.
Unreal Engine 4 bringt native PhysX-3.x-Unterstützung für PC-Spiele mit sich
http://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/Unreal-Engine-4-PhysX-3x-Unterstuetzung-PC-angekuendigt-1093753/
:)

aufkrawall
2013-10-26, 16:25:38
Ich spiele eben mehr und habe keine Lust herum zu basteln und ewig mit der Lupe zu vergleichen. Wenn du nach x-Stunden herum probieren auf deiner tollen GeForce bei Kante xy in Szene xy eine bessere Glättung zusammen bekommst dann kann ich damit leben (nicht selten ist der Perfomance-Einbruch bei diesen bits eh abartig hoch, was gerne unterschlagen wird). Dafür muss ich mich nicht mit einem solchen Schmarren herum ärgern. :)

In 90% der Fälle geht 0x204412C1 für SGSSAA und auch meist mit normalem Performance-Hit.
Eventuell noch eben ein paar Bits abspecken oder was an den Spieleinstellungen drehen ist ne Sache von fünf Minuten.
Nicht zu vergleichen mit diesem Registry-Gefrickel für Downsampling bei AMD, wo dann nicht mal 1,5x1,5 gehen. Oder RadiT, das von Treiber-Dateien abhängt und eh fast nie was bringt...


Zu behaupten das Ergebnis sei für den Hintern und grottig ist mal wieder dieses typischen Fanboy-Geplapper. Mir sind nicht mal Unterschiede aufgefallen, sondern ich bin erst durch das Forum hier darauf aufmerksam geworden, und offensichtlich bin ich da bei weitem nicht der einzige.

Ach so, bei Vorteilen für NV fallen dir die Unterschiede natürlich kaum auf, aber wenn bei Anno oder Diablo mal was blurt, ist AMD natürlich unendlich besser...


Zumindest Cryengine und Frostbite sind im übrigen längst DX11 und damit auch bei Nv um nichts besser zu glätten.
Komisch, dass dann bei der AMD Leo-Demo das AA auf NV auch besser aussieht...

Gast
2013-10-26, 17:34:47
Einige hier sollten den Ball mal was flacher halten. Ich hatte, bis auf zwei Ausnahmen, immer nVidia Karten im Rechner aber nie mit irgendwelchen AA Bits rumgespielt. Entweder das funktioniert über den Treiber oder ich lass es sein, ich will spielen und nicht stundenlang irgendwelche Werte in irgendeinem Tool verändern um zu sehen, ob Kante XYZ noch besser geglättet wird. So wie sich manche hier aufführen ist es verwunderlich, das diese neben dem PC auch noch Konsolen daheim stehen haben, die müssten doch sofort erblinden bei deren BQ.

Geldmann3
2013-10-26, 17:43:15
Also ich habe Erfahrungen mit beiden und bin der Meinung, dass Nvidia wesentlich effektivere Treiber Einstellungen bietet. Damals habe ich mit meiner Geforce 8600 oft einfach im Treiber ein AA Modi gewählt und habe den Unterschied anschließend sogar im Spiel gesehen. Bei AMD habe ich mich von Anfang an gewundert, dass das alles oft keine Wirkung zu haben scheint. Bei einigen Spielen verliere ich dann zwar Performance, aber einen Unterschied sehe ich kaum. Ist auch heute mit meiner HD 6990 noch so. Ausserdem hat Nvidia einige proprietäre Techniken wie PhysX, mit denen man einige Spiele aufwerten kann.

Wenn ich 2 Grafikkarten mit genau den gleichen Benchmark Ergebnissen zur Wahl hätte, würde ich aus diesen alten positiven Erfahrungen mit Nvidia auf jeden Fall zur Nvidia Karte greifen. Da kann mir keiner was erzählen, die haben für mich einen Mehrwert, bei der gleichen Leistung. Und Einstellungen, die ich im Treiber setze, wirken meistens auch.

AAABER, der Vorteil ist so klein, dass ich, bei einem nur 10% niedrigeren Preis schon wieder locker zur AMD Karte greife. Zumal sich nach der 6000er Serie einiges gebessert haben soll. Dann gibt es für mich auch noch "Ethische" Gründe zu AMD zu greifen. Geschlossene Techniken wie PhysX möchte ich nicht unterstützen. Am Ende setzt sich das noch durch, dann hat Nvidia das unanfechtbare Monopol, was zur Stagnation in der technischen Entwicklung führen könnte. Ich finde es daher auch nicht gut, dass einige Engines das standardmäßig verbaut haben. Solche Techniken sind ein Schritt in die falsche Richtung. Obwohl ich als Entwickler wohl auch nicht widerstehen könnte, solch eine einfache API für so komplexe Effekte zu verwenden. Techdemos haben dennoch gezeigt, dass PhysX ähnliche Effekte durchaus auch auf AMD Karten möglich sind. Vielleicht wird Mantle hier sogar neues bringen.

Player18
2013-10-27, 15:21:35
Also für CPU würd ich dir ein Ivy-E raten ein 4930k holst am meisten für MGPU raus ;)
Ich steh momtan vor dem selben problem deswegen wart ich mal noch auf die 780TI falls die wirklich rauskommt und entscheide dann bzw Ich warte bis Weihnachten vorbei ist ;)

Eisenoxid
2013-10-27, 20:01:40
Also für CPU würd ich dir ein Ivy-E raten ein 4930k holst am meisten für MGPU raus ;)
Genau ;D Der kostet ja samt Board nur 2-2,5mal so viel wie ein Xeon E3-1230 V3 mit 1150-Board bei einer Spiele-Mehrperformance im meist einstelligen Prozentbereich :rolleyes:

Player18
2013-10-27, 20:27:20
Genau ;D Der kostet ja samt Board nur 2-2,5mal so viel wie ein Xeon E3-1230 V3 mit 1150-Board bei einer Spiele-Mehrperformance im meist einstelligen Prozentbereich :rolleyes:

Wenn man was Gutes will muss man halt Tief in die Tasche greifen ;)

2. Ist das eine Server-CPU und keine Desktop-CPU

Gastup²
2013-10-27, 20:45:28
Genau ;D Der kostet ja samt Board nur 2-2,5mal so viel wie ein Xeon E3-1230 V3 mit 1150-Board bei einer Spiele-Mehrperformance im meist einstelligen Prozentbereich :rolleyes:
Moment mal...
Wir sind hier eben nicht im Knauserbereich, na und?
Die Mehrkosten bleiben obendrein im Rahmen, wenn man sich auskennt, und deshalb fragen leute ja hier um Rat ;)

Dabei sollte evtl. auch AMD 4-Way CrossFireX angedacht werden:
http://geizhals.at/eu/asus-p9d-ws-90sb03e0-m0eay5-a957256.html
http://www.asus.com/Motherboards/P9D_WS/

Bei solchen Brettern schnalzt der Tombi - Gott hab ihn seelig! - im Himmel mit der Zunge ;)

Geldmann3
2013-10-27, 20:57:35
Also ich finde es ja gar nicht so schlecht, mal über den Tellerrand hinaus zu gucken, auch wenn mir der 4930k doch ein bisschen zu teuer ist. Genau wie Quadfire Settings :freak:

Hätte ich denn irgendwelche großen Nachteile von einer Server CPU?

Im Moment sieht es für mich so aus, wenn es optimal läuft, wird es
Xeon E3-1230 V
8GB DDR3 Ram (Mit Plan im nächsten Jahr auf 16 aufzurüsten)
2x R9 290

Meine Spar Variante besteht aus einem
AMD 8 Kerner
8GB DDR3 Ram
und 2x R9 280x ODER 1x R9 290x
Die 280er haben eben die altbekannten AMD Microruckler Problematiken und die 290x macht mein Gehäuse mal wieder zum Backopfen.

Ich plane keine SSD, keine Schmankerl wie BD-Laufwerk oder ähnliches. Der soll nur möglichst überall 4xSSAA@FullHD mit maximalen Details packen. @26FPS wäre genug. Wobei es natürlich kranke Sonderfälle wie ARMA3 gibt, bei denen ich nicht wirklich damit rechne, dass maximale Details mit SSAA möglich sind.

Player18
2013-10-27, 21:02:24
Dir ist schon klar das es unter 30 FPS Ruckelt ?

Deswegen wenn du umbedingt auf SSAA zocken willst nur das beste kaufen

Eisenoxid
2013-10-27, 21:05:32
Wenn man was Gutes will muss man halt Tief in die Tasche greifen ;)

2. Ist das eine Server-CPU und keine Desktop-CPU
Er plant mit einem 150€ AMD und ihr kommt mit CPUs um 500€ an...

2. Egal? Ist quasi ein i7 mit minimal niedrigerem Takt und ohne iGPU - man hat keine Nachteile dadurch.

Übertaktbar über den Multi ist er natürlich nicht - dafür müsste dann ein 4770K her.


Im Moment sieht es für mich so aus, wenn es optimal läuft, wird es
Xeon E3-1230 V
8GB DDR3 Ram (Mit Plan im nächsten Jahr auf 16 aufzurüsten)
2x R9 290

Meine Spar Variante besteht aus einem
AMD 8 Kerner
8GB DDR3 Ram
und 2x R9 280x ODER 1x R9 290x
Die 280er haben eben die altbekannten AMD Microruckler Problematiken und die 290x macht mein Gehäuse mal wieder zum Backopfen.
Warum nicht den Xeon + 1xR9 290X? Keine Mikroruckler, genug CPU-Leistung und keine Backofen-CPU (wie du sie nennst :D)
Wenn dir die GPU Leistung nicht reichen sollte, lässt sich bei Bedarf immernoch eine zweite dazustecken...

Geldmann3
2013-10-27, 21:06:23
Sollte es zur stark ruckeln, werde ich Settings runterregeln. 1080p mit SSAA und mindestens 26FPS soll nur das "TargetSetting" in den nächsten 2-3 Jahren sein. Zufriedener bin ich natürlich mit höheren Frameraten, am besten konstante 60FPS. Das ist mit meinen beschränkten Ressourcen leider nicht möglich.

Klar, man sollte immer das teuerste kaufen. Wenn ich optimale Fotos möchte, kaufe ich mir auch eine 5D Mark III für die Fotos meiner Geburtstagsparty :freak:

Warum nicht den Xeon + 1xR9 290? Keine Mikroruckler, genug CPU-Leistung und keine Backofen-CPU (wie du sie nennst )
Wenn dir die GPU Leistung nicht reichen sollte, lässt sich bei Bedarf immernoch eine zweite dazustecken...
Ja, ziehe ich in betracht, zumal, die 290 auch irgendwann im nächsten Jahr auf 300€ runter gehen könnte.

Player18
2013-10-27, 21:16:37
Naja er sitzt halt dann immer noch auf PCI 2.0 und nicht 3.0

klar bei einer Single GPU macht das wenig aus aber MultiGPU sind halt schon 5FPS Gewinn

http://www.computerbase.de/artikel/grafikkarten/2013/bericht-pcie-3.0-vs.-pcie-2.0/5/

Eisenoxid
2013-10-27, 21:21:52
Naja er sitzt halt dann immer noch auf PCI 2.0 und nicht 3.0
:confused: Wat? In welchem Fall? Der Xeon hat natürlich PCIe3.0 Unterstützung. Bei AM3+ hätte er keine, das ist richtig.

Geldmann3
2013-10-27, 21:23:13
Kleiner lustiger Fakt: Meine HD 6990 sitzt auf PCIe 1.1 :freak:

Ok, aber stimmt natürlich, ist schon ein Argument! Wusste gar nicht, dass das bei Crossfire schon etwas ausmacht. Bei den neuen, die keine Bridge mehr haben vielleicht noch etwas mehr...

pest
2013-10-27, 22:02:32
Ich plane keine SSD

rofl, 2 Grafikkarten aber keine SSD.

Geldmann3
2013-10-27, 23:00:05
Mir ist bewusst, dass eine SSD durchaus einen Geschwindigkeitsschub bringt. Auf der Arbeit haben wir teilweise welche verbaut, das merkt man schon ein wenig. Doch es ist zum Zocken nicht unbedingt nötig. Wahrscheinlich wird aber eine SSD innerhalb der nächsten 2 Jahre nachgerüstet.
Und nächstes Jahr von 8 auf 16GB Ram.

Eine SSD würde eben wertvolles Geld kosten, welches ich zuerst mal in das Grundsystem stecken möchte.

Wie schlägt sich die Server CPU eigentlich beim 1080p h264 encoding? Ist sie dem 8350 da auch überlegen? Mache ich nämlich öfter mal.

pest
2013-10-27, 23:08:28
Auf der Arbeit haben wir teilweise welche verbaut, das merkt man schon ein wenig.


ein wenig? also ich habe hier zwei Rechner und der ohne SSD is def. kaputt :freak:

allein das Booten nervt so ohne SSD - Origin laden - Browser starten - Spiel starten - Map laden - da vergeht ohne SSD ne Ewigkeit

habe auch gedacht es bringt nix da Spiele drauf zu machen, aber seit ich BF3 auf der SSD habe zuckelt nix mehr




Eine SSD würde eben wertvolles Geld kosten, welches ich zuerst mal in das Grundsystem stecken möchte.


Wenn Geld ein Problem ist, dann kauf kein CF. Was willste überhaupt mit der Leistung? Wenn du den Luxus willst alles in SGSAA zu zocken, sollte man Geld übrig haben.

Geldmann3
2013-10-27, 23:33:56
Hochgefahren wird der Rechner im Schnitt nur einmal im Monat, dann läuft er durch. Die Ladezeiten machen mir auch nichts aus. Warten ist nicht mein Problem, nur während des Zockens möchte ich keine Probleme haben. Hab schon über 64GB Ram nachgedacht, da könnte ich vor dem Spielen alles auf eine Ramdisk kopieren, oder endlich problemlos mit Fraps 4k aufzeichnen.

Langfristig soll eh eine SSD rein, auf der werde ich die Temp Ordner/Dateien und Programme ablegen, die ich häufig nutze.

Solange ich bei SSD nicht 1GB für 10 Cent bekomme ist es für mich keine Alternative zur Speicherung großer Datenmengen. Und es wird noch lange nicht so weit sein. :wink:

Wie viel Geld müsste ich ausgeben, wenn ich meine 8TB an Daten hier auf SSDs auslagern wollte... Nein, Nein, der Speicher den mir SSDs momentan bieten, sind nur ein Tropfen auf dem heißen Stein. Daher sehe ich SSDs momentan eher als eine Möglichkeit um die Kluft zwischen zwischen HDD und Ram zu füllen.

Eisenoxid
2013-10-27, 23:43:56
Wie schlägt sich die Server CPU eigentlich beim 1080p h264 encoding? Ist sie dem 8350 da auch überlegen? Mache ich nämlich öfter mal.
http://ht4u.net/reviews/2013/intel_core_i7_4770_4670_haswell_cpus_test/index28.php
Rechne ~5% Leistung vom 4770 weg und du hast ca. die Leistung des Xeon
Ergo liegt er 5-10% über der MT-Leistung des FX-8350.

Player18
2013-10-28, 10:18:34
Hochgefahren wird der Rechner im Schnitt nur einmal im Monat, dann läuft er durch. Die Ladezeiten machen mir auch nichts aus. Warten ist nicht mein Problem, nur während des Zockens möchte ich keine Probleme haben. Hab schon über 64GB Ram nachgedacht, da könnte ich vor dem Spielen alles auf eine Ramdisk kopieren, oder endlich problemlos mit Fraps 4k aufzeichnen.

Langfristig soll eh eine SSD rein, auf der werde ich die Temp Ordner/Dateien und Programme ablegen, die ich häufig nutze.

Solange ich bei SSD nicht 1GB für 10 Cent bekomme ist es für mich keine Alternative zur Speicherung großer Datenmengen. Und es wird noch lange nicht so weit sein. :wink:

Wie viel Geld müsste ich ausgeben, wenn ich meine 8TB an Daten hier auf SSDs auslagern wollte... Nein, Nein, der Speicher den mir SSDs momentan bieten, sind nur ein Tropfen auf dem heißen Stein. Daher sehe ich SSDs momentan eher als eine Möglichkeit um die Kluft zwischen zwischen HDD und Ram zu füllen.

What ?
Dir ist schon klar das der Stromvebrauch sehr hoch ist mit einem SLI/Crossfire system ? Auch im Idle
Da würde eine 64GB SSD eine Menge Geldsparen. Du musst sie ja nur zum Booten verwenden. Spiele+CO kannste dann ja auf deine 2TB platte schieben

@Eisenxoid ich hab die Amd Cpu gemeint ;)

Eisenoxid
2013-10-28, 12:15:00
Solange ich bei SSD nicht 1GB für 10 Cent bekomme ist es für mich keine Alternative zur Speicherung großer Datenmengen. Und es wird noch lange nicht so weit sein. :wink:

Wie viel Geld müsste ich ausgeben, wenn ich meine 8TB an Daten hier auf SSDs auslagern wollte... Nein, Nein, der Speicher den mir SSDs momentan bieten, sind nur ein Tropfen auf dem heißen Stein. Daher sehe ich SSDs momentan eher als eine Möglichkeit um die Kluft zwischen zwischen HDD und Ram zu füllen.
Du sollst auch keine SSDs für 8TB Daten hernehmen. Schon eine 120er für 80€ auf die man BS und Progs klatscht, macht einen ernormen Unterschied bei Reaktion des Rechners. Zusätzlich braucht sie - wie schon erwähnt - weniger Strom im Betrieb & ist lautlos. Gerade wenn der Rechner die ganze Zeit durchläuft kann das schon etwas ausmachen. Selbst wenn es nur ~5W sind, entspreicht das im Jahr ~11€. Über 4 Jahre gerechnet kostet die SSD also nur noch die Hälfte.

Und zur CPU btw.: Wenn der Rechner durchläuft ist ein FX-8350 imo keine Option mehr. Der Verbrauch ist im IDLe zwar nicht ganz so schlimm, aber über die Zeit gerechnet macht es dann doch was aus.
Nimm einen Intel. Entweder den Xeon, oder evtl. den i7 (je nach Budget und ob dir die 3-5% Mehrleistung die Kosten wert sind).
http://www.computerbase.de/artikel/prozessoren/2013/intel-xeon-e3-1230-v3-im-test/3/
>15W weniger Leistungsaufnahme im IDLE --> selbst wenn der Rechner nur im Leerlauf bleibt, enspricht das immherhin ~130kWh, oder ~33€/Jahr an Stromkosten. Zusätzlich brauchst du für den FX einen dickeren Kühler. Den Mehrpreis den der Xeon kostet ist nach ca. einen Jahr wieder drin. Und mehr Leistung hast du mit ihm auch noch.

Knuddelbearli
2013-10-28, 15:40:58
also im idle ( mit Optimierungen ) ist immer noch AMD am sparsamsten, wenn mit Haswell auch nur mehr ganz knapp.

allerdings ist idle ja nicht gleich idle

Geldmann3
2013-11-12, 15:18:48
Hmmm, mich lässt jetzt doch etwas am Xeon zweifeln. Habe letztens mit einem Freund eine Runde NFS Hot Pursuit gezockt. (Online)
Wir haben beide mit DxTory und X264 auf eine "normale" Festplatte aufgezeichnet. (Mit gleichen Settings)

Er hat genau den Xeon verbaut, über den hier geredet wird und als Grafikkarte eine GTX 670.

Ich hingegen habe die HD 6990 und meinen Phenom X6 @ 2,4Ghz.

Nun wollte ich ein Youtube Video machen, in dem wir beide Bild im Bild gleichzeitig zu sehen sind, wie wir gegeneinander fahren.

Doch bei ihm hat, sobald er die Aufnahme Taste gedrückt hat, alles merklich angefangen zu ruckeln, während es bei mir, wenn ich die Taste drücke nur einen kurzen Hänger gibt und dann läuft alles normal weiter.

Nun dachten wir, es läge am Spiel und sind daher zum alten C&C Generals - Zero Hour gewechselt.

Auch hier hat er Probleme mit dem Aufzeichnen vom Gameplay. Sobald er die Aufnahme Taste drückt, wird das gesamte Spiel ca. 25% langsamer. Während die Aufnahme bei mir keinerlei Probleme macht.

Könnte das am Xeon liegen? Wenn das so ist, nehme ich doch lieber einen Achtkerner von AMD...

Julian@Athlon
2013-11-12, 15:27:06
Wie ich immer sage. Vor ein paar Monaten haben alle noch einen i3 mit 2 Kernen und HT empfohlen, da diese in Dual-Core-optimierten Spielen schneller waren als der AMD FX mit 4 Modulen. Heute tut dies keiner mehr, dafür wird der i5 mit 4 Kernen ohne HT empfohlen. Wenn die Spiele aber wirklich multicore optimiert sind, oder eben noch andere Anwendungen nebenher laufen profiierst du von einem 4 moduligen AMD FX. Das ist heute schon der Fall wie von dir bemerkt und wird in Zukunft immer öfter der Fall sein. Natürlich ist bei Intel die IPC höher und der Verbrauch unter Last niedriger, aber was hat man davon, wenn es ruckelt?

Nightspider
2013-11-12, 17:05:02
Wieso nehmt ihr nicht einfach Nvidias Shadowplay? Das belastet die CPU erst gar nicht.

Gast
2013-11-12, 18:11:36
Wieso nehmt ihr nicht einfach Nvidias Shadowplay? Das belastet die CPU erst gar nicht.

Ich denke weil damit ziemliche viele Einschränkungen verbunden wären: http://www.golem.de/news/nvidia-shadowplay-ausprobiert-spielevideos-im-schatten-von-kepler-1310-102468.html

Ob das bei AMD besser geht weiß ich jedoch nicht:

http://raptr.com/amd

Ich denke die Lösungen sind beide noch nicht optimal, sonst wären andere Programme nicht so verbreitet.

Geldmann3
2013-11-12, 20:23:25
Weil ich selbst Codec, settings und Bitraten festlegen möchte.

Eisenoxid
2013-11-12, 20:32:49
Hmm, ich habe keine Probleme beim Mitschneiden von Spielen mit dem i5...ich verwende den msi Afterburner.
Ich teste das nacher gleich nochmal bei etwas anspruchsvollerem...

Geldmann3
2013-11-12, 21:00:33
Vielleicht machen beim Xeon auch die Hyperthreads Probleme? Wenn Dxtory alle echten Threads für die Videokodierung heranzieht, wird das Spiel vielleicht auf die Hyperthreads geschoben oder ähnlich.

Vielleicht liegt es bei ihm aber auch gänzlich an etwas anderem, doch die CPU ist natürlich naheliegend.

Also wenn er Need For Speed Hot Pursuit oder Most Wanted 2 zockt, leidet die Performance deutlich während der Aufnahme. Bei meinem Phenom X6 macht es in anspruchsvollen Spielen zwar auch etwas aus, doch nicht so, dass es fast unspielbar wird.

Im alten Generals Stunde Null hat die Aufnahme bei mir überhaupt keine Auswirkungen, bei ihm hingegen verlangsamt sich das Spiel extrem. Komisch.

Wir nutzen beide DxTory + X264VFW mit den gleichen Settings. Beide nutzen wir eine Festplatte, die etwa 90MB/s schafft.

Hier die Settings:
http://geldmann3.no-ip.biz/Anonymous/Bilder/Settings2.png

Nicht wundern, dass sich das resultierende Video von den gängigen Playern nicht korrekt abspielen lässt, ich wandle die so erstellen Videos nämlich normalerweise anschließend mit VirtualDub in ein verlustfreies Format um und bearbeite es dann. Der Codec wird nur benutzt, damit die Festplattenbandbreite nicht limitiert. Natürlich auf kosten der CPU Performance. Die hohe Bitrate+Ultrafast-Preset sollen die CPU wiederum schonen, das funktioniert auch ganz gut, denn mit höheren Presets sinkt die Live-Performance wieder stark.
-----
Also, momentan strebt alles gegen 2 R9 290 Crossfire +FX 8350

Habe folgendes Gehäuse hier herumstehen http://www.heise.de/preisvergleich/sharkoon-vs3-v-rot-a891932.html
Jop ein Billigteil!

Ist schon etwas klein. Kann ich das dennoch verwenden oder muss ich da auf etwas größeres setzen?

Geldmann3
2013-11-20, 18:18:32
Würde folgende Konfig funktionieren? Könnten da voraussichtlich irgendwelche großen Probleme auftreten, die ich nicht bedacht habe? Die Konfiguration hat den Schwerpunkt eben maximal auf GPU-Leistung...

CPU: Sockel 1155 - Intel Xeon E3-1230V2
Ram: Mushkin DIMM 8 GB DDR3-2133 Kit
Grafik: 2x R9 290 Core Edition
Netzteil: Xilence Gaming Series 800W
Gehäuse: Thermaltake Urban S31 Window
Laufwerk: DVD-Brenner SATA LiteOn iHAS124-04
Mainboard: ASRock Z77 Extreme3
HDD: 3,5 Zoll SATA Seagate ST1000DM003 1 TB

Eisenoxid
2013-11-20, 18:55:32
Warum den Ivy-, und nicht den Haswell-Xeon?

Geldmann3
2013-11-20, 19:40:09
Ich finde kein Mainboard für unter 100€, welches sowohl 2 PCIe 2.0 Slots@8Lanes als auch offizielle Unterstützung für den Haswell hat. (Jedenfalls sieht es im Konfigurator von Alternate.de so aus.)

Der Preis ist ja ähnlich. Macht das einen großen Unterschied?

Eisenoxid
2013-11-20, 19:50:42
Stimmt, unter 100€ siehts da eher mau aus edit: stimmt nicht, das Extreme 3 (http://geizhals.de/asrock-z87-extreme3-90-mxgp70-a0uayz-a940308.html) hat auch 2-way CF mit x8/x8). Für ~110€ gibts bereits welche noch mehr: http://geizhals.de/?cmp=954566&cmp=953093&cmp=981524#xf_top
Der Unterschied sind halt ~8% mehr Leistung/Takt und die etwas modernere Plattform: http://geizhals.de/?cmp=781378&cmp=954057#xf_top

Geldmann3
2013-11-20, 19:55:44
Danke, 8% würden sich schon lohnen und das Extreme 3 sieht auch gut aus!

Ist es eigentlich wirklich nicht möglich, diese Server CPUs zu übertakten. AMD CPUs kann man ja beispielsweise auch übertakten, wenn der Multiplikator gelockt ist. Über den NB Takt, wenn ich mich nicht irre.
(Ich will ja gar nicht übertakten, nur aus Interesse. Einige User berichten auch, man könne alle Kerne mit Turbo laufen lassen. Aber das ist wohl auch Mainboard abhängig.)

Naja, ein deutlicher Fortschritt zu meinem aktuellen Phenom 1055T X6 @2,5Ghz sollte es allemal sein.