PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon R9 295X2: (P)Review-Thread


Seiten : 1 [2] 3

fondness
2014-04-08, 18:41:22
Ich finde weder das Eine noch das Andere ok. Aber zur Ehrenrettung der 590 muss man sagen, dass sie die Spezifikationen nur verhältnismäßig gering überschritten hat. Und nicht einfach mal so 33 Prozent von Hause aus, die noch nicht einmal den worst case darstellen. Das ist schon ein Unterschied.

Ich verstehe an dieser Stelle AMD einfach nicht. Die Leistung passt imho zur Leistungsaufnahme. Insofern hätte es doch relativ einfach sein sollen, noch eine 8-Pin-Buchse anzulöten und sämtliche Kabel- und Anschluss-Spezifikationen einzuhalten. Hatte man keinen Platz mehr auf dem PCB? Wenn das der Fall gewesen wäre, hätte man nicht zwei davon übereinander anbringen können wie bei der GTX 680? Oder war man zu eitel, die dann offensichtlich extreme Leistungsaufnahme einzugestehen? Wobei ich die wie gesagt ok finde für die Leistung.

Für mich ist die 295X2 ansonsten ein sehr rundes Produkt. Aber die Sache mit den völlig überfahrenen Spezifikationen passt mir überhaupt nicht.

Die offizielle Begründung ist weil man auch Quad-Crossfire ermöglichen will und die wenigstens Netzteile haben mehr wie 4 8-Pin Anschlüsse. Ansonsten spielt es laut AMD keine Rolle aus wie vielen Leitungen man die Leistung saugt solange das Netzteil insgesamt genügend Saft zur Verfügung stellt, die Kabel sind bis 288Watt spezifiziert.

dargo
2014-04-08, 18:42:08
Ich verwette meinen Arsch da kommt noch ne ultra leck mich am hintern Version mit 3x8 und 1600$ und 240mm Radi.
Wofür? Zuerst muss ein Konter von NV kommen. Und eine Titan Z reicht da bei weitem nicht aus.

Effe
2014-04-08, 18:44:03
Ich verwette meinen Arsch da kommt noch ne ultra leck mich am hintern Version mit 3x8 und 1600$ und 240mm Radi.
+2x8GB Speicher für 2000€

Blediator16
2014-04-08, 18:46:27
Wofür? Zuerst muss ein Konter von NV kommen. Und eine Titan Z reicht da bei weitem nicht aus.

Nvidia hätte das wohl gemacht:freak:

Ailuros
2014-04-08, 18:49:09
Ich moechte zwar manchen nicht die Freude verderben, aber die "Goldgruben" fuers mining sind so langsam ausgesickert. Heute ist das Risiko damit viel zu gross und man gewinnt nur unter sehr speziellen Faellen nur noch etwas damit.

Ubermode
2014-04-08, 18:52:12
Die offizielle Begründung ist weil man auch Quad-Crossfire ermöglichen will und die wenigstens Netzteile haben mehr wie 4 8-Pin Anschlüsse. Ansonsten spielt es laut AMD keine Rolle aus wie vielen Leitungen man die Leistung saugt solange das Netzteil insgesamt genügend Saft zur Verfügung stellt, die Kabel sind bis 288Watt spezifiziert.


Zumindest das mit den Anschlüssen sagten sie mir auch, für die 288 Watt fü die Stecker (nicht die Kabel waren gemeint!) habe ich noch keinen Beleg gefunden.

Aber: Kennt jemand ein 1kW-NT, das weniger als vier 8pols hat??

Rente
2014-04-08, 18:56:07
Bei bequiet hat bereits das 750er 6, darüber alle 8.

Loeschzwerg
2014-04-08, 19:03:16
Die offizielle Begründung ist weil man auch Quad-Crossfire ermöglichen will und die wenigstens Netzteile haben mehr wie 4 8-Pin Anschlüsse.

Warte... man empfiehlt 1000 Watt Netzteile und begründet es dann mit den Anschlüssen?

Schaut man sich die Geizhals Suche bei den Netzteilen (ab 1000 Watt) an, so wird man sehen dass hier gerade einmal 9 Netzteile wegfallen und alle anderen haben bereits 6x 8Pin. Geniale Begründung :D

Mr. Lolman
2014-04-08, 19:30:23
Also die Frametimes scheinen mit dem neuen AMD-Treiber auch ausgezeichnet wie man bei PC Perspective sieht, die zwei 780Ti µRuckeln da mehr:
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-R9-295X2-8GB-Graphics-Card-Review

Lol, bei BF4 4k hat die 295X2 im Bereich P85-P100 gar eine geringere Varianz als eine Single-780TI. :eek:

EDIT: Bei Crysis3 und Bioshock siehts ähnlich aus...

HarryHirsch
2014-04-08, 19:34:16
Schade das niemand die alternative Framepacing Methode von BF4 testet.

dildo4u
2014-04-08, 19:35:04
Lol, bei BF4 4k hat die 295X2 im Bereich P85-P100 gar eine geringere Varianz als eine Single-780TI. :eek:

EDIT: Bei Crysis3 und Bioshock siehts ähnlich aus...
Das Crossfire AFR ist immer noch Schrott wie erwartet auf den PR Trächtigen Games läuft es zockt man mal was anderes Fail.

http://techreport.com/r.x/radeon-r9-295-x2/arkham-50ms.gif

http://techreport.com/r.x/radeon-r9-295-x2/ac4-33ms.gif

http://techreport.com/r.x/radeon-r9-295-x2/gw2-50ms.gif

http://techreport.com/review/26279/amd-radeon-r9-295-x2-graphics-card-reviewed/8

Mr. Lolman
2014-04-08, 19:37:38
AFR ist immer noch Schrott wie erwartet auf den PR Trächtigen Games läuft es zockt man mal was anderes Fail.

http://techreport.com/r.x/radeon-r9-295-x2/arkham-50ms.gif

Achja stimmt, hab ich vergessen - grad die Batmanentwickler sind ja bekannt dafür, dass die bei ihren Spielen für beide IHV das Optimum rausholen. :freak:

dildo4u
2014-04-08, 19:40:20
Wird noch viel mehr Beispiele als die drei oben geben leider testen alle Seiten immer die selben Games.

M4xw0lf
2014-04-08, 19:49:51
https://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/8/

Ich werfe dann mal peak 545 Watt in die Runde:D Also nur die Karte.
Unigine Heaven, wie THG nutzt, ist imo nicht so gut für Volllastmessung, da die Anforderungen zu gering sind.

THG möchte damit ja auch den Spieleverbrauch darstellen und nicht den Extremfall, sie schreiben im Text, dass Heaven den Durchschnitt der Spiele (in ihrem Testparcours) gut abbildet.

Mr. Lolman
2014-04-08, 19:50:42
@dildo4u:
Hm, deine Beispiele zeigen eigentlich nur, dass 0.1, 0.26 und 0.32 Sekunden lang die fps schwach waren (unter 20 bzw unter 30) - das hat somit recht wenig mit der durchschnittlichen Varianz übern ganzen Run zu tun (Framelatencies per Percentile) - da steht die 295X2 nämlich alles andere als schlecht da.

Ich werd mir das Ding aber trotzdem nicht kaufen, da ich mit der Leistung meiner 290X Tri-X @1130/1520 (default PT) mehr als zufrieden bin.

Butterfly
2014-04-08, 19:57:08
Bei TechSpot gibt es auch einen Umfangreichen Test: http://www.techspot.com/review/802-amd-radeon-r9-295x2/

LoL, bei TombRaider haben sie wohl fair (ohne TressFX) gebencht.

Ich würde mal gern mal zwei davon in Aktion sehen! :umassa:

Knuddelbearli
2014-04-08, 19:59:55
Wurde das neue Video noch gar nicht gepostet?

https://www.youtube.com/watch?v=W9pB2IYOI9Q

M4xw0lf
2014-04-08, 20:09:29
Wurde das neue Video noch gar nicht gepostet?

W9pB2IYOI9Q

Fixed ;)

LSSJBroly
2014-04-08, 20:12:57
Wurde schon erwähnt, dass bei PCGH das Netzteil ab und zu mal ausgegangen ist? Und ich halte ein 850 Watt Platimax nicht gerade für ein schlechtes Netzteil mit zu wenig Power:freak:

Im ganzen eine tolle Karte - aber mal wieder stimmt das Gesamtpaket nicht ganz. Fast 3 Sone im Leerlauf darf einfach nicht sein, gerade bei dem Kühlpotential des Kühlers (meiner Meinung nach ist da selbst der stärkste Kühler nur noch mist). Unter Last ist das Teil für den verbrauch noch recht angemessen, obwohl man wohl besser daran gelegen hätte, das Teil nochmal 50 Watt mehr saugen lassen zu dürfen, dabei dann auch 80 bis 90°C erlaubt, aber eben nochmals leiser bleibt.

Die Performance für eine Dual-Karte ist aber schon beeindruckend.:smile:

Godmode
2014-04-08, 20:31:14
Geile Karte, fast ohne Kompromisse. Fullcover Kühler und größerer Radi wäre noch nett gewesen, aber ein 240er lässt sich halt auch nicht so einfach verbauen, daher verstehe ich die Wahl für den kleineren auch.

Die offizielle Begründung ist weil man auch Quad-Crossfire ermöglichen will und die wenigstens Netzteile haben mehr wie 4 8-Pin Anschlüsse. Ansonsten spielt es laut AMD keine Rolle aus wie vielen Leitungen man die Leistung saugt solange das Netzteil insgesamt genügend Saft zur Verfügung stellt, die Kabel sind bis 288Watt spezifiziert.

Mein Netzteil hat 10x 6+2 Stecker, also wäre da ohne weiteres Quad CF mit sogar 5 Steckern pro Karte möglich.

Knuddelbearli
2014-04-08, 20:33:19
Unter Last ist das Teil für den verbrauch noch recht angemessen, obwohl man wohl besser daran gelegen hätte, das Teil nochmal 50 Watt mehr saugen lassen zu dürfen, dabei dann auch 80 bis 90°C erlaubt, aber eben nochmals leiser bleibt.



geht nicht das hält die Pumpe nicht aus.

Die ist für maximal 60C° Wasser spezifiziert

LSSJBroly
2014-04-08, 20:37:08
Die ist für maximal 60C° Wasser spezifiziert

Gut - kann man ja bei der Karte und unter 5 Sone noch mit Leben, dann bleibt aber weiterhin die (für mich) absolut nicht zumutbare Lautheit im Leerlauf. Ich lasse z.B. meine 780 doch auch nicht die ganze Zeit mit der drehzahl laufen, die die Karte in Games erreicht (53%; 3,2 Sone) und sage, dass Teil ist Leise :D

Im allgemeinen aber die vielleicht gelungenste Dual-GPU-Karte von AMD seit Jahren.

MusicIsMyLife
2014-04-08, 20:40:35
Sind wir jetzt in einem Bio GPU Thread gelandet oder wie? Am besten sollten die GK Hersteller ein Laufrad oder Fahrrad mitliefern, damit alle ihre Karte durch Muskelkraft bedienen. Wie weit vom Thema sind wir denn aufeinmal weg, dass man urplötzlich bei Enthusiasthardware sich über 50Watt echauffiert? An Absurdität ist dieser Diskussionsstiel kaum zu überbieten. Da werden Jahrealte Karten mit brandaktuellen Karten verglichen, um irgendwie einen Bezug zu finden, wo es keinen gibt ausser dass beides GPUs sind. Ich denke man sollte hier am besten noch ARM CPUs und Kühlschränke mit reinnehmen, wenn wir schon dabei sind.

Hast du meinen Post überhaupt gelesen? Reden wir von etwas unterschiedlichem?

Ich habe weder irgendetwas polemisches gepostet noch habe ich mich echauffiert. Ich habe auch keinen absurden Diskussionsstil an den Tag gelegt. Ich habe gesagt, dass die Leistungsaufnahme der 295X2 für mich absolut in Ordnung ist. Ich habe auch gesagt, dass sie für mich ein nahezu vollkommen rundes Produkt ist.

Was ich aber nicht ok finde (und da wiederhole ich mich) ist, dass AMD eine Spezifikation um ein Drittel überschreitet, ohne mit der Wimper zu zucken. Und das, obwohl es mit einem weiteren Stromanschluss bezüglich dieses Themas überhaupt keine Probleme gegeben hätte. Und falls du meinen Post gelesen hättest, wäre dir aufgefallen, dass ich auch das Überschreiten der Spezfikationen bei der GTX 590 nicht gut finde - es da aber nur verhältnismäßig wenige Prozent sind. Und zwar im worst case. AMD sagt überspitzt: Ein Drittel über Netzteil-/Kabel-Spezifikation - und das im Normalfall. Worst case (~560 Watt) sind es dann sogar knapp 50 Prozent. Und das - ich wiederhole mich wieder - wo es andere Lösungsmöglichkeiten gegeben hätte.

Mir gehen die 500 Watt Leistungsaufnahme am Allerwertesten vorbei. Ich fahre einen 3930K mit 4,8 GHz - und zwar ohne irgendwelche Stromsparmechanismen. Und ich fahre zwei Titan mit 1,24 Volt GPU-Spannung ohne Boost-Mechanismus. Leistungsaufnahme ist mir in meinem Alltagssystem persönlich egal. Nicht egal ist aber, wenn ein GPU-Hersteller meint, die Leitungen meines Netzteils mit einem Drittel zuviel belasten zu wollen. Das ist der Knackpunkt. Darüber - und nur darüber - bin ich enttäuscht.

Selbst wenn man den dritten Stromstecker wegen CrossFire weggelassen haben will, macht das ganze für mich noch immer keinen Sinn. Man konstruiert eine geniale Karte, die ohnehin nur in sehr kleinen Stückzahlen produziert wird, zudem wohl vor allem in Fertigrechnern stecken wird, eine sehr hohe Netzteilanforderung stellt und macht sich dann plötzlich Gedanken darum, ob Netzteile vier oder sechs solcher Stecker bieten?

Man macht sich mehr Gedanken darum, ob für zwei dieser Karten genügen PCIe-Stecker vorhanden wären, als darum, dass derart überlastete Netzteilstränge wesentlich gefährlicher sein können - und das nicht nur für die Grafikkarte selbst? Irgendwie passt das nicht...

Raff
2014-04-08, 20:41:45
https://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/8/

Ich werfe dann mal peak 545 Watt in die Runde:D Also nur die Karte.
Unigine Heaven, wie THG nutzt, ist imo nicht so gut für Volllastmessung, da die Anforderungen zu gering sind.

So sieht's aus. :up: Anno 2070 heizt Radeon-GPUs übrigens am besten ein.

MfG,
Raff

Skysnake
2014-04-08, 20:59:44
Ich finde weder das Eine noch das Andere ok. Aber zur Ehrenrettung der 590 muss man sagen, dass sie die Spezifikationen nur verhältnismäßig gering überschritten hat. Und nicht einfach mal so 33 Prozent von Hause aus, die noch nicht einmal den worst case darstellen. Das ist schon ein Unterschied.

Ich verstehe an dieser Stelle AMD einfach nicht. Die Leistung passt imho zur Leistungsaufnahme. Insofern hätte es doch relativ einfach sein sollen, noch eine 8-Pin-Buchse anzulöten und sämtliche Kabel- und Anschluss-Spezifikationen einzuhalten. Hatte man keinen Platz mehr auf dem PCB? Wenn das der Fall gewesen wäre, hätte man nicht zwei davon übereinander anbringen können wie bei der GTX 680? Oder war man zu eitel, die dann offensichtlich extreme Leistungsaufnahme einzugestehen? Wobei ich die wie gesagt ok finde für die Leistung.

Für mich ist die 295X2 ansonsten ein sehr rundes Produkt. Aber die Sache mit den völlig überfahrenen Spezifikationen passt mir überhaupt nicht.
Dem kann ich nur zustimmen. Bei der Leistung wäre es absollut ok gewesen, wenn Sie offen dazu gestanden hätten, wieviel das Ding schluckt. Die geringere Anzahl an Steckern ändert ja NICHTS am Verbrauch, eher das Gegenteil. Der Verbrauch wird sogar höher sein, weil bei ~40A über 2 Kabel halt höhere Ohmsche Verluste auftreten als bei drei Kabeln...



Entspann dich bitte wieder, für solche Fälle haben Netzteile OCP, da fackelt nichts ab (außer man kauft Single-Rail- oder Schrottnetzteile...).
Aber natürlich sehe ich es genauso, warum AMD nicht einfach 3x8 draufpackt ist unverständlich, für Quad-Fire braucht man sowieso ein Netzteil mit >1300 Watt und da haben die meisten 6 oder 8 mal 8-Pin...
Achso, z.B. Enermax NTs sind also "Schrott"?

Enermax hat schon extra für ihr 1350/1500 W Netzteil eine Anschlussanleitung (http://extreme.pcgameshardware.de/user-news/326330-cebit-2014-skysnake-meets-enermax-lepa.html)rausgebracht, weil es bei Kunden immer wieder Probleme mit der Stabilität gab, wenn Sie "falsch" angeschlossen waren.

War ein interessantes Gespräch mit Enermax. Man sollte halt wirklich nicht unterschätzen, was für extreme Lastwechsel heutige High-End GPUs erzeugen können. Und jetzt stell dir das mal bitte mit ner R9 295X vor....

Sparsamer als 2 x 780Ti. Dazu leise und perfektes AFR. Perfekte Karte imho. Mining oder Gaming absolut geil mit dem Teil.
Ich würde mir das Ding sicher nicht für Minen holen. Da hätte ich viel zu viel Sorge, das mir das Ding relativ schnell um die Ohren fliegt, wenn es 24/7 läuft, und wenn nicht die Karte, dann das Netzteil.

Sind wir jetzt in einem Bio GPU Thread gelandet oder wie? Am besten sollten die GK Hersteller ein Laufrad oder Fahrrad mitliefern, damit alle ihre Karte durch Muskelkraft bedienen. Wie weit vom Thema sind wir denn aufeinmal weg, dass man urplötzlich bei Enthusiasthardware sich über 50Watt echauffiert? An Absurdität ist dieser Diskussionsstiel kaum zu überbieten. Da werden Jahrealte Karten mit brandaktuellen Karten verglichen, um irgendwie einen Bezug zu finden, wo es keinen gibt ausser dass beides GPUs sind. Ich denke man sollte hier am besten noch ARM CPUs und Kühlschränke mit reinnehmen, wenn wir schon dabei sind.
Du merkst schon, das hier an sich keiner wegen dem reinen Verbrauch meckert, sondern NUR, weil der extreme Verbrauch über gerade mal zwei 8 Pin Stecker läuft...

Einfach noch nen dritter 8Pol dazu, und alles wäre fein. Der Verbrauch wäre zwar immer noch extrem, aber es gäbe keinen Grund über die Stromversorgung zu meckern, weil man sich an die Specs hält, zumindest grob. Wegen 20-40W muss man dann echt kein Fass mehr aufmachen, die dann in Peak immer noch drüber liegen würden.

Die offizielle Begründung ist weil man auch Quad-Crossfire ermöglichen will und die wenigstens Netzteile haben mehr wie 4 8-Pin Anschlüsse. Ansonsten spielt es laut AMD keine Rolle aus wie vielen Leitungen man die Leistung saugt solange das Netzteil insgesamt genügend Saft zur Verfügung stellt, die Kabel sind bis 288Watt spezifiziert.
Ich freu mich schon auf die ersten Berichte, dass das Ding nach relativ kurzer Zeit entweder NTs oder sich selbst grillt.

Die schlechte PR hat AMD dann absolut verdient. Wer so was in die Welt setzt, der muss auch mit den Konsequenzen leben...


Wurde schon erwähnt, dass bei PCGH das Netzteil ab und zu mal ausgegangen ist? Und ich halte ein 850 Watt Platimax nicht gerade für ein schlechtes Netzteil mit zu wenig Power:freak:

Dem kann ich nur zustimmen, siehe mein Link bzgl Enermax.

@Raff:
Kannste mal mein OpenCL Bench anschmeisen, und schauen, ob das Ding notabschaltet?

Wäre nett.

fondness
2014-04-08, 21:02:44
Das kann kein Zufall sein :D
http://www.bbc.com/news/science-environment-26941017?cmpid=social21549954

M4xw0lf
2014-04-08, 21:11:50
Das kann kein Zufall sein :D
http://www.bbc.com/news/science-environment-26941017?cmpid=social21549954
Lol, zwei Inseln vereinigen sich zu einer? Ich wusste nicht, dass Terraforming in AMDs Werbebudget liegt ;D

(del676)
2014-04-08, 21:15:49
Prinzipiell gefaellt mir die Karte ganz gut, habe aber 2 Probleme damit.
1. ist der Preis zu hoch. 1100€ waere ein guter Einfuehrungspreis, ~1000€ ein guter Preis bei ausreichender Verfuegbarkeit
2. Spulenfiepen - ein absolutes NOGO fuer eine Grafikkarte ueber 20€ ;)

Raff
2014-04-08, 21:19:06
@Raff:
Kannste mal mein OpenCL Bench anschmeisen, und schauen, ob das Ding notabschaltet?

Wäre nett.

Dazu brauchte es nicht mal einen Synthie, das 850-Watt-NT mit Gold-Plakette ist in Metro Last Light (OGSSAA) und in BF Bad Company 2 (SGSSAA) jeweils in UHD abgeflogen. Allerdings kann man das modulare Design anscheinend auch anders verkabeln, möglicherweise war der Testzustand hinsichtlich der Aufteilung suboptimal (der aber für jede noch so perverse Single-GPU-Karte ausreicht, auch für eine übertaktete 290X Lightning mit 430 Watt; siehe PCGH 05/2014).

2. Spulenfiepen - ein absolutes NOGO fuer eine Grafikkarte ueber 20€ ;)

Jede High-End-Grafikkarte fiept bei vierstelligen Bildraten. Das Niveau der R9 295 X2 liegt laut dem, was ich hörte, zwar leicht über dem einer Titan oder 780 Ti (die diesbezüglich gut abschneiden), ist aber keineswegs nennenswert ausgeprägt.

MfG,
Raff

(del676)
2014-04-08, 21:25:08
Du bist also noch so einer, der defekte Grafikkarten verteidigt?
Wuerdest du das auch tun, wenn bei deinem 200.000 Euro neuen Aston Martin der Motor rasselt? Oder wuerdest du auf einen Wagen ohne Motorrasseln bestehen?

Fiepende Grafikkarten sind in meinen Augen defekt, und werden 1:1 zurueckgeschickt.

Und nein, ich hatte in ueber 20 Jahren erst eine einzige fiepende Grafikkarte (und jeder der mich kennt weiss, ich hatte verdammt viele), und das war zuuuuuufaelligerweise eine R9 290x. ;)


Wenn es irgendwo Mikroruckelt, dass man es nur noch messen kann, weil man eh nix sieht. Oder wenn irgendwo irgendein Filter einen Pixel falsch filtert, dann tobt der 3DC Hipster Mob. Wenn bei einer Referenz R9 290x, das lauteste am ganzen Rechner das (MIT WENIGEN CENT, SEHR VERMEIDBARE!!!!!) Spulenfiepen ist, dann ist das aber "normal" (und das war bei 60fps im Vsync). Nein, euch versteh ich nicht!
Meine beiden 7950 fiepen uebrigens nicht. Nichtmal bei 999fps.

Edit: Jetzt warte ich noch auf die Fanboy Keule die mir entgegengeschleudert wird, und dann geh ich pennen.

HarryHirsch
2014-04-08, 21:35:21
Ob heut noch einer diesen blöden Treiber hoch lädt....

Raff
2014-04-08, 21:36:34
Ulukay, ich verteige das nicht, ich spreche nur die Fakten aus. Das Phänomen unterliegt allerdings der Serienstreuung. Da gibt's dann tatsächlich "defekte" Karten oder ganze Chargen, wenn die Bauteile aus einer Montagsproduktion stammen. Wenn eine Grafikkarte bei 60 Fps wahrnehmbar zischt/zirpt, dann fiept sie bei extremen Bildraten überdurchschnittlich laut. Fiept eine Grafikkarte hier nur leise, geht das Zirpen/Zischen bei üblichen Fps im restlichen Rechner unter.

MfG,
Raff

(del676)
2014-04-08, 21:43:55
Tja, solltn sie mal anstaendige Bauteile verbauen, oder die billigen wenigstens in Harz tauchen. ;)
Waer fuer 1300€ imho nicht zuviel verlangt!

Raff
2014-04-08, 21:44:59
Letzteres macht Powercolor übrigens gerade ziemlich erfolgreich. ;)

MfG,
Raff

Knuddelbearli
2014-04-08, 21:50:50
Wenn nur deren Spawa Kühler nicht so scheiße wäre ...

horn 12
2014-04-08, 21:57:01
Bitte wo bleibt der 14.4 Beta Treiber, oder kommt jener wie so oft,- Mittwoch abends ... ?

Monsta
2014-04-09, 07:51:23
Du bist also noch so einer, der defekte Grafikkarten verteidigt?
Wuerdest du das auch tun, wenn bei deinem 200.000 Euro neuen Aston Martin der Motor rasselt? Oder wuerdest du auf einen Wagen ohne Motorrasseln bestehen?

Fiepende Grafikkarten sind in meinen Augen defekt, und werden 1:1 zurueckgeschickt.

Und nein, ich hatte in ueber 20 Jahren erst eine einzige fiepende Grafikkarte (und jeder der mich kennt weiss, ich hatte verdammt viele), und das war zuuuuuufaelligerweise eine R9 290x. ;)


Wenn es irgendwo Mikroruckelt, dass man es nur noch messen kann, weil man eh nix sieht. Oder wenn irgendwo irgendein Filter einen Pixel falsch filtert, dann tobt der 3DC Hipster Mob. Wenn bei einer Referenz R9 290x, das lauteste am ganzen Rechner das (MIT WENIGEN CENT, SEHR VERMEIDBARE!!!!!) Spulenfiepen ist, dann ist das aber "normal" (und das war bei 60fps im Vsync). Nein, euch versteh ich nicht!
Meine beiden 7950 fiepen uebrigens nicht. Nichtmal bei 999fps.

Edit: Jetzt warte ich noch auf die Fanboy Keule die mir entgegengeschleudert wird, und dann geh ich pennen.

Btw voll ausgereizte Motoren rasseln. Liegt am Mechanischen Ventiltrieb.
In der Regel ist der Sound der Abgasanlage lauter, von daher fällt das nicht so auf.

Skysnake
2014-04-09, 08:12:14
Dazu brauchte es nicht mal einen Synthie, das 850-Watt-NT mit Gold-Plakette ist in Metro Last Light (OGSSAA) und in BF Bad Company 2 (SGSSAA) jeweils in UHD abgeflogen. Allerdings kann man das modulare Design anscheinend auch anders verkabeln, möglicherweise war der Testzustand hinsichtlich der Aufteilung suboptimal (der aber für jede noch so perverse Single-GPU-Karte ausreicht, auch für eine übertaktete 290X Lightning mit 430 Watt; siehe PCGH 05/2014).

Mit "Synthie" hat das an sich wenig zu tun. Ist einfach nen finite-Elemente Problem. Das kann man praktisch beliebig skalieren, so lange einem der RAM nicht ausgeht.

Es wäre einfach mal interessant, wie sich das Ding unter wirklich hartem 24/7 Einsatz schlägt, also gerade für Bitcoin miner usw.

Kann mir irgendwie nicht vorstellen, dass das Ding in nem System auch nur 10h am Stück durchhält. Ich lasse mich aber gern vom Gegenteil überzeugen :wink:

Loeschzwerg
2014-04-09, 08:39:57
Kann mir irgendwie nicht vorstellen, dass das Ding in nem System auch nur 10h am Stück durchhält. Ich lasse mich aber gern vom Gegenteil überzeugen :wink:

Hehe, wäre zu krass wenn AMD das dann durch die QA Tests gewinkt hätte :freak: Ein ordentlicher Burn-In ist eigentlich Pflichtprogramm.

Wobei, die GTX 590 hat es damals ja auch geschafft recht oft abzurauchen...

Wie warm werden denn die Spawas bei dem Ding?

Butterfly
2014-04-09, 12:24:25
Was ich aber nicht ok finde (und da wiederhole ich mich) ist, dass AMD eine Spezifikation um ein Drittel überschreitet, ohne mit der Wimper zu zucken. Und das, obwohl es mit einem weiteren Stromanschluss bezüglich dieses Themas überhaupt keine Probleme gegeben hätte. Und falls du meinen Post gelesen hättest, wäre dir aufgefallen, dass ich auch das Überschreiten der Spezfikationen bei der GTX 590 nicht gut finde - es da aber nur verhältnismäßig wenige Prozent sind. Und zwar im worst case. AMD sagt überspitzt: Ein Drittel über Netzteil-/Kabel-Spezifikation - und das im Normalfall. Worst case (~560 Watt) sind es dann sogar knapp 50 Prozent. Und das - ich wiederhole mich wieder - wo es andere Lösungsmöglichkeiten gegeben hätte.

Mir gehen die 500 Watt Leistungsaufnahme am Allerwertesten vorbei. Ich fahre einen 3930K mit 4,8 GHz - und zwar ohne irgendwelche Stromsparmechanismen. Und ich fahre zwei Titan mit 1,24 Volt GPU-Spannung ohne Boost-Mechanismus. Leistungsaufnahme ist mir in meinem Alltagssystem persönlich egal. Nicht egal ist aber, wenn ein GPU-Hersteller meint, die Leitungen meines Netzteils mit einem Drittel zuviel belasten zu wollen. Das ist der Knackpunkt. Darüber - und nur darüber - bin ich enttäuscht.

Welche Spezifiaktion meinst du? Seit ATX 2.3 gibt es keine Begrenzung mehr von 20A pro Leitung.
Also ist der Leitungsquerschnitt die physikalsiche Größe was an Strom durch die Leitung darf.
Es obligt also dem NT Hersteller, in welche Version er sein NT klassifiziert.

Naja AMD ist ein Systembauer die auch selbst Spezifikationen festlegen, da darf man auch mal alte Spezifikation ignorieren.
War ja beim FX-9590 auch nicht anders.

MusicIsMyLife
2014-04-09, 12:59:29
Welche Spezifiaktion meinst du?

Ich meine die Spezifikation die besagt, dass ein 8-poliger Anschluss an der Grafikkarte für 150 Watt verantwortlich ist. Und laut den Messungen von Computerbase wird sporadisch der doppelte Wert erreicht.

Dass das zu Problemen führen kann hat sich ja bereits gezeigt. Und das, obwohl mit einem weiteren Stecker alles gelöst wäre.

uweskw
2014-04-09, 13:18:25
Ich meine die Spezifikation die besagt, dass ein 8-poliger Anschluss an der Grafikkarte für 150 Watt verantwortlich ist. Und laut den Messungen von Computerbase wird sporadisch der doppelte Wert erreicht.

Dass das zu Problemen führen kann hat sich ja bereits gezeigt. Und das, obwohl mit einem weiteren Stecker alles gelöst wäre.

Meines Wissens nach geht es darum, dass ein 8-poliger Stecker mindestens 150 Watt abkönnen muss. Z.B. bei einem 300W Netzteil. Wird wohl kaum einer versuchen mit so etwas eine R9 295X2 zu betreiben.

Greetz
U.S.

Iruwen
2014-04-09, 13:24:11
Bei einem 1000W NT garantiert dir auch keiner, dass es 25A auf einer Rail über die Anschlüsse verträgt. AMD hat das sicherlich nicht grundlos gesagt:

Unsere diesbezügliche Nachfrage hin kommentierte AMD wie folgt. Die R9 295 X2 sei ein Produkt, welches mit extremer Vorsicht zu behandeln sei und welches nicht dazu entworfen wurde, mit jedem Netzteil zusammen zu arbeiten.

M4xw0lf
2014-04-09, 13:27:00
"Do you have what it takes" war auch keine leere Werbefloskel ;D

MusicIsMyLife
2014-04-09, 13:59:05
Meines Wissens nach geht es darum, dass ein 8-poliger Stecker mindestens 150 Watt abkönnen muss. Z.B. bei einem 300W Netzteil. Wird wohl kaum einer versuchen mit so etwas eine R9 295X2 zu betreiben.

Greetz
U.S.

Es bestreitet ja auch keiner, dass bei dem Wert von 150 Watt gewisse Reserven vorhanden sind. Aber es sind doch zwei verschiedene Paar Schuhe, wenn man den Wert kurzfristig um 10 oder 20 Prozent überschreitet oder dauerhaft um weit über 50 Prozent mit worst case von fast 100 Prozent.

Ein weiterer 8-poliger Anschluss und alles wäre gut.

M4xw0lf
2014-04-09, 14:05:43
Es bestreitet ja auch keiner, dass bei dem Wert von 150 Watt gewisse Reserven vorhanden sind. Aber es sind doch zwei verschiedene Paar Schuhe, wenn man den Wert kurzfristig um 10 oder 20 Prozent überschreitet oder dauerhaft um weit über 50 Prozent mit worst case von fast 100 Prozent.

Ein weiterer 8-poliger Anschluss und alles wäre gut.

CB schreibt was von 250W Spezifikation für einen 12V 8Pin-Stecker nach NEC - selbst die wird aber noch gebrochen. http://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/2/

Knuddelbearli
2014-04-09, 14:18:19
sicher das AMD 250W schreibt und nicht 288W?

uweskw
2014-04-09, 14:40:32
Sicher würde auch ich es besser finden wenn die Karten 3 Stecker hätten. Aber einige von euch tun grad so als wäre das der Weltuntergang weil morgen tausende PC von unschuldigen/unwissenden Usern sich in ein flammendes Inferno verwandeln....
Lasst doch die Kirche im Dorf. Ist nicht elegant gelöst, aber kein Beinbruch!
Jedes Netzteil in der Leistungsklasse sollte über eine Schutzschaltung verfügen. Da gibts auch Vorschriften. Da wird abgeschalten/runtergefahren.

WiKi:
Funktionen wie Kurzschlussschutz, ein gewisser Überspannungs- (OVP) oder Überlastungsschutz (OCP) und ab 75 W Leistungsaufnahme mindestens eine passive Leistungsfaktorkorrektur (englisch passive PFC) sind Vorschrift und sollten selbstverständlich sein, werden dennoch als besondere Ausstattung beworben. Grauimporte können hiervon abweichen, da diese Standards nicht weltweit durchsetzbar sind.

Und wer eine 1300,00 Euro Karte an einem Ebay-Billig-Chinaböller-Grauimport ohne Zertifikat betreibt ist, dem ist eh nicht mehr zu helfen.

Greetz
U.S.

N0Thing
2014-04-09, 14:45:12
Es kann aber auch nicht Sinn der Sache sein, wenn sich regelmäßig im Betrieb das Netzteil abschaltet, weil die Grafikkarte ungünstig designt wurde.
Das soll ja eine Schutzvorrichtung sein und nicht jeden Tag passieren (hypothetischer worst case).

Loeschzwerg
2014-04-09, 14:53:39
Es sind auch schon einige Markennetzteil bei Überlast verreckt (da gab es mal ein Bericht, glaube von CB), darauf ankommen lassen ist halt immer schlecht.

An den zwei 8 Pin Steckern kann man jetzt nichts mehr ändern, aber mich ärgert die offizielle Begründung dazu.

AMD kann sich aber recht gut aus der Affäre ziehen wenn sie ihr Produkt entsprechend mit Hinweisen ausliefern.

Edit: Mmh... zu langsam, aber volle Zustimmung @ N0Thing.

Butterfly
2014-04-09, 15:18:44
Ich meine die Spezifikation die besagt, dass ein 8-poliger Anschluss an der Grafikkarte für 150 Watt verantwortlich ist. Und laut den Messungen von Computerbase wird sporadisch der doppelte Wert erreicht.

Dass das zu Problemen führen kann hat sich ja bereits gezeigt. Und das, obwohl mit einem weiteren Stecker alles gelöst wäre.
Wie geschrieben, inzwischen ist ATX 2.3 der aktuelle Standard bzw. die Spezifikation.
Laut CB test ist die R9 295x dann 3 Ampere über den 20A vom ATX 2.2 Standard.
75W können noch zusätzlich über den PCIe Bus belastet werden.
Da würde ich es schlimmer finden, wenn die 75W überschritten werden.

Beim PCIe 8-Pin Stecker sind 5 Masseleitungen a 0,75mm² (Kabel nennt man Leitungen die unter der Erde verlegt werden)
Das reicht vom Querschnitt für mindestens 75A bzw 900W pro 8-Pin Leitung.
http://www.ampacremscheid.de/de/k1_33.php

MfG

Iruwen
2014-04-09, 16:18:03
Soweit die Theorie.

Butterfly
2014-04-09, 16:34:12
Soweit die Theorie.
Bei Kupferlitzen ist das erprobt, die Leitungsschutzschalter (LS-Schalter) müssen ja relativ schnell abschalten bei Überlastung. ;)
Wer mal ein VDE Abnahme nach DIN bei einem Hausanschluß (400V) gemacht hat, weiß wieviel eine Kupferleitung verträgt.

Nur die Steckverbindung ist etwas kritisch, daher werden auch mehrer Pins genutzt um den Übergangswiederstand so gering wie möglich zu halten. :smile:

Schaffe89
2014-04-09, 16:45:40
Die Karte ist ja mal der typisch AMD´sche Oberfail.
Soll ich jetzt gucken, dass die Kabel kühl bleiben oder was?
Welcher Vollidiot hat sich das nur ausgedacht.

dildo4u
2014-04-09, 16:49:40
Der selbe Typ dem der FX9590 eingefallen ist AMD kackt auf Specs.
Sollte ja ne OEM CPU sein wurde aber auch einzeln verkauft.

http://youtu.be/Wnam6Abo-Fw

Schaffe89
2014-04-09, 17:10:13
Was spricht dagegen einen zusätzlichen 6 Pin oder 8 Pin zu verbauen?

uweskw
2014-04-09, 17:27:38
.....
Beim PCIe 8-Pin Stecker sind 5 Masseleitungen a 0,75mm² (Kabel nennt man Leitungen die unter der Erde verlegt werden)
Das reicht vom Querschnitt für mindestens 75A bzw 900W pro 8-Pin Leitung.
http://www.ampacremscheid.de/de/k1_33.php

MfG

Schön dass wir auch Fachleute hier haben!

Butterfly
2014-04-09, 18:02:07
Die Karte ist ja mal der typisch AMD´sche Oberfail.
Soll ich jetzt gucken, dass die Kabel kühl bleiben oder was?
Welcher Vollidiot hat sich das nur ausgedacht.
Warum sollten die Kabel warm werden, die verlaufen doch unter der Erde. :rolleyes:
Der selbe Typ dem der FX9590 eingefallen ist AMD kackt auf Specs.
Sollte ja ne OEM CPU sein wurde aber auch einzeln verkauft.

http://youtu.be/Wnam6Abo-Fw
Naja, das kommt darauf an, wer die Spezifikationen festgelegt hat.
Wenn die von nvidia oder Intel kommen, ja da macht sich AMD keinen Kopf drum.
Was spricht dagegen einen zusätzlichen 6 Pin oder 8 Pin zu verbauen?
Der ATX 2.3 Standard, es gibt inzwischen sogar schon 2.31: http://en.wikipedia.org/wiki/ATX#ATX12V_v2.31
Schön dass wir auch Fachleute hier haben!
Auch Fachleute können sich irren. :smile:

Loeschzwerg
2014-04-09, 21:24:44
Wie geschrieben, inzwischen ist ATX 2.3 der aktuelle Standard bzw. die Spezifikation.
Laut CB test ist die R9 295x dann 3 Ampere über den 20A vom ATX 2.2 Standard.
75W können noch zusätzlich über den PCIe Bus belastet werden.
Da würde ich es schlimmer finden, wenn die 75W überschritten werden.

Beim PCIe 8-Pin Stecker sind 5 Masseleitungen a 0,75mm² (Kabel nennt man Leitungen die unter der Erde verlegt werden)
Das reicht vom Querschnitt für mindestens 75A bzw 900W pro 8-Pin Leitung.
http://www.ampacremscheid.de/de/k1_33.php

MfG

Du hast aber nur drei 12V Leitungen, ergo wären es nach deiner Rechnung maximal 45A. So oder so hast du dann aber eine hohe Hitzeentwicklung und die ist ganz klar kritisch zu betrachten. Im Sleeve eingewickelt und als Kabelbündel irgendwo im Gehäuse verstaut... schöner Hotspot.

Erwärmung von 35°C Raumtemperatur um 35° auf 70°C = maximal zulässige Temperatur. -> siehe dein Link

Spielt aber auch keine Rolle, denn Molex/AMP geben die Stecker nicht für mehr als maximal 9A pro Kontakt frei. Die NEC Spezifikation hat Spielraum, ganz klar, aber das hat auch einen Sinn, denn es gibt die Netzteil Designvorgabe in der eine Umgebungstemperatur von +10°C bis +50°C (im Betrieb) abgedeckt sein soll.

Butterfly
2014-04-10, 12:39:54
@Loeschzwerg
Danke, ich hatte es ja nur vom ideal Fall also bei 70°C sind 15A pro 0,75mm² möglich, je nach Leitungslänge. (je länger desto mehr Wiederstand/wärme)

Also sind Laut Molex/Amp 3x 9A möglich?

Wenn bei CB mit 23A die Leitung heiß wird stimmt was nicht, würde ich mal das Netzteil tauschen.

Loeschzwerg
2014-04-10, 13:09:25
Stecker:
http://www.molex.com/webdocs/datasheets/pdf/en-us/0455590002_CRIMP_HOUSINGS.pdf

Buchse:
http://www.molex.com/webdocs/datasheets/pdf/en-us/0455580003_PCB_HEADERS.pdf

Komischerweise hat die Buchse nur 8A...

"Per contact", das kann jetzt bedeuten pro Kabelkontakt oder pro Anschluss. Auf der deutschen Seite schreibt Molex von 8 bzw. 9A pro Anschluss. Etwas verwirrend.

Die Frage ist halt was CB mit "heiß" genau meint :) Da wäre eine Messung mit einer IR Kamera sicher ganz interessant.

Knuddelbearli
2014-04-10, 13:16:53
mit der Hand empfindet man schon 40C° als heiß wenn man es berührt, würde da auch sowas subjektives nicht viel geben.

das wäre dann 20C° delta, da müsst es aber schon das dreifache sein bis man sich wegen der Isolierung sorgen machen müsste.

Raff
2014-04-10, 13:20:00
Erst wenn die Kunststoffummantelung abtropft, muss man sich Sorgen machen. :ulol:

MfG,
Raff

Knuddelbearli
2014-04-10, 13:49:00
na da ist man eben wenn es gefühlt heiß ist halt noch weit entfernt ^^

M4xw0lf
2014-04-10, 14:04:41
Erst wenn die Kunststoffummantelung abtropft, muss man sich Sorgen machen. :ulol:

MfG,
Raff
Erst wenn die Kabel heller leuchten als das Radeon-Logo.

Godmode
2014-04-10, 14:12:48
Was könnte eigentlich der Grund für nur zwei Stromstecker gewesen sein? PCIe Norm schreibt das vor, aber wenn ich dadurch eine andere breche, die deutlich wichtiger ist?

Knuddelbearli
2014-04-10, 14:13:56
Bluffen? ^^

Nv bekomtm irgendwoher specs sieht 2*8pin und ein UP TO 1,018 GHZ und bauen daraufhin selber eine 375W Dualchip Karte

(del676)
2014-04-10, 14:24:24
Mehr unnoetige Kabel und Stecker zu verwenden ist also schlechter, als irgendeine theoretische Grenze zu ignorieren, die in der Praxis wenig Sinn hat?

HarryHirsch
2014-04-10, 20:59:02
Darf man fragen warum hier kommentarlos Postings gelöscht werden?

Knuddelbearli
2014-04-10, 21:01:45
vermutlich da es das übliche flamming / trolling / fanboy getue war.
Bzw bei meinem Post habe ich darum gebeten da hat er gleich alles bereinigt.

Ailuros
2014-04-10, 23:26:28
Darf man fragen warum hier kommentarlos Postings gelöscht werden?

Trollt weniger dann hab ich auch nichts aufzuraeumen und nein es wird nicht weiter oeffentlich besprochen. Beim naechsten Mal gibt es einfach kommentarlos Punkte.

Darkness
2014-04-10, 23:40:41
Ist die Karte denn schon irgendwo lieferbar?

Finde nix :(

fondness
2014-04-10, 23:47:10
AFAIK erst ab 21. April.

Darkness
2014-04-11, 12:31:35
hmm ich nehme an eine "empfohlens Netzteil" Liste gibts auch net ?

Also ich mein bezogen auf Hersteller ....... Größenordnung dürfte ja 1000 Watt sein

fondness
2014-04-11, 12:45:57
AFAIK kommt da noch was, im Reviewers-Guide wurden diese Empfehlungen gemacht:

AMD empfiehlt generell Netzteile, welche über zwei 8-Pin-Anschlüsse ohne Adapter und auf getrennten 12-Volt-Schienen verfügen. Jede 12-Volt-Schiene sollte 28 Ampere zu liefern im Stande sein und zwei Schienen müssten kombiniert 50 Ampere schaffen.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-R9-295X2-Test-Review-1116145/

tam tam
2014-04-11, 13:37:02
hmm ich nehme an eine "empfohlens Netzteil" Liste gibts auch net ?

Also ich mein bezogen auf Hersteller ....... Größenordnung dürfte ja 1000 Watt sein


Dürften mindest. alle Gold-zertifizierten Netzteile sein, besser gar Platin-Modelle.

AFAIK kommt da noch was, im Reviewers-Guide wurden diese Empfehlungen gemacht:

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-R9-295X2-Test-Review-1116145/


Zwei getrennte 12-Volt-Schienen? Ich habe nur eine ausgewiesene mit 55A jedoch 2x 8-Pin Stecker. Und ich habe mal geschaut, auch die größeren Modelle haben jeweils nur eine +12-Volt-Schiene. :confused:

Unicous
2014-04-11, 13:51:24
Was für größere Modelle?

AMD bezieht sich wohl auf ATX 2.31+ (bzw. 2.4 um ganz sicher zu sein) und da gibt es einige mit mehr als 28A pro "Schiene". Da muss man natürlich auch entsprechend das Sparschweinchen leeren. Unter 90 Euro geht da, so wie ich das auf die Schnelle gesehen habe, nichts.

750 Watt ist natürlich zu wenig aber das wäre z.b. eins ab 65 Euro

http://geizhals.eu/de/fractal-design-integra-r2-750w-atx-2-31-fd-psu-in2b-750w-a815616.html

tam tam
2014-04-11, 15:02:14
Was für größere Modelle?

750 Watt ist natürlich zu wenig aber das wäre z.b. eins ab 65 Euro

http://geizhals.eu/de/fractal-design-integra-r2-750w-atx-2-31-fd-psu-in2b-750w-a815616.html


Ich habe 660W. Das größte aus dieser Serie hat 860W. Und dann gibt es noch das mit 1200W, was aber kein normaler Mensch benötigt. Aber auch das hat nur eine +12V-Schiene mit 100A. Deswegen frage ich mich, ob das letztendlich nicht egal ist, solange in der Summe(wo ja die beiden 8-Pin-Anschlüsse anliegen) die 50A geliefert werden?

Edit: A und W verwechselt aber jetzt hoffentlich richtig. :redface:

fondness
2014-04-11, 16:33:34
Natürlich, ein Netzteil mit nur einer 12V Schiene ist sogar besser.

gedi
2014-04-12, 00:24:22
Ich kann diesen Netzteil-Scheiß nicht mehr lesen. Ich betreibe 2 290x auf 1050x1350 und einen übertakteten I7 mit einem 750W 100€ Netzteil. Und ja, auch ich habe die Reviews gelesen, wenn man allerdings physikalisches Sachverständnis einfließen lässt, dann relativiert sich einiges.

Btw. denke ich, dass ein DAU sich wohl nie eine Graka für 1300 Teuro kaufen würde.

Was bleibt ist die schnellste Grafikkarte (welche nicht von einem DAU in Betrieb genommen werden sollte), welche derzeit erhältlich ist, mit einem in Anbetracht der Leistung hervorragenden Geräuschniveau unter 3D - allerdings zu einem exorbitanten Preis.

Skysnake
2014-04-12, 09:03:01
Die Reduktion auf LC-Power/Chinaböller ist absolut unangebracht. Es gibt durchaus "viele" gute Netzteile von allen namhaften Herstellern, die PRobleme haben werden.

Halt alles was Multi-Rail ist, weil eben durch die mehreren Rails der Überstromschutz feingranularer arbeiten kann, siehe gleich weiteres.

Natürlich, ein Netzteil mit nur einer 12V Schiene ist sogar besser.
Das ist schwachsinn hoch Zehn.

Multirail ist vom Prinzip her besser, da der Überstromschutz usw auf jeder einzelnen Rail arbeiten kann. CB hatte ja mal einen Test zu Überstromschutz gemacht, indem Sie mit einem längeren Kabel das NT kurzgeschlossen haben. Die Multirail NTs haben schön abgeschaltet, das Mono-Rail NT von glaub Corsair wars, hat schön das Kabel durchschmoren lassen ohne! ab zu schalten, eben weil der Strom zwar zu hoch für den Anschluss war, aber insgesamt halt weniger als das 1200W(?) Netzteil normal liefern können muss.

Bei Multi-Rail muss man halt schauen, das man die PCI-E 8x Stecker eben an VERSCHIEDENE! Rails hängt und nicht an die gleiche Rail. Damit sollte bei genügend groß dimensionierten NTs dann auch kein Problem mehr bestehen. DAS muss man aber erstmal wissen...

Enermax hat mir auf der CeBIT genau von diesem Problem bei Multi-GPU Systemen berichtet, und sogar eine Ansteckanleitung für ihre großen NTs rausgebracht.

kruemelmonster
2014-04-12, 10:09:06
Und die Netzteildiskussion bei Leuten, die sowieso fast alle übertakten, verstehe ich keinen Meter. Wohl alle LC-Power gekauft

Siehe Skysnake, und: meine Gigabyte GTX 670 hat eine Karten-TDP von 300w und braucht selbst übertaktet nur knapp mehr als 200w. Mein PC Power&Cooling NT hat 680w Peak, ist aber nur mit 610w angegeben.

Reserve ist was feines. Klar kann man auch auf Kante bauen, und 10% mehr gehen eigentlich immer, aber eine gewollte Überbeanspruchung um fast das Doppelte ist einfach unverantwortlich und auch unnötig.

Denn was ich keinen Meter verstehe, ist worin der Vorteil von nur zwei 8pin Steckern liegen soll. Das Netzteilargument von AMD ist affig wenn man sieht das 1000W+ Netzteile mit sechsmal 8pin bei Geizhals zu hauf im Bereich von 100-200€ zu bekommen sind.
Im Tandem verbaut werden die Karten wohl hauptsächlich von Boutiquen wie Maingear oder Falcon NW die um die Karten herum einen 4000$ PC bauen. Und da ist es auf einmal nun wichtig dass man Crossfire mit lediglich viermal 8pin hinbekommt?
BS, bei dem Preis kann sowohl eine Premium-Schusterbude als auch ein Privater ein neues NT in den Warenkorb legen.

Skysnake
2014-04-12, 11:05:47
Reserve ist was feines. Klar kann man auch auf Kante bauen, und 10% mehr gehen eigentlich immer, aber eine gewollte Überbeanspruchung um fast das Doppelte ist einfach unverantwortlich und auch unnötig.

Ich war mal so frei, das wirklich relevante herauszustellen ;)

@Topic:
Wenn man jetzt etwas provokant sein wollen würde, könnte man auf die Idee kommen, das man die Titan Z so in der Form einfach nicht erwartet hat, und kurzfristig entschieden hat, nVidia richtig eins auswischen zu wollen mit der brachialen Leistung. Da war das Platinendesign aber halt schon fertig, und man ist dahin gegangen, was noch gerade als verträglich angesehen wurde.

Ich freu mich schon auf die AMD Hater kommentare, ohne wait, ich soll ja nVidia hater sein... :P

tam tam
2014-04-12, 15:00:38
Das ist schwachsinn hoch Zehn.


Na das erzähle mal Seasonic, denn die haben gerade bei ihrer teuren Serie nicht ein einziges Netzteil mit zwei +12-V-Schienen dabei. Siehe dazu auch die letzten Modelle z.B.:

Platinum Series 660/760/860 (http://www.seasonicusa.com/Platinum_Series_XP2.htm)

Bei Multi-Rail muss man halt schauen, das man die PCI-E 8x Stecker eben an VERSCHIEDENE! Rails hängt und nicht an die gleiche Rail. Damit sollte bei genügend groß dimensionierten NTs dann auch kein Problem mehr bestehen. DAS muss man aber erstmal wissen...


Ich kann mir einfach nicht vorstellen, daß besonders Seasonic als Marktführer in der Hinsicht versagen würde. Letztendlich kann ich es nat. nicht beurteilen. Aber auch nur eine +12V-Schiene mit zwei bis vier 8-Pin-Adaptern sollte doch genauso gut zu kühlen sein und ebenso seine Vorteile haben?

Übrigens kann ich jedem Overclocker diese Platin-Serie empfehlen, besonders wegen der sehr hohen Stabilitäts-Werte(bei mir setzt der Thermalright HR-02 Macho die Grenzen, wo bei Prime95 die CPU viel zu schnell heiß wird).

Skysnake
2014-04-12, 15:36:35
Hat jemand was von versagen gesagt?

Es ging nur darum, das ein Single-Rail-Design grundsätzlich besser wäre, und dem ist eben nicht so, weil der Überstromschutz bei einem Single-Rail einfach prinzipiell nicht so fein arbeiten kann, wie bei einem Multi-Rail Design.

Dafür hat Single-Rail einen Vorteil, wenn man halt mehr aus den Steckern ziehen will, als eigentlich vorgesehen ist.

Wenn du 600W auf einer einzelnern 12V Schiene mit 4x 8Pin hast, ist es scheis egal, ob 4x 150W gezogen wird, oder 2x 300W.

Bei nem Dual-Rail Design mit 2x300W ist es halt nicht egal. Da geht 4x150W auch immer, aber 2x300W geht nur, wenn du die Stecker von zwei unterschiedlichen Rails nimmst.

Nicht mehr und nicht weniger.

muelli
2014-04-12, 15:52:05
Wobei man zu den Seasonic sagen muss, dass sie eigentlich Multi-Rail-Netzteile sind, wenn ich mich recht entsinne gilt das auch für die Platinum-Serie.

tam tam
2014-04-12, 16:03:38
Hat jemand was von versagen gesagt?


Das stimmt allerdings. :redface:

Es ging nur darum, das ein Single-Rail-Design grundsätzlich besser wäre, und dem ist eben nicht so, weil der Überstromschutz bei einem Single-Rail einfach prinzipiell nicht so fein arbeiten kann, wie bei einem Multi-Rail Design.


Und genau diese Behauptung bedarf eines unwiderlegbaren Beweises, was Du aber noch nicht erbracht hast(viell. auch laienverständlich?).

Dafür hat Single-Rail einen Vorteil, wenn man halt mehr aus den Steckern ziehen will, als eigentlich vorgesehen ist.


Ist für mich kein nennenswerter Vorteil. Erst recht nicht bei Netzteilen in solcher Preisklasse wie bei Seasonic oder Enermax.

Wenn du 600W auf einer einzelnern 12V Schiene mit 4x 8Pin hast, ist es scheis egal, ob 4x 150W gezogen wird, oder 2x 300W.

Bei nem Dual-Rail Design mit 2x300W ist es halt nicht egal. Da geht 4x150W auch immer, aber 2x300W geht nur, wenn du die Stecker von zwei unterschiedlichen Rails nimmst.


Leuchtet ein. Nur weiß man denn auch, welche DIN Seasonic hier mit seinen Anschlüssen erfüllt, die dann genau Deine Argumentation stützt?

Normalerweise halte ich mich bei solchen Diskussionen zurück, auch weil ich das wie schon gesagt nicht beurteilen kann. Was mich jedoch wundert ist, daß Seasonic erst kürzlich die oben verlinkte Modellreihe konzipierte und man aber m.E. auch dort vorausdenken wird, wie z.B. aktuelle Entwicklungen im Grafikkartenbereich erfolgen werden besonders im Bezug zum Stromverbrauch einschl. Anschlussproblemen? Demzufolge ist es doch absehbar, daß zukünftig zwei GPUs auf einem Brett einen so hohen Stromverbrauch verzeichnen werden wie z.B. jetzt bei diesem Boliden von ATI. Und genau das kann ich mir aber irgendwie nicht vorstellen, ich meine, daß sie da gepennt haben sollen, wo doch gerade sie des öfteren Vorreiter neuer Entwicklungen sind.:confused:

Mich würde nun in diesem Zusammenhang ein umfangreicher Test mit allen relevanten Netzteilen zusammen mit der neuen Radeon R9 295X2 interessieren, gerade weil diese Entwicklungen absehbar sind und vermutlich diese Grafikkarte keine Eintagsfliege werden wird.

Skysnake
2014-04-12, 16:28:52
Was gibts daran nicht zu verstehen?

Ich hab dir doch gerade erklärt, was das Problem bei sehr starken Single-Rail Netzteilen ist. Ich empfinde es als sehr anmaßend von dir, mir mangelnden Sachverstand zu unterstellen. Es ist eine absolute Frechheit, um es mal deutlich zu sagen, vor allem mit dem Hinweis, ich hätte ja noch keinen "Beweis" erbracht...

Genau das habe ich aber, DU verstehst ihn nur nicht. Und nein, ich werde jetzt nicht bei Adam und Eva anfangen, um es dir zu erklären. Nicht nach der Unterstellung zuvor.

Damit du mir dennoch glaubst, guckst du einfach mal hier: http://www.youtube.com/watch?v=8h3HqqPOS_M

Und ich denke nicht, das Corsair jetzt ein Billig-NT/Chonaböller ist, und LC-Power nicht....

Mit "Unvermögen" der NT-Hersteller hat das auch nichts zu tun. Es sind schlicht und einfach physikalische Gegebenheiten. Deswegen gibt es ja auch Standards, an die sich JEDER! halten sollte.... Dann kann man nämlich einfach alles zusammenstecken und muss sich keine Gedanken um Gefahren machen...

Ist wie mit Winterreifen. Da sind viele auch nur bis 160/180/190km/h freigegeben. Wenn du die auf nen dick motorisiertes Auto schnallst, das mehr schafft, darfste halt das Auto nicht ausfahren. Sonst selbst schuld, wenn der Reifen platzt. Nichts anderes ist es hier.

Die Netzteile können halt soviel Ampere lieferen. Wenn du (durch einen Defekt) halt nicht genug Leitungsquerschnitt dafür hast, dann haste halt Pech gehabt, wenns anfängt zu brennen.....

tam tam
2014-04-12, 16:56:37
Was gibts daran nicht zu verstehen?

Ich hab dir doch gerade erklärt, was das Problem bei sehr starken Single-Rail Netzteilen ist. Ich empfinde es als sehr anmaßend von dir, mir mangelnden Sachverstand zu unterstellen. Es ist eine absolute Frechheit, um es mal deutlich zu sagen, vor allem mit dem Hinweis, ich hätte ja noch keinen "Beweis" erbracht...

Genau das habe ich aber, DU verstehst ihn nur nicht. Und nein, ich werde jetzt nicht bei Adam und Eva anfangen, um es dir zu erklären. Nicht nach der Unterstellung zuvor.



Nein, das hast Du eben nicht. Und solange Du keinen sachlichen Beweis für Deine Behauptung erbringst(eine verifizierte Quelle wäre schon mal was), ist es für mich nur maximal ein schlüssiges Argument(immerhin ;)), aber kein "Fakt". Warum Du Dich jetzt darüber so pikierst, ist mir schleierhaft. :confused:

Damit du mir dennoch glaubst, guckst du einfach mal hier: http://www.youtube.com/watch?v=8h3HqqPOS_M


Danke, werde ich mir gerne nachher anschauen. Übrigens geht es mir auch nicht um "Glauben", sondern um "Verstehen".

Und ich denke nicht, das Corsair jetzt ein Billig-NT/Chonaböller ist, und LC-Power nicht....


Ok, dann korrigiere ich mich:

Ist für mich kein nennenswerter Vorteil. Erst recht nicht bei Netzteilen in solcher Preisklasse wie bei Seasonic, Enermax und Corsair.


So, jetzt besser? :)

Mit "Unvermögen" der NT-Hersteller hat das auch nichts zu tun. Es sind schlicht und einfach physikalische Gegebenheiten. Deswegen gibt es ja auch Standards, an die sich JEDER! halten sollte.... Dann kann man nämlich einfach alles zusammenstecken und muss sich keine Gedanken um Gefahren machen...


Das weiß ich aber als Hersteller und passe mich solchen ähm... Fehl-Entwicklungen(?) an.

Ist wie mit Winterreifen. Da sind viele auch nur bis 160/180/190km/h freigegeben. Wenn du die auf nen dick motorisiertes Auto schnallst, das mehr schafft, darfste halt das Auto nicht ausfahren. Sonst selbst schuld, wenn der Reifen platzt. Nichts anderes ist es hier.


Wohl ein nicht ganz zutreffender Vergleich. Denn bei Reifen sind mir tatsächlich physikalische Grenzen gesetzt. Als Netzteil-Hersteller habe ich aber nach hinten hinaus noch genug Optionen, wenn ich auch die anfänglich sehr hohen Entwicklungskosten nicht scheue.

Die Netzteile können halt soviel Ampere lieferen. Wenn du (durch einen Defekt) halt nicht genug Leitungsquerschnitt dafür hast, dann haste halt Pech gehabt, wenns anfängt zu brennen.....


Und das soll man technisch nicht lösen können?

Skysnake
2014-04-12, 17:08:20
Siehst du, du verstehst es einfach NICHT.

Natürlich kann man das Problem lösen, aber dann ist es ein Multi-Rail Design, und kein Single-Rail Design...

Bevor du hier irgendwas anzweifelst, informier dich doch bitte zumindest marginal....

Oder glaubste man kann Elektronen mit Namen versehen, um zu erkennen, wo die lang fliesen?

Unicous
2014-04-12, 17:14:24
Reicht's jetzt langsam mal?

kruemelmonster
2014-04-12, 17:32:03
Das weiß ich aber als Hersteller und passe mich solchen ähm... Fehl-Entwicklungen(?) an.

Warum sollte ein NT-Hersteller solch hoffentlich einmaligen Auswüchse auch noch aktiv unterstützen? Sicherlich werden die namhaften Hersteller ihre NT mit Leitungen ausstatten die dicker als das Minimum sind, um eben der OC-freudigen Zielgruppe Reserven bieten zu können. So wie man auf einem anständigen Mainboard für die 95w CPU-Klasse auch 130 oder 150w aus den Spannungswandlern ziehen kann.
Der Unterschied zu Thermi² ist nun aber das jede 95w CPU in einem passenden Board eingesetzt werden kann. Thermi² dürfte der elektrischen Spezifikation nach nur 375w ziehen, genehmigt sich aber weit über 100w mehr.
Da wird einfach auf gut Glück gebaut anstatt einen dritten 8pin Stecker draufzulöten und so die einzelnen Netzteilstränge zu entlasten.

Man stelle sich vor, Intel brächte eine S1150 CPU mit 130w Leistungsaufnahme und dem lapidaren Hinweis "Nicht für die Herzensschwachen, brauchst halt das richtige Board dann passt das schon."
Oder AMD brächte eine AM3 CPU mit über 200w Leistungsaufnahme... SCNR ;D

Monsta
2014-04-12, 17:37:47
Das Netzteil sollte nicht mehr Strom liefern als die Leitungen aushalten. Total egal ob Single oder Multi. Und nein es ist nicht schwierig das zu bauen. Ob und wie die Netzteilhersteller das machen steht auf einem anderen Blatt, und gilt zu prüfen. Wenn man da Bock drauf hat.
Eure Diskussion könnt Ihr stoppen da Ihr beide im trüben fischt.

tam tam
2014-04-12, 17:40:35
Siehst du, du verstehst es einfach NICHT.


Ich zitiere dazu noch einmal mich selbst:

Und solange Du keinen sachlichen Beweis für Deine Behauptung erbringst(eine verifizierte Quelle wäre schon mal was), ist es für mich nur maximal ein schlüssiges Argument(immerhin ), aber kein "Fakt".



Und das bezieht sich auf folgende Behauptung:

Multirail ist vom Prinzip her besser, da der Überstromschutz usw auf jeder einzelnen Rail arbeiten kann.


Ich möchte den faktischen Beweis für die dick markierte Behauptung(eigentlich bin ich ja davon ausgegangen, daß Du vom Fach bist und mir fix entsprechende Quellen zum selber nachlesen und verstehen lieferst einschl. Qualitätskennzeichen betroffener Bauteile?). Und nur weil PCGH da ein dünnes Kabel bei einem Netzteilhersteller verwendet, welches ersteres ich noch nie gesehen/verbaut habe(außer viell. bei den Lüftern?) und letzterer nicht repräsentativ für alle Hersteller sein kann, muß es auch nicht allgemeingültig sein. Anders sähe es nat. aus, wenn es bei allen Netzteilen dieser Art(einschl. Seasonic) zutrifft. Nur bestätigt das noch immer nicht Deine obige Behauptung, die sich letztendlich nur aus einer Annahme gründet. Nun, interessant und vor allem wichtig finde ich diesen Test schon, und das darf man nun besonders bei dieser Karte von ATI betonen.

Warum sollte ein NT-Hersteller solch hoffentlich einmaligen Auswüchse auch noch aktiv unterstützen?


Von wollen kann hier wohl kaum die Rede sein. ;)

Ailuros
2014-04-12, 19:33:29
Reicht's jetzt langsam mal?

Ja.

--------------------------------------------------
Skysnake und tam tam loest das Schlammassel privat. Zurueck zum Thema.

dildo4u
2014-04-14, 10:46:34
Asus,Powercolor,Sapphire 295X2 für 1500€ gelistet

http://preisvergleich.pcgameshardware.de/?cat=gra16_512&xf=1440_R9+295X2#xf_top

Darkness
2014-04-15, 16:55:14
hm ich dachte der Preis sollte bei 1300 liegen ?
1500 + neues Netzteil ist dann doch schon nochmal ne Schippe drauf :(

Unicous
2014-04-15, 16:59:38
Das ist doch offensichtlich der UVP. Die Dinger sind nicht lieferbar und du regst dich über den Preis auf.

Bei elektronischer Ware wartet man (in Deutschland zumindest) immer bis die Dinger auch tatsächlich lieferbar sind, denn dann bekriegen sich die Händler erst (außer sie machen ihre Centspiele um in den Preisvergleichen an erster Stelle zu stehen). Warte ab, bis die in ein paar Wochen überhaupt erst einmal verfügbar sind, dann kannst du dich über den Preis beschweren.

In Österreich gibts die Sapphire übrigens schon ab 1288 Euro(nicht lagernd), jfyi. :rolleyes:

http://geizhals.eu/sapphire-radeon-r9-295x2-21234-00-40g-a1099983.html

fondness
2014-04-16, 10:24:35
Video-Review:
https://www.youtube.com/watch?cmpid=social21985224&v=R_Fy_NlUnr0

295X2 in einem Mini-Gehäuse.

Grafikspachtel
2014-04-16, 23:43:06
Für die Abstimmung Ersteindruck zur Radeon R9 295X2 (http://www.3dcenter.org/umfrage/wie-ist-der-ersteindruck-zur-radeon-r9-295x2) hätte ich gerne die Auswahlmöglichkeit:

[X] Geht mir genauso wie Titan, Hawaii und GK110 komplett am Arsch vorbei.

Wiggo
2014-04-18, 22:49:24
Wenn ich mir nicht gerade die PowerColor R9 280X in mein System gebaut hätte, wäre die R9 295 eine echte Überlegung ;)

Knuddelbearli
2014-04-18, 23:06:27
von eienr 280 auf eine 295X2? Ähm klar ^^

dargo
2014-04-19, 11:56:16
Video-Review:
https://www.youtube.com/watch?cmpid=social21985224&v=R_Fy_NlUnr0

295X2 in einem Mini-Gehäuse.
Lol... irgendwie schon putzig dieses Monster in einem Mini-ITX-Gehäuse zu sehen. :tongue:

Blediator16
2014-04-19, 14:00:29
Lol... irgendwie schon putzig dieses Monster in einem Mini-ITX-Gehäuse zu sehen. :tongue:

Der Preis der Titan Z wurde als Pro argumentiert, dass neben dem Profimarkt man die Z ja auch in ein Mini Gehäuse stecken können sollte und daher u.a. der hohe Preis gerechtfertigt sei :D

fondness
2014-04-19, 14:45:09
2,7 Sone und 4,7 Sone sind bei euch überraschend leise? :eek:
Es ist in der Tat weniger schlimm als zu erwarten war, aber leise ist anders...


Wenn ich mir schon eine 1300 EUR Karte kaufe, dann kann ich mir auch noch zwei hochwertige Noctua 120mm Lüfter dazu leisten. Damit sollte das Ding nochmal deutlich leiser zu betreiben sein. Der eine Lüfter der nur die SpaWas kühlt sollte kaum ein Problem sein, höchstens die Pumpen könnten im idle unangenehm auffallen. Schade, dass das niemand getestet hat.

dildo4u
2014-04-21, 10:40:41
AMD Radeon R9 295X im Quad-Crossfire

http://youtu.be/g3izZ6Rl0XU

Wie erwartet Müll.

Raff
2014-04-21, 11:10:07
AMD Radeon R9 295X im Quad-Crossfire

http://youtu.be/g3izZ6Rl0XU

Wie erwartet Müll.

Artikel dazu (da ist das Video auch drin):

2 x AMD Radeon R9 295 X2 im "Quadfire": Was leisten vier Hawaii-GPUs in Ultra HD? (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-R9-295-X2-Quad-Crossfire-Test-1117949/)

MfG,
Raff

dildo4u
2014-04-21, 11:20:52
Mich wundert das immer wieder die müssen ja daran gearbeitet haben,da manche Games skalieren hoffen die dann drauf das der Reviewer den bench startet und dann die Augen zumacht?Bzw wäre mal interessant ob der Effekt beim Tomb Raider Bench selber nich auftritt das wäre dann wirklich der Hammer von Verarschung.

Raff
2014-04-21, 11:22:55
Solange man die Kamera nicht rasch und stark schwenkt, hält sich der Effekt in Grenzen. Es ist also gut möglich, dass es im internen Bench nicht auftritt. ;)

MfG,
Raff

Blediator16
2014-04-21, 13:21:18
Mich wundert das immer wieder die müssen ja daran gearbeitet haben,da manche Games skalieren hoffen die dann drauf das der Reviewer den bench startet und dann die Augen zumacht?Bzw wäre mal interessant ob der Effekt beim Tomb Raider Bench selber nich auftritt das wäre dann wirklich der Hammer von Verarschung.

Ohne Witz hast du dich bei den untestbaren Nvidia Karten denn auch so aufgeregt? Sie haben in 4k nichtmal funktioniert. Mal davon ab ist quad sli oder quad cfx sowieso nicht ganz unproblematisch.

dildo4u
2014-04-21, 13:55:59
Ohne Witz hast du dich bei den untestbaren Nvidia Karten denn auch so aufgeregt? Sie haben in 4k nichtmal funktioniert. Mal davon ab ist quad sli oder quad cfx sowieso nicht ganz unproblematisch.

DMA sollte genau diese Probleme lösen und es ist nich so,das die erst mit der Karte Optimieren konnten 4X Crossfire mit 290 geht schon ne Weile.

Skysnake
2014-04-21, 14:13:02
Naja, laut Video soll es ja mit 2 GPUs ok/gut sein. Nur halt noch nicht mit 4. Das ist zwar schlecht, aber verschmerzbar. Quad-Crossfire werden nur die aller aller aller wenigsten betreiben.

Blediator16
2014-04-21, 14:20:39
Mal davon abgesehen 4k mit 30hz ist ziemlicher quatsch.

fondness
2014-04-21, 19:03:49
Inwzischen gibt es auch von Hardware.fr ein Review:
http://www.hardware.fr/articles/919-1/amd-radeon-r9-295x2-550w-watercooling.html

Getestet auch mit Noctua Lüfter, was die Lautstärke gleich nochmal deutlich senkt.

aufkrawall
2014-04-21, 19:07:35
Seh ich das richtig? Heftig laut im Idle?

Raff
2014-04-21, 19:30:45
Seh ich das richtig? Heftig laut im Idle?

Das ist doch schon eine 295 X2. Zwei Stück sind dann halt nochmal (wenn auch nicht doppelt) lauter. ;)

MfG,
Raff

Effe
2014-04-21, 19:40:06
Bekommt man den Lüfter an der Karte nicht leiser geregelt?

fondness
2014-04-21, 19:57:43
Das Problem dürften die Pumpen sein, allerdings ist heftig laut natürlich heftig übertrieben.

Raff
2014-04-21, 21:08:48
Die Pumpen sind eigentlich okay, der Lüfter auf der Karte (bzw. den Karten) ist das Problem. Besonders schlimm ist's ohne Treiber, dann wird das Teil nicht geregelt und röhrt die ganze Zeit.

MfG,
Raff

Ubermode
2014-04-21, 21:58:30
hm ich dachte der Preis sollte bei 1300 liegen ?
1500 + neues Netzteil ist dann doch schon nochmal ne Schippe drauf :(

Die UVP von AMD sind 1.099 Euro plus Steuer, das macht in D als Endpreis laut calc.exe 1.307,81 Euro.

Was mehr kostet, ist der Neuheitsaufschlag der Händler, mal sehen, wie sich das morgen - nach Ostern - entwickelt.

fondness
2014-04-21, 22:51:06
Die Pumpen sind eigentlich okay, der Lüfter auf der Karte (bzw. den Karten) ist das Problem. Besonders schlimm ist's ohne Treiber, dann wird das Teil nicht geregelt und röhrt die ganze Zeit.

MfG,
Raff

Der Lüfter sollte im idle praktisch nichts zu tun haben wenn die ganze Karten vielleicht 30W saugt. Was für ein fail wenn der den Lärm macht. Gibt es irgend eine Möglichkeit den zu regeln?

Ubermode
2014-04-22, 09:27:11
Der Lüfter sollte im idle praktisch nichts zu tun haben wenn die ganze Karten vielleicht 30W saugt. Was für ein fail wenn der den Lärm macht. Gibt es irgend eine Möglichkeit den zu regeln?

Da ist noch keine gefunden, wird wohl nur durch ein Mod-Bios klappen. Es sei denn, AMD hat vor dem Marktstart noch was geändert, sie wollten sich das anschauen.

Aber wie Raff schon schrieb, ist das nur beim Booten ein größeres Problem, oder bevor der Treiber zum ersten Mal installiert ist. Unter Last ist aber der Lüfter auf der Karte auch aus einem Gehäuse heraus zu hören, der gesamte Krach auch inkl. Radi ist dann aber weit unterhalb des Niveaus von 290/X oder 780Ti im Refernzdesign.

fondness
2014-04-22, 14:52:16
Erste full-cover Block für die 295X2 made in germany:
http://videocardz.com/50317/aqua-computer-announces-radeon-r9-295x2-full-cover-block

Godmode
2014-04-22, 17:16:26
Erste full-cover Block für die 295X2 made in germany:
http://videocardz.com/50317/aqua-computer-announces-radeon-r9-295x2-full-cover-block

Schönes Stück!

Wirklich schade das bei den GPU-Kühlern die schöne Seite immer nach unten zeigt.

Emperator
2014-04-22, 17:40:06
Gibt auch Gehäuse mit Inverted ATX, dort schaut die schöne Seite dann nach oben.

Raff
2014-04-22, 17:57:17
Erste full-cover Block für die 295X2 made in germany:
http://videocardz.com/50317/aqua-computer-announces-radeon-r9-295x2-full-cover-block

Lölchen, 170 Euro. Dafür kaufen sich die meisten Menschen ganze Grafikkarten und sind danach sogar äußerst glücklich damit. :uup:

MfG,
Raff

Screemer
2014-04-22, 18:39:14
kann man bei 1300€ für die karte schon mal investieren.

aufkrawall
2014-04-22, 18:47:11
Da kauft man lieber zwei Grafikkarten mit WK, dann bleibt immer noch Geld für ein großes Gehäuse und passendes MB.

fondness
2014-04-22, 18:56:19
Mittlerweile vereinzelt lieferbar:
http://geizhals.at/eu/?cat=gra16_512&xf=1440_R9+295X2#xf_top

M4xw0lf
2014-04-22, 19:43:16
Puh, zwei von den Kühlern plus zwei 295er oder eine Titan Z... diese Entscheidungen! :freak:

samm
2014-04-22, 21:15:04
Kauf dir für das Geld stattdessen ein Secondhandauto :ugly:

horn 12
2014-04-22, 21:15:58
Preislich wird sich noch viel bewegen, wartet mal ca. 10 Tage ab!

N0Thing
2014-04-23, 01:16:44
Lölchen, 170 Euro. Dafür kaufen sich die meisten Menschen ganze Grafikkarten und sind danach sogar äußerst glücklich damit. :uup:

MfG,
Raff

Mit ner Titan in der Signatur würde ich mich nicht so sehr über Preise, bzw. Preisleistungsverhältnisse lustig machen. :D

fondness
2014-04-25, 22:10:05
OverclockersUK ‘Infinity Vesuvius’ R9 295X2 QuadXFire System review
http://www.kitguru.net/desktop-pc/zardon/overclockersuk-infinity-vesuvius-r9-295x2-quadxfire-system-review/

CountDoku
2014-04-26, 01:01:55
Und? schon Erfahrungswerte bezüglich Wohnungsbrände? Ich meine mal Ernsthaft. Es gibt nicht viele Netzteile die AMD`S Normen erfüllen.

Pentium M
2014-04-26, 01:41:44
Gehn wir einfach davon aus,das Leute die sich die 295X2 kaufen fundiertes Wissen über die Stromversorgung haben. Wegen Sicherheit und so.

uweskw
2014-04-26, 04:54:43
Lölchen, 170 Euro. Dafür kaufen sich die meisten Menschen ganze Grafikkarten und sind danach sogar äußerst glücklich damit. :uup:

MfG,
Raff

Aber die Titan für mehr als 800€ in den Himmel loben und dutzende Specials bringen....:freak:
seeeehr konsequent. Kommt halt vom "richtigen" Hersteller.:whisper:

Greetz
U.S.

Mr. Lolman
2014-04-26, 10:25:47
Sorry Raff, aber das hast du dir selbst zuzuschreiben:

(vorläufiges) Fazit TitanZ 3000€:

Aufgrund des eingangs erläuterten Effizienzbestrebens gehen wir davon aus, dass die Geforce GTX Titan Z weder sonderlich laut noch stromdurstig wird; auch ein großes Overclocking-Potenzial ist denkbar. Ob diese Punkte den stolzen Aufpreis gegenüber zwei (schnelleren) Einzelkarten mit bestmöglicher Kühlung wert ist, bleibt fraglich.

Fazit 295X² 1500€:
So positiv diese Entwicklung ist, der Preis hat es in sich: Zwar verlangt AMD nicht die 2.999 US-Dollar, mit denen Nvidia die Geforce GTX Titan Z an den Mann bringen möchte, die von AMD aufgerufenen 1.300 Euro schränken den potenziellen Käuferkreis jedoch auf eine überschaubare Zahl ein. Für diese Summe erhalten Sie auch zwei gelungene Herstellerdesigns der Radeon R9 290X (etwa Sapphires Tri-X) und haben anschließend noch genügend Budget für einen Kurztrip nach Hawaii – zumindest für den Hinflug ...

Doch selbst wer das nötige Großgeld für eine Radeon R9 295 X2 investieren möchte, sei gewarnt: Planen Sie am besten noch das Budget für ein neues Netzteil ein. AMD gibt an, dass der Stromwandler 50 Ampere bereitstellen muss, was theoretisch 600 Watt entspricht. Im PCGH-Testlabor gerieten mehrere Netzteile an ihre Grenzen, sobald die R9 295 X2 unter Volllast rechnete.

dildo4u
2014-04-26, 10:34:00
Er stellt beide Karten in Frage und zu recht,die AMD Dual Karten lagen nicht mal in den nähe von 1000€ jetzt sind 1500.Eine Wakü ist keine 800€ Wert.

6990:

Der Preis liegt mit unverbindlich empfohlenen 629 Euro in Regionen, welche die Zielgruppe auf einen überschaubaren Personenkreis schrumpfen lässt

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden-814660/

Mr. Lolman
2014-04-26, 10:44:06
Selektives Lesen ftw. gell? Er stellt die Frage in den Raum ob sich für eine eventuell gute Kühllösung und Übertaktungsmöglichkeit 1500€ Aufpreis lohnen?

horn 12
2014-04-26, 10:55:30
Italien ist bereits bei 1197 Euro angelangt, also bitte wo sind die 1500 Euro für die X2
Dies sind Abzockerpreise für jene die nicht waren wollen!

dildo4u
2014-04-26, 11:02:31
Was immer noch zwei mal der 6990 ist wie gesagt die Karten braucht keiner vorallem da Crossfire öfter Failt.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10172622&postcount=261

Mr. Lolman
2014-04-26, 11:10:08
Ja leider hat NV mit der Titan dermaßen kranke Preise erst salonfähig gemacht. Allein die 600€ die schon VOR der Titan für Highend verlangt worden sind, waren eigentlich schon eine Frechheit, wenn man sich überlegt, um wie wenig man damals zB eine 4870 erwerben konnte.

Und den Link hättest du dir sparen können. Nämlich deswegen: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10172664&postcount=265

Raff
2014-04-26, 11:43:58
Sorry Raff, aber das hast du dir selbst zuzuschreiben:

Zunächst fehlt da der Link: Geforce GTX Titan Z im Vorab-Test: Simulation der 3.000-Dollar-Grafikkarte (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-Titan-Z-Vorab-Test-1118655/)

Ist kann dazu nur immer wieder sagen (gebetsmühlenartig!), dass mir beide Hersteller "egal" sind. Ich bewerte die Fakten, nicht das Logo. Das führt dazu, dass mich mal 2-3 AMD-Fans angehen, mal 2-3 Nvidia-Fans. Passt also alles. :freak:

Davon ab nervt es mich persönlich, dass du jeden meiner Texte zwar liest, das finde ich toll, aber dann immer die Passagen kritisierst, in denen Kritik gegenüber AMD steht. Wenn irgendwo Kritik Richtung Nvidia geht, kommt da nie Gegenwind von dir ... ;)

MfG,
Raff

dildo4u
2014-04-26, 11:51:55
Jup der Test ist mehr als Negativ für NV vorallem da Raff ne OC 780TI zum Vergleich dazu gezogen hat,die performt fast auf dem Level ohne AFR Nachteile.

135i
2014-04-26, 12:11:53
Lölchen, 170 Euro. Dafür kaufen sich die meisten Menschen ganze Grafikkarten und sind danach sogar äußerst glücklich damit. :uup:

MfG,
Raff

Also die Preisentwicklung: Für 'nen Koolance , passend auf 4870X2 , hatte ich damals ca. 130€ bezahlt.

Mr. Lolman
2014-04-26, 15:21:12
plz delete.

Iruwen
2014-04-26, 15:27:20
Ich glaub das nach allem was ich über die letzten zehn Jahre mitverfolgt hab schon.

Mr. Lolman
2014-04-26, 15:36:36
Jaja ist schon gut. Eine 170€ Wasserkühlung für AMD muss man natürlich kritisieren. 1500€ für nix ist ok, weils von NV kommt. Und wer was anderes sagt, ist Fanboy. Habs schon verstanden.

Knuddelbearli
2014-04-26, 16:30:03
Die Fanboys regen sich wirklich über einen 170€ Wakühler bei einer 1500€ ( beides UVP, Kühler wird ja auch noch Stück günstiger wen erstmal Konkurrenz kommt ) Karte auf? rly?

Scheinbar ist die 295X2 eine geniale Karte wenn man sich schon daran inzwischen 2 Seiten aufhängen muss...

aufkrawall
2014-04-26, 17:03:08
Scheinbar ist die 295X2 eine geniale Karte
Was ist daran genial? Sie haben einfach eine WK verbaut, anstatt die Taktraten zu senken.
Bei den Elektronik-Bauteilen für den hohen Stromverbrauch bedienen sich die IHVs doch auch nur am Markt. Wo ist dann letztlich der Unterschied zu jeder anderen (mGPU)Karte bzw. was macht genau diese "genial"?
Ich würde sie als (für eine mGPU-Karte) sehr gut bezeichnen, sofern sie im Idle leiser wäre. Ist sie aber nicht.

Knuddelbearli
2014-04-26, 17:35:36
es geht um den 170e Kühler also den Fullcover
http://www.computerbase.de/2014-04/flache-alternative-wasserkuehlung-fuer-amd-radeon-r9-295x2/
Die Kupfervariante des kryographics Vesuvius R9 295X2 getauften Modells wird für 169 Euro angeboten

HarryHirsch
2014-04-26, 21:47:19
Lölchen, 170 Euro. Dafür kaufen sich die meisten Menschen ganze Grafikkarten und sind danach sogar äußerst glücklich damit. :uup:

MfG,
Raff

Seit Jahren normal und günstiger als 2 fullcover für ne Single GPU-Karte.

fondness
2014-04-29, 20:22:02
Wer ein Schnäppchen sucht:
http://www.mifcom.de/product/1373/official-radeon-gaming-rig-r9-dq-devastator.html

occ-kh@Mirko
2014-04-29, 20:43:03
Nee, nee bei Nvidia bekomme ich jetzt Watch_Dogs dazu...https://twitter.com/nvidia/status/461132247262044160/photo/1

Leider laufen 2 295x etwas unharmonisch: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-R9-295-X2-Quad-Crossfire-Test-1117949/ Der Treiber!...alles noch Murks und der Lüfter, naja. Könnte man mal überlegen ob man da nicht einen Button einbauen will, so dass man den Beleuchtungseffekt abschalten kann? Ist nicht jedermanns Sache.

Knuddelbearli
2014-04-29, 20:43:52
aber nicht für die TitanZ und Black ^^

Blediator16
2014-04-29, 21:02:14
Offensichtlich für semi profis gedacht:freak:

occ-kh@Mirko
2014-04-29, 21:05:48
aber nicht für die TitanZ und Black ^^
Nee, stimmt nicht...http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-Grafikkarten-Watch-Dogs-kostenlos-1119213/ ab der 760 wohl alles mit dabei.

occ-kh@Mirko
2014-04-29, 21:10:46
Offensichtlich für semi profis gedacht:freak:
Das lass mal nicht Jörg Roskowetz hören, Halbprofi! Gaming rig mit OC-Enthusiast Stufe 1, also Werksseitige Absicherung.

fondness
2014-05-01, 12:40:29
Radeon R9 295X2 CrossFire at 4K - Quad Hawaii GPU Powerhouse
http://www.pcper.com/reviews/Graphics-Cards/Radeon-R9-295X2-CrossFire-4K-Quad-Hawaii-GPU-Powerhouse

zBOL-moD1so

AMD Radeon R9 295X2 CrossFire Video Card Review
http://www.hardocp.com/article/2014/04/29/amd_radeon_r9_295x2_crossfire_video_card_review/1

dildo4u
2014-05-01, 12:52:07
Radeon R9 295X2 CrossFire at 4K - Quad Hawaii GPU Powerhouse
http://www.pcper.com/reviews/Graphics-Cards/Radeon-R9-295X2-CrossFire-4K-Quad-Hawaii-GPU-Powerhouse

Scaling saugt selbst unter 4k und ein 1200Watt NT reicht nicht aus.

HarryHirsch
2014-05-01, 12:54:03
Radeon R9 295X2 CrossFire at 4K - Quad Hawaii GPU Powerhouse
http://www.pcper.com/reviews/Graphics-Cards/Radeon-R9-295X2-CrossFire-4K-Quad-Hawaii-GPU-Powerhouse

zBOL-moD1so

AMD Radeon R9 295X2 CrossFire Video Card Review
http://www.hardocp.com/article/2014/04/29/amd_radeon_r9_295x2_crossfire_video_card_review/1

fixed

Raff
2014-05-01, 12:55:11
Quadfire ist doch nur Spielerei – ohne spieletauglich zu sein. ;) Zum Rechnen/Minen mag das cool sein, beim Spielen, wo direkte Reaktionen unabdingbar sind, ist die Eingabeumsetzung jedoch katastrophal.

MfG,
Raff

dildo4u
2014-05-01, 13:00:29
Sollte DMA diese Probleme nicht minimieren?

http://www.hardocp.com/article/2013/10/23/amd_radeon_r9_290x_video_card_review/3#.U2IpI_l_sSE

fondness
2014-05-01, 13:01:22
Sollte DMA diese Probleme nicht minimieren?

http://www.hardocp.com/article/2013/10/23/amd_radeon_r9_290x_video_card_review/3#.U2IpI_l_sSE

Es ändert auch nicht an den Grundproblemen von AFR.

Blediator16
2014-05-01, 13:01:50
Auf der Folie selbst wird maximal von 3x cfx gesprochen also hat man quad noch nicht angefasst.

dildo4u
2014-05-01, 13:05:16
Es ändert auch nicht an den Grundproblemen von AFR.
Das Problem das AMD nicht am Treiber arbeitet bzw nur ein 3D Mark Profil für PR Folien erstellt?Das ganze hätten sie schon Monate lang mit einem 4x Crossfire testen können.
Es ist auch nicht so das man die Power nicht gebrauchen könnte Metro droppt auf 40fps unter 4k.

http://www.pcper.com/reviews/Graphics-Cards/Radeon-R9-295X2-CrossFire-4K-Quad-Hawaii-GPU-Powerhouse/Metro-Last-Light

fondness
2014-05-01, 13:10:31
Das Problem das AMD nicht am Treiber arbeitet bzw nur ein 3D Mark Profil für PR Folien erstellt?Das ganze hätten sie schon Monate lang mit einem 4x Crossfire testen können.
Es ist auch nicht so das man die Power nicht gebrauchen könnte Metro droppt auf 40fps unter 4k.

http://www.pcper.com/reviews/Graphics-Cards/Radeon-R9-295X2-CrossFire-4K-Quad-Hawaii-GPU-Powerhouse/Metro-Last-Light

Ja genau lol als ob Quad-SLI so toll funktionieren würde und nicht dieselben Probleme hätte. Dein ständige getrolle nervt. Solange es keine Alternative zu AFR gibt wird sich daran auch wenig ändern.

Raff
2014-05-01, 13:10:53
Es ist auch nicht so das man die Power nicht gebrauchen könnte Metro droppt auf 40fps unter 4k.

Dann muss man einfach das SSAA abschalten. :D

Die Leistung der 290X mal vier (ideale Skalierung): Das wäre eine Pixelpumpe, die man aktuell nicht mal in Ultra HD plattmachen kann. Okay, eigentlich kriegt man jede GPU bzw. -Paarung irgendwie platt, aber würde Quad-GPU ohne Nebenwirkungen skalieren, wäre das wirklich mal etwas, das das Prädikat "unkaputtbar" verdient hätte.

MfG,
Raff

Skysnake
2014-05-01, 13:15:32
Quadfire ist doch nur Spielerei – ohne spieletauglich zu sein. ;) Zum Rechnen/Minen mag das cool sein, beim Spielen, wo direkte Reaktionen unabdingbar sind, ist die Eingabeumsetzung jedoch katastrophal.

MfG,
Raff
What? :freak:

Ich hätte Angst, das mir das Ding abraucht bei Mining/GPGPU.

Habt ihr mal getests, ob das Ding die Dauerlast überhaupt aushält? Bzw ob es überhaupt NTs gibt, die das aushalten mit zwei 295X2.

Son 30min Mining/GPGPU-Test würde mich schon interessieren. Könnt ja auch ruhig einfach mal FurMark anschmeisen. Das kommt aufs gleiche raus im Endeffekt.

Raff
2014-05-01, 13:17:41
Zunächst müssten wir wohl mal mit dem lokalen Energieversorger wegen Sonderkonditionen reden oder ein Crowdfunding-Projekt zur Finanzierung dieses Tests starten. ;D

MfG,
Raff

Knuddelbearli
2014-05-01, 13:30:47
What? :freak:

Ich hätte Angst, das mir das Ding abraucht bei Mining/GPGPU.

Habt ihr mal getests, ob das Ding die Dauerlast überhaupt aushält? Bzw ob es überhaupt NTs gibt, die das aushalten mit zwei 295X2.

Son 30min Mining/GPGPU-Test würde mich schon interessieren. Könnt ja auch ruhig einfach mal FurMark anschmeisen. Das kommt aufs gleiche raus im Endeffekt.

Wieso sollte das nicht gehen?
CB hat Anno2070, was das Worstcase Spiel ist, über 20 min laufen lassen. Und dann ging der Takt wegen Powertune runter. Was sollte sich da mit Mining oder Furemark ändern?

Und das Raff als redakteur bei dem Blödsinn auch noch mitmacht obwohl er es besser weiss ...

und 1,25kWh sind wohl wirklich nichts was einem interessieren sollte wenn man 2 1299€ Grafikkarten verbaut hat ( und im Privatrechner eine 1.000€ Grafikkarte hat wo mann sogar auf dei garantie scheisst )

occ-kh@Mirko
2014-05-01, 13:51:50
Unbedingt Frame Pacing im AMD Treiber aktivieren oder aktiviert lassen, alles andere ist doch wohl bekannt. Load-Balancing ist nun mal nicht so einfach wies immer dargestellt wird. Parallele Prozesse auf Block- und Pixelebene gleichen sich nicht. Die Ursache für Tearing, Runts und Drops stehen damit im engen Zusammenhang. Zudem ist nur eine Karte als "Signalausgeber" vorgesehen.

Meine Bemerkung im vorherigen Post war nicht abwertent gemeint sondern bezieht sich rein auf den Preisansatz. Neue Karte = neues Glück und viel Arbeit für den Hersteller. Wenn man aber 6000 Ömpen für ein Enthusiast Class 1 System auf den Tisch haut, sollte wohl alles zur "Zufriedenheit" sein.

Die Ruckelei betrifft aber alle AFR Konfigurationen.

aufkrawall
2014-05-01, 13:56:14
Metro LL ist stellenweise nicht AFR-friendly, da kann AMD im Treiber wenig machen (oder der Aufwand wär zu groß). Ist bei NV nicht besser.

Effe
2014-05-01, 14:20:44
Bzw ob es überhaupt NTs gibt, die das aushalten mit zwei 295X2.
Klar gibts die:
Co7luj9ILr4
Kostet nur schlappe 400€ http://geizhals.de/corsair-professional-series-platinum-ax1500i-1500w-atx-2-31-semi-passiv-a1052777.html

occ-kh@Mirko
2014-05-01, 14:27:28
@Effe
Danke, schöne Konfig gefällt mir! :D

Hier kann man sich AMDs PDF zur PSU Konfig ansehen: http://www.amd.com/Documents/Selecting-a-System-Power-Supply-for-the-AMD-Radeon-R9-295X2-Graphics-Card.pdf

Skysnake
2014-05-01, 14:56:42
Wieso sollte das nicht gehen?
CB hat Anno2070, was das Worstcase Spiel ist, über 20 min laufen lassen. Und dann ging der Takt wegen Powertune runter. Was sollte sich da mit Mining oder Furemark ändern?

Weil Anno2070 ja auch sicherlich absoluter Worstcase sind :freak:

Guckst du z.B. hier: http://ht4u.net/reviews/2013/amds_radeon_r-serie-grafikkarten_r9_270x_und_280x_und_r7_260x_im_test/index19.php

Anno2070 erreicht meines Wissens nach eben nicht ganz so viel Leistungsaufnahme wie FurMark, und FurMark kannste stellvertretend für Mining/GPGPU nehmen. In meinem kleinen GPGPU-Testcase gibt sich der Verbrauch vs FurMark fast nichts, und das eben absolut Rockstable, über beliebig lange Zeiträume. Und genau das ist der Knackpunkt. Die Temps steigen bei geschlossenem Case über relativ lange Zeiträume, gerade wenn man noch ne WaKü dazu hat.

Und 30 min sind jetzt nicht sonderlich viel, wenn man bedenkt, dass die Dinger unter noch höherer Last über Stunden/Tage/Wochen/Monate durchlaufen im Extremfall, und das eben wirklich durchgehend komplett am Anschlag.


Und das Raff als redakteur bei dem Blödsinn auch noch mitmacht obwohl er es besser weiss ...

und 1,25kWh sind wohl wirklich nichts was einem interessieren sollte wenn man 2 1299€ Grafikkarten verbaut hat ( und im Privatrechner eine 1.000€ Grafikkarte hat wo mann sogar auf dei garantie scheisst )
Nein das nicht, aber es interessiert einen schon, ob das NT das wirklich auf Dauer verträgt, oder irgendwann die Grätsche macht, weils ihm dank geschlossenem Case dann doch zu warm wird.

Klar gibts die:
http://youtu.be/Co7luj9ILr4
Kostet nur schlappe 400€ http://geizhals.de/corsair-professional-series-platinum-ax1500i-1500w-atx-2-31-semi-passiv-a1052777.html
Sowas sagt aber halt leider rein gar nichts über 24/7 Betrieb aus.

Hatte selbst schon erlebt, das ne Karte nach 30-60 min immer wieder ausgestiegen ist bei BOINC. Je nachdem wie lang halt wie WUs waren, lag im Schnitt halt etwas mehr oder etwas weniger Last an, was dann dazu geführt hat, das die VRAMS halt doch zu heis wurden und sich die Karte abgeschaltet hat.

Knuddelbearli
2014-05-01, 14:59:50
Weil Anno2070 ja auch sicherlich absoluter Worstcase sind :freak:

Guckst du z.B. hier: http://ht4u.net/reviews/2013/amds_radeon_r-serie-grafikkarten_r9_270x_und_280x_und_r7_260x_im_test/index19.php

Anno2070 erreicht meines Wissens nach eben nicht ganz so viel Leistungsaufnahme wie FurMark, und FurMark kannste stellvertretend für Mining/GPGPU nehmen. In meinem kleinen GPGPU-Testcase gibt sich der Verbrauch vs FurMark fast nichts, und das eben absolut Rockstable, über beliebig lange Zeiträume. Und genau das ist der Knackpunkt. Die Temps steigen bei geschlossenem Case über relativ lange Zeiträume, gerade wenn man noch ne WaKü dazu hat.

Und 30 min sind jetzt nicht sonderlich viel, wenn man bedenkt, dass die Dinger unter noch höherer Last über Stunden/Tage/Wochen/Monate durchlaufen im Extremfall, und das eben wirklich durchgehend komplett am Anschlag.


Nein das nicht, aber es interessiert einen schon, ob das NT das wirklich auf Dauer verträgt, oder irgendwann die Grätsche macht, weils ihm dank geschlossenem Case dann doch zu warm wird.


Wie gesagt bei Anno greift das PT ein, mehr geht also nicht.
Unterschiede entstehen dann nur durch unterschiedliche Messmethoden.

Außerdem schrieb ich ja explizit Spiel!
Und wenn das Netzteil wegen den Temperaturen die Grätsche macht dann hat die 295X2 sogar noch nen rießen Vorteil.
Sowohl der Quirl auf der Karte selbst als auch die Wakü ( die sollte es zumindest ) pusten die Luft eher nach draußen, Was wäre dann erst bei 4 290X / Titan mit Custom Kühlern los?
Abgesehen davon das die meisten High End Gehäuse heute das Netzteil eh unten in einem eigenen Kreislauf haben.

Das einzige wo man sich beim Netzteil Gedanken machen müsste wäre der Leiterquerschnitt. Und selbst da vermutlich nur bei billig Chinaböllern.

Skysnake
2014-05-01, 15:19:25
Wo steht denn, dass das PT eingegriffen hat?

Im Test von PCGH hab ich davon nichts gelesen, grad nochmal nachgeschaut. Und selbst wenn ist die Frage, ob das durchgehend passiert, oder nur sporadisch. PCGH hat in ihrem Test ja auch vom Maximum gesprochen und nicht von Avg. Bei GPGPU/Mining/FurMark ist der Peak aber im Endeffekt gleich dem Avg.

Und zu den NTs noch was. Enermax hat sich für Quad-GPU bei ihren 1350 und 1500W NTs (http://extreme.pcgameshardware.de/user-news/326330-cebit-2014-skysnake-meets-enermax-lepa.html) genötigt gefühlt eine Anleitung raus zu bringen, wie man die GPUs anstecken soll an das NT, weil es bei "falschem" Stecken anscheinend immer wieder zu Klagen von Nutzern gekommen ist, da es zu Instabilitäten gekommen ist beim 24/7 Betrieb von Mainern, die ihnen die starken NTs aus den Händen reisen....

So klar ist das halt überhaupt nicht, das ein NT mit >1200W nen Dual 295X Gespann stemmen kann unter maximaler Last.

Oder willste jetzt etwa behaupten Enermax sei eine Chinaböller Hersteller?

Knuddelbearli
2014-05-01, 15:27:52
steht doch alles da ...

CB hat Anno2070, was das Worstcase Spiel ist, über 20 min laufen lassen. Und dann ging der Takt wegen Powertune runter. Was sollte sich da mit Mining oder Furemark ändern?

ComputerBase und Multirail Problem ist was anderes als Abfackel / Defekt wovon du sprachst*, und das Problem hat mit OC theoretisch jede Karte.
Und Chinaböller sprach ich nur im Zusmamenhang mit zu dünne litzen wodurch die im Worstcase schmelzen könnten.
Bei Namenhaft Herstellern kann das nicht passieren da die sonst ja auch bei einem Kurzschluss schmelzen würde ( wo noch weit mehr Strom als bei der 295X2 im Extremfall über eine einzige Litze fließen würde statt auf 4 ( oder waren es 3? Bin gerade zu faul nachzugucken ) aufgeteilt wie beim 8 Pin Kabelbaum )


* Anfangs sprachst du von abrauchen, nächster Post ging es dir um Temperaturen und jetzt um Multirail Problematik ...
Entscheide dich mal!

occ-kh@Mirko
2014-05-01, 16:58:02
Für ein Miningsystemaufbau würde ich ein Minningrig empfehlen, da kann man dann ein Netzteil nachstecken. Wenns es denn mit 2 295x laufen soll dann ein Lepa. Dieses 1600-1700 Netzteil ist für Miningrigs zertifiziert.
Mehr Leistung bekommt man derzeit nicht wenn ein Spielecomputer auch als Miningrig genutzt werden soll.

Natürlich muss man auch bei der Verwendung von @Waküs andere Komponenten wie das MB ausreichend kühlen. Trotzdem reduziert sich die thermische Belastung im gesamten Systemaufbau. Zudem wird durch eine bessere Kühlung im Standardmodus sogar Strom gespart. Das gilt auch für Miningsysteme.

Ailuros
2014-05-02, 14:39:59
Ich hab gerade 18 Beitraege von NUR 2 Seiten geloescht. Beim naechsten Mal mach ich mir nichtmal so viel Muehe sondern es bekommt jeder Mitspieler einen Punkt verpasst ohne weitere Vorwarnung.

HarryHirsch
2014-05-02, 15:04:18
Für ein Miningsystemaufbau würde ich ein Minningrig empfehlen, da kann man dann ein Netzteil nachstecken. Wenns es denn mit 2 295x laufen soll dann ein Lepa. Dieses 1600-1700 Netzteil ist für Miningrigs zertifiziert.
Mehr Leistung bekommt man derzeit nicht wenn ein Spielecomputer auch als Miningrig genutzt werden soll.

Natürlich muss man auch bei der Verwendung von @Waküs andere Komponenten wie das MB ausreichend kühlen. Trotzdem reduziert sich die thermische Belastung im gesamten Systemaufbau. Zudem wird durch eine bessere Kühlung im Standardmodus sogar Strom gespart. Das gilt auch für Miningsysteme.

Ich würde bei so einem Aufbau einfach ein zweites NT verwenden.
Mindestens Platinum semi-passiv damit im Zero Core ruhe ist und der Verbrauch nicht explodiert.

btw. der fullcover ist jetzt für 167,99€ bei aquatuning gelistet (http://www.aquatuning.de/product_info.php/info/p16581_Aquacomputer-kryographics-Vesuvius-f-r-Radeon-R9-295X2-black-edition.html).

Skysnake
2014-05-02, 19:59:18
An sich ne gute Idee, aber man bekommt fast nirgends zwei NTs in ein Gehäuse, und Adapter gibts auch nicht wirklich um die NTs vernünftig zusammen zu schalten. Also das man es nicht mit nem Überbrücken extra anknipsen muss, sondern ganz normal am Tower.

PS:
Falls du sowas doch kennst, und es was taugt, dann immer her damit ;)

horn 12
2014-05-02, 20:14:18
Eine womögliche R9 295X2 im Powercolor DEVIL 13 Design könnte wohl "in Kürze" erscheinen.

occ-kh@Mirko
2014-05-02, 20:20:52
@harry
Ja da hab ich's nicht richtig geschrieben, das Lepa ist für ein normales Desktopgehäuse. Danke für den Hinweis. Natürlich kann man sonst Netzteile nachstecken. Man kann sich ja einen offenen Eigen-Aufbau zulegen, wenns kein Desktop sein soll.

Das Lepa kann 4x290x befeuern, 24/7...also kommt es auch mit zwei 295 klar, mit dem etwas professionellerem Küpfer@Wakü von Aquatunnig kann man ggf. den Verbrauch auch noch etwas senken. Denke mal EK wird wohl bald nachziehen. Man könnte das Gerödel von Astek auch runterhauen und zwei EK-VGA Supremacy verwenden und eine eigene Kontruktion mit einen 360 Radi. Kommt vom Preis her etwas günstiger, wenn der Lochabstand passt.

HarryHirsch
2014-05-02, 20:23:41
An sich ne gute Idee, aber man bekommt fast nirgends zwei NTs in ein Gehäuse, und Adapter gibts auch nicht wirklich um die NTs vernünftig zusammen zu schalten. Also das man es nicht mit nem Überbrücken extra anknipsen muss, sondern ganz normal am Tower.

PS:
Falls du sowas doch kennst, und es was taugt, dann immer her damit ;)

Gehäuse mit platz für 2 NTs gibt es zu genüge, hab selbst noch 2 herumstehen.

Adapter für 2 NTs (http://www.heatsinkfactory.com/modright-cableright-dual-psu-cable.html).

occ-kh@Mirko
2014-05-02, 20:38:47
Joh, hier ist auch ein Bild.

http://www.fotos-hochladen.net/uploads/cubitekhptxtawv61793ldb.jpg (http://www.fotos-hochladen.net)
@Cubitek HTPX

Oben kannst du ein zweites NT nachstecken.

fondness
2014-05-02, 21:51:24
Custom 295X2?

http://s4.postimg.org/abej1dazh/Power_Color_Radeon_R9_295_X2_Devil13_850x566.jpg (http://postimage.org/)

Something very special coming up in May… dare to guess? — PowerColor

Blediator16
2014-05-02, 21:56:52
8. Mai zufällig?:D

Knuddelbearli
2014-05-02, 22:31:12
eventuell ja 140er radi mit besserem lüfter und besserem quirl auf der graka selbst. oder Fullcover kühler bei dann 1080MHz

Würde ich zumindest als Produzent machen ^^

Philipus II
2014-05-02, 22:41:53
Tipp: Die Antec High Current Platinums kann man koppeln. Die haben dafür einen Stecker und ein Verbindungskabel. Damit sind bis zu 2.600 Watt ohne Gebastel möglich.

Skysnake
2014-05-03, 07:32:30
Ah cool, dass die das Ding belegen. Gut zu wissen :up:

Ansonsten, ja mir ist bekannt, das es 4-5 Gehäuse gibt, in denen man 2 NTs ohne gebastel unter bekommt, die sind aber wirklich! die absolute ausnahme und haben allgemein auch nen ganz schön gesalzenen Preis.

Darlie
2014-05-03, 11:24:39
Mein CM HAF932 Ad. kostet bspw. keine 120€, das ist doch der kleinste Kostenanteil für solch eine Rig.

4Fighting
2014-05-03, 14:44:08
Eigendesign von Powercolor für eine 295x2?

http://www.computerbase.de/2014-05/powercolor-deutet-dual-r9-grafikkarte-devil-13-an/

Mal schauen ob sie eine LuKü verbauen...

fondness
2014-05-04, 12:18:35
PowerColor Radeon R9 295X2 Devil13:

http://s18.postimg.org/gsja799wp/Power_Color_R9_295_X2_Devil13_1.jpg (http://postimage.org/)

http://s15.postimg.org/ht9oz7wkr/Power_Color_R9_295_X2_Devil13_2.jpg (http://postimage.org/)

Zumindest kann man PowerColor nicht vorwerfen zu wenig Stromstecker zu verbauen: :ugly:

http://s3.postimg.org/q69orhmtf/Power_Color_R9_295_X2_Devil13_3.jpg (http://postimage.org/)

4 x 150W + 75W PCIe erlaubt theoretisch bis zu 675W.

http://videocardz.com/50434/powercolor-radeon-r9-295x2-devil13-requires-four-8pin-power-connectors

occ-kh@Mirko
2014-05-04, 12:33:09
Fettes Brett...:). Preispunkt schon bekannt?

4Fighting
2014-05-04, 12:33:59
wenigstens die Stecker sind nun besser platziert:smile:

Ich bin mal gespannt wie hoch die Temps gehen. Wenn beide Chips um die 90°C kommen dürfte es auch innerhalb des Gehäuses muckelig warm machen:redface:

occ-kh@Mirko
2014-05-04, 12:38:44
Man muss schon für gute Belüftung sorgen und ein bestimmtes Gehäuseausgangsvolumen besitzen, aber Devil...ist ja nicht neu. :-)

fondness
2014-05-04, 12:46:19
Fettes Brett...:). Preispunkt schon bekannt?

Würde mich nicht wundern wenn das Ding gar billiger wird als das Referenzdesign, immerhin ist die WaKü ein nicht zu unterschätzender Kostenpunkt.
Oder Powercolor lässt sich die "Devil" prestigeträchtig teuer bezahlen, dann tippe ich auf $1999.

Ich bin mal gespannt wie hoch die Temps gehen. Wenn beide Chips um die 90°C kommen dürfte es auch innerhalb des Gehäuses muckelig warm machen:redface:

Die Chiptemperatur hat nichts mit der angegebenen Wärme zu tun.

Darlie
2014-05-04, 13:09:46
Kostet mit Sicherheit ein fettes Stück mehr wie das Ref-Design. Ist dafür bestimmt auch lauter, warum nicht einfach einen fetten 240er Radi dran mit ein paar Stromstecker und gut is?

4Fighting
2014-05-04, 13:15:59
Die Chiptemperatur hat nichts mit der angegebenen Wärme zu tun.

Nicht?:confused:

Ist es nicht so das die Chiptemperatur durch den Kühler gekühlt bzw. die Wärme des Chips über den Kühler (erst gekühlt und dann )abgegeben wird?

fondness
2014-05-04, 13:28:12
Nicht?:confused:

Ist es nicht so das die Chiptemperatur durch den Kühler gekühlt bzw. die Wärme des Chips über den Kühler (erst gekühlt und dann )abgegeben wird?

Nein, entscheidend ist einzig die Verlustleitung, also die abgegebene Energie. Ein Chip kann theoretisch auch nur 30°C warum werden und dabei 1000W Wärmeenergie abgeben.

Botcruscher
2014-05-04, 13:29:26
Geile Anschlüsse.:freak:

occ-kh@Mirko
2014-05-04, 14:04:25
Zumindestens Protokollspezifisch konform...:).

Blediator16
2014-05-04, 15:22:34
Man muss sich Fragen ob der 7. 8. oder 9. Mai anvisiert sind :D

Skysnake
2014-05-04, 15:25:28
Zumindestens Protokollspezifisch konform...:).
Jup, so hätte schon die normale 295X2 aussehen sollen meiner Meinung nach, wobei 3x8 Pin auch noch gegangen wäre.

Das Teil hätte ich wirklich mal gern in den Fingern :biggrin: Aber da brüchte ich wohl erstmal nen neues NT :freak:

occ-kh@Mirko
2014-05-04, 15:33:49
http://img5.fotos-hochladen.net/uploads/koolancevidar3moy42lk0i.jpg (http://www.fotos-hochladen.net)

http://img5.fotos-hochladen.net/uploads/koolancevidardvbomr5xgz.jpg (http://www.fotos-hochladen.net)

Für das Standardlayout...

Nightspider
2014-05-04, 17:41:53
:love2: So sexy :love2:

Godmode
2014-05-04, 17:53:46
PowerColor Radeon R9 295X2 Devil13:

http://s18.postimg.org/gsja799wp/Power_Color_R9_295_X2_Devil13_1.jpg (http://postimage.org/)

http://s15.postimg.org/ht9oz7wkr/Power_Color_R9_295_X2_Devil13_2.jpg (http://postimage.org/)

Zumindest kann man PowerColor nicht vorwerfen zu wenig Stromstecker zu verbauen: :ugly:

http://s3.postimg.org/q69orhmtf/Power_Color_R9_295_X2_Devil13_3.jpg (http://postimage.org/)

4 x 150W + 75W PCIe erlaubt theoretisch bis zu 675W.

http://videocardz.com/50434/powercolor-radeon-r9-295x2-devil13-requires-four-8pin-power-connectors
http://img5.fotos-hochladen.net/uploads/koolancevidar3moy42lk0i.jpg (http://www.fotos-hochladen.net)

http://img5.fotos-hochladen.net/uploads/koolancevidardvbomr5xgz.jpg (http://www.fotos-hochladen.net)

Für das Standardlayout...

Genau so muss das sein. Zum Glück gibt es Partner die das dann richtig machen.

Spasstiger
2014-05-04, 20:50:54
Die Devil13 würde ich eher als günstiger als das Referenzdesign einschätzen, weil der Luftkühler definitiv billiger ist als der Wasserkühler. Ich bleibe skeptisch, dass der Kühler auch nur halbwegs erträglich 500+ Watt abführen kann. Muss man wohl den Rechner in ein anderes Zimmer verbannen und die Peripherie mit langen Kabeln oder Funk anbinden.

dildo4u
2014-05-04, 20:57:25
Gigabyte will angeblich 600 Watt abführen,deren Karten sind nicht Mega Laut.

http://videocardz.com/50265/gigabyte-launches-windforce-3x-600w-cooler-geforce-gtx-titan-black

Wie ich schon geschrieben hab bei den CPU Kühlern gibt's Luftkühler,die besser sind als manche Kompackt Waküs mit einem Single Radiator.

HarryHirsch
2014-05-04, 21:00:48
Die Devil13 würde ich eher als günstiger als das Referenzdesign einschätzen, weil der Luftkühler definitiv billiger ist als der Wasserkühler. Ich bleibe skeptisch, dass der Kühler auch nur halbwegs erträglich 500+ Watt abführen kann. Muss man wohl den Rechner in ein anderes Zimmer verbannen und die Peripherie mit langen Kabeln oder Funk anbinden.

Ich bin echt gespannt was Asus bringt.

Gigabyte will angeblich 600 Watt abführen,deren Karten sind nicht Mega Laut.

http://videocardz.com/50265/gigabyte-launches-windforce-3x-600w-cooler-geforce-gtx-titan-black


Mit Lukü? ;D

StefanV
2014-05-06, 00:58:41
Bzw ob es überhaupt NTs gibt, die das aushalten mit zwei 295X2.Och, es gibt jede menge Single Rail Schweißgeräte aufm Markt, den das völlig ralle ist. Da fackeln eher die Buchsen/Kabel ab, bevor da irgendwas abschaltet. Schaut dann so aus (http://forums.overclockers.co.uk/showthread.php?p=25554542) oder so (http://forums.overclockers.co.uk/showthread.php?t=18546130), Worst case wäre dann das hier (http://www.overclock.net/t/944707/why-single-rail-is-not-better-than-multi-rail)...

Anyway:
Von den Geräten, die es so gibt: Seasonic X-Serie könnte problematisch sein, da nur 4 Rails, PCIe hat zwei mal 45A.
Da bleibt noch die Enermax Mr.Revo/Platimax in der vollmodularen Ausführung. Da muss man aber schauen, welche Rail wo hin geht. So ganz einfach ist das Verkabeln wohl nicht. Gibts dafür aber auch mti 1500W...
Rail Verteilung siehst du hier (http://www.techpowerup.com/reviews/Enermax/EMR1500EGT/2.html).
Sollte gehen mit:
ein Kabel links unten, ein kabel mitte unten für GPU eins
ein Kabel rechts oben. Und ein Kabel rechts oben und mitte oben.
Alternativ kann man auch links oben anfangen und der Reihe nach einmal rum gehen.

Blöd: Man hat 4 PCIe Kabel blöd rumhängen.

Modulare Netzteile rocken, yeah *scnr*

Und zu den NTs noch was. Enermax hat sich für Quad-GPU bei ihren 1350 und 1500W NTs (http://extreme.pcgameshardware.de/user-news/326330-cebit-2014-skysnake-meets-enermax-lepa.html) genötigt gefühlt eine Anleitung raus zu bringen, wie man die GPUs anstecken soll an das NT, weil es bei "falschem" Stecken anscheinend immer wieder zu Klagen von Nutzern gekommen ist, da es zu Instabilitäten gekommen ist beim 24/7 Betrieb von Mainern, die ihnen die starken NTs aus den Händen reisen....

So klar ist das halt überhaupt nicht, das ein NT mit >1200W nen Dual 295X Gespann stemmen kann unter maximaler Last.

Oder willste jetzt etwa behaupten Enermax sei eine Chinaböller Hersteller?
Sorry, aber was Enermax mit den 6 Rail Geräten gemacht hat, ist einfach mal völlig bescheuert gewesen. Total dämlich.

Das Bild hast da ja. Also was mir da gleich auffällt: Jede Rail von +12V3 bis +12V6 ist zwei mal belegt.
Sprich: Entweder hängen zwei PCie Buchsen an einer 30A Rail (4x 150W = 50A uups) (+12V3 und +12V5)
Oder es hängt eine Laufwerksreihe und eine PCie Buchse zusammen. (+12V4 und 6).

Auf der anderen Seite: +12V1 gibts _NUR_ am ATX Stecker. Und +12V2 nur für die CPU. W T F.

Sorry, aber bei DER Verteilung müssen sie sich nicht wundern, dass die OCP bei einigen Dingen auslöst. Ist schlicht selbst verschuldet. Das habens selbst verkackt.

Allerdings: Wie bekommt man 6 Rails auf 6 PCie Buchsen verteilt? Richtig: Gar nicht....

Wie ich es gemacht hätte:
5 PCie Buchsen genommen, eine leer gelassen
CPU, Laufwerke und ATX an +12V1
+12V2 bis +12V6 an je eine PCIe Buchse. Denn: mehr als zwei 8pin Kabel verträgt eine 30A Rail nicht, da das schon 25A sind. Für drei 8pin PCie Anschlüsse müssens schon ~40A sein. Für 4 aber 60A. Pro Rail. Aber dann kann mans auch gleich weglassen, bei 60A/Rail.

Kurzum:
That's a total obvious. Design Flaw....

Wie man es besser machen kann, siehst du bei Antec (http://www.techpowerup.com/reviews/Antec/HCP-1300/2.html). Wobei es dort nur vier +12V Rails gibt. Aber die sind alle (mehr oder minder kreuz und quer) auf die Buchsen verteilt. Da wird keine Rail verplempert, wie es beim Enermax der Fall ist. Und es gibt max. drei PCie Anschlüsse pro Rail...
Allerdings ist die OCP bei mindestens 50A, was schon recht heftig ist...

Ist halt blöd, wenn mal wieder irgend ein GraKa Hersteller ankommt und meint auf die PCIe Spec 'nen großen Haufen drauf setzen zu müssen...


Aber lass uns das lieber hier Diskutieren (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=553326)

occ-kh@Mirko
2014-05-09, 22:54:14
http://www.fotos-hochladen.net/uploads/powercolordeviyjekbmxoq1.jpg (http://www.fotos-hochladen.net)

http://www.legitreviews.com/powercolor-devil-13-r9-295x2-video-cards-needs-four-8-pin-pcie-connectors_141221

@M4xw0lf ich hab den flaschen Link erwischt, und war durch einen anderen Beitrag abgelenkt. www.legitreviews.com haben mehr Bilder als die, die bereits veröffentlich wurden. Vielen Dank für deinen Hinweis. Seht es euch selbst an, dort ist eine kleine Bildergalerie vorhanden.

M4xw0lf
2014-05-09, 22:59:06
http://www.fotos-hochladen.net/uploads/devilpcr97x1ld3kw.jpg (http://www.fotos-hochladen.net)
Ist das nicht die 7990?

HarryHirsch
2014-05-14, 16:46:10
Von ekwb kommt auch nen fullcover.

http://www.techpowerup.com/200714/ekwb-unveils-ek-fc-r9-295x2-for-radeon-r9-295x2.html

http://abload.de/img/41ajmf10.jpg (http://abload.de/image.php?img=41ajmf10.jpg)

TobiWahnKenobi
2014-05-14, 16:56:37
So würde mir die Karte schon eher zusagen. Macht sie alltagstauglicher.. Zumindest augenscheinlich und oberflächlich betrachtet. Unter dem Kühler bleibt es freilich ein Testballon für Nerds.


(..)

mfg
tobi

Wiggo
2014-05-15, 15:47:47
Schickes Teil, die PowerColor R9 295X2:
http://www.powercolor.com/global/show_img.asp?id=546&file=image_b_s.jpg

M4xw0lf
2014-05-15, 16:06:20
Schickes Teil, die PowerColor R9 295X2:
http://www.powercolor.com/global/show_img.asp?id=546&file=image_b_s.jpg
Öh ja. Toller neuer Aufkleber auf den Lüfternaben ^^

Wiggo
2014-05-22, 16:19:50
Meinte eher, die Wakü, aber gut ;)

Öh ja. Toller neuer Aufkleber auf den Lüfternaben ^^

Rente
2014-05-22, 16:25:21
Die Wakü sieht bei allen Anbietern bis auf die Aufkleber so ziemlich gleich aus.

M4xw0lf
2014-05-22, 17:37:22
Genau das. ^^

gedi
2014-05-23, 00:27:43
http://ht4u.net/reviews/2014/amd_radeon_r9_295x2_im_test/

Skysnake
2014-05-23, 10:47:53
Interessanter und guter Test :up:

Loeschzwerg
2014-05-23, 11:10:06
Stimmt, gefällt mir auch sehr gut.

Wie unsere Messungen ergaben, hat AMD die Stromversorgung der R9 295X2 fast vollständig vom PCI-Express-Steckplatz abgenabelt. Das bedeutet im Umkehrschluss, dass die gesamte geforderte Leistungsaufnahme der Grafikkarte über die beiden 8-Pin-Stromstecker geliefert werden muss. AMD empfiehlt hier mindestens den Einsatz eines Netzteils mit mehreren 12-Volt-Leitungen, welche jeweils mindestens 28 Ampere Strom stützen können (28 A x 12 V = 336 Watt pro Leitung). Damit geht AMD offensichtlich von einem absoluten Worst Case von über 600 Watt aus – Toleranzen berücksichtigt.

Die maximale Leistungsaufnahme, ohne manuellen Treibereingriff, lag unter unserem Spiele-Worst-Case-Szenario (Tom Clancy's Hawx) bei stolzen 565 Watt.

Ganz schön knackige Werte, aber immerhin belastet AMD nicht den Steckplatz.

Edit: Gibts eigentlich Infos wann die Devil13 kommen soll?

Skysnake
2014-05-23, 11:14:37
Was an sich aber total behämmert ist, denn jedes Watt aus dem Slot würde die PCI-e Stecker entlasten...

Und bis 75W ist ja wirklich alles ok. Absolut gar kein! Problem.

Man hätte zumindest die Pumpen und Lüfter über den PCI-E Slot versorgen können.

Loeschzwerg
2014-05-23, 11:27:27
Bei der Leistungsklasse ist es zumindest eine Art Schutz gegen Überlast für das Mainboard.

Ist halt die Frage was ht4u mit "fast vollständig" genau meint. Pumpe und Lüfter können da immer noch über den PCIe laufen.

Skysnake
2014-05-23, 11:34:18
Überlast gibt es aber nicht, wenn man es richtig macht ;)

Man muss halt schon schauen, was man halt damit betreibt. z.B. der RAM wäre eine Idee.

Eventuell hats aber auch einfach nicht für den ganzen RAM gereicht, wobei ich mir das nicht ganz vorstellen kann, dass der 75W verbraucht.

Ein Vorteil ist halt noch, das man sich weniger Noise einfängt, wenn man Pumpe und Lüfter auf ner eigenen Versorgung laufen lässt. Naja, wie auch immer. Ich finde es etwas unschön, da es eben die Überbeanspruchung der 8x PCI-E leitungen noch verstärkt.

Loeschzwerg
2014-05-23, 11:49:32
Überlast gibt es aber nicht, wenn man es richtig macht ;)

Hehe, lassen wir mal so stehen :D

RAM ging mir auch schon durch den Kopf, aber 8GB + Luft für Taktspielereien könnte eng werden.

Der PLX dürfte ziemlich sicher seinen "Saft" vom Steckplatz bekommen, anderes würde mich wundern.

Bezüglich Pumpe/Lüfter könnte ht4u, als Fleißaufgabe, ja nachmessen :)

TobiWahnKenobi
2014-05-23, 13:16:43
bei der 295x2 wäre es wünschenswert gewesen, das kühlsystem so zu gestalten, dass die anvisierten enthusiasten die karte problemlos in vorhandene wasserkühlkreisläufe integrieren können. etwa durch gängige verschraubungen am ein-/auslass der grafikkarte. damit wäre dann auch das manko der fixen schlauchlänge oder des lächerlich wirkenden single-radiators passé.


(..)

mfg
tobi

Shooter46
2014-05-23, 13:52:02
Hey Leute bin hier auf die Seite gestoßen http://www.pc-specs.com/gpu/ATI/R-200_Series/Radeon_R9_295X2/2101/Compatible_PSUs Ich hab ja das Seasonic 1000watt Platinum. In den Specs steht Single Rail und auf der 12volt schiene 2 x 25 A und 125 watt. Benötigt werden ja aber 28 A und 150watt. Bei 12V steht auch noch es hat max 87 A. Auf dieser Seite ist ja nur das 1050w X Gold und das größere angegeben unter Seasonic die haben beide 25A und 150 watt. Meine Frage ist jetzt ob mein Seasonic Platinum für eine Karte ausreicht kann mir da jemand was zu sagen ?

Effe
2014-05-23, 13:59:05
Besser Du fragst das beim Seasonic Support nach. Die sollte es doch am Besten wissen.

Shooter46
2014-05-23, 14:03:31
Jo Stimmt Gute Idee werd ich mal machen

Shooter46
2014-05-23, 14:04:41
Die Karte is schon der Hammer über den Preis und die Sache mit der Stromversorgung kann man sich aber echt streiten!

StefanV
2014-05-23, 15:13:20
Und bis 75W ist ja wirklich alles ok. Absolut gar kein! Problem.
...wenn man mehrere Karten reinsteckt schon.

Das doofe is ja, dass der PCIe Slot ja meist vom ATX Stecker versorgt wird. Und da gibts dann hin und wieder Berichte über abgefackelte ATX Stecker bei Boards im SLI/CF Betrieb. Daher kann ich die Hersteller schon verstehen, dass sie hier nix draus nuckeln wollen...

Allerdings wäre ein dritter Stecker schon vorteilhaft gewesen...
Hey Leute bin hier auf die Seite gestoßen http://www.pc-specs.com/gpu/ATI/R-200_Series/Radeon_R9_295X2/2101/Compatible_PSUs Ich hab ja das Seasonic 1000watt Platinum. In den Specs steht Single Rail und auf der 12volt schiene 2 x 25 A und 125 watt. Benötigt werden ja aber 28 A und 150watt. Bei 12V steht auch noch es hat max 87 A. Auf dieser Seite ist ja nur das 1050w X Gold und das größere angegeben unter Seasonic die haben beide 25A und 150 watt. Meine Frage ist jetzt ob mein Seasonic Platinum für eine Karte ausreicht kann mir da jemand was zu sagen ?
1. Es ist NICHT Single Rail, es hat 4. Siehe Dark Power Pro P10 ab 850W. Die Aufteilung der Seasonic Teile ist ähnlich.
2. Du solltest links und rechts einen Anschluss frei lassen und die beiden mittleren Anschlüsse für die GraKa nehmen.
3. Eine PCIe Rail hat 45A..

Skysnake
2014-05-23, 15:27:48
...wenn man mehrere Karten reinsteckt schon.

Das doofe is ja, dass der PCIe Slot ja meist vom ATX Stecker versorgt wird. Und da gibts dann hin und wieder Berichte über abgefackelte ATX Stecker bei Boards im SLI/CF Betrieb. Daher kann ich die Hersteller schon verstehen, dass sie hier nix draus nuckeln wollen...

Dann hat aber irgendjemand fett scheise gebaut. Entweder man hat den ATX Stecker nicht richtig eingesteckt, bzw eben keinen guten Kontakt, was durchaus passieren kann.

Oder entweder die Boardbauer haben Mist gebaut, oder halt die GPU-Hersteller, weil Sie mehr als 75W aus dem Sockel ziehen.

Egal was es am Ende auch ist, jemand hat einen Fehler gemacht, und man sollte nicht davon ausgehen, das Leute Fehler machen, denn dann kann man gleich aufhören irgendwas zu bauen, was mit Teilen von anderen Herstellern zusammen funktioniert.


Allerdings wäre ein dritter Stecker schon vorteilhaft gewesen...

Das ist völlig unabhängig voneinander.

HarryHirsch
2014-05-23, 15:59:45
...wenn man mehrere Karten reinsteckt schon.

Das doofe is ja, dass der PCIe Slot ja meist vom ATX Stecker versorgt wird. Und da gibts dann hin und wieder Berichte über abgefackelte ATX Stecker bei Boards im SLI/CF Betrieb. Daher kann ich die Hersteller schon verstehen, dass sie hier nix draus nuckeln wollen.

Das waren dann aber billig-Boards. Ordentliche haben nen extra Anschluss für die PCIe slots.

Shooter46
2014-05-23, 16:54:36
...wenn man mehrere Karten reinsteckt schon.

Das doofe is ja, dass der PCIe Slot ja meist vom ATX Stecker versorgt wird. Und da gibts dann hin und wieder Berichte über abgefackelte ATX Stecker bei Boards im SLI/CF Betrieb. Daher kann ich die Hersteller schon verstehen, dass sie hier nix draus nuckeln wollen...

Allerdings wäre ein dritter Stecker schon vorteilhaft gewesen...

1. Es ist NICHT Single Rail, es hat 4. Siehe Dark Power Pro P10 ab 850W. Die Aufteilung der Seasonic Teile ist ähnlich.
2. Du solltest links und rechts einen Anschluss frei lassen und die beiden mittleren Anschlüsse für die GraKa nehmen.
3. Eine PCIe Rail hat 45A..


Wenn ich jedoch bei den Testberichten nachschau z.B bei Hardware Luxx steht überall,

Kommen wir nun zu den Leistungswerten des Seasonic Platinum 1000W. Es stellt bis zu 1000 Watt Dauer-Ausgangsleistung bereit, wobei dank DC-DC-Topologie bis zu 100 Prozent von dieser Gesamtleistung über die 12V-Seite abgerufen werden können. Seasonic setzt weiterhin auf ein Single-Rail-Design und bietet dementsprechend die komplette Leistung von nominalen 83 Ampere auf 12V-Seite auf einer einzigen Schiene an. Die Nebenspannungen 3,3 und 5 Volt sind mit bis zu je 25 Ampere belastbar, wobei die kombinierte Belastbarkeit beider Spannungen bei 125W liegt.


http://www.moddiy.com/product_images/g/110/09-big-seasonic-ss-1000xp__63339_zoom.jpg

http://aphnetworks.com/report/seasonic_platinum_1000w/007.JPG

Shooter46
2014-05-24, 16:28:56
So ich hab jetzt bei Seasonic angefragt und bekam diese Antwort :

From our perspective, the answer is yes, but the best solution is to check AMD website to see how much power you need from the PSU.
Also the total configuration of your system will affect how big of a PSU you need.

But normally speaking, the P-1000 is good for 99% of the systems on the market today.

Ich kenn ja die Anforderung von Amd deswegen hab ich die ja gefragt. Es ist sehr verwirrend für jemanden der sich um Netzteile vorher nie so große gedanken gemacht hat. Bisher nur anstecken und Gut ist !

StefanV
2014-05-24, 17:50:23
Wenn ich jedoch bei den Testberichten nachschau z.B bei Hardware Luxx steht überall
Nur weil es überall steht, muss es nicht korrekt sein. Zumal der HWLuXX Tester auch schlicht keine Ahnung hat. Der hat die Netzteile auch erst geöffnet, als denen vorgeworfen wurde, dass sie die Netzteile verhökern würden. Da der Cheffe das nicht auf sich sitzen lassen hat, werden die halt jetzt geöffnet...
Ansonsten hat er aber wenig bis gar keinen Plan...

Aber für dich mal eine kleine Aufgabe:
Google: XFX 1250W jonnyguru

Dort findest du eine Bestätigung meiner Aussage, die auch von Seasonic kommt.

Dann hat aber irgendjemand fett scheise gebaut. Entweder man hat den ATX Stecker nicht richtig eingesteckt, bzw eben keinen guten Kontakt, was durchaus passieren kann.

Oder entweder die Boardbauer haben Mist gebaut, oder halt die GPU-Hersteller, weil Sie mehr als 75W aus dem Sockel ziehen.
Ja, der Boardbauer hat scheiße gebaut, weil er einen PCIe Anschluss auf dem Board hätte vorsehen müssen. Bzw die PCie Slots aus der EPS12V Buchse hätte versorgen müssen.
Auf 'nem ATX Stecker hast nämlich genau zwei +12V Adern. Das reicht gerade mal, um einen Slot zuverlässig zu versorgen. Für zwei oder drei ist das schlicht nicht ausreichend...

Buttom Line: Die Boardhersteller habens verkackt, die die Versorgung der PCIe Slots nicht auf die Reihe bekommen haben und hier ziemlichen Mist gebaut haben...

Skysnake
2014-05-24, 18:32:45
Und wo ist das Problem?

Ab ATX 2.3 darf man min 20A pro 12V Leitung ziehen, also um genau zu sein auch mehr als 20A. Das macht dann für die zwei Leitungen mal eben 480W. Das sollte an sich voll auf ausreichen ;)

Und wenn nicht, für was gibts die P4 Stecker? Damit kannste dann auch noch mehr als genug Saft aufs Bord geben. Die PCI-E 6/8x Stecker sind absollut nicht nötigen an und für sich, wenn man bei den 75W bleibt pro Slot. Wenns natürlich deutlich mehr werden, weil wieder irgendwelche Vollprofis von Herstellern meinen, sie müssten auf Specs nen Haufen setzen, dann ist das halt wieder was anderes, genau wie im Fall, das Leute OC betreiben, und deswegen mehr rausziehen.

Aber an sich, braucht niemand die PCI-E Steckerplätze aufm Board.

StefanV
2014-05-24, 20:16:11
Und wo ist das Problem?

Ab ATX 2.3 darf man min 20A pro 12V Leitung ziehen, also um genau zu sein auch mehr als 20A. Das macht dann für die zwei Leitungen mal eben 480W. Das sollte an sich voll auf ausreichen ;)
Ähhh, ich glaub da verwechselst du was. Und zwanzig Ampere bei 'nem AWG16/18 Kabel? SRYSLY?!

Dazu diese winz Steckerchen - naa. Zumal der auch nur für AFAIR 8-9A pro Pin spezifiziert ist. Hier braucht es also eigentlich einen separaten Anschluss für das Board...
Und wir sprechen hier von läppischen zwei Adern und zwei Kontaktpins am ATX Stecker!

Und wenn nicht, für was gibts die P4 Stecker? Damit kannste dann auch noch mehr als genug Saft aufs Bord geben. Die PCI-E 6/8x Stecker sind absollut nicht nötigen an und für sich, wenn man bei den 75W bleibt pro Slot. Wenns natürlich deutlich mehr werden, weil wieder irgendwelche Vollprofis von Herstellern meinen, sie müssten auf Specs nen Haufen setzen, dann ist das halt wieder was anderes, genau wie im Fall, das Leute OC betreiben, und deswegen mehr rausziehen.
Genau das hat man ja nicht gemacht!

Wenn man die PCIe Slots vom CPU Stecker abgeführt hätte, hätts wohl geklappt. Man hat den Saft aber aus dem ATX Main Stecker gezogen, was dann bei einigen Setups dazu geführt hat, dass der Stecker im Dauerbetrieb irgendwann mal angefangen ist zu verkohlen. Da kann man die GraKa Hersteller schon verstehen, dass sie deswegen den PCIe Slot nicht soo doll belasten...

Shooter46
2014-05-24, 20:16:38
Nur weil es überall steht, muss es nicht korrekt sein. Zumal der HWLuXX Tester auch schlicht keine Ahnung hat. Der hat die Netzteile auch erst geöffnet, als denen vorgeworfen wurde, dass sie die Netzteile verhökern würden. Da der Cheffe das nicht auf sich sitzen lassen hat, werden die halt jetzt geöffnet...
Ansonsten hat er aber wenig bis gar keinen Plan...

Aber für dich mal eine kleine Aufgabe:
Google: XFX 1250W jonnyguru

Dort findest du eine Bestätigung meiner Aussage, die auch von Seasonic kommt.


Ja, der Boardbauer hat scheiße gebaut, weil er einen PCIe Anschluss auf dem Board hätte vorsehen müssen. Bzw die PCie Slots aus der EPS12V Buchse hätte versorgen müssen.
Auf 'nem ATX Stecker hast nämlich genau zwei +12V Adern. Das reicht gerade mal, um einen Slot zuverlässig zu versorgen. Für zwei oder drei ist das schlicht nicht ausreichend...

Buttom Line: Die Boardhersteller habens verkackt, die die Versorgung der PCIe Slots nicht auf die Reihe bekommen haben und hier ziemlichen Mist gebaut haben...

Das von XFX sieht von den Anschlüssen gleich aus. Schreiben tun die ja EasyRail is a marketing term for a single +12V rail, but this power supply has four +12V rails
Also hat es quasie 4 rails das meinst du oder ?

HarryHirsch
2014-05-24, 21:58:22
Wenn ich jedoch bei den Testberichten nachschau z.B bei Hardware Luxx steht überall,

Kommen wir nun zu den Leistungswerten des Seasonic Platinum 1000W. Es stellt bis zu 1000 Watt Dauer-Ausgangsleistung bereit, wobei dank DC-DC-Topologie bis zu 100 Prozent von dieser Gesamtleistung über die 12V-Seite abgerufen werden können. Seasonic setzt weiterhin auf ein Single-Rail-Design und bietet dementsprechend die komplette Leistung von nominalen 83 Ampere auf 12V-Seite auf einer einzigen Schiene an. Die Nebenspannungen 3,3 und 5 Volt sind mit bis zu je 25 Ampere belastbar, wobei die kombinierte Belastbarkeit beider Spannungen bei 125W liegt.


http://www.moddiy.com/product_images/g/110/09-big-seasonic-ss-1000xp__63339_zoom.jpg

http://aphnetworks.com/report/seasonic_platinum_1000w/007.JPG

Ich hab das NT seit release und behaupte einfach mal das es reicht.
Das Seasonic davor (700W) hab ich Jahrelang um 100W "überfordert".

StefanV
2014-05-25, 00:11:44
Also hat es quasie 4 rails das meinst du oder ?
Nein, es hat 4 Rails, nicht nur Quasi. Die Aufteilung ist wie bei den Dark Power Pro P10 ab 850W (basieren ja auch auf der gleichen Plattform).

occ-kh@Mirko
2014-05-25, 04:22:52
Die Aufteilung ist wie bei den Dark Power Pro P10 ab 850W (basieren ja auch auf der gleichen Plattform).
Genau, inclusive der Nippon Chemi-Con.

Ich kenn ja die Anforderung von Amd deswegen hab ich die ja gefragt.
Reicht, die 295x2 zieht zusammen mit einem Gesamtsystem (gut ausgebaut z.B. mit 4770k) 650-700Watt beim zocken, macht die Karte mal nicht schlechter als sie ist. Wenns zwei werden muss man aufrüsten, so dürfte es sogar das 860ziger schaffen.

Das dürfte für das Seasonic leicht zu machen sein. Erst ab 830w Last fällt die Regulation etwas ab (aber die 5% Toleranz werden niemals überschritten). Die Effiziens fällt dann in Crossovertest kurzweilig auch mal unter 90%. Die Temps steigen dann an, daher würde ich die PSU im S²FC Modus betreiben (also den Schalter auf der Rückseite auf "1"). Der Lüfter dürfte leise genug sein (wenns der Sanyo Denki Modell-Nr.: 9S1212F404 ist). Den hört man wegen dem betriebenen Aufwand an seinem Doppelkugellager eh erst ab 750w Last aufwärts. So kannste das Gehäuse aber auch im Idle etwas sinnvoller mitbelüften.

Mit einer 295x beim zocken liegt es aber bei 60-80% Lastbetrieb und das kann es dann bei einer Effiziens von über 92% locker verkraften. Wir sprechen hier ja nicht von einem Chinaböller.

Butterfly
2014-05-25, 08:51:02
...wenn man mehrere Karten reinsteckt schon.

Das doofe is ja, dass der PCIe Slot ja meist vom ATX Stecker versorgt wird. Und da gibts dann hin und wieder Berichte über abgefackelte ATX Stecker bei Boards im SLI/CF Betrieb. Daher kann ich die Hersteller schon verstehen, dass sie hier nix draus nuckeln wollen...

Allerdings wäre ein dritter Stecker schon vorteilhaft gewesen...

Ähhh, ich glaub da verwechselst du was. Und zwanzig Ampere bei 'nem AWG16/18 Kabel? SRYSLY?!

Dazu diese winz Steckerchen - naa. Zumal der auch nur für AFAIR 8-9A pro Pin spezifiziert ist. Hier braucht es also eigentlich einen separaten Anschluss für das Board...
Und wir sprechen hier von läppischen zwei Adern und zwei Kontaktpins am ATX Stecker!

Genau das hat man ja nicht gemacht!

Wenn man die PCIe Slots vom CPU Stecker abgeführt hätte, hätts wohl geklappt. Man hat den Saft aber aus dem ATX Main Stecker gezogen, was dann bei einigen Setups dazu geführt hat, dass der Stecker im Dauerbetrieb irgendwann mal angefangen ist zu verkohlen. Da kann man die GraKa Hersteller schon verstehen, dass sie deswegen den PCIe Slot nicht soo doll belasten...
Wie dann sind alle passiv GPUs bis 75W TDP (ohne PCI-E Stecker) vom abfackeln bedroht?
Nein das kann nicht sein, oder?
Der P4 Stecker wird für CPU only genutzt und da sind es meist 2x P4 also 8 Pins (4x Masse, 4x Plus).
Wenn damit eine 220W TDP CPU zu Versorgen möglich ist, sollte da auch mehr als 75W pro P4 Möglich sein. ;)

StefanV
2014-05-25, 10:56:28
Noch einmal:

Die PCIe Slots werden in der Regel über den 24pin ATX Stecker gespeist. Dort sind aber nur zwei Adern mit +12V dabei. Sprich im 'Best Case', bei einer GraKa wären das 6,25A über die Stecker. Bei drei GraKas wären das dann 6,25 X 3 = 18,75A, über ZWEI Aderpärchen, dass das schief geht, sollte klar sein. Zumal man ja auch noch übertakten könnte.

Und dann ist noch das Problem, dass du nicht weißt, was aufm Board alles aus +12V versorgt wird...


Und genau das ist ja das Problem:
Die PCIe Slots werden eben NICHT aus dem CPU Stecker sondern aus dem ATX Stecker versorgt. Wenn da kein Zusatzstecker auf dem Board ist (meist molex, manchmal auch PCIe) und man 3 Slots hat, ist der Haufen am dampfen. Bzw der ATX Stecker am schmoren...

Knuddelbearli
2014-05-25, 11:41:40
hmmm laufen über PCI-E nicht 3,3V ?
Hab das zumindest so im Kopf