PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: 4096 Shader-Einheiten und 8 GB HBM-Speicher bei der Radeon R9 390X ...


Leonidas
2015-03-16, 09:21:30
Link zur News:
http://www.3dcenter.org/news/4096-shader-einheiten-und-8-gb-hbm-speicher-bei-der-radeon-r9-390x-water-cooled-edition-scheinb

rentex
2015-03-16, 10:37:41
Hm, die sollen mal ein brauchbares Release Date ausgeben...

InsaneDruid
2015-03-16, 10:41:50
Also ich kenn ja die wahre Intention des Posts nicht, aber zu 99.99% sollte da "anscheinend" stehen. Scheinbar drückt den Umstand aus, dass etwas nicht so ist, wie es aussieht.

Leonidas
2015-03-16, 10:57:58
Wie üblich hat die anscheinend/scheinbar-Fraktion recht. Mal schauen, ob ich es schaffe, beim schnellen Schreiben das irgendwann automatisch zu merken.

Disco_STFU
2015-03-16, 11:14:03
Ich raff das auch nie... :(

OBrian
2015-03-16, 13:04:21
Wenn man immer die gleichen Fehler macht, dann sollte das ja mit drei Haftzetteln am Monitor erledigt sein.

anscheinend: man selber weiß nicht, wie es ist. Neutraler Ausdruck, der einfach nur vorsichtig die Unsicherheit vermittelt.

scheinbar: man vermutet/weiß, daß hier was Falsches behauptet wird, also ein negativer Ausdruck, mit der man das oder den Beschriebenen runtermacht bzw. als Lügner darstellt. Sollte man also nicht verwenden, wenn man das nicht will. Deswegen finde ich diesen Fehler auch gravierender als z.B. "dasselbe" und "das gleiche" zu verwechseln.

Beispiel 1: Dieser Mann im roten Mantel mit weißem Bart ist ___ der Weihnachtsmann.
-> hier kommt "scheinbar" hin, weil man weiß, daß das nur ein Student ist, der die beliebte Coca-Cola-Werbefigur mimt.

Beispiel 2: Als ich aufwachte, war es dunkel, also war es ___ noch Nacht.
-> hier kommt "anscheinend" hin, weil der tatsächliche Sachverhalt unbekannt ist. Es kann tatsächlich Nacht sein, es kann aber auch sein, daß einfach nur die Jalousien fest runter sind oder es gerade eine Sonnenfinsternis gibt oder man erblindet ist.

ChaosTM
2015-03-16, 13:18:04
Hm, "up to 4096" klingt nach der Möglichkeit von abgespeckten Versionen.
Wir werden sehen.

edit:. das Loch zur 290X wäre zu groß - und ein anderer Chip ist nicht in Sicht.. oder?

OBrian
2015-03-16, 13:23:24
die wird es sicherlich geben, nur eine Top-Karte und lange nichts darunter wäre auch nicht schön.

Wichtiger als die Bestätigung der Daten, die man eh vermutet hatte, ist die Existenz der Folie, die offenbar aus einer größeren Präsentation stammt und die auf heute datiert ist. Sowas macht man eigentlich erst, wenn der Launch bald stattfindet. Mag ja sein, daß es erstmal eine Präsentation gibt und der Marktstart einige Wochen später, aber sehr lange wird es sicherlich nicht mehr dauern.

Locuza
2015-03-16, 14:49:19
Denn das "Tier 3" zeigt wohl nur auf das DirectX-12-Feature "Resource Binding" hin, welches wohl sehr wichtig sein mag, aber dennoch nicht alles von DirectX 12 ist.
Das geht aus meiner Sicht nicht hervor.
Es gibt resource binding, conservative rasterization und tiled resources bis zu Tier 3.
Ich würde eher davon ausgehen, dass falls es kein Fake ist, AMD hier einfach meint die höchsten Tiers zu unterstützen und damit alles was die DX12 Spec hergibt.

elpsychodiablo
2015-03-16, 15:40:50
Warum sollte das ein Fake sein, vor ein halben Jahr gab es gerüchte über die Karte die sich jetzt 1:1 decken.

Schade das der Strompreis in Deutschland weltweit zu den teuersten gehört, das wäre genau die Karte die ich brauche für 4k Gaming. Bin mir sicher die Karte braucht mehr Strom als der PC vom Sohnemann + Fernseher + Anlage + Spülmaschine + Waschmaschine im Monat. Hab jetzt schon ein Abschlag von 100€.

CD-LABS
2015-03-16, 16:07:53
Warum sollte das ein Fake sein, vor ein halben Jahr gab es gerüchte über die Karte die sich jetzt 1:1 decken.

Schade das der Strompreis in Deutschland weltweit zu den teuersten gehört, das wäre genau die Karte die ich brauche für 4k Gaming. Bin mir sicher die Karte braucht mehr Strom als der PC vom Sohnemann + Fernseher + Anlage + Spülmaschine + Waschmaschine im Monat. Hab jetzt schon ein Abschlag von 100€.
Dann bräuchtest du aber eine sehr sparsame Spül- & Waschmachine und dein Sohnemann einen sehr sparsamen PC!
Es ist nämlich offensichtlich, dass die Karte deutlich weniger als eine 295X2 ziehen wird, somit müsste sich auch das Ergebnis deiner Summe unter 500 Watt einordnen...

Langlay
2015-03-16, 16:18:06
Warum sollte das ein Fake sein, vor ein halben Jahr gab es gerüchte über die Karte die sich jetzt 1:1 decken.

Schade das der Strompreis in Deutschland weltweit zu den teuersten gehört, das wäre genau die Karte die ich brauche für 4k Gaming. Bin mir sicher die Karte braucht mehr Strom als der PC vom Sohnemann + Fernseher + Anlage + Spülmaschine + Waschmaschine im Monat. Hab jetzt schon ein Abschlag von 100€.

Naja selbst wenn sie 250W braucht sind das bei 4h zocken am Tag 25 Cent pro Tag. Und wenn du jetzt eine hast die nur 150W verbrat biste bei 15 Cent pro Tag ( 4h Zocken ).

elpsychodiablo
2015-03-16, 17:05:22
Das kann man ja mal ausrechnen was die ATI Karte kosten wird.

Die kosten beziehen sich nur auf die GPU, nicht auf den kompletten Rechner. Bei 25cent Strompreis pro Kw. Und 35std Spielzeit in 7 Tagen.


Bei 500 Watt Verbrauch kostet die Karte 228,13€ im Jahr. (295x2)
Bei 400 Watt Verbrauch kostet die Karte 182,50€ im Jahr.
Bei 300 Watt Verbrauch kostet die Karte 126,88€ im Jahr. (290xüber)
Bei 250 Watt Verbrauch kostet die Karte 114,50€ im Jahr. (290x)
Bei 165 Watt Verbrauch kostet die Karte 75,28€ im Jahr. (Momentane Grafikkarte)

Waschmaschine 600Watt 2 Waschladungen die Woche ca 4std laufzeit. 31,58€ im Jahr.
Spülmaschine täglich 400Watt 1,5std laufzeit. 54€ im Jahr


Kosten pro Tag = Kilowatt (kw) * Spielzeit in Vollast (h) * Kosten pro std 0,25€

C.D.B.
2015-03-16, 18:41:21
So weit kommts noch, daß ich mein Hobby zerrechne ... :freak:

Was das Ding frisst ist mir vollkommen Wurscht! Lediglich die Abwärmeproblematik MUSS zumindest gut gelöst sein! ;)

BlacKi
2015-03-16, 18:56:22
So weit kommts noch, daß ich mein Hobby zerrechne ... :freak:

Was das Ding frisst ist mir vollkommen Wurscht! Lediglich die Abwärmeproblematik MUSS zumindest gut gelöst sein! ;)

mhh, ne, wenn ich in 2 jahren soviel mehr strom bezahlen muss wie der aufpreis von einer 290x zur 980 ist dann nehm ich lieber ne 980, die ist schneller und leiser und ich hab ein besseres gewissen der umwelt gegenüber ;D

think green^^

aber ich spiel soviel garnicht das sich das finanziell rechnen würde. von daher ...

Gast
2015-03-16, 20:00:07
Das kann man ja mal ausrechnen was die ATI Karte kosten wird.

Die kosten beziehen sich nur auf die GPU, nicht auf den kompletten Rechner. Bei 25cent Strompreis pro Kw. Und 35std Spielzeit in 7 Tagen.


Bei 500 Watt Verbrauch kostet die Karte 228,13€ im Jahr. (295x2)
Bei 400 Watt Verbrauch kostet die Karte 182,50€ im Jahr.
Bei 300 Watt Verbrauch kostet die Karte 126,88€ im Jahr. (290xüber)
Bei 250 Watt Verbrauch kostet die Karte 114,50€ im Jahr. (290x)
Bei 165 Watt Verbrauch kostet die Karte 75,28€ im Jahr. (Momentane Grafikkarte)

Waschmaschine 600Watt 2 Waschladungen die Woche ca 4std laufzeit. 31,58€ im Jahr.
Spülmaschine täglich 400Watt 1,5std laufzeit. 54€ im Jahr


Kosten pro Tag = Kilowatt (kw) * Spielzeit in Vollast (h) * Kosten pro std 0,25€
Dabei solltest du aber die GTX980 nicht overcklocked betreiben, so wie ich es mache, sonst bist du auch schnell bei 250 Watt. Und wer zockt schon 35 Stunden/Woche?! Eine Titan, welche hier der Konkurrent der 390x ist, sollte auch deutlich >165 Watt (geschönte Nvidia) Spezifikation liegen.

Ganz ehrlich, eine 390x oder am Titan am Stromverbrauch zu bewerten, ist ziemlich nonsense. Das gilt eigentlich auch schon für die Preislage der GTX980 (>>290x).

Gast
2015-03-16, 20:15:59
Das kann man ja mal ausrechnen was die ATI Karte kosten wird.

Die kosten beziehen sich nur auf die GPU, nicht auf den kompletten Rechner. Bei 25cent Strompreis pro Kw. Und 35std Spielzeit in 7 Tagen.


Bei 500 Watt Verbrauch kostet die Karte 228,13€ im Jahr. (295x2)
Bei 400 Watt Verbrauch kostet die Karte 182,50€ im Jahr.
Bei 300 Watt Verbrauch kostet die Karte 126,88€ im Jahr. (290xüber)
Bei 250 Watt Verbrauch kostet die Karte 114,50€ im Jahr. (290x)
Bei 165 Watt Verbrauch kostet die Karte 75,28€ im Jahr. (Momentane Grafikkarte)

Waschmaschine 600Watt 2 Waschladungen die Woche ca 4std laufzeit. 31,58€ im Jahr.
Spülmaschine täglich 400Watt 1,5std laufzeit. 54€ im Jahr


Kosten pro Tag = Kilowatt (kw) * Spielzeit in Vollast (h) * Kosten pro std 0,25€
Was hast du denn da für eine "nette" Rechnung aufgestellt :)
Bistn Progamer und alles schön gemessen?

Ich habe mal eben aus Jux ausgerechnet was der gesamte "PC Spaß" mich im Jahr kostet. Verbrauch PC bei Vollauslastung BF4 gemessen ca. 380W (2500k@4,4 + 290@1120/1500). Verbrauch Monitor ca. 40W. Ich spiele auch mal 2-4Std am Stück. Aber nicht jeden Tag. Aufs Jahr verteilt ist es 1 std. täglich wenn's hochkommt. Bei mir sind es demnach gerade mal ca. 150kWh im Jahr. Wenn man von 25Cent ausgeht, sind es wahnsinnige 38€ für alles jährlich.

samm
2015-03-16, 21:20:10
aber ich spiel soviel garnicht das sich das finanziell rechnen würde. von daher ...Das Rechenbeispiel geht ja auch von 5h Spielen jeden Tag aus, für ein ganzes Jahr - das schaffe ich nicht mal in den Ferien wenn ich es wirklich versuche, es gibt zu viel Leben und nutzloses Internet drumherum :freak:

elpsychodiablo
2015-03-16, 21:34:54
Es gibt Leute die weniger Spielen aber auch sehr viel mehr spielen, welchen Wert nimmt man jetzt?

Ich behaupte jetzt mal jemand der sich eine HighEnd Karte holt will die auch nutzen, evtl. sind 5std für den Kreis der Käufer sogar zu gering angesetzt, aber darüber will ich gar nicht eingehen sondern ein Vergleich zu Österreich wagen.

Als Vergleich nimm ich im 17,50cent, und Deutschland den Süwag Max 0,25cent pro Kw.
Gerechnet wird wieder mit 5Std am Tag ohne idle Zeiten nur der Verbrauch der GPU.
Kosten sind aufs Jahr hochgerechnet

500 Watt
Deutschland = 228,13€
Österreich = 159,69€

400 Watt
Deutschland = 182,50€
Österreich = 127,75€

300 Watt
Deutschland = 126,88€
Österreich = 95,81€

200 Watt
Deutschland = 114,50€
Österreich = 63,88€

165 Watt
Deutschland = 75,28€
Österreich = 52,70€


Da mein voriger Strompreis falsch war hab ich die 17,50Cent genommen die mir im Forum vorgeschlagen wurden.

Godmode
2015-03-16, 21:39:40
Ich habe immer Highendkarten, spiele wohl aber eher nur 1h aufs Jahr gerechnet. Daher ist mir der Stromverbrauch auch nicht so wichtig.

Btw, um 6,99 Cent bekommst du sicher keinen Strom in Österreich. Da fehlen noch irgendwelche Netzentgelte, etc.

elpsychodiablo
2015-03-16, 21:55:17
Der KW Preis ist schon sehr gering in Österreich, was da noch dazu berechnet wird würde mich sehr interessieren.

Was hast du denn da für eine "nette" Rechnung aufgestellt :)
Bistn Progamer und alles schön gemessen?

Ich habe mal eben aus Jux ausgerechnet was der gesamte "PC Spaß" mich im Jahr kostet. Verbrauch PC bei Vollauslastung BF4 gemessen ca. 380W (2500k@4,4 + 290@1120/1500). Verbrauch Monitor ca. 40W. Ich spiele auch mal 2-4Std am Stück. Aber nicht jeden Tag. Aufs Jahr verteilt ist es 1 std. täglich wenn's hochkommt. Bei mir sind es demnach gerade mal ca. 150kWh im Jahr. Wenn man von 25Cent ausgeht, sind es wahnsinnige 38€ für alles jährlich.

Das ist leider nicht gemessen, sondern OpenOffice Calc :D

Godmode
2015-03-16, 21:58:36
Der KW Preis ist schon sehr gering in Österreich, was da noch dazu berechnet wird würde mich sehr interessieren.



Das ist leider nicht gemessen, sondern OpenOffice Calc :D

Da wird ein ganzer Haufen hinzugrechnet.

"Pro kWh bezahlt man also zwischen 0,166 und 0,193 Euro inklusive aller Steuern, Entgelte und sonstiger Abgaben."

http://www.mytoday.at/strompreise-in-osterreich/

elpsychodiablo
2015-03-16, 22:10:12
Danke für den Link, dann ist der Preisunterschied gar nicht so groß.
Vergleichbar mit Deutschland vor ca.10 Jahren.

Das Thema tauchte im TS schon öfters auf und die Österreicher haben sich immer über den deutschen Strompreis lustig gemacht. Das da auf die Kilowatt stunde soviel drauf gerechnet wird war mir nicht klar.

Gast
2015-03-17, 06:46:09
Bei der Kostenberechnung sollte man das Gesamtsystem betrachten.
Oder lebt ihr in Nullernergiehäusern?

Ich hab Nachtspeicherheizung. Was der PC an Wärme rauspustet spar ich an Heizung, kostet mich der PC also nur im Sommer was an Strom.

Gast
2015-03-17, 07:44:07
Gerechnet wird wieder mit 5Std am Tag ohne idle Zeiten nur der Verbrauch der GPU.
Kosten sind aufs Jahr hochgerechnet

500 Watt
Deutschland = 228,13€
Österreich = 63,78€

400 Watt
Deutschland = 182,50€
Österreich = 51,03€

300 Watt
Deutschland = 126,88€
Österreich = 38,27€

200 Watt
Deutschland = 114,50€
Österreich = 25,51€

165 Watt
Deutschland = 75,28€
Österreich = 21,05€


Lange Rede - Kurzer Sinn
Ich habe noch nie so einen Quatsch gelesen !

Du rechnchst hier mit Maximaler Dauerlast - Wie manipulativ gehts denn noch ?
Du wirst keine Karte finden die Toujour 5h Dauerlast halten wird
Da werden immer schwankungen drin sein (unterschiedliche Szenenlast manchmal 20 FPS High manchmal 60 FPS "Low" )
Ausser du erfreust dich an 5h "Furmark" glotzen, dann könnte es möglich sein.

elpsychodiablo
2015-03-18, 11:51:37
Wenn man die FPS nicht mit VSync begrenzt oder ein FPS cap einsetzt (z.B. 144hz / Eyefinity oder Tearing Fetischisten) brauchst du kein Furmark, da reicht jedes x beliebige Spiel damit die Karte ordentlich Leistung zieht.

Da reicht ein Blick in den MSI Afterburner um zu sehen wieviel % die GPU ausgelastet wird.
Furmark macht ja nicht 110% daraus. Da reicht auch ein Skyrim oder Diablo 3.

Aber dein Schwachsinn hätte ich an deiner stelle auch Anonym geschrieben.

aufkrawall
2015-03-18, 11:53:51
"100%" GPU-Auslastung sagt nicht wirklich etwas über den Stromverbrauch aus.

elpsychodiablo
2015-03-18, 12:25:39
Eine Toleranz von 10Watt?

Viel mehr kann das nicht sein da GPU´s so eine Art P-state haben und die sind fest vorgegeben, sei es desktop modus, movie-modus, dualscreen modus, game modus und Tubo Modus, der eine oder andere Hersteller dürfte paar mehr oder weniger haben.

Bei Games kommt nur Turbo und Game Modus zu Stande, d.h. Bestimmte clock und mem Taktungen inkl. Volt zahlen. Hat man für eine Taktung zu wenig Volt stürzt es ab (einfachstes Overclock 1x1), deshalb gibt es da keine Variationen, außer zum Game Modus zum Turbo Modus und die Taktungen sind auch gestaffelt vorgegeben.

Dynamisch wird es evtl. mal in Zukunft. Von daher dürfte der verbrauch eher dank Turbo noch höher sein statt niedriger.

aufkrawall
2015-03-18, 12:28:29
Wie groß die Differenz sein kann, hängt davon ab, wie stark die Karten durch PT gedrosselt werden.
Kombustor OGL + PostFX würde ohne eine Drosselung viel mehr Strom verbrauchen als jedes Spiel. Entsprechend ist dort der Takt stärker verringert im PT.

elpsychodiablo
2015-03-18, 12:46:37
http://www.hardware-infos.com/tests/grafikkarten/gainward-gtx-680-phantom-4gb-seite-12.html

Je nach Karte verbrauchen manche Spiele mehr Strom als Furmark, bei ATI sind es in dem Fall 3 Watt und bei Nvidia 52 Watt weniger

Das einzige was von der Taktung variiert beim Spielen ist die CPU, die taktet nur so hoch wie die an Leistung braucht.

Schaut man sich die werte hier an

http://www.tweakpc.de/hardware/tests/grafikkarten/vtx3d_radeon_r9_285/s05.php

stellt man fest das mehr Strom kann eine Grafikkarte immer fressen, aber da ein Spiel jetzt geringe Anforderungen hat zieht eine 780TI oder 290x plötzlich jetzt nicht nur 100Watt, sondern man kann mindestens von ausgeschriebenen TDP ausgehen + mehr Strom für den Turbo.

Man hat in den letzten Tagen immer wieder gelesen das ATI was herausbringen soll das eine Karte weniger Strom verbraucht wenn man ein FPS Cap benutzt, das ist aber noch Zukunftsmusik.

(del676)
2015-03-18, 12:48:56
Der KW Preis ist schon sehr gering in Österreich, was da noch dazu berechnet wird würde mich sehr interessieren.

Ist eigentlich ganz einfach.
Fuer nen Haushalt der 4.000kwh/Jahr verbraucht, zahlst 700€ pro Jahr.
Sind 17,5 Cent/kwh

elpsychodiablo
2015-03-18, 13:03:59
Danke Ulukay, hab den vorrigen Post mit deinen 17,50cent/kwh korrigiert.

Wie gesagt das sind keine Messungen, sondern nur eine Rechnung

anddill
2015-03-18, 13:27:49
Meine Graka taktet sich bei Spielen mit VSync runter. Meist liegt der Takt um die 700MHz.

Arcanoxer
2015-03-18, 21:02:28
Wieviel verbraucht die 390X denn nun?
Allmöglicher schrott wird geleakt, aber keine offizellen TDP angaben?

Wenn an den 300 Watt was dran ist die im Netz herumirrt, ist mir auch klar warum.

HarryHirsch
2015-03-18, 21:53:20
wasn hier los? kaum wird spekuliert das ne amd karte mit wakü kommt kommen die grünen raus und machen einen auf grün? :uhippie:
zu thermi zeiten war das noch egal...
btw. sinkt der verbrauch um ~30watt pro gpu mit wakü iirc.

aufkrawall
2015-03-18, 22:38:57
http://www.hardware-infos.com/tests/grafikkarten/gainward-gtx-680-phantom-4gb-seite-12.html

Je nach Karte verbrauchen manche Spiele mehr Strom als Furmark, bei ATI sind es in dem Fall 3 Watt und bei Nvidia 52 Watt weniger

1. Wird bei Spielen die CPU stärker belastet als bei Furmark und es ist bei deinem Link der Gesamtsystemverbrauch gemessen.
2. Scheint Furmark im AMD-Treiber gedrosselt zu sein.
3. Liegt bei Furmark eine wesentlich konstantere Belastung an, was dazu führt, dass etwa GM204 dort niedriger taktet als bei Trine 2, bei Letzterem die Temperatur aber höher ist.


Das einzige was von der Taktung variiert beim Spielen ist die CPU, die taktet nur so hoch wie die an Leistung braucht.

Nein, wozu sind denn wohl Boost und die Targets da.


Man hat in den letzten Tagen immer wieder gelesen das ATI was herausbringen soll das eine Karte weniger Strom verbraucht wenn man ein FPS Cap benutzt, das ist aber noch Zukunftsmusik.
Bei AMD wird wesentlich schneller runtergetaktet als bei NV bei ausbleibender Volllast. Der nächste Treiber enthält einfach einen fps-Limiter.

Gast
2015-03-19, 01:00:01
Die 390x WCE hat eine theoretische Boardpower von 375w TDP max.. 2x8PinPCIE.