PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - FirePro W9100: Hawaii mit 16GiB und 2,67 TFLOPs DPFP-Leistung / 32GiB ab H2/2015


AnarchX
2014-03-26, 16:22:09
W9100:
VC hat ein paar Bilder der Präsentation: http://videocardz.com/50064/amd-launches-firepro-w9100
W9100 specs: 16GB GDDR5, 275W, 2.67 TFLOPS double precision performance (important for CAE), 320GB/sec.
https://twitter.com/develop3d/status/448864580522213377



Join us at the AMD FirePro™ professional graphics news conference on March 26 via live webcast. The event will be hosted by Matt Skynner, corporate vice president and general manager of the AMD Graphics Business Unit.

http://www.media-server.com/m/go/AMDFirePro


Ob es auch mal bei AMD einen weiten Ausblick in die Zukunft gibt?

Skysnake
2014-03-26, 16:24:03
Wäre schön, aber wirklich arg viel mehr als von nVidia wird man auch nicht hören.

3D-Stacked RAM auf dem gleichen Package wie die GPU ist eigentlich nur ne Frage, wann man es bringen wird, nicht ob.

Naja, und ansonsten ist halt die Frage, ob man HT, oder was vergleichbares endlich für die Anbindung der dGPUs bringt, bzw halt mal endlich richtig! fette APUs. Auch gerne als MCM.

M4xw0lf
2014-03-26, 16:27:37
Da wird es doch erstmal überhaupt nur um Profi-Hawaii gehen.

Mandalore
2014-03-26, 16:56:43
Perfekter Zeitpunkt um die Titan Z zu kontern und Nvidia durch nen guten Preis alt aussehen zu lassen:cool:

fondness
2014-03-26, 17:00:13
Da geht es wohl nur um FirePRO-Karten.

AnarchX
2014-03-26, 17:26:15
W9100: 2,6 TFLOPs DP, 16GB.
Nett.

Nakai
2014-03-26, 17:26:49
W9100 wird vorgestellt, war aber auch klar.

Über 2TFLOPs DP-Precision...da sind die DP1:2. :D

€: DP pro Watt dürfte damit durch die Decke schießen. Mit Hawaii hat AMD die GCN-Architektur schon ziemlich stark optimiert. 2816SPs mit DP1:2 bei 438mm².

€: DP-Performance pro Watt bei spekulierten 250W TDP wird schon bei etwa 8-10 DP-FLOPs/Watt enden. Nvidia K6000 kommt auf 7,68 DP-Flops/Watt

AnarchX
2014-03-26, 17:58:51
Kein Titan Z Konter. Mal abgesehen von der wohl gleichen DP-Leistung.:D

VC hat ein paar Bilder der Präsentation: http://videocardz.com/50064/amd-launches-firepro-w9100

Nakai
2014-03-26, 18:01:35
Kein Titan Z Konter. Mal abgesehen von der wohl gleichen DP-Leistung.:D

VC hat ein paar Bilder der Präsentation: http://videocardz.com/50064/amd-launches-firepro-w9100

Einen Nachfolger der S10000 wird es irgendwann bestimmt auch geben.

Interessant ist wohl, dass man keine "genauen" Daten genannt hat. Der Chip taktet wohl dynamisch. Für DP-Berechnungen könnte der Takt schon noch ein Stück absinken.

€: Die DP-Leistung ist schon hart und einmalig. Ich sehe auch keine sonderliche Konkurrenz seitens NV in nächster Zeit.

M4xw0lf
2014-03-26, 18:06:04
1:2 DP ist also echt an Bord. Hart.

AnarchX
2014-03-26, 18:06:30
W9100 specs: 16GB GDDR5, 275W, 2.67 TFLOPS double precision performance (important for CAE), 320GB/sec.
https://twitter.com/develop3d/status/448864580522213377

Nakai
2014-03-26, 18:09:39
Ich würd gerne die TDP sehen. Wird wohl bei ~300W enden. Die W9000 hat schon 274W Max Power.

€: 275W...steht ja drüber. Also 9,7 DP-Flops/Watt...:eek:

Blediator16
2014-03-26, 18:14:37
2999$ sage ich :D

AffenJack
2014-03-26, 18:29:31
Wieso sollten sie die für 3000$ verramschen? Sie haben klar die schnellste Karte aufn Markt und W9000 hat auch 3999$ gekostet. Gehe bei W9100 genauso von 3999$ aus.

Pirx
2014-03-26, 18:36:09
eine neue Firepro-APU fehlt irgendwie auch noch

fondness
2014-03-26, 18:55:10
Hawaii hat tatsächlich 1:2 DP-Verhältnis, dagegen ist GK110 eine Transistorschleuder.

Thunder99
2014-03-26, 19:28:28
Aber effizienter und schneller wenn man die Leistung bei Spielen betrachtet. Wie es im Profi-Segment aussieht hab ich aber leider keinen blassen Schimmer :redface:

Knuddelbearli
2014-03-26, 19:38:02
Aber effizienter und schneller wenn man die Leistung bei Spielen betrachtet. Wie es im Profi-Segment aussieht hab ich aber leider keinen blassen Schimmer :redface:


effizienter dank niedriger Temperatur dank größeren DIE da eben mehr DIE verschleudert, könnte man jetzt sagen wenn man fies wäre ^^
Und wo ist die Leistung höher? die nehmen sich +/- 2-3% doch nichts

M4xw0lf
2014-03-26, 20:08:27
Wo ist eigentlich Skysnake? Ist der schon über 1:2 DP rate so hart am Feiern, dass er nicht mehr schreiben kann? :D

fondness
2014-03-26, 20:19:31
Hier gibts die gesamte Präsentation und alle Folien in hoher Auflösung:
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-EventDetails&EventId=5117415

Skysnake
2014-03-26, 20:25:08
Wo ist eigentlich Skysnake? Ist der schon über 1:2 DP rate so hart am Feiern, dass er nicht mehr schreiben kann? :D
Fast ;)

Ich muss mich halt auch bischen ums Frauchen kümmern, und nach nem 10h Arbeitstag, brauch der Kopf auch mal ne kleine Pause.

Aber ja, die 1:2 sind richtig geil :biggrin:

Ich war mir ja ziemlich sicher, das 1:2 kommen wird, aber eben nicht ganz, und zuletzt bin ich ja doch auch hin und wieder auf die NAse geflogen, da wird man vorsichtig.

Wenn man sich den Chip jetzt anschaut, auf jeden Fall sehr beeindruckend, was die in den kleinen Chip so alles reingepackt haben. Da muss man sagen chapo. Wirklich ne krasse Leistung.

Die 16GB RAM waren eigentlich klar. Ich bin auch grad am überlegen, ob ich meinen neuen AMD Kontakt nutzen soll, um zu schauen, ob ich für nen kleinen Review an eine ran komm. Mich juckts ja schon RICHTIG! fett in den Fingern, das Teil durch nen OpenCL Benchparcour zu jagen, aber aktuell habe ich einfach nicht die Zeit... Nen Tag hat einfach nur 24h, und wenn man schon 10h+ arbeitet, bleibt da echt nicht mehr viel übrig... -.-

EDIT:
Was mich am Ende dann aber doch jetzt noch mehr ärgert, ist der kleine L2 Cache. Hätten die den so groß gemacht wie nVidia mit GM107, das Ding wäre nicht sooo viel größer geworden, aber soo OMFG!!! geiler. Wirklich schade, das AMD da doch etwas zurückhaltend ist, und nicht in die vollen geht :( Aber 1:2 DP:SP ist auch schon richtig richtig fett, und mehr als man eigentlich von AMD erwartet. ;D

Jetzt noch ENDLICH! die globalen Syncs über Workgroupegrenzen hinweg, und das performant, udn die Rocken übelst das HAus. Dann fehlen eigentlich noch zwei Sachen. RDMA wie bei nVidia mit GPUDirect2 und eben der große L2 Cache. Mehr gibts an der Karte aktuell nicht aus zu setzen/wünschen. Das Design ist einfach richtig schön/geil. Da haben die Ingies richtig geile Arbeit geleistet, und die BWL-Heinis die einfach machen lassen.

Was auch richtig schön ist, das AMD ENDLICH!!!! die Zusammenarbeit mit den Softwareherstellern massiv vorantreibt. Ohne Support von denen geht halt nichts. Das hat nVidia schon vor Jahren erkannt... Ohne Software ist auch die geilste HArdware halt nichts wert. Ich hoffe WIRKLICH! inständig, das AMD da am Ball bleibt.

Kriton
2014-03-26, 20:52:17
Wieso lässt sich PCGH eigentlich derart stark über die Titan Z aus (daraus macht man ja gleich mehrere News), aber kein Wort über die FirePro 9100?
Das Heft erscheint mir da ausgeglichener als die Website.

Felixxz2
2014-03-26, 21:27:44
Krass. Also doch 1:2 DP. Kann mich noch gut an die Diskussionen im Spekuforum erinnern zur DP Rate :D
"Niemals, werden das 1:2, ihr träumt doch alle nur!"
"Wie soll denn das gehen? Dann wär nVidia ja ein Haufen Nichtskönner!"

Tja anscheinend kann AMD zaubern :D

Nakai
2014-03-26, 21:39:01
Krass. Also doch 1:2 DP. Kann mich noch gut an die Diskussionen im Spekuforum erinnern zur DP Rate :D
"Niemals, werden das 1:2, ihr träumt doch alle nur!"
"Wie soll denn das gehen? Dann wär nVidia ja ein Haufen Nichtskönner!"

Tja anscheinend kann AMD zaubern :D

Zaubern kann AMD auch nicht. GCN erlaubt verschiedene DP-Konfigurationen für die Implementierung, von 1:2 bis 1:16. Mit GCN hat AMD eben keine schwache Architektur vorgestellt.
Was deutlich interessanter ist, ist die Größe von Hawaii bzgl was alles drinsteckt.
Gipsel hat ja schonmal eine Auflistung der Größe der einzelnen Bestandteile der GCN-Architektur erstellt. Ich finde es erstaunlich, dass man wohl die Größe einer CU im Vergleich zu Tahiti doch noch etwas reduziert hat und dabei die Leistungsfähigkeit gesteigert hat. Aber genaueres kann man erst mit einem Hawaii-Dieshot beweisen.

Ich hoffe inständig, dass der Softwaresupport nun auch besser werden sollte. AMD ist da teilweise nicht so gut dagestanden und ich hoffe, auch für meine neue mobile Workstation, dass es hier besser wird.^^

fondness
2014-03-26, 21:39:51
Vor allem macht das Ding 9,71 DP-Flops/Watt. NV gibt für den Maxwell Top-Dog in 20nm 12 DP-Flops/Watt an.

Felixxz2
2014-03-26, 21:45:07
Warum benutzt nVidia eigentlich dezidierte DP Units? Was für Vorteile hat das?

fondness
2014-03-26, 21:47:30
Man kann sie vollständig power-gaten, also vom Stromkreis trennen wenn man sie nicht benötigt werden.

Nakai
2014-03-26, 21:48:46
Ich würde mit den Zahlen nicht so sehr rumspielen.
Auf den Folien steht "Over 2TFLOPs Double Precision" und "Over 5TFLOPS of Compute Power". Wenn man definitive Taktraten hätte, hätte man auch die genauen Daten hinschreiben können, was man nicht getan hat. Ergo die Karte taktet wie die 290X dynamisch und bei DP-Berechnungen könnte es sein, dass die Taktraten nochmal nach unten gehen, weil umsonst gibt es nix. ;)

Felixxz2
2014-03-26, 21:49:22
Das ist doch kein Vorteil. Wenn ich sie garnicht erst habe (wie bei AMD) muss ich sie auch nicht gaten oder seh ich das falsch?

@Nakai
Taktraten sind doch Banane. Wichtig ist 1:2 und die DP Flops/W.

fondness
2014-03-26, 21:54:25
Das ist doch kein Vorteil. Wenn ich sie garnicht erst habe (wie bei AMD) muss ich sie auch nicht gaten oder seh ich das falsch?

Naja du brauchst zB eine ziemlich fetten MUL-Einheit um aus zwei FP32 Berechungen eine mit FP64 zu machen. Ob sich deshalb allerdings dezidierte Einheiten rechnen wage ich zu bezweifeln, würde mich nicht wundern wenn sich NV mit Maxwell wieder davon verabschiedet.

Ich würde mit den Zahlen nicht so sehr rumspielen.
Auf den Folien steht "Over 2TFLOPs Double Precision" und "Over 5TFLOPS of Compute Power". Wenn man definitive Taktraten hätte, hätte man auch die genauen Daten hinschreiben können, was man nicht getan hat. Ergo die Karte taktet wie die 290X dynamisch und bei DP-Berechnungen könnte es sein, dass die Taktraten nochmal nach unten gehen, weil umsonst gibt es nix. ;)

Es gibt offiziell auch noch keinen Preis und keine Taktraten. Das war nur eine Art Teaser ähnlich wie beim Hawaii-Launch, die Vorstellung soll "shortly" folgen.

Nakai
2014-03-26, 22:04:03
Naja du brauchst zB eine ziemlich fetten MUL-Einheit um aus zwei FP32 Berechungen eine mit FP64 zu machen. Ob sich deshalb allerdings dezidierte Einheiten rechnen wage ich zu bezweifeln, würde mich nicht wundern wenn sich NV mit Maxwell wieder davon verabschiedet.

GM107 hat jedenfalls immer noch dedizierte DP-Einheiten.

@Nakai
Taktraten sind doch Banane. Wichtig ist 1:2 und die DP Flops/W.

Weil der Stromverbrauch auch linear mit dem Takt skaliert.

Nein, AMDs Gleitkommaeinheiten sind so designt, dass die Latenz bei Berechnungen doppelter Genauigkeit zunimmt. Bei Hawaii steigt die Latenz eben so sehr an, dass ein Ergebnis erst nach zwei Zyklen vorliegt. Bei Tahiti erst nach 4...etc. Ein Double Wert ist ja 64Bit groß, dementsprechend ist ein DP:SP-Verhältnis von 1:2 eigentlich immer erstrebenswert(ich kenn auch keine moderne CPU-Implementierung, welche weniger als 1:2 hätte), weil dann die Gleitkommaberechnungen kein Flaschenhals für die sonstige Architektur ist.
Es wäre interessant zu sehen, wie sich der Stromverbrauch bei Double bzw. Single Berechnungen ändert. Ich könnte mir vorstellen, dass es hier schon messbare Unterschied gibt.

€:
Es gibt offiziell auch noch keinen Preis und keine Taktraten. Das war nur eine Art Teaser ähnlich wie beim Hawaii-Launch, die Vorstellung soll "shortly" folgen.

Warten wir einfach mal ab.

fondness
2014-03-26, 22:07:07
Es wäre interessant zu sehen, wie sich der Stromverbrauch bei Double bzw. Single Berechnungen ändert. Ich könnte mir vorstellen, dass es hier schon messbare Unterschied gibt.


Und worauf beruht diese Vorstellung? Es werden ja keine anderen Einheiten verwendet wie bei NV. Aber dazu werden wohl schon Tests folgen.

Nakai
2014-03-26, 22:14:50
Und worauf beruht diese Vorstellung? Es werden ja keine anderen Einheiten verwendet wie bei NV. Aber dazu werden wohl schon Tests folgen.

Kennen wir die genaue Implementierung der Gleitkommaeinheiten? Es sollten definitiv mehr Transistoren schalten müsse, wenn DP-Berechnungen ausgeführt werden, aber ich bin nur ein Laie mit rudimentären Verilog/VHDL-Kenntnissen und vom Layouten hab ich keine Ahnung.

Aber was anderes:
http://beyond3d.com/showpost.php?p=1837009&postcount=2315

Dave Baumann schreibt half rate DPFP ist Maximum.

fondness
2014-03-26, 22:16:25
Ist auch logisch full-speed FP64 wäre Transistorenverschwendung bei FP32 Berechnungen.

Hugo78
2014-03-26, 22:18:11
GM107 hat jedenfalls immer noch dedizierte DP-Einheiten.

GM107 hat DP-Einheiten?!

Nakai
2014-03-26, 22:36:43
GM107 hat DP-Einheiten?!

Jedenfalls laut PCGH-Review:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/

Double-Precision ist in den Gaming-Chips nach wie vor ein Pro-Forma-Feature und wird mit 1/32-stel des Single-Precision-Durchsatzes ausgeführt. Wie in Kepler zeichnen dafür separate Einheiten verantwortlich.

Skysnake
2014-03-26, 22:40:19
Und?

nVidia erzählt viel, wenn der Tag lang ist, und wie schon bei Kepler glaub ich ihnen das nicht.

Es gibt einfach keinen echten Grund dafür, warum das sinnvoller sein sollte. Man kann ja von den SP Units fast alles wiederverwenden für 1:3 oder 1:4 DP:SP, und selbst für 1:2 muss man nicht soooo arg viel dazu packen.

Ich hatte das ja mal ausgeführt wie breit die Multiplizierer und Addierer sein müssen für DP uns SP. Das ist nicht viel mehr als 2x SP. Deswegen sieht man ja auch bei allen CPUs 1:2 DP:SP.

Knuddelbearli
2014-03-26, 23:11:03
Jetzt stellt euch vor Hawaii wäre so groß wie Gk110 oO
entweder dann nochmal extrem effizienter oder ordentlich schneller

Nakai
2014-03-26, 23:19:04
@Skysnake:
Die Diskussion hatten wir schon des öfteren. Ich glaube, dass NV dedizierte DP-Einheiten einbaut oder für DP zusätzliche dedizierte Logik.

Jetzt stellt euch vor Hawaii wäre so groß wie Gk110 oO
entweder dann nochmal extrem effizienter oder ordentlich schneller

Könnte AMD tun, jedoch sollte AMD erstmal das Frontend und auch das Backend mal aufbohren, das wäre viel wichtiger. Irgendwas hängt da noch, siehe allgemeine Effizienz.


mfg

Hugo78
2014-03-27, 07:36:32
Jedenfalls laut PCGH-Review:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/

Die Dinger gabs bei Kepler auch nur im GK110 (und rudimentär im großen GT200).
Alle anderen kleinen Kepler haben DP als Loop realisiert und das wird 100%ig auch im GM107 so sein.
PCGH schreibt auch über die Technik ansich, also wie ein SMM aufgebaut ist und GM100 mag dann wieder DP Einheiten bekommen,
aber bei kleineren Karten lohnt es nicht. Wozu auch wenn man die DP Leistung gleich wieder beschneidet.
btt...
@ 225W sinds dann immernoch 2,1TFLOPs die W9100 erreicht oder?

fondness
2014-03-27, 08:26:08
Könnte AMD tun, jedoch sollte AMD erstmal das Frontend und auch das Backend mal aufbohren, das wäre viel wichtiger. Irgendwas hängt da noch, siehe allgemeine Effizienz.


mfg

Ich sehe da bei Hawaii keine Nachteile ggu der Konkurrenz. Die 2816 alus ordnen sich dort ein wo man sie erwartet, nämlich vor Titan und hinter einem vollen gk110.

AnarchX
2014-03-27, 09:13:10
Von D. Baumann gibt es noch eine genauere Angabe:
It is half rate DPFP maximum.
http://forum.beyond3d.com/showpost.php?p=1837009&postcount=2315

Schaffe89
2014-03-27, 12:23:38
Könnte AMD tun, jedoch sollte AMD erstmal das Frontend und auch das Backend mal aufbohren, das wäre viel wichtiger. Irgendwas hängt da noch, siehe allgemeine Effizienz.

So schlimm ist das gar nicht, das müssen sie imho gar nicht.
Hawai schlägt sich was die Einheitenauslastung angeht recht gut.
Man liegt bei gleichem Takt mit 2816 Streamprozessoren vor Nvidias GTX 780 und auf Augenhöhe mit Titan.

Felixxz2
2014-03-27, 13:17:24
Der leichte Vorsprung der 780 Ti kommt meistens von den 240 TMUs. Gebencht wird immer in 16x HQ AF, da performen die natürlich besser. Von den ALUs her schenken sich beide nix

dildo4u
2014-03-27, 13:31:29
Tesselation kann auch limitieren siehe Batman Origins,dort ist ne 780TI/780 OC mit PhysX schneller als ne R290X ohne.

http://www.hardwareheaven.com/reviews/1876/pg9/nvidia-geforce-gtx-780-ti-graphics-card-review-batman-arkham-origins.html

Der Benchmark nutzt in der ersten Szene viel Tesselation im Schnee.
http://youtu.be/seZcoYPxLn8

http://international.download.nvidia.com/geforce-com/international/comparisons/batman-arkham-origins/batman-arkham-origins-directx-11-snow-tessellation-comparison-2.html

N0Thing
2014-03-27, 13:59:45
Das Spiel könnte auch generell Nvidia mehr liegen. Ohne extra Test mit/ohne Tessellation kann man das nicht sicher sagen.

Botcruscher
2014-03-27, 14:02:20
Batman ist doch der Sponsortitel von NV schlechthin. Ganz schlecht zum vergleichen.

fondness
2014-03-27, 14:54:45
1000Mhz bei SP, 950Mhz bei DP:

Well that was fun! #AMDFirePro W9100 16GB / Eyefinity 6 4K / 2.67TFLOPS DP / 5.6TFLOPS SP / Great Industry relations with leading Pro ISV's

https://twitter.com/cavemanjim/status/448866302896377856

2,67 TFLOPS DP ist übrigens exakt der Wert den die Titan Z mit zwei vollen GK110 und 375W erreicht, Zufall? :)

Felixxz2
2014-03-27, 16:08:46
Aua, aua, aua. Das tut weh

HOT
2014-03-28, 09:34:19
Wenn man jetzt noch bedenkt, dass der Chip wahrscheinlich sogar eigentlich 3072 Shader hat... aber der wird wohl erst mal nicht in Vollausbau erscheinen, ist ja bei GK110 A auch nicht passiert. Auf jeden Fall erklärt das, warum Hawaii soviel Saft braucht. Als Spieler wär mir aber eine 3072 Shader Karte mit 1/16 lieber :D.

AnarchX
2014-03-28, 09:35:18
Wenn man jetzt noch bedenkt, dass der Chip wahrscheinlich sogar eigentlich 3072 Shader hat... aber der wird wohl erst mal nicht in Vollausbau erscheinen, ist ja bei GK110 A auch nicht passiert.
http://forum.beyond3d.com/showpost.php?p=1817984&postcount=2269 Diese Spekulation sollte man damit beenden.

Raff
2014-03-28, 09:40:41
Wieso lässt sich PCGH eigentlich derart stark über die Titan Z aus (daraus macht man ja gleich mehrere News), aber kein Wort über die FirePro 9100?
Das Heft erscheint mir da ausgeglichener als die Website.

Titan Z: Spieler-Karte. Fire Pro: nicht. That's it. ;)

MfG,
Raff

M4xw0lf
2014-03-28, 09:57:41
Titan Z: Spieler-Karte. Fire Pro: nicht. That's it. ;)

MfG,
Raff

Im PCGH-Forum finden sich dagegen schon wieder ein paar, die den albernen Preis damit verteidigen, dass die Titan Z ja gar nicht für Spieler, sondern für Profis gedacht ist :freak:

Skysnake
2014-03-28, 11:21:50
Ja, das ist echt ein bischen naja.

Nakai
2014-03-28, 12:10:45
Bekommt die Titan Z professionelle Treiber? Ansonsten kann ich nirgends den Zusatz "Quadro" bei der Titan Z lesen...:freak:

Ahja noch was...
@Skysnake:
Ich hatte das ja mal ausgeführt wie breit die Multiplizierer und Addierer sein müssen für DP uns SP. Das ist nicht viel mehr als 2x SP. Deswegen sieht man ja auch bei allen CPUs 1:2 DP:SP.

Ein Double-Wert hat 64 Bit, da darf die Berechnung ruhig doppelt so lang dauern bzw. der Durchsatz nur halb so groß sein, das Ergebnis ist auch doppelt so groß.
Sonst wär man wieder Register-, Cache-, Speicher- Bandbreiten und Größen limitiert. Dass es sonst keine Einbußen gibt, müsste man bei Doublemodus auch "geheime" Datenpfade und Speicher aktivieren.

Das ist auch ein Grund, warum ich bei Hawaii den Stromverbrauch bei Double Berechnungen etwas genauer anschauen möchte.

Skysnake
2014-03-28, 12:35:25
Du brauchst für ne DP Mul aber breiter Addierer und multiplizierer als für zwei SP Muls.

1:2 bekommt man wirklich nicht quasi komplett vor free. Die ALUs müssten etwas breitere Einheiten haben, für die Zwischenberechnungen, auch wenn die Ergebnisse gleich breit sind im Endeffekt.

Felixxz2
2014-03-28, 17:01:50
Titan Z: Spieler-Karte. Fire Pro: nicht. That's it. ;)

MfG,
Raff

Die Titan Z ist wirklich alles nur keine Spielerkarte. EVGA bringt jetzt (offiziell bestätigt) auch ne 780 Ti mit 6GB, warum sollte ich mir statt zwei davon im SLI die Titan Z holen? Fürs 3 fache Geld?
Von bereits erhältlichen 290X und Titan Black/780 Ti ganz zu schweigen.

dildo4u
2014-03-28, 17:15:09
Für Leute mit Kohle die ein 4K HTPC brauchen,der Markt stimmt auch wer jetzt ein 4K Display hat auch genug Kohle für Titan Z und will nativen 4K Kontent.Das sind Heute fast nur Games.

Ein Beispiel für Ultra High-End HTPC.
http://www.anandtech.com/show/6763/highend-meets-small-form-factor-geforce-titan-in-falcon-northwests-tiki/2

Eine 780Ti ist einfach zu Schwach für 4k auch wenn dir NV was anderes erzählt.BF4@Ultra kannste vergessen.

mczak
2014-03-28, 17:25:59
Du brauchst für ne DP Mul aber breiter Addierer und multiplizierer als für zwei SP Muls.

1:2 bekommt man wirklich nicht quasi komplett vor free. Die ALUs müssten etwas breitere Einheiten haben, für die Zwischenberechnungen, auch wenn die Ergebnisse gleich breit sind im Endeffekt.
Bei den Addiereren ist der Zusatzaufwand sehr gering - selbst der Cayman Chip hatte schon 1:2 DP:SP Rate für Add. Bei den Multiplizieren sieht das aber anders aus - vierfacher Aufwand für doppelte Menge Bits.
Es ist übrigens nicht wahr dass alle CPUs 1:2 DP/SP Rate haben. Der Atom (sowohl alte wie neue Silvermonts) haben ja 128bit SIMD-Einheiten, allerdings bloss 64bit SIMD-Multiplizierer (Achtung im Optimization Guide sind die Instruction Latency Zahlen da arg durcheinander geraten, und das bei beiden Atoms...). Dieser 64bit Multiplizierer hat aber nicht dieselbe Rate für DP wie SP, ein MULPS benötigt 2 Takte, ein MULPD aber 4 (also ein Viertel DP:SP Rate). Ist auch bei Bobcat/Kabini genau gleich (ausser dass Kabini tatsächlich 128bit SIMD-Multipliziereinheit hat, also 1 Takt für MULPS, 2 für MULPD). So gesehen ist eine 1:2 DP:SP Rate bei Multiplikationen für einen Grafikchip schon sehr bemerkenswert.

Skysnake
2014-03-28, 18:38:02
SIMD != stink normale FP-Unit.

Das gerade bei kleinen CPUs die SIMD-Units beschnitten werden, oder eventuell sogar gar nicht vorhanden sind, ist wieder was ganz anderes, als stink normales x87

Ansonsten such ich das wohl doch nochmal raus mit dem SP DP Verlgiech.

Black-Scorpion
2014-03-28, 18:52:39
Für Leute mit Kohle die ein 4K HTPC brauchen,der Markt stimmt auch wer jetzt ein 4K Display hat auch genug Kohle für Titan Z und will nativen 4K Kontent.Das sind Heute fast nur Games.

Ein Beispiel für Ultra High-End HTPC.
http://www.anandtech.com/show/6763/highend-meets-small-form-factor-geforce-titan-in-falcon-northwests-tiki/2

Eine 780Ti ist einfach zu Schwach für 4k auch wenn dir NV was anderes erzählt.BF4@Ultra kannste vergessen.
Dann nimmt man zwei 780Ti hat mehr Leistung und einen Tausender gespart.

Knuddelbearli
2014-03-28, 22:47:13
eher merh die 780TI 6Gb wird wohl kaum gleichviel kosten wie die Titan Black

Raff
2014-03-29, 11:07:58
Anscheinend wurde Nvidia von seinen Partnern ziemlich unter Druck gesetzt. Die Titan Black ist ein neues, aber sinnloses Produkt ab dem Tag, an dem es 6-GiB-Versionen der GTX 780 Ti mit OC und Custom-Kühler für 700-800 Euro gibt.

MfG,
Raff

samm
2014-03-29, 17:53:56
Seit wann sind 700-800 € ein vernünftiger Preis? Gratulationen nVidia, dank Titan und der nachfolgenden Zeit habt ihr es geschafft, die Relationen total zu verschieben :ugly:

Raff
2014-03-29, 17:55:53
Von Vernunft hat hier keiner gesprochen (die Zeiten sind vorbei X-D), die Preise habe ich nur anhand der dicksten 3-GiB-Tis prognostiziert, die zwischen 650 und 720 Euro kosten.

MfG,
Raff

Iruwen
2014-03-29, 19:39:34
So teure Karten sind absolut nichts Neues.

HarryHirsch
2014-03-30, 01:15:04
Im Gamersegment? Die Karte ist selbst für ne Profi-Karte Überteuert.
Ne W9100 ist schneller (mit zwei kleineren GPUs). Zieht weniger und ist überhaupt einfach nur 1337.

NV kann nicht ATi und wird es niemals sein.
Kleine Pissa Grakas sind das.

Effe
2014-03-30, 01:20:51
Die W9100 ist keine Dualkarte! Wie kommt es zu dieser Annahme?
Zum Rest enthalte ich mich, da spricht wohl der Fusel...

mczak
2014-03-30, 01:33:46
SIMD != stink normale FP-Unit.

Das gerade bei kleinen CPUs die SIMD-Units beschnitten werden, oder eventuell sogar gar nicht vorhanden sind, ist wieder was ganz anderes, als stink normales x87

Ansonsten such ich das wohl doch nochmal raus mit dem SP DP Verlgiech.
Dir ist aber schon klar dass die x87 fpu nur noch aus Komaptibilitätsgründen vorhanden ist, und z.B. unter manchen 64bit OS quasi kaum nutzbar ist?
Es gibt ja keine SP x87 Befehle also gibt es logischerweise auch keinen Vergleich SP:DP. Aber der Durchsatz bei x87 ist da jetzt nicht so der Hammer, Bobcat/Jaguar kriegen bloss 1 FMUL alle 3 Takte hin (die Adds brauchen bloss 1 Takt). Das im Vergleich zum mulsd (skalar double mul) auf der SIMD-Einheit das 2 Takte benötigt, gegenüber 1 Takt für mulss (skalares float mul). Klar das gibt 1:2 Rate wenn du bloss die skalaren Befehle der SIMD-Einheit vergleichst, aber diese Betrachtung macht nun wirklich keinen Sinn.
Vom Atom rede ich jetzt gar nicht da erübrigt sich die Diskussion sowieso hat der doch massive Probleme im Decoder bei x87 Befehlen, und intel warnt gegen Verwendung von x87. Bei den skalaren Befehlen auf der SIMD-Einheit sieht's ähnlich aus wie bei Bobcat/Jaguar (1 Takt für skalares SP mul, 2 für skalares DP mul).
Dass bei kleinen CPUs die SIMD Einheiten weggespart werden wäre mir auch neu, der Trend geht klar in eine andere Richtung (es sei denn du sprichst von irgendwelchen special-purpose Chips z.B. die Cortex-a9 in den bcm-4708 SOCs die in heutigen Routern stecken haben kein NEON). Das illustriert doch gerade auch der alte Atom, die SIMD-Einheit ist im Prinzip leistungsfähiger als alles vor Core 2 Duo (denn die ist, mit Ausnahme der Multiplizereinheit, tatsächlich auch physikalisch schon 128bit breit).

Akkarin
2014-03-30, 01:35:33
W9100 hat dank 1:2 afaik trotzen die selben DPFlops wie die Z.

HarryHirsch
2014-03-30, 01:38:18
Das ist ja das pikante an der Sache. ATi braucht nur eine GPU.

Einmal ATi immer ATi. Die NV-Spinner saugen so hart.

Nakai
2014-03-30, 13:02:58
Dir ist aber schon klar dass die x87 fpu nur noch aus Komaptibilitätsgründen vorhanden ist, und z.B. unter manchen 64bit OS quasi kaum nutzbar ist?
Es gibt ja keine SP x87 Befehle also gibt es logischerweise auch keinen Vergleich SP:DP. Aber der Durchsatz bei x87 ist da jetzt nicht so der Hammer, Bobcat/Jaguar kriegen bloss 1 FMUL alle 3 Takte hin (die Adds brauchen bloss 1 Takt). Das im Vergleich zum mulsd (skalar double mul) auf der SIMD-Einheit das 2 Takte benötigt, gegenüber 1 Takt für mulss (skalares float mul). Klar das gibt 1:2 Rate wenn du bloss die skalaren Befehle der SIMD-Einheit vergleichst, aber diese Betrachtung macht nun wirklich keinen Sinn.
Vom Atom rede ich jetzt gar nicht da erübrigt sich die Diskussion sowieso hat der doch massive Probleme im Decoder bei x87 Befehlen, und intel warnt gegen Verwendung von x87. Bei den skalaren Befehlen auf der SIMD-Einheit sieht's ähnlich aus wie bei Bobcat/Jaguar (1 Takt für skalares SP mul, 2 für skalares DP mul).
Dass bei kleinen CPUs die SIMD Einheiten weggespart werden wäre mir auch neu, der Trend geht klar in eine andere Richtung (es sei denn du sprichst von irgendwelchen special-purpose Chips z.B. die Cortex-a9 in den bcm-4708 SOCs die in heutigen Routern stecken haben kein NEON). Das illustriert doch gerade auch der alte Atom, die SIMD-Einheit ist im Prinzip leistungsfähiger als alles vor Core 2 Duo (denn die ist, mit Ausnahme der Multiplizereinheit, tatsächlich auch physikalisch schon 128bit breit).

Ja, das ist mittlerweile ziemlich komisch, was da geschieht. Die X87-FPU ist eine Stack-Maschine, keine Registermaschine, aber die einzelnen "Register" wurden aus Kompatibilitätsgründen zu den MMX-Registern und auch wohl SSE-Registern. Wenn man mit Assembler rumspielt, kann man ziemlich viel Unsinn treiben.^^
Die Latenz von X87-Instruktionen ist sowieso nicht wirklich genau bestimmbar, wenn man sich nicht das X87-CW genau anschaut.
Wer die X87-FPU noch benutzt ist selber schuld...lasst das Ding endlich sterben...

Einmal ATi immer ATi. Die NV-Spinner saugen so hart.

NV kann nicht ATi und wird es niemals sein.
Kleine Pissa Grakas sind das.

:freak:
http://www.youtube.com/watch?v=Ji3KnMbZVss#t=0m15s

Fragman
2014-03-30, 14:03:24
Das ist ja das pikante an der Sache. ATi braucht nur eine GPU.

Einmal ATi immer ATi. Die NV-Spinner saugen so hart.

was bleibt ati auch anderes uebrig als mit zahlen zu glaenzen?
die haben (wollten) kein cuda. also muessen sie zb 16 gb raufpacken, nvidia muss das nicht, denen reichen 6, leider.
wird aber ati auch nicht helfen mehr zu verkaufen wenn alle ueber cuda gehen.

Knuddelbearli
2014-03-30, 14:07:02
was hat Ram mit Cuda zu tun? oO
Abgesehen davon ist CUDA auf dem Absteigenden Ast, wenn auch sehr langsam da NV da gut reinbuttert.

Unicous
2014-03-30, 14:12:47
was bleibt ati auch anderes uebrig als mit zahlen zu glaenzen?
die haben (wollten) kein cuda. also muessen sie zb 16 gb raufpacken, nvidia muss das nicht, denen reichen 6, leider.
wird aber ati auch nicht helfen mehr zu verkaufen wenn alle ueber cuda gehen.

Du bist also auch einer dieser Verschwörungstheoretiker die glauben AMD hätte CUDA verschmäht weil es von Nvidia kommt.;D

Occam's Razor ist dir bekannt?

Fragman
2014-03-30, 14:20:18
was hat Ram mit Cuda zu tun? oO
Abgesehen davon ist CUDA auf dem Absteigenden Ast, wenn auch sehr langsam da NV da gut reinbuttert.

ganz einfach, die muessen gegenueber nv besser dastehen weil sie kein cuda haben. irgendwas muss sie ja abheben und sie versuchens halt so.

Du bist also auch einer dieser Verschwörungstheoretiker die glauben AMD hätte CUDA verschmäht weil es von Nvidia kommt.;D

Occam's Razor ist dir bekannt?

und auch fuer dich nochmal, nv hatte amd cuda angeboten aber amd hat abgelehnt. kannst das gern als verschwoerung herunterspielen, aber so lief das damals. nv will karten verkaufen und lizensen, ich glaub das verstehen einige leute einfach nicht. denen ist es egal ob die konkurenz das nutzt solang sie dafuer bezahlen.

Unicous
2014-03-30, 14:52:39
Erzähl mir doch bitte keinen Blödsinn und verkaufe es als Fakten.

Als Nächstes kommst du mir mit: Nvdia wollte unbedingt seinen proprietären PhysX und Co. Mist an AMD lizensieren, aber AMD ist einfach nur bockig.

AMD ist in der Khronos Group, genauso wie Nvidia. Dass sie CUDA nebenbei entwickelt haben und daraus Kapital schlagen ist völlig in Ordnung, aber bitte komm mir nicht mit Nvidia wollte ja, aber AMD nicht.

Ich will dafür Fakten sehen und nicht irgendwelche schmierigen PR-Aussagen von Nvidia und AMD und Co. oder Interpretationen der gleichen. Ich will handfest auf dem Tisch filettiert eine Aussage, das Nvidia in aller Unschuld AMD einen FRAND (http://en.wikipedia.org/wiki/Reasonable_and_non-discriminatory_licensing) Vertrag unterbreitet hat und AMD abgelehnt hat.

Was ich damit meine? Einen Vertrag/ein Angebot/Verhandlungen indem AMD CUDA lizensieren kann ohne seine Seele zu verkaufen. Und das gibt es nicht. Pasta.

Was Nvidias Schmierlappen dazu sagen und was AMDs Lappen darauf antworten interessiert mich nicht. Du solltest wissen, dass die lügen bis sich die Wafer biegen.

Knuddelbearli
2014-03-30, 14:57:14
auch für dich nochmal AMD wollte CUda aber NV wollte nicht da sie lieber was proprietäres wollten um damit ihre überteuerten Grafikkarten verkaufen zu können.

Quelle die selbe wie bei dir Fragman ^^

Ansonsten die W9100 ist weit effizienter und schneller in DP als alles was NV hat wieso sollten sie jetzt extra den Speicher groß machen damit sie damit Punkten können? :freak:

Skysnake
2014-03-30, 14:58:40
Ähm... reden wir über das gleiche nVidia, oder gibts da noch ne GPU-Firma, die rein zufällig genauso heist wie das "Wir-mauern-und machen-alles-so-dicht-und-propritär-wie-nur-irgend-machar"-nVidia? :confused:

Sorry, aber wenn nVidia eins nicht macht, dann ihre Produkte für andere öffnen.

Fragman
2014-03-30, 15:28:53
amd hat das angebot von nv nicht angenommen.
ich weiss nicht was das hier soll, warum mythen gesponnen werden. amd hat das angebot nicht angenommen, damit aus meiner sicht den professionellen bereich in weiten teilen aufgegeben, zumindest was cuda angeht.
natuerlich kann man heute sagen das es haette anders laufen koennen fuer cuda, das man das so nicht vorhersehen konnte, aber rueckblickend war es ein fehler. und diesen fehler versuchen sie mit solchen produkten eben etwas auszugleichen. da nv mit cuda allein dasteht koennen sie halt auch das machen was sie wollen in dem bereich. das schliesst halt einen preis von 3k ein fuer die z. keine konkurenz in dem bereich. so laeuft das eben.

wie die vertraege ausgesehen haetten interessiert hier nicht aus verbrauchersicht. das ist ein problem zwischen nv und amd. wenn amd nicht wollte ist das ok, das aber schoenzureden wenn zig leute keine ati kaufen weil eben cuda fehlt sollte man das auch mal akzeptieren und nicht wieder auf den boesen konzern schimpfen. ati kuemmert sich ja auch nicht um solche probleme, das sag ich als ex ati user.

Unicous
2014-03-30, 15:41:08
Es gab nie eins. Verdammt noch mal.

Ich will Beweise. Komm mir nicht mit "amd hat das angebot von nv nicht angenommen".

Das einzige, das je dazu gesagt wurde, war "AMD kann gerne kommen und es sich lizensieren, nur haben sie uns nie kontaktiert". Und das kam vom allseits eloquenten Roy Taylor, wenn ich mich recht entsinne. Und der ist jetzt bei AMD.:freak:

Ich möchte Quellen und Belege. "Dein Wort" ist mir nicht genug.
Du erzählst Märchen. Bei Mythen kann man wenigstens davon ausgehen, dass es einen gewissen historischen Kern hat.

AMD kann nicht ablehnen was ihnen nie angeboten wurde. Und sie werden auch nicht bei Nvidia vor die Tür kriechen und fragen ob sie bitte gegen Geld ihre proprietäre Scheiße lizensieren können.

CUDA ist ein convenience-Produkt. Zu der Zeit als Nvidia einfach mal die OpenCL-Gruppe hintergangen hat gab es kein GPGPU. Deswegen haben sich alle darauf geschmissen wie ein Haufen vergoldeter Scheiße.

Und nun sind die Leute einfach zu bequeme zu wechseln, auch weil CUDA sich natürlich weiterentwickelt hat und Nvidia Support (*hustundKohlehust*) für ihr Produkt bietet. Bei OpenCL und der Khronos Group bist du ja schon so gut wie verloren.

CUDAs Erfolg fußt auf Faulheit und Inkompetenz der Anderen. Und dass sich AMD nicht vor Nvidias Karren spannen lassen will und dafür auch noch Kohle abdrücken soll, ist mehr als logisch.

Iruwen
2014-03-30, 16:09:25
Dafür, dass Nvidia die Leute flächendeckend bezahlt damit sie CUDA benutzen gibt es sicher auch Belege. Klingt total abwegig, aber vielleicht ist CUDA einfach gut?

Unicous
2014-03-30, 16:54:41
Ich weiß ja nicht ob du CUDA jetzt nur als die Profischnittstelle für GPGPU-Programmierer siehst, aber CUDA wird auch für GameWorks genutzt, TWIMTBProgrammed. CD Projekt RED freut sich sicherlich über die Zusammenarbeit.

So wie Nvidia arbeitet, gehe ich jedenfalls davon aus, dass das auch im "Profisegment" so funktioniert. Hier habt ihr Entwicklungshilfe damit eure tools CUDA-enabled sind.

Bei Adobe und AMD könnte ich mir Ähnliches vorstellen.


Aber nein, konkrete Quellen dazu habe ich nicht, habe ja auch nur gehustet.

StefanV
2014-03-30, 17:07:17
amd hat das angebot von nv nicht angenommen.
Gab es denn jemals eins?

Soweit ich weiß, gabs nur einen kleinen Furz von nVidia, der irgendwie die Gemüter beruhigen sollte und seit dem von den ganzen nV Fans rumgetragen wird. PCGH hat darüber AFAIR auch mal berichtet. War glaub ich irgendein Batman artikel.

NUR: Sagen kann man viel. Und ob die Bedingungen fair sind, ist die andere Frage. Denn wir wissen ja alle, woran die Fusion von AMD und nV gescheitert ist, oder??

Wie dem auch sei: nVidia wird einen Teufel tun, ihr Proprietäres Zeugs, dass sie noch vor dem Hungertod bewahrt, zu lizensieren. Das wird niemals passieren. Warum?
Ganz einfach: Weil man sich deswegen noch über Wasser halten kann! Was glaubst du, würde passieren, wenn man kein CUDA mehr hätte und man mit AMD eine gemeinsame Schnittstelle hätte?!
RICHTIG, wenn AMD solch einen Klopper wie eine Hawaii mit 1:2 DP auf den Markt schmeißen würde, würden alle ihre nVidia Produkte verhauen und AMD in den Rechner tun - dank CUDA können sie es nicht. Das ist der Grund...

Fragman
2014-03-30, 17:36:20
Gab es denn jemals eins?

Soweit ich weiß, gabs nur einen kleinen Furz von nVidia, der irgendwie die Gemüter beruhigen sollte und seit dem von den ganzen nV Fans rumgetragen wird. PCGH hat darüber AFAIR auch mal berichtet. War glaub ich irgendein Batman artikel.

NUR: Sagen kann man viel. Und ob die Bedingungen fair sind, ist die andere Frage. Denn wir wissen ja alle, woran die Fusion von AMD und nV gescheitert ist, oder??

Wie dem auch sei: nVidia wird einen Teufel tun, ihr Proprietäres Zeugs, dass sie noch vor dem Hungertod bewahrt, zu lizensieren. Das wird niemals passieren. Warum?
Ganz einfach: Weil man sich deswegen noch über Wasser halten kann! Was glaubst du, würde passieren, wenn man kein CUDA mehr hätte und man mit AMD eine gemeinsame Schnittstelle hätte?!
RICHTIG, wenn AMD solch einen Klopper wie eine Hawaii mit 1:2 DP auf den Markt schmeißen würde, würden alle ihre nVidia Produkte verhauen und AMD in den Rechner tun - dank CUDA können sie es nicht. Das ist der Grund...

ich kann es nur fuer cuda sagen und das angebot gab es. nv gibt ihr zeug an konkurenten raus solang sie darin einen vorteil fuer sich sehen. hauptaugenmerk fuer nv ist das verkaufen ihrer hardware oder eben lizensen ihrer tech. da passiert es dann auch mal das man der konkurenz direkt hilft bei der implementierung. ich merk das immer wieder das man das auf ati vs evil nv reduziert.

leider war es amd in dem fall von cuda die es nicht wollten und bis heute nicht wollen (unter welchen umstaenden es amd bekommen haette ist mir als endkunde ziemlich egal, das muessen sie unter sich ausmachen). es ist ja auch ok, deren entscheidung. die amd kunden sind jetzt die die auf nv schimpfen, was verstaendlich ist. amd lehnt sich zurueck und freut sich weil deren kunden nicht amd anbellen sondern eben nv.

wenn amd heute cuda haette, und sie wuerden solche produkte auch dann noch releasen, wuerde nv reagieren und wir haetten mehr fuers gleiche geld. das ist ja auch meine kritik an dem ganzen. ich kann mit so einer amd karte nicht viel anfangen ohne cuda auch wenn ich gern 16 gb zum rendern onboard haette. ich kann hoechstens enweder fuer 1k 6gb bekommen oder fuer 5 oder 6k 12 bei nv.
bei einer 16gb amd cuda karte haetten wir auch eine 16gb nv karte oder sogar eine mit mehr ram.

Unicous
2014-03-30, 17:38:52
Quelle!!!

Skysnake
2014-03-30, 17:47:50
Fragman, und deswegen vernachlässtigt, man könnte sogar sagen sabotiert nVidia auch OpenCL, welches ja genau das alles bringt, was CUDA für AMD gebracht hätte und sogar noch mehr... In OpenCL hat ja nVidia ihre Erfahrung mit CUDA ja auch eingebracht bzgl der API an sich....

Du spielst hier: Ich male mir die Welt wie Sie mir gefällt.

Fragman
2014-03-30, 18:00:59
Du spielst hier: Ich male mir die Welt wie Sie mir gefällt.

du kannst das glauben, dagegen kann und will ich nichts sagen. :wink:

Nakai
2014-03-30, 18:13:21
Vll gab es ein Angebot, nur einem geschenktem Gaul schaut man nicht ins Maul...womöglich hat das AMD getan und das Angebot als Humbug abgetan.;)

Welche Gründe gibt es eigentlich für CUDA gegenüber von OpenCL, abseits dem sehr gutem Support seitens NV?

StefanV
2014-03-30, 18:30:28
du kannst das glauben, dagegen kann und will ich nichts sagen. :wink:
Hast du für deine Aussagen irgendwelche Belege? Hast du Infos zu den Verträgen? Hast du Infos darüber, wie die Bedingungen ausschauten?

Nur mal ein Beispiel:
Man könnte zum Beispiel sagen, dass nVidia nur den Code der letzten Version an AMD rausrücken würde, die das ganze dann anpassen könnten.
Und auch ist die Frage, ob AMD das ganze überhaupt auf ihre Teile portieren können.
Und dann ist dan och die Frage des Geldes. Wieviel wollte nVidia dafür?! 10 Mio pro Jahr??


So hart es auch klingt, aber mehr als die Aussage von irgendeinem PR Heini gab es da nicht. Es mag vielleicht auch ein Angebot gegeben haben, aber wer sagt, dass es nicht ein rhetorisches ist? Mit Bedingungen, die einfach mal gar nicht gehen?

Da kannst auch noch 100 Postings verfassen, ohne irgendwelche Belege wird das nichts ändern...

Und somit bleiben wir dabei:
Es gab kein (vernünftiges) Angebot von nVidia bezüglich CUDA. Man sabotiert ja auch OpenCL seit einiger Zeit. Was glaubst du wohl, warum man das macht? WARUM hat man die Unterstützung für OpenCL so sehr zurück gefahren?

Dafür gibts nur eine Erklärung: Man macht einen auf Apple/M$ und versucht 'die anderen' mit dem eigenen Verhalten aus dem Markt fern zu halten. Eben indem man die Entwickler dazu zwingt CUDA zu nutzen, wenn man das eigene Unterstützen möchte und OpenCL nicht zulässt...

N0Thing
2014-03-30, 18:35:21
Für keine These zu diesem Thema (AMD & CUDA) gibt es Belege oder Beweise.

Fragman
2014-03-30, 18:41:36
details hab ich keine, wie das angebot aussah, mit welchen zahlungen und so weiter.

amd wollte ja cuda deshalb nicht weils nicht free war. die wollten einen openstandard, deshalb ja opencl (zumindest offiziell so verbreitet). wieweit nv das sabotiert, keine ahnung. warum sollten sie sich auch darum kuemmern wenn ihnen die firmen die bude einrennen und ihnen die hardware praktisch aus den haenden reissen, trotz der preise? amd haette damals die kroete schlucken sollen. solang opencl nicht so verbreitet ist muessen sie nv das feld ueberlassen. wies in 10 jahren aussieht kann keiner sagen.

zu apple noch ne kleine anmerkung zu deren aktuellen workstations. das wurde ja doch etwas belaechelt das sie aktuell mit ati gehen, eben wegen dem missing cuda.

Unicous
2014-03-30, 18:48:36
@N0Thing

Natürlich. Extra für euch gegooglelt, habe anscheinend ein gutes Gedächtnis für solch einen Klamauk.

Ist zwar meines Erachtens nicht die Quelle die ich meinte, aber die Zitate müssten dennoch ähnlich sein.

I spoke with Roy Taylor, Nvidia’s VP of Content Business Development, and he says his phone hasn’t even rung to discuss the issue. “If Richard Huddy wants to call me up, that’s a call I’d love to take,” he said.http://www.extremetech.com/computing/82264-why-wont-ati-support-cuda-and-physx

Der gute Roy Taylor von AMD sagt, Richard Huddy muss nur bei ihm anrufen. Aber den Anruf hat wohl es nie gegeben.

AMD sagte daraufhin we love Open Source to death, that is why we have Stream. Oder so ähnlich.:wink:

Und hier noch ein paar nette AMD PR snippets

Nvidia, he says, has not shown that they would be an open and truly collaborative partner when it comes to PhsyX. The same goes for CUDA, for that matter.

Und wahrscheinlich auf den scheinheiligen Kommentar von Taylor

Though he admits and agrees that they haven’t called up Nvidia on the phone to talk about supporting PhysX and CUDA, he says there are lots of opportunities for the companies to interact in this industry and Nvidia hasn’t exactly been very welcoming.

So it sounds like support for CUDA or PhysX on ATI graphics cards just isn’t going to happen unless Nvidia picks up the phone first and offers an olive branch, or there is an overwhelming demand from ATI’s customers.


So und jetzt kommst du, Fragman.

Ich habe jetzt genau diese dämlich PR-Kommentare herausgesucht und sie behaupten genau das Gegenteil.

Nvidia hat nichts angeboten oder "angerufen" und AMD hatte auch keinen Bock.

Iruwen
2014-03-30, 18:51:42
Mal am Rande:
3DCenter Forum > Diskussions-Foren > Grafikchips und Grafikkarten
AMD/ATI FirePro W9100: Hawaii mit 16GiB und 2,67 TFLOPs DPFP-Leistung
Das ist nichtmal das richtige Subforum für die Diskussion, geschweige denn der richtige Thread. Macht doch im Spekulationsforum einen Thread dafür auf, mehr als reine Spekulation ist das ja alles eh nicht.

Knuddelbearli
2014-03-31, 05:25:15
Dafür, dass Nvidia die Leute flächendeckend bezahlt damit sie CUDA benutzen gibt es sicher auch Belege. Klingt total abwegig, aber vielleicht ist CUDA einfach gut?

Bezahlt wird da sicher nichts. Aber wenn man Cuda nutzt bekommt man deutlich mehr Unterstützung als wenn man das selbe zB übr OpenCL umsetzen möchte

Iruwen
2014-03-31, 13:09:20
Klar, das nennt sich erstklassiger Support.

Knuddelbearli
2014-03-31, 13:16:16
nicht wenn es parteiisch ist ;-)
Kann man aber natürlich immer so oder so sehen

Iruwen
2014-03-31, 13:25:24
Was heißt "parteiisch", Nvidia ist nicht die Wohlfahrt, die unterstützen primär ihre eigenen Produkte wie jede Firma. Wenn AMD ihnen den Rang ablaufen möchte können sie das ja ganz einfach haben: sie müssen nur besser sein.

Knuddelbearli
2014-03-31, 13:33:21
das eigene Produkt ist die Grafikkarte die auch OpenCL / Gl kann ( was ein offener Standard ist und nicht einem Konkurrenten gehört ) . Das wird auch gekauft und nicht CUDA. Wenn es dann aber nur ( massive ) Unterstützung gibt wenn man CUDA nutzt ist das nunmal parteiisch.

Das nunmal das Problem an Verdongelten Produkten und auch ein Hauptgrund wieso das Wettbewerbsbehörden immer sehr negativ betrachten.

dildo4u
2014-03-31, 13:53:40
NV hat investiert und erntet jetzt kann mich nicht erinnern das gegen DirectX geklagt wurde.Ist doch klar das AMD mit einem offenen Standard kein Land sieht weil sie nich alleine handeln können.

Unicous
2014-03-31, 14:04:49
Du vergleichst eine proprietäre API eines proprietären Betriebsystems das trotzdem alle GPU-Hersteller unter Windows nutzen können, mit einer proprietären Technologie eines Unternehmens, die alle Konkurrenten ausschließt während es einen offenen Standard dafür gibt, der auch noch von eben diesem Hersteller mitentwickelt wurde/wird. Das nenne ich mal Orangen mit Orang Utans vergleichen.

Blediator16
2014-03-31, 14:12:28
Trotzdem hat Nvidia ihren Arsch hochgenommen und CUDA dahin gebracht, wo es jetzt ist. Da soll AMD nun ihren Arsch hochnehmen und OCL pushen, wenn sie es da haben wollen, wo CUDA jetzt ist.

Iruwen
2014-03-31, 14:18:27
das eigene Produkt ist die Grafikkarte die auch OpenCL / Gl kann ( was ein offener Standard ist und nicht einem Konkurrenten gehört ) . Das wird auch gekauft und nicht CUDA. Wenn es dann aber nur ( massive ) Unterstützung gibt wenn man CUDA nutzt ist das nunmal parteiisch.

Das nunmal das Problem an Verdongelten Produkten und auch ein Hauptgrund wieso das Wettbewerbsbehörden immer sehr negativ betrachten.

Quatsch, die Software gehört zum Produkt, sonst wäre es wertloser Elektroschrott. Das taucht sogar in den Dokumenten zum Antitrust Prozess gegen Intel auf:
Admit that Nvidia has stated in filings with the Securities and Exchange Comission that it considers its proprietary software, including CUDA, to be a part of its GPU "solution."

Skysnake
2014-04-01, 07:52:25
Trotzdem hat Nvidia ihren Arsch hochgenommen und CUDA dahin gebracht, wo es jetzt ist. Da soll AMD nun ihren Arsch hochnehmen und OCL pushen, wenn sie es da haben wollen, wo CUDA jetzt ist.
Zwei Sachen dazu:

1. Das ist ja auch so einfach, wenn eben genau diese Konkurrenz mit in den Gremien sitzt, und ziemlich sicher nichts anderes zu tun hat, als die Sache zu torpedieren
2. Ist OpenCL in manchen Bereichen weiter als CUDA. OpenCL 2.0 bietet globale Barriers. CUDA nicht. ;) Was jetzt halt fehlt ist der Treibersupport.

Dural
2014-04-01, 09:38:01
Und was hat Cuda was OpenCL nicht hat?

Skysnake
2014-04-01, 09:43:18
Ähm, das ist jetzt ein 1. April Scherz oder? ;D

Aber ich zitiere es gern nochmal:


2. Ist OpenCL in manchen Bereichen weiter als CUDA. OpenCL 2.0 bietet globale Barriers. CUDA nicht. Was jetzt halt fehlt ist der Treibersupport.

Dural
2014-04-01, 09:57:14
ja und genau auf das habe ich dir eine frage gestellt.

den ich bin mir ziemlich sicher das Cuda auch Sachen bietet die OpenCL nicht hat.

dildo4u
2014-04-01, 10:02:46
Dann scheint AMD die Workstation Sparte nicht sonderlich ernst zu nehmen,die Spec's stehen seit Mitte 2013 fest und es ist kein Treiber da,sogar die W9100 wird nur mit 1.2 angegeben.

Skysnake
2014-04-01, 10:11:11
Wo hast du das gelesen?

Für mich stellt sich halt die Frage, ob AMD nur auf die neue FirePro gewartet hat oder nicht. Und wenn nicht, warum hat Sie kein OCL2.0???

ja und genau auf das habe ich dir eine frage gestellt.

den ich bin mir ziemlich sicher das Cuda auch Sachen bietet die OpenCL nicht hat.
Äh sorry, falsch verstanden.

CUDA bietet RDMA, bzw. eben mit GPUDirect2 eine nähere Kopplung an eine Infiniband-Karte.

An sich ist das aber wieder mehr ne Softwaregeschichte. AMD sollte das mit OpenCL auch können, wenn Sie wollen würden, Sie müssten nur mal zu potte kommen.... :mad:

Ansonsten würde mir jetzt nichts einfallen, was exklusiv noch für CUDA sprechen würde. Spätestens mit OpenCL 2.0 gibts nicht mehr wirklich Gründe pro CUDA, außer halt oben genanntes GPUDirect2

Locuza
2014-04-01, 13:20:56
Kaveri hat auch noch keinen OCL 2.0 Treiber.
AMD hat für Kaveri OCL 1.2 mit paar extensions aufgebohrt um paar Features bezüglich shared memory schon einmal nutzen zu können.

Nakai
2014-04-01, 14:53:27
@Skysnake:
. Ist OpenCL in manchen Bereichen weiter als CUDA. OpenCL 2.0 bietet globale Barriers. CUDA nicht. Was jetzt halt fehlt ist der Treibersupport.

Kannst du bitte einen Auszug aus der Specification oder Kapitel nennen? Ich kann das nirgends genau finden.

Ahja, so wie ich das verstehe, ist OpenCL2.0 nur auf Geräten mit SharedMemory zwischen Host und Device möglich, also SOCs, APUs und HSA-Geräten.

fondness
2014-04-04, 11:01:09
A Who’s Who at NAB 2014 in the AMD FirePro booth showing AMD FirePro W9100 4k workflows
http://fireuser.com/blog/a_whos_who_at_nab_2014_in_the_amd_firepro_booth_showing_amd_firepro_w91000_/

Mancko
2014-04-05, 18:42:21
das eigene Produkt ist die Grafikkarte die auch OpenCL / Gl kann ( was ein offener Standard ist und nicht einem Konkurrenten gehört ) . Das wird auch gekauft und nicht CUDA. Wenn es dann aber nur ( massive ) Unterstützung gibt wenn man CUDA nutzt ist das nunmal parteiisch.


Nvidia ist nicht nur Hard- sondern auch Softwarelieferant. Sie investieren seit Jahren in diesem Bereich und bauen sich ihr eigenes Ökosystem. Etwas was viele andere Hersteller wie Apple auch tun. Es ist nur allzu legitim, dass sie die Früchte dafür ernten. Es stand AMD jederzeit frei zur gleichen Zeit zu investieren und auch OpenCL zu puschen.


Das nunmal das Problem an Verdongelten Produkten und auch ein Hauptgrund wieso das Wettbewerbsbehörden immer sehr negativ betrachten.

Die Wettbewerbsbehörden interessiert CUDA einen Furz. Intel, M$, Apple, Google aller drehen ihr eigenes Ding ohne wenn und aber. Bisher hat sich daran noch keiner so wirklich gestört. Würde Kartellbehörden so etwas stören, dann wäre Nvidia in der Kette doch sehr weit hinten und hätte Jahre Zeit sich anzupassen. Die Behörden wären schlichtweg mit ganz anderen Unternehmen beschäftigt, wie z.B. den zuvor genannten.

Einige müssen echt mal von dem Trip runter kommen, dass bei Grafikkarten alles anders ist und sein muss. Da muss gar nichts. Das ist ein Markt wie jeder andere und da wird mit harten Bandagen gekämpft. Am Ende des Tages ist jeder seines eigenen Glückes Schmied.

Mancko
2014-04-05, 18:48:48
Zwei Sachen dazu:

1. Das ist ja auch so einfach, wenn eben genau diese Konkurrenz mit in den Gremien sitzt, und ziemlich sicher nichts anderes zu tun hat, als die Sache zu torpedieren


Erstens hätte ich dafür gern Belege. Einfach mal so etwas in den Raum stellen ist nicht! Ich glaube eher, dass Nvidia da eine recht passive Haltung einnimmt. Das ist doch in Ordnung. Intel und andere sitzen auch in vielen Gremien. Ich wüsste nicht, dass die dort alle immer als Wohltäter auftreten.


2. Ist OpenCL in manchen Bereichen weiter als CUDA. OpenCL 2.0 bietet globale Barriers. CUDA nicht. ;) Was jetzt halt fehlt ist der Treibersupport.

Scheint Nvidia und den Markt nicht zu stören. Sie entwickeln CUDA weiter und liefern dazu noch eine richtig satte Softwaresuite mit allen möglichen Tools. Und bis jetzt zahlt sich das für sie mehr als ordentlich aus.

fondness
2014-04-05, 18:53:14
Scheint Nvidia und den Markt nicht zu stören.

Definiere nicht stören. Der Marktanteil von AMD steigt das sechste Quartal in Folge, für Ende des Jahres sind 30% anvisiert. Das ist für eine Firma die in diesem Markt bis vor kurzem kaum existent war eine beachtliche Leistung. OpenCL kommt in Folge dessen immer besser in Fahrt.

Mancko
2014-04-06, 00:59:39
Definiere nicht stören. Der Marktanteil von AMD steigt das sechste Quartal in Folge, für Ende des Jahres sind 30% anvisiert. Das ist für eine Firma die in diesem Markt bis vor kurzem kaum existent war eine beachtliche Leistung. OpenCL kommt in Folge dessen immer besser in Fahrt.

Also erstens gibt es dazu derzeit m.E. keine Zahlen die das belastbar belegen und zweitens sind die avisierten 30% eine Zahl die auf dem Apple Deal beruht. Wie konstant Apple an seinen Lieferanten über einen längeren Zeitraum festhält ist hinlänglich bekannt. AMD versucht vielmehr wie überall über den Preis zu kommen. Was anderes haben die schlichtweg auch selten auf ihrer Habenseite. Ist doch im Consumer Segment nicht anders. Für Unternehmen deren Geschäftsmodell zu großen Teilen auf dieser Vorgehensweise beruht habe ich generell nichts übrig. Ist mir einfach zu wenig und alles andere als spannend. Ich glaube Nvidia störts wenig. Sie preisen weiter saftig eben weil man mit deren Produkten etwas assoziert das mal grundlegend außerhalb der reinen Preisgestaltung liegt. Bei AMD ist das ja nur sehr selten der Fall gewesen und das ist einfach viel zu wenig und vor allem mehr als langweilig.

M4xw0lf
2014-04-06, 01:01:35
Was sie im Moment auf der Habenseite haben, ist zufälligerweise auch die mächtigste (und wohl auch effizienteste) DPFP-GPU auf dem Markt.

HarryHirsch
2014-04-06, 03:52:25
Nicht zu vergessen die SP Performance beträgt 5,35 tflops.
NV kommt mit 2 GPUs nur auf 8 tflops.
Die R9 295 haut aber 11.5 tflops raus. :freak:

fondness
2014-04-06, 10:10:32
Also erstens gibt es dazu derzeit m.E. keine Zahlen die das belastbar belegen und zweitens sind die avisierten 30% eine Zahl die auf dem Apple Deal beruht.

Nur mit Apple alleine erreicht man keine 30%. Es gibt Aussagen führender OEMs die von 30% bis Jahresende ausgehen, leider sind die entsprechenden Artikel inzwischen nur noch gegen Bezahlung zu erreichen. Die letzten offiziellen Zahlen von Q3/2013 geben ihnen 18%.


AMD versucht vielmehr wie überall über den Preis zu kommen. Was anderes haben die schlichtweg auch selten auf ihrer Habenseite. Ist doch im Consumer Segment nicht anders. Für Unternehmen deren Geschäftsmodell zu großen Teilen auf dieser Vorgehensweise beruht habe ich generell nichts übrig. Ist mir einfach zu wenig und alles andere als spannend. Ich glaube Nvidia störts wenig. Sie preisen weiter saftig eben weil man mit deren Produkten etwas assoziert das mal grundlegend außerhalb der reinen Preisgestaltung liegt. Bei AMD ist das ja nur sehr selten der Fall gewesen und das ist einfach viel zu wenig und vor allem mehr als langweilig.

Also die FirePRO W9000 war mit $3999 alles andere als günstig, die W9100 wird da kaum preiswerter.

Schaffe89
2014-04-06, 11:36:21
Ist mir einfach zu wenig und alles andere als spannend.

Wenn die Hardware gut und interessant ist, aber man aufgrund von den marktanteilen zurükliegt und lange Zeit den deutlich schlechteren Support geliefert hat, der sich jetzt bessert, kann man sicher nicht davon reden das wäre unspannend.
So günstig sind die Firepro´s nun auch nich.

Skysnake
2014-04-06, 13:02:53
Also erstens gibt es dazu derzeit m.E. keine Zahlen die das belastbar belegen und zweitens sind die avisierten 30% eine Zahl die auf dem Apple Deal beruht. Wie konstant Apple an seinen Lieferanten über einen längeren Zeitraum festhält ist hinlänglich bekannt. AMD versucht vielmehr wie überall über den Preis zu kommen. Was anderes haben die schlichtweg auch selten auf ihrer Habenseite. Ist doch im Consumer Segment nicht anders. Für Unternehmen deren Geschäftsmodell zu großen Teilen auf dieser Vorgehensweise beruht habe ich generell nichts übrig. Ist mir einfach zu wenig und alles andere als spannend. Ich glaube Nvidia störts wenig. Sie preisen weiter saftig eben weil man mit deren Produkten etwas assoziert das mal grundlegend außerhalb der reinen Preisgestaltung liegt. Bei AMD ist das ja nur sehr selten der Fall gewesen und das ist einfach viel zu wenig und vor allem mehr als langweilig.
Mal dran gedacht, wer der Inerzialzünder für OpenCL war?

Ach ja richtig, das war Apple.

Mal dran gedacht, welche Firma OpenCL sehr stiefmütterlich behandelt, nein ich würde sogar sagen, gezielt benachteiligt?

Ach ja richtig, das war nVidia.

Mal dran gedacht, welche Firma OpenCL voll unterstützt, und auch HSA pusht, was sich mit OpenCL ganz gut verträgt, und gleiche Software über alle Platformen hinweg ermöglichen könnte?

Ach ja richtig, das war AMD.

Wenn dir jetzt immer noch nichts auffällt, dann tuts mir leid.

Raff
2014-04-06, 13:16:03
Nicht zu vergessen die SP Performance beträgt 5,35 tflops.
NV kommt mit 2 GPUs nur auf 8 tflops.
Die R9 295 haut aber 11.5 tflops raus. :freak:

Das kommt aber nicht aus der Luft, man darf hier die FLOPS/Watt-Rechnung nicht vergessen.

MfG,
Raff

Effe
2014-04-07, 14:26:53
Test der W9100 bei Tomshardware (http://www.tomshardware.de/amd-firepro-w9100-review-benchmarks,testberichte-241531.html)
ROFL, bei denen ists schon 15Uhr. Hehe da hat einer zu früh aufn Knopf gedrückt.

UVP: 3999 USD
2.62: TFlops DP-Leistung
TDP: 245 Watts Graphics/260 Watts GPGPU

Screemer
2014-04-07, 14:46:18
Das kommt aber nicht aus der Luft, man darf hier die FLOPS/Watt-Rechnung nicht vergessen.

MfG,
Raff
W9100 vs. K6000
DP: ~100W/TFlop vs. ~118W/TFlop
SP: ~47W/TFlop vs. ~36W/TFlop

ich würde sagen, dass die Gewinner in den einzeldisziplinen durchaus feststehen. stellt man nun den mehrverbrauch der amd dem mehrpreis der nv gegenüber, dann könnte es je nach laufzeit sogar nochmal anders aussehen. warum der kühler sogar bei den professionellen karten sowas von grütze ist, muss man sich echt fragen. 10°C weniger und die Karte wäre sicherlich um einiges sparsamer.

Skysnake
2014-04-07, 18:14:34
AHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH............

Ich krieg echt das große Kotzen :ubash3::uattack4:

http://www.heise.de/newsticker/meldung/AMD-FirePro-W9100-Profi-Grafikkarte-mit-16-GByte-Speicher-2165060.html

Das Ding kommt erstmal nur mit OpenCL 1.2 raus. 2.0 wird erst später nachgereicht... :mad:

Meine Fresse.... Jetzt hatten die schon so fucking viel Zeit, und bekommen es immer noch nicht gebacken. Wie kann man sich immer und immer und immer wieder so selbst ins Knie schiesen?

Die haben rein von der Hardware aktuell alles richtig gemacht, und nahezu keine Wünsche offen, und dann verkacken Sie es auf der Zielgerade mit der Software -_-

Loeschzwerg
2014-04-07, 20:22:02
Oh mann... das hätte ich ebenfalls besser erwartet. Scheint das Treiberteam anderweitig zu beschäftigt zu sein. Naja, dann hoffen wir mal es wird recht fix nachgeliefert, denn sonst macht die Karte einen verdammt guten Eindruck. Klasse P/L.

HarryHirsch
2014-04-07, 20:32:06
AHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHHH............

Ich krieg echt das große Kotzen :ubash3::uattack4:

http://www.heise.de/newsticker/meldung/AMD-FirePro-W9100-Profi-Grafikkarte-mit-16-GByte-Speicher-2165060.html

Das Ding kommt erstmal nur mit OpenCL 1.2 raus. 2.0 wird erst später nachgereicht... :mad:

Meine Fresse.... Jetzt hatten die schon so fucking viel Zeit, und bekommen es immer noch nicht gebacken. Wie kann man sich immer und immer und immer wieder so selbst ins Knie schiesen?

Die haben rein von der Hardware aktuell alles richtig gemacht, und nahezu keine Wünsche offen, und dann verkacken Sie es auf der Zielgerade mit der Software -_-

Naja dafür gibt es seit 3.3 einen HSA OpenCL Beta Treiber.

Die haben halt ganz schön viele Baustellen auf einmal.

48449

fondness
2014-08-06, 20:30:56
10,8 DP TFLOPs / Watt:
http://www.computerbase.de/2014-08/amds-firepro-s9150-mit-5-tflops-und-hoechster-effizienz/

Loeschzwerg
2014-08-06, 20:38:48
In der aktuellen c't gibt es einen Test:
http://www.heise.de/ct/heft/2014-17-Test-High-End-Grafikkarten-fuer-Profis-AMD-FirePro-W8100-W9100-und-Nvidia-Quadro-K6000-2266736.html

Kurze Zusammenfassung von mir: AMD kann eine Alternative sein, kommt aber stark auf die verwendete Software an.

Die gleichen Probleme wie schon immer, an der Situation hat sich wenig geändert.

fondness
2014-08-06, 20:46:40
Bei Server sieht es da schon anders aus, da zählt die nackte Rechenleistung bzw. Perf/Watt.

Loeschzwerg
2014-08-06, 21:04:20
Stimmt, aber mein Beitrag war auf das Topic W9100 bezogen und nicht auf S9150. War etwas missverständlich von mir geschrieben, sorry.

Fragman
2014-08-06, 21:23:44
zumindest haben sie jetzt software auf der siggraph. ein gpu prototype von arnold auf opencl basierend wird gezeigt.

fondness
2014-09-09, 18:53:44
http://www.xbitlabs.com/articles/graphics/display/amd-firepro-w9100.html

Schaffe89
2014-09-09, 19:48:17
Bissel unfair der Vergleich?!

Knuddelbearli
2014-09-09, 20:36:45
Wieso?

AnarchX
2014-09-09, 20:40:45
Wieso?
Die K5000 ist steinalt und deutlich günstiger als eine W9100.

Hoffentlicht gibt es bald mal ein W7100 Review.

Raff
2014-09-09, 20:42:36
Es ist schwierig, Quadro-Samples von Nvidia zu bekommen. Da muss man nehmen, was man kriegt. ;)

MfG,
Raff

fondness
2014-10-03, 11:42:37
Für ausgewählte Entwickler gibt es mittlerweile auch ein OpenCL 2.0 SDK:
http://developer.amd.com/tools-and-sdks/graphics-development/firepro-sdk/firepro-app-sdk-3-0-alpha/?utm_content=buffer33cd9&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer

fondness
2014-10-10, 18:27:04
HP expands its AMD FirePro graphics footprint to 5 tower and 3 mobile workstations
http://fireuser.com/blog/hp_expands_its_amd_firepro_graphics_footprint/?utm_content=buffer408c5&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer

A closer look at AMD FirePRO S9100:
http://community.amd.com/community/amd-blogs/amd-business/blog/2014/10/06/why-amd-gpus-are-right-for-the-data-center-a-closer-look-at-amd-firepro-s9100

AnarchX
2014-10-11, 09:39:42
12GiB @ 512-Bit?

HarryHirsch
2014-10-11, 10:04:24
Jup

http://www.amd.com/Documents/AMD-FirePro-S9100-Data-Sheet.pdf

AnarchX
2014-10-11, 10:09:32
Kann auch ein Fehler sein, den man in allem Material wiederholt hat.

Sofern es stimmt fragt sich, wie AMD das umgesetzt hat. Die zusätzlichen 4GiB nur mit 256-Bit oder man hat 16GiB auf der Karte, von welchen per BIOS/Software-Restriktion nur 12GiB mit voller Geschwindigkeit angesprochen werden können.

fondness
2014-11-13, 18:00:53
AMD FirePro™ S9150 server GPUs für den neuen Supercomputer der Goethe Universität Frankfurt:

http://www.amd.com/en-us/press-releases/Pages/amd-firepro-gpus-2014nov13.aspx?utm_content=buffer28554&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer

Skysnake
2014-11-13, 18:05:15
Hat der Lindenstruth wieder ein neues Spielzeug :biggrin:

M4xw0lf
2014-11-13, 18:08:06
Hat der Lindenstruth wieder ein neues Spielzeug :biggrin:
Schon mit dem guten Mann zu tun gehabt? ^^

Skysnake
2014-11-13, 18:48:07
Ja, war mein Prof für InfoII (Einführung in die praktische Informatik) Hab mich immer gut mit ihm unterhalten können. Wenn er nicht nach Frankfurt wäre, hätte ich auch mein Diplom bei ihm sicherlich gemacht.

M4xw0lf
2014-11-13, 19:37:32
Die Welt ist doch klein ;)

Blediator16
2014-11-21, 12:11:33
Announcement of GSI supercomputer w/ AMD FirePro S9150 GPU Ranking #1 in Green500
http://fireuser.com/blog/announcement_of_gsi_supercomputer_w_amd_firepro_s9150_gpu_ranking_1_in_gree/


Wer hätte das gedacht.

Nakai
2014-11-21, 12:23:57
Wäre auch schade, wenn nicht. Die S9150 hat ja über 10GFLOPsDP/Watt. Mit dem restlichen System drückt man die Effizienz natürlich. Die Tesla K80 ist ja von der Effizienz auch nicht wirklich besser. Ich frage mich, wann eine S11000 o.Ä kommt. Bei 375W max TDP und zwei Hawaiis mit je 16GB GDDR5, wäre das nochmal ein gute Stück vor einer K80.

Noch ne News dazu:
http://www.computerbase.de/2014-11/der-effizienteste-supercomputer-steht-in-deutschland/

Skysnake
2014-11-21, 13:18:00
Announcement of GSI supercomputer w/ AMD FirePro S9150 GPU Ranking #1 in Green500
http://fireuser.com/blog/announcement_of_gsi_supercomputer_w_amd_firepro_s9150_gpu_ranking_1_in_gree/


Wer hätte das gedacht.
Naja, an sich war klar, dass da was kommen wird/muss. Aber mit Platz1 habe ich jetzt auch nicht gerechnet.

Hat der Lindenstruth mit seinen Leuten wieder ne nette Kiste gebaut :biggrin:

fondness
2014-11-21, 17:00:54
Kein Wunder, die S9150 hat den mit Abstand energieeffizientesten Compute-Chip der Welt, 10.8 DPGLOPs/Watt, NV strebt mit Maxwell kaum mehr an.

fondness
2015-01-09, 22:17:03
Test zur FirePRO W9100:
http://www.techstation.it/articoli/amd-firepro-w9100-recensione/recensione-amd-firepro-w9100-663.html


/Edit:
Beim Test fehlt die K6000, mein Fehler.

Locuza
2015-01-10, 00:01:34
Ja ist schon cool, dass Hawaii in einigen Benches stärker ist als ein GK104.

Skysnake
2015-01-10, 02:13:01
Naja, das sollte alles SP sein, da kann Hawaii seine Stärke nicht ausspielen, bzw die Schwäche von Maxwell fällt nicht ins Gewicht. Bitte korrigiert mich, wenn es doch auch DP ist.

Locuza
2015-01-10, 02:16:35
Ich habe gerade 3 Minuten inne gehalten, weiß aber nicht wie man darauf adäquat antworten sollte.
Entweder du klickst auf den Link oder solltest ins Bett gehen.

Skysnake
2015-01-10, 09:19:24
Ok, jetzt hab ichs verstanden, ja ich hätte wohl schlafen gehen sollen ;D

Wie komm ich bitte auf Maxwell? Das ist doch noch immer alles Kepler. Da haben mich wohl der extrem niedrigen DP Werte der K5000 in die Irre geführt.

Schade das die K6000 nicht auftaucht in den Tests, dann wäre das alles Aussagekräftiger. Jetzt raff ich auch was mit der Quadro 5000 gemeint ist, wohl Fermi.

Locuza
2015-01-10, 14:43:23
Die einzigen Quadros die mit Maxwell ausgestattet werden, basieren bisher nur auf dem GM107.
Quadro 5000 = Fermi mit 352 ALUs / 2,5 GB RAM / 320-Bit SI.

Wenn du einen Test bezüglich K6000 vs. W9100 lesen möchtest:
http://hothardware.com/reviews/Workstation-War-AMDs-FirePro-W9100-vs-Nvidias-Quadro-K6000?page=1

Hübie
2015-01-10, 15:13:56
Test zur FirePRO W9100:
http://www.techstation.it/articoli/amd-firepro-w9100-recensione/recensione-amd-firepro-w9100-663.html

Klar die schnellste professionelle Karte.

Warum vergleicht man mit der K6000 aber bencht nur mit der K5000?:|

Deine Aussage ist somit eine Lüge Falschaussage.

fondness
2015-01-10, 15:20:06
Ich hatte es beim überfliegen nicht bemerkt das dort nur die K5000 getestet wird, mea culpa. Kein Grund persönlich zu werden.

Hübie
2015-01-10, 15:53:39
Wo bin ich persönlich geworden? Ich sagte dass deine Aussage eine Lüge ist. ;) Wenn man als erster so etwas postet sollte man lesen statt fliegen.

fondness
2015-01-10, 15:58:25
Eine Lüge impliziert das ich bewusst die Unwahrheit gesagt hätte. Dem ist nicht so.

dildo4u
2015-01-10, 16:06:04
Die einzigen Quadros die mit Maxwell ausgestattet werden, basieren bisher nur auf dem GM107.
Quadro 5000 = Fermi mit 352 ALUs / 2,5 GB RAM / 320-Bit SI.

Wenn du einen Test bezüglich K6000 vs. W9100 lesen möchtest:
http://hothardware.com/reviews/Workstation-War-AMDs-FirePro-W9100-vs-Nvidias-Quadro-K6000?page=1
Da muss AMD aber viel zu spät dran sein wenn Kepler die 9100 schlägt,da werden sie doch von Maxwell zerstört.

Hübie
2015-01-10, 16:18:44
Eine Lüge impliziert das ich bewusst die Unwahrheit gesagt hätte. Dem ist nicht so.

Das hatte dein Beitrag suggeriert. Aber ich ändere es ab ;)

fondness
2015-07-08, 17:59:39
http://s13.postimg.org/q3iak8izr/3_1080_1158252366.jpg (http://postimg.org/image/ludki2fqb/full/) http://s13.postimg.org/atifd1nhj/4_1080_1290679968.jpg (http://postimg.org/image/on6s23g2r/full/)

N0Thing
2015-07-08, 19:41:48
Wie kriegen die das mit der passiven Kühlung hin, die Bauform sieht ja sehr verschlossen aus? Bei der 290X gibt es kein einziges passives Modell. Ist Hawaii so leicht zu kühlen, wenn man ein wenig den Takt drosselt?

Skysnake
2015-07-08, 19:44:10
Nö. da wird nichts gedrosselt.

Der Kühler geht komplett durch, ist also sogar größer als normal, da man für den/die Lüfter keinen Platz braucht.

Im Prinzip sitzt dahinter ein kräftiger Lüfter, der direkt von hinter durchpustet. Die Dinger sind richtige Turbinen, und machen einen Krach, das man an sich einen Gehörschutz will. Dazu noch Frischluft im Bereich von ~20°C oder weniger, und das Ding bleibt kühl.

N0Thing
2015-07-08, 19:51:03
Ein Chiptakt von "bis 900MHz" bei der S9150 würde ich als gedrosselt gegenüber den " bis 1030MHz" beim Referenzdesign der 290x bezeichnen. ;)
Wenn hinter der Karte ein starker Lüfter sitzt, ist die passive Kühlung auch eher theoretischer Natur. Kein Wunder, dass man so ein Modell nicht bei den R290-Modllen gesehen hat.

Danke für die Informationen.

dildo4u
2015-07-08, 19:51:47
Wie kriegen die das mit der passiven Kühlung hin, die Bauform sieht ja sehr verschlossen aus? Bei der 290X gibt es kein einziges passives Modell. Ist Hawaii so leicht zu kühlen, wenn man ein wenig den Takt drosselt?
So sieht das im Rack aus die Luft wird von den kleinen Lüftern über die GPU und CPU gezogen.

http://abload.de/img/10260_bige4su1.jpg

Loeschzwerg
2015-07-08, 20:14:54
Die Systeme (egal ob 1 HE, 2 HE oder 4 HE) mit diesen Karten werden meistens trotzdem nicht lauter als sonst üblich. Auf "Vollgas" laufen die Lüfter nie.

Beim FAN Cycle während des POST hat man schrille Turbinen, danach ein Rauschen.

Klingt in etwa so (sorry, hab jetzt nix besseres gefunden):
https://www.youtube.com/watch?v=9VccRUdQDCk (1:00 Vollgas; 3:00 normaler Betrieb)

Edit: Also eine 290X mit Ref.-Kühler kann da lauter/nerviger werden.

Nightspider
2015-07-08, 20:26:51
Taktet die neue 32GB Version jetzt höher als die Alte mit 16GB oder liegt der Unterschied wirklich nur im Speicher?

fondness
2015-07-08, 20:27:21
Taktet minimal 3-4% höher.

Hübie
2015-07-08, 21:21:51
Die Systeme (egal ob 1 HE, 2 HE oder 4 HE) mit diesen Karten werden meistens trotzdem nicht lauter als sonst üblich. Auf "Vollgas" laufen die Lüfter nie.

Beim FAN Cycle während des POST hat man schrille Turbinen, danach ein Rauschen.

Klingt in etwa so (sorry, hab jetzt nix besseres gefunden):
https://www.youtube.com/watch?v=9VccRUdQDCk (1:00 Vollgas; 3:00 normaler Betrieb)

Edit: Also eine 290X mit Ref.-Kühler kann da lauter/nerviger werden.

Holy shit! :eek::eek::freak: Mein Ohr fiept! Hat hier einer ne Fiji vergessen? :biggrin:

Skysnake
2015-07-08, 22:52:33
Die Systeme (egal ob 1 HE, 2 HE oder 4 HE) mit diesen Karten werden meistens trotzdem nicht lauter als sonst üblich. Auf "Vollgas" laufen die Lüfter nie.

Beim FAN Cycle während des POST hat man schrille Turbinen, danach ein Rauschen.

Klingt in etwa so (sorry, hab jetzt nix besseres gefunden):
https://www.youtube.com/watch?v=9VccRUdQDCk (1:00 Vollgas; 3:00 normaler Betrieb)

Edit: Also eine 290X mit Ref.-Kühler kann da lauter/nerviger werden.
Kommt halt ganz drauf an, was du machst. Wenn du das Ding nur ideln lässt, dann ist das Ding natürlich recht leise nachm booten.

Wenn du da aber volle lotte Last drauf knallst, dann merkste da keinen Unterschied mehr. Gerade bei Servern mit GPUs. Als ich mal auf zwei GPU-Servern entwickelt habe, und wegen Grafikausgabe dran sitzen musste, habe ich die Dinger in den Nebenraum gestellt und Verlängerungskabel genutzt, sonst haste das nicht ausgehalten auf Dauer.

High-Dens Server sind da aber meiner Meinung nach noch ein Stück schlimmer als so ne 4U Kiste. Vor allem sind die Dinger übel bezüglich Abwärme. Da kannste teils vei Vollast echt nicht dahinter stehen, weils einfach zu warm/heis ist, und das trotz klimatisiertem Serverraum :freak:

y33H@
2015-07-08, 23:01:08
Alle Slides: http://www.golem.de/news/firepro-s9170-amd-packt-32-gbyte-speicher-auf-die-neue-server-grafikkarte-1507-115113.html

Skysnake
2015-07-08, 23:22:40
Ja das mit OpenMP finde ich ganz interessant, das man dort GPUs supported, war mir bisher nicht bekannt.

StefanV
2015-07-09, 01:46:50
12GiB VRAM an 512bit Speicherinterface bei der S 9100 oO :O

Loeschzwerg
2015-07-09, 07:06:23
Wenn du da aber volle lotte Last drauf knallst, dann merkste da keinen Unterschied mehr. Gerade bei Servern mit GPUs. Als ich mal auf zwei GPU-Servern entwickelt habe, und wegen Grafikausgabe dran sitzen musste, habe ich die Dinger in den Nebenraum gestellt und Verlängerungskabel genutzt, sonst haste das nicht ausgehalten auf Dauer.

High-Dens Server sind da aber meiner Meinung nach noch ein Stück schlimmer als so ne 4U Kiste. Vor allem sind die Dinger übel bezüglich Abwärme. Da kannste teils vei Vollast echt nicht dahinter stehen, weils einfach zu warm/heis ist, und das trotz klimatisiertem Serverraum :freak:

Ja? Also selbst unter Last tat sich da bei mir hier nicht sonderlich viel. Aber gut, das kommt natürlich alles auf das Drumherum an und ich kann dir nicht genau sagen wie die Entwicklung die 100% GPU Last erreicht hat. 100% ist ja nicht unbedingt 100%.

Ich habe die Zuluft-Temperatur jetzt nicht mehr 100%ig im Kopf, aber ich meine das waren 18-20°C.

Skysnake
2015-07-09, 08:20:14
Es kommt auch darauf an, was man denn für eine CPU verbaut hat, und auch auf die Steuerung der Lüfter, da gibts natürlich auch bessere und schlechtere. 18-20°C wenn ich es gerade richtig im Kopf habe, klassischer Serverraum.

Die Bauform macht aber extrem viel aus. Man muss ja bedenken, dass das ein 4U Server ist. Man bekommt aber auch 2S Systeme in 1U, oder sogar 1/2U, also 1U hoch, aber nur 1/2 Rack breit, wo dann eben nochmals ein Server sitzen kann. Das sind dann maximal 8 mal so viele CPUs. Klar, dass die schwieriger zu kühlen sind.

Loeschzwerg
2015-07-09, 08:47:01
CPU natürlich max. Bestückung, so wie es sich für die HW Entwicklung gehört ^^

Ja, die pfuschigen Blade Systeme sind freilich lauter, das stimmt :) Schwierig zu kühlen sind die aber nicht, da gibt es einfach Drehzahl und gut. Lautstärke kratzt da niemanden.

Knuddelbearli
2015-07-09, 21:43:05
Außer die armen Schweine wie ich die da bei Betrieb arbeiten dürfen ^^

fondness
2015-07-09, 22:06:25
Außer die armen Schweine wie ich die da bei Betrieb arbeiten dürfen ^^

Die Dinger laufen in einem Serverraum, da sitzt niemand daneben oder auch nur im selben Raum.

Knuddelbearli
2015-07-09, 23:23:03
deshalb sagte ich auch wie ich. Habe schon öfters in solchen Räumen gearbeitet. Stromanschlüsse für neue Schränke, Schränke aufbauen. Kabel verlegen usw usf. Wunder mich immer wieder das ich noch keinen Tinitus habe ^^

Screemer
2015-07-09, 23:26:03
ohropax?

Menace
2015-07-10, 06:39:08
@Knuddelbearli: Was für eine Argumentationsweise ist das denn? Ich habe eine Zeit als Parkettleger (um 1 von lauten 1000 Berufen) gearbeitet. Lärm eines Serverraums ist dagegen angenehm. :rolleyes: Ich bin gespannt, welche "Argumente" gegen AMD noch aufgeführt werden.

Loeschzwerg
2015-07-10, 10:46:32
Außer die armen Schweine wie ich die da bei Betrieb arbeiten dürfen ^^

Och, da geht es mir nicht anders wenn ich Testanlagen im Entwicklungs RZ umbaue :D Aber es gibt da so kleine Stöpsel für die Ohren ^^