Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 13./14. Februar 2010


Leonidas
2010-02-15, 11:06:32
Link zur News:
http://www.3dcenter.org/news/2010-02-14

Gast
2010-02-15, 12:18:05
Also soweit mir bekannt ist sind die 105W keine TDP, sondern nur der typische Maximalverbrauch dieser CPU. Diese liegt beim 2.8GHz Model bei 137W.

Gast
2010-02-15, 13:18:38
Ich teile dieses Fazit auf Planet3D nicht;

"Das war das große Plus der NVIDIA-Karten in den letzten 2 Jahren. Mit der Einführung von OpenCL als gemeinsamer Nenner sollte sich dieser Vorteil in den kommenden Monaten und Jahren egalisieren."

Diesen Vorteil wird NVidia vermutlich noch mindestens 2-3 weitere Jahre haben. Noch ist leider überhaupt nicht abzusehen, wohin die Reise mit OCl geht... NV wird jedenfalls so lange noch am hauseigenen CUDA festhalten und sich um OpenCl "nebenher" kümmern.

Das der technische Vergleich an sich schon ein wenig hinkt -
zum einen wegen der verwendeten Applikationen und zum anderen
wegen dieser aktuellen Unausgewogenheit bei der Modellauswahl
(2 der NV-Karten hatten z. B. nur 512 MB GDDR3) - sei auch nochmal
neban gestellt...

Gast
2010-02-15, 13:29:22
Autsch, da hat wer gewaltige Tomate auf den Augen. ;)

AMD gibt die TDP der Opteron seit Jahren als ACP an.
105W ACP entsprechen 137W TDP. Und die 75W ACP sind 115W TDP.
Das entspricht also etwa den Desktop TDP mit 140W und 125W.

Mit 75W möglich sind dort 2,1GHz. (55W ACP/ 79W TDP)

Leonidas
2010-02-15, 13:56:47
Sry, muß korrigiert werden.

Gast
2010-02-15, 14:30:17
Die 105 Watt, die AMD für seine Hexacore Opterons angibt ist "Average CPU Power"; entspricht etwa 130W TDP.
Also erwarte ich, dass die Thubans nicht über 3GHz kommen wird; aus 45nm können sie denke ich nicht viel mehr rausholen.

Gast
2010-02-15, 19:48:58
Das der technische Vergleich an sich schon ein wenig hinkt -
zum einen wegen der verwendeten Applikationen und zum anderen
wegen dieser aktuellen Unausgewogenheit bei der Modellauswahl
(2 der NV-Karten hatten z. B. nur 512 MB GDDR3) - sei auch nochmal
neban gestellt...
Die Applikationen von Collatz@home und Milkyway@home stellen einen "Sonderfall" dar. Beide wurden jeweils separat für NV bwz ATI Grakas optimiert. Die verbauten Speicher sind gerade bei M@H belanglos, du kannst ohne Performanceeinbußen den Speicher runtertakten. Somit ist die reine rohe Shaderpower gefragt, und da führt ATI zur Zeit mit deutlichem Abstand. Insoweit ist das Ergebnis schon vorher klar gewesen. Interessant wird es erst mit der Fermie ;)

Gast
2010-02-15, 21:56:34
Die Applikationen von Collatz@home und Milkyway@home stellen einen "Sonderfall" dar. Beide wurden jeweils separat für NV bwz ATI Grakas optimiert. Die verbauten Speicher sind gerade bei M@H belanglos, du kannst ohne Performanceeinbußen den Speicher runtertakten. Somit ist die reine rohe Shaderpower gefragt, und da führt ATI zur Zeit mit deutlichem Abstand. Insoweit ist das Ergebnis schon vorher klar gewesen. Interessant wird es erst mit der Fermie ;)

Richtig, nichts anderes schrieb ich.
Ich schrieb auch nicht Umsonst "z. B." - der Speicher stand hier stellvertretend für zwei bzw. drei nicht miteinander vergleichbare Kartengenerationen. Ich wollte an dieser Stelle auch keine Diskussion über die Shaderarchitekturen und deren Leistungsfähikeit vom Zaun brechen. Interessant wäre hier auch wie sich die Fermi 1D gegen HD5XXX 5D-Shader schlagen. NV muss hier bereits ordentlich zugelegt haben, um mithalten zu können.
Richtig.

aths
2010-02-15, 22:56:37
"Dies ist insofern verfälschend, als daß im professionellen Segment gänzlich andere Software benutzt wird, weil dort eben keine Distributed-Computing-Projekte zum Einsatz kommen. Gut möglich, daß nVidia bei eben dieser professionellen Software wieder deutlich besser darsteht – anders ist es auch kaum zu erklären, daß nVidia beim Vergleich Quadro- zu FireGL-Karten derzeit ca. 90 Prozent Marktanteil verbuchen kann."

Die Computing-Serie heißt Tesla, nicht Quadro.

Gast
2010-02-16, 03:42:41
Naja, auch die ersten Tests mit dem LuxrenderGPU zeigen eindeutig, dass Nvidia unter OpenCL zZ keine chance gegen ATI hat.
CUDA ist proprietär und das bedeute schon zwangsläufig das aus, spätestens wen Intel auch auf OpenCL aufspringt. Ob CUDA nun einiges "besser" macht als OpenCL spielt dabei keine rolle.

CUDA? *lach*

aths
2010-02-16, 19:14:08
Naja, auch die ersten Tests mit dem LuxrenderGPU zeigen eindeutig, dass Nvidia unter OpenCL zZ keine chance gegen ATI hat.
CUDA ist proprietär und das bedeute schon zwangsläufig das aus, spätestens wen Intel auch auf OpenCL aufspringt. Ob CUDA nun einiges "besser" macht als OpenCL spielt dabei keine rolle.

CUDA? *lach*In vielen wissenschaftlich oder wirtschaftlichen Bereichen wird ohnehin speziell angepasster Code genutzt. Da kann Cuda auch weiterhin bestehen. Nvidia hat Cuda vermutlich so entwickelt, dass es trotz der Abstrahierung auf eine Hochsprache möglichst hardwarenah laufen kann. Da wollen die Freaks dann auch Cuda einsetzen, damit der Code optimal läuft.