Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 27./28. Oktober 2016
Leonidas
2016-10-29, 12:20:22
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2728-oktober-2016
MadManniMan
2016-10-29, 12:47:15
Ich hab im Zusammenhang mit neueren NV-Karten immer wieder was von TBDR (Kyro ahoi ;) ) gehört. Stimmt das? Könntest Du mal darüber was schreiben?
AckytheG
2016-10-29, 13:20:07
Ich hab im Zusammenhang mit neueren NV-Karten immer wieder was von TBDR (Kyro ahoi ;) ) gehört. Stimmt das? Könntest Du mal darüber was schreiben?
Genau dazu hatte ich Leo hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11182621#post11182621) schon mal befragt.
Allerdings blieb er mir eine Antwort schuldig. :(
Edit:
Ich bin mir eigentlich recht sicher, dass dies die Ursache für nVidias Effizienzvorteil seit Maxwell ist.
Zudem gehen die nV-Chips seit dem auch deutlich sparsamer mit der Bandbreite um.
Damals wurde die Farbkompression als Hauptgrund vom Marketing angeführt.
AMD ist inzwischen aber nachgezogen und kommt dennoch nicht in die Nähe nVidias.
Die Frage ist halt, ob AMD hier schnell kontern könnte oder ob nVida irgend welche Patente hält, die dies verhindern.
uweskw
2016-10-29, 13:30:19
main:
.......Selbst der Punkt, das AMD seine Grafikchips augenscheinlich mit zu hohen Takraten und Chipspannungen herausbringen muß (um im Wettbewerb mit nVidia bestehen zu können), läuft am Ende auf dieselbe Problematik heraus – nVidia kann seine Grafikchips einfach mit viel höheren Taktfrequenzen betreiben..........
Ist es nicht eher so, dass AMD mit den Taktraten runter musste, da der Prozess bei Glo-Flo so bescheiden läuft?
Die 480 war doch ursprünglich mal für 1500-1600 MHz geplant. Also ca.20% unter dem NV Takt.
greetz
US
AckytheG
2016-10-29, 13:40:10
main:
Ist es nicht eher so, dass AMD mit den Taktraten runter musste, da der Prozess bei Glo-Flo so bescheiden läuft?
Die 480 war doch ursprünglich mal für 1500-1600 MHz geplant. Also ca.20% unter dem NV Takt.
greetz
US
Die RX480 ist doch bereits jetzt ziemlich bandbreitenlimitiert.
Eine derartige Erhöhung würde kaum in Mehrperformance resultieren.
Hoffentlich tut sich da mal was.
Bei Vega kann man das Problem zumindest mit der HBM-Bandbreitenkeule erschlagen. X-D
CD-LABS
2016-10-29, 15:05:19
Die RX480 ist doch bereits jetzt ziemlich bandbreitenlimitiert.
Eine derartige Erhöhung würde kaum in Mehrperformance resultieren.
Hoffentlich tut sich da mal was.
Bei Vega kann man das Problem zumindest mit der HBM-Bandbreitenkeule erschlagen. X-D
Theorie: Irgendwo bei den Caches hakt es und das ist auch nicht bedeutend zu lösen, ohne dafür andere Stärken von GCN zu opfern. Mit der HBM-Bandbreitenkeule könnte, genau wie du sagst, das Problem schnell erschlagen werden.
Alles kann man damit aber dennoch nicht erklären: Wenn, wie uweskw annimmt, die Taktrate künstlich gedrosselt wird, sonst aber alles in Ordnung wäre, dann sollte man doch aber eigentlich recht niedrige Spannungen nutzen können. Davon ist aber nichts zu sehen...
...hier würde ich etwas anderes in den Raum werfen: AMD hat wohl recht früh angefangen GloFo-Samsung zu nutzen, während Nvidia stets schon etabliertere Prozesse genutzt hat.
Letzter Anstoß ist natürlich auch die Apple-Theorie, dass der Desktop-Markt nur den Schrott abbekommen hat und alles sonst als RadeonPros verwertet werden sollen.
So, jetzt ist aber auch erstmal genug mit Spekulation von meiner Seite aus.
CD-LABS
2016-10-29, 15:15:24
Anderes Thema MultiResShading:
Ich habe es schon auf PCGH gesagt, es ist völlig klar, dass der Ansatz nicht massig Performance bringt. Selbst wenn man ein Spiel hernimmt, dessen Performance linear zur Pixelanzahl skaliert, kommen dabei keine beeindruckenden Steigerungen bei rum.
Mal ganz krass: Hälfte des Bildes würde wie in 1080p gerendered werden, die andere Hälfte wie in 2160p. Dann wäre man am Ende bei 3/4 der Pixelanzahl, würde also gegenüber 2160p generell 33% Performance gewinnen.
Das ist schon was an Performance. Aber eben auch nicht die Welt.
greeny
2016-10-29, 15:28:35
Deutschland hält an widersprüchlicher Kryptopolitik fest und gefährdet vertrauliche Kommunikation für alle []
[Netzpolitik]
Nvidia ist auf mehreren Ebenen in Games effizienter, unter Anderem sind das:
- sämmtliche Kompression an verschiedenen Stellen
- Einsparung von Off-Chip BW (also alles was hinterm L2$ ist) an anderen Stellen
- keine unnötig hohe TFlops die wenn nicht effizient genutzt nur Strom frisst
- stärkere API Agnostic bzw. besseres Self-Balancing der Hardware
- effizientere Geometie in allen Punkten
- teilweise höhere Tex-Filterleistung als AMD
- effizienteres Zusammenspiel bei GDDR ROP und L2-Cache (hier kann AMD zwar fast in allen Formaten Full-Speed aber Nvidia gleicht die Bereiche wo kein Full-Speed geht durch mehr Units aus, das die On-Chip Leistung stark boostet.
http://www.hardware.fr/articles/953-6/performances-theoriques-pixels.html
http://www.hardware.fr/articles/953-7/performances-theoriques-geometrie.html
API Agnostik self-balancing seit GT200
https://www.beyond3d.com/content/reviews/51/2
Fusion_Power
2016-10-29, 17:23:43
Da in den News wieder der "3DC Performance Index" erwähnt wurde und ich da nach wie vor nicht durchblicke, wo finde ich denn ne formschöne Gesammtübersicht dessen? Ich will mal meine derzeitige GTX560 mit ner GTX1050 TI vergleichen, weil neue Anschaffung und so. ^^"
ich kann das Lamentieren und die Beurteilung bei Effizienz einfach nicht mehr nachvollziehen.
Es hat sich doch gezeigt, dass AMD und nVidia mit DX12 und Vulkan eher auf gleichem Niveau sind, aber dass unter DX11 die GCN mit Treiberanpassungen nicht so optimiert werden können wie nVidia das macht, weil GCN eben "zu flexibel" mit dem Async Compute Möglichkeiten ist, unter DX11 einfach Hardware-Ballast.
AMD wird mit GCN doch nie an die Effizienz von nVidia unter DX11 herankommen können, der Zug ist abgefahren.
Unter den neuen APIs ist der Unterschied IMHO nicht wirklich relevant, dort kommen beide Philosophien in eine ordentliche Auslastung wo nur Optiemierungen mal das Pendel noch extrem ausschlagen lassen (siehe Doom Vulkan intrinsics)
Wenn man noch über das Thema schreiben will, dann bitte wenigstens mit Hinweis auf die API-Generation....
Ich hab im Zusammenhang mit neueren NV-Karten immer wieder was von TBDR (Kyro ahoi ;) ) gehört. Stimmt das? Könntest Du mal darüber was schreiben?
Tile based - Rasterizing ja, aber es ist kein deferred renderer sondern weiterhin ein immediate renderer.
Das hilft natürlich trotzdem einiges an externer Bandbreite einzusparen, allerdings keinen Overdraw (zusätzlich zu den üblichen Early-Z HierZ etc. Maßnahmen), im Gegensatz zum deferred Renderer welcher keinen Overdraw hat.
Bei Vega kann man das Problem zumindest mit der HBM-Bandbreitenkeule erschlagen. X-D
Bandbreitenkeule ist ganz schlecht wenn man energieeffizient sein will.
HBM spart hier pro übertragenem Byte zwar einiges gegenüber GDDR(X), ist aber weiterhin noch um Größenordnungen schlechter als wenn man die externe Bandbreite gar nicht erst benötigt, weil man alles über die Caches abwickeln kann.
Die Ersparnis externer Bandbreite ist imo einer der Hauptgründe der Effizienz bei Nvidia seit Maxwell.
@Mirko
2016-10-29, 23:41:25
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2728-oktober-2016
Sehen wir es mal am Beispiel des GPU Preemption Modells, denn dieses konnte Maxwell nicht so wie AMD Hardware es beherrschte ausführen und damit war es auch für dxfl12 nicht anwendbar. Der Context Switch und die Zuweisung der SMM kann bei Mischzuweisungen erst am Ende einer Command List erfolgen. Was dann dazu führt, das Maxwell ziemlich viel Zeit im Leerlauf verbringen muss. Zufällig und mittels Heuristik war es NVidia sicherlich auch gelungen keine Ressourcen zu verschwenden, aber Preemption wie Maxwell sie beherrscht, kommt damit bei NVidia nicht für ASC relevante Anwendungen und unter dxfl12 zum Einsatz, sondern für VR-Anwendungen die ja eher auf proprietäre dxfl11 Erweiterungen aufsetzen. Und immer wenn NVidia genau darauf bauen kann, sind sie schnell. Maxwell müsste sonst nämlich nicht nur bis zum Ende eines Drawcalls warten, sondern bis zum Ende der aktuellen Command List. Die laufenden Calls kann man innerhalb der Preemption auch nicht stoppen. Wirkliche Preemption wie sie dxfl12 fordert, ist erst mit Pascal möglich, siehe auch Dynamisches Loadbalancing.
Für mich steht daher die Frage im Raum, warum AMD soviel Zeit verschwendet hat und sich hier die Butter vom Brot nehmen lässt, anstatt weiter an einem eigenen Software Ökosystem zu arbeiten. Siehe Mantle, war doch ein guter Ansatz, was Dice anfänglich etwas verbockt hatte (jedenfalls für einen 5 jährigen Vorentwicklungszeitraum, wie sie selbst behaupteten).
NVidias TBR Graphics Pipeline dürfte dabei der von Power VR wohl sehr ähnlich sein. Die damit einhergehende Effizienz bei geringerer Bandbreitenauslastung und weniger Arbeitszyklen pro Frames sorgt für einen hohen Wirkungsgrad. Dazu der Ansatz beim Compute-Multitask mit hoher architekturgebundener Taktrate (serieller Leistung) und den NVidia zugewandten Software- und Ökosystemen bei passender Hardwarearchitektur und unter proprietärem Framework (Gameswork), helfen den Abstand weiter auszubauen.
Eine dabei gesteigerte Performance führt zu geringerem CPU Overhead, dass hatte Power VR schon vor Jahren als Lösung für Probleme in diese Richtung genannt. NVidia hat sich dem Thema sicher zugewandt und im Sinne einer hohen serieller Leistung einzelner GPUs, auch das Buget für SLI Weiterentwicklungen reduziert (anders kann man sich diese Reduktion bei dem Thema SLI nicht erklären - 1060- kein SLI, ab 1070+ nur zwei GPUs pro SLI ganz allgemein). Man kommt so also auch mit einer GPU zurecht, um gesetzte Ziele zu erreichen. AMDs brute force Ansätze helfen NVidia dabei.
Ob das so bleibt ist fraglich, denn AMD verweist ja ständig auf dxfl12 Performance und dort erkennt man, das AMD auch zulegen kann, oder sagen wir das NVidia "mehr" verliert. Das schiebt dann P/L Verhältnisse aber auch das Effizienzverhalten der jeweils herstellereigenen Architekturen enger zusammen. Unter dxfl11 ist gegen NVidia jedenfalls kein Kraut gewachsen und Compute etc. ist in der Form dort auch nicht so wichtig, oder man kann mit entsprechender Heuristik und mit dem Treiber gegensteuern. NVidia scheint sich dazu die Zeit zu nehmen, die AMD nicht hat.
Locken kann man damit diejenigen, die hier, heute und jetzt was Schnelleres suchen. Dann greift man zu NVidia, bei denen ist das ganze Geschäft einfach schnelllebiger geworden ist. Morgen kann schon wieder was Neues kommen.
AMD entwickelt längerfristiger (hoffe wir mal), aber hebt die Vorteile die sich damit verbinden gegenüber der Kundschaft oder die, die man dazu gewinnen muss, um sein Konzept umzusetzen nicht genügend heraus.
Ansonsten ist das eine recht gute Analyse, die wiederspiegelt was wir gerade jetzt erleben. Obs in einem Jahr immer noch ist, abwarten. Takt ist nicht alles, zeigt aber zZ den Unterschied auf. Wenn AMD sich an eigenen Zielen stärker orientiert hätte (Effizienz 2,8 usw.), wäre das Problem wohl weniger ersichtlich und forcierend. Obs die Lösung ist, fragt sich noch. Ich hoffe immer noch das AMD hier und da tief pokert.
AckytheG
2016-10-30, 02:36:42
...Die Ersparnis externer Bandbreite ist imo einer der Hauptgründe der Effizienz bei Nvidia seit Maxwell.
Das sehe ich ähnlich.
Momentan haben wir die Situation, dass ein GP106 @192Bit später limitiert als ein Polaris10 @256Bit.
Hier muss AMD sehr dringend etwas machen, denn das ist vor allem ein starkes Kostenproblem.
Ich wette, dass nV die GTX1060 um einiges günstiger produzieren kann (weniger RAM, kleinerer Datenbus, kleinerer Kühler) als AMD die RX480. Trotzdem werden beide Karten zum gleichen Preis verkauft.
...Es hat sich doch gezeigt, dass AMD und nVidia mit DX12 und Vulkan eher auf gleichem Niveau sind, aber dass unter DX11 die GCN mit Treiberanpassungen nicht so optimiert werden können wie nVidia das macht, weil GCN eben "zu flexibel" mit dem Async Compute Möglichkeiten ist, unter DX11 einfach Hardware-Ballast.
AMD wird mit GCN doch nie an die Effizienz von nVidia unter DX11 herankommen können, der Zug ist abgefahren.
Unter den neuen APIs ist der Unterschied IMHO nicht wirklich relevant, dort kommen beide Philosophien in eine ordentliche Auslastung wo nur Optiemierungen mal das Pendel noch extrem ausschlagen lassen (siehe Doom Vulkan intrinsics)...
Ich würde dennoch wetten, dass die nVidia-Hardware @DX12 bei gleicher Leistung weniger verbraucht.
Eine RX480 mag eine GTX1060 hier schlagen können. Sie verbaucht aber auch um einiges mehr.
Der zweite Punkt ist, dass DX12 mMn kein wirklicher Ersatz für DX11 ist.
Als Low Level Api mit hohem Programmieraufwand ist es vor allem für kleinere Studios häufig nicht wirtschaftlich einsetzbar.
Ich gehe hier mittelfristig von einer Co-Existenz beider Apis aus und das ist für AMD auch mittelfristig ein Problem.
Iapetos
2016-10-30, 06:28:26
Als Desktop-Nutzer mache ich mir derzeit keine Gedanken über die Energieeffizienz aktueller Grafikkarten - sie ist in jedem Fall gut genug, auch bei AMD. Als ich eine RX 470 8G für 215 € erstehen konnte, musste ich nicht lange über einen Kauf nachdenken. Die Kerte benötigt weniger Energie als die R9 270X, die sie abgelöst hat, ist signifikant schneller und wird für einige Jahre schnell genug sein.
Nvidias Chips können noch so schnell bzw. effizient sein - es hat sich bisher immer gezeigt, dass AMD/Ati-Karten über ihre Lebensdauer besser mit neuen Spielen zurechtkamen, als ihre derzeitigen Nvidia-Pendants. Letztere sind entweder arg „auf Kante genäht“, erhalten nach Erscheinen der nächsten Generation keine Treiberliebe mehr oder ihre Benchmarks sind das Ergebnis erheblicher Optimierung. Nichts für mich, ich kaufe lieber nachhaltiger.
AckytheG
2016-10-30, 11:47:06
Als Desktop-Nutzer mache ich mir derzeit keine Gedanken über die Energieeffizienz aktueller Grafikkarten...
...als Desktop-User machst Du Dir spätestens dann Gedanken darum, wenn die Preise anziehen, weil einer der Beiden Hersteller vom Markt verschwunden ist.
Warum das passieren kann, hab ich im Post über Dir schon ausgeführt. ;)
Es hat sich doch gezeigt, dass AMD und nVidia mit DX12 und Vulkan eher auf gleichem Niveau sind, aber dass unter DX11 die GCN mit Treiberanpassungen nicht so optimiert werden können wie nVidia das macht, weil GCN eben "zu flexibel" mit dem Async Compute Möglichkeiten ist, unter DX11 einfach Hardware-Ballast.
Umgekehrt, GCN ist zu unflexibel um unter DX11 gut ausgelastet zu werden. Async Compute kann diese fehlende Flexibilität allerdings teilweise kaschieren.
Der GCN-Ansatz hat natürlich den Vorteil, dass man bei gleichem Transistorbudget mehr ALUs unterbringt.
Was langfristig effizienter in Performance/Transistor sowie Performance/Watt ist wird sich erst herausstellen müssen, ist aber auch die Aufgabe zukünftiger Hardware, für aktuelle Hard/Software ist das Ergebnis eindeutig.
Iapetos
2016-10-30, 14:50:15
...als Desktop-User machst Du Dir spätestens dann Gedanken darum, wenn die Preise anziehen, weil einer der Beiden Hersteller vom Markt verschwunden ist.
Warum das passieren kann, hab ich im Post über Dir schon ausgeführt. ;)
Das ist allerdings nichts, was ich direkt beeinflussen kann. Ich kaufe AMD-Produkte und habe als mündiger Konsument damit eine Entscheidung getroffen. Schließlich habe ich kein Interesse daran, in Zukunft nur noch Intel- und Nvidia-Produkte kaufen zu können bzw. keine Wahl mehr zu haben.
Wirkliche Preemption wie sie dxfl12 fordert, ist erst mit Pascal möglich, siehe auch Dynamisches Loadbalancing.
Ja und da hat nV die Leute mit den DX12 Stickern auf den Karton's mal wieder schön ins Boxhorn gejagt, daher verschwenden sie auch wenig Zeit Maxwell noch zu pushen. Das liest sich bei dir wie Butter...einfacher zu verstehen.;)
Für mich steht daher die Frage im Raum, warum AMD soviel Zeit verschwendet hat und sich hier die Butter vom Brot nehmen lässt, anstatt weiter an einem eigenen Software Ökosystem zu arbeiten.
Ich denke mal weil sie mit M$ einen Deal haben und mit DX12, haben sie eigentlich was sie brauchen. Derzeit ist der Programmieraufwand für 2 APIs (11 und 12) einfach zu hoch. Richtiges DX12 kommt nicht wirklich zum Einsatz, sondern nur Patchen. Wie du schon schreibst, hat nV die Möglichkeit damit auf proprietär zu setzen. Die haben einfach die Kohle und die Zeit dafür, da was zwischen durch einzuschieben. Ich denke, derzeit arbeiten AMD mit vollem Manpower an einer vollständigen Hardwareplattform (APU, CPU, GPU, Mainboard - Zen und Vega plus Chipsätze). Da bleibt kaum Zeit für die Softwarebasis, neue Treiber sind ja in Arbeit.
Ob das so bleibt ist fraglich, denn AMD verweist ja ständig auf dxfl12 Performance und dort erkennt man, das AMD auch zulegen kann, oder sagen wir das NVidia "mehr" verliert. Das schiebt dann P/L Verhältnisse aber auch das Effizienzverhalten der jeweils herstellereigenen Architekturen enger zusammen.
Sehe ich auch so und hätte Leo ruhig mit ansprechen könen, aber Steigerungen sind ja immer möglich.;)
Locken kann man damit diejenigen, die hier, heute und jetzt was Schnelleres suchen. Dann greift man zu NVidia, bei denen ist das ganze Geschäft einfach schnelllebiger geworden ist.
Aber auch teurer und man muss damit rechnen das man morgen wie eine heiße Kartoffel fallen gelassen wird. Hier laufen HDs 5850... noch recht gut.
Ansonsten ist das eine recht gute Analyse, die wiederspiegelt was wir gerade jetzt erleben. Obs in einem Jahr immer noch ist, abwarten. Takt ist nicht alles, zeigt aber zZ den Unterschied auf. Wenn AMD sich an eigenen Zielen stärker orientiert hätte (Effizienz 2,8 usw.), wäre das Problem wohl weniger ersichtlich und forcierend. Obs die Lösung ist, fragt sich noch. Ich hoffe immer noch das AMD hier und da tief pokert.
AMD kann der fehlenden Bandbreite bei weniger GPU Takt und Effizienz noch mit HBM2 begegnen, dann wahrscheinlich auch mit Lov Cost-HBM2 im Midrangesegment. Wichtig ist das sie ihre Einheiten ausgelastet bekommen. Möglicherweise entlässt AMD diesmal die Architektur- und Effizienzverbesserungen kleckerweise in den Markt, sie müssen bis Vega sinnvoll überbrücken und die Leute bei der Stange halten. Polaris war sicher nur der Anfang. Dort haben sie erstmal mit dem geringsten Aufwand und unter Einsatz verfügbarer finanzieller Mittel versucht, wieder Geld ins Säckel zu bekommen. Polaris verkauft sich jedenfalls nicht schlecht. Optimieren und verbessern kann man ja immer noch. GCN ist ein Langzeitlaufmodell. Scheint so als wäre der Fertigungsprozess bei GF jetzt auf einem besserem Niveau - das kann man dann irgendwann weitergeben. Anfängliche Schwierigkeiten waren ja vorprogrammiert, war bisher immer so wenn ein neuer Prozeß anlief (da gibt es halt Oualitätsschwankungen), der Auftragsfertiger gewechselt wird und setzt ja nicht nur AMD zu. nV kompensiert das einfach mit größerer Chipfläche und höherem Takt - was aber auch Waferfläche kostet. Dazu haben die einfach einen Vorteil von 3 Monaten, weil sie eher launchen konnten. TSMC war da wohl auf Zack. Wenn AMD dort hätte fertigen lassen, sähe das sicher anders aus. Die Prozeßkapazitäten die AMD sonst gebucht hat sind für andere freigeworden. Das kam TSMC recht und nV zu Gute.
Wenn man das Gesamtbild so betrachtet, steht AMD derzeit immer noch recht gut da. Die RX480 hat ja auch ein Alleinstellungsmerkmal und liegt zwischen 1060 und 1070. Unter DX11 eben nicht mit so starker Tendenz. NV hat sein Pulver bis auf die 1080Ti jedenfalls verschossen.=)
AckytheG
2016-10-30, 18:56:42
Das ist allerdings nichts, was ich direkt beeinflussen kann...
Sollst Du auch gar nicht.
Das wird schon der Markt erledigen.
Solange nVidia bei gleichem Leistungsniveau günstiger und effizienter produzieren kann, herrscht ein ungleiches Verhältnis bei den Margen.
NVidia könnte derzeit jede Preissenkung kontern.
Auf Dauer würde AMD einen solchen Preiskampf verlieren.
Ich persönlich hoffe jedenfalls, das AMD in Puncto Effizienz schnellst möglich aufholt. Wir Kunden können von einem solchen Schlagabtausch zweier Hersteller nur profitieren.
Das hat bis zum Erscheinen Maxwells wunderbar funktioniert.
BlacKi
2016-10-31, 11:45:42
Das sehe ich ähnlich.
Momentan haben wir die Situation, dass ein GP106 @192Bit später limitiert als ein Polaris10 @256Bit.
Hier muss AMD sehr dringend etwas machen
es ist gerade umgekehrt. polaris hat nur 256bit was für amd verhältnisse sparsam ist. hätte p10 nur 192bit oder 128bit, wären die karten viel effizienter, aber auch deutlich langsamer.
ursache ist, das der grafikchip zu langsam ist, trotz hohem takt. punkt aus. das gleicht amd aus indem man das SI/bandbreite drastisch erhöht. so kann man zumindest die perf/€ erhöhen. die kunden freuts, der kaufpreis sinkt.
wären die chips schneller, könnte amd die bandbreite/takt senken und effizientere karten bauen.
AckytheG
2016-10-31, 16:56:40
es ist gerade umgekehrt. polaris hat nur 256bit was für amd verhältnisse sparsam ist...
Es geht aber nicht um AMD-Verhältnisse, sondern um den Wettbewerb mit nVidia. Und da reichen diese Verhältnisse nun mal nicht.
...hätte p10 nur 192bit oder 128bit, wären die karten viel effizienter, aber auch deutlich langsamer.
Wie soll P10 denn an Effizienz gewinnen, wenn Du einen vorhandenen Flaschenhals weiter vergrößerst?
Mal davon abgesehen:
Wieviel Einsparungen sind denn möglich, beim Verzicht auf ein Viertel (eine Hälfte) des Speicherinterfaces?
Hast Du da konkrete Zahlen/Prozente (vorzugsweise mit Link)?
ursache ist, das der grafikchip zu langsam ist, trotz hohem takt. punkt aus. das gleicht amd aus indem man das SI/bandbreite drastisch erhöht. so kann man zumindest die perf/€ erhöhen. die kunden freuts, der kaufpreis sinkt...
Mir ist gerade nicht ganz klar, wie Du das Fehlen von Rechenleistung effektiv durch Bandbreite ausgleichen willst?
Kannst Du das näher erläutern?
Und wieso sinkt der Kaufpreis bei einer Verbreiterung des Interfaces?
Der Grafikchip ist im Übrigen eben nicht zu langsam, sondern wird eher durch den Mangel an Bandbreite gebremst.
Sieht man sehr schön an den Leistungszuwächsen (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39615-amd-radeon-rx-480-im-test.html?start=25) beim separaten Übertakten des Speichers.
Das erklärt auch, warum die RX 470 8GB von Sapphire (mit gleichem Speichertakt) kaum langsamer ist als die RX 480.
Die Modelle von MSI und Asus (mit reduziertem Takt) dagegen schon.
...wären die chips schneller, könnte amd die bandbreite/takt senken und effizientere karten bauen.
Das ergibt keinen Sinn.
Im Bereich >500,- € ist Stromverbrauch kein ausschlaggebendes Argument. Schon >300,- ist das zweitrangig. Dann sind es halt 400W statt 200W. So lange es funktioniert und das Ergebnis stimmt, würde diese Käuferschicht sogar mehr in Kauf nehmen. Die Ablehnung von Dual-GPU hat völlig andere Gründe. Sollte 3DC eigentlich wissen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.