PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Turbomodus für AMD-Karten auf AMD-Systemen


Gast
2010-05-17, 10:56:13
Warum macht es AMD nicht einfach so:

Man baue eine Extra Schnittstelle oder Sonstwas in die CPU ein die im Zusammenhang mit der hauseigenen Grafikkarte einen Performanc-Schub verursacht.
Sozusagen eine interne Erweiterung.

Wie wäre es wenn AMD einen zusätzlichen Befehlssatz in die CPUs intergriert, der mit den AMD-Treibern hocheffektiv zusammenarbeitet. Vielleicht einen Micro-Core der speziell die Treiber laufen lässt und so das System entlastet.
Damit könnte man NVidia prima ausschließen und Intel-CPUs ausstechen.

Gast
2010-05-17, 11:24:21
Wenn das kommen sollte, dann werde ich wohl keine ATi mehr kaufen. Schau dir doch mal Nvidia an, wie die mit ihrem PhysX versuchen den Markt schon kaputt zu machen. Und dabei komplett ausser acht lassen, dass es dem ganzen PC-Spielemarkt schadet.

Gast
2010-05-17, 11:53:34
Naja geplant ist es eventuell in ein paar Jahren.
Warum nicht der Nvintel-Seuche Einhalt zu gebieten, man muss sich eben zu wehren wissen.

Gast
2010-05-17, 15:33:14
Das wäre eine Idee! Eine stumpfsinnige Idee. Da würde sich AMD/ATi den hart umkämpften Grafikkartenmarkt vollends kaputtmachen. Der Threadstarter argumentiert in dem Sinne, dass dann mehr AMD-Plattformen gekauft werden, ich vermute allerdings, das weniger ATi-Karten verkauft werden, das Intel-Lager sich nämlich benachteiligt fühlt und statt dessen nVidia kauft.

Gast
2010-05-17, 16:52:41
Wieso, dann wären die AMD-Karten auf AMD-CPUs nur schneller aber auf der Intel-Plattform wie gehabt.

MiamiNice
2010-05-17, 17:02:26
Und wie willst Du dem Rest der Welt erklären das die gekaufte ATI Karte im Intel PC nicht die selbe Leistung wie auf einem AMD System bringt? Selbst der dickste ATI Fanboy mit Intel CPU kauft sich dann eine NV Karte.
Denkt euch nicht so einen Mist aus der schlecht ist für AMD/ATI. Denen geht es schon schlecht genug.

Gast
2010-05-17, 17:13:35
Und wie willst Du dem Rest der Welt erklären das die gekaufte ATI Karte im Intel PC nicht die selbe Leistung wie auf einem AMD System bringt? Selbst der dickste ATI Fanboy mit Intel CPU kauft sich dann eine NV Karte.
Denkt euch nicht so einen Mist aus der schlecht ist für AMD/ATI. Denen geht es schon schlecht genug.

Mimimi, könnten deine geliebten Marken fiktiv in den Schatten gestellt werden.

Die Nvidia Karte wird auch nicht schneller laufen, es handelt sich hier nur um eine Optimierung seitens AMD auf ihren Boards.

Das hat NV doch schon viel früher mit ihren Chipsätzen gemacht.

Iruwen
2010-05-17, 17:21:39
Das hat NV doch schon viel früher mit ihren Chipsätzen gemacht.

Was denn?

Gast
2010-05-17, 17:28:31
Was denn?

Bitteschön...

Performance-Turbo für GeForce Grafikprozessoren

Steigern Sie die Leistung Ihres GeForce Grafikprozessors. Stecken Sie den Prozessor einfach in ein Mainboard mit nForce 720a Medien- und Kommunikationsprozessor ein und nutzen Sie die GeForce Boost Technologie für noch mehr Grafikleistung.

http://www.nvidia.de/object/product_nforce_720a_de.html

Iruwen
2010-05-17, 17:35:10
Das war auch nur Marketingsprech für Hybrid SLI wenn ich das richtig sehe. Der Threadstarter hatte da wohl etwas andere Vorstellungen.

Gast
2010-05-17, 17:43:46
Das war auch nur Marketingsprech für Hybrid SLI wenn ich das richtig sehe. Der Threadstarter hatte da wohl etwas andere Vorstellungen.

Es gab auch einige Boards die automatisch den Takt des PCIE-Ports enheben konnten (oder war es AGP).
Nvidia hat dieses Mittel aufjedenfall angewendet.
Bei den Geforce 9600GT-Karten hat das teilweise zu Problemen geführt weil diese teilweise ihren Takt über den Bustakt generiert haben.

Coda
2010-05-17, 17:46:17
Technisch ist das abgesehen von der politischen Frage sowieso völliger Mumpitz. Bei Treibern gibt es nichts was sich gut als Befehlssatz abbilden lassen würde.

Iruwen
2010-05-17, 17:50:55
Klingt nicht so als sei das in der Form beabsichtigt (http://news.softpedia.com/news/Nvidia-039-s-Secret-Overclocking-GeForce-9600GT-Kills-its-9800GT-Brother-80015.shtml) gewesen, aber das wäre ja wieder etwas das problemlos mit Karten jedes Herstellers funktionieren würde.

Gast
2010-05-17, 18:51:18
Klingt nicht so als sei das in der Form beabsichtigt (http://news.softpedia.com/news/Nvidia-039-s-Secret-Overclocking-GeForce-9600GT-Kills-its-9800GT-Brother-80015.shtml) gewesen, aber das wäre ja wieder etwas das problemlos mit Karten jedes Herstellers funktionieren würde.

Das macht keinen Unterschied, Nvidia hat es gemacht da hast du deinen Beweis.

Iruwen
2010-05-17, 19:19:43
Erstens hat offenbar nicht explizit das Zusammenspiel von Nvidia-Grafikkarte und Nvidia-Chipsatz eine automatische Bustaskterhöhung bedingt (falls doch wäre es noch dämlicher als eh schon).
Zweitens wäre das keine Schnittstelle, kein Befehlssatz oder sonstiges sondern einfach automatische Übertaktung und mit jeder Hardware leicht zu reproduzieren.
Das macht den Unterschied.

Gast
2010-05-17, 20:02:24
Erstens hat offenbar nicht explizit das Zusammenspiel von Nvidia-Grafikkarte und Nvidia-Chipsatz eine automatische Bustaskterhöhung bedingt (falls doch wäre es noch dämlicher als eh schon).
Zweitens wäre das keine Schnittstelle, kein Befehlssatz oder sonstiges sondern einfach automatische Übertaktung und mit jeder Hardware leicht zu reproduzieren.
Das macht den Unterschied.

Doch, diese Option war im Bios soweit ich weiß abschaltbar.
Es gab auch diverse andere Versuche mit den älteren Nforce-Chipsätzen NV-exklusive Extras einzubauen.

Gast
2010-05-17, 20:03:10
Doch, diese Option war im Bios soweit ich weiß abschaltbar.
Es gab auch diverse andere Versuche mit den älteren Nforce-Chipsätzen NV-exklusive Extras einzubauen.
Also ich meine das Mainboard hat nur übertaktet wenn er eine NV-Graka erkannt hat.

Gast
2010-05-17, 20:07:27
Erstens hat offenbar nicht explizit das Zusammenspiel von Nvidia-Grafikkarte und Nvidia-Chipsatz eine automatische Bustaskterhöhung bedingt (falls doch wäre es noch dämlicher als eh schon).
Zweitens wäre das keine Schnittstelle, kein Befehlssatz oder sonstiges sondern einfach automatische Übertaktung und mit jeder Hardware leicht zu reproduzieren.
Das macht den Unterschied.

http://www.technic3d.com/article-382,2-vorstellung-nvidia-nforce-600i-serie.htm

Linkboost heißt die Technik, mit "einer passenden Karte" sind nur NVidia-karten gemeint.

Gast
2010-05-17, 20:09:03
http://www.technic3d.com/article-382,2-vorstellung-nvidia-nforce-600i-serie.htm

Linkboost heißt die Technik, mit "einer passenden Karte" sind nur NVidia-karten gemeint.

Hier noch mehr Info
http://www.hardwareluxx.de/index.php/artikel/hardware/chipsaetze/2101-nvidia-nforce-500-serie.html?start=2

Gast
2010-05-17, 20:11:09
Technisch ist das abgesehen von der politischen Frage sowieso völliger Mumpitz. Bei Treibern gibt es nichts was sich gut als Befehlssatz abbilden lassen würde.

Wie wäre es mit einem OpenCL, Direct Compute Umsetzer/Wrapper auf Stream.

Soweit ich weiß muss das sowieso gemacht werden und überhaupt ziehen AMDs Treiber relativ viel CPU-Last eine spezielle Optimierung wäre hier wirklich nicht schlecht.

Iruwen
2010-05-17, 20:35:46
http://www.technic3d.com/article-382,2-vorstellung-nvidia-nforce-600i-serie.htm

Linkboost heißt die Technik, mit "einer passenden Karte" sind nur NVidia-karten gemeint.

Ahja, offizielles PDF (http://www.nvidia.com/content/nforce5/TB-02423-001_v01_LinkBoost.pdf).
Allerdings halt nichts was man nicht auch durch manuelle Übertaktung erreichen könnte. Und schön blöd wenn man merkt dass ab Werk übertaktete Karten nicht schneller sind als normal getaktete :D

Gast
2010-05-18, 11:55:57
Manuelle Übertaktung beinhaltet den Verlust der Garantie, dass ist bei diesem Feature nicht so.
Dennoch es ist im Grunde nicht anderes als vom Threadstarter angegeben wurde.
Wenn Nvidia das in so vielen Bereichen machen kann, dann kann das auch AMD.

Ich würde mir so einen Turbomodus zumindest wünschen, damit wären einige Schwachstellen der AMD-CPUs in Spielen zumindest ausmerzbar und der Abstand zu einer entsprechenden Intel-Plattform würde sich verringern.

Niemand hat hier behauptet, dass die Grafikkarten auf einer Intelplattform langsamer werden sollen. Zudem ist es ja schon so, dass SLI mit einer AMD-CPU
mangels neuer NV-Chipsätze zu einem seltenen Vergnügen geworden ist.
Zeitgleich aber Abkommen mit Intel bestehen, zukünftig dürfte es somit zu einem vollkommen Ausschluss AMDs von NVs Multi-GPU-Technik kommen.

AYAlf_2
2010-05-18, 15:17:58
Klingt nicht so als sei das in der Form beabsichtigt (http://news.softpedia.com/news/Nvidia-039-s-Secret-Overclocking-GeForce-9600GT-Kills-its-9800GT-Brother-80015.shtml) gewesen, aber das wäre ja wieder etwas das problemlos mit Karten jedes Herstellers funktionieren würde.

Das Nvidia unfähig ist, besagt ja nicht, dass sie es nicht versucht hätten.

Coda
2010-05-18, 15:25:53
Wie wäre es mit einem OpenCL, Direct Compute Umsetzer/Wrapper auf Stream.
Das nennt sich Compiler und genau das meinte ich als nicht sinnvoll als Befehlssatz umsetzbar.

Soweit ich weiß muss das sowieso gemacht werden und überhaupt ziehen AMDs Treiber relativ viel CPU-Last eine spezielle Optimierung wäre hier wirklich nicht schlecht.
Das ist genauso generelle Logik. Da kann man nicht viel durch ein Instruction-Sets beschleunigen, sonst hätte man es schon längst i.A. gemacht.

MiamiNice
2010-05-18, 15:44:34
Mimimi, könnten deine geliebten Marken fiktiv in den Schatten gestellt werden.

Die Nvidia Karte wird auch nicht schneller laufen, es handelt sich hier nur um eine Optimierung seitens AMD auf ihren Boards.

Das hat NV doch schon viel früher mit ihren Chipsätzen gemacht.

Das hatte jetzt nix mit meinen favorisierten Marken am Hut. Ich denke einfach das sowas dem Image schaden würde egal welcher Hersteller so etwas macht. Dann heisst es auf einmal z.b. ATi Karten laufen nur gut in AMD Systemen. Oder NV Karten laufen nur gut in Intel Systemen. Ich kann mir nicht vorstellen das einem Hersteller damit geholfen wäre. Und bei dem Marktanteil von Intel oder NV würde sicherlich als erstes AMD selber zu spüren bekommen was sie da angerichtet haben.

Gast
2010-05-18, 16:12:53
Das hatte jetzt nix mit meinen favorisierten Marken am Hut. Ich denke einfach das sowas dem Image schaden würde egal welcher Hersteller so etwas macht. Dann heisst es auf einmal z.b. ATi Karten laufen nur gut in AMD Systemen. Oder NV Karten laufen nur gut in Intel Systemen. Ich kann mir nicht vorstellen das einem Hersteller damit geholfen wäre. Und bei dem Marktanteil von Intel oder NV würde sicherlich als erstes AMD selber zu spüren bekommen was sie da angerichtet haben.

Aber nur nach deiner Logik.
Macht es AMD ist es böse aber dass NV es schon gemacht hat ist ja egal.

Gast
2010-05-18, 16:15:59
Das nennt sich Compiler und genau das meinte ich als nicht sinnvoll als Befehlssatz umsetzbar.


Das ist genauso generelle Logik. Da kann man nicht viel durch ein Instruction-Sets beschleunigen, sonst hätte man es schon längst i.A. gemacht.


Es gibt sicher Optimierungspotential.

Intel machts doch ganz fleißig mit seinen Compilern.
Ists nicht eher ein Interpreter?

AYAlf_2
2010-05-18, 16:18:26
Das hatte jetzt nix mit meinen favorisierten Marken am Hut. Ich denke einfach das sowas dem Image schaden würde egal welcher Hersteller so etwas macht. Dann heisst es auf einmal z.b. ATi Karten laufen nur gut in AMD Systemen. Oder NV Karten laufen nur gut in Intel Systemen. Ich kann mir nicht vorstellen das einem Hersteller damit geholfen wäre. Und bei dem Marktanteil von Intel oder NV würde sicherlich als erstes AMD selber zu spüren bekommen was sie da angerichtet haben.

OMG... Das hat aber dem Image von Nvidia noch nie geschadet. Zumindest macht es immer noch den Anschein.
Manchmal glaube ich wirklich einige sind blind.

Man kann nur hoffen, dass ATi das große Ganze im Auge behält, nicht so wie Nvidia.

MiamiNice
2010-05-18, 16:40:09
Aber nur nach deiner Logik.
Macht es AMD ist es böse aber dass NV es schon gemacht hat ist ja egal.

Das habe ich nicht so geschrieben und nicht so gemint. NV scheint es aber nicht an die Glocke gehangen zu haben zumindest hab ich davon bis jetzt nix gehört. Wen AMD sowas auf breiter Flur anfängt und es jeder weiss weil AMD damit wirbt, könnte es schon anders aussehen.
Klar ist es "böse" egal wer es macht.

Gast
2010-05-18, 17:08:32
Das habe ich nicht so geschrieben und nicht so gemint. NV scheint es aber nicht an die Glocke gehangen zu haben zumindest hab ich davon bis jetzt nix gehört. Wen AMD sowas auf breiter Flur anfängt und es jeder weiss weil AMD damit wirbt, könnte es schon anders aussehen.
Klar ist es "böse" egal wer es macht.

Glaub mir das wurde schon ordentlich beworben, außerdem hat man jetzt alternativ PhysX und die TWIMTBP-Pfuscherei (Batman-AA NV-esklusiv) in Spielen sowie deaktivieren von PhysX und kein SLI mit einem PhenomII mehr.

Noch heute glauben viele unbeholfene User, dass eine Geforce auf einem AMD-Board nicht läuft. Das stammt aus dieser Zeit und davor.

Ich sehe kein Problem an der Thematik, solange AMD die Karte nicht künstlich für die Intel-Plattform beschneidet.

Iruwen
2010-05-18, 20:02:13
Das Nvidia unfähig ist, besagt ja nicht, dass sie es nicht versucht hätten.

OMG... Das hat aber dem Image von Nvidia noch nie geschadet. Zumindest macht es immer noch den Anschein.
Manchmal glaube ich wirklich einige sind blind.

Man kann nur hoffen, dass ATi das große Ganze im Auge behält, nicht so wie Nvidia.

Wir wissen dass du Nvidia nicht magst, kannst dann jetzt aber auch mal einen Gang runterschalten.

Gast
2010-05-18, 20:18:32
Wir wissen dass du Nvidia nicht magst, kannst dann jetzt aber auch mal einen Gang runterschalten.

Er hat aber in diesem Punkt Recht.

AYAlf_2
2010-05-18, 20:43:32
Wir wissen dass du Nvidia nicht magst, kannst dann jetzt aber auch mal einen Gang runterschalten.
*Seufz*

Lass doch diese dämlichen Kommentare. Was bringt dir der Quatsch?

Iruwen
2010-05-19, 13:07:43
*Seufz*

Gleichfalls.

V2.0
2010-05-19, 13:27:44
Die Idee ist richtig gut. Man könnte den Turbomodus von GPU und CPU verbinden. Ist die CPU wenig gefordert und die GPU stark, dann gibt man da mehr Saft, ohne die TDP des Gesamtsystems zu überschreiten.

Und natürlich könnte man in Zukunft dafür sorgen, dass z.B. bei eigenen Karten die CPU integrierte Grafikeinheit im Idle die Darstellung übernimmt. Bei NV-Karten könnte man diese Feature blockieren.
NV hat mit PhysiX damit angefangen, AMD sollte sie nun schmecken lassen, warum es gut ist GPU und CPU zu bauen.

Undertaker
2010-05-19, 13:29:43
Die Idee ist richtig gut. Man könnte den Turbomodus von GPU und CPU verbinden. Ist die CPU wenig gefordert und die GPU stark, dann gibt man da mehr Saft, ohne die TDP des Gesamtsystems zu überschreiten.

So eine Verzahnung zwischen Turbo bei CPU und GPU gibt es bereits bei Clarkdale bzw. Arrandale. ;)

Iruwen
2010-05-19, 13:42:10
Und natürlich könnte man in Zukunft dafür sorgen, dass z.B. bei eigenen Karten die CPU integrierte Grafikeinheit im Idle die Darstellung übernimmt. Bei NV-Karten könnte man diese Feature blockieren.

Dann einigen (http://www.golem.de/1004/74729.html) sich Intel und Nvidia halt im eigenen Interesse endlich und pushen zusammen Optimus (http://www.nvidia.de/object/optimus_technology_de.html) für Desktoprechner, gegen das Marketing hätte AMD keine Chance.

Gast
2010-05-19, 15:13:57
Intels GMA ist nicht so der Bringer, deshalb ist dort so ein Feature erstmal für den Popo und dient wie zum Anfang erwähnt zur Minderung der Nachteile.

@Iruwen Hast du etwa Angst, dass deinem Lieblingshersteller etwas verloren geht?

Iruwen
2010-05-19, 15:19:32
Meinen Lieblingsherstellern Intel und Nvidia ginge dadurch sicherlich nichts verloren das von wirtschaftlicher Relevanz wäre.
Ich bin bestenfalls etwas irritiert dass die Fraktion die sich lauthals über das Aussperren von ATI im Zusammenspiel mit PhysX beschwert im gleichen Atemzug derartige Vorschläge macht.

Gast
2010-05-19, 15:38:04
Meinen Lieblingsherstellern Intel und Nvidia ginge dadurch sicherlich nichts verloren das von wirtschaftlicher Relevanz wäre.
Ich bin bestenfalls etwas irritiert dass die Fraktion die sich lauthals über das Aussperren von ATI im Zusammenspiel mit PhysX beschwert im gleichen Atemzug derartige Vorschläge macht.

Du irrst, hier ist die Fraktion vertretten, die NVs Aktionen legithim findet und von AMD Gleiches erwartet.

Dural
2010-05-19, 17:18:08
lol echt interessante diskusion hier ;)

vorallem wie die 25MHz mehr Takt auf dem PCI-E wirklich vorteile bringen würden...

wie so hat NV das wohl wider schnell begraben? weil es zu probleme kam da die chipsatz spannung angehoben werden musste und nicht alle GPUs den takt mit gemacht haben... das sind immerhin 25% mehr takt...

Gast
2010-05-19, 18:39:39
lol echt interessante diskusion hier ;)

vorallem wie die 25MHz mehr Takt auf dem PCI-E wirklich vorteile bringen würden...

wie so hat NV das wohl wider schnell begraben? weil es zu probleme kam da die chipsatz spannung angehoben werden musste und nicht alle GPUs den takt mit gemacht haben... das sind immerhin 25% mehr takt...

Es ging hier nicht um NV, das war nur ein Beispiel ohne direkte Bewertung!

Ich finde es schon amüsant wie schnell hier einige auf der Matte stehen.

Dural
2010-05-20, 12:30:16
und ich sage es ist komplett lächerlich solche sachen zu fordern... und ich steh nicht auf der Matte sondern man sieht hier mal nur wider eindrucksvoll wie AMDboys wirklich sind... und es wäre mir so was von komplett egal was AMD/AMD für "optimierungen" hätten... und es ist mir auch bei NV egal, solange man es deaktivieren kann ist alles OK.

NV hat die funktion übrigens mit neueren bios raus gehauen, ich hatte selber ein 680i system mit zwei 8800GTX und es gab nicht mal wirklich eine spürbaren leistungs-unterschid! (wie auch...)

Die sache mit der 9600GT ist kein werks "tuning" sondern lag einfach daran das die billigen Karten (referenz wahr davon übrigens gar nicht betroffen... so viel zum thema NV cheatet...) keinen clock geber hatten und stattesen einfach die 100MHz vom PCI-E nahmen... und einige MBs einen etwas höheren PCI-E takt haben/ermöglichen und somit übertaktet wurden, ich habe selber so eine 9600GT aber nie gesehen und hatte im ganze 4 stück.

V2.0
2010-05-20, 12:51:38
Dann einigen (http://www.golem.de/1004/74729.html) sich Intel und Nvidia halt im eigenen Interesse endlich und pushen zusammen Optimus (http://www.nvidia.de/object/optimus_technology_de.html) für Desktoprechner, gegen das Marketing hätte AMD keine Chance.


Dank Larabee werden sich NV und Intel nicht einigen.

Iruwen
2010-05-20, 14:39:47
Zweifelhaft ob Intel mit Larrabee 2 in die Leistungsregionen vordringt die Nvidia und ATI mit ihrer dann schon nächsten oder übernächsten Generation bedienen. Und genau darum geht es ja.

Gast
2010-05-21, 13:53:04
und ich sage es ist komplett lächerlich solche sachen zu fordern... und ich steh nicht auf der Matte sondern man sieht hier mal nur wider eindrucksvoll wie AMDboys wirklich sind... und es wäre mir so was von komplett egal was AMD/AMD für "optimierungen" hätten... und es ist mir auch bei NV egal, solange man es deaktivieren kann ist alles OK.

NV hat die funktion übrigens mit neueren bios raus gehauen, ich hatte selber ein 680i system mit zwei 8800GTX und es gab nicht mal wirklich eine spürbaren leistungs-unterschid! (wie auch...)

Die sache mit der 9600GT ist kein werks "tuning" sondern lag einfach daran das die billigen Karten (referenz wahr davon übrigens gar nicht betroffen... so viel zum thema NV cheatet...) keinen clock geber hatten und stattesen einfach die 100MHz vom PCI-E nahmen... und einige MBs einen etwas höheren PCI-E takt haben/ermöglichen und somit übertaktet wurden, ich habe selber so eine 9600GT aber nie gesehen und hatte im ganze 4 stück.

Lol, Zusammenhänge erkennen!

Bist du beleidigt weil ich hier meine Fiktion beschreibe?
Bist du beleidigt weil ich ein Beipiel parat habe, bei dem NV sowas gemacht hat wie ich es mir von AMD vorstelle?

Sicher nicht, du bist der objektive Foren-User der sich anmaßen kann andere Leute als Fanboy zu bezeichnen, wenn sie auch nur an einen kleinen Vorteil für AMD denken.
Wer hat gesagt, dass der "AMD-Booster" nicht abschaltbar sein soll?
Wenn er funktioniert und ordentlich Leistung bringt, wer bitte will sich nach dir richten und ihn abschalten weil es unfair für NV währe?

Ob Nvidia die Funktion nacher rausgehauen hat ist ohne Belang, sie haben diese Funktion beworben und theoretisch hat sie auch eine
Leistungssteigerung gebracht. Das reicht um es als Beispiel anzuwenden!

Die Sache mit der 9600GT war kein Tuning, es war ein Problem weil einige Karten instabil wurden. Hier wurde das auch nicht als Tuning tituliert! Lern lesen!

Gast
2010-05-21, 17:45:17
Zweifelhaft ob Intel mit Larrabee 2 in die Leistungsregionen vordringt die Nvidia und ATI mit ihrer dann schon nächsten oder übernächsten Generation bedienen. Und genau darum geht es ja.

Da wird Intel noch lange nicht mit Nvidia zusammenarbeiten.
Schon jetzt hat Intel zu AMD einen besseren Draht als zu Nvidia, obwohl sie ja direkte Konkurenten sind.
Außerdem wäre es in dieser Hinsicht egal, sollen die doch auch etwas ähnliches anbieten, das ist ja ihr gutes Recht!

Wäre schön wenn AMD CF umbaut, weg von AFR.
Vielleicht könnte man einen Bus realisieren der es ermöglicht, die Grafikchips untereinander richtig zu vernetzen und den Grafikspeicher addieren lässt.
So, dass kaum noch Redundanzen in den Speichern vorhanden ist und 2 x 1GB-Karten auch ca. 2 GB realen und nutzbaren Speicher ergibt.

Spasstiger
2010-05-21, 17:54:47
Vielleicht könnte man einen Bus realisieren der es ermöglicht, die Grafikchips untereinander richtig zu vernetzen und den Grafikspeicher addieren lässt.
So, dass kaum noch Redundanzen in den Speichern vorhanden ist und 2 x 1GB-Karten auch ca. 2 GB realen und nutzbaren Speicher ergibt.
Das ist definitiv langsamer als die jetzige Lösung mit 2*2 GB VRAM.

Gast
2010-05-21, 18:04:01
Das ist definitiv langsamer als die jetzige Lösung mit 2*2 GB VRAM.

wieso?

LuXon
2010-05-21, 18:08:26
Weil 2 Chips gleichzeitig auf den Speicher zugreiffen. Man könnte sagen, dass die Bandbreite halbiert wird.

Gast
2010-05-21, 18:12:26
Weil 2 Chips gleichzeitig auf den Speicher zugreiffen. Man könnte sagen, dass die Bandbreite halbiert wird.

Man kann den Speicher Segmentieren und die Speicherzugriffe intelligent steuern.

Spasstiger
2010-05-21, 18:15:17
Oder man verbaut einfach zwei unabhängige Speicherinterfaces, die sich nie in die Quere kommen könnten und latenzarm an die Ausführungseinheiten angebunden sind. Und schon sind wir wieder bei der heutigen Lösung.

LuXon
2010-05-21, 18:18:59
Man kann den Speicher Segmentieren und die Speicherzugriffe intelligent steuern.

Trotzdem wäre die Lösung Langsamer als die jetzige. Vorallem wegen den höheren Latenzen.

Du kannst es drehen wie du es willst. Entweder man hat eine langsamere Karte oder weniger VRAM.

Spasstiger
2010-05-21, 18:25:41
Solange sich GPUs mit über 300 mm² Diefläche wirtschaftlich fertigen lassen, sehe ich keine Not, etwas an den bestehenden Multi-GPU-Konzepten zu ändern. Wenn man mal an Fertigungsgrenzen stößt, dann könnte es sich vielleicht lohnen, Front- und Backend auf einen eigenen Chip auszulagern und eine variable Anzahl von Ausführungschips dranzubauen. Aber das tut heute einfach nicht not.

Gast
2010-05-21, 19:46:14
Doch es tut Not, Microruckler und Lag sind Mist und die heutige Lösung ist ein Krüppel von MGPU. MGPU wie ich es meine würde die Karten wie eine einzige im System abbilden und man bräuchte auch keine Profile oder sonstigen Mist.

Warum sollten die Latenzen zu hoch sein?

LuXon
2010-05-21, 21:30:34
Die eine Karte muss warten, weil gerade die andere Karte darauf zugreifft. Sie brauchen ja genau die gleichen Daten, sonst können sie nicht zusammen ein Bild erstellen.

Vllt. mal ein Blick zu den CPU's. Bei den Mehrsockelboards hat auch jede CPU ihren eigenen Speicher. Aber wenn ich mich nicht Irre ändert es langsam.

Natürlich ist eine andere Art MGPU zu machen wünschenswert. Dennoch denke ich, wird es nicht so schnell gehen, bis eine andere Technologie auf den Markt kommt.

Gast
2010-05-21, 22:01:26
Die eine Karte muss warten, weil gerade die andere Karte darauf zugreifft. Sie brauchen ja genau die gleichen Daten, sonst können sie nicht zusammen ein Bild erstellen.

Vllt. mal ein Blick zu den CPU's. Bei den Mehrsockelboards hat auch jede CPU ihren eigenen Speicher. Aber wenn ich mich nicht Irre ändert es langsam.

Natürlich ist eine andere Art MGPU zu machen wünschenswert. Dennoch denke ich, wird es nicht so schnell gehen, bis eine andere Technologie auf den Markt kommt.

Die Eine GPU greift auf das eine Segment die andere auf das andere zu und dann wird getauscht, zudem kann man einen Teil spiegeln wenn es besonders schnell gehen soll.
Nur ein Beispiel.
Takt1 GPU1 liest Byte 1 - 2 GPU2 liest Byte 3 - 4
Takt2 GPU1 liest Byte 3 - 4 GPU2 liest Byte 1 - 2

Verbinde ich die beiden Karten nun besonders breitbandig WDM-LWL als Beispiel habe ich praktisch aus zwei Karten eine einzige gemacht.
Außerdem können die GPUs dann untereinander paar Flags senden-Empfangen
die Priorität und den Lese/Schreib-Status enthalten.
Dafür muss man die Chips und das Speicherdesign drastisch verändern aber es sollte eigentlich alles machbar sein.

AFR ist eine Notlösung für eigentlich MGPU-untaugliche Karten/GPUs.

Bucklew
2010-05-21, 22:37:36
Die Eine GPU greift auf das eine Segment die andere auf das andere zu und dann wird getauscht, zudem kann man einen Teil spiegeln wenn es besonders schnell gehen soll.
Nur ein Beispiel.
Takt1 GPU1 liest Byte 1 - 2 GPU2 liest Byte 3 - 4
Takt2 GPU1 liest Byte 3 - 4 GPU2 liest Byte 1 - 2

Verbinde ich die beiden Karten nun besonders breitbandig WDM-LWL als Beispiel habe ich praktisch aus zwei Karten eine einzige gemacht.
Da scheint wohl nicht sonderlich viel Hintergrundwissen vorhanden zu sein um zu verstehen, warum das ganze längst nicht so einfach ist. Abgesehen davon, dass so lesen deutlich mehr als einen Takt braucht, würde diese Taktik z.B. dafür sorgen, dass die Speicherbandbreite quasi halbiert wird. Gleichzeitig müssen die beiden Chips abklären, wer in welchem Bereich Daten ändern und was wo liegt und wenn Chip A eben genau die Daten gerade bearbeitet, die auch B braucht - dann wartet sich B erstmal nen Pin. Nein, das geht noch längst nicht so einfach. Wenn es so einfach wäre, hätten wir das schon längst ;)

Gast
2010-05-21, 23:21:26
Da scheint wohl nicht sonderlich viel Hintergrundwissen vorhanden zu sein um zu verstehen, warum das ganze längst nicht so einfach ist. Abgesehen davon, dass so lesen deutlich mehr als einen Takt braucht, würde diese Taktik z.B. dafür sorgen, dass die Speicherbandbreite quasi halbiert wird. Gleichzeitig müssen die beiden Chips abklären, wer in welchem Bereich Daten ändern und was wo liegt und wenn Chip A eben genau die Daten gerade bearbeitet, die auch B braucht - dann wartet sich B erstmal nen Pin. Nein, das geht noch längst nicht so einfach. Wenn es so einfach wäre, hätten wir das schon längst ;)

Naja, man kann einen Cache benutzen und das gibt es dann schon heute.

Allerdings war das nur ein Beispiel und ich möchte den Speicher segmentieren bzw sowas machen wie raid0.

Bucklew
2010-05-22, 11:46:31
Allerdings war das nur ein Beispiel und ich möchte den Speicher segmentieren bzw sowas machen wie raid0.
Das geht nur mit einem gewaltigen Overhead, damit sich beide Chips nicht gegenseitig ihre Daten shreddern.

Gast
2010-06-02, 10:39:32
Das geht nur mit einem gewaltigen Overhead, damit sich beide Chips nicht gegenseitig ihre Daten shreddern.

Alles eine Sache der Optimierung.
Für unmöglich halte ich es jedenfalls nicht.

Bucklew
2010-06-02, 12:16:40
Alles eine Sache der Optimierung.
Für unmöglich halte ich es jedenfalls nicht.
Ja dann frag dich mal warum es das noch nicht gibt, wenn es doch so einfach wäre ;)

Gast
2010-06-02, 12:40:04
Ja dann frag dich mal warum es das noch nicht gibt, wenn es doch so einfach wäre ;)

Wie bei allem, es liegt an den Kosten.