PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD: Noch keine Lösung gegen Mikroruckler in Sicht


Schlammsau
2008-08-28, 06:54:32
http://www.pcgameshardware.de/aid,657487/News/AMD_Noch_keine_Loesung_gegen_Mikroruckler_in_Sicht/

Das Thema Mikroruckler ist zwar bei AMD angekommen, die internen Meinungen scheinen aber gespalten zu sein. Sasa Marinkovic, Senior Product Marketing Manager bei AMDs Graphics Group, sieht Mikroruckeln auf Dual-GPU-Karten beispielsweise nicht als problematisch an. Die sogenannten Micro Stalls seien für Endanwender nach seinem Dafürhalten kein echtes Problem.
......................

Gast
2008-08-28, 07:33:37
Toller Typ !!!

Erst wenn die großen Reviewseiten das thematisieren wird das angepackt :-(

Naja ... Hät' ich mir denken können

Schlammsau
2008-08-28, 08:10:47
Was sind grosse Reviewseiten? PCGH oder Computerbase z.B. sprechen das Thema µR regelmässig an. Vor allem letztere hat im deutschsprachigem Raum einen nicht zu unterschätzenden Einfluss.

Gast
2008-08-28, 08:13:44
Sieht so aus als wolle man diesen Fehler nicht bereinigen.
Wahrscheinlich möchte man Multi-GPU Lösungen schneller veralten lassen, um neue Modelle verkaufen zu können. Mit aktuellen Karten besteht ja auch kaum ein Problem. Imho kann der Kunde aber verlangen, dass seine Investition nachhaltig und die Karte nicht nur auf dem Papier, sondern auch im optischen Eindruck schnell ist.

Schlammsau
2008-08-28, 08:17:14
Sieht so aus als wolle man diesen Fehler nicht bereinigen.
Wahrscheinlich möchte man Multi-GPU Lösungen schneller veralten lassen, um neue Modelle verkaufen zu können. Mit aktuellen Karten besteht ja auch kaum ein Problem. Imho kann der Kunde aber verlangen, dass seine Investition nachhaltig und die Karte nicht nur auf dem Papier, sondern auch im optischen Eindruck schnell ist.

schwer nachzuvollziehen, bin ja selber noch fest davon überzeugt, dass µR nicht so schlimm sind wie es viele glauben!
Hatte bis vor 2 Monaten ja selbst noch ein CF, bestehend aus 2 HD3870.

Gast
2008-08-28, 08:21:50
Hatte bis vor 2 Monaten ja selbst noch ein CF, bestehend aus 2 HD3870.


Es gibt Menschen, die eine High-End Karte kaufen und dann 3 und mehr Jahre behalten;)
Diese Kunden würde man zum vorzeitigen Aufrüsten zwingen.
Die Wahrnehmung dieser Ruckler ist natürlich subjektiv mal stärker mal schwächer. Ich konnte nicht damit leben.

user77
2008-08-28, 08:22:00
ich hatte auch mal ein sli aus 2x6600 gt laufen, habe aber davon nichts mitbekommen.

ich glaube AMD lässt seine Kunden im Regen stehen. Denn ich kann mir nicht vorstellen, dass es die besten Treiberprogrammierer nicht schaffen eine Routine in den Treiber einzubauen, dass die Ausgabezeiten konstant bleiben.

Schlammsau
2008-08-28, 08:45:52
ich hatte auch mal ein sli aus 2x6600 gt laufen, habe aber davon nichts mitbekommen.

ich glaube AMD lässt seine Kunden im Regen stehen. Denn ich kann mir nicht vorstellen, dass es die besten Treiberprogrammierer nicht schaffen eine Routine in den Treiber einzubauen, dass die Ausgabezeiten konstant bleiben.

Blöde Frage.....aber warum ATi? nVidia hat doch die gleichen Probleme und es gibt bereits Gerüchte einer neuen GX2. Ergo auch wieder µR.......

Exxtreme
2008-08-28, 08:51:47
Das Problem ist wohl doch nicht so einfach zu lösen. Ich habe es aber schonmal geschrieben. =)

Schlammsau
2008-08-28, 09:01:02
Das Problem ist wohl doch nicht so einfach zu lösen. Ich habe es aber schonmal geschrieben. =)

das denke ich auch, und auch der Harmonizer von tb wird nicht das bringen, was viele erwarten.

Exxtreme
2008-08-28, 09:24:45
Beim Harmonizer erwarte ich zwischendrin immer einige Ruckler. Bekannt auch als "jerkyness". Von der Vergangenheit auf die Zukunft zu schliessen ist bissle ungenau. =)

Gast
2008-08-28, 09:52:38
Was sind grosse Reviewseiten? PCGH oder Computerbase z.B. sprechen das Thema µR regelmässig an. Vor allem letztere hat im deutschsprachigem Raum einen nicht zu unterschätzenden Einfluss.

Hey Du hast tatsächlich recht ^^

Habe gerade bei CB den 4870 X2 Test durchgesehen ... aber wieso wird das Problem bei "AMD" dann als so unwichtig eingestuft ???


Mir geht das echt auf die Eier !!!

anddill
2008-08-28, 10:02:55
Weil das Problem für AMD weitgehend gelöst werden kann, indem man eine AMD-CPU nutzt ;)
Im Ernst, das Problem entsteht ja durch überschüssige CPU-Leistung. Die CPU muß ja rund 3x schneller als die Grafikkarten sein, um Microruckeln zu erzeugen, und das schaffen die derzeitigen X2 und Phenom halt nicht bzw. nur selten. Microruckeln dürfte hauptsächlich ein Problem der auf 3,X GHz übertakteten Intel CPUs sein.

Exxtreme
2008-08-28, 10:12:18
Weil das Problem für AMD weitgehend gelöst werden kann, indem man eine AMD-CPU nutzt ;)
Im Ernst, das Problem entsteht ja durch überschüssige CPU-Leistung. Die CPU muß ja rund 3x schneller als die Grafikkarten sein, um Microruckeln zu erzeugen, und das schaffen die derzeitigen X2 und Phenom halt nicht bzw. nur selten. Microruckeln dürfte hauptsächlich ein Problem der auf 3,X GHz übertakteten Intel CPUs sein.
Das Problem kann auch mit langsamen CPUs auftreten. Langsame CPUs sorgen nicht automatisch für eine gute Synchronisation. Denn eine Synchronisation ist nie vorhanden.

user77
2008-08-28, 10:14:42
Weil das Problem für AMD weitgehend gelöst werden kann, indem man eine AMD-CPU nutzt ;)
Im Ernst, das Problem entsteht ja durch überschüssige CPU-Leistung. Die CPU muß ja rund 3x schneller als die Grafikkarten sein, um Microruckeln zu erzeugen, und das schaffen die derzeitigen X2 und Phenom halt nicht bzw. nur selten. Microruckeln dürfte hauptsächlich ein Problem der auf 3,X GHz übertakteten Intel CPUs sein.

erklär das mal genauer.

Gast
2008-08-28, 10:29:58
Im Ernst, das Problem entsteht ja durch überschüssige CPU-Leistung. Die CPU muß ja rund 3x schneller als die Grafikkarten sein,


Bei hohen Auflösungen und Qualitätseinstellungen ist das aber automatisch gegeben.

Piffan
2008-08-28, 10:44:23
Wenn das Problem einfach zu lösen wäre, gäbe es die Lösung schon längst. Oder glaubt hier einer im Ernst, dass man einen möglichen Vorteil vor der Konkurrenz nicht umgehend ausschlachten würde? :wink:

Es ist eher infantiles Getrotze, diesen Sachverhalt nicht wahrhaben zu wollen und gar von Bösartigkeit auszugehen.

Warum die Lösung von tb, wenn sie denn flächendeckend das Problem lösen könnte, NICHT Anklang findet bei Ati oder NV sollte doch klar sein: Ein künstliche Hemmung zur Glättung der Ausgabezeiten macht sich bei der Promotion von SLI oder CF nicht gerade gut. SLI oder CF ist aber DAS Mittel, um die Performance- Krone zu erobern, und die ist ja für den gemeinen Zocker soooo wichtig...

Hart aber Tatsache: Gerade die Zielgruppe von CF und SLI ist selbst schuld, dass am Mikrorucklen nichts verändert wird. :tongue:

SLI- Eigner bekommen genau das, was sie verdienen. :eek:

anddill
2008-08-28, 11:03:11
erklär das mal genauer.

Ok, stell Dir mal einen bis zur Kernschmelze übertakten Intel-Quad vor. Der dürfte irgendwo bei 3,5GHz laufen. Dazu eine 4870X2 oder halt Crossfire, kommt aufs Selbe raus. Den lassen wir gegen einen Black Edition Phenom antreten. Der dürfte irgendwo bei 3GHz liegen. Nehmen wir mal die 2,8GHz von mir an, das läuft ohne Gefrickel und läßt sich mit einem preiswerten AC Silencer64 problemlos kühlen. Der AMD-Fan ist ja meist sparsam.
Gehen wir also mal davon aus, daß dank höherer IPC der Intel ca. doppelt so schnell ist.

Die Grafiksettings sind natürlich voll aufgedreht, AA und AF auf Anschlag, großer Monitor etc, sonst braucht man ja auch kein Multi-GPU System.

Steht man jetzt bei Crysis einfach so am Bach rum, ist die einzige KI die läuft der Schmetterling vor einem, dazu etwas Gebüsch und ansonsten recht begrenzte Sichtweite. Die Intel-CPU könnte jetzt vielleicht 200FpS liefern, das wäre ein Bild alle 5ms. Die AMD-CPU liegt dann bei geschätzten 100FpS, also 10ms pro Frame. Das Crossfire-Gespann schwitzt an der Kantenglättung der ganzen Blätter und schafft vielleicht 50FpS, also braucht 20ms pro Frame oder 40ms pro Frame und Grafikchip.
Die Bildfolge bei Intel wäre jetzt 5ms-35ms-5ms-35ms usw. Wir haben also leichtes Microruckeln, aber da 35ms etwa 30FpS entsprechen, sehen wir das nicht.
Das AMD-System liefert eine Abfolge von 10ms-30ms-10ms-30ms, was nicht viel besser als das Intel-System ist, aber halt auch nicht schlechter und daher nicht störend.

Jetzt greifen wir ein Dorf an. Gegner rennen, Granaten fliegen, Rauch und Staub liegen in der Luft. CPU und GPU-Last sind jetzt mal angenommen doppelt so hoch. Die Intel CPU liefert immernoch stolze 100FpS, der arme kleine AMD-Chip knickt auf 50FpS zusammen. Die Grafikkarten kämpfen mit den Transparenzeffekten und schaffen nur noch die magischen 30FpS. Schauen wir uns jetzt mal die Zeiten an:
Intel braucht jetzt 10ms pro Frame, jeder Grafikchip rechnet jetzt 66ms an seinem Bild. Die Bildfolge pendelt sich auf 10ms-56ms-10ms-56ms ein. Das sind zwar immernoch 30 Bilder pro Sekunde, aber die 56ms entsprechen gerade mal 18FpS, und das ruckelt heftig. Die FpS springen von Bild zu Bild 18-100-18-100 usw.

Was macht AMD in dieser Situation? Die CPU braucht 20ms um die Bilder an die Grafikkarten zu liefern. Es bildet sich eine Abfolge von 20ms-46ms-20ms-46ms. Das sieht schon etwas gleichmäßiger aus. Die längste Wartezeit entspricht 22FpS, die kürzere 50FpS. Das ruckelt deutlich weniger.

In der Praxis ist mein Rechner beim "Crysis-Dorf-Stürmen-Test" noch etwas langsamer als oben angenommen, die CPU-Limitierung liegt hier irgendwo bei 35-40FpS. Das reale Ergebnis dürfte also für AMD noch gleichmäßiger sein, aber ich wollte mir die Rechnerei nicht unnötig kompliziert machen.

dreas
2008-08-28, 11:06:42
Selten so einen geilen Post gelesen. Hut ab! Super erklärt. Andill hat schon so ne pädagogische Ader.
mfg dreas

Buzzler
2008-08-28, 11:16:53
Hat AMD/ATI nicht eh noch ganz andere Probleme?

Die wollen doch weg von den großen Chips, das läuft im Grenzfall darauf hinaus, nur noch einen Chip pro Generation zu entwickeln und um damit dann den ganzen Bereich von LowCost bis HighEnd abzudecken, müssen auf eine HiEnd-Karte wohl locker 8 Chips drauf. Mit AFR brauchen sie doch da gar nicht anzukommen, allein wegen der Latenz könnten sie das nicht mal mehr dem größten Vollidioten verkaufen und effektiv nur 1/8 des verbauten Speichers zu haben, will sich AMD/ATI wohl auch nicht wirklich geben... Das eigentliche Problem ist also doch eher, irgendwie dahin zurück zu kommen, dass quasi beliebig viele Chips gleichzeitig ein Bild rendern, dabei einen gemeinsamen Speicher nutzen und das auch noch möglichst linear skalierend.

Dagegen ist das MR-Problem doch Pillepalle, zumal das bei Lösung des anstehenden "ManyGPU-Problems" automatisch eh Geschichte wäre.

Aus firmenpolitischer Sicht also vielleicht gar nicht so dumm, das MR-Thema einfach auszusitzen, bis es von der Zeit überholt wird...

user77
2008-08-28, 11:18:32
danke! jetzt habs auch ich verstanden!

stav0815
2008-08-28, 11:20:36
Nur schade dass die CPU keine Bilder an die Grafikkarte liefert sondern die Grafikkarte aus den Daten der CPU ein Bild rendert...

Piffan
2008-08-28, 11:21:13
Selten so einen geilen Post gelesen. Hut ab! Super erklärt. Andill hat schon so ne pädagogische Ader.
mfg dreas

Ja, und wie man sieht, kann man da rein gar nix dran ändern, solange die grafischen Systeme diskret vor sich hinmurkeln. Echtes SLi wie damals bei der Voodoo, wo jeweils abwechselnd die Bildzeilen von verschiedenen Chips berechnent wurden, wäre ein Lösung. Aber eben aufgrund der Architektur der modernen Grafikhardware nicht mehr drin. Eine GPU macht eben weit mehr als nur zu rendern und vorgekautes Material in Pixel umzuwandeln.

SLI ist und bleibt Grütze. Selbst wenn es durch Hemmung zur "Harmonisierung" kommt, bleiben immer noch die Latenzen.

Wer rasante Spiele liebt, kennt die deutlichen Unterschiede zwischen verschiedenen Prerenderlimits, am besten fühlt sich ein Spiel an völlig ohne Prerender. Und wie bitteschön soll SLI bei diskreten Grafiksystemen ohne Prerender etwas bewirkten?

anddill
2008-08-28, 11:24:56
Nur schade dass die CPU keine Bilder an die Grafikkarte liefert sondern die Grafikkarte aus den Daten der CPU ein Bild rendert...
Wenn Du noch etwas genauer hinschaust, findest Du noch mindestens 2 weitere Vereinfachungen/Ungenauigkeiten in meinem Post.
Wenn man alles haarklein vorkaut, begreifts eh keiner mehr. Abgesehen davon habe ich selbst nicht alles bis ins kleinste Detail abrufbereit im Kopf. Nenne es neuronale Datenkompression ;)

reunion@work
2008-08-28, 11:30:36
Weil das Problem für AMD weitgehend gelöst werden kann, indem man eine AMD-CPU nutzt ;)
Im Ernst, das Problem entsteht ja durch überschüssige CPU-Leistung. Die CPU muß ja rund 3x schneller als die Grafikkarten sein, um Microruckeln zu erzeugen, und das schaffen die derzeitigen X2 und Phenom halt nicht bzw. nur selten. Microruckeln dürfte hauptsächlich ein Problem der auf 3,X GHz übertakteten Intel CPUs sein.

Das Problem dabei ist nur das moderne Spiele faktisch immer grafiklimitiert sind. Jede halbwegs aktuelle CPU schafft es selbst ein Spiel wie Crysis über 30fps zu halten. Hohe Auflösungen und massig AA/AF tragen ihr übriges dazu bei. Und wenn nicht die Grafikkarte limitiert kann ich mir SLi/CF auch gleich sparen.

Turiz
2008-08-28, 11:33:59
Wenn Du noch etwas genauer hinschaust, findest Du noch mindestens 2 weitere Vereinfachungen/Ungenauigkeiten in meinem Post.
Wenn man alles haarklein vorkaut, begreifts eh keiner mehr.
Nach deiner Beschreibung erschließt sich mir aber nicht was das Ganze mit SLI- oder Crossfiresystemen zu tun hat. Wenn ich mir deine Beispiele lese, scheint das Problem von Geschwindigkeitsunterschieden zwischen CPU und GPU verursacht zu werden. Aber vermutlich habe ich es auch nicht richtig verstanden. :biggrin:

stav0815
2008-08-28, 11:34:41
Wenn Du noch etwas genauer hinschaust, findest Du noch mindestens 2 weitere Vereinfachungen/Ungenauigkeiten in meinem Post.
Wenn man alles haarklein vorkaut, begreifts eh keiner mehr. Abgesehen davon habe ich selbst nicht alles bis ins kleinste Detail abrufbereit im Kopf. Nenne es neuronale Datenkompression ;)
Ok, wollte nur klarstellen dass es zwar als "Modell" taugt, aber real anders abläuft.

anddill
2008-08-28, 11:35:36
Das Problem dabei ist nur das moderne Spiele faktisch immer grafiklimitiert sind. Jede halbwegs aktuelle CPU schafft es selbst ein Spiel wie Crysis über 30fps zu halten. Hohe Auflösungen und massig AA/AF tragen ihr übriges dazu bei. Und wenn nicht die Grafikkarte limitiert kann ich mir SLi/CF auch gleich sparen.
Naja, wenns immer so wäre, wär das Problem ja auch leicht zu lösen. Kleine CPU für alle und fertig. Aber damit bekommt man ja weniger Schwanzmarks.
Und dann gibt es ja auch Spiele/Anwendungen, bei denen ein richtig schneller Prozessor tatsächlich Vorteile bringt.

Schlammsau
2008-08-28, 11:45:46
nur ein dummer Gedanke, aber welchen Enfluss haben den die verschiedenen CF bzw. SLi Chipsätze auf die µR? Es gibt ja PCIe Kombinationen wie bei mir z.B. von 2x 8 facher Anbindung. Genauso wie es Chipsätze mit einmal 4x und einmal 16x Anbindung gibt. Kann die unterschiedliche "Geschwindigkeit" nicht auch einen µR fördernden Einfluss haben? Ich meine wenn eine Karte nur mit PCIe 4x, und die andere Karte mit PCIe 16x angesteuert wird!

user77
2008-08-28, 11:47:44
das wär mal was: Der Große µRuckler Test!

verschiedene Grakas, Chipsätze, CPUs und spiele!

Piffan
2008-08-28, 12:00:06
das wär mal was: Der Große µRuckler Test!

verschiedene Grakas, Chipsätze, CPUs und spiele!

Ja klar. Nur müsste man dann allein für Crysis viele Tests machen, je nach Verhältnis der GPU- zur CPU- Last. DAs ist von Level zu Level und Blickrichtung zu Blickrichtung verschieden.......Und dann je nach Setting der Grafikqualität wieder Tests...

Imho dumm Tüch das Ganze :rolleyes:

anddill
2008-08-28, 12:02:58
Nach deiner Beschreibung erschließt sich mir aber nicht was das Ganze mit SLI- oder Crossfiresystemen zu tun hat. Wenn ich mir deine Beispiele lese, scheint das Problem von Geschwindigkeitsunterschieden zwischen CPU und GPU verursacht zu werden. Aber vermutlich habe ich es auch nicht richtig verstanden. :biggrin:
Ok, zum 17^8486741sten mal in diesem Forum:
0ms, Spiel startet
10ms CPU ist mit Bild 1 nach 10ms fertig und schickt es an Graka1. Die fängt an zu rechnen.
20ms CPU schickt nach weiteren 10ms Bild 2 an Graka2, die fängt an zu rechnen.
30ms CPU ist nach weiteren 10ms mit Bild 3 fertig, weiß aber nicht wohin damit, da beide Grakas beschäftigt sind -> geht pennen.
50ms nach Start, nach 40ms Rechenzeit ist Graka1 fertig, schiebt das Bild in den Framebuffer und schreit nach Daten. CPU wacht auf, gähnt kräftig und füttert Graka1, nimmt sich die Daten für Bild 4.
60ms Ist gerade fertig, da meldet sich Graka2 und nimmt die Daten entgegen. Bild 2 steht im Framebuffer, CPU fängt mit Bild 5 an.
70ms CPU ist mit Bild 5 fertig, findet aber keinen Abnehmer dafür. Wirft Schlaftablette ein.
90ms Graka1 schiebt Bild in Framebuffer, weckt CPU und läßt sich Bild 5 übergeben. CPU beginnt mit Bild 6.
100ms Bild 6 ist fertig, just in diesem Moment ist Graka2 mit Bild 5 fertig.
110ms 10ms später ist CPU mit Bild 7 fertig und braucht schon wieder Schlafmittel.

.
.
.
.
282947ms CPU ist Schlafmittelabhängig.

Schaut man sich jetzt mal die Zeitpunkte an, zu denen die Bilder in den Framebuffer kommen, ergibt sich:
50ms-60ms-90ms-100ms - als Framezeiten sind das: 10-30-10-(30-10-30 usw)
Das nennt man Microruckeln.

Schlammsau
2008-08-28, 12:07:36
Ok, zum 17^8486741sten mal in diesem Forum:
0ms, Spiel startet
10ms CPU ist mit Bild 1 nach 10ms fertig und schickt es an Graka1. Die fängt an zu rechnen.
20ms CPU schickt nach weiteren 10ms Bild 2 an Graka2, die fängt an zu rechnen.
30ms CPU ist nach weiteren 10ms mit Bild 3 fertig, weiß aber nicht wohin damit, da beide Grakas beschäftigt sind -> geht pennen.
50ms nach Start, nach 40ms Rechenzeit ist Graka1 fertig, schiebt das Bild in den Framebuffer und schreit nach Daten. CPU wacht auf, gähnt kräftig und füttert Graka1, nimmt sich die Daten für Bild 4.
60ms Ist gerade fertig, da meldet sich Graka2 und nimmt die Daten entgegen. Bild 2 steht im Framebuffer, CPU fängt mit Bild 5 an.
70ms CPU ist mit Bild 5 fertig, findet aber keinen Abnehmer dafür. Wirft Schlaftablette ein.
90ms Graka1 schiebt Bild in Framebuffer, weckt CPU und läßt sich Bild 5 übergeben. CPU beginnt mit Bild 6.
100ms Bild 6 ist fertig, just in diesem Moment ist Graka2 mit Bild 5 fertig.
110ms 10ms später ist CPU mit Bild 7 fertig und braucht schon wieder Schlafmittel.

.
.
.
.
282947ms CPU ist Schlafmittelabhängig.

Schaut man sich jetzt mal die Zeitpunkte an, zu denen die Bilder in den Framebuffer kommen, ergibt sich:
50ms-60ms-90ms-100ms - als Framezeiten sind das: 10-30-10-(30-10-30 usw)
Das nennt man Microruckeln.

ROFL;D

Turiz
2008-08-28, 12:07:52
Ok, zum 17^8486741sten mal in diesem Forum:.....
Kann es sein, dass du da ganz leicht zur Übertreibung neigst? :wink: Diese Erklärung gefällt mir jetzt aber wesentlich besser.

Grestorn
2008-08-28, 12:37:31
Natürlich kann man das Problem lösen. Ich habe auch schon öfter beschrieben, wie. Ich muss nur endlich dazu kommen das umzusetzen.

Ein paar Frames mit hohen Versatz mag es dann zwar immer noch geben, aber langfristige gefühlte Performanceverluste durch den Versatz kann man so locker unterdrücken.

user77
2008-08-28, 12:40:43
ich löse das Problem so, indem ich mich mit der Leistung meiner HD 3850 zufriedengebe, da ich nicht alles in Höchster Auflösung und Grafik spielen muss.

Piffan
2008-08-28, 12:58:08
Kann es sein, dass du da ganz leicht zur Übertreibung neigst? :wink: Diese Erklärung gefällt mir jetzt aber wesentlich besser.

Ich bin dafür, dass Andill jetzt alle Artikel schreibt. Das hätte was.....

Im Ernst, wenn jemand die Gabe zur anschaulichen Erklärung hat, dann er. Wozu mit nebensächlichem Gedöns abgeben, wenn man das Grundprinzip rüberbringen kann.

Piffan
2008-08-28, 13:04:38
ich löse das Problem so, indem ich mich mit der Leistung meiner HD 3850 zufriedengebe, da ich nicht alles in Höchster Auflösung und Grafik spielen muss.

Genau so geht es mir auch. Leute, die nur mit höchster Auflösung, FSAA und hochwertigstem AF spielen können, sind eh nur Weicheicher. :biggrin:

Aber ohne Scherz: Ich bin mit der 3850 (ist allerdings die HIS mit Silencer und den Takten einer 3870) zur Zeit sehr zufrieden: Auch Crysis mit 4x FSAA und 4x AF sind kein Problem, trotz hohen Ini- Settings.
Wenn man erst mal gerafft hat, dass die hohe Auflösung Gift für die Atis ist, sie stattdessen 4xFSAA fast verlustfrei bringen, dann stellt man sich die Frage nach dem Sinn manch abenteuerlicher Hardwarezusammenstellung.

Aber wenn es partout das "perfekte" Bild sein muss, ist der Griff zu einer SLI- Lösung naheliegend. Vielleicht klapp es ja doch noch mal mit dem Harmonizer.

Turiz
2008-08-28, 13:53:44
Ich bin dafür, dass Andill jetzt alle Artikel schreibt. Das hätte was.....

Im Ernst, wenn jemand die Gabe zur anschaulichen Erklärung hat, dann er. Wozu mit nebensächlichem Gedöns abgeben, wenn man das Grundprinzip rüberbringen kann. Ich finde ihn ja auch gut und wollte nicht kritisieren sondern ihn dazu bringen, dass er für mich und andere Laien etwas konkreter wird.

Gast
2008-08-28, 22:57:29
weise Worte...In genau dem Stil braucht das 3dc ein paar FAQs. Ist einfach verständlich und auch die Techniklaien werdens gern lesen, weil durch die humorige Art auch komplexe Themen nicht einschüchternd wirken.
Und bitte auf die Hauptseite, als Sticky im Forum liests sonst kein Schwein...

MadManniMan
2008-08-29, 09:12:05
Grestorn,

es bleibt ein Herumdoktorn an den Symptomen - solange die Ursache unbekämpft bleibt, ist das alles halbgar.

Deine Mühe freilich in Ehren :)

Grestorn
2008-08-29, 09:31:15
Das Grundproblem gab es schon immer, auch ohne SLI. Bis ein Frame angezeigt wird, vergeht immer eine Zeit x, die variabel ist und die CPU vorher nicht kennt. D.h. die CPU kann nie genau wissen wann das von ihr berechnete Bild tatsächlich angezeigt wird und deswegen auch nicht für einen 100% korrekten Zeitablauf sorgen.

Bei SLI/CF verschärft sich das Problem ja nur wegen dem Fakt, dass die beiden GPUs parallel rechnen und damit ein unter Umständen recht konstanter Versatz entsteht. Und dieser Versatz ist etwas, was man sehr wohl in den Griff bekommen kann, davon bin ich weiterhin überzeugt.

Ich habe gestern endlich mein VStudio 2008 Professional bekommen... Und jetzt erst recht Bock mich damit hinzusetzen am Wochenende... Wünscht mir viel Motivation, wenig Bock auf Drakensang und dass mich keiner besuchen kommt :)

MadManniMan
2008-08-29, 09:46:06
Aye, das wünsch ich Dir! Wenn das Programm dann wirklich funzt, brauchs aber wirklich nen dicken Artikel, der alles beleuchtet...

Gast
2008-08-29, 10:31:08
Es gibt Menschen, die eine High-End Karte kaufen und dann 3 und mehr Jahre behalten;)
Diese Kunden würde man zum vorzeitigen Aufrüsten zwingen.
Die Wahrnehmung dieser Ruckler ist natürlich subjektiv mal stärker mal schwächer. Ich konnte nicht damit leben.

Nein.

Käufer von CF oder SLI bilden überhaupt nicht die Schicht die so ein Gespann über 3 Jahre behält. ;)

Gast
2008-08-29, 10:34:54
Naja wenn das stimmt, wird es ein Spass wenn AMD mit nativen MultiGPU Karten aufwartet... Was will ich denn bitte mit 4 GPUs, die richtig heftigen Mauslag verursachen? Das muss doch beim Q&A von QuadSLI/Crossfire schon aufgefallen sein...

Piffan
2008-08-29, 10:44:06
Diese ganzen Multichip- Lösungen haben doch nur ein Ziel: Marketing.

Von daher kratzt es niemanden bei NV oder Ati, dass die paar Spinner- äh Enthusiasten, die sowas kaufen, dann von MR gequält werden.

Richtig böse finde ich Multichiplösungen mit Chips mittlerer oder niedriger Leistungsregionen. Was bitte soll dieser Unfug? Das ist dann mal wirklich versuchte Verarschung von breiteren Käuferschichten.

Wenn man den Versatz wirklich problemlos lösen könnte, gäbe es das schon längst. Ich schätze, dass es im Prinzip wohl geht, dann aber die schönen Schwanzmarks "korrigiert", und damit unterläuft man sein eigenes Marketing.

Schlimmer noch: Wenn so ein Programm von Privat kommt und das hier groß geupt wird, melden sich sicher bald Anwälte. Garantiert! :redface:

Grestorn
2008-08-29, 10:51:30
Wenn man den Versatz wirklich problemlos lösen könnte, gäbe es das schon längst. Ich schätze, dass es im Prinzip wohl geht, dann aber die schönen Schwanzmarks "korrigiert", und damit unterläuft man sein eigenes Marketing.

Das Problem tritt nur in bestimmten Situationen auf (nur wenn die CPU massiv unterlastet ist), wird nur von wenigen Menschen wahrgenommen und schlägt sich überhaupt nicht in Benchmarks nieder.

Deswegen sehen die Hersteller wohl (noch) keinen Handlungsbedarf.

Ich glaube immer noch nicht, dass sich die Benchmarkwerte messbar verschlechtern würden. Und jetzt wird's wirklich mal Zeit, dass ich den Beweis antrete... :)

MadManniMan
2008-08-29, 11:15:07
...und schlägt sich überhaupt nicht in Benchmarks durch.

Das ist ja das Perfide!

Die FPS-Werte mit ungleichmäßigeren Frametimes mit AFR im sind einfach nicht mi normalen gleichzusetzen - selbst wenn man schon lange aus dem Bereich heraus ist, wo man MR wirklich sieht, sind die dann immernoch nicht "gleichwertig".

Epizentrum
2008-08-29, 21:54:34
Alsooo, den Balken macht es länger nur 'sehen' tut man davon nicht viel. Ei ei ei, warum sollte man also ein Problem lösen, dass gar nicht 'existiert'. Es düngt mir, dass SLI/XFire nur einen Sinn haben: Mehr zu verkaufen.

Marchitecture at it's best.

Gast
2008-09-01, 12:49:23
Deswegen wirds wohl früher oder später drauf rauslaufen, dass die Chips (als massiv-Multicores soweiso) das ganze ähnrlich wie Larabee aufziehen, Tile-Based-Rendering.
Nicht mehr Frames abwechselnd rendern, sondern Kacheln.
Was bei 1 Graka mit mehreren chips, die sich 1 Speicher teilen auch noch besser gehen mag, als bei mehreren eigentlich separaten chips mit separaten speichergruppen etc. die die Daten ständig abgleichen müssen.
Sogesehen, warten bis sich das ganze von selbst erübrigt ;)

RavenTS
2008-09-01, 20:18:31
In genau dem Stil braucht das 3dc ein paar FAQs. Ist einfach verständlich und auch die Techniklaien werdens gern lesen, weil durch die humorige Art auch komplexe Themen nicht einschüchternd wirken.
Und bitte auf die Hauptseite, als Sticky im Forum liests sonst kein Schwein...

Er hat doch schon damit angefangen, siehe beispielsweise die "Techlets" zu Netzteilthemen...

Deswegen wirds wohl früher oder später drauf rauslaufen, dass die Chips (als massiv-Multicores soweiso) das ganze ähnrlich wie Larabee aufziehen, Tile-Based-Rendering.
Nicht mehr Frames abwechselnd rendern, sondern Kacheln.
Was bei 1 Graka mit mehreren chips, die sich 1 Speicher teilen auch noch besser gehen mag, als bei mehreren eigentlich separaten chips mit separaten speichergruppen etc. die die Daten ständig abgleichen müssen.
Sogesehen, warten bis sich das ganze von selbst erübrigt ;)

Genau. Es werden schließlich aus genau diesen Gründen vermutlich nicht in Zukunft einfach 2-8 normale Cores zusammengeklatscht, was ja wirklich ein "normales SLI/CF" wäre, sondern ebendas komplette Chipdesign auseinandergebrochen.
Ob die ganzen Einzelchips dann alle etwas Logik zur Koordination besitzen oder dies ein zweiter Chiptyp übernimmt und ob dann TiledBasedRendering angewendet wird oder was auch immer...kein Plan, aber ganz so einfach wie manche es sich hier ausmalen wirds wohl eher nicht kommen...

Gast
2008-09-01, 20:49:39
hmm, ich frage mich in diesem zusammenhang was wohl nv aus dem rampage design für schlüsse ziehen kann - es war schliesslich eine weitere mögliche lösung für das problem der mikroruckler.

Piffan
2008-09-02, 17:48:02
hmm, ich frage mich in diesem zusammenhang was wohl nv aus dem rampage design für schlüsse ziehen kann - es war schliesslich eine weitere mögliche lösung für das problem der mikroruckler.

Hat das Konzept nicht einen Geometrie- Prozessor und mehrere Render- Chips vorgesehen?
Im Prinzip ist das nichts anderes als das, was man heute in einer GPU zusammengefasst hat. Dort gibts doch auch mehrere Funktionseinheiten unter einem Dach, viele Einheiten sind dort wo Parallelisierung kein Problem ist, massenhaft multipliziert. Wie viele Shadereinheiten hat der Ati- Chip unter einem DAch? Von daher würde der Rampage heute genau vor dem gleichen Problem stehen wie die anderen Konzepte. In Wahrheit sind die Konzepte nämlich gleich, nur etwas anders aufgeführt. Zu Zeiten des Rampages hätte sicher niemand damit gerechnet, dass man mal mehrere Milliarden Transis und hunderte von "Prozessoren" in einer einzigen GPU vorfinden würde....

Bin ja mal gespannt, was aus der "Hydra" wird. Wahrscheinlich nüschts.........