Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Deaktivierte Level2-Caches bei AMD und Intel


Leonidas
2004-11-18, 23:39:19
Link:
http://www.3dcenter.org/artikel/2004/11-18_a.php

GloomY
2004-11-18, 23:49:57
http://www.3dcenter.de/artikel/2004/11-18_pic8.php

"Die-Foto des Intel Opteron Prozessors" <- Öhm? :eek: X-D

Leonidas
2004-11-18, 23:53:16
"Die-Foto des Intel Opteron Prozessors" <- Öhm? :eek: X-D


LOL. Gefixt.

Aqualon
2004-11-18, 23:53:35
Auf dem Bild könnten sich vier Intel Itanium Prozessoren befinden, die Logikschaltungen sind blau und der Cache grün eingefärbt.
Da sind im Bild darüber die Farben im Untertitel vertauscht.

Aqua

Leonidas
2004-11-18, 23:56:02
Da sind im Bild darüber die Farben im Untertitel vertauscht.

Aqua



Na ich bin ja herrlich doof. Gefixt.

huha
2004-11-18, 23:59:56
Netter Artikel!

Woher kriegt man eigentlich solche netten CPU-Bilder?

-huha

Gast
2004-11-19, 00:38:27
CPUs mit deaktivierten Level2-Caches

In dem Abschnitt stimmt eine sache net, der Willamette hatte meineswissens nur 256kb Cache.

mapel110
2004-11-19, 00:41:14
CPUs mit deaktivierten Level2-Caches

In dem Abschnitt stimmt eine sache net, der Willamette hatte meineswissens nur 256kb Cache.

Korrekt. Erst der Northwood hat dann 512 gebracht.

geforce
2004-11-19, 00:48:09
Sehr guter Artikel, mal was interessantes für mich!

Fehler: "... mit 24 MB Cache an antreten. ..."

MfG Richard ;)

BUGFIX
2004-11-19, 01:19:14
Hi!
... und wieder was gelernt :)

Allerdings:
"Bisher ging es um Redundanz, Fertigung und marktwirtschaftliche Gründe. Der ein oder andere fragt sich jedoch vielleicht, welche CPUs nun letztlich davon betroffen sind und wie man diese Level2-Caches eventuell wieder deaktiviert . "

müsste IMO "reaktiviert" heißen

MfG

BUGFIX

Leonidas
2004-11-19, 02:27:46
CPUs mit deaktivierten Level2-Caches

In dem Abschnitt stimmt eine sache net, der Willamette hatte meineswissens nur 256kb Cache.



Stimmt, gefixt.

Leonidas
2004-11-19, 02:28:10
Sehr guter Artikel, mal was interessantes für mich!

Fehler: "... mit 24 MB Cache an antreten. ..."

MfG Richard ;)




Hi!
... und wieder was gelernt :)

Allerdings:
"Bisher ging es um Redundanz, Fertigung und marktwirtschaftliche Gründe. Der ein oder andere fragt sich jedoch vielleicht, welche CPUs nun letztlich davon betroffen sind und wie man diese Level2-Caches eventuell wieder deaktiviert . "

müsste IMO "reaktiviert" heißen

MfG

BUGFIX




Gefixt.

general-of-omega
2004-11-19, 10:30:44
gute informationen,

ihr von 3dcenter habt einfach die besten Artikel!

Gast
2004-11-19, 11:55:59
Und wo sind jetzt die Leute, die das wieder aktivieren und dann ein Programm fuer alle bereitstellen, woraufhin es wieder zu massenweisen Garantiefällen kommt :-)

Gast
2004-11-19, 13:32:43
gibts irgendwo ne Anleitung wie man bei A64 den Aktivierten Cahce wieder aktivieren kann ?

BlackBirdSR
2004-11-19, 13:52:14
gibts irgendwo ne Anleitung wie man bei A64 den Aktivierten Cahce wieder aktivieren kann ?

beim Athlon64 ?
Gar nicht.

Und ich würde auch schwer davon abraten es bei den versch. Durons zu probieren, die früher mal Athlons waren.

Pinoccio
2004-11-19, 14:27:40
Sind die Bilder der Prozessoren eingefärbt oder wirklich so bunt? Habe mir mittels Google (http://images.google.de/images?q=wafer&hl=de&lr=&client=firefox-a&sa=N&imgsz=xxlarge) mal einige angeschaut, denke eher letzteres, oder?

mfg Sebastian

BlackBirdSR
2004-11-19, 14:35:38
Sind die Bilder der Prozessoren eingefärbt oder wirklich so bunt? Habe mir mittels Google (http://images.google.de/images?q=wafer&hl=de&lr=&client=firefox-a&sa=N&imgsz=xxlarge) mal einige angeschaut, denke eher letzteres, oder?

mfg Sebastian

Die fertigen Wafer brechen und reflektieren natürlich das Licht in allen Farben.
Die Mikroskopaufnahmen sind dann allerdings nicht in der tatsächlichen Farbe. (Wird nicht mehr mit normalen Lichtmikroskop aufgenommen)

Die werden zur besseren Übersichtlichkeit wohl nachträglich eingefärbt, bzw mit farbigen Gels überzogen und dann angestrahlt.
In diesem Zusammenhang fällt auch oft der Begriff der "Dark Field Illumination" Mikroskopie.
Man fängt das Licht auf, das vim Objekt gestreut wird, erhält aber meist nicht die original Farben.

huha
2004-11-19, 17:08:26
Die Chips sind nicht wirklich so bunt.
Ich hab schon mal ein paar unterm Mikroskop angeschaut (zwar keine aktuellen CPUs, sondern ICs mit "Fenster", aber man kann schon Strukturen vernünftig erkennen, v.A. Speicherbereiche, vielleicht mach' ich mal ein Photo), die sind nicht so bunt. Ich denke, daß man die Farben nur mit polarisiertem Licht hinkriegt, was wohl auch so gemacht wird.

-huha

Piffan
2004-11-19, 19:26:56
Die fertigen Wafer brechen und reflektieren natürlich das Licht in allen Farben.
Die Mikroskopaufnahmen sind dann allerdings nicht in der tatsächlichen Farbe. (Wird nicht mehr mit normalen Lichtmikroskop aufgenommen)

Die werden zur besseren Übersichtlichkeit wohl nachträglich eingefärbt, bzw mit farbigen Gels überzogen und dann angestrahlt.
In diesem Zusammenhang fällt auch oft der Begriff der "Dark Field Illumination" Mikroskopie.
Man fängt das Licht auf, das vim Objekt gestreut wird, erhält aber meist nicht die original Farben.

Um die Auflösung von Lichtmikroskopen zu steigern, wird auch kurzwelliges Licht genommen. UV. Da sind die Farben sowieso hin.....

Unfug
2004-11-21, 12:23:50
Daumen hoch!
Super erklärt!!

Stone2001
2004-11-21, 20:11:21
Netter Artikel! ;)

Tobias_Topyla
2004-11-21, 22:36:56
gute informationen,

ihr von 3dcenter habt einfach die besten Artikel!
Nicht immer, aber immer öfters. (-:

Grüßt Euch, sehr nett gemacht. Großes Lob an den Max, finde solche Artikel zu Grundsätzlichen Themen immer interessanter als irgendwelche "Tests" von Hardware. Macht weiter so, die deutsche Online-Magazin Landschaft braucht dringend Qualität! Solche Artikel ergänzen ganz gut das weit verbreitete Halbwissen zu dem Thema. Einzig ernsthafter Kritik-Punkt wäre, dass ich den 3D-Teil vermisst habe. Wie sieht es mit der Deaktivierung bei Grafik-Chips aus? Stichwort: ROP usw. Hier wären ein paar Details sicherlich noch ganz interessant gewesen. Kein dringender Nachholbedarf, aber sicherlich mal ein Vorschlag von mir für einen zukünftigen Artikel. Machts gut!

P.S.: Ich konnte es zunächst nicht glauben als ich folgende Textstelle entdeckte: "Für die Fertigung werden eigene Fotolithographiemasken benötigt [...]". Max, erinnerst Du Dich an die blöde Diskussion? Zugeständnis oder Versehen? Ist aber auch Wurst, vielen Dank trotzdem. ;-)

BlackBirdSR
2004-11-21, 22:51:52
Nicht immer, aber immer öfters. (-:

Grüßt Euch, sehr nett gemacht. Großes Lob an den Max, finde solche Artikel zu Grundsätzlichen Themen immer interessanter als irgendwelche "Tests" von Hardware. Macht weiter so, die deutsche Online-Magazin Landschaft braucht dringend Qualität! Solche Artikel ergänzen ganz gut das weit verbreitete Halbwissen zu dem Thema. Einzig ernsthafter Kritik-Punkt wäre, dass ich den 3D-Teil vermisst habe. Wie sieht es mit der Deaktivierung bei Grafik-Chips aus? Stichwort: ROP usw. Hier wären ein paar Details sicherlich noch ganz interessant gewesen. Kein dringender Nachholbedarf, aber sicherlich mal ein Vorschlag von mir für einen zukünftigen Artikel. Machts gut!

P.S.: Ich konnte es zunächst nicht glauben als ich folgende Textstelle entdeckte: "Für die Fertigung werden eigene Fotolithographiemasken benötigt [...]". Max, erinnerst Du Dich an die blöde Diskussion? Zugeständnis oder Versehen? Ist aber auch Wurst, vielen Dank trotzdem. ;-)

Ich erinnere mich an die Sache mit dem Buchdruck.
Allerdings wird Fotoliithographie nunmal auch in Hinsicht auf Halbleiterfertigung eingesetzt.

Stichwort 3D-Chips. Die hatten hier nur einen kurzen gastauftritt. Es ging ja um die Caches. Da wäre ein Exkurs Richtung ROPs und Mechanismen bei 3DChips etwas zu weit weg vom Stamm.
Aber ich behalte das im Hinterkopf. Ist sicher ein interessantes Thema.

Danke füs Lob
Gruß
max

Gast
2004-11-22, 01:45:21
Ich hätte auch fast vergessen, hier BBSR noch mal ein Lob auszusprechen :)

:up:

GloomY
2004-11-22, 01:46:27
Heieieieieieieiei... wo sind meine Küchlein? :|

BlackBirdSR
2004-11-22, 06:17:33
Heieieieieieieiei... wo sind meine Küchlein? :|

Gute Frage?
Aber die müsste ich dazu erstmal kapieren.
Rück raus :)

Gast
2004-11-22, 22:20:57
Ja immer wieder mal schön was anderes zu lesen....ein Artikel zum nachdenken JO

GloomY
2004-11-23, 02:46:18
Gute Frage?
Aber die müsste ich dazu erstmal kapieren.
Rück raus :)Cookies = Küchlein; Und was Cookies sind, weisst du wahrscheinlich ;)

Ich wollte damit sagen, dass der obige Post von mir ist. Da ich aber - aus was für Gründen auch immer - nicht eingeloggt war (vielleicht weil die Cookies gefehlt haben), habe ich als Gast gepostet. Ich wollte mich aber zu erkennen geben, also hab' ich obiges noch mal nachgelegt.

:)

aths
2004-11-23, 03:56:59
Ich erinnere mich an die Sache mit dem Buchdruck.
Allerdings wird Fotoliithographie nunmal auch in Hinsicht auf Halbleiterfertigung eingesetzt.

Stichwort 3D-Chips. Die hatten hier nur einen kurzen gastauftritt. Es ging ja um die Caches. Da wäre ein Exkurs Richtung ROPs und Mechanismen bei 3DChips etwas zu weit weg vom Stamm.Einfach gesagt, vereinigen moderne GPUs mehrere Chips auf einem Chip. Da eine GPU im Gegensatz zur modernen CPU fast keinen Cache hat, sondern ein pures Logikmonster ist, opfert man zunächst zusätzliche Transistoren um bestimmte Funktionsgruppen voneinander zu entkoppeln. "Kaputte" GPUs als abgespeckte Version in den Handel zu bringen halte ich für ein kluges Konzept, von dem auch der Kunde profitiert.

Allerdings hat das seine Grenzen. Eine Pixelquadpipe nimmt weniger Fläche ein, als man denkt. Hat ein Chip gleich zwei Fehler ist es sehr unwahrscheinlich, dass beide in der gleichen Quadpipe liegen. Fehler in Caches auszubügeln wird vermutlich gar nicht gemacht. Liegt ein Fehler in einem wichtigen Teil (z. B. 2D-Ausgabe) muss der Chip ebenfalls weggeworfen werden.

Dass die GeForce 6800 nur 5 statt 6 Vertexshader hat, ist meiner Meinung nach weniger dazu gedacht, um die Fehlertoleranz zu erhöhen, sondern um den NV41 so klein wie möglich machen zu können. Wie du gezeigt hast, je kleiner der Chip, desto weniger schlimm sind über den Wafer verteilte Fehler.

Tobias_Topyla
2004-11-23, 08:23:14
Einfach gesagt, vereinigen moderne GPUs mehrere Chips auf einem Chip. Da eine GPU im Gegensatz zur modernen CPU fast keinen Cache hat, sondern ein pures Logikmonster ist, opfert man zunächst zusätzliche Transistoren um bestimmte Funktionsgruppen voneinander zu entkoppeln.
Wäre es nicht klüger wenigstens etwa Cache bereitzustellen? Ich glaube mich erinnern zu können, dass die BITBOYS da mal etwas vorhatten mit einem embedded DRAM. Infineon wollte dann aber irgendwie den Chip nicht mehr herstellen so das nichts aus der Idee geworden ist.

P.S.: Der Cache bei CPUs sorgt bei entsprechender Größe und angepasstem OS (kein Win32 ;-) für den Leistungsbringer Nr.: 1. Ab einem bestimmten Level sorgt dieser für Leistungssprünge die für einen normalen User ungeahnt sind. Immerhin kann dann dort der komplette SCHEDULER, sprich die Master-Instanz angepasst platz finden. Was glaub Ihr weshalb alle Server-CPUs so massig auf Cache setzen? ;-)

BlackBirdSR
2004-11-23, 09:51:24
Cookies = Küchlein; Und was Cookies sind, weisst du wahrscheinlich ;)

Ich wollte damit sagen, dass der obige Post von mir ist. Da ich aber - aus was für Gründen auch immer - nicht eingeloggt war (vielleicht weil die Cookies gefehlt haben), habe ich als Gast gepostet. Ich wollte mich aber zu erkennen geben, also hab' ich obiges noch mal nachgelegt.

:)
Da stand ich zu beginn auf der Leitung :)
Habs dann schon gemerkt, als ich die IPs mal vergleichen habe.

BlackBirdSR
2004-11-23, 09:59:09
Wäre es nicht klüger wenigstens etwa Cache bereitzustellen? Ich glaube mich erinnern zu können, dass die BITBOYS da mal etwas vorhatten mit einem embedded DRAM. Infineon wollte dann aber irgendwie den Chip nicht mehr herstellen so das nichts aus der Idee geworden ist.

P.S.: Der Cache bei CPUs sorgt bei entsprechender Größe und angepasstem OS (kein Win32 ;-) für den Leistungsbringer Nr.: 1. Ab einem bestimmten Level sorgt dieser für Leistungssprünge die für einen normalen User ungeahnt sind. Immerhin kann dann dort der komplette SCHEDULER, sprich die Master-Instanz angepasst platz finden. Was glaub Ihr weshalb alle Server-CPUs so massig auf Cache setzen? ;-)
GPUs besitzen natürlich Caches und Puffer für Daten.
Aber nicht in dem Maße, wie es bei CPUs der Fall ist.
Diese holen alle Daten und Befehle zur Berechnung ja nur aus dem L1/L2 Cache.
Der Grafikchip kann dagegen auf seinen eigenen Speicher zugreifen. Hier spielt Latenz auch keine so große Rolle, und somit kann man hier etwas zurückstecken.
Ausserdem scheint es gerade bei parallelen Architekturen, das Transistoren für den Logikteil im Verhältnis mehr Performance bringen als ein Cache.

Eisbär
2004-11-23, 10:56:06
Einfach gesagt, vereinigen moderne GPUs mehrere Chips auf einem Chip.

Der Verständlichkeit halber, du meinst doch mehrere Chips auf einem Die oder sind das mehrere Dies in einem Chip???

War eigentlich nicht der Celeron A 333MHz aufwärts der Vorreiter des deaktivierens? :confused:
Beim ersten Celeron wurde der Cache komplett abgeschaltet. Basis Pentium2. Der war aber unbrauchbar lahm, so dass ab 333MHz noch 128kB über gelassen wurden. Gab dann zwei verschiedene Celeron mit 333MHz. Wollte mir so einen aus der A-Siere damals holen, doch leider hat mir Asus durch nicht einhalten der AGP-Spezifikationen und Intel mit Slot-Sockel-Änderungen die Pläne verdorben. Mein schönes P2L97-S... und der SCSI-Scanner...:rolleyes:


Aber sonst geiler Artikel. :cool:



Zu den Bildern, wir haben sowas auch mal gemacht. Oberflächenuntersuchung war das.
Die Oberfläche wird poliert und anschließend angeätzt. Die verschiedenen Körner bei Metallen reagieren unterschiedlich und auch die unterschiedlichen Kornausrichtungen werden sichtbar, indem die Korngrenzen stärker geätzt werden, als das übrige Material. Das ganze wird dann über die Reflektionen von polarisiertem Licht sichtbar gemacht. Hoffe, ich habe meine Erinnerungen noch so halbwegs richtig zusammen bekommen. Suche es aber bei Bedarf noch mal raus.

Das besondere an Silizium: es ist ein Monokristall, besteht also quasi aus einem Korn. Hier entstehen die Randschichten und Strukturen über die Einbringung von Fremdatomen. Der Vorgang wird dotieren genannt. Der Kristall wird zwar nicht aufgebrochen und es entstehen nicht mehrere kleine Kristalle, bzw. Körner, sondern das Gitter, indem sich die Atome befinden wird verformt. Es werden größere oder kleinere Atome zwischen gelagert, die sich Platz schaffen oder Platz freigeben. Diese veränderte Struktur lässt sich somit sichtbar machen, da sich dadurch auch das Reflektionsverhalten der Oberfläche ändert.


Zur bildlichen Darstellung von Gitterstruktur und Körner:
Das Atomgitter sieht bei Silizium und Diamant gleich aus. Man stelle sich ein karriertes Blatt Papier vor, wo an jeder Ecke der Karos ein Punkt ist. Wenn man sich das in alle drei Dimensionen vorstellt, hat man die Atomstruktur. Entstehen tut dies, da Si in der 4. Hauptgruppe des Periodensystems steht und somit vier Partner sucht. Zu beachten ist auch der gleiche Winkel zwischen den Linien (90°). Wird jetzt ein Fremdatom eingebracht, dass größer ist, so versuchen die Atome wieder den gleichen Abstand zu dem neuen Atom zu bekommen. Also entrücken sie der Eckposition eines Karos, mehr in die Mitte des Karos. Das Gitter verzerrt sich. Wenn man sich jetzt noch vorstellt, dass dieses Fremdatom nur drei oder vielleicht auch fünf Partner sucht, die alle den gleichen Abstand um das Fremdatom haben wollen, wird deutlich wie das Gitter verzerrt wird.

Und das Aussehen von Körnern läßt sich am Besten mit Salami beschreiben.
Bei Eisen beispielsweise gibt es Körner mit viel und mit wenig Kohlenstofffremdatomen. Ähnlich der Salami mit Fleisch- und Fett-Klumpen. Zusätzlich können aber auch gleiche Körner zueinander verdreht sein, wie bei der Salami gleiche Fleischkörner mit verschiedener Faserrichtung existieren können. :D

Körner entstehen übrigens, wenn das Material aus dem flüssigen Zustand in den festen Zustand übertritt. Die Atome suchen sich einen Ort, an dem sie sich in der Flüssigkeit "festhalten" können. Das können Verunreinigungen oder einfach die Gefässwand sein. Von da aus greift sich immer ein freies Atom ein schon gebundenes Atom, bis alle vrebunden sind. Oder bis sie an eine nächste feste Grenze stossen. Z.B. die andere Seite des Topfes, den Boden oder einfach ein weiteres Korn. So ist das bei Eisen, bei Eis, bei Schnee und auch bei Silizium. Daher muss für den Monokristall (Einkristall), aus dem der Wafer besteht, auch Reinstsilizium verwendet werden. Es würden sonst ja an jeder Verunreinigung weitere Kristalle entstehen......


Hoffe, das hat hier weitergeholfen. Falls noch Fragen oder Anmerkungen/Kommentare sind, einfach posten. Ich werde sehen, was ich nicht zu wissen weiß.


CU
Eisbär

BlackBirdSR
2004-11-23, 14:01:22
Der Verständlichkeit halber, du meinst doch mehrere Chips auf einem Die oder sind das mehrere Dies in einem Chip???

War eigentlich nicht der Celeron A 333MHz aufwärts der Vorreiter des deaktivierens? :confused:
Beim ersten Celeron wurde der Cache komplett abgeschaltet. Basis Pentium2. Der war aber unbrauchbar lahm, so dass ab 333MHz noch 128kB über gelassen wurden. Gab dann zwei verschiedene Celeron mit 333MHz.


Soweit ich mich erinnern kann, war der erste Celeron ganz ohne L2 Cache.
Diesen gabs damals ja noch auf SRAM Modulen über den BSB angebunden auf dem PCB. Also nicht OnDie.
Die Nachfolger des "Covington" waren dann die ersten CPUs mit L2 Cache OnDie. Und eben genau diesen 128KB (+ Redundanz ;) )
Die P2/3 setzten ja weiterhin auf den externen L2 Cache.
(Die Dixon mit 256KB OnDie zähle ich mal nicht dazu. Gabs eh nur als Mobile)
Die Celerons waren also ganz eigene Kerne.

Abschalten von Cache war dann erst ab Coppermine und dem 533er Celeron in Mode.

aths
2004-11-23, 14:31:33
Wäre es nicht klüger wenigstens etwa Cache bereitzustellen? Ich glaube mich erinnern zu können, dass die BITBOYS da mal etwas vorhatten mit einem embedded DRAM. Infineon wollte dann aber irgendwie den Chip nicht mehr herstellen so das nichts aus der Idee geworden ist.Die "Extreme Bandwidth"-Architektur sollte im Chip sehr hohe Bandbreite zur Verfügung stellen, und Speicherzugriffe mittels mehrerer MB großer Caches minimieren. Heutige Grakas optimierten lieber den Speicherzugriff. Eine GPU hat mehrere Caches, z. B. für Vertexdaten, für Texturen, FIFOs werden auch breit eingesetzt, um einen Lastausgleich zu schaffen.

Eisbär
2004-11-23, 15:31:15
Soweit ich mich erinnern kann, war der erste Celeron ganz ohne L2 Cache.
Diesen gabs damals ja noch auf SRAM Modulen über den BSB angebunden auf dem PCB. Also nicht OnDie.
Die Nachfolger des "Covington" waren dann die ersten CPUs mit L2 Cache OnDie. Und eben genau diesen 128KB (+ Redundanz ;) )
Die P2/3 setzten ja weiterhin auf den externen L2 Cache.
(Die Dixon mit 256KB OnDie zähle ich mal nicht dazu. Gabs eh nur als Mobile)
Die Celerons waren also ganz eigene Kerne.

Abschalten von Cache war dann erst ab Coppermine und dem 533er Celeron in Mode.


Mein Gott, das ist wahr, der war noch extern und lief anfangs auch nur mit halbem Chiptakt. Somit auch wirklich kein Fall von Abschalten, sondern von mit weniger bestücken, was auch Geld spart ;D
Danke für die kleine Auffrischung.
Übrigens, ich habe meinen P2/266MHz immer noch, auch wenn im PC jetzt ein Celeron 400MHz steckt. Für Fernsehen und Mpeg1-4 reicht es aus. Win98SE auf ner halbwegs modernen 20GB-Platte und viel RAM + SCSI sorgen halt für frischen Atem. (Mein neuer Rechner ist mir zum Zocken trotzdem lieber :D )

Interessant, interessant...

Grüßle
Eisbär

Gast
2004-12-23, 12:53:45
sehr nice

Raff
2005-09-02, 16:30:59
Wirklich netter Artikel, den ich zu meiner Schande eben erst durch einen Hinweis von robbi gesehen habe (hab' ich damals geschlafen? :|). Wie auch immer, wieder was gelernt. :) Das Reaktivieren des schlafenden MBs bei meinem Celeron-M kann ich mir folglich abschminken.

Habe auch gleich noch 2 Fehler entdeckt, die sich beide auf der letzten Seite befinden. Erstens ist der Thunderbird (a.k.a. "Tbird") kein Athlon XP, sondern nur ein schlichter "Athlon" und zweitens wird Intels erster Pentium 4-Core AFAIK ohne "i" geschrieben, auch wenn man ihn gerne liebevoll mit "Willy" abkürzt => Willamette.

Sonst :up:

MfG,
Raff