PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : VMWare vs. normale Installation


pippo
2009-05-07, 11:44:00
Konnte dazu jetzt auf Anhieb nichts finden. Unser Lehrer meinte heute, dass ein Server unter VMWare nicht exakt simuliert werden kann. Unter anderem gings um Dateifreigaben und Sicherheitsrichtlinien etc in Windows Server 2003

Irgendwo im Hinterkopf mein ich aber mal gelesen zu haben, dass es für einen Benutzer / Domänenmitglied keinen Unterschied macht, ob das System jetzt direkt intalliert wurde oder unter VMWare simuliert.

Was stimmt denn nun?

jorge42
2009-05-07, 12:16:23
was bedeutet Simuliert? Und was bedeutet exakt? Das müsste man etwas präziser formulieren.

Wie dem auch sei, wie du schon beschrieben hast, ein User kann nicht unterscheiden, ob eine Maschine an der er REMOTE arbeitet virtualisiert ist oder nativ auf HW läuft. In der Regel weiß auch die Software nicht, ob sie auf einem virtualisiertem System läuft, weil die VM in sich eine gekapselte Einheit darstellt.

Wenn er systemzugriff hat (Treiber etc.) findet er es natürlich raus, oder auch nur das VMware Symbol unter rechts (kann man ausblenden).

Für Echtzeitanwendungen ist das natürlich was anderes, durch die aufgeteilten Ressourcen kann es zu geringfügigen Latenzen kommen, die bei reiner HW nicht vorhanden sind, aber Windows ist per se kein Echtzeit OS (linux auch nicht - glaub ich).

pippo
2009-05-07, 12:30:26
Er meinte, dass VMWare die Hardware nicht komplett vortäuschen kann (zu Ressourcenaufwändig) und deshalb einige Dinge nicht genauso funktionieren, als wenn man den Server nativ auf der HW installiert.

Hierbei gings aber nicht um Treiber etc, sondern nur mal um das AD und Freigaben / Sicherheitsrichtlinien für Ordner

jorge42
2009-05-07, 12:48:24
Dienste wie AD, DNS, DHCP, Freigaben ist das völlig egal ob sie auf virtuellen Umgebungen laufen, lediglich beim DC empfiehlt MS es nicht zu virtualisieren weil dort die Timer sehr wichtig sind, aber a) gibt es dazu Best-Practices womit es problemlos läuft und b) sagt das MS nur bis sie selbst eine konkurrenzfähige (im Gegensatz zu VMware oder Citrix) Virtualisierungslösung anbieten. Und HyperV ist als Gesamtkonzept noch nicht wirklich als Konkurrent anzusehen.

Mag sein, dass es theoretische Ansätze gibt, warum eine VM nicht 100%ig einer physischen Maschine entspricht, in der Praxis hat das aber zu 99,9% keine Auswirkung mehr. Natürlich muss man die Grenzen und Ziele der Virtualisierung berücksichtigen.

ShadowXX
2009-05-07, 12:56:08
Hierbei gings aber nicht um Treiber etc, sondern nur mal um das AD und Freigaben / Sicherheitsrichtlinien für Ordner
Also zumindest das funktioniert in eine VM Problemlos....viele unsere Kunde betreiben 80% Ihrer Server inzwischen virtuell. Darunter natürlich auch File-Server. Ich glaube nicht das die das machen würden, wenn die Freigaben / Sicherheitsrichtlinien für Ordner nicht ordentlich funktionieren würden.

Ebenso haben wir ganze Domänenlandschaften virtuell aufgebaut (mehere DCs, mehrere Domänenebenen und viele viel Clients) und da funktioniert das alles genauso wie es soll.

Lass dir von deinem Lehrer doch mal erklären warum das denn zu Resourcenaufwendig sein soll bzw. allgemein was das Problem da sein soll.

jorge42
2009-05-07, 13:32:00
Wenn ein Mittelständisches Unternehmen heute bei Neuinvestitionen NICHT auf den Virtualisierungs-Zug aufspringt, dann hat jemand schlichtweg gepennt. Klar gibt es Dinge, die man nicht virtualisiert, z.B. GROßE Datebanken, und damit meine ich nicht ein paar Gigabyte, sondern richtige Numbercruncher. Es gibt auch einige Anwendungen die extrem im Speichermanagement "rumwerkeln", dass beisst sich häufig mit dem VM eigenen Speichermanagement. Oder dedizierte spezielle Hardware macht häufig einen Strich ducht die Rechnung. Aber ein Mittelständisches RZ kann man heutzutage zu 95% problemlos virtualisieren.

Selbst die vor 5 Jahren noch sehr problematischen Terminal Services sind heute kein Thema mehr, damals ein absolutes No-Go.

Der Trend geht sogar weiter: Intel und citrix wollen endlich den lang angekündigten Bear-Metal-Hypervisor auf den Chipsatz packen, dadurch ist automatisch jeder Rechner ein Hypervisor, mehrere GLEICHZEITIG Laufende BS auf einer Workstation werden endlich realität, und durch die Integration in die Hardware, sind auch solche Dinge wie 3D keine richtigen Probleme mehr. Mal schauen was da kommt und wer da noch mitmacht.