Doppio avvio e virtualizzazione sia di Windows 8 che di Ubuntu

Windows e Linux a doppio avvio sono ben documentati, poiché esegue uno dei sisthemes operativi avviabili come un VM all'interno dell'altro (in Windows, Ubuntu, in Windows, ospita Ubuntu in un VM utilizzando VMWare Workstation / Player / etc ).

Sto progettando una build e voglio avere il meglio di entrambi i mondi: essere in grado di avviare in Windows 8 e eseguire Ubuntu in un VM, poi avviare nello stesso Ubuntu installare e eseguire lo stesso Windows 8 installare in un VM , con entrambe le OS che condividono una partizione per i file di progetto, ecc. Sembra che sia ansible.

  • Ci sono delle caveat che renderebbero questo imansible / estremamente difficile / instabile?
  • Ci sono configurazioni di disco consigliate (due unità fisiche, ecc.)?

AGGIORNARE:

Ho trovato alcune informazioni per get Windows 7 & 8 in esecuzione in questa configuration. E 'abbastanza hacktastic e ci è una buona probabilità che tu bork l'installazione di Windows, ma se qualcuno è più impegnato a questo che io sono: http://geekery.amhill.net/2010/01/27/virtualbox-with-existing -Windows-partizione /

Questa parte è la chiave:

eseguire lo stesso Windows 8 installare in un VM

Sì, ci sono alcune gravi avvertenze che renderebbero questo estremamente difficile e probabilmente instabile. I monitor virtuali di macchine (VMM) come VirtualBox, VMware Workstation / Player, Virtual PC, ecc. Tipicamente presentano diversi hardware virtualizzati rispetto a quello che il sistema effettivo ha.

I VMM basati su QEMU presentano tipicamente un chipset PIIX3 all'ospite OS. VirtualBox offre un'opzione per PIIX3, ICH9. VMware Workstation e VMware Player emulano anche un chipset, che probabilmente il tuo PC non ha.

Nelle versioni precedenti di Windows, vi era una funzionalità per select Profili hardware, che potrebbe consentire di tirarlo in modo sicuro, ma probabilmente non è l'uso previsto per esso. Non c'è davvero un buon modo per scegliere automaticamente il profilo.

Altre caratteristiche che differiscono drasticamente tra il tuo hardware reale e l'hardware virtualizzato includono: la scheda video (qualsiasi grafica accelerata avrà bisogno di un driver paravirtualizzato e che probabilmente non riuscirà), controller di disco (potrebbe essere in grado di tirare questo se si ha l'hardware vero e proprio, come la LSI 1068e, una vera e propria cartella BusLogic o, molto probabilmente, puoi impostare il controller di disco per presentare l'interface SATA AHCI e convincere il VMM a presentare un controller di disco AHCI avviabile), USB (se si avere una scheda Intel, probabilmente hai un controller USB 1.x invece di OHCI che presenta VirtualBox), audio (SoundBlaster 16 e Ensoniq Audio PCI sono comunemente emulati, ma hardware obsoleto) ecc.

Fare questo su Linux non è così male, poiché la maggior parte dei dettagli della configuration hardware che vengono presentati al sistema operativo vengono scelti al momento del boot-up, ad exception di cose come le regole di udev, in modo da poter avere nomi di interface di networking strano.

Il pericolo reale, credo, è quello di avere i piloti paravirtualizzati del VMM che eseguono hypercalls facendo cose che sono indefinite su una piattaforma reale. Se i driver paravirtualizzati assumono ciecamente che il VMM è presente senza controllare, molto probabilmente il kernel provoca un errore imprevisto, che si traduce in un panico del kernel su Linux e un BSoD in Windows (se non si innesca il triplo- arresto anomalia prima). Quanto è probabile? Ho avuto problemi con questo su Linux con i driver di visualizzazione PV VMware innescando un block su Virtual PC.