Fix VMware VGA depth computation
commita6109ff1b5d7184a9d490c4ff94f175940232ebd
authorAnthony Liguori <aliguori@us.ibm.com>
Thu, 17 Dec 2009 22:08:09 +0000 (18 08:08 +1000)
committerAnthony Liguori <aliguori@us.ibm.com>
Fri, 18 Dec 2009 17:26:32 +0000 (18 11:26 -0600)
tree6645d11e5d3507bc8a891df8d755c9af70cd6b0a
parentee3e41a9a0194af21d0da75f5afd87bea3738cf3
Fix VMware VGA depth computation

VMware VGA requires that the depth presented to the guest is the same as the
DisplaySurface that it renders to.  This is because it performs a very simple
memcpy() to blit from one surface to another.

We currently hardcode a 24-bit depth.  The surface allocator for SDL may, and
usually will, allocate a surface with a different depth causing screen
corruption.

This changes the code to allocate the DisplaySurface before initializing the
device which allows the depth of the DisplaySurface to be used instead of
hardcoding something.

Signed-off-by: Anthony Liguori <aliguori@us.ibm.com>
hw/vmware_vga.c