target/s390x: Fix SQXBR
[qemu/ar7.git] / docs / devel / testing.rst
blobc1ff24370bfdd7885d1ab2225424b912a204b814
1 ===============
2 Testing in QEMU
3 ===============
5 This document describes the testing infrastructure in QEMU.
7 Testing with "make check"
8 =========================
10 The "make check" testing family includes most of the C based tests in QEMU. For
11 a quick help, run ``make check-help`` from the source tree.
13 The usual way to run these tests is:
15 .. code::
17   make check
19 which includes QAPI schema tests, unit tests, QTests and some iotests.
20 Different sub-types of "make check" tests will be explained below.
22 Before running tests, it is best to build QEMU programs first. Some tests
23 expect the executables to exist and will fail with obscure messages if they
24 cannot find them.
26 Unit tests
27 ----------
29 Unit tests, which can be invoked with ``make check-unit``, are simple C tests
30 that typically link to individual QEMU object files and exercise them by
31 calling exported functions.
33 If you are writing new code in QEMU, consider adding a unit test, especially
34 for utility modules that are relatively stateless or have few dependencies. To
35 add a new unit test:
37 1. Create a new source file. For example, ``tests/foo-test.c``.
39 2. Write the test. Normally you would include the header file which exports
40    the module API, then verify the interface behaves as expected from your
41    test. The test code should be organized with the glib testing framework.
42    Copying and modifying an existing test is usually a good idea.
44 3. Add the test to ``tests/Makefile.include``. First, name the unit test
45    program and add it to ``$(check-unit-y)``; then add a rule to build the
46    executable.  For example:
48 .. code::
50   check-unit-y += tests/foo-test$(EXESUF)
51   tests/foo-test$(EXESUF): tests/foo-test.o $(test-util-obj-y)
52   ...
54 Since unit tests don't require environment variables, the simplest way to debug
55 a unit test failure is often directly invoking it or even running it under
56 ``gdb``. However there can still be differences in behavior between ``make``
57 invocations and your manual run, due to ``$MALLOC_PERTURB_`` environment
58 variable (which affects memory reclamation and catches invalid pointers better)
59 and gtester options. If necessary, you can run
61 .. code::
63   make check-unit V=1
65 and copy the actual command line which executes the unit test, then run
66 it from the command line.
68 QTest
69 -----
71 QTest is a device emulation testing framework.  It can be very useful to test
72 device models; it could also control certain aspects of QEMU (such as virtual
73 clock stepping), with a special purpose "qtest" protocol.  Refer to the
74 documentation in ``qtest.c`` for more details of the protocol.
76 QTest cases can be executed with
78 .. code::
80    make check-qtest
82 The QTest library is implemented by ``tests/qtest/libqtest.c`` and the API is
83 defined in ``tests/qtest/libqtest.h``.
85 Consider adding a new QTest case when you are introducing a new virtual
86 hardware, or extending one if you are adding functionalities to an existing
87 virtual device.
89 On top of libqtest, a higher level library, ``libqos``, was created to
90 encapsulate common tasks of device drivers, such as memory management and
91 communicating with system buses or devices. Many virtual device tests use
92 libqos instead of directly calling into libqtest.
94 Steps to add a new QTest case are:
96 1. Create a new source file for the test. (More than one file can be added as
97    necessary.) For example, ``tests/qtest/foo-test.c``.
99 2. Write the test code with the glib and libqtest/libqos API. See also existing
100    tests and the library headers for reference.
102 3. Register the new test in ``tests/qtest/Makefile.include``. Add the test
103    executable name to an appropriate ``check-qtest-*-y`` variable. For example:
105    ``check-qtest-generic-y = tests/qtest/foo-test$(EXESUF)``
107 4. Add object dependencies of the executable in the Makefile, including the
108    test source file(s) and other interesting objects. For example:
110    ``tests/qtest/foo-test$(EXESUF): tests/qtest/foo-test.o $(libqos-obj-y)``
112 Debugging a QTest failure is slightly harder than the unit test because the
113 tests look up QEMU program names in the environment variables, such as
114 ``QTEST_QEMU_BINARY`` and ``QTEST_QEMU_IMG``, and also because it is not easy
115 to attach gdb to the QEMU process spawned from the test. But manual invoking
116 and using gdb on the test is still simple to do: find out the actual command
117 from the output of
119 .. code::
121   make check-qtest V=1
123 which you can run manually.
125 QAPI schema tests
126 -----------------
128 The QAPI schema tests validate the QAPI parser used by QMP, by feeding
129 predefined input to the parser and comparing the result with the reference
130 output.
132 The input/output data is managed under the ``tests/qapi-schema`` directory.
133 Each test case includes four files that have a common base name:
135   * ``${casename}.json`` - the file contains the JSON input for feeding the
136     parser
137   * ``${casename}.out`` - the file contains the expected stdout from the parser
138   * ``${casename}.err`` - the file contains the expected stderr from the parser
139   * ``${casename}.exit`` - the expected error code
141 Consider adding a new QAPI schema test when you are making a change on the QAPI
142 parser (either fixing a bug or extending/modifying the syntax). To do this:
144 1. Add four files for the new case as explained above. For example:
146   ``$EDITOR tests/qapi-schema/foo.{json,out,err,exit}``.
148 2. Add the new test in ``tests/Makefile.include``. For example:
150   ``qapi-schema += foo.json``
152 check-block
153 -----------
155 ``make check-block`` runs a subset of the block layer iotests (the tests that
156 are in the "auto" group in ``tests/qemu-iotests/group``).
157 See the "QEMU iotests" section below for more information.
159 GCC gcov support
160 ----------------
162 ``gcov`` is a GCC tool to analyze the testing coverage by
163 instrumenting the tested code. To use it, configure QEMU with
164 ``--enable-gcov`` option and build. Then run ``make check`` as usual.
166 If you want to gather coverage information on a single test the ``make
167 clean-coverage`` target can be used to delete any existing coverage
168 information before running a single test.
170 You can generate a HTML coverage report by executing ``make
171 coverage-report`` which will create
172 ./reports/coverage/coverage-report.html. If you want to create it
173 elsewhere simply execute ``make /foo/bar/baz/coverage-report.html``.
175 Further analysis can be conducted by running the ``gcov`` command
176 directly on the various .gcda output files. Please read the ``gcov``
177 documentation for more information.
179 QEMU iotests
180 ============
182 QEMU iotests, under the directory ``tests/qemu-iotests``, is the testing
183 framework widely used to test block layer related features. It is higher level
184 than "make check" tests and 99% of the code is written in bash or Python
185 scripts.  The testing success criteria is golden output comparison, and the
186 test files are named with numbers.
188 To run iotests, make sure QEMU is built successfully, then switch to the
189 ``tests/qemu-iotests`` directory under the build directory, and run ``./check``
190 with desired arguments from there.
192 By default, "raw" format and "file" protocol is used; all tests will be
193 executed, except the unsupported ones. You can override the format and protocol
194 with arguments:
196 .. code::
198   # test with qcow2 format
199   ./check -qcow2
200   # or test a different protocol
201   ./check -nbd
203 It's also possible to list test numbers explicitly:
205 .. code::
207   # run selected cases with qcow2 format
208   ./check -qcow2 001 030 153
210 Cache mode can be selected with the "-c" option, which may help reveal bugs
211 that are specific to certain cache mode.
213 More options are supported by the ``./check`` script, run ``./check -h`` for
214 help.
216 Writing a new test case
217 -----------------------
219 Consider writing a tests case when you are making any changes to the block
220 layer. An iotest case is usually the choice for that. There are already many
221 test cases, so it is possible that extending one of them may achieve the goal
222 and save the boilerplate to create one.  (Unfortunately, there isn't a 100%
223 reliable way to find a related one out of hundreds of tests.  One approach is
224 using ``git grep``.)
226 Usually an iotest case consists of two files. One is an executable that
227 produces output to stdout and stderr, the other is the expected reference
228 output. They are given the same number in file names. E.g. Test script ``055``
229 and reference output ``055.out``.
231 In rare cases, when outputs differ between cache mode ``none`` and others, a
232 ``.out.nocache`` file is added. In other cases, when outputs differ between
233 image formats, more than one ``.out`` files are created ending with the
234 respective format names, e.g. ``178.out.qcow2`` and ``178.out.raw``.
236 There isn't a hard rule about how to write a test script, but a new test is
237 usually a (copy and) modification of an existing case.  There are a few
238 commonly used ways to create a test:
240 * A Bash script. It will make use of several environmental variables related
241   to the testing procedure, and could source a group of ``common.*`` libraries
242   for some common helper routines.
244 * A Python unittest script. Import ``iotests`` and create a subclass of
245   ``iotests.QMPTestCase``, then call ``iotests.main`` method. The downside of
246   this approach is that the output is too scarce, and the script is considered
247   harder to debug.
249 * A simple Python script without using unittest module. This could also import
250   ``iotests`` for launching QEMU and utilities etc, but it doesn't inherit
251   from ``iotests.QMPTestCase`` therefore doesn't use the Python unittest
252   execution. This is a combination of 1 and 2.
254 Pick the language per your preference since both Bash and Python have
255 comparable library support for invoking and interacting with QEMU programs. If
256 you opt for Python, it is strongly recommended to write Python 3 compatible
257 code.
259 Both Python and Bash frameworks in iotests provide helpers to manage test
260 images. They can be used to create and clean up images under the test
261 directory. If no I/O or any protocol specific feature is needed, it is often
262 more convenient to use the pseudo block driver, ``null-co://``, as the test
263 image, which doesn't require image creation or cleaning up. Avoid system-wide
264 devices or files whenever possible, such as ``/dev/null`` or ``/dev/zero``.
265 Otherwise, image locking implications have to be considered.  For example,
266 another application on the host may have locked the file, possibly leading to a
267 test failure.  If using such devices are explicitly desired, consider adding
268 ``locking=off`` option to disable image locking.
270 .. _docker-ref:
272 Docker based tests
273 ==================
275 Introduction
276 ------------
278 The Docker testing framework in QEMU utilizes public Docker images to build and
279 test QEMU in predefined and widely accessible Linux environments.  This makes
280 it possible to expand the test coverage across distros, toolchain flavors and
281 library versions.
283 Prerequisites
284 -------------
286 Install "docker" with the system package manager and start the Docker service
287 on your development machine, then make sure you have the privilege to run
288 Docker commands. Typically it means setting up passwordless ``sudo docker``
289 command or login as root. For example:
291 .. code::
293   $ sudo yum install docker
294   $ # or `apt-get install docker` for Ubuntu, etc.
295   $ sudo systemctl start docker
296   $ sudo docker ps
298 The last command should print an empty table, to verify the system is ready.
300 An alternative method to set up permissions is by adding the current user to
301 "docker" group and making the docker daemon socket file (by default
302 ``/var/run/docker.sock``) accessible to the group:
304 .. code::
306   $ sudo groupadd docker
307   $ sudo usermod $USER -a -G docker
308   $ sudo chown :docker /var/run/docker.sock
310 Note that any one of above configurations makes it possible for the user to
311 exploit the whole host with Docker bind mounting or other privileged
312 operations.  So only do it on development machines.
314 Quickstart
315 ----------
317 From source tree, type ``make docker`` to see the help. Testing can be started
318 without configuring or building QEMU (``configure`` and ``make`` are done in
319 the container, with parameters defined by the make target):
321 .. code::
323   make docker-test-build@min-glib
325 This will create a container instance using the ``min-glib`` image (the image
326 is downloaded and initialized automatically), in which the ``test-build`` job
327 is executed.
329 Images
330 ------
332 Along with many other images, the ``min-glib`` image is defined in a Dockerfile
333 in ``tests/docker/dockerfiles/``, called ``min-glib.docker``. ``make docker``
334 command will list all the available images.
336 To add a new image, simply create a new ``.docker`` file under the
337 ``tests/docker/dockerfiles/`` directory.
339 A ``.pre`` script can be added beside the ``.docker`` file, which will be
340 executed before building the image under the build context directory. This is
341 mainly used to do necessary host side setup. One such setup is ``binfmt_misc``,
342 for example, to make qemu-user powered cross build containers work.
344 Tests
345 -----
347 Different tests are added to cover various configurations to build and test
348 QEMU.  Docker tests are the executables under ``tests/docker`` named
349 ``test-*``. They are typically shell scripts and are built on top of a shell
350 library, ``tests/docker/common.rc``, which provides helpers to find the QEMU
351 source and build it.
353 The full list of tests is printed in the ``make docker`` help.
355 Tools
356 -----
358 There are executables that are created to run in a specific Docker environment.
359 This makes it easy to write scripts that have heavy or special dependencies,
360 but are still very easy to use.
362 Currently the only tool is ``travis``, which mimics the Travis-CI tests in a
363 container. It runs in the ``travis`` image:
365 .. code::
367   make docker-travis@travis
369 Debugging a Docker test failure
370 -------------------------------
372 When CI tasks, maintainers or yourself report a Docker test failure, follow the
373 below steps to debug it:
375 1. Locally reproduce the failure with the reported command line. E.g. run
376    ``make docker-test-mingw@fedora J=8``.
377 2. Add "V=1" to the command line, try again, to see the verbose output.
378 3. Further add "DEBUG=1" to the command line. This will pause in a shell prompt
379    in the container right before testing starts. You could either manually
380    build QEMU and run tests from there, or press Ctrl-D to let the Docker
381    testing continue.
382 4. If you press Ctrl-D, the same building and testing procedure will begin, and
383    will hopefully run into the error again. After that, you will be dropped to
384    the prompt for debug.
386 Options
387 -------
389 Various options can be used to affect how Docker tests are done. The full
390 list is in the ``make docker`` help text. The frequently used ones are:
392 * ``V=1``: the same as in top level ``make``. It will be propagated to the
393   container and enable verbose output.
394 * ``J=$N``: the number of parallel tasks in make commands in the container,
395   similar to the ``-j $N`` option in top level ``make``. (The ``-j`` option in
396   top level ``make`` will not be propagated into the container.)
397 * ``DEBUG=1``: enables debug. See the previous "Debugging a Docker test
398   failure" section.
400 Thread Sanitizer
401 ================
403 Thread Sanitizer (TSan) is a tool which can detect data races.  QEMU supports
404 building and testing with this tool.
406 For more information on TSan:
408 https://github.com/google/sanitizers/wiki/ThreadSanitizerCppManual
410 Thread Sanitizer in Docker
411 ---------------------------
412 TSan is currently supported in the ubuntu2004 docker.
414 The test-tsan test will build using TSan and then run make check.
416 .. code::
418   make docker-test-tsan@ubuntu2004
420 TSan warnings under docker are placed in files located at build/tsan/.
422 We recommend using DEBUG=1 to allow launching the test from inside the docker,
423 and to allow review of the warnings generated by TSan.
425 Building and Testing with TSan
426 ------------------------------
428 It is possible to build and test with TSan, with a few additional steps.
429 These steps are normally done automatically in the docker.
431 There is a one time patch needed in clang-9 or clang-10 at this time:
433 .. code::
435   sed -i 's/^const/static const/g' \
436       /usr/lib/llvm-10/lib/clang/10.0.0/include/sanitizer/tsan_interface.h
438 To configure the build for TSan:
440 .. code::
442   ../configure --enable-tsan --cc=clang-10 --cxx=clang++-10 \
443                --disable-werror --extra-cflags="-O0"
445 The runtime behavior of TSAN is controlled by the TSAN_OPTIONS environment
446 variable.
448 More information on the TSAN_OPTIONS can be found here:
450 https://github.com/google/sanitizers/wiki/ThreadSanitizerFlags
452 For example:
454 .. code::
456   export TSAN_OPTIONS=suppressions=<path to qemu>/tests/tsan/suppressions.tsan \
457                       detect_deadlocks=false history_size=7 exitcode=0 \
458                       log_path=<build path>/tsan/tsan_warning
460 The above exitcode=0 has TSan continue without error if any warnings are found.
461 This allows for running the test and then checking the warnings afterwards.
462 If you want TSan to stop and exit with error on warnings, use exitcode=66.
464 TSan Suppressions
465 -----------------
466 Keep in mind that for any data race warning, although there might be a data race
467 detected by TSan, there might be no actual bug here.  TSan provides several
468 different mechanisms for suppressing warnings.  In general it is recommended
469 to fix the code if possible to eliminate the data race rather than suppress
470 the warning.
472 A few important files for suppressing warnings are:
474 tests/tsan/suppressions.tsan - Has TSan warnings we wish to suppress at runtime.
475 The comment on each supression will typically indicate why we are
476 suppressing it.  More information on the file format can be found here:
478 https://github.com/google/sanitizers/wiki/ThreadSanitizerSuppressions
480 tests/tsan/blacklist.tsan - Has TSan warnings we wish to disable
481 at compile time for test or debug.
482 Add flags to configure to enable:
484 "--extra-cflags=-fsanitize-blacklist=<src path>/tests/tsan/blacklist.tsan"
486 More information on the file format can be found here under "Blacklist Format":
488 https://github.com/google/sanitizers/wiki/ThreadSanitizerFlags
490 TSan Annotations
491 ----------------
492 include/qemu/tsan.h defines annotations.  See this file for more descriptions
493 of the annotations themselves.  Annotations can be used to suppress
494 TSan warnings or give TSan more information so that it can detect proper
495 relationships between accesses of data.
497 Annotation examples can be found here:
499 https://github.com/llvm/llvm-project/tree/master/compiler-rt/test/tsan/
501 Good files to start with are: annotate_happens_before.cpp and ignore_race.cpp
503 The full set of annotations can be found here:
505 https://github.com/llvm/llvm-project/blob/master/compiler-rt/lib/tsan/rtl/tsan_interface_ann.cpp
507 VM testing
508 ==========
510 This test suite contains scripts that bootstrap various guest images that have
511 necessary packages to build QEMU. The basic usage is documented in ``Makefile``
512 help which is displayed with ``make vm-help``.
514 Quickstart
515 ----------
517 Run ``make vm-help`` to list available make targets. Invoke a specific make
518 command to run build test in an image. For example, ``make vm-build-freebsd``
519 will build the source tree in the FreeBSD image. The command can be executed
520 from either the source tree or the build dir; if the former, ``./configure`` is
521 not needed. The command will then generate the test image in ``./tests/vm/``
522 under the working directory.
524 Note: images created by the scripts accept a well-known RSA key pair for SSH
525 access, so they SHOULD NOT be exposed to external interfaces if you are
526 concerned about attackers taking control of the guest and potentially
527 exploiting a QEMU security bug to compromise the host.
529 QEMU binaries
530 -------------
532 By default, qemu-system-x86_64 is searched in $PATH to run the guest. If there
533 isn't one, or if it is older than 2.10, the test won't work. In this case,
534 provide the QEMU binary in env var: ``QEMU=/path/to/qemu-2.10+``.
536 Likewise the path to qemu-img can be set in QEMU_IMG environment variable.
538 Make jobs
539 ---------
541 The ``-j$X`` option in the make command line is not propagated into the VM,
542 specify ``J=$X`` to control the make jobs in the guest.
544 Debugging
545 ---------
547 Add ``DEBUG=1`` and/or ``V=1`` to the make command to allow interactive
548 debugging and verbose output. If this is not enough, see the next section.
549 ``V=1`` will be propagated down into the make jobs in the guest.
551 Manual invocation
552 -----------------
554 Each guest script is an executable script with the same command line options.
555 For example to work with the netbsd guest, use ``$QEMU_SRC/tests/vm/netbsd``:
557 .. code::
559     $ cd $QEMU_SRC/tests/vm
561     # To bootstrap the image
562     $ ./netbsd --build-image --image /var/tmp/netbsd.img
563     <...>
565     # To run an arbitrary command in guest (the output will not be echoed unless
566     # --debug is added)
567     $ ./netbsd --debug --image /var/tmp/netbsd.img uname -a
569     # To build QEMU in guest
570     $ ./netbsd --debug --image /var/tmp/netbsd.img --build-qemu $QEMU_SRC
572     # To get to an interactive shell
573     $ ./netbsd --interactive --image /var/tmp/netbsd.img sh
575 Adding new guests
576 -----------------
578 Please look at existing guest scripts for how to add new guests.
580 Most importantly, create a subclass of BaseVM and implement ``build_image()``
581 method and define ``BUILD_SCRIPT``, then finally call ``basevm.main()`` from
582 the script's ``main()``.
584 * Usually in ``build_image()``, a template image is downloaded from a
585   predefined URL. ``BaseVM._download_with_cache()`` takes care of the cache and
586   the checksum, so consider using it.
588 * Once the image is downloaded, users, SSH server and QEMU build deps should
589   be set up:
591   - Root password set to ``BaseVM.ROOT_PASS``
592   - User ``BaseVM.GUEST_USER`` is created, and password set to
593     ``BaseVM.GUEST_PASS``
594   - SSH service is enabled and started on boot,
595     ``$QEMU_SRC/tests/keys/id_rsa.pub`` is added to ssh's ``authorized_keys``
596     file of both root and the normal user
597   - DHCP client service is enabled and started on boot, so that it can
598     automatically configure the virtio-net-pci NIC and communicate with QEMU
599     user net (10.0.2.2)
600   - Necessary packages are installed to untar the source tarball and build
601     QEMU
603 * Write a proper ``BUILD_SCRIPT`` template, which should be a shell script that
604   untars a raw virtio-blk block device, which is the tarball data blob of the
605   QEMU source tree, then configure/build it. Running "make check" is also
606   recommended.
608 Image fuzzer testing
609 ====================
611 An image fuzzer was added to exercise format drivers. Currently only qcow2 is
612 supported. To start the fuzzer, run
614 .. code::
616   tests/image-fuzzer/runner.py -c '[["qemu-img", "info", "$test_img"]]' /tmp/test qcow2
618 Alternatively, some command different from "qemu-img info" can be tested, by
619 changing the ``-c`` option.
621 Acceptance tests using the Avocado Framework
622 ============================================
624 The ``tests/acceptance`` directory hosts functional tests, also known
625 as acceptance level tests.  They're usually higher level tests, and
626 may interact with external resources and with various guest operating
627 systems.
629 These tests are written using the Avocado Testing Framework (which must
630 be installed separately) in conjunction with a the ``avocado_qemu.Test``
631 class, implemented at ``tests/acceptance/avocado_qemu``.
633 Tests based on ``avocado_qemu.Test`` can easily:
635  * Customize the command line arguments given to the convenience
636    ``self.vm`` attribute (a QEMUMachine instance)
638  * Interact with the QEMU monitor, send QMP commands and check
639    their results
641  * Interact with the guest OS, using the convenience console device
642    (which may be useful to assert the effectiveness and correctness of
643    command line arguments or QMP commands)
645  * Interact with external data files that accompany the test itself
646    (see ``self.get_data()``)
648  * Download (and cache) remote data files, such as firmware and kernel
649    images
651  * Have access to a library of guest OS images (by means of the
652    ``avocado.utils.vmimage`` library)
654  * Make use of various other test related utilities available at the
655    test class itself and at the utility library:
657    - http://avocado-framework.readthedocs.io/en/latest/api/test/avocado.html#avocado.Test
658    - http://avocado-framework.readthedocs.io/en/latest/api/utils/avocado.utils.html
660 Running tests
661 -------------
663 You can run the acceptance tests simply by executing:
665 .. code::
667   make check-acceptance
669 This involves the automatic creation of Python virtual environment
670 within the build tree (at ``tests/venv``) which will have all the
671 right dependencies, and will save tests results also within the
672 build tree (at ``tests/results``).
674 Note: the build environment must be using a Python 3 stack, and have
675 the ``venv`` and ``pip`` packages installed.  If necessary, make sure
676 ``configure`` is called with ``--python=`` and that those modules are
677 available.  On Debian and Ubuntu based systems, depending on the
678 specific version, they may be on packages named ``python3-venv`` and
679 ``python3-pip``.
681 The scripts installed inside the virtual environment may be used
682 without an "activation".  For instance, the Avocado test runner
683 may be invoked by running:
685  .. code::
687   tests/venv/bin/avocado run $OPTION1 $OPTION2 tests/acceptance/
689 Manual Installation
690 -------------------
692 To manually install Avocado and its dependencies, run:
694 .. code::
696   pip install --user avocado-framework
698 Alternatively, follow the instructions on this link:
700   http://avocado-framework.readthedocs.io/en/latest/GetStartedGuide.html#installing-avocado
702 Overview
703 --------
705 The ``tests/acceptance/avocado_qemu`` directory provides the
706 ``avocado_qemu`` Python module, containing the ``avocado_qemu.Test``
707 class.  Here's a simple usage example:
709 .. code::
711   from avocado_qemu import Test
714   class Version(Test):
715       """
716       :avocado: tags=quick
717       """
718       def test_qmp_human_info_version(self):
719           self.vm.launch()
720           res = self.vm.command('human-monitor-command',
721                                 command_line='info version')
722           self.assertRegexpMatches(res, r'^(\d+\.\d+\.\d)')
724 To execute your test, run:
726 .. code::
728   avocado run version.py
730 Tests may be classified according to a convention by using docstring
731 directives such as ``:avocado: tags=TAG1,TAG2``.  To run all tests
732 in the current directory, tagged as "quick", run:
734 .. code::
736   avocado run -t quick .
738 The ``avocado_qemu.Test`` base test class
739 -----------------------------------------
741 The ``avocado_qemu.Test`` class has a number of characteristics that
742 are worth being mentioned right away.
744 First of all, it attempts to give each test a ready to use QEMUMachine
745 instance, available at ``self.vm``.  Because many tests will tweak the
746 QEMU command line, launching the QEMUMachine (by using ``self.vm.launch()``)
747 is left to the test writer.
749 The base test class has also support for tests with more than one
750 QEMUMachine. The way to get machines is through the ``self.get_vm()``
751 method which will return a QEMUMachine instance. The ``self.get_vm()``
752 method accepts arguments that will be passed to the QEMUMachine creation
753 and also an optional `name` attribute so you can identify a specific
754 machine and get it more than once through the tests methods. A simple
755 and hypothetical example follows:
757 .. code::
759   from avocado_qemu import Test
762   class MultipleMachines(Test):
763       """
764       :avocado: enable
765       """
766       def test_multiple_machines(self):
767           first_machine = self.get_vm()
768           second_machine = self.get_vm()
769           self.get_vm(name='third_machine').launch()
771           first_machine.launch()
772           second_machine.launch()
774           first_res = first_machine.command(
775               'human-monitor-command',
776               command_line='info version')
778           second_res = second_machine.command(
779               'human-monitor-command',
780               command_line='info version')
782           third_res = self.get_vm(name='third_machine').command(
783               'human-monitor-command',
784               command_line='info version')
786           self.assertEquals(first_res, second_res, third_res)
788 At test "tear down", ``avocado_qemu.Test`` handles all the QEMUMachines
789 shutdown.
791 QEMUMachine
792 ~~~~~~~~~~~
794 The QEMUMachine API is already widely used in the Python iotests,
795 device-crash-test and other Python scripts.  It's a wrapper around the
796 execution of a QEMU binary, giving its users:
798  * the ability to set command line arguments to be given to the QEMU
799    binary
801  * a ready to use QMP connection and interface, which can be used to
802    send commands and inspect its results, as well as asynchronous
803    events
805  * convenience methods to set commonly used command line arguments in
806    a more succinct and intuitive way
808 QEMU binary selection
809 ~~~~~~~~~~~~~~~~~~~~~
811 The QEMU binary used for the ``self.vm`` QEMUMachine instance will
812 primarily depend on the value of the ``qemu_bin`` parameter.  If it's
813 not explicitly set, its default value will be the result of a dynamic
814 probe in the same source tree.  A suitable binary will be one that
815 targets the architecture matching host machine.
817 Based on this description, test writers will usually rely on one of
818 the following approaches:
820 1) Set ``qemu_bin``, and use the given binary
822 2) Do not set ``qemu_bin``, and use a QEMU binary named like
823    "${arch}-softmmu/qemu-system-${arch}", either in the current
824    working directory, or in the current source tree.
826 The resulting ``qemu_bin`` value will be preserved in the
827 ``avocado_qemu.Test`` as an attribute with the same name.
829 Attribute reference
830 -------------------
832 Besides the attributes and methods that are part of the base
833 ``avocado.Test`` class, the following attributes are available on any
834 ``avocado_qemu.Test`` instance.
839 A QEMUMachine instance, initially configured according to the given
840 ``qemu_bin`` parameter.
842 arch
843 ~~~~
845 The architecture can be used on different levels of the stack, e.g. by
846 the framework or by the test itself.  At the framework level, it will
847 currently influence the selection of a QEMU binary (when one is not
848 explicitly given).
850 Tests are also free to use this attribute value, for their own needs.
851 A test may, for instance, use the same value when selecting the
852 architecture of a kernel or disk image to boot a VM with.
854 The ``arch`` attribute will be set to the test parameter of the same
855 name.  If one is not given explicitly, it will either be set to
856 ``None``, or, if the test is tagged with one (and only one)
857 ``:avocado: tags=arch:VALUE`` tag, it will be set to ``VALUE``.
859 machine
860 ~~~~~~~
862 The machine type that will be set to all QEMUMachine instances created
863 by the test.
865 The ``machine`` attribute will be set to the test parameter of the same
866 name.  If one is not given explicitly, it will either be set to
867 ``None``, or, if the test is tagged with one (and only one)
868 ``:avocado: tags=machine:VALUE`` tag, it will be set to ``VALUE``.
870 qemu_bin
871 ~~~~~~~~
873 The preserved value of the ``qemu_bin`` parameter or the result of the
874 dynamic probe for a QEMU binary in the current working directory or
875 source tree.
877 Parameter reference
878 -------------------
880 To understand how Avocado parameters are accessed by tests, and how
881 they can be passed to tests, please refer to::
883   http://avocado-framework.readthedocs.io/en/latest/WritingTests.html#accessing-test-parameters
885 Parameter values can be easily seen in the log files, and will look
886 like the following:
888 .. code::
890   PARAMS (key=qemu_bin, path=*, default=x86_64-softmmu/qemu-system-x86_64) => 'x86_64-softmmu/qemu-system-x86_64
892 arch
893 ~~~~
895 The architecture that will influence the selection of a QEMU binary
896 (when one is not explicitly given).
898 Tests are also free to use this parameter value, for their own needs.
899 A test may, for instance, use the same value when selecting the
900 architecture of a kernel or disk image to boot a VM with.
902 This parameter has a direct relation with the ``arch`` attribute.  If
903 not given, it will default to None.
905 machine
906 ~~~~~~~
908 The machine type that will be set to all QEMUMachine instances created
909 by the test.
912 qemu_bin
913 ~~~~~~~~
915 The exact QEMU binary to be used on QEMUMachine.
917 Uninstalling Avocado
918 --------------------
920 If you've followed the manual installation instructions above, you can
921 easily uninstall Avocado.  Start by listing the packages you have
922 installed::
924   pip list --user
926 And remove any package you want with::
928   pip uninstall <package_name>
930 If you've used ``make check-acceptance``, the Python virtual environment where
931 Avocado is installed will be cleaned up as part of ``make check-clean``.
933 Testing with "make check-tcg"
934 =============================
936 The check-tcg tests are intended for simple smoke tests of both
937 linux-user and softmmu TCG functionality. However to build test
938 programs for guest targets you need to have cross compilers available.
939 If your distribution supports cross compilers you can do something as
940 simple as::
942   apt install gcc-aarch64-linux-gnu
944 The configure script will automatically pick up their presence.
945 Sometimes compilers have slightly odd names so the availability of
946 them can be prompted by passing in the appropriate configure option
947 for the architecture in question, for example::
949   $(configure) --cross-cc-aarch64=aarch64-cc
951 There is also a ``--cross-cc-flags-ARCH`` flag in case additional
952 compiler flags are needed to build for a given target.
954 If you have the ability to run containers as the user you can also
955 take advantage of the build systems "Docker" support. It will then use
956 containers to build any test case for an enabled guest where there is
957 no system compiler available. See :ref: `_docker-ref` for details.
959 Running subset of tests
960 -----------------------
962 You can build the tests for one architecture::
964   make build-tcg-tests-$TARGET
966 And run with::
968   make run-tcg-tests-$TARGET
970 Adding ``V=1`` to the invocation will show the details of how to
971 invoke QEMU for the test which is useful for debugging tests.
973 TCG test dependencies
974 ---------------------
976 The TCG tests are deliberately very light on dependencies and are
977 either totally bare with minimal gcc lib support (for softmmu tests)
978 or just glibc (for linux-user tests). This is because getting a cross
979 compiler to work with additional libraries can be challenging.
981 Other TCG Tests
982 ---------------
984 There are a number of out-of-tree test suites that are used for more
985 extensive testing of processor features.
987 KVM Unit Tests
988 ~~~~~~~~~~~~~~
990 The KVM unit tests are designed to run as a Guest OS under KVM but
991 there is no reason why they can't exercise the TCG as well. It
992 provides a minimal OS kernel with hooks for enabling the MMU as well
993 as reporting test results via a special device::
995   https://git.kernel.org/pub/scm/virt/kvm/kvm-unit-tests.git
997 Linux Test Project
998 ~~~~~~~~~~~~~~~~~~
1000 The LTP is focused on exercising the syscall interface of a Linux
1001 kernel. It checks that syscalls behave as documented and strives to
1002 exercise as many corner cases as possible. It is a useful test suite
1003 to run to exercise QEMU's linux-user code::
1005   https://linux-test-project.github.io/