ppc/pegasos2: Add constants for PCI config addresses
[qemu/rayw.git] / docs / devel / testing.rst
blob7500f076c21af3a79d1fc913ece7499d5167641b
1 Testing in QEMU
2 ===============
4 This document describes the testing infrastructure in QEMU.
6 Testing with "make check"
7 -------------------------
9 The "make check" testing family includes most of the C based tests in QEMU. For
10 a quick help, run ``make check-help`` from the source tree.
12 The usual way to run these tests is:
14 .. code::
16   make check
18 which includes QAPI schema tests, unit tests, QTests and some iotests.
19 Different sub-types of "make check" tests will be explained below.
21 Before running tests, it is best to build QEMU programs first. Some tests
22 expect the executables to exist and will fail with obscure messages if they
23 cannot find them.
25 Unit tests
26 ~~~~~~~~~~
28 Unit tests, which can be invoked with ``make check-unit``, are simple C tests
29 that typically link to individual QEMU object files and exercise them by
30 calling exported functions.
32 If you are writing new code in QEMU, consider adding a unit test, especially
33 for utility modules that are relatively stateless or have few dependencies. To
34 add a new unit test:
36 1. Create a new source file. For example, ``tests/unit/foo-test.c``.
38 2. Write the test. Normally you would include the header file which exports
39    the module API, then verify the interface behaves as expected from your
40    test. The test code should be organized with the glib testing framework.
41    Copying and modifying an existing test is usually a good idea.
43 3. Add the test to ``tests/unit/meson.build``. The unit tests are listed in a
44    dictionary called ``tests``.  The values are any additional sources and
45    dependencies to be linked with the test.  For a simple test whose source
46    is in ``tests/unit/foo-test.c``, it is enough to add an entry like::
48      {
49        ...
50        'foo-test': [],
51        ...
52      }
54 Since unit tests don't require environment variables, the simplest way to debug
55 a unit test failure is often directly invoking it or even running it under
56 ``gdb``. However there can still be differences in behavior between ``make``
57 invocations and your manual run, due to ``$MALLOC_PERTURB_`` environment
58 variable (which affects memory reclamation and catches invalid pointers better)
59 and gtester options. If necessary, you can run
61 .. code::
63   make check-unit V=1
65 and copy the actual command line which executes the unit test, then run
66 it from the command line.
68 QTest
69 ~~~~~
71 QTest is a device emulation testing framework.  It can be very useful to test
72 device models; it could also control certain aspects of QEMU (such as virtual
73 clock stepping), with a special purpose "qtest" protocol.  Refer to
74 :doc:`qtest` for more details.
76 QTest cases can be executed with
78 .. code::
80    make check-qtest
82 QAPI schema tests
83 ~~~~~~~~~~~~~~~~~
85 The QAPI schema tests validate the QAPI parser used by QMP, by feeding
86 predefined input to the parser and comparing the result with the reference
87 output.
89 The input/output data is managed under the ``tests/qapi-schema`` directory.
90 Each test case includes four files that have a common base name:
92   * ``${casename}.json`` - the file contains the JSON input for feeding the
93     parser
94   * ``${casename}.out`` - the file contains the expected stdout from the parser
95   * ``${casename}.err`` - the file contains the expected stderr from the parser
96   * ``${casename}.exit`` - the expected error code
98 Consider adding a new QAPI schema test when you are making a change on the QAPI
99 parser (either fixing a bug or extending/modifying the syntax). To do this:
101 1. Add four files for the new case as explained above. For example:
103   ``$EDITOR tests/qapi-schema/foo.{json,out,err,exit}``.
105 2. Add the new test in ``tests/Makefile.include``. For example:
107   ``qapi-schema += foo.json``
109 check-block
110 ~~~~~~~~~~~
112 ``make check-block`` runs a subset of the block layer iotests (the tests that
113 are in the "auto" group).
114 See the "QEMU iotests" section below for more information.
116 QEMU iotests
117 ------------
119 QEMU iotests, under the directory ``tests/qemu-iotests``, is the testing
120 framework widely used to test block layer related features. It is higher level
121 than "make check" tests and 99% of the code is written in bash or Python
122 scripts.  The testing success criteria is golden output comparison, and the
123 test files are named with numbers.
125 To run iotests, make sure QEMU is built successfully, then switch to the
126 ``tests/qemu-iotests`` directory under the build directory, and run ``./check``
127 with desired arguments from there.
129 By default, "raw" format and "file" protocol is used; all tests will be
130 executed, except the unsupported ones. You can override the format and protocol
131 with arguments:
133 .. code::
135   # test with qcow2 format
136   ./check -qcow2
137   # or test a different protocol
138   ./check -nbd
140 It's also possible to list test numbers explicitly:
142 .. code::
144   # run selected cases with qcow2 format
145   ./check -qcow2 001 030 153
147 Cache mode can be selected with the "-c" option, which may help reveal bugs
148 that are specific to certain cache mode.
150 More options are supported by the ``./check`` script, run ``./check -h`` for
151 help.
153 Writing a new test case
154 ~~~~~~~~~~~~~~~~~~~~~~~
156 Consider writing a tests case when you are making any changes to the block
157 layer. An iotest case is usually the choice for that. There are already many
158 test cases, so it is possible that extending one of them may achieve the goal
159 and save the boilerplate to create one.  (Unfortunately, there isn't a 100%
160 reliable way to find a related one out of hundreds of tests.  One approach is
161 using ``git grep``.)
163 Usually an iotest case consists of two files. One is an executable that
164 produces output to stdout and stderr, the other is the expected reference
165 output. They are given the same number in file names. E.g. Test script ``055``
166 and reference output ``055.out``.
168 In rare cases, when outputs differ between cache mode ``none`` and others, a
169 ``.out.nocache`` file is added. In other cases, when outputs differ between
170 image formats, more than one ``.out`` files are created ending with the
171 respective format names, e.g. ``178.out.qcow2`` and ``178.out.raw``.
173 There isn't a hard rule about how to write a test script, but a new test is
174 usually a (copy and) modification of an existing case.  There are a few
175 commonly used ways to create a test:
177 * A Bash script. It will make use of several environmental variables related
178   to the testing procedure, and could source a group of ``common.*`` libraries
179   for some common helper routines.
181 * A Python unittest script. Import ``iotests`` and create a subclass of
182   ``iotests.QMPTestCase``, then call ``iotests.main`` method. The downside of
183   this approach is that the output is too scarce, and the script is considered
184   harder to debug.
186 * A simple Python script without using unittest module. This could also import
187   ``iotests`` for launching QEMU and utilities etc, but it doesn't inherit
188   from ``iotests.QMPTestCase`` therefore doesn't use the Python unittest
189   execution. This is a combination of 1 and 2.
191 Pick the language per your preference since both Bash and Python have
192 comparable library support for invoking and interacting with QEMU programs. If
193 you opt for Python, it is strongly recommended to write Python 3 compatible
194 code.
196 Both Python and Bash frameworks in iotests provide helpers to manage test
197 images. They can be used to create and clean up images under the test
198 directory. If no I/O or any protocol specific feature is needed, it is often
199 more convenient to use the pseudo block driver, ``null-co://``, as the test
200 image, which doesn't require image creation or cleaning up. Avoid system-wide
201 devices or files whenever possible, such as ``/dev/null`` or ``/dev/zero``.
202 Otherwise, image locking implications have to be considered.  For example,
203 another application on the host may have locked the file, possibly leading to a
204 test failure.  If using such devices are explicitly desired, consider adding
205 ``locking=off`` option to disable image locking.
207 Debugging a test case
208 ~~~~~~~~~~~~~~~~~~~~~
210 The following options to the ``check`` script can be useful when debugging
211 a failing test:
213 * ``-gdb`` wraps every QEMU invocation in a ``gdbserver``, which waits for a
214   connection from a gdb client.  The options given to ``gdbserver`` (e.g. the
215   address on which to listen for connections) are taken from the ``$GDB_OPTIONS``
216   environment variable.  By default (if ``$GDB_OPTIONS`` is empty), it listens on
217   ``localhost:12345``.
218   It is possible to connect to it for example with
219   ``gdb -iex "target remote $addr"``, where ``$addr`` is the address
220   ``gdbserver`` listens on.
221   If the ``-gdb`` option is not used, ``$GDB_OPTIONS`` is ignored,
222   regardless of whether it is set or not.
224 * ``-valgrind`` attaches a valgrind instance to QEMU. If it detects
225   warnings, it will print and save the log in
226   ``$TEST_DIR/<valgrind_pid>.valgrind``.
227   The final command line will be ``valgrind --log-file=$TEST_DIR/
228   <valgrind_pid>.valgrind --error-exitcode=99 $QEMU ...``
230 * ``-d`` (debug) just increases the logging verbosity, showing
231   for example the QMP commands and answers.
233 * ``-p`` (print) redirects QEMU’s stdout and stderr to the test output,
234   instead of saving it into a log file in
235   ``$TEST_DIR/qemu-machine-<random_string>``.
237 Test case groups
238 ~~~~~~~~~~~~~~~~
240 "Tests may belong to one or more test groups, which are defined in the form
241 of a comment in the test source file. By convention, test groups are listed
242 in the second line of the test file, after the "#!/..." line, like this:
244 .. code::
246   #!/usr/bin/env python3
247   # group: auto quick
248   #
249   ...
251 Another way of defining groups is creating the tests/qemu-iotests/group.local
252 file. This should be used only for downstream (this file should never appear
253 in upstream). This file may be used for defining some downstream test groups
254 or for temporarily disabling tests, like this:
256 .. code::
258   # groups for some company downstream process
259   #
260   # ci - tests to run on build
261   # down - our downstream tests, not for upstream
262   #
263   # Format of each line is:
264   # TEST_NAME TEST_GROUP [TEST_GROUP ]...
266   013 ci
267   210 disabled
268   215 disabled
269   our-ugly-workaround-test down ci
271 Note that the following group names have a special meaning:
273 - quick: Tests in this group should finish within a few seconds.
275 - auto: Tests in this group are used during "make check" and should be
276   runnable in any case. That means they should run with every QEMU binary
277   (also non-x86), with every QEMU configuration (i.e. must not fail if
278   an optional feature is not compiled in - but reporting a "skip" is ok),
279   work at least with the qcow2 file format, work with all kind of host
280   filesystems and users (e.g. "nobody" or "root") and must not take too
281   much memory and disk space (since CI pipelines tend to fail otherwise).
283 - disabled: Tests in this group are disabled and ignored by check.
285 .. _container-ref:
287 Container based tests
288 ---------------------
290 Introduction
291 ~~~~~~~~~~~~
293 The container testing framework in QEMU utilizes public images to
294 build and test QEMU in predefined and widely accessible Linux
295 environments. This makes it possible to expand the test coverage
296 across distros, toolchain flavors and library versions. The support
297 was originally written for Docker although we also support Podman as
298 an alternative container runtime. Although the many of the target
299 names and scripts are prefixed with "docker" the system will
300 automatically run on whichever is configured.
302 The container images are also used to augment the generation of tests
303 for testing TCG. See :ref:`checktcg-ref` for more details.
305 Docker Prerequisites
306 ~~~~~~~~~~~~~~~~~~~~
308 Install "docker" with the system package manager and start the Docker service
309 on your development machine, then make sure you have the privilege to run
310 Docker commands. Typically it means setting up passwordless ``sudo docker``
311 command or login as root. For example:
313 .. code::
315   $ sudo yum install docker
316   $ # or `apt-get install docker` for Ubuntu, etc.
317   $ sudo systemctl start docker
318   $ sudo docker ps
320 The last command should print an empty table, to verify the system is ready.
322 An alternative method to set up permissions is by adding the current user to
323 "docker" group and making the docker daemon socket file (by default
324 ``/var/run/docker.sock``) accessible to the group:
326 .. code::
328   $ sudo groupadd docker
329   $ sudo usermod $USER -a -G docker
330   $ sudo chown :docker /var/run/docker.sock
332 Note that any one of above configurations makes it possible for the user to
333 exploit the whole host with Docker bind mounting or other privileged
334 operations.  So only do it on development machines.
336 Podman Prerequisites
337 ~~~~~~~~~~~~~~~~~~~~
339 Install "podman" with the system package manager.
341 .. code::
343   $ sudo dnf install podman
344   $ podman ps
346 The last command should print an empty table, to verify the system is ready.
348 Quickstart
349 ~~~~~~~~~~
351 From source tree, type ``make docker-help`` to see the help. Testing
352 can be started without configuring or building QEMU (``configure`` and
353 ``make`` are done in the container, with parameters defined by the
354 make target):
356 .. code::
358   make docker-test-build@centos8
360 This will create a container instance using the ``centos8`` image (the image
361 is downloaded and initialized automatically), in which the ``test-build`` job
362 is executed.
364 Registry
365 ~~~~~~~~
367 The QEMU project has a container registry hosted by GitLab at
368 ``registry.gitlab.com/qemu-project/qemu`` which will automatically be
369 used to pull in pre-built layers. This avoids unnecessary strain on
370 the distro archives created by multiple developers running the same
371 container build steps over and over again. This can be overridden
372 locally by using the ``NOCACHE`` build option:
374 .. code::
376    make docker-image-debian10 NOCACHE=1
378 Images
379 ~~~~~~
381 Along with many other images, the ``centos8`` image is defined in a Dockerfile
382 in ``tests/docker/dockerfiles/``, called ``centos8.docker``. ``make docker-help``
383 command will list all the available images.
385 To add a new image, simply create a new ``.docker`` file under the
386 ``tests/docker/dockerfiles/`` directory.
388 A ``.pre`` script can be added beside the ``.docker`` file, which will be
389 executed before building the image under the build context directory. This is
390 mainly used to do necessary host side setup. One such setup is ``binfmt_misc``,
391 for example, to make qemu-user powered cross build containers work.
393 Tests
394 ~~~~~
396 Different tests are added to cover various configurations to build and test
397 QEMU.  Docker tests are the executables under ``tests/docker`` named
398 ``test-*``. They are typically shell scripts and are built on top of a shell
399 library, ``tests/docker/common.rc``, which provides helpers to find the QEMU
400 source and build it.
402 The full list of tests is printed in the ``make docker-help`` help.
404 Debugging a Docker test failure
405 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
407 When CI tasks, maintainers or yourself report a Docker test failure, follow the
408 below steps to debug it:
410 1. Locally reproduce the failure with the reported command line. E.g. run
411    ``make docker-test-mingw@fedora J=8``.
412 2. Add "V=1" to the command line, try again, to see the verbose output.
413 3. Further add "DEBUG=1" to the command line. This will pause in a shell prompt
414    in the container right before testing starts. You could either manually
415    build QEMU and run tests from there, or press Ctrl-D to let the Docker
416    testing continue.
417 4. If you press Ctrl-D, the same building and testing procedure will begin, and
418    will hopefully run into the error again. After that, you will be dropped to
419    the prompt for debug.
421 Options
422 ~~~~~~~
424 Various options can be used to affect how Docker tests are done. The full
425 list is in the ``make docker`` help text. The frequently used ones are:
427 * ``V=1``: the same as in top level ``make``. It will be propagated to the
428   container and enable verbose output.
429 * ``J=$N``: the number of parallel tasks in make commands in the container,
430   similar to the ``-j $N`` option in top level ``make``. (The ``-j`` option in
431   top level ``make`` will not be propagated into the container.)
432 * ``DEBUG=1``: enables debug. See the previous "Debugging a Docker test
433   failure" section.
435 Thread Sanitizer
436 ----------------
438 Thread Sanitizer (TSan) is a tool which can detect data races.  QEMU supports
439 building and testing with this tool.
441 For more information on TSan:
443 https://github.com/google/sanitizers/wiki/ThreadSanitizerCppManual
445 Thread Sanitizer in Docker
446 ~~~~~~~~~~~~~~~~~~~~~~~~~~
447 TSan is currently supported in the ubuntu2004 docker.
449 The test-tsan test will build using TSan and then run make check.
451 .. code::
453   make docker-test-tsan@ubuntu2004
455 TSan warnings under docker are placed in files located at build/tsan/.
457 We recommend using DEBUG=1 to allow launching the test from inside the docker,
458 and to allow review of the warnings generated by TSan.
460 Building and Testing with TSan
461 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
463 It is possible to build and test with TSan, with a few additional steps.
464 These steps are normally done automatically in the docker.
466 There is a one time patch needed in clang-9 or clang-10 at this time:
468 .. code::
470   sed -i 's/^const/static const/g' \
471       /usr/lib/llvm-10/lib/clang/10.0.0/include/sanitizer/tsan_interface.h
473 To configure the build for TSan:
475 .. code::
477   ../configure --enable-tsan --cc=clang-10 --cxx=clang++-10 \
478                --disable-werror --extra-cflags="-O0"
480 The runtime behavior of TSAN is controlled by the TSAN_OPTIONS environment
481 variable.
483 More information on the TSAN_OPTIONS can be found here:
485 https://github.com/google/sanitizers/wiki/ThreadSanitizerFlags
487 For example:
489 .. code::
491   export TSAN_OPTIONS=suppressions=<path to qemu>/tests/tsan/suppressions.tsan \
492                       detect_deadlocks=false history_size=7 exitcode=0 \
493                       log_path=<build path>/tsan/tsan_warning
495 The above exitcode=0 has TSan continue without error if any warnings are found.
496 This allows for running the test and then checking the warnings afterwards.
497 If you want TSan to stop and exit with error on warnings, use exitcode=66.
499 TSan Suppressions
500 ~~~~~~~~~~~~~~~~~
501 Keep in mind that for any data race warning, although there might be a data race
502 detected by TSan, there might be no actual bug here.  TSan provides several
503 different mechanisms for suppressing warnings.  In general it is recommended
504 to fix the code if possible to eliminate the data race rather than suppress
505 the warning.
507 A few important files for suppressing warnings are:
509 tests/tsan/suppressions.tsan - Has TSan warnings we wish to suppress at runtime.
510 The comment on each suppression will typically indicate why we are
511 suppressing it.  More information on the file format can be found here:
513 https://github.com/google/sanitizers/wiki/ThreadSanitizerSuppressions
515 tests/tsan/blacklist.tsan - Has TSan warnings we wish to disable
516 at compile time for test or debug.
517 Add flags to configure to enable:
519 "--extra-cflags=-fsanitize-blacklist=<src path>/tests/tsan/blacklist.tsan"
521 More information on the file format can be found here under "Blacklist Format":
523 https://github.com/google/sanitizers/wiki/ThreadSanitizerFlags
525 TSan Annotations
526 ~~~~~~~~~~~~~~~~
527 include/qemu/tsan.h defines annotations.  See this file for more descriptions
528 of the annotations themselves.  Annotations can be used to suppress
529 TSan warnings or give TSan more information so that it can detect proper
530 relationships between accesses of data.
532 Annotation examples can be found here:
534 https://github.com/llvm/llvm-project/tree/master/compiler-rt/test/tsan/
536 Good files to start with are: annotate_happens_before.cpp and ignore_race.cpp
538 The full set of annotations can be found here:
540 https://github.com/llvm/llvm-project/blob/master/compiler-rt/lib/tsan/rtl/tsan_interface_ann.cpp
542 VM testing
543 ----------
545 This test suite contains scripts that bootstrap various guest images that have
546 necessary packages to build QEMU. The basic usage is documented in ``Makefile``
547 help which is displayed with ``make vm-help``.
549 Quickstart
550 ~~~~~~~~~~
552 Run ``make vm-help`` to list available make targets. Invoke a specific make
553 command to run build test in an image. For example, ``make vm-build-freebsd``
554 will build the source tree in the FreeBSD image. The command can be executed
555 from either the source tree or the build dir; if the former, ``./configure`` is
556 not needed. The command will then generate the test image in ``./tests/vm/``
557 under the working directory.
559 Note: images created by the scripts accept a well-known RSA key pair for SSH
560 access, so they SHOULD NOT be exposed to external interfaces if you are
561 concerned about attackers taking control of the guest and potentially
562 exploiting a QEMU security bug to compromise the host.
564 QEMU binaries
565 ~~~~~~~~~~~~~
567 By default, qemu-system-x86_64 is searched in $PATH to run the guest. If there
568 isn't one, or if it is older than 2.10, the test won't work. In this case,
569 provide the QEMU binary in env var: ``QEMU=/path/to/qemu-2.10+``.
571 Likewise the path to qemu-img can be set in QEMU_IMG environment variable.
573 Make jobs
574 ~~~~~~~~~
576 The ``-j$X`` option in the make command line is not propagated into the VM,
577 specify ``J=$X`` to control the make jobs in the guest.
579 Debugging
580 ~~~~~~~~~
582 Add ``DEBUG=1`` and/or ``V=1`` to the make command to allow interactive
583 debugging and verbose output. If this is not enough, see the next section.
584 ``V=1`` will be propagated down into the make jobs in the guest.
586 Manual invocation
587 ~~~~~~~~~~~~~~~~~
589 Each guest script is an executable script with the same command line options.
590 For example to work with the netbsd guest, use ``$QEMU_SRC/tests/vm/netbsd``:
592 .. code::
594     $ cd $QEMU_SRC/tests/vm
596     # To bootstrap the image
597     $ ./netbsd --build-image --image /var/tmp/netbsd.img
598     <...>
600     # To run an arbitrary command in guest (the output will not be echoed unless
601     # --debug is added)
602     $ ./netbsd --debug --image /var/tmp/netbsd.img uname -a
604     # To build QEMU in guest
605     $ ./netbsd --debug --image /var/tmp/netbsd.img --build-qemu $QEMU_SRC
607     # To get to an interactive shell
608     $ ./netbsd --interactive --image /var/tmp/netbsd.img sh
610 Adding new guests
611 ~~~~~~~~~~~~~~~~~
613 Please look at existing guest scripts for how to add new guests.
615 Most importantly, create a subclass of BaseVM and implement ``build_image()``
616 method and define ``BUILD_SCRIPT``, then finally call ``basevm.main()`` from
617 the script's ``main()``.
619 * Usually in ``build_image()``, a template image is downloaded from a
620   predefined URL. ``BaseVM._download_with_cache()`` takes care of the cache and
621   the checksum, so consider using it.
623 * Once the image is downloaded, users, SSH server and QEMU build deps should
624   be set up:
626   - Root password set to ``BaseVM.ROOT_PASS``
627   - User ``BaseVM.GUEST_USER`` is created, and password set to
628     ``BaseVM.GUEST_PASS``
629   - SSH service is enabled and started on boot,
630     ``$QEMU_SRC/tests/keys/id_rsa.pub`` is added to ssh's ``authorized_keys``
631     file of both root and the normal user
632   - DHCP client service is enabled and started on boot, so that it can
633     automatically configure the virtio-net-pci NIC and communicate with QEMU
634     user net (10.0.2.2)
635   - Necessary packages are installed to untar the source tarball and build
636     QEMU
638 * Write a proper ``BUILD_SCRIPT`` template, which should be a shell script that
639   untars a raw virtio-blk block device, which is the tarball data blob of the
640   QEMU source tree, then configure/build it. Running "make check" is also
641   recommended.
643 Image fuzzer testing
644 --------------------
646 An image fuzzer was added to exercise format drivers. Currently only qcow2 is
647 supported. To start the fuzzer, run
649 .. code::
651   tests/image-fuzzer/runner.py -c '[["qemu-img", "info", "$test_img"]]' /tmp/test qcow2
653 Alternatively, some command different from "qemu-img info" can be tested, by
654 changing the ``-c`` option.
656 Acceptance tests using the Avocado Framework
657 --------------------------------------------
659 The ``tests/acceptance`` directory hosts functional tests, also known
660 as acceptance level tests.  They're usually higher level tests, and
661 may interact with external resources and with various guest operating
662 systems.
664 These tests are written using the Avocado Testing Framework (which must
665 be installed separately) in conjunction with a the ``avocado_qemu.Test``
666 class, implemented at ``tests/acceptance/avocado_qemu``.
668 Tests based on ``avocado_qemu.Test`` can easily:
670  * Customize the command line arguments given to the convenience
671    ``self.vm`` attribute (a QEMUMachine instance)
673  * Interact with the QEMU monitor, send QMP commands and check
674    their results
676  * Interact with the guest OS, using the convenience console device
677    (which may be useful to assert the effectiveness and correctness of
678    command line arguments or QMP commands)
680  * Interact with external data files that accompany the test itself
681    (see ``self.get_data()``)
683  * Download (and cache) remote data files, such as firmware and kernel
684    images
686  * Have access to a library of guest OS images (by means of the
687    ``avocado.utils.vmimage`` library)
689  * Make use of various other test related utilities available at the
690    test class itself and at the utility library:
692    - http://avocado-framework.readthedocs.io/en/latest/api/test/avocado.html#avocado.Test
693    - http://avocado-framework.readthedocs.io/en/latest/api/utils/avocado.utils.html
695 Running tests
696 ~~~~~~~~~~~~~
698 You can run the acceptance tests simply by executing:
700 .. code::
702   make check-acceptance
704 This involves the automatic creation of Python virtual environment
705 within the build tree (at ``tests/venv``) which will have all the
706 right dependencies, and will save tests results also within the
707 build tree (at ``tests/results``).
709 Note: the build environment must be using a Python 3 stack, and have
710 the ``venv`` and ``pip`` packages installed.  If necessary, make sure
711 ``configure`` is called with ``--python=`` and that those modules are
712 available.  On Debian and Ubuntu based systems, depending on the
713 specific version, they may be on packages named ``python3-venv`` and
714 ``python3-pip``.
716 It is also possible to run tests based on tags using the
717 ``make check-acceptance`` command and the ``AVOCADO_TAGS`` environment
718 variable:
720 .. code::
722    make check-acceptance AVOCADO_TAGS=quick
724 Note that tags separated with commas have an AND behavior, while tags
725 separated by spaces have an OR behavior. For more information on Avocado
726 tags, see:
728  https://avocado-framework.readthedocs.io/en/latest/guides/user/chapters/tags.html
730 To run a single test file, a couple of them, or a test within a file
731 using the ``make check-acceptance`` command, set the ``AVOCADO_TESTS``
732 environment variable with the test files or test names. To run all
733 tests from a single file, use:
735  .. code::
737   make check-acceptance AVOCADO_TESTS=$FILEPATH
739 The same is valid to run tests from multiple test files:
741  .. code::
743   make check-acceptance AVOCADO_TESTS='$FILEPATH1 $FILEPATH2'
745 To run a single test within a file, use:
747  .. code::
749   make check-acceptance AVOCADO_TESTS=$FILEPATH:$TESTCLASS.$TESTNAME
751 The same is valid to run single tests from multiple test files:
753  .. code::
755   make check-acceptance AVOCADO_TESTS='$FILEPATH1:$TESTCLASS1.$TESTNAME1 $FILEPATH2:$TESTCLASS2.$TESTNAME2'
757 The scripts installed inside the virtual environment may be used
758 without an "activation".  For instance, the Avocado test runner
759 may be invoked by running:
761  .. code::
763   tests/venv/bin/avocado run $OPTION1 $OPTION2 tests/acceptance/
765 Note that if ``make check-acceptance`` was not executed before, it is
766 possible to create the Python virtual environment with the dependencies
767 needed running:
769  .. code::
771   make check-venv
773 It is also possible to run tests from a single file or a single test within
774 a test file. To run tests from a single file within the build tree, use:
776  .. code::
778   tests/venv/bin/avocado run tests/acceptance/$TESTFILE
780 To run a single test within a test file, use:
782  .. code::
784   tests/venv/bin/avocado run tests/acceptance/$TESTFILE:$TESTCLASS.$TESTNAME
786 Valid test names are visible in the output from any previous execution
787 of Avocado or ``make check-acceptance``, and can also be queried using:
789  .. code::
791   tests/venv/bin/avocado list tests/acceptance
793 Manual Installation
794 ~~~~~~~~~~~~~~~~~~~
796 To manually install Avocado and its dependencies, run:
798 .. code::
800   pip install --user avocado-framework
802 Alternatively, follow the instructions on this link:
804   https://avocado-framework.readthedocs.io/en/latest/guides/user/chapters/installing.html
806 Overview
807 ~~~~~~~~
809 The ``tests/acceptance/avocado_qemu`` directory provides the
810 ``avocado_qemu`` Python module, containing the ``avocado_qemu.Test``
811 class.  Here's a simple usage example:
813 .. code::
815   from avocado_qemu import Test
818   class Version(Test):
819       """
820       :avocado: tags=quick
821       """
822       def test_qmp_human_info_version(self):
823           self.vm.launch()
824           res = self.vm.command('human-monitor-command',
825                                 command_line='info version')
826           self.assertRegexpMatches(res, r'^(\d+\.\d+\.\d)')
828 To execute your test, run:
830 .. code::
832   avocado run version.py
834 Tests may be classified according to a convention by using docstring
835 directives such as ``:avocado: tags=TAG1,TAG2``.  To run all tests
836 in the current directory, tagged as "quick", run:
838 .. code::
840   avocado run -t quick .
842 The ``avocado_qemu.Test`` base test class
843 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
845 The ``avocado_qemu.Test`` class has a number of characteristics that
846 are worth being mentioned right away.
848 First of all, it attempts to give each test a ready to use QEMUMachine
849 instance, available at ``self.vm``.  Because many tests will tweak the
850 QEMU command line, launching the QEMUMachine (by using ``self.vm.launch()``)
851 is left to the test writer.
853 The base test class has also support for tests with more than one
854 QEMUMachine. The way to get machines is through the ``self.get_vm()``
855 method which will return a QEMUMachine instance. The ``self.get_vm()``
856 method accepts arguments that will be passed to the QEMUMachine creation
857 and also an optional ``name`` attribute so you can identify a specific
858 machine and get it more than once through the tests methods. A simple
859 and hypothetical example follows:
861 .. code::
863   from avocado_qemu import Test
866   class MultipleMachines(Test):
867       def test_multiple_machines(self):
868           first_machine = self.get_vm()
869           second_machine = self.get_vm()
870           self.get_vm(name='third_machine').launch()
872           first_machine.launch()
873           second_machine.launch()
875           first_res = first_machine.command(
876               'human-monitor-command',
877               command_line='info version')
879           second_res = second_machine.command(
880               'human-monitor-command',
881               command_line='info version')
883           third_res = self.get_vm(name='third_machine').command(
884               'human-monitor-command',
885               command_line='info version')
887           self.assertEquals(first_res, second_res, third_res)
889 At test "tear down", ``avocado_qemu.Test`` handles all the QEMUMachines
890 shutdown.
892 The ``avocado_qemu.LinuxTest`` base test class
893 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
895 The ``avocado_qemu.LinuxTest`` is further specialization of the
896 ``avocado_qemu.Test`` class, so it contains all the characteristics of
897 the later plus some extra features.
899 First of all, this base class is intended for tests that need to
900 interact with a fully booted and operational Linux guest.  At this
901 time, it uses a Fedora 31 guest image.  The most basic example looks
902 like this:
904 .. code::
906   from avocado_qemu import LinuxTest
909   class SomeTest(LinuxTest):
911       def test(self):
912           self.launch_and_wait()
913           self.ssh_command('some_command_to_be_run_in_the_guest')
915 Please refer to tests that use ``avocado_qemu.LinuxTest`` under
916 ``tests/acceptance`` for more examples.
918 QEMUMachine
919 ~~~~~~~~~~~
921 The QEMUMachine API is already widely used in the Python iotests,
922 device-crash-test and other Python scripts.  It's a wrapper around the
923 execution of a QEMU binary, giving its users:
925  * the ability to set command line arguments to be given to the QEMU
926    binary
928  * a ready to use QMP connection and interface, which can be used to
929    send commands and inspect its results, as well as asynchronous
930    events
932  * convenience methods to set commonly used command line arguments in
933    a more succinct and intuitive way
935 QEMU binary selection
936 ^^^^^^^^^^^^^^^^^^^^^
938 The QEMU binary used for the ``self.vm`` QEMUMachine instance will
939 primarily depend on the value of the ``qemu_bin`` parameter.  If it's
940 not explicitly set, its default value will be the result of a dynamic
941 probe in the same source tree.  A suitable binary will be one that
942 targets the architecture matching host machine.
944 Based on this description, test writers will usually rely on one of
945 the following approaches:
947 1) Set ``qemu_bin``, and use the given binary
949 2) Do not set ``qemu_bin``, and use a QEMU binary named like
950    "qemu-system-${arch}", either in the current
951    working directory, or in the current source tree.
953 The resulting ``qemu_bin`` value will be preserved in the
954 ``avocado_qemu.Test`` as an attribute with the same name.
956 Attribute reference
957 ~~~~~~~~~~~~~~~~~~~
959 Test
960 ^^^^
962 Besides the attributes and methods that are part of the base
963 ``avocado.Test`` class, the following attributes are available on any
964 ``avocado_qemu.Test`` instance.
969 A QEMUMachine instance, initially configured according to the given
970 ``qemu_bin`` parameter.
972 arch
973 ''''
975 The architecture can be used on different levels of the stack, e.g. by
976 the framework or by the test itself.  At the framework level, it will
977 currently influence the selection of a QEMU binary (when one is not
978 explicitly given).
980 Tests are also free to use this attribute value, for their own needs.
981 A test may, for instance, use the same value when selecting the
982 architecture of a kernel or disk image to boot a VM with.
984 The ``arch`` attribute will be set to the test parameter of the same
985 name.  If one is not given explicitly, it will either be set to
986 ``None``, or, if the test is tagged with one (and only one)
987 ``:avocado: tags=arch:VALUE`` tag, it will be set to ``VALUE``.
992 The cpu model that will be set to all QEMUMachine instances created
993 by the test.
995 The ``cpu`` attribute will be set to the test parameter of the same
996 name. If one is not given explicitly, it will either be set to
997 ``None ``, or, if the test is tagged with one (and only one)
998 ``:avocado: tags=cpu:VALUE`` tag, it will be set to ``VALUE``.
1000 machine
1001 '''''''
1003 The machine type that will be set to all QEMUMachine instances created
1004 by the test.
1006 The ``machine`` attribute will be set to the test parameter of the same
1007 name.  If one is not given explicitly, it will either be set to
1008 ``None``, or, if the test is tagged with one (and only one)
1009 ``:avocado: tags=machine:VALUE`` tag, it will be set to ``VALUE``.
1011 qemu_bin
1012 ''''''''
1014 The preserved value of the ``qemu_bin`` parameter or the result of the
1015 dynamic probe for a QEMU binary in the current working directory or
1016 source tree.
1018 LinuxTest
1019 ^^^^^^^^^
1021 Besides the attributes present on the ``avocado_qemu.Test`` base
1022 class, the ``avocado_qemu.LinuxTest`` adds the following attributes:
1024 distro
1025 ''''''
1027 The name of the Linux distribution used as the guest image for the
1028 test.  The name should match the **Provider** column on the list
1029 of images supported by the avocado.utils.vmimage library:
1031 https://avocado-framework.readthedocs.io/en/latest/guides/writer/libs/vmimage.html#supported-images
1033 distro_version
1034 ''''''''''''''
1036 The version of the Linux distribution as the guest image for the
1037 test.  The name should match the **Version** column on the list
1038 of images supported by the avocado.utils.vmimage library:
1040 https://avocado-framework.readthedocs.io/en/latest/guides/writer/libs/vmimage.html#supported-images
1042 distro_checksum
1043 '''''''''''''''
1045 The sha256 hash of the guest image file used for the test.
1047 If this value is not set in the code or by a test parameter (with the
1048 same name), no validation on the integrity of the image will be
1049 performed.
1051 Parameter reference
1052 ~~~~~~~~~~~~~~~~~~~
1054 To understand how Avocado parameters are accessed by tests, and how
1055 they can be passed to tests, please refer to::
1057   https://avocado-framework.readthedocs.io/en/latest/guides/writer/chapters/writing.html#accessing-test-parameters
1059 Parameter values can be easily seen in the log files, and will look
1060 like the following:
1062 .. code::
1064   PARAMS (key=qemu_bin, path=*, default=./qemu-system-x86_64) => './qemu-system-x86_64
1066 Test
1067 ^^^^
1069 arch
1070 ''''
1072 The architecture that will influence the selection of a QEMU binary
1073 (when one is not explicitly given).
1075 Tests are also free to use this parameter value, for their own needs.
1076 A test may, for instance, use the same value when selecting the
1077 architecture of a kernel or disk image to boot a VM with.
1079 This parameter has a direct relation with the ``arch`` attribute.  If
1080 not given, it will default to None.
1085 The cpu model that will be set to all QEMUMachine instances created
1086 by the test.
1088 machine
1089 '''''''
1091 The machine type that will be set to all QEMUMachine instances created
1092 by the test.
1094 qemu_bin
1095 ''''''''
1097 The exact QEMU binary to be used on QEMUMachine.
1099 LinuxTest
1100 ^^^^^^^^^
1102 Besides the parameters present on the ``avocado_qemu.Test`` base
1103 class, the ``avocado_qemu.LinuxTest`` adds the following parameters:
1105 distro
1106 ''''''
1108 The name of the Linux distribution used as the guest image for the
1109 test.  The name should match the **Provider** column on the list
1110 of images supported by the avocado.utils.vmimage library:
1112 https://avocado-framework.readthedocs.io/en/latest/guides/writer/libs/vmimage.html#supported-images
1114 distro_version
1115 ''''''''''''''
1117 The version of the Linux distribution as the guest image for the
1118 test.  The name should match the **Version** column on the list
1119 of images supported by the avocado.utils.vmimage library:
1121 https://avocado-framework.readthedocs.io/en/latest/guides/writer/libs/vmimage.html#supported-images
1123 distro_checksum
1124 '''''''''''''''
1126 The sha256 hash of the guest image file used for the test.
1128 If this value is not set in the code or by this parameter no
1129 validation on the integrity of the image will be performed.
1131 Skipping tests
1132 ~~~~~~~~~~~~~~
1134 The Avocado framework provides Python decorators which allow for easily skip
1135 tests running under certain conditions. For example, on the lack of a binary
1136 on the test system or when the running environment is a CI system. For further
1137 information about those decorators, please refer to::
1139   https://avocado-framework.readthedocs.io/en/latest/guides/writer/chapters/writing.html#skipping-tests
1141 While the conditions for skipping tests are often specifics of each one, there
1142 are recurring scenarios identified by the QEMU developers and the use of
1143 environment variables became a kind of standard way to enable/disable tests.
1145 Here is a list of the most used variables:
1147 AVOCADO_ALLOW_LARGE_STORAGE
1148 ^^^^^^^^^^^^^^^^^^^^^^^^^^^
1149 Tests which are going to fetch or produce assets considered *large* are not
1150 going to run unless that ``AVOCADO_ALLOW_LARGE_STORAGE=1`` is exported on
1151 the environment.
1153 The definition of *large* is a bit arbitrary here, but it usually means an
1154 asset which occupies at least 1GB of size on disk when uncompressed.
1156 AVOCADO_ALLOW_UNTRUSTED_CODE
1157 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^
1158 There are tests which will boot a kernel image or firmware that can be
1159 considered not safe to run on the developer's workstation, thus they are
1160 skipped by default. The definition of *not safe* is also arbitrary but
1161 usually it means a blob which either its source or build process aren't
1162 public available.
1164 You should export ``AVOCADO_ALLOW_UNTRUSTED_CODE=1`` on the environment in
1165 order to allow tests which make use of those kind of assets.
1167 AVOCADO_TIMEOUT_EXPECTED
1168 ^^^^^^^^^^^^^^^^^^^^^^^^
1169 The Avocado framework has a timeout mechanism which interrupts tests to avoid the
1170 test suite of getting stuck. The timeout value can be set via test parameter or
1171 property defined in the test class, for further details::
1173   https://avocado-framework.readthedocs.io/en/latest/guides/writer/chapters/writing.html#setting-a-test-timeout
1175 Even though the timeout can be set by the test developer, there are some tests
1176 that may not have a well-defined limit of time to finish under certain
1177 conditions. For example, tests that take longer to execute when QEMU is
1178 compiled with debug flags. Therefore, the ``AVOCADO_TIMEOUT_EXPECTED`` variable
1179 has been used to determine whether those tests should run or not.
1181 GITLAB_CI
1182 ^^^^^^^^^
1183 A number of tests are flagged to not run on the GitLab CI. Usually because
1184 they proved to the flaky or there are constraints on the CI environment which
1185 would make them fail. If you encounter a similar situation then use that
1186 variable as shown on the code snippet below to skip the test:
1188 .. code::
1190   @skipIf(os.getenv('GITLAB_CI'), 'Running on GitLab')
1191   def test(self):
1192       do_something()
1194 Uninstalling Avocado
1195 ~~~~~~~~~~~~~~~~~~~~
1197 If you've followed the manual installation instructions above, you can
1198 easily uninstall Avocado.  Start by listing the packages you have
1199 installed::
1201   pip list --user
1203 And remove any package you want with::
1205   pip uninstall <package_name>
1207 If you've used ``make check-acceptance``, the Python virtual environment where
1208 Avocado is installed will be cleaned up as part of ``make check-clean``.
1210 .. _checktcg-ref:
1212 Testing with "make check-tcg"
1213 -----------------------------
1215 The check-tcg tests are intended for simple smoke tests of both
1216 linux-user and softmmu TCG functionality. However to build test
1217 programs for guest targets you need to have cross compilers available.
1218 If your distribution supports cross compilers you can do something as
1219 simple as::
1221   apt install gcc-aarch64-linux-gnu
1223 The configure script will automatically pick up their presence.
1224 Sometimes compilers have slightly odd names so the availability of
1225 them can be prompted by passing in the appropriate configure option
1226 for the architecture in question, for example::
1228   $(configure) --cross-cc-aarch64=aarch64-cc
1230 There is also a ``--cross-cc-flags-ARCH`` flag in case additional
1231 compiler flags are needed to build for a given target.
1233 If you have the ability to run containers as the user the build system
1234 will automatically use them where no system compiler is available. For
1235 architectures where we also support building QEMU we will generally
1236 use the same container to build tests. However there are a number of
1237 additional containers defined that have a minimal cross-build
1238 environment that is only suitable for building test cases. Sometimes
1239 we may use a bleeding edge distribution for compiler features needed
1240 for test cases that aren't yet in the LTS distros we support for QEMU
1241 itself.
1243 See :ref:`container-ref` for more details.
1245 Running subset of tests
1246 ~~~~~~~~~~~~~~~~~~~~~~~
1248 You can build the tests for one architecture::
1250   make build-tcg-tests-$TARGET
1252 And run with::
1254   make run-tcg-tests-$TARGET
1256 Adding ``V=1`` to the invocation will show the details of how to
1257 invoke QEMU for the test which is useful for debugging tests.
1259 TCG test dependencies
1260 ~~~~~~~~~~~~~~~~~~~~~
1262 The TCG tests are deliberately very light on dependencies and are
1263 either totally bare with minimal gcc lib support (for softmmu tests)
1264 or just glibc (for linux-user tests). This is because getting a cross
1265 compiler to work with additional libraries can be challenging.
1267 Other TCG Tests
1268 ---------------
1270 There are a number of out-of-tree test suites that are used for more
1271 extensive testing of processor features.
1273 KVM Unit Tests
1274 ~~~~~~~~~~~~~~
1276 The KVM unit tests are designed to run as a Guest OS under KVM but
1277 there is no reason why they can't exercise the TCG as well. It
1278 provides a minimal OS kernel with hooks for enabling the MMU as well
1279 as reporting test results via a special device::
1281   https://git.kernel.org/pub/scm/virt/kvm/kvm-unit-tests.git
1283 Linux Test Project
1284 ~~~~~~~~~~~~~~~~~~
1286 The LTP is focused on exercising the syscall interface of a Linux
1287 kernel. It checks that syscalls behave as documented and strives to
1288 exercise as many corner cases as possible. It is a useful test suite
1289 to run to exercise QEMU's linux-user code::
1291   https://linux-test-project.github.io/
1293 GCC gcov support
1294 ----------------
1296 ``gcov`` is a GCC tool to analyze the testing coverage by
1297 instrumenting the tested code. To use it, configure QEMU with
1298 ``--enable-gcov`` option and build. Then run the tests as usual.
1300 If you want to gather coverage information on a single test the ``make
1301 clean-gcda`` target can be used to delete any existing coverage
1302 information before running a single test.
1304 You can generate a HTML coverage report by executing ``make
1305 coverage-html`` which will create
1306 ``meson-logs/coveragereport/index.html``.
1308 Further analysis can be conducted by running the ``gcov`` command
1309 directly on the various .gcda output files. Please read the ``gcov``
1310 documentation for more information.