diff.c: return filepair from diff_unmerge()
[git/mjg.git] / t / README
bloba1eb7c8720ad3e91f78fca6d58acd336c71171a0
1 Core GIT Tests
2 ==============
4 This directory holds many test scripts for core GIT tools.  The
5 first part of this short document describes how to run the tests
6 and read their output.
8 When fixing the tools or adding enhancements, you are strongly
9 encouraged to add tests in this directory to cover what you are
10 trying to fix or enhance.  The later part of this short document
11 describes how your test scripts should be organized.
14 Running Tests
15 -------------
17 The easiest way to run tests is to say "make".  This runs all
18 the tests.
20     *** t0000-basic.sh ***
21     ok 1 - .git/objects should be empty after git init in an empty repo.
22     ok 2 - .git/objects should have 3 subdirectories.
23     ok 3 - success is reported like this
24     ...
25     ok 43 - very long name in the index handled sanely
26     # fixed 1 known breakage(s)
27     # still have 1 known breakage(s)
28     # passed all remaining 42 test(s)
29     1..43
30     *** t0001-init.sh ***
31     ok 1 - plain
32     ok 2 - plain with GIT_WORK_TREE
33     ok 3 - plain bare
35 Since the tests all output TAP (see http://testanything.org) they can
36 be run with any TAP harness. Here's an example of parallel testing
37 powered by a recent version of prove(1):
39     $ prove --timer --jobs 15 ./t[0-9]*.sh
40     [19:17:33] ./t0005-signals.sh ................................... ok       36 ms
41     [19:17:33] ./t0022-crlf-rename.sh ............................... ok       69 ms
42     [19:17:33] ./t0024-crlf-archive.sh .............................. ok      154 ms
43     [19:17:33] ./t0004-unwritable.sh ................................ ok      289 ms
44     [19:17:33] ./t0002-gitfile.sh ................................... ok      480 ms
45     ===(     102;0  25/?  6/?  5/?  16/?  1/?  4/?  2/?  1/?  3/?  1... )===
47 prove and other harnesses come with a lot of useful options. The
48 --state option in particular is very useful:
50     # Repeat until no more failures
51     $ prove -j 15 --state=failed,save ./t[0-9]*.sh
53 You can also run each test individually from command line, like this:
55     $ sh ./t3010-ls-files-killed-modified.sh
56     ok 1 - git update-index --add to add various paths.
57     ok 2 - git ls-files -k to show killed files.
58     ok 3 - validate git ls-files -k output.
59     ok 4 - git ls-files -m to show modified files.
60     ok 5 - validate git ls-files -m output.
61     # passed all 5 test(s)
62     1..5
64 You can pass --verbose (or -v), --debug (or -d), and --immediate
65 (or -i) command line argument to the test, or by setting GIT_TEST_OPTS
66 appropriately before running "make".
68 --verbose::
69         This makes the test more verbose.  Specifically, the
70         command being run and their output if any are also
71         output.
73 --debug::
74         This may help the person who is developing a new test.
75         It causes the command defined with test_debug to run.
77 --immediate::
78         This causes the test to immediately exit upon the first
79         failed test.
81 --long-tests::
82         This causes additional long-running tests to be run (where
83         available), for more exhaustive testing.
85 --valgrind::
86         Execute all Git binaries with valgrind and exit with status
87         126 on errors (just like regular tests, this will only stop
88         the test script when running under -i).  Valgrind errors
89         go to stderr, so you might want to pass the -v option, too.
91         Since it makes no sense to run the tests with --valgrind and
92         not see any output, this option implies --verbose.  For
93         convenience, it also implies --tee.
95 --tee::
96         In addition to printing the test output to the terminal,
97         write it to files named 't/test-results/$TEST_NAME.out'.
98         As the names depend on the tests' file names, it is safe to
99         run the tests with this option in parallel.
101 --with-dashes::
102         By default tests are run without dashed forms of
103         commands (like git-commit) in the PATH (it only uses
104         wrappers from ../bin-wrappers).  Use this option to include
105         the build directory (..) in the PATH, which contains all
106         the dashed forms of commands.  This option is currently
107         implied by other options like --valgrind and
108         GIT_TEST_INSTALLED.
110 --root=<directory>::
111         Create "trash" directories used to store all temporary data during
112         testing under <directory>, instead of the t/ directory.
113         Using this option with a RAM-based filesystem (such as tmpfs)
114         can massively speed up the test suite.
116 You can also set the GIT_TEST_INSTALLED environment variable to
117 the bindir of an existing git installation to test that installation.
118 You still need to have built this git sandbox, from which various
119 test-* support programs, templates, and perl libraries are used.
120 If your installed git is incomplete, it will silently test parts of
121 your built version instead.
123 When using GIT_TEST_INSTALLED, you can also set GIT_TEST_EXEC_PATH to
124 override the location of the dashed-form subcommands (what
125 GIT_EXEC_PATH would be used for during normal operation).
126 GIT_TEST_EXEC_PATH defaults to `$GIT_TEST_INSTALLED/git --exec-path`.
129 Skipping Tests
130 --------------
132 In some environments, certain tests have no way of succeeding
133 due to platform limitation, such as lack of 'unzip' program, or
134 filesystem that do not allow arbitrary sequence of non-NUL bytes
135 as pathnames.
137 You should be able to say something like
139     $ GIT_SKIP_TESTS=t9200.8 sh ./t9200-git-cvsexport-commit.sh
141 and even:
143     $ GIT_SKIP_TESTS='t[0-4]??? t91?? t9200.8' make
145 to omit such tests.  The value of the environment variable is a
146 SP separated list of patterns that tells which tests to skip,
147 and either can match the "t[0-9]{4}" part to skip the whole
148 test, or t[0-9]{4} followed by ".$number" to say which
149 particular test to skip.
151 Note that some tests in the existing test suite rely on previous
152 test item, so you cannot arbitrarily disable one and expect the
153 remainder of test to check what the test originally was intended
154 to check.
157 Naming Tests
158 ------------
160 The test files are named as:
162         tNNNN-commandname-details.sh
164 where N is a decimal digit.
166 First digit tells the family:
168         0 - the absolute basics and global stuff
169         1 - the basic commands concerning database
170         2 - the basic commands concerning the working tree
171         3 - the other basic commands (e.g. ls-files)
172         4 - the diff commands
173         5 - the pull and exporting commands
174         6 - the revision tree commands (even e.g. merge-base)
175         7 - the porcelainish commands concerning the working tree
176         8 - the porcelainish commands concerning forensics
177         9 - the git tools
179 Second digit tells the particular command we are testing.
181 Third digit (optionally) tells the particular switch or group of switches
182 we are testing.
184 If you create files under t/ directory (i.e. here) that is not
185 the top-level test script, never name the file to match the above
186 pattern.  The Makefile here considers all such files as the
187 top-level test script and tries to run all of them.  A care is
188 especially needed if you are creating a common test library
189 file, similar to test-lib.sh, because such a library file may
190 not be suitable for standalone execution.
193 Writing Tests
194 -------------
196 The test script is written as a shell script.  It should start
197 with the standard "#!/bin/sh" with copyright notices, and an
198 assignment to variable 'test_description', like this:
200         #!/bin/sh
201         #
202         # Copyright (c) 2005 Junio C Hamano
203         #
205         test_description='xxx test (option --frotz)
207         This test registers the following structure in the cache
208         and tries to run git-ls-files with option --frotz.'
211 Source 'test-lib.sh'
212 --------------------
214 After assigning test_description, the test script should source
215 test-lib.sh like this:
217         . ./test-lib.sh
219 This test harness library does the following things:
221  - If the script is invoked with command line argument --help
222    (or -h), it shows the test_description and exits.
224  - Creates an empty test directory with an empty .git/objects database
225    and chdir(2) into it.  This directory is 't/trash
226    directory.$test_name_without_dotsh', with t/ subject to change by
227    the --root option documented above.
229  - Defines standard test helper functions for your scripts to
230    use.  These functions are designed to make all scripts behave
231    consistently when command line arguments --verbose (or -v),
232    --debug (or -d), and --immediate (or -i) is given.
234 Do's, don'ts & things to keep in mind
235 -------------------------------------
237 Here are a few examples of things you probably should and shouldn't do
238 when writing tests.
242  - Put all code inside test_expect_success and other assertions.
244    Even code that isn't a test per se, but merely some setup code
245    should be inside a test assertion.
247  - Chain your test assertions
249    Write test code like this:
251         git merge foo &&
252         git push bar &&
253         test ...
255    Instead of:
257         git merge hla
258         git push gh
259         test ...
261    That way all of the commands in your tests will succeed or fail. If
262    you must ignore the return value of something (e.g., the return
263    after unsetting a variable that was already unset is unportable) it's
264    best to indicate so explicitly with a semicolon:
266         unset HLAGH;
267         git merge hla &&
268         git push gh &&
269         test ...
271  - Check the test coverage for your tests. See the "Test coverage"
272    below.
274    Don't blindly follow test coverage metrics, they're a good way to
275    spot if you've missed something. If a new function you added
276    doesn't have any coverage you're probably doing something wrong,
277    but having 100% coverage doesn't necessarily mean that you tested
278    everything.
280    Tests that are likely to smoke out future regressions are better
281    than tests that just inflate the coverage metrics.
283 Don't:
285  - exit() within a <script> part.
287    The harness will catch this as a programming error of the test.
288    Use test_done instead if you need to stop the tests early (see
289    "Skipping tests" below).
291  - Break the TAP output
293    The raw output from your test may be interpreted by a TAP harness. TAP
294    harnesses will ignore everything they don't know about, but don't step
295    on their toes in these areas:
297    - Don't print lines like "$x..$y" where $x and $y are integers.
299    - Don't print lines that begin with "ok" or "not ok".
301    TAP harnesses expect a line that begins with either "ok" and "not
302    ok" to signal a test passed or failed (and our harness already
303    produces such lines), so your script shouldn't emit such lines to
304    their output.
306    You can glean some further possible issues from the TAP grammar
307    (see http://search.cpan.org/perldoc?TAP::Parser::Grammar#TAP_Grammar)
308    but the best indication is to just run the tests with prove(1),
309    it'll complain if anything is amiss.
311 Keep in mind:
313  - Inside <script> part, the standard output and standard error
314    streams are discarded, and the test harness only reports "ok" or
315    "not ok" to the end user running the tests. Under --verbose, they
316    are shown to help debugging the tests.
319 Skipping tests
320 --------------
322 If you need to skip tests you should do so be using the three-arg form
323 of the test_* functions (see the "Test harness library" section
324 below), e.g.:
326     test_expect_success PERL 'I need Perl' "
327         '$PERL_PATH' -e 'hlagh() if unf_unf()'
328     "
330 The advantage of skipping tests like this is that platforms that don't
331 have the PERL and other optional dependencies get an indication of how
332 many tests they're missing.
334 If the test code is too hairy for that (i.e. does a lot of setup work
335 outside test assertions) you can also skip all remaining tests by
336 setting skip_all and immediately call test_done:
338         if ! test_have_prereq PERL
339         then
340             skip_all='skipping perl interface tests, perl not available'
341             test_done
342         fi
344 The string you give to skip_all will be used as an explanation for why
345 the test was skipped.
347 End with test_done
348 ------------------
350 Your script will be a sequence of tests, using helper functions
351 from the test harness library.  At the end of the script, call
352 'test_done'.
355 Test harness library
356 --------------------
358 There are a handful helper functions defined in the test harness
359 library for your script to use.
361  - test_expect_success [<prereq>] <message> <script>
363    Usually takes two strings as parameter, and evaluates the
364    <script>.  If it yields success, test is considered
365    successful.  <message> should state what it is testing.
367    Example:
369         test_expect_success \
370             'git-write-tree should be able to write an empty tree.' \
371             'tree=$(git-write-tree)'
373    If you supply three parameters the first will be taken to be a
374    prerequisite, see the test_set_prereq and test_have_prereq
375    documentation below:
377         test_expect_success TTY 'git --paginate rev-list uses a pager' \
378             ' ... '
380    You can also supply a comma-separated list of prerequisites, in the
381    rare case where your test depends on more than one:
383         test_expect_success PERL,PYTHON 'yo dawg' \
384             ' test $(perl -E 'print eval "1 +" . qx[python -c "print 2"]') == "4" '
386  - test_expect_failure [<prereq>] <message> <script>
388    This is NOT the opposite of test_expect_success, but is used
389    to mark a test that demonstrates a known breakage.  Unlike
390    the usual test_expect_success tests, which say "ok" on
391    success and "FAIL" on failure, this will say "FIXED" on
392    success and "still broken" on failure.  Failures from these
393    tests won't cause -i (immediate) to stop.
395    Like test_expect_success this function can optionally use a three
396    argument invocation with a prerequisite as the first argument.
398  - test_expect_code [<prereq>] <code> <message> <script>
400    Analogous to test_expect_success, but pass the test if it exits
401    with a given exit <code>
403  test_expect_code 1 'Merge with d/f conflicts' 'git merge "merge msg" B master'
405  - test_debug <script>
407    This takes a single argument, <script>, and evaluates it only
408    when the test script is started with --debug command line
409    argument.  This is primarily meant for use during the
410    development of a new test script.
412  - test_done
414    Your test script must have test_done at the end.  Its purpose
415    is to summarize successes and failures in the test script and
416    exit with an appropriate error code.
418  - test_tick
420    Make commit and tag names consistent by setting the author and
421    committer times to defined stated.  Subsequent calls will
422    advance the times by a fixed amount.
424  - test_commit <message> [<filename> [<contents>]]
426    Creates a commit with the given message, committing the given
427    file with the given contents (default for both is to reuse the
428    message string), and adds a tag (again reusing the message
429    string as name).  Calls test_tick to make the SHA-1s
430    reproducible.
432  - test_merge <message> <commit-or-tag>
434    Merges the given rev using the given message.  Like test_commit,
435    creates a tag and calls test_tick before committing.
437  - test_set_prereq SOME_PREREQ
439    Set a test prerequisite to be used later with test_have_prereq. The
440    test-lib will set some prerequisites for you, see the
441    "Prerequisites" section below for a full list of these.
443    Others you can set yourself and use later with either
444    test_have_prereq directly, or the three argument invocation of
445    test_expect_success and test_expect_failure.
447  - test_have_prereq SOME PREREQ
449    Check if we have a prerequisite previously set with
450    test_set_prereq. The most common use of this directly is to skip
451    all the tests if we don't have some essential prerequisite:
453         if ! test_have_prereq PERL
454         then
455             skip_all='skipping perl interface tests, perl not available'
456             test_done
457         fi
459  - test_external [<prereq>] <message> <external> <script>
461    Execute a <script> with an <external> interpreter (like perl). This
462    was added for tests like t9700-perl-git.sh which do most of their
463    work in an external test script.
465         test_external \
466             'GitwebCache::*FileCache*' \
467             "$PERL_PATH" "$TEST_DIRECTORY"/t9503/test_cache_interface.pl
469    If the test is outputting its own TAP you should set the
470    test_external_has_tap variable somewhere before calling the first
471    test_external* function. See t9700-perl-git.sh for an example.
473         # The external test will outputs its own plan
474         test_external_has_tap=1
476  - test_external_without_stderr [<prereq>] <message> <external> <script>
478    Like test_external but fail if there's any output on stderr,
479    instead of checking the exit code.
481         test_external_without_stderr \
482             'Perl API' \
483             "$PERL_PATH" "$TEST_DIRECTORY"/t9700/test.pl
485  - test_must_fail <git-command>
487    Run a git command and ensure it fails in a controlled way.  Use
488    this instead of "! <git-command>".  When git-command dies due to a
489    segfault, test_must_fail diagnoses it as an error; "! <git-command>"
490    treats it as just another expected failure, which would let such a
491    bug go unnoticed.
493  - test_might_fail <git-command>
495    Similar to test_must_fail, but tolerate success, too.  Use this
496    instead of "<git-command> || :" to catch failures due to segv.
498  - test_cmp <expected> <actual>
500    Check whether the content of the <actual> file matches the
501    <expected> file.  This behaves like "cmp" but produces more
502    helpful output when the test is run with "-v" option.
504  - test_path_is_file <file> [<diagnosis>]
505    test_path_is_dir <dir> [<diagnosis>]
506    test_path_is_missing <path> [<diagnosis>]
508    Check whether a file/directory exists or doesn't. <diagnosis> will
509    be displayed if the test fails.
511  - test_when_finished <script>
513    Prepend <script> to a list of commands to run to clean up
514    at the end of the current test.  If some clean-up command
515    fails, the test will not pass.
517    Example:
519         test_expect_success 'branch pointing to non-commit' '
520                 git rev-parse HEAD^{tree} >.git/refs/heads/invalid &&
521                 test_when_finished "git update-ref -d refs/heads/invalid" &&
522                 ...
523         '
525 Prerequisites
526 -------------
528 These are the prerequisites that the test library predefines with
529 test_have_prereq.
531 See the prereq argument to the test_* functions in the "Test harness
532 library" section above and the "test_have_prereq" function for how to
533 use these, and "test_set_prereq" for how to define your own.
535  - PERL & PYTHON
537    Git wasn't compiled with NO_PERL=YesPlease or
538    NO_PYTHON=YesPlease. Wrap any tests that need Perl or Python in
539    these.
541  - POSIXPERM
543    The filesystem supports POSIX style permission bits.
545  - BSLASHPSPEC
547    Backslashes in pathspec are not directory separators. This is not
548    set on Windows. See 6fd1106a for details.
550  - EXECKEEPSPID
552    The process retains the same pid across exec(2). See fb9a2bea for
553    details.
555  - SYMLINKS
557    The filesystem we're on supports symbolic links. E.g. a FAT
558    filesystem doesn't support these. See 704a3143 for details.
560  - SANITY
562    Test is not run by root user, and an attempt to write to an
563    unwritable file is expected to fail correctly.
565 Tips for Writing Tests
566 ----------------------
568 As with any programming projects, existing programs are the best
569 source of the information.  However, do _not_ emulate
570 t0000-basic.sh when writing your tests.  The test is special in
571 that it tries to validate the very core of GIT.  For example, it
572 knows that there will be 256 subdirectories under .git/objects/,
573 and it knows that the object ID of an empty tree is a certain
574 40-byte string.  This is deliberately done so in t0000-basic.sh
575 because the things the very basic core test tries to achieve is
576 to serve as a basis for people who are changing the GIT internal
577 drastically.  For these people, after making certain changes,
578 not seeing failures from the basic test _is_ a failure.  And
579 such drastic changes to the core GIT that even changes these
580 otherwise supposedly stable object IDs should be accompanied by
581 an update to t0000-basic.sh.
583 However, other tests that simply rely on basic parts of the core
584 GIT working properly should not have that level of intimate
585 knowledge of the core GIT internals.  If all the test scripts
586 hardcoded the object IDs like t0000-basic.sh does, that defeats
587 the purpose of t0000-basic.sh, which is to isolate that level of
588 validation in one place.  Your test also ends up needing
589 updating when such a change to the internal happens, so do _not_
590 do it and leave the low level of validation to t0000-basic.sh.
592 Test coverage
593 -------------
595 You can use the coverage tests to find code paths that are not being
596 used or properly exercised yet.
598 To do that, run the coverage target at the top-level (not in the t/
599 directory):
601     make coverage
603 That'll compile Git with GCC's coverage arguments, and generate a test
604 report with gcov after the tests finish. Running the coverage tests
605 can take a while, since running the tests in parallel is incompatible
606 with GCC's coverage mode.
608 After the tests have run you can generate a list of untested
609 functions:
611     make coverage-untested-functions
613 You can also generate a detailed per-file HTML report using the
614 Devel::Cover module. To install it do:
616    # On Debian or Ubuntu:
617    sudo aptitude install libdevel-cover-perl
619    # From the CPAN with cpanminus
620    curl -L http://cpanmin.us | perl - --sudo --self-upgrade
621    cpanm --sudo Devel::Cover
623 Then, at the top-level:
625     make cover_db_html
627 That'll generate a detailed cover report in the "cover_db_html"
628 directory, which you can then copy to a webserver, or inspect locally
629 in a browser.
631 Smoke testing
632 -------------
634 The Git test suite has support for smoke testing. Smoke testing is
635 when you submit the results of a test run to a central server for
636 analysis and aggregation.
638 Running a smoke tester is an easy and valuable way of contributing to
639 Git development, particularly if you have access to an uncommon OS on
640 obscure hardware.
642 After building Git you can generate a smoke report like this in the
643 "t" directory:
645     make clean smoke
647 You can also pass arguments via the environment. This should make it
648 faster:
650     GIT_TEST_OPTS='--root=/dev/shm' TEST_JOBS=10 make clean smoke
652 The "smoke" target will run the Git test suite with Perl's
653 "TAP::Harness" module, and package up the results in a .tar.gz archive
654 with "TAP::Harness::Archive". The former is included with Perl v5.10.1
655 or later, but you'll need to install the latter from the CPAN. See the
656 "Test coverage" section above for how you might do that.
658 Once the "smoke" target finishes you'll see a message like this:
660     TAP Archive created at <path to git>/t/test-results/git-smoke.tar.gz
662 To upload the smoke report you need to have curl(1) installed, then
665     make smoke_report
667 To upload the report anonymously. Hopefully that'll return something
668 like "Reported #7 added.".
670 If you're going to be uploading reports frequently please request a
671 user account by E-Mailing gitsmoke@v.nix.is. Once you have a username
672 and password you'll be able to do:
674     SMOKE_USERNAME=<username> SMOKE_PASSWORD=<password> make smoke_report
676 You can also add an additional comment to attach to the report, and/or
677 a comma separated list of tags:
679     SMOKE_USERNAME=<username> SMOKE_PASSWORD=<password> \
680         SMOKE_COMMENT=<comment> SMOKE_TAGS=<tags> \
681         make smoke_report
683 Once the report is uploaded it'll be made available at
684 http://smoke.git.nix.is, here's an overview of Recent Smoke Reports
685 for Git:
687     http://smoke.git.nix.is/app/projects/smoke_reports/1
689 The reports will also be mirrored to GitHub every few hours:
691     http://github.com/gitsmoke/smoke-reports
693 The Smolder SQLite database is also mirrored and made available for
694 download:
696     http://github.com/gitsmoke/smoke-database
698 Note that the database includes hashed (with crypt()) user passwords
699 and E-Mail addresses. Don't use a valuable password for the smoke
700 service if you have an account, or an E-Mail address you don't want to
701 be publicly known. The user accounts are just meant to be convenient
702 labels, they're not meant to be secure.