Fix builds on ARM & clarify (ARM) GPU support
[gromacs.git] / docs / install-guide / index.rst
blob30c7660c155afe0795f804973f2c7c64ccbdf970
1 .. _install guide:
3 ******************
4 Installation guide
5 ******************
7 .. highlight:: bash
9 Introduction to building |Gromacs|
10 ==================================
12 These instructions pertain to building |Gromacs|
13 |version|. You might also want to check the `up-to-date installation instructions`_.
15 Quick and dirty installation
16 ----------------------------
17 1. Get the latest version of your C and C++ compilers.
18 2. Check that you have CMake version |CMAKE_MINIMUM_REQUIRED_VERSION| or later.
19 3. Get and unpack the latest version of the |Gromacs| tarball.
20 4. Make a separate build directory and change to it. 
21 5. Run ``cmake`` with the path to the source as an argument
22 6. Run ``make``, ``make check``, and ``make install``
23 7. Source ``GMXRC`` to get access to |Gromacs|
25 Or, as a sequence of commands to execute:
27 .. parsed-literal::
29     tar xfz gromacs-|version|.tar.gz
30     cd gromacs-|version|
31     mkdir build
32     cd build
33     cmake .. -DGMX_BUILD_OWN_FFTW=ON -DREGRESSIONTEST_DOWNLOAD=ON
34     make
35     make check
36     sudo make install
37     source /usr/local/gromacs/bin/GMXRC
39 This will download and build first the prerequisite FFT library
40 followed by |Gromacs|. If you already have FFTW installed, you can
41 remove that argument to ``cmake``. Overall, this build of |Gromacs|
42 will be correct and reasonably fast on the machine upon which
43 ``cmake`` ran. On another machine, it may not run, or may not run
44 fast. If you want to get the maximum value for your hardware with
45 |Gromacs|, you will have to read further. Sadly, the interactions of
46 hardware, libraries, and compilers are only going to continue to get
47 more complex.
49 Quick and dirty cluster installation
50 ------------------------------------
52 On a cluster where users are expected to be running across multiple
53 nodes using MPI, make one installation similar to the above, and
54 another using an MPI wrapper compiler and which is `building only
55 mdrun`_, because that is the only component of |Gromacs| that uses
56 MPI.
58 Typical installation
59 --------------------
60 As above, and with further details below, but you should consider
61 using the following `CMake options`_ with the
62 appropriate value instead of ``xxx`` :
64 * ``-DCMAKE_C_COMPILER=xxx`` equal to the name of the C99 `Compiler`_ you wish to use (or the environment variable ``CC``)
65 * ``-DCMAKE_CXX_COMPILER=xxx`` equal to the name of the C++98 `compiler`_ you wish to use (or the environment variable ``CXX``)
66 * ``-DGMX_MPI=on`` to build using `MPI support`_ (generally good to combine with `building only mdrun`_)
67 * ``-DGMX_GPU=on`` to build using nvcc to run using NVIDIA `CUDA GPU acceleration`_ or an OpenCL_ GPU
68 * ``-DGMX_USE_OPENCL=on`` to build with OpenCL_ support enabled. ``GMX_GPU`` must also be set.
69 * ``-DGMX_SIMD=xxx`` to specify the level of `SIMD support`_ of the node on which |Gromacs| will run
70 * ``-DGMX_BUILD_MDRUN_ONLY=on`` for `building only mdrun`_, e.g. for compute cluster back-end nodes
71 * ``-DGMX_DOUBLE=on`` to build |Gromacs| in double precision (slower, and not normally useful)
72 * ``-DCMAKE_PREFIX_PATH=xxx`` to add a non-standard location for CMake to `search for libraries, headers or programs`_
73 * ``-DCMAKE_INSTALL_PREFIX=xxx`` to install |Gromacs| to a `non-standard location`_ (default ``/usr/local/gromacs``)
74 * ``-DBUILD_SHARED_LIBS=off`` to turn off the building of shared libraries to help with `static linking`_
75 * ``-DGMX_FFT_LIBRARY=xxx`` to select whether to use ``fftw``, ``mkl`` or ``fftpack`` libraries for `FFT support`_
76 * ``-DCMAKE_BUILD_TYPE=Debug`` to build |Gromacs| in debug mode
78 Building older versions
79 -----------------------
80 Installation instructions for old |Gromacs| versions can be found at
81 the |Gromacs| `documentation page
82 <http://manual.gromacs.org/documentation>`_.
84 Prerequisites
85 =============
86 Platform
87 --------
88 |Gromacs| can be compiled for many operating systems and
89 architectures.  These include any distribution of Linux, Mac OS X or
90 Windows, and architectures including x86, AMD64/x86-64, several
91 PowerPC including POWER8, ARM v7, ARM v8, and SPARC VIII.
93 Compiler
94 --------
96 |Gromacs| can be compiled on any platform with ANSI C99 and C++11
97 compilers, and their respective standard C/C++ libraries. Good
98 performance on an OS and architecture requires choosing a good
99 compiler. We recommend gcc, because it is free, widely available and
100 frequently provides the best performance.
102 You should strive to use the most recent version of your
103 compiler. Since we require full C++11 support the minimum supported
104 compiler versions are
106 * GNU (gcc) 4.8.1
107 * Intel (icc) 15.0
108 * LLVM (clang) 3.3
109 * Microsoft (MSVC) 2015
111 Other compilers may work (Cray, Pathscale, older clang) but do
112 not offer competitive performance. We recommend against PGI because
113 the performance with C++ is very bad.
115 The xlc compiler is not supported and has not been tested on POWER
116 architectures for |Gromacs|\ -\ |version|. We recommend to use the gcc
117 compiler instead, as it is being extensively tested.
119 You may also need the most recent version of other compiler toolchain
120 components beside the compiler itself (e.g. assembler or linker);
121 these are often shipped by your OS distribution's binutils package.
123 C++11 support requires adequate support in both the compiler and the
124 C++ library. The gcc and MSVC compilers include their own standard
125 libraries and require no further configuration. For configuration of
126 other compilers, read on.
128 On Linux, both the Intel and clang compiler use the libstdc++ which
129 comes with gcc as the default C++ library. For |Gromacs|, we require
130 the compiler to support libstc++ version 4.8.1 or higher. To select a
131 particular libstdc++ library, use:
133 * For Intel: ``-DGMX_STDLIB_CXX_FLAGS=-gcc-name=/path/to/gcc/binary``
134   or make sure that the correct gcc version is first in path (e.g. by
135   loading the gcc module). It can also be useful to add
136   ``-DCMAKE_CXX_LINK_FLAGS="-Wl,-rpath,/path/to/gcc/lib64
137   -L/path/to/gcc/lib64"`` to ensure linking works correctly.
138 * For clang:
139   ``-DCMAKE_CXX_FLAGS=--gcc-toolchain=/path/to/gcc/folder``. This
140   folder should contain ``include/c++``.
142 On Windows with the Intel compiler, the MSVC standard library is used,
143 and at least MSVC 2015 is required. Load the enviroment variables with
144 vcvarsall.bat.
146 To build with any compiler and clang's libcxx standard library, use
147 ``-DGMX_STDLIB_CXX_FLAGS=-stdlib=libc++
148 -DGMX_STDLIB_LIBRARIES='-lc++abi -lc++'``.
150 If you are running on Mac OS X, the best option is the Intel
151 compiler. Both clang and gcc will work, but they produce lower
152 performance and each have some shortcomings. clang 3.8 now offers
153 support for OpenMP, and so may provide decent performance.
155 For all non-x86 platforms, your best option is typically to use gcc or
156 the vendor's default or recommended compiler, and check for
157 specialized information below.
159 For updated versions of gcc to add to your Linux OS, see
161 * Ubuntu: `Ubuntu toolchain ppa page`_
162 * RHEL/CentOS: `EPEL page`_ or the RedHat Developer Toolset
164 Compiling with parallelization options
165 --------------------------------------
167 For maximum performance you will need to examine how you will use
168 |Gromacs| and what hardware you plan to run on. Often OpenMP_
169 parallelism is an advantage for |Gromacs|, but support for this is
170 generally built into your compiler and detected automatically.
172 GPU support
173 ^^^^^^^^^^^
174 |Gromacs| has excellent support for NVIDIA GPUs supported via CUDA.
175 On Linux with gcc, NVIDIA's CUDA_ version |REQUIRED_CUDA_VERSION|
176 software development kit is required, and the latest
177 version is strongly encouraged. Using Intel or Microsoft compilers
178 requires version 7.0 and 8.0, respectively. NVIDIA GPUs with at
179 least NVIDIA compute capability |REQUIRED_CUDA_COMPUTE_CAPABILITY| are
180 required, e.g. Fermi, Kepler, Maxwell or Pascal cards. You are strongly recommended to
181 get the latest CUDA version and driver supported by your hardware, but
182 beware of possible performance regressions in newer CUDA versions on
183 older hardware. Note that while some CUDA compilers (nvcc) might not
184 officially support recent versions of gcc as the back-end compiler, we
185 still recommend that you at least use a gcc version recent enough to
186 get the best SIMD support for your CPU, since |Gromacs| always runs some
187 code on the CPU. It is most reliable to use the same C++ compiler
188 version for |Gromacs| code as used as the back-end compiler for nvcc,
189 but it could be faster to mix compiler versions to suit particular
190 contexts.
192 To make it possible to use other accelerators, |Gromacs| also includes
193 OpenCL_ support. The minimum OpenCL version required is
194 |REQUIRED_OPENCL_MIN_VERSION|. The current version is recommended for
195 use with GCN-based AMD GPUs. It does work with NVIDIA GPUs, but using
196 the latest NVIDIA driver (which includes the NVIDIA OpenCL runtime) is
197 recommended. Additionally, there are known limitations when using
198 recent versions of the AMD APPSDK (details are found in the |Gromacs|
199 user guide). It is not possible to configure both CUDA and OpenCL
200 support in the same version of |Gromacs|.
202 Please note that MSVC 2015 is the earliest version of MSVC supported
203 by |Gromacs|, but that requires at least CUDA 8 for an officially
204 supported CUDA build. This will likely not occur before |Gromacs| 2016
205 is released.
207 .. _mpi-support:
209 MPI support
210 ^^^^^^^^^^^
212 |Gromacs| can run in parallel on multiple cores of a single
213 workstation using its built-in thread-MPI. No user action is required
214 in order to enable this.
216 If you wish to run in parallel on multiple machines across a network,
217 you will need to have
219 * an MPI library installed that supports the MPI 1.3
220   standard, and
221 * wrapper compilers that will compile code using that library.
223 The |Gromacs| team recommends OpenMPI_ version
224 1.6 (or higher), MPICH_ version 1.4.1 (or
225 higher), or your hardware vendor's MPI installation. The most recent
226 version of either of these is likely to be the best. More specialized
227 networks might depend on accelerations only available in the vendor's
228 library. LAM-MPI_ might work, but since it has
229 been deprecated for years, it is not supported.
231 CMake
232 -----
234 |Gromacs| builds with the CMake build system, requiring at least
235 version |CMAKE_MINIMUM_REQUIRED_VERSION|. You can check whether
236 CMake is installed, and what version it is, with ``cmake
237 --version``. If you need to install CMake, then first check whether
238 your platform's package management system provides a suitable version,
239 or visit the `CMake installation page`_ for pre-compiled binaries,
240 source code and installation instructions. The |Gromacs| team
241 recommends you install the most recent version of CMake you can.
243 .. _FFT support:
245 Fast Fourier Transform library
246 ------------------------------
248 Many simulations in |Gromacs| make extensive use of fast Fourier
249 transforms, and a software library to perform these is always
250 required. We recommend FFTW_ (version 3 or higher only) or Intel
251 MKL_. The choice of library can be set with ``cmake
252 -DGMX_FFT_LIBRARY=<name>``, where ``<name>`` is one of ``fftw``,
253 ``mkl``, or ``fftpack``. FFTPACK is bundled with |Gromacs| as a
254 fallback, and is acceptable if simulation performance is not a
255 priority. When choosing MKL, |Gromacs| will also use MKL for BLAS and
256 LAPACK (see `linear algebra libraries`_). Generally, there is no
257 advantage in using MKL with |Gromacs|, and FFTW is often faster.
259 Using FFTW
260 ^^^^^^^^^^
261 FFTW_ is likely to be available for your platform via its package
262 management system, but there can be compatibility and significant
263 performance issues associated with these packages. In particular,
264 |Gromacs| simulations are normally run in "mixed" floating-point
265 precision, which is suited for the use of single precision in
266 FFTW. The default FFTW package is normally in double
267 precision, and good compiler options to use for FFTW when linked to
268 |Gromacs| may not have been used. Accordingly, the |Gromacs| team
269 recommends either
271 * that you permit the |Gromacs| installation to download and
272   build FFTW from source automatically for you (use
273   ``cmake -DGMX_BUILD_OWN_FFTW=ON``), or
274 * that you build FFTW from the source code.
276 If you build FFTW from source yourself, get the most recent version
277 and follow the `FFTW installation guide`_. Choose the precision for
278 FFTW (i.e. single/float vs. double) to match whether you will later
279 use mixed or double precision for |Gromacs|. There is no need to
280 compile FFTW with threading or MPI support, but it does no harm. On
281 x86 hardware, compile with *both* ``--enable-sse2`` and
282 ``--enable-avx`` for FFTW-3.3.4 and earlier. From FFTW-3.3.5, you
283 should also add ``--enable-avx2`` also. On Intel chipsets supporting
284 512-wide AVX, including KNL, add ``--enable-avx512`` also. FFTW will
285 create a fat library with codelets for all different instruction sets,
286 and pick the fastest supported one at runtime. On IBM Power8, you
287 definitely want FFTW-3.3.5 and to compile it with ``--enable-vsx`` for
288 SIMD support. If you are using a Cray, there is a special modified
289 (commercial) version of FFTs using the FFTW interface which can be
290 slightly faster.
292 Using MKL
293 ^^^^^^^^^
294 Use MKL bundled with Intel compilers by setting up the compiler
295 environment, e.g., through ``source /path/to/compilervars.sh intel64``
296 or similar before running CMake including setting
297 ``-DGMX_FFT_LIBRARY=mkl``.
299 If you need to customize this further, use
303     cmake -DGMX_FFT_LIBRARY=mkl \
304           -DMKL_LIBRARIES="/full/path/to/libone.so;/full/path/to/libtwo.so" \
305           -DMKL_INCLUDE_DIR="/full/path/to/mkl/include"
307 The full list and order(!) of libraries you require are found in Intel's MKL documentation for your system.
309 Other optional build components
310 -------------------------------
311 * Run-time detection of hardware capabilities can be improved by
312   linking with hwloc, which is automatically enabled if detected.
313 * Hardware-optimized BLAS and LAPACK libraries are useful
314   for a few of the |Gromacs| utilities focused on normal modes and
315   matrix manipulation, but they do not provide any benefits for normal
316   simulations. Configuring these is discussed at
317   `linear algebra libraries`_.
318 * The built-in |Gromacs| trajectory viewer ``gmx view`` requires X11 and
319   Motif/Lesstif libraries and header files. You may prefer to use
320   third-party software for visualization, such as VMD_ or PyMol_.
321 * An external TNG library for trajectory-file handling can be used
322   by setting ``-DGMX_EXTERNAL_TNG=yes``, but TNG
323   |GMX_TNG_MINIMUM_REQUIRED_VERSION| is bundled in the |Gromacs|
324   source already.
325 * An external lmfit library for Levenberg-Marquardt curve fitting
326   can be used by setting ``-DGMX_EXTERNAL_LMFIT=yes``, but lmfit
327   |GMX_LMFIT_MINIMUM_REQUIRED_VERSION| is bundled in the |Gromacs|
328   source already.
329 * zlib is used by TNG for compressing some kinds of trajectory data
330 * Building the |Gromacs| documentation is optional, and requires
331   ImageMagick, pdflatex, bibtex, doxygen, python 2.7, sphinx 
332   |EXPECTED_SPHINX_VERSION|, and pygments.
333 * The |Gromacs| utility programs often write data files in formats
334   suitable for the Grace plotting tool, but it is straightforward to
335   use these files in other plotting programs, too.
336   
337 Doing a build of |Gromacs|
338 ==========================
339 This section will cover a general build of |Gromacs| with CMake_, but it
340 is not an exhaustive discussion of how to use CMake. There are many
341 resources available on the web, which we suggest you search for when
342 you encounter problems not covered here. The material below applies
343 specifically to builds on Unix-like systems, including Linux, and Mac
344 OS X. For other platforms, see the specialist instructions below.
346 .. _configure-cmake:
348 Configuring with CMake
349 ----------------------
350 CMake will run many tests on your system and do its best to work out
351 how to build |Gromacs| for you. If your build machine is the same as
352 your target machine, then you can be sure that the defaults and
353 detection will be pretty good. However, if you want to control aspects
354 of the build, or you are compiling on a cluster head node for back-end
355 nodes with a different architecture, there are a few things you
356 should consider specifying.
358 The best way to use CMake to configure |Gromacs| is to do an
359 "out-of-source" build, by making another directory from which you will
360 run CMake. This can be outside the source directory, or a subdirectory
361 of it. It also means you can never corrupt your source code by trying
362 to build it! So, the only required argument on the CMake command line
363 is the name of the directory containing the ``CMakeLists.txt`` file of
364 the code you want to build. For example, download the source tarball
365 and use
367 .. parsed-literal::
369     tar xfz gromacs-|version|.tgz
370     cd gromacs-|version|
371     mkdir build-gromacs
372     cd build-gromacs
373     cmake ..
375 You will see ``cmake`` report a sequence of results of tests and
376 detections done by the |Gromacs| build system. These are written to the
377 ``cmake`` cache, kept in ``CMakeCache.txt``. You can edit this file by
378 hand, but this is not recommended because you could make a mistake.
379 You should not attempt to move or copy this file to do another build,
380 because file paths are hard-coded within it. If you mess things up,
381 just delete this file and start again with ``cmake``.
383 If there is a serious problem detected at this stage, then you will see
384 a fatal error and some suggestions for how to overcome it. If you are
385 not sure how to deal with that, please start by searching on the web
386 (most computer problems already have known solutions!) and then
387 consult the gmx-users mailing list. There are also informational
388 warnings that you might like to take on board or not. Piping the
389 output of ``cmake`` through ``less`` or ``tee`` can be
390 useful, too.
392 Once ``cmake`` returns, you can see all the settings that were chosen
393 and information about them by using e.g. the curses interface
397     ccmake ..
399 You can actually use ``ccmake`` (available on most Unix platforms)
400 directly in the first step, but then
401 most of the status messages will merely blink in the lower part
402 of the terminal rather than be written to standard output. Most platforms
403 including Linux, Windows, and Mac OS X even have native graphical user interfaces for
404 ``cmake``, and it can create project files for almost any build environment
405 you want (including Visual Studio or Xcode).
406 Check out `running CMake`_ for
407 general advice on what you are seeing and how to navigate and change
408 things. The settings you might normally want to change are already
409 presented. You may make changes, then re-configure (using ``c``), so that it
410 gets a chance to make changes that depend on yours and perform more
411 checking. It may take several configuration passes to reach the desired
412 configuration, in particular if you need to resolve errors.
414 When you have reached the desired configuration with ``ccmake``, the
415 build system can be generated by pressing ``g``.  This requires that the previous
416 configuration pass did not reveal any additional settings (if it did, you need
417 to configure once more with ``c``).  With ``cmake``, the build system is generated
418 after each pass that does not produce errors.
420 You cannot attempt to change compilers after the initial run of
421 ``cmake``. If you need to change, clean up, and start again.
423 .. _non-standard location:
425 Where to install |Gromacs|
426 ^^^^^^^^^^^^^^^^^^^^^^^^^^
428 |Gromacs| is installed in the directory to which
429 ``CMAKE_INSTALL_PREFIX`` points. It may not be the source directory or
430 the build directory.  You require write permissions to this
431 directory. Thus, without super-user privileges,
432 ``CMAKE_INSTALL_PREFIX`` will have to be within your home directory.
433 Even if you do have super-user privileges, you should use them only
434 for the installation phase, and never for configuring, building, or
435 running |Gromacs|!
437 .. _cmake options:
439 Using CMake command-line options
440 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
441 Once you become comfortable with setting and changing options, you may
442 know in advance how you will configure |Gromacs|. If so, you can speed
443 things up by invoking ``cmake`` and passing the various options at once
444 on the command line. This can be done by setting cache variable at the
445 cmake invocation using ``-DOPTION=VALUE``. Note that some
446 environment variables are also taken into account, in particular
447 variables like ``CC`` and ``CXX``.
449 For example, the following command line
453     cmake .. -DGMX_GPU=ON -DGMX_MPI=ON -DCMAKE_INSTALL_PREFIX=/home/marydoe/programs
455 can be used to build with CUDA GPUs, MPI and install in a custom
456 location. You can even save that in a shell script to make it even
457 easier next time. You can also do this kind of thing with ``ccmake``,
458 but you should avoid this, because the options set with ``-D`` will not
459 be able to be changed interactively in that run of ``ccmake``.
461 SIMD support
462 ^^^^^^^^^^^^
463 |Gromacs| has extensive support for detecting and using the SIMD
464 capabilities of many modern HPC CPU architectures. If you are building
465 |Gromacs| on the same hardware you will run it on, then you don't need
466 to read more about this, unless you are getting configuration warnings
467 you do not understand. By default, the |Gromacs| build system will
468 detect the SIMD instruction set supported by the CPU architecture (on
469 which the configuring is done), and thus pick the best
470 available SIMD parallelization supported by |Gromacs|. The build system
471 will also check that the compiler and linker used also support the
472 selected SIMD instruction set and issue a fatal error if they
473 do not.
475 Valid values are listed below, and the applicable value with the
476 largest number in the list is generally the one you should choose.
477 In most cases, choosing an inappropriate higher number will lead
478 to compiling a binary that will not run.
480 1. ``None`` For use only on an architecture either lacking SIMD,
481    or to which |Gromacs| has not yet been ported and none of the
482    options below are applicable.
483 2. ``SSE2`` This SIMD instruction set was introduced in Intel
484    processors in 2001, and AMD in 2003. Essentially all x86
485    machines in existence have this, so it might be a good choice if
486    you need to support dinosaur x86 computers too.
487 3. ``SSE4.1`` Present in all Intel core processors since 2007,
488    but notably not in AMD Magny-Cours. Still, almost all recent
489    processors support this, so this can also be considered a good
490    baseline if you are content with slow simulations and prefer
491    portability between reasonably modern processors.
492 4. ``AVX_128_FMA`` AMD bulldozer processors (2011) have this.
493 5. ``AVX_256`` Intel processors since Sandy Bridge (2011). While this
494    code will work on recent AMD processors, it is significantly less
495    efficient than the ``AVX_128_FMA`` choice above - do not be fooled
496    to assume that 256 is better than 128 in this case.
497 6. ``AVX2_256`` Present on Intel Haswell (and later) processors (2013),
498    and it will also enable Intel 3-way fused multiply-add instructions.
499 7. ``AVX_512`` Skylake-EP Xeon processors (2017)
500 8. ``AVX_512_KNL`` Knights Landing Xeon Phi processors
501 9. ``IBM_QPX`` BlueGene/Q A2 cores have this.
502 10. ``Sparc64_HPC_ACE`` Fujitsu machines like the K computer have this.
503 11. ``IBM_VMX`` Power6 and similar Altivec processors have this.
504 12. ``IBM_VSX`` Power7 and Power8 have this.
505 13. ``ARM_NEON`` 32-bit ARMv7 with NEON support.
506 14. ``ARM_NEON_ASIMD`` 64-bit ARMv8 and later.
508 The CMake configure system will check that the compiler you have
509 chosen can target the architecture you have chosen. mdrun will check
510 further at runtime, so if in doubt, choose the lowest number you
511 think might work, and see what mdrun says. The configure system also
512 works around many known issues in many versions of common HPC
513 compilers.
515 A further ``GMX_SIMD=Reference`` option exists, which is a special
516 SIMD-like implementation written in plain C that developers can use
517 when developing support in |Gromacs| for new SIMD architectures. It is
518 not designed for use in production simulations, but if you are using
519 an architecture with SIMD support to which |Gromacs| has not yet been
520 ported, you may wish to try this option instead of the default
521 ``GMX_SIMD=None``, as it can often out-perform this when the
522 auto-vectorization in your compiler does a good job. And post on the
523 |Gromacs| mailing lists, because |Gromacs| can probably be ported for new
524 SIMD architectures in a few days.
526 CMake advanced options
527 ^^^^^^^^^^^^^^^^^^^^^^
528 The options that are displayed in the default view of ``ccmake`` are
529 ones that we think a reasonable number of users might want to consider
530 changing. There are a lot more options available, which you can see by
531 toggling the advanced mode in ``ccmake`` on and off with ``t``. Even
532 there, most of the variables that you might want to change have a
533 ``CMAKE_`` or ``GMX_`` prefix. There are also some options that will be
534 visible or not according to whether their preconditions are satisfied.
536 .. _search for libraries, headers or programs:
538 Helping CMake find the right libraries, headers, or programs
539 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
540 If libraries are installed in non-default locations their location can
541 be specified using the following variables:
543 * ``CMAKE_INCLUDE_PATH`` for header files
544 * ``CMAKE_LIBRARY_PATH`` for libraries
545 * ``CMAKE_PREFIX_PATH`` for header, libraries and binaries
546   (e.g. ``/usr/local``).
548 The respective ``include``, ``lib``, or ``bin`` is
549 appended to the path. For each of these variables, a list of paths can
550 be specified (on Unix, separated with ":"). These can be set as
551 enviroment variables like:
555     CMAKE_PREFIX_PATH=/opt/fftw:/opt/cuda cmake ..
557 (assuming ``bash`` shell). Alternatively, these variables are also
558 ``cmake`` options, so they can be set like
559 ``-DCMAKE_PREFIX_PATH=/opt/fftw:/opt/cuda``.
561 The ``CC`` and ``CXX`` environment variables are also useful
562 for indicating to ``cmake`` which compilers to use. Similarly,
563 ``CFLAGS``/``CXXFLAGS`` can be used to pass compiler
564 options, but note that these will be appended to those set by
565 |Gromacs| for your build platform and build type. You can customize
566 some of this with advanced CMake options such as ``CMAKE_C_FLAGS``
567 and its relatives.
569 See also the page on `CMake environment variables`_.
571 .. _CUDA GPU acceleration:
573 CUDA GPU acceleration
574 ^^^^^^^^^^^^^^^^^^^^^
575 If you have the CUDA_ Toolkit installed, you can use ``cmake`` with:
579     cmake .. -DGMX_GPU=ON -DCUDA_TOOLKIT_ROOT_DIR=/usr/local/cuda
581 (or whichever path has your installation). In some cases, you might
582 need to specify manually which of your C++ compilers should be used,
583 e.g. with the advanced option ``CUDA_HOST_COMPILER``.
585 To make it
586 possible to get best performance from NVIDIA Tesla and Quadro GPUs,
587 you should install the `GPU Deployment Kit
588 <https://developer.nvidia.com/gpu-deployment-kit>`_ and configure
589 |Gromacs| to use it by setting the CMake variable
590 ``-DGPU_DEPLOYMENT_KIT_ROOT_DIR=/path/to/your/kit``. The NVML support
591 is most useful if
592 ``nvidia-smi --applications-clocks-permission=UNRESTRICTED`` is run
593 (as root). When application clocks permissions are unrestricted, the
594 GPU clock speed can be increased automatically, which increases the
595 GPU kernel performance roughly proportional to the clock
596 increase. When using |Gromacs| on suitable GPUs under restricted
597 permissions, clocks cannot be changed, and in that case informative
598 log file messages will be produced. Background details can be found at
599 this `NVIDIA blog post
600 <http://devblogs.nvidia.com/parallelforall/increase-performance-gpu-boost-k80-autoboost/>`_.
601 NVML support is only available if detected, and may be disabled by
602 turning off the ``GMX_USE_NVML`` CMake advanced option.
604 By default, code will be generated for the most common CUDA architectures.
605 However, to reduce build time and binary size we do not generate code for
606 every single possible architecture, which in rare cases (say, Tegra systems)
607 can result in the default build not being able to use some GPUs.
608 If this happens, or if you want to remove some architectures to reduce
609 binary size and build time, you can alter the target CUDA architectures. 
610 This can be done either with the ``GMX_CUDA_TARGET_SM`` or
611 ``GMX_CUDA_TARGET_COMPUTE`` CMake variables, which take a semicolon delimited
612 string with the two digit suffixes of CUDA (virtual) architectures names, for
613 instance "35;50;51;52;53;60". For details, see the "Options for steering GPU
614 code generation" section of the nvcc man / help or Chapter 6. of the nvcc
615 manual.
617 The GPU acceleration has been tested on AMD64/x86-64 platforms with
618 Linux, Mac OS X and Windows operating systems, but Linux is the
619 best-tested and supported of these. Linux running on POWER 8, ARM v7 and v8
620 CPUs also works well.
622 Experimental support is available for compiling CUDA code, both for host and
623 device, using clang (version 3.9 or later).
624 A CUDA toolkit (>= v7.0) is still required but it is used only for GPU device code
625 generation and to link against the CUDA runtime library.
626 The clang CUDA support simplifies compilation and provides benefits for development
627 (e.g. allows the use code sanitizers in CUDA host-code).
628 Additionally, using clang for both CPU and GPU compilation can be beneficial
629 to avoid compatibility issues between the GNU toolchain and the CUDA toolkit.
630 clang for CUDA can be triggered using the ``GMX_CLANG_CUDA=ON`` CMake option.
631 Target architectures can be selected with  ``GMX_CUDA_TARGET_SM``,
632 virtual architecture code is always embedded for all requested architectures
633 (hence GMX_CUDA_TARGET_COMPUTE is ignored).
634 Note that this is mainly a developer-oriented feature and it is not recommended
635 for production use as the performance can be significantly lower than that
636 of code compiled with nvcc (and it has also received less testing).
637 However, note that with clang 5.0 the performance gap is significantly narrowed
638 (at the time of writing, about 20% slower GPU kernels), so this version
639 could be considered in non performance-critical use-cases.
642 OpenCL GPU acceleration
643 ^^^^^^^^^^^^^^^^^^^^^^^
645 The primary target of the |Gromacs| OpenCL support is accelerating simulations
646 on AMD hardware, both discrete GPUs and APUs (integrated CPU+GPU chips).
647 The |Gromacs| OpenCL on NVIDIA GPUs works, but performance
648 and other limitations make it less practical (for details see the user guide).
650 To build |Gromacs| with OpenCL_ support enabled, two components are
651 required: the OpenCL_ headers and the wrapper library that acts
652 as a client driver loader (so-called ICD loader).
653 The additional, runtime-only dependency is the vendor-specific GPU driver
654 for the device targeted. This also contains the OpenCL_ compiler.
655 As the GPU compute kernels are compiled  on-demand at run time,
656 this vendor-specific compiler and driver is not needed for building |Gromacs|.
657 The former, compile-time dependencies are standard components,
658 hence stock versions can be obtained from most Linux distribution
659 repositories (e.g. ``opencl-headers`` and ``ocl-icd-libopencl1`` on Debian/Ubuntu).
660 Only the compatibility with the required OpenCL_ version |REQUIRED_OPENCL_MIN_VERSION|
661 needs to be ensured.
662 Alternatively, the headers and library can also be obtained from vendor SDKs
663 (e.g. `from AMD <http://developer.amd.com/appsdk>`_),
664 which must be installed in a path found in ``CMAKE_PREFIX_PATH`` (or via the environment
665 variables ``AMDAPPSDKROOT`` or ``CUDA_PATH``).
667 To trigger an OpenCL_ build the following CMake flags must be set
671     cmake .. -DGMX_GPU=ON -DGMX_USE_OPENCL=ON
673 On Mac OS, an AMD GPU can be used only with OS version 10.10.4 and
674 higher; earlier OS versions are known to run incorrectly.
676 Static linking
677 ^^^^^^^^^^^^^^
678 Dynamic linking of the |Gromacs| executables will lead to a
679 smaller disk footprint when installed, and so is the default on
680 platforms where we believe it has been tested repeatedly and found to work.
681 In general, this includes Linux, Windows, Mac OS X and BSD systems.
682 Static binaries take more space, but on some hardware and/or under
683 some conditions they are necessary, most commonly when you are running a parallel
684 simulation using MPI libraries (e.g. BlueGene, Cray).
686 * To link |Gromacs| binaries statically against the internal |Gromacs|
687   libraries, set ``-DBUILD_SHARED_LIBS=OFF``.
688 * To link statically against external (non-system) libraries as well,
689   set ``-DGMX_PREFER_STATIC_LIBS=ON``. Note, that in
690   general ``cmake`` picks up whatever is available, so this option only
691   instructs ``cmake`` to prefer static libraries when both static and
692   shared are available. If no static version of an external library is
693   available, even when the aforementioned option is ``ON``, the shared
694   library will be used. Also note that the resulting binaries will
695   still be dynamically linked against system libraries on platforms
696   where that is the default. To use static system libraries,
697   additional compiler/linker flags are necessary, e.g. ``-static-libgcc
698   -static-libstdc++``.
699 * To attempt to link a fully static binary set
700   ``-DGMX_BUILD_SHARED_EXE=OFF``. This will prevent CMake from explicitly
701   setting any dynamic linking flags. This option also sets
702   ``-DBUILD_SHARED_LIBS=OFF`` and ``-DGMX_PREFER_STATIC_LIBS=ON`` by
703   default, but the above caveats apply. For compilers which don't
704   default to static linking, the required flags have to be specified. On
705   Linux, this is usually ``CFLAGS=-static CXXFLAGS=-static``.
707 Portability aspects
708 ^^^^^^^^^^^^^^^^^^^
709 A |Gromacs| build will normally not be portable, not even across
710 hardware with the same base instruction set, like x86. Non-portable
711 hardware-specific optimizations are selected at configure-time, such
712 as the SIMD instruction set used in the compute kernels. This
713 selection will be done by the build system based on the capabilities
714 of the build host machine or otherwise specified to ``cmake`` during
715 configuration.
717 Often it is possible to ensure portability by choosing the least
718 common denominator of SIMD support, e.g. SSE2 for x86, and ensuring
719 the you use ``cmake -DGMX_USE_RDTSCP=off`` if any of the target CPU
720 architectures does not support the ``RDTSCP`` instruction.  However, we
721 discourage attempts to use a single |Gromacs| installation when the
722 execution environment is heterogeneous, such as a mix of AVX and
723 earlier hardware, because this will lead to programs (especially
724 mdrun) that run slowly on the new hardware. Building two full
725 installations and locally managing how to call the correct one
726 (e.g. using a module system) is the recommended
727 approach. Alternatively, as at the moment the |Gromacs| tools do not
728 make strong use of SIMD acceleration, it can be convenient to create
729 an installation with tools portable across different x86 machines, but
730 with separate mdrun binaries for each architecture. To achieve this,
731 one can first build a full installation with the
732 least-common-denominator SIMD instruction set, e.g. ``-DGMX_SIMD=SSE2``,
733 then build separate mdrun binaries for each architecture present in
734 the heterogeneous environment. By using custom binary and library
735 suffixes for the mdrun-only builds, these can be installed to the
736 same location as the "generic" tools installation.
737 `Building just the mdrun binary`_ is possible by setting the
738 ``-DGMX_BUILD_MDRUN_ONLY=ON`` option.
740 Linear algebra libraries
741 ^^^^^^^^^^^^^^^^^^^^^^^^
742 As mentioned above, sometimes vendor BLAS and LAPACK libraries
743 can provide performance enhancements for |Gromacs| when doing
744 normal-mode analysis or covariance analysis. For simplicity, the text
745 below will refer only to BLAS, but the same options are available
746 for LAPACK. By default, CMake will search for BLAS, use it if it
747 is found, and otherwise fall back on a version of BLAS internal to
748 |Gromacs|. The ``cmake`` option ``-DGMX_EXTERNAL_BLAS=on`` will be set
749 accordingly. The internal versions are fine for normal use. If you
750 need to specify a non-standard path to search, use
751 ``-DCMAKE_PREFIX_PATH=/path/to/search``. If you need to specify a
752 library with a non-standard name (e.g. ESSL on AIX or BlueGene), then
753 set ``-DGMX_BLAS_USER=/path/to/reach/lib/libwhatever.a``.
755 If you are using Intel MKL_ for FFT, then the BLAS and
756 LAPACK it provides are used automatically. This could be
757 over-ridden with ``GMX_BLAS_USER``, etc.
759 On Apple platforms where the Accelerate Framework is available, these
760 will be automatically used for BLAS and LAPACK. This could be
761 over-ridden with ``GMX_BLAS_USER``, etc.
763 Changing the names of |Gromacs| binaries and libraries
764 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
765 It is sometimes convenient to have different versions of the same
766 |Gromacs| programs installed. The most common use cases have been single
767 and double precision, and with and without MPI. This mechanism can
768 also be used to install side-by-side multiple versions of mdrun
769 optimized for different CPU architectures, as mentioned previously.
771 By default, |Gromacs| will suffix programs and libraries for such builds
772 with ``_d`` for double precision and/or ``_mpi`` for MPI (and nothing
773 otherwise). This can be controlled manually with ``GMX_DEFAULT_SUFFIX
774 (ON/OFF)``, ``GMX_BINARY_SUFFIX`` (takes a string) and ``GMX_LIBS_SUFFIX``
775 (also takes a string). For instance, to set a custom suffix for
776 programs and libraries, one might specify:
780     cmake .. -DGMX_DEFAULT_SUFFIX=OFF -DGMX_BINARY_SUFFIX=_mod -DGMX_LIBS_SUFFIX=_mod
782 Thus the names of all programs and libraries will be appended with
783 ``_mod``.
785 Changing installation tree structure
786 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
787 By default, a few different directories under ``CMAKE_INSTALL_PREFIX`` are used
788 when when |Gromacs| is installed. Some of these can be changed, which is mainly
789 useful for packaging |Gromacs| for various distributions. The directories are
790 listed below, with additional notes about some of them. Unless otherwise noted,
791 the directories can be renamed by editing the installation paths in the main
792 CMakeLists.txt.
794 ``bin/``
795     The standard location for executables and some scripts.
796     Some of the scripts hardcode the absolute installation prefix, which needs
797     to be changed if the scripts are relocated.
798 ``include/gromacs/``
799     The standard location for installed headers.
800 ``lib/``
801     The standard location for libraries. The default depends on the system, and
802     is determined by CMake.
803     The name of the directory can be changed using ``GMX_LIB_INSTALL_DIR`` CMake
804     variable.
805 ``lib/pkgconfig/``
806     Information about the installed ``libgromacs`` library for ``pkg-config`` is
807     installed here.  The ``lib/`` part adapts to the installation location of the
808     libraries.  The installed files contain the installation prefix as absolute
809     paths.
810 ``share/cmake/``
811     CMake package configuration files are installed here.
812 ``share/gromacs/``
813     Various data files and some documentation go here.
814     The ``gromacs`` part can be changed using ``GMX_DATA_INSTALL_DIR``. Using this
815     CMake variable is the preferred way of changing the installation path for
816     ``share/gromacs/top/``, since the path to this directory is built into
817     ``libgromacs`` as well as some scripts, both as a relative and as an absolute
818     path (the latter as a fallback if everything else fails).
819 ``share/man/``
820     Installed man pages go here.
822 Compiling and linking
823 ---------------------
824 Once you have configured with ``cmake``, you can build |Gromacs| with ``make``.
825 It is expected that this will always complete successfully, and
826 give few or no warnings. The CMake-time tests |Gromacs| makes on the settings
827 you choose are pretty extensive, but there are probably a few cases we
828 have not thought of yet. Search the web first for solutions to
829 problems, but if you need help, ask on gmx-users, being sure to
830 provide as much information as possible about what you did, the system
831 you are building on, and what went wrong. This may mean scrolling back
832 a long way through the output of ``make`` to find the first error
833 message!
835 If you have a multi-core or multi-CPU machine with ``N``
836 processors, then using
840     make -j N
842 will generally speed things up by quite a bit. Other build generator systems
843 supported by ``cmake`` (e.g. ``ninja``) also work well.
845 .. _building just the mdrun binary:
847 Building only mdrun
848 ^^^^^^^^^^^^^^^^^^^
850 This is now supported with the ``cmake`` option
851 ``-DGMX_BUILD_MDRUN_ONLY=ON``, which will build a different version of
852 ``libgromacs`` and the ``mdrun`` program.
853 Naturally, now ``make install`` installs only those
854 products. By default, mdrun-only builds will default to static linking
855 against |Gromacs| libraries, because this is generally a good idea for
856 the targets for which an mdrun-only build is desirable.
858 Installing |Gromacs|
859 --------------------
860 Finally, ``make install`` will install |Gromacs| in the
861 directory given in ``CMAKE_INSTALL_PREFIX``. If this is a system
862 directory, then you will need permission to write there, and you
863 should use super-user privileges only for ``make install`` and
864 not the whole procedure.
866 .. _getting access to |Gromacs|:
868 Getting access to |Gromacs| after installation
869 ----------------------------------------------
870 |Gromacs| installs the script ``GMXRC`` in the ``bin``
871 subdirectory of the installation directory
872 (e.g. ``/usr/local/gromacs/bin/GMXRC``), which you should source
873 from your shell:
877     source /your/installation/prefix/here/bin/GMXRC
879 It will detect what kind of shell you are running and set up your
880 environment for using |Gromacs|. You may wish to arrange for your
881 login scripts to do this automatically; please search the web for
882 instructions on how to do this for your shell. 
884 Many of the |Gromacs| programs rely on data installed in the
885 ``share/gromacs`` subdirectory of the installation directory. By
886 default, the programs will use the environment variables set in the
887 ``GMXRC`` script, and if this is not available they will try to guess the
888 path based on their own location.  This usually works well unless you
889 change the names of directories inside the install tree. If you still
890 need to do that, you might want to recompile with the new install
891 location properly set, or edit the ``GMXRC`` script.
893 Testing |Gromacs| for correctness
894 ---------------------------------
895 Since 2011, the |Gromacs| development uses an automated system where
896 every new code change is subject to regression testing on a number of
897 platforms and software combinations. While this improves
898 reliability quite a lot, not everything is tested, and since we
899 increasingly rely on cutting edge compiler features there is
900 non-negligible risk that the default compiler on your system could
901 have bugs. We have tried our best to test and refuse to use known bad
902 versions in ``cmake``, but we strongly recommend that you run through
903 the tests yourself. It only takes a few minutes, after which you can
904 trust your build.
906 The simplest way to run the checks is to build |Gromacs| with
907 ``-DREGRESSIONTEST_DOWNLOAD``, and run ``make check``.
908 |Gromacs| will automatically download and run the tests for you.
909 Alternatively, you can download and unpack the |Gromacs|
910 regression test suite |gmx-regressiontests-package| tarball yourself
911 and use the advanced ``cmake`` option ``REGRESSIONTEST_PATH`` to
912 specify the path to the unpacked tarball, which will then be used for
913 testing. If the above does not work, then please read on.
915 The regression tests are also available from the download_ section.
916 Once you have downloaded them, unpack the tarball, source
917 ``GMXRC`` as described above, and run ``./gmxtest.pl all``
918 inside the regression tests folder. You can find more options
919 (e.g. adding ``double`` when using double precision, or
920 ``-only expanded`` to run just the tests whose names match
921 "expanded") if you just execute the script without options.
923 Hopefully, you will get a report that all tests have passed. If there
924 are individual failed tests it could be a sign of a compiler bug, or
925 that a tolerance is just a tiny bit too tight. Check the output files
926 the script directs you too, and try a different or newer compiler if
927 the errors appear to be real. If you cannot get it to pass the
928 regression tests, you might try dropping a line to the gmx-users
929 mailing list, but then you should include a detailed description of
930 your hardware, and the output of ``gmx mdrun -version`` (which contains
931 valuable diagnostic information in the header).
933 A build with ``-DGMX_BUILD_MDRUN_ONLY`` cannot be tested with
934 ``make check`` from the build tree, because most of the tests
935 require a full build to run things like ``grompp``. To test such an
936 mdrun fully requires installing it to the same location as a normal
937 build of |Gromacs|, downloading the regression tests tarball manually
938 as described above, sourcing the correct ``GMXRC`` and running the
939 perl script manually. For example, from your |Gromacs| source
940 directory:
944     mkdir build-normal
945     cd build-normal
946     cmake .. -DCMAKE_INSTALL_PREFIX=/your/installation/prefix/here
947     make -j 4
948     make install
949     cd ..
950     mkdir build-mdrun-only
951     cd build-mdrun-only
952     cmake .. -DGMX_MPI=ON -DGMX_GPU=ON -DGMX_BUILD_MDRUN_ONLY=ON -DCMAKE_INSTALL_PREFIX=/your/installation/prefix/here
953     make -j 4
954     make install
955     cd /to/your/unpacked/regressiontests
956     source /your/installation/prefix/here/bin/GMXRC
957     ./gmxtest.pl all -np 2
959 If your mdrun program has been suffixed in a non-standard way, then
960 the ``./gmxtest.pl -mdrun`` option will let you specify that name to the
961 test machinery. You can use ``./gmxtest.pl -double`` to test the
962 double-precision version. You can use ``./gmxtest.pl -crosscompiling``
963 to stop the test harness attempting to check that the programs can
964 be run. You can use ``./gmxtest.pl -mpirun srun`` if your command to
965 run an MPI program is called ``srun``.
967 The ``make check`` target also runs integration-style tests that may run
968 with MPI if ``GMX_MPI=ON`` was set. To make these work with various possible
969 MPI libraries, you may need to
970 set the CMake variables ``MPIEXEC``, ``MPIEXEC_NUMPROC_FLAG``,
971 ``MPIEXEC_PREFLAGS`` and ``MPIEXEC_POSTFLAGS`` so that
972 ``mdrun-mpi-test_mpi`` would run on multiple ranks via the shell command
976     ${MPIEXEC} ${MPIEXEC_NUMPROC_FLAG} ${NUMPROC} ${MPIEXEC_PREFLAGS} \
977           mdrun-mpi-test_mpi ${MPIEXEC_POSTFLAGS} -otherflags
979 A typical example for SLURM is
983      cmake .. -DGMX_MPI=on -DMPIEXEC=srun -DMPIEXEC_NUMPROC_FLAG=-n -DMPIEXEC_PREFLAGS= -DMPIEXEC_POSTFLAGS=
986 Testing |Gromacs| for performance
987 ---------------------------------
988 We are still working on a set of benchmark systems for testing
989 the performance of |Gromacs|. Until that is ready, we recommend that
990 you try a few different parallelization options, and experiment with
991 tools such as ``gmx tune_pme``.
993 Having difficulty?
994 ------------------
995 You are not alone - this can be a complex task! If you encounter a
996 problem with installing |Gromacs|, then there are a number of
997 locations where you can find assistance. It is recommended that you
998 follow these steps to find the solution:
1000 1. Read the installation instructions again, taking note that you
1001    have followed each and every step correctly.
1003 2. Search the |Gromacs| webpage_ and users emailing list for information
1004    on the error. Adding
1005    ``site:https://mailman-1.sys.kth.se/pipermail/gromacs.org_gmx-users``
1006    to a Google search may help filter better results.
1008 3. Search the internet using a search engine such as Google.
1010 4. Post to the |Gromacs| users emailing list gmx-users for
1011    assistance. Be sure to give a full description of what you have
1012    done and why you think it did not work. Give details about the
1013    system on which you are installing.  Copy and paste your command
1014    line and as much of the output as you think might be relevant -
1015    certainly from the first indication of a problem. In particular,
1016    please try to include at least the header from the mdrun logfile,
1017    and preferably the entire file.  People who might volunteer to help
1018    you do not have time to ask you interactive detailed follow-up
1019    questions, so you will get an answer faster if you provide as much
1020    information as you think could possibly help. High quality bug
1021    reports tend to receive rapid high quality answers.
1023 .. _gmx-special-build:
1025 Special instructions for some platforms
1026 =======================================
1028 Building on Windows
1029 -------------------
1030 Building on Windows using native compilers is rather similar to
1031 building on Unix, so please start by reading the above. Then, download
1032 and unpack the |Gromacs| source archive. Make a folder in which to do
1033 the out-of-source build of |Gromacs|. For example, make it within the
1034 folder unpacked from the source archive, and call it ``build-gromacs``.
1036 For CMake, you can either use the graphical user interface provided on
1037 Windows, or you can use a command line shell with instructions similar
1038 to the UNIX ones above. If you open a shell from within your IDE
1039 (e.g. Microsoft Visual Studio), it will configure the environment for
1040 you, but you might need to tweak this in order to get either a 32-bit
1041 or 64-bit build environment. The latter provides the fastest
1042 executable. If you use a normal Windows command shell, then you will
1043 need to either set up the environment to find your compilers and
1044 libraries yourself, or run the ``vcvarsall.bat`` batch script provided
1045 by MSVC (just like sourcing a bash script under Unix).
1047 With the graphical user interface, you will be asked about what
1048 compilers to use at the initial configuration stage, and if you use
1049 the command line they can be set in a similar way as under UNIX.
1051 Unfortunately ``-DGMX_BUILD_OWN_FFTW=ON`` (see `Using FFTW`_) does not
1052 work on Windows, because there is no supported way to build FFTW on
1053 Windows. You can either build FFTW some other way (e.g. MinGW), or
1054 use the built-in fftpack (which may be slow), or `using MKL`_.
1056 For the build, you can either load the generated solutions file into
1057 e.g. Visual Studio, or use the command line with ``cmake --build`` so
1058 the right tools get used.
1060 Building on Cray
1061 ----------------
1062 |Gromacs| builds mostly out of the box on modern Cray machines, but
1063 you may need to specify the use of static binaries with
1064 ``-DGMX_BUILD_SHARED_EXE=off``, and you may need to set the F77
1065 environmental variable to ``ftn`` when compiling FFTW.
1067 Building on Solaris
1068 -------------------
1070 The built-in |Gromacs| processor detection does not work on Solaris,
1071 so it is strongly recommended that you build |Gromacs| with
1072 ``-DGMX_HWLOC=on`` and ensure that the ``CMAKE_PREFIX_PATH`` includes
1073 the path where the hwloc headers and libraries can be found. At least
1074 version 1.11.8 of hwloc is recommended.
1076 Oracle Developer Studio is not a currently supported compiler (and
1077 does not currently compile |Gromacs| correctly, perhaps because the
1078 thread-MPI atomics are incorrectly implemented in |Gromacs|).
1080 Building on BlueGene
1081 --------------------
1083 BlueGene/Q
1084 ^^^^^^^^^^
1085 There is currently native acceleration on this platform for the Verlet
1086 cut-off scheme. There are no plans to provide accelerated kernels for
1087 the group cut-off scheme, but the default plain C kernels will work
1088 (slowly).
1090 Only the bgclang compiler is supported, because it is the only
1091 availble C++11 compiler. Only static linking is supported.
1093 Computation on BlueGene floating-point units is always done in
1094 double-precision. However, mixed-precision builds of |Gromacs| are still
1095 normal and encouraged since they use cache more efficiently.
1097 You need to arrange for FFTW to be installed correctly, following the
1098 above instructions. You may prefer to configure FFTW with
1099 ``--disable-fortran`` to avoid complications.
1101 MPI wrapper compilers should be used for compiling and linking. The
1102 MPI wrapper compilers can make it awkward to
1103 attempt to use IBM's optimized BLAS/LAPACK called ESSL (see the
1104 section on `linear algebra libraries`_. Since mdrun is the only part
1105 of |Gromacs| that should normally run on the compute nodes, and there is
1106 nearly no need for linear algebra support for mdrun, it is recommended
1107 to use the |Gromacs| built-in linear algebra routines - this is never
1108 a problem for normal simulations.
1110 The recommended configuration is to use
1114     cmake .. -DCMAKE_C_COMPILER=mpicc \
1115              -DCMAKE_CXX_COMPILER=mpicxx \
1116              -DCMAKE_TOOLCHAIN_FILE=Platform/BlueGeneQ-static-bgclang-CXX.cmake \
1117              -DCMAKE_PREFIX_PATH=/your/fftw/installation/prefix \
1118              -DGMX_MPI=ON \
1119              -DGMX_BUILD_MDRUN_ONLY=ON
1120     make
1121     make install
1123 which will build a statically-linked MPI-enabled mdrun for the compute
1124 nodes. Otherwise, |Gromacs| default configuration
1125 behaviour applies.
1127 It is possible to configure and make the remaining |Gromacs| tools with
1128 the compute-node toolchain, but as none of those tools are MPI-aware,
1129 this would not normally
1130 be useful. Instead, users should plan to run these on the login node,
1131 and perform a separate |Gromacs| installation for that, using the login
1132 node's toolchain - not the above platform file, or any other
1133 compute-node toolchain. This may require requesting an up-to-date
1134 gcc or clang toolchain for the front end.
1136 Note that only the MPI build is available for the compute-node
1137 toolchains. The |Gromacs| thread-MPI or no-MPI builds are not useful at
1138 all on BlueGene/Q.
1140 BlueGene/P
1141 ^^^^^^^^^^
1142 There is currently no SIMD support on this platform and no plans to
1143 add it. The default plain C kernels will work if there is a C++11
1144 compiler for this platform.
1146 Fujitsu PRIMEHPC
1147 ^^^^^^^^^^^^^^^^
1148 This is the architecture of the K computer, which uses Fujitsu
1149 Sparc64VIIIfx chips. On this platform, |Gromacs| has
1150 accelerated group kernels using the HPC-ACE instructions, no
1151 accelerated Verlet kernels, and a custom build toolchain. Since this
1152 particular chip only does double precision SIMD, the default setup
1153 is to build |Gromacs| in double. Since most users only need single, we have added
1154 an option GMX_RELAXED_DOUBLE_PRECISION to accept single precision square root
1155 accuracy in the group kernels; unless you know that you really need 15 digits
1156 of accuracy in each individual force, we strongly recommend you use this. Note
1157 that all summation and other operations are still done in double.
1159 The recommended configuration is to use
1163     cmake .. -DCMAKE_TOOLCHAIN_FILE=Toolchain-Fujitsu-Sparc64-mpi.cmake \
1164              -DCMAKE_PREFIX_PATH=/your/fftw/installation/prefix \
1165              -DCMAKE_INSTALL_PREFIX=/where/gromacs/should/be/installed \
1166              -DGMX_MPI=ON \
1167              -DGMX_BUILD_MDRUN_ONLY=ON \
1168              -DGMX_RELAXED_DOUBLE_PRECISION=ON
1169     make
1170     make install
1172 Intel Xeon Phi
1173 ^^^^^^^^^^^^^^
1174 |Gromacs| has preliminary support for Intel Xeon Phi. Only symmetric
1175 (aka native) mode is supported on Knights Corner, and it has so far
1176 not been optimized to the same level as other architectures. The
1177 performance depends among other factors on the system size, and for
1178 now the performance might not be faster than CPUs. Building for Xeon
1179 Phi works almost as any other Unix. See the instructions above for
1180 details. The recommended configuration is
1184     cmake .. -DCMAKE_TOOLCHAIN_FILE=Platform/XeonPhi
1185     make
1186     make install
1188 Tested platforms
1189 ================
1190 While it is our best belief that |Gromacs| will build and run pretty
1191 much everywhere, it is important that we tell you where we really know
1192 it works because we have tested it. We do test on Linux, Windows, and
1193 Mac with a range of compilers and libraries for a range of our
1194 configuration options. Every commit in our git source code repository
1195 is currently tested on x86 with a number of gcc versions ranging from 4.8.1
1196 through 6.1, versions 16 of the Intel compiler, and Clang
1197 versions 3.4 through 3.8. For this, we use a variety of GNU/Linux
1198 flavors and versions as well as recent versions of Windows. Under
1199 Windows, we test both MSVC 2015 and version 16 of the Intel compiler.
1200 For details, you can
1201 have a look at the `continuous integration server used by GROMACS`_,
1202 which runs Jenkins_.
1204 We test irregularly on ARM v7, ARM v8, BlueGene/Q, Cray, Fujitsu
1205 PRIMEHPC, Power8, Google Native Client and other environments, and
1206 with other compilers and compiler versions, too.