Issue #5170: Fixed regression caused when fixing #5768.
[python.git] / Doc / library / multiprocessing.rst
blobd715134f671bac88a26155dace7d41c8cb70ea5d
1 :mod:`multiprocessing` --- Process-based "threading" interface
2 ==============================================================
4 .. module:: multiprocessing
5    :synopsis: Process-based "threading" interface.
7 .. versionadded:: 2.6
10 Introduction
11 ----------------------
13 :mod:`multiprocessing` is a package that supports spawning processes using an
14 API similar to the :mod:`threading` module.  The :mod:`multiprocessing` package
15 offers both local and remote concurrency, effectively side-stepping the
16 :term:`Global Interpreter Lock` by using subprocesses instead of threads.  Due
17 to this, the :mod:`multiprocessing` module allows the programmer to fully
18 leverage multiple processors on a given machine.  It runs on both Unix and
19 Windows.
21 .. warning::
23     Some of this package's functionality requires a functioning shared semaphore
24     implementation on the host operating system. Without one, the
25     :mod:`multiprocessing.synchronize` module will be disabled, and attempts to
26     import it will result in an :exc:`ImportError`. See
27     :issue:`3770` for additional information.
29 .. note::
31     Functionality within this package requires that the ``__main__`` method be
32     importable by the children. This is covered in :ref:`multiprocessing-programming`
33     however it is worth pointing out here. This means that some examples, such
34     as the :class:`multiprocessing.Pool` examples will not work in the
35     interactive interpreter. For example::
37         >>> from multiprocessing import Pool
38         >>> p = Pool(5)
39         >>> def f(x):
40         ...     return x*x
41         ...
42         >>> p.map(f, [1,2,3])
43         Process PoolWorker-1:
44         Process PoolWorker-2:
45         Traceback (most recent call last):
46         Traceback (most recent call last):
47         AttributeError: 'module' object has no attribute 'f'
48         AttributeError: 'module' object has no attribute 'f'
49         AttributeError: 'module' object has no attribute 'f'
52 The :class:`Process` class
53 ~~~~~~~~~~~~~~~~~~~~~~~~~~
55 In :mod:`multiprocessing`, processes are spawned by creating a :class:`Process`
56 object and then calling its :meth:`~Process.start` method.  :class:`Process`
57 follows the API of :class:`threading.Thread`.  A trivial example of a
58 multiprocess program is ::
60     from multiprocessing import Process
62     def f(name):
63         print 'hello', name
65     if __name__ == '__main__':
66         p = Process(target=f, args=('bob',))
67         p.start()
68         p.join()
70 To show the individual process IDs involved, here is an expanded example::
72     from multiprocessing import Process
73     import os
75     def info(title):
76         print title
77         print 'module name:', __name__
78         print 'parent process:', os.getppid()
79         print 'process id:', os.getpid()
81     def f(name):
82         info('function f')
83         print 'hello', name
85     if __name__ == '__main__':
86         info('main line')
87         p = Process(target=f, args=('bob',))
88         p.start()
89         p.join()
91 For an explanation of why (on Windows) the ``if __name__ == '__main__'`` part is
92 necessary, see :ref:`multiprocessing-programming`.
96 Exchanging objects between processes
97 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
99 :mod:`multiprocessing` supports two types of communication channel between
100 processes:
102 **Queues**
104    The :class:`Queue` class is a near clone of :class:`Queue.Queue`.  For
105    example::
107       from multiprocessing import Process, Queue
109       def f(q):
110           q.put([42, None, 'hello'])
112       if __name__ == '__main__':
113           q = Queue()
114           p = Process(target=f, args=(q,))
115           p.start()
116           print q.get()    # prints "[42, None, 'hello']"
117           p.join()
119    Queues are thread and process safe.
121 **Pipes**
123    The :func:`Pipe` function returns a pair of connection objects connected by a
124    pipe which by default is duplex (two-way).  For example::
126       from multiprocessing import Process, Pipe
128       def f(conn):
129           conn.send([42, None, 'hello'])
130           conn.close()
132       if __name__ == '__main__':
133           parent_conn, child_conn = Pipe()
134           p = Process(target=f, args=(child_conn,))
135           p.start()
136           print parent_conn.recv()   # prints "[42, None, 'hello']"
137           p.join()
139    The two connection objects returned by :func:`Pipe` represent the two ends of
140    the pipe.  Each connection object has :meth:`~Connection.send` and
141    :meth:`~Connection.recv` methods (among others).  Note that data in a pipe
142    may become corrupted if two processes (or threads) try to read from or write
143    to the *same* end of the pipe at the same time.  Of course there is no risk
144    of corruption from processes using different ends of the pipe at the same
145    time.
148 Synchronization between processes
149 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
151 :mod:`multiprocessing` contains equivalents of all the synchronization
152 primitives from :mod:`threading`.  For instance one can use a lock to ensure
153 that only one process prints to standard output at a time::
155    from multiprocessing import Process, Lock
157    def f(l, i):
158        l.acquire()
159        print 'hello world', i
160        l.release()
162    if __name__ == '__main__':
163        lock = Lock()
165        for num in range(10):
166            Process(target=f, args=(lock, num)).start()
168 Without using the lock output from the different processes is liable to get all
169 mixed up.
172 Sharing state between processes
173 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
175 As mentioned above, when doing concurrent programming it is usually best to
176 avoid using shared state as far as possible.  This is particularly true when
177 using multiple processes.
179 However, if you really do need to use some shared data then
180 :mod:`multiprocessing` provides a couple of ways of doing so.
182 **Shared memory**
184    Data can be stored in a shared memory map using :class:`Value` or
185    :class:`Array`.  For example, the following code ::
187       from multiprocessing import Process, Value, Array
189       def f(n, a):
190           n.value = 3.1415927
191           for i in range(len(a)):
192               a[i] = -a[i]
194       if __name__ == '__main__':
195           num = Value('d', 0.0)
196           arr = Array('i', range(10))
198           p = Process(target=f, args=(num, arr))
199           p.start()
200           p.join()
202           print num.value
203           print arr[:]
205    will print ::
207       3.1415927
208       [0, -1, -2, -3, -4, -5, -6, -7, -8, -9]
210    The ``'d'`` and ``'i'`` arguments used when creating ``num`` and ``arr`` are
211    typecodes of the kind used by the :mod:`array` module: ``'d'`` indicates a
212    double precision float and ``'i'`` indicates a signed integer.  These shared
213    objects will be process and thread safe.
215    For more flexibility in using shared memory one can use the
216    :mod:`multiprocessing.sharedctypes` module which supports the creation of
217    arbitrary ctypes objects allocated from shared memory.
219 **Server process**
221    A manager object returned by :func:`Manager` controls a server process which
222    holds Python objects and allows other processes to manipulate them using
223    proxies.
225    A manager returned by :func:`Manager` will support types :class:`list`,
226    :class:`dict`, :class:`Namespace`, :class:`Lock`, :class:`RLock`,
227    :class:`Semaphore`, :class:`BoundedSemaphore`, :class:`Condition`,
228    :class:`Event`, :class:`Queue`, :class:`Value` and :class:`Array`.  For
229    example, ::
231       from multiprocessing import Process, Manager
233       def f(d, l):
234           d[1] = '1'
235           d['2'] = 2
236           d[0.25] = None
237           l.reverse()
239       if __name__ == '__main__':
240           manager = Manager()
242           d = manager.dict()
243           l = manager.list(range(10))
245           p = Process(target=f, args=(d, l))
246           p.start()
247           p.join()
249           print d
250           print l
252    will print ::
254        {0.25: None, 1: '1', '2': 2}
255        [9, 8, 7, 6, 5, 4, 3, 2, 1, 0]
257    Server process managers are more flexible than using shared memory objects
258    because they can be made to support arbitrary object types.  Also, a single
259    manager can be shared by processes on different computers over a network.
260    They are, however, slower than using shared memory.
263 Using a pool of workers
264 ~~~~~~~~~~~~~~~~~~~~~~~
266 The :class:`~multiprocessing.pool.Pool` class represents a pool of worker
267 processes.  It has methods which allows tasks to be offloaded to the worker
268 processes in a few different ways.
270 For example::
272    from multiprocessing import Pool
274    def f(x):
275        return x*x
277    if __name__ == '__main__':
278        pool = Pool(processes=4)              # start 4 worker processes
279        result = pool.apply_async(f, [10])     # evaluate "f(10)" asynchronously
280        print result.get(timeout=1)           # prints "100" unless your computer is *very* slow
281        print pool.map(f, range(10))          # prints "[0, 1, 4,..., 81]"
284 Reference
285 ---------
287 The :mod:`multiprocessing` package mostly replicates the API of the
288 :mod:`threading` module.
291 :class:`Process` and exceptions
292 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
294 .. class:: Process([group[, target[, name[, args[, kwargs]]]]])
296    Process objects represent activity that is run in a separate process. The
297    :class:`Process` class has equivalents of all the methods of
298    :class:`threading.Thread`.
300    The constructor should always be called with keyword arguments. *group*
301    should always be ``None``; it exists solely for compatibility with
302    :class:`threading.Thread`.  *target* is the callable object to be invoked by
303    the :meth:`run()` method.  It defaults to ``None``, meaning nothing is
304    called. *name* is the process name.  By default, a unique name is constructed
305    of the form 'Process-N\ :sub:`1`:N\ :sub:`2`:...:N\ :sub:`k`' where N\
306    :sub:`1`,N\ :sub:`2`,...,N\ :sub:`k` is a sequence of integers whose length
307    is determined by the *generation* of the process.  *args* is the argument
308    tuple for the target invocation.  *kwargs* is a dictionary of keyword
309    arguments for the target invocation.  By default, no arguments are passed to
310    *target*.
312    If a subclass overrides the constructor, it must make sure it invokes the
313    base class constructor (:meth:`Process.__init__`) before doing anything else
314    to the process.
316    .. method:: run()
318       Method representing the process's activity.
320       You may override this method in a subclass.  The standard :meth:`run`
321       method invokes the callable object passed to the object's constructor as
322       the target argument, if any, with sequential and keyword arguments taken
323       from the *args* and *kwargs* arguments, respectively.
325    .. method:: start()
327       Start the process's activity.
329       This must be called at most once per process object.  It arranges for the
330       object's :meth:`run` method to be invoked in a separate process.
332    .. method:: join([timeout])
334       Block the calling thread until the process whose :meth:`join` method is
335       called terminates or until the optional timeout occurs.
337       If *timeout* is ``None`` then there is no timeout.
339       A process can be joined many times.
341       A process cannot join itself because this would cause a deadlock.  It is
342       an error to attempt to join a process before it has been started.
344    .. attribute:: name
346       The process's name.
348       The name is a string used for identification purposes only.  It has no
349       semantics.  Multiple processes may be given the same name.  The initial
350       name is set by the constructor.
352    .. method:: is_alive
354       Return whether the process is alive.
356       Roughly, a process object is alive from the moment the :meth:`start`
357       method returns until the child process terminates.
359    .. attribute:: daemon
361       The process's daemon flag, a Boolean value.  This must be set before
362       :meth:`start` is called.
364       The initial value is inherited from the creating process.
366       When a process exits, it attempts to terminate all of its daemonic child
367       processes.
369       Note that a daemonic process is not allowed to create child processes.
370       Otherwise a daemonic process would leave its children orphaned if it gets
371       terminated when its parent process exits.
373    In addition to the  :class:`Threading.Thread` API, :class:`Process` objects
374    also support the following attributes and methods:
376    .. attribute:: pid
378       Return the process ID.  Before the process is spawned, this will be
379       ``None``.
381    .. attribute:: exitcode
383       The child's exit code.  This will be ``None`` if the process has not yet
384       terminated.  A negative value *-N* indicates that the child was terminated
385       by signal *N*.
387    .. attribute:: authkey
389       The process's authentication key (a byte string).
391       When :mod:`multiprocessing` is initialized the main process is assigned a
392       random string using :func:`os.random`.
394       When a :class:`Process` object is created, it will inherit the
395       authentication key of its parent process, although this may be changed by
396       setting :attr:`authkey` to another byte string.
398       See :ref:`multiprocessing-auth-keys`.
400    .. method:: terminate()
402       Terminate the process.  On Unix this is done using the ``SIGTERM`` signal;
403       on Windows :cfunc:`TerminateProcess` is used.  Note that exit handlers and
404       finally clauses, etc., will not be executed.
406       Note that descendant processes of the process will *not* be terminated --
407       they will simply become orphaned.
409       .. warning::
411          If this method is used when the associated process is using a pipe or
412          queue then the pipe or queue is liable to become corrupted and may
413          become unusable by other process.  Similarly, if the process has
414          acquired a lock or semaphore etc. then terminating it is liable to
415          cause other processes to deadlock.
417    Note that the :meth:`start`, :meth:`join`, :meth:`is_alive` and
418    :attr:`exit_code` methods should only be called by the process that created
419    the process object.
421    Example usage of some of the methods of :class:`Process`::
423        >>> import multiprocessing, time, signal
424        >>> p = multiprocessing.Process(target=time.sleep, args=(1000,))
425        >>> print p, p.is_alive()
426        <Process(Process-1, initial)> False
427        >>> p.start()
428        >>> print p, p.is_alive()
429        <Process(Process-1, started)> True
430        >>> p.terminate()
431        >>> print p, p.is_alive()
432        <Process(Process-1, stopped[SIGTERM])> False
433        >>> p.exitcode == -signal.SIGTERM
434        True
437 .. exception:: BufferTooShort
439    Exception raised by :meth:`Connection.recv_bytes_into()` when the supplied
440    buffer object is too small for the message read.
442    If ``e`` is an instance of :exc:`BufferTooShort` then ``e.args[0]`` will give
443    the message as a byte string.
446 Pipes and Queues
447 ~~~~~~~~~~~~~~~~
449 When using multiple processes, one generally uses message passing for
450 communication between processes and avoids having to use any synchronization
451 primitives like locks.
453 For passing messages one can use :func:`Pipe` (for a connection between two
454 processes) or a queue (which allows multiple producers and consumers).
456 The :class:`Queue` and :class:`JoinableQueue` types are multi-producer,
457 multi-consumer FIFO queues modelled on the :class:`Queue.Queue` class in the
458 standard library.  They differ in that :class:`Queue` lacks the
459 :meth:`~Queue.Queue.task_done` and :meth:`~Queue.Queue.join` methods introduced
460 into Python 2.5's :class:`Queue.Queue` class.
462 If you use :class:`JoinableQueue` then you **must** call
463 :meth:`JoinableQueue.task_done` for each task removed from the queue or else the
464 semaphore used to count the number of unfinished tasks may eventually overflow
465 raising an exception.
467 Note that one can also create a shared queue by using a manager object -- see
468 :ref:`multiprocessing-managers`.
470 .. note::
472    :mod:`multiprocessing` uses the usual :exc:`Queue.Empty` and
473    :exc:`Queue.Full` exceptions to signal a timeout.  They are not available in
474    the :mod:`multiprocessing` namespace so you need to import them from
475    :mod:`Queue`.
478 .. warning::
480    If a process is killed using :meth:`Process.terminate` or :func:`os.kill`
481    while it is trying to use a :class:`Queue`, then the data in the queue is
482    likely to become corrupted.  This may cause any other processes to get an
483    exception when it tries to use the queue later on.
485 .. warning::
487    As mentioned above, if a child process has put items on a queue (and it has
488    not used :meth:`JoinableQueue.cancel_join_thread`), then that process will
489    not terminate until all buffered items have been flushed to the pipe.
491    This means that if you try joining that process you may get a deadlock unless
492    you are sure that all items which have been put on the queue have been
493    consumed.  Similarly, if the child process is non-daemonic then the parent
494    process may hang on exit when it tries to join all its non-daemonic children.
496    Note that a queue created using a manager does not have this issue.  See
497    :ref:`multiprocessing-programming`.
499 For an example of the usage of queues for interprocess communication see
500 :ref:`multiprocessing-examples`.
503 .. function:: Pipe([duplex])
505    Returns a pair ``(conn1, conn2)`` of :class:`Connection` objects representing
506    the ends of a pipe.
508    If *duplex* is ``True`` (the default) then the pipe is bidirectional.  If
509    *duplex* is ``False`` then the pipe is unidirectional: ``conn1`` can only be
510    used for receiving messages and ``conn2`` can only be used for sending
511    messages.
514 .. class:: Queue([maxsize])
516    Returns a process shared queue implemented using a pipe and a few
517    locks/semaphores.  When a process first puts an item on the queue a feeder
518    thread is started which transfers objects from a buffer into the pipe.
520    The usual :exc:`Queue.Empty` and :exc:`Queue.Full` exceptions from the
521    standard library's :mod:`Queue` module are raised to signal timeouts.
523    :class:`Queue` implements all the methods of :class:`Queue.Queue` except for
524    :meth:`~Queue.Queue.task_done` and :meth:`~Queue.Queue.join`.
526    .. method:: qsize()
528       Return the approximate size of the queue.  Because of
529       multithreading/multiprocessing semantics, this number is not reliable.
531       Note that this may raise :exc:`NotImplementedError` on Unix platforms like
532       Mac OS X where ``sem_getvalue()`` is not implemented.
534    .. method:: empty()
536       Return ``True`` if the queue is empty, ``False`` otherwise.  Because of
537       multithreading/multiprocessing semantics, this is not reliable.
539    .. method:: full()
541       Return ``True`` if the queue is full, ``False`` otherwise.  Because of
542       multithreading/multiprocessing semantics, this is not reliable.
544    .. method:: put(item[, block[, timeout]])
546       Put item into the queue.  If the optional argument *block* is ``True``
547       (the default) and *timeout* is ``None`` (the default), block if necessary until
548       a free slot is available.  If *timeout* is a positive number, it blocks at
549       most *timeout* seconds and raises the :exc:`Queue.Full` exception if no
550       free slot was available within that time.  Otherwise (*block* is
551       ``False``), put an item on the queue if a free slot is immediately
552       available, else raise the :exc:`Queue.Full` exception (*timeout* is
553       ignored in that case).
555    .. method:: put_nowait(item)
557       Equivalent to ``put(item, False)``.
559    .. method:: get([block[, timeout]])
561       Remove and return an item from the queue.  If optional args *block* is
562       ``True`` (the default) and *timeout* is ``None`` (the default), block if
563       necessary until an item is available.  If *timeout* is a positive number,
564       it blocks at most *timeout* seconds and raises the :exc:`Queue.Empty`
565       exception if no item was available within that time.  Otherwise (block is
566       ``False``), return an item if one is immediately available, else raise the
567       :exc:`Queue.Empty` exception (*timeout* is ignored in that case).
569    .. method:: get_nowait()
570                get_no_wait()
572       Equivalent to ``get(False)``.
574    :class:`multiprocessing.Queue` has a few additional methods not found in
575    :class:`Queue.Queue`.  These methods are usually unnecessary for most
576    code:
578    .. method:: close()
580       Indicate that no more data will be put on this queue by the current
581       process.  The background thread will quit once it has flushed all buffered
582       data to the pipe.  This is called automatically when the queue is garbage
583       collected.
585    .. method:: join_thread()
587       Join the background thread.  This can only be used after :meth:`close` has
588       been called.  It blocks until the background thread exits, ensuring that
589       all data in the buffer has been flushed to the pipe.
591       By default if a process is not the creator of the queue then on exit it
592       will attempt to join the queue's background thread.  The process can call
593       :meth:`cancel_join_thread` to make :meth:`join_thread` do nothing.
595    .. method:: cancel_join_thread()
597       Prevent :meth:`join_thread` from blocking.  In particular, this prevents
598       the background thread from being joined automatically when the process
599       exits -- see :meth:`join_thread`.
602 .. class:: JoinableQueue([maxsize])
604    :class:`JoinableQueue`, a :class:`Queue` subclass, is a queue which
605    additionally has :meth:`task_done` and :meth:`join` methods.
607    .. method:: task_done()
609       Indicate that a formerly enqueued task is complete. Used by queue consumer
610       threads.  For each :meth:`~Queue.get` used to fetch a task, a subsequent
611       call to :meth:`task_done` tells the queue that the processing on the task
612       is complete.
614       If a :meth:`~Queue.join` is currently blocking, it will resume when all
615       items have been processed (meaning that a :meth:`task_done` call was
616       received for every item that had been :meth:`~Queue.put` into the queue).
618       Raises a :exc:`ValueError` if called more times than there were items
619       placed in the queue.
622    .. method:: join()
624       Block until all items in the queue have been gotten and processed.
626       The count of unfinished tasks goes up whenever an item is added to the
627       queue.  The count goes down whenever a consumer thread calls
628       :meth:`task_done` to indicate that the item was retrieved and all work on
629       it is complete.  When the count of unfinished tasks drops to zero,
630       :meth:`~Queue.join` unblocks.
633 Miscellaneous
634 ~~~~~~~~~~~~~
636 .. function:: active_children()
638    Return list of all live children of the current process.
640    Calling this has the side affect of "joining" any processes which have
641    already finished.
643 .. function:: cpu_count()
645    Return the number of CPUs in the system.  May raise
646    :exc:`NotImplementedError`.
648 .. function:: current_process()
650    Return the :class:`Process` object corresponding to the current process.
652    An analogue of :func:`threading.current_thread`.
654 .. function:: freeze_support()
656    Add support for when a program which uses :mod:`multiprocessing` has been
657    frozen to produce a Windows executable.  (Has been tested with **py2exe**,
658    **PyInstaller** and **cx_Freeze**.)
660    One needs to call this function straight after the ``if __name__ ==
661    '__main__'`` line of the main module.  For example::
663       from multiprocessing import Process, freeze_support
665       def f():
666           print 'hello world!'
668       if __name__ == '__main__':
669           freeze_support()
670           Process(target=f).start()
672    If the ``freeze_support()`` line is missed out then trying to run the frozen
673    executable will raise :exc:`RuntimeError`.
675    If the module is being run normally by the Python interpreter then
676    :func:`freeze_support` has no effect.
678 .. function:: set_executable()
680    Sets the path of the python interpreter to use when starting a child process.
681    (By default :data:`sys.executable` is used).  Embedders will probably need to
682    do some thing like ::
684       setExecutable(os.path.join(sys.exec_prefix, 'pythonw.exe'))
686     before they can create child processes.  (Windows only)
689 .. note::
691    :mod:`multiprocessing` contains no analogues of
692    :func:`threading.active_count`, :func:`threading.enumerate`,
693    :func:`threading.settrace`, :func:`threading.setprofile`,
694    :class:`threading.Timer`, or :class:`threading.local`.
697 Connection Objects
698 ~~~~~~~~~~~~~~~~~~
700 Connection objects allow the sending and receiving of picklable objects or
701 strings.  They can be thought of as message oriented connected sockets.
703 Connection objects usually created using :func:`Pipe` -- see also
704 :ref:`multiprocessing-listeners-clients`.
706 .. class:: Connection
708    .. method:: send(obj)
710       Send an object to the other end of the connection which should be read
711       using :meth:`recv`.
713       The object must be picklable.  Very large pickles (approximately 32 MB+,
714       though it depends on the OS) may raise a ValueError exception.
716    .. method:: recv()
718       Return an object sent from the other end of the connection using
719       :meth:`send`.  Raises :exc:`EOFError` if there is nothing left to receive
720       and the other end was closed.
722    .. method:: fileno()
724       Returns the file descriptor or handle used by the connection.
726    .. method:: close()
728       Close the connection.
730       This is called automatically when the connection is garbage collected.
732    .. method:: poll([timeout])
734       Return whether there is any data available to be read.
736       If *timeout* is not specified then it will return immediately.  If
737       *timeout* is a number then this specifies the maximum time in seconds to
738       block.  If *timeout* is ``None`` then an infinite timeout is used.
740    .. method:: send_bytes(buffer[, offset[, size]])
742       Send byte data from an object supporting the buffer interface as a
743       complete message.
745       If *offset* is given then data is read from that position in *buffer*.  If
746       *size* is given then that many bytes will be read from buffer.  Very large
747       buffers (approximately 32 MB+, though it depends on the OS) may raise a
748       ValueError exception
750    .. method:: recv_bytes([maxlength])
752       Return a complete message of byte data sent from the other end of the
753       connection as a string.  Raises :exc:`EOFError` if there is nothing left
754       to receive and the other end has closed.
756       If *maxlength* is specified and the message is longer than *maxlength*
757       then :exc:`IOError` is raised and the connection will no longer be
758       readable.
760    .. method:: recv_bytes_into(buffer[, offset])
762       Read into *buffer* a complete message of byte data sent from the other end
763       of the connection and return the number of bytes in the message.  Raises
764       :exc:`EOFError` if there is nothing left to receive and the other end was
765       closed.
767       *buffer* must be an object satisfying the writable buffer interface.  If
768       *offset* is given then the message will be written into the buffer from
769       *that position.  Offset must be a non-negative integer less than the
770       *length of *buffer* (in bytes).
772       If the buffer is too short then a :exc:`BufferTooShort` exception is
773       raised and the complete message is available as ``e.args[0]`` where ``e``
774       is the exception instance.
777 For example:
779     >>> from multiprocessing import Pipe
780     >>> a, b = Pipe()
781     >>> a.send([1, 'hello', None])
782     >>> b.recv()
783     [1, 'hello', None]
784     >>> b.send_bytes('thank you')
785     >>> a.recv_bytes()
786     'thank you'
787     >>> import array
788     >>> arr1 = array.array('i', range(5))
789     >>> arr2 = array.array('i', [0] * 10)
790     >>> a.send_bytes(arr1)
791     >>> count = b.recv_bytes_into(arr2)
792     >>> assert count == len(arr1) * arr1.itemsize
793     >>> arr2
794     array('i', [0, 1, 2, 3, 4, 0, 0, 0, 0, 0])
797 .. warning::
799     The :meth:`Connection.recv` method automatically unpickles the data it
800     receives, which can be a security risk unless you can trust the process
801     which sent the message.
803     Therefore, unless the connection object was produced using :func:`Pipe` you
804     should only use the :meth:`~Connection.recv` and :meth:`~Connection.send`
805     methods after performing some sort of authentication.  See
806     :ref:`multiprocessing-auth-keys`.
808 .. warning::
810     If a process is killed while it is trying to read or write to a pipe then
811     the data in the pipe is likely to become corrupted, because it may become
812     impossible to be sure where the message boundaries lie.
815 Synchronization primitives
816 ~~~~~~~~~~~~~~~~~~~~~~~~~~
818 Generally synchronization primitives are not as necessary in a multiprocess
819 program as they are in a multithreaded program.  See the documentation for
820 :mod:`threading` module.
822 Note that one can also create synchronization primitives by using a manager
823 object -- see :ref:`multiprocessing-managers`.
825 .. class:: BoundedSemaphore([value])
827    A bounded semaphore object: a clone of :class:`threading.BoundedSemaphore`.
829    (On Mac OS X this is indistinguishable from :class:`Semaphore` because
830    ``sem_getvalue()`` is not implemented on that platform).
832 .. class:: Condition([lock])
834    A condition variable: a clone of :class:`threading.Condition`.
836    If *lock* is specified then it should be a :class:`Lock` or :class:`RLock`
837    object from :mod:`multiprocessing`.
839 .. class:: Event()
841    A clone of :class:`threading.Event`.
842    This method returns the state of the internal semaphore on exit, so it
843    will always return ``True`` except if a timeout is given and the operation
844    times out.
846    .. versionchanged:: 2.7
847       Previously, the method always returned ``None``.
849 .. class:: Lock()
851    A non-recursive lock object: a clone of :class:`threading.Lock`.
853 .. class:: RLock()
855    A recursive lock object: a clone of :class:`threading.RLock`.
857 .. class:: Semaphore([value])
859    A bounded semaphore object: a clone of :class:`threading.Semaphore`.
861 .. note::
863    The :meth:`acquire` method of :class:`BoundedSemaphore`, :class:`Lock`,
864    :class:`RLock` and :class:`Semaphore` has a timeout parameter not supported
865    by the equivalents in :mod:`threading`.  The signature is
866    ``acquire(block=True, timeout=None)`` with keyword parameters being
867    acceptable.  If *block* is ``True`` and *timeout* is not ``None`` then it
868    specifies a timeout in seconds.  If *block* is ``False`` then *timeout* is
869    ignored.
871    Note that on OS/X ``sem_timedwait`` is unsupported, so timeout arguments
872    for these will be ignored.
874 .. note::
876    If the SIGINT signal generated by Ctrl-C arrives while the main thread is
877    blocked by a call to :meth:`BoundedSemaphore.acquire`, :meth:`Lock.acquire`,
878    :meth:`RLock.acquire`, :meth:`Semaphore.acquire`, :meth:`Condition.acquire`
879    or :meth:`Condition.wait` then the call will be immediately interrupted and
880    :exc:`KeyboardInterrupt` will be raised.
882    This differs from the behaviour of :mod:`threading` where SIGINT will be
883    ignored while the equivalent blocking calls are in progress.
886 Shared :mod:`ctypes` Objects
887 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~
889 It is possible to create shared objects using shared memory which can be
890 inherited by child processes.
892 .. function:: Value(typecode_or_type, *args[, lock])
894    Return a :mod:`ctypes` object allocated from shared memory.  By default the
895    return value is actually a synchronized wrapper for the object.
897    *typecode_or_type* determines the type of the returned object: it is either a
898    ctypes type or a one character typecode of the kind used by the :mod:`array`
899    module.  *\*args* is passed on to the constructor for the type.
901    If *lock* is ``True`` (the default) then a new lock object is created to
902    synchronize access to the value.  If *lock* is a :class:`Lock` or
903    :class:`RLock` object then that will be used to synchronize access to the
904    value.  If *lock* is ``False`` then access to the returned object will not be
905    automatically protected by a lock, so it will not necessarily be
906    "process-safe".
908    Note that *lock* is a keyword-only argument.
910 .. function:: Array(typecode_or_type, size_or_initializer, *, lock=True)
912    Return a ctypes array allocated from shared memory.  By default the return
913    value is actually a synchronized wrapper for the array.
915    *typecode_or_type* determines the type of the elements of the returned array:
916    it is either a ctypes type or a one character typecode of the kind used by
917    the :mod:`array` module.  If *size_or_initializer* is an integer, then it
918    determines the length of the array, and the array will be initially zeroed.
919    Otherwise, *size_or_initializer* is a sequence which is used to initialize
920    the array and whose length determines the length of the array.
922    If *lock* is ``True`` (the default) then a new lock object is created to
923    synchronize access to the value.  If *lock* is a :class:`Lock` or
924    :class:`RLock` object then that will be used to synchronize access to the
925    value.  If *lock* is ``False`` then access to the returned object will not be
926    automatically protected by a lock, so it will not necessarily be
927    "process-safe".
929    Note that *lock* is a keyword only argument.
931    Note that an array of :data:`ctypes.c_char` has *value* and *raw*
932    attributes which allow one to use it to store and retrieve strings.
935 The :mod:`multiprocessing.sharedctypes` module
936 >>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
938 .. module:: multiprocessing.sharedctypes
939    :synopsis: Allocate ctypes objects from shared memory.
941 The :mod:`multiprocessing.sharedctypes` module provides functions for allocating
942 :mod:`ctypes` objects from shared memory which can be inherited by child
943 processes.
945 .. note::
947    Although it is possible to store a pointer in shared memory remember that
948    this will refer to a location in the address space of a specific process.
949    However, the pointer is quite likely to be invalid in the context of a second
950    process and trying to dereference the pointer from the second process may
951    cause a crash.
953 .. function:: RawArray(typecode_or_type, size_or_initializer)
955    Return a ctypes array allocated from shared memory.
957    *typecode_or_type* determines the type of the elements of the returned array:
958    it is either a ctypes type or a one character typecode of the kind used by
959    the :mod:`array` module.  If *size_or_initializer* is an integer then it
960    determines the length of the array, and the array will be initially zeroed.
961    Otherwise *size_or_initializer* is a sequence which is used to initialize the
962    array and whose length determines the length of the array.
964    Note that setting and getting an element is potentially non-atomic -- use
965    :func:`Array` instead to make sure that access is automatically synchronized
966    using a lock.
968 .. function:: RawValue(typecode_or_type, *args)
970    Return a ctypes object allocated from shared memory.
972    *typecode_or_type* determines the type of the returned object: it is either a
973    ctypes type or a one character typecode of the kind used by the :mod:`array`
974    module.  *\*args* is passed on to the constructor for the type.
976    Note that setting and getting the value is potentially non-atomic -- use
977    :func:`Value` instead to make sure that access is automatically synchronized
978    using a lock.
980    Note that an array of :data:`ctypes.c_char` has ``value`` and ``raw``
981    attributes which allow one to use it to store and retrieve strings -- see
982    documentation for :mod:`ctypes`.
984 .. function:: Array(typecode_or_type, size_or_initializer, *args[, lock])
986    The same as :func:`RawArray` except that depending on the value of *lock* a
987    process-safe synchronization wrapper may be returned instead of a raw ctypes
988    array.
990    If *lock* is ``True`` (the default) then a new lock object is created to
991    synchronize access to the value.  If *lock* is a :class:`Lock` or
992    :class:`RLock` object then that will be used to synchronize access to the
993    value.  If *lock* is ``False`` then access to the returned object will not be
994    automatically protected by a lock, so it will not necessarily be
995    "process-safe".
997    Note that *lock* is a keyword-only argument.
999 .. function:: Value(typecode_or_type, *args[, lock])
1001    The same as :func:`RawValue` except that depending on the value of *lock* a
1002    process-safe synchronization wrapper may be returned instead of a raw ctypes
1003    object.
1005    If *lock* is ``True`` (the default) then a new lock object is created to
1006    synchronize access to the value.  If *lock* is a :class:`Lock` or
1007    :class:`RLock` object then that will be used to synchronize access to the
1008    value.  If *lock* is ``False`` then access to the returned object will not be
1009    automatically protected by a lock, so it will not necessarily be
1010    "process-safe".
1012    Note that *lock* is a keyword-only argument.
1014 .. function:: copy(obj)
1016    Return a ctypes object allocated from shared memory which is a copy of the
1017    ctypes object *obj*.
1019 .. function:: synchronized(obj[, lock])
1021    Return a process-safe wrapper object for a ctypes object which uses *lock* to
1022    synchronize access.  If *lock* is ``None`` (the default) then a
1023    :class:`multiprocessing.RLock` object is created automatically.
1025    A synchronized wrapper will have two methods in addition to those of the
1026    object it wraps: :meth:`get_obj` returns the wrapped object and
1027    :meth:`get_lock` returns the lock object used for synchronization.
1029    Note that accessing the ctypes object through the wrapper can be a lot slower
1030    than accessing the raw ctypes object.
1033 The table below compares the syntax for creating shared ctypes objects from
1034 shared memory with the normal ctypes syntax.  (In the table ``MyStruct`` is some
1035 subclass of :class:`ctypes.Structure`.)
1037 ==================== ========================== ===========================
1038 ctypes               sharedctypes using type    sharedctypes using typecode
1039 ==================== ========================== ===========================
1040 c_double(2.4)        RawValue(c_double, 2.4)    RawValue('d', 2.4)
1041 MyStruct(4, 6)       RawValue(MyStruct, 4, 6)
1042 (c_short * 7)()      RawArray(c_short, 7)       RawArray('h', 7)
1043 (c_int * 3)(9, 2, 8) RawArray(c_int, (9, 2, 8)) RawArray('i', (9, 2, 8))
1044 ==================== ========================== ===========================
1047 Below is an example where a number of ctypes objects are modified by a child
1048 process::
1050    from multiprocessing import Process, Lock
1051    from multiprocessing.sharedctypes import Value, Array
1052    from ctypes import Structure, c_double
1054    class Point(Structure):
1055        _fields_ = [('x', c_double), ('y', c_double)]
1057    def modify(n, x, s, A):
1058        n.value **= 2
1059        x.value **= 2
1060        s.value = s.value.upper()
1061        for a in A:
1062            a.x **= 2
1063            a.y **= 2
1065    if __name__ == '__main__':
1066        lock = Lock()
1068        n = Value('i', 7)
1069        x = Value(ctypes.c_double, 1.0/3.0, lock=False)
1070        s = Array('c', 'hello world', lock=lock)
1071        A = Array(Point, [(1.875,-6.25), (-5.75,2.0), (2.375,9.5)], lock=lock)
1073        p = Process(target=modify, args=(n, x, s, A))
1074        p.start()
1075        p.join()
1077        print n.value
1078        print x.value
1079        print s.value
1080        print [(a.x, a.y) for a in A]
1083 .. highlightlang:: none
1085 The results printed are ::
1087     49
1088     0.1111111111111111
1089     HELLO WORLD
1090     [(3.515625, 39.0625), (33.0625, 4.0), (5.640625, 90.25)]
1092 .. highlightlang:: python
1095 .. _multiprocessing-managers:
1097 Managers
1098 ~~~~~~~~
1100 Managers provide a way to create data which can be shared between different
1101 processes. A manager object controls a server process which manages *shared
1102 objects*.  Other processes can access the shared objects by using proxies.
1104 .. function:: multiprocessing.Manager()
1106    Returns a started :class:`~multiprocessing.managers.SyncManager` object which
1107    can be used for sharing objects between processes.  The returned manager
1108    object corresponds to a spawned child process and has methods which will
1109    create shared objects and return corresponding proxies.
1111 .. module:: multiprocessing.managers
1112    :synopsis: Share data between process with shared objects.
1114 Manager processes will be shutdown as soon as they are garbage collected or
1115 their parent process exits.  The manager classes are defined in the
1116 :mod:`multiprocessing.managers` module:
1118 .. class:: BaseManager([address[, authkey]])
1120    Create a BaseManager object.
1122    Once created one should call :meth:`start` or :meth:`serve_forever` to ensure
1123    that the manager object refers to a started manager process.
1125    *address* is the address on which the manager process listens for new
1126    connections.  If *address* is ``None`` then an arbitrary one is chosen.
1128    *authkey* is the authentication key which will be used to check the validity
1129    of incoming connections to the server process.  If *authkey* is ``None`` then
1130    ``current_process().authkey``.  Otherwise *authkey* is used and it
1131    must be a string.
1133    .. method:: start([initializer[, initargs]])
1135       Start a subprocess to start the manager.  If *initializer* is not ``None``
1136       then the subprocess will call ``initializer(*initargs)`` when it starts.
1138    .. method:: serve_forever()
1140       Run the server in the current process.
1142    .. method:: from_address(address, authkey)
1144       A class method which creates a manager object referring to a pre-existing
1145       server process which is using the given address and authentication key.
1147    .. method:: get_server()
1149       Returns a :class:`Server` object which represents the actual server under
1150       the control of the Manager. The :class:`Server` object supports the
1151       :meth:`serve_forever` method:
1153       >>> from multiprocessing.managers import BaseManager
1154       >>> m = BaseManager(address=('', 50000), authkey='abc'))
1155       >>> server = m.get_server()
1156       >>> s.serve_forever()
1158       :class:`Server` additionally have an :attr:`address` attribute.
1160    .. method:: connect()
1162       Connect a local manager object to a remote manager process:
1164       >>> from multiprocessing.managers import BaseManager
1165       >>> m = BaseManager(address='127.0.0.1', authkey='abc')
1166       >>> m.connect()
1168    .. method:: shutdown()
1170       Stop the process used by the manager.  This is only available if
1171       :meth:`start` has been used to start the server process.
1173       This can be called multiple times.
1175    .. method:: register(typeid[, callable[, proxytype[, exposed[, method_to_typeid[, create_method]]]]])
1177       A classmethod which can be used for registering a type or callable with
1178       the manager class.
1180       *typeid* is a "type identifier" which is used to identify a particular
1181       type of shared object.  This must be a string.
1183       *callable* is a callable used for creating objects for this type
1184       identifier.  If a manager instance will be created using the
1185       :meth:`from_address` classmethod or if the *create_method* argument is
1186       ``False`` then this can be left as ``None``.
1188       *proxytype* is a subclass of :class:`BaseProxy` which is used to create
1189       proxies for shared objects with this *typeid*.  If ``None`` then a proxy
1190       class is created automatically.
1192       *exposed* is used to specify a sequence of method names which proxies for
1193       this typeid should be allowed to access using
1194       :meth:`BaseProxy._callMethod`.  (If *exposed* is ``None`` then
1195       :attr:`proxytype._exposed_` is used instead if it exists.)  In the case
1196       where no exposed list is specified, all "public methods" of the shared
1197       object will be accessible.  (Here a "public method" means any attribute
1198       which has a :meth:`__call__` method and whose name does not begin with
1199       ``'_'``.)
1201       *method_to_typeid* is a mapping used to specify the return type of those
1202       exposed methods which should return a proxy.  It maps method names to
1203       typeid strings.  (If *method_to_typeid* is ``None`` then
1204       :attr:`proxytype._method_to_typeid_` is used instead if it exists.)  If a
1205       method's name is not a key of this mapping or if the mapping is ``None``
1206       then the object returned by the method will be copied by value.
1208       *create_method* determines whether a method should be created with name
1209       *typeid* which can be used to tell the server process to create a new
1210       shared object and return a proxy for it.  By default it is ``True``.
1212    :class:`BaseManager` instances also have one read-only property:
1214    .. attribute:: address
1216       The address used by the manager.
1219 .. class:: SyncManager
1221    A subclass of :class:`BaseManager` which can be used for the synchronization
1222    of processes.  Objects of this type are returned by
1223    :func:`multiprocessing.Manager`.
1225    It also supports creation of shared lists and dictionaries.
1227    .. method:: BoundedSemaphore([value])
1229       Create a shared :class:`threading.BoundedSemaphore` object and return a
1230       proxy for it.
1232    .. method:: Condition([lock])
1234       Create a shared :class:`threading.Condition` object and return a proxy for
1235       it.
1237       If *lock* is supplied then it should be a proxy for a
1238       :class:`threading.Lock` or :class:`threading.RLock` object.
1240    .. method:: Event()
1242       Create a shared :class:`threading.Event` object and return a proxy for it.
1244    .. method:: Lock()
1246       Create a shared :class:`threading.Lock` object and return a proxy for it.
1248    .. method:: Namespace()
1250       Create a shared :class:`Namespace` object and return a proxy for it.
1252    .. method:: Queue([maxsize])
1254       Create a shared :class:`Queue.Queue` object and return a proxy for it.
1256    .. method:: RLock()
1258       Create a shared :class:`threading.RLock` object and return a proxy for it.
1260    .. method:: Semaphore([value])
1262       Create a shared :class:`threading.Semaphore` object and return a proxy for
1263       it.
1265    .. method:: Array(typecode, sequence)
1267       Create an array and return a proxy for it.
1269    .. method:: Value(typecode, value)
1271       Create an object with a writable ``value`` attribute and return a proxy
1272       for it.
1274    .. method:: dict()
1275                dict(mapping)
1276                dict(sequence)
1278       Create a shared ``dict`` object and return a proxy for it.
1280    .. method:: list()
1281                list(sequence)
1283       Create a shared ``list`` object and return a proxy for it.
1286 Namespace objects
1287 >>>>>>>>>>>>>>>>>
1289 A namespace object has no public methods, but does have writable attributes.
1290 Its representation shows the values of its attributes.
1292 However, when using a proxy for a namespace object, an attribute beginning with
1293 ``'_'`` will be an attribute of the proxy and not an attribute of the referent::
1295    >>> manager = multiprocessing.Manager()
1296    >>> Global = manager.Namespace()
1297    >>> Global.x = 10
1298    >>> Global.y = 'hello'
1299    >>> Global._z = 12.3    # this is an attribute of the proxy
1300    >>> print Global
1301    Namespace(x=10, y='hello')
1304 Customized managers
1305 >>>>>>>>>>>>>>>>>>>
1307 To create one's own manager, one creates a subclass of :class:`BaseManager` and
1308 use the :meth:`~BaseManager.register` classmethod to register new types or
1309 callables with the manager class.  For example::
1311    from multiprocessing.managers import BaseManager
1313    class MathsClass(object):
1314        def add(self, x, y):
1315            return x + y
1316        def mul(self, x, y):
1317            return x * y
1319    class MyManager(BaseManager):
1320        pass
1322    MyManager.register('Maths', MathsClass)
1324    if __name__ == '__main__':
1325        manager = MyManager()
1326        manager.start()
1327        maths = manager.Maths()
1328        print maths.add(4, 3)         # prints 7
1329        print maths.mul(7, 8)         # prints 56
1332 Using a remote manager
1333 >>>>>>>>>>>>>>>>>>>>>>
1335 It is possible to run a manager server on one machine and have clients use it
1336 from other machines (assuming that the firewalls involved allow it).
1338 Running the following commands creates a server for a single shared queue which
1339 remote clients can access::
1341    >>> from multiprocessing.managers import BaseManager
1342    >>> import Queue
1343    >>> queue = Queue.Queue()
1344    >>> class QueueManager(BaseManager): pass
1345    ...
1346    >>> QueueManager.register('get_queue', callable=lambda:queue)
1347    >>> m = QueueManager(address=('', 50000), authkey='abracadabra')
1348    >>> s = m.get_server()
1349    >>> s.serveForever()
1351 One client can access the server as follows::
1353    >>> from multiprocessing.managers import BaseManager
1354    >>> class QueueManager(BaseManager): pass
1355    ...
1356    >>> QueueManager.register('get_queue')
1357    >>> m = QueueManager(address=('foo.bar.org', 50000), authkey='abracadabra')
1358    >>> m.connect()
1359    >>> queue = m.get_queue()
1360    >>> queue.put('hello')
1362 Another client can also use it::
1364    >>> from multiprocessing.managers import BaseManager
1365    >>> class QueueManager(BaseManager): pass
1366    ...
1367    >>> QueueManager.register('getQueue')
1368    >>> m = QueueManager.from_address(address=('foo.bar.org', 50000), authkey='abracadabra')
1369    >>> queue = m.getQueue()
1370    >>> queue.get()
1371    'hello'
1373 Local processes can also access that queue, using the code from above on the
1374 client to access it remotely::
1376     >>> from multiprocessing import Process, Queue
1377     >>> from multiprocessing.managers import BaseManager
1378     >>> class Worker(Process):
1379     ...     def __init__(self, q):
1380     ...         self.q = q
1381     ...         super(Worker, self).__init__()
1382     ...     def run(self):
1383     ...         self.q.put('local hello')
1384     ...
1385     >>> queue = Queue()
1386     >>> w = Worker(queue)
1387     >>> w.start()
1388     >>> class QueueManager(BaseManager): pass
1389     ...
1390     >>> QueueManager.register('get_queue', callable=lambda: queue)
1391     >>> m = QueueManager(address=('', 50000), authkey='abracadabra')
1392     >>> s = m.get_server()
1393     >>> s.serve_forever()
1395 Proxy Objects
1396 ~~~~~~~~~~~~~
1398 A proxy is an object which *refers* to a shared object which lives (presumably)
1399 in a different process.  The shared object is said to be the *referent* of the
1400 proxy.  Multiple proxy objects may have the same referent.
1402 A proxy object has methods which invoke corresponding methods of its referent
1403 (although not every method of the referent will necessarily be available through
1404 the proxy).  A proxy can usually be used in most of the same ways that its
1405 referent can::
1407    >>> from multiprocessing import Manager
1408    >>> manager = Manager()
1409    >>> l = manager.list([i*i for i in range(10)])
1410    >>> print l
1411    [0, 1, 4, 9, 16, 25, 36, 49, 64, 81]
1412    >>> print repr(l)
1413    <ListProxy object, typeid 'list' at 0xb799974c>
1414    >>> l[4]
1415    16
1416    >>> l[2:5]
1417    [4, 9, 16]
1419 Notice that applying :func:`str` to a proxy will return the representation of
1420 the referent, whereas applying :func:`repr` will return the representation of
1421 the proxy.
1423 An important feature of proxy objects is that they are picklable so they can be
1424 passed between processes.  Note, however, that if a proxy is sent to the
1425 corresponding manager's process then unpickling it will produce the referent
1426 itself.  This means, for example, that one shared object can contain a second::
1428    >>> a = manager.list()
1429    >>> b = manager.list()
1430    >>> a.append(b)         # referent of a now contains referent of b
1431    >>> print a, b
1432    [[]] []
1433    >>> b.append('hello')
1434    >>> print a, b
1435    [['hello']] ['hello']
1437 .. note::
1439    The proxy types in :mod:`multiprocessing` do nothing to support comparisons
1440    by value.  So, for instance, ::
1442        manager.list([1,2,3]) == [1,2,3]
1444    will return ``False``.  One should just use a copy of the referent instead
1445    when making comparisons.
1447 .. class:: BaseProxy
1449    Proxy objects are instances of subclasses of :class:`BaseProxy`.
1451    .. method:: _callmethod(methodname[, args[, kwds]])
1453       Call and return the result of a method of the proxy's referent.
1455       If ``proxy`` is a proxy whose referent is ``obj`` then the expression ::
1457          proxy._callmethod(methodname, args, kwds)
1459       will evaluate the expression ::
1461          getattr(obj, methodname)(*args, **kwds)
1463       in the manager's process.
1465       The returned value will be a copy of the result of the call or a proxy to
1466       a new shared object -- see documentation for the *method_to_typeid*
1467       argument of :meth:`BaseManager.register`.
1469       If an exception is raised by the call, then then is re-raised by
1470       :meth:`_callmethod`.  If some other exception is raised in the manager's
1471       process then this is converted into a :exc:`RemoteError` exception and is
1472       raised by :meth:`_callmethod`.
1474       Note in particular that an exception will be raised if *methodname* has
1475       not been *exposed*
1477       An example of the usage of :meth:`_callmethod`::
1479          >>> l = manager.list(range(10))
1480          >>> l._callmethod('__len__')
1481          10
1482          >>> l._callmethod('__getslice__', (2, 7))   # equiv to `l[2:7]`
1483          [2, 3, 4, 5, 6]
1484          >>> l._callmethod('__getitem__', (20,))     # equiv to `l[20]`
1485          Traceback (most recent call last):
1486          ...
1487          IndexError: list index out of range
1489    .. method:: _getvalue()
1491       Return a copy of the referent.
1493       If the referent is unpicklable then this will raise an exception.
1495    .. method:: __repr__
1497       Return a representation of the proxy object.
1499    .. method:: __str__
1501       Return the representation of the referent.
1504 Cleanup
1505 >>>>>>>
1507 A proxy object uses a weakref callback so that when it gets garbage collected it
1508 deregisters itself from the manager which owns its referent.
1510 A shared object gets deleted from the manager process when there are no longer
1511 any proxies referring to it.
1514 Process Pools
1515 ~~~~~~~~~~~~~
1517 .. module:: multiprocessing.pool
1518    :synopsis: Create pools of processes.
1520 One can create a pool of processes which will carry out tasks submitted to it
1521 with the :class:`Pool` class.
1523 .. class:: multiprocessing.Pool([processes[, initializer[, initargs]]])
1525    A process pool object which controls a pool of worker processes to which jobs
1526    can be submitted.  It supports asynchronous results with timeouts and
1527    callbacks and has a parallel map implementation.
1529    *processes* is the number of worker processes to use.  If *processes* is
1530    ``None`` then the number returned by :func:`cpu_count` is used.  If
1531    *initializer* is not ``None`` then each worker process will call
1532    ``initializer(*initargs)`` when it starts.
1534    .. method:: apply(func[, args[, kwds]])
1536       Equivalent of the :func:`apply` builtin function.  It blocks till the
1537       result is ready. Given this blocks - :meth:`apply_async` is better suited
1538       for performing work in parallel. Additionally, the passed
1539       in function is only executed in one of the workers of the pool.
1541    .. method:: apply_async(func[, args[, kwds[, callback]]])
1543       A variant of the :meth:`apply` method which returns a result object.
1545       If *callback* is specified then it should be a callable which accepts a
1546       single argument.  When the result becomes ready *callback* is applied to
1547       it (unless the call failed).  *callback* should complete immediately since
1548       otherwise the thread which handles the results will get blocked.
1550    .. method:: map(func, iterable[, chunksize])
1552       A parallel equivalent of the :func:`map` builtin function (it supports only
1553       one *iterable* argument though).  It blocks till the result is ready.
1555       This method chops the iterable into a number of chunks which it submits to
1556       the process pool as separate tasks.  The (approximate) size of these
1557       chunks can be specified by setting *chunksize* to a positive integer.
1559    .. method:: map_async(func, iterable[, chunksize[, callback]])
1561       A variant of the :meth:`map` method which returns a result object.
1563       If *callback* is specified then it should be a callable which accepts a
1564       single argument.  When the result becomes ready *callback* is applied to
1565       it (unless the call failed).  *callback* should complete immediately since
1566       otherwise the thread which handles the results will get blocked.
1568    .. method:: imap(func, iterable[, chunksize])
1570       An equivalent of :func:`itertools.imap`.
1572       The *chunksize* argument is the same as the one used by the :meth:`.map`
1573       method.  For very long iterables using a large value for *chunksize* can
1574       make make the job complete **much** faster than using the default value of
1575       ``1``.
1577       Also if *chunksize* is ``1`` then the :meth:`next` method of the iterator
1578       returned by the :meth:`imap` method has an optional *timeout* parameter:
1579       ``next(timeout)`` will raise :exc:`multiprocessing.TimeoutError` if the
1580       result cannot be returned within *timeout* seconds.
1582    .. method:: imap_unordered(func, iterable[, chunksize])
1584       The same as :meth:`imap` except that the ordering of the results from the
1585       returned iterator should be considered arbitrary.  (Only when there is
1586       only one worker process is the order guaranteed to be "correct".)
1588    .. method:: close()
1590       Prevents any more tasks from being submitted to the pool.  Once all the
1591       tasks have been completed the worker processes will exit.
1593    .. method:: terminate()
1595       Stops the worker processes immediately without completing outstanding
1596       work.  When the pool object is garbage collected :meth:`terminate` will be
1597       called immediately.
1599    .. method:: join()
1601       Wait for the worker processes to exit.  One must call :meth:`close` or
1602       :meth:`terminate` before using :meth:`join`.
1605 .. class:: AsyncResult
1607    The class of the result returned by :meth:`Pool.apply_async` and
1608    :meth:`Pool.map_async`.
1610    .. method:: get([timeout])
1612       Return the result when it arrives.  If *timeout* is not ``None`` and the
1613       result does not arrive within *timeout* seconds then
1614       :exc:`multiprocessing.TimeoutError` is raised.  If the remote call raised
1615       an exception then that exception will be reraised by :meth:`get`.
1617    .. method:: wait([timeout])
1619       Wait until the result is available or until *timeout* seconds pass.
1621    .. method:: ready()
1623       Return whether the call has completed.
1625    .. method:: successful()
1627       Return whether the call completed without raising an exception.  Will
1628       raise :exc:`AssertionError` if the result is not ready.
1630 The following example demonstrates the use of a pool::
1632    from multiprocessing import Pool
1634    def f(x):
1635        return x*x
1637    if __name__ == '__main__':
1638        pool = Pool(processes=4)              # start 4 worker processes
1640        result = pool.apply_async(f, (10,))    # evaluate "f(10)" asynchronously
1641        print result.get(timeout=1)           # prints "100" unless your computer is *very* slow
1643        print pool.map(f, range(10))          # prints "[0, 1, 4,..., 81]"
1645        it = pool.imap(f, range(10))
1646        print it.next()                       # prints "0"
1647        print it.next()                       # prints "1"
1648        print it.next(timeout=1)              # prints "4" unless your computer is *very* slow
1650        import time
1651        result = pool.apply_async(time.sleep, (10,))
1652        print result.get(timeout=1)           # raises TimeoutError
1655 .. _multiprocessing-listeners-clients:
1657 Listeners and Clients
1658 ~~~~~~~~~~~~~~~~~~~~~
1660 .. module:: multiprocessing.connection
1661    :synopsis: API for dealing with sockets.
1663 Usually message passing between processes is done using queues or by using
1664 :class:`Connection` objects returned by :func:`Pipe`.
1666 However, the :mod:`multiprocessing.connection` module allows some extra
1667 flexibility.  It basically gives a high level message oriented API for dealing
1668 with sockets or Windows named pipes, and also has support for *digest
1669 authentication* using the :mod:`hmac` module.
1672 .. function:: deliver_challenge(connection, authkey)
1674    Send a randomly generated message to the other end of the connection and wait
1675    for a reply.
1677    If the reply matches the digest of the message using *authkey* as the key
1678    then a welcome message is sent to the other end of the connection.  Otherwise
1679    :exc:`AuthenticationError` is raised.
1681 .. function:: answerChallenge(connection, authkey)
1683    Receive a message, calculate the digest of the message using *authkey* as the
1684    key, and then send the digest back.
1686    If a welcome message is not received, then :exc:`AuthenticationError` is
1687    raised.
1689 .. function:: Client(address[, family[, authenticate[, authkey]]])
1691    Attempt to set up a connection to the listener which is using address
1692    *address*, returning a :class:`~multiprocessing.Connection`.
1694    The type of the connection is determined by *family* argument, but this can
1695    generally be omitted since it can usually be inferred from the format of
1696    *address*. (See :ref:`multiprocessing-address-formats`)
1698    If *authentication* is ``True`` or *authkey* is a string then digest
1699    authentication is used.  The key used for authentication will be either
1700    *authkey* or ``current_process().authkey)`` if *authkey* is ``None``.
1701    If authentication fails then :exc:`AuthenticationError` is raised.  See
1702    :ref:`multiprocessing-auth-keys`.
1704 .. class:: Listener([address[, family[, backlog[, authenticate[, authkey]]]]])
1706    A wrapper for a bound socket or Windows named pipe which is 'listening' for
1707    connections.
1709    *address* is the address to be used by the bound socket or named pipe of the
1710    listener object.
1712    .. note::
1714       If an address of '0.0.0.0' is used, the address will not be a connectable
1715       end point on Windows. If you require a connectable end-point,
1716       you should use '127.0.0.1'.
1718    *family* is the type of socket (or named pipe) to use.  This can be one of
1719    the strings ``'AF_INET'`` (for a TCP socket), ``'AF_UNIX'`` (for a Unix
1720    domain socket) or ``'AF_PIPE'`` (for a Windows named pipe).  Of these only
1721    the first is guaranteed to be available.  If *family* is ``None`` then the
1722    family is inferred from the format of *address*.  If *address* is also
1723    ``None`` then a default is chosen.  This default is the family which is
1724    assumed to be the fastest available.  See
1725    :ref:`multiprocessing-address-formats`.  Note that if *family* is
1726    ``'AF_UNIX'`` and address is ``None`` then the socket will be created in a
1727    private temporary directory created using :func:`tempfile.mkstemp`.
1729    If the listener object uses a socket then *backlog* (1 by default) is passed
1730    to the :meth:`listen` method of the socket once it has been bound.
1732    If *authenticate* is ``True`` (``False`` by default) or *authkey* is not
1733    ``None`` then digest authentication is used.
1735    If *authkey* is a string then it will be used as the authentication key;
1736    otherwise it must be *None*.
1738    If *authkey* is ``None`` and *authenticate* is ``True`` then
1739    ``current_process().authkey`` is used as the authentication key.  If
1740    *authkey* is ``None`` and *authentication* is ``False`` then no
1741    authentication is done.  If authentication fails then
1742    :exc:`AuthenticationError` is raised.  See :ref:`multiprocessing-auth-keys`.
1744    .. method:: accept()
1746       Accept a connection on the bound socket or named pipe of the listener
1747       object and return a :class:`Connection` object.  If authentication is
1748       attempted and fails, then :exc:`AuthenticationError` is raised.
1750    .. method:: close()
1752       Close the bound socket or named pipe of the listener object.  This is
1753       called automatically when the listener is garbage collected.  However it
1754       is advisable to call it explicitly.
1756    Listener objects have the following read-only properties:
1758    .. attribute:: address
1760       The address which is being used by the Listener object.
1762    .. attribute:: last_accepted
1764       The address from which the last accepted connection came.  If this is
1765       unavailable then it is ``None``.
1768 The module defines two exceptions:
1770 .. exception:: AuthenticationError
1772    Exception raised when there is an authentication error.
1775 **Examples**
1777 The following server code creates a listener which uses ``'secret password'`` as
1778 an authentication key.  It then waits for a connection and sends some data to
1779 the client::
1781    from multiprocessing.connection import Listener
1782    from array import array
1784    address = ('localhost', 6000)     # family is deduced to be 'AF_INET'
1785    listener = Listener(address, authkey='secret password')
1787    conn = listener.accept()
1788    print 'connection accepted from', listener.last_accepted
1790    conn.send([2.25, None, 'junk', float])
1792    conn.send_bytes('hello')
1794    conn.send_bytes(array('i', [42, 1729]))
1796    conn.close()
1797    listener.close()
1799 The following code connects to the server and receives some data from the
1800 server::
1802    from multiprocessing.connection import Client
1803    from array import array
1805    address = ('localhost', 6000)
1806    conn = Client(address, authkey='secret password')
1808    print conn.recv()                 # => [2.25, None, 'junk', float]
1810    print conn.recv_bytes()            # => 'hello'
1812    arr = array('i', [0, 0, 0, 0, 0])
1813    print conn.recv_bytes_into(arr)     # => 8
1814    print arr                         # => array('i', [42, 1729, 0, 0, 0])
1816    conn.close()
1819 .. _multiprocessing-address-formats:
1821 Address Formats
1822 >>>>>>>>>>>>>>>
1824 * An ``'AF_INET'`` address is a tuple of the form ``(hostname, port)`` where
1825   *hostname* is a string and *port* is an integer.
1827 * An ``'AF_UNIX'`` address is a string representing a filename on the
1828   filesystem.
1830 * An ``'AF_PIPE'`` address is a string of the form
1831    :samp:`r'\\\\.\\pipe\\{PipeName}'`.  To use :func:`Client` to connect to a named
1832    pipe on a remote computer called *ServerName* one should use an address of the
1833    form :samp:`r'\\\\{ServerName}\\pipe\\{PipeName}'` instead.
1835 Note that any string beginning with two backslashes is assumed by default to be
1836 an ``'AF_PIPE'`` address rather than an ``'AF_UNIX'`` address.
1839 .. _multiprocessing-auth-keys:
1841 Authentication keys
1842 ~~~~~~~~~~~~~~~~~~~
1844 When one uses :meth:`Connection.recv`, the data received is automatically
1845 unpickled.  Unfortunately unpickling data from an untrusted source is a security
1846 risk.  Therefore :class:`Listener` and :func:`Client` use the :mod:`hmac` module
1847 to provide digest authentication.
1849 An authentication key is a string which can be thought of as a password: once a
1850 connection is established both ends will demand proof that the other knows the
1851 authentication key.  (Demonstrating that both ends are using the same key does
1852 **not** involve sending the key over the connection.)
1854 If authentication is requested but do authentication key is specified then the
1855 return value of ``current_process().authkey`` is used (see
1856 :class:`~multiprocessing.Process`).  This value will automatically inherited by
1857 any :class:`~multiprocessing.Process` object that the current process creates.
1858 This means that (by default) all processes of a multi-process program will share
1859 a single authentication key which can be used when setting up connections
1860 between themselves.
1862 Suitable authentication keys can also be generated by using :func:`os.urandom`.
1865 Logging
1866 ~~~~~~~
1868 Some support for logging is available.  Note, however, that the :mod:`logging`
1869 package does not use process shared locks so it is possible (depending on the
1870 handler type) for messages from different processes to get mixed up.
1872 .. currentmodule:: multiprocessing
1873 .. function:: get_logger()
1875    Returns the logger used by :mod:`multiprocessing`.  If necessary, a new one
1876    will be created.
1878    When first created the logger has level :data:`logging.NOTSET` and no
1879    default handler. Messages sent to this logger will not by default propagate
1880    to the root logger.
1882    Note that on Windows child processes will only inherit the level of the
1883    parent process's logger -- any other customization of the logger will not be
1884    inherited.
1886 .. currentmodule:: multiprocessing
1887 .. function:: log_to_stderr()
1889    This function performs a call to :func:`get_logger` but in addition to
1890    returning the logger created by get_logger, it adds a handler which sends
1891    output to :data:`sys.stderr` using format
1892    ``'[%(levelname)s/%(processName)s] %(message)s'``.
1894 Below is an example session with logging turned on::
1896     >>> import multiprocessing, logging
1897     >>> logger = multiprocessing.log_to_stderr()
1898     >>> logger.setLevel(logging.INFO)
1899     >>> logger.warning('doomed')
1900     [WARNING/MainProcess] doomed
1901     >>> m = multiprocessing.Manager()
1902     [INFO/SyncManager-1] child process calling self.run()
1903     [INFO/SyncManager-1] created temp directory /.../pymp-Wh47O_
1904     [INFO/SyncManager-1] manager serving at '/.../listener-lWsERs'
1905     >>> del m
1906     [INFO/MainProcess] sending shutdown message to manager
1907     [INFO/SyncManager-1] manager exiting with exitcode 0
1909 In addition to having these two logging functions, the multiprocessing also
1910 exposes two additional logging level attributes. These are  :const:`SUBWARNING`
1911 and :const:`SUBDEBUG`. The table below illustrates where theses fit in the
1912 normal level hierarchy.
1914 +----------------+----------------+
1915 | Level          | Numeric value  |
1916 +================+================+
1917 | ``SUBWARNING`` | 25             |
1918 +----------------+----------------+
1919 | ``SUBDEBUG``   | 5              |
1920 +----------------+----------------+
1922 For a full table of logging levels, see the :mod:`logging` module.
1924 These additional logging levels are used primarily for certain debug messages
1925 within the multiprocessing module. Below is the same example as above, except
1926 with :const:`SUBDEBUG` enabled::
1928     >>> import multiprocessing, logging
1929     >>> logger = multiprocessing.log_to_stderr()
1930     >>> logger.setLevel(multiprocessing.SUBDEBUG)
1931     >>> logger.warning('doomed')
1932     [WARNING/MainProcess] doomed
1933     >>> m = multiprocessing.Manager()
1934     [INFO/SyncManager-1] child process calling self.run()
1935     [INFO/SyncManager-1] created temp directory /.../pymp-djGBXN
1936     [INFO/SyncManager-1] manager serving at '/.../pymp-djGBXN/listener-knBYGe'
1937     >>> del m
1938     [SUBDEBUG/MainProcess] finalizer calling ...
1939     [INFO/MainProcess] sending shutdown message to manager
1940     [DEBUG/SyncManager-1] manager received shutdown message
1941     [SUBDEBUG/SyncManager-1] calling <Finalize object, callback=unlink, ...
1942     [SUBDEBUG/SyncManager-1] finalizer calling <built-in function unlink> ...
1943     [SUBDEBUG/SyncManager-1] calling <Finalize object, dead>
1944     [SUBDEBUG/SyncManager-1] finalizer calling <function rmtree at 0x5aa730> ...
1945     [INFO/SyncManager-1] manager exiting with exitcode 0
1947 The :mod:`multiprocessing.dummy` module
1948 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
1950 .. module:: multiprocessing.dummy
1951    :synopsis: Dumb wrapper around threading.
1953 :mod:`multiprocessing.dummy` replicates the API of :mod:`multiprocessing` but is
1954 no more than a wrapper around the :mod:`threading` module.
1957 .. _multiprocessing-programming:
1959 Programming guidelines
1960 ----------------------
1962 There are certain guidelines and idioms which should be adhered to when using
1963 :mod:`multiprocessing`.
1966 All platforms
1967 ~~~~~~~~~~~~~
1969 Avoid shared state
1971     As far as possible one should try to avoid shifting large amounts of data
1972     between processes.
1974     It is probably best to stick to using queues or pipes for communication
1975     between processes rather than using the lower level synchronization
1976     primitives from the :mod:`threading` module.
1978 Picklability
1980     Ensure that the arguments to the methods of proxies are picklable.
1982 Thread safety of proxies
1984     Do not use a proxy object from more than one thread unless you protect it
1985     with a lock.
1987     (There is never a problem with different processes using the *same* proxy.)
1989 Joining zombie processes
1991     On Unix when a process finishes but has not been joined it becomes a zombie.
1992     There should never be very many because each time a new process starts (or
1993     :func:`active_children` is called) all completed processes which have not
1994     yet been joined will be joined.  Also calling a finished process's
1995     :meth:`Process.is_alive` will join the process.  Even so it is probably good
1996     practice to explicitly join all the processes that you start.
1998 Better to inherit than pickle/unpickle
2000     On Windows many types from :mod:`multiprocessing` need to be picklable so
2001     that child processes can use them.  However, one should generally avoid
2002     sending shared objects to other processes using pipes or queues.  Instead
2003     you should arrange the program so that a process which need access to a
2004     shared resource created elsewhere can inherit it from an ancestor process.
2006 Avoid terminating processes
2008     Using the :meth:`Process.terminate` method to stop a process is liable to
2009     cause any shared resources (such as locks, semaphores, pipes and queues)
2010     currently being used by the process to become broken or unavailable to other
2011     processes.
2013     Therefore it is probably best to only consider using
2014     :meth:`Process.terminate` on processes which never use any shared resources.
2016 Joining processes that use queues
2018     Bear in mind that a process that has put items in a queue will wait before
2019     terminating until all the buffered items are fed by the "feeder" thread to
2020     the underlying pipe.  (The child process can call the
2021     :meth:`Queue.cancel_join_thread` method of the queue to avoid this behaviour.)
2023     This means that whenever you use a queue you need to make sure that all
2024     items which have been put on the queue will eventually be removed before the
2025     process is joined.  Otherwise you cannot be sure that processes which have
2026     put items on the queue will terminate.  Remember also that non-daemonic
2027     processes will be automatically be joined.
2029     An example which will deadlock is the following::
2031         from multiprocessing import Process, Queue
2033         def f(q):
2034             q.put('X' * 1000000)
2036         if __name__ == '__main__':
2037             queue = Queue()
2038             p = Process(target=f, args=(queue,))
2039             p.start()
2040             p.join()                    # this deadlocks
2041             obj = queue.get()
2043     A fix here would be to swap the last two lines round (or simply remove the
2044     ``p.join()`` line).
2046 Explicitly pass resources to child processes
2048     On Unix a child process can make use of a shared resource created in a
2049     parent process using a global resource.  However, it is better to pass the
2050     object as an argument to the constructor for the child process.
2052     Apart from making the code (potentially) compatible with Windows this also
2053     ensures that as long as the child process is still alive the object will not
2054     be garbage collected in the parent process.  This might be important if some
2055     resource is freed when the object is garbage collected in the parent
2056     process.
2058     So for instance ::
2060         from multiprocessing import Process, Lock
2062         def f():
2063             ... do something using "lock" ...
2065         if __name__ == '__main__':
2066            lock = Lock()
2067            for i in range(10):
2068                 Process(target=f).start()
2070     should be rewritten as ::
2072         from multiprocessing import Process, Lock
2074         def f(l):
2075             ... do something using "l" ...
2077         if __name__ == '__main__':
2078            lock = Lock()
2079            for i in range(10):
2080                 Process(target=f, args=(lock,)).start()
2083 Windows
2084 ~~~~~~~
2086 Since Windows lacks :func:`os.fork` it has a few extra restrictions:
2088 More picklability
2090     Ensure that all arguments to :meth:`Process.__init__` are picklable.  This
2091     means, in particular, that bound or unbound methods cannot be used directly
2092     as the ``target`` argument on Windows --- just define a function and use
2093     that instead.
2095     Also, if you subclass :class:`Process` then make sure that instances will be
2096     picklable when the :meth:`Process.start` method is called.
2098 Global variables
2100     Bear in mind that if code run in a child process tries to access a global
2101     variable, then the value it sees (if any) may not be the same as the value
2102     in the parent process at the time that :meth:`Process.start` was called.
2104     However, global variables which are just module level constants cause no
2105     problems.
2107 Safe importing of main module
2109     Make sure that the main module can be safely imported by a new Python
2110     interpreter without causing unintended side effects (such a starting a new
2111     process).
2113     For example, under Windows running the following module would fail with a
2114     :exc:`RuntimeError`::
2116         from multiprocessing import Process
2118         def foo():
2119             print 'hello'
2121         p = Process(target=foo)
2122         p.start()
2124     Instead one should protect the "entry point" of the program by using ``if
2125     __name__ == '__main__':`` as follows::
2127        from multiprocessing import Process, freeze_support
2129        def foo():
2130            print 'hello'
2132        if __name__ == '__main__':
2133            freeze_support()
2134            p = Process(target=foo)
2135            p.start()
2137     (The ``freeze_support()`` line can be omitted if the program will be run
2138     normally instead of frozen.)
2140     This allows the newly spawned Python interpreter to safely import the module
2141     and then run the module's ``foo()`` function.
2143     Similar restrictions apply if a pool or manager is created in the main
2144     module.
2147 .. _multiprocessing-examples:
2149 Examples
2150 --------
2152 Demonstration of how to create and use customized managers and proxies:
2154 .. literalinclude:: ../includes/mp_newtype.py
2157 Using :class:`Pool`:
2159 .. literalinclude:: ../includes/mp_pool.py
2162 Synchronization types like locks, conditions and queues:
2164 .. literalinclude:: ../includes/mp_synchronize.py
2167 An showing how to use queues to feed tasks to a collection of worker process and
2168 collect the results:
2170 .. literalinclude:: ../includes/mp_workers.py
2173 An example of how a pool of worker processes can each run a
2174 :class:`SimpleHTTPServer.HttpServer` instance while sharing a single listening
2175 socket.
2177 .. literalinclude:: ../includes/mp_webserver.py
2180 Some simple benchmarks comparing :mod:`multiprocessing` with :mod:`threading`:
2182 .. literalinclude:: ../includes/mp_benchmarks.py
2184 An example/demo of how to use the :class:`managers.SyncManager`, :class:`Process`
2185 and others to build a system which can distribute processes and work via a
2186 distributed queue to a "cluster" of machines on a network, accessible via SSH.
2187 You will need to have private key authentication for all hosts configured for
2188 this to work.
2190 .. literalinclude:: ../includes/mp_distributing.py