use correct smolder_mathgsl binary in smoke_some_mathgsl
[Math-GSL.git] / pod / Roots.pod
blobc6c20e920c60d42de0a434e5d1b433a754539177
1 %perlcode %{
2 @EXPORT_OK = qw/
3                gsl_root_fsolver_alloc 
4                gsl_root_fsolver_free 
5                gsl_root_fsolver_set 
6                gsl_root_fsolver_iterate 
7                gsl_root_fsolver_name 
8                gsl_root_fsolver_root 
9                gsl_root_fsolver_x_lower 
10                gsl_root_fsolver_x_upper 
11                gsl_root_fdfsolver_alloc 
12                gsl_root_fdfsolver_set 
13                gsl_root_fdfsolver_iterate 
14                gsl_root_fdfsolver_free 
15                gsl_root_fdfsolver_name 
16                gsl_root_fdfsolver_root 
17                gsl_root_test_interval 
18                gsl_root_test_residual 
19                gsl_root_test_delta 
20                $gsl_root_fsolver_bisection    
21                $gsl_root_fsolver_brent   
22                $gsl_root_fsolver_falsepos     
23                $gsl_root_fdfsolver_newton     
24                $gsl_root_fdfsolver_secant     
25                $gsl_root_fdfsolver_steffenson 
26              /;
27 %EXPORT_TAGS = ( all => [ @EXPORT_OK ] );
29 __END__
31 =head1 NAME
33 Math::GSL::Roots - Routines for finding roots of arbitrary one-dimensional functions.
35 =head1 SYNOPSIS
37 use Math::GSL::Roots qw /:all/;
39 =head1 DESCRIPTION
41 Here is a list of all the functions in this module :
43 =over 
45 =item * C<gsl_root_fsolver_alloc($T)> - This function returns a pointer to a newly allocated instance of a solver of type $T. $T must be one of the constant included with this module. If there is insufficient memory to create the solver then the function returns a null pointer and the error handler is invoked with an error code of $GSL_ENOMEM.
47 =item * C<gsl_root_fsolver_free($s)> - This function frees all the memory associated with the solver $s. 
49 =item * C<gsl_root_fsolver_set($s, $f, $x_lower, $x_upper)> - This function initializes, or reinitializes, an existing solver $s to use the function $f and the initial search interval [$x_lower, $x_upper]. $f has to be of this form : sub { my $x=shift; function_with_$x }. For example, sub { my $x=shift; ($x-3.2)**3 } is a valid value for $f.
51 =item * C<gsl_root_fsolver_iterate($s)> - This function performs a single iteration of the solver $s. If the iteration encounters an unexpected problem then an error code will be returned (the Math::GSL::Errno has to be included),
52  $GSL_EBADFUNC - the iteration encountered a singular point where the function or its derivative evaluated to Inf or NaN.
53  $GSL_EZERODIV - the derivative of the function vanished at the iteration point, preventing the algorithm from continuing without a division by zero. 
55 =item * C<gsl_root_fsolver_name($s)> - This function returns the name of the solver use within the $s solver.
57 =item * C<gsl_root_fsolver_root($s)> - This function returns the current estimate of the root for the solver $s.
59 =item * C<gsl_root_fsolver_x_lower($s)> - This function returns the current lower value of the bracketing interval for the solver $s. 
61 =item * C<gsl_root_fsolver_x_upper($s)> - This function returns the current lower value of the bracketing interval for the solver $s.
63 =item * C<gsl_root_fdfsolver_alloc($T)> - This function returns a pointer to a newly allocated instance of a derivative-based solver of type $T. If there is insufficient memory to create the solver then the function returns a null pointer and the error handler is invoked with an error code of $GSL_ENOMEM.
65 =item * C<gsl_root_fdfsolver_set($s, $fdf, $root)> - This function initializes, or reinitializes, an existing solver $s to use the function and derivative $fdf and the initial guess $root. $f has to be of this form : sub { my $x=shift; function_with_$x }. For example, sub { my $x=shift; ($x-3.2)**3 } is a valid value for $fdf.
67 =item * C<gsl_root_fdfsolver_iterate($s)> - This function performs a single iteration of the solver $s. If the iteration encounters an unexpected problem then an error code will be returned (the Math::GSL::Errno has to be included),
68  $GSL_EBADFUNC - the iteration encountered a singular point where the function or its derivative evaluated to Inf or NaN.
69  $GSL_EZERODIV - the derivative of the function vanished at the iteration point, preventing the algorithm from continuing without a division by zero. 
71 =item * C<gsl_root_fdfsolver_free($s)> - This function frees all the memory associated with the solver $s.
73 =item * C<gsl_root_fdfsolver_name($s)> - This function returns the name of the solver use within the $s solver.
75 =item * C<gsl_root_fdfsolver_root($s)> - This function returns the current estimate of the root for the solver $s.
77 =item * C<gsl_root_test_interval($x_lower, $x_upper, $epsabs, $epsrel)> - This function tests for the convergence of the interval [$x_lower, $x_upper] with absolute error epsabs and relative error $epsrel. The test returns $GSL_SUCCESS if the following condition is achieved,
78                 |a - b| < epsabs + epsrel min(|a|,|b|)
79  when the interval x = [a,b] does not include the origin. If the interval includes the origin then \min(|a|,|b|) is replaced by zero (which is the minimum value of |x| over the interval). This ensures that the relative error is accurately estimated for roots close to the origin.
80  This condition on the interval also implies that any estimate of the root r in the interval satisfies the same condition with respect to the true root r^*,
81               |r - r^*| < epsabs + epsrel r^*
82   assuming that the true root r^* is contained within the interval. 
84 =item * C<gsl_root_test_residual($f, $epsabs)> - This function tests the residual value $f against the absolute error bound $epsabs. The test returns $GSL_SUCCESS if the following condition is achieved,
85               |$f| < $epsabs
86     and returns $GSL_CONTINUE otherwise. This criterion is suitable for situations where the precise location of the root, x, is unimportant provided a value can be found where the residual, |f(x)|, is small enough. 
88 =item * C<gsl_root_test_delta($x1, $x0, $epsabs, $epsrel)> - This function tests for the convergence of the sequence ..., $x0, $x1 with absolute error $epsabs and relative error $epsrel. The test returns $GSL_SUCCESS if the following condition is achieved,
89               |x_1 - x_0| < epsabs + epsrel |x_1|
90     and returns $GSL_CONTINUE otherwise. 
92 =back
94 This module also includes the following constants :
96 =over
98 =item * C<$gsl_root_fsolver_bisection> - The bisection algorithm is the simplest method of bracketing the roots of a function. It is the slowest algorithm provided by the library, with linear convergence. On each iteration, the interval is bisected and the value of the function at the midpoint is calculated. The sign of this value is used to determine which half of the interval does not contain a root. That half is discarded to give a new, smaller interval containing the root. This procedure can be continued indefinitely until the interval is sufficiently small. At any time the current estimate of the root is taken as the midpoint of the interval. 
100 =item * C<$gsl_root_fsolver_brent> - The Brent-Dekker method (referred to here as Brent's method) combines an interpolation strategy with the bisection algorithm. This produces a fast algorithm which is still robust. On each iteration Brent's method approximates the function using an interpolating curve. On the first iteration this is a linear interpolation of the two endpoints. For subsequent iterations the algorithm uses an inverse quadratic fit to the last three points, for higher accuracy. The intercept of the interpolating curve with the x-axis is taken as a guess for the root. If it lies within the bounds of the current interval then the interpolating point is accepted, and used to generate a smaller interval. If the interpolating point is not accepted then the algorithm falls back to an ordinary bisection step. The best estimate of the root is taken from the most recent interpolation or bisection. 
102 =item * C<$gsl_root_fsolver_falsepos> - The false position algorithm is a method of finding roots based on linear interpolation. Its convergence is linear, but it is usually faster than bisection. On each iteration a line is drawn between the endpoints (a,f(a)) and (b,f(b)) and the point where this line crosses the x-axis taken as a “midpoint”. The value of the function at this point is calculated and its sign is used to determine which side of the interval does not contain a root. That side is discarded to give a new, smaller interval containing the root. This procedure can be continued indefinitely until the interval is sufficiently small. The best estimate of the root is taken from the linear interpolation of the interval on the current iteration. 
104 =item * C<$gsl_root_fdfsolver_newton> - Newton's Method is the standard root-polishing algorithm. The algorithm begins with an initial guess for the location of the root. On each iteration, a line tangent to the function f is drawn at that position. The point where this line crosses the x-axis becomes the new guess. The iteration is defined by the following sequence, x_{i+1} = x_i - f(x_i)/f'(x_i) Newton's method converges quadratically for single roots, and linearly for multiple roots. 
106 =item * C<$gsl_root_fdfsolver_secant> - The secant method is a simplified version of Newton's method which does not require the computation of the derivative on every step.
107 On its first iteration the algorithm begins with Newton's method, using the derivative to compute a first step,
108           x_1 = x_0 - f(x_0)/f'(x_0)
109  Subsequent iterations avoid the evaluation of the derivative by replacing it with a numerical estimate, the slope of the line through the previous two points,
110           x_{i+1} = x_i f(x_i) / f'_{est} where
111            f'_{est} = (f(x_i) - f(x_{i-1})/(x_i - x_{i-1})
112  When the derivative does not change significantly in the vicinity of the root the secant method gives a useful saving. Asymptotically the secant method is faster than Newton's method whenever the cost of evaluating the derivative is more than 0.44 times the cost of evaluating the function itself. As with all methods of computing a numerical derivative the estimate can suffer from cancellation errors if the separation of the points becomes too small.
114  On single roots, the method has a convergence of order (1 + \sqrt 5)/2 (approximately 1.62). It converges linearly for multiple roots. 
116 =item * C<$gsl_root_fdfsolver_steffenson> - The Steffenson Method provides the fastest convergence of all the routines. It combines the basic Newton algorithm with an Aitken “delta-squared” acceleration. If the Newton iterates are x_i then the acceleration procedure generates a new sequence R_i,
117     R_i = x_i - (x_{i+1} - x_i)^2 / (x_{i+2} - 2 x_{i+1} + x_{i})
118  which converges faster than the original sequence under reasonable conditions. The new sequence requires three terms before it can produce its first value so the method returns accelerated values on the second and subsequent iterations. On the first iteration it returns the ordinary Newton estimate. The Newton iterate is also returned if the denominator of the acceleration term ever becomes zero.
120 As with all acceleration procedures this method can become unstable if the function is not well-behaved. 
122 =back
124 For more informations on the functions, we refer you to the GSL offcial
125 documentation: L<http://www.gnu.org/software/gsl/manual/html_node/>
127  Tip : search on google: site:http://www.gnu.org/software/gsl/manual/html_node/ name_of_the_function_you_want
130 =head1 AUTHORS
132 Jonathan Leto <jonathan@leto.net> and Thierry Moisan <thierry.moisan@gmail.com>
134 =head1 COPYRIGHT AND LICENSE
136 Copyright (C) 2008-2009 Jonathan Leto and Thierry Moisan
138 This program is free software; you can redistribute it and/or modify it
139 under the same terms as Perl itself.
141 =cut