Update
[less_retarded_wiki.git] / sorting.md
blob91cfc931a22e78142d37351713c2139cc8de5fe2
1 # Sorting
3 Sorting means rearranging a sequence, such as a [list](list.md) of numbers, so that the elements are put in a specific order (e.g. ascending or descending). In [computer science](compsci.md) sorting is quite a wide topic, there are dozens, maybe hundreds of sorting [algorithms](algorithm.md), each with pros and cons and different attributes are being studied, e.g. the algorithm's [time complexity](time_complexity.md), its stability etc. Sorting algorithms are a favorite subject of programming classes as they provide a good exercise for [programming](programming.md) and analysis of algorithms and can be nicely put on tests :)
5 Some famous sorting algorithms include [bubble sort](bubble_sort.md) (a simple [KISS](kiss.md) algorithm), [quick](quick_sort.md) and [merge](merge_sort.md) sort (some of the fastest algorithms) and [stupid sort](bogosort.md) (just tries different [permutations](permutation.md) until it hits the jackpot).
7 In practice we often get away with using just some of the simplest sorting algorithms (such as [bubble sort](bubble_sort.md) or [insertion sort](insertion_sort.md)) anyway, unless we're programming a database or otherwise dealing with enormous amounts of data. If we need to sort just a few hundred of items and/or the sorting doesn't occur very often, a simple algorithm does the job well, sometimes even faster due to a potential initial overhead of a very complex algorithm. So always consider the [KISS](kiss.md) approach first.
9 Attributes of sorting algorithms we're generally interested in are the following:
11 - **[time](time_complexity.md) and [space](space_complexity.md) complexity**: Time and space complexity hints on how fast the algorithm will run and how much memory it will need, specifically we're interested in the **best, worst and average case** depending on the length of the input sequence. Indeed we ideally want the fastest algorithm, but it has to be known that a better time complexity doesn't have to imply a faster run time in practice, especially with shorter sequences. An algorithm that's extremely fast in best case scenario may be extremely slow in non-ideal cases. With memory, we are often interested whether the algorithm works **in place**; such an algorithm only needs a constant amount of memory in addition to the memory that the sorted sequence takes, i.e. the sequence is sorted in the memory where it resides.
12 - **implementation complexity**: A simple algorithm is better if it's [good enough](good_enough.md). It may lead to e.g. smaller code size which may be a factor e.g. in [embedded](embedded.md).
13 - **stability**: A stable sorting algorithm preserves the order of the elements that are considered equal. With pure numbers this of course doesn't matter, but if we're sorting more complex data structures (e.g. sorting records about people by their names), this attribute may become important.
14 - **comparative vs non-comparative**: A comparative sort only requires a single operation that compares any two elements and says which one has a higher value -- such an algorithm is general and can be used for sorting any data, but its time complexity of the average case can't be better than *O(n * log(n))*. Non-comparison sorts can be faster as they may take advantage of other possible integer operations.
15 - **[recursion](recursion.md) and [parallelism](parallel.md)**: Some algorithms are recursive in nature, some are not. Some algorithms can be parallelised e.g. with a [GPU](gpu.md) which will greatly increase their speed.
16 - **other**: There may be other specific, e.g. some algorithms are are slow if sorting an already sorted sequence (which is addressed by *adaptive* sorting), so we may have to also consider the nature of data we'll be sorting. Other times we may be interested e.g. in what machine instructions the algorithm will compile to etc.
18 In practice not only the algorithm but also its implementation matters. For example if we have a sequence of very large data structures to sort, we may want to avoid physically rearranging these structures in memory, this could be slow. In such case we may want to use **indirect sorting**: we create an additional list whose elements are indices to the main sequence, and we only sort this list of indices.
20 ## List Of Sorting Algorithms
22 TODO
24 ## Example And Code
26 For starters let's take a look at one of the simplest sorting algorithms, bubble sort. Its basic version looks something like this ([pseudocode](pseudocode.md)):
28 ```
29 for j from 0 to N - 2 (inclusive)
30   for i from 0 to to N - 2 - j (inclusive)
31     is array[i] > array[i + 1]
32       swap array[i] and array[i + 1]
33 ```
35 How does this work? Firstly notice there are two loops. The outer loop, with counter variable *j*, runs *N - 1* times -- in each iteration of this loop we will ensure one value gets to its correct place; specifically the values will be getting to their correct places from the top -- highest values will be sorted first (you can also implement the algorithm the other way around too, to sort the lowest values first, try it as an exercise). This makes sense, imagine that we have e.g. a sequence of length *N = 4* -- then the outer loop will run *N - 1 = 3* times (*j* will have values 0, 1 and 2); after fist iteration 1 value will be in its correct place, after 2 iterations 3 values will be in place and after 3 iterations 3 values will be in place which also means the last (forth) value has to be in place too, i.e. the array must be sorted. Now for the inner loop (with variable *i*): this one ensures actually getting the value in its place. Notice it goes from 0 to the top and always compares two neighbors in the array -- if the bottom neighbor is higher than the top neighbor, the loop swaps them, ensuring that the highest value will get to the top (it kind of "bubbles" up, hence the algorithm name). Also notice this loop doesn't always go to the very end of the array! It subtracts the value *j* from its top boundary because there the values that are already in place reside, so we don't need to sort them anymore; the inner loop can end earlier and earlier as the outer loop progresses. The algorithm would still work if we went through the whole array every time (try it), but its [time complexity](time_complexity.md) would suffer, i.e. by noticing the inner loop can get progressively shorter we greatly [optimize](optimization.md) the algorithm. Anyway, how the algorithm actually works is best seen on an example, so let's now try to use the algorithm to sort the following sequence:
37 ```
38 3 7 8 3 2 
39 ```
41 The length of the sequence is *N = 5*, so *j* (the outer loop) will go from 0 to 3. The following shows how the array changes (`/\` shows comparison of neighbors, read top to bottom and left to right):
43 ```
44          j = 0        j = 1        j = 2        j = 3
45     
46                                                 swapped
47 i = 0    /\           /\           /\           /\
48          37832        37328        33278        23378     <-- SORTED
49                                                  """"
50                       swapped      swapped
51 i = 1     /\           /\           /\
52          37832        33728        32378  <--- last 3 items are in their places
53                                      """
54          swapped      swapped
55 i = 2      /\           /\
56          37382        33278  <--- last 2 items are in their places
57                          ""
58          swapped
59 i = 3       /\
60          37328   <--- last item is in its place
61              "
62 ```
64 Hopefully it's at least a bit clear -- if not, try to perform the algorithm by hand, that's a practically guaranteed way of gaining understanding of the algorithm.
66 Now let's see other algorithms and some actual runnable code. The following is a [C](c.md) program that shows implementations of some of the common sorting algorithms and also measures their speed:
68 ```
69 #include <stdio.h>
70 #include <time.h>
71 #include <stdlib.h>
73 #define N 64
75 char array[N + 1]; // extra 1 for string terminating zero
77 void swap(int i1, int i2)
79   int tmp = array[i1];
80   array[i1] = array[i2];
81   array[i2] = tmp;
84 void setupArray(void) // fills the array with pseudorandom ASCII letters
86   array[N] = 0;
87   srand(123);
89   for (int i = 0; i < N; ++i)
90     array[i] = 'A' + rand() % 26;
93 void test(void (*sortFunction)(void), const char *name)
95   int timeTotal = 0;
97   for (int i = 0; i < 64; ++i) // run the sort many times to average it a bit
98   {
99     setupArray();
100     long int t = clock();
101     sortFunction();
102     timeTotal += clock() - t;
103   }
105   printf("%-10s: %s, CPU ticks: %d\n",name,array,(int) timeTotal);
108 // ============================ sort algorithms ================================
110 void sortBubble(void)
112   for (int j = 0; j < N - 1; ++j)
113     for (int i = 0; i < N - 1 - j; ++i)
114       if (array[i] > array[i + 1])
115         swap(i,i + 1);
118 void sortBubble2(void) // simple bubble s. improvement, faster if already sorted
120   for (int j = 0; j < N - 1; ++j)
121   {
122     int swapped = 0;
124     for (int i = 0; i < N - 1 - j; ++i)
125       if (array[i] > array[i + 1])
126       {
127         swap(i,i + 1);
128         swapped = 1;
129       }
131     if (!swapped) // if no swap happened, the array is already sorted
132       break;
133   }
136 void sortInsertion(void)
138   for (int j = 1; j < N; ++j)
139     for (int i = j; i > 0; --i)
140       if (array[i] < array[i - 1]) // keep moving down until we find its place
141         swap(i,i - 1);
142       else
143         break;
146 void sortSelection(void)
148   for (int j = 0; j < N - 1; ++j)
149   {
150     int min = j;
152     for (int i = j + 1; i < N; ++i) // find the minimum
153       if (array[i] < array[min])
154         min = i;
156     swap(j,min);
157   }
160 void sortStupid(void)
162   while (1)
163   {
164     for (int i = 0; i < N; ++i) // check if the array is sorted
165       if (i == (N - 1))
166         return;
167       else if (array[i] > array[i + 1])
168         break; // we got to the end, the array is sorted
170     for (int i = 0; i < N; ++i) // randomly shuffle the array
171       swap(i,rand() % N);
172   }
175 void _sortQuick(int a, int b) // helper recursive function for the main quick s.
177   if (b <= a || a < 0)
178     return;
180   int split = a - 1;
182   for (int i = a; i < b; ++i)
183     if (array[i] < array[b])
184     {
185       split++;
186       swap(split,i);
187     }
189   split++;
190   swap(split,b);
192   _sortQuick(a,split - 1);
193   _sortQuick(split + 1,b);
196 void sortQuick(void)
198   _sortQuick(0,N - 1);
201 int main(void)
203   setupArray();
204   printf("array     : %s\n",array);
206 #if 0 // stupid sort takes too long, only turn on while decreasing N to like 10
207   test(sortStupid,"stupid");
208 #endif
209   test(sortBubble,"bubble");
210   test(sortBubble2,"bubble2");
211   test(sortInsertion,"insertion");
212   test(sortBubble2,"selection");
213   test(sortQuick,"quick");
215   return 0;
218 // TODO: let's add more algorithms in the future :-)
221 It may output for example:
224 array     : RLPALFTOCFWGVJYPLLUNEPDBSOMIBMXSXMVLROZUWXARHAIUNCJTUNVMDHWHTTZT
225 bubble    : AAABBCCDDEFFGHHHIIJJLLLLLMMMMNNNOOOPPPRRRSSTTTTTUUUUVVVWWWXXXYZZ, CPU ticks: 1191
226 bubble2   : AAABBCCDDEFFGHHHIIJJLLLLLMMMMNNNOOOPPPRRRSSTTTTTUUUUVVVWWWXXXYZZ, CPU ticks: 1164
227 insertion : AAABBCCDDEFFGHHHIIJJLLLLLMMMMNNNOOOPPPRRRSSTTTTTUUUUVVVWWWXXXYZZ, CPU ticks: 665
228 selection : AAABBCCDDEFFGHHHIIJJLLLLLMMMMNNNOOOPPPRRRSSTTTTTUUUUVVVWWWXXXYZZ, CPU ticks: 1217
229 quick     : AAABBCCDDEFFGHHHIIJJLLLLLMMMMNNNOOOPPPRRRSSTTTTTUUUUVVVWWWXXXYZZ, CPU ticks: 365
232 ## See Also
234 - [searching](search.md)
235 - [pathfinding](pathfinding.md)