slob: reduce list scanning
commitd6269543ef24aa012aa228c27af3adb074f7b36b
authorMatt Mackall <mpm@selenic.com>
Sat, 21 Jul 2007 11:37:40 +0000 (21 04:37 -0700)
committerLinus Torvalds <torvalds@woody.linux-foundation.org>
Sun, 22 Jul 2007 00:49:16 +0000 (21 17:49 -0700)
tree5e0c24ce1dd5ed3947ea00b7863782e24848b8d3
parent41f9dc5c871600f53c8912b2975971d2a11c1c25
slob: reduce list scanning

The version of SLOB in -mm always scans its free list from the beginning,
which results in small allocations and free segments clustering at the
beginning of the list over time.  This causes the average search to scan
over a large stretch at the beginning on each allocation.

By starting each page search where the last one left off, we evenly
distribute the allocations and greatly shorten the average search.

Without this patch, kernel compiles on a 1.5G machine take a large amount
of system time for list scanning.  With this patch, compiles are within a
few seconds of performance of a SLAB kernel with no notable change in
system time.

Signed-off-by: Matt Mackall <mpm@selenic.com>
Cc: Christoph Lameter <clameter@sgi.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
mm/slob.c