This is an optimized memcpy/memmove for AArch64. Copies are split into 3 main
commitb998e16e71c8617746b7c39500e925d28ff22ed8
authorWilco Dijkstra <wdijkstr@arm.com>
Mon, 20 Jun 2016 16:38:13 +0000 (20 17:38 +0100)
committerWilco Dijkstra <wdijkstr@arm.com>
Mon, 20 Jun 2016 16:41:33 +0000 (20 17:41 +0100)
tree6cca1efccbf603c0664547d4fd66d625806d6396
parentaca1daef298b43bd7b1987b31f5aabcf6c2f6021
This is an optimized memcpy/memmove for AArch64.  Copies are split into 3 main
cases: small copies of up to 16 bytes, medium copies of 17..96 bytes which are
fully unrolled.  Large copies of more than 96 bytes align the destination and
use an unrolled loop processing 64 bytes per iteration.  In order to share code
with memmove, small and medium copies read all data before writing, allowing
any kind of overlap.  All memmoves except for the large backwards case fall
into memcpy for optimal performance.  On a random copy test memcpy/memmove are
40% faster on Cortex-A57 and 28% on Cortex-A53.

* sysdeps/aarch64/memcpy.S (memcpy):
Rewrite of optimized memcpy and memmove.
* sysdeps/aarch64/memmove.S (memmove): Remove
memmove code (merged into memcpy.S).
ChangeLog
sysdeps/aarch64/memcpy.S
sysdeps/aarch64/memmove.S