add optimized aarch64 memcpy and memset
commitfdf8b2ad9c5ae6adf3a91c0043eb898badee46d1
authorRich Felker <dalias@aerifal.cx>
Fri, 26 Jun 2020 21:37:21 +0000 (26 17:37 -0400)
committerRich Felker <dalias@aerifal.cx>
Fri, 26 Jun 2020 21:49:51 +0000 (26 17:49 -0400)
treef03081ec37706abdfcafa153dc5078f2a33b0618
parent9dce93ac7f7a76978b70581c6f073f671b583347
add optimized aarch64 memcpy and memset

these are based on the ARM optimized-routines repository v20.05
(ef907c7a799a), with macro dependencies flattened out and memmove code
removed from memcpy. this change is somewhat unfortunate since having
the branch for memmove support in the large n case of memcpy is the
performance-optimal and size-optimal way to do both, but it makes
memcpy alone (static-linked) about 40% larger and suggests a policy
that use of memcpy as memmove is supported.

tabs used for alignment have also been replaced with spaces.
COPYRIGHT
src/string/aarch64/memcpy.S [new file with mode: 0644]
src/string/aarch64/memset.S [new file with mode: 0644]