[x86] Add a feature bit: Fast_Unaligned_Copy
[glibc.git] / sysdeps / x86_64 / multiarch / memcpy.S
blob5b045d7847d5c13cb3f8542b871097adcd3c8eeb
1 /* Multiple versions of memcpy
2    All versions must be listed in ifunc-impl-list.c.
3    Copyright (C) 2010-2016 Free Software Foundation, Inc.
4    Contributed by Intel Corporation.
5    This file is part of the GNU C Library.
7    The GNU C Library is free software; you can redistribute it and/or
8    modify it under the terms of the GNU Lesser General Public
9    License as published by the Free Software Foundation; either
10    version 2.1 of the License, or (at your option) any later version.
12    The GNU C Library is distributed in the hope that it will be useful,
13    but WITHOUT ANY WARRANTY; without even the implied warranty of
14    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15    Lesser General Public License for more details.
17    You should have received a copy of the GNU Lesser General Public
18    License along with the GNU C Library; if not, see
19    <http://www.gnu.org/licenses/>.  */
21 #include <sysdep.h>
22 #include <shlib-compat.h>
23 #include <init-arch.h>
25 /* Define multiple versions only for the definition in lib and for
26    DSO.  In static binaries we need memcpy before the initialization
27    happened.  */
28 #if defined SHARED && IS_IN (libc)
29         .text
30 ENTRY(__new_memcpy)
31         .type   __new_memcpy, @gnu_indirect_function
32         LOAD_RTLD_GLOBAL_RO_RDX
33 #ifdef HAVE_AVX512_ASM_SUPPORT
34         HAS_ARCH_FEATURE (AVX512F_Usable)
35         jz      1f
36         HAS_ARCH_FEATURE (Prefer_No_VZEROUPPER)
37         jz      1f
38         lea    __memcpy_avx512_no_vzeroupper(%rip), %RAX_LP
39         ret
40 #endif
41 1:      lea     __memcpy_avx_unaligned(%rip), %RAX_LP
42         HAS_ARCH_FEATURE (AVX_Fast_Unaligned_Load)
43         jnz     2f
44         lea     __memcpy_sse2_unaligned(%rip), %RAX_LP
45         HAS_ARCH_FEATURE (Fast_Unaligned_Copy)
46         jnz     2f
47         lea     __memcpy_sse2(%rip), %RAX_LP
48         HAS_CPU_FEATURE (SSSE3)
49         jz      2f
50         lea    __memcpy_ssse3_back(%rip), %RAX_LP
51         HAS_ARCH_FEATURE (Fast_Copy_Backward)
52         jnz     2f
53         lea     __memcpy_ssse3(%rip), %RAX_LP
54 2:      ret
55 END(__new_memcpy)
57 # undef ENTRY
58 # define ENTRY(name) \
59         .type __memcpy_sse2, @function; \
60         .globl __memcpy_sse2; \
61         .hidden __memcpy_sse2; \
62         .p2align 4; \
63         __memcpy_sse2: cfi_startproc; \
64         CALL_MCOUNT
65 # undef END
66 # define END(name) \
67         cfi_endproc; .size __memcpy_sse2, .-__memcpy_sse2
69 # undef ENTRY_CHK
70 # define ENTRY_CHK(name) \
71         .type __memcpy_chk_sse2, @function; \
72         .globl __memcpy_chk_sse2; \
73         .p2align 4; \
74         __memcpy_chk_sse2: cfi_startproc; \
75         CALL_MCOUNT
76 # undef END_CHK
77 # define END_CHK(name) \
78         cfi_endproc; .size __memcpy_chk_sse2, .-__memcpy_chk_sse2
80 # undef libc_hidden_builtin_def
81 /* It doesn't make sense to send libc-internal memcpy calls through a PLT.
82    The speedup we get from using SSSE3 instruction is likely eaten away
83    by the indirect call in the PLT.  */
84 # define libc_hidden_builtin_def(name) \
85         .globl __GI_memcpy; __GI_memcpy = __memcpy_sse2
87 versioned_symbol (libc, __new_memcpy, memcpy, GLIBC_2_14);
88 #endif
90 #include "../memcpy.S"