Consistently use "rG" constraint for copy instruction in move patterns
[official-gcc.git] / libsanitizer / tsan / tsan_interface.inc
blob0031800e851f4b102384cc36cb0be09faed7a2fa
1 //===-- tsan_interface.inc --------------------------------------*- C++ -*-===//
2 //
3 // Part of the LLVM Project, under the Apache License v2.0 with LLVM Exceptions.
4 // See https://llvm.org/LICENSE.txt for license information.
5 // SPDX-License-Identifier: Apache-2.0 WITH LLVM-exception
6 //
7 //===----------------------------------------------------------------------===//
8 //
9 // This file is a part of ThreadSanitizer (TSan), a race detector.
11 //===----------------------------------------------------------------------===//
13 #include "sanitizer_common/sanitizer_ptrauth.h"
14 #include "tsan_interface.h"
15 #include "tsan_rtl.h"
17 #define CALLERPC ((uptr)__builtin_return_address(0))
19 using namespace __tsan;
21 void __tsan_read1(void *addr) {
22   MemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 1, kAccessRead);
25 void __tsan_read2(void *addr) {
26   MemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 2, kAccessRead);
29 void __tsan_read4(void *addr) {
30   MemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 4, kAccessRead);
33 void __tsan_read8(void *addr) {
34   MemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 8, kAccessRead);
37 void __tsan_write1(void *addr) {
38   MemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 1, kAccessWrite);
41 void __tsan_write2(void *addr) {
42   MemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 2, kAccessWrite);
45 void __tsan_write4(void *addr) {
46   MemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 4, kAccessWrite);
49 void __tsan_write8(void *addr) {
50   MemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 8, kAccessWrite);
53 void __tsan_read1_pc(void *addr, void *pc) {
54   MemoryAccess(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, 1, kAccessRead | kAccessExternalPC);
57 void __tsan_read2_pc(void *addr, void *pc) {
58   MemoryAccess(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, 2, kAccessRead | kAccessExternalPC);
61 void __tsan_read4_pc(void *addr, void *pc) {
62   MemoryAccess(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, 4, kAccessRead | kAccessExternalPC);
65 void __tsan_read8_pc(void *addr, void *pc) {
66   MemoryAccess(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, 8, kAccessRead | kAccessExternalPC);
69 void __tsan_write1_pc(void *addr, void *pc) {
70   MemoryAccess(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, 1, kAccessWrite | kAccessExternalPC);
73 void __tsan_write2_pc(void *addr, void *pc) {
74   MemoryAccess(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, 2, kAccessWrite | kAccessExternalPC);
77 void __tsan_write4_pc(void *addr, void *pc) {
78   MemoryAccess(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, 4, kAccessWrite | kAccessExternalPC);
81 void __tsan_write8_pc(void *addr, void *pc) {
82   MemoryAccess(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, 8, kAccessWrite | kAccessExternalPC);
85 ALWAYS_INLINE USED void __tsan_unaligned_read2(const void *addr) {
86   UnalignedMemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 2, kAccessRead);
89 ALWAYS_INLINE USED void __tsan_unaligned_read4(const void *addr) {
90   UnalignedMemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 4, kAccessRead);
93 ALWAYS_INLINE USED void __tsan_unaligned_read8(const void *addr) {
94   UnalignedMemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 8, kAccessRead);
97 ALWAYS_INLINE USED void __tsan_unaligned_write2(void *addr) {
98   UnalignedMemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 2, kAccessWrite);
101 ALWAYS_INLINE USED void __tsan_unaligned_write4(void *addr) {
102   UnalignedMemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 4, kAccessWrite);
105 ALWAYS_INLINE USED void __tsan_unaligned_write8(void *addr) {
106   UnalignedMemoryAccess(cur_thread(), CALLERPC, (uptr)addr, 8, kAccessWrite);
109 extern "C" {
110 // __sanitizer_unaligned_load/store are for user instrumentation.
111 SANITIZER_INTERFACE_ATTRIBUTE
112 u16 __sanitizer_unaligned_load16(const uu16 *addr) {
113   __tsan_unaligned_read2(addr);
114   return *addr;
117 SANITIZER_INTERFACE_ATTRIBUTE
118 u32 __sanitizer_unaligned_load32(const uu32 *addr) {
119   __tsan_unaligned_read4(addr);
120   return *addr;
123 SANITIZER_INTERFACE_ATTRIBUTE
124 u64 __sanitizer_unaligned_load64(const uu64 *addr) {
125   __tsan_unaligned_read8(addr);
126   return *addr;
129 SANITIZER_INTERFACE_ATTRIBUTE
130 void __sanitizer_unaligned_store16(uu16 *addr, u16 v) {
131   *addr = v;
132   __tsan_unaligned_write2(addr);
135 SANITIZER_INTERFACE_ATTRIBUTE
136 void __sanitizer_unaligned_store32(uu32 *addr, u32 v) {
137   *addr = v;
138   __tsan_unaligned_write4(addr);
141 SANITIZER_INTERFACE_ATTRIBUTE
142 void __sanitizer_unaligned_store64(uu64 *addr, u64 v) {
143   *addr = v;
144   __tsan_unaligned_write8(addr);
148 void __tsan_vptr_update(void **vptr_p, void *new_val) {
149   if (*vptr_p == new_val)
150     return;
151   MemoryAccess(cur_thread(), CALLERPC, (uptr)vptr_p, sizeof(*vptr_p),
152                kAccessWrite | kAccessVptr);
155 void __tsan_vptr_read(void **vptr_p) {
156   MemoryAccess(cur_thread(), CALLERPC, (uptr)vptr_p, sizeof(*vptr_p),
157                kAccessRead | kAccessVptr);
160 void __tsan_func_entry(void *pc) { FuncEntry(cur_thread(), STRIP_PAC_PC(pc)); }
162 void __tsan_func_exit() { FuncExit(cur_thread()); }
164 void __tsan_ignore_thread_begin() { ThreadIgnoreBegin(cur_thread(), CALLERPC); }
166 void __tsan_ignore_thread_end() { ThreadIgnoreEnd(cur_thread()); }
168 void __tsan_read_range(void *addr, uptr size) {
169   MemoryAccessRange(cur_thread(), CALLERPC, (uptr)addr, size, false);
172 void __tsan_write_range(void *addr, uptr size) {
173   MemoryAccessRange(cur_thread(), CALLERPC, (uptr)addr, size, true);
176 void __tsan_read_range_pc(void *addr, uptr size, void *pc) {
177   MemoryAccessRange(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, size, false);
180 void __tsan_write_range_pc(void *addr, uptr size, void *pc) {
181   MemoryAccessRange(cur_thread(), STRIP_PAC_PC(pc), (uptr)addr, size, true);