]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - contrib/compiler-rt/lib/asan/asan_fake_stack.cc
MFV ntp-4.2.8p4 (r289715)
[FreeBSD/FreeBSD.git] / contrib / compiler-rt / lib / asan / asan_fake_stack.cc
1 //===-- asan_fake_stack.cc ------------------------------------------------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This file is a part of AddressSanitizer, an address sanity checker.
11 //
12 // FakeStack is used to detect use-after-return bugs.
13 //===----------------------------------------------------------------------===//
14 #include "asan_allocator.h"
15 #include "asan_poisoning.h"
16 #include "asan_thread.h"
17
18 namespace __asan {
19
20 static const u64 kMagic1 = kAsanStackAfterReturnMagic;
21 static const u64 kMagic2 = (kMagic1 << 8) | kMagic1;
22 static const u64 kMagic4 = (kMagic2 << 16) | kMagic2;
23 static const u64 kMagic8 = (kMagic4 << 32) | kMagic4;
24
25 static const u64 kAllocaRedzoneSize = 32UL;
26 static const u64 kAllocaRedzoneMask = 31UL;
27
28 // For small size classes inline PoisonShadow for better performance.
29 ALWAYS_INLINE void SetShadow(uptr ptr, uptr size, uptr class_id, u64 magic) {
30   CHECK_EQ(SHADOW_SCALE, 3);  // This code expects SHADOW_SCALE=3.
31   u64 *shadow = reinterpret_cast<u64*>(MemToShadow(ptr));
32   if (class_id <= 6) {
33     for (uptr i = 0; i < (1U << class_id); i++) {
34       shadow[i] = magic;
35       SanitizerBreakOptimization(0);  // Make sure this does not become memset.
36     }
37   } else {
38     // The size class is too big, it's cheaper to poison only size bytes.
39     PoisonShadow(ptr, size, static_cast<u8>(magic));
40   }
41 }
42
43 FakeStack *FakeStack::Create(uptr stack_size_log) {
44   static uptr kMinStackSizeLog = 16;
45   static uptr kMaxStackSizeLog = FIRST_32_SECOND_64(24, 28);
46   if (stack_size_log < kMinStackSizeLog)
47     stack_size_log = kMinStackSizeLog;
48   if (stack_size_log > kMaxStackSizeLog)
49     stack_size_log = kMaxStackSizeLog;
50   uptr size = RequiredSize(stack_size_log);
51   FakeStack *res = reinterpret_cast<FakeStack *>(
52       flags()->uar_noreserve ? MmapNoReserveOrDie(size, "FakeStack")
53                              : MmapOrDie(size, "FakeStack"));
54   res->stack_size_log_ = stack_size_log;
55   u8 *p = reinterpret_cast<u8 *>(res);
56   VReport(1, "T%d: FakeStack created: %p -- %p stack_size_log: %zd; "
57           "mmapped %zdK, noreserve=%d \n",
58           GetCurrentTidOrInvalid(), p,
59           p + FakeStack::RequiredSize(stack_size_log), stack_size_log,
60           size >> 10, flags()->uar_noreserve);
61   return res;
62 }
63
64 void FakeStack::Destroy(int tid) {
65   PoisonAll(0);
66   if (Verbosity() >= 2) {
67     InternalScopedString str(kNumberOfSizeClasses * 50);
68     for (uptr class_id = 0; class_id < kNumberOfSizeClasses; class_id++)
69       str.append("%zd: %zd/%zd; ", class_id, hint_position_[class_id],
70                  NumberOfFrames(stack_size_log(), class_id));
71     Report("T%d: FakeStack destroyed: %s\n", tid, str.data());
72   }
73   uptr size = RequiredSize(stack_size_log_);
74   FlushUnneededASanShadowMemory(reinterpret_cast<uptr>(this), size);
75   UnmapOrDie(this, size);
76 }
77
78 void FakeStack::PoisonAll(u8 magic) {
79   PoisonShadow(reinterpret_cast<uptr>(this), RequiredSize(stack_size_log()),
80                magic);
81 }
82
83 ALWAYS_INLINE USED
84 FakeFrame *FakeStack::Allocate(uptr stack_size_log, uptr class_id,
85                                uptr real_stack) {
86   CHECK_LT(class_id, kNumberOfSizeClasses);
87   if (needs_gc_)
88     GC(real_stack);
89   uptr &hint_position = hint_position_[class_id];
90   const int num_iter = NumberOfFrames(stack_size_log, class_id);
91   u8 *flags = GetFlags(stack_size_log, class_id);
92   for (int i = 0; i < num_iter; i++) {
93     uptr pos = ModuloNumberOfFrames(stack_size_log, class_id, hint_position++);
94     // This part is tricky. On one hand, checking and setting flags[pos]
95     // should be atomic to ensure async-signal safety. But on the other hand,
96     // if the signal arrives between checking and setting flags[pos], the
97     // signal handler's fake stack will start from a different hint_position
98     // and so will not touch this particular byte. So, it is safe to do this
99     // with regular non-atimic load and store (at least I was not able to make
100     // this code crash).
101     if (flags[pos]) continue;
102     flags[pos] = 1;
103     FakeFrame *res = reinterpret_cast<FakeFrame *>(
104         GetFrame(stack_size_log, class_id, pos));
105     res->real_stack = real_stack;
106     *SavedFlagPtr(reinterpret_cast<uptr>(res), class_id) = &flags[pos];
107     return res;
108   }
109   return 0; // We are out of fake stack.
110 }
111
112 uptr FakeStack::AddrIsInFakeStack(uptr ptr, uptr *frame_beg, uptr *frame_end) {
113   uptr stack_size_log = this->stack_size_log();
114   uptr beg = reinterpret_cast<uptr>(GetFrame(stack_size_log, 0, 0));
115   uptr end = reinterpret_cast<uptr>(this) + RequiredSize(stack_size_log);
116   if (ptr < beg || ptr >= end) return 0;
117   uptr class_id = (ptr - beg) >> stack_size_log;
118   uptr base = beg + (class_id << stack_size_log);
119   CHECK_LE(base, ptr);
120   CHECK_LT(ptr, base + (1UL << stack_size_log));
121   uptr pos = (ptr - base) >> (kMinStackFrameSizeLog + class_id);
122   uptr res = base + pos * BytesInSizeClass(class_id);
123   *frame_end = res + BytesInSizeClass(class_id);
124   *frame_beg = res + sizeof(FakeFrame);
125   return res;
126 }
127
128 void FakeStack::HandleNoReturn() {
129   needs_gc_ = true;
130 }
131
132 // When throw, longjmp or some such happens we don't call OnFree() and
133 // as the result may leak one or more fake frames, but the good news is that
134 // we are notified about all such events by HandleNoReturn().
135 // If we recently had such no-return event we need to collect garbage frames.
136 // We do it based on their 'real_stack' values -- everything that is lower
137 // than the current real_stack is garbage.
138 NOINLINE void FakeStack::GC(uptr real_stack) {
139   uptr collected = 0;
140   for (uptr class_id = 0; class_id < kNumberOfSizeClasses; class_id++) {
141     u8 *flags = GetFlags(stack_size_log(), class_id);
142     for (uptr i = 0, n = NumberOfFrames(stack_size_log(), class_id); i < n;
143          i++) {
144       if (flags[i] == 0) continue;  // not allocated.
145       FakeFrame *ff = reinterpret_cast<FakeFrame *>(
146           GetFrame(stack_size_log(), class_id, i));
147       if (ff->real_stack < real_stack) {
148         flags[i] = 0;
149         collected++;
150       }
151     }
152   }
153   needs_gc_ = false;
154 }
155
156 void FakeStack::ForEachFakeFrame(RangeIteratorCallback callback, void *arg) {
157   for (uptr class_id = 0; class_id < kNumberOfSizeClasses; class_id++) {
158     u8 *flags = GetFlags(stack_size_log(), class_id);
159     for (uptr i = 0, n = NumberOfFrames(stack_size_log(), class_id); i < n;
160          i++) {
161       if (flags[i] == 0) continue;  // not allocated.
162       FakeFrame *ff = reinterpret_cast<FakeFrame *>(
163           GetFrame(stack_size_log(), class_id, i));
164       uptr begin = reinterpret_cast<uptr>(ff);
165       callback(begin, begin + FakeStack::BytesInSizeClass(class_id), arg);
166     }
167   }
168 }
169
170 #if SANITIZER_LINUX && !SANITIZER_ANDROID
171 static THREADLOCAL FakeStack *fake_stack_tls;
172
173 FakeStack *GetTLSFakeStack() {
174   return fake_stack_tls;
175 }
176 void SetTLSFakeStack(FakeStack *fs) {
177   fake_stack_tls = fs;
178 }
179 #else
180 FakeStack *GetTLSFakeStack() { return 0; }
181 void SetTLSFakeStack(FakeStack *fs) { }
182 #endif  // SANITIZER_LINUX && !SANITIZER_ANDROID
183
184 static FakeStack *GetFakeStack() {
185   AsanThread *t = GetCurrentThread();
186   if (!t) return 0;
187   return t->fake_stack();
188 }
189
190 static FakeStack *GetFakeStackFast() {
191   if (FakeStack *fs = GetTLSFakeStack())
192     return fs;
193   if (!__asan_option_detect_stack_use_after_return)
194     return 0;
195   return GetFakeStack();
196 }
197
198 ALWAYS_INLINE uptr OnMalloc(uptr class_id, uptr size) {
199   FakeStack *fs = GetFakeStackFast();
200   if (!fs) return 0;
201   uptr local_stack;
202   uptr real_stack = reinterpret_cast<uptr>(&local_stack);
203   FakeFrame *ff = fs->Allocate(fs->stack_size_log(), class_id, real_stack);
204   if (!ff) return 0;  // Out of fake stack.
205   uptr ptr = reinterpret_cast<uptr>(ff);
206   SetShadow(ptr, size, class_id, 0);
207   return ptr;
208 }
209
210 ALWAYS_INLINE void OnFree(uptr ptr, uptr class_id, uptr size) {
211   FakeStack::Deallocate(ptr, class_id);
212   SetShadow(ptr, size, class_id, kMagic8);
213 }
214
215 }  // namespace __asan
216
217 // ---------------------- Interface ---------------- {{{1
218 using namespace __asan;
219 #define DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(class_id)                       \
220   extern "C" SANITIZER_INTERFACE_ATTRIBUTE uptr                                \
221       __asan_stack_malloc_##class_id(uptr size) {                              \
222     return OnMalloc(class_id, size);                                           \
223   }                                                                            \
224   extern "C" SANITIZER_INTERFACE_ATTRIBUTE void __asan_stack_free_##class_id(  \
225       uptr ptr, uptr size) {                                                   \
226     OnFree(ptr, class_id, size);                                               \
227   }
228
229 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(0)
230 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(1)
231 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(2)
232 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(3)
233 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(4)
234 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(5)
235 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(6)
236 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(7)
237 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(8)
238 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(9)
239 DEFINE_STACK_MALLOC_FREE_WITH_CLASS_ID(10)
240 extern "C" {
241 SANITIZER_INTERFACE_ATTRIBUTE
242 void *__asan_get_current_fake_stack() { return GetFakeStackFast(); }
243
244 SANITIZER_INTERFACE_ATTRIBUTE
245 void *__asan_addr_is_in_fake_stack(void *fake_stack, void *addr, void **beg,
246                                    void **end) {
247   FakeStack *fs = reinterpret_cast<FakeStack*>(fake_stack);
248   if (!fs) return 0;
249   uptr frame_beg, frame_end;
250   FakeFrame *frame = reinterpret_cast<FakeFrame *>(fs->AddrIsInFakeStack(
251       reinterpret_cast<uptr>(addr), &frame_beg, &frame_end));
252   if (!frame) return 0;
253   if (frame->magic != kCurrentStackFrameMagic)
254     return 0;
255   if (beg) *beg = reinterpret_cast<void*>(frame_beg);
256   if (end) *end = reinterpret_cast<void*>(frame_end);
257   return reinterpret_cast<void*>(frame->real_stack);
258 }
259
260 SANITIZER_INTERFACE_ATTRIBUTE
261 void __asan_alloca_poison(uptr addr, uptr size) {
262   uptr LeftRedzoneAddr = addr - kAllocaRedzoneSize;
263   uptr PartialRzAddr = addr + size;
264   uptr RightRzAddr = (PartialRzAddr + kAllocaRedzoneMask) & ~kAllocaRedzoneMask;
265   uptr PartialRzAligned = PartialRzAddr & ~(SHADOW_GRANULARITY - 1);
266   FastPoisonShadow(LeftRedzoneAddr, kAllocaRedzoneSize, kAsanAllocaLeftMagic);
267   FastPoisonShadowPartialRightRedzone(
268       PartialRzAligned, PartialRzAddr % SHADOW_GRANULARITY,
269       RightRzAddr - PartialRzAligned, kAsanAllocaRightMagic);
270   FastPoisonShadow(RightRzAddr, kAllocaRedzoneSize, kAsanAllocaRightMagic);
271 }
272
273 SANITIZER_INTERFACE_ATTRIBUTE
274 void __asan_allocas_unpoison(uptr top, uptr bottom) {
275   if ((!top) || (top > bottom)) return;
276   REAL(memset)(reinterpret_cast<void*>(MemToShadow(top)), 0,
277                (bottom - top) / SHADOW_GRANULARITY);
278 }
279 }  // extern "C"