]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - contrib/compiler-rt/lib/tsan/rtl/tsan_platform.h
Update our devicetree to 4.19 for arm and arm64
[FreeBSD/FreeBSD.git] / contrib / compiler-rt / lib / tsan / rtl / tsan_platform.h
1 //===-- tsan_platform.h -----------------------------------------*- C++ -*-===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 // This file is a part of ThreadSanitizer (TSan), a race detector.
11 //
12 // Platform-specific code.
13 //===----------------------------------------------------------------------===//
14
15 #ifndef TSAN_PLATFORM_H
16 #define TSAN_PLATFORM_H
17
18 #if !defined(__LP64__) && !defined(_WIN64)
19 # error "Only 64-bit is supported"
20 #endif
21
22 #include "tsan_defs.h"
23 #include "tsan_trace.h"
24
25 namespace __tsan {
26
27 #if !SANITIZER_GO
28
29 #if defined(__x86_64__)
30 /*
31 C/C++ on linux/x86_64 and freebsd/x86_64
32 0000 0000 1000 - 0080 0000 0000: main binary and/or MAP_32BIT mappings (512GB)
33 0040 0000 0000 - 0100 0000 0000: -
34 0100 0000 0000 - 2000 0000 0000: shadow
35 2000 0000 0000 - 3000 0000 0000: -
36 3000 0000 0000 - 4000 0000 0000: metainfo (memory blocks and sync objects)
37 4000 0000 0000 - 5500 0000 0000: -
38 5500 0000 0000 - 5680 0000 0000: pie binaries without ASLR or on 4.1+ kernels
39 5680 0000 0000 - 6000 0000 0000: -
40 6000 0000 0000 - 6200 0000 0000: traces
41 6200 0000 0000 - 7d00 0000 0000: -
42 7b00 0000 0000 - 7c00 0000 0000: heap
43 7c00 0000 0000 - 7e80 0000 0000: -
44 7e80 0000 0000 - 8000 0000 0000: modules and main thread stack
45
46 C/C++ on netbsd/amd64 can reuse the same mapping:
47  * The address space starts from 0x1000 (option with 0x0) and ends with
48    0x7f7ffffff000.
49  * LoAppMem-kHeapMemEnd can be reused as it is.
50  * No VDSO support.
51  * No MidAppMem region.
52  * No additional HeapMem region.
53  * HiAppMem contains the stack, loader, shared libraries and heap.
54  * Stack on NetBSD/amd64 has prereserved 128MB.
55  * Heap grows downwards (top-down).
56  * ASLR must be disabled per-process or globally.
57
58 */
59 struct Mapping {
60   static const uptr kMetaShadowBeg = 0x300000000000ull;
61   static const uptr kMetaShadowEnd = 0x340000000000ull;
62   static const uptr kTraceMemBeg   = 0x600000000000ull;
63   static const uptr kTraceMemEnd   = 0x620000000000ull;
64   static const uptr kShadowBeg     = 0x010000000000ull;
65   static const uptr kShadowEnd     = 0x200000000000ull;
66   static const uptr kHeapMemBeg    = 0x7b0000000000ull;
67   static const uptr kHeapMemEnd    = 0x7c0000000000ull;
68   static const uptr kLoAppMemBeg   = 0x000000001000ull;
69   static const uptr kLoAppMemEnd   = 0x008000000000ull;
70   static const uptr kMidAppMemBeg  = 0x550000000000ull;
71   static const uptr kMidAppMemEnd  = 0x568000000000ull;
72   static const uptr kHiAppMemBeg   = 0x7e8000000000ull;
73   static const uptr kHiAppMemEnd   = 0x800000000000ull;
74   static const uptr kAppMemMsk     = 0x780000000000ull;
75   static const uptr kAppMemXor     = 0x040000000000ull;
76   static const uptr kVdsoBeg       = 0xf000000000000000ull;
77 };
78
79 #define TSAN_MID_APP_RANGE 1
80 #elif defined(__mips64)
81 /*
82 C/C++ on linux/mips64 (40-bit VMA)
83 0000 0000 00 - 0100 0000 00: -                                           (4 GB)
84 0100 0000 00 - 0200 0000 00: main binary                                 (4 GB)
85 0200 0000 00 - 2000 0000 00: -                                         (120 GB)
86 2000 0000 00 - 4000 0000 00: shadow                                    (128 GB)
87 4000 0000 00 - 5000 0000 00: metainfo (memory blocks and sync objects)  (64 GB)
88 5000 0000 00 - aa00 0000 00: -                                         (360 GB)
89 aa00 0000 00 - ab00 0000 00: main binary (PIE)                           (4 GB)
90 ab00 0000 00 - b000 0000 00: -                                          (20 GB)
91 b000 0000 00 - b200 0000 00: traces                                      (8 GB)
92 b200 0000 00 - fe00 0000 00: -                                         (304 GB)
93 fe00 0000 00 - ff00 0000 00: heap                                        (4 GB)
94 ff00 0000 00 - ff80 0000 00: -                                           (2 GB)
95 ff80 0000 00 - ffff ffff ff: modules and main thread stack              (<2 GB)
96 */
97 struct Mapping {
98   static const uptr kMetaShadowBeg = 0x4000000000ull;
99   static const uptr kMetaShadowEnd = 0x5000000000ull;
100   static const uptr kTraceMemBeg   = 0xb000000000ull;
101   static const uptr kTraceMemEnd   = 0xb200000000ull;
102   static const uptr kShadowBeg     = 0x2000000000ull;
103   static const uptr kShadowEnd     = 0x4000000000ull;
104   static const uptr kHeapMemBeg    = 0xfe00000000ull;
105   static const uptr kHeapMemEnd    = 0xff00000000ull;
106   static const uptr kLoAppMemBeg   = 0x0100000000ull;
107   static const uptr kLoAppMemEnd   = 0x0200000000ull;
108   static const uptr kMidAppMemBeg  = 0xaa00000000ull;
109   static const uptr kMidAppMemEnd  = 0xab00000000ull;
110   static const uptr kHiAppMemBeg   = 0xff80000000ull;
111   static const uptr kHiAppMemEnd   = 0xffffffffffull;
112   static const uptr kAppMemMsk     = 0xf800000000ull;
113   static const uptr kAppMemXor     = 0x0800000000ull;
114   static const uptr kVdsoBeg       = 0xfffff00000ull;
115 };
116
117 #define TSAN_MID_APP_RANGE 1
118 #elif defined(__aarch64__) && defined(__APPLE__)
119 /*
120 C/C++ on Darwin/iOS/ARM64 (36-bit VMA, 64 GB VM)
121 0000 0000 00 - 0100 0000 00: -                                    (4 GB)
122 0100 0000 00 - 0200 0000 00: main binary, modules, thread stacks  (4 GB)
123 0200 0000 00 - 0300 0000 00: heap                                 (4 GB)
124 0300 0000 00 - 0400 0000 00: -                                    (4 GB)
125 0400 0000 00 - 0c00 0000 00: shadow memory                       (32 GB)
126 0c00 0000 00 - 0d00 0000 00: -                                    (4 GB)
127 0d00 0000 00 - 0e00 0000 00: metainfo                             (4 GB)
128 0e00 0000 00 - 0f00 0000 00: -                                    (4 GB)
129 0f00 0000 00 - 0fc0 0000 00: traces                               (3 GB)
130 0fc0 0000 00 - 1000 0000 00: -
131 */
132 struct Mapping {
133   static const uptr kLoAppMemBeg   = 0x0100000000ull;
134   static const uptr kLoAppMemEnd   = 0x0200000000ull;
135   static const uptr kHeapMemBeg    = 0x0200000000ull;
136   static const uptr kHeapMemEnd    = 0x0300000000ull;
137   static const uptr kShadowBeg     = 0x0400000000ull;
138   static const uptr kShadowEnd     = 0x0c00000000ull;
139   static const uptr kMetaShadowBeg = 0x0d00000000ull;
140   static const uptr kMetaShadowEnd = 0x0e00000000ull;
141   static const uptr kTraceMemBeg   = 0x0f00000000ull;
142   static const uptr kTraceMemEnd   = 0x0fc0000000ull;
143   static const uptr kHiAppMemBeg   = 0x0fc0000000ull;
144   static const uptr kHiAppMemEnd   = 0x0fc0000000ull;
145   static const uptr kAppMemMsk     =          0x0ull;
146   static const uptr kAppMemXor     =          0x0ull;
147   static const uptr kVdsoBeg       = 0x7000000000000000ull;
148 };
149
150 #elif defined(__aarch64__)
151 // AArch64 supports multiple VMA which leads to multiple address transformation
152 // functions.  To support these multiple VMAS transformations and mappings TSAN
153 // runtime for AArch64 uses an external memory read (vmaSize) to select which
154 // mapping to use.  Although slower, it make a same instrumented binary run on
155 // multiple kernels.
156
157 /*
158 C/C++ on linux/aarch64 (39-bit VMA)
159 0000 0010 00 - 0100 0000 00: main binary
160 0100 0000 00 - 0800 0000 00: -
161 0800 0000 00 - 2000 0000 00: shadow memory
162 2000 0000 00 - 3100 0000 00: -
163 3100 0000 00 - 3400 0000 00: metainfo
164 3400 0000 00 - 5500 0000 00: -
165 5500 0000 00 - 5600 0000 00: main binary (PIE)
166 5600 0000 00 - 6000 0000 00: -
167 6000 0000 00 - 6200 0000 00: traces
168 6200 0000 00 - 7d00 0000 00: -
169 7c00 0000 00 - 7d00 0000 00: heap
170 7d00 0000 00 - 7fff ffff ff: modules and main thread stack
171 */
172 struct Mapping39 {
173   static const uptr kLoAppMemBeg   = 0x0000001000ull;
174   static const uptr kLoAppMemEnd   = 0x0100000000ull;
175   static const uptr kShadowBeg     = 0x0800000000ull;
176   static const uptr kShadowEnd     = 0x2000000000ull;
177   static const uptr kMetaShadowBeg = 0x3100000000ull;
178   static const uptr kMetaShadowEnd = 0x3400000000ull;
179   static const uptr kMidAppMemBeg  = 0x5500000000ull;
180   static const uptr kMidAppMemEnd  = 0x5600000000ull;
181   static const uptr kTraceMemBeg   = 0x6000000000ull;
182   static const uptr kTraceMemEnd   = 0x6200000000ull;
183   static const uptr kHeapMemBeg    = 0x7c00000000ull;
184   static const uptr kHeapMemEnd    = 0x7d00000000ull;
185   static const uptr kHiAppMemBeg   = 0x7e00000000ull;
186   static const uptr kHiAppMemEnd   = 0x7fffffffffull;
187   static const uptr kAppMemMsk     = 0x7800000000ull;
188   static const uptr kAppMemXor     = 0x0200000000ull;
189   static const uptr kVdsoBeg       = 0x7f00000000ull;
190 };
191
192 /*
193 C/C++ on linux/aarch64 (42-bit VMA)
194 00000 0010 00 - 01000 0000 00: main binary
195 01000 0000 00 - 10000 0000 00: -
196 10000 0000 00 - 20000 0000 00: shadow memory
197 20000 0000 00 - 26000 0000 00: -
198 26000 0000 00 - 28000 0000 00: metainfo
199 28000 0000 00 - 2aa00 0000 00: -
200 2aa00 0000 00 - 2ab00 0000 00: main binary (PIE)
201 2ab00 0000 00 - 36200 0000 00: -
202 36200 0000 00 - 36240 0000 00: traces
203 36240 0000 00 - 3e000 0000 00: -
204 3e000 0000 00 - 3f000 0000 00: heap
205 3f000 0000 00 - 3ffff ffff ff: modules and main thread stack
206 */
207 struct Mapping42 {
208   static const uptr kLoAppMemBeg   = 0x00000001000ull;
209   static const uptr kLoAppMemEnd   = 0x01000000000ull;
210   static const uptr kShadowBeg     = 0x10000000000ull;
211   static const uptr kShadowEnd     = 0x20000000000ull;
212   static const uptr kMetaShadowBeg = 0x26000000000ull;
213   static const uptr kMetaShadowEnd = 0x28000000000ull;
214   static const uptr kMidAppMemBeg  = 0x2aa00000000ull;
215   static const uptr kMidAppMemEnd  = 0x2ab00000000ull;
216   static const uptr kTraceMemBeg   = 0x36200000000ull;
217   static const uptr kTraceMemEnd   = 0x36400000000ull;
218   static const uptr kHeapMemBeg    = 0x3e000000000ull;
219   static const uptr kHeapMemEnd    = 0x3f000000000ull;
220   static const uptr kHiAppMemBeg   = 0x3f000000000ull;
221   static const uptr kHiAppMemEnd   = 0x3ffffffffffull;
222   static const uptr kAppMemMsk     = 0x3c000000000ull;
223   static const uptr kAppMemXor     = 0x04000000000ull;
224   static const uptr kVdsoBeg       = 0x37f00000000ull;
225 };
226
227 struct Mapping48 {
228   static const uptr kLoAppMemBeg   = 0x0000000001000ull;
229   static const uptr kLoAppMemEnd   = 0x0000200000000ull;
230   static const uptr kShadowBeg     = 0x0002000000000ull;
231   static const uptr kShadowEnd     = 0x0004000000000ull;
232   static const uptr kMetaShadowBeg = 0x0005000000000ull;
233   static const uptr kMetaShadowEnd = 0x0006000000000ull;
234   static const uptr kMidAppMemBeg  = 0x0aaaa00000000ull;
235   static const uptr kMidAppMemEnd  = 0x0aaaf00000000ull;
236   static const uptr kTraceMemBeg   = 0x0f06000000000ull;
237   static const uptr kTraceMemEnd   = 0x0f06200000000ull;
238   static const uptr kHeapMemBeg    = 0x0ffff00000000ull;
239   static const uptr kHeapMemEnd    = 0x0ffff00000000ull;
240   static const uptr kHiAppMemBeg   = 0x0ffff00000000ull;
241   static const uptr kHiAppMemEnd   = 0x1000000000000ull;
242   static const uptr kAppMemMsk     = 0x0fff800000000ull;
243   static const uptr kAppMemXor     = 0x0000800000000ull;
244   static const uptr kVdsoBeg       = 0xffff000000000ull;
245 };
246
247 // Indicates the runtime will define the memory regions at runtime.
248 #define TSAN_RUNTIME_VMA 1
249 // Indicates that mapping defines a mid range memory segment.
250 #define TSAN_MID_APP_RANGE 1
251 #elif defined(__powerpc64__)
252 // PPC64 supports multiple VMA which leads to multiple address transformation
253 // functions.  To support these multiple VMAS transformations and mappings TSAN
254 // runtime for PPC64 uses an external memory read (vmaSize) to select which
255 // mapping to use.  Although slower, it make a same instrumented binary run on
256 // multiple kernels.
257
258 /*
259 C/C++ on linux/powerpc64 (44-bit VMA)
260 0000 0000 0100 - 0001 0000 0000: main binary
261 0001 0000 0000 - 0001 0000 0000: -
262 0001 0000 0000 - 0b00 0000 0000: shadow
263 0b00 0000 0000 - 0b00 0000 0000: -
264 0b00 0000 0000 - 0d00 0000 0000: metainfo (memory blocks and sync objects)
265 0d00 0000 0000 - 0d00 0000 0000: -
266 0d00 0000 0000 - 0f00 0000 0000: traces
267 0f00 0000 0000 - 0f00 0000 0000: -
268 0f00 0000 0000 - 0f50 0000 0000: heap
269 0f50 0000 0000 - 0f60 0000 0000: -
270 0f60 0000 0000 - 1000 0000 0000: modules and main thread stack
271 */
272 struct Mapping44 {
273   static const uptr kMetaShadowBeg = 0x0b0000000000ull;
274   static const uptr kMetaShadowEnd = 0x0d0000000000ull;
275   static const uptr kTraceMemBeg   = 0x0d0000000000ull;
276   static const uptr kTraceMemEnd   = 0x0f0000000000ull;
277   static const uptr kShadowBeg     = 0x000100000000ull;
278   static const uptr kShadowEnd     = 0x0b0000000000ull;
279   static const uptr kLoAppMemBeg   = 0x000000000100ull;
280   static const uptr kLoAppMemEnd   = 0x000100000000ull;
281   static const uptr kHeapMemBeg    = 0x0f0000000000ull;
282   static const uptr kHeapMemEnd    = 0x0f5000000000ull;
283   static const uptr kHiAppMemBeg   = 0x0f6000000000ull;
284   static const uptr kHiAppMemEnd   = 0x100000000000ull; // 44 bits
285   static const uptr kAppMemMsk     = 0x0f0000000000ull;
286   static const uptr kAppMemXor     = 0x002100000000ull;
287   static const uptr kVdsoBeg       = 0x3c0000000000000ull;
288 };
289
290 /*
291 C/C++ on linux/powerpc64 (46-bit VMA)
292 0000 0000 1000 - 0100 0000 0000: main binary
293 0100 0000 0000 - 0200 0000 0000: -
294 0100 0000 0000 - 1000 0000 0000: shadow
295 1000 0000 0000 - 1000 0000 0000: -
296 1000 0000 0000 - 2000 0000 0000: metainfo (memory blocks and sync objects)
297 2000 0000 0000 - 2000 0000 0000: -
298 2000 0000 0000 - 2200 0000 0000: traces
299 2200 0000 0000 - 3d00 0000 0000: -
300 3d00 0000 0000 - 3e00 0000 0000: heap
301 3e00 0000 0000 - 3e80 0000 0000: -
302 3e80 0000 0000 - 4000 0000 0000: modules and main thread stack
303 */
304 struct Mapping46 {
305   static const uptr kMetaShadowBeg = 0x100000000000ull;
306   static const uptr kMetaShadowEnd = 0x200000000000ull;
307   static const uptr kTraceMemBeg   = 0x200000000000ull;
308   static const uptr kTraceMemEnd   = 0x220000000000ull;
309   static const uptr kShadowBeg     = 0x010000000000ull;
310   static const uptr kShadowEnd     = 0x100000000000ull;
311   static const uptr kHeapMemBeg    = 0x3d0000000000ull;
312   static const uptr kHeapMemEnd    = 0x3e0000000000ull;
313   static const uptr kLoAppMemBeg   = 0x000000001000ull;
314   static const uptr kLoAppMemEnd   = 0x010000000000ull;
315   static const uptr kHiAppMemBeg   = 0x3e8000000000ull;
316   static const uptr kHiAppMemEnd   = 0x400000000000ull; // 46 bits
317   static const uptr kAppMemMsk     = 0x3c0000000000ull;
318   static const uptr kAppMemXor     = 0x020000000000ull;
319   static const uptr kVdsoBeg       = 0x7800000000000000ull;
320 };
321
322 /*
323 C/C++ on linux/powerpc64 (47-bit VMA)
324 0000 0000 1000 - 0100 0000 0000: main binary
325 0100 0000 0000 - 0200 0000 0000: -
326 0100 0000 0000 - 1000 0000 0000: shadow
327 1000 0000 0000 - 1000 0000 0000: -
328 1000 0000 0000 - 2000 0000 0000: metainfo (memory blocks and sync objects)
329 2000 0000 0000 - 2000 0000 0000: -
330 2000 0000 0000 - 2200 0000 0000: traces
331 2200 0000 0000 - 7d00 0000 0000: -
332 7d00 0000 0000 - 7e00 0000 0000: heap
333 7e00 0000 0000 - 7e80 0000 0000: -
334 7e80 0000 0000 - 8000 0000 0000: modules and main thread stack
335 */
336 struct Mapping47 {
337   static const uptr kMetaShadowBeg = 0x100000000000ull;
338   static const uptr kMetaShadowEnd = 0x200000000000ull;
339   static const uptr kTraceMemBeg   = 0x200000000000ull;
340   static const uptr kTraceMemEnd   = 0x220000000000ull;
341   static const uptr kShadowBeg     = 0x010000000000ull;
342   static const uptr kShadowEnd     = 0x100000000000ull;
343   static const uptr kHeapMemBeg    = 0x7d0000000000ull;
344   static const uptr kHeapMemEnd    = 0x7e0000000000ull;
345   static const uptr kLoAppMemBeg   = 0x000000001000ull;
346   static const uptr kLoAppMemEnd   = 0x010000000000ull;
347   static const uptr kHiAppMemBeg   = 0x7e8000000000ull;
348   static const uptr kHiAppMemEnd   = 0x800000000000ull; // 47 bits
349   static const uptr kAppMemMsk     = 0x7c0000000000ull;
350   static const uptr kAppMemXor     = 0x020000000000ull;
351   static const uptr kVdsoBeg       = 0x7800000000000000ull;
352 };
353
354 // Indicates the runtime will define the memory regions at runtime.
355 #define TSAN_RUNTIME_VMA 1
356 #endif
357
358 #elif SANITIZER_GO && !SANITIZER_WINDOWS
359
360 /* Go on linux, darwin and freebsd
361 0000 0000 1000 - 0000 1000 0000: executable
362 0000 1000 0000 - 00c0 0000 0000: -
363 00c0 0000 0000 - 00e0 0000 0000: heap
364 00e0 0000 0000 - 2000 0000 0000: -
365 2000 0000 0000 - 2380 0000 0000: shadow
366 2380 0000 0000 - 3000 0000 0000: -
367 3000 0000 0000 - 4000 0000 0000: metainfo (memory blocks and sync objects)
368 4000 0000 0000 - 6000 0000 0000: -
369 6000 0000 0000 - 6200 0000 0000: traces
370 6200 0000 0000 - 8000 0000 0000: -
371 */
372
373 struct Mapping {
374   static const uptr kMetaShadowBeg = 0x300000000000ull;
375   static const uptr kMetaShadowEnd = 0x400000000000ull;
376   static const uptr kTraceMemBeg   = 0x600000000000ull;
377   static const uptr kTraceMemEnd   = 0x620000000000ull;
378   static const uptr kShadowBeg     = 0x200000000000ull;
379   static const uptr kShadowEnd     = 0x238000000000ull;
380   static const uptr kAppMemBeg     = 0x000000001000ull;
381   static const uptr kAppMemEnd     = 0x00e000000000ull;
382 };
383
384 #elif SANITIZER_GO && SANITIZER_WINDOWS
385
386 /* Go on windows
387 0000 0000 1000 - 0000 1000 0000: executable
388 0000 1000 0000 - 00f8 0000 0000: -
389 00c0 0000 0000 - 00e0 0000 0000: heap
390 00e0 0000 0000 - 0100 0000 0000: -
391 0100 0000 0000 - 0500 0000 0000: shadow
392 0500 0000 0000 - 0560 0000 0000: -
393 0560 0000 0000 - 0760 0000 0000: traces
394 0760 0000 0000 - 07d0 0000 0000: metainfo (memory blocks and sync objects)
395 07d0 0000 0000 - 8000 0000 0000: -
396 */
397
398 struct Mapping {
399   static const uptr kMetaShadowBeg = 0x076000000000ull;
400   static const uptr kMetaShadowEnd = 0x07d000000000ull;
401   static const uptr kTraceMemBeg   = 0x056000000000ull;
402   static const uptr kTraceMemEnd   = 0x076000000000ull;
403   static const uptr kShadowBeg     = 0x010000000000ull;
404   static const uptr kShadowEnd     = 0x050000000000ull;
405   static const uptr kAppMemBeg     = 0x000000001000ull;
406   static const uptr kAppMemEnd     = 0x00e000000000ull;
407 };
408
409 #else
410 # error "Unknown platform"
411 #endif
412
413
414 #ifdef TSAN_RUNTIME_VMA
415 extern uptr vmaSize;
416 #endif
417
418
419 enum MappingType {
420   MAPPING_LO_APP_BEG,
421   MAPPING_LO_APP_END,
422   MAPPING_HI_APP_BEG,
423   MAPPING_HI_APP_END,
424 #ifdef TSAN_MID_APP_RANGE
425   MAPPING_MID_APP_BEG,
426   MAPPING_MID_APP_END,
427 #endif
428   MAPPING_HEAP_BEG,
429   MAPPING_HEAP_END,
430   MAPPING_APP_BEG,
431   MAPPING_APP_END,
432   MAPPING_SHADOW_BEG,
433   MAPPING_SHADOW_END,
434   MAPPING_META_SHADOW_BEG,
435   MAPPING_META_SHADOW_END,
436   MAPPING_TRACE_BEG,
437   MAPPING_TRACE_END,
438   MAPPING_VDSO_BEG,
439 };
440
441 template<typename Mapping, int Type>
442 uptr MappingImpl(void) {
443   switch (Type) {
444 #if !SANITIZER_GO
445     case MAPPING_LO_APP_BEG: return Mapping::kLoAppMemBeg;
446     case MAPPING_LO_APP_END: return Mapping::kLoAppMemEnd;
447 # ifdef TSAN_MID_APP_RANGE
448     case MAPPING_MID_APP_BEG: return Mapping::kMidAppMemBeg;
449     case MAPPING_MID_APP_END: return Mapping::kMidAppMemEnd;
450 # endif
451     case MAPPING_HI_APP_BEG: return Mapping::kHiAppMemBeg;
452     case MAPPING_HI_APP_END: return Mapping::kHiAppMemEnd;
453     case MAPPING_HEAP_BEG: return Mapping::kHeapMemBeg;
454     case MAPPING_HEAP_END: return Mapping::kHeapMemEnd;
455     case MAPPING_VDSO_BEG: return Mapping::kVdsoBeg;
456 #else
457     case MAPPING_APP_BEG: return Mapping::kAppMemBeg;
458     case MAPPING_APP_END: return Mapping::kAppMemEnd;
459 #endif
460     case MAPPING_SHADOW_BEG: return Mapping::kShadowBeg;
461     case MAPPING_SHADOW_END: return Mapping::kShadowEnd;
462     case MAPPING_META_SHADOW_BEG: return Mapping::kMetaShadowBeg;
463     case MAPPING_META_SHADOW_END: return Mapping::kMetaShadowEnd;
464     case MAPPING_TRACE_BEG: return Mapping::kTraceMemBeg;
465     case MAPPING_TRACE_END: return Mapping::kTraceMemEnd;
466   }
467 }
468
469 template<int Type>
470 uptr MappingArchImpl(void) {
471 #if defined(__aarch64__) && !defined(__APPLE__)
472   switch (vmaSize) {
473     case 39: return MappingImpl<Mapping39, Type>();
474     case 42: return MappingImpl<Mapping42, Type>();
475     case 48: return MappingImpl<Mapping48, Type>();
476   }
477   DCHECK(0);
478   return 0;
479 #elif defined(__powerpc64__)
480   switch (vmaSize) {
481     case 44: return MappingImpl<Mapping44, Type>();
482     case 46: return MappingImpl<Mapping46, Type>();
483     case 47: return MappingImpl<Mapping47, Type>();
484   }
485   DCHECK(0);
486   return 0;
487 #else
488   return MappingImpl<Mapping, Type>();
489 #endif
490 }
491
492 #if !SANITIZER_GO
493 ALWAYS_INLINE
494 uptr LoAppMemBeg(void) {
495   return MappingArchImpl<MAPPING_LO_APP_BEG>();
496 }
497 ALWAYS_INLINE
498 uptr LoAppMemEnd(void) {
499   return MappingArchImpl<MAPPING_LO_APP_END>();
500 }
501
502 #ifdef TSAN_MID_APP_RANGE
503 ALWAYS_INLINE
504 uptr MidAppMemBeg(void) {
505   return MappingArchImpl<MAPPING_MID_APP_BEG>();
506 }
507 ALWAYS_INLINE
508 uptr MidAppMemEnd(void) {
509   return MappingArchImpl<MAPPING_MID_APP_END>();
510 }
511 #endif
512
513 ALWAYS_INLINE
514 uptr HeapMemBeg(void) {
515   return MappingArchImpl<MAPPING_HEAP_BEG>();
516 }
517 ALWAYS_INLINE
518 uptr HeapMemEnd(void) {
519   return MappingArchImpl<MAPPING_HEAP_END>();
520 }
521
522 ALWAYS_INLINE
523 uptr HiAppMemBeg(void) {
524   return MappingArchImpl<MAPPING_HI_APP_BEG>();
525 }
526 ALWAYS_INLINE
527 uptr HiAppMemEnd(void) {
528   return MappingArchImpl<MAPPING_HI_APP_END>();
529 }
530
531 ALWAYS_INLINE
532 uptr VdsoBeg(void) {
533   return MappingArchImpl<MAPPING_VDSO_BEG>();
534 }
535
536 #else
537
538 ALWAYS_INLINE
539 uptr AppMemBeg(void) {
540   return MappingArchImpl<MAPPING_APP_BEG>();
541 }
542 ALWAYS_INLINE
543 uptr AppMemEnd(void) {
544   return MappingArchImpl<MAPPING_APP_END>();
545 }
546
547 #endif
548
549 static inline
550 bool GetUserRegion(int i, uptr *start, uptr *end) {
551   switch (i) {
552   default:
553     return false;
554 #if !SANITIZER_GO
555   case 0:
556     *start = LoAppMemBeg();
557     *end = LoAppMemEnd();
558     return true;
559   case 1:
560     *start = HiAppMemBeg();
561     *end = HiAppMemEnd();
562     return true;
563   case 2:
564     *start = HeapMemBeg();
565     *end = HeapMemEnd();
566     return true;
567 # ifdef TSAN_MID_APP_RANGE
568   case 3:
569     *start = MidAppMemBeg();
570     *end = MidAppMemEnd();
571     return true;
572 # endif
573 #else
574   case 0:
575     *start = AppMemBeg();
576     *end = AppMemEnd();
577     return true;
578 #endif
579   }
580 }
581
582 ALWAYS_INLINE
583 uptr ShadowBeg(void) {
584   return MappingArchImpl<MAPPING_SHADOW_BEG>();
585 }
586 ALWAYS_INLINE
587 uptr ShadowEnd(void) {
588   return MappingArchImpl<MAPPING_SHADOW_END>();
589 }
590
591 ALWAYS_INLINE
592 uptr MetaShadowBeg(void) {
593   return MappingArchImpl<MAPPING_META_SHADOW_BEG>();
594 }
595 ALWAYS_INLINE
596 uptr MetaShadowEnd(void) {
597   return MappingArchImpl<MAPPING_META_SHADOW_END>();
598 }
599
600 ALWAYS_INLINE
601 uptr TraceMemBeg(void) {
602   return MappingArchImpl<MAPPING_TRACE_BEG>();
603 }
604 ALWAYS_INLINE
605 uptr TraceMemEnd(void) {
606   return MappingArchImpl<MAPPING_TRACE_END>();
607 }
608
609
610 template<typename Mapping>
611 bool IsAppMemImpl(uptr mem) {
612 #if !SANITIZER_GO
613   return (mem >= Mapping::kHeapMemBeg && mem < Mapping::kHeapMemEnd) ||
614 # ifdef TSAN_MID_APP_RANGE
615          (mem >= Mapping::kMidAppMemBeg && mem < Mapping::kMidAppMemEnd) ||
616 # endif
617          (mem >= Mapping::kLoAppMemBeg && mem < Mapping::kLoAppMemEnd) ||
618          (mem >= Mapping::kHiAppMemBeg && mem < Mapping::kHiAppMemEnd);
619 #else
620   return mem >= Mapping::kAppMemBeg && mem < Mapping::kAppMemEnd;
621 #endif
622 }
623
624 ALWAYS_INLINE
625 bool IsAppMem(uptr mem) {
626 #if defined(__aarch64__) && !defined(__APPLE__)
627   switch (vmaSize) {
628     case 39: return IsAppMemImpl<Mapping39>(mem);
629     case 42: return IsAppMemImpl<Mapping42>(mem);
630     case 48: return IsAppMemImpl<Mapping48>(mem);
631   }
632   DCHECK(0);
633   return false;
634 #elif defined(__powerpc64__)
635   switch (vmaSize) {
636     case 44: return IsAppMemImpl<Mapping44>(mem);
637     case 46: return IsAppMemImpl<Mapping46>(mem);
638     case 47: return IsAppMemImpl<Mapping47>(mem);
639   }
640   DCHECK(0);
641   return false;
642 #else
643   return IsAppMemImpl<Mapping>(mem);
644 #endif
645 }
646
647
648 template<typename Mapping>
649 bool IsShadowMemImpl(uptr mem) {
650   return mem >= Mapping::kShadowBeg && mem <= Mapping::kShadowEnd;
651 }
652
653 ALWAYS_INLINE
654 bool IsShadowMem(uptr mem) {
655 #if defined(__aarch64__) && !defined(__APPLE__)
656   switch (vmaSize) {
657     case 39: return IsShadowMemImpl<Mapping39>(mem);
658     case 42: return IsShadowMemImpl<Mapping42>(mem);
659     case 48: return IsShadowMemImpl<Mapping48>(mem);
660   }
661   DCHECK(0);
662   return false;
663 #elif defined(__powerpc64__)
664   switch (vmaSize) {
665     case 44: return IsShadowMemImpl<Mapping44>(mem);
666     case 46: return IsShadowMemImpl<Mapping46>(mem);
667     case 47: return IsShadowMemImpl<Mapping47>(mem);
668   }
669   DCHECK(0);
670   return false;
671 #else
672   return IsShadowMemImpl<Mapping>(mem);
673 #endif
674 }
675
676
677 template<typename Mapping>
678 bool IsMetaMemImpl(uptr mem) {
679   return mem >= Mapping::kMetaShadowBeg && mem <= Mapping::kMetaShadowEnd;
680 }
681
682 ALWAYS_INLINE
683 bool IsMetaMem(uptr mem) {
684 #if defined(__aarch64__) && !defined(__APPLE__)
685   switch (vmaSize) {
686     case 39: return IsMetaMemImpl<Mapping39>(mem);
687     case 42: return IsMetaMemImpl<Mapping42>(mem);
688     case 48: return IsMetaMemImpl<Mapping48>(mem);
689   }
690   DCHECK(0);
691   return false;
692 #elif defined(__powerpc64__)
693   switch (vmaSize) {
694     case 44: return IsMetaMemImpl<Mapping44>(mem);
695     case 46: return IsMetaMemImpl<Mapping46>(mem);
696     case 47: return IsMetaMemImpl<Mapping47>(mem);
697   }
698   DCHECK(0);
699   return false;
700 #else
701   return IsMetaMemImpl<Mapping>(mem);
702 #endif
703 }
704
705
706 template<typename Mapping>
707 uptr MemToShadowImpl(uptr x) {
708   DCHECK(IsAppMem(x));
709 #if !SANITIZER_GO
710   return (((x) & ~(Mapping::kAppMemMsk | (kShadowCell - 1)))
711       ^ Mapping::kAppMemXor) * kShadowCnt;
712 #else
713 # ifndef SANITIZER_WINDOWS
714   return ((x & ~(kShadowCell - 1)) * kShadowCnt) | Mapping::kShadowBeg;
715 # else
716   return ((x & ~(kShadowCell - 1)) * kShadowCnt) + Mapping::kShadowBeg;
717 # endif
718 #endif
719 }
720
721 ALWAYS_INLINE
722 uptr MemToShadow(uptr x) {
723 #if defined(__aarch64__) && !defined(__APPLE__)
724   switch (vmaSize) {
725     case 39: return MemToShadowImpl<Mapping39>(x);
726     case 42: return MemToShadowImpl<Mapping42>(x);
727     case 48: return MemToShadowImpl<Mapping48>(x);
728   }
729   DCHECK(0);
730   return 0;
731 #elif defined(__powerpc64__)
732   switch (vmaSize) {
733     case 44: return MemToShadowImpl<Mapping44>(x);
734     case 46: return MemToShadowImpl<Mapping46>(x);
735     case 47: return MemToShadowImpl<Mapping47>(x);
736   }
737   DCHECK(0);
738   return 0;
739 #else
740   return MemToShadowImpl<Mapping>(x);
741 #endif
742 }
743
744
745 template<typename Mapping>
746 u32 *MemToMetaImpl(uptr x) {
747   DCHECK(IsAppMem(x));
748 #if !SANITIZER_GO
749   return (u32*)(((((x) & ~(Mapping::kAppMemMsk | (kMetaShadowCell - 1)))) /
750       kMetaShadowCell * kMetaShadowSize) | Mapping::kMetaShadowBeg);
751 #else
752 # ifndef SANITIZER_WINDOWS
753   return (u32*)(((x & ~(kMetaShadowCell - 1)) / \
754       kMetaShadowCell * kMetaShadowSize) | Mapping::kMetaShadowBeg);
755 # else
756   return (u32*)(((x & ~(kMetaShadowCell - 1)) / \
757       kMetaShadowCell * kMetaShadowSize) + Mapping::kMetaShadowBeg);
758 # endif
759 #endif
760 }
761
762 ALWAYS_INLINE
763 u32 *MemToMeta(uptr x) {
764 #if defined(__aarch64__) && !defined(__APPLE__)
765   switch (vmaSize) {
766     case 39: return MemToMetaImpl<Mapping39>(x);
767     case 42: return MemToMetaImpl<Mapping42>(x);
768     case 48: return MemToMetaImpl<Mapping48>(x);
769   }
770   DCHECK(0);
771   return 0;
772 #elif defined(__powerpc64__)
773   switch (vmaSize) {
774     case 44: return MemToMetaImpl<Mapping44>(x);
775     case 46: return MemToMetaImpl<Mapping46>(x);
776     case 47: return MemToMetaImpl<Mapping47>(x);
777   }
778   DCHECK(0);
779   return 0;
780 #else
781   return MemToMetaImpl<Mapping>(x);
782 #endif
783 }
784
785
786 template<typename Mapping>
787 uptr ShadowToMemImpl(uptr s) {
788   DCHECK(IsShadowMem(s));
789 #if !SANITIZER_GO
790   // The shadow mapping is non-linear and we've lost some bits, so we don't have
791   // an easy way to restore the original app address. But the mapping is a
792   // bijection, so we try to restore the address as belonging to low/mid/high
793   // range consecutively and see if shadow->app->shadow mapping gives us the
794   // same address.
795   uptr p = (s / kShadowCnt) ^ Mapping::kAppMemXor;
796   if (p >= Mapping::kLoAppMemBeg && p < Mapping::kLoAppMemEnd &&
797       MemToShadow(p) == s)
798     return p;
799 # ifdef TSAN_MID_APP_RANGE
800   p = ((s / kShadowCnt) ^ Mapping::kAppMemXor) +
801       (Mapping::kMidAppMemBeg & Mapping::kAppMemMsk);
802   if (p >= Mapping::kMidAppMemBeg && p < Mapping::kMidAppMemEnd &&
803       MemToShadow(p) == s)
804     return p;
805 # endif
806   return ((s / kShadowCnt) ^ Mapping::kAppMemXor) | Mapping::kAppMemMsk;
807 #else  // #if !SANITIZER_GO
808 # ifndef SANITIZER_WINDOWS
809   return (s & ~Mapping::kShadowBeg) / kShadowCnt;
810 # else
811   return (s - Mapping::kShadowBeg) / kShadowCnt;
812 # endif // SANITIZER_WINDOWS
813 #endif
814 }
815
816 ALWAYS_INLINE
817 uptr ShadowToMem(uptr s) {
818 #if defined(__aarch64__) && !defined(__APPLE__)
819   switch (vmaSize) {
820     case 39: return ShadowToMemImpl<Mapping39>(s);
821     case 42: return ShadowToMemImpl<Mapping42>(s);
822     case 48: return ShadowToMemImpl<Mapping48>(s);
823   }
824   DCHECK(0);
825   return 0;
826 #elif defined(__powerpc64__)
827   switch (vmaSize) {
828     case 44: return ShadowToMemImpl<Mapping44>(s);
829     case 46: return ShadowToMemImpl<Mapping46>(s);
830     case 47: return ShadowToMemImpl<Mapping47>(s);
831   }
832   DCHECK(0);
833   return 0;
834 #else
835   return ShadowToMemImpl<Mapping>(s);
836 #endif
837 }
838
839
840
841 // The additional page is to catch shadow stack overflow as paging fault.
842 // Windows wants 64K alignment for mmaps.
843 const uptr kTotalTraceSize = (kTraceSize * sizeof(Event) + sizeof(Trace)
844     + (64 << 10) + (64 << 10) - 1) & ~((64 << 10) - 1);
845
846 template<typename Mapping>
847 uptr GetThreadTraceImpl(int tid) {
848   uptr p = Mapping::kTraceMemBeg + (uptr)tid * kTotalTraceSize;
849   DCHECK_LT(p, Mapping::kTraceMemEnd);
850   return p;
851 }
852
853 ALWAYS_INLINE
854 uptr GetThreadTrace(int tid) {
855 #if defined(__aarch64__) && !defined(__APPLE__)
856   switch (vmaSize) {
857     case 39: return GetThreadTraceImpl<Mapping39>(tid);
858     case 42: return GetThreadTraceImpl<Mapping42>(tid);
859     case 48: return GetThreadTraceImpl<Mapping48>(tid);
860   }
861   DCHECK(0);
862   return 0;
863 #elif defined(__powerpc64__)
864   switch (vmaSize) {
865     case 44: return GetThreadTraceImpl<Mapping44>(tid);
866     case 46: return GetThreadTraceImpl<Mapping46>(tid);
867     case 47: return GetThreadTraceImpl<Mapping47>(tid);
868   }
869   DCHECK(0);
870   return 0;
871 #else
872   return GetThreadTraceImpl<Mapping>(tid);
873 #endif
874 }
875
876
877 template<typename Mapping>
878 uptr GetThreadTraceHeaderImpl(int tid) {
879   uptr p = Mapping::kTraceMemBeg + (uptr)tid * kTotalTraceSize
880       + kTraceSize * sizeof(Event);
881   DCHECK_LT(p, Mapping::kTraceMemEnd);
882   return p;
883 }
884
885 ALWAYS_INLINE
886 uptr GetThreadTraceHeader(int tid) {
887 #if defined(__aarch64__) && !defined(__APPLE__)
888   switch (vmaSize) {
889     case 39: return GetThreadTraceHeaderImpl<Mapping39>(tid);
890     case 42: return GetThreadTraceHeaderImpl<Mapping42>(tid);
891     case 48: return GetThreadTraceHeaderImpl<Mapping48>(tid);
892   }
893   DCHECK(0);
894   return 0;
895 #elif defined(__powerpc64__)
896   switch (vmaSize) {
897     case 44: return GetThreadTraceHeaderImpl<Mapping44>(tid);
898     case 46: return GetThreadTraceHeaderImpl<Mapping46>(tid);
899     case 47: return GetThreadTraceHeaderImpl<Mapping47>(tid);
900   }
901   DCHECK(0);
902   return 0;
903 #else
904   return GetThreadTraceHeaderImpl<Mapping>(tid);
905 #endif
906 }
907
908 void InitializePlatform();
909 void InitializePlatformEarly();
910 void CheckAndProtect();
911 void InitializeShadowMemoryPlatform();
912 void FlushShadowMemory();
913 void WriteMemoryProfile(char *buf, uptr buf_size, uptr nthread, uptr nlive);
914 int ExtractResolvFDs(void *state, int *fds, int nfd);
915 int ExtractRecvmsgFDs(void *msg, int *fds, int nfd);
916 void ImitateTlsWrite(ThreadState *thr, uptr tls_addr, uptr tls_size);
917
918 int call_pthread_cancel_with_cleanup(int(*fn)(void *c, void *m,
919     void *abstime), void *c, void *m, void *abstime,
920     void(*cleanup)(void *arg), void *arg);
921
922 void DestroyThreadState();
923
924 }  // namespace __tsan
925
926 #endif  // TSAN_PLATFORM_H