1 // RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64
2 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
3 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-64
4 // RUN: %clang_cc1 -DCHECK -verify -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
5 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s
6 // RUN: %clang_cc1 -DCHECK -fopenmp -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix CHECK --check-prefix CHECK-32
8 // RUN: %clang_cc1 -DLAMBDA -verify -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64
9 // RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
10 // RUN: %clang_cc1 -DLAMBDA -fopenmp -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix LAMBDA --check-prefix LAMBDA-64
12 // RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix SIMD-ONLY
13 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
14 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix SIMD-ONLY
15 // RUN: %clang_cc1 -DCHECK -verify -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix SIMD-ONLY
16 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -std=c++11 -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -emit-pch -o %t %s
17 // RUN: %clang_cc1 -DCHECK -fopenmp-simd -x c++ -triple i386-unknown-unknown -fopenmp-targets=i386-pc-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix SIMD-ONLY
19 // RUN: %clang_cc1 -DLAMBDA -verify -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-llvm %s -o - | FileCheck %s --check-prefix SIMD-ONLY
20 // RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -emit-pch -o %t %s
21 // RUN: %clang_cc1 -DLAMBDA -fopenmp-simd -x c++ -std=c++11 -triple powerpc64le-unknown-unknown -fopenmp-targets=powerpc64le-ibm-linux-gnu -std=c++11 -include-pch %t -verify %s -emit-llvm -o - | FileCheck %s --check-prefix SIMD-ONLY
22 // SIMD-ONLY-NOT: {{__kmpc|__tgt}}
24 // expected-no-diagnostics
32 #pragma omp target teams distribute parallel for simd reduction(+: t_var)
33 for (int i = 0; i < 2; ++i) {
42 // LAMBDA: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer
44 // LAMBDA-LABEL: @main
45 // LAMBDA: call void [[OUTER_LAMBDA:@.+]](
47 // LAMBDA: define{{.*}} internal{{.*}} void [[OUTER_LAMBDA]](
48 // LAMBDA: call i32 @__tgt_target_teams(i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i32 0, i32 0)
49 // LAMBDA: call void @[[LOFFL1:.+]](
51 #pragma omp target teams distribute parallel for simd reduction(+: sivar)
52 for (int i = 0; i < 2; ++i) {
53 // LAMBDA: define{{.*}} internal{{.*}} void @[[LOFFL1]](i{{64|32}}*{{.*}} [[SIVAR_ARG:%.+]])
54 // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
55 // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
56 // LAMBDA: [[SIVAR_PAR:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]],
57 // LAMBDA: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[LOUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_PAR]])
60 // LAMBDA: define internal void @[[LOUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
61 // Skip global and bound tid vars
62 // LAMBDA: {{.+}} = alloca i32*,
63 // LAMBDA: {{.+}} = alloca i32*,
64 // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
65 // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
66 // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
67 // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
68 // LAMBDA: [[SIVAR_REF:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
69 // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
71 // LAMBDA: call void @__kmpc_for_static_init_4(
72 // LAMBDA: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[LPAR_OUTL:.+]] to
73 // LAMBDA: call void @__kmpc_for_static_fini(
74 // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
75 // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
76 // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
77 // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
78 // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
79 // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [
80 // LAMBDA: {{.+}}, label %[[CASE1:.+]]
81 // LAMBDA: {{.+}}, label %[[CASE2:.+]]
84 // LAMBDA-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
85 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
86 // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
87 // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
88 // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
91 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
92 // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
95 // LAMBDA: define internal void @[[LPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
97 // Skip global and bound tid vars, and prev lb and ub vars
98 // LAMBDA: {{.+}} = alloca i32*,
99 // LAMBDA: {{.+}} = alloca i32*,
100 // LAMBDA: alloca i{{[0-9]+}},
101 // LAMBDA: alloca i{{[0-9]+}},
102 // LAMBDA: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
104 // LAMBDA: alloca i32,
105 // LAMBDA: alloca i32,
106 // LAMBDA: alloca i32,
107 // LAMBDA: alloca i32,
108 // LAMBDA: alloca i32,
109 // LAMBDA: alloca i32,
110 // LAMBDA: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
111 // LAMBDA: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
112 // LAMBDA: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
113 // LAMBDA: [[SIVAR_REF:%.+]] = load {{.+}} [[SIVAR_ADDR]]
114 // LAMBDA: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
116 // LAMBDA: call void @__kmpc_for_static_init_4(
117 // LAMBDA: store{{.+}}, {{.+}} [[SIVAR_PRIV]],
118 // LAMBDA: call void [[INNER_LAMBDA:@.+]](
119 // LAMBDA: call void @__kmpc_for_static_fini(
120 // LAMBDA: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
121 // LAMBDA: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
122 // LAMBDA: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
123 // LAMBDA: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
124 // LAMBDA: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
125 // LAMBDA: switch{{.+}} [[K_RED_RET]], label{{.+}} [
126 // LAMBDA: {{.+}}, label %[[CASE1:.+]]
127 // LAMBDA: {{.+}}, label %[[CASE2:.+]]
129 // LAMBDA: [[CASE1]]:
130 // LAMBDA-64-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
131 // LAMBDA-32-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]],
132 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
133 // LAMBDA-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
134 // LAMBDA: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
135 // LAMBDA: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
137 // LAMBDA: [[CASE2]]:
138 // LAMBDA-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
139 // LAMBDA-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
145 // LAMBDA: define {{.+}} void [[INNER_LAMBDA]](%{{.+}}* [[ARG_PTR:%.+]])
146 // LAMBDA: store %{{.+}}* [[ARG_PTR]], %{{.+}}** [[ARG_PTR_REF:%.+]],
149 // LAMBDA: [[ARG_PTR:%.+]] = load %{{.+}}*, %{{.+}}** [[ARG_PTR_REF]]
151 // LAMBDA: [[SIVAR_PTR_REF:%.+]] = getelementptr inbounds %{{.+}}, %{{.+}}* [[ARG_PTR]], i{{[0-9]+}} 0, i{{[0-9]+}} 0
152 // LAMBDA: [[SIVAR_REF:%.+]] = load i{{[0-9]+}}*, i{{[0-9]+}}** [[SIVAR_PTR_REF]]
153 // LAMBDA: [[SIVAR_VAL:%.+]] = load i{{[0-9]+}}, i{{[0-9]+}}* [[SIVAR_REF]]
154 // LAMBDA: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], 4
155 // LAMBDA: store i{{[0-9]+}} [[SIVAR_INC]], i{{[0-9]+}}* [[SIVAR_REF]]
161 #pragma omp target teams distribute parallel for simd reduction(+: sivar)
162 for (int i = 0; i < 2; ++i) {
169 // CHECK: [[RED_VAR:@.+]] = common global [8 x {{.+}}] zeroinitializer
171 // CHECK: define {{.*}}i{{[0-9]+}} @main()
172 // CHECK: call i32 @__tgt_target_teams(i64 -1, i8* @{{[^,]+}}, i32 1, i8** %{{[^,]+}}, i8** %{{[^,]+}}, i{{64|32}}* {{.+}}@{{[^,]+}}, i32 0, i32 0), i64* {{.+}}@{{[^,]+}}, i32 0, i32 0), i32 0, i32 0)
173 // CHECK: call void @[[OFFL1:.+]](i{{64|32}}* @{{.+}})
174 // CHECK: {{%.+}} = call{{.*}} i32 @[[TMAIN_INT:.+]]()
177 // CHECK: define{{.*}} void @[[OFFL1]](i{{64|32}}*{{.*}} [[SIVAR_ARG:%.+]])
178 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
179 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
180 // CHECK: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_ADDR]]
181 // CHECK: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[OUTL1:.+]] to {{.+}}, {{.+}} [[SIVAR_VAL]])
184 // CHECK: define internal void @[[OUTL1]]({{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
185 // Skip global and bound tid vars
186 // CHECK: {{.+}} = alloca i32*,
187 // CHECK: {{.+}} = alloca i32*,
188 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
189 // CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
190 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
191 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
192 // CHECK: [[SIVAR_REF:%.+]] = load{{.+}} [[SIVAR_ADDR]],
193 // CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
195 // CHECK: call void @__kmpc_for_static_init_4(
196 // CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[PAR_OUTL:.+]] to
197 // CHECK: call void @__kmpc_for_static_fini(
198 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
199 // CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
200 // CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
201 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
202 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
203 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
204 // CHECK: {{.+}}, label %[[CASE1:.+]]
205 // CHECK: {{.+}}, label %[[CASE2:.+]]
208 // CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
209 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
210 // CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
211 // CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
212 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
215 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
216 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
219 // CHECK: define internal void @[[PAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[SIVAR_ARG:%.+]])
220 // Skip global and bound tid vars, and prev lb and ub
221 // CHECK: {{.+}} = alloca i32*,
222 // CHECK: {{.+}} = alloca i32*,
223 // CHECK: alloca i{{[0-9]+}},
224 // CHECK: alloca i{{[0-9]+}},
225 // CHECK: [[SIVAR_ADDR:%.+]] = alloca i{{.+}},
227 // CHECK: alloca i32,
228 // CHECK: alloca i32,
229 // CHECK: alloca i32,
230 // CHECK: alloca i32,
231 // CHECK: alloca i32,
232 // CHECK: alloca i32,
233 // CHECK: [[SIVAR_PRIV:%.+]] = alloca i{{.+}},
234 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
235 // CHECK: store{{.+}} [[SIVAR_ARG]], {{.+}} [[SIVAR_ADDR]],
236 // CHECK-64: [[SIVAR_REF:%.+]] = load {{.+}} [[SIVAR_ADDR]],
237 // CHECK: store{{.+}} 0, {{.+}} [[SIVAR_PRIV]],
239 // CHECK: call void @__kmpc_for_static_init_4(
240 // CHECK: store{{.+}}, {{.+}} [[SIVAR_PRIV]],
241 // CHECK: call void @__kmpc_for_static_fini(
242 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
243 // CHECK: [[SIVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[SIVAR_PRIV]] to
244 // CHECK: store{{.+}} [[SIVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
245 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
246 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
247 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
248 // CHECK: {{.+}}, label %[[CASE1:.+]]
249 // CHECK: {{.+}}, label %[[CASE2:.+]]
252 // CHECK-DAG: [[SIVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_REF]],
253 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
254 // CHECK-DAG: [[SIVAR_INC:%.+]] = add{{.+}} [[SIVAR_VAL]], [[SIVAR_PRIV_VAL]]
255 // CHECK: store{{.+}} [[SIVAR_INC]], {{.+}} [[SIVAR_REF]],
256 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
259 // CHECK-DAG: [[SIVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[SIVAR_PRIV]],
260 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[SIVAR_REF]], {{.+}} [[SIVAR_PRIV_VAL]]
263 // CHECK: define{{.*}} i{{[0-9]+}} @[[TMAIN_INT]]()
264 // CHECK: call i32 @__tgt_target_teams(i64 -1, i8* @{{[^,]+}}, i32 1,
265 // CHECK: call void @[[TOFFL1:.+]]({{.+}})
268 // CHECK: define{{.*}} void @[[TOFFL1]](i{{64|32}}*{{.*}} [[TVAR_ARG:%.+]])
269 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}},
270 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
271 // CHECK: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_ADDR]]
272 // CHECK: call void {{.+}} @__kmpc_fork_teams({{.+}}, i32 1, {{.+}} @[[TOUTL1:.+]] to {{.+}}, {{.+}} [[TVAR_VAL]])
275 // CHECK: define internal void @[[TOUTL1]]({{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]])
276 // Skip global and bound tid vars
277 // CHECK: {{.+}} = alloca i32*,
278 // CHECK: {{.+}} = alloca i32*,
279 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}},
280 // CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}},
281 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
282 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
283 // CHECK: [[TVAR_REF:%.+]] = load {{.+}} [[TVAR_ADDR]],
284 // CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]],
286 // CHECK: call void @__kmpc_for_static_init_4(
287 // CHECK: call void {{.*}} @__kmpc_fork_call({{.+}}, {{.+}}, {{.+}} @[[TPAR_OUTL:.+]] to
288 // CHECK: call void @__kmpc_for_static_fini(
289 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
290 // CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to
291 // CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
292 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
293 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
294 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
295 // CHECK: {{.+}}, label %[[CASE1:.+]]
296 // CHECK: {{.+}}, label %[[CASE2:.+]]
299 // CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]],
300 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
301 // CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]]
302 // CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]],
303 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
306 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
307 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]]
310 // CHECK: define internal void @[[TPAR_OUTL]]({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[TVAR_ARG:%.+]])
311 // Skip global and bound tid vars, and prev lb and ub vars
312 // CHECK: {{.+}} = alloca i32*,
313 // CHECK: {{.+}} = alloca i32*,
314 // CHECK: alloca i{{[0-9]+}},
315 // CHECK: alloca i{{[0-9]+}},
316 // CHECK: [[TVAR_ADDR:%.+]] = alloca i{{.+}},
318 // CHECK: alloca i32,
319 // CHECK: alloca i32,
320 // CHECK: alloca i32,
321 // CHECK: alloca i32,
322 // CHECK: alloca i32,
323 // CHECK: alloca i32,
324 // CHECK: [[TVAR_PRIV:%.+]] = alloca i{{.+}},
325 // CHECK: [[RED_LIST:%.+]] = alloca [1 x {{.+}}],
326 // CHECK: store{{.+}} [[TVAR_ARG]], {{.+}} [[TVAR_ADDR]],
327 // CHECK: [[TVAR_REF:%.+]] = load {{.+}} [[TVAR_ADDR]],
328 // CHECK: store{{.+}} 0, {{.+}} [[TVAR_PRIV]],
330 // CHECK: call void @__kmpc_for_static_init_4(
331 // CHECK: store{{.+}}, {{.+}} [[TVAR_PRIV]],
332 // CHECK: call void @__kmpc_for_static_fini(
333 // CHECK: [[RED_LIST_GEP:%.+]] = getelementptr{{.+}} [[RED_LIST]],
334 // CHECK: [[TVAR_PRIV_CAST:%.+]] = bitcast{{.+}} [[TVAR_PRIV]] to
335 // CHECK: store{{.+}} [[TVAR_PRIV_CAST]], {{.+}} [[RED_LIST_GEP]],
336 // CHECK: [[RED_LIST_BCAST:%.+]] = bitcast{{.+}} [[RED_LIST]] to
337 // CHECK: [[K_RED_RET:%.+]] = call{{.+}} @__kmpc_reduce_nowait({{.+}}, {{.+}}, {{.+}}, {{.+}}, {{.+}} [[RED_LIST_BCAST]], {{.+}} [[RED_FUN:@.+]], {{.+}} [[RED_VAR]])
338 // CHECK: switch{{.+}} [[K_RED_RET]], label{{.+}} [
339 // CHECK: {{.+}}, label %[[CASE1:.+]]
340 // CHECK: {{.+}}, label %[[CASE2:.+]]
343 // CHECK-DAG: [[TVAR_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_REF]],
344 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
345 // CHECK-DAG: [[TVAR_INC:%.+]] = add{{.+}} [[TVAR_VAL]], [[TVAR_PRIV_VAL]]
346 // CHECK: store{{.+}} [[TVAR_INC]], {{.+}} [[TVAR_REF]],
347 // CHECK: call void @__kmpc_end_reduce_nowait({{.+}}, {{.+}}, {{.+}} [[RED_VAR]])
350 // CHECK-DAG: [[TVAR_PRIV_VAL:%.+]] = load{{.+}}, {{.+}} [[TVAR_PRIV]],
351 // CHECK-DAG: [[ATOMIC_RES:%.+]] = atomicrmw add{{.+}} [[TVAR_REF]], {{.+}} [[TVAR_PRIV_VAL]]