]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - test/CodeGen/PowerPC/vsx-infl-copy1.ll
Vendor import of llvm trunk r351319 (just before the release_80 branch
[FreeBSD/FreeBSD.git] / test / CodeGen / PowerPC / vsx-infl-copy1.ll
1 ; RUN: llc -verify-machineinstrs -mcpu=pwr7 < %s | FileCheck %s
2 target datalayout = "E-m:e-i64:64-n32:64"
3 target triple = "powerpc64-unknown-linux-gnu"
4
5 @ub = external global [1024 x i32], align 4
6 @uc = external global [1024 x i32], align 4
7
8 ; Function Attrs: noinline nounwind
9 define <4 x i32> @_Z8example9Pj(<4 x i32>* %addr1, i64 %input1, i64 %input2) #0 {
10 entry:
11   br label %vector.body
12
13 ; CHECK-LABEL: @_Z8example9Pj
14 ; CHECK: vmr
15 ; CHECK: vmr
16 ; CHECK: vmr
17 ; CHECK: vmr
18 ; CHECK: vmr
19 ; CHECK: vmr
20 ; CHECK: vmr
21 ; CHECK: vmr
22 ; CHECK: vmr
23
24 vector.body:                                      ; preds = %vector.body, %entry
25   %index = phi i64 [ 0, %entry ], [ %index.next, %vector.body ]
26   %vec.phi = phi <4 x i32> [ zeroinitializer, %entry ], [ %43, %vector.body ]
27   %vec.phi20 = phi <4 x i32> [ zeroinitializer, %entry ], [ %44, %vector.body ]
28   %vec.phi21 = phi <4 x i32> [ zeroinitializer, %entry ], [ %45, %vector.body ]
29   %vec.phi23 = phi <4 x i32> [ zeroinitializer, %entry ], [ %46, %vector.body ]
30   %vec.phi24 = phi <4 x i32> [ zeroinitializer, %entry ], [ %47, %vector.body ]
31   %vec.phi25 = phi <4 x i32> [ zeroinitializer, %entry ], [ %48, %vector.body ]
32   %vec.phi26 = phi <4 x i32> [ zeroinitializer, %entry ], [ %49, %vector.body ]
33   %vec.phi27 = phi <4 x i32> [ zeroinitializer, %entry ], [ %50, %vector.body ]
34   %vec.phi28 = phi <4 x i32> [ zeroinitializer, %entry ], [ %51, %vector.body ]
35   %vec.phi29 = phi <4 x i32> [ zeroinitializer, %entry ], [ %52, %vector.body ]
36   %vec.phi30 = phi <4 x i32> [ zeroinitializer, %entry ], [ %53, %vector.body ]
37   %wide.load32 = load <4 x i32>, <4 x i32>* null, align 4
38   %.sum82 = add i64 %index, 24
39   %0 = getelementptr [1024 x i32], [1024 x i32]* @ub, i64 0, i64 %.sum82
40   %1 = bitcast i32* %0 to <4 x i32>*
41   %wide.load36 = load <4 x i32>, <4 x i32>* %1, align 4
42   %wide.load37 = load <4 x i32>, <4 x i32>* %addr1, align 4
43   %.sum84 = add i64 %index, 32
44   %2 = getelementptr [1024 x i32], [1024 x i32]* @ub, i64 0, i64 %.sum84
45   %3 = bitcast i32* %2 to <4 x i32>*
46   %wide.load38 = load <4 x i32>, <4 x i32>* %3, align 4
47   %.sum85 = add i64 %index, 36
48   %4 = getelementptr [1024 x i32], [1024 x i32]* @ub, i64 0, i64 %.sum85
49   %5 = bitcast i32* %4 to <4 x i32>*
50   %wide.load39 = load <4 x i32>, <4 x i32>* %5, align 4
51   %6 = getelementptr [1024 x i32], [1024 x i32]* @ub, i64 0, i64 %input1
52   %7 = bitcast i32* %6 to <4 x i32>*
53   %wide.load40 = load <4 x i32>, <4 x i32>* %7, align 4
54   %.sum87 = add i64 %index, 44
55   %8 = getelementptr [1024 x i32], [1024 x i32]* @ub, i64 0, i64 %.sum87
56   %9 = bitcast i32* %8 to <4 x i32>*
57   %wide.load41 = load <4 x i32>, <4 x i32>* %9, align 4
58   %10 = getelementptr inbounds [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %index
59   %11 = bitcast i32* %10 to <4 x i32>*
60   %wide.load42 = load <4 x i32>, <4 x i32>* %11, align 4
61   %.sum8889 = or i64 %index, 4
62   %12 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %.sum8889
63   %13 = bitcast i32* %12 to <4 x i32>*
64   %wide.load43 = load <4 x i32>, <4 x i32>* %13, align 4
65   %.sum9091 = or i64 %index, 8
66   %14 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %.sum9091
67   %15 = bitcast i32* %14 to <4 x i32>*
68   %wide.load44 = load <4 x i32>, <4 x i32>* %15, align 4
69   %.sum94 = add i64 %index, 16
70   %16 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %.sum94
71   %17 = bitcast i32* %16 to <4 x i32>*
72   %wide.load46 = load <4 x i32>, <4 x i32>* %17, align 4
73   %.sum95 = add i64 %index, 20
74   %18 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %.sum95
75   %19 = bitcast i32* %18 to <4 x i32>*
76   %wide.load47 = load <4 x i32>, <4 x i32>* %19, align 4
77   %20 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %input2
78   %21 = bitcast i32* %20 to <4 x i32>*
79   %wide.load48 = load <4 x i32>, <4 x i32>* %21, align 4
80   %.sum97 = add i64 %index, 28
81   %22 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %.sum97
82   %23 = bitcast i32* %22 to <4 x i32>*
83   %wide.load49 = load <4 x i32>, <4 x i32>* %23, align 4
84   %.sum98 = add i64 %index, 32
85   %24 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %.sum98
86   %25 = bitcast i32* %24 to <4 x i32>*
87   %wide.load50 = load <4 x i32>, <4 x i32>* %25, align 4
88   %.sum99 = add i64 %index, 36
89   %26 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %.sum99
90   %27 = bitcast i32* %26 to <4 x i32>*
91   %wide.load51 = load <4 x i32>, <4 x i32>* %27, align 4
92   %.sum100 = add i64 %index, 40
93   %28 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %.sum100
94   %29 = bitcast i32* %28 to <4 x i32>*
95   %wide.load52 = load <4 x i32>, <4 x i32>* %29, align 4
96   %.sum101 = add i64 %index, 44
97   %30 = getelementptr [1024 x i32], [1024 x i32]* @uc, i64 0, i64 %.sum101
98   %31 = bitcast i32* %30 to <4 x i32>*
99   %wide.load53 = load <4 x i32>, <4 x i32>* %31, align 4
100   %32 = add <4 x i32> zeroinitializer, %vec.phi
101   %33 = add <4 x i32> zeroinitializer, %vec.phi20
102   %34 = add <4 x i32> %wide.load32, %vec.phi21
103   %35 = add <4 x i32> zeroinitializer, %vec.phi23
104   %36 = add <4 x i32> zeroinitializer, %vec.phi24
105   %37 = add <4 x i32> %wide.load36, %vec.phi25
106   %38 = add <4 x i32> %wide.load37, %vec.phi26
107   %39 = add <4 x i32> %wide.load38, %vec.phi27
108   %40 = add <4 x i32> %wide.load39, %vec.phi28
109   %41 = add <4 x i32> %wide.load40, %vec.phi29
110   %42 = add <4 x i32> %wide.load41, %vec.phi30
111   %43 = sub <4 x i32> %32, %wide.load42
112   %44 = sub <4 x i32> %33, %wide.load43
113   %45 = sub <4 x i32> %34, %wide.load44
114   %46 = sub <4 x i32> %35, %wide.load46
115   %47 = sub <4 x i32> %36, %wide.load47
116   %48 = sub <4 x i32> %37, %wide.load48
117   %49 = sub <4 x i32> %38, %wide.load49
118   %50 = sub <4 x i32> %39, %wide.load50
119   %51 = sub <4 x i32> %40, %wide.load51
120   %52 = sub <4 x i32> %41, %wide.load52
121   %53 = sub <4 x i32> %42, %wide.load53
122   %index.next = add i64 %index, 48
123   br i1 false, label %middle.block, label %vector.body
124
125 middle.block:                                     ; preds = %vector.body
126   %.lcssa112 = phi <4 x i32> [ %53, %vector.body ]
127   %.lcssa111 = phi <4 x i32> [ %52, %vector.body ]
128   %.lcssa110 = phi <4 x i32> [ %51, %vector.body ]
129   %.lcssa109 = phi <4 x i32> [ %50, %vector.body ]
130   %.lcssa108 = phi <4 x i32> [ %49, %vector.body ]
131   %.lcssa107 = phi <4 x i32> [ %48, %vector.body ]
132   %.lcssa106 = phi <4 x i32> [ %47, %vector.body ]
133   %.lcssa105 = phi <4 x i32> [ %46, %vector.body ]
134   %.lcssa103 = phi <4 x i32> [ %45, %vector.body ]
135   %.lcssa102 = phi <4 x i32> [ %44, %vector.body ]
136   %.lcssa = phi <4 x i32> [ %43, %vector.body ]
137   %54 = add <4 x i32> %.lcssa112, %.lcssa111
138   %55 = add <4 x i32> %.lcssa110, %54
139   %56 = add <4 x i32> %.lcssa109, %55
140   %57 = add <4 x i32> %.lcssa108, %56
141   %58 = add <4 x i32> %.lcssa107, %57
142   %59 = add <4 x i32> %.lcssa106, %58
143   %60 = add <4 x i32> %.lcssa105, %59
144   %61 = add <4 x i32> %.lcssa103, %60
145   %62 = add <4 x i32> %.lcssa102, %61
146   ret <4 x i32> %62
147 }
148
149 attributes #0 = { noinline nounwind }
150