]> CyberLeo.Net >> Repos - FreeBSD/FreeBSD.git/blob - contrib/llvm/lib/Target/AMDGPU/AMDGPUAnnotateUniformValues.cpp
Merge llvm, clang, compiler-rt, libc++, libunwind, lld, lldb and openmp
[FreeBSD/FreeBSD.git] / contrib / llvm / lib / Target / AMDGPU / AMDGPUAnnotateUniformValues.cpp
1 //===-- AMDGPUAnnotateUniformValues.cpp - ---------------------------------===//
2 //
3 //                     The LLVM Compiler Infrastructure
4 //
5 // This file is distributed under the University of Illinois Open Source
6 // License. See LICENSE.TXT for details.
7 //
8 //===----------------------------------------------------------------------===//
9 //
10 /// \file
11 /// This pass adds amdgpu.uniform metadata to IR values so this information
12 /// can be used during instruction selection.
13 //
14 //===----------------------------------------------------------------------===//
15
16 #include "AMDGPU.h"
17 #include "AMDGPUIntrinsicInfo.h"
18 #include "llvm/ADT/SetVector.h"
19 #include "llvm/Analysis/LegacyDivergenceAnalysis.h"
20 #include "llvm/Analysis/LoopInfo.h"
21 #include "llvm/Analysis/MemoryDependenceAnalysis.h"
22 #include "llvm/IR/IRBuilder.h"
23 #include "llvm/IR/InstVisitor.h"
24 #include "llvm/Support/Debug.h"
25 #include "llvm/Support/raw_ostream.h"
26
27 #define DEBUG_TYPE "amdgpu-annotate-uniform"
28
29 using namespace llvm;
30
31 namespace {
32
33 class AMDGPUAnnotateUniformValues : public FunctionPass,
34                        public InstVisitor<AMDGPUAnnotateUniformValues> {
35   LegacyDivergenceAnalysis *DA;
36   MemoryDependenceResults *MDR;
37   LoopInfo *LI;
38   DenseMap<Value*, GetElementPtrInst*> noClobberClones;
39   bool isKernelFunc;
40
41 public:
42   static char ID;
43   AMDGPUAnnotateUniformValues() :
44     FunctionPass(ID) { }
45   bool doInitialization(Module &M) override;
46   bool runOnFunction(Function &F) override;
47   StringRef getPassName() const override {
48     return "AMDGPU Annotate Uniform Values";
49   }
50   void getAnalysisUsage(AnalysisUsage &AU) const override {
51     AU.addRequired<LegacyDivergenceAnalysis>();
52     AU.addRequired<MemoryDependenceWrapperPass>();
53     AU.addRequired<LoopInfoWrapperPass>();
54     AU.setPreservesAll();
55  }
56
57   void visitBranchInst(BranchInst &I);
58   void visitLoadInst(LoadInst &I);
59   bool isClobberedInFunction(LoadInst * Load);
60 };
61
62 } // End anonymous namespace
63
64 INITIALIZE_PASS_BEGIN(AMDGPUAnnotateUniformValues, DEBUG_TYPE,
65                       "Add AMDGPU uniform metadata", false, false)
66 INITIALIZE_PASS_DEPENDENCY(LegacyDivergenceAnalysis)
67 INITIALIZE_PASS_DEPENDENCY(MemoryDependenceWrapperPass)
68 INITIALIZE_PASS_DEPENDENCY(LoopInfoWrapperPass)
69 INITIALIZE_PASS_END(AMDGPUAnnotateUniformValues, DEBUG_TYPE,
70                     "Add AMDGPU uniform metadata", false, false)
71
72 char AMDGPUAnnotateUniformValues::ID = 0;
73
74 static void setUniformMetadata(Instruction *I) {
75   I->setMetadata("amdgpu.uniform", MDNode::get(I->getContext(), {}));
76 }
77 static void setNoClobberMetadata(Instruction *I) {
78   I->setMetadata("amdgpu.noclobber", MDNode::get(I->getContext(), {}));
79 }
80
81 static void DFS(BasicBlock *Root, SetVector<BasicBlock*> & Set) {
82   for (auto I : predecessors(Root))
83     if (Set.insert(I))
84       DFS(I, Set);
85 }
86
87 bool AMDGPUAnnotateUniformValues::isClobberedInFunction(LoadInst * Load) {
88   // 1. get Loop for the Load->getparent();
89   // 2. if it exists, collect all the BBs from the most outer
90   // loop and check for the writes. If NOT - start DFS over all preds.
91   // 3. Start DFS over all preds from the most outer loop header.
92   SetVector<BasicBlock *> Checklist;
93   BasicBlock *Start = Load->getParent();
94   Checklist.insert(Start);
95   const Value *Ptr = Load->getPointerOperand();
96   const Loop *L = LI->getLoopFor(Start);
97   if (L) {
98     const Loop *P = L;
99     do {
100       L = P;
101       P = P->getParentLoop();
102     } while (P);
103     Checklist.insert(L->block_begin(), L->block_end());
104     Start = L->getHeader();
105   }
106
107   DFS(Start, Checklist);
108   for (auto &BB : Checklist) {
109     BasicBlock::iterator StartIt = (!L && (BB == Load->getParent())) ?
110       BasicBlock::iterator(Load) : BB->end();
111     auto Q = MDR->getPointerDependencyFrom(MemoryLocation(Ptr), true,
112                                            StartIt, BB, Load);
113     if (Q.isClobber() || Q.isUnknown())
114       return true;
115   }
116   return false;
117 }
118
119 void AMDGPUAnnotateUniformValues::visitBranchInst(BranchInst &I) {
120   if (DA->isUniform(&I))
121     setUniformMetadata(I.getParent()->getTerminator());
122 }
123
124 void AMDGPUAnnotateUniformValues::visitLoadInst(LoadInst &I) {
125   Value *Ptr = I.getPointerOperand();
126   if (!DA->isUniform(Ptr))
127     return;
128   auto isGlobalLoad = [&](LoadInst &Load)->bool {
129     return Load.getPointerAddressSpace() == AMDGPUAS::GLOBAL_ADDRESS;
130   };
131   // We're tracking up to the Function boundaries
132   // We cannot go beyond because of FunctionPass restrictions
133   // Thus we can ensure that memory not clobbered for memory
134   // operations that live in kernel only.
135   bool NotClobbered = isKernelFunc &&   !isClobberedInFunction(&I);
136   Instruction *PtrI = dyn_cast<Instruction>(Ptr);
137   if (!PtrI && NotClobbered && isGlobalLoad(I)) {
138     if (isa<Argument>(Ptr) || isa<GlobalValue>(Ptr)) {
139       // Lookup for the existing GEP
140       if (noClobberClones.count(Ptr)) {
141         PtrI = noClobberClones[Ptr];
142       } else {
143         // Create GEP of the Value
144         Function *F = I.getParent()->getParent();
145         Value *Idx = Constant::getIntegerValue(
146           Type::getInt32Ty(Ptr->getContext()), APInt(64, 0));
147         // Insert GEP at the entry to make it dominate all uses
148         PtrI = GetElementPtrInst::Create(
149           Ptr->getType()->getPointerElementType(), Ptr,
150           ArrayRef<Value*>(Idx), Twine(""), F->getEntryBlock().getFirstNonPHI());
151       }
152       I.replaceUsesOfWith(Ptr, PtrI);
153     }
154   }
155
156   if (PtrI) {
157     setUniformMetadata(PtrI);
158     if (NotClobbered)
159       setNoClobberMetadata(PtrI);
160   }
161 }
162
163 bool AMDGPUAnnotateUniformValues::doInitialization(Module &M) {
164   return false;
165 }
166
167 bool AMDGPUAnnotateUniformValues::runOnFunction(Function &F) {
168   if (skipFunction(F))
169     return false;
170
171   DA  = &getAnalysis<LegacyDivergenceAnalysis>();
172   MDR = &getAnalysis<MemoryDependenceWrapperPass>().getMemDep();
173   LI  = &getAnalysis<LoopInfoWrapperPass>().getLoopInfo();
174   isKernelFunc = F.getCallingConv() == CallingConv::AMDGPU_KERNEL;
175
176   visit(F);
177   noClobberClones.clear();
178   return true;
179 }
180
181 FunctionPass *
182 llvm::createAMDGPUAnnotateUniformValues() {
183   return new AMDGPUAnnotateUniformValues();
184 }