]> CyberLeo.Net >> Repos - FreeBSD/releng/10.0.git/blob - sys/dev/drm2/radeon/radeon_gem.c
- Copy stable/10 (r259064) to releng/10.0 as part of the
[FreeBSD/releng/10.0.git] / sys / dev / drm2 / radeon / radeon_gem.c
1 /*
2  * Copyright 2008 Advanced Micro Devices, Inc.
3  * Copyright 2008 Red Hat Inc.
4  * Copyright 2009 Jerome Glisse.
5  *
6  * Permission is hereby granted, free of charge, to any person obtaining a
7  * copy of this software and associated documentation files (the "Software"),
8  * to deal in the Software without restriction, including without limitation
9  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
10  * and/or sell copies of the Software, and to permit persons to whom the
11  * Software is furnished to do so, subject to the following conditions:
12  *
13  * The above copyright notice and this permission notice shall be included in
14  * all copies or substantial portions of the Software.
15  *
16  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
17  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
18  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
19  * THE COPYRIGHT HOLDER(S) OR AUTHOR(S) BE LIABLE FOR ANY CLAIM, DAMAGES OR
20  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
21  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
22  * OTHER DEALINGS IN THE SOFTWARE.
23  *
24  * Authors: Dave Airlie
25  *          Alex Deucher
26  *          Jerome Glisse
27  */
28
29 #include <sys/cdefs.h>
30 __FBSDID("$FreeBSD$");
31
32 #include <dev/drm2/drmP.h>
33 #include <dev/drm2/radeon/radeon_drm.h>
34 #include "radeon.h"
35 #include "radeon_gem.h"
36
37 int radeon_gem_object_init(struct drm_gem_object *obj)
38 {
39         panic("radeon_gem_object_init() must not be called");
40
41         return 0;
42 }
43
44 void radeon_gem_object_free(struct drm_gem_object *gobj)
45 {
46         struct radeon_bo *robj = gem_to_radeon_bo(gobj);
47
48         if (robj) {
49 #ifdef DUMBBELL_WIP
50                 if (robj->gem_base.import_attach)
51                         drm_prime_gem_destroy(&robj->gem_base, robj->tbo.sg);
52 #endif /* DUMBBELL_WIP */
53                 radeon_bo_unref(&robj);
54         }
55 }
56
57 int radeon_gem_object_create(struct radeon_device *rdev, int size,
58                                 int alignment, int initial_domain,
59                                 bool discardable, bool kernel,
60                                 struct drm_gem_object **obj)
61 {
62         struct radeon_bo *robj;
63         unsigned long max_size;
64         int r;
65
66         *obj = NULL;
67         /* At least align on page size */
68         if (alignment < PAGE_SIZE) {
69                 alignment = PAGE_SIZE;
70         }
71
72         /* maximun bo size is the minimun btw visible vram and gtt size */
73         max_size = min(rdev->mc.visible_vram_size, rdev->mc.gtt_size);
74         if (size > max_size) {
75                 DRM_ERROR("%s:%d alloc size %dMb bigger than %ldMb limit\n",
76                        __func__, __LINE__, size >> 20, max_size >> 20);
77                 return -ENOMEM;
78         }
79
80 retry:
81         r = radeon_bo_create(rdev, size, alignment, kernel, initial_domain, NULL, &robj);
82         if (r) {
83                 if (r != -ERESTART) {
84                         if (initial_domain == RADEON_GEM_DOMAIN_VRAM) {
85                                 initial_domain |= RADEON_GEM_DOMAIN_GTT;
86                                 goto retry;
87                         }
88                         DRM_ERROR("Failed to allocate GEM object (%d, %d, %u, %d)\n",
89                                   size, initial_domain, alignment, r);
90                 }
91                 return r;
92         }
93         *obj = &robj->gem_base;
94
95         sx_xlock(&rdev->gem.mutex);
96         list_add_tail(&robj->list, &rdev->gem.objects);
97         sx_xunlock(&rdev->gem.mutex);
98
99         return 0;
100 }
101
102 static int radeon_gem_set_domain(struct drm_gem_object *gobj,
103                           uint32_t rdomain, uint32_t wdomain)
104 {
105         struct radeon_bo *robj;
106         uint32_t domain;
107         int r;
108
109         /* FIXME: reeimplement */
110         robj = gem_to_radeon_bo(gobj);
111         /* work out where to validate the buffer to */
112         domain = wdomain;
113         if (!domain) {
114                 domain = rdomain;
115         }
116         if (!domain) {
117                 /* Do nothings */
118                 DRM_ERROR("Set domain without domain !\n");
119                 return 0;
120         }
121         if (domain == RADEON_GEM_DOMAIN_CPU) {
122                 /* Asking for cpu access wait for object idle */
123                 r = radeon_bo_wait(robj, NULL, false);
124                 if (r) {
125                         DRM_ERROR("Failed to wait for object !\n");
126                         return r;
127                 }
128         }
129         return 0;
130 }
131
132 int radeon_gem_init(struct radeon_device *rdev)
133 {
134         INIT_LIST_HEAD(&rdev->gem.objects);
135         return 0;
136 }
137
138 void radeon_gem_fini(struct radeon_device *rdev)
139 {
140         radeon_bo_force_delete(rdev);
141 }
142
143 /*
144  * Call from drm_gem_handle_create which appear in both new and open ioctl
145  * case.
146  */
147 int radeon_gem_object_open(struct drm_gem_object *obj, struct drm_file *file_priv)
148 {
149         struct radeon_bo *rbo = gem_to_radeon_bo(obj);
150         struct radeon_device *rdev = rbo->rdev;
151         struct radeon_fpriv *fpriv = file_priv->driver_priv;
152         struct radeon_vm *vm = &fpriv->vm;
153         struct radeon_bo_va *bo_va;
154         int r;
155
156         if (rdev->family < CHIP_CAYMAN) {
157                 return 0;
158         }
159
160         r = radeon_bo_reserve(rbo, false);
161         if (r) {
162                 return r;
163         }
164
165         bo_va = radeon_vm_bo_find(vm, rbo);
166         if (!bo_va) {
167                 bo_va = radeon_vm_bo_add(rdev, vm, rbo);
168         } else {
169                 ++bo_va->ref_count;
170         }
171         radeon_bo_unreserve(rbo);
172
173         return 0;
174 }
175
176 void radeon_gem_object_close(struct drm_gem_object *obj,
177                              struct drm_file *file_priv)
178 {
179         struct radeon_bo *rbo = gem_to_radeon_bo(obj);
180         struct radeon_device *rdev = rbo->rdev;
181         struct radeon_fpriv *fpriv = file_priv->driver_priv;
182         struct radeon_vm *vm = &fpriv->vm;
183         struct radeon_bo_va *bo_va;
184         int r;
185
186         if (rdev->family < CHIP_CAYMAN) {
187                 return;
188         }
189
190         r = radeon_bo_reserve(rbo, true);
191         if (r) {
192                 dev_err(rdev->dev, "leaking bo va because "
193                         "we fail to reserve bo (%d)\n", r);
194                 return;
195         }
196         bo_va = radeon_vm_bo_find(vm, rbo);
197         if (bo_va) {
198                 if (--bo_va->ref_count == 0) {
199                         radeon_vm_bo_rmv(rdev, bo_va);
200                 }
201         }
202         radeon_bo_unreserve(rbo);
203 }
204
205 static int radeon_gem_handle_lockup(struct radeon_device *rdev, int r)
206 {
207         if (r == -EDEADLK) {
208                 r = radeon_gpu_reset(rdev);
209                 if (!r)
210                         r = -EAGAIN;
211         }
212         return r;
213 }
214
215 /*
216  * GEM ioctls.
217  */
218 int radeon_gem_info_ioctl(struct drm_device *dev, void *data,
219                           struct drm_file *filp)
220 {
221         struct radeon_device *rdev = dev->dev_private;
222         struct drm_radeon_gem_info *args = data;
223         struct ttm_mem_type_manager *man;
224         unsigned i;
225
226         man = &rdev->mman.bdev.man[TTM_PL_VRAM];
227
228         args->vram_size = rdev->mc.real_vram_size;
229         args->vram_visible = (u64)man->size << PAGE_SHIFT;
230         if (rdev->stollen_vga_memory)
231                 args->vram_visible -= radeon_bo_size(rdev->stollen_vga_memory);
232         args->vram_visible -= radeon_fbdev_total_size(rdev);
233         args->gart_size = rdev->mc.gtt_size - 4096 - RADEON_IB_POOL_SIZE*64*1024;
234         for(i = 0; i < RADEON_NUM_RINGS; ++i)
235                 args->gart_size -= rdev->ring[i].ring_size;
236         return 0;
237 }
238
239 int radeon_gem_pread_ioctl(struct drm_device *dev, void *data,
240                            struct drm_file *filp)
241 {
242         /* TODO: implement */
243         DRM_ERROR("unimplemented %s\n", __func__);
244         return -ENOSYS;
245 }
246
247 int radeon_gem_pwrite_ioctl(struct drm_device *dev, void *data,
248                             struct drm_file *filp)
249 {
250         /* TODO: implement */
251         DRM_ERROR("unimplemented %s\n", __func__);
252         return -ENOSYS;
253 }
254
255 int radeon_gem_create_ioctl(struct drm_device *dev, void *data,
256                             struct drm_file *filp)
257 {
258         struct radeon_device *rdev = dev->dev_private;
259         struct drm_radeon_gem_create *args = data;
260         struct drm_gem_object *gobj;
261         uint32_t handle;
262         int r;
263
264         sx_slock(&rdev->exclusive_lock);
265         /* create a gem object to contain this object in */
266         args->size = roundup(args->size, PAGE_SIZE);
267         r = radeon_gem_object_create(rdev, args->size, args->alignment,
268                                         args->initial_domain, false,
269                                         false, &gobj);
270         if (r) {
271                 sx_sunlock(&rdev->exclusive_lock);
272                 r = radeon_gem_handle_lockup(rdev, r);
273                 return r;
274         }
275         handle = 0;
276         r = drm_gem_handle_create(filp, gobj, &handle);
277         /* drop reference from allocate - handle holds it now */
278         drm_gem_object_unreference_unlocked(gobj);
279         if (r) {
280                 sx_sunlock(&rdev->exclusive_lock);
281                 r = radeon_gem_handle_lockup(rdev, r);
282                 return r;
283         }
284         args->handle = handle;
285         sx_sunlock(&rdev->exclusive_lock);
286         return 0;
287 }
288
289 int radeon_gem_set_domain_ioctl(struct drm_device *dev, void *data,
290                                 struct drm_file *filp)
291 {
292         /* transition the BO to a domain -
293          * just validate the BO into a certain domain */
294         struct radeon_device *rdev = dev->dev_private;
295         struct drm_radeon_gem_set_domain *args = data;
296         struct drm_gem_object *gobj;
297         struct radeon_bo *robj;
298         int r;
299
300         /* for now if someone requests domain CPU -
301          * just make sure the buffer is finished with */
302         sx_slock(&rdev->exclusive_lock);
303
304         /* just do a BO wait for now */
305         gobj = drm_gem_object_lookup(dev, filp, args->handle);
306         if (gobj == NULL) {
307                 sx_sunlock(&rdev->exclusive_lock);
308                 return -ENOENT;
309         }
310         robj = gem_to_radeon_bo(gobj);
311
312         r = radeon_gem_set_domain(gobj, args->read_domains, args->write_domain);
313
314         drm_gem_object_unreference_unlocked(gobj);
315         sx_sunlock(&rdev->exclusive_lock);
316         r = radeon_gem_handle_lockup(robj->rdev, r);
317         return r;
318 }
319
320 int radeon_mode_dumb_mmap(struct drm_file *filp,
321                           struct drm_device *dev,
322                           uint32_t handle, uint64_t *offset_p)
323 {
324         struct drm_gem_object *gobj;
325         struct radeon_bo *robj;
326
327         gobj = drm_gem_object_lookup(dev, filp, handle);
328         if (gobj == NULL) {
329                 return -ENOENT;
330         }
331         robj = gem_to_radeon_bo(gobj);
332         *offset_p = radeon_bo_mmap_offset(robj);
333         drm_gem_object_unreference_unlocked(gobj);
334         return 0;
335 }
336
337 int radeon_gem_mmap_ioctl(struct drm_device *dev, void *data,
338                           struct drm_file *filp)
339 {
340         struct drm_radeon_gem_mmap *args = data;
341
342         return radeon_mode_dumb_mmap(filp, dev, args->handle, &args->addr_ptr);
343 }
344
345 int radeon_gem_busy_ioctl(struct drm_device *dev, void *data,
346                           struct drm_file *filp)
347 {
348         struct radeon_device *rdev = dev->dev_private;
349         struct drm_radeon_gem_busy *args = data;
350         struct drm_gem_object *gobj;
351         struct radeon_bo *robj;
352         int r;
353         uint32_t cur_placement = 0;
354
355         gobj = drm_gem_object_lookup(dev, filp, args->handle);
356         if (gobj == NULL) {
357                 return -ENOENT;
358         }
359         robj = gem_to_radeon_bo(gobj);
360         r = radeon_bo_wait(robj, &cur_placement, true);
361         switch (cur_placement) {
362         case TTM_PL_VRAM:
363                 args->domain = RADEON_GEM_DOMAIN_VRAM;
364                 break;
365         case TTM_PL_TT:
366                 args->domain = RADEON_GEM_DOMAIN_GTT;
367                 break;
368         case TTM_PL_SYSTEM:
369                 args->domain = RADEON_GEM_DOMAIN_CPU;
370         default:
371                 break;
372         }
373         drm_gem_object_unreference_unlocked(gobj);
374         r = radeon_gem_handle_lockup(rdev, r);
375         return r;
376 }
377
378 int radeon_gem_wait_idle_ioctl(struct drm_device *dev, void *data,
379                               struct drm_file *filp)
380 {
381         struct radeon_device *rdev = dev->dev_private;
382         struct drm_radeon_gem_wait_idle *args = data;
383         struct drm_gem_object *gobj;
384         struct radeon_bo *robj;
385         int r;
386
387         gobj = drm_gem_object_lookup(dev, filp, args->handle);
388         if (gobj == NULL) {
389                 return -ENOENT;
390         }
391         robj = gem_to_radeon_bo(gobj);
392         r = radeon_bo_wait(robj, NULL, false);
393         /* callback hw specific functions if any */
394         if (rdev->asic->ioctl_wait_idle)
395                 robj->rdev->asic->ioctl_wait_idle(rdev, robj);
396         drm_gem_object_unreference_unlocked(gobj);
397         r = radeon_gem_handle_lockup(rdev, r);
398         return r;
399 }
400
401 int radeon_gem_set_tiling_ioctl(struct drm_device *dev, void *data,
402                                 struct drm_file *filp)
403 {
404         struct drm_radeon_gem_set_tiling *args = data;
405         struct drm_gem_object *gobj;
406         struct radeon_bo *robj;
407         int r = 0;
408
409         DRM_DEBUG("%d \n", args->handle);
410         gobj = drm_gem_object_lookup(dev, filp, args->handle);
411         if (gobj == NULL)
412                 return -ENOENT;
413         robj = gem_to_radeon_bo(gobj);
414         r = radeon_bo_set_tiling_flags(robj, args->tiling_flags, args->pitch);
415         drm_gem_object_unreference_unlocked(gobj);
416         return r;
417 }
418
419 int radeon_gem_get_tiling_ioctl(struct drm_device *dev, void *data,
420                                 struct drm_file *filp)
421 {
422         struct drm_radeon_gem_get_tiling *args = data;
423         struct drm_gem_object *gobj;
424         struct radeon_bo *rbo;
425         int r = 0;
426
427         DRM_DEBUG("\n");
428         gobj = drm_gem_object_lookup(dev, filp, args->handle);
429         if (gobj == NULL)
430                 return -ENOENT;
431         rbo = gem_to_radeon_bo(gobj);
432         r = radeon_bo_reserve(rbo, false);
433         if (unlikely(r != 0))
434                 goto out;
435         radeon_bo_get_tiling_flags(rbo, &args->tiling_flags, &args->pitch);
436         radeon_bo_unreserve(rbo);
437 out:
438         drm_gem_object_unreference_unlocked(gobj);
439         return r;
440 }
441
442 int radeon_gem_va_ioctl(struct drm_device *dev, void *data,
443                           struct drm_file *filp)
444 {
445         struct drm_radeon_gem_va *args = data;
446         struct drm_gem_object *gobj;
447         struct radeon_device *rdev = dev->dev_private;
448         struct radeon_fpriv *fpriv = filp->driver_priv;
449         struct radeon_bo *rbo;
450         struct radeon_bo_va *bo_va;
451         u32 invalid_flags;
452         int r = 0;
453
454         if (!rdev->vm_manager.enabled) {
455                 args->operation = RADEON_VA_RESULT_ERROR;
456                 return -ENOTTY;
457         }
458
459         /* !! DONT REMOVE !!
460          * We don't support vm_id yet, to be sure we don't have have broken
461          * userspace, reject anyone trying to use non 0 value thus moving
462          * forward we can use those fields without breaking existant userspace
463          */
464         if (args->vm_id) {
465                 args->operation = RADEON_VA_RESULT_ERROR;
466                 return -EINVAL;
467         }
468
469         if (args->offset < RADEON_VA_RESERVED_SIZE) {
470                 dev_err(dev->device,
471                         "offset 0x%lX is in reserved area 0x%X\n",
472                         (unsigned long)args->offset,
473                         RADEON_VA_RESERVED_SIZE);
474                 args->operation = RADEON_VA_RESULT_ERROR;
475                 return -EINVAL;
476         }
477
478         /* don't remove, we need to enforce userspace to set the snooped flag
479          * otherwise we will endup with broken userspace and we won't be able
480          * to enable this feature without adding new interface
481          */
482         invalid_flags = RADEON_VM_PAGE_VALID | RADEON_VM_PAGE_SYSTEM;
483         if ((args->flags & invalid_flags)) {
484                 dev_err(dev->device, "invalid flags 0x%08X vs 0x%08X\n",
485                         args->flags, invalid_flags);
486                 args->operation = RADEON_VA_RESULT_ERROR;
487                 return -EINVAL;
488         }
489         if (!(args->flags & RADEON_VM_PAGE_SNOOPED)) {
490                 dev_err(dev->device, "only supported snooped mapping for now\n");
491                 args->operation = RADEON_VA_RESULT_ERROR;
492                 return -EINVAL;
493         }
494
495         switch (args->operation) {
496         case RADEON_VA_MAP:
497         case RADEON_VA_UNMAP:
498                 break;
499         default:
500                 dev_err(dev->device, "unsupported operation %d\n",
501                         args->operation);
502                 args->operation = RADEON_VA_RESULT_ERROR;
503                 return -EINVAL;
504         }
505
506         gobj = drm_gem_object_lookup(dev, filp, args->handle);
507         if (gobj == NULL) {
508                 args->operation = RADEON_VA_RESULT_ERROR;
509                 return -ENOENT;
510         }
511         rbo = gem_to_radeon_bo(gobj);
512         r = radeon_bo_reserve(rbo, false);
513         if (r) {
514                 args->operation = RADEON_VA_RESULT_ERROR;
515                 drm_gem_object_unreference_unlocked(gobj);
516                 return r;
517         }
518         bo_va = radeon_vm_bo_find(&fpriv->vm, rbo);
519         if (!bo_va) {
520                 args->operation = RADEON_VA_RESULT_ERROR;
521                 drm_gem_object_unreference_unlocked(gobj);
522                 return -ENOENT;
523         }
524
525         switch (args->operation) {
526         case RADEON_VA_MAP:
527                 if (bo_va->soffset) {
528                         args->operation = RADEON_VA_RESULT_VA_EXIST;
529                         args->offset = bo_va->soffset;
530                         goto out;
531                 }
532                 r = radeon_vm_bo_set_addr(rdev, bo_va, args->offset, args->flags);
533                 break;
534         case RADEON_VA_UNMAP:
535                 r = radeon_vm_bo_set_addr(rdev, bo_va, 0, 0);
536                 break;
537         default:
538                 break;
539         }
540         args->operation = RADEON_VA_RESULT_OK;
541         if (r) {
542                 args->operation = RADEON_VA_RESULT_ERROR;
543         }
544 out:
545         radeon_bo_unreserve(rbo);
546         drm_gem_object_unreference_unlocked(gobj);
547         return r;
548 }
549
550 int radeon_mode_dumb_create(struct drm_file *file_priv,
551                             struct drm_device *dev,
552                             struct drm_mode_create_dumb *args)
553 {
554         struct radeon_device *rdev = dev->dev_private;
555         struct drm_gem_object *gobj;
556         uint32_t handle;
557         int r;
558
559         args->pitch = radeon_align_pitch(rdev, args->width, args->bpp, 0) * ((args->bpp + 1) / 8);
560         args->size = args->pitch * args->height;
561         args->size = roundup2(args->size, PAGE_SIZE);
562
563         r = radeon_gem_object_create(rdev, args->size, 0,
564                                      RADEON_GEM_DOMAIN_VRAM,
565                                      false, ttm_bo_type_device,
566                                      &gobj);
567         if (r)
568                 return -ENOMEM;
569
570         handle = 0;
571         r = drm_gem_handle_create(file_priv, gobj, &handle);
572         /* drop reference from allocate - handle holds it now */
573         drm_gem_object_unreference_unlocked(gobj);
574         if (r) {
575                 return r;
576         }
577         args->handle = handle;
578         return 0;
579 }
580
581 int radeon_mode_dumb_destroy(struct drm_file *file_priv,
582                              struct drm_device *dev,
583                              uint32_t handle)
584 {
585         return drm_gem_handle_delete(file_priv, handle);
586 }