]> CyberLeo.Net >> Repos - FreeBSD/releng/10.2.git/blob - sys/ofed/include/linux/gfp.h
- Copy stable/10@285827 to releng/10.2 in preparation for 10.2-RC1
[FreeBSD/releng/10.2.git] / sys / ofed / include / linux / gfp.h
1 /*-
2  * Copyright (c) 2010 Isilon Systems, Inc.
3  * Copyright (c) 2010 iX Systems, Inc.
4  * Copyright (c) 2010 Panasas, Inc.
5  * Copyright (c) 2013 Mellanox Technologies, Ltd.
6  * All rights reserved.
7  *
8  * Redistribution and use in source and binary forms, with or without
9  * modification, are permitted provided that the following conditions
10  * are met:
11  * 1. Redistributions of source code must retain the above copyright
12  *    notice unmodified, this list of conditions, and the following
13  *    disclaimer.
14  * 2. Redistributions in binary form must reproduce the above copyright
15  *    notice, this list of conditions and the following disclaimer in the
16  *    documentation and/or other materials provided with the distribution.
17  *
18  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
19  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
20  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
21  * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
22  * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
23  * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
24  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
25  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
26  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
27  * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
28  */
29
30 #ifndef _LINUX_GFP_H_
31 #define _LINUX_GFP_H_
32
33 #include <sys/cdefs.h>
34 #include <sys/types.h>
35 #include <sys/systm.h>
36 #include <sys/malloc.h>
37
38 #include <linux/page.h>
39
40 #include <vm/vm_param.h>
41 #include <vm/vm_object.h>
42 #include <vm/vm_extern.h>
43 #include <vm/vm_kern.h>
44
45 #define __GFP_NOWARN    0
46 #define __GFP_HIGHMEM   0
47 #define __GFP_ZERO      M_ZERO
48
49 #define GFP_NOWAIT      M_NOWAIT
50 #define GFP_ATOMIC      (M_NOWAIT | M_USE_RESERVE)
51 #define GFP_KERNEL      M_WAITOK
52 #define GFP_USER        M_WAITOK
53 #define GFP_HIGHUSER    M_WAITOK
54 #define GFP_HIGHUSER_MOVABLE    M_WAITOK
55 #define GFP_IOFS        M_NOWAIT
56
57 static inline void *
58 page_address(struct page *page)
59 {
60
61         if (page->object != kmem_object && page->object != kernel_object)
62                 return (NULL);
63         return ((void *)(uintptr_t)(VM_MIN_KERNEL_ADDRESS +
64             IDX_TO_OFF(page->pindex)));
65 }
66
67 static inline unsigned long
68 _get_page(gfp_t mask)
69 {
70
71         return kmem_malloc(kmem_arena, PAGE_SIZE, mask);
72 }
73
74 #define get_zeroed_page(mask)   _get_page((mask) | M_ZERO)
75 #define alloc_page(mask)        virt_to_page(_get_page((mask)))
76 #define __get_free_page(mask)   _get_page((mask))
77
78 static inline void
79 free_page(unsigned long page)
80 {
81
82         if (page == 0)
83                 return;
84         kmem_free(kmem_arena, page, PAGE_SIZE);
85 }
86
87 static inline void
88 __free_page(struct page *m)
89 {
90
91         if (m->object != kmem_object)
92                 panic("__free_page:  Freed page %p not allocated via wrappers.",
93                     m);
94         kmem_free(kmem_arena, (vm_offset_t)page_address(m), PAGE_SIZE);
95 }
96
97 static inline void
98 __free_pages(struct page *m, unsigned int order)
99 {
100         size_t size;
101
102         if (m == NULL)
103                 return;
104         size = PAGE_SIZE << order;
105         kmem_free(kmem_arena, (vm_offset_t)page_address(m), size);
106 }
107
108 static inline void free_pages(uintptr_t addr, unsigned int order)
109 {
110         if (addr == 0)
111                 return;
112         __free_pages(virt_to_page((void *)addr), order);
113 }
114
115 /*
116  * Alloc pages allocates directly from the buddy allocator on linux so
117  * order specifies a power of two bucket of pages and the results
118  * are expected to be aligned on the size as well.
119  */
120 static inline struct page *
121 alloc_pages(gfp_t gfp_mask, unsigned int order)
122 {
123         unsigned long page;
124         size_t size;
125
126         size = PAGE_SIZE << order;
127         page = kmem_alloc_contig(kmem_arena, size, gfp_mask, 0, -1,
128             size, 0, VM_MEMATTR_DEFAULT);
129         if (page == 0)
130                 return (NULL);
131         return (virt_to_page(page));
132 }
133
134 static inline uintptr_t __get_free_pages(gfp_t gfp_mask, unsigned int order)
135 {
136         struct page *page;
137
138         page = alloc_pages(gfp_mask, order);
139         if (page == NULL)
140                 return (0);
141         return ((uintptr_t)page_address(page));
142 }
143
144 #define alloc_pages_node(node, mask, order)     alloc_pages(mask, order)
145
146 #define kmalloc_node(chunk, mask, node)         kmalloc(chunk, mask)
147
148 #endif  /* _LINUX_GFP_H_ */