]> CyberLeo.Net >> Repos - FreeBSD/releng/10.3.git/blob - sys/fs/nfsclient/nfs_clnode.c
- Copy stable/10@296371 to releng/10.3 in preparation for 10.3-RC1
[FreeBSD/releng/10.3.git] / sys / fs / nfsclient / nfs_clnode.c
1 /*-
2  * Copyright (c) 1989, 1993
3  *      The Regents of the University of California.  All rights reserved.
4  *
5  * This code is derived from software contributed to Berkeley by
6  * Rick Macklem at The University of Guelph.
7  *
8  * Redistribution and use in source and binary forms, with or without
9  * modification, are permitted provided that the following conditions
10  * are met:
11  * 1. Redistributions of source code must retain the above copyright
12  *    notice, this list of conditions and the following disclaimer.
13  * 2. Redistributions in binary form must reproduce the above copyright
14  *    notice, this list of conditions and the following disclaimer in the
15  *    documentation and/or other materials provided with the distribution.
16  * 4. Neither the name of the University nor the names of its contributors
17  *    may be used to endorse or promote products derived from this software
18  *    without specific prior written permission.
19  *
20  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
21  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
22  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
23  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
24  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
25  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
26  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
27  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
28  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
29  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
30  * SUCH DAMAGE.
31  *
32  *      from nfs_node.c 8.6 (Berkeley) 5/22/95
33  */
34
35 #include <sys/cdefs.h>
36 __FBSDID("$FreeBSD$");
37
38 #include "opt_kdtrace.h"
39
40 #include <sys/param.h>
41 #include <sys/systm.h>
42 #include <sys/fcntl.h>
43 #include <sys/lock.h>
44 #include <sys/malloc.h>
45 #include <sys/mount.h>
46 #include <sys/namei.h>
47 #include <sys/proc.h>
48 #include <sys/socket.h>
49 #include <sys/sysctl.h>
50 #include <sys/taskqueue.h>
51 #include <sys/vnode.h>
52
53 #include <vm/uma.h>
54
55 #include <fs/nfs/nfsport.h>
56 #include <fs/nfsclient/nfsnode.h>
57 #include <fs/nfsclient/nfsmount.h>
58 #include <fs/nfsclient/nfs.h>
59 #include <fs/nfsclient/nfs_kdtrace.h>
60
61 #include <nfs/nfs_lock.h>
62
63 extern struct vop_vector newnfs_vnodeops;
64 extern struct buf_ops buf_ops_newnfs;
65 MALLOC_DECLARE(M_NEWNFSREQ);
66
67 uma_zone_t newnfsnode_zone;
68
69 const char nfs_vnode_tag[] = "newnfs";
70
71 static void     nfs_freesillyrename(void *arg, __unused int pending);
72
73 void
74 ncl_nhinit(void)
75 {
76
77         newnfsnode_zone = uma_zcreate("NCLNODE", sizeof(struct nfsnode), NULL,
78             NULL, NULL, NULL, UMA_ALIGN_PTR, 0);
79 }
80
81 void
82 ncl_nhuninit(void)
83 {
84         uma_zdestroy(newnfsnode_zone);
85 }
86
87 /*
88  * ONLY USED FOR THE ROOT DIRECTORY. nfscl_nget() does the rest. If this
89  * function is going to be used to get Regular Files, code must be added
90  * to fill in the "struct nfsv4node".
91  * Look up a vnode/nfsnode by file handle.
92  * Callers must check for mount points!!
93  * In all cases, a pointer to a
94  * nfsnode structure is returned.
95  */
96 int
97 ncl_nget(struct mount *mntp, u_int8_t *fhp, int fhsize, struct nfsnode **npp,
98     int lkflags)
99 {
100         struct thread *td = curthread;  /* XXX */
101         struct nfsnode *np;
102         struct vnode *vp;
103         struct vnode *nvp;
104         int error;
105         u_int hash;
106         struct nfsmount *nmp;
107         struct nfsfh *nfhp;
108
109         nmp = VFSTONFS(mntp);
110         *npp = NULL;
111
112         hash = fnv_32_buf(fhp, fhsize, FNV1_32_INIT);
113
114         MALLOC(nfhp, struct nfsfh *, sizeof (struct nfsfh) + fhsize,
115             M_NFSFH, M_WAITOK);
116         bcopy(fhp, &nfhp->nfh_fh[0], fhsize);
117         nfhp->nfh_len = fhsize;
118         error = vfs_hash_get(mntp, hash, lkflags,
119             td, &nvp, newnfs_vncmpf, nfhp);
120         FREE(nfhp, M_NFSFH);
121         if (error)
122                 return (error);
123         if (nvp != NULL) {
124                 *npp = VTONFS(nvp);
125                 return (0);
126         }
127         np = uma_zalloc(newnfsnode_zone, M_WAITOK | M_ZERO);
128
129         error = getnewvnode(nfs_vnode_tag, mntp, &newnfs_vnodeops, &nvp);
130         if (error) {
131                 uma_zfree(newnfsnode_zone, np);
132                 return (error);
133         }
134         vp = nvp;
135         KASSERT(vp->v_bufobj.bo_bsize != 0, ("ncl_nget: bo_bsize == 0"));
136         vp->v_bufobj.bo_ops = &buf_ops_newnfs;
137         vp->v_data = np;
138         np->n_vnode = vp;
139         /* 
140          * Initialize the mutex even if the vnode is going to be a loser.
141          * This simplifies the logic in reclaim, which can then unconditionally
142          * destroy the mutex (in the case of the loser, or if hash_insert
143          * happened to return an error no special casing is needed).
144          */
145         mtx_init(&np->n_mtx, "NEWNFSnode lock", NULL, MTX_DEF | MTX_DUPOK);
146         /*
147          * NFS supports recursive and shared locking.
148          */
149         lockmgr(vp->v_vnlock, LK_EXCLUSIVE | LK_NOWITNESS, NULL);
150         VN_LOCK_AREC(vp);
151         VN_LOCK_ASHARE(vp);
152         /* 
153          * Are we getting the root? If so, make sure the vnode flags
154          * are correct 
155          */
156         if ((fhsize == nmp->nm_fhsize) &&
157             !bcmp(fhp, nmp->nm_fh, fhsize)) {
158                 if (vp->v_type == VNON)
159                         vp->v_type = VDIR;
160                 vp->v_vflag |= VV_ROOT;
161         }
162         
163         MALLOC(np->n_fhp, struct nfsfh *, sizeof (struct nfsfh) + fhsize,
164             M_NFSFH, M_WAITOK);
165         bcopy(fhp, np->n_fhp->nfh_fh, fhsize);
166         np->n_fhp->nfh_len = fhsize;
167         error = insmntque(vp, mntp);
168         if (error != 0) {
169                 *npp = NULL;
170                 FREE((caddr_t)np->n_fhp, M_NFSFH);
171                 mtx_destroy(&np->n_mtx);
172                 uma_zfree(newnfsnode_zone, np);
173                 return (error);
174         }
175         error = vfs_hash_insert(vp, hash, lkflags, 
176             td, &nvp, newnfs_vncmpf, np->n_fhp);
177         if (error)
178                 return (error);
179         if (nvp != NULL) {
180                 *npp = VTONFS(nvp);
181                 /* vfs_hash_insert() vput()'s the losing vnode */
182                 return (0);
183         }
184         *npp = np;
185
186         return (0);
187 }
188
189 /*
190  * Do the vrele(sp->s_dvp) as a separate task in order to avoid a
191  * deadlock because of a LOR when vrele() locks the directory vnode.
192  */
193 static void
194 nfs_freesillyrename(void *arg, __unused int pending)
195 {
196         struct sillyrename *sp;
197
198         sp = arg;
199         vrele(sp->s_dvp);
200         free(sp, M_NEWNFSREQ);
201 }
202
203 int
204 ncl_inactive(struct vop_inactive_args *ap)
205 {
206         struct nfsnode *np;
207         struct sillyrename *sp;
208         struct vnode *vp = ap->a_vp;
209         boolean_t retv;
210
211         np = VTONFS(vp);
212
213         if (NFS_ISV4(vp) && vp->v_type == VREG) {
214                 /*
215                  * Since mmap()'d files do I/O after VOP_CLOSE(), the NFSv4
216                  * Close operations are delayed until now. Any dirty
217                  * buffers/pages must be flushed before the close, so that the
218                  * stateid is available for the writes.
219                  */
220                 if (vp->v_object != NULL) {
221                         VM_OBJECT_WLOCK(vp->v_object);
222                         retv = vm_object_page_clean(vp->v_object, 0, 0,
223                             OBJPC_SYNC);
224                         VM_OBJECT_WUNLOCK(vp->v_object);
225                 } else
226                         retv = TRUE;
227                 if (retv == TRUE) {
228                         (void)ncl_flush(vp, MNT_WAIT, NULL, ap->a_td, 1, 0);
229                         (void)nfsrpc_close(vp, 1, ap->a_td);
230                 }
231         }
232
233         mtx_lock(&np->n_mtx);
234         if (vp->v_type != VDIR) {
235                 sp = np->n_sillyrename;
236                 np->n_sillyrename = NULL;
237         } else
238                 sp = NULL;
239         if (sp) {
240                 mtx_unlock(&np->n_mtx);
241                 (void) ncl_vinvalbuf(vp, 0, ap->a_td, 1);
242                 /*
243                  * Remove the silly file that was rename'd earlier
244                  */
245                 ncl_removeit(sp, vp);
246                 crfree(sp->s_cred);
247                 TASK_INIT(&sp->s_task, 0, nfs_freesillyrename, sp);
248                 taskqueue_enqueue(taskqueue_thread, &sp->s_task);
249                 mtx_lock(&np->n_mtx);
250         }
251         np->n_flag &= NMODIFIED;
252         mtx_unlock(&np->n_mtx);
253         return (0);
254 }
255
256 /*
257  * Reclaim an nfsnode so that it can be used for other purposes.
258  */
259 int
260 ncl_reclaim(struct vop_reclaim_args *ap)
261 {
262         struct vnode *vp = ap->a_vp;
263         struct nfsnode *np = VTONFS(vp);
264         struct nfsdmap *dp, *dp2;
265
266         /*
267          * If the NLM is running, give it a chance to abort pending
268          * locks.
269          */
270         if (nfs_reclaim_p != NULL)
271                 nfs_reclaim_p(ap);
272
273         /*
274          * Destroy the vm object and flush associated pages.
275          */
276         vnode_destroy_vobject(vp);
277
278         if (NFS_ISV4(vp) && vp->v_type == VREG)
279                 /*
280                  * We can now safely close any remaining NFSv4 Opens for
281                  * this file. Most opens will have already been closed by
282                  * ncl_inactive(), but there are cases where it is not
283                  * called, so we need to do it again here.
284                  */
285                 (void) nfsrpc_close(vp, 1, ap->a_td);
286
287         vfs_hash_remove(vp);
288
289         /*
290          * Call nfscl_reclaimnode() to save attributes in the delegation,
291          * as required.
292          */
293         if (vp->v_type == VREG)
294                 nfscl_reclaimnode(vp);
295
296         /*
297          * Free up any directory cookie structures and
298          * large file handle structures that might be associated with
299          * this nfs node.
300          */
301         if (vp->v_type == VDIR) {
302                 dp = LIST_FIRST(&np->n_cookies);
303                 while (dp) {
304                         dp2 = dp;
305                         dp = LIST_NEXT(dp, ndm_list);
306                         FREE((caddr_t)dp2, M_NFSDIROFF);
307                 }
308         }
309         if (np->n_writecred != NULL)
310                 crfree(np->n_writecred);
311         FREE((caddr_t)np->n_fhp, M_NFSFH);
312         if (np->n_v4 != NULL)
313                 FREE((caddr_t)np->n_v4, M_NFSV4NODE);
314         mtx_destroy(&np->n_mtx);
315         uma_zfree(newnfsnode_zone, vp->v_data);
316         vp->v_data = NULL;
317         return (0);
318 }
319
320 /*
321  * Invalidate both the access and attribute caches for this vnode.
322  */
323 void
324 ncl_invalcaches(struct vnode *vp)
325 {
326         struct nfsnode *np = VTONFS(vp);
327         int i;
328
329         mtx_lock(&np->n_mtx);
330         for (i = 0; i < NFS_ACCESSCACHESIZE; i++)
331                 np->n_accesscache[i].stamp = 0;
332         KDTRACE_NFS_ACCESSCACHE_FLUSH_DONE(vp);
333         np->n_attrstamp = 0;
334         KDTRACE_NFS_ATTRCACHE_FLUSH_DONE(vp);
335         mtx_unlock(&np->n_mtx);
336 }