GNU Linux-libre 4.14.332-gnu1
[releases.git] / drivers / staging / lustre / lustre / llite / range_lock.c
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.gnu.org/licenses/gpl-2.0.html
19  *
20  * GPL HEADER END
21  */
22 /*
23  * Range lock is used to allow multiple threads writing a single shared
24  * file given each thread is writing to a non-overlapping portion of the
25  * file.
26  *
27  * Refer to the possible upstream kernel version of range lock by
28  * Jan Kara <jack@suse.cz>: https://lkml.org/lkml/2013/1/31/480
29  *
30  * This file could later replaced by the upstream kernel version.
31  */
32 /*
33  * Author: Prakash Surya <surya1@llnl.gov>
34  * Author: Bobi Jam <bobijam.xu@intel.com>
35  */
36 #include "range_lock.h"
37 #include <uapi/linux/lustre/lustre_idl.h>
38
39 /**
40  * Initialize a range lock tree
41  *
42  * \param tree [in]     an empty range lock tree
43  *
44  * Pre:  Caller should have allocated the range lock tree.
45  * Post: The range lock tree is ready to function.
46  */
47 void range_lock_tree_init(struct range_lock_tree *tree)
48 {
49         tree->rlt_root = NULL;
50         tree->rlt_sequence = 0;
51         spin_lock_init(&tree->rlt_lock);
52 }
53
54 /**
55  * Initialize a range lock node
56  *
57  * \param lock  [in]    an empty range lock node
58  * \param start [in]    start of the covering region
59  * \param end   [in]    end of the covering region
60  *
61  * Pre:  Caller should have allocated the range lock node.
62  * Post: The range lock node is meant to cover [start, end] region
63  */
64 int range_lock_init(struct range_lock *lock, __u64 start, __u64 end)
65 {
66         int rc;
67
68         memset(&lock->rl_node, 0, sizeof(lock->rl_node));
69         if (end != LUSTRE_EOF)
70                 end >>= PAGE_SHIFT;
71         rc = interval_set(&lock->rl_node, start >> PAGE_SHIFT, end);
72         if (rc)
73                 return rc;
74
75         INIT_LIST_HEAD(&lock->rl_next_lock);
76         lock->rl_task = NULL;
77         lock->rl_lock_count = 0;
78         lock->rl_blocking_ranges = 0;
79         lock->rl_sequence = 0;
80         return rc;
81 }
82
83 static inline struct range_lock *next_lock(struct range_lock *lock)
84 {
85         return list_entry(lock->rl_next_lock.next, typeof(*lock), rl_next_lock);
86 }
87
88 /**
89  * Helper function of range_unlock()
90  *
91  * \param node [in]     a range lock found overlapped during interval node
92  *                      search
93  * \param arg [in]      the range lock to be tested
94  *
95  * \retval INTERVAL_ITER_CONT   indicate to continue the search for next
96  *                              overlapping range node
97  * \retval INTERVAL_ITER_STOP   indicate to stop the search
98  */
99 static enum interval_iter range_unlock_cb(struct interval_node *node, void *arg)
100 {
101         struct range_lock *lock = arg;
102         struct range_lock *overlap = node2rangelock(node);
103         struct range_lock *iter;
104
105         list_for_each_entry(iter, &overlap->rl_next_lock, rl_next_lock) {
106                 if (iter->rl_sequence > lock->rl_sequence) {
107                         --iter->rl_blocking_ranges;
108                         LASSERT(iter->rl_blocking_ranges > 0);
109                 }
110         }
111         if (overlap->rl_sequence > lock->rl_sequence) {
112                 --overlap->rl_blocking_ranges;
113                 if (overlap->rl_blocking_ranges == 0)
114                         wake_up_process(overlap->rl_task);
115         }
116         return INTERVAL_ITER_CONT;
117 }
118
119 /**
120  * Unlock a range lock, wake up locks blocked by this lock.
121  *
122  * \param tree [in]     range lock tree
123  * \param lock [in]     range lock to be deleted
124  *
125  * If this lock has been granted, relase it; if not, just delete it from
126  * the tree or the same region lock list. Wake up those locks only blocked
127  * by this lock through range_unlock_cb().
128  */
129 void range_unlock(struct range_lock_tree *tree, struct range_lock *lock)
130 {
131         spin_lock(&tree->rlt_lock);
132         if (!list_empty(&lock->rl_next_lock)) {
133                 struct range_lock *next;
134
135                 if (interval_is_intree(&lock->rl_node)) { /* first lock */
136                         /* Insert the next same range lock into the tree */
137                         next = next_lock(lock);
138                         next->rl_lock_count = lock->rl_lock_count - 1;
139                         interval_erase(&lock->rl_node, &tree->rlt_root);
140                         interval_insert(&next->rl_node, &tree->rlt_root);
141                 } else {
142                         /* find the first lock in tree */
143                         list_for_each_entry(next, &lock->rl_next_lock,
144                                             rl_next_lock) {
145                                 if (!interval_is_intree(&next->rl_node))
146                                         continue;
147
148                                 LASSERT(next->rl_lock_count > 0);
149                                 next->rl_lock_count--;
150                                 break;
151                         }
152                 }
153                 list_del_init(&lock->rl_next_lock);
154         } else {
155                 LASSERT(interval_is_intree(&lock->rl_node));
156                 interval_erase(&lock->rl_node, &tree->rlt_root);
157         }
158
159         interval_search(tree->rlt_root, &lock->rl_node.in_extent,
160                         range_unlock_cb, lock);
161         spin_unlock(&tree->rlt_lock);
162 }
163
164 /**
165  * Helper function of range_lock()
166  *
167  * \param node [in]     a range lock found overlapped during interval node
168  *                      search
169  * \param arg [in]      the range lock to be tested
170  *
171  * \retval INTERVAL_ITER_CONT   indicate to continue the search for next
172  *                              overlapping range node
173  * \retval INTERVAL_ITER_STOP   indicate to stop the search
174  */
175 static enum interval_iter range_lock_cb(struct interval_node *node, void *arg)
176 {
177         struct range_lock *lock = arg;
178         struct range_lock *overlap = node2rangelock(node);
179
180         lock->rl_blocking_ranges += overlap->rl_lock_count + 1;
181         return INTERVAL_ITER_CONT;
182 }
183
184 /**
185  * Lock a region
186  *
187  * \param tree [in]     range lock tree
188  * \param lock [in]     range lock node containing the region span
189  *
190  * \retval 0    get the range lock
191  * \retval <0   error code while not getting the range lock
192  *
193  * If there exists overlapping range lock, the new lock will wait and
194  * retry, if later it find that it is not the chosen one to wake up,
195  * it wait again.
196  */
197 int range_lock(struct range_lock_tree *tree, struct range_lock *lock)
198 {
199         struct interval_node *node;
200         int rc = 0;
201
202         spin_lock(&tree->rlt_lock);
203         /*
204          * We need to check for all conflicting intervals
205          * already in the tree.
206          */
207         interval_search(tree->rlt_root, &lock->rl_node.in_extent,
208                         range_lock_cb, lock);
209         /*
210          * Insert to the tree if I am unique, otherwise I've been linked to
211          * the rl_next_lock of another lock which has the same range as mine
212          * in range_lock_cb().
213          */
214         node = interval_insert(&lock->rl_node, &tree->rlt_root);
215         if (node) {
216                 struct range_lock *tmp = node2rangelock(node);
217
218                 list_add_tail(&lock->rl_next_lock, &tmp->rl_next_lock);
219                 tmp->rl_lock_count++;
220         }
221         lock->rl_sequence = ++tree->rlt_sequence;
222
223         while (lock->rl_blocking_ranges > 0) {
224                 lock->rl_task = current;
225                 __set_current_state(TASK_INTERRUPTIBLE);
226                 spin_unlock(&tree->rlt_lock);
227                 schedule();
228
229                 if (signal_pending(current)) {
230                         range_unlock(tree, lock);
231                         rc = -EINTR;
232                         goto out;
233                 }
234                 spin_lock(&tree->rlt_lock);
235         }
236         spin_unlock(&tree->rlt_lock);
237 out:
238         return rc;
239 }