GNU Linux-libre 4.14.262-gnu1
[releases.git] / drivers / gpu / drm / msm / msm_gem.c
1 /*
2  * Copyright (C) 2013 Red Hat
3  * Author: Rob Clark <robdclark@gmail.com>
4  *
5  * This program is free software; you can redistribute it and/or modify it
6  * under the terms of the GNU General Public License version 2 as published by
7  * the Free Software Foundation.
8  *
9  * This program is distributed in the hope that it will be useful, but WITHOUT
10  * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
11  * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
12  * more details.
13  *
14  * You should have received a copy of the GNU General Public License along with
15  * this program.  If not, see <http://www.gnu.org/licenses/>.
16  */
17
18 #include <linux/spinlock.h>
19 #include <linux/shmem_fs.h>
20 #include <linux/dma-buf.h>
21 #include <linux/pfn_t.h>
22
23 #include "msm_drv.h"
24 #include "msm_fence.h"
25 #include "msm_gem.h"
26 #include "msm_gpu.h"
27 #include "msm_mmu.h"
28
29 static void msm_gem_vunmap_locked(struct drm_gem_object *obj);
30
31
32 static dma_addr_t physaddr(struct drm_gem_object *obj)
33 {
34         struct msm_gem_object *msm_obj = to_msm_bo(obj);
35         struct msm_drm_private *priv = obj->dev->dev_private;
36         return (((dma_addr_t)msm_obj->vram_node->start) << PAGE_SHIFT) +
37                         priv->vram.paddr;
38 }
39
40 static bool use_pages(struct drm_gem_object *obj)
41 {
42         struct msm_gem_object *msm_obj = to_msm_bo(obj);
43         return !msm_obj->vram_node;
44 }
45
46 /*
47  * Cache sync.. this is a bit over-complicated, to fit dma-mapping
48  * API.  Really GPU cache is out of scope here (handled on cmdstream)
49  * and all we need to do is invalidate newly allocated pages before
50  * mapping to CPU as uncached/writecombine.
51  *
52  * On top of this, we have the added headache, that depending on
53  * display generation, the display's iommu may be wired up to either
54  * the toplevel drm device (mdss), or to the mdp sub-node, meaning
55  * that here we either have dma-direct or iommu ops.
56  *
57  * Let this be a cautionary tail of abstraction gone wrong.
58  */
59
60 static void sync_for_device(struct msm_gem_object *msm_obj)
61 {
62         struct device *dev = msm_obj->base.dev->dev;
63
64         if (get_dma_ops(dev) && IS_ENABLED(CONFIG_ARM64)) {
65                 dma_sync_sg_for_device(dev, msm_obj->sgt->sgl,
66                         msm_obj->sgt->nents, DMA_BIDIRECTIONAL);
67         } else {
68                 dma_map_sg(dev, msm_obj->sgt->sgl,
69                         msm_obj->sgt->nents, DMA_BIDIRECTIONAL);
70         }
71 }
72
73 static void sync_for_cpu(struct msm_gem_object *msm_obj)
74 {
75         struct device *dev = msm_obj->base.dev->dev;
76
77         if (get_dma_ops(dev) && IS_ENABLED(CONFIG_ARM64)) {
78                 dma_sync_sg_for_cpu(dev, msm_obj->sgt->sgl,
79                         msm_obj->sgt->nents, DMA_BIDIRECTIONAL);
80         } else {
81                 dma_unmap_sg(dev, msm_obj->sgt->sgl,
82                         msm_obj->sgt->nents, DMA_BIDIRECTIONAL);
83         }
84 }
85
86 /* allocate pages from VRAM carveout, used when no IOMMU: */
87 static struct page **get_pages_vram(struct drm_gem_object *obj, int npages)
88 {
89         struct msm_gem_object *msm_obj = to_msm_bo(obj);
90         struct msm_drm_private *priv = obj->dev->dev_private;
91         dma_addr_t paddr;
92         struct page **p;
93         int ret, i;
94
95         p = kvmalloc_array(npages, sizeof(struct page *), GFP_KERNEL);
96         if (!p)
97                 return ERR_PTR(-ENOMEM);
98
99         spin_lock(&priv->vram.lock);
100         ret = drm_mm_insert_node(&priv->vram.mm, msm_obj->vram_node, npages);
101         spin_unlock(&priv->vram.lock);
102         if (ret) {
103                 kvfree(p);
104                 return ERR_PTR(ret);
105         }
106
107         paddr = physaddr(obj);
108         for (i = 0; i < npages; i++) {
109                 p[i] = phys_to_page(paddr);
110                 paddr += PAGE_SIZE;
111         }
112
113         return p;
114 }
115
116 static struct page **get_pages(struct drm_gem_object *obj)
117 {
118         struct msm_gem_object *msm_obj = to_msm_bo(obj);
119
120         if (!msm_obj->pages) {
121                 struct drm_device *dev = obj->dev;
122                 struct page **p;
123                 int npages = obj->size >> PAGE_SHIFT;
124
125                 if (use_pages(obj))
126                         p = drm_gem_get_pages(obj);
127                 else
128                         p = get_pages_vram(obj, npages);
129
130                 if (IS_ERR(p)) {
131                         dev_err(dev->dev, "could not get pages: %ld\n",
132                                         PTR_ERR(p));
133                         return p;
134                 }
135
136                 msm_obj->pages = p;
137
138                 msm_obj->sgt = drm_prime_pages_to_sg(p, npages);
139                 if (IS_ERR(msm_obj->sgt)) {
140                         void *ptr = ERR_CAST(msm_obj->sgt);
141
142                         dev_err(dev->dev, "failed to allocate sgt\n");
143                         msm_obj->sgt = NULL;
144                         return ptr;
145                 }
146
147                 /* For non-cached buffers, ensure the new pages are clean
148                  * because display controller, GPU, etc. are not coherent:
149                  */
150                 if (msm_obj->flags & (MSM_BO_WC|MSM_BO_UNCACHED))
151                         sync_for_device(msm_obj);
152         }
153
154         return msm_obj->pages;
155 }
156
157 static void put_pages_vram(struct drm_gem_object *obj)
158 {
159         struct msm_gem_object *msm_obj = to_msm_bo(obj);
160         struct msm_drm_private *priv = obj->dev->dev_private;
161
162         spin_lock(&priv->vram.lock);
163         drm_mm_remove_node(msm_obj->vram_node);
164         spin_unlock(&priv->vram.lock);
165
166         kvfree(msm_obj->pages);
167 }
168
169 static void put_pages(struct drm_gem_object *obj)
170 {
171         struct msm_gem_object *msm_obj = to_msm_bo(obj);
172
173         if (msm_obj->pages) {
174                 if (msm_obj->sgt) {
175                         /* For non-cached buffers, ensure the new
176                          * pages are clean because display controller,
177                          * GPU, etc. are not coherent:
178                          */
179                         if (msm_obj->flags & (MSM_BO_WC|MSM_BO_UNCACHED))
180                                 sync_for_cpu(msm_obj);
181
182                         sg_free_table(msm_obj->sgt);
183                         kfree(msm_obj->sgt);
184                 }
185
186                 if (use_pages(obj))
187                         drm_gem_put_pages(obj, msm_obj->pages, true, false);
188                 else
189                         put_pages_vram(obj);
190
191                 msm_obj->pages = NULL;
192         }
193 }
194
195 struct page **msm_gem_get_pages(struct drm_gem_object *obj)
196 {
197         struct msm_gem_object *msm_obj = to_msm_bo(obj);
198         struct page **p;
199
200         mutex_lock(&msm_obj->lock);
201
202         if (WARN_ON(msm_obj->madv != MSM_MADV_WILLNEED)) {
203                 mutex_unlock(&msm_obj->lock);
204                 return ERR_PTR(-EBUSY);
205         }
206
207         p = get_pages(obj);
208         mutex_unlock(&msm_obj->lock);
209         return p;
210 }
211
212 void msm_gem_put_pages(struct drm_gem_object *obj)
213 {
214         /* when we start tracking the pin count, then do something here */
215 }
216
217 int msm_gem_mmap_obj(struct drm_gem_object *obj,
218                 struct vm_area_struct *vma)
219 {
220         struct msm_gem_object *msm_obj = to_msm_bo(obj);
221
222         vma->vm_flags &= ~VM_PFNMAP;
223         vma->vm_flags |= VM_MIXEDMAP;
224
225         if (msm_obj->flags & MSM_BO_WC) {
226                 vma->vm_page_prot = pgprot_writecombine(vm_get_page_prot(vma->vm_flags));
227         } else if (msm_obj->flags & MSM_BO_UNCACHED) {
228                 vma->vm_page_prot = pgprot_noncached(vm_get_page_prot(vma->vm_flags));
229         } else {
230                 /*
231                  * Shunt off cached objs to shmem file so they have their own
232                  * address_space (so unmap_mapping_range does what we want,
233                  * in particular in the case of mmap'd dmabufs)
234                  */
235                 fput(vma->vm_file);
236                 get_file(obj->filp);
237                 vma->vm_pgoff = 0;
238                 vma->vm_file  = obj->filp;
239
240                 vma->vm_page_prot = vm_get_page_prot(vma->vm_flags);
241         }
242
243         return 0;
244 }
245
246 int msm_gem_mmap(struct file *filp, struct vm_area_struct *vma)
247 {
248         int ret;
249
250         ret = drm_gem_mmap(filp, vma);
251         if (ret) {
252                 DBG("mmap failed: %d", ret);
253                 return ret;
254         }
255
256         return msm_gem_mmap_obj(vma->vm_private_data, vma);
257 }
258
259 int msm_gem_fault(struct vm_fault *vmf)
260 {
261         struct vm_area_struct *vma = vmf->vma;
262         struct drm_gem_object *obj = vma->vm_private_data;
263         struct msm_gem_object *msm_obj = to_msm_bo(obj);
264         struct page **pages;
265         unsigned long pfn;
266         pgoff_t pgoff;
267         int ret;
268
269         /*
270          * vm_ops.open/drm_gem_mmap_obj and close get and put
271          * a reference on obj. So, we dont need to hold one here.
272          */
273         ret = mutex_lock_interruptible(&msm_obj->lock);
274         if (ret)
275                 goto out;
276
277         if (WARN_ON(msm_obj->madv != MSM_MADV_WILLNEED)) {
278                 mutex_unlock(&msm_obj->lock);
279                 return VM_FAULT_SIGBUS;
280         }
281
282         /* make sure we have pages attached now */
283         pages = get_pages(obj);
284         if (IS_ERR(pages)) {
285                 ret = PTR_ERR(pages);
286                 goto out_unlock;
287         }
288
289         /* We don't use vmf->pgoff since that has the fake offset: */
290         pgoff = (vmf->address - vma->vm_start) >> PAGE_SHIFT;
291
292         pfn = page_to_pfn(pages[pgoff]);
293
294         VERB("Inserting %p pfn %lx, pa %lx", (void *)vmf->address,
295                         pfn, pfn << PAGE_SHIFT);
296
297         ret = vm_insert_mixed(vma, vmf->address, __pfn_to_pfn_t(pfn, PFN_DEV));
298
299 out_unlock:
300         mutex_unlock(&msm_obj->lock);
301 out:
302         switch (ret) {
303         case -EAGAIN:
304         case 0:
305         case -ERESTARTSYS:
306         case -EINTR:
307         case -EBUSY:
308                 /*
309                  * EBUSY is ok: this just means that another thread
310                  * already did the job.
311                  */
312                 return VM_FAULT_NOPAGE;
313         case -ENOMEM:
314                 return VM_FAULT_OOM;
315         default:
316                 return VM_FAULT_SIGBUS;
317         }
318 }
319
320 /** get mmap offset */
321 static uint64_t mmap_offset(struct drm_gem_object *obj)
322 {
323         struct drm_device *dev = obj->dev;
324         struct msm_gem_object *msm_obj = to_msm_bo(obj);
325         int ret;
326
327         WARN_ON(!mutex_is_locked(&msm_obj->lock));
328
329         /* Make it mmapable */
330         ret = drm_gem_create_mmap_offset(obj);
331
332         if (ret) {
333                 dev_err(dev->dev, "could not allocate mmap offset\n");
334                 return 0;
335         }
336
337         return drm_vma_node_offset_addr(&obj->vma_node);
338 }
339
340 uint64_t msm_gem_mmap_offset(struct drm_gem_object *obj)
341 {
342         uint64_t offset;
343         struct msm_gem_object *msm_obj = to_msm_bo(obj);
344
345         mutex_lock(&msm_obj->lock);
346         offset = mmap_offset(obj);
347         mutex_unlock(&msm_obj->lock);
348         return offset;
349 }
350
351 static struct msm_gem_vma *add_vma(struct drm_gem_object *obj,
352                 struct msm_gem_address_space *aspace)
353 {
354         struct msm_gem_object *msm_obj = to_msm_bo(obj);
355         struct msm_gem_vma *vma;
356
357         WARN_ON(!mutex_is_locked(&msm_obj->lock));
358
359         vma = kzalloc(sizeof(*vma), GFP_KERNEL);
360         if (!vma)
361                 return ERR_PTR(-ENOMEM);
362
363         vma->aspace = aspace;
364
365         list_add_tail(&vma->list, &msm_obj->vmas);
366
367         return vma;
368 }
369
370 static struct msm_gem_vma *lookup_vma(struct drm_gem_object *obj,
371                 struct msm_gem_address_space *aspace)
372 {
373         struct msm_gem_object *msm_obj = to_msm_bo(obj);
374         struct msm_gem_vma *vma;
375
376         WARN_ON(!mutex_is_locked(&msm_obj->lock));
377
378         list_for_each_entry(vma, &msm_obj->vmas, list) {
379                 if (vma->aspace == aspace)
380                         return vma;
381         }
382
383         return NULL;
384 }
385
386 static void del_vma(struct msm_gem_vma *vma)
387 {
388         if (!vma)
389                 return;
390
391         list_del(&vma->list);
392         kfree(vma);
393 }
394
395 /* Called with msm_obj->lock locked */
396 static void
397 put_iova(struct drm_gem_object *obj)
398 {
399         struct msm_gem_object *msm_obj = to_msm_bo(obj);
400         struct msm_gem_vma *vma, *tmp;
401
402         WARN_ON(!mutex_is_locked(&msm_obj->lock));
403
404         list_for_each_entry_safe(vma, tmp, &msm_obj->vmas, list) {
405                 msm_gem_unmap_vma(vma->aspace, vma, msm_obj->sgt);
406                 del_vma(vma);
407         }
408 }
409
410 /* get iova, taking a reference.  Should have a matching put */
411 int msm_gem_get_iova(struct drm_gem_object *obj,
412                 struct msm_gem_address_space *aspace, uint64_t *iova)
413 {
414         struct msm_gem_object *msm_obj = to_msm_bo(obj);
415         struct msm_gem_vma *vma;
416         int ret = 0;
417
418         mutex_lock(&msm_obj->lock);
419
420         if (WARN_ON(msm_obj->madv != MSM_MADV_WILLNEED)) {
421                 mutex_unlock(&msm_obj->lock);
422                 return -EBUSY;
423         }
424
425         vma = lookup_vma(obj, aspace);
426
427         if (!vma) {
428                 struct page **pages;
429
430                 vma = add_vma(obj, aspace);
431                 if (IS_ERR(vma)) {
432                         ret = PTR_ERR(vma);
433                         goto unlock;
434                 }
435
436                 pages = get_pages(obj);
437                 if (IS_ERR(pages)) {
438                         ret = PTR_ERR(pages);
439                         goto fail;
440                 }
441
442                 ret = msm_gem_map_vma(aspace, vma, msm_obj->sgt,
443                                 obj->size >> PAGE_SHIFT);
444                 if (ret)
445                         goto fail;
446         }
447
448         *iova = vma->iova;
449
450         mutex_unlock(&msm_obj->lock);
451         return 0;
452
453 fail:
454         del_vma(vma);
455 unlock:
456         mutex_unlock(&msm_obj->lock);
457         return ret;
458 }
459
460 /* get iova without taking a reference, used in places where you have
461  * already done a 'msm_gem_get_iova()'.
462  */
463 uint64_t msm_gem_iova(struct drm_gem_object *obj,
464                 struct msm_gem_address_space *aspace)
465 {
466         struct msm_gem_object *msm_obj = to_msm_bo(obj);
467         struct msm_gem_vma *vma;
468
469         mutex_lock(&msm_obj->lock);
470         vma = lookup_vma(obj, aspace);
471         mutex_unlock(&msm_obj->lock);
472         WARN_ON(!vma);
473
474         return vma ? vma->iova : 0;
475 }
476
477 void msm_gem_put_iova(struct drm_gem_object *obj,
478                 struct msm_gem_address_space *aspace)
479 {
480         // XXX TODO ..
481         // NOTE: probably don't need a _locked() version.. we wouldn't
482         // normally unmap here, but instead just mark that it could be
483         // unmapped (if the iova refcnt drops to zero), but then later
484         // if another _get_iova_locked() fails we can start unmapping
485         // things that are no longer needed..
486 }
487
488 int msm_gem_dumb_create(struct drm_file *file, struct drm_device *dev,
489                 struct drm_mode_create_dumb *args)
490 {
491         args->pitch = align_pitch(args->width, args->bpp);
492         args->size  = PAGE_ALIGN(args->pitch * args->height);
493         return msm_gem_new_handle(dev, file, args->size,
494                         MSM_BO_SCANOUT | MSM_BO_WC, &args->handle);
495 }
496
497 int msm_gem_dumb_map_offset(struct drm_file *file, struct drm_device *dev,
498                 uint32_t handle, uint64_t *offset)
499 {
500         struct drm_gem_object *obj;
501         int ret = 0;
502
503         /* GEM does all our handle to object mapping */
504         obj = drm_gem_object_lookup(file, handle);
505         if (obj == NULL) {
506                 ret = -ENOENT;
507                 goto fail;
508         }
509
510         *offset = msm_gem_mmap_offset(obj);
511
512         drm_gem_object_unreference_unlocked(obj);
513
514 fail:
515         return ret;
516 }
517
518 void *msm_gem_get_vaddr(struct drm_gem_object *obj)
519 {
520         struct msm_gem_object *msm_obj = to_msm_bo(obj);
521         int ret = 0;
522
523         mutex_lock(&msm_obj->lock);
524
525         if (WARN_ON(msm_obj->madv != MSM_MADV_WILLNEED)) {
526                 mutex_unlock(&msm_obj->lock);
527                 return ERR_PTR(-EBUSY);
528         }
529
530         /* increment vmap_count *before* vmap() call, so shrinker can
531          * check vmap_count (is_vunmapable()) outside of msm_obj->lock.
532          * This guarantees that we won't try to msm_gem_vunmap() this
533          * same object from within the vmap() call (while we already
534          * hold msm_obj->lock)
535          */
536         msm_obj->vmap_count++;
537
538         if (!msm_obj->vaddr) {
539                 struct page **pages = get_pages(obj);
540                 if (IS_ERR(pages)) {
541                         ret = PTR_ERR(pages);
542                         goto fail;
543                 }
544                 msm_obj->vaddr = vmap(pages, obj->size >> PAGE_SHIFT,
545                                 VM_MAP, pgprot_writecombine(PAGE_KERNEL));
546                 if (msm_obj->vaddr == NULL) {
547                         ret = -ENOMEM;
548                         goto fail;
549                 }
550         }
551
552         mutex_unlock(&msm_obj->lock);
553         return msm_obj->vaddr;
554
555 fail:
556         msm_obj->vmap_count--;
557         mutex_unlock(&msm_obj->lock);
558         return ERR_PTR(ret);
559 }
560
561 void msm_gem_put_vaddr(struct drm_gem_object *obj)
562 {
563         struct msm_gem_object *msm_obj = to_msm_bo(obj);
564
565         mutex_lock(&msm_obj->lock);
566         WARN_ON(msm_obj->vmap_count < 1);
567         msm_obj->vmap_count--;
568         mutex_unlock(&msm_obj->lock);
569 }
570
571 /* Update madvise status, returns true if not purged, else
572  * false or -errno.
573  */
574 int msm_gem_madvise(struct drm_gem_object *obj, unsigned madv)
575 {
576         struct msm_gem_object *msm_obj = to_msm_bo(obj);
577
578         mutex_lock(&msm_obj->lock);
579
580         WARN_ON(!mutex_is_locked(&obj->dev->struct_mutex));
581
582         if (msm_obj->madv != __MSM_MADV_PURGED)
583                 msm_obj->madv = madv;
584
585         madv = msm_obj->madv;
586
587         mutex_unlock(&msm_obj->lock);
588
589         return (madv != __MSM_MADV_PURGED);
590 }
591
592 void msm_gem_purge(struct drm_gem_object *obj, enum msm_gem_lock subclass)
593 {
594         struct drm_device *dev = obj->dev;
595         struct msm_gem_object *msm_obj = to_msm_bo(obj);
596
597         WARN_ON(!mutex_is_locked(&dev->struct_mutex));
598         WARN_ON(!is_purgeable(msm_obj));
599         WARN_ON(obj->import_attach);
600
601         mutex_lock_nested(&msm_obj->lock, subclass);
602
603         put_iova(obj);
604
605         msm_gem_vunmap_locked(obj);
606
607         put_pages(obj);
608
609         msm_obj->madv = __MSM_MADV_PURGED;
610
611         drm_vma_node_unmap(&obj->vma_node, dev->anon_inode->i_mapping);
612         drm_gem_free_mmap_offset(obj);
613
614         /* Our goal here is to return as much of the memory as
615          * is possible back to the system as we are called from OOM.
616          * To do this we must instruct the shmfs to drop all of its
617          * backing pages, *now*.
618          */
619         shmem_truncate_range(file_inode(obj->filp), 0, (loff_t)-1);
620
621         invalidate_mapping_pages(file_inode(obj->filp)->i_mapping,
622                         0, (loff_t)-1);
623
624         mutex_unlock(&msm_obj->lock);
625 }
626
627 static void msm_gem_vunmap_locked(struct drm_gem_object *obj)
628 {
629         struct msm_gem_object *msm_obj = to_msm_bo(obj);
630
631         WARN_ON(!mutex_is_locked(&msm_obj->lock));
632
633         if (!msm_obj->vaddr || WARN_ON(!is_vunmapable(msm_obj)))
634                 return;
635
636         vunmap(msm_obj->vaddr);
637         msm_obj->vaddr = NULL;
638 }
639
640 void msm_gem_vunmap(struct drm_gem_object *obj, enum msm_gem_lock subclass)
641 {
642         struct msm_gem_object *msm_obj = to_msm_bo(obj);
643
644         mutex_lock_nested(&msm_obj->lock, subclass);
645         msm_gem_vunmap_locked(obj);
646         mutex_unlock(&msm_obj->lock);
647 }
648
649 /* must be called before _move_to_active().. */
650 int msm_gem_sync_object(struct drm_gem_object *obj,
651                 struct msm_fence_context *fctx, bool exclusive)
652 {
653         struct msm_gem_object *msm_obj = to_msm_bo(obj);
654         struct reservation_object_list *fobj;
655         struct dma_fence *fence;
656         int i, ret;
657
658         fobj = reservation_object_get_list(msm_obj->resv);
659         if (!fobj || (fobj->shared_count == 0)) {
660                 fence = reservation_object_get_excl(msm_obj->resv);
661                 /* don't need to wait on our own fences, since ring is fifo */
662                 if (fence && (fence->context != fctx->context)) {
663                         ret = dma_fence_wait(fence, true);
664                         if (ret)
665                                 return ret;
666                 }
667         }
668
669         if (!exclusive || !fobj)
670                 return 0;
671
672         for (i = 0; i < fobj->shared_count; i++) {
673                 fence = rcu_dereference_protected(fobj->shared[i],
674                                                 reservation_object_held(msm_obj->resv));
675                 if (fence->context != fctx->context) {
676                         ret = dma_fence_wait(fence, true);
677                         if (ret)
678                                 return ret;
679                 }
680         }
681
682         return 0;
683 }
684
685 void msm_gem_move_to_active(struct drm_gem_object *obj,
686                 struct msm_gpu *gpu, bool exclusive, struct dma_fence *fence)
687 {
688         struct msm_gem_object *msm_obj = to_msm_bo(obj);
689         WARN_ON(msm_obj->madv != MSM_MADV_WILLNEED);
690         msm_obj->gpu = gpu;
691         if (exclusive)
692                 reservation_object_add_excl_fence(msm_obj->resv, fence);
693         else
694                 reservation_object_add_shared_fence(msm_obj->resv, fence);
695         list_del_init(&msm_obj->mm_list);
696         list_add_tail(&msm_obj->mm_list, &gpu->active_list);
697 }
698
699 void msm_gem_move_to_inactive(struct drm_gem_object *obj)
700 {
701         struct drm_device *dev = obj->dev;
702         struct msm_drm_private *priv = dev->dev_private;
703         struct msm_gem_object *msm_obj = to_msm_bo(obj);
704
705         WARN_ON(!mutex_is_locked(&dev->struct_mutex));
706
707         msm_obj->gpu = NULL;
708         list_del_init(&msm_obj->mm_list);
709         list_add_tail(&msm_obj->mm_list, &priv->inactive_list);
710 }
711
712 int msm_gem_cpu_prep(struct drm_gem_object *obj, uint32_t op, ktime_t *timeout)
713 {
714         struct msm_gem_object *msm_obj = to_msm_bo(obj);
715         bool write = !!(op & MSM_PREP_WRITE);
716         unsigned long remain =
717                 op & MSM_PREP_NOSYNC ? 0 : timeout_to_jiffies(timeout);
718         long ret;
719
720         ret = reservation_object_wait_timeout_rcu(msm_obj->resv, write,
721                                                   true,  remain);
722         if (ret == 0)
723                 return remain == 0 ? -EBUSY : -ETIMEDOUT;
724         else if (ret < 0)
725                 return ret;
726
727         /* TODO cache maintenance */
728
729         return 0;
730 }
731
732 int msm_gem_cpu_fini(struct drm_gem_object *obj)
733 {
734         /* TODO cache maintenance */
735         return 0;
736 }
737
738 #ifdef CONFIG_DEBUG_FS
739 static void describe_fence(struct dma_fence *fence, const char *type,
740                 struct seq_file *m)
741 {
742         if (!dma_fence_is_signaled(fence))
743                 seq_printf(m, "\t%9s: %s %s seq %u\n", type,
744                                 fence->ops->get_driver_name(fence),
745                                 fence->ops->get_timeline_name(fence),
746                                 fence->seqno);
747 }
748
749 void msm_gem_describe(struct drm_gem_object *obj, struct seq_file *m)
750 {
751         struct msm_gem_object *msm_obj = to_msm_bo(obj);
752         struct reservation_object *robj = msm_obj->resv;
753         struct reservation_object_list *fobj;
754         struct dma_fence *fence;
755         struct msm_gem_vma *vma;
756         uint64_t off = drm_vma_node_start(&obj->vma_node);
757         const char *madv;
758
759         mutex_lock(&msm_obj->lock);
760
761         switch (msm_obj->madv) {
762         case __MSM_MADV_PURGED:
763                 madv = " purged";
764                 break;
765         case MSM_MADV_DONTNEED:
766                 madv = " purgeable";
767                 break;
768         case MSM_MADV_WILLNEED:
769         default:
770                 madv = "";
771                 break;
772         }
773
774         seq_printf(m, "%08x: %c %2d (%2d) %08llx %p\t",
775                         msm_obj->flags, is_active(msm_obj) ? 'A' : 'I',
776                         obj->name, kref_read(&obj->refcount),
777                         off, msm_obj->vaddr);
778
779         /* FIXME: we need to print the address space here too */
780         list_for_each_entry(vma, &msm_obj->vmas, list)
781                 seq_printf(m, " %08llx", vma->iova);
782
783         seq_printf(m, " %zu%s\n", obj->size, madv);
784
785         rcu_read_lock();
786         fobj = rcu_dereference(robj->fence);
787         if (fobj) {
788                 unsigned int i, shared_count = fobj->shared_count;
789
790                 for (i = 0; i < shared_count; i++) {
791                         fence = rcu_dereference(fobj->shared[i]);
792                         describe_fence(fence, "Shared", m);
793                 }
794         }
795
796         fence = rcu_dereference(robj->fence_excl);
797         if (fence)
798                 describe_fence(fence, "Exclusive", m);
799         rcu_read_unlock();
800
801         mutex_unlock(&msm_obj->lock);
802 }
803
804 void msm_gem_describe_objects(struct list_head *list, struct seq_file *m)
805 {
806         struct msm_gem_object *msm_obj;
807         int count = 0;
808         size_t size = 0;
809
810         list_for_each_entry(msm_obj, list, mm_list) {
811                 struct drm_gem_object *obj = &msm_obj->base;
812                 seq_printf(m, "   ");
813                 msm_gem_describe(obj, m);
814                 count++;
815                 size += obj->size;
816         }
817
818         seq_printf(m, "Total %d objects, %zu bytes\n", count, size);
819 }
820 #endif
821
822 void msm_gem_free_object(struct drm_gem_object *obj)
823 {
824         struct drm_device *dev = obj->dev;
825         struct msm_gem_object *msm_obj = to_msm_bo(obj);
826
827         WARN_ON(!mutex_is_locked(&dev->struct_mutex));
828
829         /* object should not be on active list: */
830         WARN_ON(is_active(msm_obj));
831
832         list_del(&msm_obj->mm_list);
833
834         mutex_lock(&msm_obj->lock);
835
836         put_iova(obj);
837
838         if (obj->import_attach) {
839                 if (msm_obj->vaddr)
840                         dma_buf_vunmap(obj->import_attach->dmabuf, msm_obj->vaddr);
841
842                 /* Don't drop the pages for imported dmabuf, as they are not
843                  * ours, just free the array we allocated:
844                  */
845                 if (msm_obj->pages)
846                         kvfree(msm_obj->pages);
847
848                 drm_prime_gem_destroy(obj, msm_obj->sgt);
849         } else {
850                 msm_gem_vunmap_locked(obj);
851                 put_pages(obj);
852         }
853
854         if (msm_obj->resv == &msm_obj->_resv)
855                 reservation_object_fini(msm_obj->resv);
856
857         drm_gem_object_release(obj);
858
859         mutex_unlock(&msm_obj->lock);
860         kfree(msm_obj);
861 }
862
863 /* convenience method to construct a GEM buffer object, and userspace handle */
864 int msm_gem_new_handle(struct drm_device *dev, struct drm_file *file,
865                 uint32_t size, uint32_t flags, uint32_t *handle)
866 {
867         struct drm_gem_object *obj;
868         int ret;
869
870         obj = msm_gem_new(dev, size, flags);
871
872         if (IS_ERR(obj))
873                 return PTR_ERR(obj);
874
875         ret = drm_gem_handle_create(file, obj, handle);
876
877         /* drop reference from allocate - handle holds it now */
878         drm_gem_object_unreference_unlocked(obj);
879
880         return ret;
881 }
882
883 static int msm_gem_new_impl(struct drm_device *dev,
884                 uint32_t size, uint32_t flags,
885                 struct reservation_object *resv,
886                 struct drm_gem_object **obj,
887                 bool struct_mutex_locked)
888 {
889         struct msm_drm_private *priv = dev->dev_private;
890         struct msm_gem_object *msm_obj;
891
892         switch (flags & MSM_BO_CACHE_MASK) {
893         case MSM_BO_UNCACHED:
894         case MSM_BO_CACHED:
895         case MSM_BO_WC:
896                 break;
897         default:
898                 dev_err(dev->dev, "invalid cache flag: %x\n",
899                                 (flags & MSM_BO_CACHE_MASK));
900                 return -EINVAL;
901         }
902
903         msm_obj = kzalloc(sizeof(*msm_obj), GFP_KERNEL);
904         if (!msm_obj)
905                 return -ENOMEM;
906
907         mutex_init(&msm_obj->lock);
908
909         msm_obj->flags = flags;
910         msm_obj->madv = MSM_MADV_WILLNEED;
911
912         if (resv) {
913                 msm_obj->resv = resv;
914         } else {
915                 msm_obj->resv = &msm_obj->_resv;
916                 reservation_object_init(msm_obj->resv);
917         }
918
919         INIT_LIST_HEAD(&msm_obj->submit_entry);
920         INIT_LIST_HEAD(&msm_obj->vmas);
921
922         if (struct_mutex_locked) {
923                 WARN_ON(!mutex_is_locked(&dev->struct_mutex));
924                 list_add_tail(&msm_obj->mm_list, &priv->inactive_list);
925         } else {
926                 mutex_lock(&dev->struct_mutex);
927                 list_add_tail(&msm_obj->mm_list, &priv->inactive_list);
928                 mutex_unlock(&dev->struct_mutex);
929         }
930
931         *obj = &msm_obj->base;
932
933         return 0;
934 }
935
936 static struct drm_gem_object *_msm_gem_new(struct drm_device *dev,
937                 uint32_t size, uint32_t flags, bool struct_mutex_locked)
938 {
939         struct msm_drm_private *priv = dev->dev_private;
940         struct drm_gem_object *obj = NULL;
941         bool use_vram = false;
942         int ret;
943
944         size = PAGE_ALIGN(size);
945
946         if (!iommu_present(&platform_bus_type))
947                 use_vram = true;
948         else if ((flags & MSM_BO_STOLEN) && priv->vram.size)
949                 use_vram = true;
950
951         if (WARN_ON(use_vram && !priv->vram.size))
952                 return ERR_PTR(-EINVAL);
953
954         /* Disallow zero sized objects as they make the underlying
955          * infrastructure grumpy
956          */
957         if (size == 0)
958                 return ERR_PTR(-EINVAL);
959
960         ret = msm_gem_new_impl(dev, size, flags, NULL, &obj, struct_mutex_locked);
961         if (ret)
962                 return ERR_PTR(ret);
963
964         if (use_vram) {
965                 struct msm_gem_vma *vma;
966                 struct page **pages;
967                 struct msm_gem_object *msm_obj = to_msm_bo(obj);
968
969                 mutex_lock(&msm_obj->lock);
970
971                 vma = add_vma(obj, NULL);
972                 mutex_unlock(&msm_obj->lock);
973                 if (IS_ERR(vma)) {
974                         ret = PTR_ERR(vma);
975                         goto fail;
976                 }
977
978                 to_msm_bo(obj)->vram_node = &vma->node;
979
980                 drm_gem_private_object_init(dev, obj, size);
981
982                 pages = get_pages(obj);
983                 if (IS_ERR(pages)) {
984                         ret = PTR_ERR(pages);
985                         goto fail;
986                 }
987
988                 vma->iova = physaddr(obj);
989         } else {
990                 ret = drm_gem_object_init(dev, obj, size);
991                 if (ret)
992                         goto fail;
993         }
994
995         return obj;
996
997 fail:
998         drm_gem_object_unreference_unlocked(obj);
999         return ERR_PTR(ret);
1000 }
1001
1002 struct drm_gem_object *msm_gem_new_locked(struct drm_device *dev,
1003                 uint32_t size, uint32_t flags)
1004 {
1005         return _msm_gem_new(dev, size, flags, true);
1006 }
1007
1008 struct drm_gem_object *msm_gem_new(struct drm_device *dev,
1009                 uint32_t size, uint32_t flags)
1010 {
1011         return _msm_gem_new(dev, size, flags, false);
1012 }
1013
1014 struct drm_gem_object *msm_gem_import(struct drm_device *dev,
1015                 struct dma_buf *dmabuf, struct sg_table *sgt)
1016 {
1017         struct msm_gem_object *msm_obj;
1018         struct drm_gem_object *obj;
1019         uint32_t size;
1020         int ret, npages;
1021
1022         /* if we don't have IOMMU, don't bother pretending we can import: */
1023         if (!iommu_present(&platform_bus_type)) {
1024                 dev_err(dev->dev, "cannot import without IOMMU\n");
1025                 return ERR_PTR(-EINVAL);
1026         }
1027
1028         size = PAGE_ALIGN(dmabuf->size);
1029
1030         ret = msm_gem_new_impl(dev, size, MSM_BO_WC, dmabuf->resv, &obj, false);
1031         if (ret)
1032                 return ERR_PTR(ret);
1033
1034         drm_gem_private_object_init(dev, obj, size);
1035
1036         npages = size / PAGE_SIZE;
1037
1038         msm_obj = to_msm_bo(obj);
1039         mutex_lock(&msm_obj->lock);
1040         msm_obj->sgt = sgt;
1041         msm_obj->pages = kvmalloc_array(npages, sizeof(struct page *), GFP_KERNEL);
1042         if (!msm_obj->pages) {
1043                 mutex_unlock(&msm_obj->lock);
1044                 ret = -ENOMEM;
1045                 goto fail;
1046         }
1047
1048         ret = drm_prime_sg_to_page_addr_arrays(sgt, msm_obj->pages, NULL, npages);
1049         if (ret) {
1050                 mutex_unlock(&msm_obj->lock);
1051                 goto fail;
1052         }
1053
1054         mutex_unlock(&msm_obj->lock);
1055         return obj;
1056
1057 fail:
1058         drm_gem_object_unreference_unlocked(obj);
1059         return ERR_PTR(ret);
1060 }
1061
1062 static void *_msm_gem_kernel_new(struct drm_device *dev, uint32_t size,
1063                 uint32_t flags, struct msm_gem_address_space *aspace,
1064                 struct drm_gem_object **bo, uint64_t *iova, bool locked)
1065 {
1066         void *vaddr;
1067         struct drm_gem_object *obj = _msm_gem_new(dev, size, flags, locked);
1068         int ret;
1069
1070         if (IS_ERR(obj))
1071                 return ERR_CAST(obj);
1072
1073         if (iova) {
1074                 ret = msm_gem_get_iova(obj, aspace, iova);
1075                 if (ret) {
1076                         drm_gem_object_unreference(obj);
1077                         return ERR_PTR(ret);
1078                 }
1079         }
1080
1081         vaddr = msm_gem_get_vaddr(obj);
1082         if (IS_ERR(vaddr)) {
1083                 msm_gem_put_iova(obj, aspace);
1084                 drm_gem_object_unreference(obj);
1085                 return ERR_CAST(vaddr);
1086         }
1087
1088         if (bo)
1089                 *bo = obj;
1090
1091         return vaddr;
1092 }
1093
1094 void *msm_gem_kernel_new(struct drm_device *dev, uint32_t size,
1095                 uint32_t flags, struct msm_gem_address_space *aspace,
1096                 struct drm_gem_object **bo, uint64_t *iova)
1097 {
1098         return _msm_gem_kernel_new(dev, size, flags, aspace, bo, iova, false);
1099 }
1100
1101 void *msm_gem_kernel_new_locked(struct drm_device *dev, uint32_t size,
1102                 uint32_t flags, struct msm_gem_address_space *aspace,
1103                 struct drm_gem_object **bo, uint64_t *iova)
1104 {
1105         return _msm_gem_kernel_new(dev, size, flags, aspace, bo, iova, true);
1106 }