GNU Linux-libre 5.19-rc6-gnu
[releases.git] / drivers / soc / fsl / dpio / dpio-driver.c
1 // SPDX-License-Identifier: (GPL-2.0+ OR BSD-3-Clause)
2 /*
3  * Copyright 2014-2016 Freescale Semiconductor Inc.
4  * Copyright NXP 2016
5  *
6  */
7
8 #include <linux/types.h>
9 #include <linux/init.h>
10 #include <linux/module.h>
11 #include <linux/platform_device.h>
12 #include <linux/interrupt.h>
13 #include <linux/msi.h>
14 #include <linux/dma-mapping.h>
15 #include <linux/delay.h>
16 #include <linux/io.h>
17 #include <linux/sys_soc.h>
18
19 #include <linux/fsl/mc.h>
20 #include <soc/fsl/dpaa2-io.h>
21
22 #include "qbman-portal.h"
23 #include "dpio.h"
24 #include "dpio-cmd.h"
25
26 MODULE_LICENSE("Dual BSD/GPL");
27 MODULE_AUTHOR("Freescale Semiconductor, Inc");
28 MODULE_DESCRIPTION("DPIO Driver");
29
30 struct dpio_priv {
31         struct dpaa2_io *io;
32 };
33
34 static cpumask_var_t cpus_unused_mask;
35
36 static const struct soc_device_attribute ls1088a_soc[] = {
37         {.family = "QorIQ LS1088A"},
38         { /* sentinel */ }
39 };
40
41 static const struct soc_device_attribute ls2080a_soc[] = {
42         {.family = "QorIQ LS2080A"},
43         { /* sentinel */ }
44 };
45
46 static const struct soc_device_attribute ls2088a_soc[] = {
47         {.family = "QorIQ LS2088A"},
48         { /* sentinel */ }
49 };
50
51 static const struct soc_device_attribute lx2160a_soc[] = {
52         {.family = "QorIQ LX2160A"},
53         { /* sentinel */ }
54 };
55
56 static int dpaa2_dpio_get_cluster_sdest(struct fsl_mc_device *dpio_dev, int cpu)
57 {
58         int cluster_base, cluster_size;
59
60         if (soc_device_match(ls1088a_soc)) {
61                 cluster_base = 2;
62                 cluster_size = 4;
63         } else if (soc_device_match(ls2080a_soc) ||
64                    soc_device_match(ls2088a_soc) ||
65                    soc_device_match(lx2160a_soc)) {
66                 cluster_base = 0;
67                 cluster_size = 2;
68         } else {
69                 dev_err(&dpio_dev->dev, "unknown SoC version\n");
70                 return -1;
71         }
72
73         return cluster_base + cpu / cluster_size;
74 }
75
76 static irqreturn_t dpio_irq_handler(int irq_num, void *arg)
77 {
78         struct device *dev = (struct device *)arg;
79         struct dpio_priv *priv = dev_get_drvdata(dev);
80
81         return dpaa2_io_irq(priv->io);
82 }
83
84 static void unregister_dpio_irq_handlers(struct fsl_mc_device *dpio_dev)
85 {
86         struct fsl_mc_device_irq *irq;
87
88         irq = dpio_dev->irqs[0];
89
90         /* clear the affinity hint */
91         irq_set_affinity_hint(irq->virq, NULL);
92 }
93
94 static int register_dpio_irq_handlers(struct fsl_mc_device *dpio_dev, int cpu)
95 {
96         int error;
97         struct fsl_mc_device_irq *irq;
98
99         irq = dpio_dev->irqs[0];
100         error = devm_request_irq(&dpio_dev->dev,
101                                  irq->virq,
102                                  dpio_irq_handler,
103                                  0,
104                                  dev_name(&dpio_dev->dev),
105                                  &dpio_dev->dev);
106         if (error < 0) {
107                 dev_err(&dpio_dev->dev,
108                         "devm_request_irq() failed: %d\n",
109                         error);
110                 return error;
111         }
112
113         /* set the affinity hint */
114         if (irq_set_affinity_hint(irq->virq, cpumask_of(cpu)))
115                 dev_err(&dpio_dev->dev,
116                         "irq_set_affinity failed irq %d cpu %d\n",
117                         irq->virq, cpu);
118
119         return 0;
120 }
121
122 static int dpaa2_dpio_probe(struct fsl_mc_device *dpio_dev)
123 {
124         struct dpio_attr dpio_attrs;
125         struct dpaa2_io_desc desc;
126         struct dpio_priv *priv;
127         int err = -ENOMEM;
128         struct device *dev = &dpio_dev->dev;
129         int possible_next_cpu;
130         int sdest;
131
132         priv = devm_kzalloc(dev, sizeof(*priv), GFP_KERNEL);
133         if (!priv)
134                 goto err_priv_alloc;
135
136         dev_set_drvdata(dev, priv);
137
138         err = fsl_mc_portal_allocate(dpio_dev, 0, &dpio_dev->mc_io);
139         if (err) {
140                 dev_dbg(dev, "MC portal allocation failed\n");
141                 err = -EPROBE_DEFER;
142                 goto err_priv_alloc;
143         }
144
145         err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id,
146                         &dpio_dev->mc_handle);
147         if (err) {
148                 dev_err(dev, "dpio_open() failed\n");
149                 goto err_open;
150         }
151
152         err = dpio_reset(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
153         if (err) {
154                 dev_err(dev, "dpio_reset() failed\n");
155                 goto err_reset;
156         }
157
158         err = dpio_get_attributes(dpio_dev->mc_io, 0, dpio_dev->mc_handle,
159                                   &dpio_attrs);
160         if (err) {
161                 dev_err(dev, "dpio_get_attributes() failed %d\n", err);
162                 goto err_get_attr;
163         }
164         desc.qman_version = dpio_attrs.qbman_version;
165         desc.qman_clk = dpio_attrs.clk;
166
167         err = dpio_enable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
168         if (err) {
169                 dev_err(dev, "dpio_enable() failed %d\n", err);
170                 goto err_get_attr;
171         }
172
173         /* initialize DPIO descriptor */
174         desc.receives_notifications = dpio_attrs.num_priorities ? 1 : 0;
175         desc.has_8prio = dpio_attrs.num_priorities == 8 ? 1 : 0;
176         desc.dpio_id = dpio_dev->obj_desc.id;
177
178         /* get the cpu to use for the affinity hint */
179         possible_next_cpu = cpumask_first(cpus_unused_mask);
180         if (possible_next_cpu >= nr_cpu_ids) {
181                 dev_err(dev, "probe failed. Number of DPIOs exceeds NR_CPUS.\n");
182                 err = -ERANGE;
183                 goto err_allocate_irqs;
184         }
185         desc.cpu = possible_next_cpu;
186         cpumask_clear_cpu(possible_next_cpu, cpus_unused_mask);
187
188         sdest = dpaa2_dpio_get_cluster_sdest(dpio_dev, desc.cpu);
189         if (sdest >= 0) {
190                 err = dpio_set_stashing_destination(dpio_dev->mc_io, 0,
191                                                     dpio_dev->mc_handle,
192                                                     sdest);
193                 if (err)
194                         dev_err(dev, "dpio_set_stashing_destination failed for cpu%d\n",
195                                 desc.cpu);
196         }
197
198         if (dpio_dev->obj_desc.region_count < 3) {
199                 /* No support for DDR backed portals, use classic mapping */
200                 /*
201                  * Set the CENA regs to be the cache inhibited area of the
202                  * portal to avoid coherency issues if a user migrates to
203                  * another core.
204                  */
205                 desc.regs_cena = devm_memremap(dev, dpio_dev->regions[1].start,
206                                         resource_size(&dpio_dev->regions[1]),
207                                         MEMREMAP_WC);
208         } else {
209                 desc.regs_cena = devm_memremap(dev, dpio_dev->regions[2].start,
210                                         resource_size(&dpio_dev->regions[2]),
211                                         MEMREMAP_WB);
212         }
213
214         if (IS_ERR(desc.regs_cena)) {
215                 dev_err(dev, "devm_memremap failed\n");
216                 err = PTR_ERR(desc.regs_cena);
217                 goto err_allocate_irqs;
218         }
219
220         desc.regs_cinh = devm_ioremap(dev, dpio_dev->regions[1].start,
221                                       resource_size(&dpio_dev->regions[1]));
222         if (!desc.regs_cinh) {
223                 err = -ENOMEM;
224                 dev_err(dev, "devm_ioremap failed\n");
225                 goto err_allocate_irqs;
226         }
227
228         err = fsl_mc_allocate_irqs(dpio_dev);
229         if (err) {
230                 dev_err(dev, "fsl_mc_allocate_irqs failed. err=%d\n", err);
231                 goto err_allocate_irqs;
232         }
233
234         priv->io = dpaa2_io_create(&desc, dev);
235         if (!priv->io) {
236                 dev_err(dev, "dpaa2_io_create failed\n");
237                 err = -ENOMEM;
238                 goto err_dpaa2_io_create;
239         }
240
241         err = register_dpio_irq_handlers(dpio_dev, desc.cpu);
242         if (err)
243                 goto err_register_dpio_irq;
244
245         dev_info(dev, "probed\n");
246         dev_dbg(dev, "   receives_notifications = %d\n",
247                 desc.receives_notifications);
248         dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
249
250         return 0;
251
252 err_dpaa2_io_create:
253         unregister_dpio_irq_handlers(dpio_dev);
254 err_register_dpio_irq:
255         fsl_mc_free_irqs(dpio_dev);
256 err_allocate_irqs:
257         dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
258 err_get_attr:
259 err_reset:
260         dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
261 err_open:
262         fsl_mc_portal_free(dpio_dev->mc_io);
263 err_priv_alloc:
264         return err;
265 }
266
267 /* Tear down interrupts for a given DPIO object */
268 static void dpio_teardown_irqs(struct fsl_mc_device *dpio_dev)
269 {
270         unregister_dpio_irq_handlers(dpio_dev);
271         fsl_mc_free_irqs(dpio_dev);
272 }
273
274 static int dpaa2_dpio_remove(struct fsl_mc_device *dpio_dev)
275 {
276         struct device *dev;
277         struct dpio_priv *priv;
278         int err = 0, cpu;
279
280         dev = &dpio_dev->dev;
281         priv = dev_get_drvdata(dev);
282         cpu = dpaa2_io_get_cpu(priv->io);
283
284         dpaa2_io_down(priv->io);
285
286         dpio_teardown_irqs(dpio_dev);
287
288         cpumask_set_cpu(cpu, cpus_unused_mask);
289
290         err = dpio_open(dpio_dev->mc_io, 0, dpio_dev->obj_desc.id,
291                         &dpio_dev->mc_handle);
292         if (err) {
293                 dev_err(dev, "dpio_open() failed\n");
294                 goto err_open;
295         }
296
297         dpio_disable(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
298
299         dpio_close(dpio_dev->mc_io, 0, dpio_dev->mc_handle);
300
301         fsl_mc_portal_free(dpio_dev->mc_io);
302
303         return 0;
304
305 err_open:
306         fsl_mc_portal_free(dpio_dev->mc_io);
307
308         return err;
309 }
310
311 static const struct fsl_mc_device_id dpaa2_dpio_match_id_table[] = {
312         {
313                 .vendor = FSL_MC_VENDOR_FREESCALE,
314                 .obj_type = "dpio",
315         },
316         { .vendor = 0x0 }
317 };
318
319 static struct fsl_mc_driver dpaa2_dpio_driver = {
320         .driver = {
321                 .name           = KBUILD_MODNAME,
322                 .owner          = THIS_MODULE,
323         },
324         .probe          = dpaa2_dpio_probe,
325         .remove         = dpaa2_dpio_remove,
326         .match_id_table = dpaa2_dpio_match_id_table
327 };
328
329 static int dpio_driver_init(void)
330 {
331         if (!zalloc_cpumask_var(&cpus_unused_mask, GFP_KERNEL))
332                 return -ENOMEM;
333         cpumask_copy(cpus_unused_mask, cpu_online_mask);
334
335         return fsl_mc_driver_register(&dpaa2_dpio_driver);
336 }
337
338 static void dpio_driver_exit(void)
339 {
340         free_cpumask_var(cpus_unused_mask);
341         fsl_mc_driver_unregister(&dpaa2_dpio_driver);
342 }
343 module_init(dpio_driver_init);
344 module_exit(dpio_driver_exit);