GNU Linux-libre 6.1.86-gnu
[releases.git] / drivers / pci / pci-driver.c
1 // SPDX-License-Identifier: GPL-2.0
2 /*
3  * (C) Copyright 2002-2004, 2007 Greg Kroah-Hartman <greg@kroah.com>
4  * (C) Copyright 2007 Novell Inc.
5  */
6
7 #include <linux/pci.h>
8 #include <linux/module.h>
9 #include <linux/init.h>
10 #include <linux/device.h>
11 #include <linux/mempolicy.h>
12 #include <linux/string.h>
13 #include <linux/slab.h>
14 #include <linux/sched.h>
15 #include <linux/sched/isolation.h>
16 #include <linux/cpu.h>
17 #include <linux/pm_runtime.h>
18 #include <linux/suspend.h>
19 #include <linux/kexec.h>
20 #include <linux/of_device.h>
21 #include <linux/acpi.h>
22 #include <linux/dma-map-ops.h>
23 #include <linux/iommu.h>
24 #include "pci.h"
25 #include "pcie/portdrv.h"
26
27 struct pci_dynid {
28         struct list_head node;
29         struct pci_device_id id;
30 };
31
32 /**
33  * pci_add_dynid - add a new PCI device ID to this driver and re-probe devices
34  * @drv: target pci driver
35  * @vendor: PCI vendor ID
36  * @device: PCI device ID
37  * @subvendor: PCI subvendor ID
38  * @subdevice: PCI subdevice ID
39  * @class: PCI class
40  * @class_mask: PCI class mask
41  * @driver_data: private driver data
42  *
43  * Adds a new dynamic pci device ID to this driver and causes the
44  * driver to probe for all devices again.  @drv must have been
45  * registered prior to calling this function.
46  *
47  * CONTEXT:
48  * Does GFP_KERNEL allocation.
49  *
50  * RETURNS:
51  * 0 on success, -errno on failure.
52  */
53 int pci_add_dynid(struct pci_driver *drv,
54                   unsigned int vendor, unsigned int device,
55                   unsigned int subvendor, unsigned int subdevice,
56                   unsigned int class, unsigned int class_mask,
57                   unsigned long driver_data)
58 {
59         struct pci_dynid *dynid;
60
61         dynid = kzalloc(sizeof(*dynid), GFP_KERNEL);
62         if (!dynid)
63                 return -ENOMEM;
64
65         dynid->id.vendor = vendor;
66         dynid->id.device = device;
67         dynid->id.subvendor = subvendor;
68         dynid->id.subdevice = subdevice;
69         dynid->id.class = class;
70         dynid->id.class_mask = class_mask;
71         dynid->id.driver_data = driver_data;
72
73         spin_lock(&drv->dynids.lock);
74         list_add_tail(&dynid->node, &drv->dynids.list);
75         spin_unlock(&drv->dynids.lock);
76
77         return driver_attach(&drv->driver);
78 }
79 EXPORT_SYMBOL_GPL(pci_add_dynid);
80
81 static void pci_free_dynids(struct pci_driver *drv)
82 {
83         struct pci_dynid *dynid, *n;
84
85         spin_lock(&drv->dynids.lock);
86         list_for_each_entry_safe(dynid, n, &drv->dynids.list, node) {
87                 list_del(&dynid->node);
88                 kfree(dynid);
89         }
90         spin_unlock(&drv->dynids.lock);
91 }
92
93 /**
94  * pci_match_id - See if a PCI device matches a given pci_id table
95  * @ids: array of PCI device ID structures to search in
96  * @dev: the PCI device structure to match against.
97  *
98  * Used by a driver to check whether a PCI device is in its list of
99  * supported devices.  Returns the matching pci_device_id structure or
100  * %NULL if there is no match.
101  *
102  * Deprecated; don't use this as it will not catch any dynamic IDs
103  * that a driver might want to check for.
104  */
105 const struct pci_device_id *pci_match_id(const struct pci_device_id *ids,
106                                          struct pci_dev *dev)
107 {
108         if (ids) {
109                 while (ids->vendor || ids->subvendor || ids->class_mask) {
110                         if (pci_match_one_device(ids, dev))
111                                 return ids;
112                         ids++;
113                 }
114         }
115         return NULL;
116 }
117 EXPORT_SYMBOL(pci_match_id);
118
119 static const struct pci_device_id pci_device_id_any = {
120         .vendor = PCI_ANY_ID,
121         .device = PCI_ANY_ID,
122         .subvendor = PCI_ANY_ID,
123         .subdevice = PCI_ANY_ID,
124 };
125
126 /**
127  * pci_match_device - See if a device matches a driver's list of IDs
128  * @drv: the PCI driver to match against
129  * @dev: the PCI device structure to match against
130  *
131  * Used by a driver to check whether a PCI device is in its list of
132  * supported devices or in the dynids list, which may have been augmented
133  * via the sysfs "new_id" file.  Returns the matching pci_device_id
134  * structure or %NULL if there is no match.
135  */
136 static const struct pci_device_id *pci_match_device(struct pci_driver *drv,
137                                                     struct pci_dev *dev)
138 {
139         struct pci_dynid *dynid;
140         const struct pci_device_id *found_id = NULL, *ids;
141
142         /* When driver_override is set, only bind to the matching driver */
143         if (dev->driver_override && strcmp(dev->driver_override, drv->name))
144                 return NULL;
145
146         /* Look at the dynamic ids first, before the static ones */
147         spin_lock(&drv->dynids.lock);
148         list_for_each_entry(dynid, &drv->dynids.list, node) {
149                 if (pci_match_one_device(&dynid->id, dev)) {
150                         found_id = &dynid->id;
151                         break;
152                 }
153         }
154         spin_unlock(&drv->dynids.lock);
155
156         if (found_id)
157                 return found_id;
158
159         for (ids = drv->id_table; (found_id = pci_match_id(ids, dev));
160              ids = found_id + 1) {
161                 /*
162                  * The match table is split based on driver_override.
163                  * In case override_only was set, enforce driver_override
164                  * matching.
165                  */
166                 if (found_id->override_only) {
167                         if (dev->driver_override)
168                                 return found_id;
169                 } else {
170                         return found_id;
171                 }
172         }
173
174         /* driver_override will always match, send a dummy id */
175         if (dev->driver_override)
176                 return &pci_device_id_any;
177         return NULL;
178 }
179
180 /**
181  * new_id_store - sysfs frontend to pci_add_dynid()
182  * @driver: target device driver
183  * @buf: buffer for scanning device ID data
184  * @count: input size
185  *
186  * Allow PCI IDs to be added to an existing driver via sysfs.
187  */
188 static ssize_t new_id_store(struct device_driver *driver, const char *buf,
189                             size_t count)
190 {
191         struct pci_driver *pdrv = to_pci_driver(driver);
192         const struct pci_device_id *ids = pdrv->id_table;
193         u32 vendor, device, subvendor = PCI_ANY_ID,
194                 subdevice = PCI_ANY_ID, class = 0, class_mask = 0;
195         unsigned long driver_data = 0;
196         int fields = 0;
197         int retval = 0;
198
199         fields = sscanf(buf, "%x %x %x %x %x %x %lx",
200                         &vendor, &device, &subvendor, &subdevice,
201                         &class, &class_mask, &driver_data);
202         if (fields < 2)
203                 return -EINVAL;
204
205         if (fields != 7) {
206                 struct pci_dev *pdev = kzalloc(sizeof(*pdev), GFP_KERNEL);
207                 if (!pdev)
208                         return -ENOMEM;
209
210                 pdev->vendor = vendor;
211                 pdev->device = device;
212                 pdev->subsystem_vendor = subvendor;
213                 pdev->subsystem_device = subdevice;
214                 pdev->class = class;
215
216                 if (pci_match_device(pdrv, pdev))
217                         retval = -EEXIST;
218
219                 kfree(pdev);
220
221                 if (retval)
222                         return retval;
223         }
224
225         /* Only accept driver_data values that match an existing id_table
226            entry */
227         if (ids) {
228                 retval = -EINVAL;
229                 while (ids->vendor || ids->subvendor || ids->class_mask) {
230                         if (driver_data == ids->driver_data) {
231                                 retval = 0;
232                                 break;
233                         }
234                         ids++;
235                 }
236                 if (retval)     /* No match */
237                         return retval;
238         }
239
240         retval = pci_add_dynid(pdrv, vendor, device, subvendor, subdevice,
241                                class, class_mask, driver_data);
242         if (retval)
243                 return retval;
244         return count;
245 }
246 static DRIVER_ATTR_WO(new_id);
247
248 /**
249  * remove_id_store - remove a PCI device ID from this driver
250  * @driver: target device driver
251  * @buf: buffer for scanning device ID data
252  * @count: input size
253  *
254  * Removes a dynamic pci device ID to this driver.
255  */
256 static ssize_t remove_id_store(struct device_driver *driver, const char *buf,
257                                size_t count)
258 {
259         struct pci_dynid *dynid, *n;
260         struct pci_driver *pdrv = to_pci_driver(driver);
261         u32 vendor, device, subvendor = PCI_ANY_ID,
262                 subdevice = PCI_ANY_ID, class = 0, class_mask = 0;
263         int fields = 0;
264         size_t retval = -ENODEV;
265
266         fields = sscanf(buf, "%x %x %x %x %x %x",
267                         &vendor, &device, &subvendor, &subdevice,
268                         &class, &class_mask);
269         if (fields < 2)
270                 return -EINVAL;
271
272         spin_lock(&pdrv->dynids.lock);
273         list_for_each_entry_safe(dynid, n, &pdrv->dynids.list, node) {
274                 struct pci_device_id *id = &dynid->id;
275                 if ((id->vendor == vendor) &&
276                     (id->device == device) &&
277                     (subvendor == PCI_ANY_ID || id->subvendor == subvendor) &&
278                     (subdevice == PCI_ANY_ID || id->subdevice == subdevice) &&
279                     !((id->class ^ class) & class_mask)) {
280                         list_del(&dynid->node);
281                         kfree(dynid);
282                         retval = count;
283                         break;
284                 }
285         }
286         spin_unlock(&pdrv->dynids.lock);
287
288         return retval;
289 }
290 static DRIVER_ATTR_WO(remove_id);
291
292 static struct attribute *pci_drv_attrs[] = {
293         &driver_attr_new_id.attr,
294         &driver_attr_remove_id.attr,
295         NULL,
296 };
297 ATTRIBUTE_GROUPS(pci_drv);
298
299 struct drv_dev_and_id {
300         struct pci_driver *drv;
301         struct pci_dev *dev;
302         const struct pci_device_id *id;
303 };
304
305 static long local_pci_probe(void *_ddi)
306 {
307         struct drv_dev_and_id *ddi = _ddi;
308         struct pci_dev *pci_dev = ddi->dev;
309         struct pci_driver *pci_drv = ddi->drv;
310         struct device *dev = &pci_dev->dev;
311         int rc;
312
313         /*
314          * Unbound PCI devices are always put in D0, regardless of
315          * runtime PM status.  During probe, the device is set to
316          * active and the usage count is incremented.  If the driver
317          * supports runtime PM, it should call pm_runtime_put_noidle(),
318          * or any other runtime PM helper function decrementing the usage
319          * count, in its probe routine and pm_runtime_get_noresume() in
320          * its remove routine.
321          */
322         pm_runtime_get_sync(dev);
323         pci_dev->driver = pci_drv;
324         rc = pci_drv->probe(pci_dev, ddi->id);
325         if (!rc)
326                 return rc;
327         if (rc < 0) {
328                 pci_dev->driver = NULL;
329                 pm_runtime_put_sync(dev);
330                 return rc;
331         }
332         /*
333          * Probe function should return < 0 for failure, 0 for success
334          * Treat values > 0 as success, but warn.
335          */
336         pci_warn(pci_dev, "Driver probe function unexpectedly returned %d\n",
337                  rc);
338         return 0;
339 }
340
341 static bool pci_physfn_is_probed(struct pci_dev *dev)
342 {
343 #ifdef CONFIG_PCI_IOV
344         return dev->is_virtfn && dev->physfn->is_probed;
345 #else
346         return false;
347 #endif
348 }
349
350 static int pci_call_probe(struct pci_driver *drv, struct pci_dev *dev,
351                           const struct pci_device_id *id)
352 {
353         int error, node, cpu;
354         struct drv_dev_and_id ddi = { drv, dev, id };
355
356         /*
357          * Execute driver initialization on node where the device is
358          * attached.  This way the driver likely allocates its local memory
359          * on the right node.
360          */
361         node = dev_to_node(&dev->dev);
362         dev->is_probed = 1;
363
364         cpu_hotplug_disable();
365
366         /*
367          * Prevent nesting work_on_cpu() for the case where a Virtual Function
368          * device is probed from work_on_cpu() of the Physical device.
369          */
370         if (node < 0 || node >= MAX_NUMNODES || !node_online(node) ||
371             pci_physfn_is_probed(dev)) {
372                 cpu = nr_cpu_ids;
373         } else {
374                 cpumask_var_t wq_domain_mask;
375
376                 if (!zalloc_cpumask_var(&wq_domain_mask, GFP_KERNEL)) {
377                         error = -ENOMEM;
378                         goto out;
379                 }
380                 cpumask_and(wq_domain_mask,
381                             housekeeping_cpumask(HK_TYPE_WQ),
382                             housekeeping_cpumask(HK_TYPE_DOMAIN));
383
384                 cpu = cpumask_any_and(cpumask_of_node(node),
385                                       wq_domain_mask);
386                 free_cpumask_var(wq_domain_mask);
387         }
388
389         if (cpu < nr_cpu_ids)
390                 error = work_on_cpu(cpu, local_pci_probe, &ddi);
391         else
392                 error = local_pci_probe(&ddi);
393 out:
394         dev->is_probed = 0;
395         cpu_hotplug_enable();
396         return error;
397 }
398
399 /**
400  * __pci_device_probe - check if a driver wants to claim a specific PCI device
401  * @drv: driver to call to check if it wants the PCI device
402  * @pci_dev: PCI device being probed
403  *
404  * returns 0 on success, else error.
405  * side-effect: pci_dev->driver is set to drv when drv claims pci_dev.
406  */
407 static int __pci_device_probe(struct pci_driver *drv, struct pci_dev *pci_dev)
408 {
409         const struct pci_device_id *id;
410         int error = 0;
411
412         if (drv->probe) {
413                 error = -ENODEV;
414
415                 id = pci_match_device(drv, pci_dev);
416                 if (id)
417                         error = pci_call_probe(drv, pci_dev, id);
418         }
419         return error;
420 }
421
422 int __weak pcibios_alloc_irq(struct pci_dev *dev)
423 {
424         return 0;
425 }
426
427 void __weak pcibios_free_irq(struct pci_dev *dev)
428 {
429 }
430
431 #ifdef CONFIG_PCI_IOV
432 static inline bool pci_device_can_probe(struct pci_dev *pdev)
433 {
434         return (!pdev->is_virtfn || pdev->physfn->sriov->drivers_autoprobe ||
435                 pdev->driver_override);
436 }
437 #else
438 static inline bool pci_device_can_probe(struct pci_dev *pdev)
439 {
440         return true;
441 }
442 #endif
443
444 static int pci_device_probe(struct device *dev)
445 {
446         int error;
447         struct pci_dev *pci_dev = to_pci_dev(dev);
448         struct pci_driver *drv = to_pci_driver(dev->driver);
449
450         if (!pci_device_can_probe(pci_dev))
451                 return -ENODEV;
452
453         pci_assign_irq(pci_dev);
454
455         error = pcibios_alloc_irq(pci_dev);
456         if (error < 0)
457                 return error;
458
459         pci_dev_get(pci_dev);
460         error = __pci_device_probe(drv, pci_dev);
461         if (error) {
462                 pcibios_free_irq(pci_dev);
463                 pci_dev_put(pci_dev);
464         }
465
466         return error;
467 }
468
469 static void pci_device_remove(struct device *dev)
470 {
471         struct pci_dev *pci_dev = to_pci_dev(dev);
472         struct pci_driver *drv = pci_dev->driver;
473
474         if (drv->remove) {
475                 pm_runtime_get_sync(dev);
476                 /*
477                  * If the driver provides a .runtime_idle() callback and it has
478                  * started to run already, it may continue to run in parallel
479                  * with the code below, so wait until all of the runtime PM
480                  * activity has completed.
481                  */
482                 pm_runtime_barrier(dev);
483                 drv->remove(pci_dev);
484                 pm_runtime_put_noidle(dev);
485         }
486         pcibios_free_irq(pci_dev);
487         pci_dev->driver = NULL;
488         pci_iov_remove(pci_dev);
489
490         /* Undo the runtime PM settings in local_pci_probe() */
491         pm_runtime_put_sync(dev);
492
493         /*
494          * If the device is still on, set the power state as "unknown",
495          * since it might change by the next time we load the driver.
496          */
497         if (pci_dev->current_state == PCI_D0)
498                 pci_dev->current_state = PCI_UNKNOWN;
499
500         /*
501          * We would love to complain here if pci_dev->is_enabled is set, that
502          * the driver should have called pci_disable_device(), but the
503          * unfortunate fact is there are too many odd BIOS and bridge setups
504          * that don't like drivers doing that all of the time.
505          * Oh well, we can dream of sane hardware when we sleep, no matter how
506          * horrible the crap we have to deal with is when we are awake...
507          */
508
509         pci_dev_put(pci_dev);
510 }
511
512 static void pci_device_shutdown(struct device *dev)
513 {
514         struct pci_dev *pci_dev = to_pci_dev(dev);
515         struct pci_driver *drv = pci_dev->driver;
516
517         pm_runtime_resume(dev);
518
519         if (drv && drv->shutdown)
520                 drv->shutdown(pci_dev);
521
522         /*
523          * If this is a kexec reboot, turn off Bus Master bit on the
524          * device to tell it to not continue to do DMA. Don't touch
525          * devices in D3cold or unknown states.
526          * If it is not a kexec reboot, firmware will hit the PCI
527          * devices with big hammer and stop their DMA any way.
528          */
529         if (kexec_in_progress && (pci_dev->current_state <= PCI_D3hot))
530                 pci_clear_master(pci_dev);
531 }
532
533 #ifdef CONFIG_PM_SLEEP
534
535 /* Auxiliary functions used for system resume */
536
537 /**
538  * pci_restore_standard_config - restore standard config registers of PCI device
539  * @pci_dev: PCI device to handle
540  */
541 static int pci_restore_standard_config(struct pci_dev *pci_dev)
542 {
543         pci_update_current_state(pci_dev, PCI_UNKNOWN);
544
545         if (pci_dev->current_state != PCI_D0) {
546                 int error = pci_set_power_state(pci_dev, PCI_D0);
547                 if (error)
548                         return error;
549         }
550
551         pci_restore_state(pci_dev);
552         pci_pme_restore(pci_dev);
553         return 0;
554 }
555 #endif /* CONFIG_PM_SLEEP */
556
557 #ifdef CONFIG_PM
558
559 /* Auxiliary functions used for system resume and run-time resume */
560
561 static void pci_pm_default_resume(struct pci_dev *pci_dev)
562 {
563         pci_fixup_device(pci_fixup_resume, pci_dev);
564         pci_enable_wake(pci_dev, PCI_D0, false);
565 }
566
567 static void pci_pm_power_up_and_verify_state(struct pci_dev *pci_dev)
568 {
569         pci_power_up(pci_dev);
570         pci_update_current_state(pci_dev, PCI_D0);
571 }
572
573 static void pci_pm_default_resume_early(struct pci_dev *pci_dev)
574 {
575         pci_pm_power_up_and_verify_state(pci_dev);
576         pci_restore_state(pci_dev);
577         pci_pme_restore(pci_dev);
578 }
579
580 static void pci_pm_bridge_power_up_actions(struct pci_dev *pci_dev)
581 {
582         pci_bridge_wait_for_secondary_bus(pci_dev, "resume", PCI_RESET_WAIT);
583         /*
584          * When powering on a bridge from D3cold, the whole hierarchy may be
585          * powered on into D0uninitialized state, resume them to give them a
586          * chance to suspend again
587          */
588         pci_resume_bus(pci_dev->subordinate);
589 }
590
591 #endif /* CONFIG_PM */
592
593 #ifdef CONFIG_PM_SLEEP
594
595 /*
596  * Default "suspend" method for devices that have no driver provided suspend,
597  * or not even a driver at all (second part).
598  */
599 static void pci_pm_set_unknown_state(struct pci_dev *pci_dev)
600 {
601         /*
602          * mark its power state as "unknown", since we don't know if
603          * e.g. the BIOS will change its device state when we suspend.
604          */
605         if (pci_dev->current_state == PCI_D0)
606                 pci_dev->current_state = PCI_UNKNOWN;
607 }
608
609 /*
610  * Default "resume" method for devices that have no driver provided resume,
611  * or not even a driver at all (second part).
612  */
613 static int pci_pm_reenable_device(struct pci_dev *pci_dev)
614 {
615         int retval;
616
617         /* if the device was enabled before suspend, re-enable */
618         retval = pci_reenable_device(pci_dev);
619         /*
620          * if the device was busmaster before the suspend, make it busmaster
621          * again
622          */
623         if (pci_dev->is_busmaster)
624                 pci_set_master(pci_dev);
625
626         return retval;
627 }
628
629 static int pci_legacy_suspend(struct device *dev, pm_message_t state)
630 {
631         struct pci_dev *pci_dev = to_pci_dev(dev);
632         struct pci_driver *drv = pci_dev->driver;
633
634         if (drv && drv->suspend) {
635                 pci_power_t prev = pci_dev->current_state;
636                 int error;
637
638                 error = drv->suspend(pci_dev, state);
639                 suspend_report_result(dev, drv->suspend, error);
640                 if (error)
641                         return error;
642
643                 if (!pci_dev->state_saved && pci_dev->current_state != PCI_D0
644                     && pci_dev->current_state != PCI_UNKNOWN) {
645                         pci_WARN_ONCE(pci_dev, pci_dev->current_state != prev,
646                                       "PCI PM: Device state not saved by %pS\n",
647                                       drv->suspend);
648                 }
649         }
650
651         pci_fixup_device(pci_fixup_suspend, pci_dev);
652
653         return 0;
654 }
655
656 static int pci_legacy_suspend_late(struct device *dev, pm_message_t state)
657 {
658         struct pci_dev *pci_dev = to_pci_dev(dev);
659
660         if (!pci_dev->state_saved)
661                 pci_save_state(pci_dev);
662
663         pci_pm_set_unknown_state(pci_dev);
664
665         pci_fixup_device(pci_fixup_suspend_late, pci_dev);
666
667         return 0;
668 }
669
670 static int pci_legacy_resume(struct device *dev)
671 {
672         struct pci_dev *pci_dev = to_pci_dev(dev);
673         struct pci_driver *drv = pci_dev->driver;
674
675         pci_fixup_device(pci_fixup_resume, pci_dev);
676
677         return drv && drv->resume ?
678                         drv->resume(pci_dev) : pci_pm_reenable_device(pci_dev);
679 }
680
681 /* Auxiliary functions used by the new power management framework */
682
683 static void pci_pm_default_suspend(struct pci_dev *pci_dev)
684 {
685         /* Disable non-bridge devices without PM support */
686         if (!pci_has_subordinate(pci_dev))
687                 pci_disable_enabled_device(pci_dev);
688 }
689
690 static bool pci_has_legacy_pm_support(struct pci_dev *pci_dev)
691 {
692         struct pci_driver *drv = pci_dev->driver;
693         bool ret = drv && (drv->suspend || drv->resume);
694
695         /*
696          * Legacy PM support is used by default, so warn if the new framework is
697          * supported as well.  Drivers are supposed to support either the
698          * former, or the latter, but not both at the same time.
699          */
700         pci_WARN(pci_dev, ret && drv->driver.pm, "device %04x:%04x\n",
701                  pci_dev->vendor, pci_dev->device);
702
703         return ret;
704 }
705
706 /* New power management framework */
707
708 static int pci_pm_prepare(struct device *dev)
709 {
710         struct pci_dev *pci_dev = to_pci_dev(dev);
711         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
712
713         if (pm && pm->prepare) {
714                 int error = pm->prepare(dev);
715                 if (error < 0)
716                         return error;
717
718                 if (!error && dev_pm_test_driver_flags(dev, DPM_FLAG_SMART_PREPARE))
719                         return 0;
720         }
721         if (pci_dev_need_resume(pci_dev))
722                 return 0;
723
724         /*
725          * The PME setting needs to be adjusted here in case the direct-complete
726          * optimization is used with respect to this device.
727          */
728         pci_dev_adjust_pme(pci_dev);
729         return 1;
730 }
731
732 static void pci_pm_complete(struct device *dev)
733 {
734         struct pci_dev *pci_dev = to_pci_dev(dev);
735
736         pci_dev_complete_resume(pci_dev);
737         pm_generic_complete(dev);
738
739         /* Resume device if platform firmware has put it in reset-power-on */
740         if (pm_runtime_suspended(dev) && pm_resume_via_firmware()) {
741                 pci_power_t pre_sleep_state = pci_dev->current_state;
742
743                 pci_refresh_power_state(pci_dev);
744                 /*
745                  * On platforms with ACPI this check may also trigger for
746                  * devices sharing power resources if one of those power
747                  * resources has been activated as a result of a change of the
748                  * power state of another device sharing it.  However, in that
749                  * case it is also better to resume the device, in general.
750                  */
751                 if (pci_dev->current_state < pre_sleep_state)
752                         pm_request_resume(dev);
753         }
754 }
755
756 #else /* !CONFIG_PM_SLEEP */
757
758 #define pci_pm_prepare  NULL
759 #define pci_pm_complete NULL
760
761 #endif /* !CONFIG_PM_SLEEP */
762
763 #ifdef CONFIG_SUSPEND
764 static void pcie_pme_root_status_cleanup(struct pci_dev *pci_dev)
765 {
766         /*
767          * Some BIOSes forget to clear Root PME Status bits after system
768          * wakeup, which breaks ACPI-based runtime wakeup on PCI Express.
769          * Clear those bits now just in case (shouldn't hurt).
770          */
771         if (pci_is_pcie(pci_dev) &&
772             (pci_pcie_type(pci_dev) == PCI_EXP_TYPE_ROOT_PORT ||
773              pci_pcie_type(pci_dev) == PCI_EXP_TYPE_RC_EC))
774                 pcie_clear_root_pme_status(pci_dev);
775 }
776
777 static int pci_pm_suspend(struct device *dev)
778 {
779         struct pci_dev *pci_dev = to_pci_dev(dev);
780         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
781
782         pci_dev->skip_bus_pm = false;
783
784         /*
785          * Disabling PTM allows some systems, e.g., Intel mobile chips
786          * since Coffee Lake, to enter a lower-power PM state.
787          */
788         pci_suspend_ptm(pci_dev);
789
790         if (pci_has_legacy_pm_support(pci_dev))
791                 return pci_legacy_suspend(dev, PMSG_SUSPEND);
792
793         if (!pm) {
794                 pci_pm_default_suspend(pci_dev);
795                 return 0;
796         }
797
798         /*
799          * PCI devices suspended at run time may need to be resumed at this
800          * point, because in general it may be necessary to reconfigure them for
801          * system suspend.  Namely, if the device is expected to wake up the
802          * system from the sleep state, it may have to be reconfigured for this
803          * purpose, or if the device is not expected to wake up the system from
804          * the sleep state, it should be prevented from signaling wakeup events
805          * going forward.
806          *
807          * Also if the driver of the device does not indicate that its system
808          * suspend callbacks can cope with runtime-suspended devices, it is
809          * better to resume the device from runtime suspend here.
810          */
811         if (!dev_pm_test_driver_flags(dev, DPM_FLAG_SMART_SUSPEND) ||
812             pci_dev_need_resume(pci_dev)) {
813                 pm_runtime_resume(dev);
814                 pci_dev->state_saved = false;
815         } else {
816                 pci_dev_adjust_pme(pci_dev);
817         }
818
819         if (pm->suspend) {
820                 pci_power_t prev = pci_dev->current_state;
821                 int error;
822
823                 error = pm->suspend(dev);
824                 suspend_report_result(dev, pm->suspend, error);
825                 if (error)
826                         return error;
827
828                 if (!pci_dev->state_saved && pci_dev->current_state != PCI_D0
829                     && pci_dev->current_state != PCI_UNKNOWN) {
830                         pci_WARN_ONCE(pci_dev, pci_dev->current_state != prev,
831                                       "PCI PM: State of device not saved by %pS\n",
832                                       pm->suspend);
833                 }
834         }
835
836         return 0;
837 }
838
839 static int pci_pm_suspend_late(struct device *dev)
840 {
841         if (dev_pm_skip_suspend(dev))
842                 return 0;
843
844         pci_fixup_device(pci_fixup_suspend, to_pci_dev(dev));
845
846         return pm_generic_suspend_late(dev);
847 }
848
849 static int pci_pm_suspend_noirq(struct device *dev)
850 {
851         struct pci_dev *pci_dev = to_pci_dev(dev);
852         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
853
854         if (dev_pm_skip_suspend(dev))
855                 return 0;
856
857         if (pci_has_legacy_pm_support(pci_dev))
858                 return pci_legacy_suspend_late(dev, PMSG_SUSPEND);
859
860         if (!pm) {
861                 pci_save_state(pci_dev);
862                 goto Fixup;
863         }
864
865         if (pm->suspend_noirq) {
866                 pci_power_t prev = pci_dev->current_state;
867                 int error;
868
869                 error = pm->suspend_noirq(dev);
870                 suspend_report_result(dev, pm->suspend_noirq, error);
871                 if (error)
872                         return error;
873
874                 if (!pci_dev->state_saved && pci_dev->current_state != PCI_D0
875                     && pci_dev->current_state != PCI_UNKNOWN) {
876                         pci_WARN_ONCE(pci_dev, pci_dev->current_state != prev,
877                                       "PCI PM: State of device not saved by %pS\n",
878                                       pm->suspend_noirq);
879                         goto Fixup;
880                 }
881         }
882
883         if (!pci_dev->state_saved) {
884                 pci_save_state(pci_dev);
885
886                 /*
887                  * If the device is a bridge with a child in D0 below it,
888                  * it needs to stay in D0, so check skip_bus_pm to avoid
889                  * putting it into a low-power state in that case.
890                  */
891                 if (!pci_dev->skip_bus_pm && pci_power_manageable(pci_dev))
892                         pci_prepare_to_sleep(pci_dev);
893         }
894
895         pci_dbg(pci_dev, "PCI PM: Suspend power state: %s\n",
896                 pci_power_name(pci_dev->current_state));
897
898         if (pci_dev->current_state == PCI_D0) {
899                 pci_dev->skip_bus_pm = true;
900                 /*
901                  * Per PCI PM r1.2, table 6-1, a bridge must be in D0 if any
902                  * downstream device is in D0, so avoid changing the power state
903                  * of the parent bridge by setting the skip_bus_pm flag for it.
904                  */
905                 if (pci_dev->bus->self)
906                         pci_dev->bus->self->skip_bus_pm = true;
907         }
908
909         if (pci_dev->skip_bus_pm && pm_suspend_no_platform()) {
910                 pci_dbg(pci_dev, "PCI PM: Skipped\n");
911                 goto Fixup;
912         }
913
914         pci_pm_set_unknown_state(pci_dev);
915
916         /*
917          * Some BIOSes from ASUS have a bug: If a USB EHCI host controller's
918          * PCI COMMAND register isn't 0, the BIOS assumes that the controller
919          * hasn't been quiesced and tries to turn it off.  If the controller
920          * is already in D3, this can hang or cause memory corruption.
921          *
922          * Since the value of the COMMAND register doesn't matter once the
923          * device has been suspended, we can safely set it to 0 here.
924          */
925         if (pci_dev->class == PCI_CLASS_SERIAL_USB_EHCI)
926                 pci_write_config_word(pci_dev, PCI_COMMAND, 0);
927
928 Fixup:
929         pci_fixup_device(pci_fixup_suspend_late, pci_dev);
930
931         /*
932          * If the target system sleep state is suspend-to-idle, it is sufficient
933          * to check whether or not the device's wakeup settings are good for
934          * runtime PM.  Otherwise, the pm_resume_via_firmware() check will cause
935          * pci_pm_complete() to take care of fixing up the device's state
936          * anyway, if need be.
937          */
938         if (device_can_wakeup(dev) && !device_may_wakeup(dev))
939                 dev->power.may_skip_resume = false;
940
941         return 0;
942 }
943
944 static int pci_pm_resume_noirq(struct device *dev)
945 {
946         struct pci_dev *pci_dev = to_pci_dev(dev);
947         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
948         pci_power_t prev_state = pci_dev->current_state;
949         bool skip_bus_pm = pci_dev->skip_bus_pm;
950
951         if (dev_pm_skip_resume(dev))
952                 return 0;
953
954         /*
955          * In the suspend-to-idle case, devices left in D0 during suspend will
956          * stay in D0, so it is not necessary to restore or update their
957          * configuration here and attempting to put them into D0 again is
958          * pointless, so avoid doing that.
959          */
960         if (!(skip_bus_pm && pm_suspend_no_platform()))
961                 pci_pm_default_resume_early(pci_dev);
962
963         pci_fixup_device(pci_fixup_resume_early, pci_dev);
964         pcie_pme_root_status_cleanup(pci_dev);
965
966         if (!skip_bus_pm && prev_state == PCI_D3cold)
967                 pci_pm_bridge_power_up_actions(pci_dev);
968
969         if (pci_has_legacy_pm_support(pci_dev))
970                 return 0;
971
972         if (pm && pm->resume_noirq)
973                 return pm->resume_noirq(dev);
974
975         return 0;
976 }
977
978 static int pci_pm_resume_early(struct device *dev)
979 {
980         if (dev_pm_skip_resume(dev))
981                 return 0;
982
983         return pm_generic_resume_early(dev);
984 }
985
986 static int pci_pm_resume(struct device *dev)
987 {
988         struct pci_dev *pci_dev = to_pci_dev(dev);
989         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
990
991         /*
992          * This is necessary for the suspend error path in which resume is
993          * called without restoring the standard config registers of the device.
994          */
995         if (pci_dev->state_saved)
996                 pci_restore_standard_config(pci_dev);
997
998         pci_resume_ptm(pci_dev);
999
1000         if (pci_has_legacy_pm_support(pci_dev))
1001                 return pci_legacy_resume(dev);
1002
1003         pci_pm_default_resume(pci_dev);
1004
1005         if (pm) {
1006                 if (pm->resume)
1007                         return pm->resume(dev);
1008         } else {
1009                 pci_pm_reenable_device(pci_dev);
1010         }
1011
1012         return 0;
1013 }
1014
1015 #else /* !CONFIG_SUSPEND */
1016
1017 #define pci_pm_suspend          NULL
1018 #define pci_pm_suspend_late     NULL
1019 #define pci_pm_suspend_noirq    NULL
1020 #define pci_pm_resume           NULL
1021 #define pci_pm_resume_early     NULL
1022 #define pci_pm_resume_noirq     NULL
1023
1024 #endif /* !CONFIG_SUSPEND */
1025
1026 #ifdef CONFIG_HIBERNATE_CALLBACKS
1027
1028 static int pci_pm_freeze(struct device *dev)
1029 {
1030         struct pci_dev *pci_dev = to_pci_dev(dev);
1031         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1032
1033         if (pci_has_legacy_pm_support(pci_dev))
1034                 return pci_legacy_suspend(dev, PMSG_FREEZE);
1035
1036         if (!pm) {
1037                 pci_pm_default_suspend(pci_dev);
1038                 return 0;
1039         }
1040
1041         /*
1042          * Resume all runtime-suspended devices before creating a snapshot
1043          * image of system memory, because the restore kernel generally cannot
1044          * be expected to always handle them consistently and they need to be
1045          * put into the runtime-active metastate during system resume anyway,
1046          * so it is better to ensure that the state saved in the image will be
1047          * always consistent with that.
1048          */
1049         pm_runtime_resume(dev);
1050         pci_dev->state_saved = false;
1051
1052         if (pm->freeze) {
1053                 int error;
1054
1055                 error = pm->freeze(dev);
1056                 suspend_report_result(dev, pm->freeze, error);
1057                 if (error)
1058                         return error;
1059         }
1060
1061         return 0;
1062 }
1063
1064 static int pci_pm_freeze_noirq(struct device *dev)
1065 {
1066         struct pci_dev *pci_dev = to_pci_dev(dev);
1067         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1068
1069         if (pci_has_legacy_pm_support(pci_dev))
1070                 return pci_legacy_suspend_late(dev, PMSG_FREEZE);
1071
1072         if (pm && pm->freeze_noirq) {
1073                 int error;
1074
1075                 error = pm->freeze_noirq(dev);
1076                 suspend_report_result(dev, pm->freeze_noirq, error);
1077                 if (error)
1078                         return error;
1079         }
1080
1081         if (!pci_dev->state_saved)
1082                 pci_save_state(pci_dev);
1083
1084         pci_pm_set_unknown_state(pci_dev);
1085
1086         return 0;
1087 }
1088
1089 static int pci_pm_thaw_noirq(struct device *dev)
1090 {
1091         struct pci_dev *pci_dev = to_pci_dev(dev);
1092         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1093
1094         /*
1095          * The pm->thaw_noirq() callback assumes the device has been
1096          * returned to D0 and its config state has been restored.
1097          *
1098          * In addition, pci_restore_state() restores MSI-X state in MMIO
1099          * space, which requires the device to be in D0, so return it to D0
1100          * in case the driver's "freeze" callbacks put it into a low-power
1101          * state.
1102          */
1103         pci_pm_power_up_and_verify_state(pci_dev);
1104         pci_restore_state(pci_dev);
1105
1106         if (pci_has_legacy_pm_support(pci_dev))
1107                 return 0;
1108
1109         if (pm && pm->thaw_noirq)
1110                 return pm->thaw_noirq(dev);
1111
1112         return 0;
1113 }
1114
1115 static int pci_pm_thaw(struct device *dev)
1116 {
1117         struct pci_dev *pci_dev = to_pci_dev(dev);
1118         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1119         int error = 0;
1120
1121         if (pci_has_legacy_pm_support(pci_dev))
1122                 return pci_legacy_resume(dev);
1123
1124         if (pm) {
1125                 if (pm->thaw)
1126                         error = pm->thaw(dev);
1127         } else {
1128                 pci_pm_reenable_device(pci_dev);
1129         }
1130
1131         pci_dev->state_saved = false;
1132
1133         return error;
1134 }
1135
1136 static int pci_pm_poweroff(struct device *dev)
1137 {
1138         struct pci_dev *pci_dev = to_pci_dev(dev);
1139         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1140
1141         if (pci_has_legacy_pm_support(pci_dev))
1142                 return pci_legacy_suspend(dev, PMSG_HIBERNATE);
1143
1144         if (!pm) {
1145                 pci_pm_default_suspend(pci_dev);
1146                 return 0;
1147         }
1148
1149         /* The reason to do that is the same as in pci_pm_suspend(). */
1150         if (!dev_pm_test_driver_flags(dev, DPM_FLAG_SMART_SUSPEND) ||
1151             pci_dev_need_resume(pci_dev)) {
1152                 pm_runtime_resume(dev);
1153                 pci_dev->state_saved = false;
1154         } else {
1155                 pci_dev_adjust_pme(pci_dev);
1156         }
1157
1158         if (pm->poweroff) {
1159                 int error;
1160
1161                 error = pm->poweroff(dev);
1162                 suspend_report_result(dev, pm->poweroff, error);
1163                 if (error)
1164                         return error;
1165         }
1166
1167         return 0;
1168 }
1169
1170 static int pci_pm_poweroff_late(struct device *dev)
1171 {
1172         if (dev_pm_skip_suspend(dev))
1173                 return 0;
1174
1175         pci_fixup_device(pci_fixup_suspend, to_pci_dev(dev));
1176
1177         return pm_generic_poweroff_late(dev);
1178 }
1179
1180 static int pci_pm_poweroff_noirq(struct device *dev)
1181 {
1182         struct pci_dev *pci_dev = to_pci_dev(dev);
1183         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1184
1185         if (dev_pm_skip_suspend(dev))
1186                 return 0;
1187
1188         if (pci_has_legacy_pm_support(pci_dev))
1189                 return pci_legacy_suspend_late(dev, PMSG_HIBERNATE);
1190
1191         if (!pm) {
1192                 pci_fixup_device(pci_fixup_suspend_late, pci_dev);
1193                 return 0;
1194         }
1195
1196         if (pm->poweroff_noirq) {
1197                 int error;
1198
1199                 error = pm->poweroff_noirq(dev);
1200                 suspend_report_result(dev, pm->poweroff_noirq, error);
1201                 if (error)
1202                         return error;
1203         }
1204
1205         if (!pci_dev->state_saved && !pci_has_subordinate(pci_dev))
1206                 pci_prepare_to_sleep(pci_dev);
1207
1208         /*
1209          * The reason for doing this here is the same as for the analogous code
1210          * in pci_pm_suspend_noirq().
1211          */
1212         if (pci_dev->class == PCI_CLASS_SERIAL_USB_EHCI)
1213                 pci_write_config_word(pci_dev, PCI_COMMAND, 0);
1214
1215         pci_fixup_device(pci_fixup_suspend_late, pci_dev);
1216
1217         return 0;
1218 }
1219
1220 static int pci_pm_restore_noirq(struct device *dev)
1221 {
1222         struct pci_dev *pci_dev = to_pci_dev(dev);
1223         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1224
1225         pci_pm_default_resume_early(pci_dev);
1226         pci_fixup_device(pci_fixup_resume_early, pci_dev);
1227
1228         if (pci_has_legacy_pm_support(pci_dev))
1229                 return 0;
1230
1231         if (pm && pm->restore_noirq)
1232                 return pm->restore_noirq(dev);
1233
1234         return 0;
1235 }
1236
1237 static int pci_pm_restore(struct device *dev)
1238 {
1239         struct pci_dev *pci_dev = to_pci_dev(dev);
1240         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1241
1242         /*
1243          * This is necessary for the hibernation error path in which restore is
1244          * called without restoring the standard config registers of the device.
1245          */
1246         if (pci_dev->state_saved)
1247                 pci_restore_standard_config(pci_dev);
1248
1249         if (pci_has_legacy_pm_support(pci_dev))
1250                 return pci_legacy_resume(dev);
1251
1252         pci_pm_default_resume(pci_dev);
1253
1254         if (pm) {
1255                 if (pm->restore)
1256                         return pm->restore(dev);
1257         } else {
1258                 pci_pm_reenable_device(pci_dev);
1259         }
1260
1261         return 0;
1262 }
1263
1264 #else /* !CONFIG_HIBERNATE_CALLBACKS */
1265
1266 #define pci_pm_freeze           NULL
1267 #define pci_pm_freeze_noirq     NULL
1268 #define pci_pm_thaw             NULL
1269 #define pci_pm_thaw_noirq       NULL
1270 #define pci_pm_poweroff         NULL
1271 #define pci_pm_poweroff_late    NULL
1272 #define pci_pm_poweroff_noirq   NULL
1273 #define pci_pm_restore          NULL
1274 #define pci_pm_restore_noirq    NULL
1275
1276 #endif /* !CONFIG_HIBERNATE_CALLBACKS */
1277
1278 #ifdef CONFIG_PM
1279
1280 static int pci_pm_runtime_suspend(struct device *dev)
1281 {
1282         struct pci_dev *pci_dev = to_pci_dev(dev);
1283         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1284         pci_power_t prev = pci_dev->current_state;
1285         int error;
1286
1287         pci_suspend_ptm(pci_dev);
1288
1289         /*
1290          * If pci_dev->driver is not set (unbound), we leave the device in D0,
1291          * but it may go to D3cold when the bridge above it runtime suspends.
1292          * Save its config space in case that happens.
1293          */
1294         if (!pci_dev->driver) {
1295                 pci_save_state(pci_dev);
1296                 return 0;
1297         }
1298
1299         pci_dev->state_saved = false;
1300         if (pm && pm->runtime_suspend) {
1301                 error = pm->runtime_suspend(dev);
1302                 /*
1303                  * -EBUSY and -EAGAIN is used to request the runtime PM core
1304                  * to schedule a new suspend, so log the event only with debug
1305                  * log level.
1306                  */
1307                 if (error == -EBUSY || error == -EAGAIN) {
1308                         pci_dbg(pci_dev, "can't suspend now (%ps returned %d)\n",
1309                                 pm->runtime_suspend, error);
1310                         return error;
1311                 } else if (error) {
1312                         pci_err(pci_dev, "can't suspend (%ps returned %d)\n",
1313                                 pm->runtime_suspend, error);
1314                         return error;
1315                 }
1316         }
1317
1318         pci_fixup_device(pci_fixup_suspend, pci_dev);
1319
1320         if (pm && pm->runtime_suspend
1321             && !pci_dev->state_saved && pci_dev->current_state != PCI_D0
1322             && pci_dev->current_state != PCI_UNKNOWN) {
1323                 pci_WARN_ONCE(pci_dev, pci_dev->current_state != prev,
1324                               "PCI PM: State of device not saved by %pS\n",
1325                               pm->runtime_suspend);
1326                 return 0;
1327         }
1328
1329         if (!pci_dev->state_saved) {
1330                 pci_save_state(pci_dev);
1331                 pci_finish_runtime_suspend(pci_dev);
1332         }
1333
1334         return 0;
1335 }
1336
1337 static int pci_pm_runtime_resume(struct device *dev)
1338 {
1339         struct pci_dev *pci_dev = to_pci_dev(dev);
1340         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1341         pci_power_t prev_state = pci_dev->current_state;
1342         int error = 0;
1343
1344         /*
1345          * Restoring config space is necessary even if the device is not bound
1346          * to a driver because although we left it in D0, it may have gone to
1347          * D3cold when the bridge above it runtime suspended.
1348          */
1349         pci_pm_default_resume_early(pci_dev);
1350         pci_resume_ptm(pci_dev);
1351
1352         if (!pci_dev->driver)
1353                 return 0;
1354
1355         pci_fixup_device(pci_fixup_resume_early, pci_dev);
1356         pci_pm_default_resume(pci_dev);
1357
1358         if (prev_state == PCI_D3cold)
1359                 pci_pm_bridge_power_up_actions(pci_dev);
1360
1361         if (pm && pm->runtime_resume)
1362                 error = pm->runtime_resume(dev);
1363
1364         return error;
1365 }
1366
1367 static int pci_pm_runtime_idle(struct device *dev)
1368 {
1369         struct pci_dev *pci_dev = to_pci_dev(dev);
1370         const struct dev_pm_ops *pm = dev->driver ? dev->driver->pm : NULL;
1371
1372         /*
1373          * If pci_dev->driver is not set (unbound), the device should
1374          * always remain in D0 regardless of the runtime PM status
1375          */
1376         if (!pci_dev->driver)
1377                 return 0;
1378
1379         if (!pm)
1380                 return -ENOSYS;
1381
1382         if (pm->runtime_idle)
1383                 return pm->runtime_idle(dev);
1384
1385         return 0;
1386 }
1387
1388 static const struct dev_pm_ops pci_dev_pm_ops = {
1389         .prepare = pci_pm_prepare,
1390         .complete = pci_pm_complete,
1391         .suspend = pci_pm_suspend,
1392         .suspend_late = pci_pm_suspend_late,
1393         .resume = pci_pm_resume,
1394         .resume_early = pci_pm_resume_early,
1395         .freeze = pci_pm_freeze,
1396         .thaw = pci_pm_thaw,
1397         .poweroff = pci_pm_poweroff,
1398         .poweroff_late = pci_pm_poweroff_late,
1399         .restore = pci_pm_restore,
1400         .suspend_noirq = pci_pm_suspend_noirq,
1401         .resume_noirq = pci_pm_resume_noirq,
1402         .freeze_noirq = pci_pm_freeze_noirq,
1403         .thaw_noirq = pci_pm_thaw_noirq,
1404         .poweroff_noirq = pci_pm_poweroff_noirq,
1405         .restore_noirq = pci_pm_restore_noirq,
1406         .runtime_suspend = pci_pm_runtime_suspend,
1407         .runtime_resume = pci_pm_runtime_resume,
1408         .runtime_idle = pci_pm_runtime_idle,
1409 };
1410
1411 #define PCI_PM_OPS_PTR  (&pci_dev_pm_ops)
1412
1413 #else /* !CONFIG_PM */
1414
1415 #define pci_pm_runtime_suspend  NULL
1416 #define pci_pm_runtime_resume   NULL
1417 #define pci_pm_runtime_idle     NULL
1418
1419 #define PCI_PM_OPS_PTR  NULL
1420
1421 #endif /* !CONFIG_PM */
1422
1423 /**
1424  * __pci_register_driver - register a new pci driver
1425  * @drv: the driver structure to register
1426  * @owner: owner module of drv
1427  * @mod_name: module name string
1428  *
1429  * Adds the driver structure to the list of registered drivers.
1430  * Returns a negative value on error, otherwise 0.
1431  * If no error occurred, the driver remains registered even if
1432  * no device was claimed during registration.
1433  */
1434 int __pci_register_driver(struct pci_driver *drv, struct module *owner,
1435                           const char *mod_name)
1436 {
1437         /* initialize common driver fields */
1438         drv->driver.name = drv->name;
1439         drv->driver.bus = &pci_bus_type;
1440         drv->driver.owner = owner;
1441         drv->driver.mod_name = mod_name;
1442         drv->driver.groups = drv->groups;
1443         drv->driver.dev_groups = drv->dev_groups;
1444
1445         spin_lock_init(&drv->dynids.lock);
1446         INIT_LIST_HEAD(&drv->dynids.list);
1447
1448         /* register with core */
1449         return driver_register(&drv->driver);
1450 }
1451 EXPORT_SYMBOL(__pci_register_driver);
1452
1453 /**
1454  * pci_unregister_driver - unregister a pci driver
1455  * @drv: the driver structure to unregister
1456  *
1457  * Deletes the driver structure from the list of registered PCI drivers,
1458  * gives it a chance to clean up by calling its remove() function for
1459  * each device it was responsible for, and marks those devices as
1460  * driverless.
1461  */
1462
1463 void pci_unregister_driver(struct pci_driver *drv)
1464 {
1465         driver_unregister(&drv->driver);
1466         pci_free_dynids(drv);
1467 }
1468 EXPORT_SYMBOL(pci_unregister_driver);
1469
1470 static struct pci_driver pci_compat_driver = {
1471         .name = "compat"
1472 };
1473
1474 /**
1475  * pci_dev_driver - get the pci_driver of a device
1476  * @dev: the device to query
1477  *
1478  * Returns the appropriate pci_driver structure or %NULL if there is no
1479  * registered driver for the device.
1480  */
1481 struct pci_driver *pci_dev_driver(const struct pci_dev *dev)
1482 {
1483         if (dev->driver)
1484                 return dev->driver;
1485         else {
1486                 int i;
1487                 for (i = 0; i <= PCI_ROM_RESOURCE; i++)
1488                         if (dev->resource[i].flags & IORESOURCE_BUSY)
1489                                 return &pci_compat_driver;
1490         }
1491         return NULL;
1492 }
1493 EXPORT_SYMBOL(pci_dev_driver);
1494
1495 /**
1496  * pci_bus_match - Tell if a PCI device structure has a matching PCI device id structure
1497  * @dev: the PCI device structure to match against
1498  * @drv: the device driver to search for matching PCI device id structures
1499  *
1500  * Used by a driver to check whether a PCI device present in the
1501  * system is in its list of supported devices. Returns the matching
1502  * pci_device_id structure or %NULL if there is no match.
1503  */
1504 static int pci_bus_match(struct device *dev, struct device_driver *drv)
1505 {
1506         struct pci_dev *pci_dev = to_pci_dev(dev);
1507         struct pci_driver *pci_drv;
1508         const struct pci_device_id *found_id;
1509
1510         if (!pci_dev->match_driver)
1511                 return 0;
1512
1513         pci_drv = to_pci_driver(drv);
1514         found_id = pci_match_device(pci_drv, pci_dev);
1515         if (found_id)
1516                 return 1;
1517
1518         return 0;
1519 }
1520
1521 /**
1522  * pci_dev_get - increments the reference count of the pci device structure
1523  * @dev: the device being referenced
1524  *
1525  * Each live reference to a device should be refcounted.
1526  *
1527  * Drivers for PCI devices should normally record such references in
1528  * their probe() methods, when they bind to a device, and release
1529  * them by calling pci_dev_put(), in their disconnect() methods.
1530  *
1531  * A pointer to the device with the incremented reference counter is returned.
1532  */
1533 struct pci_dev *pci_dev_get(struct pci_dev *dev)
1534 {
1535         if (dev)
1536                 get_device(&dev->dev);
1537         return dev;
1538 }
1539 EXPORT_SYMBOL(pci_dev_get);
1540
1541 /**
1542  * pci_dev_put - release a use of the pci device structure
1543  * @dev: device that's been disconnected
1544  *
1545  * Must be called when a user of a device is finished with it.  When the last
1546  * user of the device calls this function, the memory of the device is freed.
1547  */
1548 void pci_dev_put(struct pci_dev *dev)
1549 {
1550         if (dev)
1551                 put_device(&dev->dev);
1552 }
1553 EXPORT_SYMBOL(pci_dev_put);
1554
1555 static int pci_uevent(struct device *dev, struct kobj_uevent_env *env)
1556 {
1557         struct pci_dev *pdev;
1558
1559         if (!dev)
1560                 return -ENODEV;
1561
1562         pdev = to_pci_dev(dev);
1563
1564         if (add_uevent_var(env, "PCI_CLASS=%04X", pdev->class))
1565                 return -ENOMEM;
1566
1567         if (add_uevent_var(env, "PCI_ID=%04X:%04X", pdev->vendor, pdev->device))
1568                 return -ENOMEM;
1569
1570         if (add_uevent_var(env, "PCI_SUBSYS_ID=%04X:%04X", pdev->subsystem_vendor,
1571                            pdev->subsystem_device))
1572                 return -ENOMEM;
1573
1574         if (add_uevent_var(env, "PCI_SLOT_NAME=%s", pci_name(pdev)))
1575                 return -ENOMEM;
1576
1577         if (add_uevent_var(env, "MODALIAS=pci:v%08Xd%08Xsv%08Xsd%08Xbc%02Xsc%02Xi%02X",
1578                            pdev->vendor, pdev->device,
1579                            pdev->subsystem_vendor, pdev->subsystem_device,
1580                            (u8)(pdev->class >> 16), (u8)(pdev->class >> 8),
1581                            (u8)(pdev->class)))
1582                 return -ENOMEM;
1583
1584         return 0;
1585 }
1586
1587 #if defined(CONFIG_PCIEAER) || defined(CONFIG_EEH)
1588 /**
1589  * pci_uevent_ers - emit a uevent during recovery path of PCI device
1590  * @pdev: PCI device undergoing error recovery
1591  * @err_type: type of error event
1592  */
1593 void pci_uevent_ers(struct pci_dev *pdev, enum pci_ers_result err_type)
1594 {
1595         int idx = 0;
1596         char *envp[3];
1597
1598         switch (err_type) {
1599         case PCI_ERS_RESULT_NONE:
1600         case PCI_ERS_RESULT_CAN_RECOVER:
1601                 envp[idx++] = "ERROR_EVENT=BEGIN_RECOVERY";
1602                 envp[idx++] = "DEVICE_ONLINE=0";
1603                 break;
1604         case PCI_ERS_RESULT_RECOVERED:
1605                 envp[idx++] = "ERROR_EVENT=SUCCESSFUL_RECOVERY";
1606                 envp[idx++] = "DEVICE_ONLINE=1";
1607                 break;
1608         case PCI_ERS_RESULT_DISCONNECT:
1609                 envp[idx++] = "ERROR_EVENT=FAILED_RECOVERY";
1610                 envp[idx++] = "DEVICE_ONLINE=0";
1611                 break;
1612         default:
1613                 break;
1614         }
1615
1616         if (idx > 0) {
1617                 envp[idx++] = NULL;
1618                 kobject_uevent_env(&pdev->dev.kobj, KOBJ_CHANGE, envp);
1619         }
1620 }
1621 #endif
1622
1623 static int pci_bus_num_vf(struct device *dev)
1624 {
1625         return pci_num_vf(to_pci_dev(dev));
1626 }
1627
1628 /**
1629  * pci_dma_configure - Setup DMA configuration
1630  * @dev: ptr to dev structure
1631  *
1632  * Function to update PCI devices's DMA configuration using the same
1633  * info from the OF node or ACPI node of host bridge's parent (if any).
1634  */
1635 static int pci_dma_configure(struct device *dev)
1636 {
1637         struct pci_driver *driver = to_pci_driver(dev->driver);
1638         struct device *bridge;
1639         int ret = 0;
1640
1641         bridge = pci_get_host_bridge_device(to_pci_dev(dev));
1642
1643         if (IS_ENABLED(CONFIG_OF) && bridge->parent &&
1644             bridge->parent->of_node) {
1645                 ret = of_dma_configure(dev, bridge->parent->of_node, true);
1646         } else if (has_acpi_companion(bridge)) {
1647                 struct acpi_device *adev = to_acpi_device_node(bridge->fwnode);
1648
1649                 ret = acpi_dma_configure(dev, acpi_get_dma_attr(adev));
1650         }
1651
1652         pci_put_host_bridge_device(bridge);
1653
1654         if (!ret && !driver->driver_managed_dma) {
1655                 ret = iommu_device_use_default_domain(dev);
1656                 if (ret)
1657                         arch_teardown_dma_ops(dev);
1658         }
1659
1660         return ret;
1661 }
1662
1663 static void pci_dma_cleanup(struct device *dev)
1664 {
1665         struct pci_driver *driver = to_pci_driver(dev->driver);
1666
1667         if (!driver->driver_managed_dma)
1668                 iommu_device_unuse_default_domain(dev);
1669 }
1670
1671 struct bus_type pci_bus_type = {
1672         .name           = "pci",
1673         .match          = pci_bus_match,
1674         .uevent         = pci_uevent,
1675         .probe          = pci_device_probe,
1676         .remove         = pci_device_remove,
1677         .shutdown       = pci_device_shutdown,
1678         .dev_groups     = pci_dev_groups,
1679         .bus_groups     = pci_bus_groups,
1680         .drv_groups     = pci_drv_groups,
1681         .pm             = PCI_PM_OPS_PTR,
1682         .num_vf         = pci_bus_num_vf,
1683         .dma_configure  = pci_dma_configure,
1684         .dma_cleanup    = pci_dma_cleanup,
1685 };
1686 EXPORT_SYMBOL(pci_bus_type);
1687
1688 #ifdef CONFIG_PCIEPORTBUS
1689 static int pcie_port_bus_match(struct device *dev, struct device_driver *drv)
1690 {
1691         struct pcie_device *pciedev;
1692         struct pcie_port_service_driver *driver;
1693
1694         if (drv->bus != &pcie_port_bus_type || dev->bus != &pcie_port_bus_type)
1695                 return 0;
1696
1697         pciedev = to_pcie_device(dev);
1698         driver = to_service_driver(drv);
1699
1700         if (driver->service != pciedev->service)
1701                 return 0;
1702
1703         if (driver->port_type != PCIE_ANY_PORT &&
1704             driver->port_type != pci_pcie_type(pciedev->port))
1705                 return 0;
1706
1707         return 1;
1708 }
1709
1710 struct bus_type pcie_port_bus_type = {
1711         .name           = "pci_express",
1712         .match          = pcie_port_bus_match,
1713 };
1714 EXPORT_SYMBOL_GPL(pcie_port_bus_type);
1715 #endif
1716
1717 static int __init pci_driver_init(void)
1718 {
1719         int ret;
1720
1721         ret = bus_register(&pci_bus_type);
1722         if (ret)
1723                 return ret;
1724
1725 #ifdef CONFIG_PCIEPORTBUS
1726         ret = bus_register(&pcie_port_bus_type);
1727         if (ret)
1728                 return ret;
1729 #endif
1730         dma_debug_add_bus(&pci_bus_type);
1731         return 0;
1732 }
1733 postcore_initcall(pci_driver_init);