GNU Linux-libre 4.9.318-gnu1
[releases.git] / net / can / raw.c
1 /*
2  * raw.c - Raw sockets for protocol family CAN
3  *
4  * Copyright (c) 2002-2007 Volkswagen Group Electronic Research
5  * All rights reserved.
6  *
7  * Redistribution and use in source and binary forms, with or without
8  * modification, are permitted provided that the following conditions
9  * are met:
10  * 1. Redistributions of source code must retain the above copyright
11  *    notice, this list of conditions and the following disclaimer.
12  * 2. Redistributions in binary form must reproduce the above copyright
13  *    notice, this list of conditions and the following disclaimer in the
14  *    documentation and/or other materials provided with the distribution.
15  * 3. Neither the name of Volkswagen nor the names of its contributors
16  *    may be used to endorse or promote products derived from this software
17  *    without specific prior written permission.
18  *
19  * Alternatively, provided that this notice is retained in full, this
20  * software may be distributed under the terms of the GNU General
21  * Public License ("GPL") version 2, in which case the provisions of the
22  * GPL apply INSTEAD OF those given above.
23  *
24  * The provided data structures and external interfaces from this code
25  * are not restricted to be used by modules with a GPL compatible license.
26  *
27  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
28  * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
29  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
30  * A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
31  * OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
32  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
33  * LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
34  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
35  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
36  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
37  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH
38  * DAMAGE.
39  *
40  */
41
42 #include <linux/module.h>
43 #include <linux/init.h>
44 #include <linux/uio.h>
45 #include <linux/net.h>
46 #include <linux/slab.h>
47 #include <linux/netdevice.h>
48 #include <linux/socket.h>
49 #include <linux/if_arp.h>
50 #include <linux/skbuff.h>
51 #include <linux/can.h>
52 #include <linux/can/core.h>
53 #include <linux/can/skb.h>
54 #include <linux/can/raw.h>
55 #include <net/sock.h>
56 #include <net/net_namespace.h>
57
58 #define CAN_RAW_VERSION CAN_VERSION
59
60 MODULE_DESCRIPTION("PF_CAN raw protocol");
61 MODULE_LICENSE("Dual BSD/GPL");
62 MODULE_AUTHOR("Urs Thuermann <urs.thuermann@volkswagen.de>");
63 MODULE_ALIAS("can-proto-1");
64
65 #define MASK_ALL 0
66
67 /*
68  * A raw socket has a list of can_filters attached to it, each receiving
69  * the CAN frames matching that filter.  If the filter list is empty,
70  * no CAN frames will be received by the socket.  The default after
71  * opening the socket, is to have one filter which receives all frames.
72  * The filter list is allocated dynamically with the exception of the
73  * list containing only one item.  This common case is optimized by
74  * storing the single filter in dfilter, to avoid using dynamic memory.
75  */
76
77 struct uniqframe {
78         int skbcnt;
79         const struct sk_buff *skb;
80         unsigned int join_rx_count;
81 };
82
83 struct raw_sock {
84         struct sock sk;
85         int bound;
86         int ifindex;
87         struct list_head notifier;
88         int loopback;
89         int recv_own_msgs;
90         int fd_frames;
91         int join_filters;
92         int count;                 /* number of active filters */
93         struct can_filter dfilter; /* default/single filter */
94         struct can_filter *filter; /* pointer to filter(s) */
95         can_err_mask_t err_mask;
96         struct uniqframe __percpu *uniq;
97 };
98
99 static LIST_HEAD(raw_notifier_list);
100 static DEFINE_SPINLOCK(raw_notifier_lock);
101 static struct raw_sock *raw_busy_notifier;
102
103 /*
104  * Return pointer to store the extra msg flags for raw_recvmsg().
105  * We use the space of one unsigned int beyond the 'struct sockaddr_can'
106  * in skb->cb.
107  */
108 static inline unsigned int *raw_flags(struct sk_buff *skb)
109 {
110         sock_skb_cb_check_size(sizeof(struct sockaddr_can) +
111                                sizeof(unsigned int));
112
113         /* return pointer after struct sockaddr_can */
114         return (unsigned int *)(&((struct sockaddr_can *)skb->cb)[1]);
115 }
116
117 static inline struct raw_sock *raw_sk(const struct sock *sk)
118 {
119         return (struct raw_sock *)sk;
120 }
121
122 static void raw_rcv(struct sk_buff *oskb, void *data)
123 {
124         struct sock *sk = (struct sock *)data;
125         struct raw_sock *ro = raw_sk(sk);
126         struct sockaddr_can *addr;
127         struct sk_buff *skb;
128         unsigned int *pflags;
129
130         /* check the received tx sock reference */
131         if (!ro->recv_own_msgs && oskb->sk == sk)
132                 return;
133
134         /* do not pass non-CAN2.0 frames to a legacy socket */
135         if (!ro->fd_frames && oskb->len != CAN_MTU)
136                 return;
137
138         /* eliminate multiple filter matches for the same skb */
139         if (this_cpu_ptr(ro->uniq)->skb == oskb &&
140             this_cpu_ptr(ro->uniq)->skbcnt == can_skb_prv(oskb)->skbcnt) {
141                 if (ro->join_filters) {
142                         this_cpu_inc(ro->uniq->join_rx_count);
143                         /* drop frame until all enabled filters matched */
144                         if (this_cpu_ptr(ro->uniq)->join_rx_count < ro->count)
145                                 return;
146                 } else {
147                         return;
148                 }
149         } else {
150                 this_cpu_ptr(ro->uniq)->skb = oskb;
151                 this_cpu_ptr(ro->uniq)->skbcnt = can_skb_prv(oskb)->skbcnt;
152                 this_cpu_ptr(ro->uniq)->join_rx_count = 1;
153                 /* drop first frame to check all enabled filters? */
154                 if (ro->join_filters && ro->count > 1)
155                         return;
156         }
157
158         /* clone the given skb to be able to enqueue it into the rcv queue */
159         skb = skb_clone(oskb, GFP_ATOMIC);
160         if (!skb)
161                 return;
162
163         /*
164          *  Put the datagram to the queue so that raw_recvmsg() can
165          *  get it from there.  We need to pass the interface index to
166          *  raw_recvmsg().  We pass a whole struct sockaddr_can in skb->cb
167          *  containing the interface index.
168          */
169
170         sock_skb_cb_check_size(sizeof(struct sockaddr_can));
171         addr = (struct sockaddr_can *)skb->cb;
172         memset(addr, 0, sizeof(*addr));
173         addr->can_family  = AF_CAN;
174         addr->can_ifindex = skb->dev->ifindex;
175
176         /* add CAN specific message flags for raw_recvmsg() */
177         pflags = raw_flags(skb);
178         *pflags = 0;
179         if (oskb->sk)
180                 *pflags |= MSG_DONTROUTE;
181         if (oskb->sk == sk)
182                 *pflags |= MSG_CONFIRM;
183
184         if (sock_queue_rcv_skb(sk, skb) < 0)
185                 kfree_skb(skb);
186 }
187
188 static int raw_enable_filters(struct net_device *dev, struct sock *sk,
189                               struct can_filter *filter, int count)
190 {
191         int err = 0;
192         int i;
193
194         for (i = 0; i < count; i++) {
195                 err = can_rx_register(dev, filter[i].can_id,
196                                       filter[i].can_mask,
197                                       raw_rcv, sk, "raw", sk);
198                 if (err) {
199                         /* clean up successfully registered filters */
200                         while (--i >= 0)
201                                 can_rx_unregister(dev, filter[i].can_id,
202                                                   filter[i].can_mask,
203                                                   raw_rcv, sk);
204                         break;
205                 }
206         }
207
208         return err;
209 }
210
211 static int raw_enable_errfilter(struct net_device *dev, struct sock *sk,
212                                 can_err_mask_t err_mask)
213 {
214         int err = 0;
215
216         if (err_mask)
217                 err = can_rx_register(dev, 0, err_mask | CAN_ERR_FLAG,
218                                       raw_rcv, sk, "raw", sk);
219
220         return err;
221 }
222
223 static void raw_disable_filters(struct net_device *dev, struct sock *sk,
224                               struct can_filter *filter, int count)
225 {
226         int i;
227
228         for (i = 0; i < count; i++)
229                 can_rx_unregister(dev, filter[i].can_id, filter[i].can_mask,
230                                   raw_rcv, sk);
231 }
232
233 static inline void raw_disable_errfilter(struct net_device *dev,
234                                          struct sock *sk,
235                                          can_err_mask_t err_mask)
236
237 {
238         if (err_mask)
239                 can_rx_unregister(dev, 0, err_mask | CAN_ERR_FLAG,
240                                   raw_rcv, sk);
241 }
242
243 static inline void raw_disable_allfilters(struct net_device *dev,
244                                           struct sock *sk)
245 {
246         struct raw_sock *ro = raw_sk(sk);
247
248         raw_disable_filters(dev, sk, ro->filter, ro->count);
249         raw_disable_errfilter(dev, sk, ro->err_mask);
250 }
251
252 static int raw_enable_allfilters(struct net_device *dev, struct sock *sk)
253 {
254         struct raw_sock *ro = raw_sk(sk);
255         int err;
256
257         err = raw_enable_filters(dev, sk, ro->filter, ro->count);
258         if (!err) {
259                 err = raw_enable_errfilter(dev, sk, ro->err_mask);
260                 if (err)
261                         raw_disable_filters(dev, sk, ro->filter, ro->count);
262         }
263
264         return err;
265 }
266
267 static void raw_notify(struct raw_sock *ro, unsigned long msg,
268                        struct net_device *dev)
269 {
270         struct sock *sk = &ro->sk;
271
272         if (!net_eq(dev_net(dev), &init_net))
273                 return;
274
275         if (ro->ifindex != dev->ifindex)
276                 return;
277
278         switch (msg) {
279
280         case NETDEV_UNREGISTER:
281                 lock_sock(sk);
282                 /* remove current filters & unregister */
283                 if (ro->bound)
284                         raw_disable_allfilters(dev, sk);
285
286                 if (ro->count > 1)
287                         kfree(ro->filter);
288
289                 ro->ifindex = 0;
290                 ro->bound   = 0;
291                 ro->count   = 0;
292                 release_sock(sk);
293
294                 sk->sk_err = ENODEV;
295                 if (!sock_flag(sk, SOCK_DEAD))
296                         sk->sk_error_report(sk);
297                 break;
298
299         case NETDEV_DOWN:
300                 sk->sk_err = ENETDOWN;
301                 if (!sock_flag(sk, SOCK_DEAD))
302                         sk->sk_error_report(sk);
303                 break;
304         }
305 }
306
307 static int raw_notifier(struct notifier_block *nb, unsigned long msg,
308                         void *ptr)
309 {
310         struct net_device *dev = netdev_notifier_info_to_dev(ptr);
311
312         if (dev->type != ARPHRD_CAN)
313                 return NOTIFY_DONE;
314         if (msg != NETDEV_UNREGISTER && msg != NETDEV_DOWN)
315                 return NOTIFY_DONE;
316         if (unlikely(raw_busy_notifier)) /* Check for reentrant bug. */
317                 return NOTIFY_DONE;
318
319         spin_lock(&raw_notifier_lock);
320         list_for_each_entry(raw_busy_notifier, &raw_notifier_list, notifier) {
321                 spin_unlock(&raw_notifier_lock);
322                 raw_notify(raw_busy_notifier, msg, dev);
323                 spin_lock(&raw_notifier_lock);
324         }
325         raw_busy_notifier = NULL;
326         spin_unlock(&raw_notifier_lock);
327         return NOTIFY_DONE;
328 }
329
330 static int raw_init(struct sock *sk)
331 {
332         struct raw_sock *ro = raw_sk(sk);
333
334         ro->bound            = 0;
335         ro->ifindex          = 0;
336
337         /* set default filter to single entry dfilter */
338         ro->dfilter.can_id   = 0;
339         ro->dfilter.can_mask = MASK_ALL;
340         ro->filter           = &ro->dfilter;
341         ro->count            = 1;
342
343         /* set default loopback behaviour */
344         ro->loopback         = 1;
345         ro->recv_own_msgs    = 0;
346         ro->fd_frames        = 0;
347         ro->join_filters     = 0;
348
349         /* alloc_percpu provides zero'ed memory */
350         ro->uniq = alloc_percpu(struct uniqframe);
351         if (unlikely(!ro->uniq))
352                 return -ENOMEM;
353
354         /* set notifier */
355         spin_lock(&raw_notifier_lock);
356         list_add_tail(&ro->notifier, &raw_notifier_list);
357         spin_unlock(&raw_notifier_lock);
358
359         return 0;
360 }
361
362 static int raw_release(struct socket *sock)
363 {
364         struct sock *sk = sock->sk;
365         struct raw_sock *ro;
366
367         if (!sk)
368                 return 0;
369
370         ro = raw_sk(sk);
371
372         spin_lock(&raw_notifier_lock);
373         while (raw_busy_notifier == ro) {
374                 spin_unlock(&raw_notifier_lock);
375                 schedule_timeout_uninterruptible(1);
376                 spin_lock(&raw_notifier_lock);
377         }
378         list_del(&ro->notifier);
379         spin_unlock(&raw_notifier_lock);
380
381         lock_sock(sk);
382
383         /* remove current filters & unregister */
384         if (ro->bound) {
385                 if (ro->ifindex) {
386                         struct net_device *dev;
387
388                         dev = dev_get_by_index(&init_net, ro->ifindex);
389                         if (dev) {
390                                 raw_disable_allfilters(dev, sk);
391                                 dev_put(dev);
392                         }
393                 } else
394                         raw_disable_allfilters(NULL, sk);
395         }
396
397         if (ro->count > 1)
398                 kfree(ro->filter);
399
400         ro->ifindex = 0;
401         ro->bound   = 0;
402         ro->count   = 0;
403         free_percpu(ro->uniq);
404
405         sock_orphan(sk);
406         sock->sk = NULL;
407
408         release_sock(sk);
409         sock_put(sk);
410
411         return 0;
412 }
413
414 static int raw_bind(struct socket *sock, struct sockaddr *uaddr, int len)
415 {
416         struct sockaddr_can *addr = (struct sockaddr_can *)uaddr;
417         struct sock *sk = sock->sk;
418         struct raw_sock *ro = raw_sk(sk);
419         int ifindex;
420         int err = 0;
421         int notify_enetdown = 0;
422
423         if (len < sizeof(*addr))
424                 return -EINVAL;
425
426         lock_sock(sk);
427
428         if (ro->bound && addr->can_ifindex == ro->ifindex)
429                 goto out;
430
431         if (addr->can_ifindex) {
432                 struct net_device *dev;
433
434                 dev = dev_get_by_index(&init_net, addr->can_ifindex);
435                 if (!dev) {
436                         err = -ENODEV;
437                         goto out;
438                 }
439                 if (dev->type != ARPHRD_CAN) {
440                         dev_put(dev);
441                         err = -ENODEV;
442                         goto out;
443                 }
444                 if (!(dev->flags & IFF_UP))
445                         notify_enetdown = 1;
446
447                 ifindex = dev->ifindex;
448
449                 /* filters set by default/setsockopt */
450                 err = raw_enable_allfilters(dev, sk);
451                 dev_put(dev);
452         } else {
453                 ifindex = 0;
454
455                 /* filters set by default/setsockopt */
456                 err = raw_enable_allfilters(NULL, sk);
457         }
458
459         if (!err) {
460                 if (ro->bound) {
461                         /* unregister old filters */
462                         if (ro->ifindex) {
463                                 struct net_device *dev;
464
465                                 dev = dev_get_by_index(&init_net, ro->ifindex);
466                                 if (dev) {
467                                         raw_disable_allfilters(dev, sk);
468                                         dev_put(dev);
469                                 }
470                         } else
471                                 raw_disable_allfilters(NULL, sk);
472                 }
473                 ro->ifindex = ifindex;
474                 ro->bound = 1;
475         }
476
477  out:
478         release_sock(sk);
479
480         if (notify_enetdown) {
481                 sk->sk_err = ENETDOWN;
482                 if (!sock_flag(sk, SOCK_DEAD))
483                         sk->sk_error_report(sk);
484         }
485
486         return err;
487 }
488
489 static int raw_getname(struct socket *sock, struct sockaddr *uaddr,
490                        int *len, int peer)
491 {
492         struct sockaddr_can *addr = (struct sockaddr_can *)uaddr;
493         struct sock *sk = sock->sk;
494         struct raw_sock *ro = raw_sk(sk);
495
496         if (peer)
497                 return -EOPNOTSUPP;
498
499         memset(addr, 0, sizeof(*addr));
500         addr->can_family  = AF_CAN;
501         addr->can_ifindex = ro->ifindex;
502
503         *len = sizeof(*addr);
504
505         return 0;
506 }
507
508 static int raw_setsockopt(struct socket *sock, int level, int optname,
509                           char __user *optval, unsigned int optlen)
510 {
511         struct sock *sk = sock->sk;
512         struct raw_sock *ro = raw_sk(sk);
513         struct can_filter *filter = NULL;  /* dyn. alloc'ed filters */
514         struct can_filter sfilter;         /* single filter */
515         struct net_device *dev = NULL;
516         can_err_mask_t err_mask = 0;
517         int count = 0;
518         int err = 0;
519
520         if (level != SOL_CAN_RAW)
521                 return -EINVAL;
522
523         switch (optname) {
524
525         case CAN_RAW_FILTER:
526                 if (optlen % sizeof(struct can_filter) != 0)
527                         return -EINVAL;
528
529                 if (optlen > CAN_RAW_FILTER_MAX * sizeof(struct can_filter))
530                         return -EINVAL;
531
532                 count = optlen / sizeof(struct can_filter);
533
534                 if (count > 1) {
535                         /* filter does not fit into dfilter => alloc space */
536                         filter = memdup_user(optval, optlen);
537                         if (IS_ERR(filter))
538                                 return PTR_ERR(filter);
539                 } else if (count == 1) {
540                         if (copy_from_user(&sfilter, optval, sizeof(sfilter)))
541                                 return -EFAULT;
542                 }
543
544                 rtnl_lock();
545                 lock_sock(sk);
546
547                 if (ro->bound && ro->ifindex) {
548                         dev = dev_get_by_index(&init_net, ro->ifindex);
549                         if (!dev) {
550                                 if (count > 1)
551                                         kfree(filter);
552                                 err = -ENODEV;
553                                 goto out_fil;
554                         }
555                 }
556
557                 if (ro->bound) {
558                         /* (try to) register the new filters */
559                         if (count == 1)
560                                 err = raw_enable_filters(dev, sk, &sfilter, 1);
561                         else
562                                 err = raw_enable_filters(dev, sk, filter,
563                                                          count);
564                         if (err) {
565                                 if (count > 1)
566                                         kfree(filter);
567                                 goto out_fil;
568                         }
569
570                         /* remove old filter registrations */
571                         raw_disable_filters(dev, sk, ro->filter, ro->count);
572                 }
573
574                 /* remove old filter space */
575                 if (ro->count > 1)
576                         kfree(ro->filter);
577
578                 /* link new filters to the socket */
579                 if (count == 1) {
580                         /* copy filter data for single filter */
581                         ro->dfilter = sfilter;
582                         filter = &ro->dfilter;
583                 }
584                 ro->filter = filter;
585                 ro->count  = count;
586
587  out_fil:
588                 if (dev)
589                         dev_put(dev);
590
591                 release_sock(sk);
592                 rtnl_unlock();
593
594                 break;
595
596         case CAN_RAW_ERR_FILTER:
597                 if (optlen != sizeof(err_mask))
598                         return -EINVAL;
599
600                 if (copy_from_user(&err_mask, optval, optlen))
601                         return -EFAULT;
602
603                 err_mask &= CAN_ERR_MASK;
604
605                 rtnl_lock();
606                 lock_sock(sk);
607
608                 if (ro->bound && ro->ifindex) {
609                         dev = dev_get_by_index(&init_net, ro->ifindex);
610                         if (!dev) {
611                                 err = -ENODEV;
612                                 goto out_err;
613                         }
614                 }
615
616                 /* remove current error mask */
617                 if (ro->bound) {
618                         /* (try to) register the new err_mask */
619                         err = raw_enable_errfilter(dev, sk, err_mask);
620
621                         if (err)
622                                 goto out_err;
623
624                         /* remove old err_mask registration */
625                         raw_disable_errfilter(dev, sk, ro->err_mask);
626                 }
627
628                 /* link new err_mask to the socket */
629                 ro->err_mask = err_mask;
630
631  out_err:
632                 if (dev)
633                         dev_put(dev);
634
635                 release_sock(sk);
636                 rtnl_unlock();
637
638                 break;
639
640         case CAN_RAW_LOOPBACK:
641                 if (optlen != sizeof(ro->loopback))
642                         return -EINVAL;
643
644                 if (copy_from_user(&ro->loopback, optval, optlen))
645                         return -EFAULT;
646
647                 break;
648
649         case CAN_RAW_RECV_OWN_MSGS:
650                 if (optlen != sizeof(ro->recv_own_msgs))
651                         return -EINVAL;
652
653                 if (copy_from_user(&ro->recv_own_msgs, optval, optlen))
654                         return -EFAULT;
655
656                 break;
657
658         case CAN_RAW_FD_FRAMES:
659                 if (optlen != sizeof(ro->fd_frames))
660                         return -EINVAL;
661
662                 if (copy_from_user(&ro->fd_frames, optval, optlen))
663                         return -EFAULT;
664
665                 break;
666
667         case CAN_RAW_JOIN_FILTERS:
668                 if (optlen != sizeof(ro->join_filters))
669                         return -EINVAL;
670
671                 if (copy_from_user(&ro->join_filters, optval, optlen))
672                         return -EFAULT;
673
674                 break;
675
676         default:
677                 return -ENOPROTOOPT;
678         }
679         return err;
680 }
681
682 static int raw_getsockopt(struct socket *sock, int level, int optname,
683                           char __user *optval, int __user *optlen)
684 {
685         struct sock *sk = sock->sk;
686         struct raw_sock *ro = raw_sk(sk);
687         int len;
688         void *val;
689         int err = 0;
690
691         if (level != SOL_CAN_RAW)
692                 return -EINVAL;
693         if (get_user(len, optlen))
694                 return -EFAULT;
695         if (len < 0)
696                 return -EINVAL;
697
698         switch (optname) {
699
700         case CAN_RAW_FILTER:
701                 lock_sock(sk);
702                 if (ro->count > 0) {
703                         int fsize = ro->count * sizeof(struct can_filter);
704                         if (len > fsize)
705                                 len = fsize;
706                         if (copy_to_user(optval, ro->filter, len))
707                                 err = -EFAULT;
708                 } else
709                         len = 0;
710                 release_sock(sk);
711
712                 if (!err)
713                         err = put_user(len, optlen);
714                 return err;
715
716         case CAN_RAW_ERR_FILTER:
717                 if (len > sizeof(can_err_mask_t))
718                         len = sizeof(can_err_mask_t);
719                 val = &ro->err_mask;
720                 break;
721
722         case CAN_RAW_LOOPBACK:
723                 if (len > sizeof(int))
724                         len = sizeof(int);
725                 val = &ro->loopback;
726                 break;
727
728         case CAN_RAW_RECV_OWN_MSGS:
729                 if (len > sizeof(int))
730                         len = sizeof(int);
731                 val = &ro->recv_own_msgs;
732                 break;
733
734         case CAN_RAW_FD_FRAMES:
735                 if (len > sizeof(int))
736                         len = sizeof(int);
737                 val = &ro->fd_frames;
738                 break;
739
740         case CAN_RAW_JOIN_FILTERS:
741                 if (len > sizeof(int))
742                         len = sizeof(int);
743                 val = &ro->join_filters;
744                 break;
745
746         default:
747                 return -ENOPROTOOPT;
748         }
749
750         if (put_user(len, optlen))
751                 return -EFAULT;
752         if (copy_to_user(optval, val, len))
753                 return -EFAULT;
754         return 0;
755 }
756
757 static int raw_sendmsg(struct socket *sock, struct msghdr *msg, size_t size)
758 {
759         struct sock *sk = sock->sk;
760         struct raw_sock *ro = raw_sk(sk);
761         struct sk_buff *skb;
762         struct net_device *dev;
763         int ifindex;
764         int err;
765
766         if (msg->msg_name) {
767                 DECLARE_SOCKADDR(struct sockaddr_can *, addr, msg->msg_name);
768
769                 if (msg->msg_namelen < sizeof(*addr))
770                         return -EINVAL;
771
772                 if (addr->can_family != AF_CAN)
773                         return -EINVAL;
774
775                 ifindex = addr->can_ifindex;
776         } else
777                 ifindex = ro->ifindex;
778
779         if (ro->fd_frames) {
780                 if (unlikely(size != CANFD_MTU && size != CAN_MTU))
781                         return -EINVAL;
782         } else {
783                 if (unlikely(size != CAN_MTU))
784                         return -EINVAL;
785         }
786
787         dev = dev_get_by_index(&init_net, ifindex);
788         if (!dev)
789                 return -ENXIO;
790
791         skb = sock_alloc_send_skb(sk, size + sizeof(struct can_skb_priv),
792                                   msg->msg_flags & MSG_DONTWAIT, &err);
793         if (!skb)
794                 goto put_dev;
795
796         can_skb_reserve(skb);
797         can_skb_prv(skb)->ifindex = dev->ifindex;
798         can_skb_prv(skb)->skbcnt = 0;
799
800         err = memcpy_from_msg(skb_put(skb, size), msg, size);
801         if (err < 0)
802                 goto free_skb;
803
804         sock_tx_timestamp(sk, sk->sk_tsflags, &skb_shinfo(skb)->tx_flags);
805
806         skb->dev = dev;
807         skb->sk  = sk;
808         skb->priority = sk->sk_priority;
809
810         err = can_send(skb, ro->loopback);
811
812         dev_put(dev);
813
814         if (err)
815                 goto send_failed;
816
817         return size;
818
819 free_skb:
820         kfree_skb(skb);
821 put_dev:
822         dev_put(dev);
823 send_failed:
824         return err;
825 }
826
827 static int raw_recvmsg(struct socket *sock, struct msghdr *msg, size_t size,
828                        int flags)
829 {
830         struct sock *sk = sock->sk;
831         struct sk_buff *skb;
832         int err = 0;
833         int noblock;
834
835         noblock =  flags & MSG_DONTWAIT;
836         flags   &= ~MSG_DONTWAIT;
837
838         skb = skb_recv_datagram(sk, flags, noblock, &err);
839         if (!skb)
840                 return err;
841
842         if (size < skb->len)
843                 msg->msg_flags |= MSG_TRUNC;
844         else
845                 size = skb->len;
846
847         err = memcpy_to_msg(msg, skb->data, size);
848         if (err < 0) {
849                 skb_free_datagram(sk, skb);
850                 return err;
851         }
852
853         sock_recv_ts_and_drops(msg, sk, skb);
854
855         if (msg->msg_name) {
856                 __sockaddr_check_size(sizeof(struct sockaddr_can));
857                 msg->msg_namelen = sizeof(struct sockaddr_can);
858                 memcpy(msg->msg_name, skb->cb, msg->msg_namelen);
859         }
860
861         /* assign the flags that have been recorded in raw_rcv() */
862         msg->msg_flags |= *(raw_flags(skb));
863
864         skb_free_datagram(sk, skb);
865
866         return size;
867 }
868
869 static const struct proto_ops raw_ops = {
870         .family        = PF_CAN,
871         .release       = raw_release,
872         .bind          = raw_bind,
873         .connect       = sock_no_connect,
874         .socketpair    = sock_no_socketpair,
875         .accept        = sock_no_accept,
876         .getname       = raw_getname,
877         .poll          = datagram_poll,
878         .ioctl         = can_ioctl,     /* use can_ioctl() from af_can.c */
879         .listen        = sock_no_listen,
880         .shutdown      = sock_no_shutdown,
881         .setsockopt    = raw_setsockopt,
882         .getsockopt    = raw_getsockopt,
883         .sendmsg       = raw_sendmsg,
884         .recvmsg       = raw_recvmsg,
885         .mmap          = sock_no_mmap,
886         .sendpage      = sock_no_sendpage,
887 };
888
889 static struct proto raw_proto __read_mostly = {
890         .name       = "CAN_RAW",
891         .owner      = THIS_MODULE,
892         .obj_size   = sizeof(struct raw_sock),
893         .init       = raw_init,
894 };
895
896 static const struct can_proto raw_can_proto = {
897         .type       = SOCK_RAW,
898         .protocol   = CAN_RAW,
899         .ops        = &raw_ops,
900         .prot       = &raw_proto,
901 };
902
903 static struct notifier_block canraw_notifier = {
904         .notifier_call = raw_notifier
905 };
906
907 static __init int raw_module_init(void)
908 {
909         int err;
910
911         pr_info("can: raw protocol (rev " CAN_RAW_VERSION ")\n");
912
913         err = can_proto_register(&raw_can_proto);
914         if (err < 0)
915                 printk(KERN_ERR "can: registration of raw protocol failed\n");
916         else
917                 register_netdevice_notifier(&canraw_notifier);
918
919         return err;
920 }
921
922 static __exit void raw_module_exit(void)
923 {
924         can_proto_unregister(&raw_can_proto);
925         unregister_netdevice_notifier(&canraw_notifier);
926 }
927
928 module_init(raw_module_init);
929 module_exit(raw_module_exit);