GNU Linux-libre 4.14.251-gnu1
[releases.git] / net / netfilter / nft_payload.c
1 /*
2  * Copyright (c) 2008-2009 Patrick McHardy <kaber@trash.net>
3  * Copyright (c) 2016 Pablo Neira Ayuso <pablo@netfilter.org>
4  *
5  * This program is free software; you can redistribute it and/or modify
6  * it under the terms of the GNU General Public License version 2 as
7  * published by the Free Software Foundation.
8  *
9  * Development of this code funded by Astaro AG (http://www.astaro.com/)
10  */
11
12 #include <linux/kernel.h>
13 #include <linux/if_vlan.h>
14 #include <linux/init.h>
15 #include <linux/module.h>
16 #include <linux/netlink.h>
17 #include <linux/netfilter.h>
18 #include <linux/netfilter/nf_tables.h>
19 #include <net/netfilter/nf_tables_core.h>
20 #include <net/netfilter/nf_tables.h>
21 /* For layer 4 checksum field offset. */
22 #include <linux/tcp.h>
23 #include <linux/udp.h>
24 #include <linux/icmpv6.h>
25
26 /* add vlan header into the user buffer for if tag was removed by offloads */
27 static bool
28 nft_payload_copy_vlan(u32 *d, const struct sk_buff *skb, u8 offset, u8 len)
29 {
30         int mac_off = skb_mac_header(skb) - skb->data;
31         u8 vlan_len, *vlanh, *dst_u8 = (u8 *) d;
32         struct vlan_ethhdr veth;
33
34         vlanh = (u8 *) &veth;
35         if (offset < ETH_HLEN) {
36                 u8 ethlen = min_t(u8, len, ETH_HLEN - offset);
37
38                 if (skb_copy_bits(skb, mac_off, &veth, ETH_HLEN))
39                         return false;
40
41                 veth.h_vlan_proto = skb->vlan_proto;
42
43                 memcpy(dst_u8, vlanh + offset, ethlen);
44
45                 len -= ethlen;
46                 if (len == 0)
47                         return true;
48
49                 dst_u8 += ethlen;
50                 offset = ETH_HLEN;
51         } else if (offset >= VLAN_ETH_HLEN) {
52                 offset -= VLAN_HLEN;
53                 goto skip;
54         }
55
56         veth.h_vlan_TCI = htons(skb_vlan_tag_get(skb));
57         veth.h_vlan_encapsulated_proto = skb->protocol;
58
59         vlanh += offset;
60
61         vlan_len = min_t(u8, len, VLAN_ETH_HLEN - offset);
62         memcpy(dst_u8, vlanh, vlan_len);
63
64         len -= vlan_len;
65         if (!len)
66                 return true;
67
68         dst_u8 += vlan_len;
69  skip:
70         return skb_copy_bits(skb, offset + mac_off, dst_u8, len) == 0;
71 }
72
73 static void nft_payload_eval(const struct nft_expr *expr,
74                              struct nft_regs *regs,
75                              const struct nft_pktinfo *pkt)
76 {
77         const struct nft_payload *priv = nft_expr_priv(expr);
78         const struct sk_buff *skb = pkt->skb;
79         u32 *dest = &regs->data[priv->dreg];
80         int offset;
81
82         if (priv->len % NFT_REG32_SIZE)
83                 dest[priv->len / NFT_REG32_SIZE] = 0;
84
85         switch (priv->base) {
86         case NFT_PAYLOAD_LL_HEADER:
87                 if (!skb_mac_header_was_set(skb))
88                         goto err;
89
90                 if (skb_vlan_tag_present(skb)) {
91                         if (!nft_payload_copy_vlan(dest, skb,
92                                                    priv->offset, priv->len))
93                                 goto err;
94                         return;
95                 }
96                 offset = skb_mac_header(skb) - skb->data;
97                 break;
98         case NFT_PAYLOAD_NETWORK_HEADER:
99                 offset = skb_network_offset(skb);
100                 break;
101         case NFT_PAYLOAD_TRANSPORT_HEADER:
102                 if (!pkt->tprot_set)
103                         goto err;
104                 offset = pkt->xt.thoff;
105                 break;
106         default:
107                 BUG();
108         }
109         offset += priv->offset;
110
111         if (skb_copy_bits(skb, offset, dest, priv->len) < 0)
112                 goto err;
113         return;
114 err:
115         regs->verdict.code = NFT_BREAK;
116 }
117
118 static const struct nla_policy nft_payload_policy[NFTA_PAYLOAD_MAX + 1] = {
119         [NFTA_PAYLOAD_SREG]             = { .type = NLA_U32 },
120         [NFTA_PAYLOAD_DREG]             = { .type = NLA_U32 },
121         [NFTA_PAYLOAD_BASE]             = { .type = NLA_U32 },
122         [NFTA_PAYLOAD_OFFSET]           = { .type = NLA_U32 },
123         [NFTA_PAYLOAD_LEN]              = { .type = NLA_U32 },
124         [NFTA_PAYLOAD_CSUM_TYPE]        = { .type = NLA_U32 },
125         [NFTA_PAYLOAD_CSUM_OFFSET]      = { .type = NLA_U32 },
126         [NFTA_PAYLOAD_CSUM_FLAGS]       = { .type = NLA_U32 },
127 };
128
129 static int nft_payload_init(const struct nft_ctx *ctx,
130                             const struct nft_expr *expr,
131                             const struct nlattr * const tb[])
132 {
133         struct nft_payload *priv = nft_expr_priv(expr);
134
135         priv->base   = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_BASE]));
136         priv->offset = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_OFFSET]));
137         priv->len    = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_LEN]));
138         priv->dreg   = nft_parse_register(tb[NFTA_PAYLOAD_DREG]);
139
140         return nft_validate_register_store(ctx, priv->dreg, NULL,
141                                            NFT_DATA_VALUE, priv->len);
142 }
143
144 static int nft_payload_dump(struct sk_buff *skb, const struct nft_expr *expr)
145 {
146         const struct nft_payload *priv = nft_expr_priv(expr);
147
148         if (nft_dump_register(skb, NFTA_PAYLOAD_DREG, priv->dreg) ||
149             nla_put_be32(skb, NFTA_PAYLOAD_BASE, htonl(priv->base)) ||
150             nla_put_be32(skb, NFTA_PAYLOAD_OFFSET, htonl(priv->offset)) ||
151             nla_put_be32(skb, NFTA_PAYLOAD_LEN, htonl(priv->len)))
152                 goto nla_put_failure;
153         return 0;
154
155 nla_put_failure:
156         return -1;
157 }
158
159 static const struct nft_expr_ops nft_payload_ops = {
160         .type           = &nft_payload_type,
161         .size           = NFT_EXPR_SIZE(sizeof(struct nft_payload)),
162         .eval           = nft_payload_eval,
163         .init           = nft_payload_init,
164         .dump           = nft_payload_dump,
165 };
166
167 const struct nft_expr_ops nft_payload_fast_ops = {
168         .type           = &nft_payload_type,
169         .size           = NFT_EXPR_SIZE(sizeof(struct nft_payload)),
170         .eval           = nft_payload_eval,
171         .init           = nft_payload_init,
172         .dump           = nft_payload_dump,
173 };
174
175 static inline void nft_csum_replace(__sum16 *sum, __wsum fsum, __wsum tsum)
176 {
177         *sum = csum_fold(csum_add(csum_sub(~csum_unfold(*sum), fsum), tsum));
178         if (*sum == 0)
179                 *sum = CSUM_MANGLED_0;
180 }
181
182 static bool nft_payload_udp_checksum(struct sk_buff *skb, unsigned int thoff)
183 {
184         struct udphdr *uh, _uh;
185
186         uh = skb_header_pointer(skb, thoff, sizeof(_uh), &_uh);
187         if (!uh)
188                 return false;
189
190         return (__force bool)uh->check;
191 }
192
193 static int nft_payload_l4csum_offset(const struct nft_pktinfo *pkt,
194                                      struct sk_buff *skb,
195                                      unsigned int *l4csum_offset)
196 {
197         switch (pkt->tprot) {
198         case IPPROTO_TCP:
199                 *l4csum_offset = offsetof(struct tcphdr, check);
200                 break;
201         case IPPROTO_UDP:
202                 if (!nft_payload_udp_checksum(skb, pkt->xt.thoff))
203                         return -1;
204                 /* Fall through. */
205         case IPPROTO_UDPLITE:
206                 *l4csum_offset = offsetof(struct udphdr, check);
207                 break;
208         case IPPROTO_ICMPV6:
209                 *l4csum_offset = offsetof(struct icmp6hdr, icmp6_cksum);
210                 break;
211         default:
212                 return -1;
213         }
214
215         *l4csum_offset += pkt->xt.thoff;
216         return 0;
217 }
218
219 static int nft_payload_l4csum_update(const struct nft_pktinfo *pkt,
220                                      struct sk_buff *skb,
221                                      __wsum fsum, __wsum tsum)
222 {
223         int l4csum_offset;
224         __sum16 sum;
225
226         /* If we cannot determine layer 4 checksum offset or this packet doesn't
227          * require layer 4 checksum recalculation, skip this packet.
228          */
229         if (nft_payload_l4csum_offset(pkt, skb, &l4csum_offset) < 0)
230                 return 0;
231
232         if (skb_copy_bits(skb, l4csum_offset, &sum, sizeof(sum)) < 0)
233                 return -1;
234
235         /* Checksum mangling for an arbitrary amount of bytes, based on
236          * inet_proto_csum_replace*() functions.
237          */
238         if (skb->ip_summed != CHECKSUM_PARTIAL) {
239                 nft_csum_replace(&sum, fsum, tsum);
240                 if (skb->ip_summed == CHECKSUM_COMPLETE) {
241                         skb->csum = ~csum_add(csum_sub(~(skb->csum), fsum),
242                                               tsum);
243                 }
244         } else {
245                 sum = ~csum_fold(csum_add(csum_sub(csum_unfold(sum), fsum),
246                                           tsum));
247         }
248
249         if (!skb_make_writable(skb, l4csum_offset + sizeof(sum)) ||
250             skb_store_bits(skb, l4csum_offset, &sum, sizeof(sum)) < 0)
251                 return -1;
252
253         return 0;
254 }
255
256 static int nft_payload_csum_inet(struct sk_buff *skb, const u32 *src,
257                                  __wsum fsum, __wsum tsum, int csum_offset)
258 {
259         __sum16 sum;
260
261         if (skb_copy_bits(skb, csum_offset, &sum, sizeof(sum)) < 0)
262                 return -1;
263
264         nft_csum_replace(&sum, fsum, tsum);
265         if (!skb_make_writable(skb, csum_offset + sizeof(sum)) ||
266             skb_store_bits(skb, csum_offset, &sum, sizeof(sum)) < 0)
267                 return -1;
268
269         return 0;
270 }
271
272 static void nft_payload_set_eval(const struct nft_expr *expr,
273                                  struct nft_regs *regs,
274                                  const struct nft_pktinfo *pkt)
275 {
276         const struct nft_payload_set *priv = nft_expr_priv(expr);
277         struct sk_buff *skb = pkt->skb;
278         const u32 *src = &regs->data[priv->sreg];
279         int offset, csum_offset;
280         __wsum fsum, tsum;
281
282         switch (priv->base) {
283         case NFT_PAYLOAD_LL_HEADER:
284                 if (!skb_mac_header_was_set(skb))
285                         goto err;
286                 offset = skb_mac_header(skb) - skb->data;
287                 break;
288         case NFT_PAYLOAD_NETWORK_HEADER:
289                 offset = skb_network_offset(skb);
290                 break;
291         case NFT_PAYLOAD_TRANSPORT_HEADER:
292                 if (!pkt->tprot_set)
293                         goto err;
294                 offset = pkt->xt.thoff;
295                 break;
296         default:
297                 BUG();
298         }
299
300         csum_offset = offset + priv->csum_offset;
301         offset += priv->offset;
302
303         if ((priv->csum_type == NFT_PAYLOAD_CSUM_INET || priv->csum_flags) &&
304             (priv->base != NFT_PAYLOAD_TRANSPORT_HEADER ||
305              skb->ip_summed != CHECKSUM_PARTIAL)) {
306                 fsum = skb_checksum(skb, offset, priv->len, 0);
307                 tsum = csum_partial(src, priv->len, 0);
308
309                 if (priv->csum_type == NFT_PAYLOAD_CSUM_INET &&
310                     nft_payload_csum_inet(skb, src, fsum, tsum, csum_offset))
311                         goto err;
312
313                 if (priv->csum_flags &&
314                     nft_payload_l4csum_update(pkt, skb, fsum, tsum) < 0)
315                         goto err;
316         }
317
318         if (!skb_make_writable(skb, max(offset + priv->len, 0)) ||
319             skb_store_bits(skb, offset, src, priv->len) < 0)
320                 goto err;
321
322         return;
323 err:
324         regs->verdict.code = NFT_BREAK;
325 }
326
327 static int nft_payload_set_init(const struct nft_ctx *ctx,
328                                 const struct nft_expr *expr,
329                                 const struct nlattr * const tb[])
330 {
331         struct nft_payload_set *priv = nft_expr_priv(expr);
332
333         priv->base        = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_BASE]));
334         priv->offset      = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_OFFSET]));
335         priv->len         = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_LEN]));
336         priv->sreg        = nft_parse_register(tb[NFTA_PAYLOAD_SREG]);
337
338         if (tb[NFTA_PAYLOAD_CSUM_TYPE])
339                 priv->csum_type =
340                         ntohl(nla_get_be32(tb[NFTA_PAYLOAD_CSUM_TYPE]));
341         if (tb[NFTA_PAYLOAD_CSUM_OFFSET])
342                 priv->csum_offset =
343                         ntohl(nla_get_be32(tb[NFTA_PAYLOAD_CSUM_OFFSET]));
344         if (tb[NFTA_PAYLOAD_CSUM_FLAGS]) {
345                 u32 flags;
346
347                 flags = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_CSUM_FLAGS]));
348                 if (flags & ~NFT_PAYLOAD_L4CSUM_PSEUDOHDR)
349                         return -EINVAL;
350
351                 priv->csum_flags = flags;
352         }
353
354         switch (priv->csum_type) {
355         case NFT_PAYLOAD_CSUM_NONE:
356         case NFT_PAYLOAD_CSUM_INET:
357                 break;
358         default:
359                 return -EOPNOTSUPP;
360         }
361
362         return nft_validate_register_load(priv->sreg, priv->len);
363 }
364
365 static int nft_payload_set_dump(struct sk_buff *skb, const struct nft_expr *expr)
366 {
367         const struct nft_payload_set *priv = nft_expr_priv(expr);
368
369         if (nft_dump_register(skb, NFTA_PAYLOAD_SREG, priv->sreg) ||
370             nla_put_be32(skb, NFTA_PAYLOAD_BASE, htonl(priv->base)) ||
371             nla_put_be32(skb, NFTA_PAYLOAD_OFFSET, htonl(priv->offset)) ||
372             nla_put_be32(skb, NFTA_PAYLOAD_LEN, htonl(priv->len)) ||
373             nla_put_be32(skb, NFTA_PAYLOAD_CSUM_TYPE, htonl(priv->csum_type)) ||
374             nla_put_be32(skb, NFTA_PAYLOAD_CSUM_OFFSET,
375                          htonl(priv->csum_offset)) ||
376             nla_put_be32(skb, NFTA_PAYLOAD_CSUM_FLAGS, htonl(priv->csum_flags)))
377                 goto nla_put_failure;
378         return 0;
379
380 nla_put_failure:
381         return -1;
382 }
383
384 static const struct nft_expr_ops nft_payload_set_ops = {
385         .type           = &nft_payload_type,
386         .size           = NFT_EXPR_SIZE(sizeof(struct nft_payload_set)),
387         .eval           = nft_payload_set_eval,
388         .init           = nft_payload_set_init,
389         .dump           = nft_payload_set_dump,
390 };
391
392 static const struct nft_expr_ops *
393 nft_payload_select_ops(const struct nft_ctx *ctx,
394                        const struct nlattr * const tb[])
395 {
396         enum nft_payload_bases base;
397         unsigned int offset, len;
398
399         if (tb[NFTA_PAYLOAD_BASE] == NULL ||
400             tb[NFTA_PAYLOAD_OFFSET] == NULL ||
401             tb[NFTA_PAYLOAD_LEN] == NULL)
402                 return ERR_PTR(-EINVAL);
403
404         base = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_BASE]));
405         switch (base) {
406         case NFT_PAYLOAD_LL_HEADER:
407         case NFT_PAYLOAD_NETWORK_HEADER:
408         case NFT_PAYLOAD_TRANSPORT_HEADER:
409                 break;
410         default:
411                 return ERR_PTR(-EOPNOTSUPP);
412         }
413
414         if (tb[NFTA_PAYLOAD_SREG] != NULL) {
415                 if (tb[NFTA_PAYLOAD_DREG] != NULL)
416                         return ERR_PTR(-EINVAL);
417                 return &nft_payload_set_ops;
418         }
419
420         if (tb[NFTA_PAYLOAD_DREG] == NULL)
421                 return ERR_PTR(-EINVAL);
422
423         offset = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_OFFSET]));
424         len    = ntohl(nla_get_be32(tb[NFTA_PAYLOAD_LEN]));
425
426         if (len <= 4 && is_power_of_2(len) && IS_ALIGNED(offset, len) &&
427             base != NFT_PAYLOAD_LL_HEADER)
428                 return &nft_payload_fast_ops;
429         else
430                 return &nft_payload_ops;
431 }
432
433 struct nft_expr_type nft_payload_type __read_mostly = {
434         .name           = "payload",
435         .select_ops     = nft_payload_select_ops,
436         .policy         = nft_payload_policy,
437         .maxattr        = NFTA_PAYLOAD_MAX,
438         .owner          = THIS_MODULE,
439 };