hc
2023-12-09 b22da3d8526a935aa31e086e63f60ff3246cb61c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
// SPDX-License-Identifier: GPL-2.0-or-later
/*
 * Glue code for the SHA256 Secure Hash Algorithm assembly implementation
 * using optimized ARM assembler and NEON instructions.
 *
 * Copyright © 2015 Google Inc.
 *
 * This file is based on sha256_ssse3_glue.c:
 *   Copyright (C) 2013 Intel Corporation
 *   Author: Tim Chen <tim.c.chen@linux.intel.com>
 */
 
#include <crypto/internal/hash.h>
#include <linux/crypto.h>
#include <linux/init.h>
#include <linux/module.h>
#include <linux/mm.h>
#include <linux/types.h>
#include <linux/string.h>
#include <crypto/sha.h>
#include <crypto/sha256_base.h>
#include <asm/simd.h>
#include <asm/neon.h>
 
#include "sha256_glue.h"
 
asmlinkage void sha256_block_data_order(u32 *digest, const void *data,
                   unsigned int num_blks);
 
int crypto_sha256_arm_update(struct shash_desc *desc, const u8 *data,
                unsigned int len)
{
   /* make sure casting to sha256_block_fn() is safe */
   BUILD_BUG_ON(offsetof(struct sha256_state, state) != 0);
 
   return sha256_base_do_update(desc, data, len,
               (sha256_block_fn *)sha256_block_data_order);
}
EXPORT_SYMBOL(crypto_sha256_arm_update);
 
static int crypto_sha256_arm_final(struct shash_desc *desc, u8 *out)
{
   sha256_base_do_finalize(desc,
               (sha256_block_fn *)sha256_block_data_order);
   return sha256_base_finish(desc, out);
}
 
int crypto_sha256_arm_finup(struct shash_desc *desc, const u8 *data,
               unsigned int len, u8 *out)
{
   sha256_base_do_update(desc, data, len,
                 (sha256_block_fn *)sha256_block_data_order);
   return crypto_sha256_arm_final(desc, out);
}
EXPORT_SYMBOL(crypto_sha256_arm_finup);
 
static struct shash_alg algs[] = { {
   .digestsize    =    SHA256_DIGEST_SIZE,
   .init        =    sha256_base_init,
   .update        =    crypto_sha256_arm_update,
   .final        =    crypto_sha256_arm_final,
   .finup        =    crypto_sha256_arm_finup,
   .descsize    =    sizeof(struct sha256_state),
   .base        =    {
       .cra_name    =    "sha256",
       .cra_driver_name =    "sha256-asm",
       .cra_priority    =    150,
       .cra_blocksize    =    SHA256_BLOCK_SIZE,
       .cra_module    =    THIS_MODULE,
   }
}, {
   .digestsize    =    SHA224_DIGEST_SIZE,
   .init        =    sha224_base_init,
   .update        =    crypto_sha256_arm_update,
   .final        =    crypto_sha256_arm_final,
   .finup        =    crypto_sha256_arm_finup,
   .descsize    =    sizeof(struct sha256_state),
   .base        =    {
       .cra_name    =    "sha224",
       .cra_driver_name =    "sha224-asm",
       .cra_priority    =    150,
       .cra_blocksize    =    SHA224_BLOCK_SIZE,
       .cra_module    =    THIS_MODULE,
   }
} };
 
static int __init sha256_mod_init(void)
{
   int res = crypto_register_shashes(algs, ARRAY_SIZE(algs));
 
   if (res < 0)
       return res;
 
   if (IS_ENABLED(CONFIG_KERNEL_MODE_NEON) && cpu_has_neon()) {
       res = crypto_register_shashes(sha256_neon_algs,
                         ARRAY_SIZE(sha256_neon_algs));
 
       if (res < 0)
           crypto_unregister_shashes(algs, ARRAY_SIZE(algs));
   }
 
   return res;
}
 
static void __exit sha256_mod_fini(void)
{
   crypto_unregister_shashes(algs, ARRAY_SIZE(algs));
 
   if (IS_ENABLED(CONFIG_KERNEL_MODE_NEON) && cpu_has_neon())
       crypto_unregister_shashes(sha256_neon_algs,
                     ARRAY_SIZE(sha256_neon_algs));
}
 
module_init(sha256_mod_init);
module_exit(sha256_mod_fini);
 
MODULE_LICENSE("GPL");
MODULE_DESCRIPTION("SHA256 Secure Hash Algorithm (ARM), including NEON");
 
MODULE_ALIAS_CRYPTO("sha256");