forked from Minki/linux
- Allow the compiler to optimize away unused percpu accesses and change
the local_lock_* macros back to inline functions - A couple of fixes to static call insn patching -----BEGIN PGP SIGNATURE----- iQIzBAABCgAdFiEEzv7L6UO9uDPlPSfHEsHwGGHeVUoFAmJStZ4ACgkQEsHwGGHe VUpUpA/8DHOMUQa7rM8z49ZWBV01HNVCLECTeeKshQBLyJfWc84MNOfdPbpgEGvY XE/eIZDnTMB5UKD0bfRqD+AQ0fXjl3NiLnJrdDZJqEQAiP/wGBswKNXMire8xPT8 9MfaOKYWYPl0LY2uZBWVLcdC+lVe4kRGfhqAcl4LRx0ZSvMzgjcFy34NeXY8LlXD kFQJEzHa97CTROje54mtmXEt7Y5bxjxWwVTSyfEt0hJPGo1bJtJP6FaY01Muj+Xu h/OGNx3KLOYf9MqQC31caAwKgtUOptm8bTpvG3onaHg29qJgz2umKwONyOjYrUUn 2PE3NREfMuKI38nf88pX+lOCs6/I1uVIjJPvAVJijIcuI1ZBXrfm26IP0lZ3LqG1 h/9Y5gChiZPn1j90VnF4UCJUm4u3bYEAHqKIQgUdpcpUqX0NlxbDiXoYxJWfHnmB PBJ0PE7Vdo4MPK0n3BGVrzXAFeOyHsohAsKFijT8afRCMAOF/ebmVs/tI5NygFrK 11e/U13/78iKkazZSxWew8vU3yXA39W5Rym7aPnhR2lWxvN+xQOjNTgZTxF9hUcZ 6AcsaYJgHR7nD8SM7Y9+cwHWOWaDEdZMg9XSkgvyd1p0tHb4u+Ve/SQK7sA3j9q7 ZmZyFSE1X3K+M1i+75rUSVmIEVM5cpfhodN89iRje/JIZ1KyRT8= =hSOc -----END PGP SIGNATURE----- Merge tag 'locking_urgent_for_v5.18_rc2' of git://git.kernel.org/pub/scm/linux/kernel/git/tip/tip Pull locking fixes from Borislav Petkov: - Allow the compiler to optimize away unused percpu accesses and change the local_lock_* macros back to inline functions - A couple of fixes to static call insn patching * tag 'locking_urgent_for_v5.18_rc2' of git://git.kernel.org/pub/scm/linux/kernel/git/tip/tip: Revert "mm/page_alloc: mark pagesets as __maybe_unused" Revert "locking/local_lock: Make the empty local_lock_*() function a macro." x86/percpu: Remove volatile from arch_raw_cpu_ptr(). static_call: Remove __DEFINE_STATIC_CALL macro static_call: Properly initialise DEFINE_STATIC_CALL_RET0() static_call: Don't make __static_call_return0 static x86,static_call: Fix __static_call_return0 for i386
This commit is contained in:
commit
50c94de67c
@ -24,5 +24,6 @@
|
|||||||
|
|
||||||
#define ARCH_DEFINE_STATIC_CALL_TRAMP(name, func) __PPC_SCT(name, "b " #func)
|
#define ARCH_DEFINE_STATIC_CALL_TRAMP(name, func) __PPC_SCT(name, "b " #func)
|
||||||
#define ARCH_DEFINE_STATIC_CALL_NULL_TRAMP(name) __PPC_SCT(name, "blr")
|
#define ARCH_DEFINE_STATIC_CALL_NULL_TRAMP(name) __PPC_SCT(name, "blr")
|
||||||
|
#define ARCH_DEFINE_STATIC_CALL_RET0_TRAMP(name) __PPC_SCT(name, "b .+20")
|
||||||
|
|
||||||
#endif /* _ASM_POWERPC_STATIC_CALL_H */
|
#endif /* _ASM_POWERPC_STATIC_CALL_H */
|
||||||
|
@ -38,9 +38,9 @@
|
|||||||
#define arch_raw_cpu_ptr(ptr) \
|
#define arch_raw_cpu_ptr(ptr) \
|
||||||
({ \
|
({ \
|
||||||
unsigned long tcp_ptr__; \
|
unsigned long tcp_ptr__; \
|
||||||
asm volatile("add " __percpu_arg(1) ", %0" \
|
asm ("add " __percpu_arg(1) ", %0" \
|
||||||
: "=r" (tcp_ptr__) \
|
: "=r" (tcp_ptr__) \
|
||||||
: "m" (this_cpu_off), "0" (ptr)); \
|
: "m" (this_cpu_off), "0" (ptr)); \
|
||||||
(typeof(*(ptr)) __kernel __force *)tcp_ptr__; \
|
(typeof(*(ptr)) __kernel __force *)tcp_ptr__; \
|
||||||
})
|
})
|
||||||
#else
|
#else
|
||||||
|
@ -38,6 +38,8 @@
|
|||||||
#define ARCH_DEFINE_STATIC_CALL_NULL_TRAMP(name) \
|
#define ARCH_DEFINE_STATIC_CALL_NULL_TRAMP(name) \
|
||||||
__ARCH_DEFINE_STATIC_CALL_TRAMP(name, "ret; int3; nop; nop; nop")
|
__ARCH_DEFINE_STATIC_CALL_TRAMP(name, "ret; int3; nop; nop; nop")
|
||||||
|
|
||||||
|
#define ARCH_DEFINE_STATIC_CALL_RET0_TRAMP(name) \
|
||||||
|
ARCH_DEFINE_STATIC_CALL_TRAMP(name, __static_call_return0)
|
||||||
|
|
||||||
#define ARCH_ADD_TRAMP_KEY(name) \
|
#define ARCH_ADD_TRAMP_KEY(name) \
|
||||||
asm(".pushsection .static_call_tramp_key, \"a\" \n" \
|
asm(".pushsection .static_call_tramp_key, \"a\" \n" \
|
||||||
|
@ -12,10 +12,9 @@ enum insn_type {
|
|||||||
};
|
};
|
||||||
|
|
||||||
/*
|
/*
|
||||||
* data16 data16 xorq %rax, %rax - a single 5 byte instruction that clears %rax
|
* cs cs cs xorl %eax, %eax - a single 5 byte instruction that clears %[er]ax
|
||||||
* The REX.W cancels the effect of any data16.
|
|
||||||
*/
|
*/
|
||||||
static const u8 xor5rax[] = { 0x66, 0x66, 0x48, 0x31, 0xc0 };
|
static const u8 xor5rax[] = { 0x2e, 0x2e, 0x2e, 0x31, 0xc0 };
|
||||||
|
|
||||||
static const u8 retinsn[] = { RET_INSN_OPCODE, 0xcc, 0xcc, 0xcc, 0xcc };
|
static const u8 retinsn[] = { RET_INSN_OPCODE, 0xcc, 0xcc, 0xcc, 0xcc };
|
||||||
|
|
||||||
|
@ -44,9 +44,9 @@ static inline void local_lock_debug_init(local_lock_t *l)
|
|||||||
}
|
}
|
||||||
#else /* CONFIG_DEBUG_LOCK_ALLOC */
|
#else /* CONFIG_DEBUG_LOCK_ALLOC */
|
||||||
# define LOCAL_LOCK_DEBUG_INIT(lockname)
|
# define LOCAL_LOCK_DEBUG_INIT(lockname)
|
||||||
# define local_lock_acquire(__ll) do { typecheck(local_lock_t *, __ll); } while (0)
|
static inline void local_lock_acquire(local_lock_t *l) { }
|
||||||
# define local_lock_release(__ll) do { typecheck(local_lock_t *, __ll); } while (0)
|
static inline void local_lock_release(local_lock_t *l) { }
|
||||||
# define local_lock_debug_init(__ll) do { typecheck(local_lock_t *, __ll); } while (0)
|
static inline void local_lock_debug_init(local_lock_t *l) { }
|
||||||
#endif /* !CONFIG_DEBUG_LOCK_ALLOC */
|
#endif /* !CONFIG_DEBUG_LOCK_ALLOC */
|
||||||
|
|
||||||
#define INIT_LOCAL_LOCK(lockname) { LOCAL_LOCK_DEBUG_INIT(lockname) }
|
#define INIT_LOCAL_LOCK(lockname) { LOCAL_LOCK_DEBUG_INIT(lockname) }
|
||||||
|
@ -180,13 +180,13 @@ extern int static_call_text_reserved(void *start, void *end);
|
|||||||
|
|
||||||
extern long __static_call_return0(void);
|
extern long __static_call_return0(void);
|
||||||
|
|
||||||
#define __DEFINE_STATIC_CALL(name, _func, _func_init) \
|
#define DEFINE_STATIC_CALL(name, _func) \
|
||||||
DECLARE_STATIC_CALL(name, _func); \
|
DECLARE_STATIC_CALL(name, _func); \
|
||||||
struct static_call_key STATIC_CALL_KEY(name) = { \
|
struct static_call_key STATIC_CALL_KEY(name) = { \
|
||||||
.func = _func_init, \
|
.func = _func, \
|
||||||
.type = 1, \
|
.type = 1, \
|
||||||
}; \
|
}; \
|
||||||
ARCH_DEFINE_STATIC_CALL_TRAMP(name, _func_init)
|
ARCH_DEFINE_STATIC_CALL_TRAMP(name, _func)
|
||||||
|
|
||||||
#define DEFINE_STATIC_CALL_NULL(name, _func) \
|
#define DEFINE_STATIC_CALL_NULL(name, _func) \
|
||||||
DECLARE_STATIC_CALL(name, _func); \
|
DECLARE_STATIC_CALL(name, _func); \
|
||||||
@ -196,6 +196,14 @@ extern long __static_call_return0(void);
|
|||||||
}; \
|
}; \
|
||||||
ARCH_DEFINE_STATIC_CALL_NULL_TRAMP(name)
|
ARCH_DEFINE_STATIC_CALL_NULL_TRAMP(name)
|
||||||
|
|
||||||
|
#define DEFINE_STATIC_CALL_RET0(name, _func) \
|
||||||
|
DECLARE_STATIC_CALL(name, _func); \
|
||||||
|
struct static_call_key STATIC_CALL_KEY(name) = { \
|
||||||
|
.func = __static_call_return0, \
|
||||||
|
.type = 1, \
|
||||||
|
}; \
|
||||||
|
ARCH_DEFINE_STATIC_CALL_RET0_TRAMP(name)
|
||||||
|
|
||||||
#define static_call_cond(name) (void)__static_call(name)
|
#define static_call_cond(name) (void)__static_call(name)
|
||||||
|
|
||||||
#define EXPORT_STATIC_CALL(name) \
|
#define EXPORT_STATIC_CALL(name) \
|
||||||
@ -217,12 +225,12 @@ extern long __static_call_return0(void);
|
|||||||
|
|
||||||
static inline int static_call_init(void) { return 0; }
|
static inline int static_call_init(void) { return 0; }
|
||||||
|
|
||||||
#define __DEFINE_STATIC_CALL(name, _func, _func_init) \
|
#define DEFINE_STATIC_CALL(name, _func) \
|
||||||
DECLARE_STATIC_CALL(name, _func); \
|
DECLARE_STATIC_CALL(name, _func); \
|
||||||
struct static_call_key STATIC_CALL_KEY(name) = { \
|
struct static_call_key STATIC_CALL_KEY(name) = { \
|
||||||
.func = _func_init, \
|
.func = _func, \
|
||||||
}; \
|
}; \
|
||||||
ARCH_DEFINE_STATIC_CALL_TRAMP(name, _func_init)
|
ARCH_DEFINE_STATIC_CALL_TRAMP(name, _func)
|
||||||
|
|
||||||
#define DEFINE_STATIC_CALL_NULL(name, _func) \
|
#define DEFINE_STATIC_CALL_NULL(name, _func) \
|
||||||
DECLARE_STATIC_CALL(name, _func); \
|
DECLARE_STATIC_CALL(name, _func); \
|
||||||
@ -231,6 +239,12 @@ static inline int static_call_init(void) { return 0; }
|
|||||||
}; \
|
}; \
|
||||||
ARCH_DEFINE_STATIC_CALL_NULL_TRAMP(name)
|
ARCH_DEFINE_STATIC_CALL_NULL_TRAMP(name)
|
||||||
|
|
||||||
|
#define DEFINE_STATIC_CALL_RET0(name, _func) \
|
||||||
|
DECLARE_STATIC_CALL(name, _func); \
|
||||||
|
struct static_call_key STATIC_CALL_KEY(name) = { \
|
||||||
|
.func = __static_call_return0, \
|
||||||
|
}; \
|
||||||
|
ARCH_DEFINE_STATIC_CALL_RET0_TRAMP(name)
|
||||||
|
|
||||||
#define static_call_cond(name) (void)__static_call(name)
|
#define static_call_cond(name) (void)__static_call(name)
|
||||||
|
|
||||||
@ -248,10 +262,7 @@ static inline int static_call_text_reserved(void *start, void *end)
|
|||||||
return 0;
|
return 0;
|
||||||
}
|
}
|
||||||
|
|
||||||
static inline long __static_call_return0(void)
|
extern long __static_call_return0(void);
|
||||||
{
|
|
||||||
return 0;
|
|
||||||
}
|
|
||||||
|
|
||||||
#define EXPORT_STATIC_CALL(name) \
|
#define EXPORT_STATIC_CALL(name) \
|
||||||
EXPORT_SYMBOL(STATIC_CALL_KEY(name)); \
|
EXPORT_SYMBOL(STATIC_CALL_KEY(name)); \
|
||||||
@ -281,11 +292,14 @@ static inline long __static_call_return0(void)
|
|||||||
.func = _func_init, \
|
.func = _func_init, \
|
||||||
}
|
}
|
||||||
|
|
||||||
|
#define DEFINE_STATIC_CALL(name, _func) \
|
||||||
|
__DEFINE_STATIC_CALL(name, _func, _func)
|
||||||
|
|
||||||
#define DEFINE_STATIC_CALL_NULL(name, _func) \
|
#define DEFINE_STATIC_CALL_NULL(name, _func) \
|
||||||
DECLARE_STATIC_CALL(name, _func); \
|
__DEFINE_STATIC_CALL(name, _func, NULL)
|
||||||
struct static_call_key STATIC_CALL_KEY(name) = { \
|
|
||||||
.func = NULL, \
|
#define DEFINE_STATIC_CALL_RET0(name, _func) \
|
||||||
}
|
__DEFINE_STATIC_CALL(name, _func, __static_call_return0)
|
||||||
|
|
||||||
static inline void __static_call_nop(void) { }
|
static inline void __static_call_nop(void) { }
|
||||||
|
|
||||||
@ -327,10 +341,4 @@ static inline int static_call_text_reserved(void *start, void *end)
|
|||||||
|
|
||||||
#endif /* CONFIG_HAVE_STATIC_CALL */
|
#endif /* CONFIG_HAVE_STATIC_CALL */
|
||||||
|
|
||||||
#define DEFINE_STATIC_CALL(name, _func) \
|
|
||||||
__DEFINE_STATIC_CALL(name, _func, _func)
|
|
||||||
|
|
||||||
#define DEFINE_STATIC_CALL_RET0(name, _func) \
|
|
||||||
__DEFINE_STATIC_CALL(name, _func, __static_call_return0)
|
|
||||||
|
|
||||||
#endif /* _LINUX_STATIC_CALL_H */
|
#endif /* _LINUX_STATIC_CALL_H */
|
||||||
|
@ -114,7 +114,8 @@ obj-$(CONFIG_CPU_PM) += cpu_pm.o
|
|||||||
obj-$(CONFIG_BPF) += bpf/
|
obj-$(CONFIG_BPF) += bpf/
|
||||||
obj-$(CONFIG_KCSAN) += kcsan/
|
obj-$(CONFIG_KCSAN) += kcsan/
|
||||||
obj-$(CONFIG_SHADOW_CALL_STACK) += scs.o
|
obj-$(CONFIG_SHADOW_CALL_STACK) += scs.o
|
||||||
obj-$(CONFIG_HAVE_STATIC_CALL_INLINE) += static_call.o
|
obj-$(CONFIG_HAVE_STATIC_CALL) += static_call.o
|
||||||
|
obj-$(CONFIG_HAVE_STATIC_CALL_INLINE) += static_call_inline.o
|
||||||
obj-$(CONFIG_CFI_CLANG) += cfi.o
|
obj-$(CONFIG_CFI_CLANG) += cfi.o
|
||||||
|
|
||||||
obj-$(CONFIG_PERF_EVENTS) += events/
|
obj-$(CONFIG_PERF_EVENTS) += events/
|
||||||
|
@ -1,549 +1,8 @@
|
|||||||
// SPDX-License-Identifier: GPL-2.0
|
// SPDX-License-Identifier: GPL-2.0
|
||||||
#include <linux/init.h>
|
|
||||||
#include <linux/static_call.h>
|
#include <linux/static_call.h>
|
||||||
#include <linux/bug.h>
|
|
||||||
#include <linux/smp.h>
|
|
||||||
#include <linux/sort.h>
|
|
||||||
#include <linux/slab.h>
|
|
||||||
#include <linux/module.h>
|
|
||||||
#include <linux/cpu.h>
|
|
||||||
#include <linux/processor.h>
|
|
||||||
#include <asm/sections.h>
|
|
||||||
|
|
||||||
extern struct static_call_site __start_static_call_sites[],
|
|
||||||
__stop_static_call_sites[];
|
|
||||||
extern struct static_call_tramp_key __start_static_call_tramp_key[],
|
|
||||||
__stop_static_call_tramp_key[];
|
|
||||||
|
|
||||||
static bool static_call_initialized;
|
|
||||||
|
|
||||||
/* mutex to protect key modules/sites */
|
|
||||||
static DEFINE_MUTEX(static_call_mutex);
|
|
||||||
|
|
||||||
static void static_call_lock(void)
|
|
||||||
{
|
|
||||||
mutex_lock(&static_call_mutex);
|
|
||||||
}
|
|
||||||
|
|
||||||
static void static_call_unlock(void)
|
|
||||||
{
|
|
||||||
mutex_unlock(&static_call_mutex);
|
|
||||||
}
|
|
||||||
|
|
||||||
static inline void *static_call_addr(struct static_call_site *site)
|
|
||||||
{
|
|
||||||
return (void *)((long)site->addr + (long)&site->addr);
|
|
||||||
}
|
|
||||||
|
|
||||||
static inline unsigned long __static_call_key(const struct static_call_site *site)
|
|
||||||
{
|
|
||||||
return (long)site->key + (long)&site->key;
|
|
||||||
}
|
|
||||||
|
|
||||||
static inline struct static_call_key *static_call_key(const struct static_call_site *site)
|
|
||||||
{
|
|
||||||
return (void *)(__static_call_key(site) & ~STATIC_CALL_SITE_FLAGS);
|
|
||||||
}
|
|
||||||
|
|
||||||
/* These assume the key is word-aligned. */
|
|
||||||
static inline bool static_call_is_init(struct static_call_site *site)
|
|
||||||
{
|
|
||||||
return __static_call_key(site) & STATIC_CALL_SITE_INIT;
|
|
||||||
}
|
|
||||||
|
|
||||||
static inline bool static_call_is_tail(struct static_call_site *site)
|
|
||||||
{
|
|
||||||
return __static_call_key(site) & STATIC_CALL_SITE_TAIL;
|
|
||||||
}
|
|
||||||
|
|
||||||
static inline void static_call_set_init(struct static_call_site *site)
|
|
||||||
{
|
|
||||||
site->key = (__static_call_key(site) | STATIC_CALL_SITE_INIT) -
|
|
||||||
(long)&site->key;
|
|
||||||
}
|
|
||||||
|
|
||||||
static int static_call_site_cmp(const void *_a, const void *_b)
|
|
||||||
{
|
|
||||||
const struct static_call_site *a = _a;
|
|
||||||
const struct static_call_site *b = _b;
|
|
||||||
const struct static_call_key *key_a = static_call_key(a);
|
|
||||||
const struct static_call_key *key_b = static_call_key(b);
|
|
||||||
|
|
||||||
if (key_a < key_b)
|
|
||||||
return -1;
|
|
||||||
|
|
||||||
if (key_a > key_b)
|
|
||||||
return 1;
|
|
||||||
|
|
||||||
return 0;
|
|
||||||
}
|
|
||||||
|
|
||||||
static void static_call_site_swap(void *_a, void *_b, int size)
|
|
||||||
{
|
|
||||||
long delta = (unsigned long)_a - (unsigned long)_b;
|
|
||||||
struct static_call_site *a = _a;
|
|
||||||
struct static_call_site *b = _b;
|
|
||||||
struct static_call_site tmp = *a;
|
|
||||||
|
|
||||||
a->addr = b->addr - delta;
|
|
||||||
a->key = b->key - delta;
|
|
||||||
|
|
||||||
b->addr = tmp.addr + delta;
|
|
||||||
b->key = tmp.key + delta;
|
|
||||||
}
|
|
||||||
|
|
||||||
static inline void static_call_sort_entries(struct static_call_site *start,
|
|
||||||
struct static_call_site *stop)
|
|
||||||
{
|
|
||||||
sort(start, stop - start, sizeof(struct static_call_site),
|
|
||||||
static_call_site_cmp, static_call_site_swap);
|
|
||||||
}
|
|
||||||
|
|
||||||
static inline bool static_call_key_has_mods(struct static_call_key *key)
|
|
||||||
{
|
|
||||||
return !(key->type & 1);
|
|
||||||
}
|
|
||||||
|
|
||||||
static inline struct static_call_mod *static_call_key_next(struct static_call_key *key)
|
|
||||||
{
|
|
||||||
if (!static_call_key_has_mods(key))
|
|
||||||
return NULL;
|
|
||||||
|
|
||||||
return key->mods;
|
|
||||||
}
|
|
||||||
|
|
||||||
static inline struct static_call_site *static_call_key_sites(struct static_call_key *key)
|
|
||||||
{
|
|
||||||
if (static_call_key_has_mods(key))
|
|
||||||
return NULL;
|
|
||||||
|
|
||||||
return (struct static_call_site *)(key->type & ~1);
|
|
||||||
}
|
|
||||||
|
|
||||||
void __static_call_update(struct static_call_key *key, void *tramp, void *func)
|
|
||||||
{
|
|
||||||
struct static_call_site *site, *stop;
|
|
||||||
struct static_call_mod *site_mod, first;
|
|
||||||
|
|
||||||
cpus_read_lock();
|
|
||||||
static_call_lock();
|
|
||||||
|
|
||||||
if (key->func == func)
|
|
||||||
goto done;
|
|
||||||
|
|
||||||
key->func = func;
|
|
||||||
|
|
||||||
arch_static_call_transform(NULL, tramp, func, false);
|
|
||||||
|
|
||||||
/*
|
|
||||||
* If uninitialized, we'll not update the callsites, but they still
|
|
||||||
* point to the trampoline and we just patched that.
|
|
||||||
*/
|
|
||||||
if (WARN_ON_ONCE(!static_call_initialized))
|
|
||||||
goto done;
|
|
||||||
|
|
||||||
first = (struct static_call_mod){
|
|
||||||
.next = static_call_key_next(key),
|
|
||||||
.mod = NULL,
|
|
||||||
.sites = static_call_key_sites(key),
|
|
||||||
};
|
|
||||||
|
|
||||||
for (site_mod = &first; site_mod; site_mod = site_mod->next) {
|
|
||||||
bool init = system_state < SYSTEM_RUNNING;
|
|
||||||
struct module *mod = site_mod->mod;
|
|
||||||
|
|
||||||
if (!site_mod->sites) {
|
|
||||||
/*
|
|
||||||
* This can happen if the static call key is defined in
|
|
||||||
* a module which doesn't use it.
|
|
||||||
*
|
|
||||||
* It also happens in the has_mods case, where the
|
|
||||||
* 'first' entry has no sites associated with it.
|
|
||||||
*/
|
|
||||||
continue;
|
|
||||||
}
|
|
||||||
|
|
||||||
stop = __stop_static_call_sites;
|
|
||||||
|
|
||||||
if (mod) {
|
|
||||||
#ifdef CONFIG_MODULES
|
|
||||||
stop = mod->static_call_sites +
|
|
||||||
mod->num_static_call_sites;
|
|
||||||
init = mod->state == MODULE_STATE_COMING;
|
|
||||||
#endif
|
|
||||||
}
|
|
||||||
|
|
||||||
for (site = site_mod->sites;
|
|
||||||
site < stop && static_call_key(site) == key; site++) {
|
|
||||||
void *site_addr = static_call_addr(site);
|
|
||||||
|
|
||||||
if (!init && static_call_is_init(site))
|
|
||||||
continue;
|
|
||||||
|
|
||||||
if (!kernel_text_address((unsigned long)site_addr)) {
|
|
||||||
/*
|
|
||||||
* This skips patching built-in __exit, which
|
|
||||||
* is part of init_section_contains() but is
|
|
||||||
* not part of kernel_text_address().
|
|
||||||
*
|
|
||||||
* Skipping built-in __exit is fine since it
|
|
||||||
* will never be executed.
|
|
||||||
*/
|
|
||||||
WARN_ONCE(!static_call_is_init(site),
|
|
||||||
"can't patch static call site at %pS",
|
|
||||||
site_addr);
|
|
||||||
continue;
|
|
||||||
}
|
|
||||||
|
|
||||||
arch_static_call_transform(site_addr, NULL, func,
|
|
||||||
static_call_is_tail(site));
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
done:
|
|
||||||
static_call_unlock();
|
|
||||||
cpus_read_unlock();
|
|
||||||
}
|
|
||||||
EXPORT_SYMBOL_GPL(__static_call_update);
|
|
||||||
|
|
||||||
static int __static_call_init(struct module *mod,
|
|
||||||
struct static_call_site *start,
|
|
||||||
struct static_call_site *stop)
|
|
||||||
{
|
|
||||||
struct static_call_site *site;
|
|
||||||
struct static_call_key *key, *prev_key = NULL;
|
|
||||||
struct static_call_mod *site_mod;
|
|
||||||
|
|
||||||
if (start == stop)
|
|
||||||
return 0;
|
|
||||||
|
|
||||||
static_call_sort_entries(start, stop);
|
|
||||||
|
|
||||||
for (site = start; site < stop; site++) {
|
|
||||||
void *site_addr = static_call_addr(site);
|
|
||||||
|
|
||||||
if ((mod && within_module_init((unsigned long)site_addr, mod)) ||
|
|
||||||
(!mod && init_section_contains(site_addr, 1)))
|
|
||||||
static_call_set_init(site);
|
|
||||||
|
|
||||||
key = static_call_key(site);
|
|
||||||
if (key != prev_key) {
|
|
||||||
prev_key = key;
|
|
||||||
|
|
||||||
/*
|
|
||||||
* For vmlinux (!mod) avoid the allocation by storing
|
|
||||||
* the sites pointer in the key itself. Also see
|
|
||||||
* __static_call_update()'s @first.
|
|
||||||
*
|
|
||||||
* This allows architectures (eg. x86) to call
|
|
||||||
* static_call_init() before memory allocation works.
|
|
||||||
*/
|
|
||||||
if (!mod) {
|
|
||||||
key->sites = site;
|
|
||||||
key->type |= 1;
|
|
||||||
goto do_transform;
|
|
||||||
}
|
|
||||||
|
|
||||||
site_mod = kzalloc(sizeof(*site_mod), GFP_KERNEL);
|
|
||||||
if (!site_mod)
|
|
||||||
return -ENOMEM;
|
|
||||||
|
|
||||||
/*
|
|
||||||
* When the key has a direct sites pointer, extract
|
|
||||||
* that into an explicit struct static_call_mod, so we
|
|
||||||
* can have a list of modules.
|
|
||||||
*/
|
|
||||||
if (static_call_key_sites(key)) {
|
|
||||||
site_mod->mod = NULL;
|
|
||||||
site_mod->next = NULL;
|
|
||||||
site_mod->sites = static_call_key_sites(key);
|
|
||||||
|
|
||||||
key->mods = site_mod;
|
|
||||||
|
|
||||||
site_mod = kzalloc(sizeof(*site_mod), GFP_KERNEL);
|
|
||||||
if (!site_mod)
|
|
||||||
return -ENOMEM;
|
|
||||||
}
|
|
||||||
|
|
||||||
site_mod->mod = mod;
|
|
||||||
site_mod->sites = site;
|
|
||||||
site_mod->next = static_call_key_next(key);
|
|
||||||
key->mods = site_mod;
|
|
||||||
}
|
|
||||||
|
|
||||||
do_transform:
|
|
||||||
arch_static_call_transform(site_addr, NULL, key->func,
|
|
||||||
static_call_is_tail(site));
|
|
||||||
}
|
|
||||||
|
|
||||||
return 0;
|
|
||||||
}
|
|
||||||
|
|
||||||
static int addr_conflict(struct static_call_site *site, void *start, void *end)
|
|
||||||
{
|
|
||||||
unsigned long addr = (unsigned long)static_call_addr(site);
|
|
||||||
|
|
||||||
if (addr <= (unsigned long)end &&
|
|
||||||
addr + CALL_INSN_SIZE > (unsigned long)start)
|
|
||||||
return 1;
|
|
||||||
|
|
||||||
return 0;
|
|
||||||
}
|
|
||||||
|
|
||||||
static int __static_call_text_reserved(struct static_call_site *iter_start,
|
|
||||||
struct static_call_site *iter_stop,
|
|
||||||
void *start, void *end, bool init)
|
|
||||||
{
|
|
||||||
struct static_call_site *iter = iter_start;
|
|
||||||
|
|
||||||
while (iter < iter_stop) {
|
|
||||||
if (init || !static_call_is_init(iter)) {
|
|
||||||
if (addr_conflict(iter, start, end))
|
|
||||||
return 1;
|
|
||||||
}
|
|
||||||
iter++;
|
|
||||||
}
|
|
||||||
|
|
||||||
return 0;
|
|
||||||
}
|
|
||||||
|
|
||||||
#ifdef CONFIG_MODULES
|
|
||||||
|
|
||||||
static int __static_call_mod_text_reserved(void *start, void *end)
|
|
||||||
{
|
|
||||||
struct module *mod;
|
|
||||||
int ret;
|
|
||||||
|
|
||||||
preempt_disable();
|
|
||||||
mod = __module_text_address((unsigned long)start);
|
|
||||||
WARN_ON_ONCE(__module_text_address((unsigned long)end) != mod);
|
|
||||||
if (!try_module_get(mod))
|
|
||||||
mod = NULL;
|
|
||||||
preempt_enable();
|
|
||||||
|
|
||||||
if (!mod)
|
|
||||||
return 0;
|
|
||||||
|
|
||||||
ret = __static_call_text_reserved(mod->static_call_sites,
|
|
||||||
mod->static_call_sites + mod->num_static_call_sites,
|
|
||||||
start, end, mod->state == MODULE_STATE_COMING);
|
|
||||||
|
|
||||||
module_put(mod);
|
|
||||||
|
|
||||||
return ret;
|
|
||||||
}
|
|
||||||
|
|
||||||
static unsigned long tramp_key_lookup(unsigned long addr)
|
|
||||||
{
|
|
||||||
struct static_call_tramp_key *start = __start_static_call_tramp_key;
|
|
||||||
struct static_call_tramp_key *stop = __stop_static_call_tramp_key;
|
|
||||||
struct static_call_tramp_key *tramp_key;
|
|
||||||
|
|
||||||
for (tramp_key = start; tramp_key != stop; tramp_key++) {
|
|
||||||
unsigned long tramp;
|
|
||||||
|
|
||||||
tramp = (long)tramp_key->tramp + (long)&tramp_key->tramp;
|
|
||||||
if (tramp == addr)
|
|
||||||
return (long)tramp_key->key + (long)&tramp_key->key;
|
|
||||||
}
|
|
||||||
|
|
||||||
return 0;
|
|
||||||
}
|
|
||||||
|
|
||||||
static int static_call_add_module(struct module *mod)
|
|
||||||
{
|
|
||||||
struct static_call_site *start = mod->static_call_sites;
|
|
||||||
struct static_call_site *stop = start + mod->num_static_call_sites;
|
|
||||||
struct static_call_site *site;
|
|
||||||
|
|
||||||
for (site = start; site != stop; site++) {
|
|
||||||
unsigned long s_key = __static_call_key(site);
|
|
||||||
unsigned long addr = s_key & ~STATIC_CALL_SITE_FLAGS;
|
|
||||||
unsigned long key;
|
|
||||||
|
|
||||||
/*
|
|
||||||
* Is the key is exported, 'addr' points to the key, which
|
|
||||||
* means modules are allowed to call static_call_update() on
|
|
||||||
* it.
|
|
||||||
*
|
|
||||||
* Otherwise, the key isn't exported, and 'addr' points to the
|
|
||||||
* trampoline so we need to lookup the key.
|
|
||||||
*
|
|
||||||
* We go through this dance to prevent crazy modules from
|
|
||||||
* abusing sensitive static calls.
|
|
||||||
*/
|
|
||||||
if (!kernel_text_address(addr))
|
|
||||||
continue;
|
|
||||||
|
|
||||||
key = tramp_key_lookup(addr);
|
|
||||||
if (!key) {
|
|
||||||
pr_warn("Failed to fixup __raw_static_call() usage at: %ps\n",
|
|
||||||
static_call_addr(site));
|
|
||||||
return -EINVAL;
|
|
||||||
}
|
|
||||||
|
|
||||||
key |= s_key & STATIC_CALL_SITE_FLAGS;
|
|
||||||
site->key = key - (long)&site->key;
|
|
||||||
}
|
|
||||||
|
|
||||||
return __static_call_init(mod, start, stop);
|
|
||||||
}
|
|
||||||
|
|
||||||
static void static_call_del_module(struct module *mod)
|
|
||||||
{
|
|
||||||
struct static_call_site *start = mod->static_call_sites;
|
|
||||||
struct static_call_site *stop = mod->static_call_sites +
|
|
||||||
mod->num_static_call_sites;
|
|
||||||
struct static_call_key *key, *prev_key = NULL;
|
|
||||||
struct static_call_mod *site_mod, **prev;
|
|
||||||
struct static_call_site *site;
|
|
||||||
|
|
||||||
for (site = start; site < stop; site++) {
|
|
||||||
key = static_call_key(site);
|
|
||||||
if (key == prev_key)
|
|
||||||
continue;
|
|
||||||
|
|
||||||
prev_key = key;
|
|
||||||
|
|
||||||
for (prev = &key->mods, site_mod = key->mods;
|
|
||||||
site_mod && site_mod->mod != mod;
|
|
||||||
prev = &site_mod->next, site_mod = site_mod->next)
|
|
||||||
;
|
|
||||||
|
|
||||||
if (!site_mod)
|
|
||||||
continue;
|
|
||||||
|
|
||||||
*prev = site_mod->next;
|
|
||||||
kfree(site_mod);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
static int static_call_module_notify(struct notifier_block *nb,
|
|
||||||
unsigned long val, void *data)
|
|
||||||
{
|
|
||||||
struct module *mod = data;
|
|
||||||
int ret = 0;
|
|
||||||
|
|
||||||
cpus_read_lock();
|
|
||||||
static_call_lock();
|
|
||||||
|
|
||||||
switch (val) {
|
|
||||||
case MODULE_STATE_COMING:
|
|
||||||
ret = static_call_add_module(mod);
|
|
||||||
if (ret) {
|
|
||||||
WARN(1, "Failed to allocate memory for static calls");
|
|
||||||
static_call_del_module(mod);
|
|
||||||
}
|
|
||||||
break;
|
|
||||||
case MODULE_STATE_GOING:
|
|
||||||
static_call_del_module(mod);
|
|
||||||
break;
|
|
||||||
}
|
|
||||||
|
|
||||||
static_call_unlock();
|
|
||||||
cpus_read_unlock();
|
|
||||||
|
|
||||||
return notifier_from_errno(ret);
|
|
||||||
}
|
|
||||||
|
|
||||||
static struct notifier_block static_call_module_nb = {
|
|
||||||
.notifier_call = static_call_module_notify,
|
|
||||||
};
|
|
||||||
|
|
||||||
#else
|
|
||||||
|
|
||||||
static inline int __static_call_mod_text_reserved(void *start, void *end)
|
|
||||||
{
|
|
||||||
return 0;
|
|
||||||
}
|
|
||||||
|
|
||||||
#endif /* CONFIG_MODULES */
|
|
||||||
|
|
||||||
int static_call_text_reserved(void *start, void *end)
|
|
||||||
{
|
|
||||||
bool init = system_state < SYSTEM_RUNNING;
|
|
||||||
int ret = __static_call_text_reserved(__start_static_call_sites,
|
|
||||||
__stop_static_call_sites, start, end, init);
|
|
||||||
|
|
||||||
if (ret)
|
|
||||||
return ret;
|
|
||||||
|
|
||||||
return __static_call_mod_text_reserved(start, end);
|
|
||||||
}
|
|
||||||
|
|
||||||
int __init static_call_init(void)
|
|
||||||
{
|
|
||||||
int ret;
|
|
||||||
|
|
||||||
if (static_call_initialized)
|
|
||||||
return 0;
|
|
||||||
|
|
||||||
cpus_read_lock();
|
|
||||||
static_call_lock();
|
|
||||||
ret = __static_call_init(NULL, __start_static_call_sites,
|
|
||||||
__stop_static_call_sites);
|
|
||||||
static_call_unlock();
|
|
||||||
cpus_read_unlock();
|
|
||||||
|
|
||||||
if (ret) {
|
|
||||||
pr_err("Failed to allocate memory for static_call!\n");
|
|
||||||
BUG();
|
|
||||||
}
|
|
||||||
|
|
||||||
static_call_initialized = true;
|
|
||||||
|
|
||||||
#ifdef CONFIG_MODULES
|
|
||||||
register_module_notifier(&static_call_module_nb);
|
|
||||||
#endif
|
|
||||||
return 0;
|
|
||||||
}
|
|
||||||
early_initcall(static_call_init);
|
|
||||||
|
|
||||||
long __static_call_return0(void)
|
long __static_call_return0(void)
|
||||||
{
|
{
|
||||||
return 0;
|
return 0;
|
||||||
}
|
}
|
||||||
EXPORT_SYMBOL_GPL(__static_call_return0);
|
EXPORT_SYMBOL_GPL(__static_call_return0);
|
||||||
|
|
||||||
#ifdef CONFIG_STATIC_CALL_SELFTEST
|
|
||||||
|
|
||||||
static int func_a(int x)
|
|
||||||
{
|
|
||||||
return x+1;
|
|
||||||
}
|
|
||||||
|
|
||||||
static int func_b(int x)
|
|
||||||
{
|
|
||||||
return x+2;
|
|
||||||
}
|
|
||||||
|
|
||||||
DEFINE_STATIC_CALL(sc_selftest, func_a);
|
|
||||||
|
|
||||||
static struct static_call_data {
|
|
||||||
int (*func)(int);
|
|
||||||
int val;
|
|
||||||
int expect;
|
|
||||||
} static_call_data [] __initdata = {
|
|
||||||
{ NULL, 2, 3 },
|
|
||||||
{ func_b, 2, 4 },
|
|
||||||
{ func_a, 2, 3 }
|
|
||||||
};
|
|
||||||
|
|
||||||
static int __init test_static_call_init(void)
|
|
||||||
{
|
|
||||||
int i;
|
|
||||||
|
|
||||||
for (i = 0; i < ARRAY_SIZE(static_call_data); i++ ) {
|
|
||||||
struct static_call_data *scd = &static_call_data[i];
|
|
||||||
|
|
||||||
if (scd->func)
|
|
||||||
static_call_update(sc_selftest, scd->func);
|
|
||||||
|
|
||||||
WARN_ON(static_call(sc_selftest)(scd->val) != scd->expect);
|
|
||||||
}
|
|
||||||
|
|
||||||
return 0;
|
|
||||||
}
|
|
||||||
early_initcall(test_static_call_init);
|
|
||||||
|
|
||||||
#endif /* CONFIG_STATIC_CALL_SELFTEST */
|
|
||||||
|
543
kernel/static_call_inline.c
Normal file
543
kernel/static_call_inline.c
Normal file
@ -0,0 +1,543 @@
|
|||||||
|
// SPDX-License-Identifier: GPL-2.0
|
||||||
|
#include <linux/init.h>
|
||||||
|
#include <linux/static_call.h>
|
||||||
|
#include <linux/bug.h>
|
||||||
|
#include <linux/smp.h>
|
||||||
|
#include <linux/sort.h>
|
||||||
|
#include <linux/slab.h>
|
||||||
|
#include <linux/module.h>
|
||||||
|
#include <linux/cpu.h>
|
||||||
|
#include <linux/processor.h>
|
||||||
|
#include <asm/sections.h>
|
||||||
|
|
||||||
|
extern struct static_call_site __start_static_call_sites[],
|
||||||
|
__stop_static_call_sites[];
|
||||||
|
extern struct static_call_tramp_key __start_static_call_tramp_key[],
|
||||||
|
__stop_static_call_tramp_key[];
|
||||||
|
|
||||||
|
static bool static_call_initialized;
|
||||||
|
|
||||||
|
/* mutex to protect key modules/sites */
|
||||||
|
static DEFINE_MUTEX(static_call_mutex);
|
||||||
|
|
||||||
|
static void static_call_lock(void)
|
||||||
|
{
|
||||||
|
mutex_lock(&static_call_mutex);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void static_call_unlock(void)
|
||||||
|
{
|
||||||
|
mutex_unlock(&static_call_mutex);
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline void *static_call_addr(struct static_call_site *site)
|
||||||
|
{
|
||||||
|
return (void *)((long)site->addr + (long)&site->addr);
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline unsigned long __static_call_key(const struct static_call_site *site)
|
||||||
|
{
|
||||||
|
return (long)site->key + (long)&site->key;
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline struct static_call_key *static_call_key(const struct static_call_site *site)
|
||||||
|
{
|
||||||
|
return (void *)(__static_call_key(site) & ~STATIC_CALL_SITE_FLAGS);
|
||||||
|
}
|
||||||
|
|
||||||
|
/* These assume the key is word-aligned. */
|
||||||
|
static inline bool static_call_is_init(struct static_call_site *site)
|
||||||
|
{
|
||||||
|
return __static_call_key(site) & STATIC_CALL_SITE_INIT;
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline bool static_call_is_tail(struct static_call_site *site)
|
||||||
|
{
|
||||||
|
return __static_call_key(site) & STATIC_CALL_SITE_TAIL;
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline void static_call_set_init(struct static_call_site *site)
|
||||||
|
{
|
||||||
|
site->key = (__static_call_key(site) | STATIC_CALL_SITE_INIT) -
|
||||||
|
(long)&site->key;
|
||||||
|
}
|
||||||
|
|
||||||
|
static int static_call_site_cmp(const void *_a, const void *_b)
|
||||||
|
{
|
||||||
|
const struct static_call_site *a = _a;
|
||||||
|
const struct static_call_site *b = _b;
|
||||||
|
const struct static_call_key *key_a = static_call_key(a);
|
||||||
|
const struct static_call_key *key_b = static_call_key(b);
|
||||||
|
|
||||||
|
if (key_a < key_b)
|
||||||
|
return -1;
|
||||||
|
|
||||||
|
if (key_a > key_b)
|
||||||
|
return 1;
|
||||||
|
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
|
||||||
|
static void static_call_site_swap(void *_a, void *_b, int size)
|
||||||
|
{
|
||||||
|
long delta = (unsigned long)_a - (unsigned long)_b;
|
||||||
|
struct static_call_site *a = _a;
|
||||||
|
struct static_call_site *b = _b;
|
||||||
|
struct static_call_site tmp = *a;
|
||||||
|
|
||||||
|
a->addr = b->addr - delta;
|
||||||
|
a->key = b->key - delta;
|
||||||
|
|
||||||
|
b->addr = tmp.addr + delta;
|
||||||
|
b->key = tmp.key + delta;
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline void static_call_sort_entries(struct static_call_site *start,
|
||||||
|
struct static_call_site *stop)
|
||||||
|
{
|
||||||
|
sort(start, stop - start, sizeof(struct static_call_site),
|
||||||
|
static_call_site_cmp, static_call_site_swap);
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline bool static_call_key_has_mods(struct static_call_key *key)
|
||||||
|
{
|
||||||
|
return !(key->type & 1);
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline struct static_call_mod *static_call_key_next(struct static_call_key *key)
|
||||||
|
{
|
||||||
|
if (!static_call_key_has_mods(key))
|
||||||
|
return NULL;
|
||||||
|
|
||||||
|
return key->mods;
|
||||||
|
}
|
||||||
|
|
||||||
|
static inline struct static_call_site *static_call_key_sites(struct static_call_key *key)
|
||||||
|
{
|
||||||
|
if (static_call_key_has_mods(key))
|
||||||
|
return NULL;
|
||||||
|
|
||||||
|
return (struct static_call_site *)(key->type & ~1);
|
||||||
|
}
|
||||||
|
|
||||||
|
void __static_call_update(struct static_call_key *key, void *tramp, void *func)
|
||||||
|
{
|
||||||
|
struct static_call_site *site, *stop;
|
||||||
|
struct static_call_mod *site_mod, first;
|
||||||
|
|
||||||
|
cpus_read_lock();
|
||||||
|
static_call_lock();
|
||||||
|
|
||||||
|
if (key->func == func)
|
||||||
|
goto done;
|
||||||
|
|
||||||
|
key->func = func;
|
||||||
|
|
||||||
|
arch_static_call_transform(NULL, tramp, func, false);
|
||||||
|
|
||||||
|
/*
|
||||||
|
* If uninitialized, we'll not update the callsites, but they still
|
||||||
|
* point to the trampoline and we just patched that.
|
||||||
|
*/
|
||||||
|
if (WARN_ON_ONCE(!static_call_initialized))
|
||||||
|
goto done;
|
||||||
|
|
||||||
|
first = (struct static_call_mod){
|
||||||
|
.next = static_call_key_next(key),
|
||||||
|
.mod = NULL,
|
||||||
|
.sites = static_call_key_sites(key),
|
||||||
|
};
|
||||||
|
|
||||||
|
for (site_mod = &first; site_mod; site_mod = site_mod->next) {
|
||||||
|
bool init = system_state < SYSTEM_RUNNING;
|
||||||
|
struct module *mod = site_mod->mod;
|
||||||
|
|
||||||
|
if (!site_mod->sites) {
|
||||||
|
/*
|
||||||
|
* This can happen if the static call key is defined in
|
||||||
|
* a module which doesn't use it.
|
||||||
|
*
|
||||||
|
* It also happens in the has_mods case, where the
|
||||||
|
* 'first' entry has no sites associated with it.
|
||||||
|
*/
|
||||||
|
continue;
|
||||||
|
}
|
||||||
|
|
||||||
|
stop = __stop_static_call_sites;
|
||||||
|
|
||||||
|
if (mod) {
|
||||||
|
#ifdef CONFIG_MODULES
|
||||||
|
stop = mod->static_call_sites +
|
||||||
|
mod->num_static_call_sites;
|
||||||
|
init = mod->state == MODULE_STATE_COMING;
|
||||||
|
#endif
|
||||||
|
}
|
||||||
|
|
||||||
|
for (site = site_mod->sites;
|
||||||
|
site < stop && static_call_key(site) == key; site++) {
|
||||||
|
void *site_addr = static_call_addr(site);
|
||||||
|
|
||||||
|
if (!init && static_call_is_init(site))
|
||||||
|
continue;
|
||||||
|
|
||||||
|
if (!kernel_text_address((unsigned long)site_addr)) {
|
||||||
|
/*
|
||||||
|
* This skips patching built-in __exit, which
|
||||||
|
* is part of init_section_contains() but is
|
||||||
|
* not part of kernel_text_address().
|
||||||
|
*
|
||||||
|
* Skipping built-in __exit is fine since it
|
||||||
|
* will never be executed.
|
||||||
|
*/
|
||||||
|
WARN_ONCE(!static_call_is_init(site),
|
||||||
|
"can't patch static call site at %pS",
|
||||||
|
site_addr);
|
||||||
|
continue;
|
||||||
|
}
|
||||||
|
|
||||||
|
arch_static_call_transform(site_addr, NULL, func,
|
||||||
|
static_call_is_tail(site));
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
done:
|
||||||
|
static_call_unlock();
|
||||||
|
cpus_read_unlock();
|
||||||
|
}
|
||||||
|
EXPORT_SYMBOL_GPL(__static_call_update);
|
||||||
|
|
||||||
|
static int __static_call_init(struct module *mod,
|
||||||
|
struct static_call_site *start,
|
||||||
|
struct static_call_site *stop)
|
||||||
|
{
|
||||||
|
struct static_call_site *site;
|
||||||
|
struct static_call_key *key, *prev_key = NULL;
|
||||||
|
struct static_call_mod *site_mod;
|
||||||
|
|
||||||
|
if (start == stop)
|
||||||
|
return 0;
|
||||||
|
|
||||||
|
static_call_sort_entries(start, stop);
|
||||||
|
|
||||||
|
for (site = start; site < stop; site++) {
|
||||||
|
void *site_addr = static_call_addr(site);
|
||||||
|
|
||||||
|
if ((mod && within_module_init((unsigned long)site_addr, mod)) ||
|
||||||
|
(!mod && init_section_contains(site_addr, 1)))
|
||||||
|
static_call_set_init(site);
|
||||||
|
|
||||||
|
key = static_call_key(site);
|
||||||
|
if (key != prev_key) {
|
||||||
|
prev_key = key;
|
||||||
|
|
||||||
|
/*
|
||||||
|
* For vmlinux (!mod) avoid the allocation by storing
|
||||||
|
* the sites pointer in the key itself. Also see
|
||||||
|
* __static_call_update()'s @first.
|
||||||
|
*
|
||||||
|
* This allows architectures (eg. x86) to call
|
||||||
|
* static_call_init() before memory allocation works.
|
||||||
|
*/
|
||||||
|
if (!mod) {
|
||||||
|
key->sites = site;
|
||||||
|
key->type |= 1;
|
||||||
|
goto do_transform;
|
||||||
|
}
|
||||||
|
|
||||||
|
site_mod = kzalloc(sizeof(*site_mod), GFP_KERNEL);
|
||||||
|
if (!site_mod)
|
||||||
|
return -ENOMEM;
|
||||||
|
|
||||||
|
/*
|
||||||
|
* When the key has a direct sites pointer, extract
|
||||||
|
* that into an explicit struct static_call_mod, so we
|
||||||
|
* can have a list of modules.
|
||||||
|
*/
|
||||||
|
if (static_call_key_sites(key)) {
|
||||||
|
site_mod->mod = NULL;
|
||||||
|
site_mod->next = NULL;
|
||||||
|
site_mod->sites = static_call_key_sites(key);
|
||||||
|
|
||||||
|
key->mods = site_mod;
|
||||||
|
|
||||||
|
site_mod = kzalloc(sizeof(*site_mod), GFP_KERNEL);
|
||||||
|
if (!site_mod)
|
||||||
|
return -ENOMEM;
|
||||||
|
}
|
||||||
|
|
||||||
|
site_mod->mod = mod;
|
||||||
|
site_mod->sites = site;
|
||||||
|
site_mod->next = static_call_key_next(key);
|
||||||
|
key->mods = site_mod;
|
||||||
|
}
|
||||||
|
|
||||||
|
do_transform:
|
||||||
|
arch_static_call_transform(site_addr, NULL, key->func,
|
||||||
|
static_call_is_tail(site));
|
||||||
|
}
|
||||||
|
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
|
||||||
|
static int addr_conflict(struct static_call_site *site, void *start, void *end)
|
||||||
|
{
|
||||||
|
unsigned long addr = (unsigned long)static_call_addr(site);
|
||||||
|
|
||||||
|
if (addr <= (unsigned long)end &&
|
||||||
|
addr + CALL_INSN_SIZE > (unsigned long)start)
|
||||||
|
return 1;
|
||||||
|
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
|
||||||
|
static int __static_call_text_reserved(struct static_call_site *iter_start,
|
||||||
|
struct static_call_site *iter_stop,
|
||||||
|
void *start, void *end, bool init)
|
||||||
|
{
|
||||||
|
struct static_call_site *iter = iter_start;
|
||||||
|
|
||||||
|
while (iter < iter_stop) {
|
||||||
|
if (init || !static_call_is_init(iter)) {
|
||||||
|
if (addr_conflict(iter, start, end))
|
||||||
|
return 1;
|
||||||
|
}
|
||||||
|
iter++;
|
||||||
|
}
|
||||||
|
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
|
||||||
|
#ifdef CONFIG_MODULES
|
||||||
|
|
||||||
|
static int __static_call_mod_text_reserved(void *start, void *end)
|
||||||
|
{
|
||||||
|
struct module *mod;
|
||||||
|
int ret;
|
||||||
|
|
||||||
|
preempt_disable();
|
||||||
|
mod = __module_text_address((unsigned long)start);
|
||||||
|
WARN_ON_ONCE(__module_text_address((unsigned long)end) != mod);
|
||||||
|
if (!try_module_get(mod))
|
||||||
|
mod = NULL;
|
||||||
|
preempt_enable();
|
||||||
|
|
||||||
|
if (!mod)
|
||||||
|
return 0;
|
||||||
|
|
||||||
|
ret = __static_call_text_reserved(mod->static_call_sites,
|
||||||
|
mod->static_call_sites + mod->num_static_call_sites,
|
||||||
|
start, end, mod->state == MODULE_STATE_COMING);
|
||||||
|
|
||||||
|
module_put(mod);
|
||||||
|
|
||||||
|
return ret;
|
||||||
|
}
|
||||||
|
|
||||||
|
static unsigned long tramp_key_lookup(unsigned long addr)
|
||||||
|
{
|
||||||
|
struct static_call_tramp_key *start = __start_static_call_tramp_key;
|
||||||
|
struct static_call_tramp_key *stop = __stop_static_call_tramp_key;
|
||||||
|
struct static_call_tramp_key *tramp_key;
|
||||||
|
|
||||||
|
for (tramp_key = start; tramp_key != stop; tramp_key++) {
|
||||||
|
unsigned long tramp;
|
||||||
|
|
||||||
|
tramp = (long)tramp_key->tramp + (long)&tramp_key->tramp;
|
||||||
|
if (tramp == addr)
|
||||||
|
return (long)tramp_key->key + (long)&tramp_key->key;
|
||||||
|
}
|
||||||
|
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
|
||||||
|
static int static_call_add_module(struct module *mod)
|
||||||
|
{
|
||||||
|
struct static_call_site *start = mod->static_call_sites;
|
||||||
|
struct static_call_site *stop = start + mod->num_static_call_sites;
|
||||||
|
struct static_call_site *site;
|
||||||
|
|
||||||
|
for (site = start; site != stop; site++) {
|
||||||
|
unsigned long s_key = __static_call_key(site);
|
||||||
|
unsigned long addr = s_key & ~STATIC_CALL_SITE_FLAGS;
|
||||||
|
unsigned long key;
|
||||||
|
|
||||||
|
/*
|
||||||
|
* Is the key is exported, 'addr' points to the key, which
|
||||||
|
* means modules are allowed to call static_call_update() on
|
||||||
|
* it.
|
||||||
|
*
|
||||||
|
* Otherwise, the key isn't exported, and 'addr' points to the
|
||||||
|
* trampoline so we need to lookup the key.
|
||||||
|
*
|
||||||
|
* We go through this dance to prevent crazy modules from
|
||||||
|
* abusing sensitive static calls.
|
||||||
|
*/
|
||||||
|
if (!kernel_text_address(addr))
|
||||||
|
continue;
|
||||||
|
|
||||||
|
key = tramp_key_lookup(addr);
|
||||||
|
if (!key) {
|
||||||
|
pr_warn("Failed to fixup __raw_static_call() usage at: %ps\n",
|
||||||
|
static_call_addr(site));
|
||||||
|
return -EINVAL;
|
||||||
|
}
|
||||||
|
|
||||||
|
key |= s_key & STATIC_CALL_SITE_FLAGS;
|
||||||
|
site->key = key - (long)&site->key;
|
||||||
|
}
|
||||||
|
|
||||||
|
return __static_call_init(mod, start, stop);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void static_call_del_module(struct module *mod)
|
||||||
|
{
|
||||||
|
struct static_call_site *start = mod->static_call_sites;
|
||||||
|
struct static_call_site *stop = mod->static_call_sites +
|
||||||
|
mod->num_static_call_sites;
|
||||||
|
struct static_call_key *key, *prev_key = NULL;
|
||||||
|
struct static_call_mod *site_mod, **prev;
|
||||||
|
struct static_call_site *site;
|
||||||
|
|
||||||
|
for (site = start; site < stop; site++) {
|
||||||
|
key = static_call_key(site);
|
||||||
|
if (key == prev_key)
|
||||||
|
continue;
|
||||||
|
|
||||||
|
prev_key = key;
|
||||||
|
|
||||||
|
for (prev = &key->mods, site_mod = key->mods;
|
||||||
|
site_mod && site_mod->mod != mod;
|
||||||
|
prev = &site_mod->next, site_mod = site_mod->next)
|
||||||
|
;
|
||||||
|
|
||||||
|
if (!site_mod)
|
||||||
|
continue;
|
||||||
|
|
||||||
|
*prev = site_mod->next;
|
||||||
|
kfree(site_mod);
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
static int static_call_module_notify(struct notifier_block *nb,
|
||||||
|
unsigned long val, void *data)
|
||||||
|
{
|
||||||
|
struct module *mod = data;
|
||||||
|
int ret = 0;
|
||||||
|
|
||||||
|
cpus_read_lock();
|
||||||
|
static_call_lock();
|
||||||
|
|
||||||
|
switch (val) {
|
||||||
|
case MODULE_STATE_COMING:
|
||||||
|
ret = static_call_add_module(mod);
|
||||||
|
if (ret) {
|
||||||
|
WARN(1, "Failed to allocate memory for static calls");
|
||||||
|
static_call_del_module(mod);
|
||||||
|
}
|
||||||
|
break;
|
||||||
|
case MODULE_STATE_GOING:
|
||||||
|
static_call_del_module(mod);
|
||||||
|
break;
|
||||||
|
}
|
||||||
|
|
||||||
|
static_call_unlock();
|
||||||
|
cpus_read_unlock();
|
||||||
|
|
||||||
|
return notifier_from_errno(ret);
|
||||||
|
}
|
||||||
|
|
||||||
|
static struct notifier_block static_call_module_nb = {
|
||||||
|
.notifier_call = static_call_module_notify,
|
||||||
|
};
|
||||||
|
|
||||||
|
#else
|
||||||
|
|
||||||
|
static inline int __static_call_mod_text_reserved(void *start, void *end)
|
||||||
|
{
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
|
||||||
|
#endif /* CONFIG_MODULES */
|
||||||
|
|
||||||
|
int static_call_text_reserved(void *start, void *end)
|
||||||
|
{
|
||||||
|
bool init = system_state < SYSTEM_RUNNING;
|
||||||
|
int ret = __static_call_text_reserved(__start_static_call_sites,
|
||||||
|
__stop_static_call_sites, start, end, init);
|
||||||
|
|
||||||
|
if (ret)
|
||||||
|
return ret;
|
||||||
|
|
||||||
|
return __static_call_mod_text_reserved(start, end);
|
||||||
|
}
|
||||||
|
|
||||||
|
int __init static_call_init(void)
|
||||||
|
{
|
||||||
|
int ret;
|
||||||
|
|
||||||
|
if (static_call_initialized)
|
||||||
|
return 0;
|
||||||
|
|
||||||
|
cpus_read_lock();
|
||||||
|
static_call_lock();
|
||||||
|
ret = __static_call_init(NULL, __start_static_call_sites,
|
||||||
|
__stop_static_call_sites);
|
||||||
|
static_call_unlock();
|
||||||
|
cpus_read_unlock();
|
||||||
|
|
||||||
|
if (ret) {
|
||||||
|
pr_err("Failed to allocate memory for static_call!\n");
|
||||||
|
BUG();
|
||||||
|
}
|
||||||
|
|
||||||
|
static_call_initialized = true;
|
||||||
|
|
||||||
|
#ifdef CONFIG_MODULES
|
||||||
|
register_module_notifier(&static_call_module_nb);
|
||||||
|
#endif
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
early_initcall(static_call_init);
|
||||||
|
|
||||||
|
#ifdef CONFIG_STATIC_CALL_SELFTEST
|
||||||
|
|
||||||
|
static int func_a(int x)
|
||||||
|
{
|
||||||
|
return x+1;
|
||||||
|
}
|
||||||
|
|
||||||
|
static int func_b(int x)
|
||||||
|
{
|
||||||
|
return x+2;
|
||||||
|
}
|
||||||
|
|
||||||
|
DEFINE_STATIC_CALL(sc_selftest, func_a);
|
||||||
|
|
||||||
|
static struct static_call_data {
|
||||||
|
int (*func)(int);
|
||||||
|
int val;
|
||||||
|
int expect;
|
||||||
|
} static_call_data [] __initdata = {
|
||||||
|
{ NULL, 2, 3 },
|
||||||
|
{ func_b, 2, 4 },
|
||||||
|
{ func_a, 2, 3 }
|
||||||
|
};
|
||||||
|
|
||||||
|
static int __init test_static_call_init(void)
|
||||||
|
{
|
||||||
|
int i;
|
||||||
|
|
||||||
|
for (i = 0; i < ARRAY_SIZE(static_call_data); i++ ) {
|
||||||
|
struct static_call_data *scd = &static_call_data[i];
|
||||||
|
|
||||||
|
if (scd->func)
|
||||||
|
static_call_update(sc_selftest, scd->func);
|
||||||
|
|
||||||
|
WARN_ON(static_call(sc_selftest)(scd->val) != scd->expect);
|
||||||
|
}
|
||||||
|
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
early_initcall(test_static_call_init);
|
||||||
|
|
||||||
|
#endif /* CONFIG_STATIC_CALL_SELFTEST */
|
@ -128,7 +128,7 @@ static DEFINE_MUTEX(pcp_batch_high_lock);
|
|||||||
struct pagesets {
|
struct pagesets {
|
||||||
local_lock_t lock;
|
local_lock_t lock;
|
||||||
};
|
};
|
||||||
static DEFINE_PER_CPU(struct pagesets, pagesets) __maybe_unused = {
|
static DEFINE_PER_CPU(struct pagesets, pagesets) = {
|
||||||
.lock = INIT_LOCAL_LOCK(lock),
|
.lock = INIT_LOCAL_LOCK(lock),
|
||||||
};
|
};
|
||||||
|
|
||||||
|
Loading…
Reference in New Issue
Block a user