static inline bool is_cpu_allowed(struct task_struct *p, int cpu)
 {
        /* When not in the task's cpumask, no point in looking further. */
-       if (!cpumask_test_cpu(cpu, p->cpus_ptr))
+       if (!task_allowed_on_cpu(p, cpu))
                return false;
 
        /* migrate_disabled() must be allowed to finish. */
 
        /* Non kernel threads are not allowed during either online or offline. */
        if (!(p->flags & PF_KTHREAD))
-               return cpu_active(cpu) && task_cpu_possible(cpu, p);
+               return cpu_active(cpu);
 
        /* KTHREAD_IS_PER_CPU is always allowed. */
        if (kthread_is_per_cpu(p))
 
 
 #ifdef CONFIG_SMP
 /*
- * Similar to kernel/sched/core.c::is_cpu_allowed() but we're testing whether @p
- * can be pulled to @rq.
+ * Similar to kernel/sched/core.c::is_cpu_allowed(). However, there are two
+ * differences:
+ *
+ * - is_cpu_allowed() asks "Can this task run on this CPU?" while
+ *   task_can_run_on_remote_rq() asks "Can the BPF scheduler migrate the task to
+ *   this CPU?".
+ *
+ *   While migration is disabled, is_cpu_allowed() has to say "yes" as the task
+ *   must be allowed to finish on the CPU that it's currently on regardless of
+ *   the CPU state. However, task_can_run_on_remote_rq() must say "no" as the
+ *   BPF scheduler shouldn't attempt to migrate a task which has migration
+ *   disabled.
+ *
+ * - The BPF scheduler is bypassed while the rq is offline and we can always say
+ *   no to the BPF scheduler initiated migrations while offline.
  */
 static bool task_can_run_on_remote_rq(struct task_struct *p, struct rq *rq)
 {
        int cpu = cpu_of(rq);
 
-       if (!cpumask_test_cpu(cpu, p->cpus_ptr))
+       if (!task_allowed_on_cpu(p, cpu))
                return false;
        if (unlikely(is_migration_disabled(p)))
                return false;
-       if (!(p->flags & PF_KTHREAD) && unlikely(!task_cpu_possible(cpu, p)))
-               return false;
        if (!scx_rq_online(rq))
                return false;
        return true;
 
 extern int __set_cpus_allowed_ptr(struct task_struct *p, struct affinity_context *ctx);
 extern void set_cpus_allowed_common(struct task_struct *p, struct affinity_context *ctx);
 
+static inline bool task_allowed_on_cpu(struct task_struct *p, int cpu)
+{
+       /* When not in the task's cpumask, no point in looking further. */
+       if (!cpumask_test_cpu(cpu, p->cpus_ptr))
+               return false;
+
+       /* Can @cpu run a user thread? */
+       if (!(p->flags & PF_KTHREAD) && !task_cpu_possible(cpu, p))
+               return false;
+
+       return true;
+}
+
 static inline cpumask_t *alloc_user_cpus_ptr(int node)
 {
        /*
 
 #else /* !CONFIG_SMP: */
 
+static inline bool task_allowed_on_cpu(struct task_struct *p, int cpu)
+{
+       return true;
+}
+
 static inline int __set_cpus_allowed_ptr(struct task_struct *p,
                                         struct affinity_context *ctx)
 {