mddev->ctime || mddev->hold_active)
                return;
 
-       /* Array is not configured at all, and not held active, so destroy it */
-       set_bit(MD_DELETED, &mddev->flags);
-
        /*
         * Call queue_work inside the spinlock so that flush_workqueue() after
         * mddev_find will succeed in waiting for the work to be done.
                kobject_del(&rdev->kobj);
                export_rdev(rdev, mddev);
        }
+
+       /* Call del_gendisk after release reconfig_mutex to avoid
+        * deadlock (e.g. call del_gendisk under the lock and an
+        * access to sysfs files waits the lock)
+        * And MD_DELETED is only used for md raid which is set in
+        * do_md_stop. dm raid only uses md_stop to stop. So dm raid
+        * doesn't need to check MD_DELETED when getting reconfig lock
+        */
+       if (test_bit(MD_DELETED, &mddev->flags))
+               del_gendisk(mddev->gendisk);
 }
 EXPORT_SYMBOL_GPL(mddev_unlock);
 
        struct md_sysfs_entry *entry = container_of(attr, struct md_sysfs_entry, attr);
        struct mddev *mddev = container_of(kobj, struct mddev, kobj);
        ssize_t rv;
+       struct kernfs_node *kn = NULL;
 
        if (!entry->store)
                return -EIO;
        if (!capable(CAP_SYS_ADMIN))
                return -EACCES;
+
+       if (entry->store == array_state_store && cmd_match(page, "clear"))
+               kn = sysfs_break_active_protection(kobj, attr);
+
        spin_lock(&all_mddevs_lock);
        if (!mddev_get(mddev)) {
                spin_unlock(&all_mddevs_lock);
+               if (kn)
+                       sysfs_unbreak_active_protection(kn);
                return -EBUSY;
        }
        spin_unlock(&all_mddevs_lock);
        rv = entry->store(mddev, page, length);
        mddev_put(mddev);
+
+       if (kn)
+               sysfs_unbreak_active_protection(kn);
+
        return rv;
 }
 
 {
        struct mddev *mddev = container_of(ko, struct mddev, kobj);
 
-       if (mddev->sysfs_state)
-               sysfs_put(mddev->sysfs_state);
-       if (mddev->sysfs_level)
-               sysfs_put(mddev->sysfs_level);
-
-       del_gendisk(mddev->gendisk);
        put_disk(mddev->gendisk);
 }
 
                mddev->bitmap_info.offset = 0;
 
                export_array(mddev);
-
                md_clean(mddev);
+               set_bit(MD_DELETED, &mddev->flags);
+
                if (mddev->hold_active == UNTIL_STOP)
                        mddev->hold_active = 0;
        }
 
 
 static inline int __must_check mddev_lock(struct mddev *mddev)
 {
-       return mutex_lock_interruptible(&mddev->reconfig_mutex);
+       int ret;
+
+       ret = mutex_lock_interruptible(&mddev->reconfig_mutex);
+
+       /* MD_DELETED is set in do_md_stop with reconfig_mutex.
+        * So check it here.
+        */
+       if (!ret && test_bit(MD_DELETED, &mddev->flags)) {
+               ret = -ENODEV;
+               mutex_unlock(&mddev->reconfig_mutex);
+       }
+
+       return ret;
 }
 
 /* Sometimes we need to take the lock in a situation where
  * failure due to interrupts is not acceptable.
+ * It doesn't need to check MD_DELETED here, the owner which
+ * holds the lock here can't be stopped. And all paths can't
+ * call this function after do_md_stop.
  */
 static inline void mddev_lock_nointr(struct mddev *mddev)
 {
 
 static inline int mddev_trylock(struct mddev *mddev)
 {
-       return mutex_trylock(&mddev->reconfig_mutex);
+       int ret;
+
+       ret = mutex_trylock(&mddev->reconfig_mutex);
+       if (!ret && test_bit(MD_DELETED, &mddev->flags)) {
+               ret = -ENODEV;
+               mutex_unlock(&mddev->reconfig_mutex);
+       }
+       return ret;
 }
 extern void mddev_unlock(struct mddev *mddev);