]> git.apps.os.sepia.ceph.com Git - ceph-client.git/commitdiff
md: init queue_limits->max_hw_wzeroes_unmap_sectors parameter
authorZhang Yi <yi.zhang@huawei.com>
Wed, 10 Sep 2025 11:11:06 +0000 (19:11 +0800)
committerYu Kuai <yukuai3@huawei.com>
Tue, 16 Sep 2025 16:37:12 +0000 (00:37 +0800)
The parameter max_hw_wzeroes_unmap_sectors in queue_limits should be
equal to max_write_zeroes_sectors if it is set to a non-zero value.
However, the stacked md drivers call md_init_stacking_limits() to
initialize this parameter to UINT_MAX but only adjust
max_write_zeroes_sectors when setting limits. Therefore, this
discrepancy triggers a value check failure in blk_validate_limits().

 $ modprobe scsi_debug num_parts=2 dev_size_mb=8 lbprz=1 lbpws=1
 $ mdadm --create /dev/md0 --level=0 --raid-device=2 /dev/sda1 /dev/sda2
   mdadm: Defaulting to version 1.2 metadata
   mdadm: RUN_ARRAY failed: Invalid argument

Fix this failure by explicitly setting max_hw_wzeroes_unmap_sectors to
max_write_zeroes_sectors. Since the linear and raid0 drivers support
write zeroes, so they can support unmap write zeroes operation if all of
the backend devices support it. However, the raid1/10/5 drivers don't
support write zeroes, so we have to set it to zero.

Fixes: 0c40d7cb5ef3 ("block: introduce max_{hw|user}_wzeroes_unmap_sectors to queue limits")
Reported-by: John Garry <john.g.garry@oracle.com>
Closes: https://lore.kernel.org/linux-block/803a2183-a0bb-4b7a-92f1-afc5097630d2@oracle.com/
Signed-off-by: Zhang Yi <yi.zhang@huawei.com>
Tested-by: John Garry <john.g.garry@oracle.com>
Reviewed-by: Li Nan <linan122@huawei.com>
Reviewed-by: Martin K. Petersen <martin.petersen@oracle.com>
Reviewed-by: Yu Kuai <yukuai3@huawei.com>
Reviewed-by: Hannes Reinecke <hare@suse.de>
Link: https://lore.kernel.org/linux-raid/20250910111107.3247530-2-yi.zhang@huaweicloud.com
Signed-off-by: Yu Kuai <yukuai3@huawei.com>
drivers/md/md-linear.c
drivers/md/raid0.c
drivers/md/raid1.c
drivers/md/raid10.c
drivers/md/raid5.c

index 5d9b081153757eda44a93f3cd9d56ee9258e0c00..3e1f165c2d20f6b55865c0e2fa7087048f9c3b41 100644 (file)
@@ -73,6 +73,7 @@ static int linear_set_limits(struct mddev *mddev)
        md_init_stacking_limits(&lim);
        lim.max_hw_sectors = mddev->chunk_sectors;
        lim.max_write_zeroes_sectors = mddev->chunk_sectors;
+       lim.max_hw_wzeroes_unmap_sectors = mddev->chunk_sectors;
        lim.io_min = mddev->chunk_sectors << 9;
        err = mddev_stack_rdev_limits(mddev, &lim, MDDEV_STACK_INTEGRITY);
        if (err)
index f1d8811a542ae238a65d3cd0388b882ff16ec325..419139ad7663ccf40bc547bd650f0520ac216b9e 100644 (file)
@@ -382,6 +382,7 @@ static int raid0_set_limits(struct mddev *mddev)
        md_init_stacking_limits(&lim);
        lim.max_hw_sectors = mddev->chunk_sectors;
        lim.max_write_zeroes_sectors = mddev->chunk_sectors;
+       lim.max_hw_wzeroes_unmap_sectors = mddev->chunk_sectors;
        lim.io_min = mddev->chunk_sectors << 9;
        lim.io_opt = lim.io_min * mddev->raid_disks;
        lim.chunk_sectors = mddev->chunk_sectors;
index bf44878ec640e551c18b62e91929c81fa2602526..d30b82beeb92fb80ac936e79f1c013f83a908929 100644 (file)
@@ -3211,6 +3211,7 @@ static int raid1_set_limits(struct mddev *mddev)
 
        md_init_stacking_limits(&lim);
        lim.max_write_zeroes_sectors = 0;
+       lim.max_hw_wzeroes_unmap_sectors = 0;
        lim.features |= BLK_FEAT_ATOMIC_WRITES;
        err = mddev_stack_rdev_limits(mddev, &lim, MDDEV_STACK_INTEGRITY);
        if (err)
index b60c30bfb6c794c9fb702724ea1b9cc62c1ec84b..9832eefb2f157bf4fab115a2b8e85eb5f603acb0 100644 (file)
@@ -4008,6 +4008,7 @@ static int raid10_set_queue_limits(struct mddev *mddev)
 
        md_init_stacking_limits(&lim);
        lim.max_write_zeroes_sectors = 0;
+       lim.max_hw_wzeroes_unmap_sectors = 0;
        lim.io_min = mddev->chunk_sectors << 9;
        lim.chunk_sectors = mddev->chunk_sectors;
        lim.io_opt = lim.io_min * raid10_nr_stripes(conf);
index 023649fe2476f3777f12c5e1793bc34e3703add5..e385ef1355e8b3660963b6cec777247a382d59f2 100644 (file)
@@ -7732,6 +7732,7 @@ static int raid5_set_limits(struct mddev *mddev)
        lim.features |= BLK_FEAT_RAID_PARTIAL_STRIPES_EXPENSIVE;
        lim.discard_granularity = stripe;
        lim.max_write_zeroes_sectors = 0;
+       lim.max_hw_wzeroes_unmap_sectors = 0;
        mddev_stack_rdev_limits(mddev, &lim, 0);
        rdev_for_each(rdev, mddev)
                queue_limits_stack_bdev(&lim, rdev->bdev, rdev->new_data_offset,