]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: update 'journal reset' command with --yes-i-really-really-mean-it 57761/head
authorJos Collin <jcollin@redhat.com>
Tue, 27 Feb 2024 08:45:26 +0000 (14:15 +0530)
committerJos Collin <jcollin@redhat.com>
Thu, 27 Jun 2024 02:40:42 +0000 (08:10 +0530)
Fixes: https://tracker.ceph.com/issues/62925
Signed-off-by: Jos Collin <jcollin@redhat.com>
(cherry picked from commit 42953ece97b1b082400443b44bab46b1118fb1f8)

PendingReleaseNotes
doc/cephfs/cephfs-journal-tool.rst
doc/cephfs/disaster-recovery-experts.rst

index 3335b16793d47942cb80f93d95374e7e832bb5a1..33101674c565d002274ee436f157fee65d8fac1a 100644 (file)
   cluster, MDS_CLIENTS_BROKEN_ROOTSQUASH. See the documentation on this warning
   and the new feature bit for more information.
 
+* cls_cxx_gather is marked as deprecated.
+* CephFS: cephfs-journal-tool is guarded against running on an online file system.
+  The 'cephfs-journal-tool --rank <fs_name>:<mds_rank> journal reset' and
+  'cephfs-journal-tool --rank <fs_name>:<mds_rank> journal reset --force'
+  commands require '--yes-i-really-really-mean-it'.
 
 * CephFS: Command "ceph mds fail" and "ceph fs fail" now requires a
   confirmation flag when some MDSs exhibit health warning MDS_TRIM or
index 64a113091182888fed88009eb146cb02b037fda8..4ad7304481f7f00242ef87a1ba314df88113da11 100644 (file)
@@ -15,7 +15,8 @@ examining, modifying, and extracting data from journals.
 
     This tool is **dangerous** because it directly modifies internal
     data structures of the file system.  Make backups, be careful, and
-    seek expert advice.  If you are unsure, do not run this tool.
+    seek expert advice.  If you are unsure, do not run this tool. As a
+    precaution, cephfs-journal-tool doesn't work on an active filesystem.
 
 Syntax
 ------
index 9a196c88e2340291b8d068d51c3e589a1809e4ab..7677b42f47e12102c5f87260bb48aa10ec3902f7 100644 (file)
@@ -68,9 +68,9 @@ truncate it like so:
 
 ::
 
-    cephfs-journal-tool [--rank=N] journal reset
+    cephfs-journal-tool [--rank=<fs_name>:{mds-rank|all}] journal reset --yes-i-really-really-mean-it
 
-Specify the MDS rank using the ``--rank`` option when the file system has/had
+Specify the filesystem and the MDS rank using the ``--rank`` option when the file system has/had
 multiple active MDS.
 
 .. warning::
@@ -135,7 +135,7 @@ objects.
     # InoTable
     cephfs-table-tool 0 reset inode
     # Journal
-    cephfs-journal-tool --rank=0 journal reset
+    cephfs-journal-tool --rank=<fs_name>:0 journal reset --yes-i-really-really-mean-it
     # Root inodes ("/" and MDS directory)
     cephfs-data-scan init
 
@@ -253,7 +253,7 @@ Next, we will create the intial metadata for the fs:
     cephfs-table-tool cephfs_recovery:0 reset session
     cephfs-table-tool cephfs_recovery:0 reset snap
     cephfs-table-tool cephfs_recovery:0 reset inode
-    cephfs-journal-tool --rank cephfs_recovery:0 journal reset --force
+    cephfs-journal-tool --rank cephfs_recovery:0 journal reset --force --yes-i-really-really-mean-it
 
 Now perform the recovery of the metadata pool from the data pool: