]> git.apps.os.sepia.ceph.com Git - ceph.git/commitdiff
mgr: add --max <n> to 'osd ok-to-stop' command
authorSage Weil <sage@newdream.net>
Sat, 20 Feb 2021 14:53:51 +0000 (09:53 -0500)
committerNathan Cutler <ncutler@suse.com>
Thu, 8 Apr 2021 16:12:50 +0000 (18:12 +0200)
Given and initial (set of) osd(s), if provide up to N OSDs that can be
stopped together without making PGs become unavailable.

This can be used to quickly identify large(r) batches of OSDs that can be
stopped together to (for example) upgrade.

Signed-off-by: Sage Weil <sage@newdream.net>
(cherry picked from commit 722f57dee1306007c9059711a93b445bbd9079ec)

Conflicts:
        src/mgr/DaemonServer.cc
- in nautilus, cmd_getval() call requires g_ceph_context as first variable

qa/standalone/misc/ok-to-stop.sh
src/mgr/DaemonServer.cc
src/mgr/DaemonServer.h
src/mgr/MgrCommands.h

index 5465939e8e8a204bb6ebf9c22d802cf14131847a..abecd685dac048c7379066956b71adade06b13f0 100755 (executable)
@@ -264,6 +264,8 @@ function TEST_0_osd() {
     ceph osd ok-to-stop 3 || return 1
     ! ceph osd ok-to-stop 0 1 || return 1
     ! ceph osd ok-to-stop 2 3 || return 1
+    ceph osd ok-to-stop 0 --max 2 | grep '[0]' || return 1
+    ceph osd ok-to-stop 1 --max 2 | grep '[1]' || return 1
 
     # with min_size 2 we can stop 1 osds
     ceph osd pool set ec min_size 2 || return 1
@@ -274,6 +276,11 @@ function TEST_0_osd() {
     ! ceph osd ok-to-stop 0 1 2 || return 1
     ! ceph osd ok-to-stop 1 2 3 || return 1
 
+    ceph osd ok-to-stop 0 --max 2 | grep '[0,1]' || return 1
+    ceph osd ok-to-stop 0 --max 20 | grep '[0,1]' || return 1
+    ceph osd ok-to-stop 2 --max 2 | grep '[2,3]' || return 1
+    ceph osd ok-to-stop 2 --max 20 | grep '[2,3]' || return 1
+
     # we should get the same result with one of the osds already down
     kill_daemons $dir TERM osd.0 || return 1
     ceph osd down 0 || return 1
index a561844832f80af2bd62a75e9fb58b84f70881bd..182366b08db750643929a56abf3a2071e1887bee 100644 (file)
@@ -833,6 +833,129 @@ void DaemonServer::log_access_denied(
         "#client-authentication";
 }
 
+int DaemonServer::_check_offlines_pgs(
+  const set<int>& osds,
+  const OSDMap& osdmap,
+  const PGMap& pgmap,
+  int *out_touched_pgs)
+{
+  int touched_pgs = 0;
+  int dangerous_pgs = 0;
+  for (const auto& q : pgmap.pg_stat) {
+    set<int32_t> pg_acting;  // net acting sets (with no missing if degraded)
+    bool found = false;
+    if (q.second.state & PG_STATE_DEGRADED) {
+      for (auto& anm : q.second.avail_no_missing) {
+       if (osds.count(anm.osd)) {
+         found = true;
+         continue;
+       }
+       if (anm.osd != CRUSH_ITEM_NONE) {
+         pg_acting.insert(anm.osd);
+       }
+      }
+    } else {
+      for (auto& a : q.second.acting) {
+       if (osds.count(a)) {
+         found = true;
+         continue;
+       }
+       if (a != CRUSH_ITEM_NONE) {
+         pg_acting.insert(a);
+       }
+      }
+    }
+    if (!found) {
+      continue;
+    }
+    touched_pgs++;
+    const pg_pool_t *pi = osdmap.get_pg_pool(q.first.pool());
+    if (!pi) {
+      ++dangerous_pgs; // pool is creating or deleting
+      continue;
+    }
+    if (!(q.second.state & PG_STATE_ACTIVE)) {
+      ++dangerous_pgs;
+      continue;
+    }
+    if (pg_acting.size() < pi->min_size) {
+      ++dangerous_pgs;
+    }
+  }
+  dout(20) << osds << " -> " << dangerous_pgs << "/" << touched_pgs
+          << " dangerous/touched" << dendl;
+  *out_touched_pgs = touched_pgs;
+  return dangerous_pgs;
+}
+
+int DaemonServer::_maximize_ok_to_stop_set(
+  const set<int>& orig_osds,
+  unsigned max,
+  const OSDMap& osdmap,
+  const PGMap& pgmap,
+  int *out_touched_pgs,
+  set<int> *out_osds)
+{
+  dout(20) << "orig_osds " << orig_osds << " max " << max << dendl;
+  *out_osds = orig_osds;
+  int r = _check_offlines_pgs(orig_osds, osdmap, pgmap, out_touched_pgs);
+  if (r > 0) {
+    return r;
+  }
+  if (orig_osds.size() == max) {
+    // already at max
+    return 0;
+  }
+
+  // semi-arbitrarily start with the first osd in the set
+  set<int> osds = orig_osds;
+  int parent = *osds.begin();
+  set<int> children;
+
+  while (true) {
+    // identify the next parent
+    r = osdmap.crush->get_immediate_parent_id(parent, &parent);
+    if (r < 0) {
+      return 0;  // just go with what we have so far!
+    }
+
+    // get candidate additions that are beneath this point in the tree
+    children.clear();
+    r = osdmap.crush->get_all_children(parent, &children);
+    if (r < 0) {
+      return 0;  // just go with what we have so far!
+    }
+    dout(20) << "  parent " << parent << " children " << children << dendl;
+
+    // try adding in more osds
+    int failed = 0;  // how many children we failed to add to our set
+    for (auto o : children) {
+      if (o >= 0 && osdmap.is_up(o) && osds.count(o) == 0) {
+       osds.insert(o);
+       int touched;
+       r = _check_offlines_pgs(osds, osdmap, pgmap, &touched);
+       if (r > 0) {
+         osds.erase(o);
+         ++failed;
+         continue;
+       }
+       *out_osds = osds;
+       *out_touched_pgs = touched;
+       if (osds.size() == max) {
+         dout(20) << " hit max" << dendl;
+         return 0;  // yay, we hit the max
+       }
+      }
+    }
+
+    if (failed) {
+      // we hit some failures; go with what we have
+      dout(20) << " hit some peer failures" << dendl;
+      return 0;
+    }
+  }
+}
+
 bool DaemonServer::_handle_command(
   MCommand *m,
   std::shared_ptr<CommandContext>& cmdctx)
@@ -1553,6 +1676,11 @@ bool DaemonServer::_handle_command(
     vector<string> ids;
     cmd_getval(g_ceph_context, cmdctx->cmdmap, "ids", ids);
     set<int> osds;
+    int64_t max = 1;
+    cmd_getval(g_ceph_context, cmdctx->cmdmap, "max", max);
+    if (max < (int)osds.size()) {
+      max = osds.size();
+    }
     int r;
     cluster_state.with_osdmap([&](const OSDMap& osdmap) {
        r = osdmap.parse_osd_id_list(ids, &osds, &ss);
@@ -1565,6 +1693,7 @@ bool DaemonServer::_handle_command(
       cmdctx->reply(r, ss);
       return true;
     }
+    set<int> out_osds;
     int touched_pgs = 0;
     int dangerous_pgs = 0;
     cluster_state.with_osdmap_and_pgmap([&](const OSDMap& osdmap, const PGMap& pg_map) {
@@ -1574,51 +1703,11 @@ bool DaemonServer::_handle_command(
          r = -EAGAIN;
          return;
        }
-       for (const auto& q : pg_map.pg_stat) {
-          set<int32_t> pg_acting;  // net acting sets (with no missing if degraded)
-         bool found = false;
-         if (q.second.state & PG_STATE_DEGRADED) {
-           for (auto& anm : q.second.avail_no_missing) {
-             if (osds.count(anm.osd)) {
-               found = true;
-               continue;
-             }
-             if (anm.osd != CRUSH_ITEM_NONE) {
-               pg_acting.insert(anm.osd);
-             }
-           }
-         } else {
-           for (auto& a : q.second.acting) {
-             if (osds.count(a)) {
-               found = true;
-               continue;
-             }
-             if (a != CRUSH_ITEM_NONE) {
-               pg_acting.insert(a);
-             }
-           }
-         }
-         if (!found) {
-           continue;
-         }
-         touched_pgs++;
-
-         const pg_pool_t *pi = osdmap.get_pg_pool(q.first.pool());
-         if (!pi) {
-           ++dangerous_pgs; // pool is creating or deleting
-            continue;
-         }
-
-         if (!(q.second.state & PG_STATE_ACTIVE)) {
-           ++dangerous_pgs;
-           continue;
-         }
-          if (pg_acting.size() < pi->min_size) {
-            ++dangerous_pgs;
-          }
-        }
+       dangerous_pgs = _maximize_ok_to_stop_set(
+         osds, max, osdmap, pg_map,
+         &touched_pgs, &out_osds);
       });
-    if (r) {
+    if (r < 0) {
       cmdctx->reply(r, ss);
       return true;
     }
@@ -1628,11 +1717,21 @@ bool DaemonServer::_handle_command(
       cmdctx->reply(-EBUSY, ss);
       return true;
     }
-    ss << "OSD(s) " << osds << " are ok to stop without reducing"
+    ss << "These OSD(s) are ok to stop without reducing"
        << " availability or risking data, provided there are no other concurrent failures"
        << " or interventions." << std::endl;
     ss << touched_pgs << " PGs are likely to be"
        << " degraded (but remain available) as a result.";
+    if (!f) {
+      f.reset(Formatter::create("json"));
+    }
+    f->open_array_section("osds");
+    for (auto o : out_osds) {
+      f->dump_int("osd", o);
+    }
+    f->close_section();
+    f->flush(cmdctx->odata);
+    cmdctx->odata.append("\n");
     cmdctx->reply(0, ss);
     return true;
   } else if (prefix == "pg force-recovery" ||
index 3c73d84c53cc050770070770162cf55b13b0bb8d..38fa0e02bce7d5be2ef160a8f9899ff0f8748181 100644 (file)
@@ -95,6 +95,19 @@ private:
 
   void _prune_pending_service_map();
 
+  int _check_offlines_pgs(
+    const set<int>& osds,
+    const OSDMap& osdmap,
+    const PGMap& pgmap,
+    int *out_touched_pgs);
+  int _maximize_ok_to_stop_set(
+    const set<int>& orig_osds,
+    unsigned max,
+    const OSDMap& osdmap,
+    const PGMap& pgmap,
+    int *out_touched_pgs,
+    set<int> *out_osds);
+
   utime_t started_at;
   std::atomic<bool> pgmap_ready;
   std::set<int32_t> reported_osds;
index 4116318b9953665747db559313a796ab517dbaa7..bc3350da448ebd25e1e90bed6d644d22503c0d5c 100644 (file)
@@ -157,7 +157,8 @@ COMMAND("osd purge " \
 COMMAND("osd safe-to-destroy name=ids,type=CephString,n=N",
        "check whether osd(s) can be safely destroyed without reducing data durability",
        "osd", "r")
-COMMAND("osd ok-to-stop name=ids,type=CephString,n=N",
+COMMAND("osd ok-to-stop name=ids,type=CephString,n=N "\
+       "name=max,type=CephInt,req=false",
        "check whether osd(s) can be safely stopped without reducing immediate"\
        " data availability", "osd", "r")