]> git.apps.os.sepia.ceph.com Git - ceph-ci.git/commitdiff
common: Mutex::Locker -> std::lock_guard<Mutex>
authorSage Weil <sage@redhat.com>
Fri, 14 Sep 2018 15:54:21 +0000 (10:54 -0500)
committerSage Weil <sage@redhat.com>
Thu, 20 Sep 2018 13:11:36 +0000 (08:11 -0500)
Signed-off-by: Sage Weil <sage@redhat.com>
21 files changed:
src/common/AsyncOpTracker.cc
src/common/AsyncReserver.h
src/common/Cond.h
src/common/ContextCompletion.cc
src/common/LogClient.cc
src/common/OutputDataSocket.cc
src/common/PluginRegistry.cc
src/common/Readahead.cc
src/common/RefCountedObj.h
src/common/Throttle.cc
src/common/Throttle.h
src/common/TracepointProvider.cc
src/common/TrackedOp.cc
src/common/TrackedOp.h
src/common/WorkQueue.cc
src/common/WorkQueue.h
src/common/ceph_context.cc
src/common/config_proxy.h
src/common/dns_resolve.cc
src/common/lru_map.h
src/common/perf_counters.cc

index 1223873b15463f4215e62f14f3db36cf14d920d5..6d78368f8e7234c48ac8e9e898eb108521939387 100644 (file)
@@ -9,19 +9,19 @@ AsyncOpTracker::AsyncOpTracker()
 }
 
 AsyncOpTracker::~AsyncOpTracker() {
-  Mutex::Locker locker(m_lock);
+  std::lock_guard<Mutex> locker(m_lock);
   ceph_assert(m_pending_ops == 0);
 }
 
 void AsyncOpTracker::start_op() {
-  Mutex::Locker locker(m_lock);
+  std::lock_guard<Mutex> locker(m_lock);
   ++m_pending_ops;
 }
 
 void AsyncOpTracker::finish_op() {
   Context *on_finish = nullptr;
   {
-    Mutex::Locker locker(m_lock);
+    std::lock_guard<Mutex> locker(m_lock);
     ceph_assert(m_pending_ops > 0);
     if (--m_pending_ops == 0) {
       std::swap(on_finish, m_on_finish);
@@ -35,7 +35,7 @@ void AsyncOpTracker::finish_op() {
 
 void AsyncOpTracker::wait_for_ops(Context *on_finish) {
   {
-    Mutex::Locker locker(m_lock);
+    std::lock_guard<Mutex> locker(m_lock);
     ceph_assert(m_on_finish == nullptr);
     if (m_pending_ops > 0) {
       m_on_finish = on_finish;
@@ -46,7 +46,7 @@ void AsyncOpTracker::wait_for_ops(Context *on_finish) {
 }
 
 bool AsyncOpTracker::empty() {
-  Mutex::Locker locker(m_lock);
+  std::lock_guard<Mutex> locker(m_lock);
   return (m_pending_ops == 0);
 }
 
index c88061e9647f3bc10b8cd4ef78e11af942251585..231e56ea0e44dbd04a98118c09ec21ae702fe74b 100644 (file)
@@ -132,19 +132,19 @@ public:
       lock("AsyncReserver::lock") {}
 
   void set_max(unsigned max) {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     max_allowed = max;
     do_queues();
   }
 
   void set_min_priority(unsigned min) {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     min_priority = min;
     do_queues();
   }
 
   void dump(Formatter *f) {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     _dump(f);
   }
   void _dump(Formatter *f) {
@@ -183,7 +183,7 @@ public:
     unsigned prio,            ///< [in] priority
     Context *on_preempt = 0   ///< [in] callback to be called if we are preempted (optional)
     ) {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     Reservation r(item, prio, on_reserved, on_preempt);
     rdout(10) << __func__ << " queue " << r << dendl;
     ceph_assert(!queue_pointers.count(item) &&
@@ -204,7 +204,7 @@ public:
   void cancel_reservation(
     T item                   ///< [in] key for reservation to cancel
     ) {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     auto i = queue_pointers.find(item);
     if (i != queue_pointers.end()) {
       unsigned prio = i->second.first;
@@ -240,7 +240,7 @@ public:
    * Return true if there are reservations in progress
    */
   bool has_reservation() {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     return !in_progress.empty();
   }
   static const unsigned MAX_PRIORITY = (unsigned)-1;
index c74fcfd37872e2f2c796d30f6f6a52134c95d787..0c7870051af697c5262f1e7a553899ba1cc4d7b4 100644 (file)
@@ -183,7 +183,7 @@ public:
 
   /// We overload complete in order to not delete the context
   void complete(int r) override {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     done = true;
     rval = r;
     cond.Signal();
@@ -191,7 +191,7 @@ public:
 
   /// Returns rval once the Context is called
   int wait() {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     while (!done)
       cond.Wait(lock);
     return rval;
@@ -201,7 +201,7 @@ public:
   int wait_for(double secs) {
     utime_t interval;
     interval.set_from_double(secs);
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     if (done) {
       return rval;
     }
index d5ff9f2204c435201974f8efcf444dad80c083cd..8059121992600d4d792351d5f0ea7c123fd29ad2 100644 (file)
@@ -14,7 +14,7 @@ ContextCompletion::ContextCompletion(Context *ctx, bool ignore_enoent)
 void ContextCompletion::finish_adding_requests() {
   bool complete;
   {
-    Mutex::Locker l(m_lock);
+    std::lock_guard<Mutex> l(m_lock);
     m_building = false;
     complete = (m_current_ops == 0);
   }
@@ -25,14 +25,14 @@ void ContextCompletion::finish_adding_requests() {
 }
 
 void ContextCompletion::start_op() {
-  Mutex::Locker l(m_lock);
+  std::lock_guard<Mutex> l(m_lock);
   ++m_current_ops;
 }
 
 void ContextCompletion::finish_op(int r) {
   bool complete;
   {
-    Mutex::Locker l(m_lock);
+    std::lock_guard<Mutex> l(m_lock);
     if (r < 0 && m_ret == 0 && (!m_ignore_enoent || r != -ENOENT)) {
       m_ret = r;
     }
index 15f188590ca7a33dda63142fbbac105ecf2287ba..7ae871484668c61d8278de861703c31832df7525 100644 (file)
@@ -212,7 +212,7 @@ void LogChannel::do_log(clog_type prio, std::stringstream& ss)
 
 void LogChannel::do_log(clog_type prio, const std::string& s)
 {
-  Mutex::Locker l(channel_lock);
+  std::lock_guard<Mutex> l(channel_lock);
   if (CLOG_ERROR == prio) {
     ldout(cct,-1) << "log " << prio << " : " << s << dendl;
   } else {
@@ -250,7 +250,7 @@ void LogChannel::do_log(clog_type prio, const std::string& s)
 
 Message *LogClient::get_mon_log_message(bool flush)
 {
-  Mutex::Locker l(log_lock);
+  std::lock_guard<Mutex> l(log_lock);
   if (flush) {
     if (log_queue.empty())
       return nullptr;
@@ -262,7 +262,7 @@ Message *LogClient::get_mon_log_message(bool flush)
 
 bool LogClient::are_pending()
 {
-  Mutex::Locker l(log_lock);
+  std::lock_guard<Mutex> l(log_lock);
   return last_log > last_log_sent;
 }
 
@@ -324,7 +324,7 @@ void LogClient::_send_to_mon()
 
 version_t LogClient::queue(LogEntry &entry)
 {
-  Mutex::Locker l(log_lock);
+  std::lock_guard<Mutex> l(log_lock);
   entry.seq = ++last_log;
   log_queue.push_back(entry);
 
@@ -337,7 +337,7 @@ version_t LogClient::queue(LogEntry &entry)
 
 uint64_t LogClient::get_next_seq()
 {
-  Mutex::Locker l(log_lock);
+  std::lock_guard<Mutex> l(log_lock);
   return ++last_log;
 }
 
@@ -358,7 +358,7 @@ const EntityName& LogClient::get_myname()
 
 bool LogClient::handle_log_ack(MLogAck *m)
 {
-  Mutex::Locker l(log_lock);
+  std::lock_guard<Mutex> l(log_lock);
   ldout(cct,10) << "handle_log_ack " << *m << dendl;
 
   version_t last = m->last;
index 9752ce318cc2ac6f98072a5e358816a04e8f9922..c417107796ac38e2b94f660ec2dc9ba95b09dc19 100644 (file)
@@ -389,7 +389,7 @@ void OutputDataSocket::shutdown()
 
 void OutputDataSocket::append_output(bufferlist& bl)
 {
-  Mutex::Locker l(m_lock);
+  std::lock_guard<Mutex> l(m_lock);
 
   if (data_size + bl.length() > data_max_backlog) {
     ldout(m_cct, 20) << "dropping data output, max backlog reached" << dendl;
index a96c98cbd5cbf040ed0c10c2e3f9cb1773619af8..fd937df0a6ef2f6b0ce4c7f2fa45747d01bb73aa 100644 (file)
@@ -101,7 +101,7 @@ int PluginRegistry::add(const std::string& type,
 Plugin *PluginRegistry::get_with_load(const std::string& type,
           const std::string& name)
 {
-  Mutex::Locker l(lock);
+  std::lock_guard<Mutex> l(lock);
   Plugin* ret = get(type, name);
   if (!ret) {
     int err = load(type, name);
@@ -218,7 +218,7 @@ int ErasureCodePluginRegistry::preload(const std::string &plugins,
                                       const std::string &directory,
                                       ostream &ss)
 {
-  Mutex::Locker l(lock);
+  std::lock_guard<Mutex> l(lock);
   list<string> plugins_list;
   get_str_list(plugins, plugins_list);
   for (list<string>::iterator i = plugins_list.begin();
index 1b06c730dcc39024261a9fdc517488a269d6131a..5927c037fe3562bc7cc303b3a6d1d071c023e4f7 100644 (file)
@@ -168,12 +168,12 @@ void Readahead::set_trigger_requests(int trigger_requests) {
 }
 
 uint64_t Readahead::get_min_readahead_size(void) {
-  Mutex::Locker lock(m_lock);
+  std::lock_guard<Mutex> lock(m_lock);
   return m_readahead_min_bytes;
 }
 
 uint64_t Readahead::get_max_readahead_size(void) {
-  Mutex::Locker lock(m_lock);
+  std::lock_guard<Mutex> lock(m_lock);
   return m_readahead_max_bytes;
 }
 
index 33f2824cfd633da0ee8526621e77a64b29078080..b1c0aea4f78982c6041803a3c23c5d9bf76b7620 100644 (file)
@@ -90,7 +90,7 @@ struct RefCountedCond : public RefCountedObject {
   RefCountedCond() : complete(false), lock("RefCountedCond"), rval(0) {}
 
   int wait() {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     while (!complete) {
       cond.Wait(lock);
     }
@@ -98,7 +98,7 @@ struct RefCountedCond : public RefCountedObject {
   }
 
   void done(int r) {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     rval = r;
     complete = true;
     cond.SignalAll();
index 4dac8fb7444f561844329d080f58930bec954aaf..9a4a10c1b1558a03ab5ab56ecc12d261f91be911 100644 (file)
@@ -700,7 +700,7 @@ TokenBucketThrottle::TokenBucketThrottle(
     m_avg(avg), m_timer(timer), m_timer_lock(timer_lock),
     m_lock("token_bucket_throttle_lock")
 {
-  Mutex::Locker timer_locker(*m_timer_lock);
+  std::lock_guard<Mutex> timer_locker(*m_timer_lock);
   schedule_timer();
 }
 
@@ -708,13 +708,13 @@ TokenBucketThrottle::~TokenBucketThrottle()
 {
   // cancel the timer events.
   {
-    Mutex::Locker timer_locker(*m_timer_lock);
+    std::lock_guard<Mutex> timer_locker(*m_timer_lock);
     cancel_timer();
   }
 
   list<Blocker> tmp_blockers;
   {
-    Mutex::Locker blockers_lock(m_lock);
+    std::lock_guard<Mutex> blockers_lock(m_lock);
     tmp_blockers.splice(tmp_blockers.begin(), m_blockers, m_blockers.begin(), m_blockers.end());
   }
 
@@ -724,7 +724,7 @@ TokenBucketThrottle::~TokenBucketThrottle()
 }
 
 void TokenBucketThrottle::set_max(uint64_t m) {
-  Mutex::Locker lock(m_lock);
+  std::lock_guard<Mutex> lock(m_lock);
   m_throttle.set_max(m);
 }
 
@@ -736,7 +736,7 @@ void TokenBucketThrottle::add_tokens() {
   list<Blocker> tmp_blockers;
   {
     // put m_avg tokens into bucket.
-    Mutex::Locker lock(m_lock);
+    std::lock_guard<Mutex> lock(m_lock);
     m_throttle.put(m_avg);
     // check the m_blockers from head to tail, if blocker can get
     // enough tokens, let it go.
index c28eb6efdf50670ab4bf967bd8c529a70b5e6180..6c24ff193148fab59d586c6af39670d8fbb5bf67 100644 (file)
@@ -389,7 +389,7 @@ public:
   
     bool wait = false;
     uint64_t got = 0;
-    Mutex::Locker lock(m_lock);
+    std::lock_guard<Mutex> lock(m_lock);
     if (!m_blockers.empty()) {
       // Keep the order of requests, add item after previous blocked requests.
       wait = true;
index 4c89038ced943af01522887ecbd76ae257d66add..8a9b1e6a9647ea3535d0623fc46f7d5ec634185e 100644 (file)
@@ -27,7 +27,7 @@ void TracepointProvider::handle_conf_change(
 }
 
 void TracepointProvider::verify_config(const ConfigProxy& conf) {
-  Mutex::Locker locker(m_lock);
+  std::lock_guard<Mutex> locker(m_lock);
   if (m_handle) {
     return;
   }
index 22f4eed25a80eefb7e4085b6dbc469d340918c85..722213c3ff6b458d57c235df459446885c2ef8f4 100644 (file)
@@ -63,7 +63,7 @@ void OpHistory::on_shutdown()
 {
   opsvc.break_thread();
   opsvc.join();
-  Mutex::Locker history_lock(ops_history_lock);
+  std::lock_guard<Mutex> history_lock(ops_history_lock);
   arrived.clear();
   duration.clear();
   slow_op.clear();
@@ -72,7 +72,7 @@ void OpHistory::on_shutdown()
 
 void OpHistory::_insert_delayed(const utime_t& now, TrackedOpRef op)
 {
-  Mutex::Locker history_lock(ops_history_lock);
+  std::lock_guard<Mutex> history_lock(ops_history_lock);
   if (shutdown)
     return;
   double opduration = op->get_duration();
@@ -110,7 +110,7 @@ void OpHistory::cleanup(utime_t now)
 
 void OpHistory::dump_ops(utime_t now, Formatter *f, set<string> filters, bool by_duration)
 {
-  Mutex::Locker history_lock(ops_history_lock);
+  std::lock_guard<Mutex> history_lock(ops_history_lock);
   cleanup(now);
   f->open_object_section("op_history");
   f->dump_int("size", history_size);
@@ -179,7 +179,7 @@ bool OpTracker::dump_historic_ops(Formatter *f, bool by_duration, set<string> fi
 
 void OpHistory::dump_slow_ops(utime_t now, Formatter *f, set<string> filters)
 {
-  Mutex::Locker history_lock(ops_history_lock);
+  std::lock_guard<Mutex> history_lock(ops_history_lock);
   cleanup(now);
   f->open_object_section("OpHistory slow ops");
   f->dump_int("num to keep", history_slow_op_size);
@@ -225,7 +225,7 @@ bool OpTracker::dump_ops_in_flight(Formatter *f, bool print_only_blocked, set<st
   for (uint32_t i = 0; i < num_optracker_shards; i++) {
     ShardedTrackingData* sdata = sharded_in_flight_list[i];
     ceph_assert(NULL != sdata); 
-    Mutex::Locker locker(sdata->ops_in_flight_lock_sharded);
+    std::lock_guard<Mutex> locker(sdata->ops_in_flight_lock_sharded);
     for (auto& op : sdata->ops_in_flight_sharded) {
       if (print_only_blocked && (now - op.get_initiated() <= complaint_time))
         break;
@@ -258,7 +258,7 @@ bool OpTracker::register_inflight_op(TrackedOp *i)
   ShardedTrackingData* sdata = sharded_in_flight_list[shard_index];
   ceph_assert(NULL != sdata);
   {
-    Mutex::Locker locker(sdata->ops_in_flight_lock_sharded);
+    std::lock_guard<Mutex> locker(sdata->ops_in_flight_lock_sharded);
     sdata->ops_in_flight_sharded.push_back(*i);
     i->seq = current_seq;
   }
@@ -274,7 +274,7 @@ void OpTracker::unregister_inflight_op(TrackedOp* const i)
   ShardedTrackingData* sdata = sharded_in_flight_list[shard_index];
   ceph_assert(NULL != sdata);
   {
-    Mutex::Locker locker(sdata->ops_in_flight_lock_sharded);
+    std::lock_guard<Mutex> locker(sdata->ops_in_flight_lock_sharded);
     auto p = sdata->ops_in_flight_sharded.iterator_to(*i);
     sdata->ops_in_flight_sharded.erase(p);
   }
@@ -299,7 +299,7 @@ bool OpTracker::visit_ops_in_flight(utime_t* oldest_secs,
   RWLock::RLocker l(lock);
   for (const auto sdata : sharded_in_flight_list) {
     ceph_assert(sdata);
-    Mutex::Locker locker(sdata->ops_in_flight_lock_sharded);
+    std::lock_guard<Mutex> locker(sdata->ops_in_flight_lock_sharded);
     if (!sdata->ops_in_flight_sharded.empty()) {
       utime_t oldest_op_tmp =
        sdata->ops_in_flight_sharded.front().get_initiated();
@@ -322,7 +322,7 @@ bool OpTracker::visit_ops_in_flight(utime_t* oldest_secs,
   for (uint32_t iter = 0; iter < num_optracker_shards; iter++) {
     ShardedTrackingData* sdata = sharded_in_flight_list[iter];
     ceph_assert(NULL != sdata);
-    Mutex::Locker locker(sdata->ops_in_flight_lock_sharded);
+    std::lock_guard<Mutex> locker(sdata->ops_in_flight_lock_sharded);
     for (auto& op : sdata->ops_in_flight_sharded) {
       if (!visit(op))
        break;
@@ -420,7 +420,7 @@ void OpTracker::get_age_ms_histogram(pow2_hist_t *h)
   for (uint32_t iter = 0; iter < num_optracker_shards; iter++) {
     ShardedTrackingData* sdata = sharded_in_flight_list[iter];
     ceph_assert(NULL != sdata);
-    Mutex::Locker locker(sdata->ops_in_flight_lock_sharded);
+    std::lock_guard<Mutex> locker(sdata->ops_in_flight_lock_sharded);
 
     for (auto& i : sdata->ops_in_flight_sharded) {
       utime_t age = now - i.get_initiated();
@@ -440,7 +440,7 @@ void TrackedOp::mark_event_string(const string &event, utime_t stamp)
     return;
 
   {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     events.emplace_back(stamp, event);
     current = events.back().c_str();
   }
@@ -458,7 +458,7 @@ void TrackedOp::mark_event(const char *event, utime_t stamp)
     return;
 
   {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     events.emplace_back(stamp, event);
     current = event;
   }
index 054e621fcf3235232044a02b428b2c455f17af05..f4403eec713740676930ee6a84e2a81bbb20f3a7 100644 (file)
@@ -342,7 +342,7 @@ public:
 
   const char *get_desc() const {
     if (!desc || want_new_desc.load()) {
-      Mutex::Locker l(lock);
+      std::lock_guard<Mutex> l(lock);
       _gen_desc();
     }
     return desc;
@@ -365,7 +365,7 @@ public:
   }
 
   double get_duration() const {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     if (!events.empty() && events.rbegin()->compare("done") == 0)
       return events.rbegin()->stamp - get_initiated();
     else
@@ -382,7 +382,7 @@ public:
   }
 
   virtual const char *state_string() const {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     return events.rbegin()->c_str();
   }
 
index 98453acf73e7e455810aa95ee6d7b87304d296bd..6067bf53cb28c81be3f38a78e7c52bc91875a9e1 100644 (file)
@@ -263,7 +263,7 @@ void ThreadPool::drain(WorkQueue_* wq)
 
 void ThreadPool::set_ioprio(int cls, int priority)
 {
-  Mutex::Locker l(_lock);
+  std::lock_guard<Mutex> l(_lock);
   ioprio_class = cls;
   ioprio_priority = priority;
   for (set<WorkThread*>::iterator p = _threads.begin();
index a678f7150f4183e5bfdd4e8fdc3e2f4b3108c252..5486e67b509e292b87e0850ed8407b06c04409bc 100644 (file)
@@ -192,7 +192,7 @@ public:
 
     void *_void_dequeue() override {
       {
-       Mutex::Locker l(_lock);
+       std::lock_guard<Mutex> l(_lock);
        if (_empty())
          return 0;
        U u = _dequeue();
@@ -235,12 +235,12 @@ public:
       pool->remove_work_queue(this);
     }
     void queue(T item) {
-      Mutex::Locker l(pool->_lock);
+      std::lock_guard<Mutex> l(pool->_lock);
       _enqueue(item);
       pool->_cond.SignalOne();
     }
     void queue_front(T item) {
-      Mutex::Locker l(pool->_lock);
+      std::lock_guard<Mutex> l(pool->_lock);
       _enqueue_front(item);
       pool->_cond.SignalOne();
     }
@@ -354,7 +354,7 @@ public:
       {
         // if this queue is empty and not processing, don't wait for other
         // queues to finish processing
-        Mutex::Locker l(m_pool->_lock);
+        std::lock_guard<Mutex> l(m_pool->_lock);
         if (m_processing == 0 && m_items.empty()) {
           return;
         }
@@ -362,12 +362,12 @@ public:
       m_pool->drain(this);
     }
     void queue(T *item) {
-      Mutex::Locker l(m_pool->_lock);
+      std::lock_guard<Mutex> l(m_pool->_lock);
       m_items.push_back(item);
       m_pool->_cond.SignalOne();
     }
     bool empty() {
-      Mutex::Locker l(m_pool->_lock);
+      std::lock_guard<Mutex> l(m_pool->_lock);
       return _empty();
     }
   protected:
@@ -407,7 +407,7 @@ public:
 
     virtual void process(T *item) = 0;
     void process_finish() {
-      Mutex::Locker locker(m_pool->_lock);
+      std::lock_guard<Mutex> locker(m_pool->_lock);
       _void_process_finish(nullptr);
     }
 
@@ -419,12 +419,12 @@ public:
       return m_items.front();
     }
     void requeue(T *item) {
-      Mutex::Locker pool_locker(m_pool->_lock);
+      std::lock_guard<Mutex> pool_locker(m_pool->_lock);
       _void_process_finish(nullptr);
       m_items.push_front(item);
     }
     void signal() {
-      Mutex::Locker pool_locker(m_pool->_lock);
+      std::lock_guard<Mutex> pool_locker(m_pool->_lock);
       m_pool->_cond.SignalOne();
     }
     Mutex &get_pool_lock() {
@@ -465,18 +465,18 @@ public:
 
   /// return number of threads currently running
   int get_num_threads() {
-    Mutex::Locker l(_lock);
+    std::lock_guard<Mutex> l(_lock);
     return _num_threads;
   }
   
   /// assign a work queue to this thread pool
   void add_work_queue(WorkQueue_* wq) {
-    Mutex::Locker l(_lock);
+    std::lock_guard<Mutex> l(_lock);
     work_queues.push_back(wq);
   }
   /// remove a work queue from this thread pool
   void remove_work_queue(WorkQueue_* wq) {
-    Mutex::Locker l(_lock);
+    std::lock_guard<Mutex> l(_lock);
     unsigned i = 0;
     while (work_queues[i] != wq)
       i++;
@@ -506,7 +506,7 @@ public:
   }
   /// wake up a waiter (without lock held)
   void wake() {
-    Mutex::Locker l(_lock);
+    std::lock_guard<Mutex> l(_lock);
     _cond.Signal();
   }
   void _wait() {
@@ -585,7 +585,7 @@ public:
 
   void queue(Context *ctx, int result = 0) {
     if (result != 0) {
-      Mutex::Locker locker(m_lock);
+      std::lock_guard<Mutex> locker(m_lock);
       m_context_results[ctx] = result;
     }
     ThreadPool::PointerWQ<Context>::queue(ctx);
@@ -594,14 +594,14 @@ protected:
   void _clear() override {
     ThreadPool::PointerWQ<Context>::_clear();
 
-    Mutex::Locker locker(m_lock);
+    std::lock_guard<Mutex> locker(m_lock);
     m_context_results.clear();
   }
 
   void process(Context *ctx) override {
     int result = 0;
     {
-      Mutex::Locker locker(m_lock);
+      std::lock_guard<Mutex> locker(m_lock);
       ceph::unordered_map<Context *, int>::iterator it =
         m_context_results.find(ctx);
       if (it != m_context_results.end()) {
index 41d1f47bf11ae6941ced6466231a43503b324241..81245039fcf0f62299b021d60e33c20817a947fc 100644 (file)
@@ -176,7 +176,7 @@ public:
   void *entry() override
   {
     while (1) {
-      Mutex::Locker l(_lock);
+      std::lock_guard<Mutex> l(_lock);
 
       if (_cct->_conf->heartbeat_interval) {
         utime_t interval(_cct->_conf->heartbeat_interval, 0);
@@ -202,14 +202,14 @@ public:
 
   void reopen_logs()
   {
-    Mutex::Locker l(_lock);
+    std::lock_guard<Mutex> l(_lock);
     _reopen_logs = true;
     _cond.Signal();
   }
 
   void exit_thread()
   {
-    Mutex::Locker l(_lock);
+    std::lock_guard<Mutex> l(_lock);
     _exit_thread = true;
     _cond.Signal();
   }
index e9b6b39b6263ab39c3ba54b98e177c074e0a3837..9c943c4ec446aaee33f72ef926554b263faca92d 100644 (file)
@@ -37,21 +37,21 @@ public:
     return &values;
   }
   int get_val(const std::string& key, char** buf, int len) const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.get_val(values, key, buf, len);
   }
   int get_val(const std::string &key, std::string *val) const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.get_val(values, key, val);
   }
   template<typename T>
   const T get_val(const std::string& key) const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.template get_val<T>(values, key);
   }
   template<typename T, typename Callback, typename...Args>
   auto with_val(const string& key, Callback&& cb, Args&&... args) const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.template with_val<T>(values, key,
                                       std::forward<Callback>(cb),
                                       std::forward<Args>(args)...);
@@ -71,21 +71,21 @@ public:
     return config.find_option(name);
   }
   void diff(Formatter *f, const std::string& name=string{}) const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.diff(values, f, name);
   }
   void get_my_sections(std::vector <std::string> &sections) const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.get_my_sections(values, sections);
   }
   int get_all_sections(std::vector<std::string>& sections) const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.get_all_sections(sections);
   }
   int get_val_from_conf_file(const std::vector<std::string>& sections,
                             const std::string& key, std::string& out,
                             bool emeta) const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.get_val_from_conf_file(values,
                                         sections, key, out, emeta);
   }
@@ -94,27 +94,27 @@ public:
   }
   void early_expand_meta(std::string &val,
                         std::ostream *oss) const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.early_expand_meta(values, val, oss);
   }
   // for those want to reexpand special meta, e.g, $pid
   void finalize_reexpand_meta() {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     if (config.finalize_reexpand_meta(values, obs_mgr)) {
       obs_mgr.apply_changes(values.changed, *this, nullptr);
       values.changed.clear();
     }
   }
   void add_observer(md_config_obs_t* obs) {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     obs_mgr.add_observer(obs);
   }
   void remove_observer(md_config_obs_t* obs) {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     obs_mgr.remove_observer(obs);
   }
   void call_all_observers() {
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
     // Have the scope of the lock extend to the scope of
     // handle_conf_change since that function expects to be called with
     // the lock held. (And the comment in config.h says that is the
@@ -132,24 +132,24 @@ public:
     config._clear_safe_to_start_threads();
   }
   void show_config(std::ostream& out) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.show_config(values, out);
   }
   void show_config(Formatter *f) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.show_config(values, f);
   }
   void config_options(Formatter *f) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.config_options(f);
   }
   int rm_val(const std::string& key) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.rm_val(values, key);
   }
   // Expand all metavariables. Make any pending observer callbacks.
   void apply_changes(std::ostream* oss) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     // apply changes until the cluster name is assigned
     if (!values.cluster.empty()) {
       // meta expands could have modified anything.  Copy it all out again.
@@ -159,44 +159,44 @@ public:
   }
   int set_val(const std::string& key, const std::string& s,
               std::stringstream* err_ss=nullptr) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.set_val(values, obs_mgr, key, s);
   }
   void set_val_default(const std::string& key, const std::string& val) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.set_val_default(values, obs_mgr, key, val);
   }
   void set_val_or_die(const std::string& key, const std::string& val) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.set_val_or_die(values, obs_mgr, key, val);
   }
   int set_mon_vals(CephContext *cct,
                   const map<std::string,std::string>& kv,
                   md_config_t::config_callback config_cb) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     int ret = config.set_mon_vals(cct, values, obs_mgr, kv, config_cb);
     obs_mgr.apply_changes(values.changed, *this, nullptr);
     values.changed.clear();
     return ret;
   }
   int injectargs(const std::string &s, std::ostream *oss) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     int ret = config.injectargs(values, obs_mgr, s, oss);
     obs_mgr.apply_changes(values.changed, *this, oss);
     values.changed.clear();
     return ret;
   }
   void parse_env(const char *env_var = "CEPH_ARGS") {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.parse_env(values, obs_mgr, env_var);
   }
   int parse_argv(std::vector<const char*>& args, int level=CONF_CMDLINE) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.parse_argv(values, obs_mgr, args, level);
   }
   int parse_config_files(const char *conf_files,
                         std::ostream *warnings, int flags) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     return config.parse_config_files(values, obs_mgr,
                                     conf_files, warnings, flags);
   }
@@ -207,17 +207,17 @@ public:
     return config.complain_about_parse_errors(cct);
   }
   void do_argv_commands() const {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.do_argv_commands(values);
   }
   void get_config_bl(uint64_t have_version,
                     bufferlist *bl,
                     uint64_t *got_version) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.get_config_bl(values, have_version, bl, got_version);
   }
   void get_defaults_bl(bufferlist *bl) {
-    Mutex::Locker l{lock};
+    std::lock_guard<Mutex> l{lock};
     config.get_defaults_bl(values, bl);
   }
 };
index f73529ed3bccba2aadbbf32b18b34cdceb90c074..05521d73a559b23c0615b568b475ccc5019362a9 100644 (file)
@@ -86,7 +86,7 @@ int DNSResolver::get_state(CephContext *cct, res_state *ps)
 
 void DNSResolver::put_state(res_state s)
 {
-  Mutex::Locker l(lock);
+  std::lock_guard<Mutex> l(lock);
   states.push_back(s);
 }
 #endif
@@ -122,7 +122,7 @@ int DNSResolver::resolve_cname(CephContext *cct, const string& hostname,
 #else
   {
 # ifndef HAVE_THREAD_SAFE_RES_QUERY
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
 # endif
     len = resolv_h->res_query(origname, ns_c_in, ns_t_cname, buf, sizeof(buf));
   }
@@ -219,7 +219,7 @@ int DNSResolver::resolve_ip_addr(CephContext *cct, res_state *res, const string&
 #else
   {
 # ifndef HAVE_THREAD_SAFE_RES_QUERY
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
 # endif
     len = resolv_h->res_query(hostname.c_str(), ns_c_in, type, nsbuf, sizeof(nsbuf));
   }
@@ -295,7 +295,7 @@ int DNSResolver::resolve_srv_hosts(CephContext *cct, const string& service_name,
 #else
   {
 # ifndef HAVE_THREAD_SAFE_RES_QUERY
-    Mutex::Locker l(lock);
+    std::lock_guard<Mutex> l(lock);
 # endif
     len = resolv_h->res_search(query_str.c_str(), ns_c_in, ns_t_srv, nsbuf,
         sizeof(nsbuf));
index 7dac49b4587d1ebb15167656d59fbf6e1bc5f1cf..3b0bb543f06dc72a3c9692e024d97ceb834a6e1f 100644 (file)
@@ -74,14 +74,14 @@ bool lru_map<K, V>::_find(const K& key, V *value, UpdateContext *ctx)
 template <class K, class V>
 bool lru_map<K, V>::find(const K& key, V& value)
 {
-  Mutex::Locker l(lock);
+  std::lock_guard<Mutex> l(lock);
   return _find(key, &value, NULL);
 }
 
 template <class K, class V>
 bool lru_map<K, V>::find_and_update(const K& key, V *value, UpdateContext *ctx)
 {
-  Mutex::Locker l(lock);
+  std::lock_guard<Mutex> l(lock);
   return _find(key, value, ctx);
 }
 
@@ -112,14 +112,14 @@ void lru_map<K, V>::_add(const K& key, V& value)
 template <class K, class V>
 void lru_map<K, V>::add(const K& key, V& value)
 {
-  Mutex::Locker l(lock);
+  std::lock_guard<Mutex> l(lock);
   _add(key, value);
 }
 
 template <class K, class V>
 void lru_map<K, V>::erase(const K& key)
 {
-  Mutex::Locker l(lock);
+  std::lock_guard<Mutex> l(lock);
   typename std::map<K, entry>::iterator iter = entries.find(key);
   if (iter == entries.end())
     return;
index 5fb9fa098cd1adf1a346dc89e91afd577dddfc21..dc7050fe4b93ec2f34a7d97a8fdaa2c9a593392e 100644 (file)
@@ -32,7 +32,7 @@ PerfCountersCollection::~PerfCountersCollection()
 
 void PerfCountersCollection::add(class PerfCounters *l)
 {
-  Mutex::Locker lck(m_lock);
+  std::lock_guard<Mutex> lck(m_lock);
 
   // make sure the name is unique
   perf_counters_set_t::iterator i;
@@ -59,7 +59,7 @@ void PerfCountersCollection::add(class PerfCounters *l)
 
 void PerfCountersCollection::remove(class PerfCounters *l)
 {
-  Mutex::Locker lck(m_lock);
+  std::lock_guard<Mutex> lck(m_lock);
 
   for (unsigned int i = 0; i < l->m_data.size(); ++i) {
     PerfCounters::perf_counter_data_any_d &data = l->m_data[i];
@@ -78,7 +78,7 @@ void PerfCountersCollection::remove(class PerfCounters *l)
 
 void PerfCountersCollection::clear()
 {
-  Mutex::Locker lck(m_lock);
+  std::lock_guard<Mutex> lck(m_lock);
   perf_counters_set_t::iterator i = m_loggers.begin();
   perf_counters_set_t::iterator i_end = m_loggers.end();
   for (; i != i_end; ) {
@@ -91,7 +91,7 @@ void PerfCountersCollection::clear()
 bool PerfCountersCollection::reset(const std::string &name)
 {
   bool result = false;
-  Mutex::Locker lck(m_lock);
+  std::lock_guard<Mutex> lck(m_lock);
   perf_counters_set_t::iterator i = m_loggers.begin();
   perf_counters_set_t::iterator i_end = m_loggers.end();
 
@@ -135,7 +135,7 @@ void PerfCountersCollection::dump_formatted_generic(
     const std::string &logger,
     const std::string &counter)
 {
-  Mutex::Locker lck(m_lock);
+  std::lock_guard<Mutex> lck(m_lock);
   f->open_object_section("perfcounter_collection");
   
   for (perf_counters_set_t::iterator l = m_loggers.begin();
@@ -151,7 +151,7 @@ void PerfCountersCollection::dump_formatted_generic(
 void PerfCountersCollection::with_counters(std::function<void(
       const PerfCountersCollection::CounterMap &)> fn) const
 {
-  Mutex::Locker lck(m_lock);
+  std::lock_guard<Mutex> lck(m_lock);
 
   fn(by_path);
 }