]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
osd: int pool -> int64_t pool
authorSage Weil <sage@newdream.net>
Thu, 25 Aug 2011 20:51:29 +0000 (13:51 -0700)
committerSage Weil <sage.weil@dreamhost.com>
Sat, 27 Aug 2011 17:20:51 +0000 (10:20 -0700)
Internal interfaces.

Signed-off-by: Sage Weil <sage@newdream.net>
24 files changed:
src/cephfs.cc
src/client/Client.cc
src/client/Client.h
src/crush/CrushWrapper.h
src/crush/builder.h
src/crush/mapper.h
src/include/rados/librados.h
src/include/rados/librados.hpp
src/librados.cc
src/mon/MDSMonitor.cc
src/mon/OSDMonitor.cc
src/mon/PGMonitor.cc
src/osd/OSD.cc
src/osd/OSDMap.cc
src/osd/OSDMap.h
src/osdc/Journaler.h
src/osdc/ObjectCacher.cc
src/osdc/ObjectCacher.h
src/osdc/Objecter.cc
src/osdc/Objecter.h
src/osdmaptool.cc
src/rgw/rgw_user.cc
src/rgw/rgw_user.h
src/test/rados-api/pool.cc

index 70f433fef36ec545376bfc22a0476e5e55230869..8ec0737426ab27907a3de3fae800a421e61dfb5c 100644 (file)
@@ -36,7 +36,7 @@ using namespace std;
 void usage();
 int init_options(int argc, char **argv, int *fd, char **path, int *cmd,
                  int *stripe_unit, int *stripe_count,
-                 int *object_size, int *pool, int* osd, int *file_offset, bool *dir);
+                 int *object_size, int64_t *pool, int* osd, int *file_offset, bool *dir);
 int get_layout(int fd, struct ceph_ioctl_layout *layout);
 int get_location(int fd, struct ceph_ioctl_dataloc *location);
 
@@ -49,7 +49,7 @@ int main (int argc, char **argv) {
   int stripe_unit = 0;
   int stripe_count = 0;
   int object_size = 0;
-  int pool = 0;
+  int64_t pool = 0;
   int osd = -1;
   int file_offset = 0;
   bool dir = false;
@@ -143,7 +143,7 @@ void usage() {
 
 int init_options(int argc, char **argv, int *fd, char **path, int *cmd,
                  int *stripe_unit, int *stripe_count,
-                 int *object_size, int *pool, int* osd, int *file_offset,
+                 int *object_size, int64_t *pool, int* osd, int *file_offset,
                  bool *dir) {
   // look through the options, make sure they're valid,
   // and set the variables from them
index 096ea64744d04b2258ca3c98ae4c4e376f0112ba..d32f662b1603d27f26e3d84a1d5b368ebba692e7 100644 (file)
@@ -6832,7 +6832,7 @@ int Client::describe_layout(int fd, ceph_file_layout *lp)
 
 // expose osdmap
 
-int Client::get_pool_replication(int pool)
+int Client::get_pool_replication(int64_t pool)
 {
   Mutex::Locker lock(client_lock);
   if (!osdmap->have_pg_pool(pool))
index e269605780ad40e94197386a575436284f1650ab..8aa77fbac193735e3f0df894a8e94fbe533f2f09 100644 (file)
@@ -602,7 +602,7 @@ public:
 
   // expose osdmap 
   int get_local_osd();
-  int get_pool_replication(int pool);
+  int get_pool_replication(int64_t pool);
 
   void set_default_file_stripe_unit(int stripe_unit);
   void set_default_file_stripe_count(int count);
index 1b74a8e8b85ce85a7ba5d8db6d4eed924609af62..dd2abc7c569b94617ff92effa66cfdc99ff2e356 100644 (file)
@@ -243,9 +243,9 @@ public:
   }
 
   /* modifiers */
-  int add_rule(int len, int pool, int type, int minsize, int maxsize, int ruleno) {
+  int add_rule(int len, int ruleset, int type, int minsize, int maxsize, int ruleno) {
     if (!crush) return -ENOENT;
-    crush_rule *n = crush_make_rule(len, pool, type, minsize, maxsize);
+    crush_rule *n = crush_make_rule(len, ruleset, type, minsize, maxsize);
     ruleno = crush_add_rule(crush, n, ruleno);
     return ruleno;
   }
@@ -378,9 +378,9 @@ public:
     crush->max_devices = m;
   }
 
-  int find_rule(int pool, int type, int size) {
+  int find_rule(int ruleset, int type, int size) {
     if (!crush) return -1;
-    return crush_find_rule(crush, pool, type, size);
+    return crush_find_rule(crush, ruleset, type, size);
   }
   void do_rule(int rule, int x, vector<int>& out, int maxout, int forcefeed,
               vector<__u32>& weight) {
index 16533a6445991f77a6c3242ee39568608a6319e9..7d30c8823433371d96af082c54c8d17a2165c73d 100644 (file)
@@ -7,7 +7,7 @@ extern struct crush_map *crush_create();
 extern void crush_finalize(struct crush_map *map);
 
 /* rules */
-extern struct crush_rule *crush_make_rule(int len, int pool, int type, int minsize, int maxsize);
+extern struct crush_rule *crush_make_rule(int len, int ruleset, int type, int minsize, int maxsize);
 extern void crush_rule_set_step(struct crush_rule *rule, int pos, int op, int arg1, int arg2);
 extern int crush_add_rule(struct crush_map *map, struct crush_rule *rule, int ruleno);
 
index c46b99c18bb0ca772f87c567f4ab46cec54932db..a0e2a6757b221f86548970b42314f8928d18dd79 100644 (file)
@@ -10,7 +10,7 @@
 
 #include "crush.h"
 
-extern int crush_find_rule(struct crush_map *map, int pool, int type, int size);
+extern int crush_find_rule(struct crush_map *map, int ruleset, int type, int size);
 extern int crush_do_rule(struct crush_map *map,
                         int ruleno,
                         int x, int *result, int result_max,
index fcf312e8b365b11d9faa52b5a0945112393022ed..c86b3953addefc8a85a95b5cf7452434dd94ea99 100644 (file)
@@ -123,7 +123,7 @@ void rados_ioctx_destroy(rados_ioctx_t io);
 
 int rados_ioctx_pool_stat(rados_ioctx_t io, struct rados_pool_stat_t *stats);
 
-int rados_pool_lookup(rados_t cluster, const char *pool_name);
+int64_t rados_pool_lookup(rados_t cluster, const char *pool_name);
 int rados_pool_create(rados_t cluster, const char *pool_name);
 int rados_pool_create_with_auid(rados_t cluster, const char *pool_name, uint64_t auid);
 int rados_pool_create_with_crush_rule(rados_t cluster, const char *pool_name,
index 5c3ac67c094bc1d52d7a476417308c2b2aaf00f8..bd41f160364969de14f02cd138a974b181f8629e 100644 (file)
@@ -356,7 +356,7 @@ namespace librados
     int pool_create_async(const char *name, uint64_t auid, __u8 crush_rule, PoolAsyncCompletion *c);
     int pool_delete(const char *name);
     int pool_delete_async(const char *name, PoolAsyncCompletion *c);
-    int pool_lookup(const char *name);
+    int64_t pool_lookup(const char *name);
 
 
     int ioctx_create(const char *name, IoCtx &pioctx);
index 679eaa52843f909a5156d12f8fa2cbdf6f070b1c..d9471f5880dd486a6faf9534a3131ca1eba78635 100644 (file)
@@ -79,7 +79,7 @@ static atomic_t rados_instance;
 struct librados::IoCtxImpl {
   atomic_t ref_cnt;
   RadosClient *client;
-  int poolid;
+  int64_t poolid;
   string pool_name;
   snapid_t snap_seq;
   ::SnapContext snapc;
@@ -551,14 +551,14 @@ public:
   int connect();
   void shutdown();
 
-  int lookup_pool(const char *name) {
-    int ret = osdmap.lookup_pg_pool_name(name);
+  int64_t lookup_pool(const char *name) {
+    int64_t ret = osdmap.lookup_pg_pool_name(name);
     if (ret < 0)
       return -ENOENT;
     return ret;
   }
 
-  const char *get_pool_name(int poolid_)
+  const char *get_pool_name(int64_t poolid_)
   {
     return osdmap.get_pool_name(poolid_);
   }
@@ -1077,7 +1077,7 @@ bool librados::RadosClient::_dispatch(Message *m)
 int librados::RadosClient::pool_list(std::list<std::string>& v)
 {
   Mutex::Locker l(lock);
-  for (map<int,pg_pool_t>::const_iterator p = osdmap.get_pools().begin();
+  for (map<int64_t,pg_pool_t>::const_iterator p = osdmap.get_pools().begin();
        p != osdmap.get_pools().end();
        p++)
     v.push_back(osdmap.get_pool_name(p->first));
@@ -1125,7 +1125,7 @@ int librados::RadosClient::get_fs_stats(ceph_statfs& stats)
 int librados::RadosClient::snap_create(rados_ioctx_t io, const char *snapName)
 {
   int reply;
-  int poolID = ((IoCtxImpl *)io)->poolid;
+  int64_t poolID = ((IoCtxImpl *)io)->poolid;
   string sName(snapName);
 
   Mutex mylock ("RadosClient::snap_create::mylock");
@@ -1146,7 +1146,7 @@ int librados::RadosClient::snap_create(rados_ioctx_t io, const char *snapName)
 int librados::RadosClient::selfmanaged_snap_create(rados_ioctx_t io, uint64_t *psnapid)
 {
   int reply;
-  int poolID = ((IoCtxImpl *)io)->poolid;
+  int64_t poolID = ((IoCtxImpl *)io)->poolid;
 
   Mutex mylock("RadosClient::selfmanaged_snap_create::mylock");
   Cond cond;
@@ -1168,7 +1168,7 @@ int librados::RadosClient::selfmanaged_snap_create(rados_ioctx_t io, uint64_t *p
 int librados::RadosClient::snap_remove(rados_ioctx_t io, const char *snapName)
 {
   int reply;
-  int poolID = ((IoCtxImpl *)io)->poolid;
+  int64_t poolID = ((IoCtxImpl *)io)->poolid;
   string sName(snapName);
 
   Mutex mylock ("RadosClient::snap_remove::mylock");
@@ -1217,7 +1217,7 @@ int librados::RadosClient::rollback(rados_ioctx_t io_, const object_t& oid,
   string sName(snapName);
 
   snapid_t snap;
-  const map<int, pg_pool_t>& pools = objecter->osdmap->get_pools();
+  const map<int64_t, pg_pool_t>& pools = objecter->osdmap->get_pools();
   const pg_pool_t& pg_pool = pools.find(io->poolid)->second;
   map<snapid_t, pool_snap_info_t>::const_iterator p;
   for (p = pg_pool.snaps.begin();
@@ -1236,7 +1236,7 @@ int librados::RadosClient::rollback(rados_ioctx_t io_, const object_t& oid,
 int librados::RadosClient::selfmanaged_snap_remove(rados_ioctx_t io, uint64_t snapid)
 {
   int reply;
-  int poolID = ((IoCtxImpl *)io)->poolid;
+  int64_t poolID = ((IoCtxImpl *)io)->poolid;
 
   Mutex mylock("RadosClient::selfmanaged_snap_remove::mylock");
   Cond cond;
@@ -1327,7 +1327,7 @@ int librados::RadosClient::pool_change_auid(rados_ioctx_t io, unsigned long long
 {
   int reply;
 
-  int poolID = ((IoCtxImpl *)io)->poolid;
+  int64_t poolID = ((IoCtxImpl *)io)->poolid;
 
   Mutex mylock("RadosClient::pool_change_auid::mylock");
   Cond cond;
@@ -1347,7 +1347,7 @@ int librados::RadosClient::pool_change_auid(rados_ioctx_t io, unsigned long long
 int librados::RadosClient::pool_change_auid_async(rados_ioctx_t io, unsigned long long auid,
                                                  PoolAsyncCompletionImpl *c)
 {
-  int poolID = ((IoCtxImpl *)io)->poolid;
+  int64_t poolID = ((IoCtxImpl *)io)->poolid;
 
   Mutex::Locker l(lock);
   objecter->change_pool_auid(poolID,
@@ -1359,7 +1359,7 @@ int librados::RadosClient::pool_change_auid_async(rados_ioctx_t io, unsigned lon
 int librados::RadosClient::pool_get_auid(rados_ioctx_t io, unsigned long long *auid)
 {
   Mutex::Locker l(lock);
-  int pool_id = ((IoCtxImpl *)io)->poolid;
+  int64_t pool_id = ((IoCtxImpl *)io)->poolid;
   const pg_pool_t *pg = osdmap.get_pg_pool(pool_id);
   if (!pg)
     return -ENOENT;
@@ -3220,7 +3220,7 @@ int librados::Rados::pool_list(std::list<std::string>& v)
   return client->pool_list(v);
 }
 
-int librados::Rados::pool_lookup(const char *name)
+int64_t librados::Rados::pool_lookup(const char *name)
 {
   return client->lookup_pool(name);
 }
@@ -3453,7 +3453,7 @@ extern "C" int rados_conf_get(rados_t cluster, const char *option, char *buf, si
   return conf->get_val(option, &tmp, len);
 }
 
-extern "C" int rados_pool_lookup(rados_t cluster, const char *name)
+extern "C" int64_t rados_pool_lookup(rados_t cluster, const char *name)
 {
   librados::RadosClient *radosp = (librados::RadosClient *)cluster;
   return radosp->lookup_pool(name);
@@ -3490,7 +3490,7 @@ extern "C" int rados_pool_list(rados_t cluster, char *buf, size_t len)
 extern "C" int rados_ioctx_create(rados_t cluster, const char *name, rados_ioctx_t *io)
 {
   librados::RadosClient *radosp = (librados::RadosClient *)cluster;
-  int poolid = radosp->lookup_pool(name);
+  int64_t poolid = radosp->lookup_pool(name);
   if (poolid >= 0) {
     librados::IoCtxImpl *ctx = new librados::IoCtxImpl(radosp, poolid, name, CEPH_NOSNAP);
     if (!ctx)
@@ -3499,7 +3499,7 @@ extern "C" int rados_ioctx_create(rados_t cluster, const char *name, rados_ioctx
     ctx->get();
     return 0;
   }
-  return poolid;
+  return 0;
 }
 
 extern "C" void rados_ioctx_destroy(rados_ioctx_t io)
index 35949384776a5cec221798e8828417c0ef25307a..09e07b96f24bc131a8d38001d4590896f3d576ef 100644 (file)
@@ -824,12 +824,12 @@ bool MDSMonitor::prepare_command(MMonCommand *m)
        }
       }
     } else if (m->cmd[1] == "add_data_pool" && m->cmd.size() == 3) {
-      int poolid = atoi(m->cmd[2].c_str());
+      int64_t poolid = atoi(m->cmd[2].c_str());
       pending_mdsmap.add_data_pg_pool(poolid);
       ss << "added data pool " << poolid << " to mdsmap";
       r = 0;
     } else if (m->cmd[1] == "remove_data_pool" && m->cmd.size() == 3) {
-      int poolid = atoi(m->cmd[2].c_str());
+      int64_t poolid = atoi(m->cmd[2].c_str());
       r = pending_mdsmap.remove_data_pg_pool(poolid);
       if (r == 0)
        ss << "removed data pool " << poolid << " from mdsmap";
index 2061aac04a6d8d97cf0ee67305710216257f88bc..6f3073b98a19f52274cbd127557eb58ab7e59922 100644 (file)
@@ -1052,7 +1052,7 @@ void OSDMonitor::tick()
     // For all PGs that have OSD 0 as the primary,
     // switch them to use the first replca
     ps_t numps = osdmap.get_pg_num();
-    for (int pool=0; pool<1; pool++)
+    for (int64_t pool=0; pool<1; pool++)
       for (ps_t ps = 0; ps < numps; ++ps) {
        pg_t pgid = pg_t(pg_t::TYPE_REP, ps, pool, -1);
        vector<int> osds;
@@ -1307,8 +1307,8 @@ bool OSDMonitor::preprocess_command(MMonCommand *m)
       if (m->cmd.size() > 2) {
        uid_pools = strtol(m->cmd[2].c_str(), NULL, 10);
       }
-      for (map<int, pg_pool_t>::iterator p = osdmap.pools.begin();
-          p !=osdmap.pools.end();
+      for (map<int64_t, pg_pool_t>::iterator p = osdmap.pools.begin();
+          p != osdmap.pools.end();
           ++p) {
        if (!uid_pools || p->second.v.auid == uid_pools) {
          ss << p->first << ' ' << osdmap.pool_name[p->first] << ',';
@@ -1360,7 +1360,7 @@ int OSDMonitor::prepare_new_pool(string& name, uint64_t auid, int crush_rule)
   }
   if (-1 == pending_inc.new_pool_max)
     pending_inc.new_pool_max = osdmap.pool_max;
-  int pool = ++pending_inc.new_pool_max;
+  int64_t pool = ++pending_inc.new_pool_max;
   pending_inc.new_pools[pool].v.type = CEPH_PG_TYPE_REP;
 
   pending_inc.new_pools[pool].v.size = g_conf->osd_pool_default_size;
@@ -1765,7 +1765,7 @@ bool OSDMonitor::prepare_command(MMonCommand *m)
     }
     else if (m->cmd[1] == "pool" && m->cmd.size() >= 3) {
       if (m->cmd.size() >= 5 && m->cmd[2] == "mksnap") {
-       int pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
+       int64_t pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
        if (pool < 0) {
          ss << "unrecognized pool '" << m->cmd[3] << "'";
          err = -ENOENT;
@@ -1794,7 +1794,7 @@ bool OSDMonitor::prepare_command(MMonCommand *m)
        }
       }
       else if (m->cmd.size() >= 5 && m->cmd[2] == "rmsnap") {
-       int pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
+       int64_t pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
        if (pool < 0) {
          ss << "unrecognized pool '" << m->cmd[3] << "'";
          err = -ENOENT;
@@ -1838,7 +1838,7 @@ bool OSDMonitor::prepare_command(MMonCommand *m)
        return true;
       } else if (m->cmd[2] == "delete" && m->cmd.size() >= 4) {
        //hey, let's delete a pool!
-       int pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
+       int64_t pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
        if (pool < 0) {
          ss << "unrecognized pool '" << m->cmd[3] << "'";
          err = -ENOENT;
@@ -1856,7 +1856,7 @@ bool OSDMonitor::prepare_command(MMonCommand *m)
          ss << "usage: osd pool set <poolname> <field> <value>";
          goto out;
        }
-       int pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
+       int64_t pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
        if (pool < 0) {
          ss << "unrecognized pool '" << m->cmd[3] << "'";
          err = -ENOENT;
@@ -1916,7 +1916,7 @@ bool OSDMonitor::prepare_command(MMonCommand *m)
          ss << "usage: osd pool get <poolname> <field>";
          goto out;
        }
-       int pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
+       int64_t pool = osdmap.lookup_pg_pool_name(m->cmd[3].c_str());
        if (pool < 0) {
          ss << "unrecognized pool '" << m->cmd[3] << "'";
          err = -ENOENT;
@@ -2039,7 +2039,7 @@ bool OSDMonitor::preprocess_pool_op_create(MPoolOp *m)
     return true;
   }
 
-  int pool = osdmap.lookup_pg_pool_name(m->name.c_str());
+  int64_t pool = osdmap.lookup_pg_pool_name(m->name.c_str());
   if (pool >= 0) {
     _pool_op_reply(m, -EEXIST, osdmap.get_epoch());
     return true;
index 2fbf7380cb62f0ffb71b7c071e4239b3a4300829..5f66a456fab4baaf089030b60c1bd7e8f98ab4ad 100644 (file)
@@ -323,7 +323,7 @@ bool PGMonitor::preprocess_getpoolstats(MGetPoolStats *m)
   for (list<string>::iterator p = m->pools.begin();
        p != m->pools.end();
        p++) {
-    int poolid = mon->osdmon()->osdmap.lookup_pg_pool_name(p->c_str());
+    int64_t poolid = mon->osdmon()->osdmap.lookup_pg_pool_name(p->c_str());
     if (poolid < 0)
       continue;
     if (pg_map.pg_pool_sum.count(poolid) == 0)
@@ -620,10 +620,10 @@ bool PGMonitor::register_new_pgs()
   OSDMap *osdmap = &mon->osdmon()->osdmap;
 
   int created = 0;
-  for (map<int,pg_pool_t>::iterator p = osdmap->pools.begin();
+  for (map<int64_t,pg_pool_t>::iterator p = osdmap->pools.begin();
        p != osdmap->pools.end();
        p++) {
-    int poolid = p->first;
+    int64_t poolid = p->first;
     pg_pool_t &pool = p->second;
     int ruleno = pool.get_crush_ruleset();
     if (!osdmap->crush.rule_exists(ruleno)) 
index ba49e95613b69440a952ed37905e070081283194..eb1fdd5ac9bb339fc3fc2d83a804301f8164c825 100644 (file)
@@ -4866,7 +4866,7 @@ void OSD::handle_op(MOSDOp *op)
 
   // calc actual pgid
   pg_t pgid = op->get_pg();
-  int pool = pgid.pool();
+  int64_t pool = pgid.pool();
   if ((op->get_flags() & CEPH_OSD_FLAG_PGOP) == 0 &&
       osdmap->have_pg_pool(pool))
     pgid = osdmap->raw_pg_to_pg(pgid);
index b1afa3863c2d9791eda94add1ecdf5b11fc2872b..f545d9a9266af2087e12608623ca4ccc4fc16cf0 100644 (file)
@@ -48,7 +48,7 @@ void OSDMap::dump(Formatter *f) const
   f->dump_int("max_osd", get_max_osd());
 
   f->open_array_section("pools");
-  for (map<int,pg_pool_t>::const_iterator p = pools.begin(); p != pools.end(); ++p) {
+  for (map<int64_t,pg_pool_t>::const_iterator p = pools.begin(); p != pools.end(); ++p) {
     f->open_object_section("pool");
     f->dump_int("pool", p->first);
     p->second.dump(f);
@@ -128,7 +128,7 @@ void OSDMap::print(ostream& out) const
     out << "cluster_snapshot " << get_cluster_snapshot() << "\n";
   out << "\n";
  
-  for (map<int,pg_pool_t>::const_iterator p = pools.begin(); p != pools.end(); ++p) {
+  for (map<int64_t,pg_pool_t>::const_iterator p = pools.begin(); p != pools.end(); ++p) {
     std::string name("<unknown>");
     map<int32_t,string>::const_iterator pni = pool_name.find(p->first);
     if (pni != pool_name.end())
@@ -278,7 +278,7 @@ void OSDMap::build_simple(CephContext *cct, epoch_t e, ceph_fsid_t &fsid,
   rulesets[CEPH_RBD_RULE] = "rbd";
   
   for (map<int,const char*>::iterator p = rulesets.begin(); p != rulesets.end(); p++) {
-    int pool = ++pool_max;
+    int64_t pool = ++pool_max;
     pools[pool].v.type = CEPH_PG_TYPE_REP;
     pools[pool].v.size = cct->_conf->osd_pool_default_size;
     pools[pool].v.crush_ruleset = p->first;
index e65bc90d6583f37937307dd40cacaea7590fed20..397bf0396bb0b83485e64e5f5d05808851aaae65 100644 (file)
@@ -276,9 +276,9 @@ private:
   vector<osd_info_t> osd_info;
   map<pg_t,vector<int> > pg_temp;  // temp pg mapping (e.g. while we rebuild)
 
-  map<int,pg_pool_t> pools;
+  map<int64_t,pg_pool_t> pools;
   map<int32_t,string> pool_name;
-  map<string,int> name_pool;
+  map<string,int64_t> name_pool;
 
   hash_map<entity_addr_t,utime_t> blacklist;
 
@@ -309,7 +309,7 @@ private:
 
   void set_epoch(epoch_t e) {
     epoch = e;
-    for (map<int,pg_pool_t>::iterator p = pools.begin();
+    for (map<int64_t,pg_pool_t>::iterator p = pools.begin();
         p != pools.end();
         p++)
       p->second.v.last_change = e;
@@ -760,7 +760,7 @@ private:
 
     // index pool names
     name_pool.clear();
-    for (map<int,string>::iterator i = pool_name.begin(); i != pool_name.end(); i++)
+    for (map<int32_t,string>::iterator i = pool_name.begin(); i != pool_name.end(); i++)
       name_pool[i->second] = i->first;
     
     calc_num_osds();
@@ -906,28 +906,28 @@ public:
       acting = up;
   }
 
-  int lookup_pg_pool_name(const char *name) {
+  int64_t lookup_pg_pool_name(const char *name) {
     if (name_pool.count(name))
       return name_pool[name];
-    return -1;
+    return -ENOENT;
   }
 
-  const map<int,pg_pool_t>& get_pools() { return pools; }
-  const char *get_pool_name(int p) {
+  const map<int64_t,pg_pool_t>& get_pools() { return pools; }
+  const char *get_pool_name(int64_t p) {
     if (pool_name.count(p))
       return pool_name[p].c_str();
     return 0;
   }
-  bool have_pg_pool(int p) const {
+  bool have_pg_pool(int64_t p) const {
     return pools.count(p);
   }
-  const pg_pool_t* get_pg_pool(int p) {
-    if(pools.count(p))
+  const pg_pool_t* get_pg_pool(int64_t p) {
+    if (pools.count(p))
       return &pools[p];
     return NULL;
   }
   unsigned get_pg_size(pg_t pg) const {
-    map<int,pg_pool_t>::const_iterator p = pools.find(pg.pool());
+    map<int64_t,pg_pool_t>::const_iterator p = pools.find(pg.pool());
     assert(p != pools.end());
     return p->second.get_size();
   }
index cbb7319f2ab0445d8fc4a952497ab053156fee78..973888621979a41ad91dce78f4db4a4eec33de6c 100644 (file)
@@ -102,7 +102,7 @@ public:
 private:
   // me
   inodeno_t ino;
-  unsigned pg_pool;
+  int64_t pg_pool;
   bool readonly;
   ceph_file_layout layout;
 
@@ -229,7 +229,7 @@ private:
   }
 
 public:
-  Journaler(inodeno_t ino_, int pool, const char *mag, Objecter *obj, PerfCounters *l, int lkey, SafeTimer *tim) : 
+  Journaler(inodeno_t ino_, int64_t pool, const char *mag, Objecter *obj, PerfCounters *l, int lkey, SafeTimer *tim) : 
     cct(obj->cct), last_written(mag), last_committed(mag),
     ino(ino_), pg_pool(pool), readonly(true), magic(mag),
     objecter(obj), filer(objecter), logger(l), logger_key_lat(lkey),
index ac2a60a6a8e809fc0d7e6d8e7d08829b90c2c1bb..19ef1224b57c11f2cb6133acaa01f622d1ba58a2 100644 (file)
@@ -458,7 +458,7 @@ void ObjectCacher::bh_read(BufferHead *bh)
                 onfinish);
 }
 
-void ObjectCacher::bh_read_finish(int poolid, sobject_t oid, loff_t start, uint64_t length, bufferlist &bl)
+void ObjectCacher::bh_read_finish(int64_t poolid, sobject_t oid, loff_t start, uint64_t length, bufferlist &bl)
 {
   //lock.Lock();
   ldout(cct, 7) << "bh_read_finish " 
@@ -559,7 +559,7 @@ void ObjectCacher::bh_write(BufferHead *bh)
   mark_tx(bh);
 }
 
-void ObjectCacher::lock_ack(int poolid, list<sobject_t>& oids, tid_t tid)
+void ObjectCacher::lock_ack(int64_t poolid, list<sobject_t>& oids, tid_t tid)
 {
   for (list<sobject_t>::iterator i = oids.begin();
        i != oids.end();
@@ -621,7 +621,7 @@ void ObjectCacher::lock_ack(int poolid, list<sobject_t>& oids, tid_t tid)
   }
 }
 
-void ObjectCacher::bh_write_commit(int poolid, sobject_t oid, loff_t start, uint64_t length, tid_t tid)
+void ObjectCacher::bh_write_commit(int64_t poolid, sobject_t oid, loff_t start, uint64_t length, tid_t tid)
 {
   //lock.Lock();
   
index f19ca63ae946abd4bb1a67a062074a3e6ad75295..2f737f64deff58da903119a0c58157b69f2de7f5 100644 (file)
@@ -254,13 +254,14 @@ class ObjectCacher {
     inodeno_t ino;
     uint64_t truncate_seq, truncate_size;
 
-    int poolid;
+    int64_t poolid;
     xlist<Object*> objects;
 
     int dirty_or_tx;
 
-    ObjectSet(void *p, int _poolid, inodeno_t i) : parent(p), ino(i), truncate_seq(0),
-                                      truncate_size(0), poolid(_poolid), dirty_or_tx(0) {}
+    ObjectSet(void *p, int64_t _poolid, inodeno_t i)
+      : parent(p), ino(i), truncate_seq(0),
+       truncate_size(0), poolid(_poolid), dirty_or_tx(0) {}
   };
 
 
@@ -463,13 +464,13 @@ class ObjectCacher {
   void wrunlock(Object *o);
 
  public:
-  void bh_read_finish(int poolid, sobject_t oid, loff_t offset, uint64_t length, bufferlist &bl);
-  void bh_write_commit(int poolid, sobject_t oid, loff_t offset, uint64_t length, tid_t t);
-  void lock_ack(int poolid, list<sobject_t>& oids, tid_t tid);
+  void bh_read_finish(int64_t poolid, sobject_t oid, loff_t offset, uint64_t length, bufferlist &bl);
+  void bh_write_commit(int64_t poolid, sobject_t oid, loff_t offset, uint64_t length, tid_t t);
+  void lock_ack(int64_t poolid, list<sobject_t>& oids, tid_t tid);
 
   class C_ReadFinish : public Context {
     ObjectCacher *oc;
-    int poolid;
+    int64_t poolid;
     sobject_t oid;
     loff_t start;
     uint64_t length;
@@ -484,13 +485,13 @@ class ObjectCacher {
 
   class C_WriteCommit : public Context {
     ObjectCacher *oc;
-    int poolid;
+    int64_t poolid;
     sobject_t oid;
     loff_t start;
     uint64_t length;
   public:
     tid_t tid;
-    C_WriteCommit(ObjectCacher *c, int _poolid, sobject_t o, loff_t s, uint64_t l) :
+    C_WriteCommit(ObjectCacher *c, int64_t _poolid, sobject_t o, loff_t s, uint64_t l) :
       oc(c), poolid(_poolid), oid(o), start(s), length(l) {}
     void finish(int r) {
       oc->bh_write_commit(poolid, oid, start, length, tid);
@@ -500,10 +501,10 @@ class ObjectCacher {
   class C_LockAck : public Context {
     ObjectCacher *oc;
   public:
-    int poolid;
+    int64_t poolid;
     list<sobject_t> oids;
     tid_t tid;
-    C_LockAck(ObjectCacher *c, int _poolid, sobject_t o) : oc(c), poolid(_poolid) {
+    C_LockAck(ObjectCacher *c, int64_t _poolid, sobject_t o) : oc(c), poolid(_poolid) {
       oids.push_back(o);
     }
     void finish(int r) {
index ae40bc587d73d9b15ba974586678462e7e7a2509..fd53600efb51b76eb3800e6c9c4f6703e1fa963e 100644 (file)
@@ -1046,7 +1046,7 @@ void Objecter::_list_reply(ListContext *list_context, bufferlist *bl, Context *f
 
 //snapshots
 
-int Objecter::create_pool_snap(int pool, string& snapName, Context *onfinish) {
+int Objecter::create_pool_snap(int64_t pool, string& snapName, Context *onfinish) {
   ldout(cct, 10) << "create_pool_snap; pool: " << pool << "; snap: " << snapName << dendl;
   PoolOp *op = new PoolOp;
   if (!op)
@@ -1078,7 +1078,7 @@ struct C_SelfmanagedSnap : public Context {
   }
 };
 
-int Objecter::allocate_selfmanaged_snap(int pool, snapid_t *psnapid,
+int Objecter::allocate_selfmanaged_snap(int64_t pool, snapid_t *psnapid,
                                        Context *onfinish)
 {
   ldout(cct, 10) << "allocate_selfmanaged_snap; pool: " << pool << dendl;
@@ -1096,7 +1096,7 @@ int Objecter::allocate_selfmanaged_snap(int pool, snapid_t *psnapid,
   return 0;
 }
 
-int Objecter::delete_pool_snap(int pool, string& snapName, Context *onfinish)
+int Objecter::delete_pool_snap(int64_t pool, string& snapName, Context *onfinish)
 {
   ldout(cct, 10) << "delete_pool_snap; pool: " << pool << "; snap: " << snapName << dendl;
   PoolOp *op = new PoolOp;
@@ -1114,7 +1114,7 @@ int Objecter::delete_pool_snap(int pool, string& snapName, Context *onfinish)
   return 0;
 }
 
-int Objecter::delete_selfmanaged_snap(int pool, snapid_t snap,
+int Objecter::delete_selfmanaged_snap(int64_t pool, snapid_t snap,
                                      Context *onfinish) {
   ldout(cct, 10) << "delete_selfmanaged_snap; pool: " << pool << "; snap: " 
           << snap << dendl;
@@ -1153,7 +1153,7 @@ int Objecter::create_pool(string& name, Context *onfinish, uint64_t auid,
   return 0;
 }
 
-int Objecter::delete_pool(int pool, Context *onfinish)
+int Objecter::delete_pool(int64_t pool, Context *onfinish)
 {
   ldout(cct, 10) << "delete_pool " << pool << dendl;
 
@@ -1177,7 +1177,7 @@ int Objecter::delete_pool(int pool, Context *onfinish)
  * on both the pool's current auid and the new (parameter) auid.
  * Uses the standard Context callback when done.
  */
-int Objecter::change_pool_auid(int pool, Context *onfinish, uint64_t auid)
+int Objecter::change_pool_auid(int64_t pool, Context *onfinish, uint64_t auid)
 {
   ldout(cct, 10) << "change_pool_auid " << pool << " to " << auid << dendl;
   PoolOp *op = new PoolOp;
index 0dd485157f4b3e2cf3ebb1241dc9189c5c48d4cd..3bcb779edfacff29f9db52bd31a0be78c84d3268 100644 (file)
@@ -453,7 +453,7 @@ public:
     int starting_pg_num;
     bool at_end;
 
-    int pool_id;
+    int64_t pool_id;
     int pool_snap_seq;
     int max_entries;
     std::list<object_t> list;
@@ -505,7 +505,7 @@ public:
 
   struct PoolOp {
     tid_t tid;
-    int pool;
+    int64_t pool;
     string name;
     Context *onfinish;
     int pool_op;
@@ -1086,15 +1086,15 @@ private:
 private:
   void pool_op_submit(PoolOp *op);
 public:
-  int create_pool_snap(int pool, string& snapName, Context *onfinish);
-  int allocate_selfmanaged_snap(int pool, snapid_t *psnapid, Context *onfinish);
-  int delete_pool_snap(int pool, string& snapName, Context *onfinish);
-  int delete_selfmanaged_snap(int pool, snapid_t snap, Context *onfinish);
+  int create_pool_snap(int64_t pool, string& snapName, Context *onfinish);
+  int allocate_selfmanaged_snap(int64_t pool, snapid_t *psnapid, Context *onfinish);
+  int delete_pool_snap(int64_t pool, string& snapName, Context *onfinish);
+  int delete_selfmanaged_snap(int64_t pool, snapid_t snap, Context *onfinish);
 
   int create_pool(string& name, Context *onfinish, uint64_t auid=0,
                  int crush_rule=-1);
-  int delete_pool(int pool, Context *onfinish);
-  int change_pool_auid(int pool, Context *onfinish, uint64_t auid);
+  int delete_pool(int64_t pool, Context *onfinish);
+  int change_pool_auid(int64_t pool, Context *onfinish, uint64_t auid);
 
   void handle_pool_op_reply(MPoolOpReply *m);
 
index b3efe45f1221ecaac4ece0bfe6fa82bc01f4eba2..e4a26670efbdfc83e8a7122475b57fd77bbdfbcb 100644 (file)
@@ -231,7 +231,7 @@ int main(int argc, const char **argv)
       cout << "pass " << ++pass << std::endl;
 
       hash_map<pg_t,vector<int> > m;
-      for (map<int,pg_pool_t>::const_iterator p = osdmap.get_pools().begin();
+      for (map<int64_t,pg_pool_t>::const_iterator p = osdmap.get_pools().begin();
           p != osdmap.get_pools().end();
           p++) {
        const pg_pool_t *pool = osdmap.get_pg_pool(p->first);
index 5e3e0914f66c7d4b9c8958eaeede5565716f2bad..98317ca2015a19ad1b10c6219e3ffb36aa418b66 100644 (file)
@@ -453,7 +453,7 @@ int rgw_delete_user(RGWUserInfo& info, bool purge_data) {
 }
 
 
-int rgw_store_pool_info(int pool_id, RGWPoolInfo& pool_info)
+int rgw_store_pool_info(int64_t pool_id, RGWPoolInfo& pool_info)
 {
   bufferlist bl;
 
@@ -461,7 +461,7 @@ int rgw_store_pool_info(int pool_id, RGWPoolInfo& pool_info)
 
   string uid;
   char buf[16];
-  snprintf(buf, sizeof(buf), "%d", pool_id);
+  snprintf(buf, sizeof(buf), "%lld", (long long unsigned)pool_id);
   string pool_id_str(buf);
 
   int ret = rgw_put_obj(uid, pi_pool_bucket, pool_id_str, bl.c_str(), bl.length());
@@ -471,12 +471,12 @@ int rgw_store_pool_info(int pool_id, RGWPoolInfo& pool_info)
   return ret;
 }
 
-int rgw_retrieve_pool_info(int pool_id, RGWPoolInfo& pool_info)
+int rgw_retrieve_pool_info(int64_t pool_id, RGWPoolInfo& pool_info)
 {
   bufferlist bl;
 
   char buf[16];
-  snprintf(buf, sizeof(buf), "%d", pool_id);
+  snprintf(buf, sizeof(buf), "%lld", (long long unsigned)pool_id);
   string pool_id_str(buf);
 
   int ret = rgw_get_obj(pi_pool_bucket, pool_id_str, bl);
index a7775935780f7e7d1c334738ad2cb7da62230004..c87ec8cf27776b5735f4735e9ba5be729313e68a 100644 (file)
@@ -149,7 +149,7 @@ extern int rgw_remove_uid_index(string& uid);
 extern int rgw_remove_email_index(string& uid, string& email);
 extern int rgw_remove_openstack_name_index(string& uid, string& openstack_name);
 
-extern int rgw_store_pool_info(int pool_id, RGWPoolInfo& pool_info);
-extern int rgw_retrieve_pool_info(int pool_id, RGWPoolInfo& pool_info);
+extern int rgw_store_pool_info(int64_t pool_id, RGWPoolInfo& pool_info);
+extern int rgw_retrieve_pool_info(int64_t pool_id, RGWPoolInfo& pool_info);
 
 #endif
index ddef7c0be117b212a229ac3542110228cde419a7..dc69a7ccae9afbe6417a20fe35ef052c404915a8 100644 (file)
@@ -26,7 +26,7 @@ TEST(LibRadosPools, PoolList) {
   ASSERT_EQ(0, destroy_one_pool(pool_name, &cluster));
 }
 
-int rados_pool_lookup(rados_t cluster, const char *pool_name);
+int64_t rados_pool_lookup(rados_t cluster, const char *pool_name);
 
 TEST(LibRadosPools, PoolLookup) {
   rados_t cluster;
@@ -40,11 +40,11 @@ TEST(LibRadosPools, PoolLookup2) {
   rados_t cluster;
   std::string pool_name = get_temp_pool_name();
   ASSERT_EQ("", create_one_pool(pool_name, &cluster));
-  int pool_id = rados_pool_lookup(cluster, pool_name.c_str());
+  int64_t pool_id = rados_pool_lookup(cluster, pool_name.c_str());
   ASSERT_GT(pool_id, 0);
   rados_ioctx_t ioctx;
   ASSERT_EQ(0, rados_ioctx_create(cluster, pool_name.c_str(), &ioctx));
-  int pool_id2 = rados_ioctx_get_id(ioctx);
+  int64_t pool_id2 = rados_ioctx_get_id(ioctx);
   ASSERT_EQ(pool_id, pool_id2);
   rados_ioctx_destroy(ioctx);
   ASSERT_EQ(0, destroy_one_pool(pool_name, &cluster));