]> git-server-git.apps.pok.os.sepia.ceph.com Git - ceph.git/commitdiff
doc: cephfs: fix misleading "ceph nfs create" command
authorNathan Cutler <ncutler@suse.com>
Wed, 15 Jul 2020 19:14:25 +0000 (21:14 +0200)
committerNathan Cutler <ncutler@suse.com>
Fri, 16 Oct 2020 09:12:39 +0000 (11:12 +0200)
When a reader sees "ceph nfs create <type=cephfs>" it's not
clear that this means they should type "ceph nfs create cephfs".

I also took this opportunity to clarify the command description
based on my testing and discussions with the CephFS developers.

Fixes: https://tracker.ceph.com/issues/46559
Signed-off-by: Nathan Cutler <ncutler@suse.com>
(cherry picked from commit 865001247b971138342aaaf020d388e9e1ebe948)

doc/cephfs/fs-nfs-exports.rst

index 9740404bd6022a47322012b28210a10f23029f1d..c7f2c62a6e725fbb7b14192c8b0f91a852f40b24 100644 (file)
@@ -17,15 +17,37 @@ Create NFS Ganesha Cluster
 
 .. code:: bash
 
-    $ ceph nfs cluster create <type=cephfs> <clusterid> [<placement>]
+    $ ceph nfs cluster create <type> <clusterid> [<placement>]
 
 This creates a common recovery pool for all Ganesha daemons, new user based on
-cluster_id and common ganesha config rados object.
+cluster_id, and a common ganesha config rados object. It can also bring up NFS
+Ganesha daemons using the enabled ceph-mgr orchestrator module (see
+:doc:`/mgr/orchestrator`), e.g. cephadm.
 
-Here type is export type and placement specifies the size of cluster and hosts.
-For more details on placement specification refer the `orchestrator doc
-<https://docs.ceph.com/docs/master/mgr/orchestrator/#placement-specification>`_.
-Currently only CephFS export type is supported.
+<type> signifies the export type, which corresponds to the NFS Ganesha file
+system abstraction layer (FSAL). Permissible values are "cephfs" or "rgw", but
+currently only "cephfs" is supported.
+
+<clusterid> is an arbitrary string by which this NFS Ganesha cluster will be
+known.
+
+<placement> is an optional string signifying which hosts should have NFS Ganesha
+daemon containers running on them and, optionally, the total number of NFS
+Ganesha daemons the cluster (should you want to have more than one NFS Ganesha
+daemon running per node). For example, the following placement string means
+"deploy NFS Ganesha daemons on nodes host1 and host2 (one daemon per host):
+
+    "host1,host2"
+
+and this placement specification says to deploy two NFS Ganesha daemons each
+on nodes host1 and host2 (for a total of four NFS Ganesha daemons in the
+cluster):
+
+    "4 host1,host2"
+
+For more details on placement specification refer to the `orchestrator doc
+<https://docs.ceph.com/docs/master/mgr/orchestrator/#placement-specification>`_
+but keep in mind that specifying the placement via a YAML file is not supported.
 
 Update NFS Ganesha Cluster
 ==========================