Merge pull request #2796 from elfiesmelfie/feat_ipmi_SEL_ignore_list
[collectd.git] / src / ceph.c
1 /**
2  * collectd - src/ceph.c
3  * Copyright (C) 2011  New Dream Network
4  * Copyright (C) 2015  Florian octo Forster
5  *
6  * This program is free software; you can redistribute it and/or modify it
7  * under the terms of the GNU General Public License as published by the
8  * Free Software Foundation; only version 2 of the License is applicable.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License for more details.
14  *
15  * You should have received a copy of the GNU General Public License along
16  * with this program; if not, write to the Free Software Foundation, Inc.,
17  * 51 Franklin St, Fifth Floor, Boston, MA  02110-1301 USA
18  *
19  * Authors:
20  *   Colin McCabe <cmccabe at alumni.cmu.edu>
21  *   Dennis Zou <yunzou at cisco.com>
22  *   Dan Ryder <daryder at cisco.com>
23  *   Florian octo Forster <octo at collectd.org>
24  **/
25
26 #define _DEFAULT_SOURCE
27 #define _BSD_SOURCE
28
29 #include "collectd.h"
30
31 #include "common.h"
32 #include "plugin.h"
33
34 #include <arpa/inet.h>
35 #include <errno.h>
36 #include <fcntl.h>
37 #include <yajl/yajl_parse.h>
38 #if HAVE_YAJL_YAJL_VERSION_H
39 #include <yajl/yajl_version.h>
40 #endif
41 #ifdef HAVE_SYS_CAPABILITY_H
42 #include <sys/capability.h>
43 #endif
44
45 #include <inttypes.h>
46 #include <limits.h>
47 #include <math.h>
48 #include <poll.h>
49 #include <stdint.h>
50 #include <stdio.h>
51 #include <stdlib.h>
52 #include <string.h>
53 #include <strings.h>
54 #include <sys/time.h>
55 #include <sys/types.h>
56 #include <sys/un.h>
57 #include <unistd.h>
58
59 #define RETRY_AVGCOUNT -1
60
61 #if defined(YAJL_MAJOR) && (YAJL_MAJOR > 1)
62 #define HAVE_YAJL_V2 1
63 #endif
64
65 #define RETRY_ON_EINTR(ret, expr)                                              \
66   while (1) {                                                                  \
67     ret = expr;                                                                \
68     if (ret >= 0)                                                              \
69       break;                                                                   \
70     ret = -errno;                                                              \
71     if (ret != -EINTR)                                                         \
72       break;                                                                   \
73   }
74
75 /** Timeout interval in seconds */
76 #define CEPH_TIMEOUT_INTERVAL 1
77
78 /** Maximum path length for a UNIX domain socket on this system */
79 #define UNIX_DOMAIN_SOCK_PATH_MAX (sizeof(((struct sockaddr_un *)0)->sun_path))
80
81 /** Yajl callback returns */
82 #define CEPH_CB_CONTINUE 1
83 #define CEPH_CB_ABORT 0
84
85 #if HAVE_YAJL_V2
86 typedef size_t yajl_len_t;
87 #else
88 typedef unsigned int yajl_len_t;
89 #endif
90
91 /** Number of types for ceph defined in types.db */
92 #define CEPH_DSET_TYPES_NUM 3
93 /** ceph types enum */
94 enum ceph_dset_type_d {
95   DSET_LATENCY = 0,
96   DSET_BYTES = 1,
97   DSET_RATE = 2,
98   DSET_TYPE_UNFOUND = 1000
99 };
100
101 /** Valid types for ceph defined in types.db */
102 static const char *const ceph_dset_types[CEPH_DSET_TYPES_NUM] = {
103     "ceph_latency", "ceph_bytes", "ceph_rate"};
104
105 /******* ceph_daemon *******/
106 struct ceph_daemon {
107   /** Version of the admin_socket interface */
108   uint32_t version;
109   /** daemon name **/
110   char name[DATA_MAX_NAME_LEN];
111
112   /** Path to the socket that we use to talk to the ceph daemon */
113   char asok_path[UNIX_DOMAIN_SOCK_PATH_MAX];
114
115   /** Number of counters */
116   int ds_num;
117   /** Track ds types */
118   uint32_t *ds_types;
119   /** Track ds names to match with types */
120   char **ds_names;
121
122   /**
123    * Keep track of last data for latency values so we can calculate rate
124    * since last poll.
125    */
126   struct last_data **last_poll_data;
127   /** index of last poll data */
128   int last_idx;
129 };
130
131 /******* JSON parsing *******/
132 typedef int (*node_handler_t)(void *, const char *, const char *);
133
134 /** Track state and handler while parsing JSON */
135 struct yajl_struct {
136   node_handler_t handler;
137   void *handler_arg;
138
139   char *key;
140   char *stack[YAJL_MAX_DEPTH];
141   size_t depth;
142 };
143 typedef struct yajl_struct yajl_struct;
144
145 enum perfcounter_type_d {
146   PERFCOUNTER_LATENCY = 0x4,
147   PERFCOUNTER_DERIVE = 0x8,
148 };
149
150 /** Give user option to use default (long run = since daemon started) avg */
151 static int long_run_latency_avg;
152
153 /**
154  * Give user option to use default type for special cases -
155  * filestore.journal_wr_bytes is currently only metric here. Ceph reports the
156  * type as a sum/count pair and will calculate it the same as a latency value.
157  * All other "bytes" metrics (excluding the used/capacity bytes for the OSD)
158  * use the DERIVE type. Unless user specifies to use given type, convert this
159  * metric to use DERIVE.
160  */
161 static int convert_special_metrics = 1;
162
163 /** Array of daemons to monitor */
164 static struct ceph_daemon **g_daemons;
165
166 /** Number of elements in g_daemons */
167 static size_t g_num_daemons;
168
169 /**
170  * A set of data that we build up in memory while parsing the JSON.
171  */
172 struct values_tmp {
173   /** ceph daemon we are processing data for*/
174   struct ceph_daemon *d;
175   /** track avgcount across counters for avgcount/sum latency pairs */
176   uint64_t avgcount;
177   /** current index of counters - used to get type of counter */
178   int index;
179   /**
180    * similar to index, but current index of latency type counters -
181    * used to get last poll data of counter
182    */
183   int latency_index;
184   /**
185    * values list - maintain across counters since
186    * host/plugin/plugin instance are always the same
187    */
188   value_list_t vlist;
189 };
190
191 /**
192  * A set of count/sum pairs to keep track of latency types and get difference
193  * between this poll data and last poll data.
194  */
195 struct last_data {
196   char ds_name[DATA_MAX_NAME_LEN];
197   double last_sum;
198   uint64_t last_count;
199 };
200
201 /******* network I/O *******/
202 enum cstate_t {
203   CSTATE_UNCONNECTED = 0,
204   CSTATE_WRITE_REQUEST,
205   CSTATE_READ_VERSION,
206   CSTATE_READ_AMT,
207   CSTATE_READ_JSON,
208 };
209
210 enum request_type_t {
211   ASOK_REQ_VERSION = 0,
212   ASOK_REQ_DATA = 1,
213   ASOK_REQ_SCHEMA = 2,
214   ASOK_REQ_NONE = 1000,
215 };
216
217 struct cconn {
218   /** The Ceph daemon that we're talking to */
219   struct ceph_daemon *d;
220
221   /** Request type */
222   uint32_t request_type;
223
224   /** The connection state */
225   enum cstate_t state;
226
227   /** The socket we use to talk to this daemon */
228   int asok;
229
230   /** The amount of data remaining to read / write. */
231   uint32_t amt;
232
233   /** Length of the JSON to read */
234   uint32_t json_len;
235
236   /** Buffer containing JSON data */
237   unsigned char *json;
238
239   /** Keep data important to yajl processing */
240   struct yajl_struct yajl;
241 };
242
243 static int ceph_cb_null(void *ctx) { return CEPH_CB_CONTINUE; }
244
245 static int ceph_cb_boolean(void *ctx, int bool_val) { return CEPH_CB_CONTINUE; }
246
247 #define BUFFER_ADD(dest, src)                                                  \
248   do {                                                                         \
249     size_t dest_size = sizeof(dest);                                           \
250     size_t dest_len = strlen(dest);                                            \
251     if (dest_size > dest_len) {                                                \
252       sstrncpy((dest) + dest_len, (src), dest_size - dest_len);                \
253     }                                                                          \
254     (dest)[dest_size - 1] = 0;                                                 \
255   } while (0)
256
257 static int ceph_cb_number(void *ctx, const char *number_val,
258                           yajl_len_t number_len) {
259   yajl_struct *state = (yajl_struct *)ctx;
260   char buffer[number_len + 1];
261   char key[2 * DATA_MAX_NAME_LEN] = {0};
262   int status;
263
264   memcpy(buffer, number_val, number_len);
265   buffer[sizeof(buffer) - 1] = '\0';
266
267   for (size_t i = 0; i < state->depth; i++) {
268     if (state->stack[i] == NULL)
269       continue;
270
271     if (strlen(key) != 0)
272       BUFFER_ADD(key, ".");
273     BUFFER_ADD(key, state->stack[i]);
274   }
275
276   /* Super-special case for filestore.journal_wr_bytes.avgcount: For
277    * some reason, Ceph schema encodes this as a count/sum pair while all
278    * other "Bytes" data (excluding used/capacity bytes for OSD space) uses
279    * a single "Derive" type. To spare further confusion, keep this KPI as
280    * the same type of other "Bytes". Instead of keeping an "average" or
281    * "rate", use the "sum" in the pair and assign that to the derive
282    * value. */
283   if (convert_special_metrics && (state->depth > 2) &&
284       (strcmp("filestore", state->stack[state->depth - 2]) == 0) &&
285       (strcmp("journal_wr_bytes", state->stack[state->depth - 1]) == 0) &&
286       (strcmp("avgcount", state->key) == 0)) {
287     DEBUG("ceph plugin: Skipping avgcount for filestore.JournalWrBytes");
288     return CEPH_CB_CONTINUE;
289   }
290
291   BUFFER_ADD(key, ".");
292   BUFFER_ADD(key, state->key);
293
294   status = state->handler(state->handler_arg, buffer, key);
295
296   if (status != 0) {
297     ERROR("ceph plugin: JSON handler failed with status %d.", status);
298     return CEPH_CB_ABORT;
299   }
300
301   return CEPH_CB_CONTINUE;
302 }
303
304 static int ceph_cb_string(void *ctx, const unsigned char *string_val,
305                           yajl_len_t string_len) {
306   return CEPH_CB_CONTINUE;
307 }
308
309 static int ceph_cb_start_map(void *ctx) {
310   yajl_struct *state = (yajl_struct *)ctx;
311
312   /* Push key to the stack */
313   if (state->depth == YAJL_MAX_DEPTH)
314     return CEPH_CB_ABORT;
315
316   state->stack[state->depth] = state->key;
317   state->depth++;
318   state->key = NULL;
319
320   return CEPH_CB_CONTINUE;
321 }
322
323 static int ceph_cb_end_map(void *ctx) {
324   yajl_struct *state = (yajl_struct *)ctx;
325
326   /* Pop key from the stack */
327   if (state->depth == 0)
328     return CEPH_CB_ABORT;
329
330   sfree(state->key);
331   state->depth--;
332   state->key = state->stack[state->depth];
333   state->stack[state->depth] = NULL;
334
335   return CEPH_CB_CONTINUE;
336 }
337
338 static int ceph_cb_map_key(void *ctx, const unsigned char *key,
339                            yajl_len_t string_len) {
340   yajl_struct *state = (yajl_struct *)ctx;
341   size_t sz = ((size_t)string_len) + 1;
342
343   sfree(state->key);
344   state->key = malloc(sz);
345   if (state->key == NULL) {
346     ERROR("ceph plugin: malloc failed.");
347     return CEPH_CB_ABORT;
348   }
349
350   memmove(state->key, key, sz - 1);
351   state->key[sz - 1] = 0;
352
353   return CEPH_CB_CONTINUE;
354 }
355
356 static int ceph_cb_start_array(void *ctx) { return CEPH_CB_CONTINUE; }
357
358 static int ceph_cb_end_array(void *ctx) { return CEPH_CB_CONTINUE; }
359
360 static yajl_callbacks callbacks = {ceph_cb_null,
361                                    ceph_cb_boolean,
362                                    NULL,
363                                    NULL,
364                                    ceph_cb_number,
365                                    ceph_cb_string,
366                                    ceph_cb_start_map,
367                                    ceph_cb_map_key,
368                                    ceph_cb_end_map,
369                                    ceph_cb_start_array,
370                                    ceph_cb_end_array};
371
372 static void ceph_daemon_print(const struct ceph_daemon *d) {
373   DEBUG("ceph plugin: name=%s, asok_path=%s", d->name, d->asok_path);
374 }
375
376 static void ceph_daemons_print(void) {
377   for (size_t i = 0; i < g_num_daemons; ++i) {
378     ceph_daemon_print(g_daemons[i]);
379   }
380 }
381
382 static void ceph_daemon_free(struct ceph_daemon *d) {
383   for (int i = 0; i < d->last_idx; i++) {
384     sfree(d->last_poll_data[i]);
385   }
386   sfree(d->last_poll_data);
387   d->last_poll_data = NULL;
388   d->last_idx = 0;
389
390   for (int i = 0; i < d->ds_num; i++) {
391     sfree(d->ds_names[i]);
392   }
393   sfree(d->ds_types);
394   sfree(d->ds_names);
395   sfree(d);
396 }
397
398 /* compact_ds_name removed the special characters ":", "_", "-" and "+" from the
399  * input string. Characters following these special characters are capitalized.
400  * Trailing "+" and "-" characters are replaces with the strings "Plus" and
401  * "Minus". */
402 static int compact_ds_name(char *buffer, size_t buffer_size, char const *src) {
403   char *src_copy;
404   size_t src_len;
405   char *ptr = buffer;
406   size_t ptr_size = buffer_size;
407   bool append_plus = false;
408   bool append_minus = false;
409
410   if ((buffer == NULL) || (buffer_size <= strlen("Minus")) || (src == NULL))
411     return EINVAL;
412
413   src_copy = strdup(src);
414   src_len = strlen(src);
415
416   /* Remove trailing "+" and "-". */
417   if (src_copy[src_len - 1] == '+') {
418     append_plus = true;
419     src_len--;
420     src_copy[src_len] = 0;
421   } else if (src_copy[src_len - 1] == '-') {
422     append_minus = true;
423     src_len--;
424     src_copy[src_len] = 0;
425   }
426
427   /* Split at special chars, capitalize first character, append to buffer. */
428   char *dummy = src_copy;
429   char *token;
430   char *save_ptr = NULL;
431   while ((token = strtok_r(dummy, ":_-+", &save_ptr)) != NULL) {
432     size_t len;
433
434     dummy = NULL;
435
436     token[0] = toupper((int)token[0]);
437
438     assert(ptr_size > 1);
439
440     len = strlen(token);
441     if (len >= ptr_size)
442       len = ptr_size - 1;
443
444     assert(len > 0);
445     assert(len < ptr_size);
446
447     sstrncpy(ptr, token, len + 1);
448     ptr += len;
449     ptr_size -= len;
450
451     assert(*ptr == 0);
452     if (ptr_size <= 1)
453       break;
454   }
455
456   /* Append "Plus" or "Minus" if "+" or "-" has been stripped above. */
457   if (append_plus || append_minus) {
458     char const *append = "Plus";
459     if (append_minus)
460       append = "Minus";
461
462     size_t offset = buffer_size - (strlen(append) + 1);
463     if (offset > strlen(buffer))
464       offset = strlen(buffer);
465
466     sstrncpy(buffer + offset, append, buffer_size - offset);
467   }
468
469   sfree(src_copy);
470   return 0;
471 }
472
473 static bool has_suffix(char const *str, char const *suffix) {
474   size_t str_len = strlen(str);
475   size_t suffix_len = strlen(suffix);
476   size_t offset;
477
478   if (suffix_len > str_len)
479     return false;
480   offset = str_len - suffix_len;
481
482   if (strcmp(str + offset, suffix) == 0)
483     return true;
484
485   return false;
486 }
487
488 static void cut_suffix(char *buffer, size_t buffer_size, char const *str,
489                        char const *suffix) {
490
491   size_t str_len = strlen(str);
492   size_t suffix_len = strlen(suffix);
493
494   size_t offset = str_len - suffix_len + 1;
495
496   if (offset > buffer_size) {
497     offset = buffer_size;
498   }
499
500   sstrncpy(buffer, str, offset);
501 }
502
503 /* count_parts returns the number of elements a "foo.bar.baz" style key has. */
504 static size_t count_parts(char const *key) {
505   size_t parts_num = 0;
506
507   for (const char *ptr = key; ptr != NULL; ptr = strchr(ptr + 1, '.'))
508     parts_num++;
509
510   return parts_num;
511 }
512
513 /**
514  * Parse key to remove "type" if this is for schema and initiate compaction
515  */
516 static int parse_keys(char *buffer, size_t buffer_size, const char *key_str) {
517   char tmp[2 * buffer_size];
518   size_t tmp_size = sizeof(tmp);
519   const char *cut_suffixes[] = {".type", ".avgcount", ".sum", ".avgtime"};
520
521   if (buffer == NULL || buffer_size == 0 || key_str == NULL ||
522       strlen(key_str) == 0)
523     return EINVAL;
524
525   sstrncpy(tmp, key_str, tmp_size);
526
527   /* Strip suffix if it is ".type" or one of latency metric suffix. */
528   if (count_parts(key_str) > 2) {
529     for (size_t i = 0; i < STATIC_ARRAY_SIZE(cut_suffixes); i++) {
530       if (has_suffix(key_str, cut_suffixes[i])) {
531         cut_suffix(tmp, tmp_size, key_str, cut_suffixes[i]);
532         break;
533       }
534     }
535   }
536
537   return compact_ds_name(buffer, buffer_size, tmp);
538 }
539
540 /**
541  * while parsing ceph admin socket schema, save counter name and type for later
542  * data processing
543  */
544 static int ceph_daemon_add_ds_entry(struct ceph_daemon *d, const char *name,
545                                     int pc_type) {
546   uint32_t type;
547   char ds_name[DATA_MAX_NAME_LEN];
548
549   if (convert_special_metrics) {
550     /**
551      * Special case for filestore:JournalWrBytes. For some reason, Ceph
552      * schema encodes this as a count/sum pair while all other "Bytes" data
553      * (excluding used/capacity bytes for OSD space) uses a single "Derive"
554      * type. To spare further confusion, keep this KPI as the same type of
555      * other "Bytes". Instead of keeping an "average" or "rate", use the
556      * "sum" in the pair and assign that to the derive value.
557      */
558     if ((strcmp(name, "filestore.journal_wr_bytes.type") == 0)) {
559       pc_type = 10;
560     }
561   }
562
563   d->ds_names = realloc(d->ds_names, sizeof(char *) * (d->ds_num + 1));
564   if (!d->ds_names) {
565     return -ENOMEM;
566   }
567
568   d->ds_types = realloc(d->ds_types, sizeof(uint32_t) * (d->ds_num + 1));
569   if (!d->ds_types) {
570     return -ENOMEM;
571   }
572
573   d->ds_names[d->ds_num] = malloc(DATA_MAX_NAME_LEN);
574   if (!d->ds_names[d->ds_num]) {
575     return -ENOMEM;
576   }
577
578   type = (pc_type & PERFCOUNTER_DERIVE)
579              ? DSET_RATE
580              : ((pc_type & PERFCOUNTER_LATENCY) ? DSET_LATENCY : DSET_BYTES);
581   d->ds_types[d->ds_num] = type;
582
583   if (parse_keys(ds_name, sizeof(ds_name), name)) {
584     return 1;
585   }
586
587   sstrncpy(d->ds_names[d->ds_num], ds_name, DATA_MAX_NAME_LEN - 1);
588   d->ds_num = (d->ds_num + 1);
589
590   return 0;
591 }
592
593 /******* ceph_config *******/
594 static int cc_handle_str(struct oconfig_item_s *item, char *dest,
595                          int dest_len) {
596   const char *val;
597   if (item->values_num != 1) {
598     return -ENOTSUP;
599   }
600   if (item->values[0].type != OCONFIG_TYPE_STRING) {
601     return -ENOTSUP;
602   }
603   val = item->values[0].value.string;
604   if (snprintf(dest, dest_len, "%s", val) > (dest_len - 1)) {
605     ERROR("ceph plugin: configuration parameter '%s' is too long.\n",
606           item->key);
607     return -ENAMETOOLONG;
608   }
609   return 0;
610 }
611
612 static int cc_handle_bool(struct oconfig_item_s *item, int *dest) {
613   if (item->values_num != 1) {
614     return -ENOTSUP;
615   }
616
617   if (item->values[0].type != OCONFIG_TYPE_BOOLEAN) {
618     return -ENOTSUP;
619   }
620
621   *dest = (item->values[0].value.boolean) ? 1 : 0;
622   return 0;
623 }
624
625 static int cc_add_daemon_config(oconfig_item_t *ci) {
626   int ret;
627   struct ceph_daemon *nd, cd = {0};
628   struct ceph_daemon **tmp;
629
630   if ((ci->values_num != 1) || (ci->values[0].type != OCONFIG_TYPE_STRING)) {
631     WARNING("ceph plugin: `Daemon' blocks need exactly one string "
632             "argument.");
633     return -1;
634   }
635
636   ret = cc_handle_str(ci, cd.name, DATA_MAX_NAME_LEN);
637   if (ret) {
638     return ret;
639   }
640
641   for (int i = 0; i < ci->children_num; i++) {
642     oconfig_item_t *child = ci->children + i;
643
644     if (strcasecmp("SocketPath", child->key) == 0) {
645       ret = cc_handle_str(child, cd.asok_path, sizeof(cd.asok_path));
646       if (ret) {
647         return ret;
648       }
649     } else {
650       WARNING("ceph plugin: ignoring unknown option %s", child->key);
651     }
652   }
653   if (cd.name[0] == '\0') {
654     ERROR("ceph plugin: you must configure a daemon name.\n");
655     return -EINVAL;
656   } else if (cd.asok_path[0] == '\0') {
657     ERROR("ceph plugin(name=%s): you must configure an administrative "
658           "socket path.\n",
659           cd.name);
660     return -EINVAL;
661   } else if (!((cd.asok_path[0] == '/') ||
662                (cd.asok_path[0] == '.' && cd.asok_path[1] == '/'))) {
663     ERROR("ceph plugin(name=%s): administrative socket paths must begin "
664           "with '/' or './' Can't parse: '%s'\n",
665           cd.name, cd.asok_path);
666     return -EINVAL;
667   }
668
669   tmp = realloc(g_daemons, (g_num_daemons + 1) * sizeof(*g_daemons));
670   if (tmp == NULL) {
671     /* The positive return value here indicates that this is a
672      * runtime error, not a configuration error.  */
673     return ENOMEM;
674   }
675   g_daemons = tmp;
676
677   nd = malloc(sizeof(*nd));
678   if (!nd) {
679     return ENOMEM;
680   }
681   memcpy(nd, &cd, sizeof(*nd));
682   g_daemons[g_num_daemons] = nd;
683   g_num_daemons++;
684   return 0;
685 }
686
687 static int ceph_config(oconfig_item_t *ci) {
688   int ret;
689
690   for (int i = 0; i < ci->children_num; ++i) {
691     oconfig_item_t *child = ci->children + i;
692     if (strcasecmp("Daemon", child->key) == 0) {
693       ret = cc_add_daemon_config(child);
694       if (ret == ENOMEM) {
695         ERROR("ceph plugin: Couldn't allocate memory");
696         return ret;
697       } else if (ret) {
698         // process other daemons and ignore this one
699         continue;
700       }
701     } else if (strcasecmp("LongRunAvgLatency", child->key) == 0) {
702       ret = cc_handle_bool(child, &long_run_latency_avg);
703       if (ret) {
704         return ret;
705       }
706     } else if (strcasecmp("ConvertSpecialMetricTypes", child->key) == 0) {
707       ret = cc_handle_bool(child, &convert_special_metrics);
708       if (ret) {
709         return ret;
710       }
711     } else {
712       WARNING("ceph plugin: ignoring unknown option %s", child->key);
713     }
714   }
715   return 0;
716 }
717
718 /**
719  * Parse JSON and get error message if present
720  */
721 static int traverse_json(const unsigned char *json, uint32_t json_len,
722                          yajl_handle hand) {
723   yajl_status status = yajl_parse(hand, json, json_len);
724   unsigned char *msg;
725
726   switch (status) {
727   case yajl_status_error:
728     msg = yajl_get_error(hand, /* verbose = */ 1,
729                          /* jsonText = */ (unsigned char *)json,
730                          (unsigned int)json_len);
731     ERROR("ceph plugin: yajl_parse failed: %s", msg);
732     yajl_free_error(hand, msg);
733     return 1;
734   case yajl_status_client_canceled:
735     return 1;
736   default:
737     return 0;
738   }
739 }
740
741 /**
742  * Add entry for each counter while parsing schema
743  */
744 static int node_handler_define_schema(void *arg, const char *val,
745                                       const char *key) {
746   struct ceph_daemon *d = (struct ceph_daemon *)arg;
747   int pc_type;
748   pc_type = atoi(val);
749   return ceph_daemon_add_ds_entry(d, key, pc_type);
750 }
751
752 /**
753  * Latency counter does not yet have an entry in last poll data - add it.
754  */
755 static int add_last(struct ceph_daemon *d, const char *ds_n, double cur_sum,
756                     uint64_t cur_count) {
757   d->last_poll_data[d->last_idx] =
758       malloc(sizeof(*d->last_poll_data[d->last_idx]));
759   if (!d->last_poll_data[d->last_idx]) {
760     return -ENOMEM;
761   }
762   sstrncpy(d->last_poll_data[d->last_idx]->ds_name, ds_n,
763            sizeof(d->last_poll_data[d->last_idx]->ds_name));
764   d->last_poll_data[d->last_idx]->last_sum = cur_sum;
765   d->last_poll_data[d->last_idx]->last_count = cur_count;
766   d->last_idx = (d->last_idx + 1);
767   return 0;
768 }
769
770 /**
771  * Update latency counter or add new entry if it doesn't exist
772  */
773 static int update_last(struct ceph_daemon *d, const char *ds_n, int index,
774                        double cur_sum, uint64_t cur_count) {
775   if ((d->last_idx > index) &&
776       (strcmp(d->last_poll_data[index]->ds_name, ds_n) == 0)) {
777     d->last_poll_data[index]->last_sum = cur_sum;
778     d->last_poll_data[index]->last_count = cur_count;
779     return 0;
780   }
781
782   if (!d->last_poll_data) {
783     d->last_poll_data = malloc(sizeof(*d->last_poll_data));
784     if (!d->last_poll_data) {
785       return -ENOMEM;
786     }
787   } else {
788     struct last_data **tmp_last = realloc(
789         d->last_poll_data, ((d->last_idx + 1) * sizeof(struct last_data *)));
790     if (!tmp_last) {
791       return -ENOMEM;
792     }
793     d->last_poll_data = tmp_last;
794   }
795   return add_last(d, ds_n, cur_sum, cur_count);
796 }
797
798 /**
799  * If using index guess failed (shouldn't happen, but possible if counters
800  * get rearranged), resort to searching for counter name
801  */
802 static int backup_search_for_last_avg(struct ceph_daemon *d, const char *ds_n) {
803   for (int i = 0; i < d->last_idx; i++) {
804     if (strcmp(d->last_poll_data[i]->ds_name, ds_n) == 0) {
805       return i;
806     }
807   }
808   return -1;
809 }
810
811 /**
812  * Calculate average b/t current data and last poll data
813  * if last poll data exists
814  */
815 static double get_last_avg(struct ceph_daemon *d, const char *ds_n, int index,
816                            double cur_sum, uint64_t cur_count) {
817   double result = -1.1, sum_delt = 0.0;
818   uint64_t count_delt = 0;
819   int tmp_index = 0;
820   if (d->last_idx > index) {
821     if (strcmp(d->last_poll_data[index]->ds_name, ds_n) == 0) {
822       tmp_index = index;
823     }
824     // test previous index
825     else if ((index > 0) &&
826              (strcmp(d->last_poll_data[index - 1]->ds_name, ds_n) == 0)) {
827       tmp_index = (index - 1);
828     } else {
829       tmp_index = backup_search_for_last_avg(d, ds_n);
830     }
831
832     if ((tmp_index > -1) &&
833         (cur_count > d->last_poll_data[tmp_index]->last_count)) {
834       sum_delt = (cur_sum - d->last_poll_data[tmp_index]->last_sum);
835       count_delt = (cur_count - d->last_poll_data[tmp_index]->last_count);
836       result = (sum_delt / count_delt);
837     }
838   }
839
840   if (result == -1.1) {
841     result = NAN;
842   }
843   if (update_last(d, ds_n, tmp_index, cur_sum, cur_count) == -ENOMEM) {
844     return -ENOMEM;
845   }
846   return result;
847 }
848
849 /**
850  * If using index guess failed, resort to searching for counter name
851  */
852 static uint32_t backup_search_for_type(struct ceph_daemon *d, char *ds_name) {
853   for (int i = 0; i < d->ds_num; i++) {
854     if (strcmp(d->ds_names[i], ds_name) == 0) {
855       return d->ds_types[i];
856     }
857   }
858   return DSET_TYPE_UNFOUND;
859 }
860
861 /**
862  * Process counter data and dispatch values
863  */
864 static int node_handler_fetch_data(void *arg, const char *val,
865                                    const char *key) {
866   value_t uv;
867   double tmp_d;
868   uint64_t tmp_u;
869   struct values_tmp *vtmp = (struct values_tmp *)arg;
870   uint32_t type = DSET_TYPE_UNFOUND;
871   int index = vtmp->index;
872
873   char ds_name[DATA_MAX_NAME_LEN];
874
875   if (parse_keys(ds_name, sizeof(ds_name), key)) {
876     return 1;
877   }
878
879   if (index >= vtmp->d->ds_num) {
880     // don't overflow bounds of array
881     index = (vtmp->d->ds_num - 1);
882   }
883
884   /**
885    * counters should remain in same order we parsed schema... we maintain the
886    * index variable to keep track of current point in list of counters. first
887    * use index to guess point in array for retrieving type. if that doesn't
888    * work, use the old way to get the counter type
889    */
890   if (strcmp(ds_name, vtmp->d->ds_names[index]) == 0) {
891     // found match
892     type = vtmp->d->ds_types[index];
893   } else if ((index > 0) &&
894              (strcmp(ds_name, vtmp->d->ds_names[index - 1]) == 0)) {
895     // try previous key
896     type = vtmp->d->ds_types[index - 1];
897   }
898
899   if (type == DSET_TYPE_UNFOUND) {
900     // couldn't find right type by guessing, check the old way
901     type = backup_search_for_type(vtmp->d, ds_name);
902   }
903
904   switch (type) {
905   case DSET_LATENCY:
906     if (has_suffix(key, ".avgcount")) {
907       sscanf(val, "%" PRIu64, &vtmp->avgcount);
908       // return after saving avgcount - don't dispatch value
909       // until latency calculation
910       return 0;
911     } else if (has_suffix(key, ".sum")) {
912       if (vtmp->avgcount == 0) {
913         vtmp->avgcount = 1;
914       }
915       // user wants latency values as long run avg
916       // skip this step
917       if (long_run_latency_avg) {
918         return 0;
919       }
920       double sum, result;
921       sscanf(val, "%lf", &sum);
922       result = get_last_avg(vtmp->d, ds_name, vtmp->latency_index, sum,
923                             vtmp->avgcount);
924       if (result == -ENOMEM) {
925         return -ENOMEM;
926       }
927       uv.gauge = result;
928       vtmp->latency_index = (vtmp->latency_index + 1);
929     } else if (has_suffix(key, ".avgtime")) {
930
931       /* The "avgtime" metric reports ("sum" / "avgcount"), i.e. the average
932        * time per request since the start of the Ceph daemon. Report this only
933        * when the user has configured "long running average". Otherwise, use the
934        * rate of "sum" and "avgcount" to calculate the current latency.
935        */
936
937       if (!long_run_latency_avg) {
938         return 0;
939       }
940       double result;
941       sscanf(val, "%lf", &result);
942       uv.gauge = result;
943       vtmp->latency_index = (vtmp->latency_index + 1);
944     } else {
945       WARNING("ceph plugin: ignoring unknown latency metric: %s", key);
946       return 0;
947     }
948     break;
949   case DSET_BYTES:
950     sscanf(val, "%lf", &tmp_d);
951     uv.gauge = tmp_d;
952     break;
953   case DSET_RATE:
954     sscanf(val, "%" PRIu64, &tmp_u);
955     uv.derive = tmp_u;
956     break;
957   case DSET_TYPE_UNFOUND:
958   default:
959     ERROR("ceph plugin: ds %s was not properly initialized.", ds_name);
960     return -1;
961   }
962
963   sstrncpy(vtmp->vlist.type, ceph_dset_types[type], sizeof(vtmp->vlist.type));
964   sstrncpy(vtmp->vlist.type_instance, ds_name,
965            sizeof(vtmp->vlist.type_instance));
966   vtmp->vlist.values = &uv;
967   vtmp->vlist.values_len = 1;
968
969   vtmp->index = (vtmp->index + 1);
970   plugin_dispatch_values(&vtmp->vlist);
971
972   return 0;
973 }
974
975 static int cconn_connect(struct cconn *io) {
976   struct sockaddr_un address = {0};
977   int flags, fd, err;
978   if (io->state != CSTATE_UNCONNECTED) {
979     ERROR("ceph plugin: cconn_connect: io->state != CSTATE_UNCONNECTED");
980     return -EDOM;
981   }
982   fd = socket(PF_UNIX, SOCK_STREAM, 0);
983   if (fd < 0) {
984     err = -errno;
985     ERROR("ceph plugin: cconn_connect: socket(PF_UNIX, SOCK_STREAM, 0) "
986           "failed: error %d",
987           err);
988     return err;
989   }
990   address.sun_family = AF_UNIX;
991   snprintf(address.sun_path, sizeof(address.sun_path), "%s", io->d->asok_path);
992   RETRY_ON_EINTR(err, connect(fd, (struct sockaddr *)&address,
993                               sizeof(struct sockaddr_un)));
994   if (err < 0) {
995     ERROR("ceph plugin: cconn_connect: connect(%d) failed: error %d", fd, err);
996     close(fd);
997     return err;
998   }
999
1000   flags = fcntl(fd, F_GETFL, 0);
1001   if (fcntl(fd, F_SETFL, flags | O_NONBLOCK) != 0) {
1002     err = -errno;
1003     ERROR("ceph plugin: cconn_connect: fcntl(%d, O_NONBLOCK) error %d", fd,
1004           err);
1005     close(fd);
1006     return err;
1007   }
1008   io->asok = fd;
1009   io->state = CSTATE_WRITE_REQUEST;
1010   io->amt = 0;
1011   io->json_len = 0;
1012   io->json = NULL;
1013   return 0;
1014 }
1015
1016 static void cconn_close(struct cconn *io) {
1017   io->state = CSTATE_UNCONNECTED;
1018   if (io->asok != -1) {
1019     int res;
1020     RETRY_ON_EINTR(res, close(io->asok));
1021   }
1022   io->asok = -1;
1023   io->amt = 0;
1024   io->json_len = 0;
1025   sfree(io->json);
1026   io->json = NULL;
1027 }
1028
1029 /* Process incoming JSON counter data */
1030 static int cconn_process_data(struct cconn *io, yajl_struct *yajl,
1031                               yajl_handle hand) {
1032   int ret;
1033   struct values_tmp *vtmp = calloc(1, sizeof(struct values_tmp) * 1);
1034   if (!vtmp) {
1035     return -ENOMEM;
1036   }
1037
1038   vtmp->vlist = (value_list_t)VALUE_LIST_INIT;
1039   sstrncpy(vtmp->vlist.plugin, "ceph", sizeof(vtmp->vlist.plugin));
1040   sstrncpy(vtmp->vlist.plugin_instance, io->d->name,
1041            sizeof(vtmp->vlist.plugin_instance));
1042
1043   vtmp->d = io->d;
1044   vtmp->latency_index = 0;
1045   vtmp->index = 0;
1046   yajl->handler_arg = vtmp;
1047   ret = traverse_json(io->json, io->json_len, hand);
1048   sfree(vtmp);
1049   return ret;
1050 }
1051
1052 /**
1053  * Initiate JSON parsing and print error if one occurs
1054  */
1055 static int cconn_process_json(struct cconn *io) {
1056   if ((io->request_type != ASOK_REQ_DATA) &&
1057       (io->request_type != ASOK_REQ_SCHEMA)) {
1058     return -EDOM;
1059   }
1060
1061   int result = 1;
1062   yajl_handle hand;
1063   yajl_status status;
1064
1065   hand = yajl_alloc(&callbacks,
1066 #if HAVE_YAJL_V2
1067                     /* alloc funcs = */ NULL,
1068 #else
1069                     /* alloc funcs = */ NULL, NULL,
1070 #endif
1071                     /* context = */ (void *)(&io->yajl));
1072
1073   if (!hand) {
1074     ERROR("ceph plugin: yajl_alloc failed.");
1075     return ENOMEM;
1076   }
1077
1078   io->yajl.depth = 0;
1079
1080   switch (io->request_type) {
1081   case ASOK_REQ_DATA:
1082     io->yajl.handler = node_handler_fetch_data;
1083     result = cconn_process_data(io, &io->yajl, hand);
1084     break;
1085   case ASOK_REQ_SCHEMA:
1086     // init daemon specific variables
1087     io->d->ds_num = 0;
1088     io->d->last_idx = 0;
1089     io->d->last_poll_data = NULL;
1090     io->yajl.handler = node_handler_define_schema;
1091     io->yajl.handler_arg = io->d;
1092     result = traverse_json(io->json, io->json_len, hand);
1093     break;
1094   }
1095
1096   if (result) {
1097     goto done;
1098   }
1099
1100 #if HAVE_YAJL_V2
1101   status = yajl_complete_parse(hand);
1102 #else
1103   status = yajl_parse_complete(hand);
1104 #endif
1105
1106   if (status != yajl_status_ok) {
1107     unsigned char *errmsg =
1108         yajl_get_error(hand, /* verbose = */ 0,
1109                        /* jsonText = */ NULL, /* jsonTextLen = */ 0);
1110     ERROR("ceph plugin: yajl_parse_complete failed: %s", (char *)errmsg);
1111     yajl_free_error(hand, errmsg);
1112     yajl_free(hand);
1113     return 1;
1114   }
1115
1116 done:
1117   yajl_free(hand);
1118   return result;
1119 }
1120
1121 static int cconn_validate_revents(struct cconn *io, int revents) {
1122   if (revents & POLLERR) {
1123     ERROR("ceph plugin: cconn_validate_revents(name=%s): got POLLERR",
1124           io->d->name);
1125     return -EIO;
1126   }
1127   switch (io->state) {
1128   case CSTATE_WRITE_REQUEST:
1129     return (revents & POLLOUT) ? 0 : -EINVAL;
1130   case CSTATE_READ_VERSION:
1131   case CSTATE_READ_AMT:
1132   case CSTATE_READ_JSON:
1133     return (revents & POLLIN) ? 0 : -EINVAL;
1134   default:
1135     ERROR("ceph plugin: cconn_validate_revents(name=%s) got to "
1136           "illegal state on line %d",
1137           io->d->name, __LINE__);
1138     return -EDOM;
1139   }
1140 }
1141
1142 /** Handle a network event for a connection */
1143 static int cconn_handle_event(struct cconn *io) {
1144   int ret;
1145   switch (io->state) {
1146   case CSTATE_UNCONNECTED:
1147     ERROR("ceph plugin: cconn_handle_event(name=%s) got to illegal "
1148           "state on line %d",
1149           io->d->name, __LINE__);
1150
1151     return -EDOM;
1152   case CSTATE_WRITE_REQUEST: {
1153     char cmd[32];
1154     snprintf(cmd, sizeof(cmd), "%s%d%s", "{ \"prefix\": \"", io->request_type,
1155              "\" }\n");
1156     size_t cmd_len = strlen(cmd);
1157     RETRY_ON_EINTR(
1158         ret, write(io->asok, ((char *)&cmd) + io->amt, cmd_len - io->amt));
1159     DEBUG("ceph plugin: cconn_handle_event(name=%s,state=%d,amt=%d,ret=%d)",
1160           io->d->name, io->state, io->amt, ret);
1161     if (ret < 0) {
1162       return ret;
1163     }
1164     io->amt += ret;
1165     if (io->amt >= cmd_len) {
1166       io->amt = 0;
1167       switch (io->request_type) {
1168       case ASOK_REQ_VERSION:
1169         io->state = CSTATE_READ_VERSION;
1170         break;
1171       default:
1172         io->state = CSTATE_READ_AMT;
1173         break;
1174       }
1175     }
1176     return 0;
1177   }
1178   case CSTATE_READ_VERSION: {
1179     RETRY_ON_EINTR(ret, read(io->asok, ((char *)(&io->d->version)) + io->amt,
1180                              sizeof(io->d->version) - io->amt));
1181     DEBUG("ceph plugin: cconn_handle_event(name=%s,state=%d,ret=%d)",
1182           io->d->name, io->state, ret);
1183     if (ret < 0) {
1184       return ret;
1185     }
1186     io->amt += ret;
1187     if (io->amt >= sizeof(io->d->version)) {
1188       io->d->version = ntohl(io->d->version);
1189       if (io->d->version != 1) {
1190         ERROR("ceph plugin: cconn_handle_event(name=%s) not "
1191               "expecting version %d!",
1192               io->d->name, io->d->version);
1193         return -ENOTSUP;
1194       }
1195       DEBUG("ceph plugin: cconn_handle_event(name=%s): identified as "
1196             "version %d",
1197             io->d->name, io->d->version);
1198       io->amt = 0;
1199       cconn_close(io);
1200       io->request_type = ASOK_REQ_SCHEMA;
1201     }
1202     return 0;
1203   }
1204   case CSTATE_READ_AMT: {
1205     RETRY_ON_EINTR(ret, read(io->asok, ((char *)(&io->json_len)) + io->amt,
1206                              sizeof(io->json_len) - io->amt));
1207     DEBUG("ceph plugin: cconn_handle_event(name=%s,state=%d,ret=%d)",
1208           io->d->name, io->state, ret);
1209     if (ret < 0) {
1210       return ret;
1211     }
1212     io->amt += ret;
1213     if (io->amt >= sizeof(io->json_len)) {
1214       io->json_len = ntohl(io->json_len);
1215       io->amt = 0;
1216       io->state = CSTATE_READ_JSON;
1217       io->json = calloc(1, io->json_len + 1);
1218       if (!io->json) {
1219         ERROR("ceph plugin: error callocing io->json");
1220         return -ENOMEM;
1221       }
1222     }
1223     return 0;
1224   }
1225   case CSTATE_READ_JSON: {
1226     RETRY_ON_EINTR(ret,
1227                    read(io->asok, io->json + io->amt, io->json_len - io->amt));
1228     DEBUG("ceph plugin: cconn_handle_event(name=%s,state=%d,ret=%d)",
1229           io->d->name, io->state, ret);
1230     if (ret < 0) {
1231       return ret;
1232     }
1233     io->amt += ret;
1234     if (io->amt >= io->json_len) {
1235       ret = cconn_process_json(io);
1236       if (ret) {
1237         return ret;
1238       }
1239       cconn_close(io);
1240       io->request_type = ASOK_REQ_NONE;
1241     }
1242     return 0;
1243   }
1244   default:
1245     ERROR("ceph plugin: cconn_handle_event(name=%s) got to illegal "
1246           "state on line %d",
1247           io->d->name, __LINE__);
1248     return -EDOM;
1249   }
1250 }
1251
1252 static int cconn_prepare(struct cconn *io, struct pollfd *fds) {
1253   int ret;
1254   if (io->request_type == ASOK_REQ_NONE) {
1255     /* The request has already been serviced. */
1256     return 0;
1257   } else if ((io->request_type == ASOK_REQ_DATA) && (io->d->ds_num == 0)) {
1258     /* If there are no counters to report on, don't bother
1259      * connecting */
1260     return 0;
1261   }
1262
1263   switch (io->state) {
1264   case CSTATE_UNCONNECTED:
1265     ret = cconn_connect(io);
1266     if (ret > 0) {
1267       return -ret;
1268     } else if (ret < 0) {
1269       return ret;
1270     }
1271     fds->fd = io->asok;
1272     fds->events = POLLOUT;
1273     return 1;
1274   case CSTATE_WRITE_REQUEST:
1275     fds->fd = io->asok;
1276     fds->events = POLLOUT;
1277     return 1;
1278   case CSTATE_READ_VERSION:
1279   case CSTATE_READ_AMT:
1280   case CSTATE_READ_JSON:
1281     fds->fd = io->asok;
1282     fds->events = POLLIN;
1283     return 1;
1284   default:
1285     ERROR("ceph plugin: cconn_prepare(name=%s) got to illegal state "
1286           "on line %d",
1287           io->d->name, __LINE__);
1288     return -EDOM;
1289   }
1290 }
1291
1292 /** Returns the difference between two struct timevals in milliseconds.
1293  * On overflow, we return max/min int.
1294  */
1295 static int milli_diff(const struct timeval *t1, const struct timeval *t2) {
1296   int64_t ret;
1297   int sec_diff = t1->tv_sec - t2->tv_sec;
1298   int usec_diff = t1->tv_usec - t2->tv_usec;
1299   ret = usec_diff / 1000;
1300   ret += (sec_diff * 1000);
1301   return (ret > INT_MAX) ? INT_MAX : ((ret < INT_MIN) ? INT_MIN : (int)ret);
1302 }
1303
1304 /** This handles the actual network I/O to talk to the Ceph daemons.
1305  */
1306 static int cconn_main_loop(uint32_t request_type) {
1307   int ret, some_unreachable = 0;
1308   struct timeval end_tv;
1309   struct cconn io_array[g_num_daemons];
1310
1311   DEBUG("ceph plugin: entering cconn_main_loop(request_type = %" PRIu32 ")",
1312         request_type);
1313
1314   if (g_num_daemons < 1) {
1315     ERROR("ceph plugin: No daemons configured. See the \"Daemon\" config "
1316           "option.");
1317     return ENOENT;
1318   }
1319
1320   /* create cconn array */
1321   for (size_t i = 0; i < g_num_daemons; i++) {
1322     io_array[i] = (struct cconn){
1323         .d = g_daemons[i],
1324         .request_type = request_type,
1325         .state = CSTATE_UNCONNECTED,
1326     };
1327   }
1328
1329   /** Calculate the time at which we should give up */
1330   gettimeofday(&end_tv, NULL);
1331   end_tv.tv_sec += CEPH_TIMEOUT_INTERVAL;
1332
1333   while (1) {
1334     int nfds, diff;
1335     struct timeval tv;
1336     struct cconn *polled_io_array[g_num_daemons];
1337     struct pollfd fds[g_num_daemons];
1338     memset(fds, 0, sizeof(fds));
1339     nfds = 0;
1340     for (size_t i = 0; i < g_num_daemons; ++i) {
1341       struct cconn *io = io_array + i;
1342       ret = cconn_prepare(io, fds + nfds);
1343       if (ret < 0) {
1344         WARNING("ceph plugin: cconn_prepare(name=%s,i=%" PRIsz ",st=%d)=%d",
1345                 io->d->name, i, io->state, ret);
1346         cconn_close(io);
1347         io->request_type = ASOK_REQ_NONE;
1348         some_unreachable = 1;
1349       } else if (ret == 1) {
1350         polled_io_array[nfds++] = io_array + i;
1351       }
1352     }
1353     if (nfds == 0) {
1354       /* finished */
1355       ret = 0;
1356       goto done;
1357     }
1358     gettimeofday(&tv, NULL);
1359     diff = milli_diff(&end_tv, &tv);
1360     if (diff <= 0) {
1361       /* Timed out */
1362       ret = -ETIMEDOUT;
1363       WARNING("ceph plugin: cconn_main_loop: timed out.");
1364       goto done;
1365     }
1366     RETRY_ON_EINTR(ret, poll(fds, nfds, diff));
1367     if (ret < 0) {
1368       ERROR("ceph plugin: poll(2) error: %d", ret);
1369       goto done;
1370     }
1371     for (int i = 0; i < nfds; ++i) {
1372       struct cconn *io = polled_io_array[i];
1373       int revents = fds[i].revents;
1374       if (revents == 0) {
1375         /* do nothing */
1376         continue;
1377       } else if (cconn_validate_revents(io, revents)) {
1378         WARNING("ceph plugin: cconn(name=%s,i=%d,st=%d): "
1379                 "revents validation error: "
1380                 "revents=0x%08x",
1381                 io->d->name, i, io->state, revents);
1382         cconn_close(io);
1383         io->request_type = ASOK_REQ_NONE;
1384         some_unreachable = 1;
1385       } else {
1386         ret = cconn_handle_event(io);
1387         if (ret) {
1388           WARNING("ceph plugin: cconn_handle_event(name=%s,"
1389                   "i=%d,st=%d): error %d",
1390                   io->d->name, i, io->state, ret);
1391           cconn_close(io);
1392           io->request_type = ASOK_REQ_NONE;
1393           some_unreachable = 1;
1394         }
1395       }
1396     }
1397   }
1398 done:
1399   for (size_t i = 0; i < g_num_daemons; ++i) {
1400     cconn_close(io_array + i);
1401   }
1402   if (some_unreachable) {
1403     DEBUG("ceph plugin: cconn_main_loop: some Ceph daemons were unreachable.");
1404   } else {
1405     DEBUG("ceph plugin: cconn_main_loop: reached all Ceph daemons :)");
1406   }
1407   return ret;
1408 }
1409
1410 static int ceph_read(void) { return cconn_main_loop(ASOK_REQ_DATA); }
1411
1412 /******* lifecycle *******/
1413 static int ceph_init(void) {
1414 #if defined(HAVE_SYS_CAPABILITY_H) && defined(CAP_DAC_OVERRIDE)
1415   if (check_capability(CAP_DAC_OVERRIDE) != 0) {
1416     if (getuid() == 0)
1417       WARNING("ceph plugin: Running collectd as root, but the "
1418               "CAP_DAC_OVERRIDE capability is missing. The plugin's read "
1419               "function will probably fail. Is your init system dropping "
1420               "capabilities?");
1421     else
1422       WARNING(
1423           "ceph plugin: collectd doesn't have the CAP_DAC_OVERRIDE "
1424           "capability. If you don't want to run collectd as root, try running "
1425           "\"setcap cap_dac_override=ep\" on the collectd binary.");
1426   }
1427 #endif
1428
1429   ceph_daemons_print();
1430
1431   if (g_num_daemons < 1) {
1432     ERROR("ceph plugin: No daemons configured. See the \"Daemon\" config "
1433           "option.");
1434     return ENOENT;
1435   }
1436
1437   return cconn_main_loop(ASOK_REQ_VERSION);
1438 }
1439
1440 static int ceph_shutdown(void) {
1441   for (size_t i = 0; i < g_num_daemons; ++i) {
1442     ceph_daemon_free(g_daemons[i]);
1443   }
1444   sfree(g_daemons);
1445   g_daemons = NULL;
1446   g_num_daemons = 0;
1447   DEBUG("ceph plugin: finished ceph_shutdown");
1448   return 0;
1449 }
1450
1451 void module_register(void) {
1452   plugin_register_complex_config("ceph", ceph_config);
1453   plugin_register_init("ceph", ceph_init);
1454   plugin_register_read("ceph", ceph_read);
1455   plugin_register_shutdown("ceph", ceph_shutdown);
1456 }