Cleanup leftover UST comments, add comments about current implementation limitations
[ust.git] / libust / serialize.c
index c637786ed9563cde1a63f22e0f88ff9d30abbc6c..81f8e4c610107e6080c1ea6eee8e3702bcd74cd6 100644 (file)
@@ -25,6 +25,7 @@
  */
 
 #define _GNU_SOURCE
+#define _LGPL_SOURCE
 #include <unistd.h>
 #include <sys/syscall.h>
 #include <stdarg.h>
@@ -32,7 +33,6 @@
 #include <stdint.h>
 #include <stdio.h>
 
-#define _LGPL_SOURCE
 #include <urcu-bp.h>
 #include <urcu/rculist.h>
 
@@ -624,12 +624,12 @@ void ltt_write_event_data(struct ust_buffer *buf, size_t buf_offset,
 }
 
 
-notrace void ltt_vtrace(const struct marker *mdata, void *probe_data,
-                       struct registers *regs, void *call_data,
+notrace void ltt_vtrace(const struct ust_marker *mdata, void *probe_data,
+                       void *call_data,
                        const char *fmt, va_list *args)
 {
        int largest_align, ret;
-       struct ltt_active_marker *pdata;
+       struct ltt_active_ust_marker *pdata;
        uint16_t eID;
        size_t data_size, slot_size;
        unsigned int chan_index;
@@ -653,7 +653,7 @@ notrace void ltt_vtrace(const struct marker *mdata, void *probe_data,
        if (unlikely(ltt_traces.num_active_traces == 0))
                return;
 
-       rcu_read_lock(); //ust// rcu_read_lock_sched_notrace();
+       rcu_read_lock();
        cpu = ust_get_cpu();
 
        /* Force volatile access. */
@@ -661,7 +661,7 @@ notrace void ltt_vtrace(const struct marker *mdata, void *probe_data,
        stack_pos_ctx = tracer_stack_pos;
        cmm_barrier();
 
-       pdata = (struct ltt_active_marker *)probe_data;
+       pdata = (struct ltt_active_ust_marker *)probe_data;
        eID = mdata->event_id;
        chan_index = mdata->channel_id;
        closure.callbacks = pdata->probe->callbacks;
@@ -713,11 +713,12 @@ notrace void ltt_vtrace(const struct marker *mdata, void *probe_data,
                if (!channel->active)
                        continue;
 
-               /* If a new cpu was plugged since the trace was started, we did
+               /*
+                * If a new cpu was plugged since the trace was started, we did
                 * not add it to the trace, and therefore we write the event to
                 * cpu 0.
                 */
-               if(cpu >= channel->n_cpus) {
+               if (cpu >= channel->n_cpus) {
                        cpu = 0;
                }
 
@@ -730,7 +731,6 @@ notrace void ltt_vtrace(const struct marker *mdata, void *probe_data,
 
                va_copy(args_copy, *args);
                /* FIXME : could probably encapsulate transport better. */
-//ust//                buf = ((struct rchan *)channel->trans_channel_data)->buf[cpu];
                buf = channel->buf[cpu];
                /* Out-of-order write : header and data */
                buf_offset = ltt_write_event_header(channel, buf, buf_offset,
@@ -749,17 +749,17 @@ notrace void ltt_vtrace(const struct marker *mdata, void *probe_data,
        tracer_stack_pos = stack_pos_ctx;
        CMM_STORE_SHARED(ltt_nesting, CMM_LOAD_SHARED(ltt_nesting) - 1);
 
-       rcu_read_unlock(); //ust// rcu_read_unlock_sched_notrace();
+       rcu_read_unlock();
 }
 
-notrace void ltt_trace(const struct marker *mdata, void *probe_data,
-                      struct registers *regs, void *call_data,
+notrace void ltt_trace(const struct ust_marker *mdata, void *probe_data,
+                      void *call_data,
                       const char *fmt, ...)
 {
        va_list args;
 
        va_start(args, fmt);
-       ltt_vtrace(mdata, probe_data, regs, call_data, fmt, &args);
+       ltt_vtrace(mdata, probe_data, call_data, fmt, &args);
        va_end(args);
 }
 
@@ -771,7 +771,7 @@ static notrace void skip_space(const char **ps)
 
 static notrace void copy_token(char **out, const char **in)
 {
-       while(**in != ' ' && **in != '\0') {
+       while (**in != ' ' && **in != '\0') {
                **out = **in;
                (*out)++;
                (*in)++;
@@ -808,23 +808,23 @@ int serialize_to_text(char *outbuf, int bufsize, const char *fmt, va_list ap)
        int result;
        enum { none, cfmt, tracefmt, argname } prev_token = none;
 
-       while(*orig_fmt_p != '\0') {
-               if(*orig_fmt_p == '%') {
+       while (*orig_fmt_p != '\0') {
+               if (*orig_fmt_p == '%') {
                        prev_token = cfmt;
                        copy_token(&new_fmt_p, &orig_fmt_p);
                }
-               else if(*orig_fmt_p == '#') {
+               else if (*orig_fmt_p == '#') {
                        prev_token = tracefmt;
                        do {
                                orig_fmt_p++;
-                       } while(*orig_fmt_p != ' ' && *orig_fmt_p != '\0');
+                       } while (*orig_fmt_p != ' ' && *orig_fmt_p != '\0');
                }
-               else if(*orig_fmt_p == ' ') {
-                       if(prev_token == argname) {
+               else if (*orig_fmt_p == ' ') {
+                       if (prev_token == argname) {
                                *new_fmt_p = '=';
                                new_fmt_p++;
                        }
-                       else if(prev_token == cfmt) {
+                       else if (prev_token == cfmt) {
                                *new_fmt_p = ' ';
                                new_fmt_p++;
                        }
@@ -839,7 +839,7 @@ int serialize_to_text(char *outbuf, int bufsize, const char *fmt, va_list ap)
 
        *new_fmt_p = '\0';
 
-       if(outbuf == NULL) {
+       if (outbuf == NULL) {
                /* use this false_buffer for compatibility with pre-C99 */
                outbuf = &false_buf;
                bufsize = 1;
This page took 0.025228 seconds and 4 git commands to generate.