wrapper: remove random wrapper
[lttng-modules.git] / wrapper / trace-clock.h
index c51f8d3cf3652708dac979ad801b66ffc42683d0..28ee90ebf0434aa0fb3015c4f8c42d833a4a0b98 100644 (file)
 #include <asm/local.h>
 #include <lttng-kernel-version.h>
 #include <lttng-clock.h>
-#include <wrapper/compiler.h>
-#include <wrapper/random.h>
-#include <blacklist/timekeeping.h>
+#include <linux/random.h>
 
 extern struct lttng_trace_clock *lttng_trace_clock;
 
-/*
- * Upstream Linux commit 27727df240c7 ("Avoid taking lock in NMI path with
- * CONFIG_DEBUG_TIMEKEEPING") introduces a buggy ktime_get_mono_fast_ns().
- * This is fixed by patch "timekeeping: Fix __ktime_get_fast_ns() regression".
- */
-#if (LTTNG_KERNEL_RANGE(4,8,0, 4,8,2) \
-       || LTTNG_KERNEL_RANGE(4,7,4, 4,7,8) \
-       || LTTNG_KERNEL_RANGE(4,4,20, 4,4,25) \
-       || LTTNG_KERNEL_RANGE(4,1,32, 4,1,35))
-#define LTTNG_CLOCK_NMI_SAFE_BROKEN
-#endif
-
 /*
  * We need clock values to be monotonically increasing per-cpu, which is
  * not strictly guaranteed by ktime_get_mono_fast_ns(). It is
@@ -51,9 +37,7 @@ extern struct lttng_trace_clock *lttng_trace_clock;
  * this feature on 64-bit architectures.
  */
 
-#if (LINUX_VERSION_CODE >= KERNEL_VERSION(3,17,0) \
-       && BITS_PER_LONG == 64 \
-       && !defined(LTTNG_CLOCK_NMI_SAFE_BROKEN))
+#if BITS_PER_LONG == 64
 #define LTTNG_USE_NMI_SAFE_CLOCK
 #endif
 
@@ -127,7 +111,11 @@ static inline u64 trace_clock_freq_monotonic(void)
 
 static inline int trace_clock_uuid_monotonic(char *uuid)
 {
-       return wrapper_get_bootid(uuid);
+       unsigned char *boot_id;
+
+       boot_id = get_kernel_boot_id();
+       sprintf(uuid, "%pU", boot_id);
+       return 0;
 }
 
 static inline const char *trace_clock_name_monotonic(void)
This page took 0.02435 seconds and 4 git commands to generate.