Fix: work-around upstream Linux timekeeping bug
[lttng-modules.git] / wrapper / trace-clock.h
index d2b7f19dba76e197738d055217250d38767bd816..649c93f358d62c9bcede2cd33bd3f890ffa412ab 100644 (file)
 #include <linux/percpu.h>
 #include <linux/version.h>
 #include <asm/local.h>
-#include "../lttng-kernel-version.h"
-#include "../lttng-clock.h"
-#include "percpu-defs.h"
-#include "random.h"
+#include <lttng-kernel-version.h>
+#include <lttng-clock.h>
+#include <wrapper/percpu-defs.h>
+#include <wrapper/random.h>
 
-#if ((LTTNG_KERNEL_RANGE(3,10,0, 3,10,14) && !LTTNG_RHEL_KERNEL_RANGE(3,10,0,7,0, 3,10,14,0,0)) \
+#if ((LTTNG_KERNEL_RANGE(3,10,0, 3,10,14) && !LTTNG_RHEL_KERNEL_RANGE(3,10,0,123,0,0, 3,10,14,0,0,0)) \
        || LTTNG_KERNEL_RANGE(3,11,0, 3,11,3))
 #error "Linux kernels 3.10 and 3.11 introduce a deadlock in the timekeeping subsystem. Fixed by commit 7bd36014460f793c19e7d6c94dab67b0afcfcb7f \"timekeeping: Fix HRTICK related deadlock from ntp lock changes\" in Linux."
 #endif
 
 extern struct lttng_trace_clock *lttng_trace_clock;
 
-#if (LINUX_VERSION_CODE >= KERNEL_VERSION(3,17,0))
+/*
+ * Upstream Linux commit 27727df240c7 ("Avoid taking lock in NMI path with
+ * CONFIG_DEBUG_TIMEKEEPING") introduces a buggy ktime_get_mono_fast_ns().
+ * This is fixed by patch "timekeeping: Fix __ktime_get_fast_ns() regression".
+ */
+#if (LINUX_VERSION_CODE >= KERNEL_VERSION(3,17,0) \
+       && !LTTNG_KERNEL_RANGE(4,8,0, 4,8,1) \
+       && !LTTNG_KERNEL_RANGE(4,7,4, 4,7,7) \
+       && !LTTNG_KERNEL_RANGE(4,4,20, 4,4,24) \
+       && !LTTNG_KERNEL_RANGE(4,1,32, 4,1,34))
 
 DECLARE_PER_CPU(local_t, lttng_last_tsc);
 
@@ -93,7 +102,7 @@ static inline u64 trace_clock_fixup(u64 src_now, u64 last)
 #endif /* #else #if (BITS_PER_LONG == 32) */
 
 /*
- * Always called with preemption disabled. Can be interrupted.
+ * Sometimes called with preemption enabled. Can be interrupted.
  */
 static inline u64 trace_clock_monotonic_wrapper(void)
 {
@@ -102,6 +111,7 @@ static inline u64 trace_clock_monotonic_wrapper(void)
        local_t *last_tsc;
 
        /* Use fast nmi-safe monotonic clock provided by the Linux kernel. */
+       preempt_disable();
        last_tsc = lttng_this_cpu_ptr(&lttng_last_tsc);
        last = local_read(last_tsc);
        /*
@@ -115,6 +125,7 @@ static inline u64 trace_clock_monotonic_wrapper(void)
        if (((long) now - (long) last) < 0)
                now = trace_clock_fixup(now, last);
        result = local_cmpxchg(last_tsc, last, (unsigned long) now);
+       preempt_enable();
        if (result == last) {
                /* Update done. */
                return now;
@@ -173,13 +184,13 @@ static inline const char *trace_clock_description_monotonic(void)
 #if (LINUX_VERSION_CODE >= KERNEL_VERSION(3,17,0))
 static inline int get_trace_clock(void)
 {
-       printk(KERN_WARNING "LTTng: Using mainline kernel monotonic fast clock, which is NMI-safe.\n");
+       printk_once(KERN_WARNING "LTTng: Using mainline kernel monotonic fast clock, which is NMI-safe.\n");
        return 0;
 }
 #else /* #if (LINUX_VERSION_CODE >= KERNEL_VERSION(3,17,0)) */
 static inline int get_trace_clock(void)
 {
-       printk(KERN_WARNING "LTTng: Using mainline kernel monotonic clock. NMIs will not be traced.\n");
+       printk_once(KERN_WARNING "LTTng: Using mainline kernel monotonic clock. NMIs will not be traced.\n");
        return 0;
 }
 #endif /* #else #if (LINUX_VERSION_CODE >= KERNEL_VERSION(3,17,0)) */
This page took 0.026481 seconds and 4 git commands to generate.