Fix: x86 and s390 uatomic: __hp() macro warning with gcc 11
[urcu.git] / include / urcu / uatomic / x86.h
index 129a2f5670385880870912235a14a63a6d0ea99e..e9f2f78275f472618d2ad302205eda8bb37629c8 100644 (file)
@@ -20,6 +20,8 @@
  * Boehm-Demers-Weiser conservative garbage collector.
  */
 
+#include <urcu/arch.h>
+#include <urcu/config.h>
 #include <urcu/compiler.h>
 #include <urcu/system.h>
 
@@ -34,10 +36,14 @@ extern "C" {
  * Derived from AO_compare_and_swap() and AO_test_and_set_full().
  */
 
-struct __uatomic_dummy {
-       unsigned long v[10];
-};
-#define __hp(x)        ((struct __uatomic_dummy *)(x))
+/*
+ * The __hp() macro casts the void pointer "x" to a pointer to a structure
+ * containing an array of char of the specified size. This allows passing the
+ * @addr arguments of the following inline functions as "m" and "+m" operands
+ * to the assembly.
+ */
+
+#define __hp(size, x)  ((struct { char v[size]; } *)(x))
 
 #define _uatomic_set(addr, v)  ((void) CMM_STORE_SHARED(*(addr), (v)))
 
@@ -54,7 +60,7 @@ unsigned long __uatomic_cmpxchg(void *addr, unsigned long old,
 
                __asm__ __volatile__(
                "lock; cmpxchgb %2, %1"
-                       : "+a"(result), "+m"(*__hp(addr))
+                       : "+a"(result), "+m"(*__hp(len, addr))
                        : "q"((unsigned char)_new)
                        : "memory");
                return result;
@@ -65,7 +71,7 @@ unsigned long __uatomic_cmpxchg(void *addr, unsigned long old,
 
                __asm__ __volatile__(
                "lock; cmpxchgw %2, %1"
-                       : "+a"(result), "+m"(*__hp(addr))
+                       : "+a"(result), "+m"(*__hp(len, addr))
                        : "r"((unsigned short)_new)
                        : "memory");
                return result;
@@ -76,7 +82,7 @@ unsigned long __uatomic_cmpxchg(void *addr, unsigned long old,
 
                __asm__ __volatile__(
                "lock; cmpxchgl %2, %1"
-                       : "+a"(result), "+m"(*__hp(addr))
+                       : "+a"(result), "+m"(*__hp(len, addr))
                        : "r"((unsigned int)_new)
                        : "memory");
                return result;
@@ -88,7 +94,7 @@ unsigned long __uatomic_cmpxchg(void *addr, unsigned long old,
 
                __asm__ __volatile__(
                "lock; cmpxchgq %2, %1"
-                       : "+a"(result), "+m"(*__hp(addr))
+                       : "+a"(result), "+m"(*__hp(len, addr))
                        : "r"((unsigned long)_new)
                        : "memory");
                return result;
@@ -121,7 +127,7 @@ unsigned long __uatomic_exchange(void *addr, unsigned long val, int len)
                unsigned char result;
                __asm__ __volatile__(
                "xchgb %0, %1"
-                       : "=q"(result), "+m"(*__hp(addr))
+                       : "=q"(result), "+m"(*__hp(len, addr))
                        : "0" ((unsigned char)val)
                        : "memory");
                return result;
@@ -131,7 +137,7 @@ unsigned long __uatomic_exchange(void *addr, unsigned long val, int len)
                unsigned short result;
                __asm__ __volatile__(
                "xchgw %0, %1"
-                       : "=r"(result), "+m"(*__hp(addr))
+                       : "=r"(result), "+m"(*__hp(len, addr))
                        : "0" ((unsigned short)val)
                        : "memory");
                return result;
@@ -141,7 +147,7 @@ unsigned long __uatomic_exchange(void *addr, unsigned long val, int len)
                unsigned int result;
                __asm__ __volatile__(
                "xchgl %0, %1"
-                       : "=r"(result), "+m"(*__hp(addr))
+                       : "=r"(result), "+m"(*__hp(len, addr))
                        : "0" ((unsigned int)val)
                        : "memory");
                return result;
@@ -152,7 +158,7 @@ unsigned long __uatomic_exchange(void *addr, unsigned long val, int len)
                unsigned long result;
                __asm__ __volatile__(
                "xchgq %0, %1"
-                       : "=r"(result), "+m"(*__hp(addr))
+                       : "=r"(result), "+m"(*__hp(len, addr))
                        : "0" ((unsigned long)val)
                        : "memory");
                return result;
@@ -185,7 +191,7 @@ unsigned long __uatomic_add_return(void *addr, unsigned long val,
 
                __asm__ __volatile__(
                "lock; xaddb %1, %0"
-                       : "+m"(*__hp(addr)), "+q" (result)
+                       : "+m"(*__hp(len, addr)), "+q" (result)
                        :
                        : "memory");
                return result + (unsigned char)val;
@@ -196,7 +202,7 @@ unsigned long __uatomic_add_return(void *addr, unsigned long val,
 
                __asm__ __volatile__(
                "lock; xaddw %1, %0"
-                       : "+m"(*__hp(addr)), "+r" (result)
+                       : "+m"(*__hp(len, addr)), "+r" (result)
                        :
                        : "memory");
                return result + (unsigned short)val;
@@ -207,7 +213,7 @@ unsigned long __uatomic_add_return(void *addr, unsigned long val,
 
                __asm__ __volatile__(
                "lock; xaddl %1, %0"
-                       : "+m"(*__hp(addr)), "+r" (result)
+                       : "+m"(*__hp(len, addr)), "+r" (result)
                        :
                        : "memory");
                return result + (unsigned int)val;
@@ -219,7 +225,7 @@ unsigned long __uatomic_add_return(void *addr, unsigned long val,
 
                __asm__ __volatile__(
                "lock; xaddq %1, %0"
-                       : "+m"(*__hp(addr)), "+r" (result)
+                       : "+m"(*__hp(len, addr)), "+r" (result)
                        :
                        : "memory");
                return result + (unsigned long)val;
@@ -249,7 +255,7 @@ void __uatomic_and(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; andb %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "iq" ((unsigned char)val)
                        : "memory");
                return;
@@ -258,7 +264,7 @@ void __uatomic_and(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; andw %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "ir" ((unsigned short)val)
                        : "memory");
                return;
@@ -267,7 +273,7 @@ void __uatomic_and(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; andl %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "ir" ((unsigned int)val)
                        : "memory");
                return;
@@ -277,7 +283,7 @@ void __uatomic_and(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; andq %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "er" ((unsigned long)val)
                        : "memory");
                return;
@@ -305,7 +311,7 @@ void __uatomic_or(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; orb %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "iq" ((unsigned char)val)
                        : "memory");
                return;
@@ -314,7 +320,7 @@ void __uatomic_or(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; orw %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "ir" ((unsigned short)val)
                        : "memory");
                return;
@@ -323,7 +329,7 @@ void __uatomic_or(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; orl %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "ir" ((unsigned int)val)
                        : "memory");
                return;
@@ -333,7 +339,7 @@ void __uatomic_or(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; orq %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "er" ((unsigned long)val)
                        : "memory");
                return;
@@ -361,7 +367,7 @@ void __uatomic_add(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; addb %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "iq" ((unsigned char)val)
                        : "memory");
                return;
@@ -370,7 +376,7 @@ void __uatomic_add(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; addw %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "ir" ((unsigned short)val)
                        : "memory");
                return;
@@ -379,7 +385,7 @@ void __uatomic_add(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; addl %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "ir" ((unsigned int)val)
                        : "memory");
                return;
@@ -389,7 +395,7 @@ void __uatomic_add(void *addr, unsigned long val, int len)
        {
                __asm__ __volatile__(
                "lock; addq %1, %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        : "er" ((unsigned long)val)
                        : "memory");
                return;
@@ -418,7 +424,7 @@ void __uatomic_inc(void *addr, int len)
        {
                __asm__ __volatile__(
                "lock; incb %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        :
                        : "memory");
                return;
@@ -427,7 +433,7 @@ void __uatomic_inc(void *addr, int len)
        {
                __asm__ __volatile__(
                "lock; incw %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        :
                        : "memory");
                return;
@@ -436,7 +442,7 @@ void __uatomic_inc(void *addr, int len)
        {
                __asm__ __volatile__(
                "lock; incl %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        :
                        : "memory");
                return;
@@ -446,7 +452,7 @@ void __uatomic_inc(void *addr, int len)
        {
                __asm__ __volatile__(
                "lock; incq %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        :
                        : "memory");
                return;
@@ -471,7 +477,7 @@ void __uatomic_dec(void *addr, int len)
        {
                __asm__ __volatile__(
                "lock; decb %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        :
                        : "memory");
                return;
@@ -480,7 +486,7 @@ void __uatomic_dec(void *addr, int len)
        {
                __asm__ __volatile__(
                "lock; decw %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        :
                        : "memory");
                return;
@@ -489,7 +495,7 @@ void __uatomic_dec(void *addr, int len)
        {
                __asm__ __volatile__(
                "lock; decl %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        :
                        : "memory");
                return;
@@ -499,7 +505,7 @@ void __uatomic_dec(void *addr, int len)
        {
                __asm__ __volatile__(
                "lock; decq %0"
-                       : "=m"(*__hp(addr))
+                       : "=m"(*__hp(len, addr))
                        :
                        : "memory");
                return;
@@ -516,7 +522,11 @@ void __uatomic_dec(void *addr, int len)
 
 #define _uatomic_dec(addr)     (__uatomic_dec((addr), sizeof(*(addr))))
 
-#if ((CAA_BITS_PER_LONG != 64) && defined(CONFIG_RCU_COMPAT_ARCH))
+#if ((CAA_BITS_PER_LONG != 64) && defined(URCU_ARCH_I386))
+
+/* For backwards compat */
+#define CONFIG_RCU_COMPAT_ARCH 1
+
 extern int __rcu_cas_avail;
 extern int __rcu_cas_init(void);
 
This page took 0.02801 seconds and 4 git commands to generate.