RCU lfqueue: Now works without reference counting (API change)
[urcu.git] / urcu / static / rculfqueue.h
index b627e450cfdd581692b474d89437e3fd47f18463..b83862f26c21c400484aa8f43f4c39c0516ba709 100644 (file)
  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
  */
 
-#include <urcu/ref.h>
+#include <urcu-call-rcu.h>
 #include <urcu/uatomic.h>
 #include <assert.h>
+#include <errno.h>
 /* A urcu implementation header should be already included. */
 
 #ifdef __cplusplus
 extern "C" {
 #endif
 
+struct cds_lfq_node_rcu_dummy {
+       struct cds_lfq_node_rcu parent;
+       struct rcu_head head;
+       struct cds_lfq_queue_rcu *q;
+};
+
 /*
- * Lock-free RCU queue using reference counting. Enqueue and dequeue operations
- * hold a RCU read lock to deal with cmpxchg ABA problem. This implementation
- * keeps a dummy head node to ensure we can always update the queue locklessly.
- * Given that this is a queue, the dummy head node must always advance as we
- * dequeue entries. Therefore, we keep a reference count on each entry we are
- * dequeueing, so they can be kept as dummy head node until the next dequeue, at
- * which point their reference count will be decremented.
+ * Lock-free RCU queue. Enqueue and dequeue operations hold a RCU read
+ * lock to deal with cmpxchg ABA problem. This queue is *not* circular:
+ * head points to the oldest node, tail points to the newest node.
+ * Dummy nodes are kept to ensure enqueue and dequeue can always proceed
+ * concurrently. Keeping a separate head and tail helps with large
+ * queues: enqueue and dequeue can proceed concurrently without
+ * wrestling for exclusive access to the same variables.
+ *
+ * We keep two dummy nodes in the queue to distinguish between empty queue
+ * state and intermediate state while a dummy node dequeue/requeue is
+ * being performed. Dequeue retry if it detects that it would be
+ * dequeueing the last node (it means a dummy node dequeue-requeue is in
+ * progress). This ensures that there is always at least one node in
+ * the queue. In a situation where the two dummy nodes are being
+ * requeued (they therefore don't appear in the queue at a given
+ * moment), we are certain that there is at least one non-dummy node in
+ * the queue (ensured by the test for NULL next node upon dequeue).
+ *
+ * In the dequeue operation, we internally reallocate the dummy nodes
+ * upon dequeue/requeue and use call_rcu to free them after a grace
+ * period.
  */
 
-#define URCU_LFQ_PERMANENT_REF         128
+static inline
+int is_dummy(struct cds_lfq_node_rcu *node)
+{
+       return ((unsigned long) node) & 0x1UL;
+}
+
+static inline
+struct cds_lfq_node_rcu *make_dummy(struct cds_lfq_queue_rcu *q,
+                                   struct cds_lfq_node_rcu *next)
+{
+       struct cds_lfq_node_rcu_dummy *dummy;
+
+       dummy = malloc(sizeof(struct cds_lfq_node_rcu_dummy));
+       dummy->parent.next = next;
+       dummy->q = q;
+       return (struct cds_lfq_node_rcu *) (((unsigned long) &dummy->parent) | 0x1UL);
+}
+
+static inline
+struct cds_lfq_node_rcu *get_node(struct cds_lfq_node_rcu *node)
+{
+       return (struct cds_lfq_node_rcu *) (((unsigned long )node) & ~0x1UL);
+}
+
+static inline
+void free_dummy(struct rcu_head *head)
+{
+       struct cds_lfq_node_rcu_dummy *dummy =
+               caa_container_of(head, struct cds_lfq_node_rcu_dummy, head);
+       free(dummy);
+}
+
+static inline
+void rcu_free_dummy(struct cds_lfq_node_rcu *node)
+{
+       struct cds_lfq_node_rcu_dummy *dummy;
 
+       dummy = caa_container_of(get_node(node), struct cds_lfq_node_rcu_dummy,
+                                parent);
+       dummy->q->queue_call_rcu(&dummy->head, free_dummy);
+}
+
+static inline
 void _cds_lfq_node_init_rcu(struct cds_lfq_node_rcu *node)
 {
        node->next = NULL;
-       urcu_ref_init(&node->ref);
 }
 
+static inline
 void _cds_lfq_init_rcu(struct cds_lfq_queue_rcu *q,
-                      void (*release)(struct urcu_ref *ref))
+                      void queue_call_rcu(struct rcu_head *head,
+                               void (*func)(struct rcu_head *head)))
+{
+       q->tail = make_dummy(q, NULL);
+       q->head = make_dummy(q, q->tail);
+       q->queue_call_rcu = queue_call_rcu;
+}
+
+/*
+ * The queue should be emptied before calling destroy.
+ *
+ * Return 0 on success, -EPERM if queue is not empty.
+ */
+static inline
+int _cds_lfq_destroy_rcu(struct cds_lfq_queue_rcu *q)
 {
-       _cds_lfq_node_init_rcu(&q->init);
-       /* Make sure the initial node is never freed. */
-       urcu_ref_set(&q->init.ref, URCU_LFQ_PERMANENT_REF);
-       q->head = q->tail = &q->init;
-       q->release = release;
+       struct cds_lfq_node_rcu *head, *next;
+
+       head = rcu_dereference(q->head);
+       next = rcu_dereference(get_node(head)->next);
+       if (!(is_dummy(head) && is_dummy(next) && get_node(next)->next == NULL))
+               return -EPERM;  /* not empty */
+       rcu_free_dummy(head);
+       rcu_free_dummy(next);
+       return 0;
 }
 
 /*
  * Should be called under rcu read lock critical section.
  */
+static inline
 void _cds_lfq_enqueue_rcu(struct cds_lfq_queue_rcu *q,
                          struct cds_lfq_node_rcu *node)
 {
-       urcu_ref_get(&node->ref);
-       node->queue = q;
-
        /*
         * uatomic_cmpxchg() implicit memory barrier orders earlier stores to
         * node before publication.
@@ -81,23 +159,19 @@ void _cds_lfq_enqueue_rcu(struct cds_lfq_queue_rcu *q,
                struct cds_lfq_node_rcu *tail, *next;
 
                tail = rcu_dereference(q->tail);
-               /*
-                * Typically expect tail->next to be NULL.
-                */
-               next = uatomic_cmpxchg(&tail->next, NULL, node);
+               next = uatomic_cmpxchg(&get_node(tail)->next, NULL, node);
                if (next == NULL) {
                        /*
                         * Tail was at the end of queue, we successfully
-                        * appended to it.
-                        * Now move tail (another enqueue might beat
-                        * us to it, that's fine).
+                        * appended to it. Now move tail (another
+                        * enqueue might beat us to it, that's fine).
                         */
                        (void) uatomic_cmpxchg(&q->tail, tail, node);
                        return;
                } else {
                        /*
-                        * Failure to append to current tail. Help moving tail
-                        * further and retry.
+                        * Failure to append to current tail.
+                        * Help moving tail further and retry.
                         */
                        (void) uatomic_cmpxchg(&q->tail, tail, next);
                        continue;
@@ -108,31 +182,49 @@ void _cds_lfq_enqueue_rcu(struct cds_lfq_queue_rcu *q,
 /*
  * Should be called under rcu read lock critical section.
  *
- * The entry returned by dequeue must be taken care of by doing a
- * sequence of urcu_ref_put which release handler should do a call_rcu.
- *
- * In other words, the entry lfq node returned by dequeue must not be
- * modified/re-used/freed until the reference count reaches zero and a grace
- * period has elapsed.
+ * The caller must wait for a grace period to pass before freeing the returned
+ * node or modifying the cds_lfq_node_rcu structure.
+ * Returns NULL if queue is empty.
  */
+static inline
 struct cds_lfq_node_rcu *_cds_lfq_dequeue_rcu(struct cds_lfq_queue_rcu *q)
 {
        for (;;) {
                struct cds_lfq_node_rcu *head, *next;
 
                head = rcu_dereference(q->head);
-               next = rcu_dereference(head->next);
+               next = rcu_dereference(get_node(head)->next);
+               if (is_dummy(head) && is_dummy(next) && get_node(next)->next == NULL)
+                       return NULL;    /* empty */
+               /*
+                * We never, ever allow dequeue to get to a state where
+                * the queue is empty (we need at least one node in the
+                * queue). This is ensured by checking if the head next
+                * is NULL and retry in that case (this means a
+                * concurrent dummy node re-enqueue is in progress).
+                */
                if (next) {
                        if (uatomic_cmpxchg(&q->head, head, next) == head) {
-                               urcu_ref_put(&head->ref, q->release);
-                               return next;
+                               if (is_dummy(head)) {
+                                       struct cds_lfq_node_rcu *node;
+                                       /*
+                                        * Requeue dummy. We need to
+                                        * reallocate to protect from
+                                        * ABA.
+                                        */
+                                       rcu_free_dummy(head);
+                                       node = make_dummy(q, NULL);
+                                       _cds_lfq_enqueue_rcu(q, node);
+                                       continue;       /* try again */
+                               }
+                               return head;
                        } else {
                                /* Concurrently pushed, retry */
                                continue;
                        }
                } else {
-                       /* Empty */
-                       return NULL;
+                       /* Dummy node re-enqueue is in progress, retry. */
+                       continue;
                }
        }
 }
This page took 0.024858 seconds and 4 git commands to generate.