Quellcodebibliothek Statistik Leitseite products/Sources/formale Sprachen/C/Linux/fs/bcachefs/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 10 kB image not shown  

Quelle  sb-members.h   Sprache: C

 
/* SPDX-License-Identifier: GPL-2.0 */
#ifndef _BCACHEFS_SB_MEMBERS_H
#define _BCACHEFS_SB_MEMBERS_H

#include "darray.h"
#include "bkey_types.h"
#include "enumerated_ref.h"

extern char * const bch2_member_error_strs[];

static inline struct bch_member *
__bch2_members_v2_get_mut(struct bch_sb_field_members_v2 *mi, unsigned i)
{
 return (void *) mi->_members + (i * le16_to_cpu(mi->member_bytes));
}

int bch2_sb_members_v2_init(struct bch_fs *c);
int bch2_sb_members_cpy_v2_v1(struct bch_sb_handle *disk_sb);
struct bch_member *bch2_members_v2_get_mut(struct bch_sb *sb, int i);
struct bch_member bch2_sb_member_get(struct bch_sb *sb, int i);

static inline bool bch2_dev_is_online(struct bch_dev *ca)
{
 return !enumerated_ref_is_zero(&ca->io_ref[READ]);
}

static inline struct bch_dev *bch2_dev_rcu(struct bch_fs *, unsigned);

static inline bool bch2_dev_idx_is_online(struct bch_fs *c, unsigned dev)
{
 guard(rcu)();
 struct bch_dev *ca = bch2_dev_rcu(c, dev);
 return ca && bch2_dev_is_online(ca);
}

static inline bool bch2_dev_is_healthy(struct bch_dev *ca)
{
 return bch2_dev_is_online(ca) &&
  ca->mi.state != BCH_MEMBER_STATE_failed;
}

static inline unsigned dev_mask_nr(const struct bch_devs_mask *devs)
{
 return bitmap_weight(devs->d, BCH_SB_MEMBERS_MAX);
}

static inline bool bch2_dev_list_has_dev(struct bch_devs_list devs,
      unsigned dev)
{
 darray_for_each(devs, i)
  if (*i == dev)
   return true;
 return false;
}

static inline void bch2_dev_list_drop_dev(struct bch_devs_list *devs,
       unsigned dev)
{
 darray_for_each(*devs, i)
  if (*i == dev) {
   darray_remove_item(devs, i);
   return;
  }
}

static inline void bch2_dev_list_add_dev(struct bch_devs_list *devs,
      unsigned dev)
{
 if (!bch2_dev_list_has_dev(*devs, dev)) {
  BUG_ON(devs->nr >= ARRAY_SIZE(devs->data));
  devs->data[devs->nr++] = dev;
 }
}

static inline struct bch_devs_list bch2_dev_list_single(unsigned dev)
{
 return (struct bch_devs_list) { .nr = 1, .data[0] = dev };
}

static inline struct bch_dev *__bch2_next_dev_idx(struct bch_fs *c, unsigned idx,
        const struct bch_devs_mask *mask)
{
 struct bch_dev *ca = NULL;

 while ((idx = mask
  ? find_next_bit(mask->d, c->sb.nr_devices, idx)
  : idx) < c->sb.nr_devices &&
        !(ca = rcu_dereference_check(c->devs[idx],
         lockdep_is_held(&c->state_lock))))
  idx++;

 return ca;
}

static inline struct bch_dev *__bch2_next_dev(struct bch_fs *c, struct bch_dev *ca,
           const struct bch_devs_mask *mask)
{
 return __bch2_next_dev_idx(c, ca ? ca->dev_idx + 1 : 0, mask);
}

#define for_each_member_device_rcu(_c, _ca, _mask)   \
 for (struct bch_dev *_ca = NULL;    \
      (_ca = __bch2_next_dev((_c), _ca, (_mask)));)

#define for_each_online_member_rcu(_c, _ca)    \
 for_each_member_device_rcu(_c, _ca, &(_c)->online_devs)

#define for_each_rw_member_rcu(_c, _ca)     \
 for_each_member_device_rcu(_c, _ca, &(_c)->rw_devs[BCH_DATA_free])

static inline void bch2_dev_get(struct bch_dev *ca)
{
#ifdef CONFIG_BCACHEFS_DEBUG
 BUG_ON(atomic_long_inc_return(&ca->ref) <= 1L);
#else
 percpu_ref_get(&ca->ref);
#endif
}

static inline void __bch2_dev_put(struct bch_dev *ca)
{
#ifdef CONFIG_BCACHEFS_DEBUG
 long r = atomic_long_dec_return(&ca->ref);
 if (r < (long) !ca->dying)
  panic("bch_dev->ref underflow, last put: %pS\n", (void *) ca->last_put);
 ca->last_put = _THIS_IP_;
 if (!r)
  complete(&ca->ref_completion);
#else
 percpu_ref_put(&ca->ref);
#endif
}

static inline void bch2_dev_put(struct bch_dev *ca)
{
 if (ca)
  __bch2_dev_put(ca);
}

static inline struct bch_dev *bch2_get_next_dev(struct bch_fs *c, struct bch_dev *ca)
{
 guard(rcu)();
 bch2_dev_put(ca);
 if ((ca = __bch2_next_dev(c, ca, NULL)))
  bch2_dev_get(ca);
 return ca;
}

/*
 * If you break early, you must drop your ref on the current device
 */

#define __for_each_member_device(_c, _ca)    \
 for (; (_ca = bch2_get_next_dev(_c, _ca));)

#define for_each_member_device(_c, _ca)     \
 for (struct bch_dev *_ca = NULL;    \
      (_ca = bch2_get_next_dev(_c, _ca));)

static inline struct bch_dev *bch2_get_next_online_dev(struct bch_fs *c,
             struct bch_dev *ca,
             unsigned state_mask,
             int rw, unsigned ref_idx)
{
 guard(rcu)();
 if (ca)
  enumerated_ref_put(&ca->io_ref[rw], ref_idx);

 while ((ca = __bch2_next_dev(c, ca, NULL)) &&
        (!((1 << ca->mi.state) & state_mask) ||
  !enumerated_ref_tryget(&ca->io_ref[rw], ref_idx)))
  ;

 return ca;
}

#define __for_each_online_member(_c, _ca, state_mask, rw, ref_idx) \
 for (struct bch_dev *_ca = NULL;    \
      (_ca = bch2_get_next_online_dev(_c, _ca, state_mask, rw, ref_idx));)

#define for_each_online_member(c, ca, ref_idx)    \
 __for_each_online_member(c, ca, ~0, READ, ref_idx)

#define for_each_rw_member(c, ca, ref_idx)     \
 __for_each_online_member(c, ca, BIT(BCH_MEMBER_STATE_rw), WRITE, ref_idx)

#define for_each_readable_member(c, ca, ref_idx)    \
 __for_each_online_member(c, ca, BIT( BCH_MEMBER_STATE_rw)|BIT(BCH_MEMBER_STATE_ro), READ, ref_idx)

static inline bool bch2_dev_exists(const struct bch_fs *c, unsigned dev)
{
 return dev < c->sb.nr_devices && c->devs[dev];
}

static inline bool bucket_valid(const struct bch_dev *ca, u64 b)
{
 return b - ca->mi.first_bucket < ca->mi.nbuckets_minus_first;
}

static inline struct bch_dev *bch2_dev_have_ref(const struct bch_fs *c, unsigned dev)
{
 EBUG_ON(!bch2_dev_exists(c, dev));

 return rcu_dereference_check(c->devs[dev], 1);
}

static inline struct bch_dev *bch2_dev_locked(struct bch_fs *c, unsigned dev)
{
 EBUG_ON(!bch2_dev_exists(c, dev));

 return rcu_dereference_protected(c->devs[dev],
      lockdep_is_held(&c->sb_lock) ||
      lockdep_is_held(&c->state_lock));
}

static inline struct bch_dev *bch2_dev_rcu_noerror(struct bch_fs *c, unsigned dev)
{
 return c && dev < c->sb.nr_devices
  ? rcu_dereference(c->devs[dev])
  : NULL;
}

int bch2_dev_missing_bkey(struct bch_fs *, struct bkey_s_c, unsigned);

void bch2_dev_missing_atomic(struct bch_fs *, unsigned);

static inline struct bch_dev *bch2_dev_rcu(struct bch_fs *c, unsigned dev)
{
 struct bch_dev *ca = bch2_dev_rcu_noerror(c, dev);
 if (unlikely(!ca))
  bch2_dev_missing_atomic(c, dev);
 return ca;
}

static inline struct bch_dev *bch2_dev_tryget_noerror(struct bch_fs *c, unsigned dev)
{
 guard(rcu)();
 struct bch_dev *ca = bch2_dev_rcu_noerror(c, dev);
 if (ca)
  bch2_dev_get(ca);
 return ca;
}

static inline struct bch_dev *bch2_dev_tryget(struct bch_fs *c, unsigned dev)
{
 struct bch_dev *ca = bch2_dev_tryget_noerror(c, dev);
 if (unlikely(!ca))
  bch2_dev_missing_atomic(c, dev);
 return ca;
}

static inline struct bch_dev *bch2_dev_bucket_tryget_noerror(struct bch_fs *c, struct bpos bucket)
{
 struct bch_dev *ca = bch2_dev_tryget_noerror(c, bucket.inode);
 if (ca && unlikely(!bucket_valid(ca, bucket.offset))) {
  bch2_dev_put(ca);
  ca = NULL;
 }
 return ca;
}

void bch2_dev_bucket_missing(struct bch_dev *, u64);

static inline struct bch_dev *bch2_dev_bucket_tryget(struct bch_fs *c, struct bpos bucket)
{
 struct bch_dev *ca = bch2_dev_tryget(c, bucket.inode);
 if (ca && unlikely(!bucket_valid(ca, bucket.offset))) {
  bch2_dev_bucket_missing(ca, bucket.offset);
  bch2_dev_put(ca);
  ca = NULL;
 }
 return ca;
}

static inline struct bch_dev *bch2_dev_iterate_noerror(struct bch_fs *c, struct bch_dev *ca, unsigned dev_idx)
{
 if (ca && ca->dev_idx == dev_idx)
  return ca;
 bch2_dev_put(ca);
 return bch2_dev_tryget_noerror(c, dev_idx);
}

static inline struct bch_dev *bch2_dev_iterate(struct bch_fs *c, struct bch_dev *ca, unsigned dev_idx)
{
 if (ca && ca->dev_idx == dev_idx)
  return ca;
 bch2_dev_put(ca);
 return bch2_dev_tryget(c, dev_idx);
}

static inline struct bch_dev *bch2_dev_get_ioref(struct bch_fs *c, unsigned dev,
       int rw, unsigned ref_idx)
{
 might_sleep();

 guard(rcu)();
 struct bch_dev *ca = bch2_dev_rcu(c, dev);
 if (!ca || !enumerated_ref_tryget(&ca->io_ref[rw], ref_idx))
  return NULL;

 if (ca->mi.state == BCH_MEMBER_STATE_rw ||
     (ca->mi.state == BCH_MEMBER_STATE_ro && rw == READ))
  return ca;

 enumerated_ref_put(&ca->io_ref[rw], ref_idx);
 return NULL;
}

extern const struct bch_sb_field_ops bch_sb_field_ops_members_v1;
extern const struct bch_sb_field_ops bch_sb_field_ops_members_v2;

static inline bool bch2_member_alive(struct bch_member *m)
{
 return  !bch2_is_zero(&m->uuid, sizeof(m->uuid)) &&
  !uuid_equal(&m->uuid, &BCH_SB_MEMBER_DELETED_UUID);
}

static inline bool bch2_member_exists(struct bch_sb *sb, unsigned dev)
{
 if (dev < sb->nr_devices) {
  struct bch_member m = bch2_sb_member_get(sb, dev);
  return bch2_member_alive(&m);
 }
 return false;
}

unsigned bch2_sb_nr_devices(const struct bch_sb *);

static inline struct bch_member_cpu bch2_mi_to_cpu(struct bch_member *mi)
{
 return (struct bch_member_cpu) {
  .nbuckets = le64_to_cpu(mi->nbuckets),
  .nbuckets_minus_first = le64_to_cpu(mi->nbuckets) -
   le16_to_cpu(mi->first_bucket),
  .first_bucket = le16_to_cpu(mi->first_bucket),
  .bucket_size = le16_to_cpu(mi->bucket_size),
  .group  = BCH_MEMBER_GROUP(mi),
  .state  = BCH_MEMBER_STATE(mi),
  .discard = BCH_MEMBER_DISCARD(mi),
  .data_allowed = BCH_MEMBER_DATA_ALLOWED(mi),
  .durability = BCH_MEMBER_DURABILITY(mi)
   ? BCH_MEMBER_DURABILITY(mi) - 1
   : 1,
  .freespace_initialized = BCH_MEMBER_FREESPACE_INITIALIZED(mi),
  .resize_on_mount = BCH_MEMBER_RESIZE_ON_MOUNT(mi),
  .valid  = bch2_member_alive(mi),
  .btree_bitmap_shift = mi->btree_bitmap_shift,
  .btree_allocated_bitmap = le64_to_cpu(mi->btree_allocated_bitmap),
 };
}

void bch2_sb_members_from_cpu(struct bch_fs *);

void bch2_dev_io_errors_to_text(struct printbuf *, struct bch_dev *);
void bch2_dev_errors_reset(struct bch_dev *);

static inline bool bch2_dev_btree_bitmap_marked_sectors(struct bch_dev *ca, u64 start, unsigned sectors)
{
 u64 end = start + sectors;

 if (end > 64ULL << ca->mi.btree_bitmap_shift)
  return false;

 for (unsigned bit = start >> ca->mi.btree_bitmap_shift;
      (u64) bit << ca->mi.btree_bitmap_shift < end;
      bit++)
  if (!(ca->mi.btree_allocated_bitmap & BIT_ULL(bit)))
   return false;
 return true;
}

bool bch2_dev_btree_bitmap_marked(struct bch_fs *, struct bkey_s_c);
void bch2_dev_btree_bitmap_mark(struct bch_fs *, struct bkey_s_c);

int bch2_sb_member_alloc(struct bch_fs *);
void bch2_sb_members_clean_deleted(struct bch_fs *);

#endif /* _BCACHEFS_SB_MEMBERS_H */

Messung V0.5
C=96 H=94 G=94

¤ Dauer der Verarbeitung: 0.4 Sekunden  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.