Quellcodebibliothek Statistik Leitseite products/Sources/formale Sprachen/C/Linux/drivers/s390/net/   (Open Source Betriebssystem Version 6.17.9©)  Datei vom 24.10.2025 mit Größe 186 kB image not shown  

Quelle  qeth_core_main.c   Sprache: C

 
// SPDX-License-Identifier: GPL-2.0
/*
 *    Copyright IBM Corp. 2007, 2009
 *    Author(s): Utz Bacher <utz.bacher@de.ibm.com>,
 *  Frank Pavlic <fpavlic@de.ibm.com>,
 *  Thomas Spatzier <tspat@de.ibm.com>,
 *  Frank Blaschka <frank.blaschka@de.ibm.com>
 */


#define KMSG_COMPONENT "qeth"
#define pr_fmt(fmt) KMSG_COMPONENT ": " fmt

#include <linux/compat.h>
#include <linux/export.h>
#include <linux/module.h>
#include <linux/moduleparam.h>
#include <linux/string.h>
#include <linux/errno.h>
#include <linux/kernel.h>
#include <linux/log2.h>
#include <linux/io.h>
#include <linux/ip.h>
#include <linux/tcp.h>
#include <linux/mii.h>
#include <linux/mm.h>
#include <linux/kthread.h>
#include <linux/slab.h>
#include <linux/if_vlan.h>
#include <linux/netdevice.h>
#include <linux/netdev_features.h>
#include <linux/rcutree.h>
#include <linux/skbuff.h>
#include <linux/vmalloc.h>

#include <net/iucv/af_iucv.h>
#include <net/dsfield.h>
#include <net/sock.h>

#include <asm/ebcdic.h>
#include <asm/chpid.h>
#include <asm/sysinfo.h>
#include <asm/diag.h>
#include <asm/cio.h>
#include <asm/ccwdev.h>
#include <asm/cpcmd.h>

#include "qeth_core.h"

struct qeth_dbf_info qeth_dbf[QETH_DBF_INFOS] = {
 /* define dbf - Name, Pages, Areas, Maxlen, Level, View, Handle */
 /*                   N  P  A    M  L  V                      H  */
 [QETH_DBF_SETUP] = {"qeth_setup",
    8, 1,   8, 5, &debug_hex_ascii_view, NULL},
 [QETH_DBF_MSG]  = {"qeth_msg", 8, 1, 11 * sizeof(long), 3,
       &debug_sprintf_view, NULL},
 [QETH_DBF_CTRL]  = {"qeth_control",
  8, 1, QETH_DBF_CTRL_LEN, 5, &debug_hex_ascii_view, NULL},
};
EXPORT_SYMBOL_GPL(qeth_dbf);

static struct kmem_cache *qeth_core_header_cache;
static struct kmem_cache *qeth_qdio_outbuf_cache;
static struct kmem_cache *qeth_qaob_cache;

static struct device *qeth_core_root_dev;
static struct dentry *qeth_debugfs_root;
static struct lock_class_key qdio_out_skb_queue_key;

static void qeth_issue_next_read_cb(struct qeth_card *card,
        struct qeth_cmd_buffer *iob,
        unsigned int data_length);
static int qeth_qdio_establish(struct qeth_card *);
static void qeth_free_qdio_queues(struct qeth_card *card);

static const char *qeth_get_cardname(struct qeth_card *card)
{
 if (IS_VM_NIC(card)) {
  switch (card->info.type) {
  case QETH_CARD_TYPE_OSD:
   return " Virtual NIC QDIO";
  case QETH_CARD_TYPE_IQD:
   return " Virtual NIC Hiper";
  case QETH_CARD_TYPE_OSM:
   return " Virtual NIC QDIO - OSM";
  case QETH_CARD_TYPE_OSX:
   return " Virtual NIC QDIO - OSX";
  default:
   return " unknown";
  }
 } else {
  switch (card->info.type) {
  case QETH_CARD_TYPE_OSD:
   return " OSD Express";
  case QETH_CARD_TYPE_IQD:
   return " HiperSockets";
  case QETH_CARD_TYPE_OSM:
   return " OSM QDIO";
  case QETH_CARD_TYPE_OSX:
   return " OSX QDIO";
  default:
   return " unknown";
  }
 }
 return " n/a";
}

/* max length to be returned: 14 */
const char *qeth_get_cardname_short(struct qeth_card *card)
{
 if (IS_VM_NIC(card)) {
  switch (card->info.type) {
  case QETH_CARD_TYPE_OSD:
   return "Virt.NIC QDIO";
  case QETH_CARD_TYPE_IQD:
   return "Virt.NIC Hiper";
  case QETH_CARD_TYPE_OSM:
   return "Virt.NIC OSM";
  case QETH_CARD_TYPE_OSX:
   return "Virt.NIC OSX";
  default:
   return "unknown";
  }
 } else {
  switch (card->info.type) {
  case QETH_CARD_TYPE_OSD:
   switch (card->info.link_type) {
   case QETH_LINK_TYPE_FAST_ETH:
    return "OSD_100";
   case QETH_LINK_TYPE_HSTR:
    return "HSTR";
   case QETH_LINK_TYPE_GBIT_ETH:
    return "OSD_1000";
   case QETH_LINK_TYPE_10GBIT_ETH:
    return "OSD_10GIG";
   case QETH_LINK_TYPE_25GBIT_ETH:
    return "OSD_25GIG";
   case QETH_LINK_TYPE_LANE_ETH100:
    return "OSD_FE_LANE";
   case QETH_LINK_TYPE_LANE_TR:
    return "OSD_TR_LANE";
   case QETH_LINK_TYPE_LANE_ETH1000:
    return "OSD_GbE_LANE";
   case QETH_LINK_TYPE_LANE:
    return "OSD_ATM_LANE";
   default:
    return "OSD_Express";
   }
  case QETH_CARD_TYPE_IQD:
   return "HiperSockets";
  case QETH_CARD_TYPE_OSM:
   return "OSM_1000";
  case QETH_CARD_TYPE_OSX:
   return "OSX_10GIG";
  default:
   return "unknown";
  }
 }
 return "n/a";
}

void qeth_set_allowed_threads(struct qeth_card *card, unsigned long threads,
    int clear_start_mask)
{
 unsigned long flags;

 spin_lock_irqsave(&card->thread_mask_lock, flags);
 card->thread_allowed_mask = threads;
 if (clear_start_mask)
  card->thread_start_mask &= threads;
 spin_unlock_irqrestore(&card->thread_mask_lock, flags);
 wake_up(&card->wait_q);
}
EXPORT_SYMBOL_GPL(qeth_set_allowed_threads);

int qeth_threads_running(struct qeth_card *card, unsigned long threads)
{
 unsigned long flags;
 int rc = 0;

 spin_lock_irqsave(&card->thread_mask_lock, flags);
 rc = (card->thread_running_mask & threads);
 spin_unlock_irqrestore(&card->thread_mask_lock, flags);
 return rc;
}
EXPORT_SYMBOL_GPL(qeth_threads_running);

static void qeth_clear_working_pool_list(struct qeth_card *card)
{
 struct qeth_buffer_pool_entry *pool_entry, *tmp;
 struct qeth_qdio_q *queue = card->qdio.in_q;
 unsigned int i;

 QETH_CARD_TEXT(card, 5, "clwrklst");
 list_for_each_entry_safe(pool_entry, tmp,
     &card->qdio.in_buf_pool.entry_list, list)
  list_del(&pool_entry->list);

 for (i = 0; i < ARRAY_SIZE(queue->bufs); i++)
  queue->bufs[i].pool_entry = NULL;
}

static void qeth_free_pool_entry(struct qeth_buffer_pool_entry *entry)
{
 unsigned int i;

 for (i = 0; i < ARRAY_SIZE(entry->elements); i++) {
  if (entry->elements[i])
   __free_page(entry->elements[i]);
 }

 kfree(entry);
}

static void qeth_free_buffer_pool(struct qeth_card *card)
{
 struct qeth_buffer_pool_entry *entry, *tmp;

 list_for_each_entry_safe(entry, tmp, &card->qdio.init_pool.entry_list,
     init_list) {
  list_del(&entry->init_list);
  qeth_free_pool_entry(entry);
 }
}

static struct qeth_buffer_pool_entry *qeth_alloc_pool_entry(unsigned int pages)
{
 struct qeth_buffer_pool_entry *entry;
 unsigned int i;

 entry = kzalloc(sizeof(*entry), GFP_KERNEL);
 if (!entry)
  return NULL;

 for (i = 0; i < pages; i++) {
  entry->elements[i] = __dev_alloc_page(GFP_KERNEL);

  if (!entry->elements[i]) {
   qeth_free_pool_entry(entry);
   return NULL;
  }
 }

 return entry;
}

static int qeth_alloc_buffer_pool(struct qeth_card *card)
{
 unsigned int buf_elements = QETH_MAX_BUFFER_ELEMENTS(card);
 unsigned int i;

 QETH_CARD_TEXT(card, 5, "alocpool");
 for (i = 0; i < card->qdio.init_pool.buf_count; ++i) {
  struct qeth_buffer_pool_entry *entry;

  entry = qeth_alloc_pool_entry(buf_elements);
  if (!entry) {
   qeth_free_buffer_pool(card);
   return -ENOMEM;
  }

  list_add(&entry->init_list, &card->qdio.init_pool.entry_list);
 }
 return 0;
}

int qeth_resize_buffer_pool(struct qeth_card *card, unsigned int count)
{
 unsigned int buf_elements = QETH_MAX_BUFFER_ELEMENTS(card);
 struct qeth_qdio_buffer_pool *pool = &card->qdio.init_pool;
 struct qeth_buffer_pool_entry *entry, *tmp;
 int delta = count - pool->buf_count;
 LIST_HEAD(entries);

 QETH_CARD_TEXT(card, 2, "realcbp");

 /* Defer until pool is allocated: */
 if (list_empty(&pool->entry_list))
  goto out;

 /* Remove entries from the pool: */
 while (delta < 0) {
  entry = list_first_entry(&pool->entry_list,
      struct qeth_buffer_pool_entry,
      init_list);
  list_del(&entry->init_list);
  qeth_free_pool_entry(entry);

  delta++;
 }

 /* Allocate additional entries: */
 while (delta > 0) {
  entry = qeth_alloc_pool_entry(buf_elements);
  if (!entry) {
   list_for_each_entry_safe(entry, tmp, &entries,
       init_list) {
    list_del(&entry->init_list);
    qeth_free_pool_entry(entry);
   }

   return -ENOMEM;
  }

  list_add(&entry->init_list, &entries);

  delta--;
 }

 list_splice(&entries, &pool->entry_list);

out:
 card->qdio.in_buf_pool.buf_count = count;
 pool->buf_count = count;
 return 0;
}
EXPORT_SYMBOL_GPL(qeth_resize_buffer_pool);

static void qeth_free_qdio_queue(struct qeth_qdio_q *q)
{
 if (!q)
  return;

 qdio_free_buffers(q->qdio_bufs, QDIO_MAX_BUFFERS_PER_Q);
 kfree(q);
}

static struct qeth_qdio_q *qeth_alloc_qdio_queue(void)
{
 struct qeth_qdio_q *q = kzalloc(sizeof(*q), GFP_KERNEL);
 int i;

 if (!q)
  return NULL;

 if (qdio_alloc_buffers(q->qdio_bufs, QDIO_MAX_BUFFERS_PER_Q)) {
  kfree(q);
  return NULL;
 }

 for (i = 0; i < QDIO_MAX_BUFFERS_PER_Q; ++i)
  q->bufs[i].buffer = q->qdio_bufs[i];

 QETH_DBF_HEX(SETUP, 2, &q, sizeof(void *));
 return q;
}

static int qeth_cq_init(struct qeth_card *card)
{
 int rc;

 if (card->options.cq == QETH_CQ_ENABLED) {
  QETH_CARD_TEXT(card, 2, "cqinit");
  qdio_reset_buffers(card->qdio.c_q->qdio_bufs,
       QDIO_MAX_BUFFERS_PER_Q);
  card->qdio.c_q->next_buf_to_init = 127;

  rc = qdio_add_bufs_to_input_queue(CARD_DDEV(card), 1, 0, 127);
  if (rc) {
   QETH_CARD_TEXT_(card, 2, "1err%d", rc);
   goto out;
  }
 }
 rc = 0;
out:
 return rc;
}

static void qeth_free_cq(struct qeth_card *card)
{
 if (card->qdio.c_q) {
  qeth_free_qdio_queue(card->qdio.c_q);
  card->qdio.c_q = NULL;
 }
}

static int qeth_alloc_cq(struct qeth_card *card)
{
 if (card->options.cq == QETH_CQ_ENABLED) {
  QETH_CARD_TEXT(card, 2, "cqon");
  if (!card->qdio.c_q) {
   card->qdio.c_q = qeth_alloc_qdio_queue();
   if (!card->qdio.c_q) {
    dev_err(&card->gdev->dev,
     "Failed to create completion queue\n");
    return -ENOMEM;
   }
  }
 } else {
  QETH_CARD_TEXT(card, 2, "nocq");
  qeth_free_cq(card);
 }
 return 0;
}

static enum iucv_tx_notify qeth_compute_cq_notification(int sbalf15,
       int delayed)
{
 enum iucv_tx_notify n;

 switch (sbalf15) {
 case 0:
  n = delayed ? TX_NOTIFY_DELAYED_OK : TX_NOTIFY_OK;
  break;
 case 4:
 case 16:
 case 17:
 case 18:
  n = delayed ? TX_NOTIFY_DELAYED_UNREACHABLE :
   TX_NOTIFY_UNREACHABLE;
  break;
 default:
  n = delayed ? TX_NOTIFY_DELAYED_GENERALERROR :
   TX_NOTIFY_GENERALERROR;
  break;
 }

 return n;
}

static void qeth_put_cmd(struct qeth_cmd_buffer *iob)
{
 if (refcount_dec_and_test(&iob->ref_count)) {
  kfree(iob->data);
  kfree(iob);
 }
}
static void qeth_setup_ccw(struct ccw1 *ccw, u8 cmd_code, u8 flags, u32 len,
      void *data)
{
 ccw->cmd_code = cmd_code;
 ccw->flags = flags | CCW_FLAG_SLI;
 ccw->count = len;
 ccw->cda = virt_to_dma32(data);
}

static int __qeth_issue_next_read(struct qeth_card *card)
{
 struct qeth_cmd_buffer *iob = card->read_cmd;
 struct qeth_channel *channel = iob->channel;
 struct ccw1 *ccw = __ccw_from_cmd(iob);
 int rc;

 QETH_CARD_TEXT(card, 5, "issnxrd");
 if (channel->state != CH_STATE_UP)
  return -EIO;

 memset(iob->data, 0, iob->length);
 qeth_setup_ccw(ccw, CCW_CMD_READ, 0, iob->length, iob->data);
 iob->callback = qeth_issue_next_read_cb;
 /* keep the cmd alive after completion: */
 qeth_get_cmd(iob);

 QETH_CARD_TEXT(card, 6, "noirqpnd");
 rc = ccw_device_start(channel->ccwdev, ccw, (addr_t) iob, 0, 0);
 if (!rc) {
  channel->active_cmd = iob;
 } else {
  QETH_DBF_MESSAGE(2, "error %i on device %x when starting next read ccw!\n",
     rc, CARD_DEVID(card));
  qeth_unlock_channel(card, channel);
  qeth_put_cmd(iob);
  card->read_or_write_problem = 1;
  qeth_schedule_recovery(card);
 }
 return rc;
}

static int qeth_issue_next_read(struct qeth_card *card)
{
 int ret;

 spin_lock_irq(get_ccwdev_lock(CARD_RDEV(card)));
 ret = __qeth_issue_next_read(card);
 spin_unlock_irq(get_ccwdev_lock(CARD_RDEV(card)));

 return ret;
}

static void qeth_enqueue_cmd(struct qeth_card *card,
        struct qeth_cmd_buffer *iob)
{
 spin_lock_irq(&card->lock);
 list_add_tail(&iob->list_entry, &card->cmd_waiter_list);
 spin_unlock_irq(&card->lock);
}

static void qeth_dequeue_cmd(struct qeth_card *card,
        struct qeth_cmd_buffer *iob)
{
 spin_lock_irq(&card->lock);
 list_del(&iob->list_entry);
 spin_unlock_irq(&card->lock);
}

static void qeth_notify_cmd(struct qeth_cmd_buffer *iob, int reason)
{
 iob->rc = reason;
 complete(&iob->done);
}

static void qeth_flush_local_addrs4(struct qeth_card *card)
{
 struct qeth_local_addr *addr;
 struct hlist_node *tmp;
 unsigned int i;

 spin_lock_irq(&card->local_addrs4_lock);
 hash_for_each_safe(card->local_addrs4, i, tmp, addr, hnode) {
  hash_del_rcu(&addr->hnode);
  kfree_rcu(addr, rcu);
 }
 spin_unlock_irq(&card->local_addrs4_lock);
}

static void qeth_flush_local_addrs6(struct qeth_card *card)
{
 struct qeth_local_addr *addr;
 struct hlist_node *tmp;
 unsigned int i;

 spin_lock_irq(&card->local_addrs6_lock);
 hash_for_each_safe(card->local_addrs6, i, tmp, addr, hnode) {
  hash_del_rcu(&addr->hnode);
  kfree_rcu(addr, rcu);
 }
 spin_unlock_irq(&card->local_addrs6_lock);
}

static void qeth_flush_local_addrs(struct qeth_card *card)
{
 qeth_flush_local_addrs4(card);
 qeth_flush_local_addrs6(card);
}

static void qeth_add_local_addrs4(struct qeth_card *card,
      struct qeth_ipacmd_local_addrs4 *cmd)
{
 unsigned int i;

 if (cmd->addr_length !=
     sizeof_field(struct qeth_ipacmd_local_addr4, addr)) {
  dev_err_ratelimited(&card->gdev->dev,
        "Dropped IPv4 ADD LOCAL ADDR event with bad length %u\n",
        cmd->addr_length);
  return;
 }

 spin_lock(&card->local_addrs4_lock);
 for (i = 0; i < cmd->count; i++) {
  unsigned int key = ipv4_addr_hash(cmd->addrs[i].addr);
  struct qeth_local_addr *addr;
  bool duplicate = false;

  hash_for_each_possible(card->local_addrs4, addr, hnode, key) {
   if (addr->addr.s6_addr32[3] == cmd->addrs[i].addr) {
    duplicate = true;
    break;
   }
  }

  if (duplicate)
   continue;

  addr = kmalloc(sizeof(*addr), GFP_ATOMIC);
  if (!addr) {
   dev_err(&card->gdev->dev,
    "Failed to allocate local addr object. Traffic to %pI4 might suffer.\n",
    &cmd->addrs[i].addr);
   continue;
  }

  ipv6_addr_set(&addr->addr, 0, 0, 0, cmd->addrs[i].addr);
  hash_add_rcu(card->local_addrs4, &addr->hnode, key);
 }
 spin_unlock(&card->local_addrs4_lock);
}

static void qeth_add_local_addrs6(struct qeth_card *card,
      struct qeth_ipacmd_local_addrs6 *cmd)
{
 unsigned int i;

 if (cmd->addr_length !=
     sizeof_field(struct qeth_ipacmd_local_addr6, addr)) {
  dev_err_ratelimited(&card->gdev->dev,
        "Dropped IPv6 ADD LOCAL ADDR event with bad length %u\n",
        cmd->addr_length);
  return;
 }

 spin_lock(&card->local_addrs6_lock);
 for (i = 0; i < cmd->count; i++) {
  u32 key = ipv6_addr_hash(&cmd->addrs[i].addr);
  struct qeth_local_addr *addr;
  bool duplicate = false;

  hash_for_each_possible(card->local_addrs6, addr, hnode, key) {
   if (ipv6_addr_equal(&addr->addr, &cmd->addrs[i].addr)) {
    duplicate = true;
    break;
   }
  }

  if (duplicate)
   continue;

  addr = kmalloc(sizeof(*addr), GFP_ATOMIC);
  if (!addr) {
   dev_err(&card->gdev->dev,
    "Failed to allocate local addr object. Traffic to %pI6c might suffer.\n",
    &cmd->addrs[i].addr);
   continue;
  }

  addr->addr = cmd->addrs[i].addr;
  hash_add_rcu(card->local_addrs6, &addr->hnode, key);
 }
 spin_unlock(&card->local_addrs6_lock);
}

static void qeth_del_local_addrs4(struct qeth_card *card,
      struct qeth_ipacmd_local_addrs4 *cmd)
{
 unsigned int i;

 if (cmd->addr_length !=
     sizeof_field(struct qeth_ipacmd_local_addr4, addr)) {
  dev_err_ratelimited(&card->gdev->dev,
        "Dropped IPv4 DEL LOCAL ADDR event with bad length %u\n",
        cmd->addr_length);
  return;
 }

 spin_lock(&card->local_addrs4_lock);
 for (i = 0; i < cmd->count; i++) {
  struct qeth_ipacmd_local_addr4 *addr = &cmd->addrs[i];
  unsigned int key = ipv4_addr_hash(addr->addr);
  struct qeth_local_addr *tmp;

  hash_for_each_possible(card->local_addrs4, tmp, hnode, key) {
   if (tmp->addr.s6_addr32[3] == addr->addr) {
    hash_del_rcu(&tmp->hnode);
    kfree_rcu(tmp, rcu);
    break;
   }
  }
 }
 spin_unlock(&card->local_addrs4_lock);
}

static void qeth_del_local_addrs6(struct qeth_card *card,
      struct qeth_ipacmd_local_addrs6 *cmd)
{
 unsigned int i;

 if (cmd->addr_length !=
     sizeof_field(struct qeth_ipacmd_local_addr6, addr)) {
  dev_err_ratelimited(&card->gdev->dev,
        "Dropped IPv6 DEL LOCAL ADDR event with bad length %u\n",
        cmd->addr_length);
  return;
 }

 spin_lock(&card->local_addrs6_lock);
 for (i = 0; i < cmd->count; i++) {
  struct qeth_ipacmd_local_addr6 *addr = &cmd->addrs[i];
  u32 key = ipv6_addr_hash(&addr->addr);
  struct qeth_local_addr *tmp;

  hash_for_each_possible(card->local_addrs6, tmp, hnode, key) {
   if (ipv6_addr_equal(&tmp->addr, &addr->addr)) {
    hash_del_rcu(&tmp->hnode);
    kfree_rcu(tmp, rcu);
    break;
   }
  }
 }
 spin_unlock(&card->local_addrs6_lock);
}

static bool qeth_next_hop_is_local_v4(struct qeth_card *card,
          struct sk_buff *skb)
{
 struct qeth_local_addr *tmp;
 bool is_local = false;
 unsigned int key;
 __be32 next_hop;

 if (hash_empty(card->local_addrs4))
  return false;

 rcu_read_lock();
 next_hop = qeth_next_hop_v4_rcu(skb,
     qeth_dst_check_rcu(skb, htons(ETH_P_IP)));
 key = ipv4_addr_hash(next_hop);

 hash_for_each_possible_rcu(card->local_addrs4, tmp, hnode, key) {
  if (tmp->addr.s6_addr32[3] == next_hop) {
   is_local = true;
   break;
  }
 }
 rcu_read_unlock();

 return is_local;
}

static bool qeth_next_hop_is_local_v6(struct qeth_card *card,
          struct sk_buff *skb)
{
 struct qeth_local_addr *tmp;
 struct in6_addr *next_hop;
 bool is_local = false;
 u32 key;

 if (hash_empty(card->local_addrs6))
  return false;

 rcu_read_lock();
 next_hop = qeth_next_hop_v6_rcu(skb,
     qeth_dst_check_rcu(skb, htons(ETH_P_IPV6)));
 key = ipv6_addr_hash(next_hop);

 hash_for_each_possible_rcu(card->local_addrs6, tmp, hnode, key) {
  if (ipv6_addr_equal(&tmp->addr, next_hop)) {
   is_local = true;
   break;
  }
 }
 rcu_read_unlock();

 return is_local;
}

static int qeth_debugfs_local_addr_show(struct seq_file *m, void *v)
{
 struct qeth_card *card = m->private;
 struct qeth_local_addr *tmp;
 unsigned int i;

 rcu_read_lock();
 hash_for_each_rcu(card->local_addrs4, i, tmp, hnode)
  seq_printf(m, "%pI4\n", &tmp->addr.s6_addr32[3]);
 hash_for_each_rcu(card->local_addrs6, i, tmp, hnode)
  seq_printf(m, "%pI6c\n", &tmp->addr);
 rcu_read_unlock();

 return 0;
}

DEFINE_SHOW_ATTRIBUTE(qeth_debugfs_local_addr);

static void qeth_issue_ipa_msg(struct qeth_ipa_cmd *cmd, int rc,
  struct qeth_card *card)
{
 const char *ipa_name;
 int com = cmd->hdr.command;

 ipa_name = qeth_get_ipa_cmd_name(com);

 if (rc)
  QETH_DBF_MESSAGE(2, "IPA: %s(%#x) for device %x returned %#x \"%s\"\n",
     ipa_name, com, CARD_DEVID(card), rc,
     qeth_get_ipa_msg(rc));
 else
  QETH_DBF_MESSAGE(5, "IPA: %s(%#x) for device %x succeeded\n",
     ipa_name, com, CARD_DEVID(card));
}

static void qeth_default_link_info(struct qeth_card *card)
{
 struct qeth_link_info *link_info = &card->info.link_info;

 QETH_CARD_TEXT(card, 2, "dftlinfo");
 link_info->duplex = DUPLEX_FULL;

 if (IS_IQD(card) || IS_VM_NIC(card)) {
  link_info->speed = SPEED_10000;
  link_info->port = PORT_FIBRE;
  link_info->link_mode = QETH_LINK_MODE_FIBRE_SHORT;
 } else {
  switch (card->info.link_type) {
  case QETH_LINK_TYPE_FAST_ETH:
  case QETH_LINK_TYPE_LANE_ETH100:
   link_info->speed = SPEED_100;
   link_info->port = PORT_TP;
   break;
  case QETH_LINK_TYPE_GBIT_ETH:
  case QETH_LINK_TYPE_LANE_ETH1000:
   link_info->speed = SPEED_1000;
   link_info->port = PORT_FIBRE;
   break;
  case QETH_LINK_TYPE_10GBIT_ETH:
   link_info->speed = SPEED_10000;
   link_info->port = PORT_FIBRE;
   break;
  case QETH_LINK_TYPE_25GBIT_ETH:
   link_info->speed = SPEED_25000;
   link_info->port = PORT_FIBRE;
   break;
  default:
   dev_info(&card->gdev->dev,
     "Unknown link type %x\n",
     card->info.link_type);
   link_info->speed = SPEED_UNKNOWN;
   link_info->port = PORT_OTHER;
  }

  link_info->link_mode = QETH_LINK_MODE_UNKNOWN;
 }
}

static struct qeth_ipa_cmd *qeth_check_ipa_data(struct qeth_card *card,
      struct qeth_ipa_cmd *cmd)
{
 QETH_CARD_TEXT(card, 5, "chkipad");

 if (IS_IPA_REPLY(cmd)) {
  if (cmd->hdr.command != IPA_CMD_SET_DIAG_ASS)
   qeth_issue_ipa_msg(cmd, cmd->hdr.return_code, card);
  return cmd;
 }

 /* handle unsolicited event: */
 switch (cmd->hdr.command) {
 case IPA_CMD_STOPLAN:
  if (cmd->hdr.return_code == IPA_RC_VEPA_TO_VEB_TRANSITION) {
   dev_err(&card->gdev->dev,
    "Adjacent port of interface %s is no longer in reflective relay mode, trigger recovery\n",
    netdev_name(card->dev));
   /* Set offline, then probably fail to set online: */
   qeth_schedule_recovery(card);
  } else {
   /* stay online for subsequent STARTLAN */
   dev_warn(&card->gdev->dev,
     "The link for interface %s on CHPID 0x%X failed\n",
     netdev_name(card->dev), card->info.chpid);
   qeth_issue_ipa_msg(cmd, cmd->hdr.return_code, card);
   netif_carrier_off(card->dev);
   qeth_default_link_info(card);
  }
  return NULL;
 case IPA_CMD_STARTLAN:
  dev_info(&card->gdev->dev,
    "The link for %s on CHPID 0x%X has been restored\n",
    netdev_name(card->dev), card->info.chpid);
  if (card->info.hwtrap)
   card->info.hwtrap = 2;
  qeth_schedule_recovery(card);
  return NULL;
 case IPA_CMD_SETBRIDGEPORT_IQD:
 case IPA_CMD_SETBRIDGEPORT_OSA:
 case IPA_CMD_ADDRESS_CHANGE_NOTIF:
  if (card->discipline->control_event_handler(card, cmd))
   return cmd;
  return NULL;
 case IPA_CMD_REGISTER_LOCAL_ADDR:
  if (cmd->hdr.prot_version == QETH_PROT_IPV4)
   qeth_add_local_addrs4(card, &cmd->data.local_addrs4);
  else if (cmd->hdr.prot_version == QETH_PROT_IPV6)
   qeth_add_local_addrs6(card, &cmd->data.local_addrs6);

  QETH_CARD_TEXT(card, 3, "irla");
  return NULL;
 case IPA_CMD_UNREGISTER_LOCAL_ADDR:
  if (cmd->hdr.prot_version == QETH_PROT_IPV4)
   qeth_del_local_addrs4(card, &cmd->data.local_addrs4);
  else if (cmd->hdr.prot_version == QETH_PROT_IPV6)
   qeth_del_local_addrs6(card, &cmd->data.local_addrs6);

  QETH_CARD_TEXT(card, 3, "urla");
  return NULL;
 default:
  QETH_DBF_MESSAGE(2, "Received data is IPA but not a reply!\n");
  return cmd;
 }
}

static void qeth_clear_ipacmd_list(struct qeth_card *card)
{
 struct qeth_cmd_buffer *iob;
 unsigned long flags;

 QETH_CARD_TEXT(card, 4, "clipalst");

 spin_lock_irqsave(&card->lock, flags);
 list_for_each_entry(iob, &card->cmd_waiter_list, list_entry)
  qeth_notify_cmd(iob, -ECANCELED);
 spin_unlock_irqrestore(&card->lock, flags);
}

static int qeth_check_idx_response(struct qeth_card *card,
 unsigned char *buffer)
{
 QETH_DBF_HEX(CTRL, 2, buffer, QETH_DBF_CTRL_LEN);
 if ((buffer[2] & QETH_IDX_TERMINATE_MASK) == QETH_IDX_TERMINATE) {
  QETH_DBF_MESSAGE(2, "received an IDX TERMINATE with cause code %#04x\n",
     buffer[4]);
  QETH_CARD_TEXT(card, 2, "ckidxres");
  QETH_CARD_TEXT(card, 2, " idxterm");
  QETH_CARD_TEXT_(card, 2, "rc%x", buffer[4]);
  if (buffer[4] == QETH_IDX_TERM_BAD_TRANSPORT ||
      buffer[4] == QETH_IDX_TERM_BAD_TRANSPORT_VM) {
   dev_err(&card->gdev->dev,
    "The device does not support the configured transport mode\n");
   return -EPROTONOSUPPORT;
  }
  return -EIO;
 }
 return 0;
}

static void qeth_release_buffer_cb(struct qeth_card *card,
       struct qeth_cmd_buffer *iob,
       unsigned int data_length)
{
 qeth_put_cmd(iob);
}

static void qeth_cancel_cmd(struct qeth_cmd_buffer *iob, int rc)
{
 qeth_notify_cmd(iob, rc);
 qeth_put_cmd(iob);
}

static struct qeth_cmd_buffer *qeth_alloc_cmd(struct qeth_channel *channel,
           unsigned int length,
           unsigned int ccws, long timeout)
{
 struct qeth_cmd_buffer *iob;

 if (length > QETH_BUFSIZE)
  return NULL;

 iob = kzalloc(sizeof(*iob), GFP_KERNEL);
 if (!iob)
  return NULL;

 iob->data = kzalloc(ALIGN(length, 8) + ccws * sizeof(struct ccw1),
       GFP_KERNEL | GFP_DMA);
 if (!iob->data) {
  kfree(iob);
  return NULL;
 }

 init_completion(&iob->done);
 spin_lock_init(&iob->lock);
 refcount_set(&iob->ref_count, 1);
 iob->channel = channel;
 iob->timeout = timeout;
 iob->length = length;
 return iob;
}

static void qeth_issue_next_read_cb(struct qeth_card *card,
        struct qeth_cmd_buffer *iob,
        unsigned int data_length)
{
 struct qeth_cmd_buffer *request = NULL;
 struct qeth_ipa_cmd *cmd = NULL;
 struct qeth_reply *reply = NULL;
 struct qeth_cmd_buffer *tmp;
 unsigned long flags;
 int rc = 0;

 QETH_CARD_TEXT(card, 4, "sndctlcb");
 rc = qeth_check_idx_response(card, iob->data);
 switch (rc) {
 case 0:
  break;
 case -EIO:
  qeth_schedule_recovery(card);
  fallthrough;
 default:
  qeth_clear_ipacmd_list(card);
  goto err_idx;
 }

 cmd = __ipa_reply(iob);
 if (cmd) {
  cmd = qeth_check_ipa_data(card, cmd);
  if (!cmd)
   goto out;
 }

 /* match against pending cmd requests */
 spin_lock_irqsave(&card->lock, flags);
 list_for_each_entry(tmp, &card->cmd_waiter_list, list_entry) {
  if (tmp->match && tmp->match(tmp, iob)) {
   request = tmp;
   /* take the object outside the lock */
   qeth_get_cmd(request);
   break;
  }
 }
 spin_unlock_irqrestore(&card->lock, flags);

 if (!request)
  goto out;

 reply = &request->reply;
 if (!reply->callback) {
  rc = 0;
  goto no_callback;
 }

 spin_lock_irqsave(&request->lock, flags);
 if (request->rc)
  /* Bail out when the requestor has already left: */
  rc = request->rc;
 else
  rc = reply->callback(card, reply, cmd ? (unsigned long)cmd :
       (unsigned long)iob);
 spin_unlock_irqrestore(&request->lock, flags);

no_callback:
 if (rc <= 0)
  qeth_notify_cmd(request, rc);
 qeth_put_cmd(request);
out:
 memcpy(&card->seqno.pdu_hdr_ack,
  QETH_PDU_HEADER_SEQ_NO(iob->data),
  QETH_SEQ_NO_LENGTH);
 __qeth_issue_next_read(card);
err_idx:
 qeth_put_cmd(iob);
}

static int qeth_set_thread_start_bit(struct qeth_card *card,
  unsigned long thread)
{
 unsigned long flags;
 int rc = 0;

 spin_lock_irqsave(&card->thread_mask_lock, flags);
 if (!(card->thread_allowed_mask & thread))
  rc = -EPERM;
 else if (card->thread_start_mask & thread)
  rc = -EBUSY;
 else
  card->thread_start_mask |= thread;
 spin_unlock_irqrestore(&card->thread_mask_lock, flags);

 return rc;
}

static void qeth_clear_thread_start_bit(struct qeth_card *card,
     unsigned long thread)
{
 unsigned long flags;

 spin_lock_irqsave(&card->thread_mask_lock, flags);
 card->thread_start_mask &= ~thread;
 spin_unlock_irqrestore(&card->thread_mask_lock, flags);
 wake_up(&card->wait_q);
}

static void qeth_clear_thread_running_bit(struct qeth_card *card,
       unsigned long thread)
{
 unsigned long flags;

 spin_lock_irqsave(&card->thread_mask_lock, flags);
 card->thread_running_mask &= ~thread;
 spin_unlock_irqrestore(&card->thread_mask_lock, flags);
 wake_up_all(&card->wait_q);
}

static int __qeth_do_run_thread(struct qeth_card *card, unsigned long thread)
{
 unsigned long flags;
 int rc = 0;

 spin_lock_irqsave(&card->thread_mask_lock, flags);
 if (card->thread_start_mask & thread) {
  if ((card->thread_allowed_mask & thread) &&
      !(card->thread_running_mask & thread)) {
   rc = 1;
   card->thread_start_mask &= ~thread;
   card->thread_running_mask |= thread;
  } else
   rc = -EPERM;
 }
 spin_unlock_irqrestore(&card->thread_mask_lock, flags);
 return rc;
}

static int qeth_do_run_thread(struct qeth_card *card, unsigned long thread)
{
 int rc = 0;

 wait_event(card->wait_q,
     (rc = __qeth_do_run_thread(card, thread)) >= 0);
 return rc;
}

int qeth_schedule_recovery(struct qeth_card *card)
{
 int rc;

 QETH_CARD_TEXT(card, 2, "startrec");

 rc = qeth_set_thread_start_bit(card, QETH_RECOVER_THREAD);
 if (!rc)
  schedule_work(&card->kernel_thread_starter);

 return rc;
}

static int qeth_get_problem(struct qeth_card *card, struct ccw_device *cdev,
       struct irb *irb)
{
 int dstat, cstat;
 char *sense;

 sense = (char *) irb->ecw;
 cstat = irb->scsw.cmd.cstat;
 dstat = irb->scsw.cmd.dstat;

 if (cstat & (SCHN_STAT_CHN_CTRL_CHK | SCHN_STAT_INTF_CTRL_CHK |
       SCHN_STAT_CHN_DATA_CHK | SCHN_STAT_CHAIN_CHECK |
       SCHN_STAT_PROT_CHECK | SCHN_STAT_PROG_CHECK)) {
  QETH_CARD_TEXT(card, 2, "CGENCHK");
  dev_warn(&cdev->dev, "The qeth device driver "
   "failed to recover an error on the device\n");
  QETH_DBF_MESSAGE(2, "check on channel %x with dstat=%#x, cstat=%#x\n",
     CCW_DEVID(cdev), dstat, cstat);
  print_hex_dump(KERN_WARNING, "qeth: irb ", DUMP_PREFIX_OFFSET,
    16, 1, irb, 64, 1);
  return -EIO;
 }

 if (dstat & DEV_STAT_UNIT_CHECK) {
  if (sense[SENSE_RESETTING_EVENT_BYTE] &
      SENSE_RESETTING_EVENT_FLAG) {
   QETH_CARD_TEXT(card, 2, "REVIND");
   return -EIO;
  }
  if (sense[SENSE_COMMAND_REJECT_BYTE] &
      SENSE_COMMAND_REJECT_FLAG) {
   QETH_CARD_TEXT(card, 2, "CMDREJi");
   return -EIO;
  }
  if ((sense[2] == 0xaf) && (sense[3] == 0xfe)) {
   QETH_CARD_TEXT(card, 2, "AFFE");
   return -EIO;
  }
  if ((!sense[0]) && (!sense[1]) && (!sense[2]) && (!sense[3])) {
   QETH_CARD_TEXT(card, 2, "ZEROSEN");
   return 0;
  }
  QETH_CARD_TEXT(card, 2, "DGENCHK");
  return -EIO;
 }
 return 0;
}

static int qeth_check_irb_error(struct qeth_card *card, struct ccw_device *cdev,
    struct irb *irb)
{
 if (!IS_ERR(irb))
  return 0;

 switch (PTR_ERR(irb)) {
 case -EIO:
  QETH_DBF_MESSAGE(2, "i/o-error on channel %x\n",
     CCW_DEVID(cdev));
  QETH_CARD_TEXT(card, 2, "ckirberr");
  QETH_CARD_TEXT_(card, 2, " rc%d", -EIO);
  return -EIO;
 case -ETIMEDOUT:
  dev_warn(&cdev->dev, "A hardware operation timed out"
   " on the device\n");
  QETH_CARD_TEXT(card, 2, "ckirberr");
  QETH_CARD_TEXT_(card, 2, " rc%d", -ETIMEDOUT);
  return -ETIMEDOUT;
 default:
  QETH_DBF_MESSAGE(2, "unknown error %ld on channel %x\n",
     PTR_ERR(irb), CCW_DEVID(cdev));
  QETH_CARD_TEXT(card, 2, "ckirberr");
  QETH_CARD_TEXT(card, 2, " rc???");
  return PTR_ERR(irb);
 }
}

/**
 * qeth_irq() - qeth interrupt handler
 * @cdev: ccw device
 * @intparm: expect pointer to iob
 * @irb: Interruption Response Block
 *
 * In the good path:
 * corresponding qeth channel is locked with last used iob as active_cmd.
 * But this function is also called for error interrupts.
 *
 * Caller ensures that:
 * Interrupts are disabled; ccw device lock is held;
 *
 */

static void qeth_irq(struct ccw_device *cdev, unsigned long intparm,
  struct irb *irb)
{
 int rc;
 int cstat, dstat;
 struct qeth_cmd_buffer *iob = NULL;
 struct ccwgroup_device *gdev;
 struct qeth_channel *channel;
 struct qeth_card *card;

 /* while we hold the ccwdev lock, this stays valid: */
 gdev = dev_get_drvdata(&cdev->dev);
 card = dev_get_drvdata(&gdev->dev);

 QETH_CARD_TEXT(card, 5, "irq");

 if (card->read.ccwdev == cdev) {
  channel = &card->read;
  QETH_CARD_TEXT(card, 5, "read");
 } else if (card->write.ccwdev == cdev) {
  channel = &card->write;
  QETH_CARD_TEXT(card, 5, "write");
 } else {
  channel = &card->data;
  QETH_CARD_TEXT(card, 5, "data");
 }

 if (intparm == 0) {
  QETH_CARD_TEXT(card, 5, "irqunsol");
 } else if ((addr_t)intparm != (addr_t)channel->active_cmd) {
  QETH_CARD_TEXT(card, 5, "irqunexp");

  dev_err(&cdev->dev,
   "Received IRQ with intparm %lx, expected %px\n",
   intparm, channel->active_cmd);
  if (channel->active_cmd)
   qeth_cancel_cmd(channel->active_cmd, -EIO);
 } else {
  iob = (struct qeth_cmd_buffer *) (addr_t)intparm;
 }

 rc = qeth_check_irb_error(card, cdev, irb);
 if (rc) {
  /* IO was terminated, free its resources. */
  qeth_unlock_channel(card, channel);
  if (iob)
   qeth_cancel_cmd(iob, rc);
  return;
 }

 if (irb->scsw.cmd.fctl & SCSW_FCTL_CLEAR_FUNC) {
  channel->state = CH_STATE_STOPPED;
  wake_up(&card->wait_q);
 }

 if (irb->scsw.cmd.fctl & SCSW_FCTL_HALT_FUNC) {
  channel->state = CH_STATE_HALTED;
  wake_up(&card->wait_q);
 }

 if (iob && (irb->scsw.cmd.fctl & (SCSW_FCTL_CLEAR_FUNC |
       SCSW_FCTL_HALT_FUNC))) {
  qeth_cancel_cmd(iob, -ECANCELED);
  iob = NULL;
 }

 cstat = irb->scsw.cmd.cstat;
 dstat = irb->scsw.cmd.dstat;

 if ((dstat & DEV_STAT_UNIT_EXCEP) ||
     (dstat & DEV_STAT_UNIT_CHECK) ||
     (cstat)) {
  if (irb->esw.esw0.erw.cons) {
   dev_warn(&channel->ccwdev->dev,
    "The qeth device driver failed to recover "
    "an error on the device\n");
   QETH_DBF_MESSAGE(2, "sense data available on channel %x: cstat %#X dstat %#X\n",
      CCW_DEVID(channel->ccwdev), cstat,
      dstat);
   print_hex_dump(KERN_WARNING, "qeth: irb ",
    DUMP_PREFIX_OFFSET, 16, 1, irb, 32, 1);
   print_hex_dump(KERN_WARNING, "qeth: sense data ",
    DUMP_PREFIX_OFFSET, 16, 1, irb->ecw, 32, 1);
  }

  rc = qeth_get_problem(card, cdev, irb);
  if (rc) {
   card->read_or_write_problem = 1;
   qeth_unlock_channel(card, channel);
   if (iob)
    qeth_cancel_cmd(iob, rc);
   qeth_clear_ipacmd_list(card);
   qeth_schedule_recovery(card);
   return;
  }
 }

 if (scsw_cmd_is_valid_cc(&irb->scsw) && irb->scsw.cmd.cc == 1 && iob) {
  /* channel command hasn't started: retry.
 * active_cmd is still set to last iob
 */

  QETH_CARD_TEXT(card, 2, "irqcc1");
  rc = ccw_device_start_timeout(cdev, __ccw_from_cmd(iob),
           (addr_t)iob, 0, 0, iob->timeout);
  if (rc) {
   QETH_DBF_MESSAGE(2,
      "ccw retry on %x failed, rc = %i\n",
      CARD_DEVID(card), rc);
   QETH_CARD_TEXT_(card, 2, " err%d", rc);
   qeth_unlock_channel(card, channel);
   qeth_cancel_cmd(iob, rc);
  }
  return;
 }

 qeth_unlock_channel(card, channel);

 if (iob) {
  /* sanity check: */
  if (irb->scsw.cmd.count > iob->length) {
   qeth_cancel_cmd(iob, -EIO);
   return;
  }
  if (iob->callback)
   iob->callback(card, iob,
          iob->length - irb->scsw.cmd.count);
 }
}

static void qeth_notify_skbs(struct qeth_qdio_out_q *q,
  struct qeth_qdio_out_buffer *buf,
  enum iucv_tx_notify notification)
{
 struct sk_buff *skb;

 skb_queue_walk(&buf->skb_list, skb) {
  struct sock *sk = skb->sk;

  QETH_CARD_TEXT_(q->card, 5, "skbn%d", notification);
  QETH_CARD_TEXT_(q->card, 5, "%lx", (long) skb);
  if (sk && sk->sk_family == PF_IUCV)
   iucv_sk(sk)->sk_txnotify(sk, notification);
 }
}

static void qeth_tx_complete_buf(struct qeth_qdio_out_q *queue,
     struct qeth_qdio_out_buffer *buf, bool error,
     int budget)
{
 struct sk_buff *skb;

 /* Empty buffer? */
 if (buf->next_element_to_fill == 0)
  return;

 QETH_TXQ_STAT_INC(queue, bufs);
 QETH_TXQ_STAT_ADD(queue, buf_elements, buf->next_element_to_fill);
 if (error) {
  QETH_TXQ_STAT_ADD(queue, tx_errors, buf->frames);
 } else {
  QETH_TXQ_STAT_ADD(queue, tx_packets, buf->frames);
  QETH_TXQ_STAT_ADD(queue, tx_bytes, buf->bytes);
 }

 while ((skb = __skb_dequeue(&buf->skb_list)) != NULL) {
  unsigned int bytes = qdisc_pkt_len(skb);
  bool is_tso = skb_is_gso(skb);
  unsigned int packets;

  packets = is_tso ? skb_shinfo(skb)->gso_segs : 1;
  if (!error) {
   if (skb->ip_summed == CHECKSUM_PARTIAL)
    QETH_TXQ_STAT_ADD(queue, skbs_csum, packets);
   if (skb_is_nonlinear(skb))
    QETH_TXQ_STAT_INC(queue, skbs_sg);
   if (is_tso) {
    QETH_TXQ_STAT_INC(queue, skbs_tso);
    QETH_TXQ_STAT_ADD(queue, tso_bytes, bytes);
   }
  }

  napi_consume_skb(skb, budget);
 }
}

static void qeth_clear_output_buffer(struct qeth_qdio_out_q *queue,
         struct qeth_qdio_out_buffer *buf,
         bool error, int budget)
{
 int i;

 /* is PCI flag set on buffer? */
 if (buf->buffer->element[0].sflags & SBAL_SFLAGS0_PCI_REQ) {
  atomic_dec(&queue->set_pci_flags_count);
  QETH_TXQ_STAT_INC(queue, completion_irq);
 }

 qeth_tx_complete_buf(queue, buf, error, budget);

 for (i = 0; i < queue->max_elements; ++i) {
  void *data = dma64_to_virt(buf->buffer->element[i].addr);

  if (__test_and_clear_bit(i, buf->from_kmem_cache) && data)
   kmem_cache_free(qeth_core_header_cache, data);
 }

 qeth_scrub_qdio_buffer(buf->buffer, queue->max_elements);
 buf->next_element_to_fill = 0;
 buf->frames = 0;
 buf->bytes = 0;
 atomic_set(&buf->state, QETH_QDIO_BUF_EMPTY);
}

static void qeth_free_out_buf(struct qeth_qdio_out_buffer *buf)
{
 if (buf->aob)
  kmem_cache_free(qeth_qaob_cache, buf->aob);
 kmem_cache_free(qeth_qdio_outbuf_cache, buf);
}

static void qeth_tx_complete_pending_bufs(struct qeth_card *card,
       struct qeth_qdio_out_q *queue,
       bool drain, int budget)
{
 struct qeth_qdio_out_buffer *buf, *tmp;

 list_for_each_entry_safe(buf, tmp, &queue->pending_bufs, list_entry) {
  struct qeth_qaob_priv1 *priv;
  struct qaob *aob = buf->aob;
  enum iucv_tx_notify notify;
  unsigned int i;

  priv = (struct qeth_qaob_priv1 *)&aob->user1;
  if (drain || READ_ONCE(priv->state) == QETH_QAOB_DONE) {
   QETH_CARD_TEXT(card, 5, "fp");
   QETH_CARD_TEXT_(card, 5, "%lx", (long) buf);

   notify = drain ? TX_NOTIFY_GENERALERROR :
      qeth_compute_cq_notification(aob->aorc, 1);
   qeth_notify_skbs(queue, buf, notify);
   qeth_tx_complete_buf(queue, buf, drain, budget);

   for (i = 0;
        i < aob->sb_count && i < queue->max_elements;
        i++) {
    void *data = dma64_to_virt(aob->sba[i]);

    if (test_bit(i, buf->from_kmem_cache) && data)
     kmem_cache_free(qeth_core_header_cache,
       data);
   }

   list_del(&buf->list_entry);
   qeth_free_out_buf(buf);
  }
 }
}

static void qeth_drain_output_queue(struct qeth_qdio_out_q *q, bool free)
{
 int j;

 qeth_tx_complete_pending_bufs(q->card, q, true, 0);

 for (j = 0; j < QDIO_MAX_BUFFERS_PER_Q; ++j) {
  if (!q->bufs[j])
   continue;

  qeth_clear_output_buffer(q, q->bufs[j], true, 0);
  if (free) {
   qeth_free_out_buf(q->bufs[j]);
   q->bufs[j] = NULL;
  }
 }
}

static void qeth_drain_output_queues(struct qeth_card *card)
{
 int i;

 QETH_CARD_TEXT(card, 2, "clearqdbf");
 /* clear outbound buffers to free skbs */
 for (i = 0; i < card->qdio.no_out_queues; ++i) {
  if (card->qdio.out_qs[i])
   qeth_drain_output_queue(card->qdio.out_qs[i], false);
 }
}

static void qeth_osa_set_output_queues(struct qeth_card *card, bool single)
{
 unsigned int max = single ? 1 : card->dev->num_tx_queues;

 if (card->qdio.no_out_queues == max)
  return;

 if (atomic_read(&card->qdio.state) != QETH_QDIO_UNINITIALIZED)
  qeth_free_qdio_queues(card);

 if (max == 1 && card->qdio.do_prio_queueing != QETH_PRIOQ_DEFAULT)
  dev_info(&card->gdev->dev, "Priority Queueing not supported\n");

 card->qdio.no_out_queues = max;
}

static int qeth_update_from_chp_desc(struct qeth_card *card)
{
 struct ccw_device *ccwdev;
 struct channel_path_desc_fmt0 *chp_dsc;

 QETH_CARD_TEXT(card, 2, "chp_desc");

 ccwdev = card->data.ccwdev;
 chp_dsc = ccw_device_get_chp_desc(ccwdev, 0);
 if (!chp_dsc)
  return -ENOMEM;

 card->info.func_level = 0x4100 + chp_dsc->desc;

 if (IS_OSD(card) || IS_OSX(card))
  /* CHPP field bit 6 == 1 -> single queue */
  qeth_osa_set_output_queues(card, chp_dsc->chpp & 0x02);

 kfree(chp_dsc);
 QETH_CARD_TEXT_(card, 2, "nr:%x", card->qdio.no_out_queues);
 QETH_CARD_TEXT_(card, 2, "lvl:%02x", card->info.func_level);
 return 0;
}

static void qeth_init_qdio_info(struct qeth_card *card)
{
 QETH_CARD_TEXT(card, 4, "intqdinf");
 atomic_set(&card->qdio.state, QETH_QDIO_UNINITIALIZED);
 card->qdio.do_prio_queueing = QETH_PRIOQ_DEFAULT;
 card->qdio.default_out_queue = QETH_DEFAULT_QUEUE;

 /* inbound */
 card->qdio.in_buf_size = QETH_IN_BUF_SIZE_DEFAULT;
 if (IS_IQD(card))
  card->qdio.init_pool.buf_count = QETH_IN_BUF_COUNT_HSDEFAULT;
 else
  card->qdio.init_pool.buf_count = QETH_IN_BUF_COUNT_DEFAULT;
 card->qdio.in_buf_pool.buf_count = card->qdio.init_pool.buf_count;
 INIT_LIST_HEAD(&card->qdio.in_buf_pool.entry_list);
 INIT_LIST_HEAD(&card->qdio.init_pool.entry_list);
}

static void qeth_set_initial_options(struct qeth_card *card)
{
 card->options.route4.type = NO_ROUTER;
 card->options.route6.type = NO_ROUTER;
 card->options.isolation = ISOLATION_MODE_NONE;
 card->options.cq = QETH_CQ_DISABLED;
 card->options.layer = QETH_DISCIPLINE_UNDETERMINED;
}

static int qeth_do_start_thread(struct qeth_card *card, unsigned long thread)
{
 unsigned long flags;
 int rc = 0;

 spin_lock_irqsave(&card->thread_mask_lock, flags);
 QETH_CARD_TEXT_(card, 4, " %02x%02x%02x",
   (u8) card->thread_start_mask,
   (u8) card->thread_allowed_mask,
   (u8) card->thread_running_mask);
 rc = (card->thread_start_mask & thread);
 spin_unlock_irqrestore(&card->thread_mask_lock, flags);
 return rc;
}

static int qeth_do_reset(void *data);
static void qeth_start_kernel_thread(struct work_struct *work)
{
 struct task_struct *ts;
 struct qeth_card *card = container_of(work, struct qeth_card,
     kernel_thread_starter);
 QETH_CARD_TEXT(card, 2, "strthrd");

 if (card->read.state != CH_STATE_UP &&
     card->write.state != CH_STATE_UP)
  return;
 if (qeth_do_start_thread(card, QETH_RECOVER_THREAD)) {
  ts = kthread_run(qeth_do_reset, card, "qeth_recover");
  if (IS_ERR(ts)) {
   qeth_clear_thread_start_bit(card, QETH_RECOVER_THREAD);
   qeth_clear_thread_running_bit(card,
    QETH_RECOVER_THREAD);
  }
 }
}

static void qeth_buffer_reclaim_work(struct work_struct *);
static void qeth_setup_card(struct qeth_card *card)
{
 QETH_CARD_TEXT(card, 2, "setupcrd");

 card->info.type = CARD_RDEV(card)->id.driver_info;
 card->state = CARD_STATE_DOWN;
 spin_lock_init(&card->lock);
 spin_lock_init(&card->thread_mask_lock);
 mutex_init(&card->conf_mutex);
 mutex_init(&card->discipline_mutex);
 INIT_WORK(&card->kernel_thread_starter, qeth_start_kernel_thread);
 INIT_LIST_HEAD(&card->cmd_waiter_list);
 init_waitqueue_head(&card->wait_q);
 qeth_set_initial_options(card);
 /* IP address takeover */
 INIT_LIST_HEAD(&card->ipato.entries);
 qeth_init_qdio_info(card);
 INIT_DELAYED_WORK(&card->buffer_reclaim_work, qeth_buffer_reclaim_work);
 hash_init(card->rx_mode_addrs);
 hash_init(card->local_addrs4);
 hash_init(card->local_addrs6);
 spin_lock_init(&card->local_addrs4_lock);
 spin_lock_init(&card->local_addrs6_lock);
}

static void qeth_core_sl_print(struct seq_file *m, struct service_level *slr)
{
 struct qeth_card *card = container_of(slr, struct qeth_card,
     qeth_service_level);
 if (card->info.mcl_level[0])
  seq_printf(m, "qeth: %s firmware level %s\n",
   CARD_BUS_ID(card), card->info.mcl_level);
}

static struct qeth_card *qeth_alloc_card(struct ccwgroup_device *gdev)
{
 struct qeth_card *card;

 QETH_DBF_TEXT(SETUP, 2, "alloccrd");
 card = kzalloc(sizeof(*card), GFP_KERNEL);
 if (!card)
  goto out;
 QETH_DBF_HEX(SETUP, 2, &card, sizeof(void *));

 card->gdev = gdev;
 dev_set_drvdata(&gdev->dev, card);
 CARD_RDEV(card) = gdev->cdev[0];
 CARD_WDEV(card) = gdev->cdev[1];
 CARD_DDEV(card) = gdev->cdev[2];

 card->event_wq = alloc_ordered_workqueue("%s_event", 0,
       dev_name(&gdev->dev));
 if (!card->event_wq)
  goto out_wq;

 card->read_cmd = qeth_alloc_cmd(&card->read, QETH_BUFSIZE, 1, 0);
 if (!card->read_cmd)
  goto out_read_cmd;

 card->debugfs = debugfs_create_dir(dev_name(&gdev->dev),
        qeth_debugfs_root);
 debugfs_create_file("local_addrs", 0400, card->debugfs, card,
       &qeth_debugfs_local_addr_fops);

 card->qeth_service_level.seq_print = qeth_core_sl_print;
 register_service_level(&card->qeth_service_level);
 return card;

out_read_cmd:
 destroy_workqueue(card->event_wq);
out_wq:
 dev_set_drvdata(&gdev->dev, NULL);
 kfree(card);
out:
 return NULL;
}

static int qeth_clear_channel(struct qeth_card *card,
         struct qeth_channel *channel)
{
 int rc;

 QETH_CARD_TEXT(card, 3, "clearch");
 spin_lock_irq(get_ccwdev_lock(channel->ccwdev));
 rc = ccw_device_clear(channel->ccwdev, (addr_t)channel->active_cmd);
 spin_unlock_irq(get_ccwdev_lock(channel->ccwdev));

 if (rc)
  return rc;
 rc = wait_event_interruptible_timeout(card->wait_q,
   channel->state == CH_STATE_STOPPED, QETH_TIMEOUT);
 if (rc == -ERESTARTSYS)
  return rc;
 if (channel->state != CH_STATE_STOPPED)
  return -ETIME;
 channel->state = CH_STATE_DOWN;
 return 0;
}

static int qeth_halt_channel(struct qeth_card *card,
        struct qeth_channel *channel)
{
 int rc;

 QETH_CARD_TEXT(card, 3, "haltch");
 spin_lock_irq(get_ccwdev_lock(channel->ccwdev));
 rc = ccw_device_halt(channel->ccwdev, (addr_t)channel->active_cmd);
 spin_unlock_irq(get_ccwdev_lock(channel->ccwdev));

 if (rc)
  return rc;
 rc = wait_event_interruptible_timeout(card->wait_q,
   channel->state == CH_STATE_HALTED, QETH_TIMEOUT);
 if (rc == -ERESTARTSYS)
  return rc;
 if (channel->state != CH_STATE_HALTED)
  return -ETIME;
 return 0;
}

static int qeth_stop_channel(struct qeth_channel *channel)
{
 struct ccw_device *cdev = channel->ccwdev;
 int rc;

 rc = ccw_device_set_offline(cdev);

 spin_lock_irq(get_ccwdev_lock(cdev));
 if (channel->active_cmd)
  dev_err(&cdev->dev, "Stopped channel while cmd %px was still active\n",
   channel->active_cmd);

 cdev->handler = NULL;
 spin_unlock_irq(get_ccwdev_lock(cdev));

 return rc;
}

static int qeth_start_channel(struct qeth_channel *channel)
{
 struct ccw_device *cdev = channel->ccwdev;
 int rc;

 channel->state = CH_STATE_DOWN;
 xchg(&channel->active_cmd, NULL);

 spin_lock_irq(get_ccwdev_lock(cdev));
 cdev->handler = qeth_irq;
 spin_unlock_irq(get_ccwdev_lock(cdev));

 rc = ccw_device_set_online(cdev);
 if (rc)
  goto err;

 return 0;

err:
 spin_lock_irq(get_ccwdev_lock(cdev));
 cdev->handler = NULL;
 spin_unlock_irq(get_ccwdev_lock(cdev));
 return rc;
}

static int qeth_halt_channels(struct qeth_card *card)
{
 int rc1 = 0, rc2 = 0, rc3 = 0;

 QETH_CARD_TEXT(card, 3, "haltchs");
 rc1 = qeth_halt_channel(card, &card->read);
 rc2 = qeth_halt_channel(card, &card->write);
 rc3 = qeth_halt_channel(card, &card->data);
 if (rc1)
  return rc1;
 if (rc2)
  return rc2;
 return rc3;
}

static int qeth_clear_channels(struct qeth_card *card)
{
 int rc1 = 0, rc2 = 0, rc3 = 0;

 QETH_CARD_TEXT(card, 3, "clearchs");
 rc1 = qeth_clear_channel(card, &card->read);
 rc2 = qeth_clear_channel(card, &card->write);
 rc3 = qeth_clear_channel(card, &card->data);
 if (rc1)
  return rc1;
 if (rc2)
  return rc2;
 return rc3;
}

static int qeth_clear_halt_card(struct qeth_card *card, int halt)
{
 int rc = 0;

 QETH_CARD_TEXT(card, 3, "clhacrd");

 if (halt)
  rc = qeth_halt_channels(card);
 if (rc)
  return rc;
 return qeth_clear_channels(card);
}

static int qeth_qdio_clear_card(struct qeth_card *card, int use_halt)
{
 int rc = 0;

 QETH_CARD_TEXT(card, 3, "qdioclr");
 switch (atomic_cmpxchg(&card->qdio.state, QETH_QDIO_ESTABLISHED,
  QETH_QDIO_CLEANING)) {
 case QETH_QDIO_ESTABLISHED:
  if (IS_IQD(card))
   rc = qdio_shutdown(CARD_DDEV(card),
    QDIO_FLAG_CLEANUP_USING_HALT);
  else
   rc = qdio_shutdown(CARD_DDEV(card),
    QDIO_FLAG_CLEANUP_USING_CLEAR);
  if (rc)
   QETH_CARD_TEXT_(card, 3, "1err%d", rc);
  atomic_set(&card->qdio.state, QETH_QDIO_ALLOCATED);
  break;
 case QETH_QDIO_CLEANING:
  return rc;
 default:
  break;
 }
 rc = qeth_clear_halt_card(card, use_halt);
 if (rc)
  QETH_CARD_TEXT_(card, 3, "2err%d", rc);
 return rc;
}

static enum qeth_discipline_id qeth_vm_detect_layer(struct qeth_card *card)
{
 enum qeth_discipline_id disc = QETH_DISCIPLINE_UNDETERMINED;
 struct diag26c_vnic_resp *response = NULL;
 struct diag26c_vnic_req *request = NULL;
 struct ccw_dev_id id;
 char userid[80];
 int rc = 0;

 QETH_CARD_TEXT(card, 2, "vmlayer");

 cpcmd("QUERY USERID", userid, sizeof(userid), &rc);
 if (rc)
  goto out;

 request = kzalloc(sizeof(*request), GFP_KERNEL | GFP_DMA);
 response = kzalloc(sizeof(*response), GFP_KERNEL | GFP_DMA);
 if (!request || !response) {
  rc = -ENOMEM;
  goto out;
 }

 ccw_device_get_id(CARD_RDEV(card), &id);
 request->resp_buf_len = sizeof(*response);
 request->resp_version = DIAG26C_VERSION6_VM65918;
 request->req_format = DIAG26C_VNIC_INFO;
 ASCEBC(userid, 8);
 memcpy(&request->sys_name, userid, 8);
 request->devno = id.devno;

 QETH_DBF_HEX(CTRL, 2, request, sizeof(*request));
 rc = diag26c(request, response, DIAG26C_PORT_VNIC);
 QETH_DBF_HEX(CTRL, 2, request, sizeof(*request));
 if (rc)
  goto out;
 QETH_DBF_HEX(CTRL, 2, response, sizeof(*response));

 if (request->resp_buf_len < sizeof(*response) ||
     response->version != request->resp_version) {
  rc = -EIO;
  goto out;
 }

 if (response->protocol == VNIC_INFO_PROT_L2)
  disc = QETH_DISCIPLINE_LAYER2;
 else if (response->protocol == VNIC_INFO_PROT_L3)
  disc = QETH_DISCIPLINE_LAYER3;

out:
 kfree(response);
 kfree(request);
 if (rc)
  QETH_CARD_TEXT_(card, 2, "err%x", rc);
 return disc;
}

/* Determine whether the device requires a specific layer discipline */
static enum qeth_discipline_id qeth_enforce_discipline(struct qeth_card *card)
{
 enum qeth_discipline_id disc = QETH_DISCIPLINE_UNDETERMINED;

 if (IS_OSM(card))
  disc = QETH_DISCIPLINE_LAYER2;
 else if (IS_VM_NIC(card))
  disc = IS_IQD(card) ? QETH_DISCIPLINE_LAYER3 :
          qeth_vm_detect_layer(card);

 switch (disc) {
 case QETH_DISCIPLINE_LAYER2:
  QETH_CARD_TEXT(card, 3, "force l2");
  break;
 case QETH_DISCIPLINE_LAYER3:
  QETH_CARD_TEXT(card, 3, "force l3");
  break;
 default:
  QETH_CARD_TEXT(card, 3, "force no");
 }

 return disc;
}

static void qeth_set_blkt_defaults(struct qeth_card *card)
{
 QETH_CARD_TEXT(card, 2, "cfgblkt");

 if (card->info.use_v1_blkt) {
  card->info.blkt.time_total = 0;
  card->info.blkt.inter_packet = 0;
  card->info.blkt.inter_packet_jumbo = 0;
 } else {
  card->info.blkt.time_total = 250;
  card->info.blkt.inter_packet = 5;
  card->info.blkt.inter_packet_jumbo = 15;
 }
}

static void qeth_idx_init(struct qeth_card *card)
{
 memset(&card->seqno, 0, sizeof(card->seqno));

 card->token.issuer_rm_w = 0x00010103UL;
 card->token.cm_filter_w = 0x00010108UL;
 card->token.cm_connection_w = 0x0001010aUL;
 card->token.ulp_filter_w = 0x0001010bUL;
 card->token.ulp_connection_w = 0x0001010dUL;

 switch (card->info.type) {
 case QETH_CARD_TYPE_IQD:
  card->info.func_level = QETH_IDX_FUNC_LEVEL_IQD;
  break;
 case QETH_CARD_TYPE_OSD:
  card->info.func_level = QETH_IDX_FUNC_LEVEL_OSD;
  break;
 default:
  break;
 }
}

static void qeth_idx_finalize_cmd(struct qeth_card *card,
      struct qeth_cmd_buffer *iob)
{
 memcpy(QETH_TRANSPORT_HEADER_SEQ_NO(iob->data), &card->seqno.trans_hdr,
        QETH_SEQ_NO_LENGTH);
 if (iob->channel == &card->write)
  card->seqno.trans_hdr++;
}

static int qeth_peer_func_level(int level)
{
 if ((level & 0xff) == 8)
  return (level & 0xff) + 0x400;
 if (((level >> 8) & 3) == 1)
  return (level & 0xff) + 0x200;
 return level;
}

static void qeth_mpc_finalize_cmd(struct qeth_card *card,
      struct qeth_cmd_buffer *iob)
{
 qeth_idx_finalize_cmd(card, iob);

 memcpy(QETH_PDU_HEADER_SEQ_NO(iob->data),
        &card->seqno.pdu_hdr, QETH_SEQ_NO_LENGTH);
 card->seqno.pdu_hdr++;
 memcpy(QETH_PDU_HEADER_ACK_SEQ_NO(iob->data),
        &card->seqno.pdu_hdr_ack, QETH_SEQ_NO_LENGTH);

 iob->callback = qeth_release_buffer_cb;
}

static bool qeth_mpc_match_reply(struct qeth_cmd_buffer *iob,
     struct qeth_cmd_buffer *reply)
{
 /* MPC cmds are issued strictly in sequence. */
 return !IS_IPA(reply->data);
}

static struct qeth_cmd_buffer *qeth_mpc_alloc_cmd(struct qeth_card *card,
        const void *data,
        unsigned int data_length)
{
 struct qeth_cmd_buffer *iob;

 iob = qeth_alloc_cmd(&card->write, data_length, 1, QETH_TIMEOUT);
 if (!iob)
  return NULL;

 memcpy(iob->data, data, data_length);
 qeth_setup_ccw(__ccw_from_cmd(iob), CCW_CMD_WRITE, 0, data_length,
         iob->data);
 iob->finalize = qeth_mpc_finalize_cmd;
 iob->match = qeth_mpc_match_reply;
 return iob;
}

/**
 * qeth_send_control_data() - send control command to the card
 * @card: qeth_card structure pointer
 * @iob: qeth_cmd_buffer pointer
 * @reply_cb: callback function pointer
 *  cb_card: pointer to the qeth_card structure
 *  cb_reply: pointer to the qeth_reply structure
 *  cb_cmd: pointer to the original iob for non-IPA
 * commands, or to the qeth_ipa_cmd structure
 * for the IPA commands.
 * @reply_param: private pointer passed to the callback
 *
 * Callback function gets called one or more times, with cb_cmd
 * pointing to the response returned by the hardware. Callback
 * function must return
 *   > 0 if more reply blocks are expected,
 *     0 if the last or only reply block is received, and
 *   < 0 on error.
 * Callback function can get the value of the reply_param pointer from the
 * field 'param' of the structure qeth_reply.
 */


static int qeth_send_control_data(struct qeth_card *card,
      struct qeth_cmd_buffer *iob,
      int (*reply_cb)(struct qeth_card *cb_card,
        struct qeth_reply *cb_reply,
        unsigned long cb_cmd),
      void *reply_param)
{
 struct qeth_channel *channel = iob->channel;
 struct qeth_reply *reply = &iob->reply;
 long timeout = iob->timeout;
 int rc;

 QETH_CARD_TEXT(card, 2, "sendctl");

 reply->callback = reply_cb;
 reply->param = reply_param;

 timeout = wait_event_interruptible_timeout(card->wait_q,
         qeth_trylock_channel(channel, iob),
         timeout);
 if (timeout <= 0) {
  qeth_put_cmd(iob);
  return (timeout == -ERESTARTSYS) ? -EINTR : -ETIME;
 }

 if (iob->finalize)
  iob->finalize(card, iob);
 QETH_DBF_HEX(CTRL, 2, iob->data, min(iob->length, QETH_DBF_CTRL_LEN));

 qeth_enqueue_cmd(card, iob);

 /* This pairs with iob->callback, and keeps the iob alive after IO: */
 qeth_get_cmd(iob);

 QETH_CARD_TEXT(card, 6, "noirqpnd");
 spin_lock_irq(get_ccwdev_lock(channel->ccwdev));
 rc = ccw_device_start_timeout(channel->ccwdev, __ccw_from_cmd(iob),
          (addr_t) iob, 0, 0, timeout);
 spin_unlock_irq(get_ccwdev_lock(channel->ccwdev));
 if (rc) {
  QETH_DBF_MESSAGE(2, "qeth_send_control_data on device %x: ccw_device_start rc = %i\n",
     CARD_DEVID(card), rc);
  QETH_CARD_TEXT_(card, 2, " err%d", rc);
  qeth_dequeue_cmd(card, iob);
  qeth_put_cmd(iob);
  qeth_unlock_channel(card, channel);
  goto out;
 }

 timeout = wait_for_completion_interruptible_timeout(&iob->done,
           timeout);
 if (timeout <= 0)
  rc = (timeout == -ERESTARTSYS) ? -EINTR : -ETIME;

 qeth_dequeue_cmd(card, iob);

 if (reply_cb) {
  /* Wait until the callback for a late reply has completed: */
  spin_lock_irq(&iob->lock);
  if (rc)
   /* Zap any callback that's still pending: */
   iob->rc = rc;
  spin_unlock_irq(&iob->lock);
 }

 if (!rc)
  rc = iob->rc;

out:
 qeth_put_cmd(iob);
 return rc;
}

struct qeth_node_desc {
 struct node_descriptor nd1;
 struct node_descriptor nd2;
 struct node_descriptor nd3;
};

static void qeth_read_conf_data_cb(struct qeth_card *card,
       struct qeth_cmd_buffer *iob,
       unsigned int data_length)
{
 struct qeth_node_desc *nd = (struct qeth_node_desc *) iob->data;
 int rc = 0;
 u8 *tag;

 QETH_CARD_TEXT(card, 2, "cfgunit");

 if (data_length < sizeof(*nd)) {
  rc = -EINVAL;
  goto out;
 }

 card->info.is_vm_nic = nd->nd1.plant[0] == _ascebc['V'] &&
          nd->nd1.plant[1] == _ascebc['M'];
 tag = (u8 *)&nd->nd1.tag;
 card->info.chpid = tag[0];
 card->info.unit_addr2 = tag[1];

 tag = (u8 *)&nd->nd2.tag;
 card->info.cula = tag[1];

 card->info.use_v1_blkt = nd->nd3.model[0] == 0xF0 &&
     nd->nd3.model[1] == 0xF0 &&
     nd->nd3.model[2] >= 0xF1 &&
     nd->nd3.model[2] <= 0xF4;

out:
 qeth_notify_cmd(iob, rc);
 qeth_put_cmd(iob);
}

static int qeth_read_conf_data(struct qeth_card *card)
{
 struct qeth_channel *channel = &card->data;
 struct qeth_cmd_buffer *iob;
 struct ciw *ciw;

 /* scan for RCD command in extended SenseID data */
 ciw = ccw_device_get_ciw(channel->ccwdev, CIW_TYPE_RCD);
 if (!ciw || ciw->cmd == 0)
  return -EOPNOTSUPP;
 if (ciw->count < sizeof(struct qeth_node_desc))
  return -EINVAL;

 iob = qeth_alloc_cmd(channel, ciw->count, 1, QETH_RCD_TIMEOUT);
 if (!iob)
  return -ENOMEM;

 iob->callback = qeth_read_conf_data_cb;
 qeth_setup_ccw(__ccw_from_cmd(iob), ciw->cmd, 0, iob->length,
         iob->data);

 return qeth_send_control_data(card, iob, NULL, NULL);
}

static int qeth_idx_check_activate_response(struct qeth_card *card,
         struct qeth_channel *channel,
         struct qeth_cmd_buffer *iob)
{
 int rc;

 rc = qeth_check_idx_response(card, iob->data);
 if (rc)
  return rc;

 if (QETH_IS_IDX_ACT_POS_REPLY(iob->data))
  return 0;

 /* negative reply: */
 QETH_CARD_TEXT_(card, 2, "idxneg%c",
   QETH_IDX_ACT_CAUSE_CODE(iob->data));

 switch (QETH_IDX_ACT_CAUSE_CODE(iob->data)) {
 case QETH_IDX_ACT_ERR_EXCL:
  dev_err(&channel->ccwdev->dev,
   "The adapter is used exclusively by another host\n");
  return -EBUSY;
 case QETH_IDX_ACT_ERR_AUTH:
 case QETH_IDX_ACT_ERR_AUTH_USER:
  dev_err(&channel->ccwdev->dev,
   "Setting the device online failed because of insufficient authorization\n");
  return -EPERM;
 default:
  QETH_DBF_MESSAGE(2, "IDX_ACTIVATE on channel %x: negative reply\n",
     CCW_DEVID(channel->ccwdev));
  return -EIO;
 }
}

static void qeth_idx_activate_read_channel_cb(struct qeth_card *card,
           struct qeth_cmd_buffer *iob,
           unsigned int data_length)
{
 struct qeth_channel *channel = iob->channel;
 u16 peer_level;
 int rc;

 QETH_CARD_TEXT(card, 2, "idxrdcb");

 rc = qeth_idx_check_activate_response(card, channel, iob);
 if (rc)
  goto out;

 memcpy(&peer_level, QETH_IDX_ACT_FUNC_LEVEL(iob->data), 2);
 if (peer_level != qeth_peer_func_level(card->info.func_level)) {
  QETH_DBF_MESSAGE(2, "IDX_ACTIVATE on channel %x: function level mismatch (sent: %#x, received: %#x)\n",
     CCW_DEVID(channel->ccwdev),
     card->info.func_level, peer_level);
  rc = -EINVAL;
  goto out;
 }

 memcpy(&card->token.issuer_rm_r,
        QETH_IDX_ACT_ISSUER_RM_TOKEN(iob->data),
        QETH_MPC_TOKEN_LENGTH);
 memcpy(&card->info.mcl_level[0],
        QETH_IDX_REPLY_LEVEL(iob->data), QETH_MCL_LENGTH);

out:
 qeth_notify_cmd(iob, rc);
 qeth_put_cmd(iob);
}

static void qeth_idx_activate_write_channel_cb(struct qeth_card *card,
            struct qeth_cmd_buffer *iob,
            unsigned int data_length)
{
 struct qeth_channel *channel = iob->channel;
 u16 peer_level;
 int rc;

 QETH_CARD_TEXT(card, 2, "idxwrcb");

 rc = qeth_idx_check_activate_response(card, channel, iob);
 if (rc)
  goto out;

 memcpy(&peer_level, QETH_IDX_ACT_FUNC_LEVEL(iob->data), 2);
 if ((peer_level & ~0x0100) !=
     qeth_peer_func_level(card->info.func_level)) {
  QETH_DBF_MESSAGE(2, "IDX_ACTIVATE on channel %x: function level mismatch (sent: %#x, received: %#x)\n",
     CCW_DEVID(channel->ccwdev),
     card->info.func_level, peer_level);
  rc = -EINVAL;
 }

out:
 qeth_notify_cmd(iob, rc);
 qeth_put_cmd(iob);
}

static void qeth_idx_setup_activate_cmd(struct qeth_card *card,
     struct qeth_cmd_buffer *iob)
{
 u16 addr = (card->info.cula << 8) + card->info.unit_addr2;
 u8 port = ((u8)card->dev->dev_port) | 0x80;
 struct ccw1 *ccw = __ccw_from_cmd(iob);

 qeth_setup_ccw(&ccw[0], CCW_CMD_WRITE, CCW_FLAG_CC, IDX_ACTIVATE_SIZE,
         iob->data);
 qeth_setup_ccw(&ccw[1], CCW_CMD_READ, 0, iob->length, iob->data);
 iob->finalize = qeth_idx_finalize_cmd;

 port |= QETH_IDX_ACT_INVAL_FRAME;
 memcpy(QETH_IDX_ACT_PNO(iob->data), &port, 1);
 memcpy(QETH_IDX_ACT_ISSUER_RM_TOKEN(iob->data),
        &card->token.issuer_rm_w, QETH_MPC_TOKEN_LENGTH);
 memcpy(QETH_IDX_ACT_FUNC_LEVEL(iob->data),
        &card->info.func_level, 2);
 memcpy(QETH_IDX_ACT_QDIO_DEV_CUA(iob->data), &card->info.ddev_devno, 2);
 memcpy(QETH_IDX_ACT_QDIO_DEV_REALADDR(iob->data), &addr, 2);
}

static int qeth_idx_activate_read_channel(struct qeth_card *card)
{
 struct qeth_channel *channel = &card->read;
 struct qeth_cmd_buffer *iob;
 int rc;

 QETH_CARD_TEXT(card, 2, "idxread");

 iob = qeth_alloc_cmd(channel, QETH_BUFSIZE, 2, QETH_TIMEOUT);
 if (!iob)
  return -ENOMEM;

 memcpy(iob->data, IDX_ACTIVATE_READ, IDX_ACTIVATE_SIZE);
 qeth_idx_setup_activate_cmd(card, iob);
 iob->callback = qeth_idx_activate_read_channel_cb;

 rc = qeth_send_control_data(card, iob, NULL, NULL);
 if (rc)
  return rc;

 channel->state = CH_STATE_UP;
 return 0;
}

static int qeth_idx_activate_write_channel(struct qeth_card *card)
{
 struct qeth_channel *channel = &card->write;
 struct qeth_cmd_buffer *iob;
 int rc;

 QETH_CARD_TEXT(card, 2, "idxwrite");

 iob = qeth_alloc_cmd(channel, QETH_BUFSIZE, 2, QETH_TIMEOUT);
 if (!iob)
  return -ENOMEM;

 memcpy(iob->data, IDX_ACTIVATE_WRITE, IDX_ACTIVATE_SIZE);
 qeth_idx_setup_activate_cmd(card, iob);
 iob->callback = qeth_idx_activate_write_channel_cb;

 rc = qeth_send_control_data(card, iob, NULL, NULL);
 if (rc)
  return rc;

 channel->state = CH_STATE_UP;
 return 0;
}

static int qeth_cm_enable_cb(struct qeth_card *card, struct qeth_reply *reply,
  unsigned long data)
{
 struct qeth_cmd_buffer *iob;

 QETH_CARD_TEXT(card, 2, "cmenblcb");

 iob = (struct qeth_cmd_buffer *) data;
 memcpy(&card->token.cm_filter_r,
        QETH_CM_ENABLE_RESP_FILTER_TOKEN(iob->data),
        QETH_MPC_TOKEN_LENGTH);
 return 0;
}

static int qeth_cm_enable(struct qeth_card *card)
{
 struct qeth_cmd_buffer *iob;

 QETH_CARD_TEXT(card, 2, "cmenable");

 iob = qeth_mpc_alloc_cmd(card, CM_ENABLE, CM_ENABLE_SIZE);
 if (!iob)
  return -ENOMEM;

 memcpy(QETH_CM_ENABLE_ISSUER_RM_TOKEN(iob->data),
        &card->token.issuer_rm_r, QETH_MPC_TOKEN_LENGTH);
 memcpy(QETH_CM_ENABLE_FILTER_TOKEN(iob->data),
        &card->token.cm_filter_w, QETH_MPC_TOKEN_LENGTH);

 return qeth_send_control_data(card, iob, qeth_cm_enable_cb, NULL);
}

static int qeth_cm_setup_cb(struct qeth_card *card, struct qeth_reply *reply,
  unsigned long data)
{
 struct qeth_cmd_buffer *iob;

 QETH_CARD_TEXT(card, 2, "cmsetpcb");

 iob = (struct qeth_cmd_buffer *) data;
 memcpy(&card->token.cm_connection_r,
        QETH_CM_SETUP_RESP_DEST_ADDR(iob->data),
        QETH_MPC_TOKEN_LENGTH);
 return 0;
}

static int qeth_cm_setup(struct qeth_card *card)
{
 struct qeth_cmd_buffer *iob;

 QETH_CARD_TEXT(card, 2, "cmsetup");

 iob = qeth_mpc_alloc_cmd(card, CM_SETUP, CM_SETUP_SIZE);
 if (!iob)
  return -ENOMEM;

 memcpy(QETH_CM_SETUP_DEST_ADDR(iob->data),
        &card->token.issuer_rm_r, QETH_MPC_TOKEN_LENGTH);
 memcpy(QETH_CM_SETUP_CONNECTION_TOKEN(iob->data),
        &card->token.cm_connection_w, QETH_MPC_TOKEN_LENGTH);
 memcpy(QETH_CM_SETUP_FILTER_TOKEN(iob->data),
        &card->token.cm_filter_r, QETH_MPC_TOKEN_LENGTH);
 return qeth_send_control_data(card, iob, qeth_cm_setup_cb, NULL);
}

static bool qeth_is_supported_link_type(struct qeth_card *card, u8 link_type)
{
 if (link_type == QETH_LINK_TYPE_LANE_TR ||
     link_type == QETH_LINK_TYPE_HSTR) {
  dev_err(&card->gdev->dev, "Unsupported Token Ring device\n");
  return false;
 }

 return true;
}

static int qeth_update_max_mtu(struct qeth_card *card, unsigned int max_mtu)
{
 struct net_device *dev = card->dev;
 unsigned int new_mtu;

 if (!max_mtu) {
  /* IQD needs accurate max MTU to set up its RX buffers: */
  if (IS_IQD(card))
   return -EINVAL;
  /* tolerate quirky HW: */
  max_mtu = ETH_MAX_MTU;
 }

 rtnl_lock();
 if (IS_IQD(card)) {
  /* move any device with default MTU to new max MTU: */
  new_mtu = (dev->mtu == dev->max_mtu) ? max_mtu : dev->mtu;

  /* adjust RX buffer size to new max MTU: */
  card->qdio.in_buf_size = max_mtu + 2 * PAGE_SIZE;
  if (dev->max_mtu && dev->max_mtu != max_mtu)
   qeth_free_qdio_queues(card);
 } else {
  if (dev->mtu)
   new_mtu = dev->mtu;
  /* default MTUs for first setup: */
  else if (IS_LAYER2(card))
   new_mtu = ETH_DATA_LEN;
  else
   new_mtu = ETH_DATA_LEN - 8; /* allow for LLC + SNAP */
 }

 dev->max_mtu = max_mtu;
 dev->mtu = min(new_mtu, max_mtu);
 rtnl_unlock();
 return 0;
}

static int qeth_get_mtu_outof_framesize(int framesize)
{
 switch (framesize) {
 case 0x4000:
  return 8192;
 case 0x6000:
  return 16384;
 case 0xa000:
  return 32768;
 case 0xffff:
  return 57344;
 default:
  return 0;
 }
}

static int qeth_ulp_enable_cb(struct qeth_card *card, struct qeth_reply *reply,
  unsigned long data)
{
 __u16 mtu, framesize;
 __u16 len;
 struct qeth_cmd_buffer *iob;
 u8 link_type = 0;

 QETH_CARD_TEXT(card, 2, "ulpenacb");

 iob = (struct qeth_cmd_buffer *) data;
 memcpy(&card->token.ulp_filter_r,
        QETH_ULP_ENABLE_RESP_FILTER_TOKEN(iob->data),
        QETH_MPC_TOKEN_LENGTH);
 if (IS_IQD(card)) {
  memcpy(&framesize, QETH_ULP_ENABLE_RESP_MAX_MTU(iob->data), 2);
  mtu = qeth_get_mtu_outof_framesize(framesize);
 } else {
  mtu = *(__u16 *)QETH_ULP_ENABLE_RESP_MAX_MTU(iob->data);
 }
 *(u16 *)reply->param = mtu;

 memcpy(&len, QETH_ULP_ENABLE_RESP_DIFINFO_LEN(iob->data), 2);
 if (len >= QETH_MPC_DIFINFO_LEN_INDICATES_LINK_TYPE) {
  memcpy(&link_type,
         QETH_ULP_ENABLE_RESP_LINK_TYPE(iob->data), 1);
  if (!qeth_is_supported_link_type(card, link_type))
   return -EPROTONOSUPPORT;
 }

 card->info.link_type = link_type;
 QETH_CARD_TEXT_(card, 2, "link%d", card->info.link_type);
 return 0;
}

static u8 qeth_mpc_select_prot_type(struct qeth_card *card)
{
 return IS_LAYER2(card) ? QETH_MPC_PROT_L2 : QETH_MPC_PROT_L3;
}

static int qeth_ulp_enable(struct qeth_card *card)
{
 u8 prot_type = qeth_mpc_select_prot_type(card);
 struct qeth_cmd_buffer *iob;
 u16 max_mtu;
 int rc;

 QETH_CARD_TEXT(card, 2, "ulpenabl");

 iob = qeth_mpc_alloc_cmd(card, ULP_ENABLE, ULP_ENABLE_SIZE);
 if (!iob)
  return -ENOMEM;

 *(QETH_ULP_ENABLE_LINKNUM(iob->data)) = (u8) card->dev->dev_port;
 memcpy(QETH_ULP_ENABLE_PROT_TYPE(iob->data), &prot_type, 1);
 memcpy(QETH_ULP_ENABLE_DEST_ADDR(iob->data),
        &card->token.cm_connection_r, QETH_MPC_TOKEN_LENGTH);
 memcpy(QETH_ULP_ENABLE_FILTER_TOKEN(iob->data),
        &card->token.ulp_filter_w, QETH_MPC_TOKEN_LENGTH);
 rc = qeth_send_control_data(card, iob, qeth_ulp_enable_cb, &max_mtu);
 if (rc)
  return rc;
 return qeth_update_max_mtu(card, max_mtu);
}

static int qeth_ulp_setup_cb(struct qeth_card *card, struct qeth_reply *reply,
  unsigned long data)
{
 struct qeth_cmd_buffer *iob;

 QETH_CARD_TEXT(card, 2, "ulpstpcb");

 iob = (struct qeth_cmd_buffer *) data;
 memcpy(&card->token.ulp_connection_r,
        QETH_ULP_SETUP_RESP_CONNECTION_TOKEN(iob->data),
        QETH_MPC_TOKEN_LENGTH);
 if (!strncmp("00S", QETH_ULP_SETUP_RESP_CONNECTION_TOKEN(iob->data),
       3)) {
  QETH_CARD_TEXT(card, 2, "olmlimit");
  dev_err(&card->gdev->dev, "A connection could not be "
   "established because of an OLM limit\n");
  return -EMLINK;
 }
 return 0;
}

static int qeth_ulp_setup(struct qeth_card *card)
{
 __u16 temp;
 struct qeth_cmd_buffer *iob;

 QETH_CARD_TEXT(card, 2, "ulpsetup");

--> --------------------

--> maximum size reached

--> --------------------

Messung V0.5
C=98 H=94 G=95

¤ Dauer der Verarbeitung: 0.13 Sekunden  (vorverarbeitet)  ¤

*© Formatika GbR, Deutschland






Wurzel

Suchen

Beweissystem der NASA

Beweissystem Isabelle

NIST Cobol Testsuite

Cephes Mathematical Library

Wiener Entwicklungsmethode

Haftungshinweis

Die Informationen auf dieser Webseite wurden nach bestem Wissen sorgfältig zusammengestellt. Es wird jedoch weder Vollständigkeit, noch Richtigkeit, noch Qualität der bereit gestellten Informationen zugesichert.

Bemerkung:

Die farbliche Syntaxdarstellung und die Messung sind noch experimentell.