kmalloc_node 782 arch/x86/kernel/smpboot.c newpda = kmalloc_node(size, GFP_ATOMIC, node); kmalloc_node 594 arch/x86/kernel/tlb_uv.c kmalloc_node(sizeof(struct bau_control), GFP_KERNEL, node); kmalloc_node 598 arch/x86/kernel/tlb_uv.c kmalloc_node(sizeof(struct bau_msg_status) * kmalloc_node 607 arch/x86/kernel/tlb_uv.c kmalloc_node(sizeof(int) * DEST_NUM_RESOURCES, GFP_KERNEL, node); kmalloc_node 656 arch/x86/kernel/tlb_uv.c kmalloc_node(16384, GFP_KERNEL, node); kmalloc_node 694 arch/x86/kernel/tlb_uv.c pqp = (struct bau_payload_queue_entry *) kmalloc_node( kmalloc_node 1363 block/as-iosched.c ad = kmalloc_node(sizeof(*ad), GFP_KERNEL | __GFP_ZERO, q->node); kmalloc_node 2214 block/cfq-iosched.c cfqd = kmalloc_node(sizeof(*cfqd), GFP_KERNEL | __GFP_ZERO, q->node); kmalloc_node 354 block/deadline-iosched.c dd = kmalloc_node(sizeof(*dd), GFP_KERNEL | __GFP_ZERO, q->node); kmalloc_node 211 block/elevator.c eq = kmalloc_node(sizeof(elevator_t), GFP_KERNEL | __GFP_ZERO, q->node); kmalloc_node 220 block/elevator.c eq->hash = kmalloc_node(sizeof(struct hlist_head) * ELV_HASH_ENTRIES, kmalloc_node 1064 block/genhd.c disk = kmalloc_node(sizeof(struct gendisk), kmalloc_node 72 block/noop-iosched.c nd = kmalloc_node(sizeof(*nd), GFP_KERNEL, q->node); kmalloc_node 288 include/linux/slab.h return kmalloc_node(size, flags | __GFP_ZERO, node); kmalloc_node 7567 kernel/sched.c sg = kmalloc_node(sizeof(struct sched_group), GFP_KERNEL, i); kmalloc_node 7601 kernel/sched.c sg = kmalloc_node(sizeof(struct sched_group), kmalloc_node 8489 kernel/sched.c cfs_rq = kmalloc_node(sizeof(struct cfs_rq), kmalloc_node 8494 kernel/sched.c se = kmalloc_node(sizeof(struct sched_entity), kmalloc_node 8578 kernel/sched.c rt_rq = kmalloc_node(sizeof(struct rt_rq), kmalloc_node 8583 kernel/sched.c rt_se = kmalloc_node(sizeof(struct sched_rt_entity), kmalloc_node 305 kernel/taskstats.c s = kmalloc_node(sizeof(struct listener), GFP_KERNEL, kmalloc_node 1373 kernel/timer.c base = kmalloc_node(sizeof(*base), kmalloc_node 29 lib/genalloc.c pool = kmalloc_node(sizeof(struct gen_pool), GFP_KERNEL, nid); kmalloc_node 57 lib/genalloc.c chunk = kmalloc_node(nbytes, GFP_KERNEL | __GFP_ZERO, nid); kmalloc_node 67 mm/allocpercpu.c pdata->ptrs[cpu] = kmalloc_node(size, gfp|__GFP_ZERO, node); kmalloc_node 159 mm/dmapool.c retval = kmalloc_node(sizeof(*retval), GFP_KERNEL, dev_to_node(dev)); kmalloc_node 1076 mm/memcontrol.c pn = kmalloc_node(sizeof(*pn), GFP_KERNEL, tmp); kmalloc_node 65 mm/mempool.c pool = kmalloc_node(sizeof(*pool), GFP_KERNEL | __GFP_ZERO, node_id); kmalloc_node 68 mm/mempool.c pool->elements = kmalloc_node(min_nr * sizeof(void *), kmalloc_node 2733 mm/page_alloc.c zone_pcp(zone, cpu) = kmalloc_node(sizeof(struct per_cpu_pageset), kmalloc_node 956 mm/slab.c nc = kmalloc_node(memsize, GFP_KERNEL, node); kmalloc_node 1035 mm/slab.c ac_ptr = kmalloc_node(memsize, GFP_KERNEL, node); kmalloc_node 1243 mm/slab.c l3 = kmalloc_node(memsize, GFP_KERNEL, node); kmalloc_node 1392 mm/slab.c ptr = kmalloc_node(sizeof(struct kmem_list3), GFP_KERNEL, nodeid); kmalloc_node 2091 mm/slab.c kmalloc_node(sizeof(struct kmem_list3), kmalloc_node 3856 mm/slab.c l3 = kmalloc_node(sizeof(struct kmem_list3), GFP_KERNEL, node); kmalloc_node 1974 mm/slub.c c = kmalloc_node( kmalloc_node 66 mm/sparse.c section = kmalloc_node(array_size, GFP_KERNEL, nid); kmalloc_node 240 mm/vmalloc.c area = kmalloc_node(sizeof(*area), gfp_mask & GFP_RECLAIM_MASK, node); kmalloc_node 506 mm/vmalloc.c pages = kmalloc_node(array_size, kmalloc_node 564 net/iucv/iucv.c iucv_irq_data[cpu] = kmalloc_node(sizeof(struct iucv_irq_data), kmalloc_node 568 net/iucv/iucv.c iucv_param[cpu] = kmalloc_node(sizeof(union iucv_param), kmalloc_node 1620 net/iucv/iucv.c iucv_irq_data[cpu] = kmalloc_node(sizeof(struct iucv_irq_data), kmalloc_node 1628 net/iucv/iucv.c iucv_param[cpu] = kmalloc_node(sizeof(union iucv_param), kmalloc_node 589 net/netfilter/x_tables.c newinfo->entries[cpu] = kmalloc_node(size,