Define __KERN_ORG__ inserted to differenciate between original scheduler and our...
[projects/modsched/linux.git] / kernel / sched.new / sched.h
1 #include <linux/sched.h>
2 #include <linux/sched/sysctl.h>
3 #include <linux/sched/rt.h>
4
5
6 struct task_group {
7 };
8
9 struct rq {
10
11 };
12
13 DECLARE_PER_CPU(struct rq, runqueues);
14
15 #define cpu_rq(cpu)             (&per_cpu(runqueues, (cpu)))
16
17 void account_idle_ticks(unsigned long ticks);
18
19 void account_process_tick(struct task_struct *p, int user_tick);
20
21 void get_avenrun(unsigned long *loads, unsigned long offset, int shift);
22
23 void calc_global_load(unsigned long ticks);
24
25 //void calc_load_enter_idle(void);
26
27 //void calc_load_exit_idle(void);
28
29 int can_nice(const struct task_struct *p, const int nice);
30
31 int idle_cpu(int cpu);
32
33 void __cpuinit init_idle(struct task_struct *idle, int cpu);
34
35 void __cpuinit init_idle_bootup_task(struct task_struct *idle);
36
37 void normalize_rt_tasks(void);
38
39 unsigned long nr_running(void);
40
41 unsigned long long nr_context_switches(void);
42
43 unsigned long nr_iowait(void);
44
45 void rt_mutex_setprio(struct task_struct *p, int prio);
46
47 u64 sched_clock_cpu(int cpu);
48
49 void sched_clock_init(void);;
50
51 void sched_fork(struct task_struct *p);
52
53 long sched_getaffinity(pid_t pid, struct cpumask *mask);
54
55 void sched_init(void);
56
57 void sched_init_smp(void);
58
59 int sched_rr_handler(struct ctl_table *table, int write, void __user *buffer, size_t *lenp, loff_t *ppos);
60
61 long sched_setaffinity(pid_t pid, const struct cpumask *new_mask);
62
63 int sched_setscheduler(struct task_struct *p, int policy, const struct sched_param *param);
64
65 void sched_show_task(struct task_struct *p);
66
67 void schedule_tail(struct task_struct *prev);
68
69 void scheduler_tick(void);
70
71 long sys_nice(int increment);
72
73 long sys_sched_getaffinity(pid_t pid, unsigned int len, unsigned long __user *user_mask_ptr);
74
75 long sys_sched_setaffinity(pid_t pid, unsigned int len, unsigned long __user *user_mask_ptr);
76
77 unsigned long long task_delta_exec(struct task_struct *);
78
79 int task_prio(const struct task_struct *p);
80
81 unsigned long long task_sched_runtime(struct task_struct *task);
82
83 unsigned long this_cpu_load(void);
84
85 void update_cpu_load_nohz(void);
86
87 void wake_up_new_task(struct task_struct *tsk);
88
89
90 int __sched _cond_resched(void);
91
92 asmlinkage void __sched schedule(void);
93
94 void __wake_up(wait_queue_head_t *q, unsigned int mode, int nr_exclusive, void *key);
95
96 int wake_up_process(struct task_struct *p);
97
98 void __sched wait_for_completion(struct completion *x);
99
100 void complete(struct completion *x);
101
102 void __sched schedule_preempt_disabled(void);
103
104 int in_sched_functions(unsigned long addr);
105
106 void sched_clock_idle_sleep_event(void);
107
108 void sched_clock_idle_wakeup_event(u64 delta_ns);
109
110 int __cond_resched_lock(spinlock_t *lock);
111
112 u64 local_clock(void);
113
114 int default_wake_function(wait_queue_t *curr, unsigned mode, int wake_flags,
115                           void *key);
116
117 int __sched wait_for_completion_killable(struct completion *x);
118
119 void __wake_up_sync_key(wait_queue_head_t *q, unsigned int mode,
120                         int nr_exclusive, void *key);
121
122 int wake_up_state(struct task_struct *p, unsigned int state);
123
124 void __sched yield(void);
125
126 inline int task_curr(const struct task_struct *p);
127
128 int task_nice(const struct task_struct *p);
129
130 void set_user_nice(struct task_struct *p, long nice);
131
132 void __wake_up_locked_key(wait_queue_head_t *q, unsigned int mode, void *key);
133
134 void __wake_up_sync(wait_queue_head_t *q, unsigned int mode, int nr_exclusive);
135
136 void __wake_up_locked(wait_queue_head_t *q, unsigned int mode, int nr);
137