调度器9—调度相关trace汇总—Qcom

1. sched_find_best_target

打印:

cat-32758 [001] d..4  5235.529561: sched_find_best_target: pid=18090 comm=kworker/u16:25 start_cpu=0 best_idle=-1 most_spare_cap=-1 target=0 order_index=0 end_index=0 skip=-1 running=0

形参:

TP_PROTO(struct task_struct *tsk, unsigned long min_util, int start_cpu, int best_idle, int most_spare_cap, int target, int order_index, int end_index, int skip, bool running),

打印解析:

pid: 取参数 tsk->pid
comm: 取参数 tsk->comm
tart_cpu: 取参数 start_cpu
best_idle: 取参数 best_idle
most_spare_cap: 取参数 most_spare_cap
target: 取参数 target
order_index: 取参数 order_index
end_index: 取参数 end_index
skip: 取参数 skip
running: 取参数 running
注:min_util 传参了,但是没有打印它。

调用路径:

check_for_migration
select_task_rq_fair
    find_energy_efficient_cpu //fair.c
        walt_find_best_target //fair.c
            trace_sched_find_best_target

说明:
是对任务p选核路径中的trace,Qcom的WALT算法带入的函数。

调用传参: 

trace_sched_find_best_target(p, min_util, start_cpu, best_idle_cpu, most_spare_cap_cpu, target_cpu, order_index, end_index, fbt_env->skip_cpu, p->state == TASK_RUNNING);

实参解析:

p: 
    为p选核
min_util:
    返回的是被钳位在 uclamp_max 和 uclamp_min 之间的 p->wts.demand_scaled 值,就是被钳位后p的util值。但是 trace 没有打印它。
start_cpu:
    表示从哪个cluster中开始选核,walt_get_indicies()中做逻辑判断,若是有BOOST就按BOOST类型选核,若没有,则找一个算力大于任务demand的CPU核开始选。从这里的执行逻辑看,start_cpu一
    定是某个cluster的首个CPU.
best_idle_cpu:
    初始化为-1,首先从start_cpu开始遍历所有cpu,找到一个idle深度最浅的cpu,但是若选核任务是rtg标记的任务,就又把best_idle_cpu清成-1了。
most_spare_cap_cpu:
    初始化为-1,从start_cpu开始遍历所有cpu,表示找到的空闲算力最大的cpu。空闲算力指的是此CPU的算力减去任务p在此CPU上的贡献,若任务p是新    建或刚唤醒或之前不是运行在这个CPU上,直接返
    回task_util(cpu),也就是WALT下的 cpu_rq(cpu)->wrq.walt_stats.cumulative_runnable_avg_scaled。
target_cpu: 
    (1)快速路径:任务p之前运行的cpu的算力和start_cpu相同(不多不少)或两者是兄弟cpu,并且之前运行的cpu是onlline的,并且没有isolate,并且是idle状态,并且idle深度小于或等于1,然后走快速路径,
    直接选prev_cpu为target_cpu,设置为候选者。
    (2)慢速路径:若快速路径没有选到CPU,则会从start_cpu开始遍历所有CPU进行选核。依次为:Android留了hook接口vendor厂商可以自己制定策略剔除一部分CPU。剔除非active的CPU。    剔除isolated的CPU。
    剔除尚未完成的迁移的目标CPU。剔除irq负载高的CPU。若是当前CPU唤醒比较多剔除当前CPU。若某个CPU上的当前任务正在per-task的boost就剔除这个CPU。    CPU原来的利用率加上任务p的利用率后超过其算
    力了也剔除。若是idle cpu,但不是idle最浅的cpu也剔除,若dile深度一致但之前有发现idle的cpu是任务之前运行的cpu时 或 这个CPU虽然idle深度和之前选出的一样,但是不是任务p之前运行的CPU并且其
    利用率也比之前选的idle CPU的高,也剔除。若P->state=RUNNING的主动迁移的任务剔除非idle的CPU。若p是rtg组    里的任务并且优先级数值低于99,若此CPU上有比之前记录的CPU的rtg高优先级任务多,也
    剔除,若数量相同,非空余算力最大的也剔除。若以上都没剔除,就将此CPU作为best_target,然后遍历下一个CPU。
    最终将 target_cpu 和 best_idle_cpu 都作为选出的best target cpu 设置进候选CPU中去了。
order_index:
    walt_get_indicies() 中修改的,应该是根据算力和BOOST情况选出来的从哪个cluster开始选核
end_index:
    walt_get_indicies() 中有修改,若是有BOOST可能大于0,应该表示结束选核的cluster.
fbt_env->skip_cpu:
    若当前CPU上有超过1000个任务待唤醒时,将当前CPU设置到skip的,为p选核时不选它。
p->state == TASK_RUNNING:
    表示为任务选核时任务的状态是不是正在running,若是就表示是active迁移的任务,只会为其选择idle核。

 

2. sched_task_util

打印:

kworker/u16:1-23809 [001] d..3 280354.250435: sched_task_util: pid=23645 comm=kworker/u16:4 util=156 prev_cpu=3 candidates=0x8 best_energy_cpu=3 sync=0 need_idle=0
fastpath=2 placement_boost=0 latency=2343 stune_boosted=0 is_rtg=0 rtg_skip_min=0 start_cpu=0 unfilter=20000000 affinity=ff task_boost=0 low_latency=0

形参:

TP_PROTO(struct task_struct *p, unsigned long candidates, int best_energy_cpu, bool sync, int need_idle, int fastpath, bool placement_boost, u64 start_t,
        bool uclamp_boosted, bool is_rtg, bool rtg_skip_min, int start_cpu),

打印解析:

pid: 取自 p->pid
comm: 取自 p->comm
util: 取自参数p的 task_util(p),WALT算法下是 p->wts.demand_scaled,PELT算法下是 p->se.avg.util_avg
prev_cpu: 取自参数p的 task_cpu(p),即 p->cpu
candidates: 取自参数 candidates
best_energy_cpu: 取自参数 best_energy_cpu
sync: 取自参数 sync
need_idle: 取自参数 need_idle
fastpath: 取自参数 fastpath
placement_boost: 取自参数 placement_boost
latency: 取自 sched_clock() - 参数 start_t
stune_boosted: 取自参数 uclamp_boosted
is_rtg: 取自参数 is_rtg
rtg_skip_min: 取自参数 rtg_skip_min
start_cpu: 取自参数 start_cpu
unfilter: 取自 p->wts.unfilter
affinity: 取自 cpumask_bits(&p->cpus_mask)[0],即 ((&p->cpus_mask)->bits)[0]
task_boost: 取自 per_task_boost(p),即 p->wts.boost
low_latency: 取自 walt_low_latency_task(p),即 p->wts.low_latency && (task_util(p) < sysctl_walt_low_latency_task_threshold),目前Qcom还没enable此功能,因此一直是0.

调用路径:

check_for_migration //qc_vas.c
select_task_rq_fair //fair.c
    find_energy_efficient_cpu //fair.c 函数结束位置调用
        trace_sched_task_util

说明:
在为任务的选核路径中,对任务的信息进行trace.

调用传参: 

trace_sched_task_util(p, cpumask_bits(candidates)[0], best_energy_cpu, sync, fbt_env.need_idle, fbt_env.fastpath,
        task_boost_policy(p), start_t, boosted, is_rtg, walt_get_rtg_status(p), start_cpu);

实参解析:

p:
    为任务p选核
cpumask_bits(candidates)[0]:
    walt_find_best_target()中为任务p选出来的候选cpu,位掩码,是怎么选的可参考 trace_sched_find_best_target,如0x8就是CPU3
best_energy_cpu:
    初始化为prev_cpu,然后根据条件进行更新,是 find_energy_efficient_cpu() 的最终返回结果。
sync:
    是 find_energy_efficient_cpu() 传入的参数,如果想sync唤醒,又是时间敏感,或任务和当前任务都是rtg组中的任务,就清除掉sync标志。sync标志会导致更倾向于唤醒后运行在在当前cpu上,
    只要条件满足:cpu在任务p允许运行的cpu里面,并且是active的,并且cpu的算力要大于start_cpu的算力。
fbt_env.need_idle:
    任务p通过 /proc/<PID>/sched_wake_up_idle 设置过,或其所在的任务组通过 /dev/cpuctl/<xx_group>/cpu.uclamp.latency_sensitive 赋值过,任务就有 wakeup_idle 属性了。有此属性后,就会
    将sync标志清0,也更倾向于选择 walt_find_best_target 选出来的cpu,降低通过EAS选核的概率。
fbt_env.fastpath:
    满足sync的同步唤醒的话,赋值为 SYNC_WAKEUP=1,若在 walt_find_best_target 中满足快速路径选核心,会被设置为 PREV_CPU_FASTPATH=2
task_boost_policy(p):
    返回全局变量 boost_policy 的值,来自 /proc/sys/kernel/sched_boost,只能取 SCHED_BOOST_NONE=0 或 SCHED_BOOST_ON_BIG=1
start_t:
    是个事件点,选核流程开始前 sched_clock() 获取的时间,trace中打印的 latency 值大概可以表示选核花费的时间,大概 1-6us
boosted: 
    来自 is_uclamp_boosted || (task_boost > 0),前者来自 /dev/cpuctl/<xx_group>/cpu.uclamp.min 的赋值,后者是来自 p->wts.boost,由 /proc/<pid>/sched_boost 设置,它是per-task的boot,并且
    可以指定boost的时间段的长短,若是boost了,就更倾向于不经过EAS选核流程。
is_rtg: 
    p->wts.grp != NULL 表示被选核的任务p不是rtg组中的任务。为真的话就会将sync标志清0,也更倾向于选择 walt_find_best_target 选出来的cpu,降低通过EAS选核的概率。
walt_get_rtg_status(p): 
    主要是返回 grp->skip_min 的值,应该是表示是否跳过小核,但是在选核路径中还没发现他起什么作用。
start_cpu: 
    从 start_cpu 开始选核,start_cpu 是根据算力需求得来的。

 

3. sched_migrate_task

打印:

adbd-1290  [003] d..3 260655.930040: sched_migrate_task: comm=UsbFfs-worker pid=17754 prio=120 orig_cpu=3 dest_cpu=1 running=0

形参:

TP_PROTO(struct task_struct *p, int dest_cpu)

打印解析:

comm: 取自 p->comm
pid: 取自 p->pid
prio: 取自 p->prio
orig_cpu: 取自task_cpu(p),表示迁移前任务的cpu
dest_cpu: 取自参数 dest_cpu
running:  bool值,取自 p->state == TASK_RUNNING,walt_find_best_target 中描述:为true表示是active迁移,dest_cpu只选idle核。

调用路径:

move_queued_task //core.c
__migrate_swap_task //core.c
try_to_wake_up //发现任务p的prev_cpu和选核选出来的cpu不是同一个cpu时调用
dl_task_offline_migration
push_dl_task //deadline.c
pull_dl_task //deadline.c
detach_task //fair.c
push_rt_task //rt.c
pull_rt_task //rt.c
    set_task_cpu //core.c
        trace_sched_migrate_task(p, new_cpu);

说明:
在任务的迁移路径中trace

调用传参: 

trace_sched_migrate_task(p, new_cpu);

实参解析:

p: 
    被迁移的任务
dest_cpu: 
    迁移的目的CPU

 

4. sched_isolate

打印:

core_ctl/0-434   [002] .... 304625.209544: sched_isolate: iso cpu=5 cpus=0x30 time=1595 us isolated=1
core_ctl/0-434   [001] .... 304628.095985: sched_isolate: iso cpu=4 cpus=0x20 time=460 us isolated=0

形参:

TP_PROTO(unsigned int requested_cpu, unsigned int isolated_cpus, u64 start_time, unsigned char isolate),

打印解析:

iso cpu: 取自参数 requested_cpu
cpus: 取自参数 isolated_cpus
time: 取自 div64_u64(sched_clock() - start_time, 1000),时间差值转换为us,表示隔离CPU操作和去掉隔离CPU操作各花费多少时间
isolated: 取自参数 isolate

调用路径:

try_to_isolate //core_ctl.c
cpu_isolate_pm_notify //drivers\thermal\qcom\cpu_isolate.c
cpu_isolate_set_cur_state //drivers\thermal\qcom\cpu_isolate.c
hyp_core_ctl_do_reservation //drivers\soc\qcom\hyp_core_ctl.c
    sched_isolate_cpu
        trace_sched_isolate(cpu, cpumask_bits(cpu_isolated_mask)[0], start_time, 1) //隔离


    isolation_cpuhp_state //core_ctl.c
    cpu_isolate_hp_offline //core_ctl.c
    hyp_core_ctl_hp_offline //drivers\soc\qcom\hyp_core_ctl.c
__try_to_unisolate //core_ctl.c
cpu_isolate_set_cur_state //cpu_isolate.c
hyp_core_ctl_undo_reservation //hyp_core_ctl.c
hyp_core_ctl_do_reservation //hyp_core_ctl.c
hyp_core_ctl_cpu_cooling_cb //hyp_core_ctl.c
    sched_unisolate_cpu //kernel/sched/qc_vas.c
        sched_unisolate_cpu_unlocked
            trace_sched_isolate(cpu, cpumask_bits(cpu_isolated_mask)[0], start_time, 0); //取消隔离

说明:

trace要隔离/取消隔离的cpu、时间、cpu核的隔离状态。

调用传参:

见调用路径

实参解析:

cpu: 
    要被隔离和取消隔离的cpu
cpumask_bits(cpu_isolated_mask)[0]: 
    已经被isolate的cpus的mask,不算正在被操作的这个
start_time: 
    开始进行隔离/取消隔离的时间点
1/0: 
    1是隔离cpu,0是取消隔离cpu.

 

posted on 2021-10-21 22:57  Hello-World3  阅读(1295)  评论(0编辑  收藏  举报

导航