Thread "taskq" allocating a lot of CPU resources



  • I am running pfsense since a while and I recently noticed something weird in my systat command
    Does anyone knows why this  "TASKQ" thread eats all my CPU? is this a known bug in pfsense?

    /0   /1   /2   /3   /4   /5   /6   /7   /8   /9   /10

    Load Average   >>>>>>

    /0%  /10  /20  /30  /40  /50  /60  /70  /80  /90  /100

    root     thread tas XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX

    root     idle: cpu1 XXXXXXXXXXXXXXXXXXXXXXX

    root     idle: cpu0 XXXXXXXXXXXXXXXXXXXXX

    root           ntop XXXXX

    root     irq31: bge XXX

    root     irq28: bge XXX

    uname -a

    FreeBSD xxxxxxxxxxx 7.0-RELEASE-p8 FreeBSD 7.0-RELEASE-p8 #0: Thu Jan  8 22:29:30 EST 2009     sullrich@freebsd7-releng_1_2_1.pfsense.org:/usr/obj.pfSense/usr/src/sys/pfSense_SMP.7  i386

    Thx,
    Bart



  • A snapshot of the outputput of top -S -H would probably be a bit more informative.



  • Sure. Please find here the output.

    last pid: 36452;  load averages:  1.26,  1.16,  1.10                                                                                                    up 280+22:11:40 13:31:10
    91 processes:  5 running, 69 sleeping, 2 zombie, 14 waiting, 1 lock
    CPU states:  2.3% user,  0.0% nice, 49.8% system,  4.3% interrupt, 43.6% idle
    Mem: 135M Active, 249M Inact, 133M Wired, 104K Cache, 111M Buf, 476M Free
    Swap: 2048M Total, 2048M Free

    PID USERNAME PRI NICE  SIZE    RES STATE  C  TIME  WCPU COMMAND
        7 root      8    -    0K    8K RUN    0 6130.9 99.17% thread taskq
      11 root    171 ki31    0K    8K RUN    1 3563.0 48.58% idle: cpu1
      12 root    171 ki31    0K    8K RUN    0 3382.9 45.65% idle: cpu0
      731 root    -58    0 77044K 55924K bpf    0 106.6H  5.08% ntop
      25 root    -68    -    0K    8K WAIT  1  72.8H  3.08% irq31: bge0
      26 root    -68    -    0K    8K CPU0  0  55.5H  2.78% irq28: bge1
      731 root      44    0 77044K 55924K ucond  1 106.6H  0.00% ntop
      731 root      44    0 77044K 55924K ucond  1 106.6H  0.00% ntop
      731 root      44    0 77044K 55924K ucond  1 106.6H  0.00% ntop
      731 root      44    0 77044K 55924K select 1 106.6H  0.00% ntop
      731 root      8    0 77044K 55924K nanslp 1 106.6H  0.00% ntop
      731 root      8    0 77044K 55924K nanslp 0 106.6H  0.00% ntop
      731 root      8    0 77044K 55924K nanslp 0 106.6H  0.00% ntop
      731 root      8    0 77044K 55924K nanslp 1 106.6H  0.00% ntop
      731 root      8    0 77044K 55924K nanslp 0 106.6H  0.00% ntop
      14 root    -32    -    0K    8K WAIT  0 902:19  0.00% swi4: clock sio
      27 root    -64    -    0K    8K *Giant 1 794:43  0.00% irq19: ohci0 ohci1
      16 root      44    -    0K    8K -      1 213:58  0.00% yarrow
    51472 root      8  20  8604K  6896K wait  1 131:43  0.00% sh
      708 root    -58    0  5228K  2028K bpf    1  79:04  0.00% bandwidthd
      705 root    -58    0  5228K  2028K bpf    1  77:44  0.00% bandwidthd
      707 root    -58    0  5228K  2028K bpf    0  76:02  0.00% bandwidthd
      706 root    -58    0  5228K  2028K bpf    0  75:27  0.00% bandwidthd
      37 root      8    -    0K    8K pftm  1  40:03  0.00% pfpurge
        3 root      -8    -    0K    8K -      1  37:24  0.00% g_up
        4 root      -8    -    0K    8K -      1  23:45  0.00% g_down
      305 root    -58    0 48704K 46412K bpf    0  22:30  0.00% tcpdump
      43 root      20    -    0K    8K syncer 0  16:12  0.00% syncer
        2 root      -8    -    0K    8K -      0  12:43  0.00% g_event
      32 root    -64    -    0K    8K WAIT  1  12:28  0.00% irq14: ata0
      306 root      -8    0  3132K  788K piperd 1  10:37  0.00% logger
      13 root    -44    -    0K    8K WAIT  0  8:20  0.00% swi1: net
    51437 root      4    0  8172K  6864K kqread 0  5:19  0.00% lighttpd
    36478 root      44    0  3236K  1136K select 1  4:33  0.00% syslogd
      45 root    -16    -    0K    8K sdflus 1  1:53  0.00% softdepflush
    45912 root      44  20  5020K  2996K select 0  1:53  0.00% sshd
      42 root    -16    -    0K    8K psleep 1  1:23  0.00% bufdaemon
      44 root      -4    -    0K    8K vlruwt 1  1:17  0.00% vnlru
    1151 root      8  20  3132K  800K nanslp 0  1:08  0.00% check_reload_status
      692 root      8    0  3212K  1260K nanslp 0  1:06  0.00% cron
      52 root      -8    -    0K    8K mdwait 0  0:36  0.00% md0
      41 root    171 ki31    0K    8K pollid 1  0:26  0.00% idlepoll
      38 root    -16    -    0K    8K psleep 1  0:23  0.00% pagedaemon
      713 root      8    0  3132K  888K nanslp 1  0:22  0.00% minicron
        1 root      8    0  1888K  412K wait  1  0:12  0.00% init
    35908 _ntp      44    0  3132K  1204K select 0  0:08  0.00% ntpd
    48868 root      -8    0  3132K  772K piperd 0  0:03  0.00% sshlockout_pf
    35909 root      44    0  3132K  1204K select 0  0:03  0.00% ntpd
    28356 root      4    0 40668K 13996K accept 0  0:02  0.00% php
      31 root      8    -    0K    8K usbevt 0  0:01  0.00% usb1
      398 root      4    0 45788K 19740K accept 0  0:01  0.00% php
      28 root      8    -    0K    8K usbevt 0  0:01  0.00% usb0
      40 root    171 ki31    0K    8K pgzero 0  0:00  0.00% pagezero
    26942 root      44  20  7736K  3260K select 1  0:00  0.00% sshd
    29654 proxy    -58  20  3292K  1248K bpf    0  0:00  0.00% ftpsesame
      426 root      8    0 39644K  5188K wait  1  0:00  0.00% php



  • Perhaps its time to upgrade to pfSense 2.0 - see http://forum.pfsense.org/index.php/topic,24337.0.html


Log in to reply