* 2.5.56 strange behaviour
@ 2003-01-11 16:47 Arador
2003-01-11 17:32 ` Andrew Morton
0 siblings, 1 reply; 2+ messages in thread
From: Arador @ 2003-01-11 16:47 UTC (permalink / raw)
To: linux-kernel; +Cc: akpm
[-- Attachment #1: Type: text/plain, Size: 3062 bytes --]
Hi, i've observed an "strange" thing in 2.5.56 (and 2.5.55 too)
procs -----------memory---------- ---swap-- -----io---- --system-- ----cpu----
r b swpd free inact active si so bi bo in cs us sy id wa
0 0 0 6228 92524 134716 0 0 0 0 1698 2257 1 0 98 0
<two "dd if=/dev/zero of=test bs=4M" here>
3 0 0 26384 79468 131012 0 0 12 8192 1784 2163 1 33 60 5
1 1 0 4404 115528 119768 0 0 4 43616 2013 3825 2 63 14 22
0 4 0 2076 118480 118896 0 0 8 40456 2027 2251 1 44 6 49
0 3 0 4100 116444 118792 0 0 0 41184 2044 2614 2 5 0 94
3 2 0 4028 116368 119120 0 0 0 37768 2041 2196 1 53 6 40
3 2 0 12040 117608 109764 0 0 8 41456 2048 2403 1 55 10 33
1 3 0 3852 127036 108344 0 0 4 36140 2012 2473 1 53 6 40
0 5 284 2168 130556 106468 0 284 0 47564 2061 2665 2 44 2 51
0 3 1884 4064 129808 105288 0 1504 0 42028 2062 2360 1 44 12 44
<one "dd if=/dev/zero of=test bs=4M" here>
1 4 2424 2228 132204 104732 0 540 16 39768 2091 2508 1 41 2 57
1 3 3232 4072 130772 104332 0 904 12 43156 2050 2569 1 43 6 49
1 2 4524 4584 130892 103656 0 1292 4 37680 2031 2608 2 43 6 49
1 3 4524 5136 130340 103724 0 0 0 47024 2060 2491 1 49 4 46
4 4 4524 2240 132948 103972 0 0 0 40588 2063 5791 1 48 8 44
<two "dd if=/dev/zero of=test bs=4M" here>
4 4 5188 4052 130768 104264 0 664 4 41896 2063 199652 1 80 0 18
3 1 5188 4232 131112 103752 0 0 44 40172 2156 237791 3 94 0 3
4 3 5188 3572 132208 103320 0 0 16 44332 2068 252186 1 95 1 4
2 1 5188 4292 131488 103256 0 0 0 40852 2056 302306 1 81 7 10
0 3 5188 4192 131528 103248 0 0 340 29672 1974 182712 1 69 14 17
^^^^^^
1 0 5188 90728 47484 103436 28 0 68 21224 1931 2178 2 64 25 8
1 2 5188 32432 104000 103492 0 0 0 44924 2047 2200 2 57 9 33
0 3 5188 7068 128576 103512 0 0 0 35064 2028 2200 1 27 15 58
1 3 6108 3800 131884 103176 0 920 0 40184 2041 2135 1 32 11 56
1 3 6108 2188 133672 103028 0 0 0 42048 2037 2351 2 32 5 61
diego@estel:~$
As you see, the cs rate goes from 2??? to 200000-300000.
I wanted to know if it's the expected behaviour.
The test file is the same in all the dd's.
If you need info:
The machine is a P3 2x800 with 256 ram; UDMA 100 ide disk;
FS is ext3 (no htree or the orlov thing).
everything is in the same disk. While it does that;
it's doing nothing except X+gnome (in the background)
playing ogg (which increases the cs)
I reproduced it without X/ogg playing.
I've managed to save slabinfo attached (if it helps...)
I observed it in 2.5.55 for the first time; it was not easy
to reproduce but it happened. Strangely it happened
the first time this afternoon after a mail/web/irc idling session.
[-- Attachment #2: slabinfo --]
[-- Type: application/octet-stream, Size: 12274 bytes --]
slabinfo - version: 1.2 (statistics)
unix_sock 134 153 440 17 17 1 : 120 60 : 171 706 26 9 0 0 189 : 968 89 923 0
tcp_tw_bucket 0 0 96 0 0 1 : 248 124 : 17 96 5 5 0 0 412 : 0 6 6 0
tcp_bind_bucket 13 145 24 1 1 1 : 248 124 : 39 224 1 0 0 0 517 : 48 14 49 0
tcp_open_request 0 0 64 0 0 1 : 248 124 : 20 32 1 1 0 0 431 : 1 2 3 0
inet_peer_cache 13 78 48 1 1 1 : 248 124 : 36 416 1 0 0 0 450 : 0 26 13 0
secpath_cache 0 0 28 0 0 1 : 248 124 : 0 0 0 0 0 0 498 : 0 0 0 0
flow_cache 0 0 56 0 0 1 : 248 124 : 0 0 0 0 0 0 439 : 0 0 0 0
xfrm4_dst_cache 0 0 204 0 0 1 : 248 124 : 0 0 0 0 0 0 391 : 0 0 0 0
ip_fib_hash 11 145 24 1 1 1 : 248 124 : 24 32 1 0 0 0 517 : 10 2 1 0
ip_dst_cache 35 57 204 3 3 1 : 248 124 : 57 608 3 0 0 0 391 : 82 45 92 0
arp_cache 1 23 168 1 1 1 : 248 124 : 17 32 1 0 0 0 395 : 0 2 1 0
raw4_sock 0 0 456 0 0 1 : 120 60 : 0 0 0 0 0 0 188 : 0 0 0 0
udp_sock 2 8 476 1 1 1 : 120 60 : 8 8 1 0 0 0 188 : 5 1 4 0
tcp_sock 28 28 928 7 7 1 : 120 60 : 36 860 9 2 0 0 184 : 2924 193 3098 0
journal_head 33500 33500 56 500 500 1 : 248 124 : 33500 176294 1100 39 0 5 439 : 225345 2049 193168 1018
revoke_table 1 169 20 1 1 1 : 248 124 : 16 16 1 0 0 0 541 : 0 1 0 0
revoke_record 0 0 24 0 0 1 : 248 124 : 32 192 11 11 0 0 517 : 28 12 40 0
ext3_inode_cache 1492 2856 472 357 357 1 : 120 60 : 39456 40379 4934 4 0 2 188 : 34650 5029 37562 625
eventpoll pwq 0 0 44 0 0 1 : 248 124 : 0 0 0 0 0 0 456 : 0 0 0 0
eventpoll epi 0 0 68 0 0 1 : 248 124 : 0 0 0 0 0 0 428 : 0 0 0 0
kioctx 0 0 200 0 0 1 : 248 124 : 0 0 0 0 0 0 391 : 0 0 0 0
kiocb 0 0 168 0 0 1 : 248 124 : 0 0 0 0 0 0 395 : 0 0 0 0
dnotify_cache 0 0 28 0 0 1 : 248 124 : 0 0 0 0 0 0 498 : 0 0 0 0
file_lock_cache 6 36 108 1 1 1 : 248 124 : 72 2548 2 1 0 0 408 : 129096 173 129263 0
fasync_cache 1 145 24 1 1 1 : 248 124 : 32 32 1 0 0 0 517 : 1 2 2 0
shmem_inode_cache 3 9 440 1 1 1 : 120 60 : 36 224 8 7 0 0 189 : 136 28 161 0
uid_cache 2 113 32 1 1 1 : 248 124 : 32 96 1 0 0 0 485 : 1 6 5 0
deadline_drq 768 808 36 8 8 1 : 248 124 : 808 808 8 0 0 0 473 : 759 9 0 0
blkdev_requests 768 783 144 29 29 1 : 248 124 : 783 783 29 0 0 0 399 : 738 30 0 0
biovec-BIO_MAX_PAGES 256 260 3072 52 52 4 : 54 27 : 256 256 52 0 0 0 86 : 0 256 0 0
biovec-128 256 260 1536 52 52 2 : 54 27 : 256 256 52 0 0 0 86 : 0 256 0 0
biovec-64 256 260 768 52 52 1 : 120 60 : 315 489 79 27 0 0 185 : 216 306 266 0
biovec-16 282 285 200 15 15 1 : 248 124 : 380 974 34 19 0 0 391 : 1279 306 1325 0
biovec-4 335 335 56 5 5 1 : 248 124 : 335 1017 9 4 0 0 439 : 1126 296 1162 0
biovec-1 3357 4394 20 26 26 1 : 248 124 : 4349 154780 78 19 0 2 541 : 246029 1626 243506 1035
bio 3445 3658 64 62 62 1 : 248 124 : 4307 150636 284 62 0 5 431 : 248634 1782 246254 1040
sock_inode_cache 161 190 384 19 19 1 : 120 60 : 200 1463 28 9 0 0 190 : 3709 198 3749 0
skbuff_head_cache 192 414 168 18 18 1 : 248 124 : 460 22460 32 14 0 3 395 : 15520 264 15587 5
sock 2 10 364 1 1 1 : 120 60 : 10 10 1 0 0 0 190 : 0 2 0 0
proc_inode_cache 233 264 356 24 24 1 : 120 60 : 275 2588 27 3 0 0 191 : 6522 187 6493 0
sigqueue 21 28 140 1 1 1 : 248 124 : 252 6966 102 101 0 4 400 : 97085 200 97269 15
radix_tree_node 1298 2016 268 144 144 1 : 120 60 : 2198 4638 157 3 0 2 194 : 6116 292 5188 31
cdev_cache 22 504 52 7 7 1 : 248 124 : 1008 1062 14 1 0 1 444 : 965 20 957 6
bdev_cache 4 40 96 1 1 1 : 248 124 : 19 32 1 0 0 0 412 : 18 2 16 0
mnt_cache 13 56 68 1 1 1 : 248 124 : 22 22 1 0 0 0 428 : 7 7 1 0
inode_cache 375 396 340 36 36 1 : 120 60 : 396 766 36 0 0 0 191 : 331 261 217 0
dentry_cache 2465 5712 136 204 204 1 : 248 124 : 41468 44375 1482 2 0 1 400 : 50464 1841 49689 309
filp 1424 1458 144 54 54 1 : 248 124 : 1447 1570 54 0 0 0 399 : 1356 68 0 0
names_cache 8 8 4096 8 8 1 : 54 27 : 11 70 47 39 0 0 82 : 536967 70 537034 0
buffer_head 32957 33701 56 503 503 1 : 248 124 : 33701 188996 735 10 0 5 439 : 248569 2160 216761 1172
mm_struct 56 63 412 7 7 1 : 120 60 : 72 1014 10 3 0 0 189 : 888 90 928 0
vm_area_struct 2597 2597 72 49 49 1 : 248 124 : 2915 13563 65 16 0 1 425 : 43562 209 41348 20
fs_cache 56 156 48 2 2 1 : 248 124 : 156 1369 2 0 0 0 450 : 516 66 532 0
files_cache 51 54 428 6 6 1 : 120 60 : 72 875 10 4 0 0 189 : 502 80 532 0
signal_act 56 57 1344 19 19 1 : 54 27 : 63 405 31 12 0 0 84 : 480 108 532 0
task_struct 75 75 1568 15 15 2 : 54 27 : 85 772 23 8 0 0 86 : 519 107 552 0
pte_chain 4284 9292 40 101 101 1 : 248 124 : 23184 44182 261 6 0 2 464 : 58161 465 54338 211
size-131072(DMA) 0 0 131072 0 0 32 : 8 4 : 0 0 0 0 0 0 13 : 0 0 0 0
size-131072 0 0 131072 0 0 32 : 8 4 : 0 0 0 0 0 0 13 : 0 0 0 0
size-65536(DMA) 0 0 65536 0 0 16 : 8 4 : 0 0 0 0 0 0 13 : 0 0 0 0
size-65536 1 1 65536 1 1 16 : 8 4 : 3 3 3 2 0 0 13 : 3 3 5 0
size-32768(DMA) 0 0 32768 0 0 8 : 8 4 : 0 0 0 0 0 0 13 : 0 0 0 0
size-32768 0 0 32768 0 0 8 : 8 4 : 1 1 1 1 0 0 13 : 0 1 1 0
size-16384(DMA) 0 0 16384 0 0 4 : 8 4 : 0 0 0 0 0 0 13 : 0 0 0 0
size-16384 7 7 16384 7 7 4 : 8 4 : 20 1276 126 119 0 8 13 : 1039 427 1185 274
size-8192(DMA) 0 0 8192 0 0 2 : 8 4 : 0 0 0 0 0 0 13 : 0 0 0 0
size-8192 24 37 8192 24 37 2 : 8 4 : 53 4588 470 121 0 13 13 : 5780 1571 6377 959
size-4096(DMA) 0 0 4096 0 0 1 : 54 27 : 0 0 0 0 0 0 82 : 0 0 0 0
size-4096 48 48 4096 48 48 1 : 54 27 : 98 10199 1506 1458 0 27 82 : 24098 1938 25760 228
size-2048(DMA) 0 0 2048 0 0 1 : 54 27 : 0 0 0 0 0 0 83 : 0 0 0 0
size-2048 53 56 2048 28 28 1 : 54 27 : 112 2235 327 299 0 13 83 : 7052 573 7567 10
size-1024(DMA) 0 0 1024 0 0 1 : 120 60 : 0 0 0 0 0 0 184 : 0 0 0 0
size-1024 236 236 1024 59 59 1 : 120 60 : 276 2890 311 252 0 15 184 : 56243 444 56510 17
size-512(DMA) 0 0 512 0 0 1 : 120 60 : 0 0 0 0 0 0 188 : 0 0 0 0
size-512 106 112 512 14 14 1 : 120 60 : 224 4096 184 170 0 7 188 : 17522 374 17796 12
size-256(DMA) 0 0 264 0 0 1 : 120 60 : 0 0 0 0 0 0 195 : 0 0 0 0
size-256 150 150 264 10 10 1 : 120 60 : 165 51487 141 131 0 4 195 : 109336 1048 109541 813
size-192(DMA) 0 0 200 0 0 1 : 248 124 : 0 0 0 0 0 0 391 : 0 0 0 0
size-192 323 323 200 17 17 1 : 248 124 : 323 44526 45 28 0 5 391 : 431431 406 431427 355
size-128(DMA) 0 0 136 0 0 1 : 248 124 : 0 0 0 0 0 0 400 : 0 0 0 0
size-128 131 140 136 5 5 1 : 248 124 : 168 1522 7 2 0 0 400 : 21399 98 21392 1
size-96(DMA) 0 0 104 0 0 1 : 248 124 : 0 0 0 0 0 0 409 : 0 0 0 0
size-96 653 703 104 19 19 1 : 248 124 : 703 1799 20 1 0 0 409 : 24958 302 24649 0
size-64(DMA) 0 0 72 0 0 1 : 248 124 : 0 0 0 0 0 0 425 : 0 0 0 0
size-64 526 530 72 10 10 1 : 248 124 : 530 1588 11 1 0 0 425 : 49552 113 49196 27
size-32(DMA) 0 0 40 0 0 1 : 248 124 : 0 0 0 0 0 0 464 : 0 0 0 0
size-32 704 828 40 9 9 1 : 248 124 : 828 1840 9 0 0 0 464 : 1071282 284 1070881 189
kmem_cache 92 92 168 4 4 1 : 248 124 : 92 92 4 0 0 0 395 : 24 63 0 0
^ permalink raw reply [flat|nested] 2+ messages in thread
* Re: 2.5.56 strange behaviour
2003-01-11 16:47 2.5.56 strange behaviour Arador
@ 2003-01-11 17:32 ` Andrew Morton
0 siblings, 0 replies; 2+ messages in thread
From: Andrew Morton @ 2003-01-11 17:32 UTC (permalink / raw)
To: Arador, linux-kernel
On Sat January 11 2003 08:47, Arador wrote:
>
> Hi, i've observed an "strange" thing in 2.5.56 (and 2.5.55 too)
>
> ...
>
> As you see, the cs rate goes from 2??? to 200000-300000.
> I wanted to know if it's the expected behaviour.
>
I've seen this too. It's ext3, possibly related to the singular
sleep_on_buffer() call failing to sleep.
Anton Blanchard has a cute patch which changes the kernel profiler to profile
calls to schedule() instead of just instructions and I have ported that to
ia32. But I haven't got around to actually using it yet.
We'll get there ;)
Thanks.
^ permalink raw reply [flat|nested] 2+ messages in thread
end of thread, other threads:[~2003-01-11 17:23 UTC | newest]
Thread overview: 2+ messages (download: mbox.gz follow: Atom feed
-- links below jump to the message on this page --
2003-01-11 16:47 2.5.56 strange behaviour Arador
2003-01-11 17:32 ` Andrew Morton
This is a public inbox, see mirroring instructions
for how to clone and mirror all data and code used for this inbox