K-Log#20816の続きです。 1,DAQ Timing errorの調査の為、DAQ k1dc0への高負荷試験を行った。 高負荷をかけた場合に、k1dc0がデータをドロップするか確認するのが目的。 CPU負荷をかけるために次のコマンドを実行した。 /dev/null < $(yes) & 1、2つ程度同時 => データのドロップなどの不具合は発生しなかった。 10個同時に動作させた => daqdのプロセスがハングした。 CPU負荷が上がっても特に0x4000のエラーが発生することはなかった。 2. FE側のmx_streamの遅延による影響を調査 mx_streamは現状プライオリティは初期値(nice=0)で動作している。 プライオリティを変更した場合にエラーが発生するか確認する。 比較の為、EndPoint(ep)の0と1のみローカルで変更した、 対象: ep0: bs ep1: sr2, test0 手順: $ ps -ax -o comm,cls,pid,rtprio,priority,nice (抜粋) COMMAND CLS PID RTPRIO PRI NI mx_stream TS 12022 - 20 0 $ sudo renice -n -20 -p 12022 $ ps -ax -o comm,cls,pid,rtprio,priority,nice (抜粋) COMMAND CLS PID RTPRIO PRI NI mx_stream TS 12022 - 0 -20 => NIが変化していることを確認、PIDはFEによって異なる。 --- This is a continuation of K-Log#20816. 1,A high load test to DAQ k1dc0 was performed to investigate DAQ Timing error. The purpose is to check if k1dc0 drops data when a high load is applied. The following command was executed to apply CPU load. /dev/null < $(yes) & About 1 or 2 at the same time => No data drops or other problems occurred. 10 at the same time => daqd process hung. Even if CPU load was increased, especially 0x4000 error did not occur. 2. investigate the effect of mx_stream delay on FE side Currently, mx_stream is operating with the initial priority value (nice=0). Check to see if an error occurs when priority is changed. For comparison, only 0 and 1 of EndPoint(ep) were changed locally. Target : ep0: bs ep1: sr2, test0 Steps: $ ps -ax -o comm,cls,pid,rtprio,priority,nice (excerpt) COMMAND CLS PID RTPRIO PRI NI mx_stream TS 12022 - 20 0 $ sudo renice -n -20 -p 12022 $ ps -ax -o comm,cls,pid,rtprio,priority,nice (excerpt) COMMAND CLS PID RTPRIO PRI NI mx_stream TS 12022 - 0 -20 => Check that NI is changing, PID varies by FE.