原子力発電所事故後の現存被ばく状況での放射線防護のカテゴリーの記事は、保健福祉職員向け原子力災害後の放射線学習サイトに移行中です。
「測定値がバックグラウンド(の平均値)とその標準偏差の3倍の和、XB+3σBを超えていないとき、測定結果は「検出限界以下」と記録し、有意な放射線はないと判断する。」
って空間線量測定マニュアルに書いてあるけど(P.80)、
指示値が少しあがった時に、それが偶然かどうか
悩んでしまうなあ。
「はかるくん」を使った実習で、生徒からもっとも質問が多いのは、値の変動の解釈に関することだそうだ。
統計学的なものの考え方に親しむとよいのじゃないかな。
昔ある勉強会で
「ガラス線量計等で自然放射線率から1%の増加が検出できますか?」
という質問があって、
「管理測定でそのような精度が高い測定は不可能」
とする回答と、
「ガラス線量計の変動係数は小さく他の変動要因が制御されれば十分可能」
とする回答の2つにわかれたことがあった。
勉強会の主催者は統計学はわからないと逃げていたけど、
どっちが正しいのかなあ?
素直に考えると答えは「両方とも正しい」じゃろ。
測定にコストをかければ、検出限界をある程度下げることは可能じゃ。
測定の条件で検出限界は変わると言うことか。
それは、そうだと思うけど、そんなに変わるのかな?
長時間測定した結果得られる自然放射線率の測定値の平均値が0.1μSv/hであるとすると、時定数の数倍程度かけて得られる測定値の分布範囲は、標準偏差で表現すると0.07~0.13μSv/hとなるじゃろ。
測定ごとの不確かさを考えると、1回測定では、0.1μSv/hと0.11μSv/hの違い(=0.01μSv/h)を検出するのは困難じゃ。
しかし、線量計の個数を増やし、読み取り回数を増やしてその平均値で評価するとどうじゃろ
標本数サンプルサイズを増やすと、信頼区間は標本数の平方根に反比例して小さくできるはずだから、小さな差を検出するパワーを持つ測定が可能になるということか。
コストをかけると測定の不確かさは小さくできるけど、どこまでコストをかけるべきかはその測定の目的にもよるということじゃ。
これは測定のデザインの議論になる。
では、実験してみよう。
この部屋の線量率を読み取ってみよう。
学生さんは高い値を選びがちだけど、無心で読むのは自信がある。
ビデオを使うと読み取りの偏りが回避できる。
0.046 0.043 0.037 0.041 0.034 0.040 0.042 0.047 0.052 0.041
では、平均値と標準偏差を求めてみよう。
測定値の分布はガウス分布に従うと考えられるから、標準偏差の計算は意味を持つ。
この標本の平均値は0.042μSv/h、標準偏差は0.005μSv/hだな。
上のマニュアルに従うと、最小検出感度はいくつになるかな?
何故か3σBを採用しているから0.016μSv/hだな。
では、10分間おきに10回測定した測定値(正味値)が全て、0.011μSv/h以上0.015μSv/h以下になったとしよう。
これは有意な放射線はないとしてよいじゃろか?
最小検出感度を超えていないから、
日本保健物理学会『空間線量測定マニュアル』に従うと、
全て「検出限界以下」となり、有意な放射線はないと判断されそうだ。
でも10回とも正味値が+になるのは、極めて稀な話だから、
なんか変だ。
このデータが、有意な放射線がないという仮定の基で成り立つ確率は、3×10-10以下じゃ。
これだと帰無仮説は棄却されてしまうね。
でも、全くないかちょっとあるかの違いはどうでもよいような気がするけど。
確かに、正味0.01μSv/hの線量率は3 月間ではわずか20 μSv程度で、その差は無視できる。
しかし、検出感度がもっと低い測定では、どうなるじゃろか?
電離箱サーベイメータの線量率測定で0.2μSv/hの線量率が検出できない場合には、一日で4.8μSvあってもわからないということだから、1週間で30 μSvあってもわからないということになる。こうやって計算すると、敷地境界の線量限度が担保できないことになってしまうな。
このマニュアルでは、「各測定点において約5回測