Quantcast
Channel: Статьи компаний на Tiu.ru
Viewing all articles
Browse latest Browse all 758

Ответы на вопросы: Погрешность измерения дозиметра? ⎯ статья компании «МЕРАТЭК-ИЗМЕРИТЕЛЬНАЯ ТЕХНИКА»

$
0
0

Ответы на вопросы: Погрешность измерения дозиметра?

Ответы на вопросы: Погрешность измерения дозиметра? Многие покупатели поднимают вопрос точности измерения параметров излучения дозиметрами. В этой статье описаны некоторые «подводные камни» связанные с погрешностью профессиональных дозиметров

31.07.12

Ответы на вопросы: Погрешность измерения дозиметра?

Многие покупатели поднимают вопрос точности измерения параметров излучения дозиметрами. В этой статье описаны некоторые «подводные камни» связанные с погрешностью профессиональных дозиметров и как по ГОСТам она обеспечена:

1. Погрешность измерения дозиметра и как она обеспечена по ГОСТам.

Одной из наиболее важных характеристик любого измерительного прибора, в том числе и дозиметра-радиометра, является погрешность измерения, выражается она в точности показаний относительно какого-то абсолюта или эталона. Но если, например, для вольтметра, точность показаний в бытовых условиях проверить легко хотя бы относительно других вольтметров, задав на источнике питания какое-то напряжение в любой точке диапазона измерения вольтметра, то с прибором радиационного контроля все значительно сложнее. И проверить отклонение показаний дозиметра можно только при наличии радиоактивных источников, подвергая здоровье опасности. Иными словами проверка погрешностей дозиметра-радиометра осуществляется только при испытаниях на утверждение типа и первичной и периодической поверках прибора, которые осуществляются по ГОСТам, МИ и ТУ на утвержденные типы дозиметров в аккредитованных лабораториях,. Например существует ГОСТ 25935-83, ГОСТ 8.040-84 и другие, в которых описаны требования на соответствие погрешности измерения заявленной. (Примечание: Так как поверку осуществляют в основном для профессиональных приборов, для бытовых дозиметров погрешность проверяется только при первичных испытаниях для определенной модели если такие проводились, а у любого серийного экземпляра после испытаний, она может сколь угодно отличаться от заявленной. Именно по этому бытовые дозиметры, не зарегистрированные в Реестре утвержденных типов измерения, могут использоваться только как индикаторы радиоактивности).

Согласно этих ГОСТов проверка основной относительной погрешности измерения проводится в нескольких точках, это может быть одна, две, три и т.д. в зависимости от технических условий на прибор (например согласно ГОСТ 8.040-84 «при подборе источников рекомендуют интервалы 0.1-0.3; 0.4-0.6; 0.7-0.9 номинального значения диапазона...»). Соответствие заявленной погрешности в этих точках является достаточным условием для того, чтобы дозиметр-радиометр прошел поверку или испытания по этому параметру, иными словами в других точках диапазона измеряемой величины погрешность согласно ГОСТов не проверяется и может выходить за пределы заявленной, в том числе и в близких к фоновым, где для счетчиков Гейгера-Мюллера начинает огромное значение влиять статистическая погрешность, которая является компонентом основной. И если, например, открыть методику поверки на конкретный прибор можно увидеть в каких точках диапазона измеряемой величины была проведена поверка.

Теперь становится понятным, что в точках порога принятия решения о загрязнении согласно разным инструкциям и методикам (например инструкции ЦБ РФ №131-И) погрешность при поверке или испытаниях не проверяют, то есть ее никогда никто не проверял. И любые заявления продавца, что она в этих точках соответствует заявленной беспочвенны. Так как чаще всего эти пороги близки к фоновым значениям, где огромную часть погрешности составляет статистическая погрешность согласно ГОСТ 8.207-76 и математической модели дозиметров-радиометров, где описано какую колоссальную ошибку может она давать. И чтобы, минимизировать эту ошибку необходимо не сравнивать заявленные цифры погрешности, так как они проверяются, когда-либо в нескольких точках диапазона, а не во всем диапазоне измеряемой величины в том числе и на границах, а сравнить возможности счетчиков.

2. Может ли благодаря увеличенному времени измерения дозиметр выдать результат точнее?

Многие производители дозиметров-радиометров в своих приборах со слабыми счетчиками используют неограниченное накопление статистики измерения и заявляют о «постоянном во времени уточнении результата». Возникает вопрос:

В статье «Как не обмануться при выборе дозиметра» мы рассматривали ситуацию, чрезвычайно малого времени измерения для обеспечения точности. Теперь мы рассмотрим ситуацию, избыточно большого времени измерения, когда его дальнейший рост на погрешность измерения уже никак не влияет.

Согласно ГОСТ 8.207-76 оценку суммарного среднего квадратического отклонения вычисляют по формуле:

 



Где
- это и есть статистическая составляющая, стремящаяся к нулю при бесконечно долгом измерении,


-это сумма квадратов границ неучтенных систематических погрешностей делённая на 3, то есть величина никак не зависящая от времени или статистики измерения.

Чем обусловлены эти погрешности, независящие от времени? В основном разбросом параметров счетчика, цепей питания и обработки, также климатических условий при измерении, также погрешностями установки калибровки прибора и т.д. В качестве метафоры можно привезти утрированный сценарий увеличения количества повторов измерения ученической линейкой длины стола с целью проведения измерения с точностью до Ангстрем. Также в ГОСТ 8.207-76 написано: «...5.1. Если  

, то случайной погрешностью по сравнению с систематическими пренебрегают...»

 

То есть когда систематическая, не зависящая от времени измерения, погрешность превышает более чем в 8 раз случайную, зависящую от времени, последней можно пренебречь.

Исходя из вышесказанного после того, как дозиметр в процессе измерения накопил достаточную статистику, то есть снизил случайную погрешность по сравнению с систематической в 8 и более раз, далее уточнять результат бесполезно — погрешность обусловлена только систематическими, не зависящими от времени измерения, погрешностями.

Теперь необходимо оценить какова доля систематической погрешности в основной относительной погрешности. Основная относительная погрешность проверяется, во время испытаний на утверждение типа (для типа средств измерений) и во время первичной и периодических поверках (для конкретного экземпляра дозиметра), согласно ГОСТ 8.040-84 рекомендованы «интервалы 0.1-0.3; 0.4-0.6; 0.7-0.9 номинального значения диапазона...», могут также быть использованы в качестве поверочных точек источники в интервале 0.7-0.9 каждого порядка диапазона, то есть минимум в несколько раз превышающие значения фона и порогов принятия решения о загрязнении согласно разным инструкциям и методикам (например инструкции ЦБ РФ №131-И). В этих точках скорость счета уже достаточно высока, для того чтобы, случайная погрешность была в несколько раз меньше основной относительной погрешности, то есть основная относительная погрешность обусловлена в основном систематической, не зависящей от времени, погрешностью.

3. Условное уточнение результата или независимость измерений.

Таким образом на экране прибора создается иллюзия все большего уточнения результата, на котором производители дозиметров со слабыми счетчиками делают еще и рекламу своих приборов. А на самом деле никакого бесконечного уточнения нет. В дозиметрах-радиометрах компании «Экорад» выбран другой подход - каждое измерение является независимым и фиксированным во времени. При этом использованный в приборах производительный счетчик СБТ-10А успевает накопить статистику, чтобы влияние случайной погрешности, зависящей от времени измерения, было мало. Тем не менее выбор возможности включения режима измерения по коэффициенту вариации, то есть по накопившейся статистики, реализован.

На самом деле в представленных на рынке дозиметрах-радиометрах, где используются слабые непроизводительные счетчики, метод отображения результата с «уточнением измерения» единственно возможен. Слабым счетчикам нужны минуты работы для измерения на фоне с точностью сравнимой с точностью обеспечиваемой работой СБТ-10А за пару десятков секунд, и пользователи не хотят ждать эти минуты. В дозиметрах ДРГБ-01 Эко-1М и МКГ-01, благодаря счетчику СБТ-10А, есть возможность выбирать и использовать режим независимых циклических измерений с высокой точностью и малым временем одного измерения (20с). Благодаря этому режиму становится возможна качественная работа поиска радиоактивных пятен, так как пользователь осуществляет точные дискретные независимые замеры разделенные звуковым сигналом, также сопровождаемые щелчками характеризующими уровень излучения. В режиме с «уточнением результата» независимость и разделение замеров обеспечить можно только постоянным включением и выключением дозиметра, а если учесть еще и минуты необходимые для точного замера, то производительность и эффективность такого дозиметра уверенно стремиться к нулю.

Если же независимость замеров, требуемую ГОСТами любыми инструкциями и методиками (например, все той же инструкцией ЦБ РФ №131-И) и вопреки здравому смыслу, не обеспечить, то сценарий пропуска радиоактивного загрязнения гарантирован. А уверенность отсутствия загрязнения появится только после того, как объект обследован высокоэффективным дозиметром-радиометром, таким как ДРГБ-01 или МКГ-01.

Приобретая дозиметр-радиометр с производительным счетчиком, пользователь не только обеспечивает себя эффективным прибором, но еще и обеспечивает безопасность, исключая пропуски радиоактивного загрязнения, благодаря точным независимым измерениям дозиметра.


Viewing all articles
Browse latest Browse all 758

Trending Articles