p10 p50 p90 что это
Field Reserves Management System – Система управления запасами месторождений
Попробую описать свои мысли по поводу того, как создать эффективную (на мой взгляд) систему управления запасами месторождений компании.
В нашей компании планируется к концу2012 года полностью перейти на самостоятельную оценку запасов по западной классификации без привлечения коллег из Лондонского офиса компании Hess. Доказанные запасы при этом будут подвергаться аудиту сторонней компании, скорее всего это будет D&M, на предмет соответствия запасов стандартам и требованиям комиссии по ценным бумагам и биржам SEC. Процедура постепенного перехода начинается в этом году.
Для начала скажу, что у нас используется детерминистический подход в оценке запасов (геологические и извлекаемые запасы), хотя при желании можно использовать вероятностный подход. При использовании вероятностного подхода, после применения метода Монте-Карло, мы получаем оценки запасов P90, P50 и P10 в зависимости от степени уверенности, не менее 90%, 50% или 10% соответственно. При детерминистическом подходе также нужно сделать 3 оценки геологических запасов и извлекаемых запасов – пессимистическая (RL – Reasonable Low), наилучшая техническая оценка (BTE – Best Technical Estimate) и оптимистическая (RH – Reasonable High). При этом пессимистический вариант должен быть сопоставим с вероятностным P90, BTE – P50, а RH – P10.
Данную систему можно назвать системой постоянного (непрерывного) мониторинга запасов компании, т.к. обновление запасов компании может происходить непрерывно по мере получения новых данных – геологическая информация и оценка объемов залежи и/или петрофизических свойств, новых данных по добыче нефти, изменения на рынке нефти.
После закрытия ежемесячного отчета о добычи, когда все данные загружены в базу данных (или Excel) выполняется анализ кривых падения добычи (DCA), по результатам которого по всем скважинам, находящимся в работе, а также простаивающие по каким-либо причинам, но запланированные к пуску в работу, мы получаем оценки добычи нефти. Если также выполняется анализ роста водонефтяного фактора (WOR), то можно получить прогнозы по добыче воды. Если для аппроксимации добычи нефти использовать экспоненциальное уравнение, которое дает самую консервативную оценку, то прогнозное значение накопленной добычи можно считать – доказанными разрабатываемыми добываемыми запасами данной скважины P1а_PDP (Proved Developed Produced). Добавив данные уже добытой нефти, получаем начальные запасы. Просуммировав добычу со всех скважин одного объекта/пласта/месторождения, получим доказанные разрабатываемые запасы данного месторождения. Добыча со скважин, находящихся на протяжении длительного времени в простое, должна быть отнесена к доказанным разрабатываем недобываемым запасам – P1a_PDNP (Proved Developed Non Produced). Эти значения, если наладить систему, можно будет обновлять ежемесячно после закрытия месячного отчета по добыче. Извлекаемые запасы соответствующие RL или P90 являются общими доказанными запасами объекта/месторождения. Таким образом, доказанными неразрабатываемыми запасами (P1b_PUD – Proved Undeveloped) можно считать разницу между RL и суммой P1а_PDP и P1а_PDNP. При этом следует учитывать, что скважина должна быть отключена при достижении минимального рентабельного дебита, который при необходимости может быть определен для каждого объекта индивидуально, исходя из фактических и/или ожидаемых операционных затрат, а также ситуации на ранке, аналогично скважина останавливается при достижении окончания срока действия лицензии. Всю нефть, добытую ниже экономически рентабельного дебита и за сроком действия лицензии, следует отнести в категорию условно доказанных ресурсов (P4 – Contingent Proved, в новой классификации С1). Аналогичным образом производится оценка вероятных запасов (Probable). Разницу между запасами BTE и RL считаем вероятными запасами P2 и условно-вероятных ресурсов P5. P2 – экономически рентабельные запасы в пределах срока действия лицензии. P5 – запасы за пределами лицензии или с добычей ниже экономически рентабельных дебитов. Абсолютно то же самое делается для P3 и P6. Во многих компаниях также производят разделение P2 на разрабатываемые P2a и неразрабатываемые P2b.
Таким образом, нужно будет создать базу данных, содержащую информацию обо всех месторождениях компании, пробуренных скважинах и вскрываемых ими пластах (если месторождения многопластовые), данные по добыче. В таблицах должна быть информация по геологическим запасам (STOIIP) и коэффициентам извлечения для каждого из трех вариантов – RL, BTE and RH, дающих при умножении на соответствующие STOIIP объемы запасов сопоставимые с P90, P50 и P10.
Таким образом, обновляя данные по добыче (что делается регулярно) и, получая после очередной итерации анализа кривых падения добычи новые коэффициенты, мы сможем каждый месяц (если есть такая необходимость) оценивать доказанные разрабатываемые запасы. Сравнивая и анализируя разницу между общими доказанными P1 и разрабатываемыми запасами P1a, сможем оценить корректность определения коэффициента извлечения нефти для доказанных запасов. Изменения STOIIP и извлекаемых запасов по каждому конкретному объекту, например, после бурения новых скважин, или пересмотра геологической и гидродинамической модели, вносятся в базу по мере возникновения.
В итоге, в любое время, данная база позволит нам получать актуальные данные по запасам месторождений компании. При условии, что свежие данные заносятся и верифицируются своевременно.
Позже, если будет время, опишу структуру базы данных.
Petroleum Engineers
Вы здесь
Подсчет запасов вероятностным методом
Добрый день, коллеги!
Для снижения рисков при принятии решений инвестиционным комитетом компании, поставлена задача оценить месторождение вероятностным распределением запасов нефти.
Возможна дальнейшая защита в ГКЗ.
1. Имел ли кто опыт защиты запасов в ГКЗ по вероятностным методам?
2. Есть ли вообще в ГКЗ адекватные специалисты для экспертизы вероятностной модели?
3. В какой программе считали?
4. Если на данном месторождении был проведен подсчет запасов объемным методом, то какие еще данные нужны для того, чтобы воспользоваться вероятностной оценкой? Ведь в принципе геофизика переинтерпретирована, пласты скоррелированы, флюиды учтены.
Заранее спасибо за ответы и советы
Контекст
1. ГКЗ не принимает запасы посчитанные вероятностным методом. Карты вы тоже им будете вероятностные тащить. Категории?
2. Наверное только Билибин Святослав Игоревич
3. Запасы считаются на основании геологической модели, и соответственно в той программе в которой модель была построена. Выбор Petrel или RMS зависит от вас.
4. Вероятностная оценка базируется на основании оценки неопределенностей. Которых может быть великое множество. Определите основные и вперед писать вокфроу и считать кучу реализаций.
Оценка геологических запасов вероятностным методом в мире ни кому не интерестна. Это только объёмы, которые нужно добыть. Обычно оцениваются извлекаемые запасы, и для этого еще делается оценка неопределенностей уже в гидродинамической модели.
Добрый день, коллеги!
Для снижения рисков при принятии решений инвестиционным комитетом компании, поставлена задача оценить месторождение вероятностным распределением запасов нефти.
Для принятия инвестиционных решений, пожалуйста используйте вероятностные оценки. Это даже очень хорошо, что вы используете вероятностную оценку при принятии решений, но ГКЗ-то зачем этим пугать))
Инвестиционные решения, как правило основаны на P50 или Mean. Сделайте так, чтобы то, что пойдет в ГКЗ также соответствовало этим вариантам и защищайте.
Что тут понимается под вероятностными методами? Сделали пористость случайной величиной с таким-то законом распределения и смотрим как после этого распределена кривая добычи?
Что тут понимается под вероятностными методами? Сделали пористость случайной величиной с таким-то законом распределения и смотрим как после этого распределена кривая добычи?
1. Считать запасы вероятностными способами можно либо на основании фактической добычи существующих скважин (то есть делать вероятностный прогноз накопленной добычи нефти или газа, используя Decline Curve Analysis в комбинации с Bootstrap method, Modified Bootstrap method, Markov Chain Monte Carlo и т.д.) либо объемным способом, используя моделирование по методу Monte Carlo или Latin Hypercube.
3. Для расчета накопленной добычи вероятностными методами коммерческих программ пока не существует (я самостоятельно писал программу для проведения подобных расчетов), а для оценки запасов объемным способом с применением моделирования по методу Monte Carlo или Latin Hypercube обычно используют Oracle Crystal Ball или @Risk.
4. При использовании объемного способа все величины представляются в виде вероятностных распределений (обычно normal, log-normal или uniform distributions). Для каждой величины мы на основании экспертной оценки и имеющихся данных (геофизика, лаб исследования и т.д.) подбираем граничные условия и моделируем по методу Monte Carlo или Latin Hypercube.
3. Для расчета накопленной добычи вероятностными методами коммерческих программ пока не существует (я самостоятельно писал программу для проведения подобных расчетов), а для оценки запасов объемным способом с применением моделирования по методу Monte Carlo или Latin Hypercube обычно используют Oracle Crystal Ball или @Risk.
Насколько я понимаю, все как считали объемным, так и считают. В какой ситуации мы не сможем обойтись без вероятностного метода? (курс подсчета у меня крайне скудный, поэтому извиняюсь заранее за, вероятно, простые вопросы)
И порекомендуйте пожалуйста, какую-нибудь литературу на этот счет!
Заранее спасибо зо ответ!
Объемный способ подразумевает применение вероятностного метода (например, моделирование по методу Monte Carlo). Вероятностные методы применяются тогда, когда мы имеем дело со значительным уровнем неопределенности и рисков.
Геологи применяют вероятностный метод при оценке запасов объемным способом. Разработчики оценивают извлекаемые запасы, рассчитывая прогнозную накопленную добычу (используя характеристики вытеснения или Decline Curve Analysis) и чаще всего делают это детерминистическим способом (то есть получают в результате одно число). Но так, как прогнозируя накопленную добычу мы тоже имеем дело со значительным уровнем неопределенности и рисков, то было бы уместно применять вероятностные способы прогноза накопленной добычи (Bootstrap method, Modified Bootstrap method, Markov Chain Monte Carlo и т.д. вместе с характеристиками вытеснений или Decline Curve Analysis). Данные методы применяются в США (некоторые из этих методов были разработаны совсем недавно).
Если у Вас будут вопросы, пишите.
1. Считать запасы вероятностными способами можно либо на основании фактической добычи существующих скважин (то есть делать вероятностный прогноз накопленной добычи нефти или газа, используя Decline Curve Analysis в комбинации с Bootstrap method, Modified Bootstrap method, Markov Chain Monte Carlo и т.д.) либо объемным способом, используя моделирование по методу Monte Carlo или Latin Hypercube.
У меня был опыт небольшой модели в RMS в модуле Uncertainly. В ней мы задавали ранг по пористости, нефтенасыщенности, объемному коэффициенту и плотности нефти. далее все перемножали в 120-ти реализациях. В итоге получили разброс по запасам. Вот статья на эту тему: http://www.tatnipi.ru/upload/sms/2012/geol/016.pdf
Посмотрите GeoX. для этой задачи продукт.
Учет рисков при проектировании ГРР и оценке гринфилда необходим. Но вот зачем нужна вероятностная оценка? для красивых графиков вероятностного распределения в презентации? 🙂
если при вероятностной оценке у вас получается +/-2% это значит что вы что-то делаете не так. Для примера приведу расхождение по извлекаемым запасам на месторождении между p10/p90 оценками:
— поисковое бурение10-100 раз
— оценочное бурение, уточнение запасов 2-10
— всякие ГДМ и прочие штуки 1.5-3
Вероятностная оценка позволяет лучше сравнивать проекты у котрорых средняя примерно одинаковая, если наблюдается большой отрицательных хвост по экономике проекта то можно подумать и обосновать получение дополнительных данных и т.д. Кроме как используя Монте-Карло трудно выйти на итоговое распределение, можно легко найти среднее используя средниее параметры, каждый параметр тоже можно обосновать оптимистичную/песимистичную оценку, но без стохастики трудно это все объединить когда все параметры связаны.
если при вероятностной оценке у вас получается +/-2% это значит что вы что-то делаете не так.
Имел в виду Детерм = +-2%Pmean
Вероятностная оценка позволяет лучше сравнивать проекты у котрорых средняя примерно одинаковая, если наблюдается большой отрицательных хвост по экономике проекта то можно подумать и обосновать получение дополнительных данных и т.д. Кроме как используя Монте-Карло трудно выйти на итоговое распределение, можно легко найти среднее используя средниее параметры, каждый параметр тоже можно обосновать оптимистичную/песимистичную оценку, но без стохастики трудно это все объединить когда все параметры связаны.
Если наблюдается большой отрицательный хвост, то проект не будет реализован.
Вместо того, чтобы обосновывать модель с точки зрения геологии, все начинают ссылаться на математику «мне так посчитало».
А вариативность Р90 и Р10 на случай неподтверждения модели «ну мы же говорили, что возможны и другие сценарии развития».
Ведь все равно привдекательность проекта считается на вариант Pmean или Р50 (а как я выше говорил Рmean = +-2%Детерм), а остальная вариативность выдается для ознакомления и красивых графиков в презентации.
Коллеги, прошу сказать, где я не прав.
Если наблюдается большой отрицательный хвост, то проект не будет реализован.
Иногда можно поработать, предложить другие схемы разработки или собрать больше данных чтобы избавиться от хвоста.
Вместо того, чтобы обосновывать модель с точки зрения геологии, все начинают ссылаться на математику «мне так посчитало».
А вариативность Р90 и Р10 на случай неподтверждения модели «ну мы же говорили, что возможны и другие сценарии развития».
Сколько модель не обосновывай, но объективно неопределенность в нашем деле велика так что дело не в математике.
Ведь все равно привдекательность проекта считается на вариант Pmean или Р50 (а как я выше говорил Рmean = +-2%Детерм), а остальная вариативность выдается для ознакомления и красивых графиков в презентации.
Коллеги, прошу сказать, где я не прав.
Ну это у всех по-разному. Во-первых экономика считается на полное распределение и mean запасов не есть mean экономики. И upside potential/downside risk тоже играют роль для выбора проекта если он конкурирует с целым портфелем. К тому же полное распределение лучше помогает выбрать сценарий разработки. Разные сценарии могут иметь похожие mean, но разный разброс так что можно выбрать менее рискованный вариант.
С коэф. геологической успешности я не спорю (хотя статистический будет занижен в старых регионах, где раньше бурили по региональным профилям 2Д, сейчас неопределенностей все равно меньше).
Но зачем нужны Р10 и Р90, ей богу, понять не могу. Тем более обоснование вариантов разработки для Р10 и Р90.
Могу понять различные варианты разработки для одной модели (плотность сетки, горизонты или наклонно-направленные, возвратные объекты или отдельная сетка, и т.д.), но зачем тоже самое делать для Р10 и Р90? а потом из вариантов Р10, Р50 и Р90 выбирать приемлимый вариант. А месторождение в курсе, что руководство выбрало вариант, при котором у него запасы будут Р90?)) или Р10?))
а. берется расчет NPV при вероятности 50% (или Pmean), который равен +-2%Детерм.
б. он устанавливается как базовый вариант и стоп-точка, расчитывается максимальный шаг аукциона или максимальная стоимость актива при NPV=>0.
в. по сути берется оценка Детерм и устанавливается как стоп-точка.
Зачем расчет NPV при Р90 и Р10? чтоб иметь еще две цифры, не оказывающие влияние на итоговое решение?
Сгенерируйте функцию плотности вероятности на основе значений P10, P50 и P90 в Python
Я хочу использовать значения P10, P50 и P90 в качестве входных данных для: А) генерировать функцию плотности вероятности (это похоже на распределение Майерсона, но я не могу понять, как это сделать в Python. В Excel есть аддон, который делает именно это; SIPMath) Б) запустите симуляцию (Монте-Карло?) на PDF
Пример: я хочу сделать симуляцию того, сколько времени потребуется, чтобы пробежать от А до В.
Это означает 10% попыток, которые я выполняю от А до В за 1 час или меньше, 50% попыток, которые я выполняю от А до В за 1.5 часа или меньше (то есть 1.5-это среднее значение). и 10% из попыток я потрачу больше 2.5 часов.
3 ответа
Как сделать гистограмму на основе оценки плотности вероятности каждого из предельных распределений p (x1 ) и p (x2 ) этого набора данных: import numpy as np import matplotlib.pyplot as plt linalg = np.linalg N = 100 mean = [1,1] cov = [[0.3, 0.2],[0.2, 0.2]] data =.
Моя функция под названием DicePlot имитирует бросание 10 кубиков 5000 раз. В этой функции он вычисляет сумму значений 10 кубиков каждого броска, которая будет представлять собой вектор 1 × 5000, и строит гистограмму относительной частоты с ребрами ячеек, выбираемых таким же образом, где каждый Бин.
Предполагая, что целесообразно моделировать эту систему с распределением Майерсона, то, согласно решателям Frontline, «[i]если указанные процентили равноудалены (измеряются параметром b’ ниже), то распределение Майерсона эквивалентно нормальному распределению.» Вам повезло с простым делом.
Конечно, это не может быть вполне правдой, потому что нормальное имеет бесконечные хвосты. Вам нужно будет взять образцы из нормальной популяции, которая усечена слева.
Я бы сказал, что это настолько маловероятно, что не стоит беспокоиться о том, чтобы рассматривать это как усеченную норму.
Значения для loc и scale такие, как мы уже обсуждали. Значение size будет соответствовать любому требуемому размеру выборки.
Вот моя попытка найти решение. В случае b’ = 1 данные симметричны, и мы должны рассматривать это как нормальное распределение. pX_out приближается к pX_in по мере увеличения числа выборок. Мне бы хотелось установить верхний и нижний барьеры, но я еще не придумал, как это сделать. Любые предложения будут оценены по достоинству. Спасибо.
Что я должен использовать, чтобы вычислить обратную функцию плотности вероятности для нормального распределения? Я использую scipy для определения функции плотности вероятности нормального распределения: from scipy.stats import norm norm.pdf(1000, loc=1040, scale=210) 0.0018655737107410499 Как я.
У меня есть массив значений данных следующим образом : 0.000000000000000000e+00 3.617000000000000171e+01 1.426779999999999973e+02 2.526699999999999946e+01 4.483190000000000168e+02 7.413999999999999702e+00 1.132390000000000043e+02 8.797000000000000597e+00 1.362599999999999945e+01.
Похожие вопросы:
я хочу построить функцию плотности вероятности для примерно 7500 данных, которые показывают пиковое ускорение земли(PGA).что такое код MATLAB для этого?спасибо.
Как я могу построить совместную функцию плотности вероятности 2 случайных величин (средние и дисперсии случайных величин даны) в Python?
Генерация функции вероятности плотности на основе значений P10, P50 и P90 в Python
Я хочу использовать значения P10, P50 и P90 в качестве входных данных для: A) генерирования функции плотности вероятности (это похоже на распределение Майерсона, но я не могу понять, как это сделать в Python. В Excel есть дополнение, которое делает хотя именно это; SIPMath) B) запустить симуляцию (Монте-Карло?) в PDF
Пример: я хочу сделать симуляцию того, сколько времени потребуется, чтобы добраться от А до Б.
3 ответа
Предполагая, что тогда уместно смоделировать эту систему с помощью дистрибутива Myerson, в соответствии с Frontline Solvers, «[i] f указанные процентили равноудалены (измеряются параметром b ‘ниже), тогда распределение Майерсона эквивалентно нормальному распределению.» Вам повезло с простым делом.
Конечно, это не может быть совершенно верно, потому что нормаль имеет бесконечные хвосты. Вам нужно будет взять образцы из нормальной популяции, которая обрезана слева.
Я бы сказал, что это настолько маловероятно, что не стоит беспокоиться о том, чтобы рассматривать это как усеченную норму.
Значения loc и scale такие же, как мы уже обсуждали. Значение для size будет соответствовать выбранному размеру выборки.
Вот моя попытка решения. В случае b ‘= 1 данные симметричны, и мы должны рассматривать это как нормальное распределение. pX_out приближается к pX_in по мере увеличения количества выборок. Мне бы хотелось иметь возможность устанавливать верхний и нижний барьеры, но я пока не выяснил, как это сделать. Мы ценим любые предложения. Спасибо.
Анализ распределения частиц по размерам
Распределение частиц по размерам представляет особый интерес, поскольку с ним напрямую связаны многие другие свойства продукта. Это включает в себя сыпучесть и поведение материала при транспортировки (для сыпучих материалов), реакционную способность, абразивность, растворимость, поведение при экстракции и протекании реакции, вкус, способность к усадке, сжимаемость и многое другое. Анализы просты в выполнении и являются важным показателем качества продукции.
Анализ распределения частиц по размерам является установленной процедурой во многих лабораториях. В зависимости от материала образца и объема исследования для этой цели используются различные методы, например ситовый анализ, лазерная дифракция, динамический анализ изображений или динамическое светорассеяние. Как правило, анализируются суспензии, эмульсии и сыпучие материалы, в исключительных случаях также аэрозоли (спреи).
Обладая обширным пониманием сильных и слабых сторон каждого метода, Microtrac предлагает непревзойденный ассортимент технологий для анализа распределения частиц по размерам. Наши специалисты будут рады помочь найти правильное решение для вашего применения.
Microtrac MRB предлагает продукты для всех технологий анализа размера частиц.
Методы определения распределения частиц по размерам
Большинство образцов представляют собой так называемые полидисперсные системы, что означает, что частицы имеют не одинаковый размер, а разные размеры. Распределение частиц по размерам указывает процент частиц определенного размера (или в определенном интервале размеров). Эти интервалы также называются классами размеров или фракциями. Простой пример показан на рис. 1. Здесь смесь мелющих шаров была разделена по размеру: 5 мм, 10 мм, 15 мм и 40 мм.
Количественная оценка теперь может быть выполнена несколькими способами:
Таким образом, в зависимости от типа оценки (количество или масса/объем) получается очень различное распределение частиц по размерам для одного и того же образца. Некоторые анализаторы размера частиц обеспечивают распределение частиц по количеству (анализ изображений), другие-по массе (ситовый анализ) или по объему (лазерная дифракция). С помощью подходящей модели распределения могут быть преобразованы друг в друга. Одним из частных случаев является динамическое светорассеяние, в котором очень часто сообщается о распределении частиц по размерам на основе интенсивности. Это означает, что различные размеры представлены в соответствии с их вкладом в общую интенсивность светорассеяния. Это приводит к сильному представлению крупных частиц, так как интенсивность рассеяния уменьшается с размером в 10 6 раз.
Представление результатов распределения частиц по размерам
Распределение частиц по размерам может быть представлено как в табличной, так и в графической форме. Таблица на рис. 1 показывает это для мелющих шаров. Количество в каждой фракции представлено буквой p, индекс 0 означает «на основе количества», индекс 3 означает «на основе массы или объема».
Размер | Вес | P3 | Номер | P0 |
5 мм | 190 г | 25 % | 490 | 85,5 % |
10 мм | 190 г | 25 % | 64 | 11,2 % |
15 мм | 190 г | 25 % | 18 | 3,1 % |
40 мм | 190 г | 25 % | 1 | 0,2 % | Итого | 760 г | 100 % | 573 | 100 % |
Таким образом, описательным способом представления распределения частиц по размерам является гистограмма, где ширина полосы соответствует нижнему или верхнему пределу класса размеров, а высота полосы соответствует количеству в этом классе размеров. В технологии измерения частиц принято генерировать кумулятивное распределение из значений, зависящих от класса. Для этого величины в каждом классе измерений суммируются, начиная с наименьшей фракции. Это создает кривую, которая непрерывно увеличивается от 0% до 100%, «кумулятивную кривую». Как определяется кумулятивная кривая для ситового анализа, показано на рис. 2. Кумулятивные распределения частиц по размерам обозначаются буквой Q. Каждое значение Q(x) указывает количество образца, состоящего из частиц размером меньше x. Поскольку это количество, которое прошло бы через гипотетическое сито размера сетки x, этот тип распределения частиц по размерам также называется «процентом прохождения».
Иногда фракции также суммируются, начиная с самого большого размера частиц. Полученное распределение частиц по размерам представляет собой кривую, которая падает со 100% до 0%. Это обозначается 1-Q и является зеркальным отражением Q-кривой. Распределение 1-Q указывает для каждого значения x величину процента, который больше значения x. Распределение называется “процентом остатка”, поскольку оно указывает, какая часть общей пробы будет сохраняться на конкретном сите.
Параметры, полученные из распределения частиц по размерам
Многие статистические параметры могут быть получены из распределения частиц по размерам. Кумулятивное распределение особенно подходит для этой цели. Среди наиболее важных параметров, безусловно, процентили. Они указывают в каждом случае размер x, ниже которого находится определенное количество образца. Таким образом, процентили отвечают, например, на вопросы «Ниже какого размера находятся 10% самых маленьких частиц?» или «Больше какого размера находятся 5% самых больших частиц?».» Процентили могут быть рассчитаны непосредственно с кривой Q или 1-Q. Процентили обозначаются буквой d, за которой следует значение %. Таким образом, d10 = 83 мкм, d50 = 330 мкм и d90 = 1600 мкм означает, что 10% образца меньше 83 мкм, 50% меньше 330 мкм и 90% меньше 1600 мкм. Альтернативные обозначения: x10/50/90 или D 0.1/0.5/0.9 Значение d50 также называется «медианой» и делит распределение частиц по размерам на равные количества “меньших” и “больших” частиц. Обычно для распределения частиц по размерам указывается d10/d50/d90. Это позволяет легко охарактеризовать среднюю или центральную точку распределения, а также верхний и нижний концы с тремя значениями. Эта спецификация не всегда полезна, но обычно дает хороший обзор. Можно определить любое количество значений процентиля, например d16, d84, d95, d99 и т.д. Однако необходимо также обратить внимание на то, достаточна ли чувствительность метода измерения для надежного обнаружения процентилей, близких к 0% или близких к 100%. Значение d100 не определено четко и, следовательно, не имеет смысла. Если 100% частиц Продукты & Контакты
Microtrac предлагает широкий спектр инновационных анализаторов и технологий для анализа распределения частиц по размерам. Наши специалисты знают сильные и слабые стороны каждого метода и будут рады помочь в поиске правильного решения для вашего применения.