Uncertainty analysis

Последнее сообщение
Baglayka 29 7
Июн 17

Собственно вопрос, кто как с этим справляется.

Строете ли несколько моделей, в которых пытаетесь максимально расширить диапазоны. 

Пользутесь ли Uncertainty analysis плагином в петреле? Если да, то как справляетесь с построением принципиально разных фациальных моделей (data analysis там нельзя использовать)

Или же просто по старинке считаете Standard deviation для каждого параметра, а потом математичски получается P10 &P90?

У нас в последнее время это прямо хот топик, никто не может прийти к единому мнению. 

Интересно послушать различные мнения)

И.Ф. 22 13
Июн 17 #1

Baglayka пишет:

Строете ли несколько моделей, в которых пытаетесь максимально расширить диапазоны. 

Диапазоны чего? И зачем их расширять?

Из вашего описания несяно, что за задача стоит:

- Неопределенности в геомодели (т.е. надо каким-то образом охарактеризовать некоторое априорное распределение). Задача эта, на мой взгляд, часто решается в виде "художник так видит!",

- Или неопределенности в гидродинамической модели (охарактеризовать апостериорное распределение при условии заданной истории добычи). Эта задача по-легкому на сегодняшний день не решается. Можно делать только робкие приближения, вроде калибровки ансамбля моделей, вместо одной-единственной модели.

Baglayka 29 7
Июн 17 #2

Вопрос про геологические модели, с гидродинамическими инженеры потом сами пусть играют.

Описание и вправду кривое, но по-другому сформулировать затрудняюсь

При построении нескольких моделей можно руками по разному проинтерпретировать например тренды для фаций, или изменить пропорции, и это на выходе даст реально разные модели. Если просто менять вариаграммы то значительной разници не добиться. 

Задача стоит оценить неопределенность гелогической модеили. Художник так видит не подходит, инженеры хотят несколько принципиально разных моделей, которые не построить просто заменив сид. Вот и вопрос, строит ли кто нибудь реально независимые модели, или просто прикидывают разброс исходя из единственной реализации.

Надеюсь это хоть как-то прояснило вопрос. В голове каша- смесь русского и английского)))

GRR 657 8
Июн 17 #3

Вопрос действительно интересный, тут вы сами должны решить на определенном этапе степень детерминизма вашей модели, а то можно до бесконечности варианты перебирать.

Из того что видел - сначала ранжируется набор параметров в зависимости от степени неопределенности, анализ чувствительности модели к различным параметрам.

Затем определяются пределы вариаций параметров, запускается Монте-Крло анализ случайных комбинаций выбранных параметров с использованием анализа неопределенности в процесс менеджере петреля с выходом на объемы, далее результаты по реализациям распределяются в экселе (можно в петреле, но в экселе было удобнее) с целью выявления комбинаций для вероятности 10, 50, 90.

Подход довольно-таки формальный, я считаю, все равно много завист от тех пределов раногов, которые вы сами задали, не говоря уже о таких моментах, как фациальные тренды и др. 

А вообще, хотелось бы увидеть где-нибудь библиотеку с готовыми наборами для разных случаев в процесс менеджере для петреля, или как оно там обстоит (не приходилось иметь дело) в Роксаре.

Гоша 1201 17
Июн 17 #4

Современная спекуляция словом Uncertainty подменяет одним словом два важных и различных понятия - погрешность и изменчивость. Года три назад наткнулся на second order Monte-Carlo (MC2D). В двух словах - расширение обычного метода Монте-Карло на случай "мухи отдельно, котлеты отдельно" (разделить анализ погрешности/ошибок и анализ естественной изменчивости изучаемого объекта).

 

P.S> Непосредственно по одному из ваших вопросов: если брать "стандартное отклонение" - то это обычный анализ погрешности/ошибок. Часто бывает, что это стандартное отклонение или доверительный интервал для среднего. В этом случае получают оценки P10 и P90 для средней величины, а не P10 и P90 эмпирической функции распределения в целом.

Касательно "принципиально разных моделей": скорее всего, нужно брать принципиально разных геологов/седиментологов для независимого построения моделей одного и того же объекта.

Dorzhi 970 17
Июн 17 #5

Если геология принципиально отличается, то проще сделать три детерминистических модели - пессимистическую, базовую и оптимистическую. Потом в гидродинамической для каждой модели сделать uncertainty analysis. Будет три кластера моделей.

PetroleumEng 331 7
Июн 17 #6

Dorzhi пишет:
Если геология принципиально отличается, то проще сделать три детерминистических модели - пессимистическую, базовую и оптимистическую. Потом в гидродинамической для каждой модели сделать uncertainty analysis. Будет три кластера моделей.

Простой вопрос, зачем? Я думаю это простой способ уйти от ответственности, разбодяжить решение проблемы. После таких uncertainty analysis возникает вопрос а зачем все это если в любом случае ответ вроде бы как и не ответ на вопрос. Никто не пробовал сузить этот интервал а только наровил раздвинуть. Чуть что сказать что они укладываются в диапозон, их прогнозы правильны. Если не уложились в пределах одной сигмы то это провал, однозначно. Хотя и одну сигму можно растянуть, что мало не покажется.

VIT 1111 17
Июн 17 #7

PetroleumEng пишет:

Простой вопрос, зачем? Я думаю это простой способ уйти от ответственности, разбодяжить решение проблемы. После таких uncertainty analysis возникает вопрос а зачем все это если в любом случае ответ вроде бы как и не ответ на вопрос. Никто не пробовал сузить этот интервал а только наровил раздвинуть. Чуть что сказать что они укладываются в диапозон, их прогнозы правильны. Если не уложились в пределах одной сигмы то это провал, однозначно. Хотя и одну сигму можно растянуть, что мало не покажется.

Это вообще риторический вопрос нашей работы. Это одна сторона проблемы, но есть и другая в том что какой смысл давать один точный ответ и потом в него не уложиться, с точки зрения компании это ничем не лучше.  Должен быть баланс так как очень часто мы действительно не знаем как там что сложится и если мы можем это показать и предвидеть то это большой плюс. Так можно оценивать проекты с точки зрения их рисков vs rewards и более правильно подбирать себе портфель проектов.

Unknown 1640 17
Июн 17 #8

Гоша хорошо отметил, что надо отделять ошибку в оценке "модели" и ошибку в выборе самой модели.

Baglayka 29 7
Июн 17 #9

В горной промышленности принято строить 3 модели для оценки перспективности. Только одну прощитывают потом полностью, но строят таки три. Это дает уверенность в выборе инвистиций и тд В нефтянке все как-то запутанно и туманно для меня пока что.

Согласна что надо стараться разделять погрешности и неопределенности. Анализ чуствительности тоже делать надо обязательно, но в петреле все очень криво пока что.
У нас есть отдельная программа, в которую после построения одной модели вводим все результаты, вводим ожидаемые погрешности наблюдений, а так же стандартные отклонения для обьемов и тд. Потом по Монте Карло получаем тот самый разброс Р10-50-90. Многие согласны что такой подход не дает возможности оценить реальную возможность фундаментально другой геологической модели(наприме фациальная модель полностью другая) и что хорошо бы строить разные модели а не просто разные реализации одной модели. Но изза отсутсвия времени и желания такой метод имеет место быть в основном.
интересно это вообще часто задаваемый вопрос в ваших кругах, или все просто закрывают глаза и живут с одной моделью?

Unknown 1640 17
Июн 17 #10

Baglayka пишет:
В горной промышленности принято строить 3 модели для оценки перспективности. Только одну прощитывают потом полностью, но строят таки три. Это дает уверенность в выборе инвистиций и тд В нефтянке все как-то запутанно и туманно для меня пока что.

Согласна что надо стараться разделять погрешности и неопределенности. Анализ чуствительности тоже делать надо обязательно, но в петреле все очень криво пока что.
У нас есть отдельная программа, в которую после построения одной модели вводим все результаты, вводим ожидаемые погрешности наблюдений, а так же стандартные отклонения для обьемов и тд. Потом по Монте Карло получаем тот самый разброс Р10-50-90. Многие согласны что такой подход не дает возможности оценить реальную возможность фундаментально другой геологической модели(наприме фациальная модель полностью другая) и что хорошо бы строить разные модели а не просто разные реализации одной модели. Но изза отсутсвия времени и желания такой метод имеет место быть в основном.
интересно это вообще часто задаваемый вопрос в ваших кругах, или все просто закрывают глаза и живут с одной моделью?

Все дело в мотивации - что же надо в результате? Если цена проекта миллиарды, тогда разумно учесть любую вероятность , ведь петрель это всего лишь инструмент.

Ничто , кроме времени/бюджета не мешает построить несколько концепций и накрутить сотню реализаций по каждой.

Надо только осознать, когда и что потребно.

Dorzhi 970 17
Июн 17 #11

Простой ответ - для оценки риска. Uncertainty analysis это часть риск менеджмента.

PetroleumEng 331 7
Июн 17 #12

Dorzhi пишет:
Простой ответ - для оценки риска. Uncertainty analysis это часть риск менеджмента.

Спасибо за простой и правильный ответ. Почему-то все (в моей практике) нарявят использовать Р50 как наиболее вероятный сценарий (пародокс однако). Это наверное как 50/50 :) К слову из жизни, у одного геофизика учредители спросили какая вероятность найти нефть на структуре. Он ответил 50% на 50% :)

Следующий вопрос почему Р50 или кто то использует другие вариации как базовую (опорную) модель?

VIT 1111 17
Июн 17 #13

PetroleumEng пишет:

Dorzhi пишет:
Простой ответ - для оценки риска. Uncertainty analysis это часть риск менеджмента.

Спасибо за простой и правильный ответ. Почему-то все (в моей практике) нарявят использовать Р50 как наиболее вероятный сценарий (пародокс однако). Это наверное как 50/50 :) К слову из жизни, у одного геофизика учредители спросили какая вероятность найти нефть на структуре. Он ответил 50% на 50% :)

Следующий вопрос почему Р50 или кто то использует другие вариации как базовую (опорную) модель?

Возможно варианты. Для FDP скорее всего это будет P50, для exploration Mean. Если есть сильно разные интерпретации месторождения для FDP то иногда базовая модель может быть в районе P30-P50 (как более консервативная).

Baglayka 29 7
Июн 17 #14

У нас пытаются стандартизировать подход оценки рисков для любых проектов на стадии разведки и на стадии добычи. Для разведки никто модели не строит ( и зря конечно),там свой мудреный процесс (монте карло в чистом виде). И сейчас вот пытаемся проекты для которых есть полноценные модели оценить в том же стиле, и как-то ничего толкового не выходит.

Все и правду пытаются Р50 использовать. Но вопрос в том как это самое Р50 было получено.

rbildano 240 12
Июн 17 #15

Извините возможно за глупый вопрос, а почему б не использовать P90? Ведь получается с 90% вероятностью выйдет именно это значение или я ошибаюсь?

GRR 657 8
Июн 17 #16

rbildano пишет:

Извините возможно за глупый вопрос, а почему б не использовать P90? Ведь получается с 90% вероятностью выйдет именно это значение или я ошибаюсь?

а там объемы будет - ну очень маленькими

это не 90 процентов, что "будет вот так", а 90 процентов, что "вот эти уж малые объемы вы получите точно", чувствуешь разницу? %)

mne70let 73 14
Июн 17 #17

rbildano пишет:

Извините возможно за глупый вопрос, а почему б не использовать P90? Ведь получается с 90% вероятностью выйдет именно это значение или я ошибаюсь?

Например, если инфру планировать на p90, то 90% шанс, что ты в неё упрешься и будешь терять прибыль. А расшиваться обычно гораздо дороже, чем изначально строить на большие объемы.
Но на месте главного геолога я бы старался планировать на p90 - план по добыче бы выполнялся на много лет вперёд, можно не отказывать себе в исследованиях и прочих удовольствиях :)

В идеале, если планировать, разрабатывать, исследовать и моделировать правильно, диапазон неопределённостей должен с каждым годом добычи снижаться.

Мы на месторождении с 20 годами истории (даже при малой обводненности) по результатам адаптации модели на каждый новый год истории чётко видим, как p10 прижимается к p90.

PetroleumEng 331 7
Июн 17 #18

GRR пишет:

rbildano пишет:

Извините возможно за глупый вопрос, а почему б не использовать P90? Ведь получается с 90% вероятностью выйдет именно это значение или я ошибаюсь?

а там объемы будет - ну очень маленькими

это не 90 процентов, что "будет вот так", а 90 процентов, что "вот эти уж малые объемы вы получите точно", чувствуешь разницу? %)

GRR очень точно подметил. Кажется ответ ясен почему Р50 берется как наиболее вероятным. Самое наибольшее кейсов падает именно на Р50. Как вы знаете распределением является колоколом и пик выпадания одних и тех же кейсов является Р50. Вероятность Р90 осуществиться меньше 5%, так же как Р10. В то время как вероятность осуществиться сценарию кейса в пределах одной сигмы является 68%. Это больше 50% что является не случайным явлением.

Baglayka 29 7
Июн 17 #19

Цитата:

В идеале, если планировать, разрабатывать, исследовать и моделировать правильно, диапазон неопределённостей должен с каждым годом добычи снижаться. Мы на месторождении с 20 годами истории (даже при малой обводненности) по результатам адаптации модели на каждый новый год истории чётко видим, как p10 прижимается к p90.

Полностью согласна. Если раз в год проводить оценку то с каждым годом разброс будет становится все меньше и меньше. Но  для этого надо делать оценку одинкаво, придерживаться одних и тех же принципов, что бы сужать ту самую неопределенность. У нас же пока что все зависит от человека который делает эти рассчеты. Поэтому сравнивать числа с предыдущими годами бессмысленно. Вот отсюда и вопрос изначальный, как это правильно делать) 

PetroleumEng 331 7
Июн 17 #20

PetroleumEng пишет:

Вероятность Р90 осуществиться меньше 5%, так же как Р10.

Извиняюсь ошибка произошла. Вероятность осуществления Р90 и Р10 сценариев не меньше 5% а меньше 10%.

Даниил 27 11
Июн 17 #21

Господа) забавно читать все это. Занимаемся лет 7 уже наверно этим, и в компании - стало базовой процедурой. Все не (а)много интереснее ваших мнений. Посмотрите по терминам tdmo tdrm материалы. Сам в отпуске. В начале июля могу детальнее рассказать.

Baglayka 29 7
Июн 17 #22

Даниил пишет:
Господа) забавно читать все это. Занимаемся лет 7 уже наверно этим, и в компании - стало базовой процедурой. Все не (а)много интереснее ваших мнений. Посмотрите по терминам tdmo tdrm материалы. Сам в отпуске. В начале июля могу детальнее рассказать.

Будем ждать. А где посмотреть про термины? Гугл как-то не понял о чем реч?

Гоша 1201 17
Июн 17 #23

К словам Даниила.

TDRM - это методология компании BP. Есть серия SPE статей на эту тему от М.Литвака (M.Litvak) сотоварищи. Top-Down Reservor Modelling.

Антагонисты - BURM. Bottom-Up Reservoir Modelling - это, когда сразу погружение вглубь до мельчайших деталей с желанием получить наиболее детальные модели.

Обе философии имеют право на жизнь.

SergeyT 114 11
Июн 17 #24

PetroleumEng пишет:

 GRR очень точно подметил. Кажется ответ ясен почему Р50 берется как наиболее вероятным. Самое наибольшее кейсов падает именно на Р50. Как вы знаете распределением является колоколом и пик выпадания одних и тех же кейсов является Р50. Вероятность Р90 осуществиться меньше 5%, так же как Р10. В то время как вероятность осуществиться сценарию кейса в пределах одной сигмы является 68%. Это больше 50% что является не случайным явлением.

на самом деле P50 - это конкретный кейс, по обе стороны от которого лежит одинаковое количество кейсов и вероятность всех кейсов одинаковая (на то оно и монте карло, чтобы сгенерировать кучу равновероятных реализаций). Поэтому нельзя далее работать с ним (и с любым другим тоже). Поясню:

Если говорить про запасы - делаем много реализаций геологической модели, стороим гистограмму запасов, получаем оценку запасов P50, это означает, что с вероятностью 50 процентов запасов может быть больше и с вероятностью 50 процентов может быть меньше эта штука ничего не означает. Проблема кроется в том, что P50 оцениваем по объему запасов, а в дальнейшую работу берем целую модель P50, чтобы делать проект разработки. Этого нельзя делать, потому что, если взять соседние от Р50 реализации модели, то суммарно запасы будут почти одинаковые, но по площади их распределение может очень сильно различаться. Поэтому нельзя брать одну модель P50 или любую другую реализацию в дальнейшую работу. Нужно пользовать сразу кучу равновероятных. У буржуев эта метода называется optimization under uncertainty. На ванпетро миллиард бумажек на эту тему. например "Field Development Optimization of Eastern Siberian Giant Oil Field Development under Uncertainty" - классический пример TDRM. У ТНК-БП в восточной сибири такое количество гигантских месторождений, что нет шансов угадать месторождение)))

даже если нужно принять решение только на основании оценки запасов, то нельзя брать P50, так как с вероятностью 50 процентов запасов может быть больше и с вероятностью 50 процентов может быть меньше. Таким образом каждый второй раз мы будем ошибаться - это очень плохо.

даже в быту мы не уважаем P50 - представьте, если бы мы каждый раз брали билеты в отпуск с пересадкой, так чтобы успеть на пересадку с вероятностью 50 процентов - это же ужас - мы бы каждый второй раз опаздывали на пересадку.

Но есть и хорошая новость, вместо тривиальной гистограммы по числам, можно делать тоже самое, только с картами и объемами. вот примеры на тему использования кучи реализаций моделей и карт:

1. Как построить карту вероятности наличия антиклинали - нужно по каждой реализации структурной карты построить индикаторную карту 0 - точка вне антиклинали, 1 - внутри. осреднив индикаторные карты получим карту вероятности наличия антиклинали по площади

2. Как оценить веротяность наличия нефтенасыщенных толщин более 10 метров по площади. данная карта тоже легко строится, если из каждой реализации геомодели вытащить карту нефтенасыщенных толщин.

Для всего этого дела я пользую воркфлоу в петрел, чтобы руками не перелопачивать кучу карт.

DmitryB 458 15
Июн 17 #25

Очень актуально для гринфилда. Сами сталкивались с такой проблемой. Тут по обстановке надо оценивать, case-by-case. Сразу оговорюсь, что я reservoir engineer, а не геолог и не моделер. Наши моделеры использовали SGS и все реализации были в пределах +/-5% по обьемам (OOIP). Единственное, что давало более интересный разброс, так это разные сейсмические горизонты (у нас были 3D-данные на всю модель). Это одно месторождение. В другом хороший разброс давало количество воды (как по объемам так и по добыче). Так как было довольно много IHS и его можно было по-разному интерпретировать. Ну и везде, конечно, рулил апскейлинг вертикальной проницаемости, так как это было SAGD. По OOIP никакой разницы, а по добыче - ого-го! Так что никому лучше вас не знать где у вас самые слабые места, что будет если применить корреляцию, которая идеально подходит под один интервал, или ту, которая хуже для одного, но лучше для другого интервала и т.д. Где у вас вариограммы хорошие, а где "кривые". Ах да, чуть не забыл. Мы еще делали карты плотности данных для оценки модели в разных местах. Между прочим, по результатам бурения 25 горизонтальных пар совпадение с моделью было 95%:)

PetroleumEng 331 7
Июн 17 #26

SergeyT, в общих чертах согласен с вами. Многомерную задачу (4Д) преводя в одномерную задачу имеет свои последствия, теряем понимания всей сложности задачи. Конечно все кейсы являются равновероятными, но когда 10 раз попадает кейс с запасами N и 1 раз с М, какая вероятность что будет вариант с запасами М (имеется ввиду только запасы)? Если отбросить все и только сконцентрироваться на запасах, то реальная вероятность запасов в Р50 более высокая чем при Р10 или Р90.  CDF подразумевает накопленную кривую, где суммируется с меньшего к большому. По ней все правильно Р50 это 50% кейсов с запасами не более Р50, но с таким же успехом я могу отрезать кусок с 50% кейсов по середине или с конца и сказать что все 50% кейсов находятся в этом диапазоне.

В идеальном случае все геологические модели должны быть заматчены гидродинамиками, тем самым отсеевая и сужая диапозон вероятности. Но так как это не реально берут какой нибудь по средине и адаптируют ее. Конечно я понимаю что вы против этого, но есть ли у вас алтернативное предложение? Думаю нет, но результаты должны быть.

VIT 1111 17
Июн 17 #27

SergeyT пишет:

на самом деле P50 - это конкретный кейс, по обе стороны от которого лежит одинаковое количество кейсов и вероятность всех кейсов одинаковая (на то оно и монте карло, чтобы сгенерировать кучу равновероятных реализаций). Поэтому нельзя далее работать с ним (и с любым другим тоже). Поясню:

Как говорил один уважаемый человек это все intellectual acrobatics.

P50 работает хорошо и правильно, обычно проблема в том как определить P50 case, какую метрику использовать. Это могут быть P50 запасов, P50 NPV, P50 макс добычи т.д. и т.п. В моей практике обычно выбираешь группу конкретных P40-P60 сценариев по самому важному критерию (чаще всего запасы, иногда кол-во скважин или экономика). Потом смотришь остальные важные метрики чтобы они не сильно выбивались от среднего. После этого выбираешь конретный P50 сценарий, аналогично для P10 и P90, но там вторичные параметры уже будут только в P10-P50 попадать.

Baglayka 29 7
Июн 17 #28

VIT пишет:

Как говорил один уважаемый человек это все intellectual acrobatics.

P50 работает хорошо и правильно, обычно проблема в том как определить P50 case, какую метрику использовать. Это могут быть P50 запасов, P50 NPV, P50 макс добычи т.д. и т.п. В моей практике обычно выбираешь группу конкретных P40-P60 сценариев по самому важному критерию (чаще всего запасы, иногда кол-во скважин или экономика). Потом смотришь остальные важные метрики чтобы они не сильно выбивались от среднего. После этого выбираешь конретный P50 сценарий, аналогично для P10 и P90, но там вторичные параметры уже будут только в P10-P50 попадать.

В целом согласна, логика именно такова. Но вот как заставить модельеров строить несколько моделей, что бы было потом из чего выбрать?

Зачастую мы строим модель, и считаем что это то самое Р50. Не проверяя остальные варианты...

Знаю что многие конторы сейчас очень усиленно работают в этом направлении. Но как заставить наших кормфеев пробовать что то новое- непонятно. 

Antalik 1673 17
Июн 17 #29

SergeyT пишет:

на самом деле P50 - это конкретный кейс, по обе стороны от которого лежит одинаковое количество кейсов и вероятность всех кейсов одинаковая (на то оно и монте карло, чтобы сгенерировать кучу равновероятных реализаций). Поэтому нельзя далее работать с ним (и с любым другим тоже).

Нет, P50 - это не конткретный кейс. P50 по запасам например - это производная величина.
Реализации равновероятны, но любые производные величины (запасы например) нет. Можно работать с отдельными реализациями - как с "типичной" репрезентаций производной величины.

SergeyT пишет:

1. Как построить карту вероятности наличия антиклинали - нужно по каждой реализации структурной карты построить индикаторную карту 0 - точка вне антиклинали, 1 - внутри. осреднив индикаторные карты получим карту вероятности наличия антиклинали по площади

2. Как оценить веротяность наличия нефтенасыщенных толщин более 10 метров по площади. данная карта тоже легко строится, если из каждой реализации геомодели вытащить карту нефтенасыщенных толщин.

Для всего этого дела я пользую воркфлоу в петрел, чтобы руками не перелопачивать кучу карт.

По моему, осреднения реализаций всегда дают те или инные начальные данные, которые вы задаете в геостатистических алгоритмах. Я всегда себе представлял что при геостатистическом распределении значения имеет 2 составляющие - выбранный детерминистический алгоритм + стохастическая (вероятностная) часть.  При осреднение "многих" реализаций стохастическая часть обнуляется. И "средняя" карта это результат детерминистического алгоритма.

И.Ф. 22 13
Июн 17 #30

Antalik пишет:

При осреднение "многих" реализаций стохастическая часть обнуляется. И "средняя" карта это результат детерминистического алгоритма.

Справедливости ради, при осреднении получается среднее значение стохастической составляющей. Оно не обязательно равно нулю, и вполне себе может быть нетривиальным, его может быть невозможно по-простому оценить влоб, исходя из входных данных детерминистического или стохастического алгоритма. (Но это зависит от конкретной задачи, конечно).

 

И.Ф. 22 13
Июн 17 #31

Насчёт равновероятных реализаций. На самом деле, если моделируется случайная величина (или сл. вектор, или сл. грид) согласно какому-либо распределению, то реализации не будут равновероятными, кроме случая равномерного распределения.

Взять, например, одномерное нормальное распределение: точки близко к среднему будут выпадать часто, точки далеко от среднего - редко, хотя все они - полноправные точки из данного распределения.

Но в случае многомерного нормального распределения (а геостатистика по большому счету именно этим и занимается) оказывается, что моделируемые точки (модели, реализации,...) группируются в основном не около среднего, а заполняют довольно тонкую эллиптическую оболочку на некотором расстоянии от среднего. Скажем, для нормального распределения с нулевым средним и единичной ковариационной матрицей N(0, I) моделируемые точки будут практически все лежать в сферической оболочке радиуса m, имеющей толщину sqrt(8*m), где m - размерность пространства (скажем, m - число ячеек в гриде).

И вот в этом смысле и получается, что реализации случайного вектора из многомерного нормального распределения являются "равновероятными". То есть у них есть некоторая одинаковость, но в строгом смысле они не равновероятны.

По этому вопросу вот статья, например: www.searchanddiscovery.com/pdfz/abstracts/pdf/2014/90172cspg/abstracts/ndx_bourg.pdf.html

 

 

И.Ф. 22 13
Июн 17 #32

VIT пишет:

P50 работает хорошо и правильно, обычно проблема в том как определить P50 case, какую метрику использовать. Это могут быть P50 запасов, P50 NPV, P50 макс добычи т.д. и т.п.

Поддерживаю. P50 - это не конкретный кейс, а точка на одномерной функции распраделения.

Реализации модели - это реализации многомерного случайного вектора (вектор = значения пористости и проч. в гридах). Чтобы говорить о P50, надо сначала перейти к какой-либо одномерной величине: значению пористости в конкретной ячейке, запасам по модели, накопленной добычи и т.д.

Я лично не вижу какого-то смысла искать, какая модель (или модели) соответствуют выбранной точке P50. (К примеру, может быть так, что модели "из P50 по запасам" и модели "из P50 по добыче" не имеют ничего общего). Значение P50 скорее дает нам информацию об одномерной величине, которую мы рассматриваем. Это удобный способ показать на графиках, что из себя представляет распределение этой случ. величины - отобразив её P10, P50, P90.

С другой стороны, если плотность распределения довольно симметричная, то P50 (медиана) близка к среднему и к моде, и этим может оправдан выбор модели "из P50" в качестве среднего представителя. Но в задачах с нелинейностями с этим надо быть осторожным.

И.Ф. 22 13
Июн 17 #33

Baglayka,

Так у вас вопрос состоит в том, чтобы кроме обычного SGS рандомизировать еще и тренды, и радиусы вариограмм? Вобщем-то на здоровье, если есть уверенность, что по трендам, и радиусам действительно инфы недостаточно, и разумнее их брать как случайные величины. А не потому, что просто захотелось что-нибудь.

Если охота вообще другую модель получить, то, как выше написали, надо разных людей нанимать модели строить. Или SGS на объектное моделирование заменить к примеру.

Или вопрос в том, как в Петреле это реализовать?

У проблемы, как из множества полученных реализаций/моделей выбирать представительные, есть дешевые решения:

- По Р50 по запасам,

- По Р10, Р50, З90 по запасам,

Более уместными (и если охота заморочиться) могут быть варианты, когда на множестве моделей делается кластеризация, какое-нибудь SVM classification и т.д. В итоге получается небольшое количество представителей (возможно, с весами), и с ними уже инженеры могут работать. Но в этих вопросах я не эксперт.

VIT 1111 17
Июн 17 #34

И.Ф. пишет:

Я лично не вижу какого-то смысла искать, какая модель (или модели) соответствуют выбранной точке P50. (К примеру, может быть так, что модели "из P50 по запасам" и модели "из P50 по добыче" не имеют ничего общего). Значение P50 скорее дает нам информацию об одномерной величине, которую мы рассматриваем. Это удобный способ показать на графиках, что из себя представляет распределение этой случ. величины - отобразив её P10, P50, P90.

Чаще всего наблюдается довольно сильная корреляция между метриками которые нас интересуют, так что выбор одного P50 case оправдан. Мы же не статистикой здесь занимаемся, а прикладными задачами. Но в общем случае да, это проблема.

VIT 1111 17
Июн 17 #35

И.Ф. пишет:

Насчёт равновероятных реализаций. На самом деле, если моделируется случайная величина (или сл. вектор, или сл. грид) согласно какому-либо распределению, то реализации не будут равновероятными, кроме случая равномерного распределения.

Я думаю это вопрос определений, что называть реализацией. Если реализация это значение запасов то, конечно, они не равновероятны. Если реализацией называть просто дискретный случай модели построенной по случайным параметрам по осям X распределений то они все равновероятны в том смысле что каждая модель встречается один раз (определение SergeyT). Первое определение все же ближе к статистике так как нам не интересно как именно мы бросаем кости, а важен результат.

ak_marat 4 7
Июл 17 #36

Внесу свои пять копеек:

На практике наибольшее влияние на in-place вносит GRV и его зачастую не вносят в uncertainty analysis.

pawlo 11 9
Июл 17 #37

Коллеги, вставлю и свои пять копеек. Столько лет прошло, а вижу что мало что изменилось.

Наверное сначала необходимо отметить, что у задачи оценки неопределенности геологической модели есть несколько отличительных технических особенностей, связанных с подходом к моделированию, основной задачей исследования, оспользуемом программном обеспечении, степени изученности месторождения или структуры, особенностями геологического строения и т.д. и т.п. То есть для начала я бы отранжировал проекты по степени изученности и наличию релевантных геолого-геофизических материалов. Потому что расчет MEFS для Prospects при поисково-оценочном бурении это одно, а структурные неопределенности для сектора под постановку башмака колонны и проводку горизонталки это из другой оперы.

Как уже верно заметили выше, полномасштабное моделирование всех сценариев в Петреле либо не выполняется в виду непонимания, либо крайне трудоемко (даже расчет 10-ти разных реализаций параметров Ф, Sw и литологии это уже 1000, а если еще и ранги вариаграмм варьировать, то можно просто закопаться). При этом взятие тех же параметров в лоб и перемножение распределений в Экселе/CrystallBall дает адский разброс итоговых значений, потому что по факту у вас нет spatial constraints. Это очень примитивный реалити-чек, дающий в лучшем случае моду по запасам + кривую оценку Р01.

Расскажу, какие подходы использовались мной в уже достаточно старой версии Петреля (кажется 2012 или 2013), где модуль структурных неопределенностей работал неуверенно и с багами, периодически вылетая. Из-за довольно сложного структурного-тектонического строения месторождения и разобщенности залежей, оценка GRV имела довольно большой вес, а наличие приличного фонда старых скважин выступало в качестве некоего ограничителя. Оставлю подробности расчета карты сигма, замечу только, что из-за обилия разломов (которые фиксированы по-сути) и большого количества залежей разобщенных пространственно (блоковое строение) полноценного анализа структурных неопределенностей не вышло. Варьировался ГВК где было недостаточно информации. Вариограмма бралась из карты + экспертно, на скважинах неопределенность кровли пласта = 0. Реализации без свойств считаются довольно быстро, семплинг в несколько тысяч это ночь расчетов на не сильно мощной рабочей станции и вуаля, у нас есть представление о стат параметрах распределения GRV по каждому блоку.

Переходя к свойствам замечу, что вначале выполнялся полноценный sensitivity analysis, для выявления максимально влияющих параметров на разброс значений, коим в итоге оказалась пористость (из-за ее вторичной природы и сильной вариации по площади). Ни ранги вариограмм, ни Sw такого влияния не имели, а фациальная модель принималась условно единой (выделить разные фации не представлялось возможным из-за отсутствия репрезентативных данных, да и сама седиментология целевого пласта не подразумевала сильной начальной изменчивости, только эффективные толщины менялись в довольно широких пределах). На каждый параметр не менее 50 реализаций (лучше 100+, но это отдельный вопрос), семплинг пространства обязательно latin-hypercube.

Критерием выбора реализации для передачи в ГДМ были близость к Р50-Рmean по запасам, близость к Р50 по поровому объему и визуальный контроль пространственного распределения коллектора (!). Расчитанные вариации GRV просто держались в уме. Результат мучений - изменение ковра бурения (отмена бурения 2-х высокорисковых скважин, изменение FDP), оптимизация текущей разработки месторождения и программы мониторинга добычи, общее снижение рисков проекта, перенос компрессии и т.д. 

Вторую часть, как это должно быть по-хорошему, на мой взгляд напишу чуть позже.

 

 

ak_marat 4 7
Июл 17 #38

pawlo пишет:

Вторую часть, как это должно быть по-хорошему, на мой взгляд напишу чуть позже.

Ждем-с

pawlo 11 9
Июл 17 #39

Так как анализ неопределенностей в геологической модели можно в первом приближении рассматривать как меру нашего незнания об особенностях геологического строения целевого пласта и параметров заполняющих флюидов, то сразу хотелось бы отметить две, на мой взгляд, важные вещи:
1) основной задачей геолога-модельера является адекватная оценка диапазонов основных параметров на основании всех имеющихся материалов, выработка детального комплекса мер по их сужению, ну и выдача ключевых геологических рисков по проекту.
2) необходима достаточно подробная классификация рисков и свойств исследуемого объекта, для точного понимания где мы находимся, но об этом надо подробнее.

Если касательно первого пункта возможны разве что некие менеджерские уловки, такие как желание начальства прикрыть себе пятую точку крайне широким диапазоном значений (ведь люди на ступень выше зачастую разбираются в тонкостях подсчета запасов еще хуже), то второй пункт это в обязательном порядке попытка квантификации и ранжирования на основе многолетнетнего накопленного опыта, желательно командой геологов с разнообразным опытом. Экспертиза последнего действия в иностранных компаниях называется peer/assurance review (названия могут отличаться), хотя мы то конечно понимаем, что продать внутри можно практически все что угодно.

Вообще давно известно, что мыслить вероятностными диапазонами обычному человеку крайне трудно, есть достаточно небольшое количество прикладных областей, где это действительно нужно. Наверное поэтому до сих пор есть истории про экономистов, которым не хватает запасов и они просят заложить в бюджет следующего года добычу Р60. Или практически полное отсутствие вероятностного подхода при официальном подсчете запасов и сдаче работ в ГКЗ (давно не следил за ситуацией, но несколько лет назад дела обстояли именно так).

Детальный воркфлоу писать слишком долго, поэтому я не нашел ничего лучше, чем показать общую вариативность задачи на примере нескольких кейсов и потом кратко это дело подитожить.

Кейс номер 1. Вы крупная международная компания и открыли новое месторождение в одной из стран Персидского залива. В процессе работ применялся классический стадийный подход к ГРР, а вскрытый целевой пласт большой мощности с хорошими ФЕС. Все, у вас рисков с геологической стороны практически никаких нет, какую бы вы модель строения не выдали, ТЭО проекта однозначно положительное, все проблемы лежат в плоскости переговоров по добычному контракту, геополитических рисков и тд.

Кейс номер 2. Вы работаете на арктическом шельфе Норвегии, где обычно закатывают всю площадь ЛУ современной 3Д сейсмикой с геостримером. Фонд разведочных скважин невелик, расстояния большие, но в них прописан полный каротажный комплекс. Для верхних целевых горизонтов сейсмогелогия благоприятная и вы отчетливо видите триасовые каналы и другие сейсмоморфологические признаки седиментационной системы. После ТЭ расчетов выясняется, что проект из-за больших апфронт капексов находится на грани рентабельности на полный цикл развития. Вы год строете крайне детальную геологическую модель с учетом региональных представлений, палеотектонических реконструкций, седиментологической модели и интеграции результатов стохастической инверсии в литого-фациальную модель. Делаете сценарный анализ, добавляете апсайда от сателлитов, слегка меняете программу разработки и концепцию обустройства, вам помогает deflation capture. В итоге менеджмент докладывает наверх, что breakeven price по проекту стал 40$/bbl Brent, FID принят, почти все довольны.

Кейс номер 3. Вы сотрудник крупной дочки, разрабатывающей спутник Уренгоя. Ачимовка, глубоко, АВПД и газоконденсат. На первых этапах разработки от неопределенностей по запасам сильно зависит профиль добычи и этапность ввода мощностей обустройства. Вы аккуратно считаете все неопределенности в системе пласт-скважина-поверхностная инфраструктура, оптимизируете освоение месторождения, потихоньку учитесь бурить длинные горизонтальные скважины для разработки целевых объектов на невысокой депрессии, все довольны.

Кейс номер 4. Вы в середине двухтысячных удачно продали (незадолго до этого купленные) нефтяные активы одному из олигархов, а сейчас решили посмотреть что есть по дешевке в Урало-Поволжье. Для заданного ЛУ ничего кроме паспортов структур по 2Д не было, поэтому геологическая служба посчитала вам cream-curve по всем стратиграфическим объектам с учетом информации по всем соседним месторождениям, прикинули MEFS и NPV проекта с учетом вероятности успеха. Вы почесали голову, ничего не поняли и решили не покупать актив. Почти все довольны.

Кейс номер 5. Вы на последние деньги купили ЛУ в бассейне Пермиан, пошли в банк за кредитом на бурение, получили его, наняли сервис и консультантов, вам предложили полноценное сопровождение бурения на основе информации о тысячах вертикальных и горизонтальных скважин вокруг. Вы согласились, проводка и освоение первой скважины прошли успешно, однако через пару месяцев цена на нефть резко упала и в итоге банк забрал актив за долги. Теперь это его проблемы.

Кейс номер 6. Вы занимаетесь ГРР на отдаленном шельфе, априорной информации крайне мало, вы строите свои предположения об особенностях строения региона преимущественно по сетке 2Д регионального этапа. Ваша задача аккуратно оценить ресурсную базу и фонд перспективных структур с учетом принятой модели геологического строения, предполагаемых высот заполнения ловушек, результатов бассейнового моделирования и т.д. В итоге на аудит приходят известные в отрасли товарищи и говорят, что у них есть своя методика подсчета ресурсной базы. Путем долгих мучений и согласований параметры распределений и центрированные значения примерно сходятся, все довольны.

Кратко выводы. Разброс итоговых значений запасов УВ очень сильно будет зависеть от текущего этапа изучения ЛУ и степени изученности бурением, например по разбуренным площадям вариация рангов вариограмм может давать минимальные изменения запасов и их значение будет существенно только для краевых и неразбуренных участков. Разброс также будет зависеть от благоприятности сейсмогеологии и наличию soft constraints в виде прогнозных кубов свойств (литологии, пористости и т.д.). Видел примеры с перестрелом 3Д сейсмики и значительным улучшением прослеживаемости бобриковских врезов. В обязательном порядке надо учитывать геологическую информацию по соседним участкам, например для тех же сланцев это вырождается в статистический прогноз свойств при бурении даже без пилота, а по старым регионам дает хорошую аппроксимацию чего стоит ожидать даже без детальных исследований. Ну и конечно по месторождениям с добычей просто обязан присутствовать лупинг, в последних версиях Петреля есть встроенный простой аналог фронтсима для отсекания заведомо не подходящих реализаций, я пока не работал, но обязательно потестирую.

В общем если что забыл, то допишу, но тема необъятная.

 

 

Артур85 93 15
Июл 17 #40

Antalik пишет:

По моему, осреднения реализаций всегда дают те или инные начальные данные, которые вы задаете в геостатистических алгоритмах. Я всегда себе представлял что при геостатистическом распределении значения имеет 2 составляющие - выбранный детерминистический алгоритм + стохастическая (вероятностная) часть.  При осреднение "многих" реализаций стохастическая часть обнуляется. И "средняя" карта это результат детерминистического алгоритма.

Полностью согласен, что как не варьируй тренды, вариограммы и т.п., если жестко результаты при этом завязаны на входные данные, то в любом случае будет получена средняя температура по больнице. И в анализе чувствительности подобные входные параметры показывают влияние на запасы в пределах 1 процента. При подобных подходах существенное влияние на запасы оказывают только структура (неопределенности структурных построений из кросс-валидации) и положение контактов.

А касательно геостатистического распределения свойств, здесь ситуация такая, что мы действительно имеем 2 составляющие (детерминистическая и стохастическая). И при осреднении реализаций действительно стохастическая составляющая нивелируется, а вот детерминистическая не остается, а вырождается (это относится только к дискретным свойствам, для непрерывных - без вырождения). Это хорошо начинает наблюдаться при увеличении количества реализаций. Связано это с тем, что вероятность выпадения в определенной ячейке определенного свойства всегда больше или меньше 50%. Если для определенной точки (ячейки) вероятность выпадения свойства 0 (при возможных только 0 или 1), скажем, 65%, то с существенным увеличением количества реализаций алгоритм "most of" эту ячейку обнулит. А ячейку с вероятностью выпадения этого же значения в 35%, с увеличением количества реализаций (>2), алгоритм присвоит значение 1.

AGA 740 12
Июл 17 #41

Мне кажется у нас в РФ это работа ради работы для того, чтобы показать красивые графики. А выхлопа никакого. Решение о бурении в самую жирную точку это не поменяет =)

 

GRR 657 8
Июл 17 #42

AGA пишет:

Мне кажется у нас в РФ это работа ради работы для того, чтобы показать красивые графики. А выхлопа никакого. Решение о бурении в самую жирную точку это не поменяет =)

Открою страшную тайну - оно и не у нас местами много где так.

А там, где не так (из того что сам видел) - напоминает переливание из пустого в порожнее с ускользающим смыслом происходящего, анализ ради анализа, да.

AGA 740 12
Июл 17 #43

GRR пишет:

AGA пишет:

Мне кажется у нас в РФ это работа ради работы для того, чтобы показать красивые графики. А выхлопа никакого. Решение о бурении в самую жирную точку это не поменяет =)

Открою страшную тайну - оно и не у нас местами много где так.

А там, где не так (из того что сам видел) - напоминает переливание из пустого в порожнее с ускользающим смыслом происходящего, анализ ради анализа, да.

У буржуинов как правило все равно исследовая, свежая сейсмика, манометры глубинные и т.д. Есть, скажем так, хоть какие то априорные точки. Можно хоть на что-то упор сделать.

У нас же - месторожение 150 скважин, два исследования керна, 4 поверхностные пробы (из них две совсем не пригодные), 4 купола, контакт не известен, сейсмика 67 года, 6ГР и МЭР не бьются на миллионы... Не до жиру.

При этом все равно какие то монтекарло херачат. Лапоть туда, лапоть туда..

Unknown 1640 17
Июл 17 #44

AGA пишет:

У нас же - месторожение 150 скважин, два исследования керна, 4 поверхностные пробы (из них две совсем не пригодные), 4 купола, контакт не известен, сейсмика 67 года, 6ГР и МЭР не бьются на миллионы... Не до жиру.

При этом все равно какие то монтекарло херачат. Лапоть туда, лапоть туда..

Так "монтекарло" именно для таких случаев и ценен.

AGA 740 12
Июл 17 #45

Unknown пишет:

AGA пишет:

У нас же - месторожение 150 скважин, два исследования керна, 4 поверхностные пробы (из них две совсем не пригодные), 4 купола, контакт не известен, сейсмика 67 года, 6ГР и МЭР не бьются на миллионы... Не до жиру.

При этом все равно какие то монтекарло херачат. Лапоть туда, лапоть туда..

~~Так "монтекарло" именно для таких случаев и ценен.

~~И согласен и нет. Для гринфилдов можно, для убитых и запущенных месторождений не вижу смысла.

Хорошую презу нашел. Для тех, кто не шарит в этом (таких как я =) ) очень полезная - http://www.geokniga.org/bookfiles/geokniga-analiz-neopredelennostey-i-ocenka-riskov-pri-podschete-zapasov-na-raznyh-sta.pdf

 

Unknown 1640 17
Июл 17 #46

AGA пишет:

~~И согласен и нет. Для гринфилдов можно, для убитых и запущенных месторождений не вижу смысла.

ну как тут можно что-то возразить :)

Go to top