О размерности геологической сетки по вертикали

Последнее сообщение
FullChaos 834 16
Авг 11

В кругу геологов 3Д-модельеров и у смежных специалистов успешно культивируется миф о том что размер сетки по Z должен быть 0,2 м. Кем первоначально он был высказан я не знаю, да и вряд ли кто-то может это сказать. Но при этом большиство людей аргументируют свой выбор шагом записи ГИС, абсолютно забывая, что это всего лишь шаг, а он теоретически может быть хоть 1 мм. Мало кто почему то вспоминает про разрешающую способность скважинных геофизических приборов. А она зачастую при стандартном комплексе не превышает 0,6-0,8 м. Т.е. это те пропластки, которые реально можно выделить.

Также в метрологии есть такое понятие, что погрешность прибора не может быть более половины шкалы его деления. Тем самым уже вырисовывается некое обоснование размерности ячеек по Z. Необходимо построить гистограмму мощности выделеных пропластков в скважинах, найти минимальное значение (при этом единичные минимальные значения лучше игнорировать) и разделить на два.

Ещё раз, но с другой стороны - если мы имеем по интепретации минимальные пропластки мощностью 0,8 метров, то это значит это тот минимум, который можно выделить при данном комплексе в данном разрезе. В реальности ( если взгялнуь  на керн) чередование более часто, но мы этого не видим и поэтому не зачем мельчит модель.

Критерием корректности выбора размерности сетки при этом будет как обычно сохранение объемов литотипов (коллектора) в гриде по отношению к скважинным данным и кросплот эффективных толщин "скважины-3Д грид."

Celebrity 1578 16
Авг 11 #1

говорят что современные методы ГИС могут выделть пропластки до 0.1 метра...может конечно также миф...

Еще часто оперируют якобы выделленными системами микротрещин, которые могут иметь размеры до дестяков миллиметров. Хотя думаю в большинстве случаев просто исходят от шага дискретизации каротажных кривых, который как правило и составляет -0.2.

вообще я чаще встречал выбор размерности в 0.4-0.5 метра. Толщина в 0.2 метра не логична и со стороны того, что большая часть гео моделей потом проходит операцию перемасштабирования. Те полюбас при апскелинге выделленные тонкие пропластки улетят фанеркой над Парижом.

Закревский вообще сооветует отталкиваться от статистики значений общих толщин (среднее+стандартное отклонения, сумма делится на среднее значение между величиной отсчета по каротажу (0.1 или 0.2) и величиной минимальной мощности пропластков). Мне этот метод пока более импанирует так как дает адекватные результаты. 

softland 277 15
Авг 11 #2

Минимальная мощность пропластка (колллектора либо неколлектора) и не меньше 0,4. Можно прибавить 25%, всё равно проявится.

Но я ещё не разу не сталкивался с современными высокоразрешающими комплексами ГИС.

А вот в книжках Закревского, там ведь одна экспертиза, подскажите в какой из двух книжек у него метод описан со статистикой.

Celebrity 1578 16
Сен 11 #3

он описан в методичке по петрелю....

Celebrity 1578 16
Сен 11 #4

Он описан в методичке по петрелю....

sander 294 12
Окт 11 #5

я думаю все согласны что в природе существуют пропластки толщиной не только равной разрешающей способности скважинных геофизических приборов но и с толщиной 0,2м, поэтому при стохастическом моделировании например литотипов например методом идикаторов или каким либо другим будь то белтс, композит или еще что-то мы при разных равновероятносных реализациях получим разную случайную переменную, минимальная толщина которой определяется размерностью грида, поэтому наверно есть смысл полагать что размерность сетки влияет на результат моделирования возможно и в ничтожно малой степени но все же.

Из этого делаю вывод что если вычислительные возможности машины позволяют просчитать мелкий грид модели  - надо делать.

Unknown 1640 17
Окт 11 #6

sander пишет:

я думаю все согласны что в природе существуют пропластки толщиной не только равной разрешающей способности скважинных геофизических приборов но и с толщиной 0,2м, поэтому при стохастическом моделировании например литотипов например методом идикаторов или каким либо другим будь то белтс, композит или еще что-то мы при разных равновероятносных реализациях получим разную случайную переменную, минимальная толщина которой определяется размерностью грида, поэтому наверно есть смысл полагать что размерность сетки влияет на результат моделирования возможно и в ничтожно малой степени но все же.

Из этого делаю вывод что если вычислительные возможности машины позволяют просчитать мелкий грид модели  - надо делать.

размерность должна соответствовать разрещающей способности используемых данных, все остальное сугубо субъективное "упражнение для мозга"

softland 277 15
Окт 11 #7

Если во входных данных отсутствует информация о прослоях толщиной меньше 0.2, то что будет строить стохастика? Нет информации, нет модели. Иначе это уже не модель, а математическая реализация субьективного представления конкретного автора.

Чем проще модель при сохранении в ней граничных значений, тем она адекватнее. Это конечно моё личное мнение.

sander 294 12
Окт 11 #8

конечно теоретически идеальный вариант когда нам для построения модели дают четкую детализированую и главное правильную инфу и модельер на основе этого грамотно и спокойно строит модель, представляет на рассмотрение этот проект, все смотрят, все красиво все играет, НО как показывает практика зачастую качество входной информации хромает, так что в таких случаях вообще модели не строить и сетовать на тех и на этих да и вообще ваши приборы только 0,2м могут определить   или все же попытатся сделать что-то максимально приближенное к реальным условиям исходя конечно из собственных об этом представлениях?

MeirimbekK 42 12
Ноя 11 #9

Изначально делать модель с толщиной ячеек по 0,2, создать N-ое количество миллионов ячеек, ждать все расчеты. Чтобы потом еще засесть на процедуре upscalinga.

???

Изначально сразу мутить на грубой сетке, минимумм по 0,5 м.

Счастье? Какие мнения?

FullChaos 834 16
Ноя 11 #10

Модель построенная сразу на 0,5 будет сильно отличатся от модели на 0,2. После апскелинга 0,2->0,5 итоговая модель будет более диференцирована и лучше отражать геологию пласта, А если ещё использовать неравномерный апскелинг, то есть шанс сохранить экранирующие пропластки.

Поэтому размерность необходимо выбирать исходя из изученности, ни больше ни меньше. Если были бы методы позволяющие "видеть" пласт с интервалом 1 см, то и размерность должна была бы быть соотвествующей. Это же и касается латеральной изученности - незачем делать сетку 50х50 на этапе бурения поисковых и разведоных скважин.

Kolos 197 15
Дек 11 #11

а что никто не слышал про "common-scale geo.models" с вертикальной размерностью до 3 метров? Сам строил ГД модель по такой геомодели и делал адаптацию. Главное не размерность, а как правильно построена вертикальная проницаемость. Вот статейка.

http://www.onepetro.org/mslib/servlet/onepetropreview?id=IPTC-10639-MS&soc=IPTC

Airat55 89 12
Дек 11 #12

аннотация статьи крайне интересна. давно такая идея в голове. строить геомодель с подсказками, которые нам в огромном количестве уже дала история разработки. динамика обводнения, дебит-забойное давление. как я понимаю, реализовали они это, причем еще до того, как я моделировать начал)). ни у кого полной статьи нету?

 

Airat55 89 12
Дек 11 #13

они, как я понимаю, строят сначала очень грубую сетку, а потом ее последовательно разбивают, одновременно сохраняя соответсвтие скважиным данным, прослеживаемым трендам, и конечно, истории разработки.

Airat55 89 12
Дек 11 #14

нужно конечно вернуться в наши реалии. и одновременно следить соотвествие запасов в геомодели, построенной в дорогущем симуляторе, с запасами, посчитанными на 2д картах девдовским способом....

Beginner 47 3
Мар 22 #15

Я столкнулся с моделью, которая была построена базируясь на данных керна, там ячейка 0.05 метра

Go to top