Перспективы применения технологии Nvidia CUDA для повышения производительности Eclipse

Последнее сообщение
kochichiro 924 16
Апр 09

В последнее время у программеров стала модной фишкой технология Nvidia CUDA, позволяющая повысить производительность расчетов за счет использования мощностей видеокарты. Такая технология могла бы существенно увеличить производительность Eclipse, установленных на РС. В связи с этим вопрос, планирует ли Шлюмберже использование этой технологии в будующих релизах симулятора?

ojakov 131 17
Апр 09 #1

а как видюха симулятору то поможет? я понимаю, там когда 3d geo-bodies extraction or smth like that..

RomanK. 2139 16
Апр 09 #2

Теоретически (как мне кажется) можно использовать шейдеры.
Перфоманс можно улучшить за счет алгоритмизации.
я думаю в симуляторах ещё есть куда работать и без "железного" ускорения

kochichiro 924 16
Апр 09 #3

ojakov пишет:

а как видюха симулятору то поможет? я понимаю, там когда 3d geo-bodies extraction or smth like that..

Используется многопроцессорная конфигурация современных видюх - серия 8.xx.xx., аналогично процессорам архитектуры RISC, т.е. используется грубая расчетная мощь (которая может достигать 1 Тфлопс). Подробнее здесь - Nvidia CUDA
Еще можно посмотреть это - ffA_NVIDIA_Benchmarks.pdf

TimTTT 153 17
Апр 09 #4

Эти операции производятся с какими числами? С целыми или с плавающей точкой? Если с плавающей точкой, то какого типа single или double? Насколько я помню, для достижения симулятором расчетной точности нужны переменные типа double.

kochichiro 924 16
Апр 09 #5

TimTTT пишет:

Эти операции производятся с какими числами? С целыми или с плавающей точкой? Если с плавающей точкой, то какого типа single или double? Насколько я помню, для достижения симулятором расчетной точности нужны переменные типа double.

Цитата: "В настоящее время выпущена финальная версия CUDA 2.0, в которой появились некоторые новые возможности, например, поддержка расчётов с двойной точностью." Еще много интересного здесь - CUDA

wintermute 8 15
Май 09 #6

Высокая производительность вычислений на графических картах достигается за счёт суперпараллелизма (разбиение задачи на большое количество подзадач, сотни или тысячи подзадач)
Технология CUDA поддерживает вычисления с плавающей запятой и вычисления с двойной точностью.
На сегодняшний день существует несколько основных ограничений использования вычислений на граф. картах в гидродинамических расчётах:
- суперпараллельные вычисления хорошо себя показывают в случае если нет необходимости обмениваться информацией между задачами. В случае гидродинамических расчётов скорость и объем трафика между потоками параллельного расчёта являются важными критериями масштабируемости расчета (уменьшение времени расчёта при увеличении числа потоков).
- в настоящий момент только одно из восьми ядер каждого блока (ядра скомпонованы блоками по 8 штук) поддерживает вычисления с двойной точностью, возможно ситуация улучшится к концу этого года.
- объем памяти на видеокарты это 2-4 GB что явно недостаточно для проведения ГД расчётов. Не смотря на доступ GPU к оперативной памяти через PCI X16 эффективность вычислений на граф картах значительно снижается.

Т.О. до начала разработки прототипов гидродинамического симулятора использующего GPU вычисления, довольно далеко, не говоря уже о полноценном симуляторе.

P.S. научное подразделение шлюма (в том числе в России) ведет исследования применимости GPU вычислений.

VIT 1111 17
Май 09 #7

Мне кажется для эффективного применения видекарт при расчетах ГД надо будет переделать принцип работы симулятора. Например использовать основной процессор / последовательные вычисления для грубого расчета поля давления - и паралельный счет при расчете насыщенности где намного легче добиться масштабируемости. Получится эдакий гибрид стримлайн и конечно-разностного симулятора или вложенных разностных симуляторов работающих на разных сетках. wacko.gif

Go to top