Автор работы: Пользователь скрыл имя, 14 Сентября 2011 в 19:51, лабораторная работа
Цель лабораторной работы.
Реализация последовательного и параллельных алгоритмов умножения матрицы на вектор при использовании 2-х ядерной вычислительной системы с общей памятью.
for (i=0; i<Size; i++) {
IterGlobalSum = 0;
#pragma omp parallel for reduction(+:IterGlobalSum)
for (j=0; j<Size; j++)
IterGlobalSum += pMatrix[i*Size+j]*pVector[j];
pResult[i] = IterGlobalSum;
}
}
Результаты
вычислительных экспериментов приведены
в таблице.
Таблица 3. Результаты вычислительных экспериментов для параллельного алгоритма умножения
матрицы на вектор при ленточной схеме разделении данных по столбцам.
Рисунок
8. Зависимость ускорения
от количества исходных
данных при выполнении
параллельного алгоритма
умножения матрицы на
вектор, основанного
на ленточном вертикальном
разбиении матрицы
Для
нахождения воспользуемся методом наименьших
квадратов. Будем минимизировать квадрат
разницы между экспериментальными и теоретическими
значениями времени, при этом будет выступать
в качестве подгоночного параметра. Воспользуемся
функцией поиска решений в Excel.
Будем минимизировать величину
Таким образом, получаем = 5,27565E-06 с=5,3 мкс
Рисунок
9. График зависимости
экспериментального
и теоретического времени
выполнения параллельного
алгоритма от объёма
исходных данных при
использовании двух
потоков (ленточное
разбиение матрицы по
столбцам)
При
блочном разделении матрица делится
на прямоугольные наборы элементов
– при этом, как правило, используется
разделение на непрерывной основе.
Пусть количество процессоров (ядер)
составляет , количество строк матрицы
является кратным s, а количество столбцов
– кратным q, то есть и .
После
перемножения блоков матрицы A
и вектора b каждая подзадача
(i,j) будет содержать вектор
частичных результатов c'(i,j),
определяемый в соответствии
с выражениями:
Рисунок
10. Организация вычислений
при выполнении параллельного
алгоритма умножения
матрицы на вектор с
использованием блочного
разделения данных.
Будем предполагать, что число блоков матрицы А совпадает по горизонтали и вертикали, т.е. s=q.
Для
обозначения числа потоков
Возьмём число потоков π=4.
Воспользуемся
алгоритмом вычисления, основанном на
использовании функций
Для
задания количества потоков будет
использоваться переменная NestedThreadsNum.
void ParallelResultCalculation_
int Size) {
int NestedThreadsNum = 2;
omp_set_num_threads(
omp_set_nested(true);
#pragma omp parallel for
for (int i=0; i<Size; i++) {
double ThreadResult = 0;
#pragma omp parallel for reduction(+:ThreadResult)
for (int j=0; j<Size; j++)
ThreadResult += pMatrix[i*Size+j]*pVector[j];
pResult[i] = ThreadResult;
}
}
При анализе эффективности данного алгоритма воспользуемся следующими формулами.
Время
выполнения вычислений ограничено сверху
величиной: (количество вычислительных
элементов совпадает с числом
потоков, т.е. p=π)
При
выполнении вычислений, «внутренние»
параллельные секции создаются и
закрываются много раз, кроме
того, дополнительное время тратится
на синхронизацию и выполнение операции
редукции. Каждый поток создаёт параллельные
секции раз. Время
выполнения алгоритма
может быть вычислено
по формуле:
Результаты
вычислительных экспериментов при
блочном разделении данных приведены
в таблице 5.
Таблица 5. Результаты вычислительных экспериментов для параллельного алгоритма умножения матрицы на вектор при блочной схеме разделении данных.
Рисунок
11. Зависимость ускорения
от количества исходных
данных при выполнении
параллельного алгоритма
умножения матрицы на
вектор, основанного
на блочном разбиении
матрицы
Рисунок
12. График зависимости
экспериментального
и теоретического времени
выполнения параллельного
алгоритма от объема
исходных данных при
использовании четырёх
потоков при блочном
разбиении матрицы
Вывод
В результате проделанной работы, мы пришли к выводу, что среди параллельных алгоритмов умножения матрицы на вектор, самым быстрым оказался алгоритм, основанный на разделении матрицы по строкам. Однако существенного ускорения за счёт распараллеливания достигнуть не удалось. Это связано с тем, что значительное время расходуется на ожидания внутри библиотек OpenMP.
Информация о работе Параллельные методы умножения матрицы на вектор