Виды задач оптимизации. Задача оптимизации


Задача оптимизации Википедия

У этого термина существуют и другие значения, см. Оптимизация.

Оптимизация — в математике, информатике и исследовании операций задача нахождения экстремума (минимума или максимума) целевой функции в некоторой области конечномерного векторного пространства, ограниченной набором линейных и/или нелинейных равенств и/или неравенств.

Граф параболоида описанного функцией z = f(x, y) = −(x² + y²) + 4. Глобальный максимум от (x, y, z) = (0, 0, 4) обозначен синей точкой Поиск минимума Нелдера-Мида Функции оптимизации. Симплексные вершины упорядочиваются по их значению, при этом 1 имеет наименьшее (лучшее) значение.

Теорию и методы решения задачи оптимизации изучает математическое программирование.

Математическое программирование — это область математики, разрабатывающая теорию, численные методы решения многомерных задач с ограничениями. В отличие от классической математики, математическое программирование занимается математическими методами решения задач нахождения наилучших вариантов из всех возможных.[1]

Постановка задачи оптимизации[ | код]

В процессе проектирования ставится обычно задача определения наилучших, в некотором смысле, структуры или значений параметров объектов. Такая задача называется оптимизационной. Если оптимизация связана с расчётом оптимальных значений параметров при заданной структуре объекта, то она называется параметрической оптимизацией. Задача выбора оптимальной структуры является структурной оптимизацией.

Стандартная математическая задача оптимизации формулируется таким образом. Среди элементов χ, образующих множества Χ, найти такой элемент χ*, который доставляет минимальное значение f(χ*) заданной функции f(χ). Для того, чтобы корректно поставить задачу оптимизации, необходимо задать:

  1. Допустимое множество — множество X={x→|gi(x→)≤0,i=1,…,m}⊂Rn{\displaystyle \mathbb {X} =\{{\vec {x}}|\;g_{i}({\vec {x}})\leq 0,\;i=1,\ldots ,m\}\subset \mathbb {R} ^{n}};
  2. Целевую функцию — отображение f:X→R{\displaystyle f:\;\mathbb {X} \to \mathbb {R} };
  3. Критерий поиска (max или min).

Тогда решить задачу f(x)→minx→∈X{\displaystyle f(x)\to \min _{{\vec {x}}\in \mathrm {X} }} означает одно из:

  1. Показать, что X=∅{\displaystyle \mathbb {X} =\varnothing }.
  2. Показать, что

ru-wiki.ru

Задача оптимизации - Википедия

Материал из Википедии — свободной энциклопедии

У этого термина существуют и другие значения, см. Оптимизация.

Оптимизация — в математике, информатике и исследовании операций задача нахождения экстремума (минимума или максимума) целевой функции в некоторой области конечномерного векторного пространства, ограниченной набором линейных и/или нелинейных равенств и/или неравенств.

Теорию и методы решения задачи оптимизации изучает математическое программирование.

Математическое программирование — это область математики, разрабатывающая теорию, численные методы решения многомерных задач с ограничениями. В отличие от классической математики, математическое программирование занимается математическими методами решения задач нахождения наилучших вариантов из всех возможных.[1]

Постановка задачи оптимизации[ | ]

В процессе проектирования ставится обычно задача определения наилучших, в некотором смысле, структуры или значений параметров объектов. Такая задача называется оптимизационной. Если оптимизация связана с расчётом оптимальных значений параметров при заданной структуре объекта, то она называется параметрической оптимизацией. Задача выбора оптимальной структуры является структурной оптимизацией.

Стандартная математическая задача оптимизации формулируется таким образом. Среди элементов χ, образующих множества Χ, найти такой элемент χ*, который доставляет минимальное значение f(χ*) заданной функции f(χ). Для того, чтобы корректно поставить задачу оптимизации, необходимо задать:

  1. Допустимое множество — множество X={x→|gi(x→)≤0,i=1,…,m}⊂Rn{\displaystyle \mathbb {X} =\{{\vec {x}}|\;g_{i}({\vec {x}})\leq 0,\;i=1,\ldots ,m\}\subset \mathbb {R} ^{n}};
  2. Целевую функцию — отображение f:X→R{\displaystyle f:\;\mathbb {X} \to \mathbb {R} };
  3. Критерий поиска (max или min).

Тогда решить задачу f(x)→minx→∈X{\displaystyle f(x)\to \min _{{\vec {x}}\in \mathrm {X} }} означает одно из:

  1. Показать, что X=∅{\displaystyle \mathbb {X} =\varnothing }.
  2. Показать, что целевая функция f(x→){\displaystyle f({\vec {x}})} не ограничена снизу.
  3. Найти x→∗∈X:f(x→∗)=minx→∈Xf(x→){\displaystyle {\vec {x}}^{*}\in \mathbb {X} :\;f({\vec {x}}^{*})=\min _{{\vec {x}}\in \mathbb {X} }f({\vec {x}})}

encyclopaedia.bid

Виды задач оптимизации - Документ

Виды задач оптимизации.

В общем случае задача оптимизации может быть записана следующим образом:

Система (1) представляет собой общий случай математической постановки задачи оптимизации. Она включает целевую функцию Е = f (xj); ограничения gi(xj) <= bi; граничные условия di<= xj<= Dj. Суть такой постановки задачи заключается в следующем: необходимо определить такие значения xj , которые, находясь в граничных условиях dj<= xj<= Dj , удовлетворяли бы ограничениям gi(xj) <= bi и при этом придавали бы целевой функции Е = f (xj) искомое оптимальное значение.

Функция f (x) имеет максимум в точке x = a, если, в достаточной близости от этой точки всем значениям x(как большим, так и меньшим a) соответствуют значения f (x) меньшие, чем f (a). Функция f (x) имеет минимум в точке x = a, если в достаточной близости от этой точки всем значениям x соответствуют значения f (x) большие, чем f (a).

Максимум и минимум объединяются понятием “экстремум”. (Латинское слово “экстремум” означает “крайнее”). Экстремум не может быть на границе рассматриваемого интервала. В задачах оптимизации нас интересует наибольшее (наименьшее) значение целевой функции, включая значения целевой функции на границах dj<= xj<= Dj. Наибольшее (наименьшее) значение целевой функции, включая ее значения на границах интервала [djDj], называют оптимальным значением или оптимумом.

Если при нахождении экстремума накладываются дополнительные условия – ограничения на зависимости между переменными – то экстремум называется условным. Поскольку оптимум, как правило, определяется при наложении ряда дополнительных условий – ограничений, термин “условный оптимум” обычно не применяется. Задача (1) представляет собой задачу нахождения оптимума.

В каждом конкретном случае система (1) определяется видом переменных xj и зависимостей f (xj) и gi(xj). Различные виды переменных и зависимостей между ними требуют различных методов решения задачи оптимизации. В зависимости от классов математических описаний задач элементы системы (1) могут быть различными (рис.1).

  1. Зависимости между переменными в (1) входят в

ограничения и целевую функцию. По виду действия над переменными зависимости могут быть алгебраическими и дифференциальными. Задачи, содержащие дифференциальные зависимости в функции времени, называются задачами оптимального управления или реже – динамической оптимизации.

Линейными называются такие зависимости, в которых переменные или производные находятся в первой степени. Если в зависимостях имеются переменные в степени, отличной от первой, или произведения двух и более переменных, то такие зависимости называются нелинейными.

Задачи оптимизации, содержащие линейные алгебраические зависимости в целевой функции и ограничениях, являются задачами ЛП. Для задачи ЛП система (1) будет иметь вид (2):

Если в задаче оптимизации хотя бы одно ограничение или только целевая функция представляет собой нелинейную зависимость, задача является задачей нелинейного программирования (НЛП).

На рис. 2 дана графически задача НЛП на плоскости. Из рисунка видно, что даже в том случае, когда только одно ограничение будет нелинейным (рис. 2, а), оптимальным решением задачи оптимизации будут координаты не вершины, а какой-то произвольной точки. Аналогичное положение будет и в том случае, когда все ограничения линейны, а нелинейна только целевая функция (рис. 2, б). Такое положение существенно усложняет решение задач НЛП, так как метод перебора вершин, применяемый для задач ЛП, в данном случае оказывается непригодным.

  1. Переменные можно подразделить на непрерывные и дискретные, детерминированные и случайные. Если величины в заданном интервале граничных условий могут принимать любые промежуточные значения, они называются непрерывными. Примером непрерывных переменных может служить производительность, масса, стоимость и т.д. Если переменные в заданном интервале могут принимать лишь определенные значения, они называются дискретными.

Дискретные переменные, в свою очередь могут быть целочисленными, заданными и булевыми. Целочисленными переменными называются также переменные, которые могут принимать только целые значения. В ряде случаев переменные могут принимать лишь определенные заданные значения. Например, диаметр трубы не может быть произвольным, он должен соответствовать ГОСТу и быть равным одному из заданных размеров: 100, 150, 200, 250 мм и т.д.

Важным видом дискретных переменных являются булевые переменные. Булевые переменные могут принимать только два значения: 0 или 1. Если принимать, что 1 соответствует «да», а 0 – «нет», то с помощью булевых переменных можно решать логические, комбинационные и ряд других специфических задач.

Задачи оптимизации, в которых переменные могут быть только дискретными, называются задачами дискретного или чаще целочисленного программирования (ЦП). Если в задаче часть переменных должна быть целочисленной, а остальные могут принимать непрерывные значения, то такая задача является задачей частично-целочисленного программирования (ЧЦП).

Решение задач ЦП на плоскости приведено на рис. 3. Оптимальное решение в данном случае будет не в вершине ОДР (в точке А), а в узле сетки, имеющем целые значения переменных. При этом в случае, например, максимизации целевой функции её целочисленное значение будет меньше непрерывного. Следовательно, требование целочисленности, как и любое дополнительное требование, ухудшает значение целевой функции.

Результат решения задачи оптимизации, т.е. значения величин в оптимальном решении, является функцией заданных величин, входящих в модель, например, для задач ЛП функцией cj, aij, bi. Если эти величины являются детерминированными, то и величины xj, как функции детерминированных величин, будут также детерминированными. Если же хотя бы одна из заданных величин будет случайной, то величины xj, как функции случайных величин, будут также случайными величинами.

Задачи оптимизации, в которые входят случайные величины, называются задачами стохастического программирования (СТП).

Все рассмотренные классы задач относятся к задачам математического программирования.

textarchive.ru

Задача оптимизации - это... Что такое Задача оптимизации?

 Задача оптимизации

Задачей оптимизации в математике называется задача о нахождении экстремума (минимума или максимума) вещественной функции в некоторой области. Как правило, рассматриваются области, принадлежащие и заданные набором равенств и неравенств.

Постановка задачи оптимизации

Для того, чтобы корректно поставить задачу оптимизации необходимо задать:

  1. Допустимое множество — множество ;
  2. Целевую функцию — отображение ;
  3. Критерий поиска (max или min).

Тогда решить задачу означает одно из:

  1. Показать, что .
  2. Показать, что целевая функция не ограничена.
  3. Найти .
  4. Если , то найти .

Если минимизируемая функция не является выпуклой, то часто ограничиваются поиском локальных минимумов и максимумов: точек x0 таких, что всюду в некоторой их окрестности для минимума и для максимума.

Если допустимое множество , то такая задача называется задачей безусловной оптимизации, в противном случае — задачей условной оптимизации.

Классификация методов оптимизации

Методы, по средством которых решают задачи оптимизации, подразделяются на виды, соответствующие задачам, к которым они применяются:

Существующие в настоящее время методы поиска можно разбить на три большие группы:

  1. детерминированные;
  2. случайные;
  3. комбинированные.

Некоторые детерминированные методы:

Помимо того, оптимизационные методы делятся на следующие группы:

Также они разделяются по критерию размерности допустимого множества на методы одномерной оптимизации и методы многомерной оптимизации.

Литература

  1. Акулич И.Л. Математическое программирование в примерах и задачах: Учеб. пособие для студентов эконом. пец. вузов. — М.: Высшая школа, 1986.
  2. Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. Пер. с англ. — М.: Мир, 1985.
  3. Коршунов Ю.М., Коршунов Ю.М. Математические основы кибернетики. — М.: Энергоатомиздат, 1972.
  4. Максимов Ю.А.,Филлиповская Е.А. Алгоритмы решения задач нелинейного программирования. — М.: МИФИ, 1982.
  5. Максимов Ю.А. Алгоритмы линейного и дискретного программирования. — М.: МИФИ, 1980.
  6. Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. — М.: Наука, 1970. — С. 575-576.
  7. Жиглявский А.А., Жилинкас А.Г. Методы поиска глобального экстремума. — М.: Наука, Физматлит, 1991.
  8. Растригин Л.А. Статистические методы поиска. — М.: 1968.
  9. Абакаров А.Ш., Сушков Ю.А. Статистическое исследование одного алгоритма глобальной оптимизации. — Труды ФОРА, 2004.

Ссылки

Wikimedia Foundation. 2010.

Смотреть что такое "Задача оптимизации" в других словарях:

dikc.academic.ru

Задача оптимизации - это... Что такое Задача оптимизации?

 Задача оптимизации

Задачей оптимизации в математике называется задача о нахождении экстремума (минимума или максимума) вещественной функции в некоторой области. Как правило, рассматриваются области, принадлежащие и заданные набором равенств и неравенств.

Постановка задачи оптимизации

Для того, чтобы корректно поставить задачу оптимизации необходимо задать:

  1. Допустимое множество — множество ;
  2. Целевую функцию — отображение ;
  3. Критерий поиска (max или min).

Тогда решить задачу означает одно из:

  1. Показать, что .
  2. Показать, что целевая функция не ограничена.
  3. Найти .
  4. Если , то найти .

Если минимизируемая функция не является выпуклой, то часто ограничиваются поиском локальных минимумов и максимумов: точек x0 таких, что всюду в некоторой их окрестности для минимума и для максимума.

Если допустимое множество , то такая задача называется задачей безусловной оптимизации, в противном случае — задачей условной оптимизации.

Классификация методов оптимизации

Методы, по средством которых решают задачи оптимизации, подразделяются на виды, соответствующие задачам, к которым они применяются:

Существующие в настоящее время методы поиска можно разбить на три большие группы:

  1. детерминированные;
  2. случайные;
  3. комбинированные.

Некоторые детерминированные методы:

Помимо того, оптимизационные методы делятся на следующие группы:

Также они разделяются по критерию размерности допустимого множества на методы одномерной оптимизации и методы многомерной оптимизации.

Литература

  1. Акулич И.Л. Математическое программирование в примерах и задачах: Учеб. пособие для студентов эконом. пец. вузов. — М.: Высшая школа, 1986.
  2. Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. Пер. с англ. — М.: Мир, 1985.
  3. Коршунов Ю.М., Коршунов Ю.М. Математические основы кибернетики. — М.: Энергоатомиздат, 1972.
  4. Максимов Ю.А.,Филлиповская Е.А. Алгоритмы решения задач нелинейного программирования. — М.: МИФИ, 1982.
  5. Максимов Ю.А. Алгоритмы линейного и дискретного программирования. — М.: МИФИ, 1980.
  6. Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. — М.: Наука, 1970. — С. 575-576.
  7. Жиглявский А.А., Жилинкас А.Г. Методы поиска глобального экстремума. — М.: Наука, Физматлит, 1991.
  8. Растригин Л.А. Статистические методы поиска. — М.: 1968.
  9. Абакаров А.Ш., Сушков Ю.А. Статистическое исследование одного алгоритма глобальной оптимизации. — Труды ФОРА, 2004.

Ссылки

Wikimedia Foundation. 2010.

Смотреть что такое "Задача оптимизации" в других словарях:

med.academic.ru

Задача оптимизации - это... Что такое Задача оптимизации?

 Задача оптимизации

Задачей оптимизации в математике называется задача о нахождении экстремума (минимума или максимума) вещественной функции в некоторой области. Как правило, рассматриваются области, принадлежащие и заданные набором равенств и неравенств.

Постановка задачи оптимизации

Для того, чтобы корректно поставить задачу оптимизации необходимо задать:

  1. Допустимое множество — множество ;
  2. Целевую функцию — отображение ;
  3. Критерий поиска (max или min).

Тогда решить задачу означает одно из:

  1. Показать, что .
  2. Показать, что целевая функция не ограничена.
  3. Найти .
  4. Если , то найти .

Если минимизируемая функция не является выпуклой, то часто ограничиваются поиском локальных минимумов и максимумов: точек x0 таких, что всюду в некоторой их окрестности для минимума и для максимума.

Если допустимое множество , то такая задача называется задачей безусловной оптимизации, в противном случае — задачей условной оптимизации.

Классификация методов оптимизации

Методы, по средством которых решают задачи оптимизации, подразделяются на виды, соответствующие задачам, к которым они применяются:

Существующие в настоящее время методы поиска можно разбить на три большие группы:

  1. детерминированные;
  2. случайные;
  3. комбинированные.

Некоторые детерминированные методы:

Помимо того, оптимизационные методы делятся на следующие группы:

Также они разделяются по критерию размерности допустимого множества на методы одномерной оптимизации и методы многомерной оптимизации.

Литература

  1. Акулич И.Л. Математическое программирование в примерах и задачах: Учеб. пособие для студентов эконом. пец. вузов. — М.: Высшая школа, 1986.
  2. Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. Пер. с англ. — М.: Мир, 1985.
  3. Коршунов Ю.М., Коршунов Ю.М. Математические основы кибернетики. — М.: Энергоатомиздат, 1972.
  4. Максимов Ю.А.,Филлиповская Е.А. Алгоритмы решения задач нелинейного программирования. — М.: МИФИ, 1982.
  5. Максимов Ю.А. Алгоритмы линейного и дискретного программирования. — М.: МИФИ, 1980.
  6. Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. — М.: Наука, 1970. — С. 575-576.
  7. Жиглявский А.А., Жилинкас А.Г. Методы поиска глобального экстремума. — М.: Наука, Физматлит, 1991.
  8. Растригин Л.А. Статистические методы поиска. — М.: 1968.
  9. Абакаров А.Ш., Сушков Ю.А. Статистическое исследование одного алгоритма глобальной оптимизации. — Труды ФОРА, 2004.

Ссылки

Wikimedia Foundation. 2010.

Смотреть что такое "Задача оптимизации" в других словарях:

muller.academic.ru

Задача оптимизации - это... Что такое Задача оптимизации?

 Задача оптимизации

Задачей оптимизации в математике называется задача о нахождении экстремума (минимума или максимума) вещественной функции в некоторой области. Как правило, рассматриваются области, принадлежащие и заданные набором равенств и неравенств.

Постановка задачи оптимизации

Для того, чтобы корректно поставить задачу оптимизации необходимо задать:

  1. Допустимое множество — множество ;
  2. Целевую функцию — отображение ;
  3. Критерий поиска (max или min).

Тогда решить задачу означает одно из:

  1. Показать, что .
  2. Показать, что целевая функция не ограничена.
  3. Найти .
  4. Если , то найти .

Если минимизируемая функция не является выпуклой, то часто ограничиваются поиском локальных минимумов и максимумов: точек x0 таких, что всюду в некоторой их окрестности для минимума и для максимума.

Если допустимое множество , то такая задача называется задачей безусловной оптимизации, в противном случае — задачей условной оптимизации.

Классификация методов оптимизации

Методы, по средством которых решают задачи оптимизации, подразделяются на виды, соответствующие задачам, к которым они применяются:

Существующие в настоящее время методы поиска можно разбить на три большие группы:

  1. детерминированные;
  2. случайные;
  3. комбинированные.

Некоторые детерминированные методы:

Помимо того, оптимизационные методы делятся на следующие группы:

Также они разделяются по критерию размерности допустимого множества на методы одномерной оптимизации и методы многомерной оптимизации.

Литература

  1. Акулич И.Л. Математическое программирование в примерах и задачах: Учеб. пособие для студентов эконом. пец. вузов. — М.: Высшая школа, 1986.
  2. Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. Пер. с англ. — М.: Мир, 1985.
  3. Коршунов Ю.М., Коршунов Ю.М. Математические основы кибернетики. — М.: Энергоатомиздат, 1972.
  4. Максимов Ю.А.,Филлиповская Е.А. Алгоритмы решения задач нелинейного программирования. — М.: МИФИ, 1982.
  5. Максимов Ю.А. Алгоритмы линейного и дискретного программирования. — М.: МИФИ, 1980.
  6. Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. — М.: Наука, 1970. — С. 575-576.
  7. Жиглявский А.А., Жилинкас А.Г. Методы поиска глобального экстремума. — М.: Наука, Физматлит, 1991.
  8. Растригин Л.А. Статистические методы поиска. — М.: 1968.
  9. Абакаров А.Ш., Сушков Ю.А. Статистическое исследование одного алгоритма глобальной оптимизации. — Труды ФОРА, 2004.

Ссылки

Wikimedia Foundation. 2010.

Смотреть что такое "Задача оптимизации" в других словарях:

veter.academic.ru


Prostoy-Site | Все права защищены © 2018 | Карта сайта