## Учебная практика 2022.Витрук Дмитрий Александрович, 113 Прикладная математика, 1 группа, 1 курс. Мой отчёт за 04.07.2022.
## Учебная практика 2022. Понедельник 4.07. Локальныe экстрeмумы.
## 1. Присутствовал на утренней конференции Zoom 04.07.2022.
## 2. Ознакомился с понятием локального экстремума и достаточным условием.
<b>Понятие экстремума я понимаю как максимальное и минимальное значение функции на заданном множестве. Точка, в которой достигается экстремум, называется точкой экстремума. Соответственно, если эта точка достигает максимума, то называется точкой максимума, а минимума - точкой минимума.Схема, которая дала мне понять это определение, приведена ниже:</b>
, где:
- функция синяя, а её производная - красная;
- ★ - глобальный максимум функции, а □ - глобальный минимум функции;
- локальный максимум — ◇, а локальный минимум — + ;
- нуль производной без экстремума — ╳.
Видно, что остальные нули производной соответствуют точкам экстремума функции.
## 3. Разобрался с понятием о троичном поиске алгоритма.
<b>Троичный алгоритм поиска — это метод в информатике для нахождения минимума или максимума унимодальной функции. Троичный поиск определяет, что минимум или максимум не может быть в первой трети домена или что он не может быть в последней трети домена, затем повторяется на оставшихся двух третях.А также разобрал алгоритм троичного поиска.Разрешать f(x) быть унимодальной функцией на некотором интервале [l;r]. Возьмите любые две точки m1 и m2 в этом сегменте: [l < m1 < m2 < r]. </b> Тогда есть три возможности:
- если f(m1)<f(m2), тогда требуемый максимум не может располагаться с левой стороны – [l;m1]. Это значит, что максимум дальше имеет смысл смотреть только в интервале. [m1;r];
- если f(m1)>f(m2), что ситуация аналогична предыдущей, вплоть до симметрии. Теперь требуемый максимум не может быть в правой стороне – [m2;r], так что переходите к сегменту [l;m2];
- если f(m1)=f(m2), то поиск должен проводиться в [m1;m2], но этот случай можно отнести к любому из двух предыдущих (в целях упрощения кода). Рано или поздно длина отрезка будет немного меньше заданной константы, и процесс можно остановить.
точки выбора m1 и m2:
## 4. Разобрал понятие унимодальности, а также рассмотрел другие понятия унимодальности.
<b>В математике унимодальность означает обладание уникальным способом. В более общем плане, унимодальность означает, что существует только одно высшее значение, каким-то образом определенное, некоторого математического объекта. Изображение, которое мне помогло ознакомится с этим понятием:</b>
 - функция плотности вероятности нормальных распределений, пример унимодального распределения.
Существуют и другие определения унимодальности в функциях распределения.
В непрерывных распределениях унимодальность может быть определена с помощью поведения кумулятивной функции распределения (cdf).Если cdf выпуклый для x < m и вогнутый для x > m, то распределение является унимодальным, m — модой. Обратите внимание, что в соответствии с этим определением равномерное распределение является унимодальным, как и любое другое распределение, в котором достигается максимальное распределение для диапазона значений, например, трапециевидное распределение. Обычно это определение допускает разрыв в режиме; обычно в непрерывном распределении вероятность любого одиночного значения равна нулю, в то время как это определение допускает ненулевую вероятность, или «атом вероятности», в моде.
Критерии унимодальности также могут быть определены через характеристическую функцию распределения или через его преобразование Лапласа -Штильтьеса.
Другим способом определения унимодального дискретного распределения является возникновение знаковых изменений в последовательности разностей вероятностей.
## 5. Ознакомился с поиском по золотому сечению.Ознакомился с основной идеей поиска по золотому сечению.
<b>Это метод нахождения экстремума (минимума или максимума) внутри заданного интервала.
Она заключается в том, что нужно найти точку минимума, которая будет принимать 3 значения. Например, нам даны вертикальная и горизонтальная оси. На вертикальной оси расспологаются все возможные функциональные значения
функции f(x), а по горизонтальной оси - параметр x. Более обширное понятие мне дала следующая схема:</b>

## 6. Рассмотрел вопрос о последовательной параболической интерполяции и разобрал их преимущества и недостатки.
<b>Последовательная параболическая интерполяция — это метод нахождения экстремума (минимума или максимума) непрерывной унимодальной функции путем последовательного подгонки парабол (полиномов второй степени) к функции одной переменной в трех уникальных точках или, в общем, функции n переменных в точках 1+n(n+3)/2, и на каждой итерации заменяющей «самую старую» точку экстремумом приспособленной параболы.</b>
- <b>Преимущества</b>:
<em>Используются только значения функций, и когда этот метод сходится к экстрему, он делает это с порядком сходимости приблизительно 1,325. Сверхлинейная скорость сходимости превосходит скорость сходимости других методов только с линейной сходимостью (таких как линейный поиск). Более того, отсутствие необходимости вычисления или аппроксимации производных функций делает последовательную параболическую интерполяцию популярной альтернативой другим методам, которые их требуют (таким как градиентное происхождение и метод Ньютона).</em>
## 7. Рассмотрел метод Ньютона в оптимизации.
<b>В исчислении метод Ньютона является итеративным методом нахождения корней дифференцируемой функции F, которые являются решениями уравнения F (x) = 0. Таким образом, метод Ньютона может быть применен к производной f ′ дважды дифференцируемой функции f, чтобы найти корни производной (решения f ′(x) = 0), также известные как критические точки f. Эти решения могут быть минимумами, максимумами или точками седла; см. раздел «Несколько переменных» в критической точке (математика), а также раздел «Геометрическая интерпретация» в этой статье. Это актуально при оптимизации, целью которой является нахождение (глобальных) минимумов функции f. Схема, которая дала мне понятие об этом определении: </b>

Сравнение градиентного спуска (зеленый) и метода Ньютона (красный) для минимизации функции (с малыми размерами шагов). Метод Ньютона использует информацию о кривизне (т.е. вторую производную), чтобы выбрать более прямой путь.
## 8. Узнал о квазиньютоновском методе, поиске нулей (корней) и экстремума (оптимизация).
<b>Квазиньютоновские методы — это методы, используемые для поиска нулей или локальных максимумов и минимумов функций, в качестве альтернативы методу Ньютона. Их можно использовать, если якобианская или гессенская недоступна или слишком дорога для вычисления на каждой итерации. «Полный» метод Ньютона требует якобиана для поиска нулей или гессенского для поиска экстремов.</b>
<b>- Поиск нулей: корней</b>
<u>Использование методов, разработанных для поиска экстремов для поиска нулей, не всегда является хорошей идеей, так как большинство методов, используемых для поиска экстремов, требуют, чтобы используемая матрица была симметричной. Хотя это справедливо в контексте поиска экстрема, это редко справедливо при поиске нулей. «Хороший» и «плохой» методы Бройдена — это два метода, обычно используемые для поиска экстремов, которые также могут быть применены для поиска нулей. Другими методами, которые могут быть использованы, являются метод обновления столбцов, метод обратного обновления столбцов, метод квазиньютоновских наименьших квадратов и квазиньютоновский метод обратных наименьших квадратов.
Совсем недавно квазиньютоновские методы были применены для поиска решения множественных связанных систем уравнений (например, проблемы взаимодействия жидкости и структуры или проблемы взаимодействия в физике). Они позволяют найти решение, решив каждую составляющую систему в отдельности (что проще, чем глобальная система) циклическим, итеративным образом до тех пор, пока не будет найдено решение глобальной системы.</u>
<b>- Поиск экстремума: оптимизация </b>
<u>В оптимизации квазиньютоновские методы (частный случай переменно-метрических методов) — это алгоритмы нахождения локальных максимумов и минимумов функций. Квазиньютоновские методы основаны на методе Ньютона найти стационарную точку функции, где градиент равен 0. Метод Ньютона предполагает, что функция может быть локально аппроксимирована как квадратичная в области вокруг оптимума, и использует первую и вторую производные для нахождения стационарной точки. В высших измерениях метод Ньютона использует градиент и матрицу Гесса вторых производных функции, подлежащей минимизации.
В квазиньютоновских методах матрица Гесса не нуждается в вычислении. Гессен обновляется путем анализа последовательных векторов градиента. Квазиньютоновские методы являются обобщением секансного метода для нахождения корня первой производной для многомерных задач. В нескольких измерениях уравнение секанса недостаточно определено, и квазиньютоновские методы отличаются тем, как они ограничивают решение, обычно путем добавления простого низкорангового обновления к текущей оценке Гессена.</u>