Application of the dual active set algorithm to quadratic network optimization

1993 ◽  
Vol 1 (4) ◽  
pp. 349-373 ◽  
Author(s):  
William W. Hager ◽  
Donald W. Hearn
1991 ◽  
Vol 3 (1) ◽  
pp. 29-44 ◽  
Author(s):  
J. Rakowska ◽  
R. T. Haftka ◽  
L. T. Watson

Author(s):  
Aleksandr Aleksandrovich Gudkov ◽  
Sergei Vladimirovich Mironov ◽  
Sergei Petrovich Sidorov ◽  
Sergey Viktorovich Tyshkevich

В последнее время задачи статистики с ограничениями на форму данных привлекают повышенное внимание. Одной из таких задач является задача поиска оптимальной монотонной регрессии. Проблема построения монотонной регрессии (которая также называется изотонной регрессией) состоит в том, чтобы для данного вектора (не обязательно монотонного) найти неубывающий вектор с наименьшей ошибкой приближения к данному. Выпуклая регрессия есть развитие понятия монотонной регрессии для случая $2$-монотонности (т.е. выпуклости). Как изотонная, так и выпуклая регрессия находят применение во многих областях, включая непараметрическую математическую статистику и сглаживание эмпирических данных. В данной статье предлагается итерационный алгоритм построения разреженной выпуклой регрессии, т.е. для нахождения выпуклого вектора $z\in \mathbb{R}^n$ с наименьшей квадратичной ошибкой приближения к данному вектору $y\in \mathbb{R}^n$ (не обязательно являющемуся выпуклым). Задача может быть представлена в виде задачи выпуклого программирования с линейными ограничениями. Используя условия оптимальности Каруша-Куна-Таккера, доказано, что оптимальные точки должны лежать на кусочно-линейной функции. Доказано, что предложенный двойственный алгоритм на основе активного множества для построения оптимальной разреженной выпуклой регрессии имеет полиномиальную сложность и позволяет найти оптимальное решение (для которого выполнены условия Каруша-Куна-Таккера).


2012 ◽  
Vol 2012 ◽  
pp. 1-10 ◽  
Author(s):  
Muhammad Asif Zahoor Raja ◽  
Junaid Ali Khan ◽  
Siraj-ul-Islam Ahmad ◽  
Ijaz Mansoor Qureshi

A methodology for solution of Painlevé equation-I is presented using computational intelligence technique based on neural networks and particle swarm optimization hybridized with active set algorithm. The mathematical model of the equation is developed with the help of linear combination of feed-forward artificial neural networks that define the unsupervised error of the model. This error is minimized subject to the availability of appropriate weights of the networks. The learning of the weights is carried out using particle swarm optimization algorithm used as a tool for viable global search method, hybridized with active set algorithm for rapid local convergence. The accuracy, convergence rate, and computational complexity of the scheme are analyzed based on large number of independents runs and their comprehensive statistical analysis. The comparative studies of the results obtained are made with MATHEMATICA solutions, as well as, with variational iteration method and homotopy perturbation method.


Sign in / Sign up

Export Citation Format

Share Document