scholarly journals Мінімаксний підхід в машинному навчанні: сучасний стан та перспективи розвитку.

Author(s):  
В. Марценюк ◽  
І. Андрущак ◽  
Н. Мілян

В статті представлено з.начення машинного навчання у сучасному світі. Звернуто особливу увагу на використання алгоритмів машинного навчання в медицині, зокрема використання різноманітних моделей, починаючи від регресії, SVM, випадкових лісів для контрольованого навчання та PCA для неконтрольованого. Підкреслюються основні невизначеності та завдання машинного навчання, що виникають у основних медичних додатках (діагностика, лікування та профілактика). Математично описано проблеми машинного навчання в медичних дослідженнях. Оптимізація є важливою частиною машинного навчання. Основна увага приділена мінімаксному підходу у машинному навчанні. Розглянуто ряд мінімаксних підходів таких, як: Minimax Probability Machine (MPM), Generalized Hidden-Mapping Minimax Probability Machine (GHM-MPM), Minimum Error Minimax Probability Machine (MEMPM), парна мінімаксна ймовірність екстремального нахилу машини (TMPELM), машина подвійної мінімаксної ймовірності (TWMPM) та деякі інші.

Author(s):  
ZENGLIN XU ◽  
IRWIN KING ◽  
MICHAEL R. LYU

Feature selection is an important task in pattern recognition. Support Vector Machine (SVM) and Minimax Probability Machine (MPM) have been successfully used as the classification framework for feature selection. However, these paradigms cannot automatically control the balance between prediction accuracy and the number of selected features. In addition, the selected feature subsets are also not stable in different data partitions. Minimum Error Minimax Probability Machine (MEMPM) has been proposed for classification recently. In this paper, we outline MEMPM to select the optimal feature subset with good stability and automatic balance between prediction accuracy and the size of feature subset. The experiments against feature selection with SVM and MPM show the advantages of the proposed MEMPM formulation in stability and automatic balance between the feature subset size and the prediction accuracy.


2018 ◽  
Vol 51 (24) ◽  
pp. 1292-1297 ◽  
Author(s):  
Maiying Zhong ◽  
Yang Song ◽  
Ting Xue ◽  
Rui Yang ◽  
Wenbo Li

2017 ◽  
Vol 47 (1) ◽  
pp. 58-69 ◽  
Author(s):  
Shiji Song ◽  
Yanshang Gong ◽  
Yuli Zhang ◽  
Gao Huang ◽  
Guang-Bin Huang

2020 ◽  
Vol 95 ◽  
pp. 104242
Author(s):  
Yang Song ◽  
Maiying Zhong ◽  
Ting Xue ◽  
Steven X. Ding ◽  
Wenbo Li

2021 ◽  
Vol 2021 (1) ◽  
Author(s):  
Adisorn Kittisopaporn ◽  
Pattrawut Chansangiam

AbstractThis paper proposes an effective gradient-descent iterative algorithm for solving a generalized Sylvester-transpose equation with rectangular matrix coefficients. The algorithm is applicable for the equation and its interesting special cases when the associated matrix has full column-rank. The main idea of the algorithm is to have a minimum error at each iteration. The algorithm produces a sequence of approximated solutions converging to either the unique solution, or the unique least-squares solution when the problem has no solution. The convergence analysis points out that the algorithm converges fast for a small condition number of the associated matrix. Numerical examples demonstrate the efficiency and effectiveness of the algorithm compared to renowned and recent iterative methods.


1993 ◽  
Vol 6 (3) ◽  
pp. 397-407 ◽  
Author(s):  
M.T. Musavi ◽  
K. Kalantri ◽  
W. Ahmed ◽  
K.H. Chan
Keyword(s):  

Sign in / Sign up

Export Citation Format

Share Document