原标题:优化模型的优点,优化模型的优点有哪些
导读:
Intro...
线性规划模型的优缺点及改进
线性规划模型的优点:
1.拥有一套统一的算法,可以处理任何线性规划问题,为多变量最优决策提供了方**支持。
线性规划模型的缺点:
1.对输入数据的准确性要求较高,仅适用于线性问题,无法处理非线性规划约束。
2.在处理大规模数据时,计算量可能非常大,这可能导致计算效率降低。
3.虽然可以通过演变出的非线性规划方法来解决更复杂的问题,但这些方法往往伴随着成倍的计算量增加。
线性规划是决策系统中用于静态最优化问题的数学规划方法之一。作为经营管理决策的数学工具,它在多个领域中有着广泛的应用,包括但不限于科学研究、工程设计、生产调度、军事指挥和经济规划。
扩展资料:
1.每个线性规划模型包含多个决策变量(如x1, x2, x3..., xn),其中n代表决策变量的数量。这些变量的组合代表不同的方案,且通常决策变量被假设为非负值。
2.目标函数是决策变量的线性组合,根据具体问题可以是最大化或最小化,两者都属于最优化范畴。
3.约束条件同样可以是决策变量的线性函数,当一个数学模型的目标函数和约束条件都是线性时,该模型被称为线性规划模型。
参考资料来源:百度百科-线性规划
知名模型的特征交叉优缺点(按时间顺序整理)
基于特征交互的模型大致分为三类:Aggregation based方法、Graph based方法和Combinatorial embedding方法。以下是截至2020年,发表过的特征交叉相关的论文及其核心特点:
1. LR(WWW 2007):特征的加权线性组合,优点包括数学理论支撑、符合直觉和工程化需要,缺点为无法拟合非线性关系。
2. Poly2(2010):特征的暴力组合,解决LR无法利用高维特征的问题,优点在于解决特征问题,缺点为训练复杂度过高和稀疏数据收敛困难。
3. FM(ICDM 2010):引入隐向量实现特征交叉,优点为降低训练开销并允许稠密表达,缺点是仅支持二阶特征交叉。
4. PairwiseFM(CIKM2013):在LTR中使用pairwise方法,通过FM模型实现特征交叉,优点在于高效解决特征选择和组合问题,缺点为过拟合风险和特征转换损失。
5. GBDT+LR(Facebook 2014):利用GBDT生成特征向量,再输入LR模型,优点为高效解决特征选择和组合问题,缺点为容易过拟合和特征信息丢失。
6. FFM(RecSys 2016):引入域概念进行特征交叉,优点为表达能力增强和特征交叉更细致,缺点为权重数量增加和仅支持二阶交叉。
7. Wide&Deep(RecSys 2016):结合Wide部分的线性模型和Deep部分的神经网络,优点为学习高阶交互特征,缺点为MLP表现一般。
8. FNN(ECIR 2016):将FM模型的隐向量初始化为深度神经网络模型,优点为降低训练开销,缺点为预训练阶段增加计算复杂度和丢失低阶特征。
9. PNN(ICDM 2016):在神经网络层间使用“product operation”,优点为学习不同域特征间相关性,缺点为舍弃低阶特征。
10. Deep Crossing(KDD2016):通过神经网络学习所有特征交叉,优点为无需人工特征工程,缺点为可能的特征交叉冗余。
11. Lambda FM(CIKM2016):结合LambdaRank思想和Pairwise FM,优点为优化排名过程,缺点为潜在的特征交叉冗余。
12. DiFacto(WSDM 2016):基于Parameter Server的分布式FM算法,优点为简单高效,缺点为依赖FM参数。
13. F2M(NIPS 2016):基于PS架构的FFM算法,优点为可扩展性,缺点为高阶交叉参数线性增加。
14. High-order FM(NIPS 2016):解决三阶甚至更高阶特征交叉问题,优点为增强模型表达能力,缺点为计算复杂度增加。
15. AFM(IJCAI 2017):通过注意力网络学习特征交互权重,优点为避免冗余特征交叉,缺点为计算复杂度。
16. NFM(SIGIR 2017):将FM模型的向量输入全连接层,优点为结合二阶和高阶特征交叉,缺点为参数量增加。
17. DeepFM(IJCAI 2017):结合FM和DNN的Wide&Deep框架,优点为融合二阶和高阶特征交叉,缺点为模型复杂度。
18. DCN(ADKDD 2017):由Embedding、Cross网络、Deep网络和Combination output Layer组成,优点为表达任意高阶组合且保留低阶组合。
19. FwFM(WWW 2018):针对每两个特征增加参数,优点为简单区分特征交互。
20. Autoint(CIKM 2018):通过Multi-head Self-Attention显示构造高阶特征,优点为提高可解释性和学习高维特征交叉。
21. xDeepFM(SIGKDD 2018):结合显式和隐式特征交叉,优点为显式学习高阶特征交叉。
22. Robust FM(WWW2018):引入robust optimization,优点为增强鲁棒性。
23. Discrete FM(IJCAI 2018):将FM模型中的隐向量限制为±1,优点为提高效率,缺点为可能的模型效果下降。
24. SFTRL FM(KDD 2018):提出优化算法,优点为在线学习能力。
25. ONN/NFFM(Arxiv2019):在DeepFM基础上将FM部分转化为FFM,优点为显示二阶域向量与隐式向量结合。
26. HFM(AAAI2019):通过CCOR和CCOV计算交叉点积,优点为节省内存和获得更多信息。
27. TFNET(SIGIR2020):在多种语义层面进行特征交叉,优点为实现多语义特征交互。
28. AutoFIS(KDD2020):自动选择特征交叉,优点为减少冗余特征交叉。
29. AoAFFM(AAAI2020):引入Interaction-Level的Attention,优点为缓解特征冗余问题。
30. CAN(ArXiv2020):通过co-action单元分离表示学习和co-action行为,优点为提高特征协同建模能力。
31. DCNV2(ArXiv2020):DCN中cross网络参数升级为矩阵,优点为提高表达能力和便利落地。