A.增加訓(xùn)練集量B.減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C.刪除稀疏的特征D.SVM算法中使用高斯核/RBF核代替線性核
A.Logistic回歸可用于預(yù)測事件發(fā)生概率的大小B.Logistic回歸的目標(biāo)函數(shù)是最小化后驗(yàn)概率C.SVM的目標(biāo)的結(jié)構(gòu)風(fēng)險(xiǎn)最小化D.SVM可以加入正則化項(xiàng),有效避免模型過擬合
A.隱藏層層數(shù)增加,模型能力增加B.Dropout的比例增加,模型能力增加C.學(xué)習(xí)率增加,模型能力增加D.都不正確