# DNN
-
深度学习激活函数与正则化问题
这篇文章详细介绍了深度学习中的激活函数与正则化问题。首先,讨论了梯度消失问题(Vanishing Gradients)和Relu的缺点及其变形。接着,探讨了参数初始化问题,包括预训练(pre-training)和随机初始化(random initialization),并通过代码验证了Xavier初始化法,最后总结了参数初始化问题。文章还分析了梯度爆炸问题及其解决方案,如Normalization方法。 特别地,详细介绍了Batch Normalization(BN),包括其必要性、使用位置、算法过程、作用及存在的问题。最后,介绍了Layer Normalization、Instance Normalization和Group Normalization,全面展示了这些技术在深度学习中的应用及其解决问题的能力。
-
机器学习、深度学习优化函数详解
这篇文章详细介绍了机器学习和深度学习中的各种优化函数。首先,简要回顾了梯度下降法,并指出随机梯度下降的不足。接着,介绍了动量优化法(Momentum)、Adagrad优化法、Adadelta优化法和Adam优化法,并通过图示展示了这些优化方法的效果。最后,讨论了在TensorFlow中调用各种优化方法的实现,包括梯度下降法、Adagrad下降法、动量优化法、RMSProp算法、Adam算法和Adadelta优化法。文章全面展示了优化函数在提升模型训练效果中的应用和实现细节。
-
Logistics回归、Softmax代码实现
这篇文章介绍了Logistic回归和Softmax回归的代码实现过程,包括导入必要的库和数据集、声明学习率和模型变量、定义Softmax模型、声明损失函数(交叉熵)和优化器、保存和绘制计算图、训练模型、查看训练结果,并从训练集中挑选一组数据进行检验。文章提供了完整的代码示例,详细展示了Logistic回归和Softmax回归在数据分类中的应用。
-
Ridge和Lasso回归代码实现
这篇文章介绍了Ridge回归、Lasso回归和ElasticNet的代码实现过程及其结果展示。首先,讲解了Ridge回归的实现步骤,提供了详细的代码示例,并展示了结果。接着,介绍了Lasso回归的实现方法,同样附有代码和结果。最后,介绍了ElasticNet回归的实现,通过代码示例和结果展示,全面解析了这三种回归方法在数据分析中的应用。
-
SVM代码实现
这篇文章介绍了在TensorFlow中实现支持向量机(SVM)的过程。首先,讨论了软间隔SVM的实现,接着介绍了非线性SVM的实现方法,最后详细讲解了如何使用非线性SVM进行多分类任务。文章通过具体的代码示例,展示了从数据准备、模型定义到训练和评估的完整流程,帮助读者理解和应用SVM在TensorFlow中的实现。
-
线性回归代码实现
这篇文章介绍了线性回归的代码实现过程,包括简单线性回归和多元线性回归。主要步骤包括导入库和数据集、定义计算图和数据、设置学习率和模型变量、定义线性模型和损失函数、训练模型,并最终展示结果和绘制图像。文章还提供了完整的代码示例,帮助读者实践和参考。