diff --git a/tutorials/experts/source_zh_cn/operation/op_classification.ipynb b/tutorials/experts/source_zh_cn/operation/op_classification.ipynb index ba0b6e07db41cd0aa81e9fa2a2bf1e7305ebaa17..afcc5a741c9f8162aa10aefe14eb5d6a9954c337 100644 --- a/tutorials/experts/source_zh_cn/operation/op_classification.ipynb +++ b/tutorials/experts/source_zh_cn/operation/op_classification.ipynb @@ -64,7 +64,7 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "更多functional接口参见[functional接口](https://mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.html#functional)。\n", + "更多functional接口参见[functional接口](https://mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.functional.html)。\n", "\n", "### 计算相关的算子\n", "\n", @@ -72,7 +72,7 @@ "\n", "#### 神经网络算子\n", "\n", - "神经网络算子主要用于构建网络模型,比如卷积算子Conv2D,最大池化算子MaxPool等,参见[神经网络算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.html#neural-network-operators)。\n", + "神经网络算子主要用于构建网络模型,比如卷积算子Conv2D,最大池化算子MaxPool等,参见[神经网络算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.html#神经网络层算子)。\n", "\n", "以下代码展示了最大池化算子MaxPool的使用:" ] @@ -120,7 +120,7 @@ "source": [ "#### 数学算子\n", "\n", - "数学算子主要是针对数学运算开发的算子,比如相加算子Add、求对数算子Log等,参见[数学算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.html#math-operators)。\n", + "数学算子主要是针对数学运算开发的算子,比如相加算子Add、求对数算子Log等,参见[数学算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.html#数学运算算子)。\n", "\n", "以下代码展示了求对数算子Log的使用:" ] @@ -161,7 +161,7 @@ "source": [ "#### 数组算子\n", "\n", - "数组算子主要是针对数组类操作的算子,比如排序算子Sort、转置算子Transpose等,参见[数组算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.html#array-operators)。\n", + "数组算子主要是针对数组类操作的算子,比如排序算子Sort、转置算子Transpose等,参见[数组算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.html#array操作)。\n", "\n", "以下代码展示了转置算子Transpose的使用:" ] @@ -209,7 +209,7 @@ "source": [ "#### 通信算子\n", "\n", - "通信算子主要是针对[多卡训练](https://www.mindspore.cn/tutorials/experts/zh-CN/r1.7/parallel/train_ascend.html)时对各个卡进行通信的算子,比如收集算子AllGather、广播算子Broadcast等,参见[通信算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.html#communication-operators)。\n", + "通信算子主要是针对[多卡训练](https://www.mindspore.cn/tutorials/experts/zh-CN/r1.7/parallel/train_ascend.html#多机多卡训练)时对各个卡进行通信的算子,比如收集算子AllGather、广播算子Broadcast等,参见[通信算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.ops.html#communication-operators#通信算子)。\n", "\n", "以下代码展示了收集算子AllGather的使用:\n", "\n", @@ -268,7 +268,7 @@ "\n", "### 卷积层算子\n", "\n", - "卷积层算子主要是在模型卷积层中使用的算子,比如卷积算子Conv2d、转置卷积算子Conv2dTranspose等,参见[卷积层算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.nn.html#convolution-layers)。\n", + "卷积层算子主要是在模型卷积层中使用的算子,比如卷积算子Conv2d、转置卷积算子Conv2dTranspose等,参见[卷积层算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.nn.html#卷积神经网络层)。\n", "\n", "以下代码展示了卷积算子Conv2d的使用:" ] @@ -309,7 +309,7 @@ "source": [ "### 池化层算子\n", "\n", - "池化层算子主要是在模型池化层中使用的算子,比如平均池化算子AvgPool2d、最大池化算子MaxPool2d等,参见[池化层算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.nn.html#pooling-layers)。\n", + "池化层算子主要是在模型池化层中使用的算子,比如平均池化算子AvgPool2d、最大池化算子MaxPool2d等,参见[池化层算子](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.nn.html#池化层)。\n", "\n", "以下代码展示了最大池化算子MaxPool2d的使用:" ] @@ -350,7 +350,7 @@ "source": [ "### 损失函数\n", "\n", - "损失函数主要是用来评价模型的预测值和真实值的差异程度,常用的损失函数有BCEWithLogitsLoss、SoftmaxCrossEntropyWithLogits等,参见[损失函数](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.nn.html#loss-functions)。\n", + "损失函数主要是用来评价模型的预测值和真实值的差异程度,常用的损失函数有BCEWithLogitsLoss、SoftmaxCrossEntropyWithLogits等,参见[损失函数](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.nn.html#损失函数])。\n", "\n", "以下代码展示了SoftmaxCrossEntropyWithLogits损失函数的使用:" ] @@ -393,7 +393,7 @@ "source": [ "### 优化器\n", "\n", - "优化器主要是用于计算和更新梯度,常用的优化器有Adam、Momentum等,参见[优化器](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.nn.html#optimizer-functions)。\n", + "优化器主要是用于计算和更新梯度,常用的优化器有Adam、Momentum等,参见[优化器](https://www.mindspore.cn/docs/zh-CN/r1.7/api_python/mindspore.nn.html#优化器)。\n", "\n", "以下代码展示了Momentum优化器的使用:\n", "\n",