当前位置:   article > 正文

昇思25天学习打卡营第15天|两个分类实验

昇思25天学习打卡营第15天|两个分类实验

打卡

目录

打卡

实验1:K近邻算法实现红酒聚类

数据准备

模型构建--计算距离

计算演示

模型预测

实验2:基于MobileNetv2的垃圾分类

任务说明

数据集

参数配置(训练/验证/推理)

数据预处理

MobileNetV2模型搭建

MobileNetV2模型的训练与测试

模型训练与测试

训练过程

模型推理

导出AIR/GEIR/ONNX模型文件


此次两个分类实验中,一个是经典的knn聚类算法,一种是轻量级cnn网络,都是基于较轻资源可以实现的任务。

可以在任务简单、逻辑清晰的任务中使用。

实验1:K近邻算法实现红酒聚类

K近邻算法(K-Nearest-Neighbor, KNN)是一种用于分类和回归的非参数统计方法,于1968年提出(Cover等人,1967)。

  • 思想:如何确定某个样本的类别?计算 & 找出该样本与所有样本的中距离最近的K个样本;统计这K个样本的类别并投票,投票最多的类别即确定为该样本的类别。
  • knn的3个要素:
  1. K值,一个样本的分类是由K个邻居的“多数表决”确定的。K值越小,容易受噪声影响,反之,会使类别之间的界限变得模糊。k的取值可以根据问题和数据特点来确定。在具体实现时,可以考虑样本的权重,即每个样本有不同的投票权重,这种方法称为带权重的k近邻算法,它是一种变种的k近邻算法。如,带样本权重的回归预测函数为:$\hat y = (\sum_{i=1}^{n}{w_{i}y_{i}})/k$,其中

    声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/878136
推荐阅读
相关标签