您的位置:首页 > 其它

CS231n(2):课程作业# 1简介

2017-11-19 13:57 253 查看
在本作业中,将基于k-最近邻(k-Nearest Neighbor)或者SVM/Softmax分类器实践一个简单的图像分类流程。本作业的目标如下:
理解基本的图像分类流程和数据驱动方法(训练与预测阶段)。
理解训练、验证、测试分块,学会使用验证数据来进行超参数调优。
熟悉使用numpy来编写向量化代码。
实现并应用k-最近邻(k-NN)分类器。
实现并应用支持向量机(SVM)分类器。
实现并应用Softmax分类器。
实现并应用一个两层神经网络分类器。
理解以上分类器的差异和权衡之处。
基本理解使用更高层次表达相较于使用原始图像像素对算法性能的提升(例如:色彩直方图和梯度直方图HOG)。


提交作业

无论你是在云终端还是在本地完成作业,一旦完成作业,就运行collectSubmission.sh脚本;这样将会产生一个assignment1.zip的文件,然后将这个文件上传到你的dropbox中这门课的作业页面


Q1:k-最近邻分类器(20分)

IPython Notebook文件knn.ipynb将会带你实现kNN分类器。


Q2:训练一个SVM(25分)

IPython Notebook文件svm.ipynb将带你实现SVM分类器。


Q3:实现Softmax分类器(20分)

IPython Notebook文件softmax.ipynb将带你实现softmax分类器。


Q4:实现2层神经网络(25分)

IPython Notebook文件two_layer_net.ipynb带你实现一个2层神经网络。


Q5:更高层次表达:图像特征(10分)

IPython Notebook文件features.ipynb带你比较使用更高层次表达相较于使用原始像素对于算法性能的提升。


Q6:加分:做点儿其他的!(+10分)

实现、调查或者分析其他一些与本次作业相关的主题,并使用你实现的代码。例如,有没有什么你们可以问的有趣问题?能不能做出一些具有洞察力的图表?或者任何有趣且值得一看的东西?也许你还可以对损失函数做点其他实验?如果你尝试了一些够酷东西,我们将给你10分的加分,这将影响你的课程表现。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: