ML
Stanford CS231n(2017版)-- Lecture 3:Loss Function and Optimization
在否决了 Lecture 2 中的 Nearest Neighbor 之后,接下来要尝试的是 Linear Classification。 Introduction
我们采用参数化的方法来做分类
如上图所示,用一个 103072 的参数矩阵 W,乘上 x (x…
Stanford CS231n(2017版)-- Lecture 2 笔记
Lecture 2 主要讲的是 image classification 的一些基础知识 (核心概念会用英语原味表达) 从最经典的例子入手:给你一张猫的图片,如何从一堆标签中正确地 pick 猫这个标签呢?
一言以蔽之,需要解决的是: Semantic gap between…