
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人
1.2.2 向量的内积
两个向量的内积也称为两个向量的点乘,它是这两个向量对应分量相乘之后求和的结果。向量的内积是一个标量。向量x=(x1,x2,…,xn)T和向量y=(y1,y2,…,yn)T的内积公式是

定义了线性运算和内积的Rn称为欧氏空间。欧氏空间的详细定义会在后续章节给出。欧氏空间是一种常用的线性空间,欧氏空间中向量的加法和数乘定义是

其中,xi、yi、c∈R是标量。
向量x的大小为它内积的平方根,即,记为
,也称为向量的模。向量内积满足定理1.1(柯西-施瓦茨不等式)。
定理1.1 向量的内积满足

证明:当y=0时,式(1.1)显然成立。假设y≠0,令

则有

又因为

等式两边开方有

若两个向量的内积等于零,则称它们正交。若线性空间V的一个向量v∈V与V的子空间W(W⊂V)中的任意向量w正交,即对于∀w∈W,有v·w=0,则称向量v与子空间W正交。两个向量正交可以理解为它们之间的夹角为90°,任意两个向量x和y之间的夹角可以用余弦定理来表示,即

应用要点:在机器学习与人工智能的应用中,经常需要评估不同样本(将样本表示为向量)之间的相似性度量。式(1.2)就是一种常用的相似性度量,称为余弦相似度。余弦相似度的取值范围为-1~1,值越大说明两个向量越相似,值越小说明两个向量越不相似。