
1.2.3 对大模型的常见误区
大模型作为人工智能领域的革新技术,对很多人尤其是人工智能领域之外的人而言,具有一定的新颖性和神秘感。人们对大模型进行理解与认识的过程中往往存在着一些误区,这阻碍了人人拥抱大模型、有效使用大模型。下面介绍几种常见的误区,让读者对大模型有更清楚的认识。
1.大模型是新型搜索引擎
有很多人认为ChatGPT这类自然语言生成应用,在回答问题的时候,是先检索资料或者在网络上搜索,从资料或者网络信息中找到答案,最后返回给用户。这种说法是不准确的。事实上,大模型和搜索引擎存在着显著区别。
(1)工作原理不同
大模型能够回答问题是基于模型所具有的推理能力,是一种“无中生有”的生成新信息的过程。而这种能力是在大量数据集上进行训练和学习获取的。
搜索引擎是一种通过对互联网上的网页和其他在线资源进行索引来帮助用户查找信息的服务。其工作原理是检索并排序已存在的网络信息,而非生成新信息。
(2)“预知未来”的能力不同
面对从未出现过的信息,由于没有网络留痕,搜索引擎无法检索到准确的匹配结果。而大模型却能够对此做出一定的推理和回答,只不过这种回答通常是“胡说八道”,通常将这种现象称为“幻觉”。但是,至少大模型“假装”知道答案。目前,为了防止大模型出现“幻觉”,会采用价值对齐等方式,避免它“胡说八道”。
(3)大模型有望取代搜索引擎
大模型是一种新的知识表示和调用方式,有取代搜索引擎成为下一代信息检索工具的趋势。在人类知识表示和调用方式的演进历史中,先后经历了口口相传、文字记录、数据库等历史阶段。目前最流行的方式是谷歌、百度等搜索引擎。鉴于大模型友好的自然语言交互特性和强大的能力,大模型有望成为下一代的信息检索工具。
2.大模型就是通用人工智能
以大模型为核心的智能应用表现出了强大的能力,在各自的领域中取得了显著成果。例如,ChatGPT在对话聊天方面为用户带来了前所未有的互动体验,Sora在文生视频方面极大地拓宽了多媒体创作领域的边界。这些技术进步与创新应用让很多人夸张地惊呼“现实不存在了”“通用人工智能时代已经来临”。
然而,尽管这些基于大模型的应用展现了较高的智能化水平,但它们仍然是在特定任务上才具有高适应性的专用系统,而非真正意义上的“通用人工智能”。通用人工智能(A G I)是指具有人类水平的综合智能,能够在任何未预先编程的领域中学习并解决问题,同时具备跨领域的适应性和自我意识。
目前的大模型技术,尽管在特定领域表现卓越并有逐步扩展的趋势,但在解决抽象思维问题、自主思考与创新以及对自身行为的理解等方面,距离真正的通用人工智能还有较大差距。因此,既不应过分夸大大模型的能力,也要正视大模型朝通用人工智能发展的速度。
3.大模型给出的结果和答案就是正确的
由于大模型在很多时候能够提供准确、合理且有深度的答案,很多人乐意使用大模型。久而久之,人们在面对大模型给出的答案时,往往会不假思索地将其当成正确答案,完全信任大模型。事实上,这种做法是不对的,是一种具有极大风险的行为。
由于大模型的技术特点,并不能简单地认为大模型给出的所有结果和答案都是绝对正确的,主要有如下几个原因。
(1)算法局限性
目前,大模型是基于概率统计实现的。大模型的技术原理是根据已学习的数据分布进行预测,把预测结果的抽样作为答案反馈给用户。因此,即使模型结构再强大,也无法保证对所有问题都能找到100%正确的答案,尤其是在逻辑推理、道德判断等更需要深入思考的问题上,大模型无法给出完全符合人类价值观或真理的回答。
当然,目前大模型的研究正朝着高准确性和价值对齐的方向演进,有望通过其他技术手段突破模型本身的局限性。
(2)数据依赖性
大模型的构建基于其训练时所使用的数据集。如果数据集中存在错误、偏见或不完整之处,模型也会“学偏”,就会在处理相关信息时得出不准确的答案。这正如人类的学习过程一样,如果学习的时候采用了不恰当的教材,那么学生的认知和做事的方式就很难保证正确。同理,大模型输出答案的准确性也取决于训练数据的质量。
(3)上下文理解
尽管大模型(如GPT系列)在理解上下文方面有所改进,但仍然可能出现对复杂语境理解不准确的情况,导致回答偏离正确方向,尤其是当用户的问题有歧义的时候。
(4)实时更新性
模型一旦训练完成并部署,对于它未学习过的最新知识或实时更新的信息就可能无法掌握,因此在某些特定领域,特别是快速发展的科学和技术领域,它所提供的信息可能滞后或不准确。
因此,大模型虽然展现了强大的智能,但用户在实际应用中仍需谨慎对待其输出,并结合专业知识、人工审核及不断的优化迭代来确保结果的准确性。