自从ChatGPT火爆全球之后,人工智能就重新引起了所有人的关注。作为一位人工智能领域的产品设计者,我自然也是一直在关注这个领域的发展。最近读完了丁磊博士所著的《生成式人工智能》一书,借着这本书,我边分享书中观点,边给出自己的理解,与读者朋友一起来熟悉下。作者丁磊可不是网易的丁磊,而是同名同姓的另一个人:前百度金融首席数据科学家、历任PayPal科学数据科学部负责人。也是美国俄亥俄州立大学人工智能专业博士。
首先针对决策式AI,书中是这么解释的:
决策式AI(也被称作判别式AI)学习数据中的条件概率分布,即一个样本归属于特定类别的概率,再对新的场景进行判断、分析和预测。决策式AI有几个主要的应用领域:人脸识别、推荐系统、风控系统、其他智能决策系统、机器人、自动驾驶。例如在人脸识别领域,决策式AI对实时获取的人脸图像进行特征信息提取,再与人脸库中的特征数据匹配,从而实现人脸识别。简单来说,现在的人工智能模型就是一个公式,而这个函数具有哪些参数,比如要如何识别出猫和狗来,通过逻辑推导是几乎没办法知道这个公式的参数,那么需要提供大量的猫和狗的图片去训练这个AI模型,告诉它猫狗应该长什么样,让计算机自己去学习,提取特征,而这里面就利用了脑科学与计算机科学结合的概念,通过模拟大脑神经元的机制,构建了基于深度学习的人工神经网络,而通过不断喂给它训练的图片或视频,让AI模型越来越明白如何识别猫和狗,进而变得跟人类一样准确。人类是经过几百万年的进来才学习到快速识别猫狗的能力,其他亦如此。而计算机是通过以数量和不辞辛苦地训练追上这种识别能力。特定的识别产生特定的人工神经网络实现,比如识别猫狗就通常采用目标检测,基于卷积神经网络的YOLO系列来实现。决策式AI通常是小模型,通过不多的数据训练,快速得到一个特定领域的识别模型,不过只能做好一件事情。
而生成式人工智能,除了依然在使用深度学习的这样模型训练概念之外,还具备了生成新内容的能力。首先爆发的就是LLM,大语言模型,通过喂给人工智能大量的人类书籍、知识等数据,训练出了一个具备各行各业知识的模型,通过算法来对知识进行重组,而计算机所谓重组,就是对每个字的下一个字进行条件概率的统计,本质来讲,就是统计学。比如你问它,请问中国历史上第一位皇帝是谁?它就会逐一去理解你说的每一个字,然后再通过它掌握的知识库里,找寻类似字的下一个字出现的概率,比如找到比如第一位皇帝是秦,第二个字是始的概率就更高,第三字是皇的概率依然很高,而且它还可以继续扩展内容,继续补齐关于秦始皇的生平事迹。这与搜索引擎还不同,搜索引擎只是纯粹在海量的数据库中找到对应关键字的网页和文本,数据库有的才能找到。而生成式人工智能可以理解为把知识都打散了,又可以任意组合,这样就具备了编故事的能力,前提是你得告诉大语言模型你要它做什么,限定它的身份,不要扩散到没有边界。如果问医疗知识,就告诉它扮演医生,这样它才能把打散的知识库重新聚焦起来,把医学相关的知识进行分类重组。
同理,对于AI生成图片,就是把拆解每一个字符,换成拆解每一个图片的像素点,计算相邻像素点的概率分布,从而得到基于文本或输入图片得到的新图片。基于时间关系,今天先起个头,更多内容,咱们接下来几天慢慢唠唠。关于人工智能,有什么问题,欢迎留言讨论学习。以下,可以再欣赏几幅AI生成的画作,创作工具包括:Midjourney,商汤秒画,阿里通义万相,百度文心一格等,有时候感觉生成式AI作画就像个拆盲盒游戏,即使你限定了提示词,依然每次生成的图片都不一样,而且可以千真万确地是,是独一无二的,而这就是它的魅力之一:提示词:人工智能,识别猫,狗,万事万物,人类因此获益,杰作,细节丰富,高质量