導覽
近期變更
隨機頁面
新手上路
新頁面
優質條目評選
繁體
不转换
简体
繁體
3.145.65.133
登入
工具
閱讀
檢視原始碼
特殊頁面
頁面資訊
求真百科歡迎當事人提供第一手真實資料,洗刷冤屈,終結網路霸凌。
檢視 GPT图解 的原始碼
←
GPT图解
前往:
導覽
、
搜尋
由於下列原因,您沒有權限進行 編輯此頁面 的動作:
您請求的操作只有這個群組的使用者能使用:
用戶
您可以檢視並複製此頁面的原始碼。
{| class="wikitable" align="right" |- |<center><img src=https://www0.kfzimg.com/sw/kfz-cos/kfzimg/cdedabac/b9d67cf1c7ca105e_s.jpg width="260"></center> <small>[https://book.kongfz.com/100583/7251372570 来自 孔夫子网 的图片]</small> |} 《'''GPT图解'''》,副标题:大模型是怎样构建的,作者黄佳,责编蒋艳,定价79.80,ISBN号9787115623683,出版社人民邮电出版社,版印次1版 1次,开本16开,装帧平装,出版时间2023-12,印刷时间2023-12。 人民邮电出版社是全国优秀[[出版社]]、全国百佳图书出版单位。人民邮电出版社出版领域涵盖科技出版、教育出版、大众出版,涉及信息技术、[[通信]]、工业技术、科普<ref>[https://www.douban.com/group/topic/116170316/ 100部科普经典名著],豆瓣,2018-04-26</ref>、经济管理、摄影、艺术、运动与休闲、心理学、少儿、大中专教材等10余个出版门类,年出版[[图书]]<ref>[https://www.xuexila.com/lishi/zixun/ziliao/18945.html 图书的演变历史资料],学习啦,2017-06-07</ref>近万种。 ==内容简介== 人工智能(AI),尤其是生成式语言模型和生成式人工智能(AIGC)模型,正以惊人的速度改变着我们的世界。驾驭这股潮流的关键,莫过于探究自然语言处理(NLP)技术的深奥秘境。本书将带领读者踏上一段扣人心弦的探索之旅,让其亲身感受,并动手搭建语言模型。本书主要内容包括N-Gram,词袋模型(BoW),Word2Vec(W2V),神经概率语言模型(NPLM),循环神经网络(RNN),Seq2Seq(S2S),注意力机制,Transformer,从初代GPT到ChatGPT再到GPT-4等一系列突破性技术的诞生与演进。 本书将以生动活泼的笔触,将枯燥的[[技术]]细节化作轻松幽默的故事和缤纷多彩的图画,引领读者穿梭于不同技术的时空,见证自然语言处理技术的传承、演进与蜕变。在这场不断攀登技术新峰的奇妙之旅中,读者不仅能深入理解自然语言处理技术的核心原理,还能自己动手,从零开始搭建起一个又一个语言模型。 无论你是在校学生还是人工智能从业者,这本书都将成为一盏明灯,照亮你探索人工智能无限奥秘的道路。 ==目录== 序章 看似寻常最奇崛,成如容易却艰辛 GPT-4:点亮人工通用智能的火花 [[人工智能]]演进之路:神经网络两落三起 现代自然语言处理:从规则到统计 何为语言?信息又如何传播? NLP是人类和计算机沟通的桥梁 NLP技术的演进史 大规模预训练语言模型:BERT与GPT争锋 语言模型的诞生和进化 统计语言模型的发展历程 基于Transformer架构的预训练模型 “预训练+微调大模型”的模式 以提示 指令模式直接使用大模型 从初代GPT到ChatGPT,再到GPT- GPT作为生成式模型的天然优势 ChatGPT背后的推手——OpenAI 从初代GPT到ChatGPT,再到GPT-4的进化史 第 1课 高楼万丈平地起:语言模型的雏形N-Gram和简单文本表示Bag-of-Words ?1.1 N-Gram模型 ?1.2 “词”是什么,如何“分词” ?1.3 创建一个Bigram字符预测模型 ?1.4 词袋模型 ?1.5 用词袋模型计算文本相似度 小结 思考 第 2课 问君文本何所似: 词的向量表示Word2Vec和Embedding ?2.1 词向量 ≈ 词嵌入 ?2.2 Word2Vec:CBOW模型和Skip-Gram模型 ?2.3 Skip-Gram模型的代码实现 ?2.4 CBOW模型的代码实现 ?2.5 通过nn.Embedding来实现词嵌入 小结 思考 第3课 山重水复疑无路:神经概率语言模型和循环神经网络 ?3.1 NPLM的起源 ?3.2 NPLM的实现 ?3.3 循环神经网络的结构 ?3.4 循环神经网络实战 小结 思考 第4课 柳暗花明又一村:Seq2Seq编码器-解码器架构 ?4.1 Seq2Seq架构 ?4.2 构建简单Seq2Seq架构 小结 思考 第5课 见微知着开慧眼:引入注意力机制 ?5.1 点积注意力 ?5.2 缩放点积注意力 ?5.3 编码器-解码器注意力 ?5.4 注意力机制中的Q、K、V ?5.5 自注意力 ?5.6 多头自注意力 ?5.7 注意力掩码 ?5.8 其他类型的注意力 小结 思考 第6课 层峦叠翠上青天:搭建GPT核心组件Transformer ?6.1 Transformer架构剖析 ?6.1.1 编码器-解码器架构 ?6.1.2 各种注意力的应用 ?6.1.3 编码器的输入和位置编码 ?6.1.4 编码器的内部结构 ?6.1.5 编码器的输出和编码器-解码器的连接 ?6.1.6 解码器的输入和位置编码 ?6.1.7 解码器的内部结构 ?6.1.8 解码器的输出和Transformer的输出头 ?6.2 Transformer代码实现 ?6.3 完成翻译任务 ?6.3.1 数据准备 ?6.3.2 训练Transformer模型 ?6.3.3 测试Transformer模型 小结 思考 第7课 芳林新叶催陈叶:训练出你的简版生成式GPT ?7.1 BERT与GPT争锋 ?7.2 GPT:生成式自回归模型 ?7.3 构建GPT模型并完成文本生成任务 ?7.3.1 搭建GPT模型(解码器) ?7.3.2 构建文本生成任务的数据集 ?7.3.3 训练过程中的自回归 ?7.3.4 文本生成中的自回归(贪婪搜索) ?7.4 使用WikiText2数据集训练Wiki-GPT模型 ?7.4.1 用WikiText2构建Dataset和DataLoader ?7.4.2 用DataLoader提供的数据进行训练 ?7.4.3 用Evaluation Dataset评估训练过程 ?7.4.4 文本生成中的自回归(集束搜索) 小结 思考 第8课 流水后波推前波:ChatGPT基于人类反馈的强化学习 ?8.1 从GPT到ChatGPT ?8.2 在Wiki-GPT基础上训练自己的简版ChatGPT ?8.3 用Hugging Face预训练GPT微调ChatGPT ?8.4 ChatGPT的RLHF实战 ?8.4.1 强化学习基础知识 ?8.4.2 简单RLHF实战 小结 思考 第9课 生生不息的循环:使用强大的GPT-4 API ?9.1 强大的OpenAI API ?9.2 使用GPT-4 API 小结 思考 后 记 莫等闲,白了少年头 ==参考文献== [[Category:040 類書總論;百科全書總論]]
返回「
GPT图解
」頁面