BERT基礎教程
《BERT基礎教程》,副標題:Transformer大模型實戰,[印] 蘇達哈爾桑·拉維昌迪蘭(Sudharsan Ravichandiran) 著,周參 譯,出版社: 人民郵電出版社。
人民郵電出版社,1953年10月成立,隸屬於中國工信出版傳媒集團,是工業和信息化部主管的大型專業出版社[1]。建社以來,人民郵電出版社圍繞「立足工信事業,面向現代社會,傳播科學知識,引領美好生活」的出版宗旨,已發展成為集圖書、期刊、音像電子及數字出版於一體的綜合性出版大社[2]。
目錄
內容簡介
本書聚焦谷歌公司開發的BERT自然語言處理模型,由淺入深地介紹了BERT的工作原理、BERT的各種變體及其應用。本書呈現了大量示意圖、代碼和實例,詳細解析了如何訓練BERT模型、如何使用BERT模型執行自然語言推理任務、文本摘要任務、問答任務、命名實體識別任務等各種下游任務,以及如何將BERT模型應用於多種語言。通讀本書後,讀者不僅能夠全面了解有關BERT的各種概念、術語和原理,還能夠使用BERT模型及其變體執行各種自然語言處理任務。
作者介紹
【作者簡介】
蘇達哈爾桑.拉維昌迪蘭(Sudharsan Ravichandiran)
熱愛開源社區的數據科學家,研究方向為深度學習和強化學習的實際應用,在自然語言處理和計算機視覺等領域都頗有建樹,另着有《Python強化學習實戰》。
【譯者簡介】
周參
就職於谷歌,任軟件工程師,研究方向為自然語言處理。工作之餘的興趣是研究人工智能領域機器學習方向以及新的模型算法,並將多種深度學習模型應用於實際問題中。
參考文獻
- ↑ 我國出版社的等級劃分和分類標準,知網出書,2021-03-01
- ↑ 人民郵電出版社簡介,人民郵電出版社