近日,虎博科技滿懷誠(chéng)意地發(fā)布TigerBot V2,涉及基座模型、chat模型、產(chǎn)品升級(jí)、 TigerBot-API升級(jí)等多個(gè)方面的更新。此次,虎博科技將同步共享TigerBot發(fā)布的具體內(nèi)容和訓(xùn)練過程中的一些科學(xué)和工程的探索結(jié)果,與大模型開發(fā)者們一同推動(dòng)AIGC的繁榮。
如想率先體驗(yàn)虎博科技TigerBot的新版本,可通過以下地址前往:
TigerBot demo 在線體驗(yàn):https://tigerbot.com/chat
Github 項(xiàng)目: https://github.com/Tigerye/TigerBot
更新一:基座模型經(jīng)評(píng)測(cè)已超部分主流開源模型近30%
虎博科技的TigerBot-7b-base-v2(基座模型)在1.5TB多語言數(shù)據(jù)上充分訓(xùn)練,千卡耗時(shí)一個(gè)月,投入算力成本約300萬,在OpenAI采用的公開NLP 7項(xiàng)任務(wù)評(píng)測(cè)中,超過同等LLaMA、Bloom等主流開源模型達(dá)15%-30%?;⒉┛萍紙F(tuán)隊(duì)認(rèn)為,TigerBot的base-v2是業(yè)內(nèi)同等大小模型里能力最強(qiáng)的base model之一,適合各領(lǐng)域開發(fā)者以此為基礎(chǔ)繼續(xù)預(yù)訓(xùn)練或者監(jiān)督微調(diào)。
圖1: 虎博科技TigerBot-7b-base-v2在public NLP 7 tasks evaluation performance
圖2: 虎博科技TigerBot-7b-base-v2預(yù)訓(xùn)練數(shù)據(jù)分布
圖3: 虎博科技TigerBot-7b-base-v2預(yù)訓(xùn)練loss收斂曲線
更新二:chat模型經(jīng)9項(xiàng)公開語料測(cè)評(píng),效果提升 9.3%
使用虎博科技TigerBot-7b-base-v2 經(jīng)過有監(jiān)督微調(diào)的chat model,在2000萬(20G) 高質(zhì)量清洗和配比的微調(diào)指令數(shù)據(jù)集上充分訓(xùn)練,在9項(xiàng)公開語料next-token prediction accuracy測(cè)評(píng)上優(yōu)于TigerBot-7b-sft-v1版本9.3%,loss drop by 35%?;⒉┛萍紙F(tuán)隊(duì)認(rèn)為,TigerBot-7b-sft-v2是業(yè)內(nèi)同等大小模型里能力最強(qiáng)的chat model之一,適合各領(lǐng)域應(yīng)用開發(fā)者以此為基礎(chǔ)開發(fā)問答、摘要、生成等任務(wù)的應(yīng)用。
圖4: 虎博科技TigerBot-7b-sft-v2在public NLP 9 tasks evaluation performance
圖5:虎博科技TigerBot-7b-sft-v2訓(xùn)練數(shù)據(jù)分布
圖6: 虎博科技TigerBot-7b-sft-v2訓(xùn)練loss收斂曲線
TigerBot-7b-sft-v2的chat樣例如下所示:
圖7: 虎博科技TigerBot chat展示
更新三:產(chǎn)品升級(jí)——搜索模式和流式生成提升體驗(yàn)感
產(chǎn)品方面,因新版開啟了搜索模式和流式生成,使用虎博科技的TigerBot產(chǎn)品也有了新的體驗(yàn)?;⒉┛萍冀Y(jié)合了互聯(lián)網(wǎng)搜索和工具(如天氣,股價(jià),計(jì)算器等),打開了LLM+Search的應(yīng)用場(chǎng)景,適合有實(shí)時(shí)信息查詢需求的應(yīng)用。同時(shí)開放的chat-api也支持搜索和流式模式的開關(guān),如下圖所示:
圖8: 虎博科技TigerBot搜索模式頁面示例
更新四:TigerBot-API升級(jí),更多調(diào)用選擇
虎博科技全面升級(jí)TigerBot-API,讓使用者有了更多工具選擇?;⒉┛萍奸_放出LLM應(yīng)用開發(fā)常用的工具,通過簡(jiǎn)單的API調(diào)用即可快速實(shí)現(xiàn)相關(guān)應(yīng)用。API包括LLM下的chat, plugin, finetune, Text下的embedding, summarization, pdf2text, Visio下的text2image。API使用示例如下展示:
圖9: 虎博科技TigerBot-API示例展示
TigerBot V2訓(xùn)練中的科學(xué)與工程探索
1. data quality or data volume ?
虎博科技創(chuàng)始人陳燁始終堅(jiān)信數(shù)據(jù)的質(zhì)量比數(shù)據(jù)的數(shù)量更重要,尤其是中文網(wǎng)絡(luò)數(shù)據(jù),TigerBot模型是在v1基礎(chǔ)上繼續(xù)預(yù)訓(xùn)練?;⒉┛萍紙F(tuán)隊(duì)通過實(shí)驗(yàn)發(fā)現(xiàn),模型本身有很強(qiáng)的學(xué)習(xí)和記憶能力,少到數(shù)十條低質(zhì)量的數(shù)據(jù)就會(huì)讓模型學(xué)到,導(dǎo)致不理想的回答風(fēng)格。這里的低質(zhì)量數(shù)據(jù)包括:網(wǎng)絡(luò)口語詞、社區(qū)論壇等的jargon、敏感和有害的內(nèi)容(harmness)、廣告類、格式不規(guī)范的內(nèi)容?;⒉┛萍紙F(tuán)隊(duì)通過規(guī)則和模型過濾掉~10%的低質(zhì)量數(shù)據(jù)。其中針對(duì)敏感、涉黃、不符合主流價(jià)值觀的內(nèi)容,虎博團(tuán)隊(duì)選擇用三個(gè)SOTA內(nèi)容審核模型ensemble來過濾。
虎博科技團(tuán)隊(duì)采用以下步驟和算法清洗數(shù)據(jù),以在O(n^2)的復(fù)雜度下獲得高質(zhì)量數(shù)據(jù):
(1)先用規(guī)則去掉雜亂數(shù)據(jù),例如instruction全是標(biāo)點(diǎn)符號(hào)或者數(shù)字的,
(2)然后使用exact string match去重,
(3)再用sequence simhash + longest common substring去重,
(4)去重后利用SOTA審核模型去掉謾罵色情涉政的數(shù)據(jù)。
2. more epoch or more data ?
在高質(zhì)量數(shù)據(jù)的基礎(chǔ)上,模型的學(xué)習(xí)能力使得1-2epoch就能概率上學(xué)到數(shù)據(jù)中的知識(shí)和指令,所以虎博科技團(tuán)隊(duì)把有限的算力讓模型去學(xué)習(xí)更多更豐富的知識(shí)和任務(wù)類型。在虎博科技團(tuán)隊(duì)的大部分實(shí)驗(yàn)中,模型的training loss在一個(gè)epoch后就收斂到最終的水平,eval loss會(huì)在2-3個(gè)epoch后增長(zhǎng)即overfitting。這個(gè)觀察也在bloom最初的預(yù)訓(xùn)練中得到印證,bigscience團(tuán)隊(duì)也是預(yù)訓(xùn)練了一個(gè)epoch后拿到模型。
3. eval loss or more data ?
在public NLP data上的自動(dòng)評(píng)測(cè)是快速實(shí)驗(yàn)的基礎(chǔ),但自動(dòng)評(píng)測(cè)多數(shù)是contextual QA task,即有上下文的情況下,評(píng)測(cè)模型的總結(jié)抽取等能力,和最終用戶體感是有差異的。所以虎博科技團(tuán)隊(duì)首先在7項(xiàng)(預(yù)訓(xùn)練)和9項(xiàng)(監(jiān)督微調(diào))的public NLP benchmark上自動(dòng)評(píng)測(cè),以保證模型的綜合能力(知識(shí)深度),然后從自動(dòng)評(píng)測(cè)最高的三個(gè)模型中選擇看過最多訓(xùn)練數(shù)據(jù)的模型(知識(shí)廣度)。
4. important hyperparameters
虎博科技團(tuán)隊(duì)通過大量實(shí)驗(yàn),發(fā)現(xiàn)重要的訓(xùn)練參數(shù)包括:learning rate (LR), (global) batch size, adam regularizers (alpha, beta)。最優(yōu)的參數(shù)沒有理論結(jié)果,也是數(shù)據(jù)和基座模型的函數(shù)?;⒉┛萍紙F(tuán)隊(duì)先用較小的training/eval dataset上(e.g., 1% random sample),快速geometric search找到超參的范圍;然后在全集training/eval dataset上geometric search到最佳超參。百億量級(jí)的模型的監(jiān)督微調(diào)在綜合任務(wù)數(shù)據(jù)集上的best-practice global batch是512-2048,LR是1e-5 - 2e-5,warmup fixed LR;而千億參數(shù)模型訓(xùn)練在2epoch之后會(huì)有l(wèi)oss explosion現(xiàn)象,所以虎博團(tuán)隊(duì)配合adam regularizer (beta2=0.95), 和warmup cosine LR schedule。
5. self-evoluation
虎博科技團(tuán)隊(duì)在預(yù)訓(xùn)練數(shù)據(jù)中混合入10%的監(jiān)督微調(diào)數(shù)據(jù),用非監(jiān)督的格式。背后的直覺是預(yù)訓(xùn)練讓模型專注基礎(chǔ)知識(shí)p(t_n | t_n-1…),監(jiān)督學(xué)習(xí)讓模型專注指令完成p(response | instruction)。在sft的訓(xùn)練過程中,大部分的gradient會(huì)指向完成指令的方向,因?yàn)閿?shù)據(jù)中的基礎(chǔ)知識(shí)已經(jīng)在預(yù)訓(xùn)練中學(xué)習(xí)過。這就是虎博科技團(tuán)隊(duì)讓模型自我進(jìn)化的思想(self-evoluation),這和人類循序漸進(jìn)的學(xué)習(xí)知識(shí)一個(gè)原理;比如,NLP的學(xué)生總是先學(xué)好各種概率分布,然后再學(xué)習(xí)在各種任務(wù)數(shù)據(jù)中的應(yīng)用,打好基礎(chǔ),事半功倍。
6. generation configs
在測(cè)評(píng)和上線模型的過程中,虎博科技團(tuán)隊(duì)發(fā)現(xiàn)是否使用解碼cache (config.json, generation_config.json in model checkpoint folder) 對(duì)生成結(jié)果的一致性和性能有影響(輸入輸出token數(shù)分別為1024和100的情況下,使用cache的模型qps值約是不使用的7.7倍)。
虎博的模型基于decoder架構(gòu),可以緩存生成過程中每個(gè)attention計(jì)算使用的key/value投影結(jié)果,只增量計(jì)算每個(gè)新token與歷史token的attention,從而將生成每個(gè)token時(shí)的softmax計(jì)算復(fù)雜度由O(n*n)降低為O(n*1)。但是否使用cache,會(huì)導(dǎo)致是否有額外的mask value參與softmax計(jì)算,因此在不同的硬件環(huán)境和不同計(jì)算精度下,cache可能會(huì)導(dǎo)致生成結(jié)果的微小差異?;⒉┛萍紙F(tuán)隊(duì)在自動(dòng)評(píng)測(cè)中確定use_cache=true or false,測(cè)評(píng)結(jié)果一致,因此chat web和api都設(shè)置為use_cache=true,以保證響應(yīng)最快的用戶體驗(yàn)。
圖10: use_cache vs. response time
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )