11月30日消息,在亞馬遜云科技2023 re:Invent美國(guó)拉斯維加斯現(xiàn)場(chǎng),亞馬遜云科技數(shù)據(jù)和人工智能副總裁Swami Sivasubramanian宣布了眾多在生成式AI領(lǐng)域的發(fā)布和創(chuàng)新,其中就包括Anthropic Claude 2.1和Meta Llama 2 70B兩款大模型已在Amazon Bedrock正式可用。
亞馬遜云科技數(shù)據(jù)和人工智能副總裁Swami Sivasubramanian
Amazon Bedrock是亞馬遜云科技于今年4月發(fā)布的一項(xiàng)全面托管的服務(wù),通過(guò)它,企業(yè)用戶可以通過(guò)API等方式輕松訪問(wèn)包括亞馬遜云科技自研的Titan(Amazon Titan)系列模型和AI21 Labs、Anthropic、Cohere、Meta、Stability AI等眾多主流第三方大模型。
新增兩大第三方主流大模型可用
在生成式AI領(lǐng)域,Anthropic被稱為OpenAI的最強(qiáng)競(jìng)爭(zhēng)對(duì)手,旗下旗艦大模型產(chǎn)品Claude有著不凡實(shí)力,而Anthropic與亞馬遜有著緊密合作。
今年9月,亞馬遜宣布與Anthropic展開戰(zhàn)略合作,雙方的合作包括亞馬遜向Anthropic投資40億美元并持有其部分股權(quán);Anthropic長(zhǎng)期承諾將通過(guò)Amazon Bedrock向全球亞馬遜云科技客戶提供其未來(lái)基礎(chǔ)模型的訪問(wèn)權(quán);以及亞馬遜的開發(fā)人員和工程師可以通過(guò)Amazon Bedrock使用Anthropic模型構(gòu)建產(chǎn)品,以便將生成式AI能力融入到他們的工作中等等。
此次,在Amazon Bedrock上正式可用的Anthropic Claude 2.1提供了長(zhǎng)達(dá)200,000個(gè)token的上下文窗口,并且提高了長(zhǎng)文檔的準(zhǔn)確性??蛻艨梢蕴幚砦谋久芗臀臋n,例如財(cái)務(wù)報(bào)表和內(nèi)部數(shù)據(jù)集。Claude 2.1能夠總結(jié)和對(duì)比文檔、進(jìn)行問(wèn)答等。Anthropic報(bào)告稱,與此前模型相比,Claude 2.1在開放式對(duì)話中的錯(cuò)誤陳述減少了50%,錯(cuò)誤陳述率減少了一半。
另一個(gè)在Amazon Bedrock上新增可用的是Meta Llama 2 70B模型。這意味著現(xiàn)在,除了之前發(fā)布的Llama 2 130億參數(shù)模型之外,Llama 2 700億參數(shù)模型也已在Amazon Bedrock上提供。
Llama 2是Meta的下一代語(yǔ)言模型。據(jù)悉,Llama 2 的訓(xùn)練數(shù)據(jù)比Llama 1多40%,上下文長(zhǎng)度是Llama 1的兩倍。Llama 2 Chat建立在預(yù)訓(xùn)練的Llama模型之上,通過(guò)指令數(shù)據(jù)集和超過(guò)100萬(wàn)條人工注釋進(jìn)行調(diào)優(yōu),針對(duì)對(duì)話場(chǎng)景進(jìn)行了優(yōu)化。這些模型在多個(gè)外部基準(zhǔn)測(cè)試中的表現(xiàn)卓越,包括推理、編碼、熟練程度和知識(shí)測(cè)試,并在Amazon Bedrock上提供了極高的性能價(jià)格組合。
自有Amazon Titan模型發(fā)布多項(xiàng)新能力
同時(shí),亞馬遜云科技自有Titan(Amazon Titan)模型在2023 re:Invent上也推出了多項(xiàng)新模型能力。包括Amazon Titan Multimodal Embeddings、Amazon Titan Text Lite、Amazon Titan Text Express、Amazon Titan Image Generator。
其中,Amazon Titan Image Generator這一模型可以理解復(fù)雜的提示詞并生成相關(guān)圖像,可幫助廣告、電子商務(wù)、媒體和娛樂(lè)等行業(yè)的客戶通過(guò)使用自然語(yǔ)言提示生成高質(zhì)量、逼真的圖像或增強(qiáng)現(xiàn)有圖像,以便以低成本快速構(gòu)思和大量迭代圖像。
Amazon Titan Multimodal Embeddings模型可提供多模態(tài)搜索和推薦體驗(yàn),通過(guò)它,用戶可以使用短語(yǔ)、圖像或圖像和文本的組合來(lái)搜索圖像,例如,可以輸入“我要和這張照片類似的圖像,但天空是晴朗的”等這種既包含圖片也有文字的描述方式來(lái)搜索。
現(xiàn)在,借助Amazon Bedrock,企業(yè)客戶可以利用的最新版本的模型包括Amazon Titan的5款模型、新推出的Anthropic Claude 2.1和Meta Llama 2 70B以及此前推出的Stability AI Stable Diffusion XL 1.0、Meta Llama 2 Chat 13B、Cohere Command Light、Cohere Embed English和Cohere Embed多語(yǔ)言模型等。
另外,值得一提的是,對(duì)于企業(yè)而言,能用的大模型如此之多,那么到底哪一個(gè)或者哪些組合才是最適配用戶需求的呢?
為了幫助企業(yè)客戶在紛繁的大模型中選出最適合自己的那一個(gè),Amazon Bedrock還推出了“模型評(píng)估功能”,可幫助企業(yè)客戶使用自動(dòng)或人工評(píng)估來(lái)評(píng)估、比較和選擇適合其特定應(yīng)用場(chǎng)景的最佳模型。目前該功能已推出預(yù)覽版。
同時(shí),為了進(jìn)一步方便企業(yè)客戶生成、部署自己的大模型應(yīng)用產(chǎn)品,“Agents for Amazon Bedrock(Amazon Bedrock代理功能)”也正式可用。
Agents for Amazon Bedrock的目的就是為了進(jìn)一步降低企業(yè)客戶使用客戶Amazon Bedrock來(lái)構(gòu)建自己的生成式AI應(yīng)用程序的門檻。通過(guò)它,企業(yè)用戶可以簡(jiǎn)單的設(shè)置就能加速生成式AI應(yīng)用程序的開發(fā)。
Swami Sivasubramanian表示:“生成式AI有望成為我們這個(gè)時(shí)代最具變革性的技術(shù)??蛻舴e極應(yīng)用生成式AI創(chuàng)造新機(jī)遇、應(yīng)對(duì)業(yè)務(wù)挑戰(zhàn),這給我們帶來(lái)了啟發(fā)。當(dāng)客戶將生成式AI融入其業(yè)務(wù)時(shí),他們會(huì)利用Amazon Bedrock以全托管的方式獲取領(lǐng)先模型、定制功能、代理功能以及企業(yè)級(jí)安全和隱私保障。有了更多觸手可及的工具,客戶可以使用Amazon Bedrock充分發(fā)揮生成式AI的潛力,創(chuàng)新用戶體驗(yàn)、重塑業(yè)務(wù)并加速生成式AI之旅?!?/p>
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長(zhǎng)
- 馬蜂窩大數(shù)據(jù):“元旦一日游”熱度上漲166%,不少人選擇“請(qǐng)四休九”
- 亞馬遜云科技陳曉建:2025年很多客戶將從生成式AI原型驗(yàn)證轉(zhuǎn)為生產(chǎn)應(yīng)用
- 林肯中國(guó)回應(yīng)“并入福特中國(guó)”傳聞:簡(jiǎn)化財(cái)務(wù)體系 各項(xiàng)業(yè)務(wù)保持不變
- 要做中國(guó)的OpenAI?字節(jié)跳動(dòng)2024年研發(fā)開支接近BAT之和
- 螞蟻旗下跨境匯款平臺(tái)為開發(fā)者提供收款服務(wù) 每日限額10萬(wàn)美元
- 要買車還能再等等!2025年新能源車,這些關(guān)鍵技術(shù)將有重大升級(jí)
- AAAA,三七互娛發(fā)起的游心公益基金會(huì)社會(huì)組織評(píng)估等級(jí)再提升
- 網(wǎng)易云音樂(lè)2024年度聽歌報(bào)告刷屏 你最喜歡的歌手是誰(shuí)?
- 樂(lè)道L60公布交付數(shù)據(jù) 上市100天累計(jì)交付2萬(wàn)輛
- 售價(jià)33.98萬(wàn)元起 25款騰勢(shì)D9正式上市:全系標(biāo)配天神之眼高階智駕
免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。