91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

亞馬遜云科技正式上線Meta Llama 3.2模型

全球TMT ? 2024-10-11 09:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

為構(gòu)建生成式AI應(yīng)用提供更多選擇

北京2024年10月10日/美通社/ -- 亞馬遜云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用??蛻粢部梢栽诨贏mazon Trainium和Amazon Inferentia的Amazon Elastic Cloud Compute(Amazon EC2)實(shí)例中部署這些模型。

Llama 3.2系列模型保留了此前的成功經(jīng)驗(yàn),并進(jìn)行了全新升級(jí),提供高度差異化的功能更新,包括支持圖像推理的小型和中型視覺大語言模型,以及針對(duì)設(shè)備端優(yōu)化過的輕量級(jí)純文本模型。這些新模型旨在提高使用的便捷性和效率,同時(shí)特別注重負(fù)責(zé)任的創(chuàng)新和安全性。此外,針對(duì)內(nèi)容安全分類而微調(diào)的Llama Guard 3 Vision模型,現(xiàn)在也已在Amazon SageMaker JumpStart中可用。

Llama 3.2系列模型優(yōu)勢:

Meta推出的首款多模態(tài)視覺模型:Llama 3.211BVision和Llama 3.290BVision

  • Llama 3.2系列中最大的模型。
  • 支持圖像理解和視覺推理的使用場景。
  • 擅長分析視覺數(shù)據(jù),如圖表和圖形,提供更精確的答案和洞察。
  • 適用于圖像標(biāo)注、視覺問答、圖像與文本檢索、文檔處理、多模態(tài)聊天機(jī)器人,以及長篇文本生成、多語言翻譯、編程、數(shù)學(xué)和高級(jí)推理。

為邊緣和移動(dòng)設(shè)備量身定制:Llama 3.21B和Llama 3.23B

  • 輕量級(jí),純文本模型。
  • 既可在云端又可在本地進(jìn)行數(shù)據(jù)處理,響應(yīng)速度極快。
  • 非常適合高度個(gè)性化的應(yīng)用,如文本生成與總結(jié)、情感分析、客戶服務(wù)應(yīng)用、文本潤色、多語言知識(shí)檢索和移動(dòng)AI寫作助手。

針對(duì)內(nèi)容安全分類進(jìn)行微調(diào):Llama Guard 311BVision

  • 僅在Amazon SageMaker JumpStart中可用
  • Llama Guard 311BVision可以對(duì)大型語言模型的輸入(即提示詞分類)和輸出(即響應(yīng)分類)進(jìn)行內(nèi)容安全保護(hù)
  • 專為支持圖像推理場景設(shè)計(jì),提升了對(duì)提示詞輸入中的有害多模態(tài)內(nèi)容(文本和圖像)的檢測能力,以及模型輸出的文本內(nèi)容檢測。

Meta表示,Llama 3.2模型已在超過150個(gè)基準(zhǔn)數(shù)據(jù)集上進(jìn)行評(píng)估,展現(xiàn)出與領(lǐng)先基礎(chǔ)模型相媲美的競爭力。與Llama 3.1類似,所有Llama 3.2模型均支持128K的上下文長度,并支持涵蓋八種語言的多語言對(duì)話使用場景,包括英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Meta
    +關(guān)注

    關(guān)注

    0

    文章

    322

    瀏覽量

    12464
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3653

    瀏覽量

    5195
  • 亞馬遜云科技
    +關(guān)注

    關(guān)注

    0

    文章

    111

    瀏覽量

    456
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    商湯科技正式開源空間智能模型日日新SenseNova-SI-1.3

    商湯科技正式開源空間智能模型日日新SenseNova-SI-1.3,在空間測量、視角轉(zhuǎn)換、綜合推理等核心任務(wù)中展現(xiàn)出顯著提升,另外對(duì)比之前的版本增強(qiáng)了回答簡答題的能力。
    的頭像 發(fā)表于 02-10 14:12 ?367次閱讀
    商湯科<b class='flag-5'>技正</b>式開源空間智能<b class='flag-5'>模型</b>日日新SenseNova-SI-1.3

    Meta的AI慢性病,靠Manus能治嗎?

    Meta
    腦極體
    發(fā)布于 :2026年01月08日 16:58:02

    亞馬遜科技擴(kuò)展模型選擇 Amazon Bedrock新增18款開放權(quán)重模型

    亞馬遜科技在2025 re:Invent全球大會(huì)上宣布在Amazon Bedrock中新增18款開放權(quán)重模型,進(jìn)一步強(qiáng)化其提供廣泛全托管模型選擇的承諾。Amazon Bedrock使
    的頭像 發(fā)表于 12-13 13:53 ?782次閱讀

    商湯科技正式發(fā)布并開源全新多模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布并開源了與南洋理工大學(xué)S-Lab合作研發(fā)的全新多模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova 多模態(tài)模型奠定了新一代架構(gòu)的基石。
    的頭像 發(fā)表于 12-08 11:19 ?1026次閱讀
    商湯科<b class='flag-5'>技正</b>式發(fā)布并開源全新多模態(tài)<b class='flag-5'>模型</b>架構(gòu)NEO

    【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】基于 K1 AI CPU 的大模型部署落地

    的 落地方案 : 1. 系統(tǒng)部署方案書 (System Proposal) 方案要點(diǎn) 部署工具 :使用官方提供的 spacemit-llama.cpp (v0.0.4) 二進(jìn)制包。 模型策略 :采用
    發(fā)表于 11-27 14:43

    亞馬遜科技上線Amazon Nova多模態(tài)嵌入模型

    專為Agentic RAG與語義搜索量身打造,以行業(yè)頂尖的準(zhǔn)確率實(shí)現(xiàn)跨模態(tài)檢索 北京2025年10月29日 /美通社/ -- 亞馬遜科技宣布,Amazon Nova Multimodal
    的頭像 發(fā)表于 10-29 17:15 ?274次閱讀
    <b class='flag-5'>亞馬遜</b><b class='flag-5'>云</b>科技<b class='flag-5'>上線</b>Amazon Nova多模態(tài)嵌入<b class='flag-5'>模型</b>

    亞馬遜科技宣布推出Qwen3與DeepSeek-V3.1模型的完全托管服務(wù)

    亞馬遜科技致力于成為運(yùn)行開放權(quán)重模型的最佳平臺(tái),在Amazon Bedrock上新增五個(gè)模型選項(xiàng),持續(xù)豐富模型選擇,進(jìn)一步滿足客戶需求。
    的頭像 發(fā)表于 09-19 10:11 ?867次閱讀

    亞馬遜科技Amazon Bedrock模型再更新,Anthropic最新版Claude4模型現(xiàn)已上線

    北京2025年8月6日 /美通社/ -- 亞馬遜科技宣布,Anthropic最新一代模型Claude Opus 4.1與Claude Sonnet 4,現(xiàn)已在Amazon Bedrock全面
    的頭像 發(fā)表于 08-06 19:42 ?711次閱讀
    <b class='flag-5'>亞馬遜</b><b class='flag-5'>云</b>科技Amazon Bedrock<b class='flag-5'>模型</b>再更新,Anthropic最新版Claude4<b class='flag-5'>模型</b>現(xiàn)已<b class='flag-5'>上線</b>

    亞馬遜科技現(xiàn)已上線OpenAI開放權(quán)重模型

    客戶現(xiàn)可通過Amazon Bedrock和Amazon SageMaker AI使用OpenAI開放權(quán)重模型,實(shí)現(xiàn)將先進(jìn)的開放權(quán)重模型與全球最廣泛服務(wù)的深度集成。 亞馬遜
    的頭像 發(fā)表于 08-06 19:29 ?855次閱讀

    超低延時(shí)重構(gòu)AI推理體驗(yàn)!白山發(fā)布“大模型API”產(chǎn)品

    白山技正式發(fā)布“大模型API”產(chǎn)品,首發(fā)上線DeepSeek-R1-0528、DeepSeek-R1-0528-Qwen3-8B、Qwen3-32B-FP8等大語言
    的頭像 發(fā)表于 07-02 17:26 ?1158次閱讀
    超低延時(shí)重構(gòu)AI推理體驗(yàn)!白山<b class='flag-5'>云</b>發(fā)布“大<b class='flag-5'>模型</b>API”產(chǎn)品

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    華為開發(fā)者大會(huì)2025(HDC 2025)亮點(diǎn):華為發(fā)布盤古大模型5.5 宣布新一代昇騰AI服務(wù)上線

    HarmonyOS、昇騰AI服務(wù)、盤古大模型等最新科技創(chuàng)新成果。 在主題演講中,華為常務(wù)董事、華為計(jì)算CEO張平安宣布基于CloudMatrix384 超節(jié)點(diǎn)的新一代昇騰AI服務(wù)
    的頭像 發(fā)表于 06-20 20:19 ?4485次閱讀
    華為開發(fā)者大會(huì)2025(HDC 2025)亮點(diǎn):華為<b class='flag-5'>云</b>發(fā)布盤古大<b class='flag-5'>模型</b>5.5 宣布新一代昇騰AI<b class='flag-5'>云</b>服務(wù)<b class='flag-5'>上線</b>

    望石智慧基于亞馬遜科技構(gòu)建醫(yī)藥行業(yè)專屬大模型 推動(dòng)藥物研發(fā)創(chuàng)新

    北京 ——2025 年 5 月 13 日 創(chuàng)新型生物醫(yī)藥科技企業(yè)望石智慧應(yīng)用亞馬遜科技的底層基礎(chǔ)設(shè)施、高性能計(jì)算和存儲(chǔ)等技術(shù)與服務(wù),構(gòu)建多模態(tài)3D分子生成大模型,在降低運(yùn)維負(fù)擔(dān)與成本的同時(shí),推動(dòng)
    發(fā)表于 05-13 14:21 ?1088次閱讀

    商湯科技日日新大模型SenseNova上線聲網(wǎng)市場

    日前,商湯科技日日新大模型SenseNova即將正式上線聲網(wǎng)市場,開發(fā)者和企業(yè)用戶可通過聲網(wǎng)的實(shí)時(shí)互動(dòng)服務(wù)進(jìn)行調(diào)用,將商湯領(lǐng)先的模型能力
    的頭像 發(fā)表于 04-08 17:24 ?1505次閱讀

    今日看點(diǎn)丨臺(tái)積電、Intel合資運(yùn)營代工業(yè)務(wù);韓國計(jì)劃向當(dāng)?shù)仄囆袠I(yè)注入3萬億韓元援助

    1. Meta 發(fā)布人工智能新模型系列 Llama 4 ,首次采用“混合專家”架構(gòu) ? 當(dāng)?shù)貢r(shí)間周六(4月5日),美國科技巨頭Meta推出了其最強(qiáng)大的開源人工智能(AI)
    發(fā)表于 04-07 11:26 ?625次閱讀