91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

推理芯片的最大挑戰(zhàn)

芯片半導(dǎo)體 ? 來(lái)源:半導(dǎo)體行業(yè)觀(guān)察 ? 2023-09-27 17:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在不到一年的時(shí)間里,生成式人工智能通過(guò) OpenAI 的 ChatGPT(一種基于 Transformer 的流行算法)獲得了全球聲譽(yù)和使用?;?Transformer 的算法可以學(xué)習(xí)對(duì)象不同元素(例如句子或問(wèn)題)之間的復(fù)雜交互,并將其轉(zhuǎn)換為類(lèi)似人類(lèi)的對(duì)話(huà)。

在 Transformer 和其他大型語(yǔ)言模型 (LLM) 的引領(lǐng)下,軟件算法取得了快速進(jìn)展,而負(fù)責(zé)執(zhí)行它們的處理硬件卻被拋在了后面。即使是最先進(jìn)的算法處理器也不具備在一兩秒的時(shí)間范圍內(nèi)詳細(xì)闡述最新 ChatGPT 查詢(xún)所需的性能。

為了彌補(bǔ)性能不足,領(lǐng)先的半導(dǎo)體公司構(gòu)建了由大量最好的硬件處理器組成的系統(tǒng)。在此過(guò)程中,他們權(quán)衡了功耗、帶寬/延遲和成本。該方法適用于算法訓(xùn)練,但不適用于部署在邊緣設(shè)備上的推理。

功耗挑戰(zhàn)

雖然訓(xùn)練通?;谏纱罅繑?shù)據(jù)的 fp32 或 fp64 浮點(diǎn)算法,但它不需要嚴(yán)格的延遲。功耗高,成本承受能力高。

相當(dāng)不同的是推理過(guò)程。推理通常在 fp8 算法上執(zhí)行,該算法仍會(huì)產(chǎn)生大量數(shù)據(jù),但需要關(guān)鍵的延遲、低能耗和低成本。

模型訓(xùn)練的解決方案來(lái)自于計(jì)算場(chǎng)。它們運(yùn)行數(shù)天,使用大量電力,產(chǎn)生大量熱量,并且獲取、安裝、操作和維護(hù)成本高昂。更糟糕的是推理過(guò)程,碰壁并阻礙了 GenAI 在邊緣設(shè)備上的擴(kuò)散。

邊緣生成人工智能推理的最新技術(shù)

成功的 GenAI 推理硬件加速器必須滿(mǎn)足五個(gè)屬性:

petaflops 范圍內(nèi)的高處理能力和高效率(超過(guò) 50%)

低延遲,可在幾秒鐘內(nèi)提供查詢(xún)響應(yīng)

能耗限制在 50W/Petaflops 或以下

成本實(shí)惠,與邊緣應(yīng)用兼容

現(xiàn)場(chǎng)可編程性可適應(yīng)軟件更新或升級(jí),以避免工廠(chǎng)進(jìn)行硬件改造

大多數(shù)現(xiàn)有的硬件加速器可以滿(mǎn)足部分要求,但不能滿(mǎn)足全部要求。老牌CPU是最差的選擇,因?yàn)閳?zhí)行速度令人無(wú)法接受;GPU 在高功耗和延遲不足的情況下提供相當(dāng)快的速度(因此是訓(xùn)練的選擇);FPGA 在性能和延遲方面做出了妥協(xié)。

完美的設(shè)備將是定制/可編程片上系統(tǒng) (SoC),旨在執(zhí)行基于變壓器的算法以及其他類(lèi)型算法的發(fā)展。它應(yīng)該支持合適的內(nèi)存容量來(lái)存儲(chǔ)法學(xué)碩士中嵌入的大量數(shù)據(jù),并且應(yīng)該可編程以適應(yīng)現(xiàn)場(chǎng)升級(jí)。

有兩個(gè)障礙阻礙了這一目標(biāo)的實(shí)現(xiàn):內(nèi)存墻和 CMOS 器件的高能耗。

內(nèi)存墻

人們?cè)诎雽?dǎo)體發(fā)展歷史的早期就觀(guān)察到,處理器性能的進(jìn)步被內(nèi)存訪(fǎng)問(wèn)的缺乏進(jìn)步所抵消。

隨著時(shí)間的推移,兩者之間的差距不斷擴(kuò)大,迫使處理器等待內(nèi)存?zhèn)魉蛿?shù)據(jù)的時(shí)間越來(lái)越長(zhǎng)。結(jié)果是處理器效率從完全 100% 利用率下降(圖 1)。

cfdca4b0-5d15-11ee-939d-92fbcf53809c.jpg

為了緩解效率的下降,業(yè)界設(shè)計(jì)了一種多級(jí)分層內(nèi)存結(jié)構(gòu),采用更快、更昂貴的內(nèi)存技術(shù),靠近處理器進(jìn)行多級(jí)緩存,從而最大限度地減少較慢主內(nèi)存甚至較慢外部?jī)?nèi)存的流量(圖 2)。

cfeeab24-5d15-11ee-939d-92fbcf53809c.jpg

CMOS IC 的能耗

與直覺(jué)相反,CMOS IC 的功耗主要由數(shù)據(jù)移動(dòng)而非數(shù)據(jù)處理決定。根據(jù)馬克·霍洛維茨教授領(lǐng)導(dǎo)的斯坦福大學(xué)研究(表 1),內(nèi)存訪(fǎng)問(wèn)的功耗比基本數(shù)字邏輯計(jì)算消耗的能量高出幾個(gè)數(shù)量級(jí)。

cffaca26-5d15-11ee-939d-92fbcf53809c.jpg

加法器和乘法器的功耗從使用整數(shù)運(yùn)算時(shí)的不到一皮焦耳到處理浮點(diǎn)運(yùn)算時(shí)的幾皮焦耳。相比之下,在 DRAM 中訪(fǎng)問(wèn)數(shù)據(jù)時(shí),訪(fǎng)問(wèn)高速緩存中的數(shù)據(jù)所花費(fèi)的能量會(huì)躍升一個(gè)數(shù)量級(jí),達(dá)到 20-100 皮焦耳,并且會(huì)躍升三個(gè)數(shù)量級(jí),達(dá)到超過(guò) 1,000 皮焦耳。

GenAI 加速器是以數(shù)據(jù)移動(dòng)為主導(dǎo)的設(shè)計(jì)的典型例子。

內(nèi)存墻和能耗對(duì)延遲和效率的影響

生成式人工智能處理中的內(nèi)存墻和能耗的影響正變得難以控制。

幾年之內(nèi),為 ChatGPT 提供支持的基礎(chǔ)模型 GPT 從 2019 年的 GPT-2 發(fā)展到 2020 年的 GPT-3,再到 2022 年的 GPT-3.5,再到目前的 GPT-4。每一代模型的大小和參數(shù)(weights, tokens和states)的數(shù)量都增加了幾個(gè)數(shù)量級(jí)。

GPT-2 包含 15 億個(gè)參數(shù),GPT-3 模型包含 1750 億個(gè)參數(shù),最新的 GPT-4 模型將參數(shù)規(guī)模推至約 1.7 萬(wàn)億個(gè)參數(shù)(尚未發(fā)布官方數(shù)字)。

這些參數(shù)的龐大數(shù)量不僅迫使內(nèi)存容量達(dá)到 TB 范圍,而且在訓(xùn)練/推理過(guò)程中同時(shí)高速訪(fǎng)問(wèn)它們也會(huì)將內(nèi)存帶寬推至數(shù)百 GB/秒(如果不是 TB/秒)。為了進(jìn)一步加劇這種情況,移動(dòng)它們會(huì)消耗大量的能量。

昂貴的硬件閑置

內(nèi)存和處理器之間令人畏懼的數(shù)據(jù)傳輸帶寬以及顯著的功耗壓倒了處理器的效率。最近的分析表明,在尖端硬件上運(yùn)行 GPT-4 的效率下降至 3% 左右。為運(yùn)行這些算法而設(shè)計(jì)的昂貴硬件在 97% 的時(shí)間內(nèi)處于閑置狀態(tài)。

執(zhí)行效率越低,執(zhí)行相同任務(wù)所需的硬件就越多。例如,假設(shè) 1 Petaflops(1,000 Teraflops)的要求可以由兩個(gè)供應(yīng)商滿(mǎn)足。供應(yīng)商(A 和 B)提供不同的處理效率,分別為 5% 和 50%(表 2)。

那么供應(yīng)商 A 只能提供 50 Teraflops 的有效處理能力,而不是理論處理能力。供應(yīng)商 B 將提供 500 Teraflops。為了提供 1 petaflop 的有效計(jì)算能力,供應(yīng)商 A 需要 20 個(gè)處理器,但供應(yīng)商 B 只需 2 個(gè)。

d00f487a-5d15-11ee-939d-92fbcf53809c.jpg

例如,一家硅谷初創(chuàng)公司計(jì)劃在其超級(jí)計(jì)算機(jī)數(shù)據(jù)中心使用 22,000 個(gè) Nvidia H100 GPU。粗略計(jì)算,22,000 個(gè) H100 GPU 的售價(jià)為 8 億美元——這是其最新融資的大部分。該數(shù)字不包括其余基礎(chǔ)設(shè)施的成本、房地產(chǎn)、能源成本以及本地硬件總擁有成本 (TCO) 中的所有其他因素。

系統(tǒng)復(fù)雜性對(duì)延遲和效率的影響

另一個(gè)例子,基于當(dāng)前最先進(jìn)的 GenAI 訓(xùn)練加速器,將有助于說(shuō)明這種擔(dān)憂(yōu)。硅谷初創(chuàng)公司的 GPT-4 配置將需要 22,000 個(gè) Nvidia H100 GPU 副本以八位字節(jié)的形式部署在HGX H100 或 DGX H100 系統(tǒng),總共產(chǎn)生 2,750 個(gè)系統(tǒng)。

考慮到 GPT-4 包括 96 個(gè)解碼器,將它們映射到多個(gè)芯片上可能會(huì)減輕對(duì)延遲的影響。由于 GPT 結(jié)構(gòu)允許順序處理,因此為總共 96 個(gè)芯片為每個(gè)芯片分配一個(gè)解碼器可能是一種合理的設(shè)置。

該配置可轉(zhuǎn)換為 12 個(gè) HGX/DGX H100 系統(tǒng),不僅對(duì)單芯片之間、電路板之間和系統(tǒng)之間移動(dòng)數(shù)據(jù)帶來(lái)的延遲提出挑戰(zhàn)。使用增量變壓器可以顯著降低處理復(fù)雜性,但它需要狀態(tài)的處理和存儲(chǔ),這反過(guò)來(lái)又增加了要處理的數(shù)據(jù)量。

底線(xiàn)是,前面提到的 3% 的實(shí)施效率是不現(xiàn)實(shí)的。當(dāng)加上系統(tǒng)實(shí)現(xiàn)的影響以及相關(guān)的較長(zhǎng)延遲時(shí),實(shí)際應(yīng)用程序中的實(shí)際效率將顯著下降。

綜合來(lái)看,GPT-3.5所需的數(shù)據(jù)量遠(yuǎn)不及GPT-4。從商業(yè)角度來(lái)看,使用類(lèi)似 GPT-3 的復(fù)雜性比 GPT-4 更具吸引力。另一方面是 GPT-4 更準(zhǔn)確,如果可以解決硬件挑戰(zhàn),它會(huì)成為首選。

最佳猜測(cè)成本分析

讓我們重點(diǎn)關(guān)注能夠處理大量查詢(xún)的系統(tǒng)的實(shí)施成本,例如類(lèi)似 Google 的每秒 100,000 個(gè)查詢(xún)的量。

使用當(dāng)前最先進(jìn)的硬件,可以合理地假設(shè)總擁有成本(包括購(gòu)置成本、系統(tǒng)運(yùn)營(yíng)和維護(hù)成本)約為 1 萬(wàn)億美元。據(jù)記錄,這大約相當(dāng)于世界第八大經(jīng)濟(jì)體意大利 2021 年國(guó)內(nèi)生產(chǎn)總值 (GDP) 的一半。

ChatGPT 對(duì)每次查詢(xún)成本的影響使其在商業(yè)上具有挑戰(zhàn)性。摩根士丹利估計(jì),2022 年 Google 搜索查詢(xún)(3.3 萬(wàn)億次查詢(xún))的每次查詢(xún)成本為 0.2 英鎊(被視為基準(zhǔn))。同一分析表明,ChatGPT-3 上的每次查詢(xún)成本在 3 到 14 歐元之間,比基準(zhǔn)高 15-70 倍。

半導(dǎo)體行業(yè)正在積極尋找應(yīng)對(duì)成本/查詢(xún)挑戰(zhàn)的解決方案。盡管所有嘗試都受到歡迎,但解決方案必須來(lái)自新穎的芯片架構(gòu),該架構(gòu)將打破內(nèi)存墻并大幅降低功耗。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    20256

    瀏覽量

    252512
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50105

    瀏覽量

    265557
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    571

    瀏覽量

    11322

原文標(biāo)題:推理芯片的最大挑戰(zhàn)

文章出處:【微信號(hào):TenOne_TSMC,微信公眾號(hào):芯片半導(dǎo)體】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    高通挑戰(zhàn)英偉達(dá),發(fā)布768GB內(nèi)存AI推理芯片,“出征”AI數(shù)據(jù)中心

    億美元的數(shù)據(jù)中心市場(chǎng)中搶占一席之地。 就在10月28日,高通面向數(shù)據(jù)中心連發(fā)兩款A(yù)I芯片,AI200 和 AI250 芯片,打造下一代 AI 推理優(yōu)化解決方案。這一舉措不僅標(biāo)志著高通在A(yíng)I基礎(chǔ)設(shè)施領(lǐng)域的拓展,也被業(yè)內(nèi)視為其對(duì)英偉
    的頭像 發(fā)表于 10-29 10:36 ?3656次閱讀
    高通<b class='flag-5'>挑戰(zhàn)</b>英偉達(dá),發(fā)布768GB內(nèi)存AI<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>,“出征”AI數(shù)據(jù)中心

    高通挑戰(zhàn)英偉達(dá)!發(fā)布768GB內(nèi)存AI推理芯片,“出征”AI數(shù)據(jù)中心

    億美元的數(shù)據(jù)中心市場(chǎng)中搶占一席之地。 ? 就在10月28日,高通面向數(shù)據(jù)中心連發(fā)兩款A(yù)I芯片,AI200 和 AI250 芯片,打造下一代 AI 推理優(yōu)化解決方案。這一舉措不僅標(biāo)志著高通在A(yíng)I基礎(chǔ)設(shè)施領(lǐng)域的拓展,也被業(yè)內(nèi)視為其對(duì)
    的頭像 發(fā)表于 10-29 09:14 ?6474次閱讀
    高通<b class='flag-5'>挑戰(zhàn)</b>英偉達(dá)!發(fā)布768GB內(nèi)存AI<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>,“出征”AI數(shù)據(jù)中心

    思必馳斬獲Interspeech 2026音頻推理挑戰(zhàn)賽智能體賽道亞軍

    近日,國(guó)際語(yǔ)音與語(yǔ)言處理領(lǐng)域頂級(jí)賽事Interspeech 2026音頻推理挑戰(zhàn)賽結(jié)果正式揭曉。在這場(chǎng)首次將評(píng)估焦點(diǎn)從“答案正確性”轉(zhuǎn)向“推理過(guò)程質(zhì)量”的變革性賽事中,思必馳-上海交通大學(xué)聯(lián)合實(shí)驗(yàn)室團(tuán)隊(duì)?wèi){借創(chuàng)新的多智能體協(xié)同方案
    的頭像 發(fā)表于 02-28 14:13 ?584次閱讀

    AI推理芯片需求爆發(fā),OpenAI欲尋求新合作伙伴

    電子發(fā)燒友網(wǎng)綜合報(bào)道,在人工智能迅猛發(fā)展的當(dāng)下,AI推理芯片需求正呈爆發(fā)式增長(zhǎng)。 ? AI推理,即支撐如ChatGPT這類(lèi)AI模型響應(yīng)用戶(hù)問(wèn)題和請(qǐng)求的計(jì)算過(guò)程。過(guò)去,英偉達(dá)在訓(xùn)練大型AI模型所需
    的頭像 發(fā)表于 02-03 17:15 ?2030次閱讀

    曦望發(fā)布新一代推理GPU芯片,單位Token推理成本降低90%

    電子發(fā)燒友網(wǎng)報(bào)道 1月27日,國(guó)產(chǎn)GPU廠(chǎng)商曦望(Sunrise)重磅發(fā)布新一代推理GPU芯片——啟望S3。這是曦望在近一年累計(jì)完成約30億元戰(zhàn)略融資后的首次集中公開(kāi)亮相。2025年,曦望芯片交付量
    的頭像 發(fā)表于 01-28 17:38 ?8713次閱讀

    今日看點(diǎn):消息稱(chēng) AMD、高通考慮導(dǎo)入 SOCAMM 內(nèi)存;曦望發(fā)布新一代推理GPU芯片啟望S3

    曦望發(fā)布新一代推理GPU芯片啟望S3 近日,浙江杭州GPU創(chuàng)企曦望(Sunrise)發(fā)布新一代推理GPU芯片啟望S3,并推出面向大模型推理
    發(fā)表于 01-28 11:09 ?427次閱讀

    LLM推理模型是如何推理的?

    這篇文章《(How)DoReasoningModelsReason?》對(duì)當(dāng)前大型推理模型(LRM)進(jìn)行了深刻的剖析,超越了表面的性能宣傳,直指其技術(shù)本質(zhì)和核心局限。以下是基于原文的詳細(xì)技術(shù)原理、關(guān)鍵
    的頭像 發(fā)表于 01-19 15:33 ?521次閱讀
    LLM<b class='flag-5'>推理</b>模型是如何<b class='flag-5'>推理</b>的?

    英偉達(dá)重磅出手!AI 推理存儲(chǔ)全面覺(jué)醒

    電子發(fā)燒友網(wǎng)報(bào)道(文/黃晶晶)近日,有消息稱(chēng),英偉達(dá)將以大約200億美元收購(gòu)人工智能芯片初創(chuàng)公司Groq,這將是英偉達(dá)迄今為止規(guī)模最大的一筆收購(gòu)。但英偉達(dá)回應(yīng)表示,并未計(jì)劃收購(gòu)Groq,僅達(dá)成技術(shù)
    的頭像 發(fā)表于 12-26 08:44 ?1.1w次閱讀
    英偉達(dá)重磅出手!AI <b class='flag-5'>推理</b>存儲(chǔ)全面覺(jué)醒

    云天勵(lì)飛AI推理芯片如何賦能千行百業(yè)

    11月26日,云天會(huì)客廳第二期生態(tài)沙龍暨深商聯(lián)高科技高成長(zhǎng)創(chuàng)新?tīng)I(yíng)走進(jìn)上市公司活動(dòng)圓滿(mǎn)舉辦。來(lái)自深圳科技領(lǐng)域的多位企業(yè)負(fù)責(zé)人齊聚云天勵(lì)飛,共同探討AI推理時(shí)代的技術(shù)變革、產(chǎn)業(yè)機(jī)遇與落地挑戰(zhàn)
    的頭像 發(fā)表于 12-03 13:58 ?639次閱讀

    歐洲之光!5nm,3200 TFLOPS AI推理芯片即將量產(chǎn)

    電子發(fā)燒友網(wǎng)綜合報(bào)道 今年10月,歐洲芯片公司VSORA(總部位于法國(guó)巴黎)宣布開(kāi)始生產(chǎn)其AI推理芯片Jotunn8,這也令VSORA成為歐洲唯一一家推出高性能AI推理
    的頭像 發(fā)表于 11-29 13:52 ?5905次閱讀
    歐洲之光!5nm,3200 TFLOPS AI<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>即將量產(chǎn)

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    當(dāng)今社會(huì),AI已經(jīng)發(fā)展很迅速了,但是你了解AI的發(fā)展歷程嗎?本章作者將為我們打開(kāi)AI的發(fā)展歷程以及需求和挑戰(zhàn)的面紗。 從2017年開(kāi)始生成式AI開(kāi)創(chuàng)了新的時(shí)代,經(jīng)歷了三次熱潮和兩次低谷。 生成式
    發(fā)表于 09-12 16:07

    AI推理芯片賽道猛將,200億市值A(chǔ)I芯片企業(yè)赴港IPO

    7月30日,AI芯片龍頭企業(yè)云天勵(lì)飛正式向港交所遞交招股說(shuō)明書(shū)。 ? 云天勵(lì)飛成立于2014年8月,于2023年4月在上交所科創(chuàng)板掛牌,截至8月1日的市值為216億元。專(zhuān)注于A(yíng)I推理芯片的研發(fā)
    的頭像 發(fā)表于 08-04 09:22 ?4678次閱讀
    AI<b class='flag-5'>推理</b><b class='flag-5'>芯片</b>賽道猛將,200億市值A(chǔ)I<b class='flag-5'>芯片</b>企業(yè)赴港IPO

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)大模型在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。然而,大模型的推理過(guò)程對(duì)顯存和計(jì)算資源的需求較高,給實(shí)際應(yīng)用帶來(lái)了挑戰(zhàn)。為了解決這一問(wèn)題,本文將探討大模型推理顯存和計(jì)算量的估計(jì)
    發(fā)表于 07-03 19:43

    谷歌第七代TPU Ironwood深度解讀:AI推理時(shí)代的硬件革命

    “思維模型”的大量計(jì)算需求,例如大型語(yǔ)言模型和專(zhuān)家混合模型。Ironwood 可擴(kuò)展至多達(dá) 9216 個(gè)芯片,提供 42.5 Exaflops 的計(jì)算能力,使其比世界上最大的超級(jí)計(jì)算機(jī)更強(qiáng)大。 一
    的頭像 發(fā)表于 04-12 11:10 ?3777次閱讀
    谷歌第七代TPU Ironwood深度解讀:AI<b class='flag-5'>推理</b>時(shí)代的硬件革命

    谷歌新一代 TPU 芯片 Ironwood:助力大規(guī)模思考與推理的 AI 模型新引擎?

    Cloud 客戶(hù)開(kāi)放,將提供 256 芯片集群以及 9,216 芯片集群兩種配置選項(xiàng)。 ? 在核心亮點(diǎn)層面,Ironwood 堪稱(chēng)谷歌首款專(zhuān)門(mén)為 AI 推理精心設(shè)計(jì)的 TPU 芯片
    的頭像 發(fā)表于 04-12 00:57 ?3755次閱讀