91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

對比學(xué)習(xí)在開放域段落檢索和主題挖掘中的應(yīng)用

深度學(xué)習(xí)自然語言處理 ? 來源:復(fù)旦DISC ? 作者:復(fù)旦DISC ? 2022-08-17 15:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

對比學(xué)習(xí)是一種無監(jiān)督學(xué)習(xí)方法。它的改進(jìn)方向主要包括兩個部分:1.改進(jìn)正負(fù)樣本的抽樣策略 2.改進(jìn)對比學(xué)習(xí)框架 本篇主要介紹了3篇源自ACL2022的有關(guān)對比學(xué)習(xí)的文章,前2篇文章涉及開放域段落檢索,最后一篇文章涉及主題挖掘。

文章概覽

1. Multi-View Document Representation Learning for Open-domain Dense Retrieval

開放域密集檢索的多視圖文檔表示學(xué)習(xí) 論文地址:https://arxiv.org/pdf/2203.08372.pdf 密集檢索通常使用bi-encoder生成查詢和文檔的單一向量表示。然而,一個文檔通??梢詮牟煌慕嵌然卮鸲鄠€查詢。因此,文檔的單個向量表示很難與多個查詢相匹配,并面臨著語義不匹配的問題。文章提出了一種多視圖文檔表示學(xué)習(xí)框架,通過viewer生成多個嵌入。

2. Sentence-aware Contrastive Learning for Open-Domain Passage Retrieval

開放域段落檢索中的句子感知對比學(xué)習(xí) 論文地址:https://arxiv.org/pdf/2110.07524v3.pdf 一篇文章可能能夠回答多個問題,這在對比學(xué)習(xí)中會導(dǎo)致嚴(yán)重的問題,文中將其稱之為Contrastive Conflicts?;诖?,文章提出了將段落表示分解為句子級的段落表示的方法,將其稱之為Dense Contextual Sentence Representation (DCSR)。

3. UCTopic: Unsupervised Contrastive Learning for Phrase Representations and Topic Mining

基于短語表示和主題挖掘的無監(jiān)督對比學(xué)習(xí) 論文地址:https://arxiv.org/pdf/2202.13469v1.pdf 高質(zhì)量的短語表示對于在文檔中尋找主題和相關(guān)術(shù)語至關(guān)重要。現(xiàn)有的短語表示學(xué)習(xí)方法要么簡單地以無上下文的方式組合單詞,要么依賴于廣泛的注釋來感知上下文。文中提出了UCTopic(an Unsupervised Contrastive learning framework for phrase representations and TOPIC mining),用于上下文感知的短語表示和主題挖掘。

論文細(xì)節(jié)

1

8535b6be-1dcd-11ed-ba43-dac502259ad0.png

1-1

動機

密集檢索在大規(guī)模文檔集合的第一階段檢索方面取得了很大的進(jìn)展,這建立在bi-encoder生成查詢和文檔的單一向量表示的基礎(chǔ)上。然而,一個文檔通??梢詮牟煌慕嵌然卮鸲鄠€查詢。因此,文檔的單個向量表示很難與多個查詢相匹配,并面臨著語義不匹配的問題。文章提出了一種多視圖文檔表示學(xué)習(xí)框架,旨在生成多視圖嵌入來表示文檔,并強制它們與不同的查詢對齊。為了防止多視圖嵌入變成同一個嵌入,文章進(jìn)一步提出了一個具有退火溫度的全局-局部損失,以鼓勵多個viewer更好地與不同潛在查詢對齊。

8554f60a-1dcd-11ed-ba43-dac502259ad0.png

1-2

模型

開放域段落檢索是給定一個由數(shù)百萬個段落組成的超大文本語料庫,其目的是檢索一個最相關(guān)的段落集合,作為一個給定問題的證據(jù)。密集檢索已成為開放域段落檢索的重要有效方法。典型的密集檢索器通常采用雙編碼器結(jié)構(gòu),雙編碼器受制于單向量表示,面臨表示能力的上界。在上圖中,我們還發(fā)現(xiàn)單個向量表示不能很好地匹配多視圖查詢。該文檔對應(yīng)于反映不同觀點的四個不同的問題,每個問題都匹配不同的句子和答案。為了解決這個問題,文章提出了Multi-View document Representations learning framework, MVR。

856668fe-1dcd-11ed-ba43-dac502259ad0.png

1-3 基于cross-encoder的模型需要計算昂貴的cross-attention,所以cross-encoder不用于第一階段的大規(guī)模檢索,而通常被用于第二階段的排序中。在第一階段檢索中,bi-encoder是最常被采用的架構(gòu),因為它可以使用ANN加速。

8582231e-1dcd-11ed-ba43-dac502259ad0.png

1-4 模型采用上述的bi-encoder結(jié)構(gòu),這種結(jié)構(gòu)能夠預(yù)先計算好query和document的向量,提升檢索速度。Encoder采用bert。一些工作發(fā)現(xiàn)[CLS]能夠匯集整個句子/文檔的含義。為了獲得更加精細(xì)的語義表示,使用多個[VIE]來替代[CLS],將[VIE]添加在文檔的開頭,為了避免多個[VIE]對原始輸入句子位置編碼的影響,將的位置id設(shè)置為0。由于查詢比文檔短得多,并且通常表示一個具體的含義,因此只為查詢生成一個嵌入。查詢和文檔之間的相似度分?jǐn)?shù)如下式計算,其中sim代表兩個向量的內(nèi)積。 85954566-1dcd-11ed-ba43-dac502259ad0.png 為了鼓勵多個viewer更好地適應(yīng)不同的潛在查詢,文章提出了一個配備退火溫度的全局-局部損失。損失函數(shù): 85a510cc-1dcd-11ed-ba43-dac502259ad0.png 其中:

85ba6454-1dcd-11ed-ba43-dac502259ad0.png

記文檔正樣本為d+,負(fù)樣本為。全局對比損失繼承自傳統(tǒng)的bi-encoder結(jié)構(gòu)。

85c92570-1dcd-11ed-ba43-dac502259ad0.png

強制與query更加緊密的對齊,并與其他viewer區(qū)別開來。為了進(jìn)一步鼓勵更多不同的viewer被激活,文章采用了下式中的退火溫度。 85d576d6-1dcd-11ed-ba43-dac502259ad0.png 剛開始時,較大的能使得每個viewer被公平的選擇,并從訓(xùn)練中返回梯度,隨著訓(xùn)練的進(jìn)行,?將降低,訓(xùn)練更加穩(wěn)定。在推理中,構(gòu)建所有文檔嵌入的索引,然后利用近似最近鄰ANN檢索。 ?

實驗

數(shù)據(jù)集

實驗采用的數(shù)據(jù)集包括Natural Questions ,TriviaQA,SQuAD Open。數(shù)據(jù)集 Natural Questions:是一個流行的開放域檢索數(shù)據(jù)集,其中的問題是真實的谷歌搜索查詢,答案是從維基百科中手動標(biāo)注的。TriviaQA:包含了一系列瑣碎的問題,其答案最初是從網(wǎng)上提取出來的。SQuADOpen:包含了來自閱讀理解數(shù)據(jù)集的問題和答案,它已被廣泛應(yīng)用于開放域檢索研究。

實驗結(jié)果

計算不同文檔對應(yīng)的查閱數(shù),在3個數(shù)據(jù)集上得到的平均值為2.7,1.5,1.2,這表明多視圖問題是常見的。

85e311d8-1dcd-11ed-ba43-dac502259ad0.png

1-5 根據(jù)上表所示,MVR得到了最好的結(jié)果。MVR在SQuAD數(shù)據(jù)集上取得了最大的提升,這是因為該數(shù)據(jù)集單個文檔對應(yīng)更多的查詢。這說明MVR比其他模型更能解決多視圖問題。

85ff4eca-1dcd-11ed-ba43-dac502259ad0.png

1-6

860c979c-1dcd-11ed-ba43-dac502259ad0.png

1-7

861d8fc0-1dcd-11ed-ba43-dac502259ad0.png

?1-8 上表說明了,MVR與其他方法相比,需要的編碼時間和檢索時間較小。

864ac882-1dcd-11ed-ba43-dac502259ad0.png

1-9 上表對DPR和MVR的檢索結(jié)果進(jìn)行了比較,結(jié)果表明MVR能夠捕獲更加細(xì)粒度的語義信息,返回正確的答案。

2

866cb208-1dcd-11ed-ba43-dac502259ad0.png

2-1

動機

本文的動機與上文基本相同。一個段落可能能夠回答多個問題,這在對比學(xué)習(xí)框架中會導(dǎo)致嚴(yán)重的問題,文中將其稱之為Contrastive Conflicts。這主要包括兩個方面(1)相似性的轉(zhuǎn)移,由于一個段落可能是多個問題的答案,當(dāng)最大化對應(yīng)段落和問題的相似性時,會同時讓問題之間更為相似,但是這些問題在語義上不同。(2)在大批量上的多重標(biāo)簽。在大批量處理時,可能出現(xiàn)使得同一個段落為正的多個問題,在當(dāng)前采用的技術(shù)中,該段落將被同時作為這些問題的正樣本和負(fù)樣本,這在邏輯上是不合理的。由于一對多問題是Contrastive Conflicts的直接原因,文章提出了將密集的段落表示分解為句子級的段落表示的方法,將其稱之為Dense Contextual Sentence Representation (DCSR)。

86945736-1dcd-11ed-ba43-dac502259ad0.png

2-2

模型

Encoder采用bert結(jié)構(gòu)。

86b15336-1dcd-11ed-ba43-dac502259ad0.png

由于上下文信息在段落檢索中也很重要,因此簡單地將段落分解成句子并獨立編碼是不可行的。在輸入文章的句子之間插入,每個段落的輸入如下:? sent1 sent2...。 包含query答案的段落,由一系列句子組成: 86c10394-1dcd-11ed-ba43-dac502259ad0.png 不包含答案的段落,將其表示為: 86d268f0-1dcd-11ed-ba43-dac502259ad0.png 其中的+-代表句子中是否含有答案。文章使用BM25來檢索每個問題的負(fù)段落。文章將包含答案的句子視為正樣本(),并從BM25得到的負(fù)段落中隨機抽取1個句子作為負(fù)樣本。此外在包含答案的段落中隨機抽取1個句子作為另一個負(fù)樣本。 檢索: 對于檢索,使用FAISS來計算問題和所有段落句子之間的分?jǐn)?shù)。由于一個段落在索引中含有多個鍵,則檢索返回100*k(k是每篇文章的平均句子數(shù)量)個句子。之后,針對這些句子的分?jǐn)?shù),對它們執(zhí)行softmax,從而將分?jǐn)?shù)轉(zhuǎn)化為概率。如果一篇passage中含有多個句子,,這些句子對應(yīng)的概率為,則該篇passage為query答案的概率為:

86e096fa-1dcd-11ed-ba43-dac502259ad0.png

根據(jù)計算得到文章的概率,返回概率最高的top100 passage。

實驗

實驗在SQuAD, TriviaQA,Natural Questions數(shù)據(jù)集上進(jìn)行。下表統(tǒng)計了數(shù)據(jù)集中段落對應(yīng)的問題數(shù)量。在SQuAD上的平均值最大,該數(shù)據(jù)集上Contrastive Conflicts的情況最嚴(yán)重,這與DPR在SQuAD上表現(xiàn)最差的事實相符。

86f6b0de-1dcd-11ed-ba43-dac502259ad0.png

2-4 對于模型而言,DCSR采用了和DPR相同的模型結(jié)構(gòu),沒有引入額外的參數(shù)。在訓(xùn)練時,采用的負(fù)樣本由隨機抽樣產(chǎn)生。因此DCSR帶來的額外時間負(fù)擔(dān)僅由抽樣引起,這可以忽略不計。

8706aa02-1dcd-11ed-ba43-dac502259ad0.png

2-5 對在單數(shù)據(jù)集上的訓(xùn)練結(jié)果而言,上表顯示DCSR取得了明顯優(yōu)于DPR的結(jié)果,特別是在SQuAD這樣的受Contrastive Conflicts影響最嚴(yán)重的數(shù)據(jù)集上,對于受Contrastive Conflicts影響較小的數(shù)據(jù)集,也有較小的性能提升。對于在多數(shù)據(jù)集上的訓(xùn)練結(jié)果而言,DPR較DCSR指標(biāo)下降的幅度更大,這表明DCSR還捕獲了不同領(lǐng)域之間數(shù)據(jù)集的普遍性。

872beace-1dcd-11ed-ba43-dac502259ad0.png

2-6

873c8c80-1dcd-11ed-ba43-dac502259ad0.png

2-7 比較模型的可轉(zhuǎn)移性。將DPR和DCSR在一個數(shù)據(jù)集上訓(xùn)練好后,遷移到另外一個數(shù)據(jù)集上做評估??梢园l(fā)現(xiàn),DCSR比DPR指標(biāo)下降的幅度更小,模型的可轉(zhuǎn)移性更好。

8762c292-1dcd-11ed-ba43-dac502259ad0.png

2-8 在不同大小的數(shù)據(jù)集上訓(xùn)練模型,發(fā)現(xiàn)DCSR與DPR相比,在任何大小的數(shù)據(jù)集上都表現(xiàn)得更好。與更大的數(shù)據(jù)集相比,在小的數(shù)據(jù)集上DCSR改進(jìn)更顯著。

3

8770b230-1dcd-11ed-ba43-dac502259ad0.png

3-1

動機

高質(zhì)量的短語表示對于在文檔中尋找主題和相關(guān)術(shù)語至關(guān)重要?,F(xiàn)有的短語表示學(xué)習(xí)方法要么簡單地以無上下文的方式組合單詞,要么依賴于廣泛的注釋來感知上下文。文中提出了UCTopic(an Unsupervised Contrastive learning framework for phrase representations and TOPIC mining),用于感知上下文的短語表示和主題挖掘。UCTopic訓(xùn)練的關(guān)鍵是正負(fù)樣本對的構(gòu)建。文章提出了聚類輔助對比學(xué)習(xí)(CCL),它通過從聚類中選擇負(fù)樣本來減少噪聲,并進(jìn)一步改進(jìn)了關(guān)于主題的短語表示。

模型

編碼器結(jié)構(gòu)

UCTopic的編碼器采用LUKE (Language Understanding with Knowledge-based Embeddings)。

878669fe-1dcd-11ed-ba43-dac502259ad0.png

3-2 Luke采用transformer結(jié)構(gòu)。它將文檔中的單詞和實體都作為輸入token,并為每個token計算presentation。形式上,給定一個由m個詞和n個實體組成的序列,為其計算,其中, 其中。Luke的輸入由三部分組成。Input embedding=position embedding+token embedding+entity type embedding (1)token embedding (2) position embedding 出現(xiàn)在序列中第i位的單詞和實體分別用和表示。如果一個實體包含多個單詞,則將相應(yīng)位置的embedding進(jìn)行平均來計算position embedding。(3)Entity type embedding 表示token是否一個實體。

Entity-aware Self-attention

因為luke處理兩種類型的標(biāo)記,所以在計算注意力分?jǐn)?shù)的時候考慮token的類型。

87b570a0-1dcd-11ed-ba43-dac502259ad0.png

87c9dc5c-1dcd-11ed-ba43-dac502259ad0.png

87d9eda4-1dcd-11ed-ba43-dac502259ad0.png

UCTopic

與預(yù)測實體的LUKE不同,UCTopic是通過短語上下文的對比學(xué)習(xí)訓(xùn)練的。因此,來自UCTopic的短語表示具有上下文感知能力,并且對不同的領(lǐng)域非常健壯。

87ebff12-1dcd-11ed-ba43-dac502259ad0.png

UCTopic采用對比學(xué)習(xí)的框架進(jìn)行無監(jiān)督學(xué)習(xí)。文中提出了關(guān)于短語語義的兩個假設(shè)來獲得正負(fù)樣本對:1.短語語義由它的上下文決定。mask所提到的短語會迫使模型從上下文中學(xué)習(xí)表示,從而防止過擬合和表示崩潰 2.相同的短語有相同的語義

87f78ad0-1dcd-11ed-ba43-dac502259ad0.png

3-4

假設(shè)一個文檔內(nèi)有3個主題,假設(shè)批量大小是32,因此一個批量內(nèi)會有一些樣本來自同一個主題,但是在之前的處理方法中這些樣本都被處理成負(fù)樣本,這會導(dǎo)致性能下降。為了根據(jù)主題優(yōu)化短語表示,減小噪聲。文章提出了聚類輔助對比學(xué)習(xí)(CCL),其基本思想是利用pre-trained representation和聚類的先驗知識來減少負(fù)樣本中存在的噪聲。具體來說,對預(yù)訓(xùn)練的短語表示使用聚類算法。每一類的質(zhì)心被認(rèn)為是短語的主題表示。在計算了短語和質(zhì)心之間的余弦距離后,選擇接近質(zhì)心的t%實例,并為它們分配偽標(biāo)簽。短語自身的偽標(biāo)簽由包含該短語的實例的投票決定。假設(shè)一個主題集C,其中包含偽標(biāo)簽和短語。對于主題,構(gòu)造正樣本。隨機選擇來自其他主題的短語作為訓(xùn)練的負(fù)樣本。微調(diào)時訓(xùn)練的損失函數(shù)如下:

8823d28e-1dcd-11ed-ba43-dac502259ad0.png

為了推斷短語實例x的主題y,計算短語表示h和主題表示之間的距離,與短語x最近的主題被認(rèn)為是短語屬于的主題。

883ba09e-1dcd-11ed-ba43-dac502259ad0.png

UCTopic的Pre-training與Finetuning示意圖如下:

8857d34a-1dcd-11ed-ba43-dac502259ad0.png

3-5

實驗

訓(xùn)練語料庫使用Wikipedia,并將其中帶有超鏈接的文本作為短語。經(jīng)過處理后,預(yù)訓(xùn)練數(shù)據(jù)集有1160萬個句子和1.088億個訓(xùn)練實例。預(yù)訓(xùn)練采用兩個損失函數(shù):一個是masked language model loss,另一個是前面的對比學(xué)習(xí)損失。

實體聚類

888014a4-1dcd-11ed-ba43-dac502259ad0.png

3-6

與其他的微調(diào)方法相比,CCL微調(diào)可以通過捕獲特定于數(shù)據(jù)的特征來進(jìn)一步改進(jìn)預(yù)先訓(xùn)練好的短語表示。

88a91688-1dcd-11ed-ba43-dac502259ad0.png

3-7

主題詞挖掘

通過計算輪廓系數(shù)來獲得每個數(shù)據(jù)集的主題數(shù)量。

88cb8cc2-1dcd-11ed-ba43-dac502259ad0.png

3-8 是第i個點到與i相同聚類中其他點的平均距離,是第i個點到下一個最近簇中的點的平均距離。具體來說,從數(shù)據(jù)集中隨機抽取10K個短語,并對預(yù)訓(xùn)練過的短語應(yīng)用K-means聚類。計算不同主題數(shù)量的輪廓系數(shù)得分;得分最大的數(shù)字將被用作數(shù)據(jù)集中的主題數(shù)量。之后利用CCL對數(shù)據(jù)集進(jìn)行微調(diào)。主題短語評估:(1)主題分離:通過短語入侵任務(wù)來評估,具體來說,是從一系列短語中發(fā)掘與其他短語所屬主題不同的短語。(2)短語連貫性:要求注釋者評估一個主題中的前50個短語是否有連貫性。(3)短語信息量和多樣性。高信息量的短語不是語料庫中常見的短語。使用tf-idf來評估一個短語的信息量。短語的多樣性通過計算出現(xiàn)的詞的種類與出現(xiàn)詞的數(shù)量的比值來評估。UCtopic的多樣性最強,說明了UCtopic的短語表示具有上下文感知能力。

88e1ae3a-1dcd-11ed-ba43-dac502259ad0.png

3-9

88f48d52-1dcd-11ed-ba43-dac502259ad0.png

3-10

89158e76-1dcd-11ed-ba43-dac502259ad0.png

3-11

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3958

    瀏覽量

    142735
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3757

    瀏覽量

    52130
  • 檢索
    +關(guān)注

    關(guān)注

    0

    文章

    27

    瀏覽量

    13416

原文標(biāo)題:ACL2022 | 對比學(xué)習(xí)在開放域段落檢索和主題挖掘中的應(yīng)用

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    多合一空氣質(zhì)量傳感器對比白皮書

    *附件:2026_多合一空氣傳感器白皮書_段落版.docx 本白皮書選取蘇州風(fēng)覺(Airbox-100DC)、北京海林(HL-AQS-8)、武漢四方光電(AM1012)、山東仁科
    發(fā)表于 02-26 11:20

    RAG(檢索增強生成)原理與實踐

    思想 RAG的核心思想非常直觀:在生成答案之前,先從知識庫檢索相關(guān)信息,然后將這些信息作為上下文提供給大語言模型,讓模型基于這些\"參考資料\"來生成更準(zhǔn)確的回答。 這就像是讓AI
    發(fā)表于 02-11 12:46

    友思特案例 | 金屬行業(yè)視覺檢測案例四:挖掘機鋼板表面光學(xué)字符識別(OCR)檢測

    挖掘機鋼板表面光學(xué)字符識別(OCR)檢測,通過實施友思特深度學(xué)習(xí)視覺檢測解決方案,解決了挖掘機零部件生產(chǎn)所用鋼板上標(biāo)記識別的問題。這有助
    的頭像 發(fā)表于 02-05 11:40 ?194次閱讀
    友思特案例 | 金屬行業(yè)視覺檢測案例四:<b class='flag-5'>挖掘</b>機鋼板表面光學(xué)字符識別(OCR)檢測

    什么是位

    數(shù)據(jù)結(jié)構(gòu),稱為“位”或“位段”。 所謂“位”是把一個字節(jié)的二進(jìn)位劃分為幾個不同的區(qū)域,并說明每個區(qū)域的位數(shù)。 每個有一個域名,允許
    發(fā)表于 12-15 08:07

    解讀

    ,并且你能夠指定每個區(qū)域的位數(shù)。每個有一個域名,并允許程序按域名進(jìn)行單獨操作。 使用位的做法是結(jié)構(gòu)體定義的時候,結(jié)構(gòu)體成員后面使
    發(fā)表于 12-05 06:45

    格靈深瞳突破文本人物檢索技術(shù)難題

    格靈深瞳參與研究的GA-DMS框架,為攻破上述技術(shù)難題提供了全新解決方案。研究團(tuán)隊通過數(shù)據(jù)構(gòu)建和模型架構(gòu)的協(xié)同改進(jìn),推動CLIP人物表征學(xué)習(xí)的應(yīng)用,顯著提升了基于文本的人物檢索效果
    的頭像 發(fā)表于 09-28 09:42 ?640次閱讀
    格靈深瞳突破文本人物<b class='flag-5'>檢索</b>技術(shù)難題

    孔夫子舊書網(wǎng)開放平臺接口實戰(zhàn):古籍圖書檢索與商鋪數(shù)據(jù)集成

    本文詳解孔夫子舊書網(wǎng)古籍?dāng)?shù)據(jù)接口的實戰(zhàn)調(diào)用,涵蓋認(rèn)證簽名、古籍檢索、商鋪集成與特色數(shù)據(jù)處理四大場景,提供可復(fù)用的Python代碼及避坑指南,助力學(xué)術(shù)研究、舊書商管理與古籍?dāng)?shù)字化落地。
    的頭像 發(fā)表于 09-23 13:59 ?720次閱讀

    阿里巴巴開放平臺關(guān)鍵字搜索商品接口實戰(zhàn)詳解:OAuth2.0 認(rèn)證落地 + 檢索效率優(yōu)化(附避坑代碼)

    B2B 電商數(shù)據(jù)對接,阿里巴巴開放平臺的關(guān)鍵字搜索商品接口(alibaba.aliindex.search)是獲取批發(fā)商品、供應(yīng)商數(shù)據(jù)的核心通道。但多數(shù)開發(fā)者會卡在OAuth2.0 認(rèn)證斷連
    的頭像 發(fā)表于 09-16 16:26 ?968次閱讀

    如何在嵌入式RF測試實施多信號分析

    射頻(RF)測試是嵌入式系統(tǒng)開發(fā)與驗證的關(guān)鍵環(huán)節(jié),尤其是電信、航空航天、汽車以及物聯(lián)網(wǎng)等行業(yè)。隨著嵌入式系統(tǒng)的日益復(fù)雜,傳統(tǒng)RF測試方法往往難以捕捉多個(時間、頻率、數(shù)字)信號
    的頭像 發(fā)表于 08-15 16:32 ?2879次閱讀
    如何在嵌入式RF測試<b class='flag-5'>中</b>實施多<b class='flag-5'>域</b>信號分析

    創(chuàng)新航與廣汽高深化戰(zhàn)略合作

    近日,創(chuàng)新航與廣東高科技有限公司簽署深化戰(zhàn)略合作協(xié)議。此前,創(chuàng)新航已為廣汽高Aircab提供行業(yè)量產(chǎn)能量密度最高的動力電池。雙方約定在eVTOL領(lǐng)域展開深入合作,共同推進(jìn)eVT
    的頭像 發(fā)表于 08-11 09:08 ?1136次閱讀

    是德科技邀您相約2025開放計算創(chuàng)新技術(shù)大會

    2025開放計算創(chuàng)新技術(shù)大會將于8月7日北京國際飯店舉辦,圍繞“開放變革”主題,分享開放計算技術(shù)的創(chuàng)新與實踐,加速人工智能的應(yīng)用落地。
    的頭像 發(fā)表于 08-01 16:41 ?1527次閱讀

    FPGA機器學(xué)習(xí)的具體應(yīng)用

    ,越來越多地被應(yīng)用于機器學(xué)習(xí)任務(wù)。本文將探討 FPGA 機器學(xué)習(xí)的應(yīng)用,特別是加速神經(jīng)網(wǎng)
    的頭像 發(fā)表于 07-16 15:34 ?2908次閱讀

    【「零基礎(chǔ)開發(fā)AI Agent」閱讀體驗】+Agent的案例解讀

    是字節(jié)跳動和北京大學(xué)合作所推出的古籍?dāng)?shù)字化平臺,旨在依托字節(jié)跳動的技術(shù)優(yōu)勢和互聯(lián)網(wǎng)產(chǎn)品的研發(fā)能力,高效地開展古籍?dāng)?shù)字化整理,它向全社會免費開放,使古籍能夠以文本的形態(tài)加以檢索、關(guān)聯(lián)閱讀和深度挖掘與利用
    發(fā)表于 05-14 11:23

    昱能科技“AI領(lǐng)航,光儲新程”主題開放日成功舉辦!

    AI智能時代的浪潮,科技賦能正掀起一場從效率提升到工作場景重塑的深刻變革。昱能科技勇立智能化發(fā)展潮頭,憑借成立十五年的深厚積淀,以開放包容的姿態(tài)擁抱技術(shù)革新,于4月28日,以主會場+分會場形式
    的頭像 發(fā)表于 04-29 17:09 ?785次閱讀
    昱能科技“AI領(lǐng)航,光儲新程”<b class='flag-5'>主題</b><b class='flag-5'>開放</b>日成功舉辦!

    三一挖掘機一鍵啟動開關(guān)易壞的原因及更換注意事項

    三一挖掘機一鍵啟動開關(guān)易壞的原因雖然三一挖掘機的一鍵啟動系統(tǒng)設(shè)計旨在提高便利性和安全性,但在實際使用,可能會出現(xiàn)一些問題導(dǎo)致開關(guān)易壞。這些問題可能包括:頻繁使用:挖掘
    發(fā)表于 03-12 09:29