91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一份NLP算法方向的社招面經(jīng)

深度學(xué)習(xí)自然語言處理 ? 來源:AI算法小喵 ? 作者:年年的鏟屎官 ? 2022-08-03 11:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

寫在前面

今天給大家分享一份NLP算法方向的社招面經(jīng),當(dāng)然校招也可以參考,希望對大家有所幫助。在今年這個相對糟糕的大環(huán)境下,面試者歷經(jīng)1個多月的刷題復(fù)習(xí)+1個多月的面試,最終拿到了多個大廠offer。

1.背景

2022年大環(huán)境不太好,整體hc(head count)比2021年少了很多,回想2021年,各個候選人所到之處,各家大廠中廠竭誠歡迎,hc充足,大家挑花了眼,那種生機勃勃,萬物競發(fā)的景象猶在眼前,沒想到短短一年之后,居然情況急轉(zhuǎn)直下。

情況介紹:我主要做nlp,也涉及到多模態(tài)和強化學(xué)習(xí)。2022年的大環(huán)境比較差,能投的公司不是很多,比如騰訊,主要還是高級別的,所以騰訊我就沒投(說得好像我投了能面過一樣...)。面了的公司包括小紅書,抖音,寒武紀,螞蟻,還有一些國企和研究院,比如北京智源人工智能研究院,某國內(nèi)金融公司,其他的用來練手也面了一些,比如蔚來汽車,吉利汽車,華人運通,boss直拒,還有一些元宇宙公司,AI制藥公司之類的,拿到了其中大部分offer,當(dāng)然我自己也遇到一些拉胯情況,比如小紅書二面掛[笑哭]。

2. 面試總結(jié)

這一個多月面下來,總體面試考察主要包括下面幾個模塊:代碼題+項目細節(jié)+八股文+場景題。其中:

代碼題

代碼題,寫不出來大概率還是要跪的,我覺得刷200道左右一般就問題不大。200道爭取達到肌肉記憶,就是給出你題目你要10s之內(nèi)給出思路,哪怕沒有bug free,但是一定要保證有思路。有一點要注意,200道高頻題刷2遍,好過400道題目刷一遍,重點還是刷高頻題。另外推薦的刷題地址,里面可以選擇公司和標簽

刷題地址:https://codetop.cc/home

項目

項目細節(jié)我的感觸最深,有些面試官會問的很細,在不斷的試探我們的邊界,所以項目細節(jié)還是要準備到位。通過這段時間的面試我反而對項目的理解更深刻,不知道這算不算面試給我?guī)淼氖找妫?/p>

這里有一個提高通過率的小trick:可以和1個或者多個靠譜小伙伴一起,讓大家看對方的簡歷,假設(shè)自己是面試官,然后針對項目出一些題目,這樣一來可以查漏補缺,有點co-teaching的感覺,這個方法還是挺管用的,大家可以試試~

八股文

八股文的話主要圍繞項目出題,比如你做了強化學(xué)習(xí)的東西,那么常見的reinforce,actor-critic,on policy和off policy的區(qū)別,一定要掌握。比如你項目用到了swin-transformer,那么swin-transformer和傳統(tǒng)的transformer的區(qū)別是什么,patch merging怎么做的,要清楚。

場景題

場景題可能是大廠喜歡考察,小廠不一定問。

3.面經(jīng)

廢話不多說,面經(jīng)奉上。

3.1 小紅書

3.1.1 小紅書一面

聊項目。

你們的訓(xùn)練集和驗證集,測試集分別是多少?怎么來的?

宏平均和微平均是用來干什么的?是如何計算的?他倆的主要區(qū)別?

知識蒸餾為什么有效,詳細介紹一下知識蒸餾?

強化學(xué)習(xí)適合在哪些場景使用?

智力題:如何用rand6實現(xiàn)rand10。

代碼題:lc 76,最小覆蓋子串。

3.1.2 小紅書二面

聊項目。

layer normalization的好處是?和batch normalization的區(qū)別?你有沒有看過有的transformer也用bn?

BERT的主要改進,包括結(jié)構(gòu)的改進,預(yù)訓(xùn)練方式的改進,都說一下?(這里能說的很多,挑自己熟悉的說就行)

Reformer中,LSH(局部敏感哈希)是如何實現(xiàn)的?

CRF和HMM的區(qū)別,哪個假設(shè)更強?他們的解碼問題用什么算法?

lstm參數(shù)量計算,給出emb_size和hidden_size,求lstm參數(shù)量。

cv中有哪些常見的數(shù)據(jù)增強方式。

簡單實現(xiàn)一個layer normalization類,只需要實現(xiàn)__init__和forward就行。

總結(jié):這一面壓力不小,而且面試官從一開始就多次打斷我的說話,說我目前做的項目沒意義,而且表情好像不耐煩,不知道是不是晚上面試耽誤他下班了。這是我體驗最差的一場面試,當(dāng)時我有點想和他懟起來,但是想想還是忍住了,最后掛了也是意料之中

3.2 抖音

3.2.1 抖音一面

聊項目。

AUC的兩種公式是?你能證明這兩種等價的嗎?

BERT-CRF中,為什么要加CRF?好處是?

self-attention為什么要用QKV三個矩陣,不用有什么問題?有沒有哪個模型的Q和K矩陣是一樣的?

reinforce屬于on-policy還是off-policy?為什么?

reinforce帶上baseline好處是?reinforce的loss寫一下?

策略梯度會推導(dǎo)嗎?簡單寫一下?

代碼題(代碼題一般別著急寫,先跟面試官說下思路,確定了再寫):

lc 46,全排列(lc表示leetcode,下同)。

lc 73,矩陣置0。

總結(jié):這一面我以為面試官只會問多模態(tài),不會問強化學(xué)習(xí),沒想到這個面試官好厲害,強化學(xué)習(xí)也很懂,真的很強啊,我比較好奇,他們哪里來那么多時間看那么多領(lǐng)域的東西

3.2.2 抖音二面

介紹項目。

知識蒸餾有哪幾種?你覺得哪種效果最好?

nlp的數(shù)據(jù)增強方法,主要有哪幾種?每一種舉個例子?

分類的損失函數(shù)為什么是交叉熵而不是mse?

BERT對輸入文本的長度有什么限制,為什么要限制長度呢?

BigBird里面有哪幾種注意力機制?相比原始transformer的self-attention的優(yōu)勢?

場景題:如何根據(jù)拼多多的商品數(shù)量,估計淘寶的商品數(shù)量?

給出emb_size, max_len, vocab_size, ff_inner_size,num_heads, 12層,求BERT參數(shù)量。

代碼題:n皇后問題。

總結(jié):給我來了一道hard題目,我以為我要掛了,結(jié)果沒幾分鐘HR告訴我過了。

3.2.3 抖音三面

簡單聊項目。

CRF和HMM區(qū)別?CRF為什么比HMM效果好?

如果BERT詞表很大,比如vocab_size達到幾百萬,怎么辦?

快速手寫一些transformer的mha(多頭注意力),偽代碼意思一下就行。

為什么對比學(xué)習(xí)中,temperature很小,而知識蒸餾的temperature比較大?

你覺得在抖音買東西,和淘寶、拼多多他們的區(qū)別是?(我沒在抖音買過,就只能現(xiàn)場編。)

你最近看到過哪些paper?簡單介紹下?

你覺得自己有那些優(yōu)缺點?平時喜歡怎么緩解壓力?

總結(jié):這一面的面試官很和藹,一直笑呵呵的,后面就是閑聊了,體驗很不錯。

3.3 螞蟻

3.3.1 螞蟻一面

聊項目。

多模態(tài)的預(yù)訓(xùn)練方式你知道哪些,知道的都說一下?

coca和CLIP的區(qū)別?為什么coca效果比CLIP好?

CLIP預(yù)訓(xùn)練的時候,batch size達到了32768,他用到了哪些trick去提高batch size?

CRF的loss寫一下,CRF打破了HMM的哪個假設(shè)?

對比學(xué)習(xí)為什么有效?cv和nlp的經(jīng)典的對比學(xué)習(xí)的模型說一下?

多頭注意力的頭的數(shù)量,對參數(shù)量有影響嗎?為什么?

transformer里面為什么要加add&norm模塊?好處是什么?

代碼:

簡單實現(xiàn)一個transformer-encoder-layer,要求pre-norm和post-norm可選。

編輯距離。

這和我想的螞蟻的面試不太一樣,我以為螞蟻的代碼題會容易一些呢,之前看到的面經(jīng),螞蟻的代碼題一般以medium為主

3.3.2 螞蟻二面

聊項目。

衡量對比學(xué)習(xí)的兩個指標是哪些?公式?

transformer相比lstm的優(yōu)勢有哪些?

distillBERT, tinyBERT, mobileBERT和miniLM,他們是如何對BERT蒸餾的?

ViT是如何對圖片進行處理的?為什么要加position embedding?

說到position embedding,transformer一定要加position embedding么?有些模型沒有加pe,你知道嗎?

beam search的思想,偽代碼實現(xiàn)。

代碼題:lc 33,排序數(shù)組的搜索。

3.3.3 螞蟻三面:

聊項目。

多頭注意力,給出序列長度n和hidden_size,那么多頭注意力的時間復(fù)雜度是多少?

ALBert相比BERT的改進,說一下?

BERT預(yù)訓(xùn)練有哪些問題?后面的模型怎么改進的?重點說說ELECTRA和MacBERT。

有沒有了解過,有的模型用生成的方式做信息抽???

講一下UIE模型是怎么做信息抽取的?其中的SSI和SEL說一下?

你老家哪里的?有哪些興趣愛好?

你覺得自己優(yōu)缺點有哪些?

我們走個流程,來一道代碼題吧:lc 207,課程表。

3.4 寒武紀

3.4.1 寒武紀一面:

聊項目。

你知道哪些對比學(xué)習(xí)的方法?cv和nlp都說一下。

simCLR和moco區(qū)別?moco里面加k_encoder的作用?

moco v2, moco v3相對moco的改進有哪些?

resnet為什么效果好?殘差連接的好處?

pytorch中,dataloader dataset和sampler的關(guān)系?

動態(tài)圖和靜態(tài)圖區(qū)別?

蒸餾,量化和剪枝的原理大致說一下?

3.4.2 寒武紀二面:

聊項目。

簡單介紹一些CRF的好處,CRF條件概率的公式寫一下。

transformer相比lstm的優(yōu)勢有哪些?

transformer優(yōu)點那么多,是不是可以淘汰lstm了,以后全用transformer?

swin-transformer和ViT的區(qū)別?數(shù)據(jù)量少的時候,他們和ResNet比,哪個效果好?為什么?

寒武紀做什么你知道嗎?分布式訓(xùn)練用過嗎?

pytorch的ddp和dp區(qū)別是什么?

你對混合精度的了解多嗎?說一下混合精度的原理?

4. 面試感受總結(jié)

高密度的面試挺累的,所以我建議分階段面試:前期面試一些練手的小公司,同時這些小公司也不能太水,不然達不到練手的效果,然后比如隔一周時間稍微總結(jié)下,接下來正式面試自己的dream company。

結(jié)對跳槽是個不錯的選擇,這次跳槽我和朋友一起跳,相互給對方出題,相互吐槽自己遇到的奇葩面試官,比自己一個人跳槽有趣的多。這次面試的復(fù)習(xí)過程也得到了很多大佬的幫助,比如 給了我很多指點和建議,沒有他們的幫助我估計面試通過率下降一半,所以內(nèi)心真的特別感謝~

持續(xù)更新中,因為最近面試完了以后有點累,加上本身工作也有點忙,面經(jīng)沒寫完,后面會繼續(xù)更新~

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4785

    瀏覽量

    98122
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23285

原文標題:NLP算法面經(jīng)分享

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    讓AIoT創(chuàng)新像“逛超市”樣簡單!移遠通信AlgoStore算法超市上線

    當(dāng)企業(yè)還在為AIoT項目開發(fā)周期長、成本高而頭疼,當(dāng)開發(fā)者仍在為算法與硬件“水土不服”而焦慮時,移遠通信AlgoStore來“拆”!在2026年國際消費電子產(chǎn)品展覽會(CES2026)期間,移遠
    的頭像 發(fā)表于 01-07 19:12 ?357次閱讀
    讓AIoT創(chuàng)新像“逛超市”<b class='flag-5'>一</b>樣簡單!移遠通信AlgoStore<b class='flag-5'>算法</b>超市上線

    以龍企為例,淺談鴻蒙應(yīng)用開發(fā)者激勵計劃 2025 參與心得

    鴻蒙生態(tài)的發(fā)展節(jié)奏,深入研習(xí)鴻蒙開發(fā)標準與用戶體驗要求,不斷打磨龍企應(yīng)用。我們堅信,在鴻蒙生態(tài)嚴格的質(zhì)量體系加持下,只要持續(xù)優(yōu)化、不斷升級,不僅能讓龍企滿足上架要求,更能為用戶帶來更優(yōu)質(zhì)的鴻蒙求職體驗,最終實現(xiàn)用戶、操作系統(tǒng)與開發(fā)者三方共贏的良好局面,為鴻蒙生態(tài)的繁榮
    發(fā)表于 12-12 10:17

    一份CS1256的demo 不勝感激!郵箱 1796404950@qq.com

    最近在使用CS1256時,發(fā)現(xiàn)校準時測出的數(shù)據(jù)都特別大,都是0xFFFFE5等等,不管是測內(nèi)短還是外部校準電阻。希望能提供一份驅(qū)動以供參考!
    發(fā)表于 11-04 02:55

    一份 CS1259 阻抗測量的demo 郵箱 985688759@qq.com

    一份 CS1259 的demo郵箱 985688759@qq.com 主要想測量不同頻率下阻抗,另外請問有沒有CS1259的開發(fā)板。還是只能自己畫板子呢?
    發(fā)表于 10-31 17:49

    SM4算法實現(xiàn)分享(算法原理

    SM4分組加密算法采用的是非線性迭代結(jié)構(gòu),以字為單位進行加密、解密運算,每次迭代稱為輪變換,每輪變換包括S盒變換、非線性變換、線性變換、合成變換。加解密算法與密鑰擴展都是采用32輪非線性迭代結(jié)構(gòu)
    發(fā)表于 10-30 08:10

    一份CS1237資料

    您好,我需要一份CS1237和原理圖設(shè)計資料,和STM32的接線。和STM32的驅(qū)動程序,郵箱wyueheng@163.com
    發(fā)表于 09-16 11:30

    一份CS32G020實現(xiàn)ALT Mode功能的demo

    我們想用CS32G020實現(xiàn)作為sink端傳輸HDMI視頻的協(xié)議握手,電壓協(xié)商已經(jīng)可以實現(xiàn),主要是想實現(xiàn)ALT Mode握手,誰有相關(guān)的demo程序麻煩發(fā)我一份,799305423@qq.com,感謝,感謝
    發(fā)表于 08-22 11:49

    一份CS32L0101的開發(fā)資料

    一份CS32L0101的開發(fā)資料
    發(fā)表于 08-02 13:42

    求助一份CS32A010K8V7的ADC 通道開短路檢測功能例程

    求助一份CS32A010K8V7的ADC 通道開短路檢測功能例程
    發(fā)表于 07-23 09:47

    一份CS32A011K8V7的RS485通訊歷程

    一份CS32A011K8V7的RS485通訊歷程,郵箱:15317208748@163.com
    發(fā)表于 07-17 08:41

    一份CS1238 DEMO,感謝!

    一份CS1238 DEMO,郵箱981759913@qq.com ,感謝!
    發(fā)表于 07-03 17:32

    一份CS32G020K8U6的keil的chipsea.CS32G02x_DFP.pack安裝包,謝謝

    用CS32G020K8U6開發(fā)充電寶方案,工作交接導(dǎo)致keil相關(guān)的pack缺失,麻煩哪位好心人給我發(fā)一份到郵箱694306192@qq.com,謝謝啦
    發(fā)表于 05-21 11:30

    工業(yè)傳感器的“愛情長跑”:用精準數(shù)據(jù)守護每一份信任

    520特別策劃屬于工程師的浪漫2025/05/20工業(yè)浪漫精準數(shù)據(jù)用精準數(shù)據(jù)守護每一份信任520,這個以“愛”為名的日子總讓人聯(lián)想到玫瑰、誓言與浪漫但在工業(yè)世界中,有種“愛”更為深沉——它是傳感器
    的頭像 發(fā)表于 05-20 07:34 ?684次閱讀
    工業(yè)傳感器的“愛情長跑”:用精準數(shù)據(jù)守護每<b class='flag-5'>一份</b>信任

    基于 NXP NCJ29D5D UWB 定位算法方

    基于NXP NCJ29D5D UWB技術(shù)的定位算法方案,通過三個Anchor實現(xiàn)與Key Fob之間的精準范圍定位。BCM與Anchor間通過CAN Bus傳輸數(shù)據(jù),由MCU(S32K144)運行
    的頭像 發(fā)表于 04-15 12:07 ?2984次閱讀
    基于 NXP NCJ29D5D UWB 定位<b class='flag-5'>算法方</b>案

    東軟聯(lián)合推出新代全語言交互式人服務(wù)機器人“南小寧”

    體機,成功構(gòu)建的AI+人行業(yè)賦能體。這是東軟在人領(lǐng)域完成AI場景落地的重要創(chuàng)新成果,實現(xiàn)了技術(shù)融合與生態(tài)協(xié)同,進步推動人業(yè)務(wù)從傳統(tǒng)模式向智能化、精準化
    的頭像 發(fā)表于 03-25 10:04 ?1091次閱讀