1. 程式人生 > >演算法工程師的面試難不難,如何準備?-影象處理/CV/ML/DL到HR面總結

演算法工程師的面試難不難,如何準備?-影象處理/CV/ML/DL到HR面總結

640?wx_fmt=gif&wxfrom=5&wx_lazy=1

 向AI轉型的程式設計師都關注了這個號???

大資料探勘DT資料分析  公眾號: datadw

把一些相關的知識點總結一下。這個比長,感興趣的挑自己相關的那部分看。

都是一些基礎知識,面相關崗位問到的比較多。

(回答時對演算法要有一定的見解,最好不要照書上的背)  

(一)            機器學習方面

SVM  

1、  支撐平面---和支援向量相交的平面;;;分割平面---支撐平面中間的平面(最優分類平面)

2、  SVM不是定義損失,而是定義支援向量之間的距離à目標函式看PPT13~17頁

3、  正則化引數對支援向量數的影響

LR  

1、  LR的形式:h(x)=g(f(x));其中x為原始資料;f(x)為線性/非線性迴歸得到的值,也叫判定邊界;g()為Sigmoid函式,最終h(x)輸出範圍為(0,1)

LR對樣本分佈敏感。  

***LR和樸素貝葉斯(NB)的區別?  

LR是loss最優化求出的,NB是統計跳過loss最優,直接得出權重

NB比LR多了一個條件獨立假設

一個是判別模型(LR),一個是生成模型(NB)

1、  判別模型和生成模型???

2、  機器學習中,LR和SVM有什麼區別?à

兩者都可以處理非線性問題;LR和SVM最初都是針對二分類問題的。

SVM最大化間隔平面、LR極大似然估計;SVM只能輸出類別,不能給出分類概率

兩者loss function不同;LR的可解釋性更強;SVM自帶有約束的正則化

2、LR為什麼用sigmoid函式,這個函式有什麼優點和缺點?為什麼不用其他函式?(sigmoid是伯努利分佈的指數族形式)

Logistic Regression 只能用於二分類,而sigmoid對於所有的輸入,得到的輸出接近0或1

Sigmoid存在的問題:梯度消失、其輸出不是關於原點中心對稱的(訓練資料不關於原點對稱時,收斂速度非常慢à輸入中心對稱,得到的輸出中心對稱時,收斂速度會非常快)、計算耗時

Tanh啟用函式存在的問題:梯 度消失、計算耗時,但是其輸出是中心對稱的

ReLU:其輸出不關於原點對稱;反向傳播時,輸入神經元小於0時,會有梯度消失問題;當x=0時,該點梯度不存在(未定義);

ReLu失活(dead RELU)原因:權重初始化不當、初始學習率設定的非常大

Maxout:根據設定的k值,相應的增大了神經元的引數個數

Xavier權重初始化方法:對每個神經元的輸入開根號

3、  SVM原問題和對偶問題關係?

SVM對偶問題的獲得方法:將原問題的目標函式L和約束條件構造拉格朗日函式,再對L中原引數和lambda、miu分別求導,並且三種導數都等於0;再將等於0的三個導數帶入原目標函式中,即可獲得對偶問題的目標函式

關係:原問題的最大值相對於對偶問題的最小值

4、  KKT(Karysh-Kuhn-Tucker)條件有哪些,完整描述?

KKT條件是思考如何把約束優化轉化為無約束優化à進而求約束條件的極值點

下面兩個思考題的答案都是在需要優化的目標為凸函式(凸優化)的情況下。  

問題一:當一個優化問題是凸優化問題時,可以直接用KKT條件求解。  

5、  凸優化(可行域為約束條件組成的區域)

5、 SVM的過程?Boost演算法?

6、  決策樹過擬合哪些方法,前後剪枝

決策樹對訓練屬性有很好的分類能力;但對位置的測試資料未必有好的分類能力,泛化能力弱,即發生過擬合。

防止過擬合的方法:剪枝(把一些相關的屬性歸為一個大類,減少決策樹的分叉);隨機森林

7、  L1正則為什麼可以把係數壓縮成0,座標迴歸的具體實現細節?

L1正則化可以實現稀疏(即截斷),使訓練得到的權重為0;

l1正則會產生稀疏解,即不相關的的特徵對應的權重為0,就相當於降低了維度。但是l1的求解複雜度要高於l2,並且l1更為流行

正則化就是對loss進行懲罰(加了正則化項之後,使loss不可能為0,lambda越大懲罰越大-->lambda較小時,約束小,可能仍存在過擬合;太大時,使loss值集中於正則化的值上)

正則化使用方法:L1/L2/L1+L2

8、  LR在特徵較多時可以進行怎樣的優化?-->L1正則有特徵選擇的作用

如果是離線的話,L1正則可以有稀疏解,batch大點應該也有幫助,線上的解決思路有ftrl,rds,robots,還有阿里的mlr。當然還可以用gbdt,fm,ffm做一些特性選擇和組合應該也有效果。

9、  機器學習裡面的聚類和分類模型有哪些?

分類:LR、SVM、KNN、決策樹、RandomForest、GBDT

迴歸:non-Linear regression、SVR(支援向量迴歸-->可用線性或高斯核(RBF))、隨機森林

聚類:Kmeans、層次聚類、GMM(高斯混合模型)、譜聚類

10、              聚類演算法(可以作為監督學習中稀疏特徵的處理):Kmeans、層次聚類、GMM(高斯混合模型)

聚類演算法唯一用到的資訊是樣本和樣本之間的相似度。  

評判聚類效果準則:高類間距,低類內距;高類內相似度,低類間相似度。

相似度與距離負相關。

影象之間的距離的度量是對每個畫素操作,最後獲得距離

Kmeans和GMM需要制定類別K

AKmeans演算法:對於已有的未標記的樣本,同時給定結果聚類的個數K;目標是把比較接近的樣本歸為一類,總共得到k個cluster

Kmeans中初始k箇中心點(Kmeans對中心點的選取比較敏感)的選取方法:a、隨機選取k個初始的樣本中心點(b、直接選取k個樣本點),然後計算每個樣本到k個選定的樣本中心點的距離;再比較待聚類樣本到初始樣本點的距離,將待聚類的樣本指定為距離較近的各個類別(離哪個近,就歸為哪一類);最後重新計算聚類中心:;重複迭代。

Kmeans收斂狀態:  

(1)聚類中心不再變化(2)每個樣本到對應聚類中心的距離之和不再有很大的變化  

損失函式àloss function後面的||xn-uk||^2表示採用歐式距離作為距離度量:  

Kmeans可以用於影象分割;

Kmeans的缺點:對初始樣本點的選取敏感;對異常點(如:一個遠離大多數點的孤立的點)的免疫不好;對團狀資料點效果較好,對帶狀效果不好;

Kmeans與Kmeans++初始化的區別:Kmeans初始樣本點的選取是隨機選取的;Kmeans++是選取最遠的k個點作為初始樣本點

A、 層次聚類  

有兩種層次聚類--)bottom-up(從多個類聚成一個類-->每次都是合併最相似的兩個類)、up-bottom(一個類到多個類-->每次都剔除最不相似的類);層次距離是一種樹狀結構

Kmeans與層次聚類對比:  

C、高斯混合模型à由單高斯模型線性加權組合

初始引數:樣本點屬於各個高斯函式的概率,以及每個高斯函式的均值和方差(引數都是隨機給定)

GMM求解過程àEM演算法求解     

E-step(由已知的均值和方差估算在該引數下的樣本點的分佈)和M-step(由樣本點的分佈再求均值和方差)是EM演算法

à這和EM求解的過程一樣

Kmeans是硬聚類(每個樣本只能屬於某一類);而GMM對於每個樣本點,都有屬於每個類的概率。

GMM優勢:多個分佈的組合、速度快(EM演算法求解)、最大資料似然概率

GMM劣勢:對初始化值敏感,容易陷入區域性最優、需指定k個高斯分佈;對非凸分佈資料集效果不好。

11、              kmeans的分類過程,用kmeans的資料有什麼樣的分佈(高斯分佈),loss函式是啥?

見問題“9”

12、              邏輯斯特迴歸和線性迴歸的損失函式?

13、              正則化為什麼能防止過擬合?(https://www.zhihu.com/question/20700829)

過擬合表現在訓練資料上的誤差非常小,而在測試資料上誤差反而增大。其原因一般是模型過於複雜,過分得去擬合數據的噪聲. 正則化則是對模型引數新增先驗,使得模型複雜度較小,對於噪聲的輸入擾動相對較小。

正則化時,相當於是給模型引數w 添加了一個協方差為1/lambda 的零均值高斯分佈先驗。對於lambda =0,也就是不新增正則化約束,則相當於引數的高斯先驗分佈有著無窮大的協方差,那麼這個先驗約束則會非常弱,模型為了擬合所有的訓練資料,w可以變得任意大不穩定。lambda越大,表明先驗的高斯協方差越小,模型約穩定,相對的variance(方差)也越小。  

10關鍵詞  

1、訓練集測試集驗證集劃分方式

https://www.zhihu.com/question/26588665/answer/33490049  

2、TPR(Recall)、FPR、ROC 、AUC(與準確率和召回率有關)

http://blog.csdn.net/feiyang2010jin/article/details/50547365  

3、座標軸下降法->用來解決loss function對引數不可導時(此時梯度下降演算法不再有效),求取引數更新量的方法

座標軸下降法和梯度下降法具有同樣的思想,都是沿著某個方向不斷迭代,但是梯度下降法是沿著當前點的負梯度方向進行引數更新,而座標軸下降法是沿著座標軸的方向。

http://blog.csdn.net/ymmxz/article/details/69396222  

lasso(Least absolute shrinkage and selection operator)

座標軸下降法和最小角迴歸法(http://blog.csdn.net/bbbeoy/article/details/72523540)都是求解Lasso迴歸的方法。

4、批量梯度下降演算法BGD,小批量梯度下降法MBGD,隨機梯度下降演算法SGD的比較  

http://blog.csdn.net/yMMxz/article/details/69371926  

5、學習率褪火 (衰減)-->沒學習多少次都會將學習率減少(lr/decay_rate)

6、多分類問題轉二分類方法-->組合多個二分類器來實現多分類器,方法如下:

a.一對多法(one-versus-rest,簡稱OVR SVMs)。訓練時依次把某個類別的樣本歸為一類,其他剩餘的樣本歸為另一類,這樣k個類別的樣本就構造出了k個SVM。分類時將未知樣本分類為具有最大分類函式值的那類。

b.一對一法(one-versus-one,簡稱OVO SVMs或者pairwise)。其做法是在任意兩類樣本之間設計一個SVM,因此k個類別的樣本就需要設計k(k-1)/2個SVM。當對一個未知樣本進行分類時,最後得 票最多的類別即為該未知樣本的類別。

c.層次支援向量機(H-SVMs)。層次分類法首先將所有類別分成兩個子類,再將子類進一步劃分成兩個次級子類,如此迴圈,直到得到一個單獨的類別為止。

說明:LR的多分類也可以用上面的方法

http://blog.sina.com.cn/s/blog_4af0fab001010ybp.html  

http://blog.sina.com.cn/s/blog_4c98b96001009b8d.html  

1、  跳出區域性極小值方法

-->優化方法,如momentum updata、Adam等;調整學習率

4、顯著性檢驗

5、線性迴歸、廣義線性迴歸

7、最小二乘誤差及其概率解釋

9、LDA(二類、多類)

11、類別不平衡解決方法:欠取樣、過取樣、閾值移動

12、模型融合方法:bagging、隨機森林、ADABOOST、 Gradient Boosting Tree

前面兩種是綜合多個模型的結果;後面兩個是重複訓練

Bagging-->模型融合(隨機森林也屬於模型融合);有兩種方法(bagging對樸素貝葉斯沒什麼用,因為NB太穩定,提升不大)

ADABOOST(boosting一類的演算法)的步驟-->重複迭代和訓練;每次分配給錯的樣本更高的權重;最簡單的分類器(如:線性分類器的二分類)疊加

ADABOOST分類過程詳細解釋如下:先用一個簡單的分類器將樣本分成兩類;為分錯的樣本分配更高的權重(初始權重設為1/N即可,N為樣本數);重複上次兩個過程(再次分類,併為錯誤的樣本設定更高的權重);最後將所有樣本資料正確分類後,將各個分類器疊加。

Gradient Boosting Tree:和Adaboost的思路類似,解決迴歸問題。

14、              決策樹、隨機森林、GBDT、XGBOOST

A、決策樹(有監督學習):  

建立決策樹的關鍵,即在當前狀態下選擇哪個屬性作為分類依據。根據不同的目標函式,建立決策樹主要有一下三種方法:ID3、C4.5、CART

BBootstraping不需要外界幫助,僅依靠自身力量讓自己變得更好。

C、隨機森林(bagging+決策樹):

Bootstrap取樣:有放回的重複抽樣

DAdaboost  

教程第11節 決策樹隨機森林……pdf –p37

E、  GBDT—梯度下降決策樹(有監督學習)

15、              熵 資訊增益(ID3演算法)、資訊增益率(C4.5演算法)、基尼係數(CART)

教程第11節 決策樹隨機森林……pdf -p10

16、              投票機制

1)一票否決(一致表決)、2)少數服從多數、3)有效多數(加權)

16、數值優化理論:梯度下降、牛頓、共軛梯度

牛頓法(dk為更新量)-->引入了二階偏導(Hessian矩陣)-->求解無約束優化(迭代的初始值一般是隨機選取的)  

缺點:不能保證Hessian矩陣(二階偏導組成的矩陣)一定可逆  

17、SVM、SVR、軟間隔SVM、SMO

18、SVM核函式

核函式主要是將線性不可分的資料對映到高位空間再進行分類

核函式的種類:

高斯核是用的最多的核函式à對訓練資料分類效果最好  

高斯核的缺點:容易過擬合,需要更多的樣本、泛化能力弱  

19、距離方法:閔科夫斯基 、VDM、馬氏距離

20、K-means、KNN、LVQ、DBSCAN、譜聚類  

21、降維方法:LDA、PCA、SVD

22、特徵選擇方法:總體分為過濾型、包裹型、嵌入型(à基於模型的;如:正則化)

Relief、LVW、正則化(L1/L2)

特徵選擇的原因:特徵存在冗餘(特徵相關度太高)、摻雜了噪聲(特徵對預測結果有負影響)

L1正則化是截斷效應(實現稀疏,把不相關的特徵的係數變成0);L2正則化是縮放效應,使最後得到的引數很小

25、交叉熵?KL散度(也叫KL距離)?

25、最大熵模型、EM(Expectation Maximization)演算法

最大熵模型的求解可以轉化為對偶問題的極大化;

26、特徵-->資料中抽取出來的對結果預測有用的資訊

       特徵工程-->使用專業背景知識和技巧處理資料,使得特徵能在機器學習演算法上發揮很好的作用的過程。

27、交叉驗證

K折交叉驗證(K-flod cross validation)

http://www.cnblogs.com/boat-lee/p/5503036.html  

將訓練集分成K份;依次將第i(i=k,…,1)折作為交叉驗證集,其餘k-1折(除第i折外)作為測試集;總共進行k次,每進行完一次訓練,都用test data去測試,得到k個準確率;最後取k個準確率的均值作為最後結果。

28、過擬合和欠擬合

欠擬合(under fitting):引數過少,不足以表達資料的特徵

過擬合(over fitting):引數過多,過渡擬合數據,泛化能力差(訓練時的準確率很好,但測試的時候就很差)

欠擬合解決方法:找更多的特徵;減小正則化係數

(二)深度學習方面

1、MLP的BP過程?delta的意義?每一層節點的殘差?

2、max pool層怎麼做的?

3、caffe架構?caffe如何構建網路?

4、去卷積過程(轉置卷積)?http://blog.csdn.net/fate_fjh/article/details/52882134  

5、單個神經元是否線性可分(模式識別的概念,是否能用用線性函式將樣本分類)?

是否線性可分是對於樣本集的;線性可分是資料集合的性質,和分類器沒啥關係。

可以通過線性函式分類的即為線性可分

6、深度學習模型的發展?深度學習的評價標準?

7、強化學習應用場景和方法?adaboost和cascade adaboost?損失函式有哪些?分類迴歸聚類的區別與聯絡?目標檢測的三種方法?

8、目標檢測常用的網路,RCNN, SPP, Fast RCNN, Faster RCNN的區別?

9、隨機梯度下降,標準梯度?softmax公式?資訊熵公式?

10、SVM和softmax的區別?

Svm具有附加穩定性,當樣例滿足邊界條件時,該樣例不會影響損失函式;而softmax將考慮所有的樣例

11、訓練時,mini-batch與GPU的記憶體匹配-->訓練網路時的mini batch是由GPU的記憶體決定的。

12、正則化:正則化表現的是對高維度W的懲罰力度,當正則化係數(lambda)很大時,使w變的非常小,最終的結果是函式變得非常平滑。正則化係數(lambda)越小,擬合程度越高,效果越好。

13、batch normalization中gamma和beta初始化為1和0,然後在訓練中優化他們

BN可以減少dropout(可以不要dropout)

14、當訓練到最後,loss值很大,但精度在上升?-->說明loss變化很小,需要增大學習率

梯度爆炸(loss發散,出現nan)-->學習率很大,需要減小學習率

15、如果loss開始一直不變,但是從某點開始下降的原因à因為初始值選定的不好,錯誤的初始值會讓梯度一開始接近0。

16、優化策略的比較:

http://www.cnblogs.com/denny402/p/5074212.html  

SGD-->Momentum updata-->Nesterov Momentum updata-->AdaGrad update--> RMSProp update-->Adam update

以上都是一階優化方法,對於二階優化方法(BFGS和L-BFGS),二階優化方法不需要學習率這個引數,可以直接對目標進行優化。

SGD:根據梯度直接更新w

Momentum updata:不是通過計算得到的梯度直接更新w,而是增加一個變數V(定義為速度),改變了和梯度直接相關,再用V更新w

Nesterov Momentum updata:更新方式

AdaGrad update:每個引數自適應學習速率的方法(因為引數空間的每一維都有自己的學習速率,它會根據梯度的規模的大小動態變化)

長時間訓練時,AdaGrad演算法會發生什麼?-->根據更新公式,不斷有正數加到cache中,更新步長會逐漸衰減到0,最後完全停止學習。

1e-7:平滑因子,防止除數變成0

RMSProp update:解決了AdaGrad中會停止更新的問題

Adam update:

  adagrad記錄的是梯度的二階矩,並按指數和形式表示

Momentum的作用:穩定梯度的方向

17、模型整合

先單獨訓練多個不同的模型;在訓練時,將每個模型的結果取平均值即可。-->可提升精度

缺點是必須單獨訓練不同的模型

18、Cross entropy loss 和sigmod Cross entropy loss的區別?

http://blog.csdn.net/u012235274/article/details/51361290  

看博文裡寫的就沒啥區別

SmoothL1Loss  

優勢:smoothL1Loss在接近0的時候,看起來像二次函式

SoftMaxWithLoss  

19、沒有隱藏層的神經網路是線性的,只能處理線性可分的問題(線性可分問題從二維角度看,即分界線是一條直線,多維就是存線上性超平面將其分類)。

20、卷積神經網路中,在沒有zero-padding的情況下,當輸入為7*7,filter為3*3,stride為3是,這裡的stride是不允許這樣設定的,因為這樣的話輸出就是2.333*2.333(不是整數),所以zero-padding避免了這種情況的發生

Zero-padding的另一種作者用,就是避免影象在卷積神經網路中向前傳播時,影象提取出來的特徵越來越小,zero-padding可以保證影象的尺寸。

21、定位和檢測的區別:

區別在於要找的目標的數量;

對於定位,影象中只有一個或一種物件,用框標出物件的位置

對於檢測,影象中有多個目標或多種物件。

23、資料不足時:

資料增強、transfer learning(fine-tuning:根據資料集的大小,訓練網路的最後一層或者最後幾層)、修改網路

Fine-tuning:固定網路,即為學習率為0、需要訓練的層的學習率比較高(原來訓練好的網路的學習率的十分之一)、當預訓練的層(中間層)需要改變時,學習率很小(如原學習率的一百分之一)

24、goolenet和resnet中用到的結構(瓶頸結構 bottlenecks:輸入輸出相同)

1x1的卷積層相當於全連線層-->遍歷所有畫素

3x3的卷積可以替換成1x3和3x1的不對稱卷積(inception v3)-->減少引數

25、CNN中 卷積的實現

傅立葉變換可以用於大卷積核的運算

im2col(主要的):

caffe和torch不支援使用16位計算。

26、WindowDataLayer(視窗資料),用於檢測,可以讀取hdf5資料。

27、Caffe中的交叉驗證?

定義兩個prototxt檔案(訓練階段和測試階段),train_val.prototxt和deploy.prototxt;後者用於測試集中,測試階段的train_val.prototxt用於驗證。

28、其他框架?

Torch-->C和Lua語言寫的,Torch中主要的是Tensors類

TensorFlow-->pip安裝,TensorBoard為視覺化工具 ,支援多GPU,支援分散式訓練(多機),支援RNN

Theano、MxNet、

29、語義分割(Semantic Segmentation)和例項分割(Instance Segmentation)

語義分割-->操作畫素,標記每個畫素所屬的標籤à不關心具體的類,同一類目標標記為相同的畫素

例項分割à 輸出類別同時標記畫素(同時檢測並分割)-->關心目標的類,不同目標標記為不同的畫素(同一類中的目標也標記為不同 的畫素)

分割時使用全卷積網路(以filter1*1的卷積層替換fc層,操作每個畫素)可以得到所有畫素的標籤,而不用先將影象分成許多小塊,再通過卷積為塊 的中心畫素分類(這樣就很耗時)

30、反捲積(卷積轉置)

31、Spatial Transformer Networks(空間變換網路)

32、無監督學習

聚類等、PCA(線性的)

自動編碼器(Auto encoder)、Generative Adversarial Networks(GAN)

(三)影象方面

1、opencv遍歷畫素的方式?

2、LBP原理?

3、HOG特徵計算過程,還有介紹一個應用HOG特徵的應用?

4、opencv裡面mat有哪些建構函式?

5、如何將buffer型別轉化為mat型別?

6、opencv如何讀取png格式的圖片?(我貌似記得opencv不能讀取png格式的圖片,好像每種格式圖片的表頭不一樣,需要轉化,給他說了半天他,他也沒明白)

7、opencv如何讀取記憶體圖片?

8、opencv裡面有哪些庫?

9、用過opencv裡面哪些函式?(我順帶回答了一下canny,HR又問opencv裡面有c-a-n-n-y有這幾個字母的函式嗎,尷尬。。。又問我如何自己寫canny邊緣檢測演算法)

10、opencv裡面為啥是bgr儲存圖片而不是人們常聽的rgb?

12、你說opencv裡面的HOG+SVM效果很差?他就直接來了句為啥很差?差了就不改了?差了就要換其他方法?、

13、講講HOG特徵?他在dpm裡面怎麼設計的,你改過嗎?HOG能檢測邊緣嗎?裡面的核函式是啥?那hog檢測邊緣和canny有啥區別?

13、如何求一張圖片的均值?(考慮了溢位和分塊求解,貌似不滿意。。。回頭看看積分圖裡面如何解決溢位的。)

14、如何寫程式將影象放大縮小?(我回答的插值,不太對。。。比如放大兩倍可以插值,那放大1.1倍呢,)-->放大1.1倍也可以插值

15、如何遍歷一遍求一張圖片的方差?(回答的是採用積分圖,並讓我推導這樣為啥可行。這個問題以前幫同學解決過。。。)

(四)程式設計方面(C++/Python)

1、  全排列

2、  矩陣求最長連續遞增的路徑長度?à

329. Longest Increasing Path in a Matrix https://leetcode.com/problems/longest-increasing-path-in-a-matrix/discuss/  

3、vector和list的區別?

4、c裡面有哪些記憶體申請方法?

5、虛擬函式和純虛擬函式的區別?

6、過載、覆蓋、重寫的區別?

7、用過C++11嗎?用過裡面的哪些?

8、有哪些型別轉換函式?以及用在哪些場景?

9、用過GCC嗎?會linux嗎?

10、堆和棧的區別?

11、Python中定義類的私有變數?在變數前面加雙下劃線“__”,如:__x,則為私有變數

11、請描述指標陣列和陣列指標的區別 
指標陣列:array of pointers,即用於儲存指標的陣列,也就是陣列元素都是指標

陣列指標:a pointer to an array,即指向陣列的指標

還要注意的是他們用法的區別,下面舉例說明。

int* a[4] 指標陣列

 表示:陣列a中的元素都為int型指標   

元素表示:*a[i]   *(a[i])是一樣的,因為[]優先順序高於*

int (*a)[4] 陣列指標

             表示:指向陣列a的指標
             元素表示:(*a)[i]  

(五)開放性問題

1、最後問面試官的問題

(1)我以後的面試要注意哪些問題,提點建議?或為了更好地勝任這個崗位,我還需要補充哪些技能? 入職後是否有產品培訓和技能培訓?

(2)當感覺還可以時,就問公司培訓制度,晉升機制,以及自己來了應該做什麼,當感覺沒戲時,就問,你給我一些關於職業的建議吧,以及怎麼提升自己

3、 HR面試(自己總結的)  

(1)       期望薪資

(2)       你理想的工作是什麼樣的?

(3)       關於你以後的工作打算,你有什麼想法?

(4)       職業規劃

(5)       做專案時遇到的困難及解決方法?

(6)做科研辛苦嗎?

(6)       對公司的看法?為什麼應聘我們公司?

(7)       你在同齡人中處於什麼檔次 和大牛的差距在哪?

(8)       你跟同齡人相比有什麼優勢?

(9)       你除了我們公司,還投了哪些公司?

說幾個

(10)   BAT之外,你最最想去的是哪家公司,為什麼?

(11)   如果我們給你發offer,你還會繼續秋招麼?

(12)   【跨專業】本科+研究生在本專業學了多年,為什麼沒在本行業求職?

(13)   【家離企業所在地較遠】為什麼想來xx地方工作,父母支援麼?

(14)   【物件】如果物件和你在意向工作地發生分歧,你怎麼處理?

(15)   優缺點?

(16)   介紹你一次最失敗的一次經歷?

(17)   介紹你一次最成功的一次經歷?

(18)   這份工作你有想過會面對哪些困難嗎?

(19)   如果你發現上司做錯了,你將怎麼辦?

      (19)你覺得大學生活使你收穫了什麼?

      (20)你對加班的看法?

      (21)當公司給出的待遇偏低不足以吸引到優秀人才的時候,你該怎麼去招聘?

這些知識點都是我自己總結的,包括HR面的問題。
 

人工智慧大資料與深度學習

搜尋新增微信公眾號:weic2c

640?wx_fmt=png

長按圖片,識別二維碼,點關注

大資料探勘DT資料分析

搜尋新增微信公眾號:datadw

教你機器學習,教你資料探勘

640?wx_fmt=jpeg

長按圖片,識別二維碼,點關注

輕    鬆     一   刻

640?wx_fmt=jpeg