国产精品天干天干,亚洲毛片在线,日韩gay小鲜肉啪啪18禁,女同Gay自慰喷水

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

節(jié)前開(kāi)胃菜|12道人工智能試題看你能對(duì)幾道

2021-09-18 19:10 作者:深度之眼官方賬號(hào)  | 我要投稿

最近學(xué)姐在想關(guān)注我的同學(xué)學(xué)什么方向的都有,怎么能讓你們同臺(tái)競(jìng)技呢?直到學(xué)姐看到一直關(guān)注的大佬的公眾號(hào)搞得答題推文,就把這些題整理了一下今天考考你們,看看你們能不能答對(duì)!


一共18道題,時(shí)間不限,可以查資料但不能不答題就看答案。


問(wèn)題1


假設(shè)有一個(gè)的dataframe類(lèi)型的表格df,其有一列A為數(shù)值類(lèi)型。其中下面哪個(gè)操作會(huì)報(bào)錯(cuò)?


  • A. df['A'].mean()

  • B. df['A'].ptp()

  • C. df['A'].std()

  • D. df['A'].min()


問(wèn)題2


給定數(shù)值分布的情況下,箱線圖計(jì)算得到離群點(diǎn)的方式是?


  • A. 計(jì)算Q1=30%分位點(diǎn),和Q3=70%分位點(diǎn),然后范圍Q1-1.5*(Q3-Q1) - Q3+1.5*(Q3-Q1)為正常數(shù)值范圍


  • B. 計(jì)算Q1=25%分位點(diǎn),和Q3=75%分位點(diǎn),然后范圍Q1-1.5*(Q3-Q1) - Q3+1.5*(Q3-Q1)為正常數(shù)值范圍

問(wèn)題3


使用LightGBM訓(xùn)練模型,可以計(jì)算得到的特征重要性。特征重要性一定可以代表特征的有效性。


  • A. 正確

  • B. 錯(cuò)誤

問(wèn)題4


在訓(xùn)練深度學(xué)習(xí)模型時(shí),SGD和Adam哪一個(gè)占用的顯存/內(nèi)存更大?


  • A. SGD

  • B. Adam


問(wèn)題5


訊飛人臉關(guān)鍵點(diǎn)檢測(cè)比賽需要選手識(shí)別出人臉的4個(gè)關(guān)鍵點(diǎn),給定的圖像尺寸為96*96。關(guān)鍵點(diǎn)坐標(biāo)作為標(biāo)簽,此時(shí)損失函數(shù)和標(biāo)簽處理方法哪種最好?


  • A. 損失為交叉熵,標(biāo)簽不做處理

  • B. 損失為MAE,標(biāo)簽不做處理

  • C. 損失為交叉熵,標(biāo)簽坐標(biāo)除以96

  • D. 損失為MAE,標(biāo)簽坐標(biāo)除以96


問(wèn)題6


下列哪一個(gè)庫(kù)中的樹(shù)模型,不能使用GPU?


  • A. LightGBM

  • B. XGBoost

  • C. sklearn

  • D. CatBoost


問(wèn)題7


哪些機(jī)器學(xué)習(xí)算法不需要做歸一化處理?


  • A. Adaboost

  • B. SVM

  • C. LR

  • D. 樹(shù)模型


問(wèn)題8


剪枝是防止樹(shù)模型過(guò)擬合的方法,在隨機(jī)森林中需要做后剪枝操作嗎?


  • A. 不需要

  • B. 需要


問(wèn)題9


下列哪種特征信息,樹(shù)模型(XGBoost、LightGBM、CatBoost)是學(xué)習(xí)不到的?


  • A. Label Encoder

  • B. Target Encoder

  • C. Count Encoder


問(wèn)題10


在深度學(xué)習(xí)模型訓(xùn)練中,batch size和學(xué)習(xí)率是非常重要的超參數(shù):


  • A. batch size越大,學(xué)習(xí)率應(yīng)該變小

  • B. batch size越大,學(xué)習(xí)率應(yīng)該變大

  • C. batch size和學(xué)習(xí)率互不影響

  • D. 兩者不滿足上述所有關(guān)系


問(wèn)題11


Bert模型是非常強(qiáng)大的NLP模型,可以用于完成?


  • A. 文本分類(lèi)

  • B. 詞性表述

  • C. 文本問(wèn)答

  • D. 多項(xiàng)選擇

  • E. 全都要(上面功能都可以)


問(wèn)題12


對(duì)抗訓(xùn)練是使用對(duì)抗樣本來(lái)增加模型的建模能力,可以增加NLP模型的建模能力:


  • A. 對(duì)抗訓(xùn)練是Embedding矩陣進(jìn)行的

  • B. 對(duì)抗訓(xùn)練是網(wǎng)絡(luò)所有參數(shù)進(jìn)行的

  • C. 對(duì)抗訓(xùn)練是網(wǎng)絡(luò)全連接層進(jìn)行的

本文考題收集整理自Coggle數(shù)據(jù)科學(xué)公眾號(hào),如有侵權(quán)請(qǐng)聯(lián)系刪除~


掃碼關(guān)注學(xué)姐公眾號(hào)

回復(fù)【參考答案】即可獲取答案!



節(jié)前開(kāi)胃菜|12道人工智能試題看你能對(duì)幾道的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
宁晋县| 福建省| 吉安市| 合川市| 库车县| 农安县| 中卫市| 祁连县| 布拖县| 凤凰县| 大荔县| 乌鲁木齐县| 泰来县| 光泽县| 阿尔山市| 竹北市| 怀化市| 金门县| 永州市| 友谊县| 鹤壁市| 虎林市| 明水县| 萝北县| 蒙城县| 溧水县| 长岭县| 黄大仙区| 栾川县| 富川| 南丰县| 绥滨县| 塔河县| 溧阳市| 成安县| 博兴县| 鄂温| 肇州县| 泰兴市| 大荔县| 江川县|