以下为《笼统专题面试问题汇总》的无排版文字预览,完整格式请下载
下载前请仔细阅读文字预览以及下方图片预览。图片预览是什么样的,下载的文档就是什么样的。
笼统专题
介绍一下人工智能十大算法?
决策树、随机森林、SVM、KNN、Kmeans、神经网络、逻辑回归、线性回归、朴素贝叶斯、降维算法(PCA与LDA)
什么是弱人工智能,强人工智能,超人工智能?
弱人工智能
也称限制领域人工智能(Narrow AI)或应用型人工智能(Applied AI),指的是专注于且只能解决特定领域问题的人工智能
强人工智能(Strong AI)
又称通用人工智能(Artificial General Intelligence)或完全人工智能(Full AI),指的是可以胜任人类所有工作的人工智能。
超人工智能(Super Intelligence,缩写 ASI)
假设计算机程序通过不断发展,可以比世界上最聪明,最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。
什么是有监督,什么是无监督?
有监督:数据有标签,训练得到模型,再用模型去预测,常用算法是回归与分类。
无监督:数据没有标签,直接对数据建模。常用算法是聚类。
介绍一下模型评价的性能度量指标?
回归任务中:均方某某:
分类任务中:
TP:正例被判为正例的数量 FP:负例被判为正例的数量(存伪)
TN:负例被判为负例的数量 FN:正例被判为负例的数量(去真)
准确率:表现判别正确的指标,Accuracy=(TP+TN)/total
精确率/查某某:被判为正例样本中真实正例的比例,Precision=TP/(TP+FP)
召回率/查某某:所有真实正例中被判为正例的比例,Recall=TP/(TP+FN)
F1-Measure(F1Score):精确率与召回率的加权调和平均。(用调和平均是因为,如果用算数平均,此高彼低平均也高,调和平均是二者都高才高,符合我们要求)
ROC:以P(TP)为纵轴,P(FP)为横轴,由P(FP)=0处开始从左向右移动分类阈值线,根据与统计图相交情况画出来的P(TP)与P(FP)二者关系的曲线。
AUC:在ROC曲线下的面积。AOC越高,分类器效果越好。
什么是成本函数?
成本是衡量模型与训练样本符合程度的指标,可以理解为针对所有训练样本,模型拟合出来的值与训练样本真实值的误差平均值。成本函数即成本与模型参数之间的函数关系。
为什么需要设置交叉验证数据集?
验证集是随机选取的,所以使用验证集可以调整模型参数,优化模型性能;使用交叉验证集的目的是为了验证是否过拟合,即验证模型的泛化性能。
损失函数、代价(成本)函数、目标函数的区别?
损失函数:用以计算单个训练样本的误差。
成本函数:代价函数是定义在整个训练集上面的,也就是所有样本的误差的总和的平均,即损失函数的总和的平均
目标函数:根据不同学习任务有所不同。例如线性回归的目标函数是一个线性函数。有时目标函数是代价函数+正则化项。
请列举一些常见的分类与回归中的代价函数。
交叉熵代价函数,对数似然代价函数,二次代价函数。
信息熵专题
什么是Gini系数,它的主要作用是什么?
Gini系数是一种与信息熵类似的做特征选择的方式,可以用来衡量数据的不纯度,常用其构造二叉决策树。
介绍一下熵,信息量,信息熵?
熵(entropy)在统计学中是一个很重要的概念,用于特征的选择,衡量结果的不确定性,?信息熵越小, 结果越简单。?
信息量:信息的大小,单位为比特,I(x)=--∑p(x)log(p(x))。
信息熵:H(x)=E(I(x)),信息量分布的期望。
介绍一下梯度下降算法和牛某某,并说一下二者区别?
梯度下降算法:一阶近似,xk+1=xk-α%絰f(xk)
牛顿 内容过长,仅展示头部和尾部部分文字预览,全文请查看图片预览。 经元的权重提前饱和。
缺点2:sigmoid函数的输出不是零均值的,故权值变化要么全正要么全某某。
缺点3:解析式包含幂运算,计算复杂耗时。
什么是超参数?介绍几个你熟悉的超参数
超参数是在开始学习过程之前设置值的参数,它定义了模型更高层次的概念,如复杂度或学习性,另外它不可被训练。
常见的超参数有:K均指聚类中的簇数,学习率,深度神经网络的隐层数等。
为什么说神经网络是一个黑箱模型?
因为神经网络最后训练出的模型难以解释,无法理解它的各参数的现实含义(比如权值),我们对它只是知其然不知其所以然。
说出3种流行的激活函数?
sigmoid,tanh,ReLU等
什么是反向传播?它是如何工作的?
[文章尾部最后300字内容到此结束,中间部分内容请查看底下的图片预览]请点击下方选择您需要的文档下载。
以上为《笼统专题面试问题汇总》的无排版文字预览,完整格式请下载
下载前请仔细阅读上面文字预览以及下方图片预览。图片预览是什么样的,下载的文档就是什么样的。