什么是深度学习?
我们知道,深度学习是利用人工神经网络中相互通信的节点结构来实现的。要想建立一个 ANN,必须将计算和参数与我们提供的数据一起导入模型,并且必须采取预防措施,以确保这些计算将偏差和方差考虑在内。
在机器学习中,偏差是指模型对数据做出假设或泛化的程度,其目的是使目标函数更容易学习。高偏差意味着模型在处理信息时(往错误的方向)进行了简化,走了“捷径”。
方差是衡量每个数据点与平均值相差的度量值,或对数据集中数字间分布的统计测量。与偏差相反,方差是指模型对训练数据的敏感程度。高方差(或敏感度)意味着模型过于关注细节,而忽略了数据集内的基础模式。
在监督学习中,当方差过高而偏差过低时,称为过拟合。当偏差高而方差低时,称为欠拟合。创建完美拟合并不容易,这种现象通常称为偏差-方差权衡(Bias-variance Tradeoff)。
参数定义边界,而边界对于理解深度学习算法必须处理的大量数据至关重要。这意味着,过拟合和欠拟合通常可以分别通过使用更少或更多的参数来纠正。
考虑人类相关的偏见 如果深度学习模型使用的训练数据存在统计学上的偏差,或者不能准确反映总体特征,则输出就可能存在缺陷。不幸的是,现有的人类偏见通常会传导到人工智能上,从而带来歧视性算法和偏见输出的风险。
随着越来越多的企业利用 AI 来提高生产力和性能,至关重要的是制定相关策略,来尽量减少偏见。这首先需要确保在整个设计过程中秉持包容性的理念,并且要更深远地考虑所收集的数据是否代表足够的多样性。
什么是“黑箱”?“黑箱”是指 AI 程序在其神经网络中执行任务时,不对外展示其运作过程的现象。这就会造就一种情况——没有人(包括创建算法的数据科学家和工程师)能够准确解释模型如何获取特定的输出。黑箱模型缺乏可解释性,所以将其用于高风险决策时可能会产生严重后果,尤其是在医疗卫生、刑事司法或金融等行业。
为了使“黑箱”更易于理解,可以在整个机器学习生命周期内应用可解释的 AI(XAI)技术。可解释的 AI 应当能够展示其能力与认知;阐明过往行为、当前进程及后续步骤;并列举其行为所依据的任何相关信息。简而言之,可解释的 AI 旨在推动 AI 系统“展示其运作过程”。
进一步了解可解释的 AI