警惕这4个机器学习风险
机器学习 (ML) 是真正令人兴奋的技术。我们已经能够开发出能够随着时间的推移进行学习和改进的人工智能模型,这一事实本身就令人瞩目。
凭借其令人难以置信的模式识别和决策能力,机器学习在全球技术格局中发挥着非常核心的作用,垂直行业的公司已经从实施这项技术中获得了收益或期望获得潜在收益。
但这并不全是阳光和彩虹。与任何形式的技术一样,机器学习也存在一定的风险。以下是最关键的四个。
1. 数据质量差或有偏差
这句话已经成为陈词滥调,但机器学习模型的好坏取决于用于训练它的数据。在训练阶段输入模型的输入数据决定了其输出在部署中的准确性。
因此,不言而喻,输入数据应该是准确、无错误、多样、变化且无噪声的高质量数据(即模型无法正确解释的无意义或损坏的数据)。嘈杂、不准确或误导性的“脏”数据,尤其是在训练阶段,可能会导致模型在根本上存在严重缺陷,以至于无法实现其预期目的。
始终验证训练数据的完整性有助于创建一个产生准确且无偏见输出的模型。
2. 过拟合
过度拟合是指一种不良情况,即机器学习模型在训练数据上表现得非常好,但在处理现实世界数据时却无法提供准确的输出。当模型检测到训练数据中的其他模式时,就会发生这种情况。这些额外的模式通常是影响模型预测能力的不需要的干扰。
假设正在训练一个机器学习模型来检测表格图像。不幸的是,训练数据包含大量也包含椅子的图像。椅子的包含使模型混淆了将椅子视为分类因素,这意味着它可能无法识别没有椅子的桌子的图像。
为了避免过度拟合,您必须确保您使用的数据是多种多样的,并且不包含任何可能被误解为应包含在分类标准下的另一种模式的噪声。
3.对抗性机器学习
对抗性机器学习是指一种攻击,旨在通过操纵输入数据甚至获得对模型本身的未经授权的访问来破坏机器学习模型的功能。此类攻击的最终目标是对模型的功能产生负面影响,导致错误和不准确的预测。对抗性机器学习攻击的三种主要类型是:
数据中毒:这是在训练阶段进行的。攻击者将错误或误导性的数据添加到训练数据集中。
规避:规避攻击是在推理阶段进行的,其中机器学习模型已经部署并应用于现实世界的数据。在这种情况下,带有足够噪声的操纵数据(人眼无法察觉,但可以被模型识别)被输入到模型中,导致模型对数据进行错误分类。
反转:反转攻击涉及将 ML 模型的输出输入到单独的模型中以预测输入数据。考虑到许多输入数据往往是高度敏感的,这一点尤其令人担忧。
4. 数据隐私
一些机器学习模型是根据极其敏感的个人数据(例如财务或医疗信息)进行训练的,使用此类数据的组织需要遵守 GDPR 和 HIPAA 等数据保护法规。
此外,正如我们在上一点中已经看到的,还可以使用反演来重现 ML 模型的训练数据。对抗模型反演的常见方法是向数据添加噪声。不幸的是,正如我们所知,噪声会降低模型的准确性。然而,在这方面也有一些积极的进展:麻省理工学院的一组研究人员开发了一个数据保护框架,称为“大概正确(PAC)隐私”。该框架使开发人员能够确定保护数据所需的最小噪声量,同时保持性能水平。然而,这个框架仍处于早期阶段,其实际效果如何还有待观察。
机器学习仍处于相对初级阶段,组织仍在试验和探索其可能性。我们上面提到的风险只是冰山一角。随着这项技术的不断发展,预计会出现更多威胁。除了开发主要的机器学习功能之外,现在是组织投资强化机器学习模型以防范现有和未来的所有威胁的最佳时机。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.