Google的Explainable AI服务阐明了机器学习模型如何做出决策
很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于Google的Explainable AI服务阐明了机器学习模型如何做出决策的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对Google的Explainable AI服务阐明了机器学习模型如何做出决策这篇文章感兴趣的小伙伴可以一起来看看
Google LLC 在其云平台上推出了一项新的“ 可解释AI ”服务,旨在使机器学习模型做出决策的过程更加透明 。

谷歌表示 , 这样做的想法是,这将有助于建立对这些模型的更大信任 。这很重要,因为大多数现有模型往往相当不透明 。只是不清晰他们如何做出决定 。
Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型的可解释性 。她说,这项新服务的工作原理是量化每个数据因素对模型产生的结果的贡献 , 帮助用户了解其做出决定的原因 。

换句话说 , 它不会以通俗易懂的方式来解释事物,但是该分析对于首先构建机器学习模型的数据科学家和开辟人员仍然实用 。
可解释的AI有进一步的局限性,因为它提出的任何解释都将取决于机器学习模型的性质以及用于训练它的数据 。
她写道:“任何解释方法都有局限性 。” “一方面,AI解释反映了数据中发现的模型的模式,但它们并未揭示数据样本,总体或应用程序中的任何基本关系 。我们正在努力为客户提供最直接,最实用的解释方法,同时保持其局限性透明 。”

但是,可解释的AI可能很重要,因为准确解释特定机器学习模型为何得出结论的原因对于组织内的高级治理人员很实用,他们最终负责这些决策 。对于高度严格的行业来说,这尤其重要 , 而信心绝对至关重要 。谷歌表示,对于处于这一位置的许多组织而言 , 目前没有任何可解释性的人工智能已经超出范围 。
在相关新闻中 , Google还公布了所谓的“模型卡”,作为其Cloud Vision应用程序编程界面的面部检测和对象检测功能的文档 。
【Google的Explainable AI服务阐明了机器学习模型如何做出决策】这些模型卡详细说明了这些预先训练的机器学习模型的性能特征 , 并提供了有关其性能和限制的有用信息 。谷歌表示,其目的是帮助开辟人员就使用哪种模型以及如何负责任地部署它们做出更明智的决定 。
猜你喜欢
- Kubernetes上的音乐键盘和AI
- 如果要使用机器增强人性化我们需要以不会带来过去错误的方式来实现
- Facebook使用AI的6种方式
- 机器学习现在可以为您的业务做什么
- 人工智能驱动的数据分析
- 什么东西辟邪护身效果最好 辟邪最厉害的东西有哪些
- 野钓的饵料和位置怎么选择 钓鲢鳙用什么钩子比较好
- 食人鱼的天敌到底是什么动物 食人鱼最怕什么东西
- 新房搬家一定要带的8件东西 搬家买哪些东西有好寓意
- 为什么相爱的两个人不能在一起 大鱼海棠最催泪的台词
