我的业务要不要用人工智能?引入AI前你需要评估的(四)

这是一个系列文章,从各个角度来评估一个问题:“我的业务要不要用 AI ?能不能用 AI?” 本期评估角度——黑箱
这是一个系列文章,从各个角度来评估一个问题:“我的业务要不要用 AI ?能不能用 AI?”本期评估角度——黑箱

黑箱是人工智能的缺点

并非所有人工智能都是黑箱的,大家说的黑箱主要指当下最热门、效果也最好的「深度学习」。

在我之前写的《一文看懂深度学习》中,举过一个水龙头的例子,从那个例子就可以看出:深度学习的工作原理不是讲逻辑(基于规则),而是大力出奇迹(基于统计)。

大力出奇迹会导致几个结果:

  1. 深度学习只能告诉你「是什么」,但是不能告诉你「为什么」
  2. 没人能预知在什么情况下会出现错误

下面的图片就会展示一些人工智能所犯下的「低级错误」。

而最可怕的是:当我们发现问题时,并不能针对具体问题来对症下药。

我们过去的计算机科学大部分是基于规则的,很像一台汽车,我们很清楚的知道这台车是如何组装起来的,所以发现螺丝松了就柠紧,哪个零件老化了就换一个。完全可以做到对症下药。

而深度学习则完全不一样,当我们发现问题时,不能做到对症下药,只能全局优化(比如灌更多的数据)。

扩展阅读:

深度 | Nature:我们能打开人工智能的“黑箱”吗?

打破人工智能算法黑箱

哪些问题不适合「依赖」 AI ?

由于深度学习的黑箱特性,并非所有问题都适合用深度学习来解决。

我们评估哪些问题适合,哪些问题不适合的时候,可以从2个角度来评估:

  1. 是否需要解释
  2. 错误容忍度

我们先从这2个角度来看看普及率较高的AI应用:

案例 是否需要解释 错误容忍度
语音识别 用户只关心效果好不好,并不关心背后的原理是什么 偶尔出现一些错误并不影响对整句话的理解。少量出错是可以接受的。
人脸识别 同上 相比语音识别,用户对出错的容忍度要低一些,因为需要重新刷脸。
机器翻译 同上 跟语音识别类似,只要大面上准确,并不影响整体的理解。

我们再看一些 AI 和人力结合的具体应用:

案例 是否需要解释 错误容忍度
智能客服 用户不关心是人工服务还是机器服务,只要能解决我的问题就行 如果机器客服不能理解我的意图,无法帮我解决问题,用户会很不满意。所以当机器搞不定 的时候需要人工来补位
内容审核 对于审核不通过的内容,需要解释原因。通过的内容不需要解释为什么。 有一种职业叫「鉴黄师」,目前正在逐步被机器替代,但是并没有完全替代,因为有时候机器会拿不准,这个时候人工来复审

easyai公众号

最后看一些不适合AI落地的场景:

案例 是否需要解释 错误容忍度
推导定理 科学是绝对严谨的,一定是从逻辑上推导出来的,而不是统计出来的。 如果有例外就不能称作定理,一定是绝对正确没有错误的。
写论文 人工智能已经可以写小说,诗歌,散文。但是论文这种文体要求非常严谨的上下文逻辑。 论文里是不允许有错误的,全文的逻辑要非常清晰,哪怕一个细节出现了逻辑问题,也会造成整篇论文没有价值。

如果我们把上面提到的案例全部放在象限中,大致如下:

案例在2个评估象限中的位置

所以,在评估的时候有3条原则:

  1. 解决方案越需要解释背后的原因,越不适合用深度学习
  2. 对错误的容忍度越低,越不适合使用深度学习
  3. 上面2条并非绝对判断标准,还需要看商业价值和性价比,自动驾驶和医疗就是反例。

案例分析:医疗

人工智能在医疗行业的应用被大家广泛看好,因为医疗行业有很多痛点:

  1. 医疗资源不足,尤其是优质的医生
  2. 医疗资源的分配极度不均衡,中国很多疾病只有北京能治
  3. 其实医生的误诊率也很高(恶性肿瘤误诊率40%,器官异位误诊率60%)

目前的人工智能已经可以帮助人类做诊断并提供治疗手段。

奇怪的是:无论是从可解释性还是从错误的容忍度上来讲,医疗诊断都不适合用人工智能。

但当我们将人工智能作为一种辅助,最终还是靠人类来做判断和下决定时。人类和机器可以形成很好的互补。

工厂的发展也是类似的路径:

  • 一开始机器只做辅助,人力是最重要的
  • 机械化和自动化的程度越来越高,机器的作用越来越大
  • 最终实现无人工厂(已经实现)

所以从「可解释性」和「错误容忍度」上可以评估出来哪些问题不适合「完全依赖人工智能」。

但只要商业价值足够大,还是有解决方案的——人类和机器相互配合,共同解决问题。并且随着技术的进步,不断减少对人力的需求。


0条评论 添加新讨论

登录后参与讨论
Ctrl+Enter 发表