前言:本文是团员“木南”的第2篇输出,第一篇在《AI+教育调研报告》;欢迎有更多的团员们也来分享你的AI干货~
这句话也是我做产品的心经,通俗的解释就是产品工作的本质在于“探索挖掘事物表象下的因果”。大到项目,小到原型落地方案; 总是要回答“为什么要做某件事,为什么用某种方式去做这件事”,而此类问题答案背后的原因是否足够“澄明通透” 才是做好一个业务,一个产品,一个方案的魂。
大前研一也有过类似的观点“,他认为所谓的逻辑思考力就是一种“验证问题,追溯原因的执行力”。
从一个理念,引出这篇文章后面要写的内容:我会以一名AI产品经理的角度来分享做AI项目要从哪些维度去思考问题,最后还有一个相对完善的项目报告例子。
何为项目的第一等事呢? 显然是“商业价值” ,商业价值是评估一个项目能否成功立项,评估项目价值的判定标准。 因此做一个AI项目,第一等事是证明这个项目是有价值的。我们要有充足的证据回答以下两个问题。
问题1: 这个项目将解决谁什么问题?
参考: 用户是谁,用户怎么用,用户为什么会用
问题2: 这个项目为什么重要,需要解决?
参考: 收入,留存率,新增,效率,用户满意度.......
接着要思考的问题是这个项目真的适合AI来解决吗?AI并不是万能的,不管ML,DL多么神奇,本质上它还是电脑程序,当前只有在某些特定的,相对封闭的场景下,才可能会输出比人类更好的工作成果。所以作为AI产品经理,要做的第二件事就是判断这个场景适合用AI技术去解决吗? 具备AI技术落地的基本条件吗? 成本怎么样? 性价比如何呢?
问题3: 为什么这个项目要用AI技术来解决?
参考: AI在这个场景,这个领域的表现出的“性价比”超过了人;当前的情况通常这类场景是相对封闭的,特定的,并且机械重复的。
问题4: 是否具备AI技术的落地条件?
参考:数据来源是否可靠, 算法是否成熟可用, 公司是否有足够的算力 ;投产比如何
问题5: 问题是否足够聚焦和可量化
参考: 相当于问题3的一个子维度,这里单列出来详细解释一下,当前当部分的AI方案不能完全替代人,只能替代特定的约束条件下,人类某项工作或者某项工作的某些环节;所以AI产品经理的一项重要的工作是明确AI与人分工的边界,明确约束条件,甚至必要的时候需要妥协,做好用户的预期管理。
举个例子: 我们的需求不应该是: 采用AI技术为XX农场赋能,节省成本; 应该是经评估,CV技术可以应用于“杂草” 和 “农作物”的识别方面; 机器自动识别”杂草“和"作物" , 有选择性的喷洒除草剂,节约了除草剂的投入成本。
当我们确认了这是一个可以用AI技术解决的具有商业价值的项目后,我们要做的就是建立这个项目的“评估体系” ,即用哪些指标来衡量这个项目; 这里有两种意义的“评估指标”,中文里都叫评估指标容易混淆,英文里一个叫“outcome” ,另一个叫“outputs”。
Outcome 是用来定义项目成功标准,衡量项目达到了当初立项的预期(比如: 商业利润,提升用户体验,提升效率,提升满意度等等)
Outputs 是用来定义AI模型成功标准,衡量技术上是否达到了产品的可用标准(一般用: Accuratcy ,precision , recall , R! ,R2 ,MSE 等指标来衡量。)
虽然两个指标有先后置的关系,一个是一级问题,另一个是二级问题;但是指定outcome和outputs都是AI产品经理要做的核心工作,都是决定项目成败的核心因素。
我认为“outputs” 恰恰是 “连接” 业务问题与技术工程,最关键的“桥梁” ,这个桥梁的端是“业务侧”和“工程侧”
(1)业务侧,评估指标的制定一定是基于真实的用户,最终交付的产品才具有可用性
(2)工程侧,评估标准的制定,决定了“算法工程师”的技术选型,需要多少数据?训练周期等,才能达到业务要求。
举个例子: 比如 医疗上用CV技术识别肺炎和健康人的X光片。假设: 肺炎的x光片是 “正例” ;那么我们是保“精度”还是“召回率”呢? 在这个场景下,很显然是要保证“召回率” ; 精度低,只是会把大量的健康的人误诊为病人; 但是如果召回低,出现了漏判的情况,就会耽误肺炎患者病情,所以在这个场景下,评价指标【召回率】优先级要高于【精度】。
“正确定义了机器学习模型的评价标准(evaluation), 问题基本上就已经解决一半" ---- Jeremy Jordan
可见后续70-80%的工作量,都是围绕着如何达成“Outputs”的评估指标;工程上达成了这个指标,代表了业务上该产品可以解决用户的问题;如果评估指标定义的不合理,或者方向不正确;很可能交付一款不可用的产品,浪费人力财力。
数据是AI的原材料,训练数据的质量可以决定模型最终效果的70-80%,AI产品经理的另一项重要的工作是给AI团队足量保质的数据样本;
问题6: 项目的训练数据来源有哪些?
参考: 开源的,还是内部的 ,是否可购买
问题7: 获取这些数据是否需要成本?
参考 : 获取数据是否有成本,金钱和时间
问题8 : 数据是否会过时,是否需要定期更新?
参考 : 根据项目的性质判断;比如服装时尚类的产品推荐,时尚的潮流每年都会改变。
问题9 : 数据是否涉及版权和隐私问题,法律上如何规避?
参考 : 数据中敏感信息的定义和规避,包括纠纷的解决方案
问题10: 本项目需要的训练数据量的大小?
参考 : 训练集和测试集的样本量的大小,将决定训练时间成本;和项目排期及上线时间强相关。
问题11 : 样本分布是否均匀?若分布不均匀如何克服偏置问题?
参考 : 比如分类识别类的AI任务,并不是所有类别的训练样本都是足够多的;那么机器最终对于”小样本“的类别的判断精度和相对较低,产品经理采用什么策略规避此类问题?
问题12 : 如果组织样本收集,标注和管理工作?
参考: 采用监督学习方法,训练数据的不足,需要组织打标签;是外包还是内部消化? 如何组织管理标签质量? 比如: 我们如何规避人工偏见导致的标签标注错误。
问题13: 数据的标签值和特征值分别是哪些? 背后的逻辑是?
参考 : 标签和特征的定义一定是基于业务场景的,这是AI产品的本职工作,并不是数据工程师和算法工程师要做的。 产品经理应该明确的告诉工程师,这个项目里标签值和特征值是如何定义的,背后的逻辑是什么。
这一步我个人的观点是,初级的AI产品经理只要有识别出我们要用AI解决的问题属于什么范畴即可(比如是:分类问题,还是回归问题 ; 属于推荐,还是识别) 而至于我们的实现方案要采用什么算法,应该交由更专业的算法工程师判断(除非产品经理也是技术出身,对算法的理解段位和算法工程师是相当的)。
本身就不存在绝对正确的模型或者算法,只存在相对有用的模型和算法。这种理想和现实之间的差异是模型的天然属性自带的,本质上讲,所谓模型就是由人定义的可以客观反映事物或者数据之间的某种对应的映射关系。 但是人对事物的认知本身就带有局限性和片面性,所以没有一种可以完美解决问题的模型或者算法。 所以产品经理应该认识并识别出这种模型局限性导致的输出结果的偏差。 并且针对这些偏差基于对业务的理解,给出合理可靠的替代方案。
这个环节AI产品经理要思考的问题是:
问题14: 这个问题可以使用那类模型解决?
参考: 了解各类主流算法的应用场景,输出的结果是处理分类,还是回归; 了解传统的ML
和DL各自用于处理什么问题? 对数据量的要求是否有差异? 当前的场景是否已经有成熟的AI产品实现了,他们是怎么做的?
问题15: 模型我们可以用开源资源还是自主研发?判断的逻辑是什么?
参考: 上线的时间要求,自研和开源资源的排期和成本各自如何? 后续的迭代计划是否冲突? 拓展性是否有差异?
思路: ”迁移学习 “来减少训练成本,服用已经训练好的某些层或神经节点。
产品最初版本要考虑最小可迭代单元,MVP(最小化可行产品,Minimum Viable Product)的目的是为了做初步验证,以代价最小的方式验证需求的真伪;验证之前指定的指标构想是否存在偏差。
问题16: 产品最小的可用方案
参考: 定义产品的核心功能和最小可用版本的方案
问题17 : 产品给谁设计的,用户是怎么用的?
参考: 明确核心用户是谁?验证核心用户是否按预期那样看待和使用产品
问题18 : 投放策略
参考: 如果接触到潜在的核心用户,怎么推广?按什么节奏去推广
这里分享一下,MVP验证通过后,后续的版本迭代和优化的问题。
问题19: 产品版本规划是怎样的?
参考:基于最小可交付版本,后续按着哪些方向去补全产品功能? 比如: 性能的提升; 体验的提升 ; 用户群的拓展 ; 使用场景的拓展等等。
问题20 :ABtest方案设计
参考: 可以在以后用户群体中分离出20%的用户,进行新版本的体验测试,收集用户反馈;若反馈良好,样本数符合统计学规律;同时新版本衍生出的新问题都有提前的备案计划,那么可以考虑释放新的版本方案,优化升级。
问题21 : 如何更新升级数据
参考 : 前文也提及了,数据其实是AI产品的燃料;和业务自身的性质相关,如果业务模型的训练数据是需要更新的,那么产品经理应该组织好新数据的采集和训练的管理工作。确保模型的判断结果是符合当前客观状态的,产品不会过时。
问题22 :如何处理偏置问题和用户的预期管理
参考: 这里说的”偏置“问题,一共有三种情况;前文中都有提及但是没有明确的定义,这里在详细说明一下。偏置是模型输出结果不达预期可能产生的原因:
(1) 数据偏置 : 由数据样本分布不均造成的,比如宠物的识别,猫狗之类常见的宠物图片十分容易获得,但是”蛇“,”蛙“,”昆虫“之类的宠物,比较小众。此类图片的训练数据较少,模型会对此类宠物的判别精度会下降。
(2) 模型偏置 : 数据输入模型后,模型自身的权重带来的偏置;和模型的参数有关,比如激活函数的”阈值“。 也是人工设定的。
(3) 标注偏置: 是指人工标注工作中,一些”似是而非“的问题产生的标注偏差; 比如:经过统计,让一个白人和一个黑人来评估一个”棕色“人种的肤色,黑人会倾向于给他打上黑色的标签; 白人会倾向于其肤色更白一些。这种偏置和人种不同是天然存在的,标注也是由人来设定的。
并不是所有的”偏置“问题都一定要解决,产品经理需要评估偏置对项目整体带来的影响,以及处理偏置的性价比,结合实际情况输出偏置的优化方案,或者是做好用户的预期管理和风险控制。
下面分享一个我在优达的一个AI项目设计文档:
Success Metrics
附:团员“木南”的文章汇总
-END-
以上内容,来自饭团“AI产品经理大本营”,点击这里可关注:http://fantuan.guokr.net/groups/219/ (如果遇到支付问题,请先关注饭团的官方微信服务号“fantuan-app”)
---------------------
作者:黄钊hanniman,图灵机器人-人才战略官,前腾讯产品经理,7年AI实战经验,10年互联网背景,微信公众号/知乎/在行ID“hanniman”,饭团“AI产品经理大本营”,分享人工智能相关原创干货,200页PPT《人工智能产品经理的新起点》被业内广泛好评,下载量1万+。