编辑导语:随着互联网的不断发展,人工智能也开始普及,特别是如今在很多产品中,都会用到“算法”的方式进行推送,持续提升用户的依赖度与变现效率;本文作者分享了关于算法中的归纳法、工业化与人格权的详细分析,我们一起来了解一下。
01 演绎法,人类的无限手套
1月24日,科技媒体人潘乱与张小龙微信连麦,在讨论「数据驱动」话题的时候,张小龙表示:
机器(推荐算法)的优势,通俗来说是一个归纳的过程,它获得一万个经验点可以归纳出一个结论;人是一个演绎的过程,小孩子看到一只猫就可以知道世界上所有的猫,但机器不可能只给它一只猫的照片,它就能知道所有的猫。你要给它十万张猫的照片,它才可能识别出十万零一只猫的照片。 这在认知上其实是不同的,机器还没有到达演绎的能力;演绎就是设计,我们根据自己积累的很少的样本,就可以去推理出新的东西,这是两个事情。我觉得,只有在内容推荐领域,才可以说这个能交给算法,在所有的非内容推荐的领域,还是需要靠人去做的。
张小龙的这段话,可以简洁地表达为:
- 人赚不到自己认知能力之外的钱,机器同样如此。
- 推荐算法和历史上的汽车、飞机一样,只是人类的新工具(归纳法工业化)。
关于归纳法,卡尔·波普尔认为:“它既不能给人们以未来的必然性知识,也不能给人们以未来的或然性知识。”时至今日,归纳法在工业化应用之后,波普尔的前半句「必然性」一定程度得到了解决;但后半句「或然性」仍然是归纳法难以做到的。
当计算器可以快速将15*271的结果计算出来时,人就没必要抬杠再去和它比计算速度。人总是生产出来新工具,然后利用它们再去参与世界的活动,算法也是如此。
但由于机器算法缺少了「想象、情感、联想」的能力,使得人类能够借助「演绎法」,暂时保住世界之王的位置。
在新的时代浪潮下,文化冲突与保守主义并没有因为技术进步而衰退,相反,它们卷土重来、愈演愈烈。
精英阶层借助技术力量更全面地主导着公众生活,那些站在世界之巅的工程师、产品经理,致力为数十亿人提供服务与产品(Facebook、Amazon、微信…),影响着他们的每一天、每一分钟。
在这种权力的结构下,除了公众权利的保障存在风险,还有更加令人担忧的问题,即:“随着“归纳法(算法)工业化”不断发展,大量的分析决策更加自动化、效率更高,人类难以与机器在相关领域抗衡,致使其主动让渡了部分的「信息选择权、判断权」。
斯坦福教授Jeffrey Pfeffer在研究“权力”的课题时,他发现:如果你自己不放弃权力,别人要削弱你的权力会困难得多”,人类与机器的关系也是如此。拥有选择、决断的能力,是人之所以成为人的最基础要素。技术可以告诉你如果这么做会怎么样,但最后还是要交给人来做判断的,而判断的过程就显示出人的个性,如果这种判断都被剥夺的话,人就不是“人”了。
对这种困境的反思,就是人类使用演绎法保护自己的过程。
02 效率决定一切?
张小龙的产品哲学很少讲述概念性的词汇,但他对演绎法的推崇却毫不掩饰。如他所说,产品设计就是演绎的过程,是人类对第一性原理的应用。
很长一段时间,我都在疑惑为什么公众号没有一个「订阅广场」,让用户根据自己的喜好去发现新的内容?尽管“朋友圈”推荐是效率极高的一种手段,但难免让人怀疑微信的产品策略过于保守。
张小龙却坚信,熟人推荐的可靠度是最高的,对于用户来说是有很高价值的,这在微博、Twitter盛行的10年前,是难以令人信服的。时至今日,微信在视频号的设计上仍然坚守熟人推荐的核心逻辑,其产品战略的一致性令人敬佩。
回顾大多数王朝的兴衰交替,新竞争者不会被历史淹没,他们周而复始地涌现。
辛丑牛年,腾讯还有梦想,但今天的字节跳动已经四面出击,短视频、电商、游戏、教育、企业服务,两个超级平台滑入修昔底德陷阱。表面上是流量争夺战,但产品实质却是归纳法(字节:数据驱动、极致商业化)与演绎法(微信:人的设计能力)的终极对决。
从内容的产品形态上看,订阅号的设计理强调:读者所阅读到的信息,都是受自己掌控的,而不是由机器随机推送的,张小龙觉得只有这样才可以真正帮用户提高阅读效率;但当订阅号超过100个时,信息的杂乱又降低了获取高质量信息的效率,用户不得不在退订、增订中徘徊。
总的来说,一个人管理信息的效率和范围总是有限的。
内容推荐(头条/抖音)则恰好与订阅号的理念相背,如果机器能够将“全域内容”非常高效地分发给用户,持续提供用户感兴趣内容,并且适度扩展用户的兴趣面,这对用户来说将是非常好的体验,使用成本也会大幅降低。
但事实上,只有在面对「高频选择、低行动成本、供给量巨大」的用户需求时,推荐算法才能大幅度优于主动搜寻、朋友推荐;例如:1小时要刷150个短视频、看10篇很短新闻,要从数千万条的内容里主动搜寻,信息筛选的成本太高了,此时才需要机器代为筛选。
但如果是选择一部需要花30小时的电视剧、15天才能看完的书,用户的决策就属于「低频选择、高行动成本、供给量相对有限」,由于决策/行动成本高,消费内容的质量呈指数增长(内容制作成本也是)。
此时不再是算法为王,而是内容为王。这也是腾讯视频、爱奇艺等长视频平台深耕内容创作、烧钱采买版权,而非聚焦推荐算法的原因;这类重决策的选择,朋友推荐确实更为有效。
同理,当人们选择装修公司、买商品房、买二手车时,高行动成本与SKU的有限性,决定了算法在这类决策上可以提供的用户价值,相对内容推荐、计算广告会小很多。
所以,当做传统行业的互联网企业把注意力都放在技术噱头而非运营能力、供应链能力上时,一般很难取得差异化、可持续的竞争优势。
03 算法、广告、人格权
算法作为「顶级的归纳法」,我们都每天在体验,抖音、淘宝的内容/商品推荐像是时间黑洞,相比人工智能在传统行业的高开低走,内容推荐、计算广告借助短视频平台的兴起,成为人工智能最佳的应用场景之一。
在旧的资本关系里,资本家通过采买原材料,雇佣劳动力生产实物商品、提供服务;而在新兴的互联网平台下,内容信息、用户信息、用户行为数据作为核心的生产资料,通过工业化算法引擎将海量的视频、图文、广告以全局高效的方式分发给上亿用户,并不断积累数据、强化学习,持续提升用户的依赖度与变现效率。
获得用户满意的同时,平台也通过广告业务赚得盆满钵满。预计2020年,抖音广告收入超过1000亿元人民币,整个字节营收或接近2400亿元。
我们可以把“数据采样率”、“问题的目标函数收益”作一张二维图,可以看到“A类曲线”的问题;随着数据采样率不断提升,目标收益陡然增加,这类问题基本上很难通过小部分数据达到良好的效果,属于典型的大数据问题(内容推荐、计算广告);此时,海量的数据规模将形成很高的竞争壁垒。
如果个人数据可以让平台高效地商业化变现,那未来平台是否还能长期无成本地采集、使用?亦或是变现后是否需要与用户共享经济收益?这些问题,都将不可避免地在未来引发一系列的讨论。
在法国的法律中,个人数据的确切称谓是donnée à caractère personnel,即“个人性质的数据”,强调数据与个人的关联,是个人人格权的无形延伸,揭示个人的身份,具备个人的行为特性,体现为个人相关的不可转让的权利,而不是法国民法典中所规定的财产(biens) 的客体。
因此,法国的个人数据保护,不依赖于一种财产性逻辑,而是通过捍卫个人数据,意图捍卫个人本身,包括其“行事自由”与“私人生活”。
近期,上海市信息安全行业协会会长谈剑锋,建议设立国家“数据银行”,由国家成立专门机构统一管控,负责关键数据的采集、传输、存储和确权等;企业可以从“银行”提取脱敏后的分级分类数据进行分析应用,但不拥有对关键数据的所有权;此举是为了防范互联网巨头过度、无序、随意地采集与应用公众信息。
这让我想起,「2018中国发展高层论坛」谈及Facebook曝出5000万用户数据被窃时,百度董事长李彦宏表达了自己对于数据隐私的看法:
“中国人更加开放,或者说对于这个隐私问题没有那么敏感;如果说他们愿意用隐私换,或者交换便捷性或者效率的话,很多情况下他们是愿意这样做的。”
从事实的角度,确实不少人都愿意这样做,这与A股韭菜明知故闯的逻辑是相似的;但站在监管的角度,对个人数据的法律界定与监管要求,更需要从公众利益与国家安全出发,防范垄断者无节制地搭数据便车的行为。
参考文章:
《“判断”是人的基本权利,但我们正在把它交给算法丨【芒种·观点】》,腾讯媒体研究院
《微信越来越复杂,张小龙却依旧简单》,左林右狸
《法国及欧盟视角下个人数据的法律性质》,中国法律评论
#专栏作家#
一只特立独行的Eric;公众号:一只特立独行的Eric,人人都是产品经理专栏作家。商业化销售运营,短视频行业新人与观察者。
本文原创发布于人人都是产品经理。未经许可,禁止转载
题图来自Unsplash,基于CC0协议
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.