人工智能的前景在于它将使我们所有人的生活更加便捷。巨大的便利性也带来了巨大的盈利潜力。联合国预计,到2033年,人工智能将成为一个价值4.8万亿美元的全球市场,规模大约相当于德国经济的规模。
但别想着2033年:就在此时此刻,人工智能已经推动着金融服务、制造业、医疗保健、市场营销、农业和电子商务等各行各业的转型。无论是管理投资组合的自主算法“代理”,还是早期发现疾病的人工智能诊断系统,人工智能正在从根本上改变我们的生活和工作方式。
然而,围绕人工智能的质疑声却愈演愈烈——《终结者2》我们已经看过太多遍了,已经足够警惕。那么,值得思考的问题是,随着人工智能越来越深入地融入我们的日常生活,我们如何才能确保信任?
风险很高:Camunda 最近的一份报告凸显了一个难以忽视的真相:大多数组织(84%)将监管合规问题归咎于人工智能应用缺乏透明度。如果公司无法查看算法——或者更糟的是,如果算法隐藏了某些信息——用户就会完全蒙在鼓里。再加上系统性偏见、未经测试的系统以及零散的监管规定等因素,就很容易引发大规模的不信任。
透明度:打开人工智能黑匣子
尽管人工智能算法功能强大,但其往往不透明,用户对决策过程一无所知。你的人工智能贷款申请被拒绝,是因为你的信用评分,还是因为公司存在某种未公开的偏见?缺乏透明度,人工智能可以追求其所有者的目标,或追求其所有者的目标,而用户却浑然不觉,仍然相信它在执行他们的命令。
一个有前景的解决方案是将流程放到区块链上,使算法可被任何人验证和审计。这正是 Web3 技术的用武之地。我们已经看到一些初创公司在探索这种可能性。由微软支持的Space and Time(SxT) 公司提供由可验证计算层组成的防篡改数据馈送,因此 SxT 可以确保人工智能所依赖的信息真实、准确且不受任何实体的影响。
Space and Time 的创新 SQL 证明器 (Proof of SQL prover) 可确保查询基于未经篡改的数据进行准确计算,并证明区块链历史记录中的计算结果,其速度远超最先进的 zkVM 和协处理器。本质上,SxT 有助于在不依赖中心化权力的情况下建立对 AI 输入的信任。
证明人工智能值得信赖
信任并非一蹴而就,而是需要日积月累才能赢得的,就像餐厅需要不断提升标准才能保住米其林星级一样。人工智能系统必须持续接受性能和安全性评估,尤其是在医疗保健或自动驾驶等高风险领域。二流人工智能开错药或撞到行人,这不仅仅是一个故障,更是一场灾难。
这就是开源模型和通过使用不可变账本进行链上验证的魅力所在,其内置的隐私保护机制则通过使用零知识证明 (ZKP) 等加密技术来保障。然而,信任并非唯一的考虑因素:用户必须了解人工智能能做什么、不能做什么,才能切合实际地设定他们的期望。如果用户相信人工智能绝对可靠,他们就更有可能信任有缺陷的输出。
迄今为止,人工智能教育的叙事主要集中在其危险性上。从现在开始,我们应该努力提高用户对人工智能能力和局限性的认识,更好地确保用户能够获得赋能,而不是被剥削。
合规与问责
与加密货币一样,在讨论人工智能时,“合规”一词也经常出现。法律和各种法规都不允许人工智能获得通行证。一个不具名的算法应该如何承担责任?答案或许在于模块化区块链协议Cartesi,它确保人工智能推理在链上进行。
Cartesi 的虚拟机允许开发人员在去中心化的执行环境中运行标准 AI 库(例如 TensorFlow、PyTorch 和 Llama.cpp),从而适合链上 AI 开发。换句话说,它融合了区块链透明度和计算 AI。
通过去中心化实现信任
联合国最近发布的《技术与创新报告》显示,尽管人工智能有望带来繁荣与创新,但其发展也面临“加剧全球鸿沟”的风险。去中心化或许是答案,它有助于人工智能的规模化发展,并增强人们对其底层机制的信任。
免责声明:
本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。 如有侵权,请与我们联系。 所有信息仅供参考和分享,不构成任何投资建议。投资者应基于自身判断和谨慎评估做出决策。 投资有风险,入市需谨慎。
关注我们,一起探索AWM!
2025-04-07
2025-04-03
2025-04-05
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.