人工智能(AI)发展必须在提高效率与考虑道德和安全之间取得平衡。
试想一下,有多少历史事实我们接受为真理,而不去质疑它们的有效性。例如,如果一本详述一场重要战役的七世纪书籍实际上是由九世纪的人重写的,会怎么样?也许一位九世纪的领导人让抄写员重写了该记载,以满足他们的政治或个人愿望,使他们能够行使更多权力或以虚假的借口打造遗产。
当然,我并不是说普遍接受的历史事实是错误的或被操纵的。然而,它确实凸显了验证现代之前的历史数据的难度,象征着未来不受控制的发展可能会再次带来一个问题。
当前,AI 处于黑箱孤岛状态,主要由强大实体控制,这使我们面临反乌托邦未来的风险,真相可以被改写。Open AI 在推广开源 AI 开发方法后转向更封闭的模式,引发了这些担忧,并引发了对透明度和公众信任的担忧。
如果这一趋势成为 AI 的主导方向,那么那些积累计算能力、开发先进 AI 技术和应用的人可以创造出替代现实,包括伪造历史叙事。
现在是 AI 监管的时候了
只要中心化实体向公众隐藏其算法,数据操纵的威胁及其破坏政治和社会经济环境的能力就可能真正改变人类历史的进程。
尽管有无数警告,但世界各地的组织仍在争先恐后地使用、开发和积累强大的 AI 工具,这些工具可能会在未来十年内超越人类智能的范围。虽然这项技术可能有用,但迫在眉睫的威胁是,这些发展可能会被滥用来压制自由、传播高度危险的虚假信息活动或利用我们的数据来操纵我们自己。
甚至有越来越多的证据表明,政治人物和政府使用常见的 AI 图像生成器来操纵选民并在敌对人口中制造内部分裂。
有消息称,最新的 iOS 18 的 AI 套件可以读取和总结信息,包括电子邮件和第三方应用程序,这让很多人担心科技巨头会访问聊天和私人数据。因此,这引发了一个问题:我们是否正在步入一个坏人可以通过我们的设备轻易操纵我们的未来?
并非危言耸听,但假设 AI 模型的开发完全由强大的中心化实体决定。我们大多数人都很容易想象这种情况会完全偏离轨道,即使政府和大型科技公司都认为他们是为了更大的利益而运作。在这种情况下,普通民众永远无法透明地获取用于训练快速发展的 AI 模型的数据。由于我们不能指望大型科技公司或公共部门自愿承担责任,因此需要建立有效的监管框架,以确保 AI 的未来合乎道德且安全。
为了反对企业游说团体试图阻止对 AI 采取任何监管行动,公众应该要求政治家实施必要的法规来保护用户数据并确保 AI 进步以负责任的方式发展,同时仍能促进创新。
加州目前正在努力通过一项法案,以控制 AI 的潜在危险。拟议的立法将限制对儿童使用算法,要求测试模型攻击物理基础设施的能力,并限制使用深度伪造技术——以及其他防护措施。虽然一些科技倡导者担心这项法案将阻碍世界顶级科技中心的创新,但也有人担心它在解决 AI 模型中的歧视问题方面做得不够。
围绕加州立法尝试的争论表明,仅靠监管不足以确保未来 AI 的发展不会被少数参与者或大型科技集团破坏。这就是为什么去中心化的 AI 加上合理的监管措施为人类提供了利用 AI 的最佳途径,而不必担心 AI 集中在权贵手中。
去中心化=民主化
没人能预测,如果不加以控制, AI 究竟会把我们带向何方。即使最糟糕的末日情景没有出现,当前的 AI 发展也是不民主的、不值得信任的,而且已被证明违反了欧盟等地现有的隐私法。
为了防止 AI 的发展破坏社会稳定,纠正 AI 进程的最有效方法是使用区块链技术在分散的环境中强制透明度。
但是,去中心化的方法不仅通过透明度促进信任,还可以通过更大的协作推动创新,提供针对大规模监视和审查的检查,提供更好的网络弹性,并且通过简单地向网络添加额外的节点来更有效地扩展。
想象一下,如果区块链的不可篡改记录在圣经时代就存在,我们可能会有更多的理解和背景来分析和评估《死海古卷》等有意义的历史文献。使用区块链允许广泛访问档案,同时确保其历史数据的真实性,这是一个广受关注的主题。
中心化网络的优势在于参与者之间的协调成本较低,因为大多数参与者都在一个中心化实体下运作。然而,去中心化网络的优势在于可以补偿更高的协调成本。这意味着在 AI 堆栈的计算、数据、推理和其他层面上,更细粒度的市场激励措施将带来更高的回报。
有效地实现 AI 去中心化,首先要重新构想 AI 堆栈的组成层。计算能力、数据、模型训练、微调和推理等每个组件都必须以协调的方式构建,并提供财务激励,以确保质量和广泛参与。这就是区块链发挥作用的地方,它通过去中心化的所有权促进货币化,同时确保透明和安全的开源协作,以对抗大型科技公司的封闭模式。
任何监管行动都应着眼于引导 AI 发展,帮助人类达到新的高度,同时促进和鼓励 AI 竞争。在去中心化环境中建立和培育负责任且受监管的 AI 是最有效的,因为其资源和控制的分配大大降低了其腐败的可能性——这是我们想要避免的终极 AI 威胁。
目前,社会已经认识到 AI 的价值,也认识到了 AI 带来的多重风险。未来, AI 的发展必须在提高效率的同时兼顾伦理和安全。
Peter Ionov是 Cointelegraph 的特约作者,也是乌克兰企业家、工程师和发明家,他领导并经营多家公司:Robosoft、GT 协议和 Ukr Reklama。Peter 正在 Web4、机器人技术和 AI 领域开辟道路。他以对人类未来的雄心勃勃的愿景而闻名,其中包括“为机器人工作,为人休息”的理念以及开发改善人们生活和稳定性的技术。
免责声明:
本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。如有侵权,请与我们联系。所有信息仅供参考和分享,不构成任何投资建议。加密货币市场具有高度风险,投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。
交流更多AI/Web3/Meta相关知识
⬇️点击下图⬇️
关注我们,一起探索AWM!
2024-10-13
2024-10-14
AI 模型越复杂,撒慌的可能性越大
2024-10-1
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.