许知远说我们每个人都是带着偏见
在看这个世界
我以为如果我们把决策交给计算机
就能避免带着偏见做出的错误决策
可我们真的可以相信计算机吗?
事实上计算机只不过是deep learning了
一遍人类社会的现状
根据大数据当然会做出和当前社会一样的
具有偏见的错误决策
而且连算法工程师自己
都不知道计算机是处理分类这些信息的
不管我们愿不愿意
算法已经是无处不在了
它不仅仅影响你线上购买什么产品
还决定了你晚上去哪家酒店开房
而且已经真真切切地改变了很多人的人生轨迹
算法可以决定谁能获得更多贷款
谁能得到面试机会
曾经亚马逊等大厂都是用算法来筛选简历的
所有的女性候选人都会被算法拒绝
目前这个算法已被停用
MIT的黑人女学生Joy Buolamwini发现
人脸识别技术存在极大的偏见
如果你是黑人女性
有35%的概率是无法被软件识别的
甚至只有戴上白人的面具
你才被计算机识别为人类
很多软件还没有适应一个黑色皮肤的人类
因为所谓的被接受到的大数据信息里
有75%是男性,其中80%是白人
如果从一开始你给计算机的大数据
就是带有偏见的
那么计算机的算法怎么可能是正确中立的呢?
另外没有任何面部分析系统是完全准确的
亚马逊的面部识别系统Rekognition
将Oprah Winfrey识别为男性
它还将28名国会议员与面部照片数据库
进行了错误匹配
2019年另一个面部识别工具错误地
将布朗大学的一名学生标记为
斯里兰卡爆炸案的嫌疑人
算法一个重要的作用就是通过分析网上行为
对人类的未来的行为做出预判
因此人脸识别已经被用于法庭来
预判个人危险度
结果是黑人被告的预估风险大约高于白人2倍
看来没有情感的算法比开地图炮的键盘侠
还更加偏执
甚至是你要做多长时间的监狱
都是由某个算法说了算
许多警察部门使用人脸识别技术来识别嫌疑人
并进行逮捕
一次错误的匹配可能导致错误逮捕、长期拘留
甚至是致命的警察暴力
这不禁让我联想到了《心理测量者》
动画《心理测量者》(PSYCHO-PASS)描绘了一个独裁的反乌托邦未来社会,无处不在的监视器会不断扫描每一个经过的市民的精神状态。亦会预测一个人犯罪的可能性,并把其数值化,成为“犯罪指数”。如果超过门槛则会被公安局刑警追捕,甚至是就地处决。
黑人女性Tonya LaMyers被算法
定义为“高风险人类”
因此她需要每周都去“办事处”进行自我报告
但事实上她有份很好的工作
并收到两份推荐信
一份来自费城市议会,另一份来自费城市长
然而算法因为肤色推翻了事实
如果因为需要每周进行自我报告失去工作
这将会使Tonya的状况更糟糕
Uber在去年推出了“实时身份检查”的功能
照片审查是由机器自动审查的
提交照片后很多黑人未能验证自己的身份
并在第二次尝试验证后账户被停用
其中一位司机Hasan
前往伦敦总部进行进一步咨询
前台的工作人员证实了
自拍照和Uber文件中的个人资料照片相符
但这仍然无法改变账号被停用的事实
Uber的面部识别技术是由微软提供
就连微软总裁
在19年接受采访时都承认了
目前人脸识别识别女性的成功率小于男性
对很多有色人种来说可能出现
各种错误无法识别
然而伦敦的Uber司机95%都是有色人种
Uber对于他们来说是很重要的经济来源
如果因为他们的肤色
人工智能拒绝你做为Uber司机的话
对很多家庭都是严重的打击
人脸识别仍然是一项强大的技术
在刑事司法和日常生活中都具有重要意义
科技行业的大数据缺乏多样性
是因为其算法通常由主导技术领域的
白人工程师编写
当程序员构建算法时
可能仅仅专注于在一个种族(白人)中突出的特征
而忽视其他族裔
这些研究大概率都有自身的偏见
和工程师自己的经验和理解
“我们的社会制度总是首先由人创造的,是人类告诉机器该怎么去思考”,乔治敦大学的教授Amy Zalman说道。
技术当然并不只是服务于白皮肤的人
但算法依旧Ctrl C+V了原始数据中
明显存在的相同偏见
通过对人工智能进行足够的“训练”
并输入具有广泛代表性的人群数据库
可能会消除算法的偏见
但以一个完美准确的方式对人进行分类
仍然是一个需要讨论的伦理问题
毕竟不是算法决定了人类的未来
而是人类决定了算法的未来
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.