谷歌不会将人工智能用于武器

作者:查鑫

<p>旧金山 - 谷歌周四宣布不会将人工智能用于武器或“导致或直接促进人员受伤”,因为它公布了这些技术的一套原则</p><p>首席执行官Sundar Pichai在博客文章中概述了该公司的人工智能政策,并指出即使谷歌不会将AI用于武器,“我们将继续与政府和军方在许多其他领域开展工作”,包括网络安全,培训,和搜救</p><p>谷歌面临来自美国军方的合同,面临来自美国军方的压力,谷歌面临来自加利福尼亚州科技巨头上周表示不会续约的压力</p><p> Pichai为谷歌应用人工智能或可以模拟智能人类行为的高级计算提出了七项原则</p><p>他说谷歌正在使用人工智能“帮助人们解决紧急问题”,例如预测野火,帮助农民,诊断疾病或防止失明</p><p> “我们认识到这种强大的技术对其使用提出了同样强大的问题,”Pichai在博客中说</p><p> “人工智能的开发和使用将如何在未来的许多年里对社会产生重大影响</p><p>作为人工智能的领导者,我们有责任做到这一点</p><p>”这位首席执行官表示,谷歌的人工智能计划将专为“社会有益”和“避免制造或加强不公平偏见”的应用而设计</p><p>他说,这些原则还要求人工智能应用程序“为安全而构建和测试”,“对人们负责”并“纳入隐私设计原则”</p><p> Pichai写道,谷歌将避免使用“导致或可能造成整体伤害的任何技术”</p><p>这意味着要避开“主要目的或实施导致或直接导致人员伤害的武器或其他技术”以及“收集或使用违反国际公认规范的监视信息的系统”</p><p>此举是因为人们越来越担心自动化或机器人系统可能被滥用并失控,从而导致混乱</p><p>一些技术公司已经同意使用人工智能的一般原则,但谷歌似乎提供了更精确的标准</p><p>该公司已经是人工智能合作伙伴关系的成员,其中包括数十家致力于人工智能原则的科技公司,该公司因与五角大楼合作开发的Maven项目而面临批评,该项目利用机器学习和工程人才来区分人与物</p><p>无人机视频</p><p>据媒体报道,面对数千名员工签署的请愿书和公司外部的批评,....