RELATEED CONSULTING
免费使用
下列产品全部免费使用
服务时间:9:30-18:00
你可能遇到了下面的问题
关闭右侧工具栏
人工智能的恶意潜在前沿和中心在新的报告
  • 发表时间:2020-08-23 22:10
  • 来源:数度域

尽管人工智能可能是有益的,但它也有黑暗的一面。周二,一组技术、学术和公共利益组织联合发布了一份长达100页的报告,这份报告聚焦于黑暗的一面。

报告预测,人工智能将被威胁者用来扩大攻击的规模和效率。他们将利用它来破坏无人驾驶飞机和无人驾驶汽车等物理系统,并扩大他们的隐私侵犯和社会操纵能力。

研究人员称,利用现有数据分析人类行为、情绪和信念的能力提高的新型攻击是可以预料的。

电子前沿基金会的首席计算机科学家彼得·埃克斯利说:“我们需要明白,算法将真正擅长于操纵人。”

我们需要发展针对他们的个人和全社会免疫系统。”

eff是该报告的发起者之一,其他发起者包括未来人类研究所、牛津大学生存风险研究中心、剑桥大学、新美国安全中心和openai。

更多假消息

报告《人工智能的恶意使用:预测、预防和缓解》指出,在威权国家的背景下,操纵人类行为是最令人担忧的问题,但它也可能削弱民主国家维持真实公开辩论的能力。

“我们将看到更令人信服的合成或假图像和视频的产生,以及信息空间的腐败,”杰克·克拉克(jack clark)说,他是由特斯拉(tesla)和spacex(spacex)首席执行官埃隆·马斯克(elon musk)共同创立的非营利研究公司openai的战略和通信主管。

克拉克告诉《电子商务时报》:“我们将看到更多的宣传和虚假新闻。”

eff的埃克斯利指出,计算机安全和利用人工智能达到恶意目的之间有着重要的联系。

他说:“我们需要记住,如果我们部署机器学习系统的计算机不安全,从长远来看,事情不会进展顺利,因此我们需要在计算机安全方面进行大量新的投资。”

“人工智能可以让网络安全变得更好,也可以变得更坏,”埃克斯利继续说,“我们真的需要把它用于防御,让我们的设备更加稳定、安全和可靠。”

阻碍创新

报告建议,为了应对不断变化的网络安全威胁,从事人工智能开发的研究人员和工程师应该认真对待其工作的双重用途性质。这意味着误用相关的考虑需要影响研究的优先次序和规范。

该报告呼吁围绕研究的开放性对规范和机构进行重新构想,包括特别关注的技术领域的出版前风险评估、中央访问许可模式以及有利于安全和安保的共享机制。

然而,这些建议令数据创新中心主任丹尼尔·卡斯特罗(daniel castro)感到不安。

“它们可能会减缓人工智能的发展。他们将远离在技术上已经成功的创新模式。”

卡斯特罗补充说:“人工智能可以用于许多不同的目的。”“人工智能可能被用于不良目的,但尝试这样做的人数量相当有限。”

突破和伦理

通过发布这份报告,研究人员希望在人工智能政策方面走在前面。

“在许多技术政策对话中,最好等到一个系统得到广泛部署后,再详细考虑它可能出现的问题或被滥用的情况,”eff的埃克斯利解释道,“但当你有了一个彻底变革的系统,并且你知道你想要的安全预防措施需要很多年才能到位时,你必须尽早开始。”

然而,公共政策制定的问题在于,它很少对问题做出早期反应。

cybereason的情报部门高级主管ross rustici说:“这份报告是‘煤矿中的金丝雀’。”

他对《电子商务时报》表示:“如果我们能让政策制定者在这个问题上有所行动,如果我们能让研究人员把注意力集中在技术应用的伦理性上,而不是技术的新颖性和工程性上,我们可能会处于一个更好的位置。”“但如果历史告诉我们什么的话,这两件事几乎永远不会发生。在突破发生之前,我们很少看到科学突破涉及到伦理问题。”

人工智能的恶意潜在前沿和中心在新的报告 相关的文章:

  • 营销公司zeta global以1 . 4亿美元的资金周转
  • 移动欺诈风险的严峻上升轨迹
  • 人工智能仍处于形成阶段
  • 约翰·奥利弗的观众用网络中立问题淹没了fcc网站
  • 亚马逊为回声报的报道增加了节目
  • veeva提供跨堆栈的客户洞察力