新闻中心最新政务本地社会评论深度湖北国内国际财经教育军事科技
谈人工智能作恶:黑产超正规行业 别“炼”出造反AI 大兴安岭人事局 nbalive2005操作 泡泡战士技巧 杉杉来了29集预告 天龙八部3激活码 小爱网 周公解梦梦见撞车 玛莎拉蒂gt怎么样 windows7 神key hhhh444 马云:给高管加薪不如给员工加薪 网友:别人家的老板
您当前的位置 :首页 > 影视 正文 来源: qz7370gm.cn 太仓新闻网 发布时间:
2019-12-5

  直面隐忧 业界大咖谈人工智能作恶

  别“炼”出造反的AI

  本报记者 刘 垠

  一场抢劫案后格雷的妻子丧生自我也全身瘫痪。他接受了一个天才科学家的“升级”改造治疗——在他身体里植入了人工智能程序STEM获得了超强的能力从一个“残废”直接升级成为职业杀手。随着STEM的进化升级步步紧逼格雷交出身体使用权与大脑意识控制权……

  本年度有关人工智能与人类未来的最佳影片不少人认为非〖升级〗莫属。而人工智能与人类抗衡的探讨是科幻电影中的永久话题从〖银翼杀手〗到〖机械姬〗再到今年的低成本电影〖升级〗都映射出未来人工智能对人类的威胁。

src=http://imgpolitics.gmw.cn/attachement/jpg/site2/20181105/f44d305ea48e1d49d8831c.jpg

  资料图:2018世界人工智能大会在上海开幕。(图文无关)中新社记者 汤彦俊 摄

  黑产超正规行业 恶意源于人类基因

  AI造反是科幻电影里太常见的桥段。问题在于现实当中真正的AI好像也在一步步向我们走来。不少人抱有忧虑与不安人工智能会“作恶”吗?

  倾向于AI威胁论的人并不在少数。马斯克曾在推特上表示:“我们要非常小心人工智能它可能比核武器更危险。”史蒂芬·霍金也说:“人工智能可能是一个‘真正的危险’。机器人可能会找到改进自我的办法而这些改进并不总是会造福人类。”

  “任何技术都是一把双刃剑都有可能用于作恶为什么人工智能作恶会引起这么大的反响?”在近日召开的2018中国计算机大会的分论坛上哈尔滨工业大学长聘教授邬向前抛出了问题人工智能研究的底线到底在哪里?

  早在1942年阿西莫夫就提出了机器人三定律。但问题在于这些科幻书中美好的定律执行时会遇到很大的问题。

  “一台计算机里跑什么样的程序取决于这个程序是谁写的。”360集团技术总裁、首席安全官谭晓生说机器人的定律可靠与否首先是由人定义的然后由机器去存储、执行。

  值得注意的是“不作恶”已成科技行业的一个技术原则。那么机器人作恶恶意到底从何而来?

  如今人工智能发展的如火如荼最早拥抱AI的却是黑产群体包括用AI的方法来突破验证码去黑一些账户。谭晓生笑言:“2016年中国黑产的收入已超过一千亿整个黑产比我们挣的钱还要多它怎么会没有动机呢?”

  “AI作恶的实质是人类在作恶。”北京大学法学院教授张平认为AI不过是一个工具假如有人拿着AI去作恶那就应该制裁AI背后的人比如AI的研发人员、控制者、拥有者或是使用者。当AI在出现损害人类、损害公共利益与市场法则的“恶”表现时法律就要出来规制了。

  目前无人驾驶与机器人手术时引发的事故以及大数据分析时的泛滥与失控时有耳闻。那么人工智能会进化到人类不可控吗?届时AI作恶人类还能招架的住吗?

  任务驱动型AI 还犯不了“反人类罪”

  值得注意的是霍金在其最后的著作中向人类发出警告“人工智能的短期影响取决于谁来控制它长期影响则取决于它能否被控制。”言下之意人工智能真正的风险不是恶意而是能力。

  “人工智能未来的发展会威胁到人类的生存这不是杞人忧天确实会有很大的风险虽说不是一定会发生但是有很大的概率会发生。”在谭晓生看来人类不会被灭亡不管人工智能如何进化总会有漏洞黑客们恰恰会在极端的情况下找到一种方法把这个系统完全摧毁。

  对此上海交通大学电子系特别研究员倪冰冰持乐观态度。“我们目前大部分的AI技术是任务驱动型AI的功能输出、输入都是研究者、工程师事先规定好的。”倪冰冰解释说绝大多数的AI技术远远不具备反人类的能力至少目前不用担心。

  张平表示当AI发展到强人工智能阶段时机器自动化的能力提高了它能够自我学习、自我升级会拥有很强大的功能。比如人的大脑与计算机无法比拟时这样的强人工智能就会对我们构成威胁。

  “人类给AI注入什么样的智慧与价值观至关重要但若AI达到了人类无法控制的顶级作恶——‘反人类罪’就要按照现行人类法律进行处理。”张平说除了法律之外还需有立即“处死”这类AI的机制及时制止其对人类造成的更大伤害。“这要求在AI研发中必须考虑‘一键瘫痪’的技术处理假如这样的技术预设做不到这类AI就该停止投资与研发像人类对待毒品般全球诛之。”

  作恶案底渐增 预防机制要跟上

  事实上人们的担忧并非空穴来风。人工智能作恶的事件早在前两年就初见端倪比如职场偏见、政治操纵、种族歧视等。此前德国也曾发生人工智能机器人把管理人员杀死在流水线的事件。

  可以预见AI作恶的案例会日渐增多人类又该如何应对?

  “假如我们把AI当作工具、产品从法律上来说应该有一种预防的功能。科学家要从道德的约束、技术标准的角度来进行价值观的干预。”张平强调研发人员不能给AI灌输错误的价值观。毕竟对于技术的发展从来都是先发展再有法律约束。

  在倪冰冰看来目前不管是AI算法还是技术都是人类在进行操控我们总归有一些很强的控制手段控制AI在最高层次上不会对人产生一些负面影响。“假如没有这样一个操控或者后门的话那意味着不是AI在作恶而是发明这个AI工具的人在作恶。”

  凡是技术就会有两面性。为什么我们会觉得人工智能的作恶让人更加恐惧?与会专家直言是因为AI的不可控性在黑箱的情况下人对不可控东西的恐惧感更加强烈。

  目前最火的领域——“深度学习”就是如此行业者将其戏谑地称为“当代炼金术”输入各类数据训练AI“炼”出一堆我们也不知道为啥会成这样的玩意儿。人类能信任自我都无法理解的决策对象吗?

  显然技术开发的边界有必要明晰比尔·盖茨也表示担忧。他认为现阶段人类除了要进一步发展AI技术同时也应该开始处理AI造成的风险。然而“这些人中的大多数都没有研究AI风险只是在不断加速AI发展。”

  业界专家呼吁我们必须清楚地知道人工智能会做出什么样的决策对人工智能的应用范围与应用结果的预期一定要有约束。

  AI会不会进化未来可能会形成一个AI社会吗?“AI也许会为了争取资源来消灭人类这完全有可能所以我们还是要重视AI作恶的程度与风险。”现场一位嘉宾建议我们现在要根据人工智能的不同阶段比如弱智能、强智能与超智能明确哪些人工智能应该研究哪些应该谨慎研究而哪些又是绝对不能研究的。

  如何防范AI在极速前进的道路上跑偏?“要从技术、法律、道德、自律等多方面预防。”张平说AI研发首先考虑道德约束在人类不可预见其后果的情况下研发应当慎重。同时还需从法律上进行规制比如联合建立国际秩序就像原子弹一样不能任其无限制地发展。

大兴安岭人事局 nbalive2005操作 泡泡战士技巧 杉杉来了29集预报 天龙八部3激活码 小爱网 周公解梦梦见撞车 玛莎拉蒂gt怎么样 windows7 神key hhhh444

blob.png

站长之家(Chinaz.com) 1 月 3 日消息  日前马云一段有关给员工加工资的视频在网上走红他认为给高管加工资不如给普通员工加工资。

马云表示很多企业尤其是跨国企业经常给高管加工资。中国企业一定要给普通员工加工资给高管加工资的话一个月加个 5 万 10 万元其实没什么变化。但是给普通员工加个三五千元普通员工是非常感谢的这些都是士气。(视频内容点击这里)

blob.png/

值得一提的是 12 月 28 日马云在菜鸟联盟成员召开年度会议上发言表示快递企业应该去保障基层快递员的尊严与待遇让他们有更高的收入与成长机会。

马云的该番言论引来众多网友点赞并称马爸爸说得太对了可惜老板不叫马云啊。还有的表示好想给老板看看马老板的说法。

中腾信 http://saas-intro.chinatopcredit.com/
精华推荐
大家爱看
《我是歌手2》:周笔畅要"崩溃"张宇和老婆吵架
对保障工作提出具体要求
新型保鲜库落户永兴岛
厄瓜多尔欲与中国合作生产武器 请中国帮造卫星
关于我们 | 广告服务 | 版权声明 | 联系我们 | 在线投稿 | 网站法律顾问
主管:太仓市新闻办公室
主办:太仓电视台 承办:湖北江汉明珠新媒体有限公司
鄂ICP备18043767号 - 信息网络传播视听节目许可证号:273455
版权为 太仓新闻网 所有 未经同意不得复制或镜像